xs
xsm
sm
md
lg

“เล่นโซเชียลฯ-ไม่ตั้งค่าไลน์” เสี่ยงตกเป็น “เหยื่อโจร AI” แฮกข้อมูล-ปลอมเสียง-ภาพลวง

เผยแพร่:   ปรับปรุง:   โดย: ผู้จัดการออนไลน์



กลายเป็นประเด็นร้อน กลับมาอยู่ในสปอตไลท์อีกครั้ง กับเคส "มิจฉาชีพคอลเซ็นเตอร์" หลังนางงามดัง "ชาล็อต ออสติน" ตกเป็นเหยื่อ สูญถึง "4 ล้าน" เพื่อไม่ให้ประวัติศาสตร์ซ้ำรอย ชวนกูรูหยิบ "มุกล่อลวง" มาอัปเดตล่าสุด น่าตกใจว่าไปไกลถึงขั้น “ปลอมเสียงคนใกล้ตัว” ซึ่งเหมือนจน “แยกยาก” ว่า “ของจริง” หรือ “ปัญญาประดิษฐ์” ปลอมตัวมา!!




** ฉก 4 ล้าน บังคับวิดีโอคอล 24 ชั่วโมง!! **
“4 ล้านบาท” คือราคาที่ “เหยื่อ”ต้องจ่ายให้กับ “มิจฉาชีพออนไลน์” ซึ่งเคสล่าสุดนี้กำลังเป็นที่พูดถึงในวงกว้าง จนสร้างความตื่นตระหนกในวงการอีกครั้ง เพราะเหยื่อที่ว่าคือนางงามคนดังจากเวทีมิสแกรนด์อย่าง “ชาล็อต ออสติน”
“มิจฉาชีพได้ใช้กลอุบาย ในการหลอกลวงเงินจำนวน 4 ล้านบาท พร้อมทั้งควบคุมการสื่อสารของน้องอย่างเข้มงวด

ด้วยการบังคับให้วิดีโอคอลตลอด 24 ชั่วโมง ตั้งแต่วันที่ 7 ธันวาคม เวลา 17.00 น. ทำให้การติดต่อกับชาล็อตเป็นไปด้วยความยากลำบาก

ปัจจุบัน ชาล็อตปลอดภัยแล้ว และได้ดำเนินการแจ้งความลงบันทึกประจำวันเป็นที่เรียบร้อย ขอความกรุณาทุกท่านใช้ถ้อยคำที่สุภาพ พร้อมหลีกเลี่ยงการแสดงความเห็นที่อาจซ้ำเติมหรือกระทบจิตใจผู้เสียหายค่ะ                                                                      {ชาล็อต ออสติน }

คือใจความสำคัญในแถลงการณ์ จากต้นสังกัดผ่านแฟนเพจ “Miss Grand Thailand” ส่วนผู้ใหญ่ผู้ดูแลอย่าง “ณวัฒน์ อิสรไกรศีล” ล่าสุดได้ออกมาไลฟ์สด ในฐานะประธานเจ้าหน้าที่บริหาร บริษัท มิสแกรนด์ อินเตอร์เนชั่นแนล จำกัด มหาชน แล้ว

เชื่อว่าที่ชาล็อตหลงถูกหลอก เพราะมิจฉาชีพน่าจะมีจิตวิทยาคล้ายการสะกดจิต ส่วนตัวน้องเองก็เป็นแพนิก เลยทำให้ไม่กล้าวางสาย ทั้งยังยอมทำตามแก๊งหลอกลวงทั้งหมด

แต่หลังทีมงานทราบเรื่อง ก็ได้บอกให้เจ้าตัวถอดซิมโทรศัพท์ออกเรียบร้อยแล้ว และคงมีโอกาสได้พูดคุยกับชาล็อตอีกครั้งว่า อะไรทำให้หลุดไปไกลได้ขนาดนั้น

ทั้งที่ส่วนตัวเคยเตือนคนในองค์กรแล้วว่า ถ้ามีมิจฉาชีพลักษณะนี้โทรมา ไม่ต้องสนใจ อย่าไปคุยด้วย แต่ในเมื่อเรื่องเกิดขึ้นแล้วก็ไม่อยากจะดุ บอกได้แค่ว่าเซ็งมากๆ ที่เกิดขึ้นนี้ขึ้น

สำหรับรายละเอียดการถูกหลอก มิจฉาชีพใช้วิธีไหน ยังไม่ทราบรายละเอียดแน่ชัดจากปากของชาล็อต มีเพียงโพสต์ของ "ผกาพันธุ์ หอมกลบ" ผู้จัดการฝ่ายกิจกรรม มิสแกรนด์ไทยแลนด์ และมิสแกรนด์อินเตอร์เนชันแนล ที่บอกเล่ารายละเอียดเอาไว้ ผ่านเฟซบุ๊ก "Pahkapan HomgLOB (Vanny)"

"จากเหตุการณ์ที่เกิดขึ้น มิจฉาชีพได้ติดต่อชาล็อต โดยอ้างว่าเอกสารส่วนตัวของน้อง ถูกนำไปใช้เปิดบัญชีธนาคารอย่างผิดกฎหมาย

โดยกล่าวหาว่าเจ้าหน้าที่ธนาคารอดีตสาขากรุงไทย สุพรรณบุรี เป็นผู้เปิดบัญชีนี้เพื่อรับเงินที่เกี่ยวข้องกับการฟอกเงินของบุคคลหนึ่ง ซึ่งบุคคลดังกล่าวมีคดีฟอกเงินและเคยเป็นข่าวใหญ่ในประเทศไทย

ด้วยความตกใจ ชาล็อตได้ค้นหาข้อมูลด้วยตนเอง และเมื่อพบข่าวที่ตรงกับสิ่งที่มิจฉาชีพกล่าวอ้าง น้องจึงหลงเชื่อ โดยหวังที่จะแสดงความบริสุทธิ์ใจในทุกเรื่อง ไม่ว่าจะเป็นการแจ้งข้อมูลบัญชีที่ถืออยู่ ยอดเงินในบัญชี หรือรายละเอียดอื่นๆ

มิจฉาชีพได้ใช้จังหวะที่น้องอยู่ในความหวาดกลัว กดดันให้น้องไม่ติดต่อใคร ไม่ส่งข้อความหรือเอกสารใดๆ โดยอ้างว่ากระบวนการอยู่ในขั้นตอนของคดีและเป็นเรื่องความลับ

พร้อมทั้งหลอกให้น้องโอนเงิน โดยอ้างว่าจะตรวจสอบที่มาของเงิน และจะคืนเงินให้ภายหลัง เมื่อการตรวจสอบเสร็จสิ้น ซึ่งการมีสติในสถานการณ์ที่ยากลำบากเช่นนี้ เป็นสิ่งสำคัญอย่างมาก

อย่างไรก็ตาม ชาล็อตเองกำลังอยู่ระหว่างการรักษาโรคซึมเศร้า และมีภาวะแพนิค ซึ่งส่งผลให้การตัดสินใจในสถานการณ์นี้ยากยิ่งขึ้น

สิ่งที่อยากขอจากทุกท่านคือการใช้ความเข้าใจ และความเห็นอกเห็นใจต่อผู้ที่ต้องเผชิญเหตุการณ์เช่นนี้ ขอให้พิจารณาถ้อยคำที่ใช้ในการวิจารณ์ และไม่ซ้ำเติมผู้ที่ตกเป็นเหยื่อค่ะ"

อย่างไรก็ตาม ตอนนี้สิ่งที่สำคัญคือการดูแลรักษาจิตใจของเหยื่อ ส่วนความคืบหน้าด้านคดีนั้น เคสนี้ได้แจ้งความลงบันทึกประจำวันแล้ว ที่เหลือคือติดตามการสืบสวนต่อไป



** “เสียงปลอม” ที่สังเคราะห์จาก “โซเชียลฯ” **

ต้องยอมรับว่ายุคนี้ "มิจฉาชีพ" มีกลวิธีลวงเหยื่อหลากหลายวิถีทาง ถึงเฝ้าระวังแล้วบางครั้งก็ยังวิ่งตามไม่ค่อยจะทัน แต่สิ่งที่ทำได้ดีที่สุดก็คือ การติดตามข่าวสาร อัปเดตวิธีล่อลวงเหยื่อ น้อมรับคำเตือนจากกูรูไปใช้อย่างตรงจุด ซึ่งน่าจะช่วยให้ไม่ต้องมี “เหยื่อ” เพิ่มขึ้นอีก

อย่างเคสที่กำลังจะยกตัวอย่างนี้ ไม่ใช่แค่โทร.หลอกเหมือนแก๊งคอลเซ็นเตอร์ทั่วไป แต่ถึงกับ “ปลอมเสียง”เป็นคนใกล้ตัว เพื่อ “หลอกเอาเงิน”ด้วย โดยล่าสุดมีเหยื่อสาวออกมาแชร์ประสบการณ์ตรง หลังมี “เบอร์แปลก” โทร.มาหาพ่อ แล้วปลายสายคือ “เสียงน้องสาว”ที่กำลังร้องไห้อยู่!!

บอกเล่าใจความว่า ตอนนี้น้องโดนตำรวจ “ยัดยา”อยู่ที่ร้านเหล้าแห่งนึง แถมยังกำชับครอบครัวอีกว่า อย่าโทร.กลับไปเบอร์น้องสาว เพราะตอนนี้ “โทรศัพท์แบตหมด”

ที่สำคัญ ปลายสายไม่ได้มีเสียงน้องสาวเธอคนเดียว แต่ยังมีอีกคนที่อ้างว่าเป็น “ตำรวจ” เข้ามาคุยกับคุณพ่อว่าสรุปจะเคลียร์เรื่องนี้ยังไง สุดท้ายก็ยื่นขอเสนอให้ทางครอบครัวโอนเงินมา เพื่อประกันน้องสาวด้วยวงเงิน “30,000บาท”

โดยมีข้อแม้ว่าต้องโอนผ่าน “True Wallet”หรือ “True Money”เท่านั้น จากนั้นสายก็ถูกตัดไป แน่นอนว่าเหตุการณ์ที่เกิดขึ้น ทำเอาพ่อร้อนใจอย่างมาก

แต่ด้วยความเอะใจ เจ้าของเรื่องเลยตัดสินใจ กดโทร.ไปหาน้องสาวที่เบอร์ประจำอีกรอบ ปรากฏว่าโทร.ติด แบตมือถือของน้องไม่ได้หมดอย่างที่สายนั้นกล่าวอ้าง จึงได้รู้ว่าทั้งหมดนี้คือ “มุกใหม่มิจฉาชีพ”ที่ใช้ “AI เลียนเสียงเพื่อหลอกคน”

นี่แหละคือความน่ากลัวของ AI ทุกวันนี้ ผลข้างเคียงของเทคโนโลยีที่ล้ำหน้าขึ้นทุกวัน และเพื่อป้องกันไม่ให้ใครต่อใคร ตกเป็นเหยื่อจากมิจฉาชีพไฮเทคกลุ่มนี้ ทางทีมข่าวจึงขอให้กูรูอย่าง “ดร.ปริญญา หอมเอนก”ประธานกรรมการบริหาร บริษัท เอซิส โปรเฟสชั่นนัล เซ็นเตอร์ จำกัด และ บริษัท ไซเบอร์ตรอน จำกัด ช่วยวิเคราะห์

แต่ก่อนจะไปเจาะลึกกันถึงประเด็นความน่ากลัวของ AI กูรูด้านความปลอดภัยทางไซเบอร์รายนี้บอกว่า นี่เป็นเคสแรกๆ ที่หลอกให้เหยื่อโอนเงินผ่าน “True Wallet”กับ “True Money”

เหตุผลเบื้องหลังก็เพราะการโอนเงินผ่านเบอร์ “True Money”นั้น มันจะ “ไม่โชว์ชื่อ”เจ้าของเบอร์ที่จะโอนเข้าไปว่าคือใคร ซึ่งถือเป็นอีกหนึ่งมุกใหม่ที่แยบยลกว่าเดิม ต่างจากการโอนเงินผ่าน “บัญชี” หรือ “พร้อมเพย์”ที่จะแสดงชื่อเจ้าของบัญชี                                               {“ดร.ปริญญา” กูรูด้านความปลอดภัยทางไซเบอร์}

ส่วนเรื่องที่“AI” ทุกวันนี้มีสิ่งที่เรียกว่า “Deepfake” คือการสังเคราะห์ “ใบหน้าและเสียง” ของคนขึ้นมาได้อย่างเหมือนจริงนั้น สุดท้ายแล้วระบบปฏิบัติการก็ยังต้องใช้ใบหน้า หรือเสียงของคนคนนั้นเพื่อเป็นฐานข้อมูลอยู่ดี

“เพราะงั้น ถ้ามันรู้เสียงของเหยื่อ หรือเสียงของญาติ รู้วิดีโอ มันเอาไปเทรน ก็จะสามารถพูดขึ้นมาใหม่ สร้างเสียงขึ้นมาใหม่ได้”


ถามว่ามิจฉาชีพลักษณะนี้ดึง “เสียง”หรือ “ภาพ”ของเหยื่อไปใช้ได้ยังไง? คำตอบคือ “โซเชียลมีเดีย”นี่แหละ ต้องยอมรับว่ามันคือที่ที่ทุกคนแชร์ทั้ง “รูป”และ “คลิป”ของตัวเองลงไป จนกลายเป็นแหล่งวัตถุดิบชั้นดีของเหล่าโจรไซเบอร์

“คุณเคยเจอใครไหมละ ที่ไม่มีภาพ มีเสียง อยู่ในโซเชียลมีเดีย น้อยคนนะ”
                                                  {ไม่ใช่เรื่องยาก ปลอมเสียง-ภาพในยุคโซเชียลฯ}



** วิธีเซฟที่ดีที่สุด = เอ๊ะ!! แล้วอย่ามองข้าม **

แล้วจะทำยังไง ไม่ให้ “ภาพ” หรือ “เสียง” ของเรา ถูกเหล่านักหลอกลวงเอาไปใช้? “ดร.ปริญญา” บอกว่ามันก็มี “วิธีป้องกัน” อยู่ อันดับแรก อย่าโพสต์อะไรที่เป็น “สาธารณะ”

คือเราสามารถเลือกได้ก่อนที่จะโพสต์ว่า จะให้ “ทุกคนเห็น” หรือให้เห็นเฉพาะคนที่เป็นเพื่อนเราเท่านั้น สรุปคือควรพยายามทำให้โพสต์ของเรา “Private” ได้มากที่สุด ไม่ว่าจะใช้แอปฯ ไหนในโซเชียลฯ ก็ตาม

“สเต็ปแรกคือ คุณกันไว้ก่อนจะเกิดเหตุใช่ไหมละ อย่าให้ใครเขา copy รูปคุณไปลง เอาเสียงไปให้เทรน AI ถูกไหม คุณต้องระวังในการโพสต์ public”

แน่นอนว่าเรื่องแบบนี้ มันห้ามกันยาก เพราะการโพสต์ภาพหรือคลิป แล้วตั้งค่าเป็น “สาธารณะ” เพื่อให้ทุกคนได้เห็น มันก็เป็น “วิถีของโซเชียลฯ”

ดังนั้น กูรูจึงแนะนำอีกขั้นถัดไป ที่พอจะระวังเพิ่มเติมได้คือ อย่าให้ใครแอด“Line” คุณได้ด้วยเบอร์โทรศัพท์ เพราะ “เบอร์โทร.” คือ 1 ในข้อมูลที่จะหลุดไปสู่มือมิจฉาชีพเป็นจำนวนมากแล้วตอนนี้

การตั้งค่าให้สามารถเพิ่มเพื่อนใน Line ผ่านเบอร์โทร.ได้นั้น ก็เท่ากับเราเพิ่มช่องทางให้มิจฉาชีพเข้าถึงตัวเราได้ง่ายขึ้น เพราะส่วนใหญ่ที่โดนหลอกกัน นอกจากการส่ง SMS หรือใช้เบอร์แปลกโทรมาแล้ว ทาง Line เองก็เป็นอีกเครื่องมือที่มิจฉาชีพใช้กัน

เพราะคนพวกนี้สามารถปลอมบัญชี ให้เหมือนคนที่เรารู้จักได้อย่างไม่ยากนัก บวกกับเทคโนโลยี AI ที่ปลอมหน้าและเสียงได้ ทำให้ Line มันแนบเนียนกว่า เอาเบอร์แปลกๆ โทร.ไปหลอกเหยื่อเสียอีก

ส่วนเรื่องที่จะ “แยกแยะ” ได้ว่า สายที่เราคุย หรือภาพที่เราเห็น เป็นคนรู้จักเราตัวจริง หรือ AI ปลอมตัวมานั้น กูรูด้านความปลอดภัยทางไซเบอร์รายเดิมบอกว่า “บอกตรงๆ ถึงผมจะเป็นผู้เชี่ยวชาญยังไง มันก็ไม่ง่าย”

ทุกวันนี้มีเครื่องมือที่เรียกว่า “AI Detector” เป็นตัวที่สามารถเอาคลิป ภาพ หรือเสียงใส่เข้าไป แล้วตรวจสอบได้ว่าเป็นของจริง หรือ AI สร้างขึ้นมา แต่เคสการ “โทร.หลอก” แบบนี้ การตรวจสอบเป็นเรื่องยากมาก ถ้าเราจะแยกแยะด้วยตัวเอง โดยไม่ใช้เครื่องมืออะไรเลย



ทางรอดของเรื่องนี้คือ เราต้องมี “สติ” และ “Critical Thinking” เพราะถึงแม้ดูไม่ออกว่า “คนจริง” หรือ “AI” แต่มันก็มีจุดที่สามารถจับสังเกตได้อยู่

 ถ้าเป็นคนรู้จัก แต่กลับติดต่อผ่าน “เบอร์” หรือ “Account” โซเชียลฯ “ที่เราไม่รู้จัก” นี่คือ “เอ๊ะ! แรก” และถ้าเรื่องที่คุยเป็น “เหตุฉุกเฉินต้องใช้เงิน” ไม่ว่าจะอุบัติเหตุ หรือถูกตำรวจจับ บีบให้ “ต้องโอนเงินเดี๋ยวนั้น”

 แต่กลับ “ไม่ใช้บัญชีตัวเอง” หรือต้องโอนผ่าน “True Money” และจะ “ไม่ยอมให้เราวางสาย” หรือต่อให้ “โทร.กลับก็ไม่รับสาย” คือจุดสังเกตจุดใหญ่ๆ ที่ไม่ควรมองผ่าน ส่วนบทสนทนาของเหล่ามิจฯ แนวนี้ มักจะเป็นแนว “หว่านล้อม-บีบบังคับ” ให้เราไม่มีเวลาคิดแ ละต้องตัดสินใจเดี๋ยวนั้น

“จิตวิทยาของมันก็คือ จะต้องปิดการขายคุณทันที เพราะถ้าคุณว่างปุ๊บ คุณโทร.เช็กกับลูกคนได้”

พวกนี้คือ “มุกประจำของมิจฉาชีพ” ถ้าเราสังเกตเห็นความแปลกเหล่านี้ ให้บอกตัวเองเลยว่า “โดนแล้ว” ซึ่งหากเรามี “สติ” มากพอที่จะ “คิดวิเคราะห์” ได้

ดังนั้น ต่อให้ “AI” จะ “ปลอมหน้า” หรือ “เสียง” ได้เหมือนจริงขนาดไหน เราก็ไม่มีทางหลงทำตามเทคนิคลวง และตกเป็น “เหยื่อ” โจรไฮเทคเหล่านี้แน่นอน


สกู๊ป : ทีมข่าว MGR Live



** มาตามติด ไลฟ์สไตล์บันดาลใจ+ประเด็นสดใหม่ ได้ที่นี่!! **




กำลังโหลดความคิดเห็น