xs
xsm
sm
md
lg

ชู 3 นิ้วพิสูจน์ Deepfake สูตรลับปราบมิจฉาชีพจริงหรือ?

เผยแพร่:   ปรับปรุง:   โดย: ผู้จัดการออนไลน์



กลายเป็นกระแสไวรัลในโลกโซเชียลที่แชร์ต่อกันอย่างแพร่หลาย กับคำแนะนำที่ระบุว่า "หากสงสัยว่าคู่สนทนาในวิดีโอคอลเป็น Deepfake ให้บอกลองชู 3 นิ้วขึ้นมาบังหน้า" คำถามสำคัญที่ควรหาคำตอบคือ วิธีนี้มีน้ำหนักทางเทคนิคเพียงใด

ต้นเรื่องของคำแนะนำนี้มาจากคลิปที่เป็นกระแสใน Reddit เรื่องการจับพิรุธมิจฉาชีพที่ใช้เทคนิค Deepfake โดยชาวเน็ตรายนี้พบพิรุธขณะวิดีโอคอลกับชายคนหนึ่งที่คาดว่าเป็นสแกมเมอร์ จึงพยายามทดสอบด้วยการสั่งให้ทำท่าต่างๆ เช่น ให้หยิบกรอบรูปด้านหลังมาถือค้างไว้ ซึ่งก็สามารถทำได้ดีเป็นธรรมชาติ จนกระทั่งผู้ใช้งานขอให้อีกฝ่ายชู 3 นิ้วขึ้นมาไว้บริเวณใบหน้า ในคลิปเห็นได้ชัดว่าสแกมเมอร์บ่ายเบี่ยงที่จะทำตาม และเมื่อยอมชูนิ้วขึ้นมา นิ้วก้อยกลับหายไปอย่างผิดธรรมชาติ ซึ่งเป็นอาการประมวลผลพลาดของ AI (Glitch)

และเมื่อถูกจับได้และไปต่อไม่ถูก สแกมเมอร์จึงรีบปิดกล้องและตัดการสนทนาหนีไปทันที กลายเป็นอุทาหรณ์ให้ชาวเน็ตนำเทคนิคนี้ไปปรับใช้เพื่อป้องกันตัวจากการถูกหลอกลวง โดยเฉพาะในกรณีที่มิจฉาชีพอาจใช้ใบหน้าบุคคลคุ้นเคยมาหลอกล่อและดึงความสนใจ

***เจาะลึกกลไก ทำไมต้อง "ชูนิ้ว"

ในมุมมองของนักพัฒนา AI สาเหตุที่เทคนิคนี้ถูกหยิบยกมาใช้ เพราะอัลกอริทึมการสร้างใบหน้าปลอม (Generative AI) มักจะประสบปัญหาเรื่อง "Occlusion" หรือการที่มีวัตถุมาบดบังใบหน้า เมื่อใครชูนิ้วขึ้นมาขวางระหว่างกล้องกับใบหน้า ระบบ Deepfake ในยุคแรกจะประมวลผลเลเยอร์ภาพไม่ทัน ส่งผลให้เกิดอาการ "ภาพแกว่ง" นิ้วบิดเบี้ยว หรือใบหน้าปลอมอาจหลุดออกจนเห็นใบหน้าจริงของมิจฉาชีพ

ภาพจากเว็บไซต์ sub.led.go.th/it/591/
อย่างไรก็ตาม จากการตรวจสอบล่าสุด พบว่ายังไม่มีรายงานเป็นทางการ จากหน่วยงานรัฐอย่าง ETDA หรือสถาบันเทคโนโลยีระดับสากลที่รับรองว่าการ "ชู 3 นิ้ว" คือมาตรฐานการตรวจสอบที่แม่นยำ 100%

ในทางตรงกันข้าม ผู้เชี่ยวชาญด้านความมั่นคงปลอดภัยไซเบอร์เริ่มออกมาเตือนว่า "อย่าชะล่าใจ" เนื่องจากเทคโนโลยี Deepfake พัฒนาแบบก้าวกระโดด และปัจจุบันโมเดลรุ่นใหม่ก็ถูกฝึกฝนให้รับมือกับการบดบังได้เนียนตาขึ้นมาก การฝากความหวังไว้ที่การชูนิ้วเพียงอย่างเดียวจึงอาจกลายเป็นช่องโหว่ให้มิจฉาชีพที่ใช้ซอฟต์แวร์ระดับสูงหลอกลวงได้อยู่ดี

***ตรวจให้ชัวร์ เพิ่มจากการชูนิ้ว


กองบัญชาการตำรวจสืบสวนสอบสวนอาชญากรรมทางเทคโนโลยี (บช.สอท.) และผู้เชี่ยวชาญคัดกรองข่าวปลอม แนะนำให้สังเกตจุดอ่อนของ AI ที่รอบด้าน เริ่มจากการกะพริบตา โดยควรสังเกตจังหวะการหลับตาที่อาจจะถี่ผิดปกติ หรือดูแข็งทื่อไม่เป็นธรรมชาติ

ขณะเดียวกัน ขอบใบหน้าและใบหูก็อาจเป็นจุดที่ AI อาจจะประมวลผลพลาด โดยรอยต่อระหว่างใบหน้ากับผมและผิวหนังบริเวณลำคอ ซึ่งอาจมีการเบลอ หรือภาพฟุ้ง เช่นเดียวกับแสงและเงา โดยเฉพาะที่ตกกระทบใบหน้านั้นอาจไม่สอดคล้องกับสภาพแวดล้อมจริงในขณะนั้น

สรุปแล้วเทคนิคการชู 3 นิ้ว อาจใช้ได้ผลดี แต่การป้องกันที่ดีที่สุดในยุคนี้คือความช่างสังเกต และการตรวจสอบตัวตนผ่านช่องทางอื่นควบคู่กันไปอย่างหลากหลาย ที่สำคัญคืออย่าหลงเชื่อเพียงแค่ภาพที่ตาเห็น เพราะในโลกดิจิทัล ทุกอย่างสร้างขึ้นใหม่ได้เสมอ.