ตํารวจสอบสวนกลาง เตือนระวังมิจฉาชีพ ใช้ Deepfake ปลอมเป็นบุคคลมีชื่อเสียง เผยแพร่ข่าวปลอม-หลอกโอนเงิน แนะวิธีสังเกตเสียง AI
วันนี้ (20 พ.ย.) ตามที่ พล.ต.ท.จิรภพ ภูริเดช ผบช.ก. มีนโยบายเชิงรุก และแจ้งเตือนให้ประชาชนรู้เท่าทันถึงอาชญากรรมทางเทคโนโลยี พร้อมกําชับให้ทำการสืบสวนจับกุมมาโดยตลอดนั้น ล่าสุด มีรายงานว่า ขณะนี้มิจฉาชีพใช้เทคโนโลยีที่ทําให้เกิด การปลอมแปลงข้อมูล เช่น Deepfake และ Fake Voice ซึ่งเป็นการปลอมแปลงข้อมูล,ตัดต่อภาพ ตัดต่อ ข้อความ ตกแต่งเสียงพูด และสร้างคลิปวิดีโอปลอมบุคคลที่มีชื่อเสียง ให้ดูเหมือนจริง ส่งผลให้ประชาชนต้องระวัง และเข้าใจถึงการใช้เทคโนโลยีนี้ เพื่อป้องกันการถูกใช้เป็นเครื่องมือในวัตถุประสงค์ที่ไม่ดี เช่น การเผยแพร่ข่าวปลอม หรือ การก่ออาชญากรรมอื่นๆ
ผู้สื่อข่าวรายงานต่อว่า การปลอมภาพคลิปด้วย Deepfake จะได้ภาพที่มีความคมชัดสูง และท่าทางที่เสมือนจริงมากขึ้น หรือแม้กระทั่งการแปลงเสียงผ่านแอปพลิเคชันต่างๆ ก็สามารถเปลี่ยนน้ำเสียง เช่น ชายเป็นหญิง, หญิงเป็นชาย, ผู้ใหญ่เป็นเด็ก, การเลียนเสียง และแปลงเสียง ซึ่งผู้ไม่ประสงค์ดีอาจใช้เป็นเครื่องมือแอบอ้างเป็นบุคคลอื่น เพื่อประโยชน์บางอย่าง หรือหลอกลวงให้โอนเงิน ส่งผลให้เกิดความเสียหายด้านอื่นด้วย
สำหรับข้อสังเกตุเจ้าหน้าที่แนะนําจุดสังเกต “เสียง AI” แตกต่างจากเสียงมนุษย์อย่างไร?
1. จังหวะการเว้นวรรคคําพูด : เสียงพูดจาก AI จะไม่มีอารมณ์หรือความรู้สึก เสียงจึงจะไม่มีจังหวะหยุด ไม่มี เว้นวรรคจังหวะหายใจ และจะพูดประโยคยาว
2. น้ำเสียงราบเรียบ : เสียงจาก AI ที่มิจฉาชีพใช้จะมีเสียงที่ราบเรียบ ไม่มีการเน้นน้ำหนักเสียง หรือความสําคัญ ของคํา
3. คําทับศัพท์ : เสียงจาก AI จะพูดคําศัพท์เฉพาะไม่ค่อยชัด คําบางคําเวลาออกเสียง จะมีความผิดเพี้ยนไปบ้าง เนื่องจาก AI อาจยังไม่สามารถออกเสียงวรรณยุกต์เสียงสูง-ตํา่ ได้ในบางคํา
นอกจากนี้ ยังสามารถสังเกต “ใบหน้า” ที่สร้างจาก AI ได้ดังนี้
1. สังเกตการขยับริมฝีปาก : หากเป็นคลิปสร้างจาก AI การขยับปากของคนในคลิปจะไม่สอดคล้องกับเสียงใน วิดีโอ และดูไม่เป็นธรรมชาติ
2. ใบหน้า : มีลักษณะที่ผิดสัดส่วนธรรมชาติ โดยเฉพาะเมื่อก้มเงยหน้าหรือหันซ้ายหันขวา
3. สีผิวเข้ม หรือ อ่อนเป็นหย่อมๆ : แสงและเงาบริเวณผิวไม่สอดคล้องต่อการเคลื่อนไหว
4. การกะพริบตาถี่เกินไป หรือน้อยเกินไป : ดูไม่เป็นธรรมชาติ
ดังนั้น ควรตรวจสอบข้อมูลทุกครั้งก่อนที่จะเชื่อ หรือแชร์ข้อมูลต่างๆ ต่อ เพื่อให้มั่นใจว่าสิ่งที่เห็นเป็นเรื่องจริง จะได้ไม่ตกเป็นเหยื่อของมิจฉาชีพได้