xs
xsm
sm
md
lg

คดีอนาจาร Deepfake ยอดพุ่ง "เกาหลีใต้" เหยื่อส่วนใหญ่อายุต่ำกว่า 30

เผยแพร่:   ปรับปรุง:   โดย: ผู้จัดการออนไลน์



ใครที่มักนำภาพใบหน้าของตัวเองเข้าสู่โปรแกรมสร้างภาพต่างๆ อาจจะต้องอ่านข่าวนี้ให้ดี ล่าสุด"เกาหลีใต้"เผยสถิติปี 2023 มีผู้ขอความช่วยเหลือจากเจ้าหน้าที่รัฐเพื่อรับมือกับอาชญากรรมทางเพศดิจิทัลสูงทะลุ 10,000 ราย โดยเหยื่อส่วนใหญ่คือวัยรุ่นและวัย 20 ต้นที่ถูกวายร้ายนำภาพใบหน้าไปใช้กับเทคโนโลยีปัญญาประดิษฐ์ (AI) เพื่อสร้าง “ภาพลามกปลอม” หรือที่เรียกกันว่า Deepfake Pornography คิดเป็นสัดส่วนคดีเพิ่มขึ้นกว่า 227% ภายในปีเดียว

ลักษณะการนำภาพใบหน้า มาวิเคราะห์เพื่อนำไปใช้กับเทคโนโลยีปัญญาประดิษฐ์ (AI) เพื่อสร้าง “ภาพปลอม”
ปรากฏการณ์สุดวิกฤตินี้ทุบสถิติคดีความจาก AI และ Deepfake ที่สูงที่สุดนับตั้งแต่เกาหลีใต้มีการก่อตั้งศูนย์สนับสนุนเหยื่ออาชญากรรมทางเพศดิจิทัลขึ้นในปี 2018 โดยสถิติรอบด้านล้วนชี้ว่าภัยร้ายจาก AI และ Deepfake กำลังคุกคามเยาวชนในโลกดิจิทัลวงกว้าง

***เหยื่อทะลุ 10,000 ราย 78% เป็นวัยรุ่น-20 ต้น

เทคโนโลยี AI ที่เคยถูกมองว่าเป็นตัวช่วย กำลังกลายเป็นหนึ่งในอาวุธที่ร้ายแรงเมื่ออยู่ในมือของผู้ไม่หวังดี ไม่เพียงความสามารถสร้างภาพ เสียง หรือแม้แต่วิดีโอปลอมที่เหมือนจริงจนสายตามนุษย์แทบแยกไม่ออก แต่ AI ยังสามารถเรียนรู้ข้อมูลมากขึ้น ซึ่งยิ่งเรียนมากเท่าใด ก็จะยิ่งล้ำและอันตรายมากขึ้นเท่านั้น

แฟ้มภาพตัวอย่างแอปพลิเคชันสร้างภาพโป้ด้วย AI
รายงานล่าสุดระบุว่ารัฐบาลเกาหลีใต้กำลังเร่งหามาตรการจัดการ ทั้งการลบคอนเทนต์ Deepfake ผิดกฎหมาย การทำงานร่วมกับแพลตฟอร์มออนไลน์ รวมถึงเพิ่มการปกป้องผู้ใช้งานที่ยังเป็นเยาวชนจากกรณีถูกนำภาพไปใช้ในสื่อลามกอนาจาร Deepfake จนเสียหาย

สิ่งที่น่าตกใจคือเหยื่อกว่า 78% เป็นวัยรุ่นและคนหนุ่มสาวในช่วงอายุต้น 20 ปี ตัวเลขจากรายงานของกระทรวงความเท่าเทียมทางเพศและครอบครัวของเกาหลีใต้ พบว่ามีผู้เข้ารับการสนับสนุนด้านต่างๆ ไม่ว่าจะเป็นการให้คำปรึกษา การช่วยเหลือในการลบเนื้อหาผิดกฎหมาย รวมถึงการส่งต่อความช่วยเหลือทางกฎหมาย การแพทย์ และการสืบสวน รวมทั้งสิ้น 10,305 ราย ซึ่งเพิ่มขึ้นถึง 14.7% เมื่อเทียบกับปี 2022

จากภาพนางแบบที่สวมใส่เสื้อผ้าสวยงาม AI สามารถลบเสื้อผ้าออกได้แนบเนียน
ในส่วนจำนวนเนื้อหาผิดกฎหมายที่ถูกลบ นั้นมีมากกว่า 300,000 รายการเป็นครั้งแรก เพิ่มขึ้นถึง 22.3% เลยทีเดียว

เมื่อเจาะลึกลงไปในกลุ่มเหยื่อ จะพบว่าวัยรุ่นคิดเป็นสัดส่วนถึง 27.9% เพิ่มขึ้นจาก 17.8% ในปี 2022 ในขณะที่กลุ่มผู้ที่มีอายุ 20 ปี คิดเป็น 50.2% ซึ่งเพิ่มขึ้นอย่างมากจาก 18.2% ทางการเกาหลีใต้เชื่อว่าตัวเลขเหยื่อวัยรุ่นที่แท้จริงอาจสูงกว่านี้มาก เนื่องจากมีการแจ้งความร้องเรียนน้อยกว่าความเป็นจริง

วัยรุ่นอาจมีความเสี่ยงในคดีอนาจาร Deepfake เป็นพิเศษ เนื่องจากเป็นผู้ใช้งานโซเชียลมีเดียและแพลตฟอร์มดิจิทัลเป็นประจำ
ด้านเจ้าหน้าที่กระทรวงฯ ให้ความเห็นว่าวัยรุ่นมีความเสี่ยงเป็นพิเศษ เนื่องจากเป็นผู้ใช้งานโซเชียลมีเดียและแพลตฟอร์มดิจิทัลเป็นประจำ

อีกสิ่งที่น่ากังวลใจเป็นพิเศษคือจำนวนคดีที่เกี่ยวข้องกับการใช้สื่อสังเคราะห์ หรือ Synthetic Media Abuse ซึ่งรวมถึงสื่อลามกอนาจาร Deepfake ที่เพิ่มขึ้นอย่างน่าตกใจ ในปี 2023 มีรายงานคดีประเภทนี้ถึง 1,384 คดี เพิ่มขึ้นถึง 227.2% จาก 423 คดีในปี 2022 และที่น่าตกใจกว่าคือ 92.6% ของเหยื่อ Deepfake มีอายุต่ำกว่า 30 ปี นอกจากนี้ รายงานการถ่ายทำผิดกฎหมายก็เพิ่มขึ้นจาก 2,927 เป็น 4,182 คดีในช่วงเวลาเดียวกัน

ลักษณะการสร้างเนื้อหาสังเคราะห์จากภาพใบหน้า
กระทรวงฯ ของเกาหลีใต้ ได้แสดงความกังวลอย่างยิ่งเกี่ยวกับการเข้าถึงเครื่องมือ AI ที่สามารถสร้างเนื้อหาสังเคราะห์ที่โจ่งครึ่ม รวมถึง Deepfake ที่มุ่งเป้าไปที่ผู้เยาว์ได้ง่ายขึ้น เจ้าหน้าที่เตือนว่าเมื่อระบบ AI มีความเฉพาะเจาะจงมากขึ้นจากการสะสมข้อมูล แนวโน้มของอาชญากรรมทางเพศดิจิทัลก็จะขยายวงกว้างและมีความซับซ้อนมากยิ่งขึ้น

***รับมือรอบด้าน

เพื่อรับมือกับสถานการณ์นี้ รัฐบาลเกาหลีใต้มีแผนที่จะทบทวนกรณีล่าสุด และร่วมมือกับผู้ให้บริการแพลตฟอร์มต่างๆ เพื่อดำเนินการมาตรการที่เข้มงวดขึ้นในการต่อสู้กับอาชญากรรมทางเพศดิจิทัล และปกป้องผู้ใช้งานอย่างจริงจัง

ในขณะที่ AI สร้างโอกาสและความสะดวกสบายมากมาย แต่ในอีกด้านหนึ่งก็ถูกนำมาใช้ในการก่ออาชญากรรมที่สร้างความเสียหาย
ที่สุดแล้ว นี่คืออีกหนึ่งบทพิสูจน์ว่าเทคโนโลยีนั้นมีสองด้านเสมอ ในขณะที่ AI สร้างโอกาสและความสะดวกสบายมากมาย แต่ในอีกด้านหนึ่งก็ถูกนำมาใช้ในการก่ออาชญากรรมที่สร้างความเสียหายอย่างร้ายแรง โดยเฉพาะอย่างยิ่งกับกลุ่มเยาวชนที่เราต้องให้ความสำคัญกับการปกป้องเป็นพิเศษ

เรื่องนี้จึงเป็นสัญญาณเตือนให้เราทุกคนต้องตระหนักถึงภัยคุกคามทางดิจิทัล และร่วมกันหาทางป้องกันและแก้ไขอย่างจริงจัง ดังนั้นใครที่มักนำภาพใบหน้าของตัวเองเข้าสู่โปรแกรมสร้างภาพต่างๆ อาจจะต้องอ่านให้ดีว่าภาพใบหน้าเราจะถูกนำไปทำอะไรบ้าง.


กำลังโหลดความคิดเห็น