ใครที่มักนำภาพใบหน้าของตัวเองเข้าสู่โปรแกรมสร้างภาพต่างๆ อาจจะต้องอ่านข่าวนี้ให้ดี ล่าสุด"เกาหลีใต้"เผยสถิติปี 2023 มีผู้ขอความช่วยเหลือจากเจ้าหน้าที่รัฐเพื่อรับมือกับอาชญากรรมทางเพศดิจิทัลสูงทะลุ 10,000 ราย โดยเหยื่อส่วนใหญ่คือวัยรุ่นและวัย 20 ต้นที่ถูกวายร้ายนำภาพใบหน้าไปใช้กับเทคโนโลยีปัญญาประดิษฐ์ (AI) เพื่อสร้าง “ภาพลามกปลอม” หรือที่เรียกกันว่า Deepfake Pornography คิดเป็นสัดส่วนคดีเพิ่มขึ้นกว่า 227% ภายในปีเดียว
ปรากฏการณ์สุดวิกฤตินี้ทุบสถิติคดีความจาก AI และ Deepfake ที่สูงที่สุดนับตั้งแต่เกาหลีใต้มีการก่อตั้งศูนย์สนับสนุนเหยื่ออาชญากรรมทางเพศดิจิทัลขึ้นในปี 2018 โดยสถิติรอบด้านล้วนชี้ว่าภัยร้ายจาก AI และ Deepfake กำลังคุกคามเยาวชนในโลกดิจิทัลวงกว้าง
***เหยื่อทะลุ 10,000 ราย 78% เป็นวัยรุ่น-20 ต้น
เทคโนโลยี AI ที่เคยถูกมองว่าเป็นตัวช่วย กำลังกลายเป็นหนึ่งในอาวุธที่ร้ายแรงเมื่ออยู่ในมือของผู้ไม่หวังดี ไม่เพียงความสามารถสร้างภาพ เสียง หรือแม้แต่วิดีโอปลอมที่เหมือนจริงจนสายตามนุษย์แทบแยกไม่ออก แต่ AI ยังสามารถเรียนรู้ข้อมูลมากขึ้น ซึ่งยิ่งเรียนมากเท่าใด ก็จะยิ่งล้ำและอันตรายมากขึ้นเท่านั้น
รายงานล่าสุดระบุว่ารัฐบาลเกาหลีใต้กำลังเร่งหามาตรการจัดการ ทั้งการลบคอนเทนต์ Deepfake ผิดกฎหมาย การทำงานร่วมกับแพลตฟอร์มออนไลน์ รวมถึงเพิ่มการปกป้องผู้ใช้งานที่ยังเป็นเยาวชนจากกรณีถูกนำภาพไปใช้ในสื่อลามกอนาจาร Deepfake จนเสียหาย
สิ่งที่น่าตกใจคือเหยื่อกว่า 78% เป็นวัยรุ่นและคนหนุ่มสาวในช่วงอายุต้น 20 ปี ตัวเลขจากรายงานของกระทรวงความเท่าเทียมทางเพศและครอบครัวของเกาหลีใต้ พบว่ามีผู้เข้ารับการสนับสนุนด้านต่างๆ ไม่ว่าจะเป็นการให้คำปรึกษา การช่วยเหลือในการลบเนื้อหาผิดกฎหมาย รวมถึงการส่งต่อความช่วยเหลือทางกฎหมาย การแพทย์ และการสืบสวน รวมทั้งสิ้น 10,305 ราย ซึ่งเพิ่มขึ้นถึง 14.7% เมื่อเทียบกับปี 2022
ในส่วนจำนวนเนื้อหาผิดกฎหมายที่ถูกลบ นั้นมีมากกว่า 300,000 รายการเป็นครั้งแรก เพิ่มขึ้นถึง 22.3% เลยทีเดียว
เมื่อเจาะลึกลงไปในกลุ่มเหยื่อ จะพบว่าวัยรุ่นคิดเป็นสัดส่วนถึง 27.9% เพิ่มขึ้นจาก 17.8% ในปี 2022 ในขณะที่กลุ่มผู้ที่มีอายุ 20 ปี คิดเป็น 50.2% ซึ่งเพิ่มขึ้นอย่างมากจาก 18.2% ทางการเกาหลีใต้เชื่อว่าตัวเลขเหยื่อวัยรุ่นที่แท้จริงอาจสูงกว่านี้มาก เนื่องจากมีการแจ้งความร้องเรียนน้อยกว่าความเป็นจริง
ด้านเจ้าหน้าที่กระทรวงฯ ให้ความเห็นว่าวัยรุ่นมีความเสี่ยงเป็นพิเศษ เนื่องจากเป็นผู้ใช้งานโซเชียลมีเดียและแพลตฟอร์มดิจิทัลเป็นประจำ
อีกสิ่งที่น่ากังวลใจเป็นพิเศษคือจำนวนคดีที่เกี่ยวข้องกับการใช้สื่อสังเคราะห์ หรือ Synthetic Media Abuse ซึ่งรวมถึงสื่อลามกอนาจาร Deepfake ที่เพิ่มขึ้นอย่างน่าตกใจ ในปี 2023 มีรายงานคดีประเภทนี้ถึง 1,384 คดี เพิ่มขึ้นถึง 227.2% จาก 423 คดีในปี 2022 และที่น่าตกใจกว่าคือ 92.6% ของเหยื่อ Deepfake มีอายุต่ำกว่า 30 ปี นอกจากนี้ รายงานการถ่ายทำผิดกฎหมายก็เพิ่มขึ้นจาก 2,927 เป็น 4,182 คดีในช่วงเวลาเดียวกัน
กระทรวงฯ ของเกาหลีใต้ ได้แสดงความกังวลอย่างยิ่งเกี่ยวกับการเข้าถึงเครื่องมือ AI ที่สามารถสร้างเนื้อหาสังเคราะห์ที่โจ่งครึ่ม รวมถึง Deepfake ที่มุ่งเป้าไปที่ผู้เยาว์ได้ง่ายขึ้น เจ้าหน้าที่เตือนว่าเมื่อระบบ AI มีความเฉพาะเจาะจงมากขึ้นจากการสะสมข้อมูล แนวโน้มของอาชญากรรมทางเพศดิจิทัลก็จะขยายวงกว้างและมีความซับซ้อนมากยิ่งขึ้น
***รับมือรอบด้าน
เพื่อรับมือกับสถานการณ์นี้ รัฐบาลเกาหลีใต้มีแผนที่จะทบทวนกรณีล่าสุด และร่วมมือกับผู้ให้บริการแพลตฟอร์มต่างๆ เพื่อดำเนินการมาตรการที่เข้มงวดขึ้นในการต่อสู้กับอาชญากรรมทางเพศดิจิทัล และปกป้องผู้ใช้งานอย่างจริงจัง
ที่สุดแล้ว นี่คืออีกหนึ่งบทพิสูจน์ว่าเทคโนโลยีนั้นมีสองด้านเสมอ ในขณะที่ AI สร้างโอกาสและความสะดวกสบายมากมาย แต่ในอีกด้านหนึ่งก็ถูกนำมาใช้ในการก่ออาชญากรรมที่สร้างความเสียหายอย่างร้ายแรง โดยเฉพาะอย่างยิ่งกับกลุ่มเยาวชนที่เราต้องให้ความสำคัญกับการปกป้องเป็นพิเศษ
เรื่องนี้จึงเป็นสัญญาณเตือนให้เราทุกคนต้องตระหนักถึงภัยคุกคามทางดิจิทัล และร่วมกันหาทางป้องกันและแก้ไขอย่างจริงจัง ดังนั้นใครที่มักนำภาพใบหน้าของตัวเองเข้าสู่โปรแกรมสร้างภาพต่างๆ อาจจะต้องอ่านให้ดีว่าภาพใบหน้าเราจะถูกนำไปทำอะไรบ้าง.