เฟซบุ๊ก (Facebook) ออกมาเผยแล้วถึงวิธีการในการใช้ AI หรือปัญญาประดิษฐ์ในการตรวจจับคอนเทนต์รุนแรง หรือโพสต์จากกลุ่มผู้ก่อการร้าย หลังจากถูกผู้นำ และบุคคลมีชื่อเสียงในหลายประเทศทั่วโลกตำหนิเสียงดังขึ้นเรื่อยๆ
“เราต้องการค้นหาคอนเทนต์เกี่ยวกับการก่อการร้ายที่รวดเร็วขึ้น ก่อนที่จะมีผู้ใช้งานเห็นภาพเหล่านั้น ซึ่งทุกวันนี้ แอ็กเคานต์ที่เกี่ยวข้องกับการก่อการร้ายนั้น เป็นการลบโดยใช้พนักงานค้นหา แต่เราเชื่อว่า เทคโนโลยีจะช่วยให้เราทำงานเหล่านี้ได้ง่ายขึ้น”
โดยเฟซบุ๊ก เผยว่า บริษัทได้สร้างเครื่องมือช่วยในการวิเคราะห์ และจับคู่ภาพ รวมถึงระบบที่เข้าใจการใช้ภาษา เพื่อให้สามารถตรวจจับได้ว่า มีคอนเทนต์ที่ไม่เหมาะสมอยู่บนแพลตฟอร์มหรือไม่
ส่วนสาเหตุที่ใช้ AI เนื่องจากปัจจุบัน เฟซบุ๊กมีผู้ใช้งานถึง 1.94 พันล้านคน (ตัวเลขเมื่อสิ้นเดือนมีนาคม 2560) ซึ่งพนักงานมนุษย์ไม่สามารถรองรับการตรวจสอบข้อมูลในระดับนี้ได้ หรือหากทำได้ก็จะมีค่าใช้จ่ายมหาศาลตามมา
โดยระบบการจับคู่ภาพนั้น จะทำงานเมื่อพบว่า ผู้ใช้งานที่เคยโพสต์ภาพไม่เหมาะสมมาก่อนนั้น กำลังพยายามจะโพสต์ภาพอีกรอบหนึ่ง โดยระบบจะไปจับที่ภาพที่พยายามจะอัปขึ้นระบบว่า ตรงกับภาพในฐานข้อมูลหรือไม่ และหากพบว่าภาพที่จะโพสต์แมตช์กับภาพในฐานข้อมูล ระบบจะบล็อกการอัปโหลดภาพนั้นๆ ให้โดยอัตโนมัติ
ในส่วนของความเข้าใจภาษา เฟซบุ๊ก เผยว่า ยังอยู่ในช่วงทดสอบให้ AI เข้าใจข้อความของฝ่ายก่อการร้าย ซึ่งหากวิเคราะห์แล้วพบว่า มีแนวโน้มจะเป็นข้อความของกลุ่มก่อการร้าย ระบบจะบล็อกไม่ให้ข้อความนั้นปรากฏบนแพลตฟอร์ม
นอกจากนั้น AI ยังตรวจสอบไปยังผู้ใช้งาน เพจ หรือกลุ่มต่างๆ ที่มีความเสี่ยงด้วย
สำหรับเฟซบุ๊กนั้น ปัจจุบันมีการจ้างพนักงาน 4,500 คน เพื่อเข้ามาช่วยวิเคราะห์ว่า ภาพ หรือกิจกรรมแบบไหนเป็นกิจกรรมของผู้ก่อการร้าย ซึ่งตัวเลขนี้จะเพิ่มขึ้นเป็น 7,000 คนภายในสิ้นปีนี้
โดยบริษัทเผยว่า เหตุที่ต้องมีหลายฝ่ายร่วมด้วยช่วยกันนั้น เป็นเพราะ AI อาจยังทำงานได้ดีไม่เท่ามนุษย์ ยกตัวอย่างเช่น AI อาจไม่เข้าใจบริบทของการโพสต์นั้นๆ ได้ครบทุกมิติ หรือในกรณีของการจับคู่ภาพถ่าย หากสำนักข่าวชื่อดังมีการโพสต์ภาพของกลุ่มก่อการร้ายประกอบเนื้อหาข่าว AI ก็อาจเข้าใจว่า นั่นเป็นสารจากกลุ่มก่อการร้าย และบล็อกข้อความนั้นเสียก็ได้ด้วย