xs
xsm
sm
md
lg

รายงานสิทธิมนุษยชนชี้เฟซบุ๊กควรเพิ่มมาตรการป้องกันปลุกระดมความรุนแรงในพม่า

เผยแพร่:   ปรับปรุง:   โดย: ผู้จัดการออนไลน์



รอยเตอร์ - เฟซบุ๊กเผยว่า รายงานด้านสิทธิมนุษยชนเกี่ยวกับการดำเนินงานของบริษัทในพม่าชี้ว่า บริษัทไม่ได้ป้องกันสื่อสังคมออนไลน์ของตนเองให้มากเพียงพอจากการถูกใช้เป็นพื้นที่ปลุกปั่นความรุนแรง

รายงานของ Business for Social Responsibility (BSR) องค์กรที่ไม่แสวงหาผลกำไรในซานฟรานซิสโก แนะนำให้เฟซบุ๊กบังคับใช้นโยบายด้านเนื้อหาของบริษัทเข้มงวดขึ้น เพิ่มการมีส่วนร่วมกับทั้งเจ้าหน้าที่พม่า และกลุ่มประชาสังคม และโดยเฉพาะอย่างยิ่งเผยแพร่ข้อมูลเพิ่มเติมเกี่ยวกับความคืบหน้าของบริษัทในประเทศ

“รายงานสรุปว่า เมื่อต้นปีนี้ เราไม่ได้ดำเนินการให้มากเพียงพอที่จะช่วยป้องกันเว็บไซต์ของเราจากการถูกใช้ปลุกระดมความแตกแยกและยั่วยุปลุกปั่นความรุนแรง เราเห็นด้วยว่าเราสามารถและควรดำเนินการให้มากขึ้น” อเล็กซ์ วารอฟกา ผู้จัดการด้านนโยบายผลิตภัณฑ์ของเฟซบุ๊ก ระบุ

BSR ยังเตือนว่า เฟซบุ๊กต้องเตรียมพร้อมที่รับมือกับแนวโน้มที่จะเกิดการโจมตีของข้อมูลที่ไม่ถูกต้องระหว่างการเลือกตั้งพม่าในปี 2563 และปัญหาใหม่ๆ จากการใช้งานแอปพลิเคชัน WhatsApp ที่เติบโตขึ้นในพม่า

รายงานพิเศษของรอยเตอร์ในเดือน ส.ค. ระบุว่า เฟซบุ๊กล้มเหลวที่จะให้ความสนใจกับคำเตือนจำนวนมากจากหน่วยงานองค์กรต่างๆ ในพม่า เกี่ยวกับโพสต์บนสื่อสังคมออนไลน์ที่โจมตีชนกลุ่มน้อยชาติพันธุ์ เช่น โรฮิงญา

ในเดือน ส.ค.2560 ทหารดำเนินการปราบปรามในรัฐยะไข่ของพม่า ความเคลื่อนไหวที่ตอบโต้การโจมตีของกลุ่มติดอาวุธโรฮิงญา ที่ส่งผลให้ชาวมุสลิมมากกว่า 700,000 คน ต้องอพยพหลบหนีความรุนแรงไปบังกลาเทศ ตามการระบุของหน่วยงานสหประชาชาติ

และในเดือน ส.ค.2561 เว็บไซต์สื่อสังคมออนไลน์ได้ถอดบัญชีเจ้าหน้าที่ทหารพม่าจำนวนหนึ่งออกจากเว็บไซต์เพื่อป้องกันการแพร่กระจายข้อมูลที่ไม่ถูกต้องและความเกลียดชัง ซึ่งเกิดขึ้นเป็นครั้งแรกกับผู้นำทางการเมือง และทหารของประเทศ รวมทั้งลบเพจอีกหลายสิบบัญชีที่เกี่ยวข้องกับการรณรงค์ปราบปรามที่ดูเหมือนว่าใช้เพจเผยแพร่ข่าวสารและความคิดเห็น แต่แอบแฝงเผยแพร่ข้อความของทหารพม่า

ความเคลื่อนไหวดังกล่าวเกิดขึ้นไม่กี่ชั่วโมงหลังผู้สืบสวนสหประชาชาติ ระบุว่า กองทัพพม่าดำเนินการสังหารหมู่ และข่มขืนชาวมุสลิมโรฮิงญาด้วยเจตนาฆ่าล้างเผ่าพันธุ์ ซึ่งเฟซบุ๊กระบุว่า บริษัทได้เริ่มแก้ไขข้อบกพร่อง

เฟซบุ๊กระบุว่า เวลานี้บริษัทมีผู้เชี่ยวชาญด้านภาษาพม่า 99 คน ตรวจสอบเนื้อหาที่น่าสงสัย นอกจากนั้น ยังได้ขยายการใช้งานเครื่องมืออัตโนมัติเพื่อลดการแพร่กระจายโพสต์ที่รุนแรง และลดคุณค่าความเป็นมนุษย์

ในช่วงไตรมาสที่ 3 ของปี บริษัทระบุว่า ได้จัดการกับเนื้อหาราว 64,000 ชิ้น ที่ละเมิดนโยบายเกี่ยวกับความเกลียดชังของบริษัท และราว 63% ถูกระบุพบโดยซอฟต์แวร์อัตโนมัติ เพิ่มขึ้นจาก 52% ในไตรมาสก่อนหน้า.
กำลังโหลดความคิดเห็น