รอยเตอร์ - เฟซบุ๊กเผยว่า รายงานด้านสิทธิมนุษยชนเกี่ยวกับการดำเนินงานของบริษัทในพม่าชี้ว่า บริษัทไม่ได้ป้องกันสื่อสังคมออนไลน์ของตนเองให้มากเพียงพอจากการถูกใช้เป็นพื้นที่ปลุกปั่นความรุนแรง
รายงานของ Business for Social Responsibility (BSR) องค์กรที่ไม่แสวงหาผลกำไรในซานฟรานซิสโก แนะนำให้เฟซบุ๊กบังคับใช้นโยบายด้านเนื้อหาของบริษัทเข้มงวดขึ้น เพิ่มการมีส่วนร่วมกับทั้งเจ้าหน้าที่พม่า และกลุ่มประชาสังคม และโดยเฉพาะอย่างยิ่งเผยแพร่ข้อมูลเพิ่มเติมเกี่ยวกับความคืบหน้าของบริษัทในประเทศ
“รายงานสรุปว่า เมื่อต้นปีนี้ เราไม่ได้ดำเนินการให้มากเพียงพอที่จะช่วยป้องกันเว็บไซต์ของเราจากการถูกใช้ปลุกระดมความแตกแยกและยั่วยุปลุกปั่นความรุนแรง เราเห็นด้วยว่าเราสามารถและควรดำเนินการให้มากขึ้น” อเล็กซ์ วารอฟกา ผู้จัดการด้านนโยบายผลิตภัณฑ์ของเฟซบุ๊ก ระบุ
BSR ยังเตือนว่า เฟซบุ๊กต้องเตรียมพร้อมที่รับมือกับแนวโน้มที่จะเกิดการโจมตีของข้อมูลที่ไม่ถูกต้องระหว่างการเลือกตั้งพม่าในปี 2563 และปัญหาใหม่ๆ จากการใช้งานแอปพลิเคชัน WhatsApp ที่เติบโตขึ้นในพม่า
รายงานพิเศษของรอยเตอร์ในเดือน ส.ค. ระบุว่า เฟซบุ๊กล้มเหลวที่จะให้ความสนใจกับคำเตือนจำนวนมากจากหน่วยงานองค์กรต่างๆ ในพม่า เกี่ยวกับโพสต์บนสื่อสังคมออนไลน์ที่โจมตีชนกลุ่มน้อยชาติพันธุ์ เช่น โรฮิงญา
ในเดือน ส.ค.2560 ทหารดำเนินการปราบปรามในรัฐยะไข่ของพม่า ความเคลื่อนไหวที่ตอบโต้การโจมตีของกลุ่มติดอาวุธโรฮิงญา ที่ส่งผลให้ชาวมุสลิมมากกว่า 700,000 คน ต้องอพยพหลบหนีความรุนแรงไปบังกลาเทศ ตามการระบุของหน่วยงานสหประชาชาติ
และในเดือน ส.ค.2561 เว็บไซต์สื่อสังคมออนไลน์ได้ถอดบัญชีเจ้าหน้าที่ทหารพม่าจำนวนหนึ่งออกจากเว็บไซต์เพื่อป้องกันการแพร่กระจายข้อมูลที่ไม่ถูกต้องและความเกลียดชัง ซึ่งเกิดขึ้นเป็นครั้งแรกกับผู้นำทางการเมือง และทหารของประเทศ รวมทั้งลบเพจอีกหลายสิบบัญชีที่เกี่ยวข้องกับการรณรงค์ปราบปรามที่ดูเหมือนว่าใช้เพจเผยแพร่ข่าวสารและความคิดเห็น แต่แอบแฝงเผยแพร่ข้อความของทหารพม่า
ความเคลื่อนไหวดังกล่าวเกิดขึ้นไม่กี่ชั่วโมงหลังผู้สืบสวนสหประชาชาติ ระบุว่า กองทัพพม่าดำเนินการสังหารหมู่ และข่มขืนชาวมุสลิมโรฮิงญาด้วยเจตนาฆ่าล้างเผ่าพันธุ์ ซึ่งเฟซบุ๊กระบุว่า บริษัทได้เริ่มแก้ไขข้อบกพร่อง
เฟซบุ๊กระบุว่า เวลานี้บริษัทมีผู้เชี่ยวชาญด้านภาษาพม่า 99 คน ตรวจสอบเนื้อหาที่น่าสงสัย นอกจากนั้น ยังได้ขยายการใช้งานเครื่องมืออัตโนมัติเพื่อลดการแพร่กระจายโพสต์ที่รุนแรง และลดคุณค่าความเป็นมนุษย์
ในช่วงไตรมาสที่ 3 ของปี บริษัทระบุว่า ได้จัดการกับเนื้อหาราว 64,000 ชิ้น ที่ละเมิดนโยบายเกี่ยวกับความเกลียดชังของบริษัท และราว 63% ถูกระบุพบโดยซอฟต์แวร์อัตโนมัติ เพิ่มขึ้นจาก 52% ในไตรมาสก่อนหน้า.