อังกฤษพัฒนาโปรเจ็กต์ศึกษาการใช้เทคโนโลยีปัญญาประดิษฐ์ (AI) หยิบประเด็นจริยธรรมมาปั้นเครื่องมือที่สามารถทำนายได้ว่าใครมีแนวโน้มจะก่อเหตุฆาตกรรมหรือก่ออาชญากรรมรุนแรงได้ในอนาคต
แม้จะฟังดูเหมือนหนังวิทยาศาสตร์หลุดโลก แต่นี่ไม่ใช่เรื่องในภาพยนตร์อีกต่อไป ล่าสุดกระทรวงยุติธรรมของสหราชอาณาจักรกำลังพัฒนาระบบ AI ที่มีชื่อว่า "Sharing Data to Improve Risk Assessment" หรือการแชร์ข้อมูลเพื่อปรับปรุงการประเมินความเสี่ยง โดยระบบนี้จะดึงข้อมูลจากประวัติตำรวจ ข้อมูลการคุมประพฤติ และประวัติส่วนตัวของบุคคล เพื่อสร้างคะแนนความเสี่ยงโดยวิเคราะห์จากพฤติกรรมและปัจจัยทางประชากรศาสตร์ต่างๆ
ที่น่าสนใจก็คือ โครงการนี้เริ่มต้นในช่วงรัฐบาลพรรคอนุรักษ์นิยม แต่ยังคงดำเนินต่อไปอย่างเงียบๆ ภายใต้รัฐบาลพรรคแรงงานปัจจุบัน โดยเจ้าหน้าที่รัฐยืนยันว่าเป้าหมายคือการทำความเข้าใจว่าอะไรนำไปสู่อาชญากรรมร้ายแรง ไม่ใช่การใช้เพื่อการเฝ้าระวังแบบคาดการณ์
***AI รู้นะ
ความพิเศษของเครื่องมือนี้ คือระบบจะพิจารณาปัจจัยต่างๆ ทั้งสภาพจิตใจ การใช้สารเสพติด และประวัติการกระทำผิดเพื่อคำนวณความเป็นไปได้ของพฤติกรรมรุนแรง ซึ่งทีมพัฒนายืนยันว่านี่เป็นเพียงเครื่องมือวิจัย ไม่ได้ใช้ในการจับกุมหรือติดตามบุคคล
อย่างไรก็ตาม กลุ่มสิทธิพลเมืองอย่าง Statewatch ที่เปิดเผยโครงการนี้ผ่านคำขอข้อมูลเสรีภาพ เตือนว่าผลกระทบนั้นสำคัญแม้จะอยู่ในกรอบของการวิจัยก็ตาม นักวิจารณ์โต้แย้งว่าการพึ่งพาข้อมูลในอดีตอาจเสี่ยงต่อการขยายความไม่เท่าเทียมที่มีอยู่แล้ว คนจากพื้นฐานรายได้น้อย ชนกลุ่มน้อย หรือผู้ที่เคยติดต่อกับตำรวจอาจถูกติดฉลากว่ามีความเสี่ยงสูงเนื่องจากอคติที่ฝังอยู่ในระบบข้อมูล
โซเฟีย ไลออล (Sofia Lyall) นักวิจัยจาก Statewatch กล่าวว่าความพยายามของกระทรวงยุติธรรมในการสร้างระบบทำนายการฆาตกรรมนี้ เป็นตัวอย่างที่น่าสยดสยองและเหมือนในนิยายดิสโทเปีย และผลวิจัยก็แสดงให้เห็นว่าระบบอัลกอริทึมสำหรับทำนายอาชญากรรมนั้นมีข้อบกพร่องโดยธรรมชาติ แต่รัฐบาลกลับเดินหน้าพัฒนาระบบ AI ที่จะจัดกลุ่มโปรไฟล์บุคคลทั่วไปให้เป็นอาชญากร ก่อนที่จะมีใครทำอะไรผิด
แม้กระทรวงจะยืนยันว่าระบบนี้ไม่ได้มีไว้สำหรับการใช้งานปฏิบัติการ แต่หลายคนกังวลว่าเส้นแบ่งระหว่างการวิจัยและการบังคับใช้อาจจะพังทลายลงได้อย่างรวดเร็ว และเมื่อระบบเริ่มให้ผลลัพธ์ ก็จะเกิดแรงกดดันให้ดำเนินการตามคำทำนายที่ยากเกินต้านทาน
***อเมริกา-จีนนำร่อง
เทคโนโลยีนี้ไม่ใช่เรื่องใหม่ เพราะประเทศอย่างสหรัฐอเมริกาและจีนก็ได้นำเครื่องมือคล้ายกันนี้มาใช้แล้ว ซึ่งก่อให้เกิดความกังวลเกี่ยวกับการเฝ้าระวัง การทำโปรไฟล์ประวัติบุคคล และการใช้อัลกอริทึมที่อาจมีข้อบกพร่องในการนำทางการปฏิบัติงานของตำรวจ ซึ่งในหลายกรณี เทคโนโลยีการคาดการณ์เหล่านี้ถูกเชื่อมโยงกับการตรวจสอบที่ไม่สมดุล ในชุมชนที่เผชิญกับความเสียเปรียบเชิงระบบอยู่แล้ว
ดังนั้น คำถามสำคัญคือ ระบบนี้เป็นวิธีการที่ก้าวหน้าในการป้องกันอันตราย หรือเป็นก้าวที่อันตรายสู่การทำให้ความอยุติธรรมเป็นแบบอัตโนมัติภายใต้ร่มเงาของความปลอดภัยกันแน่ ซึ่งหากให้ผลอย่างหลัง ผลกระทบย่อมเกิดขึ้นกับสังคมในอนาคตแน่นอน.