xs
xsm
sm
md
lg

ผู้เชี่ยวชาญ AI เตือนโลกระวังการพัฒนา AI สู่ด้านมืด

เผยแพร่:   ปรับปรุง:   โดย: ผู้จัดการออนไลน์


ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์จากหน่วยงานระดับท็อปของวงการ 26 แห่งออกรายงานเตือนโลกให้ระวังการนำปัญญาประดิษฐ์ไปใช้ในทางที่ผิดแล้ว โดยสถาบันที่ปรากฏชื่ออยู่ในรายงานฉบับนี้ เป็นชื่อที่หลายคนรู้จักกันดี ยกตัวอย่างเช่น องค์กรไม่แสวงกำไร OpenAI (ที่อีลอน มัสก์ เคยเป็นบอร์ด แต่เพิ่งประกาศลาออกจากบอร์ดไปเมื่อเร็ว ๆ นี้), ศูนย์ศึกษาด้าน Existential Risk จากมหาวิทยาลัยเคมบริดจ์, สถาบัน Future of Humanity Institute จากมหาวิทยาลัยออกฟอร์ด เป็นต้น

สำหรับรายงานดังกล่าวมีชื่อเต็มว่า “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation” ที่ระบุถึงความเสี่ยงของการใช้งานปัญญาประดิษฐ์ในทางที่ผิดกฎหมาย เช่น อาจใช้ปัญญาประดิษฐ์ไปในการโจมตีผู้อื่น แถมด้วยความล้ำหน้าในปัญญาประดิษฐ์นั้น อาจทำให้ผู้โจมตีกระทำการได้ด้วยต้นทุนที่ถูกลง และสะดวกมากขึ้น เนื่องจากสามารถกำหนดเป้าหมายได้เป็นการเฉพาะมากขึ้นด้วย

ในรายงานได้ชี้ว่า การโจมตีด้วย AI จะเกิดขึ้นได้ในสามรูปแบบนั่นคือ การโจมตีบนโลกดิจิทัล เช่น การปลอมเสียงเป็นบุคคลอื่น หรือการใช้ AI ในการเจาะระบบ, การโจมตีทางกายภาพ เช่น การนำโดรนขนาดเล็กที่ติดอาวุธเพื่อใช้ในการโจมตีแบบที่ปรากฏในภาพยนตร์ของเน็ตฟลิกซ์ เรื่อง Black Mirror กับการนำฝูงโดรนขนาดเล็กมาใช้ในการสังหาร และรูปแบบการโจมตีที่อาจเกิดขึ้นได้แบบที่สามก็คือการนำ AI มาใช้กับการเมือง ซึ่งอาจนำไปสู่การสอดแนม การใช้ในการโน้มน้าวความเห็น หรือการหลอกลวงได้ โดยรายงานฉบับนี้คาดว่า การโจมตีแบบใหม่จะขึ้นอยู่กับความสามารถในการวิเคราะห์พฤติกรรมอารมณ์ และความเชื่อของมนุษย์ ซึ่งถือเป็นความท้าทายของระบอบประชาธิปไตยได้ในระยะยาว

ส่วนหนึ่งที่รายงานฉบับนี้กังวล คือ ความสามารถของ AI ที่ไม่สามารถประเมินได้ในแบบเดียวกับที่มนุษย์ประเมินกันเอง ซึ่งทำให้เราได้พบว่า งานบางอย่าง AI อาจทำได้ใกล้เคียง และงานบางอย่าง AI ก็ทำได้ล้ำหน้ากว่ามนุษย์ไปแล้ว

รายงานฉบับนี้ยังให้แนวทางป้องกันเอาไว้ด้วยว่า การพัฒนา AI ควรทำอย่างมีความรับผิดชอบ และทำเพื่อประโยชน์ของสังคมเป็นหลัก


กำลังโหลดความคิดเห็น