การปิดตายความพยายามพัฒนาระบบปัญญาประดิษฐ์ (เอไอ) ล้ำสมัยทั่วโลก และการนำตัวผู้ละเมิดข้อกำหนดดังกล่าวมาลงโทษ เป็นเพียงหนทางเดียวที่จะปกป้องมนุษย์จาการสูญสิ้นเผ่าพันธุ์ จากคำเตือนของนักวิจัยเอไอคนดังเมื่อช่วงกลางสัปดาห์
เอเลียเซอร์ ยุดโคสกี ผู้ร่วมก่อตั้งสถาบันวิจัยเครื่องจักรอัจฉริยะ (MIRI) เขียนแสดงความคิดเห็นในนิตยสารไทม์ที่เผยแพร่เมื่อวันพุธ (29 มี.ค.) อธิบายถึงสาเหตุว่าทำไมเขาถึงไม่ร่วมลงนามในหนังสือเรียกร้องให้ "หยุดพักการพัฒนาเอไอ เอาไว้ก่อนเป็นเวลาอย่างน้อย 6 เดือน"
หนังสือดังกล่าวมีขึ้นหลังจาก โอเพนเอไอ บริษัทสตาร์ทอัปในซานฟรานซิสโก ปล่อย GPT-4 ที่มีเทคโนโลยีขั้นสูงกว่าแชตบอตเอไอ “ChatGPT” ซึ่งกำลังใช้กันอย่างกว้างขวางอยู่ในขณะนี้ และกระตุ้นให้พวกบิ๊กเทคอย่างไมโครซอฟท์ และกูเกิลแข่งขันเปิดตัวแอปพลิเคชันแบบเดียวกัน
คำร้องของคนกลุ่มนี้เตือนว่า ระบบปัญญาประดิษฐ์ (เอไอ) ที่เฉลียวฉลาดสามารถแข่งขันกับมนุษย์ได้ อาจสร้างความเสี่ยงอย่างลึกซึ้งต่อสังคมและมนุษยชาติ ตั้งแต่การปล่อยข้อมูลที่ไม่ถูกต้องแต่แนบเนียนเข้าท่วมท้นบนอินเทอร์เน็ต ไปจนถึงการแย่งงาน ตลอดจนความเสี่ยงขั้นหายนะมากขึ้นอีกในอนาคตชนิดที่หลุดออกมาจากนิยายวิทยาศาสตร์
ยุดโคสกี แย้งว่า หนังสืออุทธรณ์ดังกล่าวซึ่งมีคนดังร่วมลงนามหลายคน ในนั้นรวมถึง อีลอน มัสก์ และสตรีฟ วอซเนียค จากแอปเปิล ร้องขอน้อยเกินไปในการแก้ไขปัญหาที่เกิดจากการพัฒนาปัญญาประดิษฐ์ที่รวดเร็วเกินไปและไร้การควบคุม "ผลลัพธ์ที่เป็นไปได้มากที่สุดของการสร้างเอไอ ยอดมนุษย์เฉลียวฉลาด ก็คือทุกๆ คนบนโลกจะตาย" ยุดโคสกี ระบุ
เขาอ้างว่า "การอยู่รอดจากการเผชิญหน้ากับระบบคอมพิวเตอร์หนึ่งซึ่งไม่แคร์พวกเราหรือชีวิตโดยทั่วไป จำเป็นต้องมีความแม่นยำ มีการเตรียมการและข้อมูลเชิงลึกทางวิทยาศาสตร์ใหม่ๆ ที่มนุษยชาติยังไม่มีในตอนนี้ และดูเหมือนว่าจะยังไม่มีในอนาคตอันใกล้นี้ด้วย"
"ด้วยที่มันมีความฉลาดเพียงพอ ปัญญาประดิษฐ์จะไม่จำกัดวงอยู่ในขอบเขตคอมพิวเตอร์นานนัก" ยุดโคสกีกล่าวเตือน พร้อมอธิบายว่า ข้อเท็จจริงที่ว่ามีความเป็นไปได้ที่มันจะอีเมลดีเอ็นเอไปยังห้องปฏิบัติการต่างๆ ให้ทำการผลิตโปรตีนต่างๆ ซึ่งมีความเป็นไปได้ว่าจะเป็นการเปิดทางให้เอไอ "สร้างรูปแบบชีวิตประดิษฐ์ หรือ bootstrap ตรงเข้าสู่การผลิตโมเลกุลชีวิตหลังชีวภาพ และออกมาสู่โลกภายนอก"
เขาเน้นย้ำว่า "ข้อกำหนดใหม่ทั่วโลกที่ไม่จำกัดตายตัวในด้านการดำเนินการฝึกไอเอครั้งใหญ่ครั้งใหม่จำเป็นต้องบังคับใช้ในทันที ต้องไม่มีข้อยกเว้น ในนั้นรวมถึงกับรัฐบาลและกองทัพ" พร้อมระบุ "ควรมีการลงนามในข้อตกลงนานาชาติในด้านการกำหนดเพดานเกี่ยวกับศักยภาพของคอมพิวเตอร์ที่อาจถูกนำมาใช้ในการฝึกระบบดังกล่าว"
"ถ้าหากข่าวกรองบอกว่ามีประเทศใดประเทศหนึ่งที่อยู่นอกข้อตกลงกำลังสร้างจีพียู (หน่วยประมวลผลกราฟิก) การละเมิดข้อกำหนด มันมีความน่ากลัวไม่น้อยไปกว่าความขัดแย้งยิงกันระหว่าง 2 ชาติ จงเต็มใจทำลายศูนย์ข้อมูลเถื่อนนั้นด้วยปฏิบัติการโจมตีทางอากาศ" เขากล่าว "ภัยคุกคามจากปัญญาประดิษฐ์ใหญ่หลวงมาก ซึ่งมันควรถูกระบุในการทูตระหว่างประเทศอย่างชัดเจนว่าการป้องกันเหตุการณ์สูญสิ้นเผ่าพันธุ์จากไอเอ ควรถูกมองว่ามีความสำคัญเหนือกว่าการตอบโต้ทางนิวเคลียร์เต็มรูปแบบเสียอีก"
(ที่มา : อาร์ทีนิวส์)