นิวไซแอนติส/ผู้จัดการออนไลน์ – ความเป็นไปได้ในการพัฒนาเครื่องจักรกลจนมีความชาญฉลาดเหมือนมนุษย์นั้นเป็นสิ่งท้าทายนักวิทยาศาสตร์แห่งยุคสมัย แต่สิ่งที่ตามมาติดๆ ก็คือความกังวลว่าเจ้าเครื่องจักรสุดอัจฉริยะที่สามารถคิดเองทำเองได้นั้น ในวันข้างหน้าอาจจะไม่ได้เป็นแค่มิตรของเหล่ามวลมนุษยชาติแต่เพียงอย่างเดียว เพราะสมองอันอัจฉริยะที่คิดเป็นนี่เอง เลยอาจจะกลายเป็นฝ่ายตรงข้ามกับเราก็ได้ในวันข้างหน้า
แฟนๆ หนังไซไฟ (Sci-Fi) คงคุ้นๆ กับพล็อตเรื่องแบบนี้ดี ที่มีมนุษย์พัฒนาหุ่นยนต์ขึ้นมาเพื่อรับใช้มนุษย์ แต่สุดท้ายแล้วหุ่นยนต์ที่หวังว่าจะเป็นมิตรกลับกลายเป็นตัวอันตรายไม่อย่างไม่น่าเชื่อ (ซึ่งจะเกิดจากข้อผิดพลาดในตัวหุ่นหรือจากมนุษย์ด้วยกันก็ตามแต่) ซึ่งเรื่องล่าสุดก็กำลังฉายอยู่ในโรงภาพยนตร์ ที่แฟนพันธุ์แท้นิยายวิทยาศาสตร์ไม่อยากพลาด
“ไอโรบ็อต” (I, Robot) ที่ดัดแปลงมาจากผลงานการเขียนของ “ไอแซก อาซิมอฟ” (Isaac Asimov) นักเขียนนิยายแนววิทยาศาสตร์ชื่อดัง โดยผลงานก่อนหน้านี้ที่นำมาเป็นทำเป็นภาพยนตร์แล้วก็คือ “ไบเซ็นเท็นเนียลแมน” (Bicentennial Man) ซึ่งหัวใจของภาพยนตร์ (หรือหนังสือ) อยู่ที่ “กฎสามข้อของหุ่นยนต์” (3 Laws of Robotics) ซึ่งถูกฝังไว้ในสมองกลทุกอัน เพื่อให้แน่ใจว่ามันจะเชื่อฟังและไม่เป็นอันตรายต่อมนุษย์ และได้กลายเป็นบรรทัดฐานที่ถูกอ้างถึงมากที่สุดอย่างหนึ่ง ในการคิดหรือทำอะไรก็ตามที่เกี่ยวกับหุ่นยนต์
กฎ 3 ข้อนั้น นับเป็นเงื่อนไขที่ง่ายๆ แต่ว่าเป็นกฎจริยธรรมที่เปลี่ยนแปลงไม่ได้สำหรับหุ่นยนต์ ซึ่งในภาพยนตร์เรื่องไอโรบ็อตก็ได้พลิกผันให้เกิดการทำลายกฎดังกล่าว เมื่อหุ่นยนต์กลายเป็นผู้ต้องสงสัยในการฆาตกรรมนักวิทยาศาสตร์คนสำคัญในการพัฒนาวงการหุ่นยนต์ขึ้น
ขณะที่ภาพยนตร์กำลังออกฉาย และหลายๆ คนก็สนุกสานเพลิดเพลินกับมัน เหล่าผู้เชี่ยวชาญทางด้านหุ่นยนต์และปัญญาประดิษฐ์หรือเอไอ (artificial intelligence: AI) ต่างยอมรับว่าการแหกกฎแห่งความปลอดภัยและการทำร้ายมนุษย์นี่เป็นปัญหาในอนาคตที่มนุษย์จะต้องกังวลถึง เพราะเมื่อถึงเวลาที่เราทำให้หุ่นยนต์คิดเองเป็นแล้ว เราจะทำอย่างไรให้หุ่นยนต์ทำในสิ่งที่ควรจะทำต่อไปได้
“สิ่งที่ยากที่สุดก็คือ ต้องสร้างอะไรบางอย่างขึ้นมาเพื่อทำความเข้าใจพวกหุ่นยนต์ที่กำลังจะฉลาดขึ้นเหล่านี้” อลัน บันดี จากสถาบันปัญญาประดิษฐ์ แห่งมหาวิทยาลัยเอดินเบอร์กในอังกฤษเผยพร้อมทั้ง กล่าวว่า “นับเป็นสิ่งที่ดีที่มีการแสดงความเป็นห่วงและคิดผ่านภาพยนตร์และงานเขียน”
ทั้งนี้ บันดีได้ตั้งข้อสังเกตว่ามาตรการรักษาความปลอดภัยในอุตสาหกรรมการสร้างหุ่นยนต์ก็ถูกนำมาใช้กันอย่างเคร่งครัด แต่ว่ามาตรการตามอุตสาหกรรมเหล่านี้เป็นในระดับการผลิตเพื่อป้องกันไม่ให้มนุษย์ได้รับอันตรายขณะปฏิบัติหน้าที่ หาได้เหมือนกฎ 3 ข้อของอาชิมอฟแต่อย่างใด
“มันน่าสนใจมาก ถ้าหากจะต้องมาคิดกันว่าเราต้องเตรียมหาสิ่งจำเป็นอะไรบ้างในการสร้างบางสิ่งบางอย่างขึ้นมาเพื่อควบคุมให้หุ่นยนต์รักษากฎ ซึ่งในขณะนี้พวกเราทั้งหมดทำได้ก็แค่เพียงสร้างกฎในระดับธรรมดาขึ้นมา”
แม้นักวิจัยหลายต่อหลายคนจะเคยสร้างหุ่นยนต์ที่เฉลียวฉลาด มีความสามารถเพื่อสรุปแนวคิดตามกฎของอาซิมอฟได้ แต่ก็ดูเหมือนว่ามันก็นำมาใช้จริงๆไม่ได้ และถึงแม้ว่าพวกเขาให้ความสนใจในการค้นคว้าปัญญาประดิษฐ์ในช่วงเริ่มต้น แต่กฎเกณฑ์ต่างๆ ก็ถูกละเลย เพราะกฎดังกล่าวดูคล้ายจะเป็นการวางเงื่อนไข แถมยังดูง่ายและธรรมดาเกินไป
“กฎของอาซิมอฟเกี่ยวพันกับหุ่นยนต์ในฐานะที่เป็นยาของมนุษย์ เพราะจะสามารถรักษาทุกสิ่งทุกอย่างได้” สตีฟ แกรนด์ ผู้ก่อตั้งบริษัทไซเบอร์ไลฟ์ รีเซิร์ทของอังกฤษ (Cyberlife Research) และได้ศึกษาพัฒนาปัญญาประดิษฐ์ โดยพยายามพัฒนาสมองของหุ่นยนต์ที่เริ่มมาจากไม่รู้อะไรเลย และค่อยๆ ใส่ความรู้เข้าไป ซึ่งการพัฒนาหุ่นยนต์แบบนี้เกิดขึ้นหลังจากที่คนทั่วไปเริ่มกังวลว่าความอัจฉริยะของหุ่นยนต์สามารถโปรแกรมหรือสั่งการเข้าไปได้ ซึ่งต่อไปหากหุ่นยนต์พัฒนาสมองตัวเองไปจนตรรกะของมันซับซ้อนเกินกว่าที่มนุษย์จะเข้าใจ เมื่อนั้นจะเกิดปัญหาตามมา
ส่วนกุญแจสำคัญของปัญหานี้ในทัศนะของแกรนด์นั่นก็คือ การพยายามจำลองการทำงานของสมองมนุษย์ ซึ่งแม้แต่มนุษย์กันเองยังไม่รู้จักระบบสมองของตัวเองละเอียดถ้วนถี่เท่าไหร่นัก จับลงสู่สมองของว่าที่หุ่นยนต์อัจฉริยะ ซึ่งตอนนี้ก็มีหลายทฤษฎีและแนวทางที่เป็นไปได้ที่จะสร้างเอไอแบบอัจฉริยะขึ้นมาจริงๆ โดยบันดีก็ได้เตือนว่ามันอาจจะเสี่ยงอยู่ในตอนนี้
อย่างไรก็ดี ทางออกสำหรับป้องกันไม่ให้หุ่นยนต์ออกนอกลู่นอกทางเมื่อมันฉลาดขึ้นมานั้นแกรนด์และคนอื่นๆ ในวงการหุ่นยนต์อาจจะต้องค่อยๆ สอน ซึ่งขณะนี้แกรนด์กำลังสอนหุ่นยนต์ธรรมดาตัวหนึ่งที่ชื่อ “ลูซี” โดยค่อยๆ พัฒนาสมองและให้ลูซีเรียนรู้สิ่งต่างๆ เหมือนมนุษย์ที่เพิ่งเกิดและเติบโตตามลำดับขั้นตอน โดยหวังว่าในวันหนึ่งหุ่นยนต์จะพัฒนาสติปัญญาอันซับซ้อนได้ด้วยการเรียนรู้เหมือนมนุษย์
“พวกเขาก็แค่เรียนว่าระหว่างผิดกับถูกมันแตกต่างกันยังไง เหมือนที่พวกเราได้เรียนรู้” แกรนด์เผย “ซึ่งผมก็มั่นใจว่าพวกเราสามารถทำได้ ส่วนเรื่องที่สอนแล้วอาจจะไม่เป็นผลนั้นก็น่าจะเป็นไปได้ แต่ว่าก็ไม่น่าจะทำให้หุ่นยนต์ออกมาก้าวร้าวได้เหมือนอย่างในหนัง”
สำหรับกฎ 3 ข้อของอาซิมอฟ นั่นก็คือ
กฎข้อ 1 หุ่นยนต์ไม่สามารถทำร้ายมนุษย์ หรือปล่อยให้มนุษย์ตกอยู่ในอันตราย
กฎข้อ 2 หุ่นยนต์ต้องเชื่อฟังคำสั่งมนุษย์ นอกจากจะขัดแย้งกับกฎข้อ 1
กฎข้อ 3 หุ่นยนต์ปกป้องตนเองได้ ถ้าไม่ขัดแย้งกับกฎข้อ 1 และ 2
และในที่สุดอาซิมอฟก็ได้เพิ่มกฎอีกข้อขึ้นมา แต่ว่าเป็นกฎข้อ 0 (ข้อศูนย์) ของหุ่นยนต์ขึ้นมา นั่นก็คือ “หุ่นยนต์จะต้องไม่ทำอันตรายและปกป้องมนุษยชาติทั้งมวล”