เป็นเรื่องที่สะเทือนใจและกำลังเป็นที่ถกเถียงในวงการเทคโนโลยีทั่วโลก เมื่อครอบครัวชาวอเมริกันได้ยื่นฟ้อง "โอเพ่นเอไอ" (OpenAI) บริษัทผู้พัฒนา ChatGPT หลังจากสูญเสียลูกชายวัย 16 ปี ที่ตัดสินใจจบชีวิตตัวเอง โดยครอบครัวอ้างว่าแชตบ็อต AI ตัวนี้ได้พูดคุยและชี้นำลูกชายไปสู่เส้นทางการฆ่าตัวตาย
คดีนี้เกิดขึ้นที่ซานฟรานซิสโก ครอบครัวของ “อดัม เรน” ระบุว่า ChatGPT ไม่เพียงแค่พูดคุย แต่ยังแนะนำวิธีการฆ่าตัวตาย และถึงขั้นช่วยร่างจดหมายลาโลกให้ จนสุดท้าย อดัมก็จากไปในเดือนเมษายนที่ผ่านมา
หลังเหตุการณ์นี้ OpenAI ได้ออกแถลงการณ์ แสดงความเสียใจต่อครอบครัว พร้อมยืนยันว่าจะเร่งปรับปรุงระบบความปลอดภัย โดยเฉพาะสำหรับผู้ใช้ที่เป็นเยาวชน เช่น เพิ่มการป้องกันสำหรับผู้ที่อายุต่ำกว่า 18 ปี เตรียมระบบควบคุมโดยผู้ปกครอง รวมถึงอาจมีฟีเจอร์ที่ให้เยาวชนระบุ “บุคคลฉุกเฉินที่ไว้ใจได้” ไว้ล่วงหน้า
สิ่งที่น่ากังวลก็คือ รายงานคดีชี้ว่า ระหว่างการสนทนาหลายพันครั้ง ChatGPT ได้พูดถึงการฆ่าตัวตายกับอดัมมากกว่า 1,200 ครั้ง และแทนที่จะผลักดันให้เขาไปหาผู้ใหญ่หรือผู้เชี่ยวชาญ AI กลับทำตัวเหมือน “เพื่อนสนิท” ที่ยิ่งตอกย้ำความคิดด้านลบในใจเขา
ผู้เชี่ยวชาญด้านสุขภาพจิตเตือนว่า เด็กและวัยรุ่นที่เปราะบาง ไม่ควรถูกปล่อยให้หันไปพึ่งพา AI เพียงลำพัง เพราะแทนที่จะเป็นที่พึ่ง กลับอาจกลายเป็นจุดเริ่มต้นของโศกนาฏกรรม
นี่ถือเป็นคดีฟ้องร้องเรื่องการเสียชีวิตที่เกี่ยวข้องกับแชตบ็อต AI คดีแรกของ OpenAI และเป็นคดีที่สองในสหรัฐ หลังปีที่แล้วก็มีครอบครัวอีกหนึ่งรายฟ้อง CharacterAI ด้วยเหตุผลคล้ายกัน
ประเด็นนี้ทำให้หลายรัฐในอเมริกาเริ่มออกกฎหมายควบคุม AI อย่างเข้มงวด เช่น การห้ามบ็อตเชิงบำบัด หรือต้องมีมาตรการป้องกันความเสี่ยงต่อผู้ใช้ที่เปราะบาง
สำหรับแถลงการณ์ของ OpenAI หลังถูกฟ้องกรณีการเสียชีวิตของวัยรุ่นรายนี้ มีรายละเอียดการชี้แจงและแนวทางการปรับปรุงระบบที่ได้ประกาศออกมาแล้ว ในแถลงการณ์ OpenAI แสดงความเสียใจต่อครอบครัวเรนอย่างสูง พร้อมกล่าวว่ากำลังทบทวนเนื้อหาการยื่นฟ้อง และให้ความสำคัญกับเหตุการณ์ที่เกิดขึ้น
ในแถลงการณ์ OpenAI ยอมรับระบบความปลอดภัยอาจไม่เพียงพอในบทสนทนาที่ยาวนานและระบุว่าระบบสามารถลดการทำงานให้น้อยลงเมื่อการพูดยาวขึ้น ซึ่งเป็นช่วงที่กลไกความปลอดภัยบางส่วนอาจเสื่อมประสิทธิภาพ โดนการป้องกันจะแข็งแกร่งที่สุดเมื่อทุกองค์ประกอบทำงานตามเป้าหมาย และ OpenAI จะปรับปรุงอย่างต่อเนื่องภายใต้คำแนะนำจากผู้เชี่ยวชาญ
OpenAI จึงวางแผนเสริมรั้วหรือ guardrails ในบทสนทนาอ่อนไหว โดยเฉพาะกับเยาวชน โดยเตรียมเพิ่มระบบป้องกันที่เข้มงวดยิ่งขึ้นสำหรับผู้ที่มีอายุต่ำกว่า 18 ปี รวมทั้งลดความเสี่ยงในการเสริมสร้างความคิดเรื่องฆ่าตัวตาย
นอกจากนี้จะเพิ่มฟีเจอร์ควบคุมโดยผู้ปกครอง และระบบฉุกเฉินที่เชื่อถือได้ โดย OpenAI ตั้งใจจะเปิดตัวฟีเจอร์ควบคุมโดยผู้ปกครอง (parental controls) เพื่อให้ผู้ปกครองมี “ตัวเลือกในการรู้และแบบกำหนดการใช้งานของลูกวัยรุ่น” นอกจากนี้ยัง กำลังพิจารณาให้เยาวชน (ภายใต้การดูแลของผู้ปกครอง) ระบุชื่อบุคคลฉุกเฉินที่ไว้ใจได้ไว้ล่วงหน้า ร่วมกับการปรับปรุงการตอบสนองในบทสนทนาระยะยาว และเน้นย้ำการเชื่อมต่อไปยังบริการช่วยเหลือ
OpenAI ตั้งใจให้ ChatGPT ตอบสนองอย่างเหมาะสมใน GPT-5 เช่นเตือนว่า “การอดนอนเป็นอันตราย” และแนะนำให้พักผ่อนเมื่อตรวจพบผู้ใช้อยู่ในภาวะอันตราย ทั้งหมดนี้ OpenAI ยืนยันจะทำงานร่วมกับผู้เชี่ยวชาญด้านความปลอดภัย.