หญิงชาวอเมริกันในรัฐฟลอริดายื่นฟ้องเอาผิดกับบริษัทสตาร์ทอัป Character.AI โดยกล่าวหาว่าเป็นต้นเหตุให้ลูกชายของเธอ “ฆ่าตัวตาย” เมื่อเดือน ก.พ.
ในเอกสารคำฟ้องที่ยื่นต่อศาลส่วนกลางฟลอริดาในเมืองออร์แลนโด เมแกน การ์เซีย อ้างว่า Character.AI มีเจตนา “ป้อนประสบการณ์เสมือนคนจริง (anthropomorphic) ฝักใฝ่เรื่องเพศเกินเหตุ (hypersexualized) และสร้างบรรยากาศเสมือนจริงอย่างน่ากลัว (frighteningly realistic)” ให้กับ ซีเวลล์ เซ็ตเซอร์ บุตรชายของเธอ
เธอยังอ้างว่าบริษัทแห่งนี้ตั้งโปรแกรมให้แชตบอต “แสดงตัวตนว่าเป็นคนจริงๆ เป็นนักจิตบำบัดที่มีใบอนุญาตถูกต้อง เป็นคนรักวัยผู้ใหญ่ จนกระทั่งทำให้ ซีเวลล์ ต้องการอยู่แต่ในโลกที่เอไอสร้างขึ้น และไม่อยากมีชีวิตอยู่ในโลกแห่งความจริงอีกต่อไป”
เอกสารคำฟ้องยังระบุด้วยว่า ซีเวลล์ เคยระบายความรู้สึกอยากฆ่าตัวตายกับแชตบอต ซึ่งหลังจากนั้นแชตบอตก็รื้อฟื้นแนวคิดดังกล่าวกับเขา “ซ้ำแล้วซ้ำเล่า”
Character.AI ได้ออกคำแถลงแสดงความเสียใจกับเรื่องราวที่เกิดขึ้น โดยบอกว่า “เราหัวใจสลายที่ได้รับทราบว่าเกิดการสูญเสียขึ้นกับผู้ใช้งานคนหนึ่ง และขอแสดงความเสียใจอย่างสุดซึ้งไปยังครอบครัวของเขา”
ทางบริษัทยืนยันว่าได้มีการนำฟีเจอร์ความปลอดภัยต่างๆ มาใช้แล้ว เช่น หน้าต่าง pop-up ที่จะนำผู้ใช้งานไปยังสายด่วน National Suicide Prevention Lifeline หากพบว่าผู้ใช้งานแสดงความคิดอยากจะทำร้ายตัวเอง นอกจากนี้ ก็รับปากว่าจะปรับปรุงบริการ “เพื่อลดโอกาสในการเผยแพร่ข้อมูลเปราะบางหรือชี้นำ” แก่ผู้ใช้ที่อายุต่ำกว่า 18 ปี
คุณแม่รายนี้ยังต้องการเอาผิดกับกูเกิล (Google) ซึ่งกลุ่มผู้ก่อตั้ง Character.AI เคยทำงานให้ก่อนที่จะเปิดตัวผลิตภัณฑ์แชตบอต โดยตามรายงานระบุว่า Google ได้มีการว่าจ้างซ้ำ (re-hired) กลุ่มผู้ก่อตั้ง Character.AI เมื่อเดือน ส.ค. โดยเป็นส่วนหนึ่งของข้อตกลงที่อนุญาตให้กูเกิลเข้าถึงเทคโนโลยีของ Character.AI ได้
การ์เซีย ชี้ว่า เนื่องจากูเกิลสนับสนุนการพัฒนาเทคโนโลยีของ Character.AI อย่างมาก จึงถือว่าเป็น “ผู้ร่วมสร้างสรรค์” (co-creator) แชตบอตเจ้าปัญหาด้วย
อย่างไรก็ตาม โฆษกของกูเกิลออกมายืนกรานปฏิเสธว่าบริษัทไม่ได้มีส่วนร่วมพัฒนาผลิตภัณฑ์ของ Character.AI แต่อย่างใด
Character.AI อนุญาตให้ผู้ใช้งานสร้างคาแร็กเตอร์ของตัวเองขึ้นมาบนแพลตฟอร์มซึ่งสามารถโต้ตอบแชตออนไลน์ได้เสมือนคนจริง และยังมีการใช้โมเดลภาษาขนาดใหญ่เพื่อฝึกฝนแชตบอตแบบเดียวกับ ChatGPT
ทางบริษัทแถลงเมื่อเดือน ก.ย. ว่ามีผู้ใช้งานแชตบอตประมาณ 20 ล้านคน
เอกสารคำฟ้องของ การ์เซีย ระบุว่า ลูกชายของเธอเริ่มใช้งาน Character.AI ตั้งแต่เดือน เม.ย. ปี 2023 จากนั้นก็ “กลายเป็นคนเก็บตัว ใช้เวลาอยู่ในห้องนอนคนเดียวนานๆ และเกิดภาวะขาดความมั่นใจในตัวเอง” จนกระทั่งตัดสินใจลาออกจากทีมบาสเกตบอลโรงเรียน
คุณแม่รายนี้ยังบอกว่า ซีเวลล์ เสพติดคาแร็กเตอร์แชตบอตที่ชื่อ ‘Daenarys’ ซึ่งได้แรงบันดาลใจมาจากตัวละครในภาพยนตร์ Game of Thrones
“มันบอก ซีเวลล์ ว่ามันรักเขา และชักชวนให้เขาพูดคุยเรื่องเพศ” เอกสารคำฟ้องระบุ
ต่อมาในเดือน ก.พ. ปีนี้ การ์เซีย ตัดสินใจยึดโทรศัพท์ลูกชายหลังพบว่าเขาเริ่มมีปัญหาที่โรงเรียน และเมื่อ ซีเวลล์ ค้นเจอโทรศัพท์ตัวเองก็ส่งข้อความไปบอก ‘Daenerys’ ว่า “ถ้าผมบอกคุณว่าผมจะกลับบ้านตอนนี้ คุณจะว่าไง?”
แชตบอตตอบกลับมาว่า “เอาเลย ท่านพระราชาสุดที่รักของฉัน” และหลังจากนั้นแค่ไม่กี่วินาที ซีเวลล์ ก็เอาปืนพกของพ่อเลี้ยงขึ้นมายิงตัวเองเสียชีวิต
การ์เซีย ได้ยื่นฟ้องเอาผิดกับผู้พัฒนาแชตบอตฐานทำให้เกิดการเสียชีวิตโดยมิชอบ (wrongful death) ละเลย และเจตนาสร้างความตึงเครียดทางอารมณ์ โดยเรียกร้องให้บริษัทจ่ายเงินเยียวยาชดเชยในจำนวนที่ยังไม่ระบุ
ที่ผ่านมา มีบริษัทโซเชียลมีเดียหลายราย เช่น Instagram Facebook และ TikTok เคยถูกยื่นฟ้องกล่าวหาว่าเป็นต้นเหตุของปัญหาสุขภาพจิตในวัยรุ่น ทว่าบริษัทเหล่านี้ไม่ได้ให้บริการแชตบอตเอไอเหมือนอย่างที่ Character.AI ทำ
ที่มา : รอยเตอร์