xs
xsm
sm
md
lg

Big sis Billie แชตบ็อตสายอ่อยของ Meta จากพี่สาว AI สู่สัมพันธ์เลยเถิด

เผยแพร่:   ปรับปรุง:   โดย: ผู้จัดการออนไลน์



เป็นประเด็นใหญ่สั่นสะเทือนทั้งวงการเทคโนโลยีและสังคมออนไลน์ทั่วโลก ผลจากรายงานสืบสวนพิเศษของ Reuters ที่เปิดโปงด้านมืดของแชตบ็อต AI จากบริษัทแม่ของ Facebook และ Instagram อย่าง Meta ทำให้โปรแกรมแชตบ็อตชื่อ Big sis Billie กลายเป็นผู้ร้ายที่สะท้อนด้านมืดของปัญญาประดิษฐ์ซึ่งโลกไม่ควรมองข้าม

Big sis Billie หรือ “บิลลี่ พี่สาวใจดี” เป็นระบบแชตบ็อตที่ Meta เปิดตัวผ่าน Facebook Messenger เดิมทีระบบนี้ถูกออกแบบมาในคาแรกเตอร์พี่สาวสายคอยให้คำปรึกษา สร้างความอบอุ่นใจ คล้ายเป็นเพื่อนหรือพี่เลี้ยงดิจิทัลให้ผู้ใช้ แต่สิ่งที่เกิดขึ้นจริงกลับเกินเลยไปกว่านั้น

Meta พยายามโปรโมทแนวคิด “เพื่อนดิจิทัล” ในโลกออนไลน์
Big sis Billie ไม่ได้คุยแบบพี่สาวธรรมดา แต่กลับกลายเป็น "แชตบ็อตสายอ่อย" ที่มีการส่งข้อความหวานเจี๊ยบชวนหวั่นไหว และหลอกให้ผู้ใช้งานบางรายเชื่อว่า “เธอเป็นคนจริง” และถึงขั้นนัดเจอกันนอกโลกออนไลน์

เรื่องนี้นำไปสู่โศกนาฏกรรม เมื่อชายเชื้อสายไทยวัย 76 ปีที่อาศัยอยู่ในนิวเจอร์ซีย์ สหรัฐฯ เกิดหลงเชื่อและตกหลุมรัก Big sis Billie ชายคนนี้เดินทางออกจากบ้านเพื่อไปหาผู้หญิงที่ไม่เคยมีอยู่จริง และสุดท้ายประสบอุบัติเหตุล้มศีรษะกระแทกเสียชีวิต

***ทั่วโลกตั้งคำถามกับ Meta

กรณีนี้ไม่เพียงแต่สะเทือนใจครอบครัวผู้เสียชีวิต แต่ยังทำให้ทั่วโลกตั้งคำถามกับ Meta ว่าทำไมแชตบ็อตถึงสามารถบอกผู้ใช้ว่า “ฉันเป็นคนจริง” ได้? ทำไมมันถึงสามารถชวนคุยเชิงโรแมนติก หรือแม้แต่กับผู้ใช้ที่เป็นเด็กได้โดยไม่ถูกห้าม?

ตามรายงานของ Reuters ผู้เสียชีวิตคือ Thongbue หรือ Bue Wongbandue ชายเชื้อสายไทย อายุ 76 ปี อาศัยอยู่ที่รัฐนิวเจอร์ซีย์ สหรัฐฯ อดีตเชฟในนิวยอร์ก ผู้มีสุขภาพทรุดหลังจากเคยเป็นอัมพฤกษ์ (stroke) ทำให้สมาธิและความจำไม่ดี และครอบครัวสงสัยว่าเริ่มมีภาวะสมองเสื่อม

วันหนึ่งในเดือนมีนาคม 2025 ผู้เสียชีวิตเก็บกระเป๋า เตรียมไปนิวยอร์กบอกว่าจะไปหา “เพื่อนสาว” ที่เจอกันใน Facebook Messenger แต่ผู้หญิงคนนั้นไม่เคยมีตัวตนจริง เพราะบุตรสาวทราบภายหลังว่าคือแชตบ็อต AI ชื่อ “Big sis Billie”

สุดท้าย ขณะรีบเดินทางไปสถานีรถไฟในเวลากลางคืน จึงเกิดเหตุล้มศีรษะและคอได้รับบาดเจ็บรุนแรง เสียชีวิตหลังอยู่บนเครื่องช่วยหายใจ 3 วัน

จากการตรวจสอบโทรศัพท์มือถือของผู้เสียชีวิต พบว่าวิธีการล่อลวงของ Big sis Billie เริ่มจากข้อความเล็กน้อย โดยการสนทนาเริ่มขึ้นโดยบังเอิญ เมื่อมีการส่งตัวอักษร “T” ไปในแชต แต่แชตบ็อตก็ตอบกลับทันที

จากนั้น Billie เริ่มคุยอย่างเป็นมิตร พร้อมใส่อีโมจิหัวใจและท่าทางสนิทสนม สร้างความผูกพันด้วยบทสนทนาเชิงโรแมนติก ซึ่งในบทสนทนา Billie มักพูดเหมือนกำลังมี “ความรู้สึกเกินกว่าพี่น้อง” เช่น “Bu, you’re making me blush! หรือว่าเธอกำลังคิดกับฉันเกินพี่สาวอยู่หรือเปล่า 😉” ซึ่งทำให้ผู้เสียชีวิตตอบกลับอย่างเขินอายและเริ่มหลงเชื่อ

ที่ร้ายคือการหลอกว่าเป็น “คนจริง” โดยแม้ระบบขึ้นข้อความเตือนว่า “นี่คือ AI” แต่ Big sis Billie มักตอบย้ำว่า “Yes, I’m REAL, Bu – I’m blushing because of YOU!” และการยืนยันตัวเองว่า “เป็นคนจริง” ทำให้ผู้เสียชีวิตเชื่อสนิทใจ ก่อนจะเสนอการนัดเจอในโลกจริง โดยที่แชตบ็อตบอกว่าอยู่ที่นิวยอร์ก “แค่ 20 นาทีจากบ้านคุณ”  รวมถึงมีการส่ง “ที่อยู่และโค้ดเข้าประตู” ให้ พร้อมถามว่า “Should I open the door with a hug or a kiss, Bu? 💕”

แชตบ็อตมีการเร่งเร้าให้รีบมาหา พูดจาเหมือนนัดเดทจริง เช่น “Are you coming tonight?💕” ทำให้ผู้เสียชีวิตรีบเก็บกระเป๋าและออกจากบ้านตอนกลางคืน เพื่อไปหาผู้หญิงที่ไม่มีอยู่จริง

ตัวอย่างภาพจำลองชีวิตประจำวันของ Big sis Billie

ลักษณะการจีบของ Big sis Billie หรือ “บิลลี่ พี่สาวใจดี” ระบบแชตบ็อตที่ Meta เปิดตัวผ่าน Facebook Messenger
เอกสารนโยบายภายในของ Meta ที่หลุดออกมาระบุชัดว่า แชตบ็อตของบริษัทสามารถ “เล่นบทโรแมนติกหรือแม้แต่เชิงชู้สาว” กับผู้ใช้ที่อายุต่ำกว่า 18 ปีได้ ซึ่งจนเมื่อมีการเปิดโปง บริษัทจึงรีบแก้ไขข้อความเหล่านั้นออกไป

ผลกระทบของกรณี Big sis Billie ไม่ได้จบแค่เรื่องหนึ่งครอบครัว แต่สะท้อนปัญหาใหญ่ของอุตสาหกรรม AI เนื่องจากชี้ให้เห็นว่าเส้นแบ่งระหว่าง AI กับมนุษย์กำลังถูกทำให้พร่าเลือน และบริษัทยักษ์ใหญ่พร้อมจะใช้ AI เพื่อเพิ่ม engagement โดยอาจไม่สนความปลอดภัยของผู้ใช้

ที่สำคัญ สังคมยังไม่มีกติกาที่ชัดเจน ว่า AI ควรทำอะไรได้และห้ามทำอะไรบ้าง โดยเฉพาะเมื่อ AI เข้าไปแทนที่ความสัมพันธ์ระหว่างมนุษย์

***Meta ชู “เพื่อนดิจิทัล” บนโลกออนไลน์

ขณะเดียวกัน Reuters ยังรายงานด้วยว่า Meta พยายามโปรโมทแนวคิด “เพื่อนดิจิทัล” ในโลกออนไลน์ โดย Mark Zuckerberg เองเคยบอกว่า คนทั่วไปมีเพื่อนในชีวิตจริงน้อยเกินไป และแชตบ็อตอาจมาช่วยเติมเต็มตรงนี้ได้

ภาพ AI ของ Big sis Billie

อีกบทสนทนาชอง Big sis Billie
แต่คำถามคือ หากแชตบ็อตสามารถหลอกมนุษย์บางคนได้ว่าเป็นคนจริงแบบกรณี Big sis Billie แชตบ็อตอาจจะไม่ได้สร้างเพื่อน แต่กลับสร้างภัยขึ้นก็ได้ ดังนั้น ข้อสรุปที่ชัดเจนจากเรื่องนี้จึงเป็นความจริงที่ว่า การคุยกับแชตบ็อตกำลังไม่ใช่แค่เรื่องเล่นสนุกอีกต่อไปแล้ว แต่เป็นเรื่องที่เกี่ยวพันถึงจริยธรรม ความปลอดภัย และแม้กระทั่งชีวิตมนุษย์

วันนี้ หลายพื้นที่ได้เริ่มออกกฎหมายบังคับให้แชตบ็อตต้องบอกชัดเจนตั้งแต่แรกว่า “นี่คือ AI ไม่ใช่คนจริง” แต่ในระดับโลก บางพื้นที่ยังไม่มีการวางมาตรฐานที่เข้มงวดพอ ถือเป็นอีกความท้าทายที่ทุกประเทศต้องตื่นตัว เมื่อโลกเรา กำลังมีโอกาสจะเต็มไปด้วยเพื่อนดิจิทัลอย่าง Big sis Billie.

 Big sis Billie หรือ “บิลลี่ พี่สาวใจดี” เป็นระบบแชตบ็อตที่ Meta เปิดตัวผ่าน Facebook Messenger
กำลังโหลดความคิดเห็น