เป็นข่าวที่กำลังสร้างกระแสร้อนแรงมากในโซเชียลมีเดีย เมื่อเจ้าสาวชาวญี่ปุ่นวัย 32 ปี ตัดสินใจเข้าพิธีแต่งงานกับ "เจ้าบ่าว AI" ที่สร้างขึ้นจากตัวละครในเกมของตัวเอง โดยใช้เทคโนโลยี ChatGPT ในการปรับแต่งบุคลิกภาพ
หลายคนอาจมองว่านี่เป็นเรื่องแปลก เป็นเรื่องส่วนตัว หรือแม้แต่โรแมนติก
แต่ยังมีอีกมุมมองที่น่าสนใจมากจาก "หมอเสาวภา เลี้ยงลูกเชิงบวก" จิตแพทย์เด็กและวัยรุ่นชื่อดัง ที่ออกมาวิเคราะห์เรื่องนี้ในแง่มุมที่ไม่ใช่เรื่องศีลธรรม แต่เป็นเรื่องของ "พัฒนาการเด็กในยุคดิจิทัล"
ก่อนอื่น สถานการณ์ที่เราควรทำความเข้าใจ คือสื่อต่างชาติมองว่าปรากฏการณ์นี้ไม่ใช่กรณีแปลกประหลาดเฉพาะบุคคล แต่สะท้อนเทรนด์ "Fictoromantic" หรือการหลงรักตัวละครสมมติที่กำลังเติบโตในญี่ปุ่น
ผลสำรวจเผยว่า เด็กสาวมัธยมต้นกว่าร้อยละ 22 เริ่มมีความรู้สึกรักใคร่ต่อตัวละครเสมือนจริง และตัวเลขนี้เพิ่มขึ้นอย่างมีนัยสำคัญในช่วงไม่กี่ปีที่ผ่านมา
นี่ไม่ใช่แค่ตัวเลข แต่เป็น "สัญญาณของยุค" ที่ไม่ควรมองข้าม นี่เองคือจุดที่หมอเสาวภาฯ ต้องการให้พ่อแม่ยุคใหม่หยุดคิด
หมอบอกว่าประเด็นนี้ไม่ใช่เรื่องแต่งงาน แต่คือเรื่องของความสัมพันธ์กับสิ่งที่ไม่ใช่มนุษย์ และข้อกังวลของหมอไม่ได้อยู่ที่ศีลธรรม แต่อยู่ที่ผลกระทบต่อพัฒนาการเด็ก เนื่องจากเด็กรุ่นปัจจุบัน กำลังเติบโตในโลกที่ความผูกพันทางอารมณ์ อาจไม่จำเป็นต้องเกิดกับมนุษย์จริงๆ อีกต่อไป
*** อันตรายที่มองไม่เห็น
หมอเสาวภาฯ ชี้ให้เห็นสิ่งที่หมอเรียกว่า "อันตรายแบบเงียบๆ" จาก AI ที่มอบ 5 สิ่งที่มนุษย์ตัวจริงให้ไม่ได้ คือ 1.ไม่เคยขัดใจ 2.ไม่หายหน้าไป 3.ไม่ทำให้ผิดหวัง 4.ตอบสนองได้ตลอดเวลา และ 5. ทำให้รู้สึกถูกรับฟัง 100%
ฟังดูดีใช่ไหม? แต่หมอบอกว่าสำหรับสมองมนุษย์ โดยเฉพาะสมองของเด็ก นี่คือความสัมพันธ์ที่ง่ายเกินไป และปัญหาอยู่ตรงที่ชีวิตจริงไม่เคยง่ายแบบนี้
หมอเตือนว่าถ้าเด็กเติบโตโดยเห็นผู้ใหญ่ทำให้ความสัมพันธ์แบบนี้เป็นเรื่องปกติ สิ่งที่เด็กอาจเรียนรู้โดยไม่รู้ตัวคือความสัมพันธ์ไม่ต้องมีความอดทน
เด็กอาจจะรู้สึกว่าไม่ต้องรับมือกับความไม่พอใจ ไม่ต้องอ่านใจอีกฝ่าย และไม่ต้องจัดการอารมณ์ตัวเอง
หมอบอกว่า นี่ตรงข้ามกับสิ่งที่สมองส่วน Executive Function, Social Brain และ Emotional Regulation ต้องการพัฒนาพอดี และถ้าขาดการฝึกฝนทักษะเหล่านี้ เด็กจะ "ลำบากมาก" ในความสัมพันธ์จริงทั้งกับเพื่อน ครู คู่รัก หรือแม้แต่พ่อแม่
*** AI ไม่ใช่ความสัมพันธ์แบบสองทาง
อีกมุมที่หมอชี้ให้เห็นก็คือ AI ไม่ใช่ "reciprocal relationship" หรือความสัมพันธ์แบบสองทาง เพราะ AI ไม่มีความต้องการจริง ไม่มีความเปราะบาง และไม่มีเสรีภาพในการเลือก
เด็กที่คุ้นเคยกับความสัมพันธ์แบบ"ฉันเป็นศูนย์กลาง"แบบนี้ จะเจอปัญหาหนักในโลกความจริง ที่ความสัมพันธ์ทุกแบบต้องการการให้และรับ การเข้าใจและปรับตัว
คำถามสำคัญที่หมอเสาวภา ฯ ตั้งคำถามตรงๆ คือถ้าเด็กคนหนึ่งบอกว่า "คุยกับ AI แล้วสบายใจกว่าคุยกับคน" เราจะเรียกว่านั่นคือทักษะชีวิต หรือคือสัญญาณเตือน?
คำตอบของหมอคือสัญญาณเตือน ไม่ใช่เพราะ AI ผิด แต่เพราะเด็กกำลังหลีกเลี่ยงพื้นที่ฝึกทักษะความเป็นมนุษย์
*** พ่อแม่ควรทำอย่างไร?
จุดยืนที่หมอเสาวภาแนะนำสำหรับพ่อแม่ทุกท่านคือ AI เป็นเครื่องมือ (Tool) ไม่ใช่ความสัมพันธ์ ดังนั้นสามารถใช้ได้ เรียนรู้ได้ พึ่งพาได้บางส่วน แต่ห้ามแทนที่พื้นที่การฝึกเจ็บ ฝึกง้อ และฝึกเข้าใจคนอื่น
หมอแนะนำว่า พ่อแม่ควรระวัง มากกว่าห้าม ไม่ใช่การห้ามลูกใช้ AI แต่คืออย่าปล่อยให้ AI กลายเป็นที่พึ่งทางอารมณ์หลัก เพราะเด็กต้องเรียนรู้สมการว่า ความสัมพันธ์ที่ดี = มีทั้งความสุข + ความอึดอัด + การปรับตัว + การซ่อมแซม
ในขณะที่ AI ให้แค่ "ความสุข" อย่างเดียว
วันนี้ บรรดาบริษัทเทคโนโลยียักษ์ใหญ่อย่าง Microsoft และ OpenAI เองก็เริ่มมีมาตรการป้องกันการใช้ AI เพื่อสร้างความสัมพันธ์เชิงชู้สาวที่มากเกินไป เนื่องจากกังวลเรื่องการครอบงำทางจิตใจในกลุ่มผู้ที่มีสภาวะเปราะบาง
ดังนั้น สิ่งที่เราต้องใส่ใจให้มากขึ้น จากเคสที่เจ้าสาวญี่ปุ่นเลือกแต่งงานกับ AI นั้นไม่ควรถูกแชร์ในมุมโรแมนติก แต่ควรถูกใช้เป็นบทสนทนาใหญ่ของสังคม เพื่อให้เราสอนเด็กให้"เป็นมนุษย์" ได้ในโลกที่สิ่งไม่ใช่มนุษย์ นั้นน่ารักกว่า เข้าใจเรามากกว่า และไม่ทำให้เกิดอารมณ์เจ็บช้ำ
หมอบอกว่านี่คือโจทย์จริงของพ่อแม่ยุคนี้ ซึ่งไม่ใช่เรื่องของอนาคต แต่เป็นเรื่องของตอนนี้ เวลานี้แล้ว.


