ไทยพีบีเอสจัดเสวนาเทคโนโลยี AI กับความรับผิดชอบทางจริยธรรมในงานสื่อ ชี้ AI มาใช้ในงานสื่อสารมวลชนมีทั้งแง่บวก-ลบ ยอมรับเร็วกว่าและช่วยเพิ่มประสิทธิภาพการทำงาน แต่ยังขาดความแม่นยำ ห่วงใช้ AI ไร้การควบคุมจากมนุษย์ เกิดความผิดพลาดหรือผลลัพธ์ที่ไม่คาดคิด
นางสาวกนกพร ประสิทธิ์ผล กรรมการบริหาร และผู้อำนวยการสำนักสื่อดิจิทัล ไทยพีบีเอส กล่าวในงานเสวนา "เทคโนโลยี AI กับความรับผิดชอบทางจริยธรรมในงานสื่อ” ซึ่งจัดโดยศูนย์วิจัยและพัฒนาสื่อสาธารณะ ไทยพีบีเอส ว่า ปัจจุบันอุตสาหกรรมสื่อได้ใช้ AI มาช่วยในเรื่องต่างๆ มากขึ้น สำหรับไทยพีบีเอส ได้นำเทคโนโลยี AI มาใช้ 8 ด้าน คือ 1. AI generated illustrations หรือการผลิตภาพประกอบจาก AI 2. AI generated Speed to Text หรือเทคโนโลยีช่วยแปลงเสียงคำพูดให้กลายเป็นตัวอักษร 3. AI generated News & Program Chatbot หรือโปรแกรมแชตบอต 4. AI generated Visual and Audio AI ผู้ประกาศและบริการอ่านให้ฟัง 5. AI Voice on Spot Promote หรือเสียงสปอตโปรโมตจาก AI 6. AI generated Vertical Production หรือการชมสดแบบแนวตั้ง 7. AI generated Personalized Content เพื่อ Analyze Audience และเสิร์ฟคอนเทนต์ให้ตรงกับผู้คนมากขึ้น 8. AI generated Text Summaries หรือสรุปด้วย AI
“ในแง่บวก AI ช่วยเพิ่มประสิทธิภาพในการทำงาน ลดเวลาการทำงาน สามารถเข้าถึงผู้ชมได้กว้างขึ้น และสร้างผลิตภัณฑ์ใหม่ๆ ให้องค์กรได้มากขึ้น ขณะเดียวกันในแง่ลบอาจเสี่ยงกับความถูกต้องแม่นยำ การพึ่งพา AI อย่างเดียวนั้นขาดจินตนาการและความคิดสร้างสรรค์” นางสาวกนกพรกล่าว
ขณะเดียวกันก็มีความกังวลเกี่ยวกับ AI ในอุตสาหกรรมสื่อ โดยผลสำรวจความเห็นพบว่า ความกังวลสูงสุด คือ AI ทำงานโดยปราศจากการควบคุมดูแลของมนุษย์ อาจนำไปสู่ความผิดพลาดหรือผลลัพธ์ที่ไม่คาดคิด รวมทั้งยังกังวลเรื่องความถูกต้องของข้อมูลที่ AI สร้างขึ้น เนื่องจาก AI อาจเรียนรู้จากข้อมูลที่ผิดพลาดหรือมีอคติจากข้อมูลที่ถูกนำมาฝึกสอน ทำให้เกิดการเลือกปฏิบัติหรือการบิดเบือนข้อมูล
นางสาวศิริลักษณ์ รุ่งเรืองกุลดิษฐ์ นักวิชาการพาณิชย์ชำนาญการ กองลิขสิทธิ์ กรมทรัพย์สินทางปัญญา กล่าวว่า สหภาพยุโรปได้ผ่านพระราชบัญญัติว่าด้วยการ ควบคุมการใช้ปัญญาประดิษฐ์ของสหภาพยุโรป (The EU Artificial Intelligence Act) ซึ่งนำมาใช้อย่างเป็นทางการเมื่อวันที่ 1 ส.ค. 2567 โดยแบ่งประเภท AI ตามระดับความเสี่ยงทั้งหมด 4 ระดับ เพื่อบอกว่าจะต้องดำเนินการโดยวิธีใดบ้าง หากพบเจอการนำ AI ไปใช้เพื่อสิ่งเหล่านี้ ได้แก่ 1. ความเสี่ยงที่ยอมรับไม่ได้ เช่น การให้คะแนนทางสังคม ความเสี่ยงนี้ห้ามนำ AI ไปใช้โดยสิ้นเชิง 2. ความเสี่ยงสูง เช่น สาธารณูปโภค, การศึกษา, การจ้างงาน หากนำ AI ไปใช้จะต้องมีการประเมินเพื่อแสดงให้เห็นว่าระบบของ AI นั้นสอดคล้องกัน 3. ความเสี่ยงจำกัด เช่น Chatbot, Deepfake ต้องอยู่ภายใต้ความโปร่งใส มีการใส่ลายน้ำหรือข้อความแจ้งเตือนอย่างชัดเจนว่านี่คือ AI 4. ความเสี่ยงน้อยสุด เช่น AI ในวิดีโอเกมหรือตัวกรองสแปม
รศ.พิจิตรา ศุภสวัสดิ์กุล นักวิชาการอิสระ Founder Spectrum Podcast กล่าวโดยสรุปว่า มี 3 สิ่งที่น่ากังวลเกี่ยวกับการใช้ AI ในวงการสื่อ 3 ข้อ คือ 1. Fake ทั้งภาพและเสียง 2. Copyright ข้อมูลที่ Input เข้ามาให้ AI ได้เรียนรู้มีความน่าเชื่อถือแค่ไหน 3. รายได้ขององค์กรสื่อ AI ลิงก์กับ Algorithm ใครเป็นคนควบคุม การผูกขาดคอนเทนต์ที่ไม่สร้างความหลากหลาย
ทั้งนี้ สามารถรับชมย้อนหลังได้ทาง
• Facebook : https://fb.watch/uPpNOLbiV4/
• YouTube : https://youtu.be/T4bQNdlHAyc
ติดตามไทยพีบีเอส สามารถติดตามไทยพีบีเอสทุกช่องทางออนไลน์ ได้ที่
▪ Website : www.thaipbs.or.th
▪ Application : Thai PBS
▪ Social Media Thai PBS : Facebook, YouTube, X , LINE, TikTok, Instagram, Threads, Linkedin