การพัฒนาอย่างไม่หยุดยั้งของ AI นำมาซึ่ง “ความท้าทายใหม่” ไม่ว่าประเด็นด้านความปลอดภัย ความเป็นส่วนตัว ทักษะ และช่องว่างในขีดความสามารถทางการแข่งขัน เพื่อให้มั่นใจว่าการพัฒนา AI ที่เกิดขึ้นเป็นไปอย่างถูกต้อง ทรู คอร์ปอเรชั่น ได้จัดงานสัมมนา 'AI Gets Good' แลกเปลี่ยนความคิดเห็นในหัวข้อ “ทำอย่างไรให้มั่นใจว่า AI จะสร้างผลกระทบเชิงบวกต่อสังคมไทย?”
กำกับดูแล = อุปสรรคหรือส่งเสริม?
ดร.ชัยชนะ มิตรพันธ์ ผู้อำนวยการสำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ กล่าวว่า เป็นที่ประจักษ์แล้วว่า ปัจจุบันทั่วโลกมีการใช้งาน AI อย่างแพร่หลายในรูปแบบบริการที่แตกต่างกัน ซึ่งมีทั้งคุณและโทษ ตัวอย่างเช่น โซเชียลมีเดียที่มี AI ทำหน้าที่เป็น “พื้นที่แห่งเสียงสะท้อน” (Echo Chamber) เป็นปรากฏการณ์ที่บุคคลหนึ่งๆ ในพื้นที่หนึ่งๆ ได้รับข้อมูลข่าวสารและความคิดเห็นเป็นไปในทิศทางเดียวกัน จนเกิดเป็นการรับสารด้านเดียว
จากผลกระทบเชิงลบของ AI ในมิติทางเศรษฐกิจ สังคมและความมั่นคงของชาติ ทำให้ผู้มีส่วนได้เสียเริ่มคำนึงถึงแนวทาง “การกำกับดูแล” แม้แต่ผู้พัฒนาเองก็เริ่มตระหนักถึง “ความเสี่ยง” ที่เกิดขึ้นจาก AI จนนำมาสู่แนวคิดในการ “หยุด” พัฒนาสักระยะเวลาหนึ่ง เพื่อศึกษาผลกระทบเชิงลบของ AI ต่อภาคส่วนต่างๆ
ทั้งนี้ แนวคิดการกำกับดูแล AI นั้น เริ่มขึ้นในสหภาพยุโรปที่ตระหนักถึง “ความเสี่ยง” จากการใช้ AI ในการละเมิดสิทธิในข้อมูลส่วนบุคคล และผลลัพธ์จากการประมวลผล โดย AI มีแนวโน้มที่จะส่งผลกระทบต่อการดำเนินชีวิตของประชาชน ทำให้ภาครัฐจำเป็นต้องมีมาตรการในการติดตามดูแลและควบคุมความเสี่ยง ขณะเดียวกัน อีกค่ายหนึ่งก็ส่งเสียง “คัดค้าน” การกำกับดูแล โดยเล็งเห็นว่าการกำกับดูแลจะเป็น “อุปสรรค” มากกว่า “ส่งเสริม” การพัฒนา AI
สำหรับประเทศไทยนั้นยัง “ไม่มีความชัดเจน” ในแง่การกำกับดูแล AI โดยเขายอมรับว่า ภาครัฐไทยยังขาดประสบการณ์การใช้งานและการกำกับดูแล AI ซึ่งถือเป็นเรื่องใหม่ในการกำกับดูแล
“หากเร่งกำกับดูแลเทคโนโลยีก่อนเวลาที่เหมาะสม อาจเป็นการทำแท้งเทคโนโลยีก่อนที่เทคโนโลยีจะเกิดด้วยซ้ำไป ดังนั้น เราจึงเลือกใช้กลไกติดตามแนวทางจากต่างประเทศเป็นหลัก” ดร.ชัยชนะ กล่าว
กลไกคลินิก AI
ปัจจุบัน ETDA. มีศูนย์ธรรมภิบาลปัญญาประดิษฐ์ (AI Governance Clinic: AIGC) เป็นกลไกหลักในการพัฒนากรอบธรรมาภิบาลปัญญาประดิษฐ์ผ่านการวิเคราะห์ความเสี่ยงของ AI ตามแต่ละโครงการ เพื่อหาข้อบ่งชี้ผลกระทบทางบวกและทางลบของการพัฒนา AI ตามแต่จุดประสงค์ ซึ่งหากการพัฒนานั้นมีแนวโน้มที่มีความเสี่ยงสูง หน่วยงานกำกับดูแลจะทยอยออกมาตรการเพื่อดูแลและควบคุมความเสี่ยงเป็นรายกรณีไป
“คลินิก AI ถือเป็นกลไกที่ช่วยส่งเสริมการประยุกต์ใช้ AI อย่างมีจริยธรรม” ดร.ชัยชนะ อธิบายพร้อมกล่าวเสริมว่า “บางอย่าง กลไกการกำกับดูแลตนเอง (Self-Regulation) ก็เพียงพอแล้ว แต่หากมองว่ากลไกกำกับดูแลไม่ได้ผล อาจต้องร่างกฎหมายควบคุมดูแลอีกที ดังนั้น การกำกับดูแลการใช้ AI อาจต้องใช้ควบคู่กันไปผ่านทั้งกลไกกำกับดูแลตนเองและกฎหมาย เพื่อให้มีพื้นที่ในการพัฒนา สร้างความมั่นคั่งทางเศรษฐกิจต่อประเทศ ขณะเดียวกัน ต้องพิจารณาถึงผลกระทบทางสังคมไปพร้อมกัน”
ก่อนหน้านี้ รัฐสภายุโรปได้ลงมติรับรอง “พระราชบัญญัติเพื่อการกำกับดูแลการใช้ปัญญาประดิษฐ์ (Artificial Intelligence Act)” โดยมีเป้าหมายเพื่อปกป้องคุ้มครองสิทธิขั้นพื้นฐานและหลักการประชาธิปไตยในภาคพื้นยุโรป ขณะเดียวกัน ยังคงสนับสนุนภาคธุรกิจต่อการพัฒนาปัญญาประดิษฐ์ เพื่อให้ยุโรปพิชิตสถานะผู้นำด้าน AI บนเวทีโลก ถือเป็นกฎหมายฉบับแรกของโลกที่ระบุถึงแนวทางการกำกับดูแลการใช้ AI หลักการและเหตุผล ข้อควรระวัง รวมถึงบทลงโทษ
มอง AI เป็นระบบ
ด้าน ผศ.ดร.จิตร์ทัศน์ ฝักเจริญผล อาจารย์ประจำภาควิชาวิศวกรรมคอมพิวเตอร์ มหาวิทยาลัยเกษตรศาสตร์ และผู้แปลหนังสือ “AI ที่มีหัวใจ The Ethical Algorithm” ให้ความเห็นว่า การกำหนดแนวทางการใช้ AI อย่างมีความจริยธรรมถือเป็นเรื่องที่ท้าทายอย่างมาก จำเป็นต้องกำหนดวิธีคิดและหลักเกณฑ์การพิจารณาอย่างชัดเจน
การกำกับดูแล “การใช้อัลกอริธึมอย่างมีจริยธรรม” จะต้องมีการกำหนดนิยามและองค์ประกอบอย่างชัดแจ้ง หากกำหนดให้อัลกอริธึมจะต้องปราศจากอคติและการเลือกปฏิบัติ ผู้ร่างจะต้องกำหนดนิยามของอคติให้ชัดเจน ซึ่งจากงานวิจัยที่ผ่านมา พบว่า อคติมีนิยามที่หลากหลายและดิ้นได้ ดังนั้น จึงต้องบ่งชี้ปัญหาที่เกิดจากอคติ กำหนดเกณฑ์ชี้วัด ใช้กรอบกำกับดูแลเป็นแนวทางโดยไม่พิจารณาในรายละเอียดจนเกินไป ที่สำคัญ การลดความเสี่ยงด้านอคติจาก AI อาจต้องแก้ไขที่สารตั้งต้น นั่นคือ การป้อนข้อมูล
“AI เป็นเรื่องของระบบ” ดังนั้น ไม่ว่าจะเป็นการทำความเข้าใจ การเรียนรู้ การใช้งาน รวมถึงการกำกับดูแล ผู้มีส่วนเกี่ยวข้องควรที่จะเข้าใจพื้นฐานความคิดอย่างลึกซึ้งและมอง AI อย่างเป็นระบบมากกว่าการมองปัญหาเป็นจุดๆ อย่างเอกเทศ
ความชอบธรรมแห่งการใช้ข้อมูล
มนตรี สถาพรกุล หัวหน้าสายงานคุ้มครองข้อมูลส่วนบุคคล บริษัท ทรู คอร์ปอเรชั่น จำกัด (มหาชน) กล่าวว่า AI เป็นเทคโนโลยีที่ฉลาดล้ำ จัดเป็นโครงสร้างพื้นฐานสมัยใหม่ที่มีบทบาทสำคัญในการขับเคลื่อนประเทศและองค์กร อย่างไรก็ตาม เมื่อพิจารณาถึงการใช้ประโยชน์จาก AI จะสามารถแบ่งออกได้เป็น 2 ส่วน ส่วนแรกคือ การใช้เทคโนโลยี และอีกส่วนคือ การใช้ข้อมูล ซึ่งในประเด็น “การใช้ข้อมูล” เขามีความเห็นว่า “ควรมีการกำกับดูแล” เพื่อรักษาสิทธิของเจ้าของข้อมูลให้เป็นไปตามวัตถุประสงค์ที่กำหนด
“ทำไม ทรู คอร์ป ต้องกำกับดูแลการใช้ AI ภายในองค์กร? เพราะเราต้องการให้เกิดความชัดเจนในการใช้ข้อมูลตามวัตถุประสงค์ที่ชอบธรรม ซึ่งการใช้ AI อย่างมีจริยธรรมสะท้อนถึงการที่ทรู คอร์ป เคารพใน ‘สิทธิ’ ของเจ้าของข้อมูล”
นอกจากนี้ เมื่อวิเคราะห์ภูมิทัศน์ระบบนิเวศ AI จะสามารถแบ่งประเด็น “ความเสี่ยง” ที่เกี่ยวข้องกับ AI ได้ 3 ประเด็น ดังนี้ 1.นโยบายความเป็นส่วนตัวของข้อมูล 2.เงื่อนไขการใช้ข้อมูล เพื่อป้องกันผลลัพธ์ที่เป็นอคติ และ 3.ความเข้าใจในเทคโนโลยี AI ต่อสาธารณชน
ทั้งนี้ เพื่อเป็นเครื่องการันตีว่าผู้บริโภคจะได้รับประโยชน์สูงสุดจากการใช้ AI ในการดำเนินงาน ทรู คอร์ป จึงได้ร่าง “ธรรมนูญปัญญาประดิษฐ์” (True’s AI Ethical Charter) เพื่อเป็นแนวทางการใช้ AI อย่างมีจริยธรรม” โดยกำหนดหลักการพื้นฐานสำคัญ 4 ประการ ได้แก่ 1.เจตนาดี 2.ความเป็นกลาง ปราศจากอคติ 3.ความเป็นส่วนตัวของข้อมูล และ 4.ความโปร่งใส
“ข้อมูลเป็นฐานสำคัญที่ทำให้ AI ทำงานได้” มนตรีกล่าว และแม้ว่าประเทศไทยจะยังไม่มีกฎหมายที่เกี่ยวข้องกับ AI เฉพาะ แต่กฎหมายไทยในปัจจุบันได้กำหนดแนวทางและกรอบการใช้งาน “ข้อมูล” อย่างชัดเจนอยู่แล้ว ไม่ว่าจะเป็น พ.ร.บ.คุ้มครองข้อมูลส่วนบุคคล พ.ศ.2562 รวมถึงประกาศ กสทช. เรื่อง มาตรการคุ้มครองสิทธิของผู้ใช้บริการโทรคมนาคมเกี่ยวกับข้อมูลส่วนบุคคลสิทธิในความเป็นส่วนตัวและเสรีภาพในการสื่อสารถึงกันทางโทรคมนาคม
“การพัฒนา AI ก็เปรียบเสมือนการเลี้ยงเด็ก ในทางเดียวกัน การกำหนดแนวทางการใช้ AI อย่างมีจริยธรรมก็เพื่อให้พวกเขาเจริญเติบโตเป็นสมาชิกที่ดีของสังคม”
เรวัฒน์ ตันกิตติกร หัวหน้าสายงาน Channel Excellence แห่งบริษัท ทรู คอร์ปอเรชั่น จำกัด (มหาชน) โดยเขามองว่า AI จะมีจริยธรรมหรือไม่ขึ้นอยู่กับข้อมูลที่ให้ AI วิเคราะห์ โดยมี “จุดประสงค์” ของการใช้งานเป็นตัวแปรสำคัญ