ทุกวันนี้ไม่มีใครไม่รู้จักคำว่า “ปัญญาประดิษฐ์” หรือที่เรียกเป็นภาษาอังกฤษว่า AI (Artificial Intelligence) การนำ AI เข้ามาใช้ในการทำงานของบริษัทหรือองค์กรไม่ว่าจะเป็นงานด้านใด ล้วนมีวัตถุประสงค์เพื่อเพิ่มประสิทธิภาพ (Efficiency) ในการทำงานโดยบริษัทหรือองค์กรสามารถลดต้นทุนทรัพยากร โดยเฉพาะต้นทุนแรงงานและเวลา และผลลัพธ์ที่มีประสิทธิผล (Effectiveness)
อย่างไรก็ตาม การพัฒนาเทคโนโลยีปัญญาประดิษฐ์ (Artificial Intelligence – AI) ในปัจจุบัน อาจนำมาซึ่งผลกระทบในหลายด้านทั้งเศรษฐกิจ การเมือง สังคม และวัฒนธรรม แม้ AI จะทำให้เกิดประโยชน์มากมายแก่บริษัทหรือองค์กร แต่ก็มีประเด็นสำคัญในด้านของจริยธรรม (Ethics) และธรรมาภิบาล (Governance) ของ AI อยู่ด้วย
คำว่าจริยธรรม (Ethics) และธรรมาภิบาล (Governance) แม้จะมีความคล้ายกัน แต่ก็มีความแตกต่างกันในประเด็นสำคัญคือ จริยธรรมจะเป็นเรื่องที่พิจารณาว่าการกระทำสิ่งใด “ถูก” หรือ “ผิด” ตามหลักคุณธรรมหรือสามัญสำนึกของวิญญูชน เน้นในความดีและความถูกต้อง จริยธรรมจะใช้กับคน ๆ เดียวหรือกับกลุ่มบุคคลก็ได้ ส่วนธรรมาภิบาล (บางที่ใช้คำว่าบรรษัทภิบาล) จะมีลักษณะเป็นกระบวนการที่ใช้ในการกำกับดูแลการบริหารจัดการในองค์กรให้มีความโปร่งใสและสามารถตรวจสอบได้ โดยใช้กฎหมาย กฎเกณฑ์ ระเบียบข้อบังคับ หรือการมีโครงสร้างการจัดการที่ชัดเจนเป็นแนวทางการปฏิบัติ บริษัทหรือองค์กรขนาดใหญ่อาจจะแต่งตั้งคณะกรรมการธรรมาภิบาลเพื่อการกำกับดูแลให้มีมาตรฐานธรรมาภิบาลที่โปร่งใสและสามารถอธิบายได้ต่อผู้เกี่ยวข้อง
ในด้านจริยธรรมปัญญาประดิษฐ์ (AI Ethics) มีประเด็นสำคัญอยู่ 4 ประเด็นที่มักจะเป็นที่กล่าวถึงโดยทั่วไปคือ ความยุติธรรม (Fairness) ความเป็นส่วนตัว (Privacy) ความรับผิดชอบ (Accountability) และความโปร่งใส Transparency) ซึ่งการพัฒนา AI จำเป็นต้องตระหนักถึงประเด็นสำคัญดังกล่าว บริษัทหรือองค์กรต้องสร้างมาตรการหรือกลไกการจัดการที่จะมาตอบสนองหรือสอดรับกับประเด็นทั้ง 4 นี้
ในด้านความยุติธรรม ซึ่งเป็นเรื่องละเอียดอ่อน AI อาจมีความลำเอียงเกิดขึ้นได้หากข้อมูลที่ใช้ในการฝึก AI มีอคติ เช่น อาจมีการเลือกปฏิบัติทางเชื้อชาติหรือเพศ กรณีตัวอย่างที่เกิดขึ้น เช่น ระบบ COMPAS ในประเทศสหรัฐอเมริกา ซึ่งเป็นระบบทำนายความเสี่ยงของผู้ต้องหา ถูกวิจารณ์ว่ามีความลำเอียงต่อคนผิวดำ (Angwin et al., 2016) หรือ ระบบจ้างงานที่ใช้ AI คัดกรองใบสมัคร AI อาจคัดกรองโดยมีอคติต่อเพศหญิงหรือชนกลุ่มน้อย เป็นต้น ในด้านความเป็นส่วนตัว ข้อมูลส่วนตัวของคนเป็นเรื่องสำคัญอย่างยิ่ง เพราะ AI สามารถประมวลผลข้อมูลส่วนบุคคล รวมทั้งจดจำใบหน้าและพฤติกรรมลูกค้าได้ หากไม่มีระบบป้องกันความเป็นส่วนตัวและระบบรักษาความปลอดภัยที่ดี ลูกค้าอาจจะถูกละเมิดข้อมูลส่วนบุคคลได้ดังที่เป็นข่าวในสื่อต่าง ๆ อยู่บ่อยครั้ง ส่วนเรื่องความรับผิดชอบ คำถามสำคัญคือ ใครควรเป็นผู้รับผิดชอบถ้า AI ทำงานผิดพลาด ผู้พัฒนา AI หรือองค์กรเจ้าของระบบ เช่น รถยนต์ AI ที่ไร้คนขับถ้าเกิดอุบัติเหตุขึ้น ใครควรเป็นผู้รับผิดชอบทางกฎหมาย ซึ่งเรื่องนี้ยังไม่มีคำตอบที่ชัดเจนเพราะอาจต้องดูเป็นรายกรณีไป ส่วนความโปร่งใส คือ AI ขั้นสูงต้องถูกพัฒนาให้สามารถอธิบายการตัดสินใจได้อย่างได้อย่างมีหลักการและเหตุผล
สำหรับธรรมาภิบาลปัญญาประดิษฐ์ (AI Governance) บริษัทหรือองค์กรในปัจจุบันหรืออนาคตต้องมีการสร้างกรอบธรรมาภิบาล AI เพื่อให้เกิดความเข้าใจที่ตรงกันทั้งภายในหน่วยงานและองค์กร ซึ่งควรใช้หลักจริยธรรมในทุกขั้นตอนของการพัฒนา AI โดยกำหนดให้มีคณะกรรมการธรรมาภิบาล AI เพื่อกำกับดูแล ติดตาม และประเมินผลกระทบที่อาจเกิดขึ้นทั้งทางบวกและทางลบต่อลูกค้า พนักงาน และผู้ที่มีส่วนได้ส่วนเสียอย่างต่อเนื่อง เมื่อลูกค้าหรือสังคมมีข้อสงสัยที่เกี่ยวข้องกับการทำงานของ AI ที่มีความเสี่ยงสูงหรือความผิดพลาดที่อาจเกิดขึ้น บริษัทควรรีบดำเนินการแก้ไขปัญหานั้น อย่างทันท่วงที เพื่อสร้างความน่าเชื่อถือและไว้วางใจให้เกิดขึ้นแก่บริษัท
โดยสรุป จริยธรรมและธรรมาภิบาลของ AI เป็นเรื่องที่มีความจำเป็นอย่างยิ่งที่ผู้บริหารระดับสูงที่กำหนดนโยบาย ผู้พัฒนาระบบ พนักงานที่เกี่ยวข้อง ตลอดจนผู้ใช้งาน AI ต้องช่วยกันดำเนินการอย่างจริงจัง บริษัทหรือองค์กรต้องตระหนักว่าเป้าหมายสำคัญของการใช้ AI ต้องไม่เพียงแต่การเพิ่มประสิทธิภาพ เพิ่มผลผลิต และลดต้นทุนเท่านั้น แต่ต้องให้ความเอาใจใส่ในเรื่องจริยธรรมและธรรมาภิบาล AI ด้วยอย่างเป็นรูปธรรม เพื่อส่งเสริมพัฒนาให้องค์กรที่ใช้ AI มีความรับผิดชอบ ซื่อสัตย์ และโปร่งใส ซึ่งเป็นพื้นฐานสำคัญของการสร้างความยั่งยืนให้แก่บริษัทหรือองค์กรในอนาคต
บทความโดย ศ. กิตติคุณ ดร. กุณฑลี รื่นรมย์
ภาคีสมาชิก สาขาวิชาบริหารธุรกิจ
สำนักธรรมศาสตร์และการเมือง ราชบัณฑิตยสภา