xs
xsm
sm
md
lg

BCG เผยองค์กรไทย ตื่นลงทุน AI เพื่อสร้างความปลอดภัย เพิ่มโอกาสทางธุรกิจ

เผยแพร่:   ปรับปรุง:   โดย: ผู้จัดการออนไลน์



ปัญญาประดิษฐ์ (AI) ไม่เพียงแต่นำมาซึ่งโอกาสอันไร้ขีดจำกัด แต่ยังถือว่าเป็นความท้าทายที่ยิ่งใหญ่และมีผลพวงต่าง ๆ มากมาย แท้จริงแล้ว กลุ่มคนผู้คิดค้นเทคโนโลยีที่กำลังก่อให้เกิดการเปลี่ยนแปลงแบบฉับพลัน รุนแรงนี้ คือคนกลุ่มเดียวกันที่กำลังเรียกร้องด้วยเสียงอันดังมากที่สุดให้มีการกำกับ ดูแลเทคโนโลยีนี้

ศูนย์เพื่อความปลอดภัยทางปัญญาประดิษฐ์ (The Center for AI Safety) คือตัวอย่างหนึ่งขององค์กรที่ก้าวไปไกลถึงขนาดมีการเรียกร้องให้ “การบริหารจัดการความเสี่ยงโอกาสในการสูญพันธุ์ของมนุษย์จาก AI เป็นสิ่งที่มีลำดับความสำคัญต้น ๆ ในระดับโลก เทียบเท่าความเสี่ยงที่มีผลกระทบในวงกว้างอื่น ๆ เช่น การเกิดการระบาดใหญ่ของโรค หรือสงครามนิวเคลียร์” แถลงการณ์ฉบับนี้ได้มีการร่วมลงนามโดยผู้เชี่ยวชาญและผู้บริหารที่มีชื่อเสียงด้าน AI จากบริษัทเทคโนโลยี รวมถึงมหาอำนาจทาง AI เช่น โอเพ่นเอไอ กูเกิล ไมโครซอฟท์ และอื่น ๆ อีกมากมาย

เพื่อรับมือกับภัยคุกคามความนี้ รัฐบาลในประเทศต่าง ๆ ทั่วโลกกำลังผลักดันให้มีการผ่านร่างกฎหมายเพื่อกำกับ ดูแล AI โดยมีสหภาพยุโรปเป็นหัวหอก ปัจจุบันมีมาตรการที่กำลังถูกพิจารณาอยู่กว่า 800 รายการ โดยรัฐบาลของประเทศในสหภาพยุโรป รวมถึงประเทศและดินแดนอื่น ๆ รวมกว่า 60 แห่ง ขณะที่ผลการศึกษาของ BCG พบว่า บริษัทส่วนใหญ่จะใช้เวลาโดยเฉลี่ย 3 ปีในการผลักดันโครงการความรับผิดชอบทางด้านปัญญาประดิษฐ์ (RAI) แต่ละโครงการให้ออกมาได้อย่างสมบูรณ์ ซึ่งนั่นหมายความว่าภาคเอกชนนั้นเหลือเวลาอีกไม่มากแล้วในการเตรียมรับมือกับโลกที่จะมีการออกกฎระเบียบควบคุมทาง AI

อย่างไรก็ตาม ในขณะที่ภาครัฐกำลังเดินรุดหน้าต่อ องค์กรต่าง ๆ ในภาคเอกชนไม่สามารถก้าวตามไปได้ท้น ผลการประเมินความพร้อมทางดิจิทัล (Digital Acceleration Index: DAI) โดย BCG ซึ่งมีการจัดทำเป็นปีที่ 6 พบว่า จากจำนวนผู้บริหารที่ตอบแบบสอบถามทั่วโลกกว่า 2,700 ราย มีเพียงร้อยละ 28 ที่รู้สึกว่าองค์กรของพวกเขามีความพร้อมในการรับมือกับกฎระเบียบใหม่ ๆ เหล่านี้แล้วอย่างแท้จริง

สิ่งที่น่าสนใจคือ บริษัทในภูมิภาคเอเชียแปซิฟิกดูเหมือนจะเตรียมตัวรับมือกับกฎระเบียบด้าน AI มากกว่าบริษัทในยุโรป ยกตัวอย่างเช่น ในขณะที่ร้อยละ 48 ของบริษัทในเอเชีย แปซิฟิก ยอมรับว่ากฎระเบียบนั้นมีความจำเป็นต้องออกมาเพื่อทำให้เกิดความรับผิดชอบทาง AI มีเพียงร้อยละ 35 ของบริษัทในยุโรปที่เห็นพ้องในเรื่องนี้ นอกจากนี้ ร้อยละ 35 ของบริษัทในเอเชีย แปซิฟิก ยังมีแนวโน้มที่จะว่าจ้างเจ้าหน้าที่ด้านจริยธรรม AI เมื่อเทียบกับร้อยละ 25 ของบริษัทในยุโรป และร้อยละ 23 ของบริษัทในทวีปอเมริกาเหนือ

ในส่วนของประเทศไทยนั้นเป็นอย่างไร? เช่นเดียวกับประเทศอื่น ๆ ในภูมิภาคนี้ ผู้บริหารขององค์กรไทยไม่จำเป็นต้องถูกโน้มน้าวให้เห็นถึงความจำเป็น ไม่สามารถหลีกเลี่ยงได้ของการมีกฎระเบียบเพื่อควบคุมดูแล AI เพราะร้อยละ 89 ของพวกเขามีความเชื่อเช่นนี้อยู่แล้ว โดยมีเหตุผลสำคัญที่พวกเขายกขึ้นมาว่าเป็นความสำคัญในลำดับต้น ๆ เช่น ประเด็นด้านความเป็นส่วนตัวทางข้อมูล การรักษาสภาพชีวิตความเป็นอยู่ที่ดีของมนุษย์ ความเท่าเทียม เป็นธรรม ความปลอดภัยและความเน่าเชื่อถือและความกลัวว่า AI จะเข้ามาแย่งงานมนุษย์ เป็นต้น แต่ถึงกระนั้นก็ตามมีผู้บริหารไม่ถึงร้อยละ 10 ที่เชื่อว่าองค์กรของพวกเขามีความพร้อมรับมือกับการใช้ AI ในโลกที่มีการควบคุมและดูแล BCG เชื่อมั่นว่ายังไม่สายเกินไปสำหรับองค์กรไทยที่จะก้าวตามให้ทันองค์กรอื่น ๆ ในภูมิภาคนี้ ทว่าสิ่งนี้จำเป็นต้องอาศัยการลงมือปฏิบัติและการลงทุนอย่างแน่วแน่ ในมุมมองของเรานั้น การลงทุนใน RAIไม่ได้เป็นแค่เพียงการบริหารจัดการความเสี่ยง แต่ยังช่วยเปิดโอกาสใหม่ ๆ ในการสร้างความแตกต่าง อันจะนำมาสู่การเพิ่มมูลค่าให้กับผู้ถือหุ้น เพื่อช่วยให้องค์กรต่าง ๆ เริ่มต้นเส้นทางเดินสู่การเตรียมความพร้อมทาง RAI เราได้จัดทำแนวทาง 5 ประการที่ไม่ยุ่งยาก ซับซ้อนดังต่อไปนี้

1. มอบอำนาจและบทบาทให้กับผู้นำโครงการความรับผิดชอบทางปัญญาประดิษฐ์ (RAI) ควรแต่งตั้งบุคคลที่มีความรู้ เช่น เจ้าหน้าที่จริยธรรมด้าน AI ให้สามารถชี้นำแนวความคิดริเริ่มใหม่ ๆ หรือจัดทำนโยบายที่สอดคล้องกับค่านิยมทางสังคมขององค์กร และกฎระเบียบใหม่ ๆ ที่กำลังออกมา และสามารถร่วมมือปฏิบัติงานกับบุคคลอื่น ๆ ในตลอดทั่วทั้งเครือข่ายขององค์กรได้

2. พัฒนาและปลูกฝังกรอบทางจริยธรรม AI เช่น การวางรากฐานด้านหลักการและนโยบาย เพื่อทำให้แน่ใจได้ว่าองค์กรจะสามารถปฏิบัติตามกฎระเบียบ ข้อบังคับที่เกี่ยวข้องทั้งหมดได้ และลดผลกระทบเชิงลบใด ๆ ที่จะมีต่อผลการดำเนินงาน

3. ส่งเสริมการมีส่วนร่วมของมนุษย์ในวงจรชีวิตการทำงานของ AI กฎระเบียบด้าน AI ส่วนใหญ่ที่มีอยู่ในปัจจุบันและที่ได้รับการนำเสนอในขณะนี้ ล้วนเกี่ยวข้องกับการเรียกร้องให้มีการกำกับดูแลที่เข้มแข็งและความรับผิดชอบของบุคคล วงจรป้อนกลับฟีดแบ็ก กลไกในการทบทวนและช่องทางสำหรับรับการร้องเรียน สิ่งเหล่านี้ควรเป็นองค์ประกอบสำคัญในทุกโครงการที่เกี่ยวข้องกับความรับผิดชอบทาง AI

4. ทบทวนโครงการความรับผิดชอบทางปัญญาประดิษฐ์ (RAI) บูรณาการเครื่องมือและวิธีการต่างๆ ในตลอดวงจรชีวิตของระบบ AI โดยมีเป้าหมายเพื่อตรวจจับและแก้ปัญหาให้ได้ตั้งแต่ในช่วงแรกของการพัฒนาให้ได้มากที่สุดเท่าที่จะเป็นไปได้ และเพื่อความเข้มงวดทั้งในช่วงของการเริ่มนำมาใช้และหลังจากนั้น องค์กรที่สามารถเฝ้าระวังผลกระทบจาก AI ได้ตลอดวงจรชีวิตจะได้รับความไว้วางใจจากรัฐบาลและลูกค้าและผู้เกี่ยวข้องอื่น ๆ

5. มีส่วนร่วมในระบบนิเวศของโครงการความรับผิดชอบทางปัญญาประดิษฐ์ (RAI) มีส่วนร่วมอย่างแข็งขันในภาคีเครือข่าย RAI หรือคณะทำงานเพื่อส่งเสริมความร่วมมือและการแบ่งปันแนวทางการปฏิบัติที่ดี โดยมองว่าเป็นการทำคราวด์ซอสซิ่งเพื่อเตรียมตัวรับมือกับกฎระเบียบ AI และจากการแบ่งปันประสบการณ์ระหว่างกัน ระบบนิเวศนี้จะช่วยให้มีข้อมูลเชิงลึกในการบริหารจัดการความเสี่ยงและเพื่อสร้างประโยชน์สูงสุดจาก AI

การลงทุนในโครงการความรับผิดชอบทางปัญญาประดิษฐ์ (RAI) ล่วงหน้าก่อนการดำเนินการของภาครัฐ นับเป็นสิ่งที่สมเหตุสมผลในทางธุรกิจ การก้าวนำการเปลี่ยนแปลงจะช่วยเพิ่มความชัดเจนและทำให้องค์กรสามารถควบคุมผลลัพธ์เพื่อธุรกิจของพวกเขาได้ดีกว่า โดยการเป็นส่วนหนึ่งของกระบวนการหารือและมีส่วนร่วมกับผู้กำหนดนโยบาย และหากมีการปฏิบัติอย่างถูกต้องแล้ว RAI จะสามารถเป็นเครื่องมือในการสร้างความแตกต่างได้เป็นอย่างมาก อันจะนำมาสู่ความได้เปรียบทางการแข่งขัน องค์กรไทยจึงไม่ควรที่จะพลาดโอกาสนี้เป็นอย่างยิ่ง


กำลังโหลดความคิดเห็น