Elon Musk และ Steve Wozniak ตลอดจนผู้เชี่ยวชาญด้าน AI คนอื่นๆและผู้บริหารด้านเทคโนโลยี ออกมาเรียกร้องให้นักพัฒนาเทคโนโลยีหยุดการพัฒนา AI ชั่วคราว โดยในจดหมายเปิดผนึกที่เรียกร้องให้หยุดการพัฒนา AI โดยเห็นช่องโหว่ของความกังวลว่าการแข่งขันเพื่อพัฒนา AI นั้นอาจมีอันตรายแฝงอยู่ซึ่งอยู่เหนือการควบคุม
จากการเปิดเผยของ cointelegraph กล่าวถึงผู้นำและนักวิจัยด้านเทคโนโลยีกว่า 2,600 คนได้ลงนามในจดหมายเปิดผนึกเพื่อเรียกร้องให้นักพัฒนา หยุดการพัฒนาปัญญาประดิษฐ์ (AI) เพิ่มเติมเป็นการชั่วคราว เนื่องจากเกรงว่า “จะเกิดความเสี่ยงอย่างร้ายแรงต่อสังคมและมนุษยชาติ” จากปัญญาประดิษฐ์ที่เริ่มวิวัฒน์ตัวเองโดยแฝงสัญญาณอันตราย
โดย Elon Musk ซีอีโอของ Tesla และ Steve Wozniak ผู้ร่วมก่อตั้งของ Apple และโฮสต์ของ AI CEO, CTO และนักวิจัยต่างร่วมลงนามในจดหมายฉบับนี้ ซึ่งเผยแพร่โดยสถาบัน Think Tank Future of Life Institute (FOLI) ของสหรัฐฯ เมื่อวันที่ 22 มีนาคม
ซึ่งสถาบันระบุในเอกสารการเรียกร้องให้บริษัท AI ทั้งหมด "หยุดการพัฒนาทันที" เนื่องจากการพัฒนาระบบ AI ที่มีประสิทธิภาพมากกว่า GPT-4 เป็นเวลาอย่างน้อย 6 เดือน โดยแสดงความกังวลว่า "ความฉลาดทางการแข่งขันของมนุษย์อาจก่อให้เกิดความเสี่ยงอย่างร้ายแรงต่อสังคมและมนุษยชาติ" เหนือสิ่งอื่นใด
“AI ขั้นสูงสามารถแสดงถึงการเปลี่ยนแปลงอย่างลึกซึ้งในประวัติศาสตร์ของสิ่งมีชีวิตบนโลก และควรได้รับการวางแผนและจัดการด้วยการดูแลและทรัพยากรที่เหมาะสม แต่น่าเสียดายที่การวางแผนและการจัดการระดับนี้ไม่ได้เกิดขึ้น” สถาบันระบุในเอกสาร
Having a bit of AI existential angst today— Elon Musk (@elonmusk) February 26, 2023
ขณะที่ GPT-4 เป็นการพัฒนาล่าสุดของแชทบอทที่ขับเคลื่อนด้วยปัญญาประดิษฐ์ของ OpenAI ซึ่งเปิดตัวเมื่อวันที่ 14 มีนาคม จนถึงปัจจุบัน GPT-4 ได้ผ่านการทดสอบในขั้นระดับมัธยมปลายและกฎหมายที่เข้มงวดที่สุดของสหรัฐอเมริกาบางส่วนภายในระดับ 90% ซึ่งทำให้เป็นที่เข้าใจกันว่ามีความล้ำหน้ากว่า ChatGPT เวอร์ชันดั้งเดิมมากถึง 10 เท่า
ทั้งนี้ข้อกังวลอันดับต้น ๆ ได้แก่ การทำงานของเครื่องจักรสามารถคิดรูปแบบเองได้หรือไม่ และเครื่องจักรจะเข้ามาทำลายระบบแรงงาน โดย "กำจัด" โอกาสการจ้างงานทั้งหมดโดยอัตโนมัติหรือไม่
โดย FOLI นำเสนอข้อกังวลเหล่านี้ โดยเสนอว่าความพยายามในการเป็นผู้ประกอบการของบริษัท AI เหล่านี้อาจนำไปสู่ภัยคุกคามที่มีอยู่
“เราควรพัฒนาจิตใจที่ไม่ใช่มนุษย์ ซึ่งอาจมีจำนวนมากกว่า ชิงไหวชิงพริบ ล้าสมัย และแทนที่เราในที่สุดหรือไม่? เราควรเสี่ยงที่จะสูญเสียการควบคุมอารยธรรมของเราหรือไม่” อย่างไรก็ดีการตัดสินใจดังกล่าวจะต้องไม่มอบให้กับผู้นำเทคโนโลยีที่ไม่มีสำนึกในธรรมาภิบาล” ข้อความในจดหมายระบุ
ขณะที่ Altman ระบุในบล็อกโพสต์เมื่อวันที่ 24 ก.พ. โดยได้เน้นย้ำถึงความจำเป็นในการเตรียมพร้อมสำหรับหุ่นยนต์ปัญญาประดิษฐ์ทั่วไป (AGI) และปัญญาประดิษฐ์ (ASI)
อย่างไรก็ดี ไม่ใช่ผู้เชี่ยวชาญด้าน AI ทุกคนรีบลงนามในคำร้องโดย Ben Goertzel ซีอีโอของ SingularityNET อธิบายใน Twitter เมื่อวันที่ 29 มีนาคมถึง Gary Marcus ซึ่งเป็นผู้เขียน Rebooting.AI ว่าโมเดลการเรียนรู้ภาษา (LLMs) จะไม่กลายเป็น AGI ซึ่งจนถึงปัจจุบันมีการพัฒนาเพียงเล็กน้อยเท่านั้น ซึ่งเขากล่าวว่าควรชะลอการวิจัยและพัฒนาสำหรับสิ่งต่างๆ เช่น อาวุธชีวภาพและนิวเคลียร์
โดยรวมแล้ว สังคมมนุษย์จะใช้ GPT-5 ได้ดีกว่า GPT-4 ซึ่งดีกว่าที่จะมีโมเดลที่ฉลาดกว่านี้เล็กน้อย AIs รับทราบคำสั่งของงานมนุษย์ในที่สุดจะเป็นสิ่งที่ดี นอกเหนือจากโมเดลการเรียนรู้ภาษาเช่น ChatGPT แล้ว เทคโนโลยี Deep Fake ที่ขับเคลื่อนด้วย AI ยังถูกนำมาใช้เพื่อสร้างภาพ เสียง และวิดีโอหลอกลวงที่น่าเชื่อถือ ทำให้เทคโนโลยีนี้ยังถูกใช้เพื่อสร้างงานศิลปะที่สร้างโดย AI โดยมีข้อกังวลบางประการเกี่ยวกับว่าอาจละเมิดกฎหมายลิขสิทธิ์ในบางกรณีหรือไม่
ขณะที่ Mike Novogratz CEO ของ Galaxy Digital กล่าวกับนักลงทุนเมื่อเร็ว ๆ นี้ว่าเขารู้สึกตกใจกับจำนวนความสนใจด้านกฎระเบียบที่มอบให้กับคริปโต (crypto) ในขณะที่มีเพียงเล็กน้อยเท่านั้นที่มุ่งสู่ปัญญาประดิษฐ์
“เมื่อผมนึกถึง AI ผมตกใจมากที่เรากำลังพูดถึงกฎระเบียบเกี่ยวกับการใช้คริปโตมากเกินไป และไม่เกี่ยวกับกฎระเบียบของ AI เลย ผมหมายถึงว่าสิ่งที่รัฐควรให้ความสำคัญ มันกลับหัวกลับหางกันอย่างสิ้นเชิง” เขาให้ความเห็นระหว่างการประชุมผู้ถือหุ้นเมื่อวันที่ 28 มีนาคม
FOLI แย้งว่าหากการพัฒนา AI หยุดชั่วคราวไม่มีผลบังคับใช้อย่างรวดเร็ว รัฐบาลควรมีส่วนร่วมในการเลื่อนการชำระหนี้
“การหยุดพัฒนาชั่วคราวนี้ควรเปิดเผยต่อสาธารณะ หากการหยุดดังกล่าวไม่สามารถดำเนินการได้อย่างรวดเร็ว รัฐบาลควรเข้ามาดำเนินการและประกาศเลื่อนการชำระหนี้ เพราะส่งผลกระทบกับผู้พัฒนาที่ต้องแบกรับการกู้เงินมาเพื่อลงทุนในระบบ Ai” รายงานระบุ
📢 We're calling on AI labs to temporarily pause training powerful models!
Join FLI's call alongside Yoshua Bengio, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus & over a 1000 others who've signed: https://t.co/3rJBjDXapc
A short 🧵on why we're calling for this - (1/8)— Future of Life Institute (@FLIxrisk) March 29, 2023
BREAKING: A petition is circulating to PAUSE all major AI developments.
e.g. No more ChatGPT upgrades & many others.
Signed by Elon Musk, Steve Wozniak, Stability AI CEO & 1000s of other tech leaders.
Here's the breakdown: 👇 pic.twitter.com/jR4Z3sNdDw— Lorenzo Green 〰️ (@mrgreen) March 29, 2023
I respect the concerns but am not gonna sign this. LLMs won't become AGIs. They do pose societal risks, as do many things. They also have great potential for good. Social pressure for slowing R&D should be reserved for bioweapons and nukes etc. not complex cases like this.— Ben Goertzel (@bengoertzel) March 29, 2023