ไม่ได้เกิดขึ้นบ่อย ๆ สำหรับปรากฏการณ์ที่แอปพลิเคชันเทคโนโลยีปัญญาประดิษฐ์ (AI) อย่าง "คล็อด" (Claude) เพิ่งแซงหน้า ChatGPT ขึ้นอันดับ 1 บน App Store ของ Apple ในสหรัฐฯ หลังจากบริษัท "แอนทรอปิก" (Anthropic) ต้นสังกัดผู้พัฒนา Claude ถูกกระทรวงกลาโหมสหรัฐฯ ปฏิเสธไม่ร่วมโปรเจ็กต์ด้วย
ปรากฏการณ์ Claude ฮิตถล่มทลายนี้เห็นชัดเมื่อเทียบย้อนกลับไปช่วงต้นปี 2026 ข้อมูลวันที่ 30 มกราคมพบว่า Claude ยังอยู่อันดับที่ 131 ของ App Store จากที่เป็นแอปธรรมดา ไม่มีอะไรน่าตื่นเต้น แต่แล้วกลางเดือนกุมภาพันธ์ ทุกอย่างก็เปลี่ยนไป
เรื่องนี้เริ่มจากกระทรวงกลาโหมสหรัฐฯ ที่ใช้ AI ของ Anthropic ผ่านสัญญากับ Palantir Technologies บริษัทซอฟต์แวร์และวิเคราะห์ข้อมูลขนาดใหญ่สัญชาติอเมริกัน ที่ก่อตั้งในปี 2003 โดยมี Peter Thiel (ผู้ร่วมก่อตั้ง PayPal) เป็นหนึ่งในผู้ก่อตั้งหลัก
แต่ Anthropic กลับไม่ยอมให้ใช้โมเดลของตัวเองเพื่อการสอดแนมประชาชนในวงกว้าง ซึ่งเป็นสิ่งที่มีการเรียกขานว่า "อาวุธอัตโนมัติที่ไม่มีมนุษย์ควบคุม" โดย Anthropic มองว่าเป็นเส้นที่บริษัทขีดไว้และจะไม่ข้ามไปเป็นอันขาด
ผลที่ตามมาคือรัฐมนตรีกลาโหม พีท เฮกเซธ (Pete Hegseth) ออกมาประกาศให้ติดป้าย Anthropic ว่าเป็นบริษัทที่มี Supply Chain หรือห่วงโซ่อุปทานที่มีความเสี่ยงด้านต่อความมั่นคงแห่งชาติ ซึ่งหมายความว่าบริษัทรับเหมาด้านกลาโหมทั้งหมดจะถูกห้ามใช้เทคโนโลยีของ Anthropic
โมเมนต์ที่โดดเด่นที่สุดของสถานการณ์นี้ คือประธานาธิบดีทรัมป์โพสต์ข้อความบน Truth Social ระบุว่า Anthropic กำลัง "บีบบังคับ" กระทรวงกลาโหม
แต่นี่คือส่วนที่ผกผัน เพราะปกติแล้วหากบริษัทเทคโนโลยีเจอศึกการเมืองระดับนี้ ราคาหุ้นมักจะร่วง ยอดผู้ใช้ควรจะหดหนี แต่กับ Anthropic ทุกอย่างกลับตรงข้ามโดยสิ้นเชิง
มีรายงานว่าจำนวนผู้ใช้ฟรีของ Claude เพิ่มขึ้นกว่า 60% นับตั้งแต่มกราคม ขณะที่ยอดลงชื่อใช้งานรายวันเพิ่มขึ้น 3 เท่า เมื่อเทียบกับเดือนพฤศจิกายน และทุบสถิติสูงสุดตลอดกาลทุกวันในสัปดาห์นั้น
สำหรับผู้ใช้แบบจ่ายเงิน พบว่ามีสัดส่วนเพิ่มขึ้นมากกว่า 2 เท่า ในปี 2026
นักวิเคราะห์เรียกปรากฏการณ์นี้ว่า Streisand Effect คือยิ่งห้าม ยิ่งดัง และคนก็อยากรู้ว่า AI ที่รัฐบาลไม่ชอบนี้มันดีงามขนาดไหน
ในขณะเดียวกัน คู่แข่งอย่าง "โอเพ่นเอไอ" (OpenAI) นั้นไม่ได้นิ่งเฉย โดย CEO อย่างแซม อัลต์แมน (Sam Altman) ได้ออกมาประกาศว่า OpenAI บรรลุข้อตกลงกับกระทรวงกลาโหมสหรัฐฯ ในการนำโมเดลไปใช้แล้ว ซึ่งเป็นทิศทางที่ต่างกันชัดเจนระหว่าง 2 บริษัทนี้
ที่ผ่านมา ChatGPT ยังคงครองอันดับ 1 มาตลอด และปัจจุบันมีผู้ใช้งานรายสัปดาห์กว่า 900 ล้านคนทั่วโลก ถือเป็นตัวเลขที่ Claude ยังตามอยู่ห่างมาก ไม่ว่าอย่างไร สิ่งที่น่าจับตามองในเรื่องนี้ไม่ใช่แค่อันดับแอป แต่คือคำถามว่าในยุคที่ AI กำลังถูกนำไปใช้ในระดับรัฐบาลและกองทัพ บริษัทเทคโนโลยีควรขีดเส้นไว้ที่ไหน และใครควรเป็นคนกำหนดเส้นนั้น
สำหรับ Anthropic บริษัท AI สัญชาติอเมริกันรายนี้ก่อตั้งในปี 2021 โดยกลุ่มอดีตพนักงานจาก OpenAI นำโดยดาริโอ อาโมเด (Dario Amodei) ซีอีโอและ ดาเนียลา อาโมเด (Daniela Amodei) ประธานบริษัท พี่น้องคู่นี้ลาออกจาก OpenAI พร้อมทีมงานอีกหลายคน เพราะมีวิสัยทัศน์ที่ต่างออกไปเรื่องความปลอดภัยของ AI
จุดยืนที่ทำให้ต่างจากคนอื่นคือ Anthropic วางตัวเองเป็นบริษัทที่เน้นความปลอดภัยของ AI เป็นหัวใจหลัก ไม่ใช่แค่ทำ AI ให้เก่ง แต่ต้องทำให้ AI มีความน่าเชื่อถือ ซื่อสัตย์ และไม่เป็นอันตราย แนวคิดนี้เรียกว่า Constitutional AI ซึ่งเป็นวิธีการฝึก AI ให้มีหลักการและขีดจำกัดที่ชัดเจนในตัวเอง
ผลิตภัณฑ์หลัก Anthropic ที่ทุกคนรู้จักคือ Claude ผู้ช่วย AI assistant ที่ออกแบบมาให้ฉลาด มีประโยชน์ และปลอดภัย โดย Claude ได้รับความนิยมอย่างมากในกลุ่มนักพัฒนาและองค์กรที่ต้องการใช้ AI สำหรับงานเขียนโค้ด วิเคราะห์ข้อมูล และงานองค์กรทั่วไป
แม้จะเป็นบริษัทที่ก่อตั้งมาได้ไม่นาน แต่ Anthropic ได้รับการลงทุนมหาศาลจาก Google และ Amazon รวมมูลค่าหลายหมื่นล้านดอลลาร์ ทำให้เป็นหนึ่งใน AI Startup ที่มีมูลค่าสูงที่สุดในโลก แน่นอนว่าการเป็นข่าวใหญ่จากกรณี Anthropic ปฏิเสธที่จะให้กองทัพสหรัฐฯ ใช้ Claude เพื่อการสอดแนมประชาชนในวงกว้าง นั้นเป็นจุดยืนที่กล้าหาญมากในเชิงธุรกิจ เพราะสัญญากับรัฐบาลมักมีมูลค่าสูงมาก แต่ Anthropic เลือกยึดหลักการของตัวเองไว้ จนกลายเป็นเหตุผลที่ผู้คนทั่วโลกหันมาสนใจและดาวน์โหลด Claude กันมากขึ้นอย่างรวดเร็ว
วันนี้ Anthropic เลือกทำตามเงื่อนไขการใช้งานหรือ Terms of Service ของตัวเอง ขณะที่กระทรวงกลาโหมสหรัฐฯก็เลือกตามทิศทางของตัวเอง พร้อมกับที่ผู้บริโภคหลายล้านคนก็เพิ่งแสดงพลังด้วยการกดดาวน์โหลด แน่นอนว่าเกมนี้ยังไม่จบ และยังต้องรอลุ้นต่ออีกหลายนัดว่าสถานการณ์นี้จะมีทางออกอย่างไร.


