xs
xsm
sm
md
lg

HPE เปิดตลาด AI องค์กร! ร่วมมือ Nvidia ปั้มแพลตฟอร์ม-บริการไอทีเหมาะรันปัญญาประดิษฐ์

เผยแพร่:   ปรับปรุง:   โดย: ผู้จัดการออนไลน์



เอชพีอี (HPE) เปิดตัวโซลูชันใหม่สำหรับศูนย์วิจัยและองค์กรขนาดใหญ่เพื่อเร่งความเร็วของ AI ชนิด Generative AI ตั้งเป้าเร่งความเร็วการเทรน AI ด้วยโซลูชันแบบครบวงจรใหม่ที่ขับเคลื่อนโดยเอ็นวิเดีย (NVIDIA) ผสมรวมครบทั้งซอฟต์แวร์ AI/ML, ฮาร์ดแวร์, ระบบเครือข่าย และบริการชั้นนำในอุตสาหกรรม

จัสติน โฮทาร์ด รองประธานกรรมการบริหารและผู้จัดการทั่วไปฝ่าย HPC, AI & Labs ฮิวเลตต์ แพคการ์ด เอนเตอร์ไพรส์ กล่าวว่าบริษัทและศูนย์วิจัยชั้นนำของโลกกำลังเทรนและปรับแต่งโมเดล AI เพื่อขับเคลื่อนนวัตกรรมและปลดล็อกความก้าวหน้าในการวิจัย แต่เพื่อให้ดำเนินการดังกล่าวได้อย่างมีประสิทธิภาพและประสิทธิผล ทุกคนต้องมีโซลูชันที่สร้างขึ้นเฉพาะเพื่อสนับสนุน Generative AI องค์กรต่าง ๆ จำเป็นต้องใช้ประโยชน์จากโซลูชันที่ยั่งยืนซึ่งให้ประสิทธิภาพและสเกลระดับ Supercomputerโดยเฉพาะ เพื่อรองรับการเทรนโมเดล AI

"เราตื่นเต้นมากที่ได้ขยายความร่วมมือกับ NVIDIA เพื่อนำเสนอโซลูชันเฉพาะสำหรับ AI แบบครบวงจร ซึ่งจะช่วยให้ลูกค้าของเราเร่งความเร็วในการเทรนโมเดล AI และได้ผลลัพธ์ที่มีประสิทธิภาพ”

บริษัทฮิวเลตต์ แพคการ์ด เอนเตอร์ไพรส์ หรือ Hewlett Packard Enterprise ระบุว่าโซลูชันซูเปอร์คอมพิวเตอร์ (Supercomputer Solution) สำหรับ Generative AI นี้ออกแบบมาสำหรับองค์กรขนาดใหญ่ สถาบันวิจัยและองค์กรภาครัฐ เพื่อใช้เร่งการเทรนและปรับแต่งโมเดลปัญญาประดิษฐ์ (AI) โดยใช้ชุดข้อมูลส่วนตัว โซลูชันนี้ประกอบด้วยชุดซอฟต์แวร์ที่ช่วยให้องค์กรสามารถเทรนและปรับแต่งโมเดลและพัฒนาแอปพลิเคชัน AI ได้ อีกทั้งยังรวมถึง Supercomputer แบบระบายความร้อนด้วยของเหลว การประมวลผลแบบเร่งความเร็ว การสร้างเครือข่าย พื้นที่จัดเก็บข้อมูล และบริการต่าง ๆ เพื่อช่วยให้องค์กรของท่านได้รับศักยภาพจา AI ได้รวดเร็วยิ่งขึ้น

HPE มองว่าเครื่องมือซอฟต์แวร์ในการสร้างแอปพลิเคชัน AI ปรับแต่งโมเดลที่สร้างไว้ล่วงหน้า รวมถึงพัฒนาและแก้ไขโค้ด ถือเป็นองค์ประกอบสำคัญของ Supercomputer Solution สำหรับ Generative AI ซอฟต์แวร์นี้ผสานรวมกับเทคโนโลยี Supercomputer HPE Cray ซึ่งใช้สถาปัตยกรรมที่ทรงพลังแบบเดียวกับที่ใช้ใน Supercomputer ที่เร็วที่สุดในโลก และขับเคลื่อนโดย NVIDIA Grace Hopper GH200 Superchips เครื่องมือซอฟต์แวร์ในการสร้างแอปพลิเคชัน AI ปรับแต่งโมเดลที่สร้างไว้ล่วงหน้า รวมถึงพัฒนาและแก้ไขโค้ด ถือเป็นองค์ประกอบสำคัญของ Supercomputer Solution สำหรับ Generative AI ด้วยเทคโนโลยีทั้งสอง โซลูชันนี้จึงช่วยให้องค์กรต่าง ๆ ได้รับสเกลและประสิทธิภาพสูงสุดเป็นประวัติการณ์ ซึ่งจำเป็นต่อเวิร์กโหลดของ AI ขนาดใหญ่ เช่น โมเดลภาษาขนาดใหญ่ (LLM) และการเทรนโมเดลแนะนำการเรียนรู้แบบอัตโนมัติ (DLRM)

"เมื่อใช้สภาพแวดล้อมการพัฒนาการเรียนรู้ของเครื่อง HPE ในระบบนี้ โมเดล Llama 2 แบบโอเพนซอร์ส 7 หมื่นล้านพารามิเตอร์ จะได้รับการปรับแต่งอย่างละเอียดภายในเวลาไม่ถึง 3 นาที ซึ่งหมายถึงระยะคุ้มทุน (Time-to-value) ที่รวดเร็วยิ่งขึ้นสำหรับลูกค้า ความสามารถ Supercomputer ขั้นสูงของ HPE ซึ่งสนับสนุนโดยเทคโนโลยี NVIDIA จะช่วยเพิ่มประสิทธิภาพของระบบได้มากขึ้น 2-3X เท่า" HPE ระบุ

เอียน บัค รองประธานฝ่าย Hyperscale และ HPC ของ NVIDIA กล่าวว่า Generative AI กำลังเปลี่ยนแปลงทุกความพยายามทางอุตสาหกรรมและวิทยาศาสตร์ ความร่วมมือของ NVIDIA กับ HPE ในการเทรน AI แบบครบวงจรและโซลูชันแบบจำลอง ซึ่งขับเคลื่อนโดย NVIDIA GH200 Grace Hopper Superchips นี้จะช่วยให้ลูกค้าได้รับประสิทธิภาพที่จำเป็นต่อความสำเร็จในโครงการริเริ่ม Generative AI ของทุกคน

สำหรับ Supercomputer Solution เพื่อ Generative AI นี้ได้รับการออกแบบขึ้นมาเฉพาะสำหรับ AI และเป็นแบบบูรณาการ ซึ่งได้รวมเทคโนโลยีและบริการแบบครบวงจร (End-to-end) ต่อไปนี้เข้าไว้ด้วยกัน จุดเด่นคือส่วนซอฟต์แวร์เร่ง AI/ML ซึ่งเป็นชุดเครื่องมือซอฟต์แวร์สามรายการที่จะช่วยให้ลูกค้าเทรนและปรับแต่งโมเดล AI รวมถึงสร้างแอปพลิเคชัน AI ของบริษัทเองได้


นอกจากนี้ สภาพแวดล้อมการพัฒนาการเรียนรู้ของเครื่อง HPE เป็นแพลตฟอร์มซอฟต์แวร์การเรียนรู้ของเครื่อง (ML) ที่ช่วยให้ลูกค้าสามารถพัฒนาและปรับใช้โมเดล AI ได้เร็วยิ่งขึ้น โดยการผสานรวมกับขอบข่ายงาน ML ยอดนิยม และทำให้การเตรียมข้อมูลนั้นง่ายขึ้น

ที่สำคัญ NVIDIA AI Enterprise ยังช่วยเร่งองค์กรให้ไปสู่ AI ระดับแนวหน้าด้วยระบบรักษาความปลอดภัย ความเสถียร ความสามารถในการจัดการและการสนับสนุน โดยนำเสนอขอบข่ายงานที่กว้าง โมเดลที่ได้รับการเทรนล่วงหน้า และเครื่องมือที่ช่วยปรับปรุงการพัฒนาและการปรับใช้ AI การผลิต

ขณะเดียวกัน ชุดสภาพแวดล้อมโปรแกรม HPE Cray จะนำเสนอชุดเครื่องมือที่สมบูรณ์ให้กับโปรแกรมเมอร์สำหรับการพัฒนา การย้าย (Porting) การแก้จุดบกพร่อง (Debugging) และการปรับแต่งโค้ด ยังมีการออกแบบมาเพื่อการใช้งานแบบขยาย เครือข่ายสำหรับ AI แบบเรียลไทม์ และความเรียบง่ายที่ครบวงจร เบื้องต้นมีการคาดการณ์ว่าภายในปี พ.ศ. 2571 การเติบโตของปริมาณเวิร์กโหลด AI จะต้องใช้พลังงานภายในศูนย์ข้อมูลประมาณ 20 กิกะวัตต์ ลูกค้าจะต้องใช้โซลูชันที่ช่วยประหยัดพลังงานขึ้นอีกระดับเพื่อลดผลกระทบจากการปล่อยก๊าซเรือนกระจก

"การประหยัดพลังงานเป็นหัวใจสำคัญของความคิดริเริ่มด้านคอมพิวเตอร์ของ HPE ซึ่งให้โซลูชั่นที่มีความสามารถในการระบายความร้อนด้วยของเหลวที่สามารถปรับปรุงประสิทธิภาพการทำงานได้สูงถึง 20% ต่อกิโลวัตต์เมื่อเทียบกับโซลูชั่นแบบระบายความร้อนด้วยอากาศ อีกทั้งยังใช้พลังงานน้อยลงถึง 15%" HPE ระบุ

ในปัจจุบัน HPE ส่งมอบ Supercomputer ที่มีประสิทธิภาพสูงสุด 10 อันดับแรกของโลกส่วนใหญ่โดยใช้การระบายความร้อนด้วยของเหลวโดยตรง (DLC) ซึ่งรวมอยู่ใน Supercomputer Solution สำหรับ Generative AI ทั้งนี้เพื่อช่วยให้ระบบเย็นลงอย่างมีประสิทธิภาพ ในขณะที่ช่วยประหยัดพลังงานสำหรับแอปพลิเคชันที่มีการประมวลผลในระดับสูง โดย Supercomputer Solution สำหรับ Generative AI วางจำหน่ายแล้วในเดือนธันวาคม 2566 ผ่าน HPE กว่า 30 ประเทศ.


กำลังโหลดความคิดเห็น