Red Hat เปิดให้ใช้นวัตกรรม Open Source Generative AI ผ่าน Red Hat Enterprise Linux AI

225
0
Share:

Red Hat, Inc. (เร้ดแฮท) ผู้ให้บริการโซลูชันโอเพ่นซอร์สระดับแนวหน้าของโลก เปิดตัว Red Hat Enterprise Linux AI (RHEL AI) แพลตฟอร์มโมเดลพื้นฐานที่ช่วยในการพัฒนา ทดสอบ และใช้ generative AI (GenAI) ได้อย่างราบรื่น RHEL AI เป็นที่รวมของโซลูชันทรงประสิทธิภาพ ประกอบด้วย open source-licensed Granite ซึ่งเป็นตระกูลโมเดลด้านภาษาขนาดใหญ่ (LLM) จาก IBM Research, InstructLab ซึ่งเป็นเครื่องมือในการปรับแต่ง model โดยอาศัยกระบวนการ LAB (Large-scale Alignment for chatBots) และแนวทางการพัฒนาโมเดลที่ขับเคลื่อนโดยคอมมิวนิตี้ผ่าน InstructLab project โซลูชันเหล่านี้แพ็ครวมกันเป็น RHEL image ที่ช่วยให้ติดตั้ง RHEL AI ได้ไม่ยุ่งยากผ่าน bootable container ที่สามารถปรับให้เหมาะกับการใช้งานกับเซิร์ฟเวอร์แต่ละเครื่องบนไฮบริดคลาวด์ และยังบรรจุเป็นส่วนหนึ่งของ OpenShift AI ซึ่งเป็นแพลตฟอร์มการดำเนินงานที่เป็นไฮบริดแมชชีนเลิร์นนิ่ง (MLOps) ของ Red Hat ที่ใช้รันโมเดลต่างๆ และ InstructLab ในระดับความต้องการต่างๆ บนสภาพแวดล้อมที่เป็น distributed cluster

 

 

 

การเปิดตัว ChatGPT ทำให้ความสนใจ GenAI เพิ่มขึ้นมาก และทำให้กระแสด้านนวัตกรรมเพิ่มขึ้นอย่างรวดเร็วนับแต่นั้นมา องค์กรต่างเริ่มเปลี่ยนโฟกัสจากการประเมินบริการ GenAI ในระยะเริ่มแรก ไปเป็นการสร้างแอปพลิเคชันที่ใช้ AI นอกจากนี้ ระบบนิเวศของโอเพ่นโมเดล เป็นตัวเลือกที่เติบโตอย่างรวดเร็ว เป็นปัจจัยกระตุ้นให้เกิดนวัตกรรมด้าน AI และแสดงให้เห็นว่าจะไม่มีการใช้ “โมเดลเดียวควบคุมทุกอย่าง” อีกต่อไป ลูกค้าจะได้รับประโยชน์จากทางเลือกหลากหลายที่ตอบโจทย์ความต้องการเฉพาะด้านของตน และนวัตกรรมแบบเปิดจะช่วยเร่งสิ่งเหล่านี้ให้เกิดเร็วขึ้น

การนำกลยุทธ์ AI ไปใช้นั้นต้องการมากกว่าการเลือกโมเดล หากจะนำ AI ไปใช้ องค์กรด้านเทคโนโลยีต้องการความเชี่ยวชาญในการปรับแต่งโมเดลที่จะใช้กับงานที่มีลักษณะเฉพาะของตน รวมถึงจัดการกับค่าใช้จ่ายหลักๆ การขาดแคลนทักษะด้าน data science ประกอบกับข้อกำหนดทางการเงินที่สำคัญ ได้แก่
• การจัดซื้อจัดหาโครงสร้างพื้นฐาน AI หรือการใช้บริการด้าน AI ต่างๆ
• กระบวนการที่ซับซ้อนของการปรับแต่ง AI models ให้ตรงตามความต้องการเฉพาะของธุรกิจ
• การผสานรวม AI เข้ากับแอปพลิเคชันต่างๆ ขององค์กร
• การบริหารจัดการแอปพลิเคชันและไลฟ์ไซเคิลของโมเดล

องค์กรต่างๆ ต้องสามารถเพิ่มจำนวนคนที่สามารถทำงานกับโครงการและความคิดริเริ่มด้าน AI ให้มากขึ้น เพื่อลดอุปสรรคในการใช้นวัตกรรมด้าน AI ได้อย่างแท้จริง และต้องควบคุมค่าใช้จ่ายให้ได้ไปพร้อม กันด้วย Red Hat ตั้งเป้านำประโยชน์ของโปรเจกต์ที่เป็นโอเพ่นซอร์สจริงๆ มาใช้กับ GenAI เพื่อขจัดอุปสรรคเหล่านี้ เช่น InstructLab alignment tools, Granite models และ RHEL AI ซึ่งสามารถเข้าถึงการใช้งานได้ง่าย ใช้ซ้ำได้ โปร่งใส และเปิดกว้างให้มีส่วนร่วม contribute ได้ มาใช้กับ GenAI เพื่อขจัดอุปสรรคเหล่านี้

สร้าง AI แบบโอเพ่น ด้วย InstructLab
IBM Research ได้สร้าง Large-scale Alignment for chatBots (LAB) technique ซึ่งเป็นแนวทางสำหรับ model alignment ที่ใช้ taxonomy-guided synthetic data generation และเฟรมเวิร์กใหม่ที่ใช้ปรับแต่งแบบหลายเฟส แนวทางนี้ช่วยให้การพัฒนา AI models เปิดกว้างมากขึ้น ให้ผู้ใช้ทุกคนเข้าใช้ได้ โดยไม่ต้องอาศัยคำอธิบายของมนุษย์ที่ต้องเสียค่าใช้จ่ายสูง และลดการพึ่งพาโมเดลที่มีกรรมสิทธิ์ต่างๆ การใช้วิธีการของ LAB ช่วยให้โมเดลต่างๆ มีประสิทธิภาพเพิ่มขึ้นด้วยการระบุทักษะและความรู้ที่แนบมากับอนุกรมวิธาน และสร้างข้อมูลสังเคราะห์จากข้อมูลเหล่านั้นได้ในวงกว้าง เพื่อวางแนวทางให้กับโมเดล และนำข้อมูลที่สร้างขึ้นนั้นไปใช้เทรนด์โมเดล

หลังจากพบว่าแนวทางของ LAB ช่วยเพิ่มประสิทธิภาพให้กับโมเดลอย่างมาก IBM และ Red Hat จึงตัดสินใจเปิดตัว InstructLab ซึ่งเป็นโอเพ่นซอร์สคอมมิวนิตี้ที่สร้างขึ้นด้วยแนวทางของ LAB และ open source Granite models จาก IBM ทั้งนี้ InstructLab project มีจุดมุ่งหมายเพื่อนำการพัฒนา LLM มาสู่มือของนักพัฒนาซอฟต์แวร์ ด้วยการจัดหา สร้าง และมีส่วนร่วมสนับสนุน LLM ด้วยวิธีง่ายๆ เหมือนกับการมีส่วนร่วมสนับสนุน open source project อื่นๆ

ในการเปิดตัว InstructLab นี้ IBM ยังได้เปิดตัว Granite English language and code models in the open โมเดลเหล่านี้เปิดตัวภายใต้ไลเซนส์ของ Apache มีความโปร่งใสของชุดข้อมูลต่างๆ ที่ใช้เทรนด์โมเดลเหล่านี้ Granite 7B English language model รวมอยู่ใน InstructLab community ที่ที่ผู้ใช้ปลายทางสามารถมีส่วนร่วม contribute ทักษะและความรู้ต่างๆ เพื่อร่วมพัฒนาโมเดลนี้ เหมือนกับที่พวกเขาได้มีส่วนร่วมสนับสนุนโปรเจกต์โอเพ่นซอร์สอื่นๆ การสนับสนุนลักษณะเดียวกันนี้กับ Granite code models ใน InstructLab จะพร้อมใช้งานเร็วๆ นี้

นวัตกรรม Open source AI บน Linux ที่เชื่อถือได้
RHEL AI สร้างแนวทางแบบโอเพ่นให้นวัตกรรมด้าน AI ด้วยการผสาน InstructLab project เวอร์ชันที่พร้อมใช้ในองค์กรและ Granite language and code models เข้ากับแพลตฟอร์ม Linux ชั้นนำของโลกที่ใช้งานระดับองค์กร เพื่อทำให้การใช้งานบนโครงสร้างพื้นฐานไฮบริดไม่ยุ่งยาก เป็นการสร้างแพลตฟอร์มโมเดลพื้นฐานสำหรับการนำ open source-licensed GenAI models มาให้องค์กรได้ใช้ โดย RHEL AI ประกอบด้วย:
• Open source-licensed Granite language and code models ที่ได้รับการสนับสนุนและรับรองด้านกฎหมายและลิขสิทธิ์โดย Red Hat
• A supported, lifecycled distribution of InstructLab ที่มอบโซลูชันที่สเกลได้ในราคาที่คุ้มค่าเพื่อเพิ่มความสามารถให้กับ LLM และช่วยให้เกิดการกระจายความรู้และทักษะต่างๆ ให้ผู้ใช้ในวงกว้างเข้าถึงได้
• อินสแตนซ์รันไทม์โมเดลที่ช่วยให้ติดตั้งได้เร็วและปรับให้เหมาะกับการนำไปใช้บนสภาพแวดล้อมต่างๆ ได้ ผ่านแพ็คเกจเครื่องมือของ Granite models และ InstructLab รวมถึง Pytorch runtime libraries และ accelerators สำหรับ AMD Instinct™ MI300X, Intel และ NVIDIA GPUs และ NeMo frameworks
• คำมั่นของ Red Hat ในการให้การสนับสนุนด้านเทคนิคตลอดไลฟ์ไซเคิล ซึ่งเริ่มจากผลิตภัณฑ์ระดับองค์กรที่เชื่อถือได้ การสนับสนุนช่วยเหลือด้านผลิตภัณฑ์ตลอด 24 ชั่วโมงทุกวัน และการสนับสนุนไลฟ์ไซเคิลที่ขยายเพิ่มเติม

เมื่อใดที่องค์กรต่างๆ ทำการทดสอบและปรับแต่ง AI models ใหม่ๆ บน RHEL AI องค์กรเหล่านี้จะมีเส้นทางที่พร้อมใช้ในการสเกลเวิร์กโหลดเหล่านี้ผ่าน Red Hat OpenShift AI ซึ่งจะรวม RHEL AI ไว้ด้วย และยังสามารถใช้ประโยชน์จากเอนจิ้น OpenShift’s Kubernetes เพื่อเทรนด์และให้บริการ AI model ต่างๆ ได้ตามต้องการ นอกจากนี้ยังได้ใช้ประโยชน์จากการผสานรวม OpenShift AI เข้ากับความสามารถของ MLOps เพื่อบริหารจัดการไลฟ์ไซเคิลของโมเดลได้อีกด้วย นอกจากนี้ IBM’s watsonx.ai enterprise studio ที่สร้างอยู่บน Red Hat OpenShift AI ในปัจจุบันจะได้รับประโยชน์จากการผสานรวม RHEL AI ไว้ใน OpenShift AI เมื่อพร้อมใช้งาน ซึ่งจะเพิ่มความสามารถในการพัฒนา AI การบริหารจัดการดาต้า การกำกับดูแลโมเดล และเพิ่มความคุ้มค่าการลงทุนให้กับองค์กร

คลาวด์ที่ใช่คือไฮบริด – AI ก็เช่นกัน
เป็นเวลากว่า 30 ปีที่เทคโนโลยีโอเพ่นซอร์สได้จับคู่นวัตกรรมที่เกิดขึ้นอย่างรวดเร็วเข้ากับการลดค่าใช้จ่ายด้านไอทีและลดอุปสรรคต่อการสร้างสรรค์สิ่งใหม่ได้อย่างมีนัยสำคัญ Red Hat เป็นผู้นำด้านนี้มาในเวลาเกือบเท่าๆ กัน เริ่มตั้งแต่การนำเสนอ RHEL ซึ่งเป็นแพลตฟอร์ม Linux แบบเปิดสำหรับองค์กร ในต้นทศวรรษ 2000 ไปจนถึงการผลักดันให้คอนเทนเนอร์และ Kubernetes เป็นรากฐานให้กับโอเพ่น ไฮบริดคลาวด์ และคลาวด์-เนทีฟ คอมพิวติ้ง ด้วย Red Hat OpenShift

เร้ดแฮทเดินหน้าต่อเนื่องด้วยกลยุทธ์การขับเคลื่อน AI/ML บนโอเพ่นไฮบริดคลาวด์ ที่ช่วยให้เวิร์กโหลด AI รัน ณ ที่ที่ข้อมูลอยู่ ไม่ว่าจะเป็นในดาต้าเซ็นเตอร์ มัลติพับลิคคลาวด์ หรือที่ edge นอกจากเรื่องของเวิร์กโหลด วิสัยทัศน์ด้าน AI ของ Red Hat ยังช่วยนำการเทรนด์โมเดลและปรับให้อยู่ในแนวทางเดียวกัน มาใช้แก้ไขข้อจำกัดด้านสิทธิ์การเป็นเจ้าของข้อมูล (data sovereignty) การปฏิบัติตามกฎระเบียบ และความสมบูรณ์ของการทำงานอีกด้วย ความสอดคล้องที่แพลตฟอร์มของ Red Hat มีให้กับทุกสภาพแวดล้อมเหล่านี้ โดยไม่จำกัดว่าเวิร์กโหลดจะรันอยู่ที่ใด เป็นสิ่งสำคัญมากต่อการทำให้นวัตกรรม AI เดินหน้าต่อไป

RHEL AI และ InstructLab community ยังคงเดินหน้าวิสัยทัศน์นี้ต่อไป เพื่อกำจัดอุปสรรคมากมายที่เกิดกับการทดสอบและสร้าง AI model ต่างๆ และจัดหาเครื่องมือ ข้อมูล และคอนเซปต์ต่างๆ ที่จำเป็นต่อการขับเคลื่อนเวิร์กโหลดอัจฉริยะระลอกใหม่

ความพร้อมใช้งาน
Red Hat Enterprise Linux AI พร้อมให้ใช้งานในรูปแบบพรีวิวสำหรับนักพัฒนาซอฟต์แวร์ นอกจากโครงสร้างพื้นฐาน GPU ที่พร้อมให้ใช้บน IBM Cloud ซึ่งใช้เทรนด์ Granite models และรองรับ InstructLab แล้ว ปัจจุบัน IBM Cloud จะเพิ่มให้สามารถรองรับ RHEL AI และ OpenShift AI ด้วย ซึ่งจะช่วยให้องค์กรต่างๆ ใช้ generative AI กับแอปพลิเคชันสำคัญๆ ของตนได้ง่ายมากขึ้น

 

Share: