ความซับซ้อนของ AI และการใช้งานที่ Edge สามารถจัดการได้
กระแสของปัญญาประดิษฐ์ (AI) ในปัจจุบัน มีเรื่องที่ต้องทำความเข้าใจหลายแง่มุม ในแต่ละวันจะมีผลิตภัณฑ์และบริการใหม่ โมเดลใหม่ การสร้างเนื้อหาหรือโซลูชันที่ขับเคลื่อนด้วย AI อื่นๆ เกิดขึ้นมากมาย เมื่อพูดถึงการทำงานเกี่ยวกับโมเดล AI/machine learning (ML) ตั้งแต่การเทรนโมเดลไปจนถึงการนำไปใช้งานที่ edge นั้น ไม่ใช่เรื่องง่ายเลย เพราะเป็นเรื่องที่ต้องข้องเกี่ยวกับบทบาทหน้าที่ของทีมงานด้านต่างๆ กระบวนการ และเครื่องมือมากมาย รวมถึงองค์กรจะต้องมีโครงสร้างการทำงานที่ดี และโมเดลเหล่านั้นจะต้องโฮสต์อยู่บนแพลตฟอร์มไอทีที่แข็งแกร่ง
โมเดล AI ได้รับความนิยมทุกแห่งหน คำถามคือจะมีโมเดลใดบ้างที่เป็นโซลูชันที่ใช้งานได้จริงที่ได้รับการเทรนมาอย่างดี, มีการทำ versioning และมีวิธีการ deploy ที่เหมาะสมมีประสิทธิภาพ
ต้องใช้เวลานานเท่าใดจึงจะใช้งานได้
คำถามนี้ไม่ใช่เรื่องใหม่ จากการสำรวจล่าสุดของการ์ทเนอร์ องค์กรอาจใช้เวลาในการศึกษาค้นคว้า AI/ML จากแนวคิดไปสู่การใช้งานจริง ประมาณ 7-12 เดือน ซึ่งจะต้องจัดการกับความท้าทายต่างๆ เช่น หนี้ทางเทคนิค ค่าบำรุงรักษา และความเสี่ยงของระบบ ฯลฯ ตลอดกระบวนการทำงาน
ความท้าทายใหญ่ๆ ในการทำงานด้าน AI/ML
การนำโมเดล AI/ML ไปใช้จริง นับจากขั้นตอนการพิสูจน์แนวคิด ไปจนถึงกลายเป็นโซลูชันทางอุตสาหกรรมนั้นเต็มไปด้วยความท้าทาย การทำงานนี้คล้ายกับการสร้างผลิตภัณฑ์อุตสาหกรรมคุณภาพสูง และจำเป็นต้องสร้างซัพพลายเชนที่เชื่อถือได้ เพื่อสร้างโซลูชันที่ไว้ใจได้และมีคุณภาพสูง
คุณภาพของข้อมูล
การสร้างโมเดล AI ที่ทรงประสิทธิภาพจะต้องมีข้อมูลที่ถูกต้องเหมาะสมและเกี่ยวข้องกัน เพื่อใช้ในการเทรนและทดสอบ หัวใจหลักที่เป็นสิ่งสำคัญพื้นฐาน คือการกำกับดูแลข้อมูลที่รัดกุม เช่น ความเป็นส่วนตัวของข้อมูล ความปลอดภัย และปฏิบัติตามกฎระเบียบที่เกี่ยวข้องทั้งหมด ซึ่งอาจเพิ่มความซับซ้อนได้อย่างมหาศาล รวมถึงความต้องการด้าน infrastructure จะเพิ่มขึ้นอย่างมาก
การนำไปใช้และการบูรณาการโมเดล
การบูรณาการโมเดล AI/ML เข้ากับระบบและเวิร์กโฟลว์ที่ใช้อยู่ เป็นความท้าทายทางเทคนิค เนื่องจากซอฟต์แวร์รุ่นใหม่ๆ พึ่งพาแนวทางการพัฒนาซอฟต์แวร์อย่างต่อเนื่อง เช่นการทำ continuous integration และ continuous deployment (CI/CD) ดังนั้นการใช้ไปป์ไลน์สำหรับโมเดล AI ที่มีระบบอัตโนมัติและการตรวจสอบที่ครอบคลุมจึงเป็นเรื่องสำคัญ
Infrastructure ที่สเกลได้ ติดตามตรวจสอบได้ และมีสมรรถนะ
ความมั่นใจว่าโมเดล AI/ML ทั้งหลายได้รับการเทรนให้สามารถปรับขนาดเพื่อรับมือกับข้อมูลปริมาณมากและสตรีมข้อมูลด้วยความเร็วสูงได้นั้นเป็นเรื่องสำคัญมาก ดังนั้นสถาปัตยกรรมหนึ่งๆ ที่นักวิทยาศาสตร์ข้อมูล (data scientist) และคนทำงานด้านไอทีสามารถมอนิเตอร์และดูแลได้นั้น จะหมายถึงแพลตฟอร์มที่สามารถแก้ไขหรืออัปเกรดได้เมื่อจำเป็น ซึ่งรวมถึงเครื่องมือที่ใช้ในการสร้างและดูแล infrastructure ที่จำเป็น (เช่น ทรัพยากรที่ใช้ในการคำนวณ พื้นที่จัดเก็บข้อมูล และแพลตฟอร์ม ML ต่างๆ) การเลือกและบูรณาการเครื่องมือต่างๆ ที่เหมาะสมทั้งกับการประมวลผลข้อมูล การพัฒนาโมเดล การใช้และการมอนิเตอร์
ช่องว่างทางทักษะและการทำงานร่วมกัน
การปิดช่องว่างทางทักษะและการทำงานร่วมกันระหว่าง data scientists วิศวกร (engineers) และผู้มีส่วนได้เสียทางธุรกิจ เป็นเรื่องสำคัญที่จะช่วยส่งเสริมให้เกิดทำงานร่วมกันอย่างมีประสิทธิภาพและเป็นไปในทิศทางเดียวกัน
การใช้เครื่องมือเฉพาะทางหลายอย่างกับฟังก์ชันการทำงานที่ต่างกัน อาจเป็นอุปสรรคต่อแนวทางนี้ได้ ทีมงานแต่ละทีมมักใช้เครื่องมือเฉพาะและศัพท์เฉพาะทาง ซึ่งอาจทำให้เกิดอุปสรรคในการบูรณาการ โดยเฉพาะในการทำงานของแมชชีนเลิร์นนิ่ง (machine learning operations: MLOps) โดยหลักการแล้วโมเดลต่างๆ จะถูกจัดการอย่างราบรื่นตลอดกระบวนการทำงาน ตั้งแต่การเทรน การ deploy ไปยังอุปกรณ์ที่ติดตั้งอยู่ที่ edge สิ่งเหล่านี้อาจเป็นสิ่งกระตุ้นให้ใช้ระบบหรือแพลตฟอร์มเดียวเพื่อให้บรรลุหลักการนี้ แต่การสร้างแพลตฟอร์มและเครื่องมือที่ทุกทีมสามารถทำงานร่วมกันได้ดี อาจเป็นวิธีที่ดีกว่าในการส่งเสริมการทำงานร่วมกันให้มีประสิทธิภาพมากขึ้น เพื่อให้ทีมงานแต่ละทีมสามารถใช้ระบบที่ตนต้องการได้ แทนที่จะต้องใช้โซลูชันเดียวที่อาจไม่ตรงตามความต้องการเฉพาะทางของแต่ละทีม
การแก้ปัญหาช่องว่างทางทักษะยังคงเป็นเรื่องสำคัญในกระบวนการนี้ องค์กรต่างๆ มักมีกลุ่มหรือทีมที่เชี่ยวชาญทักษะและความรู้เฉพาะทางที่ต่างกัน รวมกันอยู่ในแผนกเดียวกัน เช่น data scientists, engineers และผู้มีส่วนได้เสียทางธุรกิจ ซึ่งเมื่อมีการถ่ายโอนโมเดลต่างๆ ระหว่างทีมก็อาจทำให้เกิดปัญหาได้ เนื่องจากไม่สามารถเข้าถึงทักษะและความเข้าใจที่จำเป็นต้องใช้ ได้อย่างทั่วถึง
การแก้ไขช่องว่างเหล่านี้ต้องมีการให้ความรู้และการอบรมข้ามสายงานอย่างต่อเนื่อง เพื่อให้สมาชิกทุกคนในทุกทีมมีความเข้าใจพื้นฐานเกี่ยวกับบทบาทและเครื่องมือที่แต่ละทีมใช้งาน การลงทุนในการสร้างและอบรมทักษะต่างๆ ข้ามทีม จะช่วยให้กระบวนการพัฒนาและใช้โมเดลเป็นไปอย่างราบรื่นและมีประสิทธิภาพมากขึ้น
จริยธรรมและความไม่เป็นกลาง
องค์กรต้องมั่นใจว่าโมเดล AI/ML มีความเท่าเทียม และขจัดความไม่เป็นกลางของข้อมูลไม่ให้ไปเกี่ยวข้องกับการนำแนวทางและเฟรมเวิร์กด้านจริยธรรมไปใช้ควบคุมการใช้งาน AI/ML จากนั้นต้องนำแนวปฏิบัติด้านจริยธรรมและความไม่เป็นกลางมาใช้เป็นตัวชี้วัด เพื่อสร้าง infrastructure ที่เชื่อถือได้สำหรับใช้ในการประเมินและการติดตาม คุณภาพของโมเดลหนึ่งๆ ต้องได้รับการประเมินกับตัวชี้วัดเหล่านี้ และต้องเปรียบเทียบผลการประเมินกับข้อมูลอ้างอิงที่กำหนดไว้ล่วงหน้าแล้ว
บทบาทหน้าที่ต่างๆ ที่เกี่ยวข้องกับไลฟ์ไซเคิลของ AI/ML
การใช้ AI/ML เกี่ยวข้องกับคนและทีมงานที่มีบทบาทหน้าที่มากมาย แต่ละบทบาทต้องการทักษะและความรู้อย่างมาก บทบาทเหล่านี้ต่างจากบทบาทของ IT DevOps ทั่วๆ ไป เพราะต้องใช้ IT infrastructure จำนวนมาก ต้องใช้เครื่องมือเฉพาะสำหรับการสร้างโมเดล AI และต้องประสบกับความท้าทายในการส่งมอบโมเดล AI เช่นเดียวกับความท้าทายในการส่งมอบซอฟต์แวร์เวอร์ชันใหม่ บทบาทที่เป็นที่รู้จักกันดีคือ data scientist ซึ่งคำว่า data scientist นี้ดูจะกินความหมายกว้างเกินไป งานต่างๆ ที่เกี่ยวกับการนำ AI/ML ไปใช้ แบ่งแยกย่อยออกไปและต้องการบุคคลที่มีทักษะเฉพาะทางที่แตกต่างกัน เช่น หากเป็นด้านการรวบรวมข้อมูล การทำข้อมูลให้ถูกต้องเหมาะสม และการเตรียมเทรนโมเดลนั้น ต้องการคนที่มีบทบาทเป็น data scientist
MLOps engineer จะเชี่ยวชาญในการนำโมเดล AI ต่างๆ ไปใช้และการดูแลรักษาซึ่งต้องมีทักษะเฉพาะและใช้เครื่องมือเฉพาะทาง ที่ไม่จำเป็นต้องเหมือนกับทักษะและเครื่องมือที่ใช้ในการเทรนโมเดล AI จุดนี้เป็นปัญหาให้กับบริษัทหนึ่งๆ ที่เมื่อต้องการใช้โมเดล AI ของตนแต่ไปร้องขอให้ data scientist เป็นผู้ทำหน้าที่ปรับใช้โมเดล AI ซึ่งการปรับใช้โมเดล AI เป็นทักษะเฉพาะทางของ MLOps engineer และยังรวมถึงการมอนิเตอร์ การสเกลโมเดลไปสู่การใช้งานจริง และการดูแลรักษาประสิทธิภาพการทำงานของโมเดล
การสร้างโมเดล AI/ML เกี่ยวข้องกับ AI engineer ซึ่งจะเทรนและใช้โมเดลบนอัลกอริธึมล่าสุดที่สร้างโดย AI scientists เมื่อสร้างเสร็จแล้ว โมเดลจะถูกผลักเข้าไปในระบบสตอเรจ พร้อมให้ containerized application ใช้งาน
นักพัฒนาแอปพลิเคชันผสานรวมโมเดล AI/ML เข้ากับแอปพลิเคชันต่างๆ และต้องมั่นใจได้ว่าจะมีการใช้งานร่วมกันกับระบบอื่นได้อย่างไม่ติดขัด
ฝ่ายปฏิบัติการด้านไอทีจะบริหารจัดการ infrastructure เพื่อให้มั่นใจว่าทรัพยากรที่จำเป็นต้องใช้มีพร้อมใช้และนำไปใช้งานอย่างมีประสิทธิภาพ
ผู้นำองค์กรธุรกิจมีบทบาทในการกำหนดเป้าหมาย ผสาน AI/ML ให้สอดคล้องกับวัตถุประสงค์ทางธุรกิจ และทำให้มั่นใจว่า จะมีทรัพยากรและการสนับสนุนช่วยเหลือที่จำเป็นในการใช้โซลูชัน AI/ML ต่างๆ ได้อย่างต่อเนื่อง
การประสานงานบทบาทหน้าที่เหล่านี้อย่างมีประสิทธิภาพเป็นสิ่งสำคัญมากสำหรับการบริหารจัดการความซับซ้อนต่างๆ และหนี้ทางเทคนิค ที่เกี่ยวข้องกับการดำเนินงาน AI/ML และไม่อาจทำได้ด้วยการกำหนดขั้นตอนและเวิร์กโฟลว์ที่เป็นนามธรรมเท่านั้น แต่จำเป็นต้องพึ่งพาชุดเครื่องมือมาตรฐานที่มีอินเทอร์เฟซเฉพาะสำหรับผู้ใช้งานแต่ละบทบาทหน้าที่ เพื่อให้มีมุมมองในการทำงานด้าน AI มุมมองเดียวกัน ที่ผู้ทำงานในแต่ละทีมสามารถเข้าใจได้
เร้ดแฮทช่วยได้อย่างไร
Red Hat OpenShift AI มอบแพลตฟอร์ม AI/ML ที่สเกลได้และยืดหยุ่น เพื่อช่วยองค์กรสร้างและสามารถนำแอปพลิเคชันที่ใช้ AI ไปใช้ในวงกว้างในสภาพแวดล้อมไฮบริดคลาวด์ทั้งหมด OpenShift AI สร้างจากเทคโนโลยีโอเพ่นซอร์ส มอบความสามารถต่างๆ ที่เชื่อถือได้ และการทำงานที่สอดคล้องกัน ให้กับทีมงานต่างๆ ใช้ในการทดลอง ให้บริการโมเดล และให้บริการแอปพลิเคชันรุ่นใหม่ๆ เร้ดแฮทได้ผสานรวมความสามารถต่างๆ ที่ได้รับการพิสูจน์ประสิทธิภาพแล้ว ของ OpenShift AI เข้ากับ Red Hat OpenShift เพื่อสร้างแพลตฟอร์มแอปพลิเคชัน AI หนึ่งแพลตฟอร์ม ที่สามารถช่วยให้ทีมที่ทำงานต่างๆ ขององค์กรมาทำงานร่วมกันได้อย่างมีประสิทธิภาพมากขึ้น ผู้ที่มีบทบาทหน้าที่ด้านต่างๆ เช่น data scientists, engineers และนักพัฒนาแอปพลิเคชันทุกคนสามารถทำงานร่วมกันบนแพลตฟอร์มเดียวกัน ที่มีประสิทธิภาพทั้งความคงเส้นคงวา สอดคล้องกัน มีความปลอดภัยมากขึ้น และสเกลได้ง่าย
Red Hat Device Edge เป็นแพลตฟอร์มที่มีความยืดหยุ่น รองรับเวิร์กโหลดประเภทต่างๆ ในทิศทางเดียวกัน ไม่ว่าจะเป็นเวิร์กโหลดที่อยู่บนอุปกรณ์ขนาดเล็กที่มีทรัพยากรจำกัดติดตั้งอยู่ที่ edge และมอบความสม่ำเสมอในการดำเนินงานกับเวิร์กโหลดและอุปกรณ์ทุกประเภท ไม่ว่าจะนำไปใช้งาน ณ ที่ใดก็ตาม ทั้งนี้ Red Hat Device Edge ประกอบด้วย
• Red Hat Enterprise Linux
สร้าง edge-optimized OS images เพื่อรองรับกรณีใช้งานและเวิร์กโหลดหลากหลาย ด้วย ระบบปฏิบัติการที่มีความปลอดภัยและความเสถียรของเร้ดแฮท
• MicroShift
MicroShift ของเร้ดแฮท เป็นโซลูชัน lightweight Kubernetes container orchestration ที่สร้างจากความสามารถด้าน edge ของ Red Hat OpenShift
• Red Hat Ansible Automation Platform
Red Hat Ansible Automation Platform ช่วยให้องค์กรสเกลอุปกรณ์ได้อย่างรวดเร็ว และช่วยบริหารจัดการไลฟ์ไซเคิลของแอปพลิเคชัน
บทความโดย Bertrand d’Herouville, Senior Specialist Solutions Architect, Edge, เร้ดแฮท