รัฐบาลและภาคอุตสาหกรรมทั่วโลกกำลังเร่งเครื่องเพื่อชิงความได้เปรียบด้านปัญญาประดิษฐ์ (AI) สำหรับหลาย ๆ ประเทศ แรงขับเคลื่อนนี้เกิดขึ้นในช่วงเวลาที่ต้อง…รัฐบาลและภาคอุตสาหกรรมทั่วโลกกำลังเร่งเครื่องเพื่อชิงความได้เปรียบด้านปัญญาประดิษฐ์ (AI) สำหรับหลาย ๆ ประเทศ แรงขับเคลื่อนนี้เกิดขึ้นในช่วงเวลาที่ต้องเผชิญกับความเป็นจริงทางประชากรศาสตร์ที่เร่งด่วนไม่ว่าจะเป็น สังคมผู้สูงอายุ การหดตัวของกำลังแรงงาน และความจำเป็นเร่งด่วนในการปฏิรูปผลิตผล ซึ่งเราไม่สามารถปล่อยให้ตัวเองล้าหลังได้ และการผงาดขึ้นของ Agentic AI (AI ที่มีความคิดเชิงตัวแทนและกระทำการเองได้) คือคำมั่นสัญญาที่จะเข้ามาเร่งกระบวนการเปลี่ยนแปลงนี้ให้เร็วยิ่งขึ้น“Alexey Navolokin” ผู้จัดการทั่วไปประจำภูมิภาคเอเชียแปซิฟิก (APAC) – AMD กล่าวว่า สิ่งที่ทำให้ Agentic AI แตกต่างจากโมเดล AI แบบดั้งเดิมคือ มันไม่ได้ทำหน้าที่เพียงแค่ตอบคำถาม แต่สามารถคิดหาเหตุผล วางแผน และลงมือทำข้ามระบบต่าง ๆ ได้ เช่น แทนที่จะทำเพียงแค่ตอบคำถามแนะนำสถานที่ท่องเที่ยว ระบบ Agentic AI จะสามารถจองตั๋วเครื่องบิน อัปเดตปฏิทินงาน ส่งการแจ้งเตือน และแม้กระทั่งปรับเปลี่ยนแผนการเดินทางตามสภาพอากาศหรือเหตุล่าช้าได้ทันที โดยที่เราไม่ต้องป้อนคำสั่งในแต่ละขั้นตอนสิ่งนี้ถือเป็นการเปลี่ยนผ่านจากการตอบสนองของ AI แบบตั้งรับไปสู่ระบบเชิงรุกที่ทำงานร่วมกับมนุษย์เสมือนเพื่อนร่วมงาน การเติบโตของ Agentic AI จะต้องการพลังการประมวลผลที่มหาศาลกว่าเดิมมาก ไม่ใช่แค่สำหรับงานเดียว แต่สำหรับกระบวนการทำงานที่ต่อเนื่องยาวนาน ที่ต้องอาศัยการคิดวิเคราะห์ การวางแผน และการปรับตัวอยู่ตลอดเวลาเมื่อเทคโนโลยี Agentic AI พัฒนาขึ้นและมีการนำไปใช้งานเป็นวงกว้าง ก็เปรียบเสมือนการเพิ่มผู้ใช้งานเสมือนจริง (virtual users) นับพันล้านรายเข้าสู่โครงข่ายการประมวลผล คำถามสำคัญสำหรับทุกประเทศ รวมถึงประเทศไทย คือ โครงสร้างพื้นฐานด้าน AI ของประเทศมีความพร้อมที่จะรองรับขนาดของการใช้งาน และความซับซ้อนระดับนี้แล้วหรือยังAI ไม่ได้แค่เรื่องของ GPUในการสนทนาเรื่อง AI เรามักได้ยินแต่เรื่องของหน่วยประมวลผลกราฟิก (GPU) ประสิทธิภาพสูง โดยเฉพาะสำหรับการเทรนและการรันโมเดลขนาดใหญ่ แต่ในความเป็นจริง หน่วยประมวลผลกลาง (CPU) มีความสำคัญไม่แพ้กันในฐานะผู้อยู่เบื้องหลังการขับเคลื่อนระบบ AI โดยทำหน้าที่จัดการงานสำคัญต่าง ๆ เช่น การเคลื่อนย้ายข้อมูล การจัดการหน่วยความจำ การประสานงานของเธรด และการบริหารจัดการเวิร์กโหลดงานของ GPUในความเป็นจริง เวิร์กโหลดงาน AI จำนวนมาก รวมถึงโมเดลภาษาที่มีพารามิเตอร์สูงสุดถึง 1.3 หมื่นล้านพารามิเตอร์, ระบบจดจำภาพ, การตรวจจับการฉ้อโกง และระบบแนะนำสินค้า สามารถรันเวิร์กโหลกได้อย่างมีประสิทธิภาพบนเซิร์ฟเวอร์ที่ใช้ CPU เพียงอย่างเดียว โดยเฉพาะเมื่อขับเคลื่อนด้วย CPU ประสิทธิภาพสูงเช่นโปรเซสเซอร์ AMD EPYC™ 9005 Seriesเมื่อโมเดล AI วิวัฒนาการไปสู่สถาปัตยกรรมแบบแยกส่วนมากขึ้น (modular architectures) เช่น ระบบ mixture-of-experts ที่ได้รับความนิยมจาก DeepSeek และผู้พัฒนารายอื่น ๆ ความต้องการในการจัดสรรทรัพยากรอย่างชาญฉลาดก็ยิ่งเพิ่มขึ้น CPU จำเป็นต้องมีชุดคำสั่งต่อรอบสัญญาณนาฬิกา (IPC) ที่สูง มีระบบ input/output (I/O) ที่รวดเร็ว และมีความสามารถในการจัดการงานหลายอย่างพร้อมกันได้อย่างแม่นยำสิ่งที่สำคัญไม่แพ้กันคือ "การเชื่อมต่อ" ซึ่งเปรียบเสมือน “กาว” ที่ยึดโยงระบบ AI สมัยใหม่เข้าด้วยกัน อุปกรณ์เครือข่ายขั้นสูง เช่น คอนโทรลเลอร์อินเทอร์เฟซเครือข่ายอัจฉริยะ (smart NICs) ช่วยกำหนดเส้นทางข้อมูลอย่างมีประสิทธิภาพและปลอดภัยระหว่างชิ้นส่วนต่าง ๆ ช่วยลดภาระจาก GPU และลดความหน่วง การเชื่อมต่อระหว่างกันที่มีความเร็วสูงที่มีความหน่วงต่ำช่วยให้ข้อมูลไหลเวียนข้ามระบบได้อย่างราบรื่น ในขณะที่โครงสร้างแบบ Scalable Fabric ช่วยเชื่อมต่อโหนดต่าง ๆ เข้าด้วยกันเป็นคลัสเตอร์ AI แบบกระจายตัวที่ทรงพลังในยุคของ Agentic AI การออกแบบระบบแบบผสมผสาน (heterogeneous system design) กลายเป็นสิ่งจำเป็น โครงสร้างพื้นฐาน AI ต้องก้าวข้ามให้ไกลกว่าแค่พลังการประมวลผลดิบ ๆ ไปสู่การบูรณาการ CPU, GPU, เครือข่าย และหน่วยความจำ เข้าด้วยกันอย่างยืดหยุ่นและขยายขนาดได้ ระบบที่ถูกสร้างขึ้นในลักษณะนี้จะสามารถมอบความเร็ว การประสานงาน และปริมาณงาน (throughput) ที่จำเป็นเพื่อรองรับการโต้ตอบแบบเรียลไทม์ที่รวดเร็วของเอเจนต์อัจฉริยะนับพันล้านตัว และเมื่อการใช้งานขยายตัวขึ้น การปรับแต่งเพื่อเพิ่มประสิทธิภาพตู้แร็ค (rack-level optimization) ซึ่งมีการออกแบบการประมวลผล การจัดเก็บข้อมูล และเครือข่ายร่วมกันอย่างแน่นแฟ้น จะเป็นกุญแจสำคัญในการส่งมอบประสิทธิภาพและความคุ้มค่าสู่ยุคถัดไปทำไม "การเป็นระบบเปิด" (Openness) ถึงสำคัญในสนามแข่ง AIเมื่อระบบ AI มีความซับซ้อนและมีการใช้งานมากขึ้น "การเป็นระบบเปิด" ทั้งในด้านซอฟต์แวร์ ฮาร์ดแวร์ และการออกแบบระบบ จะกลายเป็นความจำเป็นเชิงกลยุทธ์ ระบบนิเวศแบบปิดจะมีความเสี่ยงต่อการถูกผูกขาด (vendor lock-in) ซึ่งเป็นการจำกัดความยืดหยุ่น และขัดขวางนวัตกรรมในช่วงเวลาที่การปรับตัวคือกุญแจสำคัญของการขยายสเกลด้าน AIนี่คือเหตุผลที่ชุดซอฟต์แวร์แบบเปิดอย่าง AMD ROCm™ มีความจำเป็น ROCm มอบอิสระให้นักพัฒนาและนักวิจัยในการสร้าง ปรับแต่ง และใช้งานโมเดล AI ในสภาพแวดล้อมที่หลากหลาย รองรับเฟรมเวิร์กยอดนิยมอย่าง PyTorch และ TensorFlow รวมถึงมีเครื่องมือขั้นสูงสำหรับการปรับจูนประสิทธิภาพ และการพอร์ตข้ามฮาร์ดแวร์ได้ ทั้งหมดนี้อยู่บนพื้นฐานโอเพนซอร์ส ในบริบทของความมุ่งมั่นของประเทศไทยที่ต้องการจะส่งเสริมนวัตกรรมทั้งในภาคการศึกษา สตาร์ทอัพ และอุตสาหกรรม ซอฟต์แวร์ AI แบบเปิดจะช่วยให้เข้าถึงเทคโนโลยีได้กว้างขวางขึ้น พัฒนาต่อยอดได้เร็วขึ้น และลดอุปสรรคในการเข้าสู่ตลาดในทำนองเดียวกัน การเป็นระบบเปิดในระดับฮาร์ดแวร์และระบบก็สำคัญไม่แพ้กัน เมื่อการประมวลผล AI พัฒนาไปสู่การใช้งานแบบผสมผสานในสเกลใหญ่ สถาปัตยกรรมระดับตู้แร็ค (rack-scale) จะกลายเป็นรากฐานสำคัญ มาตรฐานเปิดเช่น Open Compute Project (OCP) จะรองรับการออกแบบระบบแบบโมดูลาร์ ในขณะที่ความร่วมมือใหม่ ๆ อย่าง Ultra Accelerator Link (UALink) จะมุ่งเป้าไปที่การสร้างการเชื่อมต่อแบนด์วิดท์สูงแบบเปิดระหว่างตัวเร่งความเร็ว AI ข้ามเซิร์ฟเวอร์ ในขณะเดียวกัน Ultra Ethernet Consortium (UEC) ก็กำลังกำหนดมาตรฐานเครือข่ายยุคใหม่ที่สร้างขึ้นมาเพื่อ AI โดยเฉพาะ เพื่อให้สามารถเคลื่อนย้ายข้อมูลด้วยความหน่วงต่ำและปริมาณงานสูงผ่านระบบแบบกระจายศูนย์ความคิดริเริ่มแบบเปิดกว้างเหล่านี้จะช่วยให้ผู้ให้บริการคลาวด์และดาต้าเซ็นเตอร์สามารถสร้างโครงสร้างพื้นฐานที่ยืดหยุ่นและทำงานร่วมกันได้ เพื่อก้าวให้ทันการเติบโตอย่างก้าวกระโดดของ AI สำหรับประเทศไทย การเปิดรับระบบนิเวศแบบเปิดจะช่วยให้ประเทศได้รับประโยชน์จากนวัตกรรมระดับโลก พร้อมกับสร้างจุดเด่นของตนเองในระดับท้องถิ่น ช่วยให้รัฐบาลและภาคธุรกิจสามารถสร้างโครงสร้างพื้นฐานที่มีประสิทธิภาพ ประหยัดพลังงาน และตอบโจทย์ความต้องการภายในประเทศ โดยไม่ถูกจำกัดด้วยข้อจำกัดเฉพาะของผู้ค้ารายใดรายหนึ่ง
ความท้าทายด้านโครงสร้างพื้นฐาน AI : เตรียมความพร้อมสู่การปฏิวัติ “Agentic AI”
by
Tags: