เลิกบ้าพลัง หมดยุค AI โมเดลยักษ์ เมื่อธุรกิจหันมาลงทุน AI ขนาดเล็ก

โลกธุรกิจกำลังหมดยุคโมเดลยักษ์ และหันมาหา AI ที่ตัวเล็กแต่รู้จริงในช่วง 2-3 ปีที่ผ่านมา หากเราเปรียบวงการ AI เป็นงานปาร์ตี้ เราคงกำลังอยู่ในช่วงที่เพลงดังที่สุด แสงสีจัดจ้านที่สุด และทุกคนกำลังเต้นกันอย่างบ้าคลั่งไปกับคำว่า Generative AI และ LLMทุกบริษัทต่างพยายามแข่งกันสร้างโมเดลที่ใหญ่กว่า พารามิเตอร์เยอะกว่า และลงทุนสูงกว่า ราวกับว่าขนาดคือคำตอบของทุกสิ่งแต่เมื่อแสงไฟเริ่มหรี่ลงและบิลค่าใช้จ่ายเริ่มถูกส่งมาที่โต๊ะผู้บริหาร ค่า Cloud ที่พุ่งสูงเสียดฟ้า, ราคา GPU ที่แพงหูฉี่ และการใช้พลังงานไฟฟ้าที่มหาศาล เราจึงเริ่มได้สติและตั้งคำถามสำคัญที่อาจเปลี่ยนทิศทางของเทคโนโลยีนี้ไปตลอดกาลคือ“เราจำเป็นต้องจ้าง AI ระดับ Einstein มานั่งตอบคำถามพนักงานแค่ว่า “เครื่องพริ้นเตอร์กระดาษติดต้องทำยังไง?’ จริงๆ หรือเปล่า?”Techhub ขอต้อนรับทุกคนเข้าสู่ยุคใหม่ของ AI… ยุคที่เราจะเลิก บ้าพลังแล้วหันมาโฟกัสที่ความฉลาด อย่างแท้จริง นี่คือยุคของ SLM (Small Language Models) และบริบท (Context) ที่จะมาพลิกโฉมการลงทุนเทคโนโลยีของทุกธุรกิจกับดักของคำว่า “ใหญ่ที่สุด”ลองจินตนาการว่า หากคุณเป็นเจ้าของบริษัท คุณมีปัญหาเรื่องระบบไอทีพื้นฐาน เช่น การรีเซ็ตพาสเวิร์ด หรือการตรวจสอบสถานะการแจ้งซ่อม งานเหล่านี้ต้องการความรวดเร็วและความแม่นยำเฉพาะจุด แต่สิ่งที่เรากำลังทำอยู่กับ GenAI ในปัจจุบัน คือการนำโมเดลขนาดมหึมา ที่มีพารามิเตอร์ระดับแสนล้าน หรือล้านล้านตัว มาทำงานง่ายๆ เหล่านี้เปรียบเสมือนคุณจ้างศาสตราจารย์ฟิสิกส์ระดับรางวัลโนเบล มายืนเฝ้าหน้าประตูบริษัทเพื่อคอยบอกทางไปห้องน้ำ แน่นอนว่าเขาทำได้ และอาจจะอธิบายโครงสร้างโมเลกุลของกระเบื้องห้องน้ำให้คุณฟังได้ด้วย (ฮ่าๆ ขำๆนะครับ) แต่คำถามคือมันคุ้มค่าจ้างไหม? และมันจำเป็นหรือเปล่า?ในมุมมองของ ManageEngine และ Zoho ผู้คร่ำหวอดในวงการ Enterprise IT มากว่าทศวรรษ คำตอบคือ ไม่โลกธุรกิจกำลังตระหนักถึงคอนเซปต์ Right-sizing หรือการเลือกขนาดโมเดลให้เหมาะกับงาน การใช้โมเดลขนาดเล็ก หรือ Small Language Models – SLM ที่ได้รับการปรับแต่งมาโดยเฉพาะ นอกจากจะช่วยประหยัดค่า GPU และพลังงานได้อย่างมหาศาลแล้ว มันยังทำงานได้เร็วกว่า และคล่องตัวกว่ามากแนวทางของ Tech Vendor ยุคใหม่จึงเปลี่ยนไปสู่การใช้ SLM (Small Language Models) โมเดลขนาดเล็กที่ถูกเทรนมาเฉพาะทาง เช่น เทรนด้วยข้อมูลด้าน IT Management ล้วนๆ ข้อดีคือประหยัดต้นทุน ลดภาระค่า GPU และพลังงานไฟฟ้าได้อย่างมหาศาลรวดเร็ว ตอบสนองได้เร็วกว่าโมเดลยักษ์ เหมาะกับงานที่ต้องแข่งกับเวลาอย่าง Cybersecurityแม่นยำในบริบท ตัดความรู้ที่ไม่จำเป็นออก (เช่น วิธีทำอาหาร หรือแต่งนิยาย) เหลือไว้แต่สิ่งที่ธุรกิจต้องใช้ในยุคแรกของการทำ Private AI หลายบริษัทเลือกวิธีดึงโมเดล Open Source (อย่าง Llama ,Gemini หรือ Mistral) มาติดตั้งเอง แล้วเชื่อมต่อกับคลังเอกสารบริษัท โดยใช้เทคนิค RAG (Retrieval-Augmented Generation) คือเทคนิคที่ทำให้ AI ฉลาดขึ้น แม่นยำขึ้น และรู้ข้อมูลเฉพาะทางมากขึ้น โดยไม่ต้องเสียเวลาเทรนโมเดลใหม่ เพื่อความปลอดภัยของข้อมูลทฤษฎีนั้นดูดี แต่ในทางปฏิบัติเรามักพบปัญหาคลาสสิกคือ AI ตอบได้ตามตำรา แต่ทำงานจริงไม่เป็น ลองเปรียบเทียบให้เห็นภาพคือGeneric Private AI ที่เราสร้างเอง เปรียบเสมือนการจ้างบรรณารักษ์เกียรตินิยม มานั่งเฝ้าห้อง Server เขาอ่านคู่มือทุกเล่มจบแล้ว ตอบทฤษฎีได้แม่นเป๊ะ แต่ถ้าถามว่าเครื่องไหนกำลังร้อน?” หรือช่วยแก้เคสนี้ให้เหมือนที่พี่สมชายเคยทำ…บรรณารักษ์จะไปไม่เป็น เพราะข้อมูลพวกนี้ไม่อยู่ในไฟล์ PDF แต่อยู่ในสถานะของระบบ (System State) ณ เวลานั้นVertical / App-Native AI หรือ AI ยุคใหม่ที่เชี่ยวชาญเฉพาะเรื่อง เปรียบเสมือนช่างซ่อมบำรุงที่อยู่มา 10 ปี AI ประเภทนี้จะถูกฝังมาในซอฟต์แวร์ตั้งแต่ต้น มันจึงเข้าถึง Database และ Log การทำงานได้โดยตรง มันรู้บริบทว่า User คนนี้ชอบแจ้งซ่อมเรื่องอะไร หรือ Error Code นี้เพิ่งเกิดขึ้นเมื่อกี้ความแตกต่างนี้เองที่ทำให้ผู้ให้บริการซอฟต์แวร์ Enterprise หลายราย รวมถึง ManageEngine และ Zoho ที่ผลักดันเรื่องนี้อย่างหนัก หันมาพัฒนาโมเดลขนาดเล็กที่เจาะจงเฉพาะด้าน แทนการแข่งกันสร้างโมเดลครอบจักรวาลโจทย์หินที่ AI สร้างเองมักตกม้าตายนั่นคือ Permission & Transparencyอีกหนึ่งประเด็นที่ทำให้การสร้าง Private AI ใช้เองเป็นเรื่องปวดหัว คือการจัดการสิทธิ์สมมติเราทำระบบ Search ให้พนักงานถามข้อมูลได้ โจทย์คือ ทำอย่างไรให้ นาย ก. ถามเงินเดือนตัวเองได้ แต่ห้ามรู้เงินเดือนเพื่อน?” การเขียน Logic นี้ในระบบ RAG ที่สร้างเองนั้นซับซ้อนและเสี่ยงหลุดมากแต่สำหรับ AI ที่ฝังมากับระบบที่ ManageEngine พัฒนาขึ้น มันจะสืบทอดสิทธิ์ มาจากตัวแอปพลิเคชันโดยตรง ถ้า User ไม่มีสิทธิ์ดูหน้านั้น AI ก็จะไม่ตอบ ถือเป็น Privacy by Design ที่ช่วยลดความเสี่ยงข้อมูลรั่วไหลภายในนอกจากนี้ ในโลกธุรกิจเราต้องการ Explainable AI (XAI) ถ้า AI บอกว่าระบบกำลังจะล่ม มันต้องอธิบายได้ว่า เช่น “เพราะ Disk I/O สูงผิดปกติ 30%” ไม่ใช่แค่โยนผลลัพธ์มาแบบกล่องดำ มาโดยไม่มีรายละเอียด เพราะความโปร่งใสตรงนี้คือสิ่งที่ทำให้ฝ่ายบริหารกล้าตัดสินใจเชื่อ AIเบื้องหลังความลับของ Full-Stack และความยั่งยืนทำไมต้อง In-house?ปรัชญาของ Zoho คือ Full-Stack In-house สร้างเองตั้งแต่ Data Center และลงทุนและออกแบบสถาปัตยกรรมฮาร์ดแวร์ในระดับที่ลึกกว่าบริษัท Software ทั่วไปมาก ข้อดีคือการควบคุมต้นทุนได้เบ็ดเสร็จ ทำให้สามารถเปิดฟีเจอร์ AI ให้ลูกค้า Enterprise ใช้ได้โดยไม่คิดเงินเพิ่ม ตัดปัญหาเรื่องงบประมาณบานปลายที่มักเกิดกับการสร้าง AI เองที่สำคัญคือเรื่อง ความยั่งยืนสมองมนุษย์ใช้พลังงานแค่ 20 วัตต์ แต่ GPU ฟาร์มหนึ่งใช้พลังงานเท่าโรงงานอุตสาหกรรม การใช้โมเดล SLM ที่พอดีตัว จึงเป็นทางออกที่ยั่งยืนกว่า เป็นมิตรต่อโลกมากกว่าการรันโมเดลยักษ์พร่ำเพรื่อบทสรุป อนาคตไม่ใช่เรื่องของ Hype แต่คือ Tribal Knowledgeบทเรียนสำคัญสำหรับองค์กรในวันนี้ คือการมองข้ามกระแส Hype เรื่องโมเดลที่ใหญ่ที่สุด แล้วหันมามองความจริงที่ว่าข้อมูลคือหัวใจอุปสรรคที่แท้จริงของการนำ AI มาใช้ ไม่ใช่เรื่องเทคโนโลยี แต่คือ Tribal Knowledge หรือความรู้ที่ฝังอยู่ในหัวคนทำงานแต่ไม่อยู่ในระบบ ตราบใดที่เรายังไม่สามารถดึงความรู้เหล่านี้ออกมาเป็น Digital Data ได้ ไม่ว่าจะใช้โมเดลระดับเทพแค่ไหน ก็ไม่อาจทำงานแทนคนได้สมบูรณ์เทรนด์ในอนาคตจึงไม่ใช่การแข่งกันสร้าง AI ให้เหมือนมนุษย์ที่สุด แต่เป็นการเลือกใช้ AI ที่เข้าใจบริบทของงานและคุ้มค่าการลงทุน ที่สุด… เพราะในโลกธุรกิจ ผลกำไรไม่ได้มาจากความตื่นเต้น แต่มาจากประสิทธิภาพที่จับต้องได้จริงที่มางานแถลงข่าว Manage Engine⭐️Techhub รวม How To , Tips เทคนิค อัปเดตทุกวันกดดูแบบเต็มๆ ที่ www.techhub.in.th


Posted

in

by

Tags: