บรรดาบริษัทด้านปัญญาประดิษฐ์ (AI) เช่น โอเพนเอไอ (OpenAI) กำลังพยายามแก้ไขปัญหาและความล่าช้าที่ไม่คาดคิดในการพัฒนาโมเดลภาษาขนาดใหญ่ที่ใหญ่ขึ้นเรื่อย ๆ โดยการพัฒนาเทคนิคการฝึกใหม่ ๆ ที่ช่วยให้อัลกอริทึมในการ "คิด" ใกล้เคียงกับวิธีการคิดของมนุษย์
นักวิทยาศาสตร์ นักวิจัย และนักลงทุนด้าน AI กว่าสิบรายเปิดเผยกับสำนักข่าวรอยเตอร์ว่า พวกเขาเชื่อว่าเทคนิคเหล่านี้ ซึ่งอยู่เบื้องหลังของโมเดล o1 ที่โอเพนเอไอเพิ่งเปิดตัว อาจพลิกโฉมการแข่งขันในวงการ AI และส่งผลต่อทรัพยากรที่บริษัท AI ต้องการในปริมาณมหาศาล ตั้งแต่พลังงานไปจนถึงประเภทของชิป
หลังจากการเปิดตัวแชตจีพีที (ChatGPT) แชตบอตที่กลายเป็นไวรัลเมื่อ 2 ปีก่อน โอเพนเอไอได้ยืนยันต่อสาธารณชนว่า การ "ขยายขนาด" โมเดลปัจจุบันด้วยการเพิ่มข้อมูลและพลังการประมวลผลจะช่วยให้เกิดการพัฒนาโมเดล AI ที่มีประสิทธิภาพมากขึ้นอย่างต่อเนื่อง
แต่ตอนนี้ นักวิทยาศาสตร์ AI ที่มีชื่อเสียงหลายคนเริ่มออกมาแสดงความคิดเห็นเกี่ยวกับข้อจำกัดของแนวคิด "ยิ่งใหญ่ยิ่งดี"
อิลยา ซุตสเคเวอร์ ผู้ร่วมก่อตั้งเซฟ ซูเปอร์อินเทลลิเจนซ์ (Safe Superintelligence หรือ SSI) และโอเพนเอไอกล่าวว่า ผลลัพธ์จากการขยายขนาดการฝึกล่วงหน้า (pre-training) ซึ่งเป็นขั้นตอนการฝึกโมเดล AI โดยใช้ข้อมูลที่ไม่มีการติดป้ายกำกับจำนวนมากเพื่อทำความเข้าใจรูปแบบของภาษานั้น ได้เริ่มหยุดนิ่งแล้ว
"ช่วงทศวรรษ 2010 เป็นยุคของการขยายขนาด แต่ตอนนี้เรากลับมาสู่ยุคแห่งการค้นพบและความตื่นเต้นอีกครั้ง ทุกคนกำลังมองหาสิ่งใหม่" ซุตสเคเวอร์กล่าว "การหาวิธีหรือแนวทางที่ถูกต้องมากกว่าเดิมนั้นสำคัญกว่าที่เคยเป็นมา"