SSI สตาร์ตอัป AI จากอดีตผู้ร่วมก่อตั้ง OpenAI ระดมทุนได้ 1 พันล้านดอลล์

ข่าวเทคโนโลยี Thursday September 5, 2024 11:19 —สำนักข่าวอินโฟเควสท์ (IQ)

สำนักข่าวรอยเตอร์รายงานเมื่อวานนี้ (4 ก.ย.) ว่า เซฟ ซูเปอร์อินเทลลิเจนซ์ (Safe Superintelligence) หรือ SSI สตาร์ตอัป AI ใหม่ที่ก่อตั้งโดยอิลยา ซัตสเคเวอร์ อดีตหัวหน้านักวิทยาศาสตร์แห่งโอเพนเอไอ (OpenAI) ประกาศระดมทุนได้ 1 พันล้านดอลลาร์ เพื่อพัฒนาระบบ AI ที่ปลอดภัยและเก่งกว่ามนุษย์

SSI ซึ่งมีพนักงานเพียง 10 คน วางแผนใช้เงินทุนดังกล่าวจัดหาทรัพยากรด้านการประมวลผลและดึงดูดบุคลากรระดับหัวกะทิเข้าร่วมทีม โดยเน้นการสร้างทีมนักวิจัยและวิศวกรขนาดเล็กแต่คุณภาพสูง โดยจะประจำการทั้งที่พาโลอัลโต รัฐแคลิฟอร์เนีย และกรุงเทลอาวีฟ ประเทศอิสราเอล

แม้ SSI ไม่เปิดเผยเรื่องมูลค่าบริษัท แต่แหล่งข่าววงในระบุว่า SSI ถูกประเมินมูลค่าไว้สูงถึง 5 พันล้านดอลลาร์ การระดมทุนครั้งนี้ตอกย้ำว่า นักลงทุนบางรายยังคงพร้อมทุ่มเงินมหาศาลให้กับทีมงานหัวกะทิที่มุ่งมั่นวิจัย AI ขั้นพื้นฐาน แม้กระแสการลงทุนในบริษัทลักษณะนี้จะซาลง เพราะอาจต้องใช้เวลานานกว่าจะทำกำไร จนทำให้หลายรายตัดสินใจออกจากสตาร์ตอัปที่ตัวเองก่อตั้ง เพื่อหันไปทำงานให้บริษัทเทคโนโลยียักษ์ใหญ่แทน

นักลงทุนที่ร่วมลงทุนกับ SSI ครั้งนี้นำโดยบริษัทร่วมทุนระดับแนวหน้า อาทิ แอนดรีสเซน โฮโรวิตซ์ (Andreessen Horowitz), ซีคัวญ่า แคปปิตอล (Sequoia Capital), ดีเอสที โกลบอล (DST Global) และเอสวี แองเจิล (SV Angel) รวมถึงเอ็นเอฟดีจี (NFDG) บริษัทลงทุนที่บริหารโดยแนต ฟรีดแมน นอกจากนี้ แดเนียล กรอส ซีอีโอของ SSI ก็ร่วมลงทุนด้วย

แดเนียล กรอส ให้สัมภาษณ์ว่า "สิ่งสำคัญคือเราต้องอยู่ท่ามกลางนักลงทุนที่เข้าใจ เคารพ และสนับสนุนภารกิจเรา นั่นคือการมุ่งสู่เป้าหมายการสร้างปัญญาประดิษฐ์เหนือมนุษย์ที่ปลอดภัย โดยเฉพาะการทุ่มเวลา 2-3 ปีให้กับการวิจัยและพัฒนาผลิตภัณฑ์ ก่อนเปิดตัวสู่ตลาด"

ทั้งนี้ ความปลอดภัยของ AI ซึ่งหมายถึงการป้องกันไม่ให้ AI ก่ออันตราย กำลังเป็นประเด็นร้อน ท่ามกลางความกังวลว่า AI ที่ไร้การควบคุมอาจกลายเป็นภัยคุกคามต่อมนุษยชาติ หรืออาจถึงขั้นทำให้มนุษย์สูญพันธุ์

ร่างกฎหมายของรัฐแคลิฟอร์เนียที่มุ่งกำหนดมาตรการความปลอดภัยสำหรับบริษัท AI กำลังสร้างความแตกแยกในอุตสาหกรรม โดยบริษัทอย่างโอเพนเอไอและกูเกิล (Google) คัดค้านร่างกฎหมายนี้ ขณะที่แอนโทรปิก (Anthropic) และเอ็กซ์เอไอ (xAI) ของอีลอน มัสก์ สนับสนุน

ซัตสเคเวอร์ วัย 37 ปี ถือเป็นหนึ่งในบุคคลทรงอิทธิพลที่สุดในวงการ AI โดยเขาร่วมก่อตั้ง SSI กับกรอส อดีตผู้นำทีม AI ของแอปเปิ้ล (Apple) และแดเนียล เลวี อดีตนักวิจัยของโอเพนเอไอ ในเดือนมิ.ย.ที่ผ่านมา

ซัตสเคเวอร์ดำรงตำแหน่งหัวหน้านักวิทยาศาสตร์ เลวีรับบทนักวิทยาศาสตร์หลัก ขณะที่กรอสรับผิดชอบดูแลเรื่องพลังการประมวลผลและการระดมทุน

ซัตสเคเวอร์กล่าวว่า การริเริ่มธุรกิจใหม่ครั้งนี้เป็นเรื่องที่สมเหตุสมผล เพราะ "ผมมองเห็นภูเขาที่แตกต่างจากที่ผมเคยปีนมา"

เมื่อปีที่แล้ว ซัตสเคเวอร์ดำรงตำแหน่งกรรมการบริษัทแม่ของโอเพนเอไอ ซึ่งเป็นองค์กรไม่แสวงหาผลกำไร และคณะกรรมการชุดนี้มีมติปลดแซม อัลท์แมน ซีอีโอของโอเพนเอไอ ออกจากตำแหน่ง โดยให้เหตุผลว่า "การสื่อสารภายในองค์กรล้มเหลว"

แต่เพียงไม่กี่วันต่อมา ซัตสเคเวอร์กลับลำและตัดสินใจเข้าร่วมกับพนักงานโอเพนเอไอเกือบทั้งหมด ลงชื่อในจดหมายเรียกร้องให้อัลท์แมนกลับมาดำรงตำแหน่ง และให้คณะกรรมการลาออก แต่เหตุการณ์พลิกผันครั้งนี้กลับบั่นทอนบทบาทของซัตสเคเวอร์ในโอเพนเอไอ เขาถูกปลดออกจากคณะกรรมการ และในที่สุดก็ลาออกจากบริษัทในเดือนพ.ค.

หลังจากซัตสเคเวอร์ลาออก โอเพนเอไอก็ยุบทีม "Superalignment" ของเขา ซึ่งมีหน้าที่ดูแลให้ AI มีความสอดคล้องกับค่านิยมของมนุษย์ เพื่อเตรียมพร้อมรับมือวันที่ AI จะฉลาดเหนือมนุษย์

SSI มีโครงสร้างแบบบริษัททั่วไปที่มุ่งเน้นการแสวงหาผลกำไร ต่างจากโอเพนเอไอที่มีโครงสร้างองค์กรแปลกใหม่ ซึ่งแม้จะถูกออกแบบมาเพื่อความปลอดภัยของ AI แต่กลับกลายเป็นช่องโหว่ที่ทำให้อัลท์แมนถูกปลดออกจากตำแหน่ง

ปัจจุบัน SSI ให้ความสำคัญอย่างยิ่งกับการสรรหาบุคลากรที่เหมาะสมกับวัฒนธรรมองค์กร โดยใช้เวลาหลายชั่วโมงในการตรวจสอบว่าผู้สมัครมี "คุณสมบัติที่ดี" หรือไม่ และมองหาคนที่มีความสามารถโดดเด่น มากกว่าจะยึดติดกับวุฒิการศึกษาและประสบการณ์ในสายงาน

"สิ่งหนึ่งที่ทำให้เราตื่นเต้นคือการได้พบกับคนที่สนใจในงานจริง ๆ ไม่ใช่สนใจแต่กระแสหรือแสงสีเสียง" กรอสกล่าวเสริม

SSI ระบุว่ามีแผนจะร่วมมือกับผู้ให้บริการคลาวด์และบริษัทผลิตชิป เพื่อสนับสนุนความต้องการด้านการประมวลผลของบริษัท แต่ยังไม่ได้ตัดสินใจว่าจะร่วมงานกับเจ้าใด โดยทั่วไปแล้ว สตาร์ตอัป AI มักร่วมมือกับบริษัทอย่างไมโครซอฟท์ (Microsoft) และอินวิเดีย (Nvidia) เพื่อให้ตอบโจทย์เรื่องโครงสร้างพื้นฐาน

ทั้งนี้ ซัตสเคเวอร์เป็นผู้สนับสนุนแนวคิด "scaling hypothesis" มาตั้งแต่ช่วงแรก ๆ ซึ่งเป็นสมมติฐานที่ว่าประสิทธิภาพของโมเดล AI จะดีขึ้นหากได้รับพลังการประมวลผลจำนวนมหาศาล แนวคิดนี้และการนำไปปฏิบัติจริงได้จุดประกายการลงทุนในเทคโนโลยี AI อย่างมหาศาล ทั้งในส่วนของชิป ศูนย์ข้อมูล และพลังงาน ซึ่งเป็นการวางรากฐานสำคัญให้กับความก้าวหน้าของเจเนอเรทีฟเอไอ (Generative AI) เช่น แชตจีพีที (ChatGPT)

ซัตสเคเวอร์กล่าวว่า เขาจะใช้แนวทางสเกลลิงที่แตกต่างไปจากโอเพนเอไอ แต่ไม่ได้เปิดเผยรายละเอียด

"ใคร ๆ ก็พูดกันแต่เรื่อง scaling hypothesis แต่ไม่มีใครตั้งคำถามเลยว่า เราจะสเกลอะไรกันแน่" ซัตสเคเวอร์กล่าว

"บางคนทุ่มเททำงานหามรุ่งหามค่ำเพื่อจะไปให้ถึงจุดหมายเดิม ๆ เร็วขึ้น แต่นั่นไม่ใช่แนวทางของเรา ถ้าเราเลือกทำอะไรที่แตกต่าง เราก็มีโอกาสที่จะสร้างสรรค์สิ่งที่พิเศษได้"

เว็บไซต์นี้มีการใช้งานคุกกี้ ศึกษารายละเอียดเพิ่มเติมได้ที่ นโยบายความเป็นส่วนตัว และ ข้อตกลงการใช้บริการ รับทราบ