สหรัฐ อังกฤษ และประเทศอื่น ๆ อีกกว่า 12 ประเทศ ได้ร่วมลงนามในข้อตกลงว่าด้วยการกำหนดแนวทางเพื่อป้องกันไม่ให้มีการนำปัญญาประดิษฐ์ (AI) ไปใช้ในทางที่ผิด เพื่อผลักดันให้บริษัทต่าง ๆ สร้างสรรค์ระบบ AI ที่ปลอดภัยตั้งแต่การออกแบบ
ข้อมูลจากเอกสารความยาว 20 หน้าที่เปิดเผยออกมาเมื่อวานนี้ (26 พ.ย.) ระบุว่า มี 18 ประเทศที่เห็นพ้องต้องกันว่า การออกแบบและใช้งาน AI ของบริษัทต่าง ๆ จำเป็นต้องพัฒนาและใช้งานในรูปแบบที่ช่วยให้ลูกค้าและสาธารณชนปลอดภัยจากการใช้งานผิดวัตถุประสงค์
ทั้งนี้ ข้อตกลงดังกล่าวเป็นแบบไม่ผูกมัดและให้คำชี้แนะทั่วไปเป็นส่วนใหญ่ เช่น การตรวจสอบการใช้งาน AI เพื่อตรวจหาการกระทำผิด การปกป้องข้อมูลจากการปลอมแปลง และการตรวจสอบซัพพลายเออร์ซอฟต์แวร์
นางเจน อีสเตอร์ลี ผู้อำนวยการหน่วยงานรักษาความปลอดภัยทางไซเบอร์และโครงสร้างพื้นฐานของสหรัฐระบุว่า ความปลอดภัยเป็นเรื่องสำคัญ ดังนั้นหลายประเทศจึงร่วมกันลงนามในข้อตกลงที่ระบุถึงแนวคิดที่ว่า ระบบ AI จำเป็นต้องคำนึงถึงความปลอดภัยเป็นอันดับแรก
นางอีสเตอร์ลีกล่าวกับสำนักข่าวรอยเตอร์ว่า "นับเป็นครั้งแรกที่เราได้เห็นหลายประเทศมีมุมมองร่วมกันว่า ศักยภาพเหล่านี้ไม่ควรเป็นเพียงลูกเล่นที่น่าสนใจและจะทำอย่างไรให้สามารถนำมันออกสู่ตลาดได้อย่างรวดเร็ว หรือ เราจะแข่งขันเพื่อลดต้นทุนได้อย่างไร" โดยระบุว่า แนวปฏิบัติดังกล่าวนี้รวมอยู่ในข้อตกลงที่ระบุว่า สิ่งสำคัญที่สุดที่ต้องคำนึงถึงในขั้นตอนการออกแบบคือความปลอดภัย
ข้อตกลงดังกล่าวถือเป็นโครงการริเริ่มล่าสุดจากบรรดาโครงการริเริ่มต่าง ๆ โดยรัฐบาลทั่วโลก เพื่อกำหนดทิศทางการพัฒนา AI ซึ่งมีบทบาทมากขึ้นในอุตสาหกรรมและสังคมโดยรวม
นอกจากสหรัฐและอังกฤษแล้ว ประเทศอื่น ๆ อีก 18 ประเทศที่ลงนามในแนวทางใหม่นี้ ได้แก่ เยอรมนี อิตาลี สาธารณรัฐเช็ก เอสโตเนีย โปแลนด์ ออสเตรเลีย ชิลี อิสราเอล ไนจีเรีย และสิงคโปร์