หน่วยงานกำกับดูแลด้านเงินของสหราชอาณาจักร (FCA) เตือนว่า การนำเทคโนโลยีปัญญาประดิษฐ์ (AI) มาใช้กับการบริการด้านการเงินนั้น จะต้องดำเนินการควบคู่ไปกับมาตรการป้องกันความเสี่ยงด้านการฉ้อโกงที่มีประสิทธิภาพมากยิ่งขึ้น รวมทั้งการรับมือกับการแฮกข้อมูลและกรณีระบบล่ม
นายนิคฮิล ราธี ผู้บริหารของ FCA แถลงกับสื่อมวลชนในวันพุธ (12 ก.ค.) ว่า เขามองว่ารูปแบบของธุรกิจที่ใช้ AI นั้น จำเป็นต้องได้รับอนุญาต โดยการใช้ AI อาจเป็นประโยชน์กับตลาด เช่นสามารถลดต้นทุนสำหรับผู้บริโภค แต่ AI ก็เป็นสาเหตุที่ทำให้เกิดความไม่สมดุล หากมีการปล่อยให้ใช้งานอย่างไร้การควบคุม
"ทั้งหมดนี้หมายความว่า ในขณะที่ AI ยังคงถูกนำมาใช้งานนั้น เราจำเป็นต้องเร่งลงทุนด้านการป้องกันการฉ้อโกงและใช้ปฏิบัติการตรวจตราทางไซเบอร์ควบคู่กันไปด้วย เราจะดำเนินการเชิงรุกในเรื่องนี้ โดยจะสนับสนุนนวัตกรรมที่เป็นประโยชน์ และใช้มาตรการป้องกันอย่างเหมาะสม นอกจากนี้ เราจะติดตามสถานการณ์อย่างใกล้ชิด เพื่อดูว่าบริษัทต่าง ๆ มีแนวทางควบคุมความเสี่ยงทางไซเบอร์และการฉ้อโกงอย่างไร หากปัญหาดังกล่าวเกิดขึ้น" นายราธีกล่าว
ความเคลื่อนไหวดังกล่าวของอังกฤษเกิดขึ้นในขณะที่รัฐบาลทั่วโลกกำลังจับตาพัฒนาการของ AI อย่างใกล้ชิด ไม่เว้นแม้แต่ อัลฟาเบทซึ่งเป็นบริษัทแม่ของกูเกิล ได้ออกคำเตือนให้พนักงานของบริษัทระมัดระวังการใช้งานแชตบอต ซึ่งรวมถึง บาร์ด (Bard) ซึ่งเป็นแชตบอต AI ที่อัลฟาเบทสร้างขึ้น โดยบริษัทแนะนำพนักงานไม่ให้ป้อนข้อมูลที่เป็นความลับของบริษัทเข้าสู่แชตบอต AI เพื่อให้เป็นไปตามนโยบายการปกป้องข้อมูลที่บริษัทดำเนินการมาเป็นเวลานาน