ผู้เชี่ยวชาญของแคสเปอร์สกี้ (Kaspersky) เปิดเผยการวิเคราะห์ผลที่ตามมาของ AI (Artificial Intelligence) ที่เป็นไปได้ โดยเฉพาะอย่างยิ่งอันตรายทางจิตวิทยาที่อาจเกิดขึ้นได้จากเทคโนโลยี AI นี้
นายวิทาลี คัมลัก หัวหน้าศูนย์วิจัยประจำเอเชียแปซิฟิก ทีมวิจัยและวิเคราะห์ระดับโลกของแคสเปอร์สกี้ (Global Research and Analysis Team - GReAT) เปิดเผยว่า เนื่องจากอาชญากรไซเบอร์ใช้ AI เพื่อกระทำการที่เป็นอันตราย โดยสามารถโยนความผิดให้กับเทคโนโลยี และรู้สึกไม่ต้องรับผิดชอบต่อผลกระทบของการโจมตีทางไซเบอร์ของตน ซึ่งสิ่งนี้นำไปสู่ "การไม่รู้สึกผิดชอบชั่วดีจากการเว้นระยะห่างจากเหยื่อ" (suffering distancing syndrome)
"นอกเหนือจากภัยคุกคามทางเทคนิคของ AI แล้ว ยังมีอันตรายทางจิตวิทยาที่อาจเกิดขึ้นได้ อาชญากรไซเบอร์มักมีอาการที่ต้องทนทุกข์ทรมานจากการเว้นระยะห่างจากเพื่อนร่วมงาน การทำร้ายคนบนท้องถนนทำให้อาชญากรเกิดความเครียดอย่างมากเพราะตนได้จะเห็นความทุกข์ทรมานของเหยื่อ แต่อาการนี้ใช้ไม่ได้กับอาชญากรรมออนไลน์ต่อเหยื่อที่ตนไม่เคยเห็นมาก่อน การสร้าง AI ที่สามารถทำเงินหรือผลกำไรที่ผิดกฎหมายทำให้อาชญากรออกห่างจากความรู้สึกผิดออกไปอีก เพราะคิดว่าไม่ใช่ฝีมือของตน แต่เป็น AI ที่ต้องรับผิด" นายวิทาลีอธิบาย
ผลกระทบทางจิตวิทยาอีกประการหนึ่งของ AI ที่อาจส่งผลกระทบต่อทีมรักษาความปลอดภัยด้านไอทีก็คือเรื่อง "ความรับผิดชอบต่องานที่ได้รับมอบหมาย" (responsibility delegation) เนื่องจากกระบวนการและเครื่องมือด้านความปลอดภัยทางไซเบอร์ทำงานอัตโนมัติ และจ่ายงานให้กับโครงข่าย AI มากขึ้น มนุษย์จึงอาจรู้สึกรับผิดชอบน้อยลงหากเกิดการโจมตีทางไซเบอร์ โดยเฉพาะอย่างยิ่งในการตั้งค่าความปลอดภัยต่างๆ ของบริษัท
"ผลกระทบที่คล้ายกันนี้อาจกับผู้ดูแลรักษาความปลอดภัย โดยเฉพาะอย่างยิ่งในภาคธุรกิจที่เต็มไปด้วยความรับผิดชอบด้านความปลอดภัย และการปฏิบัติตามกฎระเบียบที่เป็นทางการ ระบบการป้องกันที่ชาญฉลาดอาจกลายเป็นแพะรับบาป นอกจากนี้ การมีระบบขับเคลื่อนอัตโนมัติที่เป็นอิสระอย่างสมบูรณ์จะช่วยลดความสนใจของมนุษย์ที่ทำหน้าที่ดูแล" นายวิทาลีกล่าวเสริม
นายวิทาลีได้แบ่งปันแนวทางปฏิบัติบางประการเพื่อการใช้คุณประโยชน์ของ AI อย่างปลอดภัย
เช่นเดียวกับ WWW ควรมีขั้นตอนในการจัดการกับการละเมิดและการใช้ AI ในทางที่ผิด รวมถึงข้อมูลที่ชัดเจนเพื่อรายงานการละเมิด ซึ่งสามารถตรวจสอบได้ด้วยข้อมูลสนับสนุน AI บรรทัดแรก และหากจำเป็นในบางกรณี ก็จะต้องให้มนุษย์เป็นผู้ตรวจสอบ
สำหรับนักพัฒนา AI อาจสมเหตุสมผลที่จะมีไลเซนซ์อนุญาตใช้งาน AI ดังกล่าว เนื่องจากระบบอาจเป็นอันตรายได้ เป็นเทคโนโลยีที่ใช้ได้สองทาง เช่นเดียวกับอุปกรณ์ทางการทหารหรืออุปกรณ์ที่ใช้ได้ทั้งทางดีและทางร้ายอื่นๆ การพัฒนาจะต้องได้รับการควบคุม รวมถึงข้อจำกัดในการนำไฟล์ออกตามที่จำเป็น
โรงเรียนควรสอนแนวคิดว่า AI แตกต่างจากความฉลาดตามธรรมชาติอย่างไร และ AI จะเชื่อถือได้หรือสร้างความเสียหายได้เพียงใด
นอกจากนี้ ผู้เขียนโค้ดซอฟต์แวร์ต้องได้รับการสอนให้ใช้เทคโนโลยีอย่างมีความรับผิดชอบ และทราบถึงบทลงโทษสำหรับการละเมิดเทคโนโลยี
"บางคนคาดการณ์ว่า AI จะเป็นศูนย์กลางแห่งวันสิ้นโลก ซึ่งจะทำลายอารยธรรมของมนุษย์ ผู้บริหารระดับ C หลายคนของบริษัทขนาดใหญ่ถึงกับแสดงตัวและเรียกร้องให้มีการชะลอ AI เพื่อป้องกันภัยพิบัตินี้ ในความเป็นจริงการเพิ่มขึ้นของ Generative AI ทำให้เราได้เห็นความก้าวหน้าของเทคโนโลยีที่สามารถสังเคราะห์เนื้อหาที่คล้ายคลึงกับสิ่งที่มนุษย์ทำได้ ตั้งแต่รูปภาพไปจนถึงเสียง วิดีโอ ดีพเฟค และแม้แต่การสนทนาแบบข้อความที่แยกไม่ออกจากว่ามนุษย์หรือ AI ทั้งนี้ความก้าวหน้าทางเทคโนโลยีส่วนใหญ่ก็เป็นดาบสองคมรวมถึง AI ด้วย เราสามารถใช้งานเพื่อประโยชน์ของเราได้ตลอดเวลา ตราบใดที่เรารู้วิธีกำหนดคำสั่งที่ปลอดภัยสำหรับเครื่องจักรอัจฉริยะเหล่านี้" นายวิทาลีกล่าวสรุป
แคสเปอร์สกี้จะสานต่อการอภิปรายเกี่ยวกับอนาคตของความปลอดภัยทางไซเบอร์ที่งาน "Kaspersky Security Analyst Summit (SAS) 2023" ซึ่งจะจัดขึ้นที่จังหวัดภูเก็ต ประเทศไทย ตั้งแต่วันที่ 25 ถึง 28 ตุลาคม 2566 สำหรับนักวิจัยที่มีความสามารถสูงด้านการป้องกันมัลแวร์ หน่วยงานบังคับใช้กฎหมายระดับโลก ทีมตอบสนองเหตุฉุกเฉินทางคอมพิวเตอร์ และผู้บริหารระดับสูงจากบริษัทบริการด้านการเงิน เทคโนโลยี การดูแลสุขภาพ สถาบันการศึกษา และหน่วยงานภาครัฐจากทั่วโลก ผู้สนใจสามารถทราบข้อมูลเพิ่มเติมได้ที่เว็บไซต์
https://thesascon.com/#participation-opportunities