คณะรัฐมนตรีรับทราบแนวปฏิบัติจริยธรรมปัญญาประดิษฐ์[1 ] (Thailand Artificial Intelligence Ethics Guideline) และเห็นชอบให้หน่วยงานราชการใช้เป็นแนวทางปฏิบัติในการพัฒนา ส่งเสริม และนำไปใช้ในทางที่ถูกต้องและมีจริยธรรมต่อผู้มีส่วนได้ส่วนเสียเพื่อให้เกิดประโยชน์ต่อสังคมต่อไป ตามที่กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (ดศ.) เสนอ และให้ ดศ. รับความเห็นของ กระทรวงอุตสาหกรรม (อก.) สำนักงานคณะกรรมการข้าราชการพลเรือน (สำนักงาน ก.พ.) สำนักงานสภาพัฒนาการเศรษฐกิจและสังคมแห่งชาติ (สศช.) และสำนักเลขาธิการคณะรัฐมนตรี ไปประกอบการพิจารณาดำเนินการต่อไป
[1 ]ปัญญาประดิษฐ์ (Artificial Intelligence : AI) คือเทคโนโลยีเป็นความรู้ ความฉลาดที่สร้างขึ้นจากสิ่งไม่มีชีวิต รวบรวมและจัดใส่ข้อมูลซอฟต์แวร์หลากหลายระบบและพัฒนาให้สามารถคิดและทำงานในด้านต่าง ๆ คล้ายกับมนุษย์ ทั้งในด้านการตัดสินใจ การแก้ปัญหาและการเรียนรู้ อาทิ ระบบนำทางรถยนต์ไร้คนขับ ผู้ช่วยอัจฉริยะในสมาร์ทโฟน หุ่นยนต์คล้ายมนุษย์ช่วยงาน เป็นต้น
สาระสำคัญของเรื่อง
1. คณะกรรมการดิจิทัลเพื่อเศรษฐกิจและสังคม ในคราวประชุม ครั้งที่ 4/2563 เมื่อวันที่ 19 ตุลาคม 2563 มีมติเห็นชอบแนวปฏิบัติจริยธรรมปัญญาประดิษฐ์ (Thailand AI Ethics Guideline) และควรเห็นเสนอคณะรัฐมนตรีเพื่อรับทราบและใช้เป็นแนวทางในการปฏิบัติต่อไป
2. แนวปฏิบัติจริยธรรมปัญญาประดิษฐ์ (Thailand AI Ethics Guideline) แบ่งออกเป็น 3 บท ดังนี้
2.1 บทที่ 1 หลักการและเหตุผลการปฏิบัติตามจริยธรรม ซึ่งวางอยู่บนพื้นฐานขององค์ประกอบ 6 ด้าน ได้แก่
องค์ประกอบ
ด้านที่ 1 ความสามารถในการแข่งขันและการพัฒนาอย่างยั่งยืน (Competitiveness and Sustainability Development)
รายละเอียดโดยสังเขป
AI สามารถถูกสร้าง พัฒนา และใช้งานเพื่อสร้างประโยชน์ให้กับมนุษย์ในหลายด้าน แต่ก็อาจเป็นภัยคุกคามได้เช่นกัน ดังนั้น การใช้งาน AI ควรเป็นไปเพื่อสร้างประโยชน์และส่งเสริมการแข่งขันที่สร้างสรรค์และเป็นธรรม และควรเป็นหลักการที่ผู้ที่เกี่ยวข้องในทุกภาคส่วนต้องคำนึงเสมอ
ด้านที่ 2 ความสอดคล้องกับกฎหมาย จริยธรรม และมาตรฐานสากล (Laws Ethics and International Standards)
รายละเอียดโดยสังเขป
ผลลัพธ์จากการตัดสินใจ AI อาจมีความสุ่มเสี่ยงที่จะขัดต่อกฎหมายและจริยธรรมที่สังคมหนึ่ง ๆ ถือปฏิบัติ ดังนั้น AI จึงควรถูกพัฒนาและใช้งานให้สอดคล้องกับกฎหมาย จริยธรรม และมาตรฐานสากล โดยต้องเคารพความเป็นส่วนตัว สิทธิเสรีภาพ และสิทธิมนุษยชน และควรใช้หลักการมนุษย์เป็นศูนย์กลางในการตัดสินใจ
ด้านที่ 3 ความโปร่งใส และภาระความรับผิดชอบ (Transparency and Accountability)
รายละเอียดโดยสังเขป
ผลลัพธ์จากการตัดสินใจ AI อาจส่งผลกระทบกับผู้รับบริการและผู้ที่เกี่ยวข้องได้ตั้งแต่ระดับเล็กน้อยจนถึงระดับร้ายแรง ดังนั้น AI จึงควรถูกพัฒนาและใช้งานด้วยความโปร่งใส สามารถอธิบายและคาดการณ์ได้ รวมถึงสามารถตรวจสอบกิจกรรมต่าง ๆ ที่เกิดขึ้นย้อนหลังได้
ด้านที่ 4 ความมั่นคงปลอดภัย และความเป็นส่วนตัว (Security and Privacy)
รายละเอียดโดยสังเขป
ในหลายครั้งข้อมูลจาก AI มีความอ่อนไหว เป็นความลับหรือเป็นข้อมูลส่วนตัว และอาจถูกเข้าถึงโดยผู้ไม่ประสงค์ดี ดังนั้นการออกแบบและพัฒนา AI ควรคำนึงถึงหลักการรักษาความมั่นคงปลอดภัยและการป้องกันข้อมูล รวมทั้งควรมีกลไกให้มนุษย์สามารถแทรกแซงการดำเนินการต่าง ๆ เพื่อลดความเสี่ยงที่อาจเกิดขึ้น
ด้านที่ 5 ความเท่าเทียม หลากหลาย ครอบคลุม และเป็นธรรม (Fairness)
รายละเอียดโดยสังเขป
ผลลัพธ์จากการตัดสินใจ AI อาจมีความไม่เป็นธรรม หากชุดข้อมูลที่ได้ถูกนำมาใช้ในการสอน ทดสอบ และพิสูจน์ มีความเอนเอียง ดังนั้น การพัฒนาและออกแบบ AI จึงควรคำนึงถึงความหลากหลายก่อให้เกิดประโยชน์ต่อผู้คนในวงกว้าง โดยเฉพาะผู้ด้อยโอกาสในสังคมและสามารถพิสูจน์ถึงความเป็นธรรมของระบบได้
ด้านที่ 6 ความน่าเชื่อถือ (Reliability)
รายละเอียดโดยสังเขป
ผลลัพธ์จากการตัดสินใจ AI ที่ไม่ถูกต้องจะส่งผลกระทบต่อความเชื่อมั่นของระบบได้ ดังนั้น การควบคุมกระบวนการวิจัย ออกแบบ และพัฒนาระบบ AI ให้สามารถคาดการณ์และตัดสินใจได้อย่างแม่นยำ รวมทั้งการควบคุมและปรับปรุงคุณภาพของข้อมูลผ่านกระบวนการรับผลสะท้อนกลับ (Feedback) จากผู้ใช้งาน เพื่อให้ระบบสามารถให้คำแนะนำที่ถูกต้องและน่าเชื่อถือแก่ผู้ใช้ได้
2.2 บทที่ 2 การมีจริยธรรมปัญญาประดิษฐ์ (AI Ethics Case Study) เป็นการกล่าวถึงกรณีศึกษาของภาคเอกชนทั้งในและนอกประเทศ ซึ่งได้นำจริยธรรมปัญญาประดิษฐ์มาใช้เป็นแนวทางในการวิจัย ออกแบบ พัฒนา และให้บริการ รวมทั้งพิจารณาถึงขอบเขตความเหมาะสมในการใช้เทคโนโลยีปัญญาประดิษฐ์ที่ทำให้เห็นถึงประโยชน์และปัญหาที่เกิดขึ้นจากการใช้ปัญญาประดิษฐ์ โดยมีกรณีตัวอย่างของบริษัทเอกชนในประเทศไทยที่มีความโดดเด่นด้านการใช้ปัญญาประดิษฐ์ จำนวน 2 แห่ง สรุปสาระสำคัญของกรณีศึกษาได้ ดังนี้
กรณีศึกษา บริษัท วายอิง จำกัด
ประเด็นศึกษา
ใช้ AI ตัดสินใจร่วมกับผู้เชี่ยวชาญซึ่งเป็นบุคลากรทางการแพทย์ในการพัฒนาระบบการค้นหาข้อมูลเม็ดยาด้วยเทคโนโลยีวิเคราะห์และจดจำรูปภาพยาอัจริยะบนมือถือ ?Phamasafe? เพื่อช่วยให้บุคลากรทางการแพทย์สามารถตรวจสอบยาที่ไม่ทราบชื่อ ซึ่งอาจเกิดจากฉลากชำรุด เสียหายหรือทิ้งไปแล้ว เพื่อให้สามารถระบุชื่อยาได้ถูกต้อง และสามารถให้คำแนะนำในการใช้ยาที่ถูกต้องปลอดภัยได้
ความสอดคล้องกับแนวปฏิบัติจริยธรรม AI
1) ดำเนินงานในรูปแบบทางธุรกิจที่มีการแข่งขัน มีแนวทางการพัฒนาอย่างต่อเนื่องเพื่อช่วยให้สามารถแข่งขันและอยู่รอดได้อย่างยั่งยืน
2) คำนึงถึงข้อกฎหมายที่เกี่ยวข้องและพึงระวัง อาทิ เรื่องยาและการโฆษณา มีการนำข้อมูล Feedback จากบุคลากรทางการแพทย์มาปรับปรุงฐานข้อมูล ไม่มีการส่งเสริมตัวยาใดเป็นพิเศษ
กรณีศึกษา บริษัท SERTIS จำกัด
ประเด็นศึกษา
ดำเนินการพัฒนาหรือให้บริการผลิตภัณฑ์อย่างมีความเท่าเทียม ไม่เอนเอียง หรือผิดต่อหลักการจริยธรรมและกฎหมายทั้งในและต่างประเทศ เช่น การพัฒนาเทคโนโลยี ?CPF AI FarmLab Powered by Sertis? เพื่อมาประยุกต์ใช้กับอุตสาหกรรมการเลี้ยงสัตว์ ส่งเสริมให้เจ้าของฟาร์มเลี้ยงสัตว์สามารถทำงานได้อย่างรวดเร็ว สังเกตพฤติกรรมของสัตว์ที่เบี่ยงเบนจากที่เป็นอยู่ เพื่อวิเคราะห์ความเสี่ยงที่จะเกิดโรคต่าง ๆ เพื่อนำไปสู่การรักษาได้อย่างทันท่วงที รวมทั้งมีการจัดตั้งคณะทำงาน (AI Ethic Board) เพื่อพิจารณาขอบเขตการทำงานของระบบ AI
ความสอดคล้องกับแนวปฏิบัติจริยธรรม AI
1) มีการกำหนดเป้าหมายในการดำเนินการพัฒนาหรือให้บริการผลิตภัณฑ์ที่ต้องมีความเท่าเทียมไม่เอนเอียงหรือผิดต่อหลักจริยธรรมและกฎหมายทั้งในและต่างประเทศ
2) จัดตั้งคณะทำงานเพื่อพิจารณาขอบเขตของ AI ในแง่จริยธรรมและความเหมาะสมต่อการพัฒนาของบริษัท
2.3 บทที่ 3 กรอบแนวทางจริยธรรมปัญญาประดิษฐ์ (Thailand AI Ethics Framework) มีรายละเอียด ดังนี้
2.3.1 ตัวแบบหลักของจริยธรรมปัญญาประดิษฐ์ (Thailand AI Ethics Core Model) แบ่งเป็น 3 องค์ประกอบ คือ
องค์ประกอบที่ 1
ผู้กำหนดระเบียบ กำกับดูแลให้เป็นไปตามกฎระเบียบและแนวทางปฏิบัติจริยธรรมปัญญาประดิษฐ์ (Regulator/Policy) เช่น ผู้บริหารระดับสูงของหน่วยงาน ผู้จัดการโครงการมีงานรวมทั้งหมด 6 ด้าน อาทิ การกำหนด AI Ethics Framework การแข่งขันในระดับภูมิภาค การบริหารความเสี่ยง
องค์ประกอบที่ 2
องค์กรวิจัยหรือนักวิจัย/บริษัทที่ออกแบบและการพัฒนาระบบ/ผู้ให้บริการระบบปัญญาประดิษฐ์กับผู้ใช้งาน (Researcher/ Developer/Service Provider) งานรวมทั้งหมด 28 ด้าน อาทิ การออกแบบระบบการจัดการ การจัดการกลยุทธ์ การจัดการนวัตกรรม การจัดการทรัพยากรบุคคลสำหรับ AI Ethics
องค์ประกอบที่ 3
ผู้ใช้งานผลิตภัณฑ์หรือผู้ที่ได้รับผลกระทบจากระบบปัญญาประดิษฐ์ (User) ผู้ตระหนักการใช้ประโยชน์จาก AI มีงานรวมทั้งหมด 5 ด้าน อาทิ การให้การศึกษาและสร้างการตระหนักรู้ การประเมินความน่าเชื่อถือของ AI
2.3.2 วิธีการปฏิบัติตามจริยธรรมปัญญาประดิษฐ์ องค์กรควรจัดตั้งคณะกรรมการจริยธรรมปัญญาประดิษฐ์ (AI Ethics Board) โดยมีองค์ประกอบทั้งจากผู้ได้รับประโยชน์และผู้ได้รับผลกระทบจากปัญญาประดิษฐ์ เพื่อเป็นคณะทำงานในการกำกับดูแลและกำหนดเป้าหมายระดับการปฏิบัติตามจริยธรรมปัญญาประดิษฐ์และกระบวนการในภาพรวม โดยวิธีการปฏิบัติตามจริยธรรมปัญญาประดิษฐ์ ประกอบด้วย 3 ขั้นตอน ได้แก่
ขั้นตอนที่ 1
กำหนดเป้าหมายตามหลักการพัฒนาปัญญาประดิษฐ์ ทั้ง 6 ด้าน
- กำหนดบทบาท (Role) ตามตัวแบบหลักของจริยธรรมปัญญาประดิษฐ์
- กำหนดเป้าหมายที่สอดคล้องกับหลักการพัฒนาระบบปัญญาประดิษฐ์ทั้ง 6 ด้าน ตามความเหมาะสมของทรัพยากรองค์กร ระบบการบริหารจัดการภายในองค์กรและความสามารถในการปฏิบัติตาม
ขั้นตอนที่ 2
พิจารณากิจกรรมเพื่อปฏิบัติตามแนวปฏิบัติจริยธรรมปัญญาประดิษฐ์
- นำข้อมูลที่กำหนดเป็นเป้าหมายฯ (ตามขั้นตอนที่ 1) มาพิจารณาความเหมาะสมและจัดทำเป็นบัญชีกิจกรรม (Activities Lists)
- กำหนดรายละเอียดและออกแบบการดำเนินการเพื่อให้บรรลุเป้าหมาย
- กำหนดขอบเขตและคำนิยามจริยธรรมปัญญาประดิษฐ์อย่างรอบด้าน
ขั้นตอนที่ 3
ปฏิบัติและติดตามตัวชี้วัด
- ดำเนินการปฏิบัติตามแนวทางกิจกรรมที่ได้กำหนดไว้ (ตามขั้นตอนที่ 2) ให้ความสำคัญกับการบริหารจัดการในการพัฒนาระบบปัญญาประดิษฐ์เพื่อจัดหาและนำมาให้บริการแก่ประชาชนในอนาคต
- ติดตามผลการดำเนินการตามตัวชี้วัดเพื่อนำมาวิเคราะห์หาผลกระทบในเชิงบวกและลบ รวมทั้งความเสี่ยงที่อาจเกิดขึ้นจากการปฏิบัติตามแนวปฏิบัติฯ
- เปิดช่องทางรับฟังความคิดเห็น ข้อทักท้วง ข้อแนะนำต่าง ๆ (Feedback)
ที่มา: ที่ประชุมคณะรัฐมนตรี พลเอก ประยุทธ์ จันทร์โอชา (นายกรัฐมนตรี) วันที่ 2 กุมภาพันธ์ 2564