สหภาพยุโรปมุ่งผลักดันการพัฒนาปัญญาประดิษฐ์ควบคู่กับการวางกรอบกฎหมายที่เหมาะสม

สหภาพยุโรปมุ่งผลักดันการพัฒนาปัญญาประดิษฐ์ควบคู่กับการวางกรอบกฎหมายที่เหมาะสม

วันที่นำเข้าข้อมูล 19 พ.ค. 2563

วันที่ปรับปรุงข้อมูล 28 พ.ย. 2565

| 1,313 view

สหภาพยุโรปมุ่งผลักดันการพัฒนาปัญญาประดิษฐ์ควบคู่กับการวางกรอบกฎหมายที่เหมาะสม

สหภาพยุโรป (EU) ให้ความสำคัญกับการนำปัญญาประดิษฐ์ (Artificial intelligence: AI) มาใช้ในการเพิ่มขีดความสามารถในการแข่งขันของประเทศ ตลอดจนเพื่อแก้ไขปัญหาสำคัญต่าง ๆ เช่น การใช้ AI ในโรงงานอุตสาหกรรม ในโรงพยาบาล และการใช้โดรนในงานภาคการเกษตร เป็นต้น โดยในปี 2563 สหภาพยุโรปได้เพิ่มงบประมาณสนับสนุนการวิจัยและพัฒนาเทคโนโลยีด้าน AI & Robotics ขึ้นเป็น 1,500 ล้านยูโร (จากจำนวน 500 ล้านยูโร เมื่อปี 2560)

อย่างไรก็ดี AI สร้างประเด็นท้าทายใหม่ขึ้นหลายประการ ทั้งในด้านจริยธรรม มาตรฐานความปลอดภัยและการคุ้มครองข้อมูลส่วนบุคคล ดังนั้น สหภาพยุโรปจึงให้ความสำคัญกับการพัฒนา AI ควบคู่ไปกับการสร้างกรอบกฎหมายที่เหมาะสมเพื่อควบคุม AI

เมื่อวันที่ 25 เมษายน 2561 ในเอกสาร “AI Strategy” สหภาพยุโรปได้วางกลยุทธ์ด้าน AI ไว้ 3 ด้าน ได้แก่ (1) เพิ่มขีดความสามารถด้านเทคโนโลยีและอุตสาหกรรมของสหภาพยุโรป (2) เตรียมความพร้อมเพื่อรองรับการเปลี่ยนแปลงจาก AI ทั้งทางด้านเศรษฐกิจและสังคม และ (3) จัดทำกรอบจริยธรรมและกฎหมายที่เหมาะสมสำหรับ AI

ต่อมา เมื่อเดือนเมษายน 2563 สหภาพยุโรปได้เผยแพร่เอกสาร “Ethics Guidelines for Trustworthy AI” เพื่อเป็นแนวทางในการส่งเสริมให้ภูมิภาคยุโรปมีการพัฒนา AI ที่มีความก้าวหน้า มีจริยธรรม และ ปลอดภัย โดยการสร้าง “AI ที่เชื่อถือได้” (Trustworthy AI)

ล่าสุด เมื่อวันที่ 19 กุมภาพันธ์ 2563 คณะกรรมาธิการยุโรปได้เผยแพร่เอกสาร “White Paper on Artificial Intelligence – A European Approach to Excellence and Trust” ซึ่งเป็นข้อเสนอของคณะกรรมาธิการยุโรปเกี่ยวกับการดำเนินการของสหภาพยุโรปในด้าน AI โดยมีสาระสำคัญ ดังนี้

1. การส่งเสริมการพัฒนา AI

คณะกรรมาธิการยุโรปเสนอให้สหภาพยุโรปตั้งเป้าดึงดูดการลงทุนด้าน AI มูลค่ารวม 2 หมื่นล้านยูโรในช่วง 10 ปีข้างหน้า      รวมทั้งส่งเสริมการจัดตั้งศูนย์ความเป็นเลิศและศูนย์ทดสอบ AI  การสร้างเครือข่ายมหาวิทยาลัย สนับสนุนเงินทุนวิจัยผ่านโครงการ Horizon Europe และสนับสนุนเงินลงทุนผ่านโครงการ European Investment Fund และเน้นการพัฒนา AI สำหรับสาขาสาธารณสุข การปกครองส่วนท้องถิ่น และการบริการภาครัฐ

กรรมาธิการด้านเทคโนโลยีสารสนเทศและการสื่อสาร และการพัฒนาดิจิทัลคอนเทนต์ (DG Connect) เป็นหน่วยงานหลักของสหภาพยุโรปในการบูรณาการกับหน่วยงานภาครัฐและเอกชนของประเทศสมาชิก เพื่อเร่งวางกรอบการพัฒนาในเชิงนโยบายซึ่งจะช่วยให้การพัฒนาเทคโนโลยี AI ของประเทศสมาชิกเป็นไปในทิศทางเดียวกัน

2. การสร้างความเชื่อมั่นของสาธารณะต่อ AI

เอกสาร “White paper” จัดทำข้อเสนอเชิงนโยบายเพื่อนำไปสู่การจัดทำกฎหมายใหม่ในเรื่อง AI โดยครอบคลุมประเด็น เช่น การคุ้มครองสิทธิขั้นพื้นฐานของประชาชน (fundamental rights) กฎหมายเกี่ยวกับความรับผิด (Liability) และหลักเกณฑ์กำหนดมาตรการคุ้มครองสุขภาพและเสริมสร้างความปลอดภัยสำหรับผู้บริโภค กฏหมายเกี่ยวกับการเคารพการรักษาความเป็นส่วนตัว และการคุ้มครองข้อมูล (Privacy and data protection) เป็นต้น

กฎหมายใหม่เพื่อควบคุมเทคโนโลยี AI ที่มีความเสี่ยงสูง (high-risk AI applications)

กฎหมายที่ตราขึ้นใหม่จะมีผลบังคับใช้กับเทคโนโลยี AI ที่มีความเสี่ยงสูง (high-risk AI applications) โดยการพิจารณาว่าเทคโนโลยี AI ใดเข้าข่ายกลุ่มเสี่ยงสูงหรือไม่ ให้พิจารณาจากปัจจัย 2 ประการ คือ (1) สาขาอุตสาหกรรมที่มีความอ่อนไหว เช่น ด้านการแพทย์ การขนส่ง พลังงาน และกิจการภาครัฐที่สำคัญ เช่น การบริหารจัดการชายแดนและการข้ามแดนที่เกิดจากการย้ายถิ่น (asylum, migration border controls) กิจการยุติธรรม งานประกันสังคม รวมถึงการจ้างงาน และ (2) ระดับของ        ผลกระทบที่อาจเกิดขึ้น เช่น ความรุนแรงของผลกระทบต่อสิทธิของบุคคลหรือบริษัท ความเสี่ยงต่อการบาดเจ็บหรือเสียชีวิต เป็นต้น

เอกสาร “White Paper” เสนอหลักเกณฑ์และแนวทางปฏิบัติเกี่ยวกับการพัฒนา High-risk AI applications ดังนี้

–      ข้อมูลสำหรับการฝึก (Training data) ในกระบวนการฝึก AI นั้น จะต้องมีการป้อนข้อมูลจำนวนมาก โดยผู้สร้าง AI จะต้องคำนึงว่า AI ที่พัฒนาขึ้นมานั้นจะปลอดภัยสำหรับผู้ใช้ในอนาคต ไม่มีพฤติกรรมที่เลือกปฏิบัติตามเพศหรือเชื้อชาติ และเคารพกฎหมายเกี่ยวกับการรักษาความเป็นส่วนตัวและการคุ้มครองข้อมูลส่วนบุคคล

–      การเก็บรักษาข้อมูล (Data and record-keeping) ระบบ AI ต้องมีความโปร่งใสและมีกลไกส่งเสริมการตรวจสอบและความรับผิดชอบระหว่างผู้ที่มีส่วนเกี่ยวข้องได้ตลอดทั้งกระบวนการ ตั้งแต่ขั้นตอนการพัฒนาจนการนำมาใช้ และต้องมีการจัดเก็บข้อมูลอย่างเป็นระบบ โดยเฉพาะอย่างยิ่งข้อมูลที่ใช้ในการฝึก (Training Data) การเรียนรู้ด้วยเทคนิคอัลกอริทึม        (Programming of algorithm) ชุดข้อมูล (data sets) ในบางกรณี เพื่อให้สามารถใช้เป็นข้อเท็จจริงในการตรวจสอบว่าเป็นไปตามที่กฎหมายกำหนดหรือไม่อย่างรวดเร็ว รวมถึงส่งเสริมการสื่อสารระหว่างผู้ที่มีส่วนเกี่ยวข้องได้

–      การให้ข้อมูลแก่สาธารณะ (Information to be provided) ผู้ใช้งาน AI ต้องสามารถตรวจสอบข้อมูลที่จำเป็นเกี่ยวกับประสิทธิภาพของการใช้งาน ตลอดจนข้อจำกัดต่าง ๆ ของ AI นั้น ๆ และจะต้องมีการประชาสัมพันธ์ข้อมูลแก่ประชาชนทั่วไปเกี่ยวกับปฏิสัมพันธ์ที่อาจเกิดขึ้นได้กับระบบ AI ซึ่งอาจไม่ได้เป็นที่ประจักษ์

–      ความถูกต้อง (Robustness and accuracy) ระบบ AI ต้องได้รับการพัฒนาให้มีความสามารถในการป้องกันความเสี่ยงและจำกัดผลกระทบจากความผิดพลาดใด ๆ ที่อยู่นอกเหนือความคาดหมาย เช่น มีความมั่นคงปลอดภัย มีมาตรการรองรับกรณีเกิดเหตุฉุกเฉิน เป็นต้น

–      การควบคุมดูแลโดยมนุษย์ (Human Oversight) ซึ่งอาจกระทำได้หลายรูปแบบ เช่น ให้มนุษย์ตรวจสอบผลงานของระบบ AI ก่อนนำมาใช้ ให้มนุษย์ติดตามตรวจสอบการทำงานของ AI และสามารถควบคุมระบบได้ทันทีหากเกิดปัญหาขึ้น

เทคโนโลยี AI ที่มีความเสี่ยงต่ำ

สหภาพยุโรปเห็นว่ากฎหมายที่มีผลบังคับใช้ในปัจจุบันเพียงพอสำหรับการควบคุมเทคโนโลยี AI ที่มีความเสี่ยงต่ำแล้ว โดยอาจพิจารณาปรับปรุงแก้ไขหากจำเป็น อย่างไรก็ดี หากผู้ประกอบกิจการขายสินค้าหรือให้บริการเทคโนโลยี AI ความเสี่ยงต่ำ รายใดสมัครใจปฏิบัติตามมาตรฐานเดียวกับเทคโนโลยี AI ที่มีความเสี่ยงสูงก็สามารถทำได้ โดยเอกสาร “White paper” เสนอให้มีการพิจารณาออกฉลากเพื่อรับรองถึงคุณภาพหรือมาตรฐาน (certified quality label) สำหรับสินค้าหรือการให้บริการในกลุ่มนี้

เทคโนโลยีการจดจำใบหน้า

เอกสาร White Paper ระบุว่า ในกรณีเทคโนโลยี AI เกี่ยวกับการจดจำใบหน้าที่สามารถระบุหรือตรวจสอบบุคคลโดยการเปรียบเทียบและวิเคราะห์รูปแบบตามรูปทรงใบหน้าของบุคคล (Biometric & Face Recognition) นั้น ให้ถือว่าเป็นเทคโนโลยี AI ที่อยู่ในกลุ่มเสี่ยงสูงโดยอัตโนมัติ

นอกจากนี้ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรปที่มีผลใช้บังคับแล้ว หรือเรียกว่า กฎหมาย GDPR ก็ได้กำหนดว่า การใช้เทคโนโลยีการจดจำใบหน้าสามารถกระทำได้ก็ต่อเมื่อเป็นการใช้ที่สมเหตุสมผล ได้สัดส่วนและมีกฎระเบียบคุ้มครองที่เหมาะสมเท่านั้น ซึ่งคณะกรรมาธิการยุโรปกำลังจัดทำข้อเสนอเกี่ยวกับหลักเกณฑ์เฉพาะสำหรับการใช้เทคโนโลยีการจดจำใบหน้า และจะได้นำเผยแพร่เพื่อรับฟังความคิดเห็นสาธารณะต่อไป

ภายหลังการเผยแพร่เอกสาร White Paper ดังกล่าว คณะกรรมาธิการยุโรปได้เริ่มกระบวนการรับฟังความคิดเห็นสาธารณะ      รวมทั้งการหารือกับผู้มีส่วนได้ส่วนเสีย สภายุโรปและคณะมนตรียุโรป ซึ่งจะสิ้นสุดในวันที่ 14 มิถุนายน 2563 หลังจากนั้น      คาดว่าคณะกรรมาธิการยุโรปจะจัดทำร่างกฎหมายใหม่เกี่ยวกับเทคโนโลยี AI และเสนอรายงานการวิเคราะห์ผลกระทบที่อาจเกิดขึ้นจากกฎหมายดังกล่าวภายในปลายปี 2563 นี้

*******************************

 

ที่มา: https://thaieurope.net/2020/05/13/

(credit รูปภาพปก: https://techsauce.co/pr-news/machine-learning-ai-deep-learning)