โมเดล Generative AI (GAI) ได้รับความสนใจอย่างมากจากทั่วโลกด้วยการเปิดตัวChatGPT ของ OpenAI ในช่วงปลายปี 2022 การพัฒนานี้ถือเป็นจุดเปลี่ยนที่ทำให้โมเดล GAI กลายเป็นหมวดหมู่ที่แตกต่างไปจากโมเดลอื่นๆ ในวาทกรรม AI เป็นผลให้โมเดล AI ที่เคยถูกมองว่าล้ำสมัยกลับถูกเรียกว่า "แบบดั้งเดิม" ในทางกฎหมายแม้ว่าจะเป็นนวัตกรรมใหม่ล่าสุดก็ตาม สถานการณ์นี้ควรทำความเข้าใจความแตกต่างระหว่างโมเดล AI "แบบดั้งเดิม" และโมเดล Generative AI (GAI) อย่างชัดเจน ความแตกต่างหลักอยู่ที่ความสามารถของ GAI ในการทำงานที่หลากหลายโดยการสร้างภาษาที่คล้ายกับมนุษย์ แทนที่จะถูกจำกัดอยู่แค่การสร้างการคาดการณ์หรือคะแนนเท่านั้น โดยพื้นฐานแล้ว โมเดล AI แบบดั้งเดิมได้รับการออกแบบมาสำหรับงานเฉพาะทางที่มีเอาต์พุตเฉพาะ ในขณะที่โมเดล GAI สามารถสร้างภาษาและการตอบสนองที่มีความละเอียดอ่อนและเหมาะสมกับบริบทในสถานการณ์ต่างๆ ได้ ซึ่งคล้ายกับการสื่อสารของมนุษย์ ใน Recitals 99 กฎหมาย AI ถือว่าโมเดล GAI เป็นโมเดล AI เอนกประสงค์ประเภทหนึ่ง และระบุคุณลักษณะสำคัญ 2 ประการ คือ (1) ลักษณะทั่วไปและ (2) ความสามารถซึ่งแตกต่างจากระบบ AI แบบ "ดั้งเดิม"
ความแตกต่างนี้ส่งผลให้สำนักงาน AI ของยุโรปเผยแพร่ ร่างจรรยาบรรณฉบับแรก ซึ่งมีวัตถุประสงค์เพื่อให้คำแนะนำเกี่ยวกับการปฏิบัติตามภาระผูกพันที่ระบุไว้ในมาตรา 53 และ 55 ของกฎหมาย AI สำหรับผู้ให้บริการโมเดล AI วัตถุประสงค์ทั่วไปและโมเดล AI วัตถุประสงค์ทั่วไปที่มีความเสี่ยงเชิงระบบ จรรยาบรรณดังกล่าวเป็นเอกสารที่ให้คำแนะนำ มีลักษณะเป็นพลวัต และเป็นสะพานเชื่อมระหว่างการนำมาตรฐานของสหภาพยุโรปที่สอดประสานกันสำหรับโมเดล AI ประเภทนี้มาใช้งาน
เพื่อให้สอดคล้องกับข้อกำหนดของกฎหมาย AI ฉบับสุดท้ายมีกำหนดเผยแพร่ในวันที่ 1 พฤษภาคม 2025 ซึ่งถือเป็นก้าวสำคัญในการกำหนดกรอบการกำกับดูแลสำหรับ AI ทั่วไป โค้ดดังกล่าวสร้างขึ้นโดยกลุ่มผู้เชี่ยวชาญ อิสระที่หลากหลาย จากอุตสาหกรรม สถาบันการศึกษา และภาคประชาสังคม โดยเป็นแนวทางองค์รวมในการกำหนดกรอบการกำกับดูแล AI นอกจากนี้ โค้ดยังรวมข้อมูลเชิงลึกจากกรอบงานระหว่างประเทศ ซึ่งเน้นย้ำถึงความมุ่งมั่นในการสร้างความร่วมมือและการปรับแนวทางในระดับโลก โดยทั่วไปแล้ว โค้ดจะกำหนดหลักการและวัตถุประสงค์ที่เป็นแนวทาง โดยให้ผู้มีส่วนได้ส่วนเสียมีวิสัยทัศน์ที่ชัดเจนเกี่ยวกับโครงสร้างและเนื้อหาที่เป็นไปได้ของร่างฉบับสุดท้าย ซึ่งถือเป็นก้าวสำคัญของสำนักงาน AI ของยุโรป เนื่องจากความสามารถขั้นสูงและการนำไปใช้ในวงกว้างของโมเดล GAI นำมาซึ่งความไม่แน่นอนโดยธรรมชาติในผลลัพธ์ของโมเดล ซึ่งก่อให้เกิดความท้าทายที่ไม่เหมือนใครในการทำความเข้าใจและจัดการพฤติกรรมของโมเดล นอกจากนี้ ข้อกังวลทางกฎหมายที่เกี่ยวข้องกับโมเดล GAI ยังครอบคลุมในวงกว้าง รวมถึงปัญหาที่เกี่ยวข้องกับความเป็นส่วนตัวและการปกป้องข้อมูล ความรับผิดต่อผลลัพธ์ สิทธิในทรัพย์สินทางปัญญา และปัญหาความปลอดภัยทางไซเบอร์
ประมวลกฎหมายนี้พิจารณาถึงข้อกังวลทางกฎหมายเหล่านี้และจัดเป็น 4 ด้านหลัก ได้แก่ (1) กฎเกณฑ์ด้านความโปร่งใสและลิขสิทธิ์ (2) การระบุและประเมินความเสี่ยงสำหรับความเสี่ยงเชิงระบบ (3) การลดความเสี่ยงทางเทคนิคสำหรับความเสี่ยงเชิงระบบ และ (4) การลดความเสี่ยงด้านการกำกับดูแลสำหรับความเสี่ยงเชิงระบบ องค์ประกอบเหล่านี้ทำงานร่วมกันเพื่อส่งเสริมนวัตกรรมในขณะที่จัดการกับความท้าทายด้านจริยธรรมและความปลอดภัยที่เกี่ยวข้องกับ AI
หลักเกณฑ์ 6 ประการเป็นพื้นฐานของจรรยาบรรณ ประกอบด้วย ประการแรก จรรยาบรรณจะรับรองความสอดคล้องกับกฎหมายและค่านิยมของสหภาพยุโรป รวมถึงกฎบัตรว่าด้วยสิทธิขั้นพื้นฐาน ประการที่สอง จรรยาบรรณจะบูรณาการมาตรฐานสากลและแนวทางปฏิบัติที่ดีที่สุดในระดับโลก ส่งเสริมแนวทางการทำงานร่วมกันในการกำกับดูแล (มาตรา 56(1) ของกฎหมาย AI) ประการที่สาม เน้นย้ำถึงความได้สัดส่วน โดยกำหนดให้มาตรการต่างๆ สอดคล้องกับระดับความเสี่ยง หลักการนี้เกี่ยวข้องกับการทดสอบสำคัญ 2 ประการ ได้แก่ (1) ความเหมาะสม และ (2) ความจำเป็นของมาตรการ ซึ่งทั้งสองประการนี้ยังมีช่องว่างในการตีความอย่างมาก ประการที่สี่ จรรยาบรรณมุ่งมั่นที่จะรองรับอนาคต โดยให้มีความยืดหยุ่นและปรับตัวได้ตามวิวัฒนาการของเทคโนโลยี AI ประการที่ห้า จรรยาบรรณให้การสนับสนุนวิสาหกิจขนาดกลางและขนาดย่อม (SMEs) โดยลดความซับซ้อนของข้อกำหนดการปฏิบัติตาม และประการสุดท้าย จรรยาบรรณมีเป้าหมายเพื่อส่งเสริมระบบนิเวศความปลอดภัย AI ที่แข็งแกร่ง ส่งเสริมความโปร่งใสและความร่วมมือระหว่างผู้มีส่วนได้ส่วนเสียต่างๆ
นอกจากนี้ ความโปร่งใสและการปฏิบัติตามลิขสิทธิ์ถือเป็นหัวใจสำคัญของกฎหมายฉบับนี้ ผู้ให้บริการต้องจัดทำเอกสารรายละเอียดเกี่ยวกับโมเดล AI ของตน เพื่อให้แน่ใจว่าสำนักงาน AI และหน่วยงานที่มีอำนาจหน้าที่ระดับชาติและผู้ให้บริการปลายน้ำสามารถเข้าถึงได้ การปฏิบัติตามลิขสิทธิ์ยังเป็นสิ่งสำคัญ โดยผู้ให้บริการคาดว่าจะต้องปฏิบัติตามข้อยกเว้นการขุดข้อความและข้อมูลของสหภาพยุโรป และกำหนดนโยบายที่ชัดเจนในการจัดการปัญหาลิขสิทธิ์ กลไกการรายงานที่โปร่งใส รวมถึงบทบัญญัติสำหรับการจัดการด้านลิขสิทธิ์ ถือเป็นส่วนสำคัญของกระบวนการนี้
ที่สำคัญร่างดังกล่าวยังระบุถึงอนุกรมวิธานของความเสี่ยงในระบบ โดยจัดหมวดหมู่ตามประเภทลักษณะและแหล่งที่มาซึ่งอาจมีการตีความตามความรุนแรงและความน่าจะเป็นของความเสี่ยงแต่ละประเภท เพื่อเป็นการเตือนความจำ แนวคิดเรื่องความเสี่ยงนั้นถูกกำหนดให้เป็น "การรวมกันของความน่าจะเป็นของการเกิดอันตรายและความรุนแรงของอันตรายนั้น" ภายใต้กฎหมาย AI (มาตรา 3(2)) ความเสี่ยงในระบบนั้น ถูกกำหนดให้เป็น "ความเสี่ยงที่เฉพาะเจาะจงต่อความสามารถที่มีผลกระทบสูงของโมเดล AI สำหรับวัตถุประสงค์ทั่วไป ซึ่งมีผลกระทบอย่างมีนัยสำคัญต่อตลาดสหภาพเนื่องจากการเข้าถึง หรือเนื่องจากผลกระทบเชิงลบที่เกิดขึ้นจริงหรือคาดการณ์ได้อย่างสมเหตุสมผลต่อสุขภาพของประชาชน ความปลอดภัย ความมั่นคงสาธารณะ สิทธิขั้นพื้นฐาน หรือสังคมโดยรวม" (มาตรา 3(65)) ความเสี่ยงเหล่านี้รวมถึงการเลือกปฏิบัติในวงกว้าง การใช้ AI ในทางที่ผิดเพื่อบิดเบือนข้อมูลหรือบิดเบือนข้อมูล จุดอ่อนทางไซเบอร์ การสูญเสียการควบคุม และความเสี่ยงทางเคมี ชีวภาพ วิทยาการรังสี และนิวเคลียร์ เพื่อจัดการกับความเสี่ยงเหล่านี้ ร่างดังกล่าวได้เสนอกรอบที่ครอบคลุมสำหรับกลยุทธ์การบรรเทาผลกระทบที่สมดุลกับความรุนแรงและความน่าจะเป็นของความเสี่ยงแต่ละประเภท
สำหรับโมเดล AI ทั่วไปที่มีความเสี่ยงในระบบ ผู้ให้บริการคาดว่าจะนำกรอบความปลอดภัยและความมั่นคง (SSF) ที่แข็งแกร่งมาใช้ กรอบความปลอดภัยนี้จะระบุถึงนโยบายการบรรเทาความเสี่ยงตลอดวงจรชีวิตของโมเดล การประเมินความเสี่ยงอย่างต่อเนื่องเป็นสิ่งที่จำเป็น โดยได้รับการสนับสนุนจากการรวบรวมหลักฐานโดยใช้วิธีการที่เข้มงวด ผู้ให้บริการจะต้องแน่ใจว่ามีการรายงานเหตุการณ์และความเสี่ยงในระบบอย่างโปร่งใสต่อสำนักงาน AI และในกรณีที่เหมาะสมต่อสาธารณชน ความเสี่ยงที่มีความรุนแรงสูงต้องได้รับการประเมินโดยผู้เชี่ยวชาญอิสระทั้งก่อนและหลังการใช้งาน ซึ่งช่วยให้สามารถปรับเปลี่ยนตามความจำเป็นโดยอาศัยการตรวจสอบวงจรชีวิต อนึ่ง มาตรการกำกับดูแล ได้แก่ การมอบหมายความรับผิดชอบในการจัดการความเสี่ยงในระดับผู้บริหารและคณะกรรมการ การดำเนินการประเมินการปฏิบัติตามจรรยาบรรณเป็นระยะ และการอำนวยความสะดวกในการประเมินอิสระเพื่อตรวจสอบความพยายามในการบรรเทาความเสี่ยงเชิงระบบ ขั้นตอนเหล่านี้ได้รับการออกแบบมาเพื่อเพิ่มความรับผิดชอบและประกันว่าองค์กรต่างๆ ให้ความสำคัญกับความปลอดภัยของ AI
ผู้มีส่วนได้ส่วนเสียควรให้ข้อเสนอแนะเกี่ยวกับร่างกฎหมายภายในวันที่ 28 พฤศจิกายน 2024 แม้ว่าเอกสารดังกล่าวจะอยู่ในระดับสูง แต่การปรับปรุงในอนาคตจะรวมถึงมาตรการที่ละเอียดมากขึ้น ตัวบ่งชี้ประสิทธิภาพหลัก (KPI) และกลไกการปฏิบัติตามกฎหมาย ร่างกฎหมายนี้ถือเป็นก้าวสำคัญในการประสานการกำกับดูแล AI ภายในสหภาพยุโรป โดยรักษาสมดุลระหว่างความต้องการด้านความปลอดภัยและความโปร่งใสกับการส่งเสริมนวัตกรรม
ไม่มีความคิดเห็น:
แสดงความคิดเห็น