วันพฤหัสบดีที่ 26 ธันวาคม พ.ศ. 2567

Regulatory Sandbox ของกฎหมายปัญญาประดิษฐ์

กฎหมายปัญญาประดิษฐ์ของสหภาพยุโรป (AI Act) นำเสนอกรอบการทำงานสำหรับการทดลองทดสอบด้านกฎระเบียบ (Regulatory Sandbox) เพื่อสนับสนุนการพัฒนาเทคโนโลยีปัญญาประดิษฐ์ (AI) ในขณะเดียวกัน กฎหมายดังกล่าวก็มีวัตถุประสงค์เพื่อปกป้องสุขภาพ ความปลอดภัย และสิทธิขั้นพื้นฐานด้วย หลักการที่สำคัญประการหนึ่งในกฎหมายดังกล่าวคือ Regulatory sandbox ซึ่งเป็นเครื่องมือที่ให้บริบทที่มีโครงสร้างสำหรับการทดลองทดสอบเทคโนโลยี AI ผลิตภัณฑ์ หรือบริการใหม่ๆ ในสภาพแวดล้อมในโลกแห่งความเป็นจริงได้เป็นเวลาจำกัดและภายใต้การกำกับดูแลของหน่วยงานกำกับดูแล ช่วยให้นักประดิษฐ์สามารถทดสอบนวัตกรรมในสภาพแวดล้อมที่ควบคุมได้ และช่วยให้หน่วยงานกำกับดูแลเข้าใจเทคโนโลยีใหม่ๆ ได้ดียิ่งขึ้น 

Regulatory sandbox ได้รับการพัฒนาขึ้นในเบื้องต้นเพื่อส่งเสริมนวัตกรรมในอุตสาหกรรมบริการทางการเงิน แต่ปัจจุบันก็เริ่มมีการนำมาใช้ในพื้นที่อื่นๆ เช่น การค้า การดูแลสุขภาพ การเคลื่อนที่ การปกป้องข้อมูล และการควบคุม AI เป้าหมายของเครื่องมือนี้ในทุกพื้นที่เหล่านี้คือเพื่อให้เกิดนวัตกรรมและรับรองความปลอดภัยผ่านความแน่นอนทางกฎหมาย การบังคับใช้กฎหมาย และความยืดหยุ่น ในหลายประเทศมีกฎหมายเกี่ยวกับ Regulatory sandbox  โดยเฉพาะอย่างยิ่งในภาคส่วนนวัตกรรมทางการเงิน อย่างเช่น Financial Conduct Authority (FCA) ของสหราชอาณาจักรได้ออก Regulatory sandbox อย่างเป็นทางการแห่งแรกขึ้นในปี 2016 ตั้งแต่นั้นมา FCA ได้ให้การสนับสนุนบริษัทต่างๆ มากกว่า 700 แห่ง และเพิ่มความเร็วเฉลี่ยในการนำบริษัทออกสู่ตลาดได้ 40% เมื่อเทียบกับเวลาอนุมัติมาตรฐานของหน่วยงานกำกับดูแล ตัวอย่างที่ประสบความสำเร็จอีกประการหนึ่งคือ Regulatory sandbox ของสิงคโปร์ สำนักงานการเงินสิงคโปร์ (MAS) เผยแพร่แนวปฏิบัติสำหรับ Regulatory sandbox ทางการเงินในปี 2559 หน่วยงานสนามทดสอบในสิงคโปร์ได้รับการยกเว้นภาระด้านการบริหารและการเงินจากกระบวนการปฏิบัติตามกฎระเบียบทั่วไป และมีสิทธิได้รับพื้นที่ทดสอบที่กว้างขึ้น

ในทางกฎหมายนั้น Regulatory Sandbox สามารถจัดให้มีอำนาจทางกฎหมายต่างๆ ได้ โดยปกติแล้วจะเป็น การให้คำแนะนำทางกฎหมาย การออกหนังสือไม่บังคับใช้กฎหมาย และ/หรือ ให้การยกเว้นจากกฎหมาย ประการแรก หน่วยงานกำกับดูแลสามารถให้คำแนะนำทางกฎหมายแก่ผู้สร้างสรรค์นวัตกรรม เพื่อช่วยให้พวกเขาพิจารณาว่าผลิตภัณฑ์หรือบริการ AI ของพวกเขาเป็นไปตามข้อกำหนดทางกฎหมายปัจจุบันหรือไม่ คำแนะนำดังกล่าวสามารถให้ได้โดยผ่านเอกสารคำแนะนำทั่วไปหรือคำแนะนำเฉพาะบุคคลที่ตอบคำถามของผู้สร้างสรรค์นวัตกรรม

ประการที่สอง หน่วยงานกำกับดูแลยังสามารถออกหนังสือแจ้งไม่บังคับใช้กฎหมายให้กับผู้สร้างสรรค์นวัตกรรมที่เข้าร่วมในโครงการทดลองได้ หนังสือเหล่านี้มีวัตถุประสงค์หลัก 2 ประการ ได้แก่ (1) ให้คำแนะนำโดยอธิบายข้อกำหนดทางกฎหมายที่ผู้สร้างสรรค์นวัตกรรมต้องปฏิบัติตามอย่างชัดเจนเพื่อหลีกเลี่ยงการเผชิญกับบทลงโทษหรือการดำเนินคดีทางกฎหมาย และ (2) ในบางกรณี การประกาศแจ้งไม่บังคับใช้กฎหมายสามารถรับรองได้ว่าหน่วยงานกำกับดูแลจะไม่ดำเนินคดีทางกฎหมายกับผู้สร้างสรรค์นวัตกรรมสำหรับกิจกรรมการทดสอบเฉพาะ แม้ว่าจะไม่ปฏิบัติตามข้อกำหนดทางกฎหมายบางประการอย่างสมบูรณ์ก็ตาม อย่างไรก็ตาม การประกาศแจ้งไม่บังคับใช้กฎหมายประเภทนี้จะได้รับอนุญาตเฉพาะในกรณีที่มีมาตรการที่เหมาะสมในการปกป้องสิทธิของบุคคลที่สามและเพื่อให้แน่ใจว่าผู้สร้างสรรค์นวัตกรรมยังคงต้องรับผิดชอบต่อการก่อให้เกิดอันตรายใดๆ

ประการที่สาม sandbox ของหน่วยงานกำกับดูแลยังสามารถช่วยให้ผู้สร้างสรรค์นวัตกรรมได้รับการยกเว้นจากข้อกำหนดทางกฎหมายบางประการ การยกเว้นเหล่านี้ทำให้ผู้สร้างสรรค์นวัตกรรมสามารถละเลยกฎหมายเฉพาะบางฉบับเป็นการชั่วคราวได้ แต่ต้องอยู่ภายใต้เงื่อนไขที่เข้มงวดที่กำหนดโดยหน่วยงานกำกับดูแล ตัวอย่างเช่น หน่วยงานกำกับดูแลอาจ (1) ติดตามกิจกรรมของนวัตกรรมอย่างใกล้ชิด (2) เรียกร้องให้ผู้ริเริ่มสร้างสรรค์ความร่วมมือและแบ่งปันข้อมูล และ (3) กำหนดขอบเขตที่ชัดเจนว่าสามารถทดสอบอะไรได้บ้าง นานแค่ไหน และภายใต้สถานการณ์ใด

ข้อยกเว้นนั้นแตกต่างจากการประกาศแจ้งไม่บังคับใช้กฎหมาย ตรงที่เป็นการยกเว้นผู้สร้างสรรค์นวัตกรรมจากหน้าที่ทางกฎหมายบางประการ ในขณะที่หนังสือไม่บังคับใช้กฎหมายนั้นจะละเว้นไม่ให้เกิดการกำหนดผลทางกฎหมาย (เช่น ค่าปรับ) แก่ผู้สร้างสรรค์เท่านั้น ทั้งนี้ การยกเว้นเหล่านี้จะช่วยส่งเสริมนวัตกรรมโดยคำนึงถึงความจำเป็นในการมีความยืดหยุ่นและความจำเป็นในการกำกับดูแลอย่างรอบคอบ โดยยังคงรับประกันความปลอดภัยได้ อย่างไรก็ตาม ไม่ใช่ผู้เชี่ยวชาญทั้งหมดจะเห็นด้วยกับการจำกัดขอบเขตการกำกับดูแลบางคนโต้แย้งว่าการจำกัดขอบเขตการกำกับดูแลอาจทำให้นวัตกรรมช้าลงและหยุดชะงักได้จริง โดยสร้างอุปสรรคด้านระเบียบราชการเพิ่มเติม นอกจากนี้ ยังมีข้อสังเกตถึง ความท้าทายในทางปฏิบัติ เช่น ผู้บริโภคมองว่าผลิตภัณฑ์ที่ทดสอบในขอบเขตการกำกับดูแลนั้นได้รับการรับรองจากทางการ ซึ่งอาจส่งผลทางกฎหมายในเชิงลบ

อนึ่ง กฎหมาย AI มีวัตถุประสงค์เพื่อจัดทำกรอบกฎหมายที่เป็นมาตรฐานสำหรับ AI เพื่อส่งเสริมนวัตกรรมผ่านความแน่นอนทางกฎหมายในขณะที่รับประกันการคุ้มครองระดับสูงสำหรับสุขภาพ ความปลอดภัย และสิทธิขั้นพื้นฐาน กรอบการทดลองทดสอบของหน่วยงานกำกับดูแลเป็นหนึ่งในมาตรการสนับสนุนนวัตกรรมที่กำหนดไว้ในมาตรา 57 มาตรา 58 และมาตรา 59 กรอบการทดลองทดสอบของหน่วยงานกำกับดูแลมีวัตถุประสงค์เพื่อบรรลุวัตถุประสงค์ต่างๆ เช่น การส่งเสริมนวัตกรรม การเร่งการเข้าถึงตลาด การปรับปรุงความแน่นอนทางกฎหมาย และการมีส่วนสนับสนุนการเรียนรู้ด้านกฎระเบียบที่อิงตามหลักฐาน มาตรา 57 กำหนดอนุญาตการทดลองทดสอบของหน่วยงานกำกับดูแลว่าเป็น "สภาพแวดล้อมที่มีการควบคุมซึ่งส่งเสริมนวัตกรรมและอำนวยความสะดวกในการพัฒนา การฝึกอบรม การทดสอบ และการตรวจสอบความถูกต้องของระบบ AI ที่เป็นนวัตกรรมในช่วงเวลาจำกัดก่อนที่จะนำออกสู่ตลาดหรือใช้งานตามแผนการทดลองทดสอบเฉพาะที่ตกลงกันระหว่างผู้ให้บริการหรือผู้ให้บริการที่มีแนวโน้มจะเป็นผู้ให้บริการและหน่วยงานที่มีอำนาจหน้าที่" ตามมาตราดังกล่าว รัฐสมาชิกจะต้องจัดตั้งการทดลองทดสอบของหน่วยงานกำกับดูแลอย่างน้อยหนึ่งแห่ง พวกเขาอาจปฏิบัติตามภาระผูกพันนี้โดยการจัดตั้งการทดลองทดสอบร่วมกับรัฐสมาชิกอื่นๆ หรือโดยการเข้าร่วมในการทดลองทดสอบที่มีอยู่ สำนักงาน AI จะต้องจัดทำรายชื่อการทดลองทดสอบที่วางแผนและมีอยู่ให้สาธารณชนเข้าถึงได้ หน่วยงานที่มีอำนาจหน้าที่ระดับชาติจะต้องส่งรายงานประจำปีที่ให้ข้อมูลเกี่ยวกับความคืบหน้าและผลลัพธ์ของการดำเนินการทดลองทดสอบไปยังสำนักงานปัญญาประดิษฐ์ และคณะกรรมการ (ปกติหนึ่งปีหลังจากจัดตั้งการทดลองทดสอบทุกปีหลังจากนั้น และรายงานขั้นสุดท้าย) รายงานดังกล่าวจะต้องออนไลน์และเปิดให้สาธารณชนเข้าถึงได้ สำหรับรายละเอียดการจัดตั้ง การพัฒนา การนำไปปฏิบัติ การดำเนินงาน และการกำกับดูแลการทดลองทดสอบควบคุม AI มาตรา 58 กำหนดให้คณะกรรมาธิการต้องออกกฎหมายการดำเนินการที่ระบุการทดลองทดสอบดังกล่าว

กรอบการทำงานของการทดลองทดสอบช่วยให้สามารถให้คำแนะนำทางกฎหมาย การดูแล และการสนับสนุนจากหน่วยงานที่มีอำนาจในประเทศเพื่อเพิ่มความแน่นอนทางกฎหมายให้กับผู้สร้างสรรค์นวัตกรรม และเพื่อให้แน่ใจว่ามีการปฏิบัติตามกฎหมาย AI และกฎหมายของสหภาพหรือกฎหมายของประเทศที่เกี่ยวข้องอื่นๆ กิจกรรมการดูแลการปฏิบัติตามกฎหมายจะต้องระบุความเสี่ยงโดยเฉพาะต่อสิทธิพื้นฐาน สุขภาพ และความปลอดภัย ความเสี่ยงที่สำคัญใดๆ ต่อความเสี่ยงดังกล่าวจะต้องส่งผลให้มีการบรรเทาความเสี่ยงที่เหมาะสม หน่วยงานที่มีอำนาจในประเทศจะต้องระบุมาตรการและประสิทธิผลของมาตรการดังกล่าว หากไม่มีความเป็นไปได้ในการบรรเทาความเสี่ยงที่มีประสิทธิผล หน่วยงานที่มีอำนาจในประเทศอาจระงับกระบวนการทดสอบหรือการเข้าร่วมในการทดลองทดสอบชั่วคราวหรือถาวร หน่วยงานที่มีอำนาจในประเทศคาดว่าจะใช้อำนาจตามดุลยพินิจของตนอย่างยืดหยุ่นแต่ต้องอยู่ในขอบเขตของกฎหมายที่เกี่ยวข้อง และด้วยจุดมุ่งหมายเพื่อสนับสนุนนวัตกรรม ความสอดคล้องของระบบ AI กับข้อกำหนดของกฎหมายในระหว่างการทดลองทดสอบสามารถนำมาพิจารณาได้ในภายหลังในระหว่างการประเมินความสอดคล้อง บทบัญญัตินี้จะช่วยปรับกระบวนการเข้าถึงตลาดสำหรับนวัตกรรม AI ให้มีประสิทธิภาพยิ่งขึ้น 

นอกจากนี้ กฎหมาย AI ยังให้พื้นฐานทางกฎหมายแก่หน่วยงานกำกับดูแลในการงดเว้นจากการกำหนดค่าปรับทางปกครอง ดังนั้น หากผู้ให้บริการที่คาดหวังจะปฏิบัติตามแผนเฉพาะและข้อกำหนดและเงื่อนไข และปฏิบัติตามคำแนะนำของหน่วยงานที่มีอำนาจระดับชาติโดยสุจริตใจ ก็จะไม่มีการเรียกเก็บค่าปรับทางปกครองสำหรับการละเมิด อย่างไรก็ตาม กฎหมายยังกำหนดด้วยว่าผู้คิดค้นนวัตกรรมจะยังคงต้องรับผิดชอบต่อความเสียหายที่เกิดขึ้นระหว่างการทดสอบ ซึ่งหมายความว่า แม้ว่าการทดลองทดสอบจะให้การยกเว้นจากการปฏิบัติตามกฎระเบียบ แต่ก็ไม่ได้ปกป้องผู้เข้าร่วมจากความรับผิด 

กรอบงานทดสอบเชิงกำกับดูแลของกฎหมาย AI ก่อให้เกิดข้อกังวลหลายประการที่จำเป็นต้องได้รับการแก้ไขเพื่อให้แน่ใจว่ากรอบงานดังกล่าวมีประสิทธิภาพในการส่งเสริมนวัตกรรมไปพร้อมกับการปกป้องสิทธิและความปลอดภัยขั้นพื้นฐาน ประการแรก การทดลองทดสอบอาจสร้างการรับรู้ที่ผิดๆ เกี่ยวกับความปลอดภัยและการปฏิบัติตามข้อกำหนดในตลาด ระบบ AI ที่ผ่านข้อกำหนดด้านกฎระเบียบระหว่างการการทดลองทดสอบอาจยังคงมีความเสี่ยงต่อความรับผิดหรือพัฒนาไปเป็น AI ที่มีความเสี่ยงสูงผ่านการใช้งานที่ไม่คาดคิด การอนุมัติจากการทดลองทดสอบไม่ควรเข้าใจว่าเป็นการรับประกันความปลอดภัยหรือการไม่มีความเสี่ยงต่อความรับผิด เพื่อหลีกเลี่ยงการทำให้ผู้บริโภคและผู้ถือผลประโยชน์เข้าใจผิด การสื่อสารที่ชัดเจนและการปฏิเสธความรับผิดชอบเกี่ยวกับข้อจำกัดของการทดลองทดสอบจึงมีความจำเป็น นอกจากนี้ การให้ความรู้แก่สาธารณชนเกี่ยวกับความรู้ด้าน AI ถือเป็นสิ่งสำคัญและควรเป็นหนึ่งในภาระผูกพันของประเทศสมาชิก

ประการที่สอง แนวทางปฏิบัติที่แตกต่างกันของการทดลองทดสอบในแต่ละรัฐของสหภาพยุโรปอาจนำไปสู่ความไม่แน่นอนและความสับสนในตลาด กฎหมาย AI ไม่ได้จัดตั้งการทดลองทดสอบของกฎระเบียบ AI ของสหภาพยุโรปที่เป็นเนื้อเดียวกัน แต่ให้รัฐสมาชิกสหภาพยุโรปหนึ่งรัฐขึ้นไปจัดตั้งการทดลองทดสอบ ซึ่งอาจส่งผลให้มีกรอบงานและการดำเนินการที่แตกต่างกัน การแยกส่วนนี้อาจขัดขวางการพัฒนาตลาด AI ที่สอดประสานกันในสหภาพยุโรป ซึ่งตรงข้ามกับเป้าหมายของกฎหมายที่ระบุไว้ในมาตรา 1 นอกจากนี้ โครงสร้างที่ไม่สม่ำเสมอของการทดลองทดสอบอาจเป็นความท้าทายสำหรับนักพัฒนา AI ที่ดำเนินงานในเขตอำนาจศาลหลายแห่ง เพื่อให้แน่ใจว่ามีความสอดคล้องและหลีกเลี่ยงการตัดสินทางกฎหมาย การประสานงานและความร่วมมือระหว่างหน่วยงานกำกับดูแลระดับชาติและคณะกรรมการจึงมีความสำคัญ 

ประการที่สาม รายละเอียดเกี่ยวกับการประสานงานและความร่วมมือระหว่างหน่วยงานกำกับดูแลระดับชาติและคณะกรรมการปัญญาประดิษฐ์แห่งยุโรปยังไม่ชัดเจนในกฎหมายนี้ ในขณะที่กฎระเบียบบางฉบับสามารถออกโดยสถาบันของสหภาพยุโรปโดยตรงแทนที่จะออกโดยประเทศสมาชิก กฎระเบียบอื่นๆ ที่ออกโดยประเทศสมาชิกอาจได้รับอิทธิพลหรือถูกกำหนดโดยกฎระเบียบของสหภาพยุโรป นอกจากนี้ กฎระเบียบบางฉบับสามารถออกโดยประเทศสมาชิกได้โดยตรง ในบริบทนี้ การสร้างกฎเกณฑ์การนำไปปฏิบัติร่วมกันอาจเป็นเรื่องท้าทาย เนื่องจากลำดับความสำคัญและแนวทางของประเทศสมาชิกนั้นแตกต่างกัน อย่างไรก็ตาม การกำหนดขอบเขตความรับผิดชอบของประเทศสมาชิกและคณะกรรมการอย่างชัดเจน และกลไกการแก้ไขเพื่อแก้ไขข้อขัดแย้งที่อาจเกิดขึ้นจะมีประสิทธิผลสำหรับการดำเนินการของการทดลองทดสอบปัญญาประดิษฐ์ทั่วทั้งสหภาพยุโรป

ประการที่สี่ การทดลองทดสอบสามารถยกเว้นผู้คิดค้นนวัตกรรมจากค่าปรับทางปกครองเท่านั้น แต่ไม่สามารถยกเว้นการดำเนินการบังคับใช้กฎหมายประเภทอื่นได้ ซึ่งอาจไม่เพียงพอสำหรับผู้คิดค้นนวัตกรรมในบางภาคส่วน ตัวอย่างที่เฉพาะเจาะจงคือ การทดลองทดสอบสำหรับ AI ทางการแพทย์ในออสเตรีย การทดลองทดสอบสำหรับ AI ทางการแพทย์จะต้องอยู่ภายใต้การกำกับดูแลของกฎหมาย AI กฎหมายอุปกรณ์ทางการแพทย์ของสหภาพยุโรป และกฎหมายวิชาชีพแพทย์แห่งชาติร่วมกัน ในออสเตรีย หลักการการรักษาโดยตรงของกฎหมายแพทย์ออสเตรียกำหนดให้แพทย์ต้องรักษาผู้ป่วยโดยทั่วไปแบบพบหน้ากัน ดังนั้น หากแพทย์ที่เข้าร่วมการทดลองในการทดลองทดสอบใช้ AI ทางการแพทย์ในการรักษาผู้ป่วยเป็นส่วนหนึ่งของการทดลอง พวกเขาจะละเมิดกฎหมายวิชาชีพแพทย์แห่งชาติ น่าเสียดายที่กรอบการทดลองทดสอบของกฎหมาย AI ของสหภาพยุโรปอาจใช้เพื่อยกเว้นแพทย์ที่ละเมิดหลักการการรักษาโดยตรงจากค่าปรับทางปกครอง อย่างไรก็ตาม แพทย์อาจยังต้องเผชิญกับการเพิกถอนใบอนุญาตชั่วคราวตามกฎหมายแพทย์ของออสเตรีย (หรือที่เรียกว่า กฎหมายวิชาชีพแพทย์แห่งชาติ หรือ "กฎหมายนั้น" ตามที่กล่าวถึงในกฎหมาย AI ข้อ 53/12) ในท้ายที่สุด กรอบการทำงานที่ขยายขอบเขตของการยกเว้นสำหรับผู้ริเริ่มนวัตกรรมให้เกินขอบเขตของค่าปรับทางปกครองเพียงอย่างเดียวถือเป็นสิ่งสำคัญสำหรับการส่งเสริมการมีส่วนร่วมและส่งเสริมนวัตกรรม

ในที่สุด การกำหนดความรับผิดชอบต่อผู้เข้าร่วมการทดลองทดสอบอย่างต่อเนื่องสำหรับความเสียหายใดๆ ที่เกิดขึ้นกับบุคคลที่สามอาจจำกัดนวัตกรรม แม้ว่านักพัฒนาไม่ควรได้รับอนุญาตให้ใช้การทดลองทดสอบเป็นเกราะป้องกันความรับผิดชอบ แต่การทำให้ต้องอยู่ภายใต้ระบอบความรับผิดชอบเดียวกันระหว่างการทดลองทดสอบอาจทำให้การเข้าร่วมลดลง ซึ่งอาจทำให้ผู้พัฒนา AI ไม่กล้าเข้าร่วมการทดลองทดสอบ เนื่องจากพวกเขาจะเปิดเผยความลับทางการค้าและอัลกอริทึมของตนโดยไม่ได้รับการคุ้มครองความรับผิดชอบ ในที่สุด สิ่งนี้จะขัดขวางนวัตกรรม AI ในสหภาพยุโรป แม้ว่าผู้มีส่วนได้ส่วนเสียจำนวนมากได้วิพากษ์วิจารณ์เกี่ยวกับปัญหานี้และเน้นย้ำถึงความจำเป็นในการใช้แนวทางที่สมดุลระหว่างการคุ้มครองความรับผิดชอบและความรับผิดชอบ แต่การพบว่าแนวทางที่สมดุลนั้นยังคงเป็นคำถามที่ยากจะตอบในตอนนี้


ไม่มีความคิดเห็น:

แสดงความคิดเห็น