วันศุกร์ที่ 27 ธันวาคม พ.ศ. 2567

ปัญหากฎหมายลิขสิทธิดนตรีในยุคดิจิทัล

 ดนตรีต้องอาศัยชุดภาษาและโนเดียวกันและชุดเครื่องมือพื้นฐานที่ผู้ฟังจะเข้าใจได้ นักวิชาการด้านดนตรีได้ตั้งข้อสังเกตว่าดนตรีที่ไม่มี "ความซ้ำซาก" ในระดับหนึ่ง ซึ่งเกิดจากลักษณะทั่วไปของเพลงหลายๆ เพลง มักจะทำให้ผู้ฟังรู้สึกแตกต่าง แล้วนักแต่งเพลงควรสร้างสรรค์ผลงานต่อไปอย่างไรเมื่อองค์ประกอบสำคัญของภาษาเพลงร่วมกันของพวกเขาถูกอ้างสิทธิ์ตามกฎหมายลิขสิทธิ์ ประเด็นสำคัญในการถกเถียงว่าลิขสิทธิ์เพลงต้องปรับตัวอย่างไรในยุคดิจิทัล ประเด็นนี้ได้รับการยกตัวอย่างล่าสุดในคดีระหว่างเอ็ด ชีแรน นักร้องที่ครองชาร์ตเพลงและทายาทของเอ็ด ทาวน์เซนด์ นักร้องนักแต่งเพลง ซึ่งกล่าวหาว่าชีแรนละเมิดลิขสิทธิ์ในเพลงบัลลาดยอดนิยมของเขาที่ชื่อ Thinking Out Loud ทาวน์เซนด์ร่วมเขียนเพลงLet's Get it On ซึ่งเป็น เพลงปลดปล่อยทางเพศในปี ค.ศ. 1973 กับมาร์วิน เกย์ นักร้องแนวอาร์แอนด์บีและโซลชาวอเมริกัน และเป็นผู้ถือกรรมสิทธิ์มรดกของทาวน์เซนด์ที่ยื่นฟ้องโดยอ้างว่าชีแรนลอกเลียนเพลงดังกล่าวจากเพลง Thinking Out Loud ของเขา คดีความเหล่านี้ยื่นฟ้องในสหรัฐอเมริกา 

ทั้งนี้  มีสองกรณีที่เกี่ยวข้องกับเพลง Let's Get It On และ Thinking Out Loud ซึ่งบทความนี้จะเน้นไปที่กรณีที่สองซึ่งฟ้องโดยมรดกของทาวน์เซนด์และลูกสาวทางสายเลือดของเขา แคธริน กริฟฟิน ทาวน์เซนด์ คดีนี้พิจารณาในเดือนพฤษภาคม 2023 แม้ว่ากริฟฟิน ทาวน์เซนด์จะยื่นฟ้องละเมิดลิขสิทธิ์ครั้งแรกในปี ค.ศ. 2018 ชีแรนพยายามยกฟ้องโดยให้เหตุผลว่ากฎหมายลิขสิทธิ์ของสหรัฐฯ คุ้มครองเฉพาะแผ่นโน้ตเพลงของ เพลง Let's Get It On เท่านั้น เพลงทั้งสองเพลงไม่คล้ายคลึงกันเพียงพอ องค์ประกอบที่เหมือนกันของเพลงทั้งสองเพลงเป็นองค์ประกอบทางดนตรีที่เหมือนกัน และแม้ว่ากริฟฟิน ทาวน์เซนด์จะเป็นลูกสาวทางสายเลือดของทาวน์เซนด์ แต่ต่อมาเธอก็ได้รับการรับเลี้ยง

ผู้พิพากษาสแตนตันปฏิเสธคำร้องขอให้ยกฟ้องนี้ เนื่องจากมีความคล้ายคลึงกันมากเกินไปจนไม่สามารถ"ตัดสินว่าไม่ละเมิดลิขสิทธิ์ตามกฎหมาย" ได้ การพิจารณาคดีสิ้นสุดลงในเดือนพฤษภาคม ค.ศ. 2023 เนื่องจากล่าช้าเนื่องมาจากคดีที่คล้ายกันซึ่งเกี่ยวข้องกับเพลง Stairway to Heavenของวง Led Zeppelin และการระบาดของโควิด 19

ในกรณีนี้มีปัญหาสำคัญหลายประการ ประการแรก เพลงทั้งสองอยู่ภายใต้กฎหมายลิขสิทธิ์ที่แตกต่างกัน Let's Get it On เผยแพร่ในปี ค.ศ. 1973 ดังนั้นจึงอยู่ภายใต้กฎหมายลิขสิทธิ์ปี ค.ศ. 1909 มากกว่ากฎหมายลิขสิทธิ์ปี ค.ศ. 1976 ในสหรัฐอเมริกา กฎหมายลิขสิทธิ์ปี ค.ศ. 1909 กำหนดให้ต้องส่งผลงานดนตรีไปยังสำนักงานลิขสิทธิ์ของสหรัฐอเมริกาในรูปแบบโน้ตดนตรี ไม่ใช่การบันทึกเสียง ในทางตรงกันข้าม กฎหมายลิขสิทธิ์ปี ค.ศ. 1976 ซึ่งมีผลบังคับใช้เมื่อวันที่ 1 มกราคม ค.ศ. 1978 อนุญาตให้มีลิขสิทธิ์การบันทึกเสียง ซึ่งหมายความว่าแม้ว่าคณะลูกขุนจะฟัง การบันทึกเสียง Thinking Out Loud ในการพิจารณาคดีได้ แต่จะได้รับอนุญาตให้ฟังการบันทึกเสียง Let's Get it On ที่สร้างโดยคอมพิวเตอร์เท่านั้น

นอกจากนี้ ไม่สามารถขอรับความคุ้มครองตามกฎหมายลิขสิทธิ์สำหรับแนวคิดได้ แต่สามารถขอรับการจดทะเบียนลิขสิทธิ์ได้เฉพาะ “การแสดงออกที่จับต้องได้” เท่านั้น กฎหมายลิขสิทธิ์ของสหรัฐอเมริการะบุว่าลิขสิทธิ์ไม่ได้คุ้มครอง “แนวคิด ขั้นตอน กระบวนการ ระบบ วิธีการดำเนินการ แนวคิด [หรือ] หลักการใดๆ” ที่รวมอยู่ในผลงานการพิสูจน์การละเมิดลิขสิทธิ์ต้องพิสูจน์ว่าจำเลยได้คัดลอกผลงานที่เป็นปัญหาและการคัดลอกนั้น “ไม่เหมาะสม” ซึ่งหมายความว่าจำเลยได้คัดลอกเนื้อหาที่ได้รับการคุ้มครองจำนวนมาก ซึ่งอาจรวมถึงการพิสูจน์ว่าจำเลยมีสิทธิ์เข้าถึงเนื้อหาที่คัดลอกมาอย่างสมเหตุสมผล และแสดงให้เห็นว่าผลงานที่เป็นปัญหามีความคล้ายคลึงกันในระดับมาก 

หากเป็นไปตามเงื่อนไขดังกล่าว จำเลยต้องพิสูจน์ว่าไม่ได้คัดลอกผลงานดังกล่าว โดยอาศัยการป้องกันตน เช่น การสร้างสรรค์โดยอิสระ ทั้งสองฝ่ายได้ว่าจ้างผู้เชี่ยวชาญด้านดนตรีเพื่อโต้แย้งในทางเทคนิคเกี่ยวกับการละเมิดลิขสิทธิ์และต่อต้านการละเมิดลิขสิทธิ์ คดีละเมิดลิขสิทธิ์มุ่งเน้นไปที่ความคล้ายคลึงกันของความคืบหน้าของคอร์ด ผู้เชี่ยวชาญด้านดนตรีของโจทก์ Alexander Stewart ได้สังเกตเห็นความคล้ายคลึงกันระหว่างจังหวะนอกจังหวะที่ใช้ในการเล่นความคืบหน้าของคอร์ดในเพลงทั้งสองเพลง เขาอ้างว่าการผสมผสานระหว่างความคืบหน้าของคอร์ดนี้กับจังหวะนอกจังหวะเกิดขึ้นในเพลงอื่นเพียงเพลงเดียวเท่านั้น ซึ่งเป็นเพลงคัฟเวอร์ที่ไม่ค่อยมีใครรู้จักของ Georgy Girl จากปี ค.ศ. 1966 ทนายความของโจทก์ยังได้เปิดวิดีโอที่เรียกว่า "ปืนควันหลง" ซึ่ง Sheeran เล่นเพลงทั้งสองเพลงที่เป็นปัญหาในลักษณะผสมผสานกัน ทีมของชีแรนโต้แย้งข้อกล่าวหาเรื่องการละเมิดลิขสิทธิ์อย่างแข็งกร้าว ฝ่ายจำเลยใช้รายละเอียดทางดนตรีเป็นหลักและยังใช้ประโยชน์จากบุคลิกของชีแรนอีกด้วย ถึงแม้ว่าเกย์และทาวน์เซนด์จะไม่ได้ร่วมในการพิจารณาคดีนี้ แต่ชีแรนก็สามารถให้การโดยเล่นกีตาร์และร้องเพลงได้

ข้อโต้แย้งทางดนตรีวิทยาของฝ่ายจำเลยมีประเด็นสำคัญสามประการ: ประการแรก พวกเขาโต้แย้งว่าการดำเนินคอร์ดนั้นทั่วไปเกินไปจนไม่สามารถคุ้มครองลิขสิทธิ์ได้ พวกเขาอ้างว่ามันเป็น "ส่วนประกอบ" ของดนตรี และด้วยเหตุนี้ นักดนตรีทุกคนจึงสามารถใช้มันได้อย่างอิสระ ลอว์เรนซ์ เฟอร์รารา นักดนตรีวิทยาของฝ่ายจำเลยได้แสดงให้เห็นสิ่งนี้โดยอ้างถึงการดำเนินคอร์ดที่ปรากฏในสื่อการศึกษา เช่น "วิธีเล่นเปียโนร็อคแอนด์โรล" ประการที่สอง ฝ่ายจำเลยโต้แย้งว่าการผสมผสานระหว่างจังหวะและความก้าวหน้าของคอร์ดไม่ใช่ลักษณะเฉพาะ และเฟอร์ราราได้ยกตัวอย่าง 6 กรณีเพื่อแสดงให้เห็นสิ่งนี้ และประการที่สาม Sheeran แสดงให้เห็นว่ามีข้อแตกต่างเล็กน้อยระหว่างความคืบหน้าของคอร์ดทั้งสอง คอร์ดที่สองในความคืบหน้าของ Sheeran แตกต่างจากคอร์ดในLet's Get it On เพียงหนึ่งโน้ต แม้ว่าคอร์ดทั้งสองนี้จะมีหน้าที่เดียวกันในความคืบหน้า ทำให้เป็นเทียบเท่าทางดนตรีของคำพ้องความหมาย แต่ความแตกต่างนี้ทำให้ความคล้ายคลึงกันลดน้อยลง และฝ่ายจำเลยโต้แย้งว่าประเด็นวิดีโอที่ผสมผสานกัน โดยระบุว่าการผสมผสานกันเป็นองค์ประกอบที่พบบ่อยในการแสดงสดของชีแรน ชีแรนได้แสดงให้เห็นโดยการแสดงเพลง Thinking Out Loud และเล่นเพลงสามเพลงที่แตกต่างกัน รวมถึงเพลง You're Still the One ของ Shania Twain และเพลง Just Like a Woman ของ Bob Dylan

ทั้งนี้ คณะลูกขุนตัดสินให้ Sheeran ชนะคดีหลังจากใช้เวลาพิจารณาคดีนานถึง 3 ชั่วโมงครอบครัว Townsend ตั้งใจที่จะยื่นอุทธรณ์การตัดสินใจครั้งนี้มีความสำคัญในบริบทของคดีละเมิดลิขสิทธิ์เพลงยอดนิยมที่เพิ่มขึ้นในช่วงนี้ การเพิ่มขึ้นนี้อาจเกิดจากการพัฒนาด้านเทคโนโลยี ในระดับที่กว้างที่สุด การสตรีมออนไลน์ทำให้ไม่เพียงแต่เพลงที่แต่งขึ้นในปัจจุบันหลายล้านเพลงเท่านั้น แต่ยังรวมถึงแคตตาล็อกเพลงประวัติศาสตร์จำนวนมหาศาลด้วย ซึ่งทำให้การละเมิดลิขสิทธิ์โดยเจตนาทำได้ง่ายขึ้นและการละเมิดลิขสิทธิ์โดยไม่ตั้งใจก็มีโอกาสเกิดขึ้นได้มากขึ้น นอกจากนี้ ยังมีแนวโน้มที่เพิ่มขึ้นในการผสานรวมและนำงานศิลปะเก่ากลับมาใช้ใหม่ในวัฒนธรรมดิจิทัล เหตุผลอีกประการหนึ่งที่ทำให้บรรยากาศการฟ้องร้องกันเพิ่มมากขึ้นเกี่ยวข้องกับกิจกรรมทางการตลาดที่ค่อนข้างใหม่ในการเป็นเจ้าของแคตตาล็อกซึ่งดำเนินการโดยสำนักพิมพ์ เช่น Primary Wave ซึ่งหมายความว่าสำนักพิมพ์สนับสนุนให้ศิลปินของตนใช้ตัวอย่างแคตตาล็อกที่ตนเป็นเจ้าของเพื่อส่งเสริมวัฒนธรรมการนำกลับมาใช้ใหม่และรีไซเคิลในเพลงยอดนิยม นอกจากนี้ สำนักพิมพ์เหล่านี้ยังมีแรงจูงใจที่จะฟ้องร้องศิลปินที่รู้สึกว่าเป็นการละเมิดเนื้อหาที่ตนเป็นเจ้าของลิขสิทธิ์ จึงกล่าวได้ว่าคดีของ Sheeran เป็นเพียงคดีล่าสุดในบรรดาคดีละเมิดลิขสิทธิ์เพลงที่มีชื่อเสียงหลายคดีที่เกิดขึ้นในช่วงไม่กี่ปีที่ผ่านมา คดีอื่นๆ ที่น่าสนใจ ได้แก่ คดีที่ทายาทของ Gaye ฟ้อง Robin Thicke และ Pharrell Williams ในปี 2015 (ในที่สุดมรดกของ Gaye ก็ได้รับค่าเสียหาย 7.4 ล้านเหรียญสหรัฐ) และข้อกล่าวหาละเมิดลิขสิทธิ์ที่ยื่นฟ้อง Led Zeppelin และ Katy Perry ในปี 2020 และ 2022 ตามลำดับ  แต่จำนวนคดีที่เพิ่มขึ้นและธรรมชาติที่ซับซ้อนมากขึ้นของคดีละเมิดลิขสิทธิ์เพลงดังกล่าวทำให้เกิดคำถามหลายประการในอนาคต

ในปัจจุบัน ลักษณะที่โดดเด่นที่สุดของเพลงมักจะอยู่ที่เสียงและการผลิตมากกว่าทำนองหรือเนื้อเพลง บางทีการแก้ไขกฎหมายลิขสิทธิ์ เพื่อสะท้อนให้เห็นเรื่องนี้อาจช่วยปกป้องลักษณะเด่นที่กลายมาเป็นส่วนที่มีเอกลักษณ์และเป็นต้นฉบับที่สุดของเพลง ในขณะเดียวกันก็อนุญาตให้มีภาษาทางดนตรีร่วมกัน ประการที่สอง ต้องยอมรับว่าในยุคดิจิทัลที่การนำวัสดุทางศิลปะอื่นๆ มาใช้ซ้ำและอ้างอิงถึงนั้นเป็นเรื่องง่ายและเป็นที่นิยมนักวิชาการบางคนเสนอว่าอาจจะจำเป็นต้องมีกรอบทางกฎหมายใหม่เพื่อให้ศิลปินได้รับประโยชน์จากแนวทางปฏิบัตินี้ แทนที่จะมุ่งเน้นไปที่การขจัดแนวทางปฏิบัตินี้


คดีผูกขาดการแข่งขันของบริษัทกูเกิ้ล

ในปี ค.ศ. 2024 มีการฟ้องร้องข้อหาป้องกันการผูกขาดต่อบริษัทกูเกิ้ล (Google) ซึ่งถือเป็นการฟ้องร้องคดีป้องกันการผูกขาดที่โดดเด่นที่สุดในรอบหลายทศวรรษ และถือเป็นชัยชนะครั้งแรกของคดีป้องกันการผูกขาดเหนือบริษัทเทคโนโลยียักษ์ใหญ่ตั้งแต่มีการตกลงกันในคดีป้องกันการผูกขาดของบริษัท Microsoft ในปี ค.ศ. 1998 ถึงแม้ว่าจะยังไม่ได้มีคำตัดสินบทลงโทษ ข้อจำกัด หรือแนวทางแก้ไขสำหรับการผูกขาดของกูเกิ้ล แต่คดีนี้อาจส่งผลกระทบอย่างมากต่อบริษัทเทคโนโลยียักษ์ใหญ่ รายอื่นๆ และอาจเป็นบรรทัดฐานทางกฎหมายสำหรับคดีป้องกันการผูกขาดในอนาคต เพราะมีความกังวลว่าการเปลี่ยนแปลงแนวทางปฏิบัติทางธุรกิจของกูเกิ้ล อาจนำไปสู่การเปลี่ยนแปลงครั้งสำคัญในเครื่องมือสืบค้นทางอินเทอร์เน็ตและทางเลือกของผู้บริโภคในบริษัทเทคโนโลยียักษ์ใหญ่อื่นๆ

เมื่อวันที่ 5 สิงหาคม พ.ศ. 2567 ผู้พิพากษาของรัฐบาลกลางได้ตัดสินว่า บริษัทกูเกิ้ลมีอำนาจเหนือตลาดในบริการสืบค้นและการโฆษณาออนไลน์ในคดีที่ยื่นฟ้องโดยกระทรวงยุติธรรมของสหรัฐอเมริกา (DOJ) ในปี ค.ศ. 2020 และมีอัยการสูงสุดของรัฐมากกว่า 30 คนร่วมพิจารณาด้วย โดยให้เหตุผลว่ามีข้อกังวลเกี่ยวกับการครอบงำตลาดของกูเกิ้ลในตลาดบริการสืบค้นทางอินเทอร์เน็ต และกล่าวหาว่ากูเกิ้ลกำลังใช้วิธีการที่ผิดกฎหมายเพื่อสกัดกั้นบริการและเครื่องมือสืบค้นของบริษัทคู่แข่ง เช่น Bing และ DuckDuckGo โดยกูเกิ้ลได้ทำสัญญากับบริษัทใหญ่ๆ หลายแห่ง รวมถึงเบราว์เซอร์อินเทอร์เน็ตและผู้ผลิตสมาร์ทโฟน เช่น Apple และ Android เพื่อเป็นเครื่องมือสืบค้นเริ่มต้นบนอุปกรณ์เหล่านี้ ซึ่งส่งผลกดดันให้คู่แข่งออกไปตลาดและหยุดไม่ให้คู่แข่งได้ส่วนแบ่งทางการตลาด เนื่องจากตลาดการสืบค้นของกูเกิ้ลมีอำนาจเหนือตลาดกว่าอย่างมากและมีอำนาจผูกขาดในบริหาร Google Chrome, Google Ad Network, Google Ads Hub, Google Analytics และ Google Tag Manager อย่างแยกไม่ออก ซึ่งแสดงถึงอำนาจผูกขาดเมื่อสร้างความเสียหายให้กับตลาด 

คำตัดสินของผู้พิพากษา Amit Mehta เห็นด้วยกับกระทรวงยุติธรรมที่ว่า กูเกิ้ลเป็นผู้ผูกขาดในกิจการสืบค้นทางอินเทอร์เน็ตโดยสามารถห้ามคู่แข่งในบริการสืบค้นทางอินเทอร์เน็ตและรายได้จากโฆษณาที่เพิ่มขึ้น ทำให้บริษัทกูเกิ้ลสามารถเพิ่มราคาโฆษณาดิจิทัลและครองตลาดได้มากขึ้น โดยกูเกิ้ลมีส่วนแบ่งการตลาดบริการสืบค้นทั่วไป 89.2% ซึ่งเพิ่มขึ้นเป็น 94.9% บนอุปกรณ์พกพา ดังนั้น พฤติกรรมของกูเกิ้ล ถือเป็นการละเมิดมาตรา 2 ของกฎหมายป้องกันการผูกขาด ซึ่งห้ามไม่ให้ธุรกิจหรือบุคคลผูกขาดการค้าหรือการพาณิชย์ระหว่างรัฐ รวมถึงการพยายามหรือสมคบคิดเพื่อผูกขาด อย่างไรก็ตาม กูเกิ้ล ได้ประกาศว่าจะอุทธรณ์คำตัดสินดังกล่าว โดยอ้างว่าจะจำกัดผู้บริโภคจากการเข้าถึงเครื่องมือสืบค้นที่ตนต้องการ 

อนึ่งที่ผ่านมา เคยมีคำตัดสินของศาลฎีกาเกี่ยวกับคดีป้องกันการผูกขาดกับบริษัทเทคโนโลยียักษ์ใหญ่ เช่น คดีป้องกันการผูกขาดของไมโครซอฟต์ในปี พ.ศ. 2542 ซึ่งระบุว่าไมโครซอฟต์ผูกขาดตลาดแอพปริเคชั่นบนเว็บโดยเชื่อมโยงระบบปฏิบัติการ Windows เข้ากับ Internet Explorer ในกรณีดังกล่าว ไมโครซอฟต์ได้ยอมความ และคำตัดสินได้กำหนดข้อจำกัดเพื่อป้องกันการผูกขาด อย่างไรก็ตาม นี่ไม่ใช่คดีป้องกันการผูกขาดเพียงคดีเดียวที่ยังคงดำเนินอยู่ในขณะนี้คดีอื่นที่ฟ้อง กูเกิ้ลซึ่งยื่นโดยรัฐบาลของ Biden ในปี 2023 เกี่ยวข้องกับการผูกขาดพื้นที่ AdTech มีกำหนดจะยื่นในเดือนกันยายน นอกจากนี้ บริษัทเทคโนโลยียักษ์ใหญ่รายอื่นๆ เช่น Amazon และApple ยังคงมีคดีป้องกันการผูกขาดอยู่

กรณีของ Microsoft ได้สร้างบรรทัดฐานทางกฎหมายสำหรับบริษัทซอฟต์แวร์ ข้อจำกัดที่อาจบังคับใช้กับกูเกิ้ล และอาจเปลี่ยนแปลงวิธีที่ผู้บริโภคใช้งานเครื่องมือสืบค้นและผลลัพธ์ที่ได้รับจากกูเกิ้ลและเครื่องมือสืบค้นโดยทั่วไปได้อย่างพื้นฐาน องค์ประกอบหลักอย่างหนึ่งของคดีนี้คือข้อตกลงมูลค่าหลายพันล้านดอลลาร์พิเศษที่จะเป็นเครื่องมือสืบค้นเริ่มต้นสำหรับผู้ผลิตอุปกรณ์ เช่น Apple และ Samsung หากผลลัพธ์ออกมามีข้อจำกัดในการห้ามสัญญาเหล่านี้ ผลลัพธ์ที่ได้ก็คือการเปลี่ยนแปลงในตัวเลือกการสืบค้นเริ่มต้น ซึ่งอาจส่งผลกระทบต่อการผูกขาดเครื่องมือสืบค้นของกูเกิ้ล อย่างมาก และนำไปสู่การเปลี่ยนแปลงอื่นๆ อีกมากมายในการสืบค้นทางอินเทอร์เน็ต กล่าวคือการจำกัดการผูกขาดหรือการถอนการลงทุนของกูเกิ้ล อาจนำไปสู่การแข่งขันรูปแบบใหม่ในตลาดเครื่องมือสืบค้น เครื่องมือสืบค้นอื่นๆ จำนวนมากอาจเข้ามาครอบครองตลาดของ กูเกิ้ล บางส่วนได้ ซึ่งจะทำให้ทรัพยากรทางการเงินของกูเกิ้ลลดลง และอาจทำให้เกิดการแข่งขัน โดยเฉพาะในตลาดองค์กร

นอกจากนี้ คู่แข่งเพิ่มเติมสามารถนำเสนอตัวเลือกการสืบค้นที่หลากหลายยิ่งขึ้น รวมถึงตัวเลือกการสืบค้นที่ขับเคลื่อนด้วย AI มากขึ้น เช่น SearchGPT ของ OpenAI หรือ Bing ซึ่งเป็นเสิร์ชเอ็นจิ้นของ Microsoft ยังได้นำ AI เข้ามาใช้ในการสืบค้นอีกด้วย หาก Microsoft สามารถครองส่วนแบ่งตลาดได้มากขึ้น การนำ AI มาใช้ในเสิร์ชเอ็นจิ้นอาจช่วยปฏิวัติวงการเสิร์ชเอ็นจิ้นได้ คู่แข่งที่เพิ่มมากขึ้นอาจผลักดันนวัตกรรมและความคิดสร้างสรรค์ เปลี่ยนแปลงมาตรฐานการสืบค้นบนอินเทอร์เน็ต และแนะนำฟีเจอร์ใหม่ และสุดท้ายก็ผลการสืบค้นที่ดีขึ้น ประเด็นน่าสนใจอีกประการหนึ่งของคดีนี้คือแนวทางการโฆษณาของ กูเกิ้ล ซึ่งช่วยรักษาการผูกขาดตลาดของ กูเกิ้ล เอาไว้ได้ หากแนวทางดังกล่าวถูกบังคับให้เปลี่ยนแปลงเนื่องจากการตัดสินดังกล่าว อาจส่งผลให้การโฆษณาดิจิทัลเปลี่ยนแปลงไป รวมถึงประเภทของโฆษณาที่ผู้บริโภคเห็นและความเกี่ยวข้องของโฆษณาด้วย

การเกิดขึ้นของคู่แข่งรายใหม่และตัวเลือกเครื่องมือสืบค้นที่เพิ่มมากขึ้นทำให้ผู้บริโภคมีตัวเลือกในการเลือกเครื่องมือสืบค้นที่ต้องการใช้ ซึ่งอาจนำไปสู่การตัดสินใจของผู้บริโภคที่มีข้อมูลครบถ้วนมากขึ้นได้เช่นกัน และการเพิ่มขึ้นของตัวเลือกของผู้บริโภคอาจทำให้ผู้ใช้การสืบค้นทางอินเทอร์เน็ตตระหนักถึงนโยบายความเป็นส่วนตัวของเครื่องมือสืบค้นต่างๆ มากขึ้น และส่งผลต่อประสิทธิผลของแนวทางการโฆษณาของกูเกิ้ล ทั้งนี้ ไม่ว่าผลลัพธ์จะเป็นอย่างไร คำตัดสินดังกล่าวจะมีผลกว้างๆ ต่อบริษัทเทคโนโลยียักษ์ใหญ่อื่นๆ เช่น Amazon และ Meta รวมถึงทำให้บริษัทต่างๆ มองเห็นได้ชัดเจนขึ้นและมีอำนาจเหนือคู่แข่งในคดีป้องกันการผูกขาดอื่นๆ โดยรวมแล้ว การเปลี่ยนแปลงเหล่านี้อาจช่วยเพิ่มความโปร่งใสระหว่างผู้บริโภคและบริษัทต่างๆ และทำให้ผู้บริโภคมีทางเลือกมากขึ้น

อนึ่ง คำตัดสินดังกล่าวถือเป็นการเตือนบริษัทเทคโนโลยีอื่นๆ เกี่ยวกับแนวทางปฏิบัติด้านการแข่งขันที่ไม่เป็นธรรม เนื่องจากเป็นการพิสูจน์ว่าบริษัทเหล่านี้ไม่ใช่ผู้ที่อยู่เหนือใครในศาล การเปลี่ยนแปลงครั้งใหญ่จะเกิดขึ้นเมื่อศาลกำหนดว่า กูเกิ้ลต้องดำเนินการอย่างไรเพื่อแก้ไขตนเองภายใต้คำตัดสินดังกล่าว และเมื่อวันที่ 8 ตุลาคม 2024 กระทรวงยุติธรรมได้เสนอคำแนะนำเกี่ยวกับแนวทางปฏิบัติด้านเครื่องมือสืบค้น แนวทางแก้ไขเชิงโครงสร้างบ่งชี้ว่าอาจมีการแตกแยกกันในประเด็นการป้องกันการผูกขาด เอกสารดังกล่าวระบุว่าแนวทางแก้ไขจะ "ป้องกันและยับยั้งการเกิดซ้ำของการกระทำความผิดซ้ำซากของการบำรุงรักษาระบบผูกขาดโดยผิดกฎหมาย" แนวทางแก้ไขบางส่วนที่กล่าวถึง ได้แก่ การจำกัดการผิดนัดและข้อตกลงก่อนการติดตั้งกับบริษัทต่างๆ เช่น Apple

นอกจากนี้ กระทรวงยุติธรรมยังระบุในเอกสารที่ยื่นต่อศาลว่า กำลังพิจารณาแนวทางแก้ไขทางพฤติกรรมและโครงสร้างที่จะป้องกันไม่ให้กูเกิ้ลใช้ผลิตภัณฑ์ เช่น Chrome, Play และ Android เพื่อใช้ประโยชน์จากการสืบค้นของ กูเกิ้ล และผลิตภัณฑ์และคุณลักษณะที่เกี่ยวข้องกับการสืบค้นของกูเกิ้ล ซึ่งรวมถึงจุดเข้าถึงการสืบค้นที่เกิดใหม่และคุณลักษณะ เช่น ปัญญาประดิษฐ์ มากกว่าคู่แข่งหรือผู้เข้ามาใหม่

แนวทางแก้ไขจะครอบคลุม 4 หมวดหมู่ ได้แก่ ประการแรกการสืบค้นการจัดจำหน่ายและการแบ่งปันรายได้ ประการที่สองการสร้างและแสดงผลลัพธ์การสืบค้น ประการที่สาม ขนาดการโฆษณาและการสร้างรายได้ และประการที่สี่การสะสมและการใช้งานข้อมูล

ต่อมาเมื่อวันที่ 9 กันยายน 2024 กระทรวงยุติธรรมได้เริ่มพิจารณาคดีป้องกันการผูกขาดครั้งที่สองกับกูเกิ้ล คดีนี้โต้แย้งว่า กูเกิ้ลใช้เครื่องมือโฆษณาที่มีอยู่เพื่อสร้างการผูกขาด ส่งผลให้ลูกค้าต้องจ่ายราคาโฆษณาสูงขึ้น กระทรวงยุติธรรมโต้แย้งว่ากูเกิ้ลล็อกผู้ลงโฆษณาด้วยผลิตภัณฑ์และเว็บไซต์ของตน และบังคับให้ผู้ลงโฆษณาใช้เทคโนโลยีนี้เพื่อเข้าถึงลูกค้า กูเกิ้ลหักส่วนแบ่งค่าโฆษณาจำนวนมากจากทั้งสองฝ่าย นอกจากนี้ กระทรวงยุติธรรมจะชี้ให้เห็นการเข้าซื้อกิจการของกูเกิ้ล เพื่อแสดงให้เห็นว่ากูเกิ้ลได้ครอบครองตลาดโฆษณาดิจิทัลทุกด้านด้วยการเข้าซื้อกิจการต่างๆ เช่น  DoubleClick, Invite Media และ AdMeld เป็นต้น


 

วันพฤหัสบดีที่ 26 ธันวาคม พ.ศ. 2567

Regulatory Sandbox ของกฎหมายปัญญาประดิษฐ์

กฎหมายปัญญาประดิษฐ์ของสหภาพยุโรป (AI Act) นำเสนอกรอบการทำงานสำหรับการทดลองทดสอบด้านกฎระเบียบ (Regulatory Sandbox) เพื่อสนับสนุนการพัฒนาเทคโนโลยีปัญญาประดิษฐ์ (AI) ในขณะเดียวกัน กฎหมายดังกล่าวก็มีวัตถุประสงค์เพื่อปกป้องสุขภาพ ความปลอดภัย และสิทธิขั้นพื้นฐานด้วย หลักการที่สำคัญประการหนึ่งในกฎหมายดังกล่าวคือ Regulatory sandbox ซึ่งเป็นเครื่องมือที่ให้บริบทที่มีโครงสร้างสำหรับการทดลองทดสอบเทคโนโลยี AI ผลิตภัณฑ์ หรือบริการใหม่ๆ ในสภาพแวดล้อมในโลกแห่งความเป็นจริงได้เป็นเวลาจำกัดและภายใต้การกำกับดูแลของหน่วยงานกำกับดูแล ช่วยให้นักประดิษฐ์สามารถทดสอบนวัตกรรมในสภาพแวดล้อมที่ควบคุมได้ และช่วยให้หน่วยงานกำกับดูแลเข้าใจเทคโนโลยีใหม่ๆ ได้ดียิ่งขึ้น 

Regulatory sandbox ได้รับการพัฒนาขึ้นในเบื้องต้นเพื่อส่งเสริมนวัตกรรมในอุตสาหกรรมบริการทางการเงิน แต่ปัจจุบันก็เริ่มมีการนำมาใช้ในพื้นที่อื่นๆ เช่น การค้า การดูแลสุขภาพ การเคลื่อนที่ การปกป้องข้อมูล และการควบคุม AI เป้าหมายของเครื่องมือนี้ในทุกพื้นที่เหล่านี้คือเพื่อให้เกิดนวัตกรรมและรับรองความปลอดภัยผ่านความแน่นอนทางกฎหมาย การบังคับใช้กฎหมาย และความยืดหยุ่น ในหลายประเทศมีกฎหมายเกี่ยวกับ Regulatory sandbox  โดยเฉพาะอย่างยิ่งในภาคส่วนนวัตกรรมทางการเงิน อย่างเช่น Financial Conduct Authority (FCA) ของสหราชอาณาจักรได้ออก Regulatory sandbox อย่างเป็นทางการแห่งแรกขึ้นในปี 2016 ตั้งแต่นั้นมา FCA ได้ให้การสนับสนุนบริษัทต่างๆ มากกว่า 700 แห่ง และเพิ่มความเร็วเฉลี่ยในการนำบริษัทออกสู่ตลาดได้ 40% เมื่อเทียบกับเวลาอนุมัติมาตรฐานของหน่วยงานกำกับดูแล ตัวอย่างที่ประสบความสำเร็จอีกประการหนึ่งคือ Regulatory sandbox ของสิงคโปร์ สำนักงานการเงินสิงคโปร์ (MAS) เผยแพร่แนวปฏิบัติสำหรับ Regulatory sandbox ทางการเงินในปี 2559 หน่วยงานสนามทดสอบในสิงคโปร์ได้รับการยกเว้นภาระด้านการบริหารและการเงินจากกระบวนการปฏิบัติตามกฎระเบียบทั่วไป และมีสิทธิได้รับพื้นที่ทดสอบที่กว้างขึ้น

ในทางกฎหมายนั้น Regulatory Sandbox สามารถจัดให้มีอำนาจทางกฎหมายต่างๆ ได้ โดยปกติแล้วจะเป็น การให้คำแนะนำทางกฎหมาย การออกหนังสือไม่บังคับใช้กฎหมาย และ/หรือ ให้การยกเว้นจากกฎหมาย ประการแรก หน่วยงานกำกับดูแลสามารถให้คำแนะนำทางกฎหมายแก่ผู้สร้างสรรค์นวัตกรรม เพื่อช่วยให้พวกเขาพิจารณาว่าผลิตภัณฑ์หรือบริการ AI ของพวกเขาเป็นไปตามข้อกำหนดทางกฎหมายปัจจุบันหรือไม่ คำแนะนำดังกล่าวสามารถให้ได้โดยผ่านเอกสารคำแนะนำทั่วไปหรือคำแนะนำเฉพาะบุคคลที่ตอบคำถามของผู้สร้างสรรค์นวัตกรรม

ประการที่สอง หน่วยงานกำกับดูแลยังสามารถออกหนังสือแจ้งไม่บังคับใช้กฎหมายให้กับผู้สร้างสรรค์นวัตกรรมที่เข้าร่วมในโครงการทดลองได้ หนังสือเหล่านี้มีวัตถุประสงค์หลัก 2 ประการ ได้แก่ (1) ให้คำแนะนำโดยอธิบายข้อกำหนดทางกฎหมายที่ผู้สร้างสรรค์นวัตกรรมต้องปฏิบัติตามอย่างชัดเจนเพื่อหลีกเลี่ยงการเผชิญกับบทลงโทษหรือการดำเนินคดีทางกฎหมาย และ (2) ในบางกรณี การประกาศแจ้งไม่บังคับใช้กฎหมายสามารถรับรองได้ว่าหน่วยงานกำกับดูแลจะไม่ดำเนินคดีทางกฎหมายกับผู้สร้างสรรค์นวัตกรรมสำหรับกิจกรรมการทดสอบเฉพาะ แม้ว่าจะไม่ปฏิบัติตามข้อกำหนดทางกฎหมายบางประการอย่างสมบูรณ์ก็ตาม อย่างไรก็ตาม การประกาศแจ้งไม่บังคับใช้กฎหมายประเภทนี้จะได้รับอนุญาตเฉพาะในกรณีที่มีมาตรการที่เหมาะสมในการปกป้องสิทธิของบุคคลที่สามและเพื่อให้แน่ใจว่าผู้สร้างสรรค์นวัตกรรมยังคงต้องรับผิดชอบต่อการก่อให้เกิดอันตรายใดๆ

ประการที่สาม sandbox ของหน่วยงานกำกับดูแลยังสามารถช่วยให้ผู้สร้างสรรค์นวัตกรรมได้รับการยกเว้นจากข้อกำหนดทางกฎหมายบางประการ การยกเว้นเหล่านี้ทำให้ผู้สร้างสรรค์นวัตกรรมสามารถละเลยกฎหมายเฉพาะบางฉบับเป็นการชั่วคราวได้ แต่ต้องอยู่ภายใต้เงื่อนไขที่เข้มงวดที่กำหนดโดยหน่วยงานกำกับดูแล ตัวอย่างเช่น หน่วยงานกำกับดูแลอาจ (1) ติดตามกิจกรรมของนวัตกรรมอย่างใกล้ชิด (2) เรียกร้องให้ผู้ริเริ่มสร้างสรรค์ความร่วมมือและแบ่งปันข้อมูล และ (3) กำหนดขอบเขตที่ชัดเจนว่าสามารถทดสอบอะไรได้บ้าง นานแค่ไหน และภายใต้สถานการณ์ใด

ข้อยกเว้นนั้นแตกต่างจากการประกาศแจ้งไม่บังคับใช้กฎหมาย ตรงที่เป็นการยกเว้นผู้สร้างสรรค์นวัตกรรมจากหน้าที่ทางกฎหมายบางประการ ในขณะที่หนังสือไม่บังคับใช้กฎหมายนั้นจะละเว้นไม่ให้เกิดการกำหนดผลทางกฎหมาย (เช่น ค่าปรับ) แก่ผู้สร้างสรรค์เท่านั้น ทั้งนี้ การยกเว้นเหล่านี้จะช่วยส่งเสริมนวัตกรรมโดยคำนึงถึงความจำเป็นในการมีความยืดหยุ่นและความจำเป็นในการกำกับดูแลอย่างรอบคอบ โดยยังคงรับประกันความปลอดภัยได้ อย่างไรก็ตาม ไม่ใช่ผู้เชี่ยวชาญทั้งหมดจะเห็นด้วยกับการจำกัดขอบเขตการกำกับดูแลบางคนโต้แย้งว่าการจำกัดขอบเขตการกำกับดูแลอาจทำให้นวัตกรรมช้าลงและหยุดชะงักได้จริง โดยสร้างอุปสรรคด้านระเบียบราชการเพิ่มเติม นอกจากนี้ ยังมีข้อสังเกตถึง ความท้าทายในทางปฏิบัติ เช่น ผู้บริโภคมองว่าผลิตภัณฑ์ที่ทดสอบในขอบเขตการกำกับดูแลนั้นได้รับการรับรองจากทางการ ซึ่งอาจส่งผลทางกฎหมายในเชิงลบ

อนึ่ง กฎหมาย AI มีวัตถุประสงค์เพื่อจัดทำกรอบกฎหมายที่เป็นมาตรฐานสำหรับ AI เพื่อส่งเสริมนวัตกรรมผ่านความแน่นอนทางกฎหมายในขณะที่รับประกันการคุ้มครองระดับสูงสำหรับสุขภาพ ความปลอดภัย และสิทธิขั้นพื้นฐาน กรอบการทดลองทดสอบของหน่วยงานกำกับดูแลเป็นหนึ่งในมาตรการสนับสนุนนวัตกรรมที่กำหนดไว้ในมาตรา 57 มาตรา 58 และมาตรา 59 กรอบการทดลองทดสอบของหน่วยงานกำกับดูแลมีวัตถุประสงค์เพื่อบรรลุวัตถุประสงค์ต่างๆ เช่น การส่งเสริมนวัตกรรม การเร่งการเข้าถึงตลาด การปรับปรุงความแน่นอนทางกฎหมาย และการมีส่วนสนับสนุนการเรียนรู้ด้านกฎระเบียบที่อิงตามหลักฐาน มาตรา 57 กำหนดอนุญาตการทดลองทดสอบของหน่วยงานกำกับดูแลว่าเป็น "สภาพแวดล้อมที่มีการควบคุมซึ่งส่งเสริมนวัตกรรมและอำนวยความสะดวกในการพัฒนา การฝึกอบรม การทดสอบ และการตรวจสอบความถูกต้องของระบบ AI ที่เป็นนวัตกรรมในช่วงเวลาจำกัดก่อนที่จะนำออกสู่ตลาดหรือใช้งานตามแผนการทดลองทดสอบเฉพาะที่ตกลงกันระหว่างผู้ให้บริการหรือผู้ให้บริการที่มีแนวโน้มจะเป็นผู้ให้บริการและหน่วยงานที่มีอำนาจหน้าที่" ตามมาตราดังกล่าว รัฐสมาชิกจะต้องจัดตั้งการทดลองทดสอบของหน่วยงานกำกับดูแลอย่างน้อยหนึ่งแห่ง พวกเขาอาจปฏิบัติตามภาระผูกพันนี้โดยการจัดตั้งการทดลองทดสอบร่วมกับรัฐสมาชิกอื่นๆ หรือโดยการเข้าร่วมในการทดลองทดสอบที่มีอยู่ สำนักงาน AI จะต้องจัดทำรายชื่อการทดลองทดสอบที่วางแผนและมีอยู่ให้สาธารณชนเข้าถึงได้ หน่วยงานที่มีอำนาจหน้าที่ระดับชาติจะต้องส่งรายงานประจำปีที่ให้ข้อมูลเกี่ยวกับความคืบหน้าและผลลัพธ์ของการดำเนินการทดลองทดสอบไปยังสำนักงานปัญญาประดิษฐ์ และคณะกรรมการ (ปกติหนึ่งปีหลังจากจัดตั้งการทดลองทดสอบทุกปีหลังจากนั้น และรายงานขั้นสุดท้าย) รายงานดังกล่าวจะต้องออนไลน์และเปิดให้สาธารณชนเข้าถึงได้ สำหรับรายละเอียดการจัดตั้ง การพัฒนา การนำไปปฏิบัติ การดำเนินงาน และการกำกับดูแลการทดลองทดสอบควบคุม AI มาตรา 58 กำหนดให้คณะกรรมาธิการต้องออกกฎหมายการดำเนินการที่ระบุการทดลองทดสอบดังกล่าว

กรอบการทำงานของการทดลองทดสอบช่วยให้สามารถให้คำแนะนำทางกฎหมาย การดูแล และการสนับสนุนจากหน่วยงานที่มีอำนาจในประเทศเพื่อเพิ่มความแน่นอนทางกฎหมายให้กับผู้สร้างสรรค์นวัตกรรม และเพื่อให้แน่ใจว่ามีการปฏิบัติตามกฎหมาย AI และกฎหมายของสหภาพหรือกฎหมายของประเทศที่เกี่ยวข้องอื่นๆ กิจกรรมการดูแลการปฏิบัติตามกฎหมายจะต้องระบุความเสี่ยงโดยเฉพาะต่อสิทธิพื้นฐาน สุขภาพ และความปลอดภัย ความเสี่ยงที่สำคัญใดๆ ต่อความเสี่ยงดังกล่าวจะต้องส่งผลให้มีการบรรเทาความเสี่ยงที่เหมาะสม หน่วยงานที่มีอำนาจในประเทศจะต้องระบุมาตรการและประสิทธิผลของมาตรการดังกล่าว หากไม่มีความเป็นไปได้ในการบรรเทาความเสี่ยงที่มีประสิทธิผล หน่วยงานที่มีอำนาจในประเทศอาจระงับกระบวนการทดสอบหรือการเข้าร่วมในการทดลองทดสอบชั่วคราวหรือถาวร หน่วยงานที่มีอำนาจในประเทศคาดว่าจะใช้อำนาจตามดุลยพินิจของตนอย่างยืดหยุ่นแต่ต้องอยู่ในขอบเขตของกฎหมายที่เกี่ยวข้อง และด้วยจุดมุ่งหมายเพื่อสนับสนุนนวัตกรรม ความสอดคล้องของระบบ AI กับข้อกำหนดของกฎหมายในระหว่างการทดลองทดสอบสามารถนำมาพิจารณาได้ในภายหลังในระหว่างการประเมินความสอดคล้อง บทบัญญัตินี้จะช่วยปรับกระบวนการเข้าถึงตลาดสำหรับนวัตกรรม AI ให้มีประสิทธิภาพยิ่งขึ้น 

นอกจากนี้ กฎหมาย AI ยังให้พื้นฐานทางกฎหมายแก่หน่วยงานกำกับดูแลในการงดเว้นจากการกำหนดค่าปรับทางปกครอง ดังนั้น หากผู้ให้บริการที่คาดหวังจะปฏิบัติตามแผนเฉพาะและข้อกำหนดและเงื่อนไข และปฏิบัติตามคำแนะนำของหน่วยงานที่มีอำนาจระดับชาติโดยสุจริตใจ ก็จะไม่มีการเรียกเก็บค่าปรับทางปกครองสำหรับการละเมิด อย่างไรก็ตาม กฎหมายยังกำหนดด้วยว่าผู้คิดค้นนวัตกรรมจะยังคงต้องรับผิดชอบต่อความเสียหายที่เกิดขึ้นระหว่างการทดสอบ ซึ่งหมายความว่า แม้ว่าการทดลองทดสอบจะให้การยกเว้นจากการปฏิบัติตามกฎระเบียบ แต่ก็ไม่ได้ปกป้องผู้เข้าร่วมจากความรับผิด 

กรอบงานทดสอบเชิงกำกับดูแลของกฎหมาย AI ก่อให้เกิดข้อกังวลหลายประการที่จำเป็นต้องได้รับการแก้ไขเพื่อให้แน่ใจว่ากรอบงานดังกล่าวมีประสิทธิภาพในการส่งเสริมนวัตกรรมไปพร้อมกับการปกป้องสิทธิและความปลอดภัยขั้นพื้นฐาน ประการแรก การทดลองทดสอบอาจสร้างการรับรู้ที่ผิดๆ เกี่ยวกับความปลอดภัยและการปฏิบัติตามข้อกำหนดในตลาด ระบบ AI ที่ผ่านข้อกำหนดด้านกฎระเบียบระหว่างการการทดลองทดสอบอาจยังคงมีความเสี่ยงต่อความรับผิดหรือพัฒนาไปเป็น AI ที่มีความเสี่ยงสูงผ่านการใช้งานที่ไม่คาดคิด การอนุมัติจากการทดลองทดสอบไม่ควรเข้าใจว่าเป็นการรับประกันความปลอดภัยหรือการไม่มีความเสี่ยงต่อความรับผิด เพื่อหลีกเลี่ยงการทำให้ผู้บริโภคและผู้ถือผลประโยชน์เข้าใจผิด การสื่อสารที่ชัดเจนและการปฏิเสธความรับผิดชอบเกี่ยวกับข้อจำกัดของการทดลองทดสอบจึงมีความจำเป็น นอกจากนี้ การให้ความรู้แก่สาธารณชนเกี่ยวกับความรู้ด้าน AI ถือเป็นสิ่งสำคัญและควรเป็นหนึ่งในภาระผูกพันของประเทศสมาชิก

ประการที่สอง แนวทางปฏิบัติที่แตกต่างกันของการทดลองทดสอบในแต่ละรัฐของสหภาพยุโรปอาจนำไปสู่ความไม่แน่นอนและความสับสนในตลาด กฎหมาย AI ไม่ได้จัดตั้งการทดลองทดสอบของกฎระเบียบ AI ของสหภาพยุโรปที่เป็นเนื้อเดียวกัน แต่ให้รัฐสมาชิกสหภาพยุโรปหนึ่งรัฐขึ้นไปจัดตั้งการทดลองทดสอบ ซึ่งอาจส่งผลให้มีกรอบงานและการดำเนินการที่แตกต่างกัน การแยกส่วนนี้อาจขัดขวางการพัฒนาตลาด AI ที่สอดประสานกันในสหภาพยุโรป ซึ่งตรงข้ามกับเป้าหมายของกฎหมายที่ระบุไว้ในมาตรา 1 นอกจากนี้ โครงสร้างที่ไม่สม่ำเสมอของการทดลองทดสอบอาจเป็นความท้าทายสำหรับนักพัฒนา AI ที่ดำเนินงานในเขตอำนาจศาลหลายแห่ง เพื่อให้แน่ใจว่ามีความสอดคล้องและหลีกเลี่ยงการตัดสินทางกฎหมาย การประสานงานและความร่วมมือระหว่างหน่วยงานกำกับดูแลระดับชาติและคณะกรรมการจึงมีความสำคัญ 

ประการที่สาม รายละเอียดเกี่ยวกับการประสานงานและความร่วมมือระหว่างหน่วยงานกำกับดูแลระดับชาติและคณะกรรมการปัญญาประดิษฐ์แห่งยุโรปยังไม่ชัดเจนในกฎหมายนี้ ในขณะที่กฎระเบียบบางฉบับสามารถออกโดยสถาบันของสหภาพยุโรปโดยตรงแทนที่จะออกโดยประเทศสมาชิก กฎระเบียบอื่นๆ ที่ออกโดยประเทศสมาชิกอาจได้รับอิทธิพลหรือถูกกำหนดโดยกฎระเบียบของสหภาพยุโรป นอกจากนี้ กฎระเบียบบางฉบับสามารถออกโดยประเทศสมาชิกได้โดยตรง ในบริบทนี้ การสร้างกฎเกณฑ์การนำไปปฏิบัติร่วมกันอาจเป็นเรื่องท้าทาย เนื่องจากลำดับความสำคัญและแนวทางของประเทศสมาชิกนั้นแตกต่างกัน อย่างไรก็ตาม การกำหนดขอบเขตความรับผิดชอบของประเทศสมาชิกและคณะกรรมการอย่างชัดเจน และกลไกการแก้ไขเพื่อแก้ไขข้อขัดแย้งที่อาจเกิดขึ้นจะมีประสิทธิผลสำหรับการดำเนินการของการทดลองทดสอบปัญญาประดิษฐ์ทั่วทั้งสหภาพยุโรป

ประการที่สี่ การทดลองทดสอบสามารถยกเว้นผู้คิดค้นนวัตกรรมจากค่าปรับทางปกครองเท่านั้น แต่ไม่สามารถยกเว้นการดำเนินการบังคับใช้กฎหมายประเภทอื่นได้ ซึ่งอาจไม่เพียงพอสำหรับผู้คิดค้นนวัตกรรมในบางภาคส่วน ตัวอย่างที่เฉพาะเจาะจงคือ การทดลองทดสอบสำหรับ AI ทางการแพทย์ในออสเตรีย การทดลองทดสอบสำหรับ AI ทางการแพทย์จะต้องอยู่ภายใต้การกำกับดูแลของกฎหมาย AI กฎหมายอุปกรณ์ทางการแพทย์ของสหภาพยุโรป และกฎหมายวิชาชีพแพทย์แห่งชาติร่วมกัน ในออสเตรีย หลักการการรักษาโดยตรงของกฎหมายแพทย์ออสเตรียกำหนดให้แพทย์ต้องรักษาผู้ป่วยโดยทั่วไปแบบพบหน้ากัน ดังนั้น หากแพทย์ที่เข้าร่วมการทดลองในการทดลองทดสอบใช้ AI ทางการแพทย์ในการรักษาผู้ป่วยเป็นส่วนหนึ่งของการทดลอง พวกเขาจะละเมิดกฎหมายวิชาชีพแพทย์แห่งชาติ น่าเสียดายที่กรอบการทดลองทดสอบของกฎหมาย AI ของสหภาพยุโรปอาจใช้เพื่อยกเว้นแพทย์ที่ละเมิดหลักการการรักษาโดยตรงจากค่าปรับทางปกครอง อย่างไรก็ตาม แพทย์อาจยังต้องเผชิญกับการเพิกถอนใบอนุญาตชั่วคราวตามกฎหมายแพทย์ของออสเตรีย (หรือที่เรียกว่า กฎหมายวิชาชีพแพทย์แห่งชาติ หรือ "กฎหมายนั้น" ตามที่กล่าวถึงในกฎหมาย AI ข้อ 53/12) ในท้ายที่สุด กรอบการทำงานที่ขยายขอบเขตของการยกเว้นสำหรับผู้ริเริ่มนวัตกรรมให้เกินขอบเขตของค่าปรับทางปกครองเพียงอย่างเดียวถือเป็นสิ่งสำคัญสำหรับการส่งเสริมการมีส่วนร่วมและส่งเสริมนวัตกรรม

ในที่สุด การกำหนดความรับผิดชอบต่อผู้เข้าร่วมการทดลองทดสอบอย่างต่อเนื่องสำหรับความเสียหายใดๆ ที่เกิดขึ้นกับบุคคลที่สามอาจจำกัดนวัตกรรม แม้ว่านักพัฒนาไม่ควรได้รับอนุญาตให้ใช้การทดลองทดสอบเป็นเกราะป้องกันความรับผิดชอบ แต่การทำให้ต้องอยู่ภายใต้ระบอบความรับผิดชอบเดียวกันระหว่างการทดลองทดสอบอาจทำให้การเข้าร่วมลดลง ซึ่งอาจทำให้ผู้พัฒนา AI ไม่กล้าเข้าร่วมการทดลองทดสอบ เนื่องจากพวกเขาจะเปิดเผยความลับทางการค้าและอัลกอริทึมของตนโดยไม่ได้รับการคุ้มครองความรับผิดชอบ ในที่สุด สิ่งนี้จะขัดขวางนวัตกรรม AI ในสหภาพยุโรป แม้ว่าผู้มีส่วนได้ส่วนเสียจำนวนมากได้วิพากษ์วิจารณ์เกี่ยวกับปัญหานี้และเน้นย้ำถึงความจำเป็นในการใช้แนวทางที่สมดุลระหว่างการคุ้มครองความรับผิดชอบและความรับผิดชอบ แต่การพบว่าแนวทางที่สมดุลนั้นยังคงเป็นคำถามที่ยากจะตอบในตอนนี้


บทอภิปรายความไว้วางใจในเทคโนโลยีปัญญาประดิษฐ์

ความไว้วางใจเป็นแนวคิดที่นักวิชาการด้านสังคมศาสตร์หลายชั่วอายุคนพยายามกำหนดความหมาย แม้ว่าในชีวิตประจำวันเรามักจะไม่ต้องคิดซ้ำสองครั้งก่อนใช้คำนี้ ในทำนองเดียวกัน เรามักพูดถึงความไว้วางใจในเทคโนโลยีโดยอิงจากประสบการณ์ที่เราไว้วางใจเทคโนโลยีบางอย่างมากกว่าเทคโนโลยีอื่นๆ หรือความไว้วางใจในเทคโนโลยีเฉพาะที่พัฒนาขึ้นตามกาลเวลา อย่างไรก็ตาม นักวิชาการได้ตั้งคำถามถึงการมีอยู่ของความไว้วางใจในเทคโนโลยี โดยเฉพาะปัญญาประดิษฐ์ทั่วไป (AGI) ที่อาจมีผลต่อเปลี่ยนแปลงการอภิปรายทางสังคม วิทยาศาสตร์ และการเมืองเกี่ยวกับความไว้วางใจในเทคโนโลยีอย่างไร 

คำถามที่ว่าความไว้วางใจคืออะไรกันแน่อาจได้รับคำตอบจากวลีที่โด่งดังที่สุดวลีหนึ่งในประวัติศาสตร์ของศาลฎีกาสหรัฐฯซึ่งมักใช้ในกรณีที่ไม่มีคำจำกัดความที่เหมาะสม เช่น “ ฉันรู้เมื่อฉันเห็นมัน ” แม้ว่าคำจำกัดความของประสบการณ์มนุษย์ทั่วไป เช่น ความไว้วางใจ จะดูเข้าใจได้ง่าย แต่เพื่อตอบคำถามว่าความไว้วางใจสามารถนำไปใช้กับเทคโนโลยีได้อย่างไร เราต้องกำหนดคำจำกัดความของความไว้วางใจให้ถูกต้องเสียก่อน หัวข้อต่อไปนี้จะพยายามทำสิ่งนี้โดยพิจารณาองค์ประกอบหลายอย่างที่มีอยู่ในคำจำกัดความของความไว้วางใจส่วนใหญ่

โดยทั่วไปแล้วความไว้วางใจมักถูกกำหนดให้เป็นความเต็มใจของฝ่ายหนึ่งที่จะยอมอ่อนไหวต่อการกระทำของอีกฝ่ายหนึ่ง โดยอิงจากความคาดหวังบางประการเกี่ยวกับการกระทำของอีกฝ่ายหนึ่ง และไม่คำนึงถึงความสามารถในการตรวจสอบหรือควบคุมอีกฝ่ายนั้น ลักษณะสำคัญที่กำหนดความไว้วางใจคือความเสี่ยง ซึ่งหมายความว่าความไว้วางใจสามารถมีอยู่ได้ก็ต่อเมื่อมีความเสี่ยงจากอันตราย กล่าวอีกนัยหนึ่ง ความไว้วางใจคือการที่บุคคลหนึ่งเปิดเผยความเสี่ยงต่ออันตรายอาจจะทางร่างกายหรือจิตใจจากอีกฝ่ายโดยรู้ตัว 

ปัจจัยหลายประการที่ส่งผลต่อความไว้วางใจนั้นแบ่งออกเป็น 3 ประเภท ซึ่งเกี่ยวข้องกับผู้มอบความไว้วางใจ (ผู้ที่มอบความไว้วางใจ) ผู้ดูแลทรัพย์สิน (ผู้ที่ได้รับความไว้วางใจ) และบริบทที่ผู้มอบความไว้วางใจและผู้ดูแลทรัพย์สินดำรงอยู่ลักษณะของผู้ดูแลทรัพย์สินเกี่ยวข้องกับความน่าเชื่อถือของผู้ดูแลทรัพย์สิน รวมถึงความสามารถ ความเมตตากรุณา และความซื่อสัตย์สุจริตลักษณะเฉพาะของผู้มอบความไว้วางใจเกี่ยวข้องกับทุกสิ่งที่ส่งผลต่อการให้ความไว้วางใจของผู้มอบความไว้วางใจ เช่น นิสัยและการรับรู้ของพวกเขา และปัจจัยเชิงบริบทซึ่งส่งผลต่อทั้งผู้มอบความไว้วางใจและผู้ดูแลทรัพย์สินนั้นเกี่ยวข้องกับบริบทด้านสิ่งแวดล้อม สังคม และสถาบันที่กว้างขึ้น

องค์ประกอบหลักของคำจำกัดความของความไว้วางใจ นั่นก็คือ ความเสี่ยง บ่งบอกถึงความจำเป็นของความไว้วางใจที่เกี่ยวข้องกับอย่างน้อยสองฝ่าย ดังนั้น ความไว้วางใจจึงเป็นแบบสัมพันธ์กันคุณภาพแบบสัมพันธ์กันของความไว้วางใจมักจะก่อให้เกิดการตอบแทน อย่างไรก็ตาม การตอบแทนกันแม้ว่าจะพบได้ทั่วไปในความสัมพันธ์แบบไว้วางใจระหว่างบุคคล แต่ก็ไม่จำเป็นต้องเป็นลักษณะเฉพาะของความไว้วางใจ นอกจากการตอบแทนกันจะถูกละเว้นจากคำจำกัดความของความไว้วางใจส่วนใหญ่แล้ว การแสดงออกในบทสนทนาที่เป็นตัวอย่าง เช่น การไว้วางใจแบบปิดตาหรือการละเมิดความไว้วางใจ แสดงให้เห็นว่าการตอบแทนกันน่าจะเป็นผลข้างเคียงทั่วไปของความไว้วางใจ มากกว่าจะเป็นลักษณะเฉพาะของมัน ในบางกรณี ความไว้วางใจอาจเป็นแบบฝ่ายเดียว หรืออาจเกิดขึ้นโดยที่ผู้รับความไว้วางใจไม่รู้ตัวก็ได้ 

ดังนั้น แม้ว่าความสัมพันธ์แบบตอบแทนจะไม่จำเป็นต่อการดำรงอยู่ของความไว้วางใจ แต่องค์ประกอบเชิงสัมพันธ์ เช่น การเกี่ยวข้องกับสิ่งที่อยู่นอกตัวเราเอง มีความจำเป็น อย่างไรก็ตาม ในกรณีส่วนใหญ่ เมื่อคิดถึงความไว้วางใจ และโดยเฉพาะอย่างยิ่งเมื่อวัดความไว้วางใจ จะมีแนวคิดโดยนัยเกี่ยวกับมุมมองบุคคลที่หนึ่ง นั่นคือ ความสัมพันธ์ระหว่างประธานและกรรม การให้เหตุผลในลักษณะนี้ซึ่งมุ่งเน้นไปที่การรับรู้ของประธานเกี่ยวกับวัตถุ ทำให้สามารถไว้วางใจสิ่งที่ไม่ใช่มนุษย์ต่างๆ ที่ประธานอาจตกเป็นเหยื่อได้ เช่น สัตว์ องค์กร สถาบัน รัฐบาล และเทคโนโลยี ระดับของความสัมพันธ์แบบตอบแทนในความสัมพันธ์แบบตอบแทนเหล่านี้แตกต่างกันไป แม้ว่าเราสามารถสร้างความสัมพันธ์แบบตอบแทนกับสัตว์ที่ไม่ใช่มนุษย์ได้ แต่ก็อาจไม่ใช่กรณีเสมอไปสำหรับสถาบันหรือรัฐบาล และแน่นอนว่าไม่ใช่กรณีของเทคโนโลยีที่มีให้มนุษย์ใช้ในปัจจุบัน อย่างไรก็ตาม ไม่ใช่เรื่องที่ไม่น่าเชื่อที่การพัฒนาเทคโนโลยีเพิ่มเติมจะทำให้เกิดความสัมพันธ์แบบตอบแทนกับเทคโนโลยี โดยเฉพาะกับปัญญาประดิษฐ์ทั่วไป ซึ่งการถือกำเนิดของปัญญาประดิษฐ์ทั่วไปจะเพิ่มความซับซ้อนอีกชั้นหนึ่งให้กับความไว้วางใจในเทคโนโลยี

เมื่อได้กำหนดความไว้วางใจระหว่างบุคคลแล้ว เรามาพิจารณาว่าคำจำกัดความนี้อาจนำไปใช้กับวัตถุสัมพันธ์อื่นๆ ได้อย่างไร ตัวอย่างหนึ่งคือความไว้วางใจในสถาบันของรัฐต่างๆ ซึ่งเรียกอีกอย่างว่าความไว้วางใจทางการเมืองเช่นเดียวกับความไว้วางใจระหว่างบุคคล ความไว้วางใจประเภทนี้ถูกกำหนดไว้ในเอกสารว่าประกอบด้วยความมั่นใจในความสามารถและความเมตตากรุณาของผู้รับมอบอำนาจ (ในกรณีนี้คือของรัฐบาลหรือสถาบันของรัฐแห่งหนึ่ง) อย่างไรก็ตาม แม้ว่าการตอบแทนกันจะเป็นลักษณะหนึ่งของความไว้วางใจระหว่างบุคคล แต่ความไว้วางใจทางการเมืองกลับมีอยู่ไม่มากนัก ซึ่งอาจเป็นเพราะลักษณะทางอ้อมของความสัมพันธ์ที่มักปกปิดสัญญาณความไว้วางใจ ซึ่งมิฉะนั้นจะเห็นได้ชัดกว่าผ่านการสื่อสารโดยตรงซึ่งมักพบในบริบทระหว่างบุคคล 

ตัวอย่างเช่น สัญญาณของความไว้วางใจจากสถาบันต่างๆ ที่มีต่อประชาชน ซึ่งแสดงออกมาผ่านนโยบายและขั้นตอนการบริหารนั้น โปร่งใสกว่าสัญญาณของความไว้วางใจจากประชาชนที่มีต่อรัฐบาล ซึ่งมักจะไม่ชัดเจน เว้นแต่จะมีการถามประชาชนโดยตรงเกี่ยวกับความไว้วางใจทางการเมืองของพวกเขา ดังนั้น แม้ว่าความไว้วางใจที่มากขึ้นจากสถาบันต่างๆ ของรัฐบาลจะนำไปสู่ความไว้วางใจที่มากขึ้นสำหรับประชาชน แต่ก็มีแนวโน้มน้อยกว่าที่ความไว้วางใจทางการเมืองระดับสูงที่ประชาชนมอบให้กับรัฐบาลจะแปลเป็นความไว้วางใจระดับสูงที่รัฐบาลมอบให้กับประชาชน 

เหตุผลที่เป็นไปได้อีกประการหนึ่งสำหรับเรื่องนี้คืออำนาจ งานวิจัยก่อนหน้านี้ได้แสดงให้เห็นว่าเมื่อความสัมพันธ์มีความไม่เท่าเทียมกันของอำนาจ ความไว้วางใจของหน่วยงานที่มีอำนาจมากกว่าจะไม่เพิ่มขึ้นตามความไว้วางใจที่เพิ่มขึ้นของหน่วยงานที่มีอำนาจน้อยกว่า ตัวอย่างเช่น ในขณะที่การแสดงความไว้วางใจของหัวหน้างานจะเพิ่มความไว้วางใจของพนักงานที่มีต่อหัวหน้างาน แต่นั่นไม่ใช่กรณีของการแสดงความไว้วางใจของพนักงาน ในทางตรงกันข้าม สิ่งที่จะเพิ่มความไว้วางใจของหัวหน้างานคือคุณภาพของผลงานของพนักงาน มากกว่าที่พนักงานแสดงความไว้วางใจต่อหัวหน้างานตามที่คาดไว้ตามหลักการตอบแทนพูดง่ายๆ ก็คือ ดูเหมือนว่าในความสัมพันธ์ที่ไว้วางใจซึ่งมีลักษณะพลวัตของอำนาจที่ไม่เท่าเทียมกัน ฝ่ายที่มีอำนาจมากกว่าจะมีความสามารถมากกว่าในการกำหนดทิศทางของความไว้วางใจซึ่งกันและกันภายในความสัมพันธ์ กล่าวคือ ระดับความไว้วางใจของฝ่ายที่มีอำนาจมากกว่ามีแนวโน้มที่จะได้รับการตอบแทนจากฝ่ายที่มีอำนาจน้อยกว่ามากกว่าในทางกลับกัน 

สำหรับคำถามว่าเราไว้วางใจในเทคโนโลยีได้หรือไม่นั้น คล้ายกับการสรุปจากความไว้วางใจระหว่างบุคคลไปสู่ความไว้วางใจทางการเมือง มีความพยายามมากมายที่จะนำความไว้วางใจมาใช้ในการทำความเข้าใจความสัมพันธ์ระหว่างมนุษย์กับเทคโนโลยี ในทางกลับกัน เนื่องจากความเป็นไปไม่ได้ในการสร้างความสัมพันธ์แบบตอบแทนด้วยเทคโนโลยี บางคนจึงเห็นว่าแนวคิดเรื่องความไว้วางใจไม่สามารถใช้ได้ในบริบทนี้ อย่างไรก็ตาม ดังที่เห็นในหัวข้อก่อนหน้านี้ที่นิยามความไว้วางใจระหว่างบุคคลและทางการเมือง แม้ว่าการตอบแทนมักเกิดขึ้นในความสัมพันธ์แบบไว้วางใจ แต่ก็ไม่ใช่เงื่อนไขที่จำเป็นสำหรับความไว้วางใจ ดังที่เห็นได้ในกรณีที่ความไว้วางใจมีอยู่แม้ว่าจะไม่มีการตอบแทนก็ตาม ในขณะเดียวกันนักวิจารณ์แนวคิดความไว้วางใจในเทคโนโลยีโต้แย้งว่าเนื่องจากเทคโนโลยีไม่สามารถ "ทรยศ" เรา จึงไม่เหมาะสมที่จะกล่าวว่าเราสร้างความสัมพันธ์แบบไว้วางใจด้วยเทคโนโลยี ในทางกลับกัน เมื่อเทคโนโลยีล้มเหลว เทคโนโลยีกลับทำให้เราผิดหวัง เนื่องจากความไร้ความสามารถแทนที่จะทรยศเรา ซึ่งจะเป็นกรณีหากปัญหาอยู่ที่ความไม่เอื้ออาทรของเทคโนโลยี ดังนั้น นักวิจารณ์จึงโต้แย้งว่า ความสัมพันธ์ที่เรามีกับเทคโนโลยีควรเรียกอย่างถูกต้องว่าเป็นความสัมพันธ์ของการพึ่งพาอาศัยมากกว่าความไว้วางใจ กล่าวอีกนัยหนึ่ง แม้ว่าจะเห็นได้ชัดว่าองค์ประกอบความสามารถ เช่น ความเชื่อมั่นในความสามารถและความน่าเชื่อถือของเทคโนโลยี มีความสำคัญต่อวิธีที่เราในฐานะมนุษย์มีความสัมพันธ์กับเทคโนโลยี แต่ยังไม่ชัดเจนนักว่าความเชื่อมั่นในความเมตตากรุณาของผู้ดูแลผลประโยชน์นั้นสามารถนำไปใช้ในกรณีนี้ได้หรือไม่ ตามที่บางคนกล่าวไว้ เนื่องจากเทคโนโลยีเป็นวัตถุที่ไม่มีชีวิต ขาดเจตนาและการกระทำ เทคโนโลยีจึงไม่สามารถเป็นอันตรายหรือมีเมตตากรุณาได้ และด้วยเหตุนี้ จึงขาดองค์ประกอบสำคัญที่กำหนดผู้ดูแลผลประโยชน์

ไม่ว่าจะเป็นอย่างไรก็ตาม ในมุมมองของบุคคลที่หนึ่ง องค์ประกอบของความเมตตากรุณานั้นได้รับประสบการณ์โดยอัตวิสัย อุปนิสัย เช่นลักษณะบุคลิกภาพประสบการณ์ก่อนหน้าและการรับรู้ความเสี่ยงล้วนส่งผลต่อความเมตตากรุณาที่ผู้รับมอบอำนาจรับรู้ แม้ว่าสิ่งนี้อาจถือเป็นการฉายภาพ แต่มีแนวโน้มสูงที่ผู้มอบอำนาจจะมองว่าเทคโนโลยีมีความเมตตากรุณาในระดับที่แตกต่างกัน แม้ว่าเทคโนโลยีจะยังไม่มีจิตสำนึกและอำนาจหน้าที่ก็ตาม โดยเฉพาะอย่างยิ่งในปัจจุบัน เนื่องจากข้อมูลเกี่ยวกับกระบวนการพัฒนาและผู้ออกแบบเทคโนโลยีมักเปิดเผยต่อสาธารณะและเป็นที่รู้จักดี ดังนั้น จึงเป็นเรื่องปกติที่ผู้มอบอำนาจจะสรุปความประทับใจของตนเกี่ยวกับความเมตตากรุณาของบุคคลและองค์กรที่ออกแบบและพัฒนาเทคโนโลยีใหม่ ๆ ให้เป็นการรับรู้ความเมตตากรุณาของเทคโนโลยีเอง ภายใต้มุมมองที่ว่าเทคโนโลยีไม่มีค่าเป็นกลาง และคุณค่าของผู้ออกแบบถูกเข้ารหัสในเทคโนโลยีการแพร่กระจายของความเมตตากรุณาที่รับรู้จากผู้สร้างไปยังสิ่งประดิษฐ์จึงค่อนข้างสมเหตุสมผล 

ความน่าเชื่อถือในความสัมพันธ์ระหว่างมนุษย์กับเทคโนโลยีจะยิ่งเพิ่มมากขึ้นเมื่อเทคโนโลยีมีความคล้ายคลึงกับมนุษย์มากขึ้น โดยเฉพาะอย่างยิ่ง แอปพลิเคชัน AI มักได้รับการออกแบบให้เลียนแบบปฏิสัมพันธ์ทางสังคมของมนุษย์ เช่น ผ่านการใช้ภาษา บรรทัดฐานทางสังคมและสคริปต์ และแม้แต่ลักษณะทางกายภาพของ AI ที่เป็นรูปธรรมและหุ่นยนต์ที่มีรูปร่างเหมือนมนุษย์ ตัวเลือกการออกแบบดังกล่าวมีแนวโน้มที่จะมุ่งเน้นไปที่การเพิ่มความน่าเชื่อถือ เนื่องจากการวิจัยแสดงให้เห็นว่าการออกแบบ AI แบบมีรูปร่างเหมือนมนุษย์นั้นมีส่วนช่วยในการสร้างความน่าเชื่อถือเนื่องจากความคล้ายคลึงกันระหว่างบุคคลต่างๆ จะช่วยเพิ่มความน่าเชื่อถือแม้ว่ามนุษย์ส่วนใหญ่จะตระหนักถึงความจริงที่ว่าคอมพิวเตอร์ไม่ใช่มนุษย์ แต่เรามักจะทำให้คอมพิวเตอร์มีลักษณะเหมือนมนุษย์โดยไม่รู้ตัว เช่น คอมพิวเตอร์ "เหนื่อย" หรือ "สับสน" การทำให้มีลักษณะเหมือน มนุษย์ดังกล่าวจะเด่นชัดเป็นพิเศษเมื่อสัมผัสกับ AI เป็นเวลานาน 

ในขณะที่ข้อโต้แย้งที่ร่างขึ้นทั้งหมดเพื่อสนับสนุนความไว้วางใจซึ่งเป็นเลนส์ทางทฤษฎีที่เกี่ยวข้องซึ่งเราใช้สังเกตความสัมพันธ์ระหว่างมนุษย์กับ AI นั้นอ้างถึงเทคโนโลยีที่ใช้กันอย่างแพร่หลายอยู่แล้ว ข้อโต้แย้งอีกประการหนึ่งอาจอ้างถึงเทคโนโลยีที่กำลังจะมาถึง นั่นคือ ปัญญาประดิษฐ์ทั่วไปโดยเฉพาะอย่างยิ่ง เนื่องจากปัญญาประดิษฐ์ทั่วไปตามคำจำกัดความนั้นมีความสามารถเทียบเท่ามนุษย์ ความเอื้ออาทรของปัญญาประดิษฐ์ทั่วไป จึงมีความสำคัญเป็นพิเศษ ยิ่งไปกว่านั้น เส้นทางที่เทคโนโลยีใหม่นี้จะดำเนินไปในแง่ของจิตสำนึกและการกระทำที่เป็นอิสระนั้นยังไม่เป็นที่ทราบแน่ชัด ดังนั้น การรับรู้ความเสี่ยงจึงได้รับการเน้นย้ำ และหลายคนจึงไม่ไว้วางใจ ซึ่งเห็นได้จาก การถกเถียงใน สังคมที่แพร่หลาย

ความกังวลเฉพาะอย่างหนึ่งที่ปรากฏชัดขึ้นในวาทกรรมสาธารณะเกี่ยวกับความก้าวหน้าทางเทคโนโลยีอาจเรียกได้อย่างถูกต้องว่าลัทธิเทคโนโลยีใหม่ในขณะที่คำว่าลัทธิเทคโนโลยีมักใช้ในเชิงลบเพื่ออธิบายความกลัวอย่างไม่มีเหตุผลต่อความก้าวหน้าทางเทคโนโลยี แต่จากมุมมองทางประวัติศาสตร์จะเผยให้เห็นภาพที่แตกต่างออกไป กล่าวคือขบวนการลัทธิเทคโนโลยีเริ่มต้นขึ้นในช่วงต้นศตวรรษที่ 19 เพื่อประท้วงเครื่องจักรที่ประหยัดต้นทุนซึ่งทำให้คนงานในโรงงานและโรงสีไม่มีโอกาสในการทำงานและลดค่าจ้างด้วยการถือกำเนิดของลัทธิเทคโนโลยีใหม่ ซึ่งหมายถึงการทำงานส่วนใหญ่ที่เท่าเทียมหรือเหนือกว่ามนุษย์ความรู้สึกของลัทธิเทคโนโลยีใหม่เกี่ยวกับความกังวลเกี่ยวกับการแทนที่คนงานด้วยเทคโนโลยีใหม่จึงเพิ่มขึ้น โดยเฉพาะในกลุ่มคนงานที่ไม่มั่นคง

ทั้งนี้ ข้อโต้แย้งที่มีอยู่สำหรับและต่อต้านความเหมาะสมของความไว้วางใจในฐานะมุมมองที่ใช้ในการดูความสัมพันธ์ระหว่างมนุษย์และเทคโนโลยี จนถึงขณะนี้ การถกเถียงทางวิทยาศาสตร์มุ่งเน้นไปที่การขาดการตอบแทนและความเมตตากรุณาของเทคโนโลยีในฐานะข้อโต้แย้งที่ต่อต้านการรับรู้ความเสี่ยงและการออกแบบที่เลียนแบบมนุษย์เมื่อเทียบกับมุมมองบุคคลที่หนึ่งในฐานะข้อโต้แย้งที่สนับสนุนการใช้ความไว้วางใจเป็นเลนส์เชิงแนวคิดเพื่อทำความเข้าใจความสัมพันธ์ระหว่างมนุษย์และเทคโนโลยี บทความความเห็นนี้นำเสนอข้อโต้แย้งเพิ่มเติมสามข้อที่สนับสนุนความเกี่ยวข้องของความไว้วางใจในเทคโนโลยี ซึ่งอธิบายความไม่ไว้วางใจที่สังเกตได้ในเทคโนโลยีใหม่ ๆ ระหว่างกลุ่มต่าง ๆ ของสังคมในเวลาเดียวกัน ข้อโต้แย้งข้อแรกเกี่ยวข้องกับวิธีที่ความไว้วางใจ (ที่ผิด) ในตัวบุคคลและ/หรือองค์กรที่เกี่ยวข้องกับการพัฒนาเทคโนโลยีบางอย่าง "กำหนด" การรับรู้และกำหนดความไว้วางใจ (ที่ผิด) ในเทคโนโลยีเอง ข้อโต้แย้งเพิ่มเติมอีกสองข้อเกี่ยวข้องกับการเกิดขึ้นของปัญญาประดิษฐ์ทั่วไปกล่าวคือ วิวัฒนาการของ AI ที่ชัดเจนในทิศทางของความเป็นอิสระที่เพิ่มขึ้น ซึ่งเพิ่มความคล้ายคลึงกับผู้ดูแลที่เป็นมนุษย์ และความกังวลเกี่ยวกับผลที่ตามมาของการพัฒนา AI ต่อสังคม เช่น ความสามารถในการทดแทนแรงงาน โดยสรุป ความไว้วางใจดูเหมือนจะสามารถนำไปใช้ได้กับความสัมพันธ์ระหว่างมนุษย์กับเทคโนโลยีในระดับหนึ่ง และยังสามารถนำไปใช้ได้กับการพัฒนาเทคโนโลยีใหม่ๆ ที่เกิดขึ้นอีกด้วย ยิ่งเทคโนโลยีถูกทำให้มีลักษณะเหมือนมนุษย์และบูรณาการมากขึ้นในชีวิตทางสังคมมากเท่าไร การทำความเข้าใจความสัมพันธ์ของเรากับเทคโนโลยีโดยใช้โครงสร้างทางจิตวิทยาสังคม เช่น ความไว้วางใจก็ยิ่งเหมาะสมมากขึ้นเท่านั้น อย่างไรก็ตาม เมื่อพิจารณาถึงความหลากหลายในมิติและอัตวิสัยของความไว้วางใจตามที่ได้สรุปไว้ในบทความนี้ จึงเป็นที่น่าสงสัยว่าความพยายามในการพัฒนา "AI ที่เชื่อถือได้" จะบรรลุผลได้หรือไม่ ในทำนองเดียวกันความพยายามในการควบคุมความน่าเชื่อถือของ AI อาจไม่สามารถบรรลุคำมั่นสัญญาในการบรรลุเป้าหมายอันสูงส่งนี้ได้ เนื่องจากการทำให้ความไว้วางใจเทียบเท่ากับการยอมรับความเสี่ยง ซึ่งตามที่ได้กล่าวไว้ที่นี่ เป็นเพียงองค์ประกอบหนึ่งของความไว้วางใจเท่านั้น ซึ่งอาจทำให้เข้าใจผิดได้ เนื่องจากเป็นการรวมเอาการยอมรับความเสี่ยงตามที่ผู้เชี่ยวชาญในสาขากำหนดเข้ากับความไว้วางใจซึ่งเป็นปรากฏการณ์ที่เปลี่ยนแปลงได้และขึ้นอยู่กับบริบทอย่างมาก ซึ่งไม่สามารถกำหนดนิยามได้อย่างเป็นกลาง ซึ่งจะให้เหตุผลในการอนุมัติตามกฎหมาย


การใช้ปัญญาประดิษฐ์กับกฎหมายคุ้มครองข้อมูลส่วนบุคคลในสหภาพยุโรป

 ความคิดเห็นของอัยการสูงสุดเดอ ลา ตูร์ (AG de la Tour) ในคดี CK v Dun & Bradstreet Austria ที่เผยแพร่ในเดือนกันยายน 2024 ทำให้การอภิปรายเกี่ยวกับการตีความสิทธิของเจ้าของข้อมูลในการเข้าถึง "ข้อมูลที่มีความหมายเกี่ยวกับตรรกะที่เกี่ยวข้อง" ในการประมวลผลข้อมูลอัตโนมัติมีความชัดเจนมากขึ้น (มาตรา 15(1)(h) กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป) ในคดีก่อนหน้านี้ที่เกี่ยวข้องกับการประเมินความน่าเชื่อถือด้านเครดิตโดยอัตโนมัติในคดี OQ v Schufa Holding ความคิดเห็นของอัยการสูงสุด Pikamäe ได้ให้แสดงความเห็นเป็นนัยเกี่ยวกับขอบเขตของสิทธินี้แล้ว อย่างไรก็ตาม เนื่องจากคำถามหลักในคดีนั้นไม่เกี่ยวข้องกับการตีความมาตรา 15(1)(h) กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ศาลยุติธรรมแห่งสหภาพยุโรปจึงงดเว้นการชั่งน้ำหนักในเรื่องนี้ในการตัดสินขั้นสุดท้าย ในครั้งนี้ มีการคาดหวังได้ว่าศาลยุติธรรมแห่งสหภาพยุโรปจะกำหนดจุดยืนในเรื่องนี้ว่าสอดคล้องกับความคิดเห็นของอัยการสูงสุดหรือไม่

การวิเคราะห์ของอัยการสูงสุดเดอ ลา ตูร์เกี่ยวกับ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ตามมาตรา 15(1)(h) เพียงอย่างเดียวก็ให้รายละเอียดในระดับที่น่าพอใจในช่วงเวลาที่การตัดสินใจตามอัลกอริทึมหรืออัตโนมัติเป็นแนวโน้มที่เพิ่มขึ้นในอุตสาหกรรมต่างๆ ในขณะเดียวกัน ผู้มีส่วนได้ส่วนเสียก็มีความเห็นไม่ตรงกันว่าบุคคลที่ต้องตัดสินใจควรทราบเกี่ยวกับกระบวนการตัดสินใจตามอัลกอริทึมที่ส่งผลกระทบต่อพวกเขามากเพียงใด ทั้งนี้ โดยไม่คำนึงถึงความเห็นทางวิชาการจำนวนมากเกี่ยวกับเรื่อง "สิทธิในการได้รับคำอธิบาย" ตาม กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ซึ่งยิ่งเน้นย้ำถึงความเกี่ยวข้องของความคิดเห็นของอัยการสูงสุดนี้

หัวใจสำคัญของคำร้องขอการพิจารณาเบื้องต้นนี้คือการที่ผู้ให้บริการโทรศัพท์มือถือของออสเตรียปฏิเสธที่จะทำสัญญาโทรศัพท์ราคา 10 ยูโรต่อเดือน โดยให้เหตุผลว่าผู้ยื่นคำร้องไม่มีความน่าเชื่อถือทางการเงินเพียงพอ เมื่อผู้ยื่นคำร้องอาศัย กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป มาตรา 15(1)(h) หันไปขอความช่วยเหลือจากผู้ให้บริการประเมินเครดิตเพื่อทำความเข้าใจคะแนนเครดิตของตนเอง เธอกลับได้รับข้อมูลเพียงเล็กน้อย ข้อมูลที่เธอได้รับบ่งชี้ว่ามีคะแนนเครดิตค่อนข้างดี ซึ่งขัดแย้งกับการที่เธอไม่ได้รับแผนโทรศัพท์ราคา 10 ยูโรต่อเดือน ผู้ให้บริการประเมินเครดิตปฏิเสธที่จะให้ข้อมูลเพิ่มเติมใดๆ ส่งผลให้ผู้ยื่นคำร้องยื่นเรื่องต่อศาลยุติธรรมแห่งสหภาพยุโรป

ศาลในประเทศได้ส่งคำถามหลักสองข้อไปยังศาลยุติธรรมแห่งสหภาพยุโรป ประการแรก จะตีความภาระหน้าที่ของผู้ควบคุมข้อมูลในการจัดเตรียม "ข้อมูลที่มีความหมายเกี่ยวกับตรรกะที่เกี่ยวข้อง" ในการตัดสินใจอัตโนมัติตามมาตรา 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ได้อย่างไร ประการที่สอง ผู้ควบคุมข้อมูลสามารถพึ่งพาการปกป้องสิทธิหรือเสรีภาพของผู้อื่น เช่น การปกป้องความลับทางการค้า เป็นพื้นฐานในการจำกัดการเข้าถึงข้อมูลที่เจ้าของข้อมูลมีสิทธิได้ในระดับใด

ตามมาตรา 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป เจ้าของข้อมูลมีสิทธิที่จะขอข้อมูลจากผู้ควบคุมเกี่ยวกับการมีอยู่ของการตัดสินใจอัตโนมัติ รวมถึงการสร้างโปรไฟล์ ซึ่งอ้างถึงในมาตรา 22(1) และ (4) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป อย่างน้อยในกรณีดังกล่าว สิทธินี้หมายความถึงการให้ข้อมูลที่สำคัญเกี่ยวกับตรรกะที่เกี่ยวข้อง ตลอดจนความสำคัญและผลที่คาดว่าจะเกิดขึ้นจากการประมวลผลข้อมูลส่วนบุคคลสำหรับเจ้าของข้อมูล ในการจัดการกับบทบัญญัตินี้ อัยการสูงสุดเดอ ลา ตูร์เริ่มต้นจากจุดที่อัยการสูงสุด Pikamäe ละเว้นในความเห็นในคดี OQ v Schufa Holding โดยระบุว่า 'ภาระผูกพันในการให้ "ข้อมูลที่มีความสำคัญเกี่ยวกับตรรกะที่เกี่ยวข้อง" จะต้องรวมถึงคำอธิบายโดยละเอียดเพียงพอเกี่ยวกับวิธีการที่ใช้ในการคำนวณคะแนนและเหตุผลของผลลัพธ์บางอย่าง' จากนั้นจึงเสนอการตีความอย่างเจาะลึกและเป็นระบบของบทความ 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป

อัยการสูงสุดเดอ ลา ตูร์เริ่มอธิบายมาตรา 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป โดยกำหนดจุดประสงค์เบื้องหลังสิทธิในการเข้าถึงข้อมูล และเน้นย้ำว่าจุดประสงค์ทั่วไปของสิทธิในการรับข้อมูลภายใต้มาตรา 15 ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป คือเพื่อให้เจ้าของข้อมูลสามารถใช้สิทธิอื่นๆ ของตนที่บัญญัติไว้ใน กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ได้อย่างมีประสิทธิภาพ ตามที่อัยการสูงสุดเดอ ลา ตูร์กล่าว สิทธิในการเข้าถึงข้อมูลที่ระบุไว้ในมาตรา 15(1)(h) 'ต้องทำให้เจ้าของข้อมูลสามารถใช้สิทธิที่มอบให้บุคคลตามมาตรา 22 ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป' มาตรา 22(3)  ซึ่งคาดการณ์ไว้อย่างน้อยสามสิทธิที่เป็นรูปธรรมที่ควรมอบให้กับเจ้าของข้อมูลในการตัดสินใจโดยอิงจากการประมวลผลข้อมูลอัตโนมัติเท่านั้น สิทธิในการขอให้ผู้ควบคุมข้อมูลเข้ามาแทรกแซง สิทธิในการแสดงจุดยืนของตน และสิทธิในการโต้แย้งการตัดสินใจ ดังนั้น ในการตีความขอบเขตของมาตรา 15(1)(h) ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป เป้าหมายที่แสวงหาโดยมาตรา 22 ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป มีบทบาทสำคัญ เพื่อปกป้องเจ้าของข้อมูลจากภัยคุกคามที่เกี่ยวข้องกับการตัดสินใจอัตโนมัติเพียงอย่างเดียว และทำให้พวกเขาสามารถใช้สิทธิที่เกี่ยวข้องของตนได้ ที่คล้ายคลึงกับลักษณะเฉพาะที่ Selbst และ Powles กำหนดให้ใช้กับคำว่า "มีความหมาย" ในปี 2017 อัยการสูงสุดเดอ ลา ตูร์เรียกร้องให้มีการทำความเข้าใจเชิงหน้าที่เกี่ยวกับสิ่งที่ประกอบเป็น "ข้อมูลที่มีความหมายเกี่ยวกับตรรกะที่เกี่ยวข้อง" ในมาตรา 15(1)(h) กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป เมื่อพิจารณาถึงจุดประสงค์ของบทบัญญัตินี้ ที่สรุปว่าการทำความเข้าใจเชิงหน้าที่เกี่ยวกับ "ข้อมูลที่มีความหมาย" หมายถึงอะไรในแง่ของรูปแบบและสาระสำคัญ

เมื่อกล่าวถึงรูปแบบ อัยการสูงสุดเดอ ลา ตูร์ได้ให้คำอธิบายที่ค่อนข้างชัดเจนเกี่ยวกับการมีอยู่ของ 'สิทธิในการอธิบาย' ใน กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป เขายืนยันว่าบุคคลที่เกี่ยวข้องกับข้อมูลมี 'สิทธิในการอธิบายอย่างแท้จริงเกี่ยวกับกลไกการทำงานที่เกี่ยวข้องกับการตัดสินใจอัตโนมัติซึ่งบุคคลนั้นเป็นเป้าหมายและผลของการตัดสินใจนั้น' ถือว่าคำอธิบายเป็นส่วนหนึ่งของสิทธิในการเข้าถึงข้อมูล เนื่องจากช่วยรับประกันว่าข้อมูลที่ให้มามีคุณค่าด้วยเหตุผลสองประการ ประการแรก คำอธิบายทำให้ข้อมูลที่ให้มาแก่บุคคลที่เกี่ยวข้องกับข้อมูลนั้นเข้าใจได้สำหรับพวกเขา กล่าวอีกนัยหนึ่ง คำอธิบายช่วยให้แน่ใจว่าข้อมูลที่ให้ไว้ภายใต้ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป มาตรา 15(1)(h) นั้นกระชับ เข้าถึงได้ง่าย เข้าใจง่าย และนำเสนอด้วยภาษาที่ชัดเจนและเรียบง่าย ประการที่สอง คำอธิบายให้ความเข้าใจตามบริบทเกี่ยวกับวิธีการประมวลผลข้อมูลส่วนบุคคลของบุคคลที่เกี่ยวข้องกับข้อมูล ดังนั้น แม้ว่ามาตรา 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป จะกำหนดให้เจ้าของข้อมูลมีสิทธิเข้าถึง "ข้อมูลที่มีความหมาย" แต่สิทธิในการเข้าถึงนี้จำเป็นต้องมี "สิทธิในการขอคำอธิบาย" จึงสรุปได้ว่าข้อมูลที่ไม่สามารถเข้าใจได้และไม่ได้คำนึงถึงบริบทนั้นไม่สามารถถือเป็นข้อมูล "ที่มีความหมาย" จากมุมมองของเจ้าของข้อมูลและจุดมุ่งหมายของบทบัญญัติได้

หลังจากยืนยันการมีอยู่และขอบเขตของสิทธิในการขอคำอธิบายแล้ว อัยการสูงสุดเดอ ลา ตูร์จะดำเนินการให้คำแนะนำเกี่ยวกับคุณภาพเนื้อหาที่คาดหวังจากคำอธิบายนี้ คำอธิบายควรทำให้ผู้มีส่วนได้ส่วนเสียสามารถตรวจสอบ "ความสอดคล้องและความเชื่อมโยงเชิงสาเหตุระหว่างวิธีการและเกณฑ์ที่ใช้และผลลัพธ์ที่ได้จากการตัดสินใจอัตโนมัติ" ได้อย่างเป็นรูปธรรม ดังนั้น ข้อมูลที่ให้มาควรทำให้ผู้มีส่วนได้ส่วนเสียสามารถตรวจสอบความถูกต้องของข้อมูลที่กำลังประมวลผลได้ ตลอดจนตรวจสอบว่าข้อมูลสามารถนำไปสู่ผลลัพธ์เฉพาะที่เกี่ยวข้องกับข้อมูลได้หรือไม่โดยใช้การประมวลผลอัตโนมัติที่ผู้ควบคุมอธิบายไว้ อย่างไรก็ตาม อัยการสูงสุดเดอ ลา ตูร์พบว่าสิทธิที่ระบุไว้ในมาตรา 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ไม่จำเป็นต้องเปิดเผยอัลกอริทึมให้กับผู้มีส่วนได้ส่วนเสียทราบ ท้ายที่สุดแล้ว อัลกอริทึมอาจมีความซับซ้อนมากจนผู้ที่ขาดความเชี่ยวชาญด้านเทคนิคที่จำเป็นไม่สามารถเข้าใจได้ 

แม้ว่าจะมีคำชี้แจงมากมาย แต่ความเห็นของอัยการสูงสุดคนนี้ก็ยังคงสงสัยว่าจะประสานข้อกำหนดที่เสนอสำหรับรูปแบบของคำอธิบายได้อย่างไร กับข้อกำหนดเชิงเนื้อหาที่ว่าข้อมูลจะต้องมี “ความสอดคล้องที่ตรวจสอบได้อย่างเป็นกลางและความเชื่อมโยงเชิงสาเหตุ” ระหว่างวิธีการและเกณฑ์ที่ใช้ในการประมวลผลและผลลัพธ์อัตโนมัติ ความเป็นไปได้อย่างหนึ่งที่กล่าวถึงในความเห็นคือการให้ตัวอย่างการประมวลผลที่คล้ายคลึงกันโดยไม่เปิดเผยชื่อแก่ผู้มีส่วนได้ส่วนเสียโดยใช้การเปรียบเทียบ ซึ่งคล้ายกับวิธีการให้เหตุผลตามกรณีที่ใช้เพื่อให้เข้าใจอัลกอริทึมที่ซับซ้อนโดยนำเสนอกรณีที่เปรียบเทียบได้เป็นจุดอ้างอิงสำหรับผลลัพธ์เฉพาะ แม้ว่าตัวอย่างดังกล่าวอาจช่วยให้ผู้มีส่วนได้ส่วนเสียสามารถจัดบริบทของข้อมูลที่ให้มาได้ดีขึ้น แต่ก็อาจไม่เป็นไปตามเกณฑ์ของการตรวจสอบอย่างเป็นกลางของผลลัพธ์เฉพาะที่เกี่ยวกับผู้มีส่วนได้ส่วนเสีย เนื่องจากตัวอย่างเหล่านี้ไม่ได้เชื่อมโยงกับการตัดสินใจเฉพาะนั้น เกณฑ์นี้อาจบรรลุได้ยากเมื่อใช้อัลกอริทึมที่ซับซ้อนซึ่งความสามารถในการตีความและความแม่นยำมักไม่สอดคล้องกัน ในกรณีนี้ สามารถพูดได้เพียงว่าต้องปรับปรุงความสามารถในการตีความของอัลกอริทึมเท่านั้น ไม่ใช่บรรลุถึงความสามารถในการตีความของอัลกอริทึม  

ความไม่ชัดเจนระหว่างข้อกำหนดเกี่ยวกับรูปแบบและสาระสำคัญของคำอธิบายอาจชัดเจนยิ่งขึ้นสำหรับการตัดสินใจที่เป็นผลสืบเนื่อง เช่น การประเมินเครดิตหรือการตัดสินใจทางการบริหารเกี่ยวกับการแจกจ่ายผลประโยชน์ การจัดสรรใบอนุญาต ฯลฯ มากกว่าการตัดสินใจเกี่ยวกับโฆษณาที่กำหนดเป้าหมายหรือคำแนะนำเพลง ผลที่อาจเกิดขึ้นจากการที่ ศาลยุติธรรมแห่งสหภาพยุโรป กำหนดเกณฑ์การตรวจสอบที่เป็นกลางอาจทำให้การตัดสินใจที่เป็นผลสืบเนื่องดังกล่าวในอนาคตทำขึ้นโดยใช้อัลกอริทึมที่ซับซ้อนน้อยกว่าหรือออกแบบให้ตีความได้ หากคำอธิบายสำหรับอัลกอริทึมที่ซับซ้อนไม่สามารถบรรลุเกณฑ์การตรวจสอบที่เป็นกลางได้ ในทางทฤษฎีแล้ว เรื่องนี้สามารถชดเชยได้ด้วยสิทธิของเจ้าของข้อมูลในการขอให้มนุษย์เข้ามาแทรกแซงแทนผู้ควบคุม (มาตรา 22(3) กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป) อย่างไรก็ตาม นี่ไม่ใช่แนวทางแก้ไขความตึงเครียดที่สังเกตได้อย่างแท้จริง ในทางที่ดีที่สุด เป็นเพียงการแก้ปัญหาชั่วคราวเท่านั้น

หากศาลยุติธรรมแห่งสหภาพยุโรปยืนหยัดตามการวิเคราะห์ของอัยการเดอ ลา ตูร์ คำถามเกี่ยวกับสิทธิในการอธิบายตาม กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ซึ่งจนถึงขณะนี้ยังเป็นประเด็นที่มีการคาดเดากันก็สามารถให้คำตอบที่ชัดเจนได้สามประการประการแรก สามารถตรวจสอบได้ว่าสิทธิในการอธิบายนั้นถือเป็นส่วนหนึ่งของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรปหรือไม่ และหากเป็นเช่นนั้น สิทธิดังกล่าวมีที่มาจากที่ใด จนถึงขณะนี้ ทฤษฎีเกี่ยวกับแหล่งที่มาของสิทธิดังกล่าวครอบคลุมถึงมาตรา 13(2)(f), 14(2)(g), 15(1)(h) และ 22(3) และมาตรา 71 ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ความคิดเห็นของอัยการสูงสุดเดอ ลา ตูร์โต้แย้งได้อย่างน่าเชื่อว่าสิทธิในการอธิบายนั้นโดยปริยายอยู่ในสิทธิในการเข้าถึงข้อมูลที่กำหนดไว้ในมาตรา 15(1)(h) ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ในทางกลับกัน มาตรา 22 ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป นั้นมีความเกี่ยวข้องอย่างแยกไม่ออก ดังนั้น ศาลยุติธรรมแห่งสหภาพยุโรป จึงสามารถถือว่าสิทธิในการอธิบายนั้นเกิดขึ้นจากการรวมกันของบทบัญญัติทั้งสองนี้

ประการที่สอง ศาลยุติธรรมแห่งสหภาพยุโรปสามารถตอบคำถามที่ว่าบุคคลที่เกี่ยวข้องกับข้อมูลมีสิทธิได้รับคำอธิบายเกี่ยวกับการทำงานของระบบอัตโนมัติเท่านั้นหรือไม่ หรือรวมถึงข้อมูลเกี่ยวกับเหตุผลที่ตัดสินใจเฉพาะเจาะจงด้วยหรือไม่ คำตอบดังกล่าวได้รับการเสนอแนะแล้วในความเห็นของอัยการสูงสุด Pikamäe ในคดี OQ v Schufa Holding และขณะนี้ อัยการสูงสุดเดอ ลา ตูร์ก็เห็นด้วยกับคำตอบดังกล่าวแล้ว โดยคำอธิบายดังกล่าวควรมีข้อมูลเกี่ยวกับการทำงานของระบบอัตโนมัติ ตลอดจนเหตุผลของผลลัพธ์บางประการ

ประการที่สาม ศาลยุติธรรมแห่งสหภาพยุโรปสามารถให้คำตอบสำหรับสิ่งที่ควรเข้าใจว่าเป็น 'ข้อมูลที่มีความหมายเกี่ยวกับตรรกะที่เกี่ยวข้อง' ในการตัดสินใจอัตโนมัติ ความคิดเห็นของอัยการสูงสุดเดอ ลา ตูร์ระบุว่าข้อมูลนี้ควรเข้าถึงได้สมบูรณ์เพียงพอ และมีบริบทที่เกี่ยวข้อง รวมถึงรายละเอียดเกี่ยวกับกระบวนการที่นำไปสู่การตัดสินใจอัตโนมัติ และมีเหตุผลสำหรับผลลัพธ์ของการตัดสินใจ นอกจากนี้ ยังเสนอมาตรวัดสำหรับการวัดว่าข้อมูลที่ให้ไว้ตามมาตรา 15(1)(h) ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป นั้นเพียงพอหรือไม่ โดยในฐานะมาตรวัดนั้น พร้อมทั้งเสนอว่าข้อมูลควรสามารถตรวจสอบความสอดคล้องและความเชื่อมโยงเชิงสาเหตุระหว่างตรรกะที่เกี่ยวข้องในการประมวลผลอัตโนมัติและผลลัพธ์ที่ระบบได้มาได้อย่างเป็นรูปธรรม

ดังนั้น ความคิดเห็นของอัยการสูงสุดเดอ ลา ตูร์จึงให้ความชัดเจนพอสมควรเกี่ยวกับคำถามที่วนเวียนอยู่ในวงอภิปรายทางวิชาการเกี่ยวกับการมีอยู่และขอบเขตของสิทธิในการขอคำอธิบายในกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป หวังว่าเมื่อเขียนคำพิพากษา ศาลยุติธรรมแห่งสหภาพยุโรปจะใช้ข้อโต้แย้งที่อัยการสูงสุดเดอ ลา ตูร์เสนอมา ตลอดจนชี้แจงว่าควรทำอย่างไรกับความตึงเครียดโดยธรรมชาติระหว่างข้อกำหนดที่กำหนดไว้สำหรับรูปแบบและสาระสำคัญของคำอธิบายตามมาตรา 15(1)(h) ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป


ประมวลจรรยาบรรณ AI ในสหภาพยุโรป

 โมเดล Generative AI (GAI) ได้รับความสนใจอย่างมากจากทั่วโลกด้วยการเปิดตัวChatGPT ของ OpenAI ในช่วงปลายปี 2022 การพัฒนานี้ถือเป็นจุดเปลี่ยนที่ทำให้โมเดล GAI กลายเป็นหมวดหมู่ที่แตกต่างไปจากโมเดลอื่นๆ ในวาทกรรม AI เป็นผลให้โมเดล AI ที่เคยถูกมองว่าล้ำสมัยกลับถูกเรียกว่า "แบบดั้งเดิม" ในทางกฎหมายแม้ว่าจะเป็นนวัตกรรมใหม่ล่าสุดก็ตาม สถานการณ์นี้ควรทำความเข้าใจความแตกต่างระหว่างโมเดล AI "แบบดั้งเดิม" และโมเดล Generative AI (GAI) อย่างชัดเจน ความแตกต่างหลักอยู่ที่ความสามารถของ GAI ในการทำงานที่หลากหลายโดยการสร้างภาษาที่คล้ายกับมนุษย์ แทนที่จะถูกจำกัดอยู่แค่การสร้างการคาดการณ์หรือคะแนนเท่านั้น โดยพื้นฐานแล้ว โมเดล AI แบบดั้งเดิมได้รับการออกแบบมาสำหรับงานเฉพาะทางที่มีเอาต์พุตเฉพาะ ในขณะที่โมเดล GAI สามารถสร้างภาษาและการตอบสนองที่มีความละเอียดอ่อนและเหมาะสมกับบริบทในสถานการณ์ต่างๆ ได้ ซึ่งคล้ายกับการสื่อสารของมนุษย์ ใน Recitals 99 กฎหมาย AI ถือว่าโมเดล GAI เป็นโมเดล AI เอนกประสงค์ประเภทหนึ่ง และระบุคุณลักษณะสำคัญ 2 ประการ คือ (1) ลักษณะทั่วไปและ  (2) ความสามารถซึ่งแตกต่างจากระบบ AI แบบ "ดั้งเดิม"

ความแตกต่างนี้ส่งผลให้สำนักงาน AI ของยุโรปเผยแพร่ ร่างจรรยาบรรณฉบับแรก ซึ่งมีวัตถุประสงค์เพื่อให้คำแนะนำเกี่ยวกับการปฏิบัติตามภาระผูกพันที่ระบุไว้ในมาตรา 53 และ 55 ของกฎหมาย AI สำหรับผู้ให้บริการโมเดล AI วัตถุประสงค์ทั่วไปและโมเดล AI วัตถุประสงค์ทั่วไปที่มีความเสี่ยงเชิงระบบ จรรยาบรรณดังกล่าวเป็นเอกสารที่ให้คำแนะนำ มีลักษณะเป็นพลวัต และเป็นสะพานเชื่อมระหว่างการนำมาตรฐานของสหภาพยุโรปที่สอดประสานกันสำหรับโมเดล AI ประเภทนี้มาใช้งาน

เพื่อให้สอดคล้องกับข้อกำหนดของกฎหมาย AI ฉบับสุดท้ายมีกำหนดเผยแพร่ในวันที่ 1 พฤษภาคม 2025 ซึ่งถือเป็นก้าวสำคัญในการกำหนดกรอบการกำกับดูแลสำหรับ AI ทั่วไป โค้ดดังกล่าวสร้างขึ้นโดยกลุ่มผู้เชี่ยวชาญ อิสระที่หลากหลาย จากอุตสาหกรรม สถาบันการศึกษา และภาคประชาสังคม โดยเป็นแนวทางองค์รวมในการกำหนดกรอบการกำกับดูแล AI นอกจากนี้ โค้ดยังรวมข้อมูลเชิงลึกจากกรอบงานระหว่างประเทศ ซึ่งเน้นย้ำถึงความมุ่งมั่นในการสร้างความร่วมมือและการปรับแนวทางในระดับโลก โดยทั่วไปแล้ว โค้ดจะกำหนดหลักการและวัตถุประสงค์ที่เป็นแนวทาง โดยให้ผู้มีส่วนได้ส่วนเสียมีวิสัยทัศน์ที่ชัดเจนเกี่ยวกับโครงสร้างและเนื้อหาที่เป็นไปได้ของร่างฉบับสุดท้าย ซึ่งถือเป็นก้าวสำคัญของสำนักงาน AI ของยุโรป เนื่องจากความสามารถขั้นสูงและการนำไปใช้ในวงกว้างของโมเดล GAI นำมาซึ่งความไม่แน่นอนโดยธรรมชาติในผลลัพธ์ของโมเดล ซึ่งก่อให้เกิดความท้าทายที่ไม่เหมือนใครในการทำความเข้าใจและจัดการพฤติกรรมของโมเดล นอกจากนี้ ข้อกังวลทางกฎหมายที่เกี่ยวข้องกับโมเดล GAI ยังครอบคลุมในวงกว้าง รวมถึงปัญหาที่เกี่ยวข้องกับความเป็นส่วนตัวและการปกป้องข้อมูล ความรับผิดต่อผลลัพธ์ สิทธิในทรัพย์สินทางปัญญา และปัญหาความปลอดภัยทางไซเบอร์

ประมวลกฎหมายนี้พิจารณาถึงข้อกังวลทางกฎหมายเหล่านี้และจัดเป็น 4 ด้านหลัก ได้แก่ (1) กฎเกณฑ์ด้านความโปร่งใสและลิขสิทธิ์ (2) การระบุและประเมินความเสี่ยงสำหรับความเสี่ยงเชิงระบบ (3) การลดความเสี่ยงทางเทคนิคสำหรับความเสี่ยงเชิงระบบ และ (4) การลดความเสี่ยงด้านการกำกับดูแลสำหรับความเสี่ยงเชิงระบบ องค์ประกอบเหล่านี้ทำงานร่วมกันเพื่อส่งเสริมนวัตกรรมในขณะที่จัดการกับความท้าทายด้านจริยธรรมและความปลอดภัยที่เกี่ยวข้องกับ AI

หลักเกณฑ์ 6 ประการเป็นพื้นฐานของจรรยาบรรณ ประกอบด้วย ประการแรก จรรยาบรรณจะรับรองความสอดคล้องกับกฎหมายและค่านิยมของสหภาพยุโรป รวมถึงกฎบัตรว่าด้วยสิทธิขั้นพื้นฐาน ประการที่สอง จรรยาบรรณจะบูรณาการมาตรฐานสากลและแนวทางปฏิบัติที่ดีที่สุดในระดับโลก ส่งเสริมแนวทางการทำงานร่วมกันในการกำกับดูแล (มาตรา 56(1) ของกฎหมาย AI) ประการที่สาม เน้นย้ำถึงความได้สัดส่วน โดยกำหนดให้มาตรการต่างๆ สอดคล้องกับระดับความเสี่ยง หลักการนี้เกี่ยวข้องกับการทดสอบสำคัญ 2 ประการ ได้แก่ (1) ความเหมาะสม และ (2) ความจำเป็นของมาตรการ ซึ่งทั้งสองประการนี้ยังมีช่องว่างในการตีความอย่างมาก ประการที่สี่ จรรยาบรรณมุ่งมั่นที่จะรองรับอนาคต โดยให้มีความยืดหยุ่นและปรับตัวได้ตามวิวัฒนาการของเทคโนโลยี AI ประการที่ห้า จรรยาบรรณให้การสนับสนุนวิสาหกิจขนาดกลางและขนาดย่อม (SMEs) โดยลดความซับซ้อนของข้อกำหนดการปฏิบัติตาม และประการสุดท้าย จรรยาบรรณมีเป้าหมายเพื่อส่งเสริมระบบนิเวศความปลอดภัย AI ที่แข็งแกร่ง ส่งเสริมความโปร่งใสและความร่วมมือระหว่างผู้มีส่วนได้ส่วนเสียต่างๆ

นอกจากนี้ ความโปร่งใสและการปฏิบัติตามลิขสิทธิ์ถือเป็นหัวใจสำคัญของกฎหมายฉบับนี้ ผู้ให้บริการต้องจัดทำเอกสารรายละเอียดเกี่ยวกับโมเดล AI ของตน เพื่อให้แน่ใจว่าสำนักงาน AI และหน่วยงานที่มีอำนาจหน้าที่ระดับชาติและผู้ให้บริการปลายน้ำสามารถเข้าถึงได้ การปฏิบัติตามลิขสิทธิ์ยังเป็นสิ่งสำคัญ โดยผู้ให้บริการคาดว่าจะต้องปฏิบัติตามข้อยกเว้นการขุดข้อความและข้อมูลของสหภาพยุโรป และกำหนดนโยบายที่ชัดเจนในการจัดการปัญหาลิขสิทธิ์ กลไกการรายงานที่โปร่งใส รวมถึงบทบัญญัติสำหรับการจัดการด้านลิขสิทธิ์ ถือเป็นส่วนสำคัญของกระบวนการนี้

ที่สำคัญร่างดังกล่าวยังระบุถึงอนุกรมวิธานของความเสี่ยงในระบบ โดยจัดหมวดหมู่ตามประเภทลักษณะและแหล่งที่มาซึ่งอาจมีการตีความตามความรุนแรงและความน่าจะเป็นของความเสี่ยงแต่ละประเภท เพื่อเป็นการเตือนความจำ แนวคิดเรื่องความเสี่ยงนั้นถูกกำหนดให้เป็น "การรวมกันของความน่าจะเป็นของการเกิดอันตรายและความรุนแรงของอันตรายนั้น" ภายใต้กฎหมาย AI (มาตรา 3(2)) ความเสี่ยงในระบบนั้น ถูกกำหนดให้เป็น "ความเสี่ยงที่เฉพาะเจาะจงต่อความสามารถที่มีผลกระทบสูงของโมเดล AI สำหรับวัตถุประสงค์ทั่วไป ซึ่งมีผลกระทบอย่างมีนัยสำคัญต่อตลาดสหภาพเนื่องจากการเข้าถึง หรือเนื่องจากผลกระทบเชิงลบที่เกิดขึ้นจริงหรือคาดการณ์ได้อย่างสมเหตุสมผลต่อสุขภาพของประชาชน ความปลอดภัย ความมั่นคงสาธารณะ สิทธิขั้นพื้นฐาน หรือสังคมโดยรวม" (มาตรา 3(65)) ความเสี่ยงเหล่านี้รวมถึงการเลือกปฏิบัติในวงกว้าง การใช้ AI ในทางที่ผิดเพื่อบิดเบือนข้อมูลหรือบิดเบือนข้อมูล จุดอ่อนทางไซเบอร์ การสูญเสียการควบคุม และความเสี่ยงทางเคมี ชีวภาพ วิทยาการรังสี และนิวเคลียร์ เพื่อจัดการกับความเสี่ยงเหล่านี้ ร่างดังกล่าวได้เสนอกรอบที่ครอบคลุมสำหรับกลยุทธ์การบรรเทาผลกระทบที่สมดุลกับความรุนแรงและความน่าจะเป็นของความเสี่ยงแต่ละประเภท

สำหรับโมเดล AI ทั่วไปที่มีความเสี่ยงในระบบ ผู้ให้บริการคาดว่าจะนำกรอบความปลอดภัยและความมั่นคง (SSF) ที่แข็งแกร่งมาใช้ กรอบความปลอดภัยนี้จะระบุถึงนโยบายการบรรเทาความเสี่ยงตลอดวงจรชีวิตของโมเดล การประเมินความเสี่ยงอย่างต่อเนื่องเป็นสิ่งที่จำเป็น โดยได้รับการสนับสนุนจากการรวบรวมหลักฐานโดยใช้วิธีการที่เข้มงวด ผู้ให้บริการจะต้องแน่ใจว่ามีการรายงานเหตุการณ์และความเสี่ยงในระบบอย่างโปร่งใสต่อสำนักงาน AI และในกรณีที่เหมาะสมต่อสาธารณชน ความเสี่ยงที่มีความรุนแรงสูงต้องได้รับการประเมินโดยผู้เชี่ยวชาญอิสระทั้งก่อนและหลังการใช้งาน ซึ่งช่วยให้สามารถปรับเปลี่ยนตามความจำเป็นโดยอาศัยการตรวจสอบวงจรชีวิต อนึ่ง มาตรการกำกับดูแล ได้แก่ การมอบหมายความรับผิดชอบในการจัดการความเสี่ยงในระดับผู้บริหารและคณะกรรมการ การดำเนินการประเมินการปฏิบัติตามจรรยาบรรณเป็นระยะ และการอำนวยความสะดวกในการประเมินอิสระเพื่อตรวจสอบความพยายามในการบรรเทาความเสี่ยงเชิงระบบ ขั้นตอนเหล่านี้ได้รับการออกแบบมาเพื่อเพิ่มความรับผิดชอบและประกันว่าองค์กรต่างๆ ให้ความสำคัญกับความปลอดภัยของ AI

ผู้มีส่วนได้ส่วนเสียควรให้ข้อเสนอแนะเกี่ยวกับร่างกฎหมายภายในวันที่ 28 พฤศจิกายน 2024 แม้ว่าเอกสารดังกล่าวจะอยู่ในระดับสูง แต่การปรับปรุงในอนาคตจะรวมถึงมาตรการที่ละเอียดมากขึ้น ตัวบ่งชี้ประสิทธิภาพหลัก (KPI) และกลไกการปฏิบัติตามกฎหมาย ร่างกฎหมายนี้ถือเป็นก้าวสำคัญในการประสานการกำกับดูแล AI ภายในสหภาพยุโรป โดยรักษาสมดุลระหว่างความต้องการด้านความปลอดภัยและความโปร่งใสกับการส่งเสริมนวัตกรรม


กฎหมายปัญญาประดิษฐ์ในบริบทการศึกษาของสหภาพยุโรป

เมื่อวันที่ 13 มีนาคม 2024 รัฐสภายุโรปลงมติเห็นชอบกฎหมายปัญญาประดิษฐ์ (AI Act) ในกฎหมายปัญญาประดิษฐ์ระบุว่าเป้าหมายของรัฐสภายุโรปและสภายุโรปคือการส่งเสริมนวัตกรรม การจ้างงาน และการนำปัญญาประดิษฐ์ที่น่าเชื่อถือมาใช้ประโยชน์ ทั้งนี้ กฎหมายปัญญาประดิษฐ์มีจุดมุ่งหมายเพื่อปกป้องบุคคลและบริษัทต่างๆ โดยกำหนดให้ต้องมีการคุ้มครองระดับสูงต่อสิทธิพื้นฐานและยึดมั่นในค่านิยมต่างๆ ของสหภาพยุโรป แต่ก็มีนักวิชาการได้ทักท้วงว่ากฎหมายปัญญาประดิษฐ์ไม่ได้ทำตามคำมั่นสัญญาในการให้การคุ้มครองระดับสูงต่อสิทธิพื้นฐานตามมาตรา 1 ของกฎหมายปัญญาประดิษฐ์ จึงมีความจำเป็นต้องแก้ไขกฎหมายปัญญาประดิษฐ์เพื่อให้สอดคล้องกับการห้ามการเลือกปฏิบัติในสนธิสัญญาสิทธิมนุษยชนระหว่างประเทศหลายฉบับ เรียกร้องให้ประเทศสมาชิกสหภาพยุโรปและผู้กำหนดนโยบายตรวจสอบกฎหมาย AI เพื่อให้สอดคล้องกับสนธิสัญญาว่าด้วยสิทธิมนุษยชนระหว่างประเทศก่อนที่จะกลายเป็นกฎหมาย 

นักวิชาการได้หยิบยกกรณีศึกษาของหน่วยงานที่ใช้ AI เพื่อประเมินผลงานของนักเรียนเพื่อแสดงให้เห็นถึงข้อโต้แย้งนี้ การใช้ AI เพื่อให้คะแนนผลงานของนักเรียนถูกเลือกเป็นกรณีศึกษาเนื่องจากการเข้าถึงการศึกษาส่งผลต่อความสามารถของผู้คนในการดำรงชีพใช้ศักยภาพของตนเองให้เต็มที่ เลือกสิ่งที่มีความหมาย และตัดสินใจอย่างรอบรู้ ดังนั้น กรณีศึกษานี้จึงเกี่ยวข้องกับพื้นที่สำคัญในชีวิตของทุกคน เนื่องจากบุคคลที่มีลักษณะเฉพาะที่ได้รับการคุ้มครอง เช่น ผู้พิการยังคงประสบกับความไม่เท่าเทียมกันในบริบทของการศึกษา จึงจำเป็นต้องระบุว่ากฎหมาย AI มีแนวโน้มที่จะทำให้สถานการณ์นี้คงอยู่ต่อไปได้อย่างไร การอภิปรายนี้แสดงให้เห็นถึงปัญหาที่กว้างขึ้นของกฎหมาย AI ซึ่งกำหนดข้อจำกัดที่ไม่เพียงพอในการใช้ AI เป็นส่วนประกอบของกระบวนการตัดสินใจในหลายพื้นที่ ตัวอย่างของพื้นที่ที่เกี่ยวข้องคือการใช้ AI เพื่อคัดกรองผู้สมัครเข้าทำงาน

ปัจจุบันหน่วยงานต่างๆได้นำ AI มาใช้เพื่อวัตถุประสงค์ต่าง ๆ มากมายในฐานะส่วนหนึ่งของกระบวนการตัดสินใจในบริบทของการศึกษา การใช้งานดังกล่าวรวมถึงการใช้ AI เพื่อตรวจงานที่ได้รับมอบหมายของนักเรียน บางประเทศกำลังสำรวจทางเลือกในการทำให้การตรวจงานของนักเรียนเป็นระบบอัตโนมัติโรงเรียนในจีนได้ทดลองใช้ AI เพื่อตรวจงานของนักเรียนมาตั้งแต่ปี 2018 กระทรวงศึกษาธิการของสหราชอาณาจักรได้จัดงานแฮ็กกาธอนเมื่อวันที่ 30 และ 31 ตุลาคม 2023 วัตถุประสงค์ของงานแฮ็กกาธอนคือเพื่อตรวจสอบว่าหน่วยงานด้านการศึกษาสามารถใช้ AI สำหรับงานต่าง ๆ เช่น การตรวจงานข้อสอบอย่างถูกต้องได้หรือไม่ 

ระบบการให้คะแนนนักเรียนที่ใช้ AI มีอยู่แล้ว นาย Robert Stanyon ได้พัฒนาระบบการให้คะแนนที่ใช้ AI สำหรับวิชาคณิตศาสตร์และวิทยาศาสตร์ ปัจจุบัน มหาวิทยาลัยเบอร์มิงแฮมและมหาวิทยาลัยลิเวอร์พูลกำลังทดลองใช้ระบบ Graide นี้ ด้วยภูมิหลังนี้ กลุ่มผู้นำโรงเรียนที่นำโดยเซอร์แอนโธนี เซลดอนได้เขียนจดหมายถึงหนังสือพิมพ์ The Times พวกเขาแสดงความกังวลว่ารัฐบาลล้มเหลวในการดำเนินการอย่างรวดเร็วเพื่อควบคุมการใช้ AI ในบริบทการศึกษา ควรจำไว้ว่าในอดีต การใช้ AI ในบริบทการศึกษาในสหราชอาณาจักรได้สร้างปัญหาที่ร้ายแรง ในปี 2020 ได้มีการพลิกกลับเกรดที่คาดการณ์ไว้ว่า AI จะสร้างได้โดยใช้เกรดที่ครูคาดการณ์ไว้สำหรับนักเรียน หลังจากเกิดกระแสต่อต้านจากประชาชนเกี่ยวกับการใช้ AI 

มหาวิทยาลัยในเยอรมนีใช้ AI เพื่อคุมสอบนักศึกษาระหว่างการระบาดของ COVID-19 หน่วยงาน GFF ยื่นฟ้องมหาวิทยาลัยในเยอรมนีหลายแห่ง โดยกล่าวหาว่าการปฏิบัติดังกล่าวละเมิดสิทธิมนุษยชนขั้นพื้นฐาน รวมถึงการประมวลผลข้อมูลจำนวนมากที่เกี่ยวข้องกับนักศึกษา เมื่อพิจารณาจากบริบทดังกล่าว จึงจำเป็นต้องกำหนดว่าการใช้ AI เพื่อตรวจงานของนักศึกษาอาจส่งผลเสียต่อนักศึกษาในสถานการณ์ใด และควรห้ามใช้ระบบดังกล่าวในบริบทใด การระบุบทบาทของกฎหมายสิทธิมนุษยชนระหว่างประเทศและกฎหมาย AI ในการป้องกันการปฏิบัติที่เป็นปัญหาจึงมีความสำคัญอย่างยิ่ง 

กล่าวคือการใช้ AI ในการให้คะแนนซึ่งการบ้านที่ต้องตรวจนั้นต้องให้คำตอบกับชุดคำถามแบบเลือกตอบหลายข้อนั้นไม่ก่อให้เกิดการโต้แย้ง บันทึกคำตอบของนักเรียนต่อคำถามแบบเลือกตอบหลายข้อและเทมเพลตของคำตอบที่ถูกต้องต่างก็แสดงถึงรูปแบบ AI สามารถจดจำรูปแบบได้ Douglas Chai พัฒนาอัลกอริทึมที่สามารถระบุได้ว่าคำตอบที่นักเรียนวงกลมไว้ในแบบทดสอบแบบเลือกตอบหลายข้อนั้นตรงกับคำตอบที่ถูกต้องหรือไม่ตั้งแต่ปี 2016 เนื่องจาก AI ทำหน้าที่จับคู่รูปแบบการ ใช้ AI จึงคล้ายกับการใช้เครื่องสแกนการจดจำเครื่องหมายด้วยแสงซึ่งมีการใช้งานมาระยะหนึ่งแล้ว 

เมื่อหน่วยงานต่างๆ ใช้ AI เพื่อให้คะแนนงานที่เกี่ยวข้องกับนักเรียนที่ต้องแก้ปัญหาคณิตศาสตร์ และงานนั้นไม่ได้ให้นักเรียนตอบคำถามแบบเลือกตอบ การใช้ AI ควรได้รับการปฏิบัติเหมือนกับเทคโนโลยีรุ่นเก่า ซึ่งทำให้สามารถจดจำรูปแบบได้ ในกรณีนี้ เนื่องจากเมื่อแก้ปัญหาคณิตศาสตร์ นักเรียนจะเขียนลำดับตัวเลข ซึ่งถือเป็นขั้นตอนระหว่างกาล ขั้นตอนระหว่างกาลเหล่านี้ในการคำนวณช่วยให้นักเรียนสามารถหาคำตอบได้ อย่างไรก็ตาม การใช้ AI ดังกล่าวไม่เหมือนกับเทคโนโลยีรุ่นก่อนๆ จำเป็นต้องมีการวิจัยเพิ่มเติมเพื่อพิจารณาผลกระทบของการใช้ AI เพื่อให้คะแนนงานคณิตศาสตร์ต่อผู้พิการ เพื่อลดความเสี่ยงที่เกิดจากการทำงานอัตโนมัติ นักพัฒนาจะต้องออกแบบ AI เพื่อให้ให้คะแนนนักเรียนบางส่วนสำหรับวิธีแก้ไขปัญหาคณิตศาสตร์ที่ไม่สมบูรณ์ ในทำนองเดียวกัน AI ควรได้รับการออกแบบเพื่อไม่ให้ลงโทษนักเรียนสำหรับการระบุขั้นตอนระหว่างกาลของวิธีแก้ไขปัญหาในลำดับที่แตกต่างกัน นอกจากนี้ AI ไม่ควรลงโทษนักเรียนสำหรับการป้อนข้อมูลโดยใช้รูปแบบที่แตกต่างกันหรือสำหรับการโต้ตอบกับระบบในลักษณะใดลักษณะหนึ่ง 

นอกจากนี้ ครูควรใช้วิจารณญาณทางวิชาชีพในการตัดสินว่าการใช้ AI เหมาะสมสำหรับการให้คะแนนงานของนักเรียนในวิชาคณิตศาสตร์หรือไม่ ตัวอย่างเช่น การใช้ AI ไม่เหมาะสำหรับงานบางประเภทที่นักเรียนพัฒนานวัตกรรมในสาขาคณิตศาสตร์ นักเรียนทุกคนควรสามารถขอให้ผู้ตัดสินใจที่เป็นมนุษย์ให้คะแนนงานที่ได้รับการตรวจโดย AI ใหม่ได้โดยไม่จำเป็นต้องแสดงหลักฐานความเสี่ยงของความไม่ถูกต้องหรือข้อผิดพลาด การทำงานของ AI จำเป็นต้องมีขอบเขตของข้อผิดพลาดพลาด

หน่วยงานการศึกษาไม่ควรใช้ AI ในการให้คะแนนข้อความที่ไม่ใช่ตัวเลข เนื่องจากการให้คะแนนคำตอบเป็นการใช้การตัดสินเชิงประเมิน ความสามารถของ AI ทำให้ AI ไม่เหมาะสมที่จะใช้ในการให้คะแนนงานในวิชาที่มีการไตร่ตรองอย่างมีวิจารณญาณเกี่ยวกับเนื้อหา และการให้คำตอบในรูปแบบที่ไม่ใช่ตัวเลข วิชาเหล่านี้ได้แก่ มนุษยศาสตร์และสังคมศาสตร์ ในทำนองเดียวกัน หลักสูตรวิทยาศาสตร์และวิทยาการคอมพิวเตอร์บางหลักสูตรไม่เหมาะสำหรับการใช้ AI ในการประเมินผล ตัวอย่างเช่น หลักสูตรจริยธรรมและความยั่งยืนของการคำนวณ AI ขาดความสามารถในการตีความและระบุความหมายให้กับข้อความที่เขียน ได้อย่างถูกต้อง การใช้ AI ส่งผลเสียต่อบุคคลจากกลุ่มที่ไม่ได้รับการเป็นตัวแทน การใช้ AI ในการให้คะแนนข้อความทำให้การแสดงออกของความหลากหลายของมนุษย์ลดน้อยลงนอกจากนี้ ยังมีหลักฐานว่าการใช้ AI ในการประเมินข้อความอาจทำให้ผู้พิการเสียเปรียบ เนื่องจาก AI ไม่สามารถระบุความหมายที่ถูกต้องให้กับข้อความได้การใช้ AI จึงทำให้ไม่สามารถประเมินได้ว่านักเรียนมีส่วนร่วมในการวิเคราะห์เชิงวิจารณ์ในระดับใดเมื่อเขียนคำตอบ 

การใช้ AI อาจลงโทษนักเรียนที่แสดงความคิดสร้างสรรค์และการคิดแบบนามธรรม การใช้ AI อาจลงโทษนักเรียนที่เสนอแนวคิดที่แตกต่างจากกระแสหลักโซลานจ์ เกอร์นาอูตีสังเกตว่าการใช้ AI เป็นส่วนหนึ่งของกระบวนการตัดสินใจอาจนำไปสู่การปรับปรุงพันธุกรรมในความคิด เนื่องจาก AI จดจำรูปแบบได้ จึงถือว่าคำตอบที่เขียนไว้ซึ่งไม่เข้ากับรูปแบบหรือแตกต่างจากค่าเฉลี่ยไม่เกี่ยวข้อง ด้วยเหตุนี้ AI จึงไม่เหมาะสำหรับการให้คะแนนข้อความที่เขียนและงานที่เกี่ยวข้องกับการคิดวิเคราะห์ของนักเรียน 

ดังนั้น เพื่อปกป้องสิทธิพื้นฐานของบุคคลมาตรา 6(2) ของกฎหมาย AIกำหนดให้ระบบ AI บางระบบมีความเสี่ยงสูง ย่อหน้า 3 ของภาคผนวก IIIชี้แจงว่ามาตรา 6(2) ของร่างกฎหมาย AIครอบคลุมถึงการใช้ระบบ AI ในการศึกษาและอาชีวศึกษา ย่อหน้า 3 ของภาคผนวก III ของกฎหมาย AIครอบคลุมถึงการประยุกต์ใช้ AI ในด้านการศึกษาต่างๆ การประยุกต์ใช้เหล่านี้รวมถึงการใช้ AI เพื่อกำหนดว่าใครจะได้รับการรับเข้าเรียนในโครงการการศึกษา การตรวจงานของนักเรียน การควบคุมดูแลงานของนักเรียน และการใช้ AI เพื่อจัดสรรนักเรียนไปยังโรงเรียนต่างๆ 

มาตรา 9(1) ของร่างกฎหมาย AIกำหนดภาระผูกพันในการจัดตั้งและบำรุงรักษาระบบการจัดการความเสี่ยงที่เกี่ยวข้องกับระบบ AI ที่มีความเสี่ยงสูง ตามมาตรา 9(2) หน่วยงานที่ใช้ AI จำเป็นต้องประเมินความเสี่ยงอย่างต่อเนื่องซึ่งการใช้ระบบ AI ที่มีความเสี่ยงสูงอาจก่อให้เกิดการได้รับสิทธิขั้นพื้นฐานหน่วยงานจำเป็นต้องใช้มาตรการที่ “เหมาะสมและตรงเป้าหมาย” เพื่อจัดการกับความเสี่ยงต่อสิทธิขั้นพื้นฐาน อย่างไรก็ตามมาตรา 9(3) ทำให้ภาระผูกพันในการจัดทำระบบการจัดการความเสี่ยงอ่อนแอลงโดยระบุว่ามาตรา 9 กล่าวถึงความเสี่ยงที่สามารถ “บรรเทาหรือขจัดได้อย่างสมเหตุสมผล” เท่านั้น ไม่ว่าจะผ่านการออกแบบ AI หรือโดยการให้ “ข้อมูลทางเทคนิคที่เพียงพอ” การสันนิษฐานว่าความเสี่ยงส่วนใหญ่สามารถบรรเทาได้ผ่านการออกแบบนั้นเป็นปัญหาการขาดความสามารถของ AIในการระบุความหมายให้กับข้อความที่เขียนและแนวโน้มที่จะเสียเปรียบนักเรียนที่มีลักษณะเฉพาะที่ได้รับการคุ้มครองไม่สามารถแก้ไขได้ผ่านทางเลือกในการออกแบบ ดังนั้นมาตรา 9(3)จึงจำกัดการคุ้มครองสิทธิพื้นฐานในกฎหมาย AI อย่างมาก โดยจำกัดภาระผูกพันในการจัดทำระบบจัดการความเสี่ยงให้ครอบคลุมเฉพาะความเสี่ยงที่สามารถ “บรรเทาหรือขจัดได้อย่างสมเหตุสมผล” มาตรา 9(5)(a) ทำให้การคุ้มครองสิทธิพื้นฐานอ่อนแอลงอีก โดยกำหนดว่าจำเป็นต้องบรรเทาความเสี่ยงในขอบเขตที่ “เป็นไปได้ทางเทคนิค” ที่จะทำเช่นนั้นได้ผ่านการออกแบบที่เหมาะสมเท่านั้น (หน้า 105) เนื่องจาก AI ไม่สามารถระบุความหมายได้จากข้อความที่เขียนมาตรา 9(4) จึงให้การคุ้มครองที่จำกัด 

ผู้สนับสนุนกฎหมาย AI อาจระบุในขั้นตอนนี้ว่ามาตรา 9(5)(b) ช่วยบรรเทาความรุนแรงของมาตรา 9(2) โดยกำหนดให้บริษัทต่างๆ ต้องใช้มาตรการบรรเทาความเสี่ยงที่เหมาะสมต่อความเสี่ยงที่ไม่สามารถขจัดออกไปได้ แม้จะเป็นจริง แต่มาตรา 9(5)(b)ไม่สามารถแก้ไขปัญหาได้อย่างสมบูรณ์ เนื่องจากมาตรา 9(5) อนุญาตให้ผู้ที่เกี่ยวข้องกับการประเมินความเสี่ยงตัดสินใจว่าสามารถยอมรับ “ความเสี่ยงโดยรวมที่เหลืออยู่” ที่เกี่ยวข้องกับการใช้ระบบ AI ได้ วาทกรรมในการยอมรับ “ความเสี่ยงโดยรวมที่เหลืออยู่” นี้เข้ากันไม่ได้กับการปกป้องสิทธิขั้นพื้นฐาน จากมุมมองของกฎหมายสิทธิมนุษยชน ความเสี่ยงทั้งหมดมีความสำคัญไม่ว่าจะมีขนาดใหญ่หรือเล็กเพียงใด ตราบใดที่การใช้งาน AI มีแนวโน้มที่จะละเมิดสิทธิขั้นพื้นฐานของบุคคลใดบุคคลหนึ่ง ดังนั้น หาก AI ตัดสินใจ 1,000 ครั้งในเวลา 10 นาที และมีความเป็นไปได้ที่คน 50 คนอาจต้องตกอยู่ภายใต้การปฏิบัติที่เลือกปฏิบัติ การตัดสินใจที่มีปัญหาจะคิดเป็นเพียง 5% ของการตัดสินใจทั้งหมดก็ไม่สำคัญ สิ่งสำคัญคือมีผู้คน 50 รายที่ประสบกับการเลือกปฏิบัติ 

กฎหมาย AI ฉบับปัจจุบัน ไม่ได้อนุญาตให้รัฐในสหภาพยุโรปปฏิบัติตามพันธกรณีสิทธิมนุษยชนระหว่างประเทศของตน การห้ามการเลือกปฏิบัติในอนุสัญญาว่าด้วยสิทธิของผู้พิการ (CRPD) กำหนดให้รัฐต้องขอความยินยอมจากผู้พิการก่อนจะให้พวกเขาใช้ AI ในกระบวนการตัดสินใจบางส่วนหรือทั้งหมด ผู้พิการสามารถคัดค้านการใช้ AI ได้โดยไม่ต้องขอการอำนวยความสะดวกที่เหมาะสมข้อห้ามนี้ขยายไปถึงอนุสัญญาว่าด้วยการขจัดการเลือกปฏิบัติต่อสตรีในทุกรูปแบบ (CEDAW) มาร์ติน เชนินแสดงให้เห็นว่าข้อกำหนดในการขอความยินยอมจากบุคคลที่ถูกเลือกปฏิบัติก่อนจะใช้ AI ได้ขยายไปถึงสนธิสัญญาสิทธิมนุษยชนฉบับอื่นๆ รวมถึงอนุสัญญาว่าด้วยการขจัดการเลือกปฏิบัติทางเชื้อชาติในทุกรูปแบบ (CERD) และอนุสัญญาว่าด้วยสิทธิพลเมืองและสิทธิทางการเมืองระหว่างประเทศ (ICCPR) กฎหมาย AI ไม่เป็นไปตามข้อกำหนดนี้ เนื่องจากไม่มีบทบัญญัติใดๆ ที่กำหนดให้หน่วยงานที่ใช้งานระบบ AI ที่มีความเสี่ยงสูงต้องได้รับความยินยอมอย่างมีข้อมูลจากบุคคลที่เป็นผู้ตัดสินใจก่อน จึงจะสามารถใช้ระบบเหล่านี้ได้ 

ข้อบังคับทั่วไปเกี่ยวกับการคุ้มครองข้อมูล (GDPR) ไม่ได้กล่าวถึงปัญหานี้อย่างครบถ้วน ตัวอย่างเช่น มาตรา 22 ของ GDPR ให้สิทธิ์กับบุคคลในการไม่ต้องอยู่ภายใต้"การตัดสินใจที่อิงจากการประมวลผลอัตโนมัติเพียงอย่างเดียว " เท่านั้น มาตรา 22 ไม่ครอบคลุมสถานการณ์ที่มนุษย์ควบคุมดูแลการทำงานของ AI และตรวจสอบการตัดสินใจอัตโนมัติก่อนที่จะนำไปใช้ ศาลยุติธรรมของสหภาพยุโรปในคดีOQ v SCHUFA Holding 634/21 ตัดสินว่าจะมีการตัดสินใจอัตโนมัติหากผู้ตัดสินใจ "ใช้ดุลยพินิจอย่างเข้มงวด" (ย่อหน้า 40) เกี่ยวกับการตัดสินใจอัตโนมัติ (ย่อหน้า 61-62) อย่างไรก็ตาม จะมีหลายกรณีที่บุคคลไม่ได้รับการปกป้องอย่างเพียงพอ แม้ว่าผู้ตัดสินใจจะไม่ได้ "ใช้ดุลยพินิจอย่างเข้มงวด" เกี่ยวกับผลลัพธ์ที่สร้างโดย AI มนุษย์ขาดความสามารถในการดูแลการทำงานของระบบที่ซับซ้อน รวมถึง AI ดังนั้น การคุ้มครองตาม GDPR จึงไม่สามารถทดแทนการห้ามหน่วยงานใช้เอาต์พุตที่สร้างโดย AI เพื่อแจ้งกระบวนการตัดสินใจโดยไม่ได้รับความยินยอมจากบุคคลที่มีส่วนร่วมในการตัดสินใจได้ 

ปัญหาของกฎหมายฉบับนี้ก็คือ กฎหมายฉบับนี้ถือว่ามีศักยภาพทางเทคนิคบางประการอยู่ ซึ่งในความเป็นจริงแล้วไม่มีอยู่จริง ตัวอย่างเช่นมาตรา 20(1)กำหนดให้ผู้ให้บริการระบบ AI ที่มีความเสี่ยงสูงต้องดำเนินการเพื่อถอนระบบออกหากพบว่าระบบดังกล่าวไม่เป็นไปตามกฎหมาย AI มาตรา 19(1)กำหนดให้ผู้ให้บริการต้องเก็บบันทึกที่ระบบ AI ที่มีความเสี่ยงสูงสร้างขึ้นไว้เป็นเวลาอย่างน้อย 6 เดือนมาตรา 14(1)กำหนดให้การออกแบบ AI อนุญาตให้บุคคลธรรมดาสามารถกำกับดูแลระบบ AI ที่มีความเสี่ยงสูงได้อย่าง “มีประสิทธิผล” และอธิบายว่าจุดประสงค์ของการกำกับดูแลดังกล่าวคือเพื่อ “ป้องกัน” หรือ “ลดให้เหลือน้อยที่สุด” ความเสี่ยงของการละเมิดสิทธิมนุษยชนขั้นพื้นฐาน ในขณะเดียวกันมาตรา 14(4)(d)กำหนดว่าผู้ให้บริการสามารถตัดสินใจไม่ใช้ระบบ AI ที่มีความเสี่ยงสูงหรือละเลยผลลัพธ์ของระบบได้ แม้ว่าบทบัญญัติเหล่านี้จะดูเหมือนให้การคุ้มครอง แต่ในทางปฏิบัติแล้วอาจมีผลกระทบจำกัดมีงานวิจัยจำนวนมากที่แสดงให้เห็นว่ามนุษย์ไม่มีความสามารถในการดูแลการทำงานของระบบที่ซับซ้อน รวมถึงปัญญาประดิษฐ์ (AI)นอกจากนี้มาตรา 14(4)ยังจำกัดขอบเขตของภาระผูกพันนี้โดยกำหนดให้ผู้ปฏิบัติงานได้รับมอบหมายหน้าที่ดูแลปัญญาประดิษฐ์ “ตามความเหมาะสมและสมส่วน” เท่านั้น

บทเรียนสำหรับสหภาพยุโรปเกี่ยวกับการแก้ไขกฎหมายปัญญาประดิษฐ์นั้น กล่วได้ว่าแทนที่จะถือว่าการประยุกต์ใช้AI ในระบบการศึกษามีความเสี่ยงสูงกฎหมาย AI ควรห้ามการใช้ AI บางประเภทข้อห้ามดังกล่าวในบริบทของการศึกษาควรขยายไปถึงการให้คะแนนข้อความ การกำหนดว่าใครควรมีสิทธิ์เข้าถึงโอกาสทางการศึกษา และการจัดสรรนักเรียนไปยังโรงเรียนต่างๆ กฎหมาย AI ควรถือว่ากระบวนการตัดสินใจอัตโนมัติทั้งหมดหรือบางส่วนโดยใช้ AI เป็นการท้าทายต่อการปกป้องสิทธิขั้นพื้นฐานเหมือนกัน สุดท้าย กฎหมาย AI ควรห้ามการใช้ปัญญาประดิษฐ์เป็นส่วนประกอบในการประเมินและตัดสินใจเกี่ยวกับบุคคลโดยไม่ได้รับความยินยอมจากบุคคลนั้นล่วงหน้า เพื่อให้สามารถให้ความยินยอมโดยแจ้งข้อมูลแก่ผู้ใช้ AI ได้ บุคคลควรมีความรู้ในระดับสูงเกี่ยวกับการทำงานของ AI พวกเขาควรทราบว่าคุณสมบัติทางเทคนิคของ AI สามารถก่อให้เกิดอันตรายต่อสังคมและการละเมิดสิทธิขั้นพื้นฐานได้อย่างไร ในที่สุด พวกเขาควรเข้าใจว่ามีความท้าทายใดบ้างในการกำกับดูแลการทำงานของ AI อย่างมีประสิทธิภาพ และการท้าทายการตัดสินใจตามอัลกอริทึม