วันพฤหัสบดีที่ 26 ธันวาคม พ.ศ. 2567

บทอภิปรายความไว้วางใจในเทคโนโลยีปัญญาประดิษฐ์

ความไว้วางใจเป็นแนวคิดที่นักวิชาการด้านสังคมศาสตร์หลายชั่วอายุคนพยายามกำหนดความหมาย แม้ว่าในชีวิตประจำวันเรามักจะไม่ต้องคิดซ้ำสองครั้งก่อนใช้คำนี้ ในทำนองเดียวกัน เรามักพูดถึงความไว้วางใจในเทคโนโลยีโดยอิงจากประสบการณ์ที่เราไว้วางใจเทคโนโลยีบางอย่างมากกว่าเทคโนโลยีอื่นๆ หรือความไว้วางใจในเทคโนโลยีเฉพาะที่พัฒนาขึ้นตามกาลเวลา อย่างไรก็ตาม นักวิชาการได้ตั้งคำถามถึงการมีอยู่ของความไว้วางใจในเทคโนโลยี โดยเฉพาะปัญญาประดิษฐ์ทั่วไป (AGI) ที่อาจมีผลต่อเปลี่ยนแปลงการอภิปรายทางสังคม วิทยาศาสตร์ และการเมืองเกี่ยวกับความไว้วางใจในเทคโนโลยีอย่างไร 

คำถามที่ว่าความไว้วางใจคืออะไรกันแน่อาจได้รับคำตอบจากวลีที่โด่งดังที่สุดวลีหนึ่งในประวัติศาสตร์ของศาลฎีกาสหรัฐฯซึ่งมักใช้ในกรณีที่ไม่มีคำจำกัดความที่เหมาะสม เช่น “ ฉันรู้เมื่อฉันเห็นมัน ” แม้ว่าคำจำกัดความของประสบการณ์มนุษย์ทั่วไป เช่น ความไว้วางใจ จะดูเข้าใจได้ง่าย แต่เพื่อตอบคำถามว่าความไว้วางใจสามารถนำไปใช้กับเทคโนโลยีได้อย่างไร เราต้องกำหนดคำจำกัดความของความไว้วางใจให้ถูกต้องเสียก่อน หัวข้อต่อไปนี้จะพยายามทำสิ่งนี้โดยพิจารณาองค์ประกอบหลายอย่างที่มีอยู่ในคำจำกัดความของความไว้วางใจส่วนใหญ่

โดยทั่วไปแล้วความไว้วางใจมักถูกกำหนดให้เป็นความเต็มใจของฝ่ายหนึ่งที่จะยอมอ่อนไหวต่อการกระทำของอีกฝ่ายหนึ่ง โดยอิงจากความคาดหวังบางประการเกี่ยวกับการกระทำของอีกฝ่ายหนึ่ง และไม่คำนึงถึงความสามารถในการตรวจสอบหรือควบคุมอีกฝ่ายนั้น ลักษณะสำคัญที่กำหนดความไว้วางใจคือความเสี่ยง ซึ่งหมายความว่าความไว้วางใจสามารถมีอยู่ได้ก็ต่อเมื่อมีความเสี่ยงจากอันตราย กล่าวอีกนัยหนึ่ง ความไว้วางใจคือการที่บุคคลหนึ่งเปิดเผยความเสี่ยงต่ออันตรายอาจจะทางร่างกายหรือจิตใจจากอีกฝ่ายโดยรู้ตัว 

ปัจจัยหลายประการที่ส่งผลต่อความไว้วางใจนั้นแบ่งออกเป็น 3 ประเภท ซึ่งเกี่ยวข้องกับผู้มอบความไว้วางใจ (ผู้ที่มอบความไว้วางใจ) ผู้ดูแลทรัพย์สิน (ผู้ที่ได้รับความไว้วางใจ) และบริบทที่ผู้มอบความไว้วางใจและผู้ดูแลทรัพย์สินดำรงอยู่ลักษณะของผู้ดูแลทรัพย์สินเกี่ยวข้องกับความน่าเชื่อถือของผู้ดูแลทรัพย์สิน รวมถึงความสามารถ ความเมตตากรุณา และความซื่อสัตย์สุจริตลักษณะเฉพาะของผู้มอบความไว้วางใจเกี่ยวข้องกับทุกสิ่งที่ส่งผลต่อการให้ความไว้วางใจของผู้มอบความไว้วางใจ เช่น นิสัยและการรับรู้ของพวกเขา และปัจจัยเชิงบริบทซึ่งส่งผลต่อทั้งผู้มอบความไว้วางใจและผู้ดูแลทรัพย์สินนั้นเกี่ยวข้องกับบริบทด้านสิ่งแวดล้อม สังคม และสถาบันที่กว้างขึ้น

องค์ประกอบหลักของคำจำกัดความของความไว้วางใจ นั่นก็คือ ความเสี่ยง บ่งบอกถึงความจำเป็นของความไว้วางใจที่เกี่ยวข้องกับอย่างน้อยสองฝ่าย ดังนั้น ความไว้วางใจจึงเป็นแบบสัมพันธ์กันคุณภาพแบบสัมพันธ์กันของความไว้วางใจมักจะก่อให้เกิดการตอบแทน อย่างไรก็ตาม การตอบแทนกันแม้ว่าจะพบได้ทั่วไปในความสัมพันธ์แบบไว้วางใจระหว่างบุคคล แต่ก็ไม่จำเป็นต้องเป็นลักษณะเฉพาะของความไว้วางใจ นอกจากการตอบแทนกันจะถูกละเว้นจากคำจำกัดความของความไว้วางใจส่วนใหญ่แล้ว การแสดงออกในบทสนทนาที่เป็นตัวอย่าง เช่น การไว้วางใจแบบปิดตาหรือการละเมิดความไว้วางใจ แสดงให้เห็นว่าการตอบแทนกันน่าจะเป็นผลข้างเคียงทั่วไปของความไว้วางใจ มากกว่าจะเป็นลักษณะเฉพาะของมัน ในบางกรณี ความไว้วางใจอาจเป็นแบบฝ่ายเดียว หรืออาจเกิดขึ้นโดยที่ผู้รับความไว้วางใจไม่รู้ตัวก็ได้ 

ดังนั้น แม้ว่าความสัมพันธ์แบบตอบแทนจะไม่จำเป็นต่อการดำรงอยู่ของความไว้วางใจ แต่องค์ประกอบเชิงสัมพันธ์ เช่น การเกี่ยวข้องกับสิ่งที่อยู่นอกตัวเราเอง มีความจำเป็น อย่างไรก็ตาม ในกรณีส่วนใหญ่ เมื่อคิดถึงความไว้วางใจ และโดยเฉพาะอย่างยิ่งเมื่อวัดความไว้วางใจ จะมีแนวคิดโดยนัยเกี่ยวกับมุมมองบุคคลที่หนึ่ง นั่นคือ ความสัมพันธ์ระหว่างประธานและกรรม การให้เหตุผลในลักษณะนี้ซึ่งมุ่งเน้นไปที่การรับรู้ของประธานเกี่ยวกับวัตถุ ทำให้สามารถไว้วางใจสิ่งที่ไม่ใช่มนุษย์ต่างๆ ที่ประธานอาจตกเป็นเหยื่อได้ เช่น สัตว์ องค์กร สถาบัน รัฐบาล และเทคโนโลยี ระดับของความสัมพันธ์แบบตอบแทนในความสัมพันธ์แบบตอบแทนเหล่านี้แตกต่างกันไป แม้ว่าเราสามารถสร้างความสัมพันธ์แบบตอบแทนกับสัตว์ที่ไม่ใช่มนุษย์ได้ แต่ก็อาจไม่ใช่กรณีเสมอไปสำหรับสถาบันหรือรัฐบาล และแน่นอนว่าไม่ใช่กรณีของเทคโนโลยีที่มีให้มนุษย์ใช้ในปัจจุบัน อย่างไรก็ตาม ไม่ใช่เรื่องที่ไม่น่าเชื่อที่การพัฒนาเทคโนโลยีเพิ่มเติมจะทำให้เกิดความสัมพันธ์แบบตอบแทนกับเทคโนโลยี โดยเฉพาะกับปัญญาประดิษฐ์ทั่วไป ซึ่งการถือกำเนิดของปัญญาประดิษฐ์ทั่วไปจะเพิ่มความซับซ้อนอีกชั้นหนึ่งให้กับความไว้วางใจในเทคโนโลยี

เมื่อได้กำหนดความไว้วางใจระหว่างบุคคลแล้ว เรามาพิจารณาว่าคำจำกัดความนี้อาจนำไปใช้กับวัตถุสัมพันธ์อื่นๆ ได้อย่างไร ตัวอย่างหนึ่งคือความไว้วางใจในสถาบันของรัฐต่างๆ ซึ่งเรียกอีกอย่างว่าความไว้วางใจทางการเมืองเช่นเดียวกับความไว้วางใจระหว่างบุคคล ความไว้วางใจประเภทนี้ถูกกำหนดไว้ในเอกสารว่าประกอบด้วยความมั่นใจในความสามารถและความเมตตากรุณาของผู้รับมอบอำนาจ (ในกรณีนี้คือของรัฐบาลหรือสถาบันของรัฐแห่งหนึ่ง) อย่างไรก็ตาม แม้ว่าการตอบแทนกันจะเป็นลักษณะหนึ่งของความไว้วางใจระหว่างบุคคล แต่ความไว้วางใจทางการเมืองกลับมีอยู่ไม่มากนัก ซึ่งอาจเป็นเพราะลักษณะทางอ้อมของความสัมพันธ์ที่มักปกปิดสัญญาณความไว้วางใจ ซึ่งมิฉะนั้นจะเห็นได้ชัดกว่าผ่านการสื่อสารโดยตรงซึ่งมักพบในบริบทระหว่างบุคคล 

ตัวอย่างเช่น สัญญาณของความไว้วางใจจากสถาบันต่างๆ ที่มีต่อประชาชน ซึ่งแสดงออกมาผ่านนโยบายและขั้นตอนการบริหารนั้น โปร่งใสกว่าสัญญาณของความไว้วางใจจากประชาชนที่มีต่อรัฐบาล ซึ่งมักจะไม่ชัดเจน เว้นแต่จะมีการถามประชาชนโดยตรงเกี่ยวกับความไว้วางใจทางการเมืองของพวกเขา ดังนั้น แม้ว่าความไว้วางใจที่มากขึ้นจากสถาบันต่างๆ ของรัฐบาลจะนำไปสู่ความไว้วางใจที่มากขึ้นสำหรับประชาชน แต่ก็มีแนวโน้มน้อยกว่าที่ความไว้วางใจทางการเมืองระดับสูงที่ประชาชนมอบให้กับรัฐบาลจะแปลเป็นความไว้วางใจระดับสูงที่รัฐบาลมอบให้กับประชาชน 

เหตุผลที่เป็นไปได้อีกประการหนึ่งสำหรับเรื่องนี้คืออำนาจ งานวิจัยก่อนหน้านี้ได้แสดงให้เห็นว่าเมื่อความสัมพันธ์มีความไม่เท่าเทียมกันของอำนาจ ความไว้วางใจของหน่วยงานที่มีอำนาจมากกว่าจะไม่เพิ่มขึ้นตามความไว้วางใจที่เพิ่มขึ้นของหน่วยงานที่มีอำนาจน้อยกว่า ตัวอย่างเช่น ในขณะที่การแสดงความไว้วางใจของหัวหน้างานจะเพิ่มความไว้วางใจของพนักงานที่มีต่อหัวหน้างาน แต่นั่นไม่ใช่กรณีของการแสดงความไว้วางใจของพนักงาน ในทางตรงกันข้าม สิ่งที่จะเพิ่มความไว้วางใจของหัวหน้างานคือคุณภาพของผลงานของพนักงาน มากกว่าที่พนักงานแสดงความไว้วางใจต่อหัวหน้างานตามที่คาดไว้ตามหลักการตอบแทนพูดง่ายๆ ก็คือ ดูเหมือนว่าในความสัมพันธ์ที่ไว้วางใจซึ่งมีลักษณะพลวัตของอำนาจที่ไม่เท่าเทียมกัน ฝ่ายที่มีอำนาจมากกว่าจะมีความสามารถมากกว่าในการกำหนดทิศทางของความไว้วางใจซึ่งกันและกันภายในความสัมพันธ์ กล่าวคือ ระดับความไว้วางใจของฝ่ายที่มีอำนาจมากกว่ามีแนวโน้มที่จะได้รับการตอบแทนจากฝ่ายที่มีอำนาจน้อยกว่ามากกว่าในทางกลับกัน 

สำหรับคำถามว่าเราไว้วางใจในเทคโนโลยีได้หรือไม่นั้น คล้ายกับการสรุปจากความไว้วางใจระหว่างบุคคลไปสู่ความไว้วางใจทางการเมือง มีความพยายามมากมายที่จะนำความไว้วางใจมาใช้ในการทำความเข้าใจความสัมพันธ์ระหว่างมนุษย์กับเทคโนโลยี ในทางกลับกัน เนื่องจากความเป็นไปไม่ได้ในการสร้างความสัมพันธ์แบบตอบแทนด้วยเทคโนโลยี บางคนจึงเห็นว่าแนวคิดเรื่องความไว้วางใจไม่สามารถใช้ได้ในบริบทนี้ อย่างไรก็ตาม ดังที่เห็นในหัวข้อก่อนหน้านี้ที่นิยามความไว้วางใจระหว่างบุคคลและทางการเมือง แม้ว่าการตอบแทนมักเกิดขึ้นในความสัมพันธ์แบบไว้วางใจ แต่ก็ไม่ใช่เงื่อนไขที่จำเป็นสำหรับความไว้วางใจ ดังที่เห็นได้ในกรณีที่ความไว้วางใจมีอยู่แม้ว่าจะไม่มีการตอบแทนก็ตาม ในขณะเดียวกันนักวิจารณ์แนวคิดความไว้วางใจในเทคโนโลยีโต้แย้งว่าเนื่องจากเทคโนโลยีไม่สามารถ "ทรยศ" เรา จึงไม่เหมาะสมที่จะกล่าวว่าเราสร้างความสัมพันธ์แบบไว้วางใจด้วยเทคโนโลยี ในทางกลับกัน เมื่อเทคโนโลยีล้มเหลว เทคโนโลยีกลับทำให้เราผิดหวัง เนื่องจากความไร้ความสามารถแทนที่จะทรยศเรา ซึ่งจะเป็นกรณีหากปัญหาอยู่ที่ความไม่เอื้ออาทรของเทคโนโลยี ดังนั้น นักวิจารณ์จึงโต้แย้งว่า ความสัมพันธ์ที่เรามีกับเทคโนโลยีควรเรียกอย่างถูกต้องว่าเป็นความสัมพันธ์ของการพึ่งพาอาศัยมากกว่าความไว้วางใจ กล่าวอีกนัยหนึ่ง แม้ว่าจะเห็นได้ชัดว่าองค์ประกอบความสามารถ เช่น ความเชื่อมั่นในความสามารถและความน่าเชื่อถือของเทคโนโลยี มีความสำคัญต่อวิธีที่เราในฐานะมนุษย์มีความสัมพันธ์กับเทคโนโลยี แต่ยังไม่ชัดเจนนักว่าความเชื่อมั่นในความเมตตากรุณาของผู้ดูแลผลประโยชน์นั้นสามารถนำไปใช้ในกรณีนี้ได้หรือไม่ ตามที่บางคนกล่าวไว้ เนื่องจากเทคโนโลยีเป็นวัตถุที่ไม่มีชีวิต ขาดเจตนาและการกระทำ เทคโนโลยีจึงไม่สามารถเป็นอันตรายหรือมีเมตตากรุณาได้ และด้วยเหตุนี้ จึงขาดองค์ประกอบสำคัญที่กำหนดผู้ดูแลผลประโยชน์

ไม่ว่าจะเป็นอย่างไรก็ตาม ในมุมมองของบุคคลที่หนึ่ง องค์ประกอบของความเมตตากรุณานั้นได้รับประสบการณ์โดยอัตวิสัย อุปนิสัย เช่นลักษณะบุคลิกภาพประสบการณ์ก่อนหน้าและการรับรู้ความเสี่ยงล้วนส่งผลต่อความเมตตากรุณาที่ผู้รับมอบอำนาจรับรู้ แม้ว่าสิ่งนี้อาจถือเป็นการฉายภาพ แต่มีแนวโน้มสูงที่ผู้มอบอำนาจจะมองว่าเทคโนโลยีมีความเมตตากรุณาในระดับที่แตกต่างกัน แม้ว่าเทคโนโลยีจะยังไม่มีจิตสำนึกและอำนาจหน้าที่ก็ตาม โดยเฉพาะอย่างยิ่งในปัจจุบัน เนื่องจากข้อมูลเกี่ยวกับกระบวนการพัฒนาและผู้ออกแบบเทคโนโลยีมักเปิดเผยต่อสาธารณะและเป็นที่รู้จักดี ดังนั้น จึงเป็นเรื่องปกติที่ผู้มอบอำนาจจะสรุปความประทับใจของตนเกี่ยวกับความเมตตากรุณาของบุคคลและองค์กรที่ออกแบบและพัฒนาเทคโนโลยีใหม่ ๆ ให้เป็นการรับรู้ความเมตตากรุณาของเทคโนโลยีเอง ภายใต้มุมมองที่ว่าเทคโนโลยีไม่มีค่าเป็นกลาง และคุณค่าของผู้ออกแบบถูกเข้ารหัสในเทคโนโลยีการแพร่กระจายของความเมตตากรุณาที่รับรู้จากผู้สร้างไปยังสิ่งประดิษฐ์จึงค่อนข้างสมเหตุสมผล 

ความน่าเชื่อถือในความสัมพันธ์ระหว่างมนุษย์กับเทคโนโลยีจะยิ่งเพิ่มมากขึ้นเมื่อเทคโนโลยีมีความคล้ายคลึงกับมนุษย์มากขึ้น โดยเฉพาะอย่างยิ่ง แอปพลิเคชัน AI มักได้รับการออกแบบให้เลียนแบบปฏิสัมพันธ์ทางสังคมของมนุษย์ เช่น ผ่านการใช้ภาษา บรรทัดฐานทางสังคมและสคริปต์ และแม้แต่ลักษณะทางกายภาพของ AI ที่เป็นรูปธรรมและหุ่นยนต์ที่มีรูปร่างเหมือนมนุษย์ ตัวเลือกการออกแบบดังกล่าวมีแนวโน้มที่จะมุ่งเน้นไปที่การเพิ่มความน่าเชื่อถือ เนื่องจากการวิจัยแสดงให้เห็นว่าการออกแบบ AI แบบมีรูปร่างเหมือนมนุษย์นั้นมีส่วนช่วยในการสร้างความน่าเชื่อถือเนื่องจากความคล้ายคลึงกันระหว่างบุคคลต่างๆ จะช่วยเพิ่มความน่าเชื่อถือแม้ว่ามนุษย์ส่วนใหญ่จะตระหนักถึงความจริงที่ว่าคอมพิวเตอร์ไม่ใช่มนุษย์ แต่เรามักจะทำให้คอมพิวเตอร์มีลักษณะเหมือนมนุษย์โดยไม่รู้ตัว เช่น คอมพิวเตอร์ "เหนื่อย" หรือ "สับสน" การทำให้มีลักษณะเหมือน มนุษย์ดังกล่าวจะเด่นชัดเป็นพิเศษเมื่อสัมผัสกับ AI เป็นเวลานาน 

ในขณะที่ข้อโต้แย้งที่ร่างขึ้นทั้งหมดเพื่อสนับสนุนความไว้วางใจซึ่งเป็นเลนส์ทางทฤษฎีที่เกี่ยวข้องซึ่งเราใช้สังเกตความสัมพันธ์ระหว่างมนุษย์กับ AI นั้นอ้างถึงเทคโนโลยีที่ใช้กันอย่างแพร่หลายอยู่แล้ว ข้อโต้แย้งอีกประการหนึ่งอาจอ้างถึงเทคโนโลยีที่กำลังจะมาถึง นั่นคือ ปัญญาประดิษฐ์ทั่วไปโดยเฉพาะอย่างยิ่ง เนื่องจากปัญญาประดิษฐ์ทั่วไปตามคำจำกัดความนั้นมีความสามารถเทียบเท่ามนุษย์ ความเอื้ออาทรของปัญญาประดิษฐ์ทั่วไป จึงมีความสำคัญเป็นพิเศษ ยิ่งไปกว่านั้น เส้นทางที่เทคโนโลยีใหม่นี้จะดำเนินไปในแง่ของจิตสำนึกและการกระทำที่เป็นอิสระนั้นยังไม่เป็นที่ทราบแน่ชัด ดังนั้น การรับรู้ความเสี่ยงจึงได้รับการเน้นย้ำ และหลายคนจึงไม่ไว้วางใจ ซึ่งเห็นได้จาก การถกเถียงใน สังคมที่แพร่หลาย

ความกังวลเฉพาะอย่างหนึ่งที่ปรากฏชัดขึ้นในวาทกรรมสาธารณะเกี่ยวกับความก้าวหน้าทางเทคโนโลยีอาจเรียกได้อย่างถูกต้องว่าลัทธิเทคโนโลยีใหม่ในขณะที่คำว่าลัทธิเทคโนโลยีมักใช้ในเชิงลบเพื่ออธิบายความกลัวอย่างไม่มีเหตุผลต่อความก้าวหน้าทางเทคโนโลยี แต่จากมุมมองทางประวัติศาสตร์จะเผยให้เห็นภาพที่แตกต่างออกไป กล่าวคือขบวนการลัทธิเทคโนโลยีเริ่มต้นขึ้นในช่วงต้นศตวรรษที่ 19 เพื่อประท้วงเครื่องจักรที่ประหยัดต้นทุนซึ่งทำให้คนงานในโรงงานและโรงสีไม่มีโอกาสในการทำงานและลดค่าจ้างด้วยการถือกำเนิดของลัทธิเทคโนโลยีใหม่ ซึ่งหมายถึงการทำงานส่วนใหญ่ที่เท่าเทียมหรือเหนือกว่ามนุษย์ความรู้สึกของลัทธิเทคโนโลยีใหม่เกี่ยวกับความกังวลเกี่ยวกับการแทนที่คนงานด้วยเทคโนโลยีใหม่จึงเพิ่มขึ้น โดยเฉพาะในกลุ่มคนงานที่ไม่มั่นคง

ทั้งนี้ ข้อโต้แย้งที่มีอยู่สำหรับและต่อต้านความเหมาะสมของความไว้วางใจในฐานะมุมมองที่ใช้ในการดูความสัมพันธ์ระหว่างมนุษย์และเทคโนโลยี จนถึงขณะนี้ การถกเถียงทางวิทยาศาสตร์มุ่งเน้นไปที่การขาดการตอบแทนและความเมตตากรุณาของเทคโนโลยีในฐานะข้อโต้แย้งที่ต่อต้านการรับรู้ความเสี่ยงและการออกแบบที่เลียนแบบมนุษย์เมื่อเทียบกับมุมมองบุคคลที่หนึ่งในฐานะข้อโต้แย้งที่สนับสนุนการใช้ความไว้วางใจเป็นเลนส์เชิงแนวคิดเพื่อทำความเข้าใจความสัมพันธ์ระหว่างมนุษย์และเทคโนโลยี บทความความเห็นนี้นำเสนอข้อโต้แย้งเพิ่มเติมสามข้อที่สนับสนุนความเกี่ยวข้องของความไว้วางใจในเทคโนโลยี ซึ่งอธิบายความไม่ไว้วางใจที่สังเกตได้ในเทคโนโลยีใหม่ ๆ ระหว่างกลุ่มต่าง ๆ ของสังคมในเวลาเดียวกัน ข้อโต้แย้งข้อแรกเกี่ยวข้องกับวิธีที่ความไว้วางใจ (ที่ผิด) ในตัวบุคคลและ/หรือองค์กรที่เกี่ยวข้องกับการพัฒนาเทคโนโลยีบางอย่าง "กำหนด" การรับรู้และกำหนดความไว้วางใจ (ที่ผิด) ในเทคโนโลยีเอง ข้อโต้แย้งเพิ่มเติมอีกสองข้อเกี่ยวข้องกับการเกิดขึ้นของปัญญาประดิษฐ์ทั่วไปกล่าวคือ วิวัฒนาการของ AI ที่ชัดเจนในทิศทางของความเป็นอิสระที่เพิ่มขึ้น ซึ่งเพิ่มความคล้ายคลึงกับผู้ดูแลที่เป็นมนุษย์ และความกังวลเกี่ยวกับผลที่ตามมาของการพัฒนา AI ต่อสังคม เช่น ความสามารถในการทดแทนแรงงาน โดยสรุป ความไว้วางใจดูเหมือนจะสามารถนำไปใช้ได้กับความสัมพันธ์ระหว่างมนุษย์กับเทคโนโลยีในระดับหนึ่ง และยังสามารถนำไปใช้ได้กับการพัฒนาเทคโนโลยีใหม่ๆ ที่เกิดขึ้นอีกด้วย ยิ่งเทคโนโลยีถูกทำให้มีลักษณะเหมือนมนุษย์และบูรณาการมากขึ้นในชีวิตทางสังคมมากเท่าไร การทำความเข้าใจความสัมพันธ์ของเรากับเทคโนโลยีโดยใช้โครงสร้างทางจิตวิทยาสังคม เช่น ความไว้วางใจก็ยิ่งเหมาะสมมากขึ้นเท่านั้น อย่างไรก็ตาม เมื่อพิจารณาถึงความหลากหลายในมิติและอัตวิสัยของความไว้วางใจตามที่ได้สรุปไว้ในบทความนี้ จึงเป็นที่น่าสงสัยว่าความพยายามในการพัฒนา "AI ที่เชื่อถือได้" จะบรรลุผลได้หรือไม่ ในทำนองเดียวกันความพยายามในการควบคุมความน่าเชื่อถือของ AI อาจไม่สามารถบรรลุคำมั่นสัญญาในการบรรลุเป้าหมายอันสูงส่งนี้ได้ เนื่องจากการทำให้ความไว้วางใจเทียบเท่ากับการยอมรับความเสี่ยง ซึ่งตามที่ได้กล่าวไว้ที่นี่ เป็นเพียงองค์ประกอบหนึ่งของความไว้วางใจเท่านั้น ซึ่งอาจทำให้เข้าใจผิดได้ เนื่องจากเป็นการรวมเอาการยอมรับความเสี่ยงตามที่ผู้เชี่ยวชาญในสาขากำหนดเข้ากับความไว้วางใจซึ่งเป็นปรากฏการณ์ที่เปลี่ยนแปลงได้และขึ้นอยู่กับบริบทอย่างมาก ซึ่งไม่สามารถกำหนดนิยามได้อย่างเป็นกลาง ซึ่งจะให้เหตุผลในการอนุมัติตามกฎหมาย


การใช้ปัญญาประดิษฐ์กับกฎหมายคุ้มครองข้อมูลส่วนบุคคลในสหภาพยุโรป

 ความคิดเห็นของอัยการสูงสุดเดอ ลา ตูร์ (AG de la Tour) ในคดี CK v Dun & Bradstreet Austria ที่เผยแพร่ในเดือนกันยายน 2024 ทำให้การอภิปรายเกี่ยวกับการตีความสิทธิของเจ้าของข้อมูลในการเข้าถึง "ข้อมูลที่มีความหมายเกี่ยวกับตรรกะที่เกี่ยวข้อง" ในการประมวลผลข้อมูลอัตโนมัติมีความชัดเจนมากขึ้น (มาตรา 15(1)(h) กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป) ในคดีก่อนหน้านี้ที่เกี่ยวข้องกับการประเมินความน่าเชื่อถือด้านเครดิตโดยอัตโนมัติในคดี OQ v Schufa Holding ความคิดเห็นของอัยการสูงสุด Pikamäe ได้ให้แสดงความเห็นเป็นนัยเกี่ยวกับขอบเขตของสิทธินี้แล้ว อย่างไรก็ตาม เนื่องจากคำถามหลักในคดีนั้นไม่เกี่ยวข้องกับการตีความมาตรา 15(1)(h) กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ศาลยุติธรรมแห่งสหภาพยุโรปจึงงดเว้นการชั่งน้ำหนักในเรื่องนี้ในการตัดสินขั้นสุดท้าย ในครั้งนี้ มีการคาดหวังได้ว่าศาลยุติธรรมแห่งสหภาพยุโรปจะกำหนดจุดยืนในเรื่องนี้ว่าสอดคล้องกับความคิดเห็นของอัยการสูงสุดหรือไม่

การวิเคราะห์ของอัยการสูงสุดเดอ ลา ตูร์เกี่ยวกับ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ตามมาตรา 15(1)(h) เพียงอย่างเดียวก็ให้รายละเอียดในระดับที่น่าพอใจในช่วงเวลาที่การตัดสินใจตามอัลกอริทึมหรืออัตโนมัติเป็นแนวโน้มที่เพิ่มขึ้นในอุตสาหกรรมต่างๆ ในขณะเดียวกัน ผู้มีส่วนได้ส่วนเสียก็มีความเห็นไม่ตรงกันว่าบุคคลที่ต้องตัดสินใจควรทราบเกี่ยวกับกระบวนการตัดสินใจตามอัลกอริทึมที่ส่งผลกระทบต่อพวกเขามากเพียงใด ทั้งนี้ โดยไม่คำนึงถึงความเห็นทางวิชาการจำนวนมากเกี่ยวกับเรื่อง "สิทธิในการได้รับคำอธิบาย" ตาม กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ซึ่งยิ่งเน้นย้ำถึงความเกี่ยวข้องของความคิดเห็นของอัยการสูงสุดนี้

หัวใจสำคัญของคำร้องขอการพิจารณาเบื้องต้นนี้คือการที่ผู้ให้บริการโทรศัพท์มือถือของออสเตรียปฏิเสธที่จะทำสัญญาโทรศัพท์ราคา 10 ยูโรต่อเดือน โดยให้เหตุผลว่าผู้ยื่นคำร้องไม่มีความน่าเชื่อถือทางการเงินเพียงพอ เมื่อผู้ยื่นคำร้องอาศัย กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป มาตรา 15(1)(h) หันไปขอความช่วยเหลือจากผู้ให้บริการประเมินเครดิตเพื่อทำความเข้าใจคะแนนเครดิตของตนเอง เธอกลับได้รับข้อมูลเพียงเล็กน้อย ข้อมูลที่เธอได้รับบ่งชี้ว่ามีคะแนนเครดิตค่อนข้างดี ซึ่งขัดแย้งกับการที่เธอไม่ได้รับแผนโทรศัพท์ราคา 10 ยูโรต่อเดือน ผู้ให้บริการประเมินเครดิตปฏิเสธที่จะให้ข้อมูลเพิ่มเติมใดๆ ส่งผลให้ผู้ยื่นคำร้องยื่นเรื่องต่อศาลยุติธรรมแห่งสหภาพยุโรป

ศาลในประเทศได้ส่งคำถามหลักสองข้อไปยังศาลยุติธรรมแห่งสหภาพยุโรป ประการแรก จะตีความภาระหน้าที่ของผู้ควบคุมข้อมูลในการจัดเตรียม "ข้อมูลที่มีความหมายเกี่ยวกับตรรกะที่เกี่ยวข้อง" ในการตัดสินใจอัตโนมัติตามมาตรา 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ได้อย่างไร ประการที่สอง ผู้ควบคุมข้อมูลสามารถพึ่งพาการปกป้องสิทธิหรือเสรีภาพของผู้อื่น เช่น การปกป้องความลับทางการค้า เป็นพื้นฐานในการจำกัดการเข้าถึงข้อมูลที่เจ้าของข้อมูลมีสิทธิได้ในระดับใด

ตามมาตรา 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป เจ้าของข้อมูลมีสิทธิที่จะขอข้อมูลจากผู้ควบคุมเกี่ยวกับการมีอยู่ของการตัดสินใจอัตโนมัติ รวมถึงการสร้างโปรไฟล์ ซึ่งอ้างถึงในมาตรา 22(1) และ (4) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป อย่างน้อยในกรณีดังกล่าว สิทธินี้หมายความถึงการให้ข้อมูลที่สำคัญเกี่ยวกับตรรกะที่เกี่ยวข้อง ตลอดจนความสำคัญและผลที่คาดว่าจะเกิดขึ้นจากการประมวลผลข้อมูลส่วนบุคคลสำหรับเจ้าของข้อมูล ในการจัดการกับบทบัญญัตินี้ อัยการสูงสุดเดอ ลา ตูร์เริ่มต้นจากจุดที่อัยการสูงสุด Pikamäe ละเว้นในความเห็นในคดี OQ v Schufa Holding โดยระบุว่า 'ภาระผูกพันในการให้ "ข้อมูลที่มีความสำคัญเกี่ยวกับตรรกะที่เกี่ยวข้อง" จะต้องรวมถึงคำอธิบายโดยละเอียดเพียงพอเกี่ยวกับวิธีการที่ใช้ในการคำนวณคะแนนและเหตุผลของผลลัพธ์บางอย่าง' จากนั้นจึงเสนอการตีความอย่างเจาะลึกและเป็นระบบของบทความ 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป

อัยการสูงสุดเดอ ลา ตูร์เริ่มอธิบายมาตรา 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป โดยกำหนดจุดประสงค์เบื้องหลังสิทธิในการเข้าถึงข้อมูล และเน้นย้ำว่าจุดประสงค์ทั่วไปของสิทธิในการรับข้อมูลภายใต้มาตรา 15 ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป คือเพื่อให้เจ้าของข้อมูลสามารถใช้สิทธิอื่นๆ ของตนที่บัญญัติไว้ใน กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ได้อย่างมีประสิทธิภาพ ตามที่อัยการสูงสุดเดอ ลา ตูร์กล่าว สิทธิในการเข้าถึงข้อมูลที่ระบุไว้ในมาตรา 15(1)(h) 'ต้องทำให้เจ้าของข้อมูลสามารถใช้สิทธิที่มอบให้บุคคลตามมาตรา 22 ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป' มาตรา 22(3)  ซึ่งคาดการณ์ไว้อย่างน้อยสามสิทธิที่เป็นรูปธรรมที่ควรมอบให้กับเจ้าของข้อมูลในการตัดสินใจโดยอิงจากการประมวลผลข้อมูลอัตโนมัติเท่านั้น สิทธิในการขอให้ผู้ควบคุมข้อมูลเข้ามาแทรกแซง สิทธิในการแสดงจุดยืนของตน และสิทธิในการโต้แย้งการตัดสินใจ ดังนั้น ในการตีความขอบเขตของมาตรา 15(1)(h) ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป เป้าหมายที่แสวงหาโดยมาตรา 22 ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป มีบทบาทสำคัญ เพื่อปกป้องเจ้าของข้อมูลจากภัยคุกคามที่เกี่ยวข้องกับการตัดสินใจอัตโนมัติเพียงอย่างเดียว และทำให้พวกเขาสามารถใช้สิทธิที่เกี่ยวข้องของตนได้ ที่คล้ายคลึงกับลักษณะเฉพาะที่ Selbst และ Powles กำหนดให้ใช้กับคำว่า "มีความหมาย" ในปี 2017 อัยการสูงสุดเดอ ลา ตูร์เรียกร้องให้มีการทำความเข้าใจเชิงหน้าที่เกี่ยวกับสิ่งที่ประกอบเป็น "ข้อมูลที่มีความหมายเกี่ยวกับตรรกะที่เกี่ยวข้อง" ในมาตรา 15(1)(h) กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป เมื่อพิจารณาถึงจุดประสงค์ของบทบัญญัตินี้ ที่สรุปว่าการทำความเข้าใจเชิงหน้าที่เกี่ยวกับ "ข้อมูลที่มีความหมาย" หมายถึงอะไรในแง่ของรูปแบบและสาระสำคัญ

เมื่อกล่าวถึงรูปแบบ อัยการสูงสุดเดอ ลา ตูร์ได้ให้คำอธิบายที่ค่อนข้างชัดเจนเกี่ยวกับการมีอยู่ของ 'สิทธิในการอธิบาย' ใน กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป เขายืนยันว่าบุคคลที่เกี่ยวข้องกับข้อมูลมี 'สิทธิในการอธิบายอย่างแท้จริงเกี่ยวกับกลไกการทำงานที่เกี่ยวข้องกับการตัดสินใจอัตโนมัติซึ่งบุคคลนั้นเป็นเป้าหมายและผลของการตัดสินใจนั้น' ถือว่าคำอธิบายเป็นส่วนหนึ่งของสิทธิในการเข้าถึงข้อมูล เนื่องจากช่วยรับประกันว่าข้อมูลที่ให้มามีคุณค่าด้วยเหตุผลสองประการ ประการแรก คำอธิบายทำให้ข้อมูลที่ให้มาแก่บุคคลที่เกี่ยวข้องกับข้อมูลนั้นเข้าใจได้สำหรับพวกเขา กล่าวอีกนัยหนึ่ง คำอธิบายช่วยให้แน่ใจว่าข้อมูลที่ให้ไว้ภายใต้ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป มาตรา 15(1)(h) นั้นกระชับ เข้าถึงได้ง่าย เข้าใจง่าย และนำเสนอด้วยภาษาที่ชัดเจนและเรียบง่าย ประการที่สอง คำอธิบายให้ความเข้าใจตามบริบทเกี่ยวกับวิธีการประมวลผลข้อมูลส่วนบุคคลของบุคคลที่เกี่ยวข้องกับข้อมูล ดังนั้น แม้ว่ามาตรา 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป จะกำหนดให้เจ้าของข้อมูลมีสิทธิเข้าถึง "ข้อมูลที่มีความหมาย" แต่สิทธิในการเข้าถึงนี้จำเป็นต้องมี "สิทธิในการขอคำอธิบาย" จึงสรุปได้ว่าข้อมูลที่ไม่สามารถเข้าใจได้และไม่ได้คำนึงถึงบริบทนั้นไม่สามารถถือเป็นข้อมูล "ที่มีความหมาย" จากมุมมองของเจ้าของข้อมูลและจุดมุ่งหมายของบทบัญญัติได้

หลังจากยืนยันการมีอยู่และขอบเขตของสิทธิในการขอคำอธิบายแล้ว อัยการสูงสุดเดอ ลา ตูร์จะดำเนินการให้คำแนะนำเกี่ยวกับคุณภาพเนื้อหาที่คาดหวังจากคำอธิบายนี้ คำอธิบายควรทำให้ผู้มีส่วนได้ส่วนเสียสามารถตรวจสอบ "ความสอดคล้องและความเชื่อมโยงเชิงสาเหตุระหว่างวิธีการและเกณฑ์ที่ใช้และผลลัพธ์ที่ได้จากการตัดสินใจอัตโนมัติ" ได้อย่างเป็นรูปธรรม ดังนั้น ข้อมูลที่ให้มาควรทำให้ผู้มีส่วนได้ส่วนเสียสามารถตรวจสอบความถูกต้องของข้อมูลที่กำลังประมวลผลได้ ตลอดจนตรวจสอบว่าข้อมูลสามารถนำไปสู่ผลลัพธ์เฉพาะที่เกี่ยวข้องกับข้อมูลได้หรือไม่โดยใช้การประมวลผลอัตโนมัติที่ผู้ควบคุมอธิบายไว้ อย่างไรก็ตาม อัยการสูงสุดเดอ ลา ตูร์พบว่าสิทธิที่ระบุไว้ในมาตรา 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ไม่จำเป็นต้องเปิดเผยอัลกอริทึมให้กับผู้มีส่วนได้ส่วนเสียทราบ ท้ายที่สุดแล้ว อัลกอริทึมอาจมีความซับซ้อนมากจนผู้ที่ขาดความเชี่ยวชาญด้านเทคนิคที่จำเป็นไม่สามารถเข้าใจได้ 

แม้ว่าจะมีคำชี้แจงมากมาย แต่ความเห็นของอัยการสูงสุดคนนี้ก็ยังคงสงสัยว่าจะประสานข้อกำหนดที่เสนอสำหรับรูปแบบของคำอธิบายได้อย่างไร กับข้อกำหนดเชิงเนื้อหาที่ว่าข้อมูลจะต้องมี “ความสอดคล้องที่ตรวจสอบได้อย่างเป็นกลางและความเชื่อมโยงเชิงสาเหตุ” ระหว่างวิธีการและเกณฑ์ที่ใช้ในการประมวลผลและผลลัพธ์อัตโนมัติ ความเป็นไปได้อย่างหนึ่งที่กล่าวถึงในความเห็นคือการให้ตัวอย่างการประมวลผลที่คล้ายคลึงกันโดยไม่เปิดเผยชื่อแก่ผู้มีส่วนได้ส่วนเสียโดยใช้การเปรียบเทียบ ซึ่งคล้ายกับวิธีการให้เหตุผลตามกรณีที่ใช้เพื่อให้เข้าใจอัลกอริทึมที่ซับซ้อนโดยนำเสนอกรณีที่เปรียบเทียบได้เป็นจุดอ้างอิงสำหรับผลลัพธ์เฉพาะ แม้ว่าตัวอย่างดังกล่าวอาจช่วยให้ผู้มีส่วนได้ส่วนเสียสามารถจัดบริบทของข้อมูลที่ให้มาได้ดีขึ้น แต่ก็อาจไม่เป็นไปตามเกณฑ์ของการตรวจสอบอย่างเป็นกลางของผลลัพธ์เฉพาะที่เกี่ยวกับผู้มีส่วนได้ส่วนเสีย เนื่องจากตัวอย่างเหล่านี้ไม่ได้เชื่อมโยงกับการตัดสินใจเฉพาะนั้น เกณฑ์นี้อาจบรรลุได้ยากเมื่อใช้อัลกอริทึมที่ซับซ้อนซึ่งความสามารถในการตีความและความแม่นยำมักไม่สอดคล้องกัน ในกรณีนี้ สามารถพูดได้เพียงว่าต้องปรับปรุงความสามารถในการตีความของอัลกอริทึมเท่านั้น ไม่ใช่บรรลุถึงความสามารถในการตีความของอัลกอริทึม  

ความไม่ชัดเจนระหว่างข้อกำหนดเกี่ยวกับรูปแบบและสาระสำคัญของคำอธิบายอาจชัดเจนยิ่งขึ้นสำหรับการตัดสินใจที่เป็นผลสืบเนื่อง เช่น การประเมินเครดิตหรือการตัดสินใจทางการบริหารเกี่ยวกับการแจกจ่ายผลประโยชน์ การจัดสรรใบอนุญาต ฯลฯ มากกว่าการตัดสินใจเกี่ยวกับโฆษณาที่กำหนดเป้าหมายหรือคำแนะนำเพลง ผลที่อาจเกิดขึ้นจากการที่ ศาลยุติธรรมแห่งสหภาพยุโรป กำหนดเกณฑ์การตรวจสอบที่เป็นกลางอาจทำให้การตัดสินใจที่เป็นผลสืบเนื่องดังกล่าวในอนาคตทำขึ้นโดยใช้อัลกอริทึมที่ซับซ้อนน้อยกว่าหรือออกแบบให้ตีความได้ หากคำอธิบายสำหรับอัลกอริทึมที่ซับซ้อนไม่สามารถบรรลุเกณฑ์การตรวจสอบที่เป็นกลางได้ ในทางทฤษฎีแล้ว เรื่องนี้สามารถชดเชยได้ด้วยสิทธิของเจ้าของข้อมูลในการขอให้มนุษย์เข้ามาแทรกแซงแทนผู้ควบคุม (มาตรา 22(3) กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป) อย่างไรก็ตาม นี่ไม่ใช่แนวทางแก้ไขความตึงเครียดที่สังเกตได้อย่างแท้จริง ในทางที่ดีที่สุด เป็นเพียงการแก้ปัญหาชั่วคราวเท่านั้น

หากศาลยุติธรรมแห่งสหภาพยุโรปยืนหยัดตามการวิเคราะห์ของอัยการเดอ ลา ตูร์ คำถามเกี่ยวกับสิทธิในการอธิบายตาม กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ซึ่งจนถึงขณะนี้ยังเป็นประเด็นที่มีการคาดเดากันก็สามารถให้คำตอบที่ชัดเจนได้สามประการประการแรก สามารถตรวจสอบได้ว่าสิทธิในการอธิบายนั้นถือเป็นส่วนหนึ่งของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรปหรือไม่ และหากเป็นเช่นนั้น สิทธิดังกล่าวมีที่มาจากที่ใด จนถึงขณะนี้ ทฤษฎีเกี่ยวกับแหล่งที่มาของสิทธิดังกล่าวครอบคลุมถึงมาตรา 13(2)(f), 14(2)(g), 15(1)(h) และ 22(3) และมาตรา 71 ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ความคิดเห็นของอัยการสูงสุดเดอ ลา ตูร์โต้แย้งได้อย่างน่าเชื่อว่าสิทธิในการอธิบายนั้นโดยปริยายอยู่ในสิทธิในการเข้าถึงข้อมูลที่กำหนดไว้ในมาตรา 15(1)(h) ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ในทางกลับกัน มาตรา 22 ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป นั้นมีความเกี่ยวข้องอย่างแยกไม่ออก ดังนั้น ศาลยุติธรรมแห่งสหภาพยุโรป จึงสามารถถือว่าสิทธิในการอธิบายนั้นเกิดขึ้นจากการรวมกันของบทบัญญัติทั้งสองนี้

ประการที่สอง ศาลยุติธรรมแห่งสหภาพยุโรปสามารถตอบคำถามที่ว่าบุคคลที่เกี่ยวข้องกับข้อมูลมีสิทธิได้รับคำอธิบายเกี่ยวกับการทำงานของระบบอัตโนมัติเท่านั้นหรือไม่ หรือรวมถึงข้อมูลเกี่ยวกับเหตุผลที่ตัดสินใจเฉพาะเจาะจงด้วยหรือไม่ คำตอบดังกล่าวได้รับการเสนอแนะแล้วในความเห็นของอัยการสูงสุด Pikamäe ในคดี OQ v Schufa Holding และขณะนี้ อัยการสูงสุดเดอ ลา ตูร์ก็เห็นด้วยกับคำตอบดังกล่าวแล้ว โดยคำอธิบายดังกล่าวควรมีข้อมูลเกี่ยวกับการทำงานของระบบอัตโนมัติ ตลอดจนเหตุผลของผลลัพธ์บางประการ

ประการที่สาม ศาลยุติธรรมแห่งสหภาพยุโรปสามารถให้คำตอบสำหรับสิ่งที่ควรเข้าใจว่าเป็น 'ข้อมูลที่มีความหมายเกี่ยวกับตรรกะที่เกี่ยวข้อง' ในการตัดสินใจอัตโนมัติ ความคิดเห็นของอัยการสูงสุดเดอ ลา ตูร์ระบุว่าข้อมูลนี้ควรเข้าถึงได้สมบูรณ์เพียงพอ และมีบริบทที่เกี่ยวข้อง รวมถึงรายละเอียดเกี่ยวกับกระบวนการที่นำไปสู่การตัดสินใจอัตโนมัติ และมีเหตุผลสำหรับผลลัพธ์ของการตัดสินใจ นอกจากนี้ ยังเสนอมาตรวัดสำหรับการวัดว่าข้อมูลที่ให้ไว้ตามมาตรา 15(1)(h) ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป นั้นเพียงพอหรือไม่ โดยในฐานะมาตรวัดนั้น พร้อมทั้งเสนอว่าข้อมูลควรสามารถตรวจสอบความสอดคล้องและความเชื่อมโยงเชิงสาเหตุระหว่างตรรกะที่เกี่ยวข้องในการประมวลผลอัตโนมัติและผลลัพธ์ที่ระบบได้มาได้อย่างเป็นรูปธรรม

ดังนั้น ความคิดเห็นของอัยการสูงสุดเดอ ลา ตูร์จึงให้ความชัดเจนพอสมควรเกี่ยวกับคำถามที่วนเวียนอยู่ในวงอภิปรายทางวิชาการเกี่ยวกับการมีอยู่และขอบเขตของสิทธิในการขอคำอธิบายในกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป หวังว่าเมื่อเขียนคำพิพากษา ศาลยุติธรรมแห่งสหภาพยุโรปจะใช้ข้อโต้แย้งที่อัยการสูงสุดเดอ ลา ตูร์เสนอมา ตลอดจนชี้แจงว่าควรทำอย่างไรกับความตึงเครียดโดยธรรมชาติระหว่างข้อกำหนดที่กำหนดไว้สำหรับรูปแบบและสาระสำคัญของคำอธิบายตามมาตรา 15(1)(h) ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป


ประมวลจรรยาบรรณ AI ในสหภาพยุโรป

 โมเดล Generative AI (GAI) ได้รับความสนใจอย่างมากจากทั่วโลกด้วยการเปิดตัวChatGPT ของ OpenAI ในช่วงปลายปี 2022 การพัฒนานี้ถือเป็นจุดเปลี่ยนที่ทำให้โมเดล GAI กลายเป็นหมวดหมู่ที่แตกต่างไปจากโมเดลอื่นๆ ในวาทกรรม AI เป็นผลให้โมเดล AI ที่เคยถูกมองว่าล้ำสมัยกลับถูกเรียกว่า "แบบดั้งเดิม" ในทางกฎหมายแม้ว่าจะเป็นนวัตกรรมใหม่ล่าสุดก็ตาม สถานการณ์นี้ควรทำความเข้าใจความแตกต่างระหว่างโมเดล AI "แบบดั้งเดิม" และโมเดล Generative AI (GAI) อย่างชัดเจน ความแตกต่างหลักอยู่ที่ความสามารถของ GAI ในการทำงานที่หลากหลายโดยการสร้างภาษาที่คล้ายกับมนุษย์ แทนที่จะถูกจำกัดอยู่แค่การสร้างการคาดการณ์หรือคะแนนเท่านั้น โดยพื้นฐานแล้ว โมเดล AI แบบดั้งเดิมได้รับการออกแบบมาสำหรับงานเฉพาะทางที่มีเอาต์พุตเฉพาะ ในขณะที่โมเดล GAI สามารถสร้างภาษาและการตอบสนองที่มีความละเอียดอ่อนและเหมาะสมกับบริบทในสถานการณ์ต่างๆ ได้ ซึ่งคล้ายกับการสื่อสารของมนุษย์ ใน Recitals 99 กฎหมาย AI ถือว่าโมเดล GAI เป็นโมเดล AI เอนกประสงค์ประเภทหนึ่ง และระบุคุณลักษณะสำคัญ 2 ประการ คือ (1) ลักษณะทั่วไปและ  (2) ความสามารถซึ่งแตกต่างจากระบบ AI แบบ "ดั้งเดิม"

ความแตกต่างนี้ส่งผลให้สำนักงาน AI ของยุโรปเผยแพร่ ร่างจรรยาบรรณฉบับแรก ซึ่งมีวัตถุประสงค์เพื่อให้คำแนะนำเกี่ยวกับการปฏิบัติตามภาระผูกพันที่ระบุไว้ในมาตรา 53 และ 55 ของกฎหมาย AI สำหรับผู้ให้บริการโมเดล AI วัตถุประสงค์ทั่วไปและโมเดล AI วัตถุประสงค์ทั่วไปที่มีความเสี่ยงเชิงระบบ จรรยาบรรณดังกล่าวเป็นเอกสารที่ให้คำแนะนำ มีลักษณะเป็นพลวัต และเป็นสะพานเชื่อมระหว่างการนำมาตรฐานของสหภาพยุโรปที่สอดประสานกันสำหรับโมเดล AI ประเภทนี้มาใช้งาน

เพื่อให้สอดคล้องกับข้อกำหนดของกฎหมาย AI ฉบับสุดท้ายมีกำหนดเผยแพร่ในวันที่ 1 พฤษภาคม 2025 ซึ่งถือเป็นก้าวสำคัญในการกำหนดกรอบการกำกับดูแลสำหรับ AI ทั่วไป โค้ดดังกล่าวสร้างขึ้นโดยกลุ่มผู้เชี่ยวชาญ อิสระที่หลากหลาย จากอุตสาหกรรม สถาบันการศึกษา และภาคประชาสังคม โดยเป็นแนวทางองค์รวมในการกำหนดกรอบการกำกับดูแล AI นอกจากนี้ โค้ดยังรวมข้อมูลเชิงลึกจากกรอบงานระหว่างประเทศ ซึ่งเน้นย้ำถึงความมุ่งมั่นในการสร้างความร่วมมือและการปรับแนวทางในระดับโลก โดยทั่วไปแล้ว โค้ดจะกำหนดหลักการและวัตถุประสงค์ที่เป็นแนวทาง โดยให้ผู้มีส่วนได้ส่วนเสียมีวิสัยทัศน์ที่ชัดเจนเกี่ยวกับโครงสร้างและเนื้อหาที่เป็นไปได้ของร่างฉบับสุดท้าย ซึ่งถือเป็นก้าวสำคัญของสำนักงาน AI ของยุโรป เนื่องจากความสามารถขั้นสูงและการนำไปใช้ในวงกว้างของโมเดล GAI นำมาซึ่งความไม่แน่นอนโดยธรรมชาติในผลลัพธ์ของโมเดล ซึ่งก่อให้เกิดความท้าทายที่ไม่เหมือนใครในการทำความเข้าใจและจัดการพฤติกรรมของโมเดล นอกจากนี้ ข้อกังวลทางกฎหมายที่เกี่ยวข้องกับโมเดล GAI ยังครอบคลุมในวงกว้าง รวมถึงปัญหาที่เกี่ยวข้องกับความเป็นส่วนตัวและการปกป้องข้อมูล ความรับผิดต่อผลลัพธ์ สิทธิในทรัพย์สินทางปัญญา และปัญหาความปลอดภัยทางไซเบอร์

ประมวลกฎหมายนี้พิจารณาถึงข้อกังวลทางกฎหมายเหล่านี้และจัดเป็น 4 ด้านหลัก ได้แก่ (1) กฎเกณฑ์ด้านความโปร่งใสและลิขสิทธิ์ (2) การระบุและประเมินความเสี่ยงสำหรับความเสี่ยงเชิงระบบ (3) การลดความเสี่ยงทางเทคนิคสำหรับความเสี่ยงเชิงระบบ และ (4) การลดความเสี่ยงด้านการกำกับดูแลสำหรับความเสี่ยงเชิงระบบ องค์ประกอบเหล่านี้ทำงานร่วมกันเพื่อส่งเสริมนวัตกรรมในขณะที่จัดการกับความท้าทายด้านจริยธรรมและความปลอดภัยที่เกี่ยวข้องกับ AI

หลักเกณฑ์ 6 ประการเป็นพื้นฐานของจรรยาบรรณ ประกอบด้วย ประการแรก จรรยาบรรณจะรับรองความสอดคล้องกับกฎหมายและค่านิยมของสหภาพยุโรป รวมถึงกฎบัตรว่าด้วยสิทธิขั้นพื้นฐาน ประการที่สอง จรรยาบรรณจะบูรณาการมาตรฐานสากลและแนวทางปฏิบัติที่ดีที่สุดในระดับโลก ส่งเสริมแนวทางการทำงานร่วมกันในการกำกับดูแล (มาตรา 56(1) ของกฎหมาย AI) ประการที่สาม เน้นย้ำถึงความได้สัดส่วน โดยกำหนดให้มาตรการต่างๆ สอดคล้องกับระดับความเสี่ยง หลักการนี้เกี่ยวข้องกับการทดสอบสำคัญ 2 ประการ ได้แก่ (1) ความเหมาะสม และ (2) ความจำเป็นของมาตรการ ซึ่งทั้งสองประการนี้ยังมีช่องว่างในการตีความอย่างมาก ประการที่สี่ จรรยาบรรณมุ่งมั่นที่จะรองรับอนาคต โดยให้มีความยืดหยุ่นและปรับตัวได้ตามวิวัฒนาการของเทคโนโลยี AI ประการที่ห้า จรรยาบรรณให้การสนับสนุนวิสาหกิจขนาดกลางและขนาดย่อม (SMEs) โดยลดความซับซ้อนของข้อกำหนดการปฏิบัติตาม และประการสุดท้าย จรรยาบรรณมีเป้าหมายเพื่อส่งเสริมระบบนิเวศความปลอดภัย AI ที่แข็งแกร่ง ส่งเสริมความโปร่งใสและความร่วมมือระหว่างผู้มีส่วนได้ส่วนเสียต่างๆ

นอกจากนี้ ความโปร่งใสและการปฏิบัติตามลิขสิทธิ์ถือเป็นหัวใจสำคัญของกฎหมายฉบับนี้ ผู้ให้บริการต้องจัดทำเอกสารรายละเอียดเกี่ยวกับโมเดล AI ของตน เพื่อให้แน่ใจว่าสำนักงาน AI และหน่วยงานที่มีอำนาจหน้าที่ระดับชาติและผู้ให้บริการปลายน้ำสามารถเข้าถึงได้ การปฏิบัติตามลิขสิทธิ์ยังเป็นสิ่งสำคัญ โดยผู้ให้บริการคาดว่าจะต้องปฏิบัติตามข้อยกเว้นการขุดข้อความและข้อมูลของสหภาพยุโรป และกำหนดนโยบายที่ชัดเจนในการจัดการปัญหาลิขสิทธิ์ กลไกการรายงานที่โปร่งใส รวมถึงบทบัญญัติสำหรับการจัดการด้านลิขสิทธิ์ ถือเป็นส่วนสำคัญของกระบวนการนี้

ที่สำคัญร่างดังกล่าวยังระบุถึงอนุกรมวิธานของความเสี่ยงในระบบ โดยจัดหมวดหมู่ตามประเภทลักษณะและแหล่งที่มาซึ่งอาจมีการตีความตามความรุนแรงและความน่าจะเป็นของความเสี่ยงแต่ละประเภท เพื่อเป็นการเตือนความจำ แนวคิดเรื่องความเสี่ยงนั้นถูกกำหนดให้เป็น "การรวมกันของความน่าจะเป็นของการเกิดอันตรายและความรุนแรงของอันตรายนั้น" ภายใต้กฎหมาย AI (มาตรา 3(2)) ความเสี่ยงในระบบนั้น ถูกกำหนดให้เป็น "ความเสี่ยงที่เฉพาะเจาะจงต่อความสามารถที่มีผลกระทบสูงของโมเดล AI สำหรับวัตถุประสงค์ทั่วไป ซึ่งมีผลกระทบอย่างมีนัยสำคัญต่อตลาดสหภาพเนื่องจากการเข้าถึง หรือเนื่องจากผลกระทบเชิงลบที่เกิดขึ้นจริงหรือคาดการณ์ได้อย่างสมเหตุสมผลต่อสุขภาพของประชาชน ความปลอดภัย ความมั่นคงสาธารณะ สิทธิขั้นพื้นฐาน หรือสังคมโดยรวม" (มาตรา 3(65)) ความเสี่ยงเหล่านี้รวมถึงการเลือกปฏิบัติในวงกว้าง การใช้ AI ในทางที่ผิดเพื่อบิดเบือนข้อมูลหรือบิดเบือนข้อมูล จุดอ่อนทางไซเบอร์ การสูญเสียการควบคุม และความเสี่ยงทางเคมี ชีวภาพ วิทยาการรังสี และนิวเคลียร์ เพื่อจัดการกับความเสี่ยงเหล่านี้ ร่างดังกล่าวได้เสนอกรอบที่ครอบคลุมสำหรับกลยุทธ์การบรรเทาผลกระทบที่สมดุลกับความรุนแรงและความน่าจะเป็นของความเสี่ยงแต่ละประเภท

สำหรับโมเดล AI ทั่วไปที่มีความเสี่ยงในระบบ ผู้ให้บริการคาดว่าจะนำกรอบความปลอดภัยและความมั่นคง (SSF) ที่แข็งแกร่งมาใช้ กรอบความปลอดภัยนี้จะระบุถึงนโยบายการบรรเทาความเสี่ยงตลอดวงจรชีวิตของโมเดล การประเมินความเสี่ยงอย่างต่อเนื่องเป็นสิ่งที่จำเป็น โดยได้รับการสนับสนุนจากการรวบรวมหลักฐานโดยใช้วิธีการที่เข้มงวด ผู้ให้บริการจะต้องแน่ใจว่ามีการรายงานเหตุการณ์และความเสี่ยงในระบบอย่างโปร่งใสต่อสำนักงาน AI และในกรณีที่เหมาะสมต่อสาธารณชน ความเสี่ยงที่มีความรุนแรงสูงต้องได้รับการประเมินโดยผู้เชี่ยวชาญอิสระทั้งก่อนและหลังการใช้งาน ซึ่งช่วยให้สามารถปรับเปลี่ยนตามความจำเป็นโดยอาศัยการตรวจสอบวงจรชีวิต อนึ่ง มาตรการกำกับดูแล ได้แก่ การมอบหมายความรับผิดชอบในการจัดการความเสี่ยงในระดับผู้บริหารและคณะกรรมการ การดำเนินการประเมินการปฏิบัติตามจรรยาบรรณเป็นระยะ และการอำนวยความสะดวกในการประเมินอิสระเพื่อตรวจสอบความพยายามในการบรรเทาความเสี่ยงเชิงระบบ ขั้นตอนเหล่านี้ได้รับการออกแบบมาเพื่อเพิ่มความรับผิดชอบและประกันว่าองค์กรต่างๆ ให้ความสำคัญกับความปลอดภัยของ AI

ผู้มีส่วนได้ส่วนเสียควรให้ข้อเสนอแนะเกี่ยวกับร่างกฎหมายภายในวันที่ 28 พฤศจิกายน 2024 แม้ว่าเอกสารดังกล่าวจะอยู่ในระดับสูง แต่การปรับปรุงในอนาคตจะรวมถึงมาตรการที่ละเอียดมากขึ้น ตัวบ่งชี้ประสิทธิภาพหลัก (KPI) และกลไกการปฏิบัติตามกฎหมาย ร่างกฎหมายนี้ถือเป็นก้าวสำคัญในการประสานการกำกับดูแล AI ภายในสหภาพยุโรป โดยรักษาสมดุลระหว่างความต้องการด้านความปลอดภัยและความโปร่งใสกับการส่งเสริมนวัตกรรม


กฎหมายปัญญาประดิษฐ์ในบริบทการศึกษาของสหภาพยุโรป

เมื่อวันที่ 13 มีนาคม 2024 รัฐสภายุโรปลงมติเห็นชอบกฎหมายปัญญาประดิษฐ์ (AI Act) ในกฎหมายปัญญาประดิษฐ์ระบุว่าเป้าหมายของรัฐสภายุโรปและสภายุโรปคือการส่งเสริมนวัตกรรม การจ้างงาน และการนำปัญญาประดิษฐ์ที่น่าเชื่อถือมาใช้ประโยชน์ ทั้งนี้ กฎหมายปัญญาประดิษฐ์มีจุดมุ่งหมายเพื่อปกป้องบุคคลและบริษัทต่างๆ โดยกำหนดให้ต้องมีการคุ้มครองระดับสูงต่อสิทธิพื้นฐานและยึดมั่นในค่านิยมต่างๆ ของสหภาพยุโรป แต่ก็มีนักวิชาการได้ทักท้วงว่ากฎหมายปัญญาประดิษฐ์ไม่ได้ทำตามคำมั่นสัญญาในการให้การคุ้มครองระดับสูงต่อสิทธิพื้นฐานตามมาตรา 1 ของกฎหมายปัญญาประดิษฐ์ จึงมีความจำเป็นต้องแก้ไขกฎหมายปัญญาประดิษฐ์เพื่อให้สอดคล้องกับการห้ามการเลือกปฏิบัติในสนธิสัญญาสิทธิมนุษยชนระหว่างประเทศหลายฉบับ เรียกร้องให้ประเทศสมาชิกสหภาพยุโรปและผู้กำหนดนโยบายตรวจสอบกฎหมาย AI เพื่อให้สอดคล้องกับสนธิสัญญาว่าด้วยสิทธิมนุษยชนระหว่างประเทศก่อนที่จะกลายเป็นกฎหมาย 

นักวิชาการได้หยิบยกกรณีศึกษาของหน่วยงานที่ใช้ AI เพื่อประเมินผลงานของนักเรียนเพื่อแสดงให้เห็นถึงข้อโต้แย้งนี้ การใช้ AI เพื่อให้คะแนนผลงานของนักเรียนถูกเลือกเป็นกรณีศึกษาเนื่องจากการเข้าถึงการศึกษาส่งผลต่อความสามารถของผู้คนในการดำรงชีพใช้ศักยภาพของตนเองให้เต็มที่ เลือกสิ่งที่มีความหมาย และตัดสินใจอย่างรอบรู้ ดังนั้น กรณีศึกษานี้จึงเกี่ยวข้องกับพื้นที่สำคัญในชีวิตของทุกคน เนื่องจากบุคคลที่มีลักษณะเฉพาะที่ได้รับการคุ้มครอง เช่น ผู้พิการยังคงประสบกับความไม่เท่าเทียมกันในบริบทของการศึกษา จึงจำเป็นต้องระบุว่ากฎหมาย AI มีแนวโน้มที่จะทำให้สถานการณ์นี้คงอยู่ต่อไปได้อย่างไร การอภิปรายนี้แสดงให้เห็นถึงปัญหาที่กว้างขึ้นของกฎหมาย AI ซึ่งกำหนดข้อจำกัดที่ไม่เพียงพอในการใช้ AI เป็นส่วนประกอบของกระบวนการตัดสินใจในหลายพื้นที่ ตัวอย่างของพื้นที่ที่เกี่ยวข้องคือการใช้ AI เพื่อคัดกรองผู้สมัครเข้าทำงาน

ปัจจุบันหน่วยงานต่างๆได้นำ AI มาใช้เพื่อวัตถุประสงค์ต่าง ๆ มากมายในฐานะส่วนหนึ่งของกระบวนการตัดสินใจในบริบทของการศึกษา การใช้งานดังกล่าวรวมถึงการใช้ AI เพื่อตรวจงานที่ได้รับมอบหมายของนักเรียน บางประเทศกำลังสำรวจทางเลือกในการทำให้การตรวจงานของนักเรียนเป็นระบบอัตโนมัติโรงเรียนในจีนได้ทดลองใช้ AI เพื่อตรวจงานของนักเรียนมาตั้งแต่ปี 2018 กระทรวงศึกษาธิการของสหราชอาณาจักรได้จัดงานแฮ็กกาธอนเมื่อวันที่ 30 และ 31 ตุลาคม 2023 วัตถุประสงค์ของงานแฮ็กกาธอนคือเพื่อตรวจสอบว่าหน่วยงานด้านการศึกษาสามารถใช้ AI สำหรับงานต่าง ๆ เช่น การตรวจงานข้อสอบอย่างถูกต้องได้หรือไม่ 

ระบบการให้คะแนนนักเรียนที่ใช้ AI มีอยู่แล้ว นาย Robert Stanyon ได้พัฒนาระบบการให้คะแนนที่ใช้ AI สำหรับวิชาคณิตศาสตร์และวิทยาศาสตร์ ปัจจุบัน มหาวิทยาลัยเบอร์มิงแฮมและมหาวิทยาลัยลิเวอร์พูลกำลังทดลองใช้ระบบ Graide นี้ ด้วยภูมิหลังนี้ กลุ่มผู้นำโรงเรียนที่นำโดยเซอร์แอนโธนี เซลดอนได้เขียนจดหมายถึงหนังสือพิมพ์ The Times พวกเขาแสดงความกังวลว่ารัฐบาลล้มเหลวในการดำเนินการอย่างรวดเร็วเพื่อควบคุมการใช้ AI ในบริบทการศึกษา ควรจำไว้ว่าในอดีต การใช้ AI ในบริบทการศึกษาในสหราชอาณาจักรได้สร้างปัญหาที่ร้ายแรง ในปี 2020 ได้มีการพลิกกลับเกรดที่คาดการณ์ไว้ว่า AI จะสร้างได้โดยใช้เกรดที่ครูคาดการณ์ไว้สำหรับนักเรียน หลังจากเกิดกระแสต่อต้านจากประชาชนเกี่ยวกับการใช้ AI 

มหาวิทยาลัยในเยอรมนีใช้ AI เพื่อคุมสอบนักศึกษาระหว่างการระบาดของ COVID-19 หน่วยงาน GFF ยื่นฟ้องมหาวิทยาลัยในเยอรมนีหลายแห่ง โดยกล่าวหาว่าการปฏิบัติดังกล่าวละเมิดสิทธิมนุษยชนขั้นพื้นฐาน รวมถึงการประมวลผลข้อมูลจำนวนมากที่เกี่ยวข้องกับนักศึกษา เมื่อพิจารณาจากบริบทดังกล่าว จึงจำเป็นต้องกำหนดว่าการใช้ AI เพื่อตรวจงานของนักศึกษาอาจส่งผลเสียต่อนักศึกษาในสถานการณ์ใด และควรห้ามใช้ระบบดังกล่าวในบริบทใด การระบุบทบาทของกฎหมายสิทธิมนุษยชนระหว่างประเทศและกฎหมาย AI ในการป้องกันการปฏิบัติที่เป็นปัญหาจึงมีความสำคัญอย่างยิ่ง 

กล่าวคือการใช้ AI ในการให้คะแนนซึ่งการบ้านที่ต้องตรวจนั้นต้องให้คำตอบกับชุดคำถามแบบเลือกตอบหลายข้อนั้นไม่ก่อให้เกิดการโต้แย้ง บันทึกคำตอบของนักเรียนต่อคำถามแบบเลือกตอบหลายข้อและเทมเพลตของคำตอบที่ถูกต้องต่างก็แสดงถึงรูปแบบ AI สามารถจดจำรูปแบบได้ Douglas Chai พัฒนาอัลกอริทึมที่สามารถระบุได้ว่าคำตอบที่นักเรียนวงกลมไว้ในแบบทดสอบแบบเลือกตอบหลายข้อนั้นตรงกับคำตอบที่ถูกต้องหรือไม่ตั้งแต่ปี 2016 เนื่องจาก AI ทำหน้าที่จับคู่รูปแบบการ ใช้ AI จึงคล้ายกับการใช้เครื่องสแกนการจดจำเครื่องหมายด้วยแสงซึ่งมีการใช้งานมาระยะหนึ่งแล้ว 

เมื่อหน่วยงานต่างๆ ใช้ AI เพื่อให้คะแนนงานที่เกี่ยวข้องกับนักเรียนที่ต้องแก้ปัญหาคณิตศาสตร์ และงานนั้นไม่ได้ให้นักเรียนตอบคำถามแบบเลือกตอบ การใช้ AI ควรได้รับการปฏิบัติเหมือนกับเทคโนโลยีรุ่นเก่า ซึ่งทำให้สามารถจดจำรูปแบบได้ ในกรณีนี้ เนื่องจากเมื่อแก้ปัญหาคณิตศาสตร์ นักเรียนจะเขียนลำดับตัวเลข ซึ่งถือเป็นขั้นตอนระหว่างกาล ขั้นตอนระหว่างกาลเหล่านี้ในการคำนวณช่วยให้นักเรียนสามารถหาคำตอบได้ อย่างไรก็ตาม การใช้ AI ดังกล่าวไม่เหมือนกับเทคโนโลยีรุ่นก่อนๆ จำเป็นต้องมีการวิจัยเพิ่มเติมเพื่อพิจารณาผลกระทบของการใช้ AI เพื่อให้คะแนนงานคณิตศาสตร์ต่อผู้พิการ เพื่อลดความเสี่ยงที่เกิดจากการทำงานอัตโนมัติ นักพัฒนาจะต้องออกแบบ AI เพื่อให้ให้คะแนนนักเรียนบางส่วนสำหรับวิธีแก้ไขปัญหาคณิตศาสตร์ที่ไม่สมบูรณ์ ในทำนองเดียวกัน AI ควรได้รับการออกแบบเพื่อไม่ให้ลงโทษนักเรียนสำหรับการระบุขั้นตอนระหว่างกาลของวิธีแก้ไขปัญหาในลำดับที่แตกต่างกัน นอกจากนี้ AI ไม่ควรลงโทษนักเรียนสำหรับการป้อนข้อมูลโดยใช้รูปแบบที่แตกต่างกันหรือสำหรับการโต้ตอบกับระบบในลักษณะใดลักษณะหนึ่ง 

นอกจากนี้ ครูควรใช้วิจารณญาณทางวิชาชีพในการตัดสินว่าการใช้ AI เหมาะสมสำหรับการให้คะแนนงานของนักเรียนในวิชาคณิตศาสตร์หรือไม่ ตัวอย่างเช่น การใช้ AI ไม่เหมาะสำหรับงานบางประเภทที่นักเรียนพัฒนานวัตกรรมในสาขาคณิตศาสตร์ นักเรียนทุกคนควรสามารถขอให้ผู้ตัดสินใจที่เป็นมนุษย์ให้คะแนนงานที่ได้รับการตรวจโดย AI ใหม่ได้โดยไม่จำเป็นต้องแสดงหลักฐานความเสี่ยงของความไม่ถูกต้องหรือข้อผิดพลาด การทำงานของ AI จำเป็นต้องมีขอบเขตของข้อผิดพลาดพลาด

หน่วยงานการศึกษาไม่ควรใช้ AI ในการให้คะแนนข้อความที่ไม่ใช่ตัวเลข เนื่องจากการให้คะแนนคำตอบเป็นการใช้การตัดสินเชิงประเมิน ความสามารถของ AI ทำให้ AI ไม่เหมาะสมที่จะใช้ในการให้คะแนนงานในวิชาที่มีการไตร่ตรองอย่างมีวิจารณญาณเกี่ยวกับเนื้อหา และการให้คำตอบในรูปแบบที่ไม่ใช่ตัวเลข วิชาเหล่านี้ได้แก่ มนุษยศาสตร์และสังคมศาสตร์ ในทำนองเดียวกัน หลักสูตรวิทยาศาสตร์และวิทยาการคอมพิวเตอร์บางหลักสูตรไม่เหมาะสำหรับการใช้ AI ในการประเมินผล ตัวอย่างเช่น หลักสูตรจริยธรรมและความยั่งยืนของการคำนวณ AI ขาดความสามารถในการตีความและระบุความหมายให้กับข้อความที่เขียน ได้อย่างถูกต้อง การใช้ AI ส่งผลเสียต่อบุคคลจากกลุ่มที่ไม่ได้รับการเป็นตัวแทน การใช้ AI ในการให้คะแนนข้อความทำให้การแสดงออกของความหลากหลายของมนุษย์ลดน้อยลงนอกจากนี้ ยังมีหลักฐานว่าการใช้ AI ในการประเมินข้อความอาจทำให้ผู้พิการเสียเปรียบ เนื่องจาก AI ไม่สามารถระบุความหมายที่ถูกต้องให้กับข้อความได้การใช้ AI จึงทำให้ไม่สามารถประเมินได้ว่านักเรียนมีส่วนร่วมในการวิเคราะห์เชิงวิจารณ์ในระดับใดเมื่อเขียนคำตอบ 

การใช้ AI อาจลงโทษนักเรียนที่แสดงความคิดสร้างสรรค์และการคิดแบบนามธรรม การใช้ AI อาจลงโทษนักเรียนที่เสนอแนวคิดที่แตกต่างจากกระแสหลักโซลานจ์ เกอร์นาอูตีสังเกตว่าการใช้ AI เป็นส่วนหนึ่งของกระบวนการตัดสินใจอาจนำไปสู่การปรับปรุงพันธุกรรมในความคิด เนื่องจาก AI จดจำรูปแบบได้ จึงถือว่าคำตอบที่เขียนไว้ซึ่งไม่เข้ากับรูปแบบหรือแตกต่างจากค่าเฉลี่ยไม่เกี่ยวข้อง ด้วยเหตุนี้ AI จึงไม่เหมาะสำหรับการให้คะแนนข้อความที่เขียนและงานที่เกี่ยวข้องกับการคิดวิเคราะห์ของนักเรียน 

ดังนั้น เพื่อปกป้องสิทธิพื้นฐานของบุคคลมาตรา 6(2) ของกฎหมาย AIกำหนดให้ระบบ AI บางระบบมีความเสี่ยงสูง ย่อหน้า 3 ของภาคผนวก IIIชี้แจงว่ามาตรา 6(2) ของร่างกฎหมาย AIครอบคลุมถึงการใช้ระบบ AI ในการศึกษาและอาชีวศึกษา ย่อหน้า 3 ของภาคผนวก III ของกฎหมาย AIครอบคลุมถึงการประยุกต์ใช้ AI ในด้านการศึกษาต่างๆ การประยุกต์ใช้เหล่านี้รวมถึงการใช้ AI เพื่อกำหนดว่าใครจะได้รับการรับเข้าเรียนในโครงการการศึกษา การตรวจงานของนักเรียน การควบคุมดูแลงานของนักเรียน และการใช้ AI เพื่อจัดสรรนักเรียนไปยังโรงเรียนต่างๆ 

มาตรา 9(1) ของร่างกฎหมาย AIกำหนดภาระผูกพันในการจัดตั้งและบำรุงรักษาระบบการจัดการความเสี่ยงที่เกี่ยวข้องกับระบบ AI ที่มีความเสี่ยงสูง ตามมาตรา 9(2) หน่วยงานที่ใช้ AI จำเป็นต้องประเมินความเสี่ยงอย่างต่อเนื่องซึ่งการใช้ระบบ AI ที่มีความเสี่ยงสูงอาจก่อให้เกิดการได้รับสิทธิขั้นพื้นฐานหน่วยงานจำเป็นต้องใช้มาตรการที่ “เหมาะสมและตรงเป้าหมาย” เพื่อจัดการกับความเสี่ยงต่อสิทธิขั้นพื้นฐาน อย่างไรก็ตามมาตรา 9(3) ทำให้ภาระผูกพันในการจัดทำระบบการจัดการความเสี่ยงอ่อนแอลงโดยระบุว่ามาตรา 9 กล่าวถึงความเสี่ยงที่สามารถ “บรรเทาหรือขจัดได้อย่างสมเหตุสมผล” เท่านั้น ไม่ว่าจะผ่านการออกแบบ AI หรือโดยการให้ “ข้อมูลทางเทคนิคที่เพียงพอ” การสันนิษฐานว่าความเสี่ยงส่วนใหญ่สามารถบรรเทาได้ผ่านการออกแบบนั้นเป็นปัญหาการขาดความสามารถของ AIในการระบุความหมายให้กับข้อความที่เขียนและแนวโน้มที่จะเสียเปรียบนักเรียนที่มีลักษณะเฉพาะที่ได้รับการคุ้มครองไม่สามารถแก้ไขได้ผ่านทางเลือกในการออกแบบ ดังนั้นมาตรา 9(3)จึงจำกัดการคุ้มครองสิทธิพื้นฐานในกฎหมาย AI อย่างมาก โดยจำกัดภาระผูกพันในการจัดทำระบบจัดการความเสี่ยงให้ครอบคลุมเฉพาะความเสี่ยงที่สามารถ “บรรเทาหรือขจัดได้อย่างสมเหตุสมผล” มาตรา 9(5)(a) ทำให้การคุ้มครองสิทธิพื้นฐานอ่อนแอลงอีก โดยกำหนดว่าจำเป็นต้องบรรเทาความเสี่ยงในขอบเขตที่ “เป็นไปได้ทางเทคนิค” ที่จะทำเช่นนั้นได้ผ่านการออกแบบที่เหมาะสมเท่านั้น (หน้า 105) เนื่องจาก AI ไม่สามารถระบุความหมายได้จากข้อความที่เขียนมาตรา 9(4) จึงให้การคุ้มครองที่จำกัด 

ผู้สนับสนุนกฎหมาย AI อาจระบุในขั้นตอนนี้ว่ามาตรา 9(5)(b) ช่วยบรรเทาความรุนแรงของมาตรา 9(2) โดยกำหนดให้บริษัทต่างๆ ต้องใช้มาตรการบรรเทาความเสี่ยงที่เหมาะสมต่อความเสี่ยงที่ไม่สามารถขจัดออกไปได้ แม้จะเป็นจริง แต่มาตรา 9(5)(b)ไม่สามารถแก้ไขปัญหาได้อย่างสมบูรณ์ เนื่องจากมาตรา 9(5) อนุญาตให้ผู้ที่เกี่ยวข้องกับการประเมินความเสี่ยงตัดสินใจว่าสามารถยอมรับ “ความเสี่ยงโดยรวมที่เหลืออยู่” ที่เกี่ยวข้องกับการใช้ระบบ AI ได้ วาทกรรมในการยอมรับ “ความเสี่ยงโดยรวมที่เหลืออยู่” นี้เข้ากันไม่ได้กับการปกป้องสิทธิขั้นพื้นฐาน จากมุมมองของกฎหมายสิทธิมนุษยชน ความเสี่ยงทั้งหมดมีความสำคัญไม่ว่าจะมีขนาดใหญ่หรือเล็กเพียงใด ตราบใดที่การใช้งาน AI มีแนวโน้มที่จะละเมิดสิทธิขั้นพื้นฐานของบุคคลใดบุคคลหนึ่ง ดังนั้น หาก AI ตัดสินใจ 1,000 ครั้งในเวลา 10 นาที และมีความเป็นไปได้ที่คน 50 คนอาจต้องตกอยู่ภายใต้การปฏิบัติที่เลือกปฏิบัติ การตัดสินใจที่มีปัญหาจะคิดเป็นเพียง 5% ของการตัดสินใจทั้งหมดก็ไม่สำคัญ สิ่งสำคัญคือมีผู้คน 50 รายที่ประสบกับการเลือกปฏิบัติ 

กฎหมาย AI ฉบับปัจจุบัน ไม่ได้อนุญาตให้รัฐในสหภาพยุโรปปฏิบัติตามพันธกรณีสิทธิมนุษยชนระหว่างประเทศของตน การห้ามการเลือกปฏิบัติในอนุสัญญาว่าด้วยสิทธิของผู้พิการ (CRPD) กำหนดให้รัฐต้องขอความยินยอมจากผู้พิการก่อนจะให้พวกเขาใช้ AI ในกระบวนการตัดสินใจบางส่วนหรือทั้งหมด ผู้พิการสามารถคัดค้านการใช้ AI ได้โดยไม่ต้องขอการอำนวยความสะดวกที่เหมาะสมข้อห้ามนี้ขยายไปถึงอนุสัญญาว่าด้วยการขจัดการเลือกปฏิบัติต่อสตรีในทุกรูปแบบ (CEDAW) มาร์ติน เชนินแสดงให้เห็นว่าข้อกำหนดในการขอความยินยอมจากบุคคลที่ถูกเลือกปฏิบัติก่อนจะใช้ AI ได้ขยายไปถึงสนธิสัญญาสิทธิมนุษยชนฉบับอื่นๆ รวมถึงอนุสัญญาว่าด้วยการขจัดการเลือกปฏิบัติทางเชื้อชาติในทุกรูปแบบ (CERD) และอนุสัญญาว่าด้วยสิทธิพลเมืองและสิทธิทางการเมืองระหว่างประเทศ (ICCPR) กฎหมาย AI ไม่เป็นไปตามข้อกำหนดนี้ เนื่องจากไม่มีบทบัญญัติใดๆ ที่กำหนดให้หน่วยงานที่ใช้งานระบบ AI ที่มีความเสี่ยงสูงต้องได้รับความยินยอมอย่างมีข้อมูลจากบุคคลที่เป็นผู้ตัดสินใจก่อน จึงจะสามารถใช้ระบบเหล่านี้ได้ 

ข้อบังคับทั่วไปเกี่ยวกับการคุ้มครองข้อมูล (GDPR) ไม่ได้กล่าวถึงปัญหานี้อย่างครบถ้วน ตัวอย่างเช่น มาตรา 22 ของ GDPR ให้สิทธิ์กับบุคคลในการไม่ต้องอยู่ภายใต้"การตัดสินใจที่อิงจากการประมวลผลอัตโนมัติเพียงอย่างเดียว " เท่านั้น มาตรา 22 ไม่ครอบคลุมสถานการณ์ที่มนุษย์ควบคุมดูแลการทำงานของ AI และตรวจสอบการตัดสินใจอัตโนมัติก่อนที่จะนำไปใช้ ศาลยุติธรรมของสหภาพยุโรปในคดีOQ v SCHUFA Holding 634/21 ตัดสินว่าจะมีการตัดสินใจอัตโนมัติหากผู้ตัดสินใจ "ใช้ดุลยพินิจอย่างเข้มงวด" (ย่อหน้า 40) เกี่ยวกับการตัดสินใจอัตโนมัติ (ย่อหน้า 61-62) อย่างไรก็ตาม จะมีหลายกรณีที่บุคคลไม่ได้รับการปกป้องอย่างเพียงพอ แม้ว่าผู้ตัดสินใจจะไม่ได้ "ใช้ดุลยพินิจอย่างเข้มงวด" เกี่ยวกับผลลัพธ์ที่สร้างโดย AI มนุษย์ขาดความสามารถในการดูแลการทำงานของระบบที่ซับซ้อน รวมถึง AI ดังนั้น การคุ้มครองตาม GDPR จึงไม่สามารถทดแทนการห้ามหน่วยงานใช้เอาต์พุตที่สร้างโดย AI เพื่อแจ้งกระบวนการตัดสินใจโดยไม่ได้รับความยินยอมจากบุคคลที่มีส่วนร่วมในการตัดสินใจได้ 

ปัญหาของกฎหมายฉบับนี้ก็คือ กฎหมายฉบับนี้ถือว่ามีศักยภาพทางเทคนิคบางประการอยู่ ซึ่งในความเป็นจริงแล้วไม่มีอยู่จริง ตัวอย่างเช่นมาตรา 20(1)กำหนดให้ผู้ให้บริการระบบ AI ที่มีความเสี่ยงสูงต้องดำเนินการเพื่อถอนระบบออกหากพบว่าระบบดังกล่าวไม่เป็นไปตามกฎหมาย AI มาตรา 19(1)กำหนดให้ผู้ให้บริการต้องเก็บบันทึกที่ระบบ AI ที่มีความเสี่ยงสูงสร้างขึ้นไว้เป็นเวลาอย่างน้อย 6 เดือนมาตรา 14(1)กำหนดให้การออกแบบ AI อนุญาตให้บุคคลธรรมดาสามารถกำกับดูแลระบบ AI ที่มีความเสี่ยงสูงได้อย่าง “มีประสิทธิผล” และอธิบายว่าจุดประสงค์ของการกำกับดูแลดังกล่าวคือเพื่อ “ป้องกัน” หรือ “ลดให้เหลือน้อยที่สุด” ความเสี่ยงของการละเมิดสิทธิมนุษยชนขั้นพื้นฐาน ในขณะเดียวกันมาตรา 14(4)(d)กำหนดว่าผู้ให้บริการสามารถตัดสินใจไม่ใช้ระบบ AI ที่มีความเสี่ยงสูงหรือละเลยผลลัพธ์ของระบบได้ แม้ว่าบทบัญญัติเหล่านี้จะดูเหมือนให้การคุ้มครอง แต่ในทางปฏิบัติแล้วอาจมีผลกระทบจำกัดมีงานวิจัยจำนวนมากที่แสดงให้เห็นว่ามนุษย์ไม่มีความสามารถในการดูแลการทำงานของระบบที่ซับซ้อน รวมถึงปัญญาประดิษฐ์ (AI)นอกจากนี้มาตรา 14(4)ยังจำกัดขอบเขตของภาระผูกพันนี้โดยกำหนดให้ผู้ปฏิบัติงานได้รับมอบหมายหน้าที่ดูแลปัญญาประดิษฐ์ “ตามความเหมาะสมและสมส่วน” เท่านั้น

บทเรียนสำหรับสหภาพยุโรปเกี่ยวกับการแก้ไขกฎหมายปัญญาประดิษฐ์นั้น กล่วได้ว่าแทนที่จะถือว่าการประยุกต์ใช้AI ในระบบการศึกษามีความเสี่ยงสูงกฎหมาย AI ควรห้ามการใช้ AI บางประเภทข้อห้ามดังกล่าวในบริบทของการศึกษาควรขยายไปถึงการให้คะแนนข้อความ การกำหนดว่าใครควรมีสิทธิ์เข้าถึงโอกาสทางการศึกษา และการจัดสรรนักเรียนไปยังโรงเรียนต่างๆ กฎหมาย AI ควรถือว่ากระบวนการตัดสินใจอัตโนมัติทั้งหมดหรือบางส่วนโดยใช้ AI เป็นการท้าทายต่อการปกป้องสิทธิขั้นพื้นฐานเหมือนกัน สุดท้าย กฎหมาย AI ควรห้ามการใช้ปัญญาประดิษฐ์เป็นส่วนประกอบในการประเมินและตัดสินใจเกี่ยวกับบุคคลโดยไม่ได้รับความยินยอมจากบุคคลนั้นล่วงหน้า เพื่อให้สามารถให้ความยินยอมโดยแจ้งข้อมูลแก่ผู้ใช้ AI ได้ บุคคลควรมีความรู้ในระดับสูงเกี่ยวกับการทำงานของ AI พวกเขาควรทราบว่าคุณสมบัติทางเทคนิคของ AI สามารถก่อให้เกิดอันตรายต่อสังคมและการละเมิดสิทธิขั้นพื้นฐานได้อย่างไร ในที่สุด พวกเขาควรเข้าใจว่ามีความท้าทายใดบ้างในการกำกับดูแลการทำงานของ AI อย่างมีประสิทธิภาพ และการท้าทายการตัดสินใจตามอัลกอริทึม


การยกเลิกกฎหมายโดยปริยายในอังกฤษ

 ในคดี Thoburn v Sunderland City Council ในปี ค.ศ. 2002 ผู้พิพากษา เซอร์จอห์น ลอว์ส ได้เสนอแนวคิดเรื่องกฎหมายรัฐธรรมนูญ โดยกล่าวว่า “เราควรตระหนักถึงลำดับชั้นของกฎหมายรัฐสภาเหมือนกับกฎหมาย 'ธรรมดา' และกฎหมาย 'รัฐธรรมนูญ'” พร้อมยกตัวอย่างกฎหมายระดับรัฐธรรมนูญของอังกฤษว่าประกอบด้วย Magna Carta 1297 , Bill of Rights 1688 , Human Rights Act 1998 และ European Communities Act 1972 ดังนั้น เราสามารถระบุกฎหมายรัฐธรรมนูญบนพื้นฐานหลักการได้ กฎหมายรัฐธรรมนูญคือกฎหมายที่ (ก) กำหนดเงื่อนไขความสัมพันธ์ทางกฎหมายระหว่างพลเมืองกับรัฐในลักษณะทั่วไปหรือ (ข) ขยายหรือลดขอบเขตของสิ่งที่เราถือเป็นสิทธิตามรัฐธรรมนูญขั้นพื้นฐานในปัจจุบัน”

ที่สำคัญ เซอร์จอห์น ลอว์สโต้แย้งว่า ในขณะที่กฎหมายทั่วไปสามารถยกเลิกได้โดยปริยาย แต่กฎหมายรัฐธรรมนูญทำไม่ได้ การยกเลิกหรือแก้ไขกฎหมายรัฐธรรมนูญต้องกระทำได้โดยผ่านกระบวนการทางรัฐสภาและมีบทบัญญัติที่ชัดเจนในกฎหมายของรัฐสภา หรือในกรณีที่รัฐสภามีเจตนาที่จะแก้ไขหรือยกเลิกกฎหมายฉบับเดิม ตามปกติแล้ว รัฐสภาถือว่าสามารถเปลี่ยนแปลงหรือยกเลิกกฎหมายของรัฐสภาได้ 2 วิธี คือ ยกเลิกโดยชัดแจ้งหรือโดยนัย โดยที่ยกเลิกโดยชัดแจ้ง หมายความว่า บทบัญญัติในกฎหมายฉบับหลังระบุอย่างชัดเจนว่ากฎหมายฉบับก่อนหรือบทบัญญัติของกฎหมายฉบับก่อนถูกยกเลิก ดังนั้น หากจะยกตัวอย่างโดยสุ่ม (และไม่มีนัยสำคัญทางรัฐธรรมนูญ) ย่อหน้า 1 ของส่วนที่ 1 ของตารางกฎหมายใบอนุญาตขนส่งและการลงทะเบียนรถพ่วง 2018 ระบุเพียงว่า “กฎหมายใบอนุญาตขนส่งทางถนนระหว่างประเทศ 1975 ถูกยกเลิกแล้ว”

การยกเลิกโดยปริยายจะเกิดขึ้นในกรณีที่กฎหมายฉบับหลังขัดแย้งกับกฎหมายฉบับก่อน เมื่อเกิดเหตุการณ์ดังกล่าว กฎหมายฉบับก่อนจะถือว่าถูกยกเลิกโดยปริยายโดยกฎหมายฉบับหลังในขอบเขตที่จำเป็นเพื่อแก้ไขความไม่สอดคล้องระหว่างกฎหมายทั้งสองฉบับ ดังที่ Scrutton LJ กล่าวในคดี Ellen St Estates v Minister of Healthว่า “จุดยืนทางรัฐธรรมนูญ” คือ รัฐสภาสามารถแก้ไขกฎหมายฉบับก่อนได้เพียงแค่ “บัญญัติบทบัญญัติที่ไม่สอดคล้องกับกฎหมายฉบับก่อนอย่างชัดเจน”

คำกล่าวของเซอร์จอห์นที่ว่ากฎหมายรัฐธรรมนูญไม่สามารถยกเลิกได้โดยปริยาย ต้องยกเลิกได้เฉพาะโดยชัดแจ้งเท่านั้น ถือเป็นเรื่องใหม่ นอกจากนี้ คำกล่าวนี้ยังถือเป็นการเบี่ยงเบนที่สำคัญจากสิ่งที่เราอาจเรียกได้ว่าเป็นมุมมองดั้งเดิมและดั้งเดิมเกี่ยวกับอำนาจอธิปไตยของรัฐสภา นั่นคือ ไม่มีลำดับชั้นระหว่างกฎหมายของรัฐสภา ไม่มีความแตกต่างทางกฎหมายระหว่างกฎหมายรัฐธรรมนูญกับกฎหมายอื่นๆ และกฎหมายแต่ละฉบับของรัฐสภาสามารถเปลี่ยนแปลงหรือยกเลิกได้ง่ายเช่นเดียวกับกฎหมายอื่นๆ ไม่ว่าจะโดยปริยายหรือโดยปริยาย มุมมองแบบดั้งเดิมนี้สามารถพบได้ในคำกล่าวอ้างของไดซีย์ “สิ่งเหล่านี้คือ… ลักษณะเฉพาะของอำนาจอธิปไตยของรัฐสภา… ประการแรก อำนาจของฝ่ายนิติบัญญัติในการแก้ไขกฎหมายใดๆ ไม่ว่าจะเป็นกฎหมายพื้นฐานหรือกฎหมายอื่นๆ อย่างอิสระและในลักษณะเดียวกันกับกฎหมายอื่นๆ ประการที่สอง การไม่มีความแตกต่างทางกฎหมายระหว่างรัฐธรรมนูญกับกฎหมายอื่นๆ …”

แม้ว่าการอ้างสิทธิของ เซอร์จอห์นจะเป็นเรื่องใหม่ แต่ก็ไม่ได้เกิดขึ้นโดยบังเอิญ แต่เกิดขึ้นพร้อมกับวิธีการที่ศาลได้ดำเนินการเกี่ยวกับกฎหมายของสหภาพยุโรป (EU) นั่นคือ ศาลจะไม่นำกฎหมายของรัฐสภาที่ขัดแย้งกับกฎหมายของสหภาพยุโรปมาใช้ ซึ่งเป็นพื้นฐานของ คดี Factortame ที่สภาขุนนางได้ยกเลิกบทบัญญัติของกฎหมายการเดินเรือพาณิชย์ปี ค.ศ. 1988 เนื่องจากบทบัญญัติดังกล่าวขัดแย้งกับกฎหมายของสหภาพยุโรป กฎหมายของสหภาพยุโรปถูกผนวกเข้าในกฎหมายของสหราชอาณาจักรโดยกฎหมายประชาคมยุโรป ปี ค.ศ. 1972 (เปรียบเทียบกับคดี Miller) มุมมองแบบเดิมเกี่ยวกับการยกเลิกโดยปริยายจะต้องให้กฎหมายปี ค.ศ. 1988 ยกเลิกกฎหมายปี ค.ศ. 1972 โดยปริยาย อย่างไรก็ตาม ในคดี Factortame สภาขุนนางให้ความสำคัญกับกฎหมายของสหภาพยุโรปซึ่งผนวกเข้าผ่านกฎหมายปี ค.ศ. 1972 มากกว่ากฎหมายปี ค.ศ. 1988

แต่ตามที่ลอร์ดเดนนิ่งได้ชี้แจงไว้อย่างชัดเจนในคดี Macarthys v Smith ก่อนหน้านี้ หากรัฐสภาระบุอย่างชัดเจนว่ากฎหมายของรัฐสภาควรได้รับความสำคัญเหนือกฎหมายของสหภาพยุโรป ซึ่งจำกัดอำนาจสูงสุดของกฎหมายสหภาพยุโรปตามกฎหมายประชาคมยุโรป “ศาลมีหน้าที่ปฏิบัติตามกฎหมายของรัฐสภา” กล่าวคือ ศาลจะอนุญาตให้แก้ไขหรือยกเลิกบทบัญญัติของกฎหมายประชาคมยุโรป ซึ่งให้กฎหมายสหภาพยุโรปมีอำนาจเหนือกว่ากฎหมายอื่นที่ขัดแย้งกันได้อย่างชัดแจ้งแต่ไม่ใช่โดยนัย

ในทำนองเดียวกัน ศาลได้ระบุว่าจะไม่อนุญาตให้แก้ไขหลักพื้นฐานของรัฐธรรมนูญ ยกเว้นด้วยถ้อยคำที่ชัดเจนในกฎหมายของรัฐสภาลอร์ดฮอฟมันน์ได้กล่าวว่า “สิทธิพื้นฐานไม่สามารถถูกแทนที่ได้ด้วยถ้อยคำทั่วไปหรือคลุมเครือ” ตัวอย่างหลักพื้นฐานของรัฐธรรมนูญ ได้แก่การเข้าถึงศาลจะต้องไม่ถูกปฏิเสธความยุติธรรมควรได้รับการบริหารจัดการอย่างเปิดเผยในศาลและอันที่จริงค่านิยมพื้นฐานของหลักนิติธรรมจะต้องได้รับการยึดมั่น

ดังนั้น การคุ้มครองจากการยกเลิกโดยปริยายที่ เซอร์จอห์นโต้แย้งว่ากฎหมายรัฐธรรมนูญนั้นได้รับนั้นคล้ายคลึงกับการคุ้มครองที่มอบให้กับกฎหมายประชาคมยุโรป (ซึ่งเซอร์จอห์นระบุว่าเป็นกฎหมายรัฐธรรมนูญ) และกับหลักการพื้นฐานทางรัฐธรรมนูญ ในความเป็นจริง เซอร์จอห์นเชื่อมโยงสิ่งเหล่านี้เข้าด้วยกัน ในคดี Thoburn Laws LJ กล่าวว่าการคุ้มครองจากการแก้ไขโดยปริยายที่มอบให้กับหลักการพื้นฐานทางรัฐธรรมนูญนั้นนำไปสู่ "ความเข้าใจ" ว่ากฎหมายรัฐธรรมนูญก็ควรได้รับการคุ้มครองเช่นเดียวกัน และคดี Thoburn เป็นความพยายามที่จะทำให้การตัดสินใจในคดี Factortame มีเหตุผลมากขึ้น ซึ่งสภาขุนนางให้ความสำคัญกับกฎหมายประชาคมยุโรปมากกว่ากฎหมายพาณิชย์นาวี ปี ค.ศ. 1988

ตั้งแต่ คำพิพากษา คดี Thoburnในปี 2002 แนวคิดเรื่องกฎหมายรัฐธรรมนูญได้รับการสนับสนุนจากศาลอื่นๆ รวมถึงศาลสูงของอังกฤษและเวลส์ (R (Brynmawr Foundation School Governors) vs Welsh Ministers ) ศาลแห่งการประชุม (Outer House) ในสกอตแลนด์ ( AXA General Insurance vs Lord Advocate ) และศาลสูงในไอร์แลนด์เหนือ (Re Northern Ireland Commissioner for Children and Young People's Application for Judicial Review )

ที่สำคัญกว่านั้น แนวคิดดังกล่าวได้รับการสนับสนุนจากศาลฎีกา ในคดี H v Lord Advocateลอร์ดโฮประบุว่ากฎหมายสกอตแลนด์ปี ค.ศ. 1998 ไม่สามารถยกเลิกได้โดยปริยายเนื่องจาก “ธรรมชาติพื้นฐานของรัฐธรรมนูญในการยุติข้อพิพาท” ที่กฎหมายบรรลุผล ซึ่ง “ทำให้ไม่สามารถเปลี่ยนแปลงได้โดยปราศจากการบัญญัติโดยชัดแจ้ง” ในคดี R (HS2 Action Alliance Ltd) v Secretary of State for Transport ลอร์ด Neuberger และ Mance กล่าวว่ามี “ตราสารรัฐธรรมนูญ” และคำพิพากษาของ เซอร์จอห์นในคดี Thoburn ให้ข้อมูลเชิงลึกที่สำคัญเกี่ยวกับปัญหาที่อาจเกิดขึ้นในพื้นที่นี้ ...” ในคดี Miller เสียงส่วนใหญ่ในศาลสูงสุดระบุถึง “ลักษณะทางรัฐธรรมนูญ” ของกฎหมายประชาคมยุโรปปี ค.ศ. 1972 และกฎหมายของสหภาพยุโรปได้รับการคุ้มครองไม่ให้ถูกยกเลิกโดยปริยายเนื่องจากกฎหมายดังกล่าว ใน กรณี Privacy International ลอร์ดคาร์นเวิร์ธ เห็นว่าศาลยอมรับสถานะพิเศษของกฎหมายรัฐธรรมนูญดังกล่าว โดยเฉพาะเอกสิทธิ์คุ้มครองจากการยกเลิกโดยปริยาย

นอกจากนี้ นักวิชาการบางท่านมีข้อสังเกตว่าหลักการของกฎหมายรัฐธรรมนูญได้รับการยอมรับ ไม่เพียงแต่จากศาลเท่านั้น แต่ยังรวมถึงฝ่ายนิติบัญญัติและฝ่ายบริหารของรัฐบาลด้วย เราโต้แย้งว่าการยอมรับนี้โดยฝ่ายบริหาร ฝ่ายนิติบัญญัติ และฝ่ายตุลาการ หมายความว่าแนวคิดของกฎหมายรัฐธรรมนูญที่ได้รับการคุ้มครองไม่ให้ถูกเพิกถอนโดยปริยาย ได้เปลี่ยนจากข้อเสนอใหม่ไปเป็นความเชื่อดั้งเดิมที่ได้รับการยอมรับ ทั้งนี้ คำยืนยันของเซอร์จอห์นในคดี Thoburn ได้นำแนวคิดใหม่มาสู่กฎหมายรัฐธรรมนูญของสหราชอาณาจักร นั่นคือ กฎหมายทั่วไปและกฎหมายรัฐธรรมนูญมีความแตกต่างกัน และแม้ว่ากฎหมายทั่วไปอาจถูกยกเลิกโดยปริยาย แต่กฎหมายรัฐธรรมนูญอาจไม่ยกเลิกได้ แม้ว่าแนวคิดนี้จะแปลกใหม่ แต่ดูเหมือนว่าแนวคิดนี้จะมีรากฐานมาจากการคุ้มครองไม่ให้ถูกยกเลิกโดยปริยายตามกฎหมายประชาคมยุโรป และหลักพื้นฐานของรัฐธรรมนูญ นอกจากนี้ หลักการของกฎหมายรัฐธรรมนูญยังได้รับการสนับสนุนจากฝ่ายตุลาการในระดับสูงสุด และจากทั้งฝ่ายบริหารและฝ่ายนิติบัญญัติ 


วันพุธที่ 25 ธันวาคม พ.ศ. 2567

เทคโนโลยีในกิจการดูแลสุขภาพ

 ปัญญาประดิษฐ์ (AI) ถือเป็นหัวข้อที่น่าสนใจอย่างยิ่งในยุคนี้ เป็นหนึ่งในสาขาที่ได้รับความสนใจและเป็นที่ถกเถียงกันมากที่สุดในด้านการพัฒนาเทคโนโลยี แม้ว่าเราจะยังห่างไกลจากหุ่นยนต์ที่จะเข้ามาครองโลก แต่การใช้งานหุ่นยนต์ก็กลายเป็นเรื่องปกติมากขึ้นเนื่องมาจากเทคนิคการวิเคราะห์ที่พัฒนาขึ้นและข้อมูลที่มีมากขึ้น

กิจการการดูแลสุขภาพเป็นกิจการที่เทคโนโลยี AI มีประโยชน์อย่างปฏิเสธไม่ได้ เนื่องจากเทคโนโลยีนี้สามารถทำสิ่งที่มนุษย์สามารถทำได้อยู่แล้วได้อย่างมีประสิทธิภาพยิ่งขึ้นและมากกว่านั้นอีกมาก เช่น การค้นหาความเชื่อมโยงในรหัสพันธุกรรม อย่างไรก็ตาม การใช้งานเทคโนโลยีดังกล่าวทำให้เกิดคำถามทางกฎหมายและจริยธรรมหลายประการที่เราต้องแก้ไข ดังนั้น รัฐบาลและองค์กรระหว่างประเทศจึงให้ความสำคัญกับการสร้างกรอบการกำกับดูแลที่เป็นมิตรต่อเทคโนโลยี AI ในปัจจุบัน

การพัฒนาด้านเทคโนโลยีใหม่ๆ AI ก่อให้เกิดคำถามมากมายที่รัฐบาลและประชาชนต้องเผชิญ แต่ AI และอัลกอริทึมเป็นศาสตร์ที่คลุมเครือมาก ซึ่งเราถูกบอกให้เชื่อว่าถูกนำมาใช้เพื่อประโยชน์ของพวกเราทุกคน อย่างไรก็ตาม ยังมีความเป็นไปได้ที่สิ่งตรงกันข้ามจะเกิดขึ้นได้เช่นกัน ดังนั้น ในปี 2020 คณะผู้เชี่ยวชาญระดับสูงด้าน AI ที่ได้รับการแต่งตั้งโดยคณะกรรมาธิการยุโรปจึงได้กำหนดข้อกำหนดเจ็ดประการ ซึ่งถือเป็นสิ่งจำเป็นต่อการใช้ AI อย่างมีจริยธรรม โดยเน้นที่ความโปร่งใส ความปลอดภัย ความเป็นธรรม และความรับผิดชอบ

ข้อมูลคือสิ่งที่หล่อเลี้ยง AI หากไม่มีข้อมูล เครื่องจักรก็จะไม่สามารถเรียนรู้วิธี "คิด" ได้ นี่คือเหตุผลที่การปกป้องข้อมูลทางการแพทย์ของผู้ป่วยจึงมีความสำคัญสูงสุด และปัจจุบันเป็นประเด็นสำคัญสำหรับอุตสาหกรรมและรัฐบาลทั่วโลก อย่างไรก็ตาม โดยเฉพาะอย่างยิ่งกิจการสุขภาพมีความเสี่ยงสูงต่อภัยคุกคามทางไซเบอร์ เนื่องจากข้อมูลทางการแพทย์ของผู้ป่วยมีลักษณะละเอียดอ่อน เนื่องจากข้อมูลดังกล่าวถือเป็นนวัตกรรมทางวิทยาศาสตร์และเทคโนโลยีที่สำคัญ โดยกิจการวิทยาศาสตร์ชีวภาพมีมูลค่าหลายพันล้าน จึงถือเป็นเป้าหมายที่น่าสนใจสำหรับอาชญากรไซเบอร์ ตัวอย่างเช่น กระทรวงสาธารณสุขและฝ่ายบริหารบริการสุขภาพของไอร์แลนด์ตกเป็นเป้าหมายของการโจมตีทางไซเบอร์เมื่อต้นปีนี้ ซึ่งเป็นการโจมตีโครงสร้างพื้นฐานที่สำคัญโดยตรง ส่งผลให้มีการยกเลิกขั้นตอนการรักษาที่ไม่ใช่กรณีฉุกเฉินและการรักษาล่าช้า ในทำนองเดียวกัน ในปี 2017 NHS ก็ถูกโจมตีด้วยแรนซัมแวร์ 'WannaCry' การสร้างความมั่นใจว่าผู้ให้บริการด้านการแพทย์ทั้งภาครัฐและเอกชนมีเครื่องมือในการปกป้องข้อมูลของผู้ป่วยจะช่วยเพิ่มความมั่นใจและทำให้ผู้คนจำนวนมากขึ้นเต็มใจที่จะแบ่งปันข้อมูลทางการแพทย์ของตนกับองค์กรที่สร้าง AI เพื่อให้มีฐานข้อมูลที่สำคัญเพียงพอสำหรับการเรียนรู้ของเครื่อง

กรอบการทำงานที่เกี่ยวข้องกับการปกป้องข้อมูลนั้นเปลี่ยนแปลงอยู่เสมอ เมื่อปีที่แล้ว ศาลยุติธรรมของสหภาพยุโรปได้ตัดสินใจใน คดี Schrems II ว่าการตัดสินใจของหลักการ Privacy Shield ที่ให้การคุ้มครองข้อมูลแก่สหรัฐอเมริกาถือเป็นโมฆะ คำตัดสินนี้ส่งผลกระทบอย่างมากต่อการค้าข้ามมหาสมุทรแอตแลนติกและการแบ่งปันข้อมูล ขณะเดียวกันก็สร้างเงาให้กับสหราชอาณาจักรเมื่อใกล้จะสิ้นสุดช่วงเปลี่ยนผ่าน ในสหราชอาณาจักร ศาลฎีกามีกำหนดตัดสินเกี่ยวกับความเป็นไปได้ในการดำเนินคดีแบบกลุ่มโดยไม่สมัครใจในกรณีการละเมิดข้อมูลใน คดี Lloyd v Google เนื่องจากผู้ให้บริการด้านการแพทย์และหน่วยงานต่างๆ เป็นเป้าหมายของการเลือก การปกป้องที่มากขึ้นจึงมีความจำเป็นเนื่องจากมีความเสี่ยงที่จะต้องเผชิญกับการเรียกร้องค่าเสียหายที่อาจมีค่าใช้จ่ายสูง

ความเชื่อมั่นของประชาชนที่เพิ่มมากขึ้นยังนำไปสู่การจัดหาข้อมูลที่มาจากกลุ่มประชากรที่หลากหลายมากขึ้น เราทราบอยู่แล้วว่าโรคบางชนิดไม่ได้แสดงอาการในลักษณะเดียวกันขึ้นอยู่กับภูมิหลังทางชาติพันธุ์ของผู้ป่วยตัวอย่างง่ายๆ ที่เห็นได้ชัดเจนคือเครื่องมือ AI ที่สร้างขึ้นเพื่อตรวจจับไฝที่เป็นมะเร็ง ในช่วงเริ่มต้นของการพัฒนา AI จะได้รับการฝึกบนฐานข้อมูลที่ประกอบด้วยภาพผิวขาวเป็นส่วนใหญ่ ซึ่งหมายความว่า AI จะมีโอกาสพบรูปแบบมะเร็งดังกล่าวบนผิวสีเข้มน้อยกว่า

ปัญหาอีกประการหนึ่งที่เกิดจากการใช้ AI ก็คือการเลือกปฏิบัติ รัฐบาลเนเธอร์แลนด์ใช้อัลกอริทึมที่มีชื่อว่า SyRI เพื่อตรวจจับการทุจริตสวัสดิการสังคมที่อาจเกิดขึ้นโดยพิจารณาจากเกณฑ์ต่างๆ เช่น ปริมาณน้ำที่ไหลผ่านในครัวเรือน อย่างไรก็ตาม การร้องขอข้อมูลตามเสรีภาพในการเข้าถึงข้อมูลเผยให้เห็นว่า SyRI ถูกใช้เป็นหลักในย่านที่มีรายได้น้อย ซึ่งทำให้เกิดอคติมากขึ้น ในที่สุด ศาลเนเธอร์แลนด์ในกรุงเฮกตัดสินว่า SyRI ละเมิดมาตรา 8 ของอนุสัญญาว่าด้วยสิทธิมนุษยชนยุโรปที่คุ้มครองสิทธิในการเคารพชีวิตส่วนตัวและครอบครัว ประโยชน์ที่ได้รับจาก AI ไม่ควรถูกบดบังด้วยการเรียนรู้ของเครื่องจักรที่มีอคติซึ่งสามารถแก้ไขได้ด้วยการดูแลของมนุษย์ที่เหมาะสม

ขณะที่ AI กำลังได้รับการเผยแพร่สู่สาธารณะมากขึ้น และความท้าทายต่างๆ ดังกล่าวข้างต้นมีความชัดเจนมากขึ้น รัฐบาลจึงมุ่งเน้นไปที่การสร้างกรอบการทำงานเพื่อรักษาสมดุลระหว่างการสร้างสภาพแวดล้อมที่ไม่เพียงแต่เป็นมิตรต่อธุรกิจในพื้นที่นี้ เช่น องค์กรด้านวิทยาศาสตร์ชีวภาพและบริษัทเภสัชกรรมเท่านั้น แต่ยังต้องให้การปกป้องข้อมูลของเราอย่างเพียงพออีกด้วย

เงินทุนและการลงทุนที่เกิดขึ้นระหว่างการระบาดใหญ่ในภาควิทยาศาสตร์ชีวภาพจะยังคงมีอยู่ต่อไป เนื่องจากนายกรัฐมนตรีต้องการเสริมสร้างบทบาทของสหราชอาณาจักรในฐานะประเทศผู้นำในกิจการนี้ นับตั้งแต่ที่ออกจากสหภาพยุโรป รัฐบาลสหราชอาณาจักรได้ประกาศแผนการลงทุน 14,900 ล้านปอนด์ในปี 2021/2022 และเพิ่มขึ้นเป็น 22,000 ล้านปอนด์ภายในปี 2025 สำหรับการวิจัยและพัฒนาในอุตสาหกรรมวิทยาศาสตร์ชีวภาพ โดยเน้นที่เทคโนโลยี

ในร่างเอกสารนโยบายที่เผยแพร่เมื่อวันที่ 22 มิถุนายน 2021 ชื่อว่า ข้อมูลรักษาชีวิต: การปรับเปลี่ยนการดูแลสุขภาพและสังคมด้วยข้อมูล กระทรวงสาธารณสุขและการดูแลทางสังคมได้กำหนดแผนสำหรับอนาคตในช่วงเวลาที่ข้อมูลด้านสุขภาพของเรามีความสำคัญต่อการเปิดสังคมอีกครั้ง เอกสารนโยบายนี้มุ่งเน้นไปที่การเสริมอำนาจให้กับนักวิจัยด้วยข้อมูลที่จำเป็นในการพัฒนาการรักษาที่ช่วยชีวิตได้ การพัฒนาโครงสร้างพื้นฐานทางเทคนิคที่เหมาะสม และการช่วยเหลือนักพัฒนาและผู้สร้างสรรค์นวัตกรรมในการปรับปรุงสุขภาพและการดูแล โดยเน้นเป็นพิเศษที่การสนับสนุนนวัตกรรม AI รวมถึงการสร้างกรอบการกำกับดูแล AI ที่ชัดเจนและเข้าใจได้ ตัวอย่างเช่น มีการแก้ไขแนวทางของรัฐบาลเกี่ยวกับการจัดซื้อ AI เพื่อกระตุ้นให้องค์กร NHS เป็นผู้ซื้อที่แข็งแกร่งขึ้น และมีการให้คำมั่นสัญญาว่าจะพัฒนามาตรฐานรวมสำหรับการทดสอบประสิทธิภาพและความปลอดภัยของโซลูชัน AI โดยทำงานอย่างใกล้ชิดกับหน่วยงานกำกับดูแลผลิตภัณฑ์ยาและการดูแลสุขภาพและสถาบันแห่งชาติเพื่อความเป็นเลิศด้านสุขภาพและการดูแลภายในปี 2023

โครงการอื่น ๆ คือ AI in Health and Care Awards ในรอบแรกมีผู้ชนะ 42 ราย รวมถึงบริษัทเช่น Kheiron Medical Technologies สำหรับ MIA “Mammography Intelligent Assessment” MIA เป็นซอฟต์แวร์การเรียนรู้เชิงลึกที่พัฒนาขึ้นเพื่อแก้ปัญหาในโครงการตรวจคัดกรองมะเร็งเต้านมของ NHS เช่น การลดการวินิจฉัยที่ผิดพลาดและการจัดการความล่าช้าที่ทำให้ชีวิตของผู้หญิงตกอยู่ในความเสี่ยง การใช้ซอฟต์แวร์ดังกล่าวมีผลกระทบอย่างมากต่อสุขภาพของประชาชน โดยช่วยชีวิตผู้คนได้ด้วยการวินิจฉัยในระยะเริ่มต้นและลดต้นทุนการรักษาที่ NHS เสนอให้ การวิจัยแสดงให้เห็นว่ามีการตัดชิ้นเนื้อประมาณ 20% ที่ไม่จำเป็น

แม้ว่าสหราชอาณาจักรจะไม่ผูกพันตามกฎหมายของสหภาพยุโรปอีกต่อไปแล้ว แต่การพัฒนาในกิจการนี้ที่เกิดขึ้นในทวีปนี้ต้องได้รับการติดตาม ในเดือนเมษายน 2021 คณะกรรมาธิการยุโรปได้เผยแพร่ร่างข้อบังคับ เกี่ยวกับการประสานกฎเกณฑ์ด้าน AI แม้ว่าจะใช้แนวทางตามความเสี่ยงสำหรับ AI แต่ก็ควรสังเกตว่าร่างระเบียบข้อบังคับห้ามใช้ AI สำหรับการให้คะแนนทางสังคมโดยหน่วยงานของรัฐและการจดจำใบหน้าแบบเรียลไทม์ เช่นเดียวกับในคดี Bridges v South Wales Police ในปี 2020 การเพิ่มทรัพยากรให้สูงสุดและการประสานงานการลงทุนยังเป็นองค์ประกอบที่สำคัญของกลยุทธ์ของคณะกรรมาธิการยุโรปอีกด้วย ภายใต้โครงการ Digital Europe และ Horizon Europe คณะกรรมาธิการยังวางแผนที่จะลงทุน 1,000 ล้านยูโรต่อปีในด้าน AI

ขณะนี้สหราชอาณาจักรได้รับสิทธิ์คุ้มครองที่เหมาะสมแล้ว ซึ่งหมายความว่าสหภาพยุโรปยอมรับว่าระดับการคุ้มครองข้อมูลส่วนบุคคลในสหราชอาณาจักรเทียบได้กับกฎหมายของสหภาพยุโรป ข้อมูลจึงสามารถไหลเวียนระหว่างทั้งสองฝ่ายได้อย่างต่อเนื่อง และไม่น่าจะเกิดความแตกต่างอย่างมีนัยสำคัญในอนาคตอันใกล้นี้ ซึ่งก็คล้ายกับโครงการริเริ่มของ Covax ความร่วมมือที่มากขึ้น และการพัฒนา AI ที่สอนโดยใช้ฐานข้อมูลที่ประกอบด้วยข้อมูลของทั้งสหภาพยุโรปและสหราชอาณาจักรนั้นคงไม่น่าแปลกใจ

ปัจจุบัน รัฐบาลและผู้มีส่วนได้ส่วนเสียต่างมองว่า AI คืออนาคตของการดูแลสุขภาพ แม้ว่าการใช้งาน AI จะบ่งบอกถึงคำถามทางจริยธรรมมากมาย แต่ประโยชน์ที่ได้รับนั้นน่าจะมีมากกว่าความเสี่ยง เนื่องจากกรอบการกำกับดูแลที่เกี่ยวข้องกับ AI นั้นให้ทั้งความยืดหยุ่นสำหรับผู้ริเริ่มนวัตกรรม และมีข้อกำหนดที่เข้มงวดในการปกป้องข้อมูลทางการแพทย์ของเรา แนวทางทั้งสองแนวทางที่สหราชอาณาจักรและสหภาพยุโรปใช้ดูเหมือนจะมุ่งเน้นไปที่เกณฑ์เดียวกันซึ่งไม่ค่อยก่อให้เกิดข้อโต้แย้ง อย่างไรก็ตาม รัฐบาลสหราชอาณาจักรจะเต็มใจลงทุนในกิจการนี้มากกว่า โดยอาศัยชื่อเสียงของประเทศในด้านการจัดลำดับจีโนม การพัฒนาที่กำลังจะเกิดขึ้นในสาขานี้ควรได้รับการจับตามองสำหรับทุกคนที่สนใจเทคโนโลยีใหม่ การดูแลสุขภาพ และการปกป้องข้อมูล 

โดยสรุปความก้าวหน้าของ AI มีศักยภาพที่จะเปลี่ยนแปลงหลายๆ ด้านของการดูแลสุขภาพ ทำให้เกิดอนาคตที่เป็นส่วนตัวมากขึ้น แม่นยำขึ้น ทำนายได้แม่นยำขึ้น และพกพาสะดวกขึ้น ยังไม่ชัดเจนว่าเราจะได้เห็นการนำเทคโนโลยีใหม่ๆ มาใช้เพิ่มขึ้นหรือการนำนวัตกรรมทางเทคโนโลยีเหล่านี้มาใช้ในเชิงปฏิวัติหรือไม่ แต่ผลกระทบของเทคโนโลยีดังกล่าวและการฟื้นฟูทางดิจิทัลที่เกิดขึ้นทำให้ระบบสุขภาพต้องพิจารณาว่าจะปรับตัวให้เข้ากับภูมิทัศน์ที่เปลี่ยนแปลงไปได้ดีเพียงใด สำหรับการนำเทคโนโลยีดังกล่าวไปใช้มีศักยภาพอย่างแท้จริงที่จะช่วยประหยัดเวลาในการดูแลผู้ป่วย ทำให้สามารถมุ่งเน้นไปที่สิ่งที่สำคัญสำหรับผู้ป่วย และในอนาคตอาจใช้ประโยชน์จากชุดข้อมูลที่เป็นประชาธิปไตยทั่วโลกซึ่งประกอบด้วย "ระดับความรู้ของมนุษย์สูงสุด" เพื่อ "ทำงานภายใต้ขีดจำกัดของวิทยาศาสตร์" เพื่อส่งมอบมาตรฐานการดูแลผู้ป่วยระดับสูงร่วมกัน ไม่ว่าจะให้บริการที่ไหนและเมื่อใดก็ตาม และโดยใครก็ตาม50 ในระดับโลก AI อาจกลายเป็นเครื่องมือสำคัญในการปรับปรุงความเสมอภาคด้านสุขภาพทั่วโลก

ในช่วง 10 ปีที่ผ่านมา การเปลี่ยนแปลงระบบบันทึกสุขภาพให้เป็นดิจิทัลนั้นมีความสำคัญมาก (และในบางระบบการรักษาพยาบาลก็รวมถึงระบบเรียกเก็บเงิน/การคืนเงิน) แต่ในอีก 10 ปีข้างหน้า สังคมจะมองเห็นคุณค่าและได้รับประโยชน์จากทรัพยากรดิจิทัลเหล่านี้มากขึ้น และจะสามารถนำทรัพยากรดิจิทัลเหล่านี้ไปปรับใช้เพื่อผลลัพธ์ทางคลินิกที่ดีขึ้นได้อย่างไรด้วยความช่วยเหลือของ AI และการสร้างทรัพยากรและเครื่องมือข้อมูลใหม่ๆ ตามมา เห็นได้ชัดว่าเรากำลังอยู่ในจุดเปลี่ยนในแง่ของการบรรจบกันระหว่างการแพทย์กับการประยุกต์ใช้เทคโนโลยี แม้ว่าจะมีโอกาสมากมาย แต่ก็ยังมีความท้าทายอันยิ่งใหญ่ที่ต้องเอาชนะให้ได้เมื่อเกี่ยวข้องกับโลกแห่งความเป็นจริงและขนาดของการนำนวัตกรรมดังกล่าวไปใช้ กุญแจสำคัญในการบรรลุวิสัยทัศน์นี้คือการขยายขอบเขตการวิจัยเชิงแปลผลในสาขาการประยุกต์ใช้ปัญญาประดิษฐ์ในการดูแลสุขภาพ นอกจากนี้ ต้องลงทุนเพื่อยกระดับทักษะของบุคลากรทางการแพทย์และผู้นำในอนาคตที่มีความสามารถด้านดิจิทัล และทำความเข้าใจและยอมรับศักยภาพของระบบการรักษาพยาบาลที่เสริมประสิทธิภาพด้วย AI แทนที่จะรู้สึกหวาดกลัว


เทคโนโลยีปัญญาประดิษฐ์ถูกพิพากษา

 เนื่องจากเทคโนโลยีปัญญาประดิษฐ์ (AI) พัฒนาเร็วขึ้นตลอดเวลา ศาลจึงเริ่มพิจารณาองค์ประกอบพื้นฐานว่าปัญญาประดิษฐ์ได้รับการปฏิบัติแตกต่างจากมนุษย์อย่างไร และส่งผลกระทบต่อกฎหมายที่มีอยู่อย่างไร ในอนาคตไม่ไกล เราไม่ได้มองไปที่หุ่นยนต์อีกต่อไป ปัญญาประดิษฐ์ไม่เพียงแต่มาถึงแล้ว แต่ยังแทรกซึมเข้าไปในแทบทุกอุตสาหกรรมอีกด้วย แน่นอนว่าการเปลี่ยนแปลงดังกล่าวมาพร้อมกับคำถามมากมาย แม้ว่าจะมีสัญญาณบางอย่างบ่งชี้ว่ากฎระเบียบดังกล่าวอาจไม่ก้าวหน้าได้เร็วเท่ากับเทคโนโลยี แต่ศาลก็ได้เริ่มพิจารณาปัญหาเหล่านี้ในระดับเชิงลึกแล้ว เทคโนโลยีปัญญาประดิษฐ์ได้ท้าทายกระบวนการยุติธรรมในศาลแล้ว เกิดคดีขึ้นหลายคดี ดังนี้ 

คดีแรกเทคโนโลยี Deepfake ผู้พิพากษาในรัฐแคลิฟอร์เนียได้แสดงความเห็นว่าการที่เทคโนโลยี Deepfake ที่สร้างโดย AI มีอยู่ทุกหนทุกแห่ง ไม่ได้ทำให้มีการคุ้มครองความคิดเห็นต่อสาธารณะของคนดังแต่ อย่างใด ในคดี Huang v. Teslaครอบครัวผู้สูญเสียของ Walter Huang ซึ่งเป็นชายที่เสียชีวิตขณะใช้ระบบขับเคลื่อนอัตโนมัติของรถยนต์ Tesla ในปี ค.ศ. 2018 ได้ฟ้องบริษัทในข้อหาฆ่าคนตายโดยผิดกฎหมายที่ศาลเมืองซานตาคลารา คำฟ้องกล่าวหาว่า "สภาพบกพร่อง" ของรถยนต์ Tesla เป็นสาเหตุให้ Huang เสียชีวิต นอกจากนี้ โจทก์ยังขอให้ถอดถอนนาย Elon Musk ผู้ร่วมก่อตั้งและซีอีโอของบริษัท Tesla เกี่ยวกับคำแถลงต่อสาธารณะที่ประกาศยืนยันความสามารถในการขับเคลื่อนอัตโนมัติและความปลอดภัยของ Tesla ในบันทึกเมื่อปี ค.ศ. 2016

แต่บริษัทเทสลาได้คัดค้าน โดยให้เหตุผลว่าเนื่องจากนายมัสก์เป็นบุคคลสาธารณะ จึงตกเป็นเป้าหมายของวิดีโอ Deepfake จำนวนมาก และด้วยเหตุนี้ ความถูกต้องของการบันทึกในปี ค.ศ. 2016 จึงเป็นประเด็นในคดีที่ถูกตั้งคำถาม ผู้พิพากษามีความเห็นว่าข้อโต้แย้งของเทสลาในการคัดค้านคำให้การนั้นน่ากังวลอย่างยิ่ง พร้อมทั้งแสดงความคิดเห็นเพิ่มเติมว่า “จุดยืนของเทสลาคือ เนื่องจากนายมัสก์มีชื่อเสียงและอาจเป็นเป้าหมายของวิดีโอ Deepfake มากกว่าคำแถลงต่อสาธารณะของเขาจึงปลอดภัย” และด้วยเหตุนี้ การกระทำดังกล่าวจึงทำให้บุคคลสาธารณะสามารถหลีกเลี่ยงการเป็นเจ้าของสิ่งที่พวกเขาพูดและทำจริง ๆ ก่อนที่คดีจะได้รับการยุติในที่สุด ผู้พิพากษาได้สั่งให้มีการพักการพิจารณาเป็นเวลาสามชั่วโมง โดยจะถามว่ามัสก์ได้ให้การตามบันทึกเสียงจริงหรือไม่ เรื่องดังกล่าวนี้ต้องรอดูกันต่อไปว่าศาลจะให้ความเห็นเป็นอย่างไร 

คดีที่สองสิทธิของนักประดิษฐ์ในหมู่ผู้สร้าง AI ในการต่อสู้ทางกฎหมายอีกครั้ง ค่ายเพลงได้ยื่นฟ้องต่อศาลแขวงกลางสองแห่ง ได้แก่เขตแมสซาชูเซตส์และเขตทางใต้ของนิวยอร์กเมื่อวันที่ 24 มิถุนายน ค.ศ. 2024 โดยฟ้องผู้สร้าง AI ของเพลงออนไลน์ในข้อหาละเมิดลิขสิทธิ์เนื้อหาเสียงที่สร้างโดย AI ค่ายเพลงกล่าวหาว่าผู้สร้าง AI ของเพลงออนไลน์ "สามารถทำงานได้ในลักษณะเดียวกับที่ทำอยู่โดยคัดลอกไฟล์เสียงจำนวนมากจากศิลปินจากทุกประเภท สไตล์ และยุคสมัย" ซึ่งส่วนใหญ่เป็นไฟล์เสียงที่ค่ายเพลงที่ฟ้องร้องเป็นเจ้าของหรือควบคุมแต่เพียงผู้เดียว ในปีก่อนหน้านั้นมีการยื่นฟ้อง OpenAI ต่อศาลรัฐบาลกลางในเขตทางตอนเหนือของแคลิฟอร์เนีย โดยกล่าวหาสาเหตุการดำเนินคดีหลายประการ รวมถึงการละเมิดลิขสิทธิ์โดยตรงและโดยอ้อม การละเมิด Digital Millennium Copyright Act การแข่งขันที่ไม่เป็นธรรม การละเลย และการได้มาซึ่งผลประโยชน์โดยมิชอบ มีการโต้แย้งว่า OpenAI กำลังใช้ผลงานศิลปะของตนอย่างผิดกฎหมายเพื่อฝึกอบรม ChatGPT ในที่สุดคำร้องก็ได้รับการแก้ไข เหลือเพียงการเรียกร้องการละเมิดลิขสิทธิ์โดยตรงเท่านั้น หลังจากที่ผู้พิพากษาได้พิจารณาอย่างละเอียดถี่ถ้วน รวมถึงความล้มเหลวของโจทก์ในการกล่าวหาความคล้ายคลึงกันอย่างมีนัยสำคัญระหว่างผลงานของโจทก์และผลลัพธ์ของ ChatGPT คดีนี้ยังอยู่ระหว่างดำเนินการ

คดีที่สามสิทธิบัตร ศาลฎีกาของสหรัฐฯ ปฏิเสธที่จะรับพิจารณาอุทธรณ์เนื่องจากสำนักงานสิทธิบัตรและเครื่องหมายการค้าของสหรัฐฯปฏิเสธที่จะออกสิทธิบัตรที่สร้างขึ้นโดย AI ในเดือนเมษายน สตีเฟน เธเลอร์ นักวิทยาศาสตร์คอมพิวเตอร์ เคยยื่นจดสิทธิบัตรสิ่งประดิษฐ์สองชิ้นที่ระบบ AI ของเขาสร้างขึ้นมาก่อน สำนักงานสิทธิบัตรและเครื่องหมายการค้าและผู้พิพากษาในรัฐเวอร์จิเนียเคยปฏิเสธคำขอจดสิทธิบัตรดังกล่าวโดยให้เหตุผลว่าผู้ประดิษฐ์ที่ระบุไว้ในคำขอไม่ใช่บุคคลธรรมดาตามที่กฎหมายสิทธิบัตรของรัฐบาลกลางกำหนด การที่ศาลฎีกาปฏิเสธที่จะอนุมัติการอุทธรณ์ของเธเลอร์นั้นส่งสัญญาณถึงขอบเขตที่ชัดเจน ผู้ประดิษฐ์เพื่อวัตถุประสงค์ด้านสิทธิบัตรจะต้องเป็นมนุษย์

สำหรับกรณีที่เกี่ยวข้องกับ AI ที่กล่าวหาว่าละเมิดลิขสิทธิ์ผลงานของผู้สร้างสรรค์ที่จะเกิดขึ้นในอนาคต การวิเคราะห์ของคณะกรรมการส่วนใหญ่น่าจะเน้นไปที่ว่าผลงานที่ผลิตโดย AI มีความคล้ายคลึงกับผลงานต้นฉบับที่ส่งเข้าเครื่องมือ AI มากน้อยเพียงใด ในการวิเคราะห์นี้ คณะกรรมการจะต้องให้รายละเอียดและคำจำกัดความเกี่ยวกับสิ่งที่ทำให้สิ่งประดิษฐ์นั้นสร้างขึ้นโดย AI และ AI สามารถมีส่วนร่วมในกระบวนการประดิษฐ์ได้มากน้อยเพียงใด ก่อนที่ผลิตภัณฑ์ขั้นสุดท้ายจะถูกพิจารณาว่าสร้างขึ้นโดย AI

คดีที่สี่ หลักฐานวิดีโอที่ปรับปรุงด้วย AI ในศาลอาญา ในคดี State of Washington v. Pulokaศาลชั้นสูงของรัฐวอชิงตันปฏิเสธการยอมรับหลักฐานวิดีโอที่ได้รับการปรับปรุงด้วย AI ในการพิจารณาคดีอาญา เนื่องจากมีเหตุผลหลายประการ คือ ชุมชนการวิเคราะห์วิดีโอทางนิติเวชไม่ถือว่าหลักฐานดังกล่าวเป็นแหล่งหลักฐานที่เชื่อถือได้ ในกรณีนี้ ฝ่ายจำเลยพยายามนำวิดีโอสมาร์ทโฟนที่ปรับปรุงด้วย AI มาเป็นหลักฐาน โดยให้เหตุผลว่าวิดีโอต้นฉบับมีความละเอียดต่ำ เบลอภาพจากการเคลื่อนไหวมาก และภาพไม่ชัด ในการตัดสินว่าการบันทึกดังกล่าวเป็นที่ยอมรับได้หรือไม่ ศาลรับฟังคำให้การว่าเครื่องมือ AI ได้เพิ่มและเปลี่ยนแปลงเนื้อหาจากวิดีโอต้นฉบับ และแม้ว่าการปรับปรุงด้วย AI จะทำให้วิดีโอเป็น "ผลิตภัณฑ์ที่น่าดึงดูดใจสำหรับผู้ใช้มากขึ้น" แต่ก็ไม่ได้รักษาความสมบูรณ์ของภาพเอาไว้ ดังนั้น การวิเคราะห์วิดีโอทางนิติเวชจะไม่ยอมรับเทคนิคนี้ในการประเมินวิดีโอในบริบททางกฎหมาย

ทั้งนี้ ศาลพบว่าการใช้ AI เพื่อปรับปรุงวิดีโอในการพิจารณาคดีอาญาเป็นเทคนิคใหม่ และด้วยเหตุนี้ จึงต้องผ่านการทดสอบ Frye ซึ่งระบุว่า “[มาตรฐานในการยอมรับหลักฐานที่ใช้ทฤษฎีหรือหลักการทางวิทยาศาสตร์ใหม่คือว่าหลักฐานนั้นได้รับการยอมรับโดยทั่วไปในชุมชนวิทยาศาสตร์ที่เกี่ยวข้องหรือไม่” ในแวดวงวิทยาศาสตร์ในคดีนี้คือ กลุ่มผู้เชี่ยวชาญการวิเคราะห์วิดีโอทางนิติเวช และฝ่ายจำเลยไม่ได้ให้หลักฐานที่เพียงพอว่าการใช้ AI เพื่อปรับปรุงวิดีโอหลักฐานในการพิจารณาคดีอาญาเป็นที่ยอมรับโดยทั่วไปจากกลุ่มนี้

อย่างไรก็ตาม แม้ว่าศาลชั้นสูงของวอชิงตันจะตัดสินเช่นนี้ แต่ก็มีข้อบ่งชี้ว่าหลักฐานเสียงที่ได้รับการปรับปรุงด้วย AI อาจได้รับการต้อนรับในศาลมากกว่า แม้ว่าศาลจะยังคงใช้ การทดสอบ Frye และนำหลักฐานที่เสนอมาไปใช้กับมาตรฐานที่กำหนดไว้ในกฎหมายที่เกี่ยวข้อง แต่เสียงที่ได้รับการปรับปรุงด้วย AI เช่น การใช้เอฟเฟกต์งานเลี้ยงค็อกเทลเพื่อลดเสียงรบกวนพื้นหลังในเสียงนั้น มีความแตกต่างที่สำคัญอย่างหนึ่งจากเสียงที่ได้รับการปรับปรุงด้วย AI ในหลายๆ ด้าน การปรับปรุงเสียงด้วย AI จะใช้ AI เพื่อแยกเนื้อหาเพื่อช่วยให้ผู้ฟังมุ่งความสนใจไปที่ เนื้อหา ที่มีอยู่แล้ว ในขณะที่ในวิดีโอที่ได้รับการปรับปรุงด้วย AI จาก Puloka นั้น AI จะเข้ามาเพิ่มในเนื้อหา

ปัจจุบัน ในขณะที่ศาลต่างๆกำลังเผชิญกับการเริ่มต้นของการฟ้องร้องที่เกี่ยวข้องกับ AI อีกไม่นานศาลสูงสุดของประเทศก็จะเข้ามาเกี่ยวข้องในการพิจารณาคดีนี้ ด้วยเศรษฐกิจระหว่างรัฐและโลกาภิวัตน์ที่เพิ่มมากขึ้น และความเร็วและความลึกที่ AI ถูกผนวกเข้าในรูปแบบธุรกิจโซเชียลมีเดียการดูแลสุขภาพและความบันเทิงจึงไม่ใช่คำถามว่าจะเกิดขึ้นหรือไม่แต่เป็นเรื่องของเวลาว่าศาลจะพิจารณาปัญหาที่คล้ายกันหรือไม่ แต่สิ่งหนึ่งที่แน่นอนคือ AI กำลังพัฒนาเร็วกว่าที่เคย และไม่ช้าก็เร็ว ศาล ทุกแห่งจะต้องรับมือกับองค์ประกอบพื้นฐานว่า AI ได้รับการปฏิบัติแตกต่างจากมนุษย์อย่างไร และส่งผลกระทบต่อกฎหมายที่มีอยู่อย่างไร