วันพฤหัสบดีที่ 26 ธันวาคม พ.ศ. 2567

บทอภิปรายความไว้วางใจในเทคโนโลยีปัญญาประดิษฐ์

ความไว้วางใจเป็นแนวคิดที่นักวิชาการด้านสังคมศาสตร์หลายชั่วอายุคนพยายามกำหนดความหมาย แม้ว่าในชีวิตประจำวันเรามักจะไม่ต้องคิดซ้ำสองครั้งก่อนใช้คำนี้ ในทำนองเดียวกัน เรามักพูดถึงความไว้วางใจในเทคโนโลยีโดยอิงจากประสบการณ์ที่เราไว้วางใจเทคโนโลยีบางอย่างมากกว่าเทคโนโลยีอื่นๆ หรือความไว้วางใจในเทคโนโลยีเฉพาะที่พัฒนาขึ้นตามกาลเวลา อย่างไรก็ตาม นักวิชาการได้ตั้งคำถามถึงการมีอยู่ของความไว้วางใจในเทคโนโลยี โดยเฉพาะปัญญาประดิษฐ์ทั่วไป (AGI) ที่อาจมีผลต่อเปลี่ยนแปลงการอภิปรายทางสังคม วิทยาศาสตร์ และการเมืองเกี่ยวกับความไว้วางใจในเทคโนโลยีอย่างไร 

คำถามที่ว่าความไว้วางใจคืออะไรกันแน่อาจได้รับคำตอบจากวลีที่โด่งดังที่สุดวลีหนึ่งในประวัติศาสตร์ของศาลฎีกาสหรัฐฯซึ่งมักใช้ในกรณีที่ไม่มีคำจำกัดความที่เหมาะสม เช่น “ ฉันรู้เมื่อฉันเห็นมัน ” แม้ว่าคำจำกัดความของประสบการณ์มนุษย์ทั่วไป เช่น ความไว้วางใจ จะดูเข้าใจได้ง่าย แต่เพื่อตอบคำถามว่าความไว้วางใจสามารถนำไปใช้กับเทคโนโลยีได้อย่างไร เราต้องกำหนดคำจำกัดความของความไว้วางใจให้ถูกต้องเสียก่อน หัวข้อต่อไปนี้จะพยายามทำสิ่งนี้โดยพิจารณาองค์ประกอบหลายอย่างที่มีอยู่ในคำจำกัดความของความไว้วางใจส่วนใหญ่

โดยทั่วไปแล้วความไว้วางใจมักถูกกำหนดให้เป็นความเต็มใจของฝ่ายหนึ่งที่จะยอมอ่อนไหวต่อการกระทำของอีกฝ่ายหนึ่ง โดยอิงจากความคาดหวังบางประการเกี่ยวกับการกระทำของอีกฝ่ายหนึ่ง และไม่คำนึงถึงความสามารถในการตรวจสอบหรือควบคุมอีกฝ่ายนั้น ลักษณะสำคัญที่กำหนดความไว้วางใจคือความเสี่ยง ซึ่งหมายความว่าความไว้วางใจสามารถมีอยู่ได้ก็ต่อเมื่อมีความเสี่ยงจากอันตราย กล่าวอีกนัยหนึ่ง ความไว้วางใจคือการที่บุคคลหนึ่งเปิดเผยความเสี่ยงต่ออันตรายอาจจะทางร่างกายหรือจิตใจจากอีกฝ่ายโดยรู้ตัว 

ปัจจัยหลายประการที่ส่งผลต่อความไว้วางใจนั้นแบ่งออกเป็น 3 ประเภท ซึ่งเกี่ยวข้องกับผู้มอบความไว้วางใจ (ผู้ที่มอบความไว้วางใจ) ผู้ดูแลทรัพย์สิน (ผู้ที่ได้รับความไว้วางใจ) และบริบทที่ผู้มอบความไว้วางใจและผู้ดูแลทรัพย์สินดำรงอยู่ลักษณะของผู้ดูแลทรัพย์สินเกี่ยวข้องกับความน่าเชื่อถือของผู้ดูแลทรัพย์สิน รวมถึงความสามารถ ความเมตตากรุณา และความซื่อสัตย์สุจริตลักษณะเฉพาะของผู้มอบความไว้วางใจเกี่ยวข้องกับทุกสิ่งที่ส่งผลต่อการให้ความไว้วางใจของผู้มอบความไว้วางใจ เช่น นิสัยและการรับรู้ของพวกเขา และปัจจัยเชิงบริบทซึ่งส่งผลต่อทั้งผู้มอบความไว้วางใจและผู้ดูแลทรัพย์สินนั้นเกี่ยวข้องกับบริบทด้านสิ่งแวดล้อม สังคม และสถาบันที่กว้างขึ้น

องค์ประกอบหลักของคำจำกัดความของความไว้วางใจ นั่นก็คือ ความเสี่ยง บ่งบอกถึงความจำเป็นของความไว้วางใจที่เกี่ยวข้องกับอย่างน้อยสองฝ่าย ดังนั้น ความไว้วางใจจึงเป็นแบบสัมพันธ์กันคุณภาพแบบสัมพันธ์กันของความไว้วางใจมักจะก่อให้เกิดการตอบแทน อย่างไรก็ตาม การตอบแทนกันแม้ว่าจะพบได้ทั่วไปในความสัมพันธ์แบบไว้วางใจระหว่างบุคคล แต่ก็ไม่จำเป็นต้องเป็นลักษณะเฉพาะของความไว้วางใจ นอกจากการตอบแทนกันจะถูกละเว้นจากคำจำกัดความของความไว้วางใจส่วนใหญ่แล้ว การแสดงออกในบทสนทนาที่เป็นตัวอย่าง เช่น การไว้วางใจแบบปิดตาหรือการละเมิดความไว้วางใจ แสดงให้เห็นว่าการตอบแทนกันน่าจะเป็นผลข้างเคียงทั่วไปของความไว้วางใจ มากกว่าจะเป็นลักษณะเฉพาะของมัน ในบางกรณี ความไว้วางใจอาจเป็นแบบฝ่ายเดียว หรืออาจเกิดขึ้นโดยที่ผู้รับความไว้วางใจไม่รู้ตัวก็ได้ 

ดังนั้น แม้ว่าความสัมพันธ์แบบตอบแทนจะไม่จำเป็นต่อการดำรงอยู่ของความไว้วางใจ แต่องค์ประกอบเชิงสัมพันธ์ เช่น การเกี่ยวข้องกับสิ่งที่อยู่นอกตัวเราเอง มีความจำเป็น อย่างไรก็ตาม ในกรณีส่วนใหญ่ เมื่อคิดถึงความไว้วางใจ และโดยเฉพาะอย่างยิ่งเมื่อวัดความไว้วางใจ จะมีแนวคิดโดยนัยเกี่ยวกับมุมมองบุคคลที่หนึ่ง นั่นคือ ความสัมพันธ์ระหว่างประธานและกรรม การให้เหตุผลในลักษณะนี้ซึ่งมุ่งเน้นไปที่การรับรู้ของประธานเกี่ยวกับวัตถุ ทำให้สามารถไว้วางใจสิ่งที่ไม่ใช่มนุษย์ต่างๆ ที่ประธานอาจตกเป็นเหยื่อได้ เช่น สัตว์ องค์กร สถาบัน รัฐบาล และเทคโนโลยี ระดับของความสัมพันธ์แบบตอบแทนในความสัมพันธ์แบบตอบแทนเหล่านี้แตกต่างกันไป แม้ว่าเราสามารถสร้างความสัมพันธ์แบบตอบแทนกับสัตว์ที่ไม่ใช่มนุษย์ได้ แต่ก็อาจไม่ใช่กรณีเสมอไปสำหรับสถาบันหรือรัฐบาล และแน่นอนว่าไม่ใช่กรณีของเทคโนโลยีที่มีให้มนุษย์ใช้ในปัจจุบัน อย่างไรก็ตาม ไม่ใช่เรื่องที่ไม่น่าเชื่อที่การพัฒนาเทคโนโลยีเพิ่มเติมจะทำให้เกิดความสัมพันธ์แบบตอบแทนกับเทคโนโลยี โดยเฉพาะกับปัญญาประดิษฐ์ทั่วไป ซึ่งการถือกำเนิดของปัญญาประดิษฐ์ทั่วไปจะเพิ่มความซับซ้อนอีกชั้นหนึ่งให้กับความไว้วางใจในเทคโนโลยี

เมื่อได้กำหนดความไว้วางใจระหว่างบุคคลแล้ว เรามาพิจารณาว่าคำจำกัดความนี้อาจนำไปใช้กับวัตถุสัมพันธ์อื่นๆ ได้อย่างไร ตัวอย่างหนึ่งคือความไว้วางใจในสถาบันของรัฐต่างๆ ซึ่งเรียกอีกอย่างว่าความไว้วางใจทางการเมืองเช่นเดียวกับความไว้วางใจระหว่างบุคคล ความไว้วางใจประเภทนี้ถูกกำหนดไว้ในเอกสารว่าประกอบด้วยความมั่นใจในความสามารถและความเมตตากรุณาของผู้รับมอบอำนาจ (ในกรณีนี้คือของรัฐบาลหรือสถาบันของรัฐแห่งหนึ่ง) อย่างไรก็ตาม แม้ว่าการตอบแทนกันจะเป็นลักษณะหนึ่งของความไว้วางใจระหว่างบุคคล แต่ความไว้วางใจทางการเมืองกลับมีอยู่ไม่มากนัก ซึ่งอาจเป็นเพราะลักษณะทางอ้อมของความสัมพันธ์ที่มักปกปิดสัญญาณความไว้วางใจ ซึ่งมิฉะนั้นจะเห็นได้ชัดกว่าผ่านการสื่อสารโดยตรงซึ่งมักพบในบริบทระหว่างบุคคล 

ตัวอย่างเช่น สัญญาณของความไว้วางใจจากสถาบันต่างๆ ที่มีต่อประชาชน ซึ่งแสดงออกมาผ่านนโยบายและขั้นตอนการบริหารนั้น โปร่งใสกว่าสัญญาณของความไว้วางใจจากประชาชนที่มีต่อรัฐบาล ซึ่งมักจะไม่ชัดเจน เว้นแต่จะมีการถามประชาชนโดยตรงเกี่ยวกับความไว้วางใจทางการเมืองของพวกเขา ดังนั้น แม้ว่าความไว้วางใจที่มากขึ้นจากสถาบันต่างๆ ของรัฐบาลจะนำไปสู่ความไว้วางใจที่มากขึ้นสำหรับประชาชน แต่ก็มีแนวโน้มน้อยกว่าที่ความไว้วางใจทางการเมืองระดับสูงที่ประชาชนมอบให้กับรัฐบาลจะแปลเป็นความไว้วางใจระดับสูงที่รัฐบาลมอบให้กับประชาชน 

เหตุผลที่เป็นไปได้อีกประการหนึ่งสำหรับเรื่องนี้คืออำนาจ งานวิจัยก่อนหน้านี้ได้แสดงให้เห็นว่าเมื่อความสัมพันธ์มีความไม่เท่าเทียมกันของอำนาจ ความไว้วางใจของหน่วยงานที่มีอำนาจมากกว่าจะไม่เพิ่มขึ้นตามความไว้วางใจที่เพิ่มขึ้นของหน่วยงานที่มีอำนาจน้อยกว่า ตัวอย่างเช่น ในขณะที่การแสดงความไว้วางใจของหัวหน้างานจะเพิ่มความไว้วางใจของพนักงานที่มีต่อหัวหน้างาน แต่นั่นไม่ใช่กรณีของการแสดงความไว้วางใจของพนักงาน ในทางตรงกันข้าม สิ่งที่จะเพิ่มความไว้วางใจของหัวหน้างานคือคุณภาพของผลงานของพนักงาน มากกว่าที่พนักงานแสดงความไว้วางใจต่อหัวหน้างานตามที่คาดไว้ตามหลักการตอบแทนพูดง่ายๆ ก็คือ ดูเหมือนว่าในความสัมพันธ์ที่ไว้วางใจซึ่งมีลักษณะพลวัตของอำนาจที่ไม่เท่าเทียมกัน ฝ่ายที่มีอำนาจมากกว่าจะมีความสามารถมากกว่าในการกำหนดทิศทางของความไว้วางใจซึ่งกันและกันภายในความสัมพันธ์ กล่าวคือ ระดับความไว้วางใจของฝ่ายที่มีอำนาจมากกว่ามีแนวโน้มที่จะได้รับการตอบแทนจากฝ่ายที่มีอำนาจน้อยกว่ามากกว่าในทางกลับกัน 

สำหรับคำถามว่าเราไว้วางใจในเทคโนโลยีได้หรือไม่นั้น คล้ายกับการสรุปจากความไว้วางใจระหว่างบุคคลไปสู่ความไว้วางใจทางการเมือง มีความพยายามมากมายที่จะนำความไว้วางใจมาใช้ในการทำความเข้าใจความสัมพันธ์ระหว่างมนุษย์กับเทคโนโลยี ในทางกลับกัน เนื่องจากความเป็นไปไม่ได้ในการสร้างความสัมพันธ์แบบตอบแทนด้วยเทคโนโลยี บางคนจึงเห็นว่าแนวคิดเรื่องความไว้วางใจไม่สามารถใช้ได้ในบริบทนี้ อย่างไรก็ตาม ดังที่เห็นในหัวข้อก่อนหน้านี้ที่นิยามความไว้วางใจระหว่างบุคคลและทางการเมือง แม้ว่าการตอบแทนมักเกิดขึ้นในความสัมพันธ์แบบไว้วางใจ แต่ก็ไม่ใช่เงื่อนไขที่จำเป็นสำหรับความไว้วางใจ ดังที่เห็นได้ในกรณีที่ความไว้วางใจมีอยู่แม้ว่าจะไม่มีการตอบแทนก็ตาม ในขณะเดียวกันนักวิจารณ์แนวคิดความไว้วางใจในเทคโนโลยีโต้แย้งว่าเนื่องจากเทคโนโลยีไม่สามารถ "ทรยศ" เรา จึงไม่เหมาะสมที่จะกล่าวว่าเราสร้างความสัมพันธ์แบบไว้วางใจด้วยเทคโนโลยี ในทางกลับกัน เมื่อเทคโนโลยีล้มเหลว เทคโนโลยีกลับทำให้เราผิดหวัง เนื่องจากความไร้ความสามารถแทนที่จะทรยศเรา ซึ่งจะเป็นกรณีหากปัญหาอยู่ที่ความไม่เอื้ออาทรของเทคโนโลยี ดังนั้น นักวิจารณ์จึงโต้แย้งว่า ความสัมพันธ์ที่เรามีกับเทคโนโลยีควรเรียกอย่างถูกต้องว่าเป็นความสัมพันธ์ของการพึ่งพาอาศัยมากกว่าความไว้วางใจ กล่าวอีกนัยหนึ่ง แม้ว่าจะเห็นได้ชัดว่าองค์ประกอบความสามารถ เช่น ความเชื่อมั่นในความสามารถและความน่าเชื่อถือของเทคโนโลยี มีความสำคัญต่อวิธีที่เราในฐานะมนุษย์มีความสัมพันธ์กับเทคโนโลยี แต่ยังไม่ชัดเจนนักว่าความเชื่อมั่นในความเมตตากรุณาของผู้ดูแลผลประโยชน์นั้นสามารถนำไปใช้ในกรณีนี้ได้หรือไม่ ตามที่บางคนกล่าวไว้ เนื่องจากเทคโนโลยีเป็นวัตถุที่ไม่มีชีวิต ขาดเจตนาและการกระทำ เทคโนโลยีจึงไม่สามารถเป็นอันตรายหรือมีเมตตากรุณาได้ และด้วยเหตุนี้ จึงขาดองค์ประกอบสำคัญที่กำหนดผู้ดูแลผลประโยชน์

ไม่ว่าจะเป็นอย่างไรก็ตาม ในมุมมองของบุคคลที่หนึ่ง องค์ประกอบของความเมตตากรุณานั้นได้รับประสบการณ์โดยอัตวิสัย อุปนิสัย เช่นลักษณะบุคลิกภาพประสบการณ์ก่อนหน้าและการรับรู้ความเสี่ยงล้วนส่งผลต่อความเมตตากรุณาที่ผู้รับมอบอำนาจรับรู้ แม้ว่าสิ่งนี้อาจถือเป็นการฉายภาพ แต่มีแนวโน้มสูงที่ผู้มอบอำนาจจะมองว่าเทคโนโลยีมีความเมตตากรุณาในระดับที่แตกต่างกัน แม้ว่าเทคโนโลยีจะยังไม่มีจิตสำนึกและอำนาจหน้าที่ก็ตาม โดยเฉพาะอย่างยิ่งในปัจจุบัน เนื่องจากข้อมูลเกี่ยวกับกระบวนการพัฒนาและผู้ออกแบบเทคโนโลยีมักเปิดเผยต่อสาธารณะและเป็นที่รู้จักดี ดังนั้น จึงเป็นเรื่องปกติที่ผู้มอบอำนาจจะสรุปความประทับใจของตนเกี่ยวกับความเมตตากรุณาของบุคคลและองค์กรที่ออกแบบและพัฒนาเทคโนโลยีใหม่ ๆ ให้เป็นการรับรู้ความเมตตากรุณาของเทคโนโลยีเอง ภายใต้มุมมองที่ว่าเทคโนโลยีไม่มีค่าเป็นกลาง และคุณค่าของผู้ออกแบบถูกเข้ารหัสในเทคโนโลยีการแพร่กระจายของความเมตตากรุณาที่รับรู้จากผู้สร้างไปยังสิ่งประดิษฐ์จึงค่อนข้างสมเหตุสมผล 

ความน่าเชื่อถือในความสัมพันธ์ระหว่างมนุษย์กับเทคโนโลยีจะยิ่งเพิ่มมากขึ้นเมื่อเทคโนโลยีมีความคล้ายคลึงกับมนุษย์มากขึ้น โดยเฉพาะอย่างยิ่ง แอปพลิเคชัน AI มักได้รับการออกแบบให้เลียนแบบปฏิสัมพันธ์ทางสังคมของมนุษย์ เช่น ผ่านการใช้ภาษา บรรทัดฐานทางสังคมและสคริปต์ และแม้แต่ลักษณะทางกายภาพของ AI ที่เป็นรูปธรรมและหุ่นยนต์ที่มีรูปร่างเหมือนมนุษย์ ตัวเลือกการออกแบบดังกล่าวมีแนวโน้มที่จะมุ่งเน้นไปที่การเพิ่มความน่าเชื่อถือ เนื่องจากการวิจัยแสดงให้เห็นว่าการออกแบบ AI แบบมีรูปร่างเหมือนมนุษย์นั้นมีส่วนช่วยในการสร้างความน่าเชื่อถือเนื่องจากความคล้ายคลึงกันระหว่างบุคคลต่างๆ จะช่วยเพิ่มความน่าเชื่อถือแม้ว่ามนุษย์ส่วนใหญ่จะตระหนักถึงความจริงที่ว่าคอมพิวเตอร์ไม่ใช่มนุษย์ แต่เรามักจะทำให้คอมพิวเตอร์มีลักษณะเหมือนมนุษย์โดยไม่รู้ตัว เช่น คอมพิวเตอร์ "เหนื่อย" หรือ "สับสน" การทำให้มีลักษณะเหมือน มนุษย์ดังกล่าวจะเด่นชัดเป็นพิเศษเมื่อสัมผัสกับ AI เป็นเวลานาน 

ในขณะที่ข้อโต้แย้งที่ร่างขึ้นทั้งหมดเพื่อสนับสนุนความไว้วางใจซึ่งเป็นเลนส์ทางทฤษฎีที่เกี่ยวข้องซึ่งเราใช้สังเกตความสัมพันธ์ระหว่างมนุษย์กับ AI นั้นอ้างถึงเทคโนโลยีที่ใช้กันอย่างแพร่หลายอยู่แล้ว ข้อโต้แย้งอีกประการหนึ่งอาจอ้างถึงเทคโนโลยีที่กำลังจะมาถึง นั่นคือ ปัญญาประดิษฐ์ทั่วไปโดยเฉพาะอย่างยิ่ง เนื่องจากปัญญาประดิษฐ์ทั่วไปตามคำจำกัดความนั้นมีความสามารถเทียบเท่ามนุษย์ ความเอื้ออาทรของปัญญาประดิษฐ์ทั่วไป จึงมีความสำคัญเป็นพิเศษ ยิ่งไปกว่านั้น เส้นทางที่เทคโนโลยีใหม่นี้จะดำเนินไปในแง่ของจิตสำนึกและการกระทำที่เป็นอิสระนั้นยังไม่เป็นที่ทราบแน่ชัด ดังนั้น การรับรู้ความเสี่ยงจึงได้รับการเน้นย้ำ และหลายคนจึงไม่ไว้วางใจ ซึ่งเห็นได้จาก การถกเถียงใน สังคมที่แพร่หลาย

ความกังวลเฉพาะอย่างหนึ่งที่ปรากฏชัดขึ้นในวาทกรรมสาธารณะเกี่ยวกับความก้าวหน้าทางเทคโนโลยีอาจเรียกได้อย่างถูกต้องว่าลัทธิเทคโนโลยีใหม่ในขณะที่คำว่าลัทธิเทคโนโลยีมักใช้ในเชิงลบเพื่ออธิบายความกลัวอย่างไม่มีเหตุผลต่อความก้าวหน้าทางเทคโนโลยี แต่จากมุมมองทางประวัติศาสตร์จะเผยให้เห็นภาพที่แตกต่างออกไป กล่าวคือขบวนการลัทธิเทคโนโลยีเริ่มต้นขึ้นในช่วงต้นศตวรรษที่ 19 เพื่อประท้วงเครื่องจักรที่ประหยัดต้นทุนซึ่งทำให้คนงานในโรงงานและโรงสีไม่มีโอกาสในการทำงานและลดค่าจ้างด้วยการถือกำเนิดของลัทธิเทคโนโลยีใหม่ ซึ่งหมายถึงการทำงานส่วนใหญ่ที่เท่าเทียมหรือเหนือกว่ามนุษย์ความรู้สึกของลัทธิเทคโนโลยีใหม่เกี่ยวกับความกังวลเกี่ยวกับการแทนที่คนงานด้วยเทคโนโลยีใหม่จึงเพิ่มขึ้น โดยเฉพาะในกลุ่มคนงานที่ไม่มั่นคง

ทั้งนี้ ข้อโต้แย้งที่มีอยู่สำหรับและต่อต้านความเหมาะสมของความไว้วางใจในฐานะมุมมองที่ใช้ในการดูความสัมพันธ์ระหว่างมนุษย์และเทคโนโลยี จนถึงขณะนี้ การถกเถียงทางวิทยาศาสตร์มุ่งเน้นไปที่การขาดการตอบแทนและความเมตตากรุณาของเทคโนโลยีในฐานะข้อโต้แย้งที่ต่อต้านการรับรู้ความเสี่ยงและการออกแบบที่เลียนแบบมนุษย์เมื่อเทียบกับมุมมองบุคคลที่หนึ่งในฐานะข้อโต้แย้งที่สนับสนุนการใช้ความไว้วางใจเป็นเลนส์เชิงแนวคิดเพื่อทำความเข้าใจความสัมพันธ์ระหว่างมนุษย์และเทคโนโลยี บทความความเห็นนี้นำเสนอข้อโต้แย้งเพิ่มเติมสามข้อที่สนับสนุนความเกี่ยวข้องของความไว้วางใจในเทคโนโลยี ซึ่งอธิบายความไม่ไว้วางใจที่สังเกตได้ในเทคโนโลยีใหม่ ๆ ระหว่างกลุ่มต่าง ๆ ของสังคมในเวลาเดียวกัน ข้อโต้แย้งข้อแรกเกี่ยวข้องกับวิธีที่ความไว้วางใจ (ที่ผิด) ในตัวบุคคลและ/หรือองค์กรที่เกี่ยวข้องกับการพัฒนาเทคโนโลยีบางอย่าง "กำหนด" การรับรู้และกำหนดความไว้วางใจ (ที่ผิด) ในเทคโนโลยีเอง ข้อโต้แย้งเพิ่มเติมอีกสองข้อเกี่ยวข้องกับการเกิดขึ้นของปัญญาประดิษฐ์ทั่วไปกล่าวคือ วิวัฒนาการของ AI ที่ชัดเจนในทิศทางของความเป็นอิสระที่เพิ่มขึ้น ซึ่งเพิ่มความคล้ายคลึงกับผู้ดูแลที่เป็นมนุษย์ และความกังวลเกี่ยวกับผลที่ตามมาของการพัฒนา AI ต่อสังคม เช่น ความสามารถในการทดแทนแรงงาน โดยสรุป ความไว้วางใจดูเหมือนจะสามารถนำไปใช้ได้กับความสัมพันธ์ระหว่างมนุษย์กับเทคโนโลยีในระดับหนึ่ง และยังสามารถนำไปใช้ได้กับการพัฒนาเทคโนโลยีใหม่ๆ ที่เกิดขึ้นอีกด้วย ยิ่งเทคโนโลยีถูกทำให้มีลักษณะเหมือนมนุษย์และบูรณาการมากขึ้นในชีวิตทางสังคมมากเท่าไร การทำความเข้าใจความสัมพันธ์ของเรากับเทคโนโลยีโดยใช้โครงสร้างทางจิตวิทยาสังคม เช่น ความไว้วางใจก็ยิ่งเหมาะสมมากขึ้นเท่านั้น อย่างไรก็ตาม เมื่อพิจารณาถึงความหลากหลายในมิติและอัตวิสัยของความไว้วางใจตามที่ได้สรุปไว้ในบทความนี้ จึงเป็นที่น่าสงสัยว่าความพยายามในการพัฒนา "AI ที่เชื่อถือได้" จะบรรลุผลได้หรือไม่ ในทำนองเดียวกันความพยายามในการควบคุมความน่าเชื่อถือของ AI อาจไม่สามารถบรรลุคำมั่นสัญญาในการบรรลุเป้าหมายอันสูงส่งนี้ได้ เนื่องจากการทำให้ความไว้วางใจเทียบเท่ากับการยอมรับความเสี่ยง ซึ่งตามที่ได้กล่าวไว้ที่นี่ เป็นเพียงองค์ประกอบหนึ่งของความไว้วางใจเท่านั้น ซึ่งอาจทำให้เข้าใจผิดได้ เนื่องจากเป็นการรวมเอาการยอมรับความเสี่ยงตามที่ผู้เชี่ยวชาญในสาขากำหนดเข้ากับความไว้วางใจซึ่งเป็นปรากฏการณ์ที่เปลี่ยนแปลงได้และขึ้นอยู่กับบริบทอย่างมาก ซึ่งไม่สามารถกำหนดนิยามได้อย่างเป็นกลาง ซึ่งจะให้เหตุผลในการอนุมัติตามกฎหมาย


การใช้ปัญญาประดิษฐ์กับกฎหมายคุ้มครองข้อมูลส่วนบุคคลในสหภาพยุโรป

 ความคิดเห็นของอัยการสูงสุดเดอ ลา ตูร์ (AG de la Tour) ในคดี CK v Dun & Bradstreet Austria ที่เผยแพร่ในเดือนกันยายน 2024 ทำให้การอภิปรายเกี่ยวกับการตีความสิทธิของเจ้าของข้อมูลในการเข้าถึง "ข้อมูลที่มีความหมายเกี่ยวกับตรรกะที่เกี่ยวข้อง" ในการประมวลผลข้อมูลอัตโนมัติมีความชัดเจนมากขึ้น (มาตรา 15(1)(h) กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป) ในคดีก่อนหน้านี้ที่เกี่ยวข้องกับการประเมินความน่าเชื่อถือด้านเครดิตโดยอัตโนมัติในคดี OQ v Schufa Holding ความคิดเห็นของอัยการสูงสุด Pikamäe ได้ให้แสดงความเห็นเป็นนัยเกี่ยวกับขอบเขตของสิทธินี้แล้ว อย่างไรก็ตาม เนื่องจากคำถามหลักในคดีนั้นไม่เกี่ยวข้องกับการตีความมาตรา 15(1)(h) กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ศาลยุติธรรมแห่งสหภาพยุโรปจึงงดเว้นการชั่งน้ำหนักในเรื่องนี้ในการตัดสินขั้นสุดท้าย ในครั้งนี้ มีการคาดหวังได้ว่าศาลยุติธรรมแห่งสหภาพยุโรปจะกำหนดจุดยืนในเรื่องนี้ว่าสอดคล้องกับความคิดเห็นของอัยการสูงสุดหรือไม่

การวิเคราะห์ของอัยการสูงสุดเดอ ลา ตูร์เกี่ยวกับ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ตามมาตรา 15(1)(h) เพียงอย่างเดียวก็ให้รายละเอียดในระดับที่น่าพอใจในช่วงเวลาที่การตัดสินใจตามอัลกอริทึมหรืออัตโนมัติเป็นแนวโน้มที่เพิ่มขึ้นในอุตสาหกรรมต่างๆ ในขณะเดียวกัน ผู้มีส่วนได้ส่วนเสียก็มีความเห็นไม่ตรงกันว่าบุคคลที่ต้องตัดสินใจควรทราบเกี่ยวกับกระบวนการตัดสินใจตามอัลกอริทึมที่ส่งผลกระทบต่อพวกเขามากเพียงใด ทั้งนี้ โดยไม่คำนึงถึงความเห็นทางวิชาการจำนวนมากเกี่ยวกับเรื่อง "สิทธิในการได้รับคำอธิบาย" ตาม กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ซึ่งยิ่งเน้นย้ำถึงความเกี่ยวข้องของความคิดเห็นของอัยการสูงสุดนี้

หัวใจสำคัญของคำร้องขอการพิจารณาเบื้องต้นนี้คือการที่ผู้ให้บริการโทรศัพท์มือถือของออสเตรียปฏิเสธที่จะทำสัญญาโทรศัพท์ราคา 10 ยูโรต่อเดือน โดยให้เหตุผลว่าผู้ยื่นคำร้องไม่มีความน่าเชื่อถือทางการเงินเพียงพอ เมื่อผู้ยื่นคำร้องอาศัย กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป มาตรา 15(1)(h) หันไปขอความช่วยเหลือจากผู้ให้บริการประเมินเครดิตเพื่อทำความเข้าใจคะแนนเครดิตของตนเอง เธอกลับได้รับข้อมูลเพียงเล็กน้อย ข้อมูลที่เธอได้รับบ่งชี้ว่ามีคะแนนเครดิตค่อนข้างดี ซึ่งขัดแย้งกับการที่เธอไม่ได้รับแผนโทรศัพท์ราคา 10 ยูโรต่อเดือน ผู้ให้บริการประเมินเครดิตปฏิเสธที่จะให้ข้อมูลเพิ่มเติมใดๆ ส่งผลให้ผู้ยื่นคำร้องยื่นเรื่องต่อศาลยุติธรรมแห่งสหภาพยุโรป

ศาลในประเทศได้ส่งคำถามหลักสองข้อไปยังศาลยุติธรรมแห่งสหภาพยุโรป ประการแรก จะตีความภาระหน้าที่ของผู้ควบคุมข้อมูลในการจัดเตรียม "ข้อมูลที่มีความหมายเกี่ยวกับตรรกะที่เกี่ยวข้อง" ในการตัดสินใจอัตโนมัติตามมาตรา 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ได้อย่างไร ประการที่สอง ผู้ควบคุมข้อมูลสามารถพึ่งพาการปกป้องสิทธิหรือเสรีภาพของผู้อื่น เช่น การปกป้องความลับทางการค้า เป็นพื้นฐานในการจำกัดการเข้าถึงข้อมูลที่เจ้าของข้อมูลมีสิทธิได้ในระดับใด

ตามมาตรา 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป เจ้าของข้อมูลมีสิทธิที่จะขอข้อมูลจากผู้ควบคุมเกี่ยวกับการมีอยู่ของการตัดสินใจอัตโนมัติ รวมถึงการสร้างโปรไฟล์ ซึ่งอ้างถึงในมาตรา 22(1) และ (4) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป อย่างน้อยในกรณีดังกล่าว สิทธินี้หมายความถึงการให้ข้อมูลที่สำคัญเกี่ยวกับตรรกะที่เกี่ยวข้อง ตลอดจนความสำคัญและผลที่คาดว่าจะเกิดขึ้นจากการประมวลผลข้อมูลส่วนบุคคลสำหรับเจ้าของข้อมูล ในการจัดการกับบทบัญญัตินี้ อัยการสูงสุดเดอ ลา ตูร์เริ่มต้นจากจุดที่อัยการสูงสุด Pikamäe ละเว้นในความเห็นในคดี OQ v Schufa Holding โดยระบุว่า 'ภาระผูกพันในการให้ "ข้อมูลที่มีความสำคัญเกี่ยวกับตรรกะที่เกี่ยวข้อง" จะต้องรวมถึงคำอธิบายโดยละเอียดเพียงพอเกี่ยวกับวิธีการที่ใช้ในการคำนวณคะแนนและเหตุผลของผลลัพธ์บางอย่าง' จากนั้นจึงเสนอการตีความอย่างเจาะลึกและเป็นระบบของบทความ 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป

อัยการสูงสุดเดอ ลา ตูร์เริ่มอธิบายมาตรา 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป โดยกำหนดจุดประสงค์เบื้องหลังสิทธิในการเข้าถึงข้อมูล และเน้นย้ำว่าจุดประสงค์ทั่วไปของสิทธิในการรับข้อมูลภายใต้มาตรา 15 ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป คือเพื่อให้เจ้าของข้อมูลสามารถใช้สิทธิอื่นๆ ของตนที่บัญญัติไว้ใน กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ได้อย่างมีประสิทธิภาพ ตามที่อัยการสูงสุดเดอ ลา ตูร์กล่าว สิทธิในการเข้าถึงข้อมูลที่ระบุไว้ในมาตรา 15(1)(h) 'ต้องทำให้เจ้าของข้อมูลสามารถใช้สิทธิที่มอบให้บุคคลตามมาตรา 22 ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป' มาตรา 22(3)  ซึ่งคาดการณ์ไว้อย่างน้อยสามสิทธิที่เป็นรูปธรรมที่ควรมอบให้กับเจ้าของข้อมูลในการตัดสินใจโดยอิงจากการประมวลผลข้อมูลอัตโนมัติเท่านั้น สิทธิในการขอให้ผู้ควบคุมข้อมูลเข้ามาแทรกแซง สิทธิในการแสดงจุดยืนของตน และสิทธิในการโต้แย้งการตัดสินใจ ดังนั้น ในการตีความขอบเขตของมาตรา 15(1)(h) ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป เป้าหมายที่แสวงหาโดยมาตรา 22 ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป มีบทบาทสำคัญ เพื่อปกป้องเจ้าของข้อมูลจากภัยคุกคามที่เกี่ยวข้องกับการตัดสินใจอัตโนมัติเพียงอย่างเดียว และทำให้พวกเขาสามารถใช้สิทธิที่เกี่ยวข้องของตนได้ ที่คล้ายคลึงกับลักษณะเฉพาะที่ Selbst และ Powles กำหนดให้ใช้กับคำว่า "มีความหมาย" ในปี 2017 อัยการสูงสุดเดอ ลา ตูร์เรียกร้องให้มีการทำความเข้าใจเชิงหน้าที่เกี่ยวกับสิ่งที่ประกอบเป็น "ข้อมูลที่มีความหมายเกี่ยวกับตรรกะที่เกี่ยวข้อง" ในมาตรา 15(1)(h) กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป เมื่อพิจารณาถึงจุดประสงค์ของบทบัญญัตินี้ ที่สรุปว่าการทำความเข้าใจเชิงหน้าที่เกี่ยวกับ "ข้อมูลที่มีความหมาย" หมายถึงอะไรในแง่ของรูปแบบและสาระสำคัญ

เมื่อกล่าวถึงรูปแบบ อัยการสูงสุดเดอ ลา ตูร์ได้ให้คำอธิบายที่ค่อนข้างชัดเจนเกี่ยวกับการมีอยู่ของ 'สิทธิในการอธิบาย' ใน กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป เขายืนยันว่าบุคคลที่เกี่ยวข้องกับข้อมูลมี 'สิทธิในการอธิบายอย่างแท้จริงเกี่ยวกับกลไกการทำงานที่เกี่ยวข้องกับการตัดสินใจอัตโนมัติซึ่งบุคคลนั้นเป็นเป้าหมายและผลของการตัดสินใจนั้น' ถือว่าคำอธิบายเป็นส่วนหนึ่งของสิทธิในการเข้าถึงข้อมูล เนื่องจากช่วยรับประกันว่าข้อมูลที่ให้มามีคุณค่าด้วยเหตุผลสองประการ ประการแรก คำอธิบายทำให้ข้อมูลที่ให้มาแก่บุคคลที่เกี่ยวข้องกับข้อมูลนั้นเข้าใจได้สำหรับพวกเขา กล่าวอีกนัยหนึ่ง คำอธิบายช่วยให้แน่ใจว่าข้อมูลที่ให้ไว้ภายใต้ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป มาตรา 15(1)(h) นั้นกระชับ เข้าถึงได้ง่าย เข้าใจง่าย และนำเสนอด้วยภาษาที่ชัดเจนและเรียบง่าย ประการที่สอง คำอธิบายให้ความเข้าใจตามบริบทเกี่ยวกับวิธีการประมวลผลข้อมูลส่วนบุคคลของบุคคลที่เกี่ยวข้องกับข้อมูล ดังนั้น แม้ว่ามาตรา 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป จะกำหนดให้เจ้าของข้อมูลมีสิทธิเข้าถึง "ข้อมูลที่มีความหมาย" แต่สิทธิในการเข้าถึงนี้จำเป็นต้องมี "สิทธิในการขอคำอธิบาย" จึงสรุปได้ว่าข้อมูลที่ไม่สามารถเข้าใจได้และไม่ได้คำนึงถึงบริบทนั้นไม่สามารถถือเป็นข้อมูล "ที่มีความหมาย" จากมุมมองของเจ้าของข้อมูลและจุดมุ่งหมายของบทบัญญัติได้

หลังจากยืนยันการมีอยู่และขอบเขตของสิทธิในการขอคำอธิบายแล้ว อัยการสูงสุดเดอ ลา ตูร์จะดำเนินการให้คำแนะนำเกี่ยวกับคุณภาพเนื้อหาที่คาดหวังจากคำอธิบายนี้ คำอธิบายควรทำให้ผู้มีส่วนได้ส่วนเสียสามารถตรวจสอบ "ความสอดคล้องและความเชื่อมโยงเชิงสาเหตุระหว่างวิธีการและเกณฑ์ที่ใช้และผลลัพธ์ที่ได้จากการตัดสินใจอัตโนมัติ" ได้อย่างเป็นรูปธรรม ดังนั้น ข้อมูลที่ให้มาควรทำให้ผู้มีส่วนได้ส่วนเสียสามารถตรวจสอบความถูกต้องของข้อมูลที่กำลังประมวลผลได้ ตลอดจนตรวจสอบว่าข้อมูลสามารถนำไปสู่ผลลัพธ์เฉพาะที่เกี่ยวข้องกับข้อมูลได้หรือไม่โดยใช้การประมวลผลอัตโนมัติที่ผู้ควบคุมอธิบายไว้ อย่างไรก็ตาม อัยการสูงสุดเดอ ลา ตูร์พบว่าสิทธิที่ระบุไว้ในมาตรา 15(1)(h) ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ไม่จำเป็นต้องเปิดเผยอัลกอริทึมให้กับผู้มีส่วนได้ส่วนเสียทราบ ท้ายที่สุดแล้ว อัลกอริทึมอาจมีความซับซ้อนมากจนผู้ที่ขาดความเชี่ยวชาญด้านเทคนิคที่จำเป็นไม่สามารถเข้าใจได้ 

แม้ว่าจะมีคำชี้แจงมากมาย แต่ความเห็นของอัยการสูงสุดคนนี้ก็ยังคงสงสัยว่าจะประสานข้อกำหนดที่เสนอสำหรับรูปแบบของคำอธิบายได้อย่างไร กับข้อกำหนดเชิงเนื้อหาที่ว่าข้อมูลจะต้องมี “ความสอดคล้องที่ตรวจสอบได้อย่างเป็นกลางและความเชื่อมโยงเชิงสาเหตุ” ระหว่างวิธีการและเกณฑ์ที่ใช้ในการประมวลผลและผลลัพธ์อัตโนมัติ ความเป็นไปได้อย่างหนึ่งที่กล่าวถึงในความเห็นคือการให้ตัวอย่างการประมวลผลที่คล้ายคลึงกันโดยไม่เปิดเผยชื่อแก่ผู้มีส่วนได้ส่วนเสียโดยใช้การเปรียบเทียบ ซึ่งคล้ายกับวิธีการให้เหตุผลตามกรณีที่ใช้เพื่อให้เข้าใจอัลกอริทึมที่ซับซ้อนโดยนำเสนอกรณีที่เปรียบเทียบได้เป็นจุดอ้างอิงสำหรับผลลัพธ์เฉพาะ แม้ว่าตัวอย่างดังกล่าวอาจช่วยให้ผู้มีส่วนได้ส่วนเสียสามารถจัดบริบทของข้อมูลที่ให้มาได้ดีขึ้น แต่ก็อาจไม่เป็นไปตามเกณฑ์ของการตรวจสอบอย่างเป็นกลางของผลลัพธ์เฉพาะที่เกี่ยวกับผู้มีส่วนได้ส่วนเสีย เนื่องจากตัวอย่างเหล่านี้ไม่ได้เชื่อมโยงกับการตัดสินใจเฉพาะนั้น เกณฑ์นี้อาจบรรลุได้ยากเมื่อใช้อัลกอริทึมที่ซับซ้อนซึ่งความสามารถในการตีความและความแม่นยำมักไม่สอดคล้องกัน ในกรณีนี้ สามารถพูดได้เพียงว่าต้องปรับปรุงความสามารถในการตีความของอัลกอริทึมเท่านั้น ไม่ใช่บรรลุถึงความสามารถในการตีความของอัลกอริทึม  

ความไม่ชัดเจนระหว่างข้อกำหนดเกี่ยวกับรูปแบบและสาระสำคัญของคำอธิบายอาจชัดเจนยิ่งขึ้นสำหรับการตัดสินใจที่เป็นผลสืบเนื่อง เช่น การประเมินเครดิตหรือการตัดสินใจทางการบริหารเกี่ยวกับการแจกจ่ายผลประโยชน์ การจัดสรรใบอนุญาต ฯลฯ มากกว่าการตัดสินใจเกี่ยวกับโฆษณาที่กำหนดเป้าหมายหรือคำแนะนำเพลง ผลที่อาจเกิดขึ้นจากการที่ ศาลยุติธรรมแห่งสหภาพยุโรป กำหนดเกณฑ์การตรวจสอบที่เป็นกลางอาจทำให้การตัดสินใจที่เป็นผลสืบเนื่องดังกล่าวในอนาคตทำขึ้นโดยใช้อัลกอริทึมที่ซับซ้อนน้อยกว่าหรือออกแบบให้ตีความได้ หากคำอธิบายสำหรับอัลกอริทึมที่ซับซ้อนไม่สามารถบรรลุเกณฑ์การตรวจสอบที่เป็นกลางได้ ในทางทฤษฎีแล้ว เรื่องนี้สามารถชดเชยได้ด้วยสิทธิของเจ้าของข้อมูลในการขอให้มนุษย์เข้ามาแทรกแซงแทนผู้ควบคุม (มาตรา 22(3) กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป) อย่างไรก็ตาม นี่ไม่ใช่แนวทางแก้ไขความตึงเครียดที่สังเกตได้อย่างแท้จริง ในทางที่ดีที่สุด เป็นเพียงการแก้ปัญหาชั่วคราวเท่านั้น

หากศาลยุติธรรมแห่งสหภาพยุโรปยืนหยัดตามการวิเคราะห์ของอัยการเดอ ลา ตูร์ คำถามเกี่ยวกับสิทธิในการอธิบายตาม กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ซึ่งจนถึงขณะนี้ยังเป็นประเด็นที่มีการคาดเดากันก็สามารถให้คำตอบที่ชัดเจนได้สามประการประการแรก สามารถตรวจสอบได้ว่าสิทธิในการอธิบายนั้นถือเป็นส่วนหนึ่งของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรปหรือไม่ และหากเป็นเช่นนั้น สิทธิดังกล่าวมีที่มาจากที่ใด จนถึงขณะนี้ ทฤษฎีเกี่ยวกับแหล่งที่มาของสิทธิดังกล่าวครอบคลุมถึงมาตรา 13(2)(f), 14(2)(g), 15(1)(h) และ 22(3) และมาตรา 71 ของ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ความคิดเห็นของอัยการสูงสุดเดอ ลา ตูร์โต้แย้งได้อย่างน่าเชื่อว่าสิทธิในการอธิบายนั้นโดยปริยายอยู่ในสิทธิในการเข้าถึงข้อมูลที่กำหนดไว้ในมาตรา 15(1)(h) ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป ในทางกลับกัน มาตรา 22 ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป นั้นมีความเกี่ยวข้องอย่างแยกไม่ออก ดังนั้น ศาลยุติธรรมแห่งสหภาพยุโรป จึงสามารถถือว่าสิทธิในการอธิบายนั้นเกิดขึ้นจากการรวมกันของบทบัญญัติทั้งสองนี้

ประการที่สอง ศาลยุติธรรมแห่งสหภาพยุโรปสามารถตอบคำถามที่ว่าบุคคลที่เกี่ยวข้องกับข้อมูลมีสิทธิได้รับคำอธิบายเกี่ยวกับการทำงานของระบบอัตโนมัติเท่านั้นหรือไม่ หรือรวมถึงข้อมูลเกี่ยวกับเหตุผลที่ตัดสินใจเฉพาะเจาะจงด้วยหรือไม่ คำตอบดังกล่าวได้รับการเสนอแนะแล้วในความเห็นของอัยการสูงสุด Pikamäe ในคดี OQ v Schufa Holding และขณะนี้ อัยการสูงสุดเดอ ลา ตูร์ก็เห็นด้วยกับคำตอบดังกล่าวแล้ว โดยคำอธิบายดังกล่าวควรมีข้อมูลเกี่ยวกับการทำงานของระบบอัตโนมัติ ตลอดจนเหตุผลของผลลัพธ์บางประการ

ประการที่สาม ศาลยุติธรรมแห่งสหภาพยุโรปสามารถให้คำตอบสำหรับสิ่งที่ควรเข้าใจว่าเป็น 'ข้อมูลที่มีความหมายเกี่ยวกับตรรกะที่เกี่ยวข้อง' ในการตัดสินใจอัตโนมัติ ความคิดเห็นของอัยการสูงสุดเดอ ลา ตูร์ระบุว่าข้อมูลนี้ควรเข้าถึงได้สมบูรณ์เพียงพอ และมีบริบทที่เกี่ยวข้อง รวมถึงรายละเอียดเกี่ยวกับกระบวนการที่นำไปสู่การตัดสินใจอัตโนมัติ และมีเหตุผลสำหรับผลลัพธ์ของการตัดสินใจ นอกจากนี้ ยังเสนอมาตรวัดสำหรับการวัดว่าข้อมูลที่ให้ไว้ตามมาตรา 15(1)(h) ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป นั้นเพียงพอหรือไม่ โดยในฐานะมาตรวัดนั้น พร้อมทั้งเสนอว่าข้อมูลควรสามารถตรวจสอบความสอดคล้องและความเชื่อมโยงเชิงสาเหตุระหว่างตรรกะที่เกี่ยวข้องในการประมวลผลอัตโนมัติและผลลัพธ์ที่ระบบได้มาได้อย่างเป็นรูปธรรม

ดังนั้น ความคิดเห็นของอัยการสูงสุดเดอ ลา ตูร์จึงให้ความชัดเจนพอสมควรเกี่ยวกับคำถามที่วนเวียนอยู่ในวงอภิปรายทางวิชาการเกี่ยวกับการมีอยู่และขอบเขตของสิทธิในการขอคำอธิบายในกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป หวังว่าเมื่อเขียนคำพิพากษา ศาลยุติธรรมแห่งสหภาพยุโรปจะใช้ข้อโต้แย้งที่อัยการสูงสุดเดอ ลา ตูร์เสนอมา ตลอดจนชี้แจงว่าควรทำอย่างไรกับความตึงเครียดโดยธรรมชาติระหว่างข้อกำหนดที่กำหนดไว้สำหรับรูปแบบและสาระสำคัญของคำอธิบายตามมาตรา 15(1)(h) ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป


ประมวลจรรยาบรรณ AI ในสหภาพยุโรป

 โมเดล Generative AI (GAI) ได้รับความสนใจอย่างมากจากทั่วโลกด้วยการเปิดตัวChatGPT ของ OpenAI ในช่วงปลายปี 2022 การพัฒนานี้ถือเป็นจุดเปลี่ยนที่ทำให้โมเดล GAI กลายเป็นหมวดหมู่ที่แตกต่างไปจากโมเดลอื่นๆ ในวาทกรรม AI เป็นผลให้โมเดล AI ที่เคยถูกมองว่าล้ำสมัยกลับถูกเรียกว่า "แบบดั้งเดิม" ในทางกฎหมายแม้ว่าจะเป็นนวัตกรรมใหม่ล่าสุดก็ตาม สถานการณ์นี้ควรทำความเข้าใจความแตกต่างระหว่างโมเดล AI "แบบดั้งเดิม" และโมเดล Generative AI (GAI) อย่างชัดเจน ความแตกต่างหลักอยู่ที่ความสามารถของ GAI ในการทำงานที่หลากหลายโดยการสร้างภาษาที่คล้ายกับมนุษย์ แทนที่จะถูกจำกัดอยู่แค่การสร้างการคาดการณ์หรือคะแนนเท่านั้น โดยพื้นฐานแล้ว โมเดล AI แบบดั้งเดิมได้รับการออกแบบมาสำหรับงานเฉพาะทางที่มีเอาต์พุตเฉพาะ ในขณะที่โมเดล GAI สามารถสร้างภาษาและการตอบสนองที่มีความละเอียดอ่อนและเหมาะสมกับบริบทในสถานการณ์ต่างๆ ได้ ซึ่งคล้ายกับการสื่อสารของมนุษย์ ใน Recitals 99 กฎหมาย AI ถือว่าโมเดล GAI เป็นโมเดล AI เอนกประสงค์ประเภทหนึ่ง และระบุคุณลักษณะสำคัญ 2 ประการ คือ (1) ลักษณะทั่วไปและ  (2) ความสามารถซึ่งแตกต่างจากระบบ AI แบบ "ดั้งเดิม"

ความแตกต่างนี้ส่งผลให้สำนักงาน AI ของยุโรปเผยแพร่ ร่างจรรยาบรรณฉบับแรก ซึ่งมีวัตถุประสงค์เพื่อให้คำแนะนำเกี่ยวกับการปฏิบัติตามภาระผูกพันที่ระบุไว้ในมาตรา 53 และ 55 ของกฎหมาย AI สำหรับผู้ให้บริการโมเดล AI วัตถุประสงค์ทั่วไปและโมเดล AI วัตถุประสงค์ทั่วไปที่มีความเสี่ยงเชิงระบบ จรรยาบรรณดังกล่าวเป็นเอกสารที่ให้คำแนะนำ มีลักษณะเป็นพลวัต และเป็นสะพานเชื่อมระหว่างการนำมาตรฐานของสหภาพยุโรปที่สอดประสานกันสำหรับโมเดล AI ประเภทนี้มาใช้งาน

เพื่อให้สอดคล้องกับข้อกำหนดของกฎหมาย AI ฉบับสุดท้ายมีกำหนดเผยแพร่ในวันที่ 1 พฤษภาคม 2025 ซึ่งถือเป็นก้าวสำคัญในการกำหนดกรอบการกำกับดูแลสำหรับ AI ทั่วไป โค้ดดังกล่าวสร้างขึ้นโดยกลุ่มผู้เชี่ยวชาญ อิสระที่หลากหลาย จากอุตสาหกรรม สถาบันการศึกษา และภาคประชาสังคม โดยเป็นแนวทางองค์รวมในการกำหนดกรอบการกำกับดูแล AI นอกจากนี้ โค้ดยังรวมข้อมูลเชิงลึกจากกรอบงานระหว่างประเทศ ซึ่งเน้นย้ำถึงความมุ่งมั่นในการสร้างความร่วมมือและการปรับแนวทางในระดับโลก โดยทั่วไปแล้ว โค้ดจะกำหนดหลักการและวัตถุประสงค์ที่เป็นแนวทาง โดยให้ผู้มีส่วนได้ส่วนเสียมีวิสัยทัศน์ที่ชัดเจนเกี่ยวกับโครงสร้างและเนื้อหาที่เป็นไปได้ของร่างฉบับสุดท้าย ซึ่งถือเป็นก้าวสำคัญของสำนักงาน AI ของยุโรป เนื่องจากความสามารถขั้นสูงและการนำไปใช้ในวงกว้างของโมเดล GAI นำมาซึ่งความไม่แน่นอนโดยธรรมชาติในผลลัพธ์ของโมเดล ซึ่งก่อให้เกิดความท้าทายที่ไม่เหมือนใครในการทำความเข้าใจและจัดการพฤติกรรมของโมเดล นอกจากนี้ ข้อกังวลทางกฎหมายที่เกี่ยวข้องกับโมเดล GAI ยังครอบคลุมในวงกว้าง รวมถึงปัญหาที่เกี่ยวข้องกับความเป็นส่วนตัวและการปกป้องข้อมูล ความรับผิดต่อผลลัพธ์ สิทธิในทรัพย์สินทางปัญญา และปัญหาความปลอดภัยทางไซเบอร์

ประมวลกฎหมายนี้พิจารณาถึงข้อกังวลทางกฎหมายเหล่านี้และจัดเป็น 4 ด้านหลัก ได้แก่ (1) กฎเกณฑ์ด้านความโปร่งใสและลิขสิทธิ์ (2) การระบุและประเมินความเสี่ยงสำหรับความเสี่ยงเชิงระบบ (3) การลดความเสี่ยงทางเทคนิคสำหรับความเสี่ยงเชิงระบบ และ (4) การลดความเสี่ยงด้านการกำกับดูแลสำหรับความเสี่ยงเชิงระบบ องค์ประกอบเหล่านี้ทำงานร่วมกันเพื่อส่งเสริมนวัตกรรมในขณะที่จัดการกับความท้าทายด้านจริยธรรมและความปลอดภัยที่เกี่ยวข้องกับ AI

หลักเกณฑ์ 6 ประการเป็นพื้นฐานของจรรยาบรรณ ประกอบด้วย ประการแรก จรรยาบรรณจะรับรองความสอดคล้องกับกฎหมายและค่านิยมของสหภาพยุโรป รวมถึงกฎบัตรว่าด้วยสิทธิขั้นพื้นฐาน ประการที่สอง จรรยาบรรณจะบูรณาการมาตรฐานสากลและแนวทางปฏิบัติที่ดีที่สุดในระดับโลก ส่งเสริมแนวทางการทำงานร่วมกันในการกำกับดูแล (มาตรา 56(1) ของกฎหมาย AI) ประการที่สาม เน้นย้ำถึงความได้สัดส่วน โดยกำหนดให้มาตรการต่างๆ สอดคล้องกับระดับความเสี่ยง หลักการนี้เกี่ยวข้องกับการทดสอบสำคัญ 2 ประการ ได้แก่ (1) ความเหมาะสม และ (2) ความจำเป็นของมาตรการ ซึ่งทั้งสองประการนี้ยังมีช่องว่างในการตีความอย่างมาก ประการที่สี่ จรรยาบรรณมุ่งมั่นที่จะรองรับอนาคต โดยให้มีความยืดหยุ่นและปรับตัวได้ตามวิวัฒนาการของเทคโนโลยี AI ประการที่ห้า จรรยาบรรณให้การสนับสนุนวิสาหกิจขนาดกลางและขนาดย่อม (SMEs) โดยลดความซับซ้อนของข้อกำหนดการปฏิบัติตาม และประการสุดท้าย จรรยาบรรณมีเป้าหมายเพื่อส่งเสริมระบบนิเวศความปลอดภัย AI ที่แข็งแกร่ง ส่งเสริมความโปร่งใสและความร่วมมือระหว่างผู้มีส่วนได้ส่วนเสียต่างๆ

นอกจากนี้ ความโปร่งใสและการปฏิบัติตามลิขสิทธิ์ถือเป็นหัวใจสำคัญของกฎหมายฉบับนี้ ผู้ให้บริการต้องจัดทำเอกสารรายละเอียดเกี่ยวกับโมเดล AI ของตน เพื่อให้แน่ใจว่าสำนักงาน AI และหน่วยงานที่มีอำนาจหน้าที่ระดับชาติและผู้ให้บริการปลายน้ำสามารถเข้าถึงได้ การปฏิบัติตามลิขสิทธิ์ยังเป็นสิ่งสำคัญ โดยผู้ให้บริการคาดว่าจะต้องปฏิบัติตามข้อยกเว้นการขุดข้อความและข้อมูลของสหภาพยุโรป และกำหนดนโยบายที่ชัดเจนในการจัดการปัญหาลิขสิทธิ์ กลไกการรายงานที่โปร่งใส รวมถึงบทบัญญัติสำหรับการจัดการด้านลิขสิทธิ์ ถือเป็นส่วนสำคัญของกระบวนการนี้

ที่สำคัญร่างดังกล่าวยังระบุถึงอนุกรมวิธานของความเสี่ยงในระบบ โดยจัดหมวดหมู่ตามประเภทลักษณะและแหล่งที่มาซึ่งอาจมีการตีความตามความรุนแรงและความน่าจะเป็นของความเสี่ยงแต่ละประเภท เพื่อเป็นการเตือนความจำ แนวคิดเรื่องความเสี่ยงนั้นถูกกำหนดให้เป็น "การรวมกันของความน่าจะเป็นของการเกิดอันตรายและความรุนแรงของอันตรายนั้น" ภายใต้กฎหมาย AI (มาตรา 3(2)) ความเสี่ยงในระบบนั้น ถูกกำหนดให้เป็น "ความเสี่ยงที่เฉพาะเจาะจงต่อความสามารถที่มีผลกระทบสูงของโมเดล AI สำหรับวัตถุประสงค์ทั่วไป ซึ่งมีผลกระทบอย่างมีนัยสำคัญต่อตลาดสหภาพเนื่องจากการเข้าถึง หรือเนื่องจากผลกระทบเชิงลบที่เกิดขึ้นจริงหรือคาดการณ์ได้อย่างสมเหตุสมผลต่อสุขภาพของประชาชน ความปลอดภัย ความมั่นคงสาธารณะ สิทธิขั้นพื้นฐาน หรือสังคมโดยรวม" (มาตรา 3(65)) ความเสี่ยงเหล่านี้รวมถึงการเลือกปฏิบัติในวงกว้าง การใช้ AI ในทางที่ผิดเพื่อบิดเบือนข้อมูลหรือบิดเบือนข้อมูล จุดอ่อนทางไซเบอร์ การสูญเสียการควบคุม และความเสี่ยงทางเคมี ชีวภาพ วิทยาการรังสี และนิวเคลียร์ เพื่อจัดการกับความเสี่ยงเหล่านี้ ร่างดังกล่าวได้เสนอกรอบที่ครอบคลุมสำหรับกลยุทธ์การบรรเทาผลกระทบที่สมดุลกับความรุนแรงและความน่าจะเป็นของความเสี่ยงแต่ละประเภท

สำหรับโมเดล AI ทั่วไปที่มีความเสี่ยงในระบบ ผู้ให้บริการคาดว่าจะนำกรอบความปลอดภัยและความมั่นคง (SSF) ที่แข็งแกร่งมาใช้ กรอบความปลอดภัยนี้จะระบุถึงนโยบายการบรรเทาความเสี่ยงตลอดวงจรชีวิตของโมเดล การประเมินความเสี่ยงอย่างต่อเนื่องเป็นสิ่งที่จำเป็น โดยได้รับการสนับสนุนจากการรวบรวมหลักฐานโดยใช้วิธีการที่เข้มงวด ผู้ให้บริการจะต้องแน่ใจว่ามีการรายงานเหตุการณ์และความเสี่ยงในระบบอย่างโปร่งใสต่อสำนักงาน AI และในกรณีที่เหมาะสมต่อสาธารณชน ความเสี่ยงที่มีความรุนแรงสูงต้องได้รับการประเมินโดยผู้เชี่ยวชาญอิสระทั้งก่อนและหลังการใช้งาน ซึ่งช่วยให้สามารถปรับเปลี่ยนตามความจำเป็นโดยอาศัยการตรวจสอบวงจรชีวิต อนึ่ง มาตรการกำกับดูแล ได้แก่ การมอบหมายความรับผิดชอบในการจัดการความเสี่ยงในระดับผู้บริหารและคณะกรรมการ การดำเนินการประเมินการปฏิบัติตามจรรยาบรรณเป็นระยะ และการอำนวยความสะดวกในการประเมินอิสระเพื่อตรวจสอบความพยายามในการบรรเทาความเสี่ยงเชิงระบบ ขั้นตอนเหล่านี้ได้รับการออกแบบมาเพื่อเพิ่มความรับผิดชอบและประกันว่าองค์กรต่างๆ ให้ความสำคัญกับความปลอดภัยของ AI

ผู้มีส่วนได้ส่วนเสียควรให้ข้อเสนอแนะเกี่ยวกับร่างกฎหมายภายในวันที่ 28 พฤศจิกายน 2024 แม้ว่าเอกสารดังกล่าวจะอยู่ในระดับสูง แต่การปรับปรุงในอนาคตจะรวมถึงมาตรการที่ละเอียดมากขึ้น ตัวบ่งชี้ประสิทธิภาพหลัก (KPI) และกลไกการปฏิบัติตามกฎหมาย ร่างกฎหมายนี้ถือเป็นก้าวสำคัญในการประสานการกำกับดูแล AI ภายในสหภาพยุโรป โดยรักษาสมดุลระหว่างความต้องการด้านความปลอดภัยและความโปร่งใสกับการส่งเสริมนวัตกรรม


กฎหมายปัญญาประดิษฐ์ในบริบทการศึกษาของสหภาพยุโรป

เมื่อวันที่ 13 มีนาคม 2024 รัฐสภายุโรปลงมติเห็นชอบกฎหมายปัญญาประดิษฐ์ (AI Act) ในกฎหมายปัญญาประดิษฐ์ระบุว่าเป้าหมายของรัฐสภายุโรปและสภายุโรปคือการส่งเสริมนวัตกรรม การจ้างงาน และการนำปัญญาประดิษฐ์ที่น่าเชื่อถือมาใช้ประโยชน์ ทั้งนี้ กฎหมายปัญญาประดิษฐ์มีจุดมุ่งหมายเพื่อปกป้องบุคคลและบริษัทต่างๆ โดยกำหนดให้ต้องมีการคุ้มครองระดับสูงต่อสิทธิพื้นฐานและยึดมั่นในค่านิยมต่างๆ ของสหภาพยุโรป แต่ก็มีนักวิชาการได้ทักท้วงว่ากฎหมายปัญญาประดิษฐ์ไม่ได้ทำตามคำมั่นสัญญาในการให้การคุ้มครองระดับสูงต่อสิทธิพื้นฐานตามมาตรา 1 ของกฎหมายปัญญาประดิษฐ์ จึงมีความจำเป็นต้องแก้ไขกฎหมายปัญญาประดิษฐ์เพื่อให้สอดคล้องกับการห้ามการเลือกปฏิบัติในสนธิสัญญาสิทธิมนุษยชนระหว่างประเทศหลายฉบับ เรียกร้องให้ประเทศสมาชิกสหภาพยุโรปและผู้กำหนดนโยบายตรวจสอบกฎหมาย AI เพื่อให้สอดคล้องกับสนธิสัญญาว่าด้วยสิทธิมนุษยชนระหว่างประเทศก่อนที่จะกลายเป็นกฎหมาย 

นักวิชาการได้หยิบยกกรณีศึกษาของหน่วยงานที่ใช้ AI เพื่อประเมินผลงานของนักเรียนเพื่อแสดงให้เห็นถึงข้อโต้แย้งนี้ การใช้ AI เพื่อให้คะแนนผลงานของนักเรียนถูกเลือกเป็นกรณีศึกษาเนื่องจากการเข้าถึงการศึกษาส่งผลต่อความสามารถของผู้คนในการดำรงชีพใช้ศักยภาพของตนเองให้เต็มที่ เลือกสิ่งที่มีความหมาย และตัดสินใจอย่างรอบรู้ ดังนั้น กรณีศึกษานี้จึงเกี่ยวข้องกับพื้นที่สำคัญในชีวิตของทุกคน เนื่องจากบุคคลที่มีลักษณะเฉพาะที่ได้รับการคุ้มครอง เช่น ผู้พิการยังคงประสบกับความไม่เท่าเทียมกันในบริบทของการศึกษา จึงจำเป็นต้องระบุว่ากฎหมาย AI มีแนวโน้มที่จะทำให้สถานการณ์นี้คงอยู่ต่อไปได้อย่างไร การอภิปรายนี้แสดงให้เห็นถึงปัญหาที่กว้างขึ้นของกฎหมาย AI ซึ่งกำหนดข้อจำกัดที่ไม่เพียงพอในการใช้ AI เป็นส่วนประกอบของกระบวนการตัดสินใจในหลายพื้นที่ ตัวอย่างของพื้นที่ที่เกี่ยวข้องคือการใช้ AI เพื่อคัดกรองผู้สมัครเข้าทำงาน

ปัจจุบันหน่วยงานต่างๆได้นำ AI มาใช้เพื่อวัตถุประสงค์ต่าง ๆ มากมายในฐานะส่วนหนึ่งของกระบวนการตัดสินใจในบริบทของการศึกษา การใช้งานดังกล่าวรวมถึงการใช้ AI เพื่อตรวจงานที่ได้รับมอบหมายของนักเรียน บางประเทศกำลังสำรวจทางเลือกในการทำให้การตรวจงานของนักเรียนเป็นระบบอัตโนมัติโรงเรียนในจีนได้ทดลองใช้ AI เพื่อตรวจงานของนักเรียนมาตั้งแต่ปี 2018 กระทรวงศึกษาธิการของสหราชอาณาจักรได้จัดงานแฮ็กกาธอนเมื่อวันที่ 30 และ 31 ตุลาคม 2023 วัตถุประสงค์ของงานแฮ็กกาธอนคือเพื่อตรวจสอบว่าหน่วยงานด้านการศึกษาสามารถใช้ AI สำหรับงานต่าง ๆ เช่น การตรวจงานข้อสอบอย่างถูกต้องได้หรือไม่ 

ระบบการให้คะแนนนักเรียนที่ใช้ AI มีอยู่แล้ว นาย Robert Stanyon ได้พัฒนาระบบการให้คะแนนที่ใช้ AI สำหรับวิชาคณิตศาสตร์และวิทยาศาสตร์ ปัจจุบัน มหาวิทยาลัยเบอร์มิงแฮมและมหาวิทยาลัยลิเวอร์พูลกำลังทดลองใช้ระบบ Graide นี้ ด้วยภูมิหลังนี้ กลุ่มผู้นำโรงเรียนที่นำโดยเซอร์แอนโธนี เซลดอนได้เขียนจดหมายถึงหนังสือพิมพ์ The Times พวกเขาแสดงความกังวลว่ารัฐบาลล้มเหลวในการดำเนินการอย่างรวดเร็วเพื่อควบคุมการใช้ AI ในบริบทการศึกษา ควรจำไว้ว่าในอดีต การใช้ AI ในบริบทการศึกษาในสหราชอาณาจักรได้สร้างปัญหาที่ร้ายแรง ในปี 2020 ได้มีการพลิกกลับเกรดที่คาดการณ์ไว้ว่า AI จะสร้างได้โดยใช้เกรดที่ครูคาดการณ์ไว้สำหรับนักเรียน หลังจากเกิดกระแสต่อต้านจากประชาชนเกี่ยวกับการใช้ AI 

มหาวิทยาลัยในเยอรมนีใช้ AI เพื่อคุมสอบนักศึกษาระหว่างการระบาดของ COVID-19 หน่วยงาน GFF ยื่นฟ้องมหาวิทยาลัยในเยอรมนีหลายแห่ง โดยกล่าวหาว่าการปฏิบัติดังกล่าวละเมิดสิทธิมนุษยชนขั้นพื้นฐาน รวมถึงการประมวลผลข้อมูลจำนวนมากที่เกี่ยวข้องกับนักศึกษา เมื่อพิจารณาจากบริบทดังกล่าว จึงจำเป็นต้องกำหนดว่าการใช้ AI เพื่อตรวจงานของนักศึกษาอาจส่งผลเสียต่อนักศึกษาในสถานการณ์ใด และควรห้ามใช้ระบบดังกล่าวในบริบทใด การระบุบทบาทของกฎหมายสิทธิมนุษยชนระหว่างประเทศและกฎหมาย AI ในการป้องกันการปฏิบัติที่เป็นปัญหาจึงมีความสำคัญอย่างยิ่ง 

กล่าวคือการใช้ AI ในการให้คะแนนซึ่งการบ้านที่ต้องตรวจนั้นต้องให้คำตอบกับชุดคำถามแบบเลือกตอบหลายข้อนั้นไม่ก่อให้เกิดการโต้แย้ง บันทึกคำตอบของนักเรียนต่อคำถามแบบเลือกตอบหลายข้อและเทมเพลตของคำตอบที่ถูกต้องต่างก็แสดงถึงรูปแบบ AI สามารถจดจำรูปแบบได้ Douglas Chai พัฒนาอัลกอริทึมที่สามารถระบุได้ว่าคำตอบที่นักเรียนวงกลมไว้ในแบบทดสอบแบบเลือกตอบหลายข้อนั้นตรงกับคำตอบที่ถูกต้องหรือไม่ตั้งแต่ปี 2016 เนื่องจาก AI ทำหน้าที่จับคู่รูปแบบการ ใช้ AI จึงคล้ายกับการใช้เครื่องสแกนการจดจำเครื่องหมายด้วยแสงซึ่งมีการใช้งานมาระยะหนึ่งแล้ว 

เมื่อหน่วยงานต่างๆ ใช้ AI เพื่อให้คะแนนงานที่เกี่ยวข้องกับนักเรียนที่ต้องแก้ปัญหาคณิตศาสตร์ และงานนั้นไม่ได้ให้นักเรียนตอบคำถามแบบเลือกตอบ การใช้ AI ควรได้รับการปฏิบัติเหมือนกับเทคโนโลยีรุ่นเก่า ซึ่งทำให้สามารถจดจำรูปแบบได้ ในกรณีนี้ เนื่องจากเมื่อแก้ปัญหาคณิตศาสตร์ นักเรียนจะเขียนลำดับตัวเลข ซึ่งถือเป็นขั้นตอนระหว่างกาล ขั้นตอนระหว่างกาลเหล่านี้ในการคำนวณช่วยให้นักเรียนสามารถหาคำตอบได้ อย่างไรก็ตาม การใช้ AI ดังกล่าวไม่เหมือนกับเทคโนโลยีรุ่นก่อนๆ จำเป็นต้องมีการวิจัยเพิ่มเติมเพื่อพิจารณาผลกระทบของการใช้ AI เพื่อให้คะแนนงานคณิตศาสตร์ต่อผู้พิการ เพื่อลดความเสี่ยงที่เกิดจากการทำงานอัตโนมัติ นักพัฒนาจะต้องออกแบบ AI เพื่อให้ให้คะแนนนักเรียนบางส่วนสำหรับวิธีแก้ไขปัญหาคณิตศาสตร์ที่ไม่สมบูรณ์ ในทำนองเดียวกัน AI ควรได้รับการออกแบบเพื่อไม่ให้ลงโทษนักเรียนสำหรับการระบุขั้นตอนระหว่างกาลของวิธีแก้ไขปัญหาในลำดับที่แตกต่างกัน นอกจากนี้ AI ไม่ควรลงโทษนักเรียนสำหรับการป้อนข้อมูลโดยใช้รูปแบบที่แตกต่างกันหรือสำหรับการโต้ตอบกับระบบในลักษณะใดลักษณะหนึ่ง 

นอกจากนี้ ครูควรใช้วิจารณญาณทางวิชาชีพในการตัดสินว่าการใช้ AI เหมาะสมสำหรับการให้คะแนนงานของนักเรียนในวิชาคณิตศาสตร์หรือไม่ ตัวอย่างเช่น การใช้ AI ไม่เหมาะสำหรับงานบางประเภทที่นักเรียนพัฒนานวัตกรรมในสาขาคณิตศาสตร์ นักเรียนทุกคนควรสามารถขอให้ผู้ตัดสินใจที่เป็นมนุษย์ให้คะแนนงานที่ได้รับการตรวจโดย AI ใหม่ได้โดยไม่จำเป็นต้องแสดงหลักฐานความเสี่ยงของความไม่ถูกต้องหรือข้อผิดพลาด การทำงานของ AI จำเป็นต้องมีขอบเขตของข้อผิดพลาดพลาด

หน่วยงานการศึกษาไม่ควรใช้ AI ในการให้คะแนนข้อความที่ไม่ใช่ตัวเลข เนื่องจากการให้คะแนนคำตอบเป็นการใช้การตัดสินเชิงประเมิน ความสามารถของ AI ทำให้ AI ไม่เหมาะสมที่จะใช้ในการให้คะแนนงานในวิชาที่มีการไตร่ตรองอย่างมีวิจารณญาณเกี่ยวกับเนื้อหา และการให้คำตอบในรูปแบบที่ไม่ใช่ตัวเลข วิชาเหล่านี้ได้แก่ มนุษยศาสตร์และสังคมศาสตร์ ในทำนองเดียวกัน หลักสูตรวิทยาศาสตร์และวิทยาการคอมพิวเตอร์บางหลักสูตรไม่เหมาะสำหรับการใช้ AI ในการประเมินผล ตัวอย่างเช่น หลักสูตรจริยธรรมและความยั่งยืนของการคำนวณ AI ขาดความสามารถในการตีความและระบุความหมายให้กับข้อความที่เขียน ได้อย่างถูกต้อง การใช้ AI ส่งผลเสียต่อบุคคลจากกลุ่มที่ไม่ได้รับการเป็นตัวแทน การใช้ AI ในการให้คะแนนข้อความทำให้การแสดงออกของความหลากหลายของมนุษย์ลดน้อยลงนอกจากนี้ ยังมีหลักฐานว่าการใช้ AI ในการประเมินข้อความอาจทำให้ผู้พิการเสียเปรียบ เนื่องจาก AI ไม่สามารถระบุความหมายที่ถูกต้องให้กับข้อความได้การใช้ AI จึงทำให้ไม่สามารถประเมินได้ว่านักเรียนมีส่วนร่วมในการวิเคราะห์เชิงวิจารณ์ในระดับใดเมื่อเขียนคำตอบ 

การใช้ AI อาจลงโทษนักเรียนที่แสดงความคิดสร้างสรรค์และการคิดแบบนามธรรม การใช้ AI อาจลงโทษนักเรียนที่เสนอแนวคิดที่แตกต่างจากกระแสหลักโซลานจ์ เกอร์นาอูตีสังเกตว่าการใช้ AI เป็นส่วนหนึ่งของกระบวนการตัดสินใจอาจนำไปสู่การปรับปรุงพันธุกรรมในความคิด เนื่องจาก AI จดจำรูปแบบได้ จึงถือว่าคำตอบที่เขียนไว้ซึ่งไม่เข้ากับรูปแบบหรือแตกต่างจากค่าเฉลี่ยไม่เกี่ยวข้อง ด้วยเหตุนี้ AI จึงไม่เหมาะสำหรับการให้คะแนนข้อความที่เขียนและงานที่เกี่ยวข้องกับการคิดวิเคราะห์ของนักเรียน 

ดังนั้น เพื่อปกป้องสิทธิพื้นฐานของบุคคลมาตรา 6(2) ของกฎหมาย AIกำหนดให้ระบบ AI บางระบบมีความเสี่ยงสูง ย่อหน้า 3 ของภาคผนวก IIIชี้แจงว่ามาตรา 6(2) ของร่างกฎหมาย AIครอบคลุมถึงการใช้ระบบ AI ในการศึกษาและอาชีวศึกษา ย่อหน้า 3 ของภาคผนวก III ของกฎหมาย AIครอบคลุมถึงการประยุกต์ใช้ AI ในด้านการศึกษาต่างๆ การประยุกต์ใช้เหล่านี้รวมถึงการใช้ AI เพื่อกำหนดว่าใครจะได้รับการรับเข้าเรียนในโครงการการศึกษา การตรวจงานของนักเรียน การควบคุมดูแลงานของนักเรียน และการใช้ AI เพื่อจัดสรรนักเรียนไปยังโรงเรียนต่างๆ 

มาตรา 9(1) ของร่างกฎหมาย AIกำหนดภาระผูกพันในการจัดตั้งและบำรุงรักษาระบบการจัดการความเสี่ยงที่เกี่ยวข้องกับระบบ AI ที่มีความเสี่ยงสูง ตามมาตรา 9(2) หน่วยงานที่ใช้ AI จำเป็นต้องประเมินความเสี่ยงอย่างต่อเนื่องซึ่งการใช้ระบบ AI ที่มีความเสี่ยงสูงอาจก่อให้เกิดการได้รับสิทธิขั้นพื้นฐานหน่วยงานจำเป็นต้องใช้มาตรการที่ “เหมาะสมและตรงเป้าหมาย” เพื่อจัดการกับความเสี่ยงต่อสิทธิขั้นพื้นฐาน อย่างไรก็ตามมาตรา 9(3) ทำให้ภาระผูกพันในการจัดทำระบบการจัดการความเสี่ยงอ่อนแอลงโดยระบุว่ามาตรา 9 กล่าวถึงความเสี่ยงที่สามารถ “บรรเทาหรือขจัดได้อย่างสมเหตุสมผล” เท่านั้น ไม่ว่าจะผ่านการออกแบบ AI หรือโดยการให้ “ข้อมูลทางเทคนิคที่เพียงพอ” การสันนิษฐานว่าความเสี่ยงส่วนใหญ่สามารถบรรเทาได้ผ่านการออกแบบนั้นเป็นปัญหาการขาดความสามารถของ AIในการระบุความหมายให้กับข้อความที่เขียนและแนวโน้มที่จะเสียเปรียบนักเรียนที่มีลักษณะเฉพาะที่ได้รับการคุ้มครองไม่สามารถแก้ไขได้ผ่านทางเลือกในการออกแบบ ดังนั้นมาตรา 9(3)จึงจำกัดการคุ้มครองสิทธิพื้นฐานในกฎหมาย AI อย่างมาก โดยจำกัดภาระผูกพันในการจัดทำระบบจัดการความเสี่ยงให้ครอบคลุมเฉพาะความเสี่ยงที่สามารถ “บรรเทาหรือขจัดได้อย่างสมเหตุสมผล” มาตรา 9(5)(a) ทำให้การคุ้มครองสิทธิพื้นฐานอ่อนแอลงอีก โดยกำหนดว่าจำเป็นต้องบรรเทาความเสี่ยงในขอบเขตที่ “เป็นไปได้ทางเทคนิค” ที่จะทำเช่นนั้นได้ผ่านการออกแบบที่เหมาะสมเท่านั้น (หน้า 105) เนื่องจาก AI ไม่สามารถระบุความหมายได้จากข้อความที่เขียนมาตรา 9(4) จึงให้การคุ้มครองที่จำกัด 

ผู้สนับสนุนกฎหมาย AI อาจระบุในขั้นตอนนี้ว่ามาตรา 9(5)(b) ช่วยบรรเทาความรุนแรงของมาตรา 9(2) โดยกำหนดให้บริษัทต่างๆ ต้องใช้มาตรการบรรเทาความเสี่ยงที่เหมาะสมต่อความเสี่ยงที่ไม่สามารถขจัดออกไปได้ แม้จะเป็นจริง แต่มาตรา 9(5)(b)ไม่สามารถแก้ไขปัญหาได้อย่างสมบูรณ์ เนื่องจากมาตรา 9(5) อนุญาตให้ผู้ที่เกี่ยวข้องกับการประเมินความเสี่ยงตัดสินใจว่าสามารถยอมรับ “ความเสี่ยงโดยรวมที่เหลืออยู่” ที่เกี่ยวข้องกับการใช้ระบบ AI ได้ วาทกรรมในการยอมรับ “ความเสี่ยงโดยรวมที่เหลืออยู่” นี้เข้ากันไม่ได้กับการปกป้องสิทธิขั้นพื้นฐาน จากมุมมองของกฎหมายสิทธิมนุษยชน ความเสี่ยงทั้งหมดมีความสำคัญไม่ว่าจะมีขนาดใหญ่หรือเล็กเพียงใด ตราบใดที่การใช้งาน AI มีแนวโน้มที่จะละเมิดสิทธิขั้นพื้นฐานของบุคคลใดบุคคลหนึ่ง ดังนั้น หาก AI ตัดสินใจ 1,000 ครั้งในเวลา 10 นาที และมีความเป็นไปได้ที่คน 50 คนอาจต้องตกอยู่ภายใต้การปฏิบัติที่เลือกปฏิบัติ การตัดสินใจที่มีปัญหาจะคิดเป็นเพียง 5% ของการตัดสินใจทั้งหมดก็ไม่สำคัญ สิ่งสำคัญคือมีผู้คน 50 รายที่ประสบกับการเลือกปฏิบัติ 

กฎหมาย AI ฉบับปัจจุบัน ไม่ได้อนุญาตให้รัฐในสหภาพยุโรปปฏิบัติตามพันธกรณีสิทธิมนุษยชนระหว่างประเทศของตน การห้ามการเลือกปฏิบัติในอนุสัญญาว่าด้วยสิทธิของผู้พิการ (CRPD) กำหนดให้รัฐต้องขอความยินยอมจากผู้พิการก่อนจะให้พวกเขาใช้ AI ในกระบวนการตัดสินใจบางส่วนหรือทั้งหมด ผู้พิการสามารถคัดค้านการใช้ AI ได้โดยไม่ต้องขอการอำนวยความสะดวกที่เหมาะสมข้อห้ามนี้ขยายไปถึงอนุสัญญาว่าด้วยการขจัดการเลือกปฏิบัติต่อสตรีในทุกรูปแบบ (CEDAW) มาร์ติน เชนินแสดงให้เห็นว่าข้อกำหนดในการขอความยินยอมจากบุคคลที่ถูกเลือกปฏิบัติก่อนจะใช้ AI ได้ขยายไปถึงสนธิสัญญาสิทธิมนุษยชนฉบับอื่นๆ รวมถึงอนุสัญญาว่าด้วยการขจัดการเลือกปฏิบัติทางเชื้อชาติในทุกรูปแบบ (CERD) และอนุสัญญาว่าด้วยสิทธิพลเมืองและสิทธิทางการเมืองระหว่างประเทศ (ICCPR) กฎหมาย AI ไม่เป็นไปตามข้อกำหนดนี้ เนื่องจากไม่มีบทบัญญัติใดๆ ที่กำหนดให้หน่วยงานที่ใช้งานระบบ AI ที่มีความเสี่ยงสูงต้องได้รับความยินยอมอย่างมีข้อมูลจากบุคคลที่เป็นผู้ตัดสินใจก่อน จึงจะสามารถใช้ระบบเหล่านี้ได้ 

ข้อบังคับทั่วไปเกี่ยวกับการคุ้มครองข้อมูล (GDPR) ไม่ได้กล่าวถึงปัญหานี้อย่างครบถ้วน ตัวอย่างเช่น มาตรา 22 ของ GDPR ให้สิทธิ์กับบุคคลในการไม่ต้องอยู่ภายใต้"การตัดสินใจที่อิงจากการประมวลผลอัตโนมัติเพียงอย่างเดียว " เท่านั้น มาตรา 22 ไม่ครอบคลุมสถานการณ์ที่มนุษย์ควบคุมดูแลการทำงานของ AI และตรวจสอบการตัดสินใจอัตโนมัติก่อนที่จะนำไปใช้ ศาลยุติธรรมของสหภาพยุโรปในคดีOQ v SCHUFA Holding 634/21 ตัดสินว่าจะมีการตัดสินใจอัตโนมัติหากผู้ตัดสินใจ "ใช้ดุลยพินิจอย่างเข้มงวด" (ย่อหน้า 40) เกี่ยวกับการตัดสินใจอัตโนมัติ (ย่อหน้า 61-62) อย่างไรก็ตาม จะมีหลายกรณีที่บุคคลไม่ได้รับการปกป้องอย่างเพียงพอ แม้ว่าผู้ตัดสินใจจะไม่ได้ "ใช้ดุลยพินิจอย่างเข้มงวด" เกี่ยวกับผลลัพธ์ที่สร้างโดย AI มนุษย์ขาดความสามารถในการดูแลการทำงานของระบบที่ซับซ้อน รวมถึง AI ดังนั้น การคุ้มครองตาม GDPR จึงไม่สามารถทดแทนการห้ามหน่วยงานใช้เอาต์พุตที่สร้างโดย AI เพื่อแจ้งกระบวนการตัดสินใจโดยไม่ได้รับความยินยอมจากบุคคลที่มีส่วนร่วมในการตัดสินใจได้ 

ปัญหาของกฎหมายฉบับนี้ก็คือ กฎหมายฉบับนี้ถือว่ามีศักยภาพทางเทคนิคบางประการอยู่ ซึ่งในความเป็นจริงแล้วไม่มีอยู่จริง ตัวอย่างเช่นมาตรา 20(1)กำหนดให้ผู้ให้บริการระบบ AI ที่มีความเสี่ยงสูงต้องดำเนินการเพื่อถอนระบบออกหากพบว่าระบบดังกล่าวไม่เป็นไปตามกฎหมาย AI มาตรา 19(1)กำหนดให้ผู้ให้บริการต้องเก็บบันทึกที่ระบบ AI ที่มีความเสี่ยงสูงสร้างขึ้นไว้เป็นเวลาอย่างน้อย 6 เดือนมาตรา 14(1)กำหนดให้การออกแบบ AI อนุญาตให้บุคคลธรรมดาสามารถกำกับดูแลระบบ AI ที่มีความเสี่ยงสูงได้อย่าง “มีประสิทธิผล” และอธิบายว่าจุดประสงค์ของการกำกับดูแลดังกล่าวคือเพื่อ “ป้องกัน” หรือ “ลดให้เหลือน้อยที่สุด” ความเสี่ยงของการละเมิดสิทธิมนุษยชนขั้นพื้นฐาน ในขณะเดียวกันมาตรา 14(4)(d)กำหนดว่าผู้ให้บริการสามารถตัดสินใจไม่ใช้ระบบ AI ที่มีความเสี่ยงสูงหรือละเลยผลลัพธ์ของระบบได้ แม้ว่าบทบัญญัติเหล่านี้จะดูเหมือนให้การคุ้มครอง แต่ในทางปฏิบัติแล้วอาจมีผลกระทบจำกัดมีงานวิจัยจำนวนมากที่แสดงให้เห็นว่ามนุษย์ไม่มีความสามารถในการดูแลการทำงานของระบบที่ซับซ้อน รวมถึงปัญญาประดิษฐ์ (AI)นอกจากนี้มาตรา 14(4)ยังจำกัดขอบเขตของภาระผูกพันนี้โดยกำหนดให้ผู้ปฏิบัติงานได้รับมอบหมายหน้าที่ดูแลปัญญาประดิษฐ์ “ตามความเหมาะสมและสมส่วน” เท่านั้น

บทเรียนสำหรับสหภาพยุโรปเกี่ยวกับการแก้ไขกฎหมายปัญญาประดิษฐ์นั้น กล่วได้ว่าแทนที่จะถือว่าการประยุกต์ใช้AI ในระบบการศึกษามีความเสี่ยงสูงกฎหมาย AI ควรห้ามการใช้ AI บางประเภทข้อห้ามดังกล่าวในบริบทของการศึกษาควรขยายไปถึงการให้คะแนนข้อความ การกำหนดว่าใครควรมีสิทธิ์เข้าถึงโอกาสทางการศึกษา และการจัดสรรนักเรียนไปยังโรงเรียนต่างๆ กฎหมาย AI ควรถือว่ากระบวนการตัดสินใจอัตโนมัติทั้งหมดหรือบางส่วนโดยใช้ AI เป็นการท้าทายต่อการปกป้องสิทธิขั้นพื้นฐานเหมือนกัน สุดท้าย กฎหมาย AI ควรห้ามการใช้ปัญญาประดิษฐ์เป็นส่วนประกอบในการประเมินและตัดสินใจเกี่ยวกับบุคคลโดยไม่ได้รับความยินยอมจากบุคคลนั้นล่วงหน้า เพื่อให้สามารถให้ความยินยอมโดยแจ้งข้อมูลแก่ผู้ใช้ AI ได้ บุคคลควรมีความรู้ในระดับสูงเกี่ยวกับการทำงานของ AI พวกเขาควรทราบว่าคุณสมบัติทางเทคนิคของ AI สามารถก่อให้เกิดอันตรายต่อสังคมและการละเมิดสิทธิขั้นพื้นฐานได้อย่างไร ในที่สุด พวกเขาควรเข้าใจว่ามีความท้าทายใดบ้างในการกำกับดูแลการทำงานของ AI อย่างมีประสิทธิภาพ และการท้าทายการตัดสินใจตามอัลกอริทึม


การยกเลิกกฎหมายโดยปริยายในอังกฤษ

 ในคดี Thoburn v Sunderland City Council ในปี ค.ศ. 2002 ผู้พิพากษา เซอร์จอห์น ลอว์ส ได้เสนอแนวคิดเรื่องกฎหมายรัฐธรรมนูญ โดยกล่าวว่า “เราควรตระหนักถึงลำดับชั้นของกฎหมายรัฐสภาเหมือนกับกฎหมาย 'ธรรมดา' และกฎหมาย 'รัฐธรรมนูญ'” พร้อมยกตัวอย่างกฎหมายระดับรัฐธรรมนูญของอังกฤษว่าประกอบด้วย Magna Carta 1297 , Bill of Rights 1688 , Human Rights Act 1998 และ European Communities Act 1972 ดังนั้น เราสามารถระบุกฎหมายรัฐธรรมนูญบนพื้นฐานหลักการได้ กฎหมายรัฐธรรมนูญคือกฎหมายที่ (ก) กำหนดเงื่อนไขความสัมพันธ์ทางกฎหมายระหว่างพลเมืองกับรัฐในลักษณะทั่วไปหรือ (ข) ขยายหรือลดขอบเขตของสิ่งที่เราถือเป็นสิทธิตามรัฐธรรมนูญขั้นพื้นฐานในปัจจุบัน”

ที่สำคัญ เซอร์จอห์น ลอว์สโต้แย้งว่า ในขณะที่กฎหมายทั่วไปสามารถยกเลิกได้โดยปริยาย แต่กฎหมายรัฐธรรมนูญทำไม่ได้ การยกเลิกหรือแก้ไขกฎหมายรัฐธรรมนูญต้องกระทำได้โดยผ่านกระบวนการทางรัฐสภาและมีบทบัญญัติที่ชัดเจนในกฎหมายของรัฐสภา หรือในกรณีที่รัฐสภามีเจตนาที่จะแก้ไขหรือยกเลิกกฎหมายฉบับเดิม ตามปกติแล้ว รัฐสภาถือว่าสามารถเปลี่ยนแปลงหรือยกเลิกกฎหมายของรัฐสภาได้ 2 วิธี คือ ยกเลิกโดยชัดแจ้งหรือโดยนัย โดยที่ยกเลิกโดยชัดแจ้ง หมายความว่า บทบัญญัติในกฎหมายฉบับหลังระบุอย่างชัดเจนว่ากฎหมายฉบับก่อนหรือบทบัญญัติของกฎหมายฉบับก่อนถูกยกเลิก ดังนั้น หากจะยกตัวอย่างโดยสุ่ม (และไม่มีนัยสำคัญทางรัฐธรรมนูญ) ย่อหน้า 1 ของส่วนที่ 1 ของตารางกฎหมายใบอนุญาตขนส่งและการลงทะเบียนรถพ่วง 2018 ระบุเพียงว่า “กฎหมายใบอนุญาตขนส่งทางถนนระหว่างประเทศ 1975 ถูกยกเลิกแล้ว”

การยกเลิกโดยปริยายจะเกิดขึ้นในกรณีที่กฎหมายฉบับหลังขัดแย้งกับกฎหมายฉบับก่อน เมื่อเกิดเหตุการณ์ดังกล่าว กฎหมายฉบับก่อนจะถือว่าถูกยกเลิกโดยปริยายโดยกฎหมายฉบับหลังในขอบเขตที่จำเป็นเพื่อแก้ไขความไม่สอดคล้องระหว่างกฎหมายทั้งสองฉบับ ดังที่ Scrutton LJ กล่าวในคดี Ellen St Estates v Minister of Healthว่า “จุดยืนทางรัฐธรรมนูญ” คือ รัฐสภาสามารถแก้ไขกฎหมายฉบับก่อนได้เพียงแค่ “บัญญัติบทบัญญัติที่ไม่สอดคล้องกับกฎหมายฉบับก่อนอย่างชัดเจน”

คำกล่าวของเซอร์จอห์นที่ว่ากฎหมายรัฐธรรมนูญไม่สามารถยกเลิกได้โดยปริยาย ต้องยกเลิกได้เฉพาะโดยชัดแจ้งเท่านั้น ถือเป็นเรื่องใหม่ นอกจากนี้ คำกล่าวนี้ยังถือเป็นการเบี่ยงเบนที่สำคัญจากสิ่งที่เราอาจเรียกได้ว่าเป็นมุมมองดั้งเดิมและดั้งเดิมเกี่ยวกับอำนาจอธิปไตยของรัฐสภา นั่นคือ ไม่มีลำดับชั้นระหว่างกฎหมายของรัฐสภา ไม่มีความแตกต่างทางกฎหมายระหว่างกฎหมายรัฐธรรมนูญกับกฎหมายอื่นๆ และกฎหมายแต่ละฉบับของรัฐสภาสามารถเปลี่ยนแปลงหรือยกเลิกได้ง่ายเช่นเดียวกับกฎหมายอื่นๆ ไม่ว่าจะโดยปริยายหรือโดยปริยาย มุมมองแบบดั้งเดิมนี้สามารถพบได้ในคำกล่าวอ้างของไดซีย์ “สิ่งเหล่านี้คือ… ลักษณะเฉพาะของอำนาจอธิปไตยของรัฐสภา… ประการแรก อำนาจของฝ่ายนิติบัญญัติในการแก้ไขกฎหมายใดๆ ไม่ว่าจะเป็นกฎหมายพื้นฐานหรือกฎหมายอื่นๆ อย่างอิสระและในลักษณะเดียวกันกับกฎหมายอื่นๆ ประการที่สอง การไม่มีความแตกต่างทางกฎหมายระหว่างรัฐธรรมนูญกับกฎหมายอื่นๆ …”

แม้ว่าการอ้างสิทธิของ เซอร์จอห์นจะเป็นเรื่องใหม่ แต่ก็ไม่ได้เกิดขึ้นโดยบังเอิญ แต่เกิดขึ้นพร้อมกับวิธีการที่ศาลได้ดำเนินการเกี่ยวกับกฎหมายของสหภาพยุโรป (EU) นั่นคือ ศาลจะไม่นำกฎหมายของรัฐสภาที่ขัดแย้งกับกฎหมายของสหภาพยุโรปมาใช้ ซึ่งเป็นพื้นฐานของ คดี Factortame ที่สภาขุนนางได้ยกเลิกบทบัญญัติของกฎหมายการเดินเรือพาณิชย์ปี ค.ศ. 1988 เนื่องจากบทบัญญัติดังกล่าวขัดแย้งกับกฎหมายของสหภาพยุโรป กฎหมายของสหภาพยุโรปถูกผนวกเข้าในกฎหมายของสหราชอาณาจักรโดยกฎหมายประชาคมยุโรป ปี ค.ศ. 1972 (เปรียบเทียบกับคดี Miller) มุมมองแบบเดิมเกี่ยวกับการยกเลิกโดยปริยายจะต้องให้กฎหมายปี ค.ศ. 1988 ยกเลิกกฎหมายปี ค.ศ. 1972 โดยปริยาย อย่างไรก็ตาม ในคดี Factortame สภาขุนนางให้ความสำคัญกับกฎหมายของสหภาพยุโรปซึ่งผนวกเข้าผ่านกฎหมายปี ค.ศ. 1972 มากกว่ากฎหมายปี ค.ศ. 1988

แต่ตามที่ลอร์ดเดนนิ่งได้ชี้แจงไว้อย่างชัดเจนในคดี Macarthys v Smith ก่อนหน้านี้ หากรัฐสภาระบุอย่างชัดเจนว่ากฎหมายของรัฐสภาควรได้รับความสำคัญเหนือกฎหมายของสหภาพยุโรป ซึ่งจำกัดอำนาจสูงสุดของกฎหมายสหภาพยุโรปตามกฎหมายประชาคมยุโรป “ศาลมีหน้าที่ปฏิบัติตามกฎหมายของรัฐสภา” กล่าวคือ ศาลจะอนุญาตให้แก้ไขหรือยกเลิกบทบัญญัติของกฎหมายประชาคมยุโรป ซึ่งให้กฎหมายสหภาพยุโรปมีอำนาจเหนือกว่ากฎหมายอื่นที่ขัดแย้งกันได้อย่างชัดแจ้งแต่ไม่ใช่โดยนัย

ในทำนองเดียวกัน ศาลได้ระบุว่าจะไม่อนุญาตให้แก้ไขหลักพื้นฐานของรัฐธรรมนูญ ยกเว้นด้วยถ้อยคำที่ชัดเจนในกฎหมายของรัฐสภาลอร์ดฮอฟมันน์ได้กล่าวว่า “สิทธิพื้นฐานไม่สามารถถูกแทนที่ได้ด้วยถ้อยคำทั่วไปหรือคลุมเครือ” ตัวอย่างหลักพื้นฐานของรัฐธรรมนูญ ได้แก่การเข้าถึงศาลจะต้องไม่ถูกปฏิเสธความยุติธรรมควรได้รับการบริหารจัดการอย่างเปิดเผยในศาลและอันที่จริงค่านิยมพื้นฐานของหลักนิติธรรมจะต้องได้รับการยึดมั่น

ดังนั้น การคุ้มครองจากการยกเลิกโดยปริยายที่ เซอร์จอห์นโต้แย้งว่ากฎหมายรัฐธรรมนูญนั้นได้รับนั้นคล้ายคลึงกับการคุ้มครองที่มอบให้กับกฎหมายประชาคมยุโรป (ซึ่งเซอร์จอห์นระบุว่าเป็นกฎหมายรัฐธรรมนูญ) และกับหลักการพื้นฐานทางรัฐธรรมนูญ ในความเป็นจริง เซอร์จอห์นเชื่อมโยงสิ่งเหล่านี้เข้าด้วยกัน ในคดี Thoburn Laws LJ กล่าวว่าการคุ้มครองจากการแก้ไขโดยปริยายที่มอบให้กับหลักการพื้นฐานทางรัฐธรรมนูญนั้นนำไปสู่ "ความเข้าใจ" ว่ากฎหมายรัฐธรรมนูญก็ควรได้รับการคุ้มครองเช่นเดียวกัน และคดี Thoburn เป็นความพยายามที่จะทำให้การตัดสินใจในคดี Factortame มีเหตุผลมากขึ้น ซึ่งสภาขุนนางให้ความสำคัญกับกฎหมายประชาคมยุโรปมากกว่ากฎหมายพาณิชย์นาวี ปี ค.ศ. 1988

ตั้งแต่ คำพิพากษา คดี Thoburnในปี 2002 แนวคิดเรื่องกฎหมายรัฐธรรมนูญได้รับการสนับสนุนจากศาลอื่นๆ รวมถึงศาลสูงของอังกฤษและเวลส์ (R (Brynmawr Foundation School Governors) vs Welsh Ministers ) ศาลแห่งการประชุม (Outer House) ในสกอตแลนด์ ( AXA General Insurance vs Lord Advocate ) และศาลสูงในไอร์แลนด์เหนือ (Re Northern Ireland Commissioner for Children and Young People's Application for Judicial Review )

ที่สำคัญกว่านั้น แนวคิดดังกล่าวได้รับการสนับสนุนจากศาลฎีกา ในคดี H v Lord Advocateลอร์ดโฮประบุว่ากฎหมายสกอตแลนด์ปี ค.ศ. 1998 ไม่สามารถยกเลิกได้โดยปริยายเนื่องจาก “ธรรมชาติพื้นฐานของรัฐธรรมนูญในการยุติข้อพิพาท” ที่กฎหมายบรรลุผล ซึ่ง “ทำให้ไม่สามารถเปลี่ยนแปลงได้โดยปราศจากการบัญญัติโดยชัดแจ้ง” ในคดี R (HS2 Action Alliance Ltd) v Secretary of State for Transport ลอร์ด Neuberger และ Mance กล่าวว่ามี “ตราสารรัฐธรรมนูญ” และคำพิพากษาของ เซอร์จอห์นในคดี Thoburn ให้ข้อมูลเชิงลึกที่สำคัญเกี่ยวกับปัญหาที่อาจเกิดขึ้นในพื้นที่นี้ ...” ในคดี Miller เสียงส่วนใหญ่ในศาลสูงสุดระบุถึง “ลักษณะทางรัฐธรรมนูญ” ของกฎหมายประชาคมยุโรปปี ค.ศ. 1972 และกฎหมายของสหภาพยุโรปได้รับการคุ้มครองไม่ให้ถูกยกเลิกโดยปริยายเนื่องจากกฎหมายดังกล่าว ใน กรณี Privacy International ลอร์ดคาร์นเวิร์ธ เห็นว่าศาลยอมรับสถานะพิเศษของกฎหมายรัฐธรรมนูญดังกล่าว โดยเฉพาะเอกสิทธิ์คุ้มครองจากการยกเลิกโดยปริยาย

นอกจากนี้ นักวิชาการบางท่านมีข้อสังเกตว่าหลักการของกฎหมายรัฐธรรมนูญได้รับการยอมรับ ไม่เพียงแต่จากศาลเท่านั้น แต่ยังรวมถึงฝ่ายนิติบัญญัติและฝ่ายบริหารของรัฐบาลด้วย เราโต้แย้งว่าการยอมรับนี้โดยฝ่ายบริหาร ฝ่ายนิติบัญญัติ และฝ่ายตุลาการ หมายความว่าแนวคิดของกฎหมายรัฐธรรมนูญที่ได้รับการคุ้มครองไม่ให้ถูกเพิกถอนโดยปริยาย ได้เปลี่ยนจากข้อเสนอใหม่ไปเป็นความเชื่อดั้งเดิมที่ได้รับการยอมรับ ทั้งนี้ คำยืนยันของเซอร์จอห์นในคดี Thoburn ได้นำแนวคิดใหม่มาสู่กฎหมายรัฐธรรมนูญของสหราชอาณาจักร นั่นคือ กฎหมายทั่วไปและกฎหมายรัฐธรรมนูญมีความแตกต่างกัน และแม้ว่ากฎหมายทั่วไปอาจถูกยกเลิกโดยปริยาย แต่กฎหมายรัฐธรรมนูญอาจไม่ยกเลิกได้ แม้ว่าแนวคิดนี้จะแปลกใหม่ แต่ดูเหมือนว่าแนวคิดนี้จะมีรากฐานมาจากการคุ้มครองไม่ให้ถูกยกเลิกโดยปริยายตามกฎหมายประชาคมยุโรป และหลักพื้นฐานของรัฐธรรมนูญ นอกจากนี้ หลักการของกฎหมายรัฐธรรมนูญยังได้รับการสนับสนุนจากฝ่ายตุลาการในระดับสูงสุด และจากทั้งฝ่ายบริหารและฝ่ายนิติบัญญัติ 


วันพุธที่ 25 ธันวาคม พ.ศ. 2567

เทคโนโลยีในกิจการดูแลสุขภาพ

 ปัญญาประดิษฐ์ (AI) ถือเป็นหัวข้อที่น่าสนใจอย่างยิ่งในยุคนี้ เป็นหนึ่งในสาขาที่ได้รับความสนใจและเป็นที่ถกเถียงกันมากที่สุดในด้านการพัฒนาเทคโนโลยี แม้ว่าเราจะยังห่างไกลจากหุ่นยนต์ที่จะเข้ามาครองโลก แต่การใช้งานหุ่นยนต์ก็กลายเป็นเรื่องปกติมากขึ้นเนื่องมาจากเทคนิคการวิเคราะห์ที่พัฒนาขึ้นและข้อมูลที่มีมากขึ้น

กิจการการดูแลสุขภาพเป็นกิจการที่เทคโนโลยี AI มีประโยชน์อย่างปฏิเสธไม่ได้ เนื่องจากเทคโนโลยีนี้สามารถทำสิ่งที่มนุษย์สามารถทำได้อยู่แล้วได้อย่างมีประสิทธิภาพยิ่งขึ้นและมากกว่านั้นอีกมาก เช่น การค้นหาความเชื่อมโยงในรหัสพันธุกรรม อย่างไรก็ตาม การใช้งานเทคโนโลยีดังกล่าวทำให้เกิดคำถามทางกฎหมายและจริยธรรมหลายประการที่เราต้องแก้ไข ดังนั้น รัฐบาลและองค์กรระหว่างประเทศจึงให้ความสำคัญกับการสร้างกรอบการกำกับดูแลที่เป็นมิตรต่อเทคโนโลยี AI ในปัจจุบัน

การพัฒนาด้านเทคโนโลยีใหม่ๆ AI ก่อให้เกิดคำถามมากมายที่รัฐบาลและประชาชนต้องเผชิญ แต่ AI และอัลกอริทึมเป็นศาสตร์ที่คลุมเครือมาก ซึ่งเราถูกบอกให้เชื่อว่าถูกนำมาใช้เพื่อประโยชน์ของพวกเราทุกคน อย่างไรก็ตาม ยังมีความเป็นไปได้ที่สิ่งตรงกันข้ามจะเกิดขึ้นได้เช่นกัน ดังนั้น ในปี 2020 คณะผู้เชี่ยวชาญระดับสูงด้าน AI ที่ได้รับการแต่งตั้งโดยคณะกรรมาธิการยุโรปจึงได้กำหนดข้อกำหนดเจ็ดประการ ซึ่งถือเป็นสิ่งจำเป็นต่อการใช้ AI อย่างมีจริยธรรม โดยเน้นที่ความโปร่งใส ความปลอดภัย ความเป็นธรรม และความรับผิดชอบ

ข้อมูลคือสิ่งที่หล่อเลี้ยง AI หากไม่มีข้อมูล เครื่องจักรก็จะไม่สามารถเรียนรู้วิธี "คิด" ได้ นี่คือเหตุผลที่การปกป้องข้อมูลทางการแพทย์ของผู้ป่วยจึงมีความสำคัญสูงสุด และปัจจุบันเป็นประเด็นสำคัญสำหรับอุตสาหกรรมและรัฐบาลทั่วโลก อย่างไรก็ตาม โดยเฉพาะอย่างยิ่งกิจการสุขภาพมีความเสี่ยงสูงต่อภัยคุกคามทางไซเบอร์ เนื่องจากข้อมูลทางการแพทย์ของผู้ป่วยมีลักษณะละเอียดอ่อน เนื่องจากข้อมูลดังกล่าวถือเป็นนวัตกรรมทางวิทยาศาสตร์และเทคโนโลยีที่สำคัญ โดยกิจการวิทยาศาสตร์ชีวภาพมีมูลค่าหลายพันล้าน จึงถือเป็นเป้าหมายที่น่าสนใจสำหรับอาชญากรไซเบอร์ ตัวอย่างเช่น กระทรวงสาธารณสุขและฝ่ายบริหารบริการสุขภาพของไอร์แลนด์ตกเป็นเป้าหมายของการโจมตีทางไซเบอร์เมื่อต้นปีนี้ ซึ่งเป็นการโจมตีโครงสร้างพื้นฐานที่สำคัญโดยตรง ส่งผลให้มีการยกเลิกขั้นตอนการรักษาที่ไม่ใช่กรณีฉุกเฉินและการรักษาล่าช้า ในทำนองเดียวกัน ในปี 2017 NHS ก็ถูกโจมตีด้วยแรนซัมแวร์ 'WannaCry' การสร้างความมั่นใจว่าผู้ให้บริการด้านการแพทย์ทั้งภาครัฐและเอกชนมีเครื่องมือในการปกป้องข้อมูลของผู้ป่วยจะช่วยเพิ่มความมั่นใจและทำให้ผู้คนจำนวนมากขึ้นเต็มใจที่จะแบ่งปันข้อมูลทางการแพทย์ของตนกับองค์กรที่สร้าง AI เพื่อให้มีฐานข้อมูลที่สำคัญเพียงพอสำหรับการเรียนรู้ของเครื่อง

กรอบการทำงานที่เกี่ยวข้องกับการปกป้องข้อมูลนั้นเปลี่ยนแปลงอยู่เสมอ เมื่อปีที่แล้ว ศาลยุติธรรมของสหภาพยุโรปได้ตัดสินใจใน คดี Schrems II ว่าการตัดสินใจของหลักการ Privacy Shield ที่ให้การคุ้มครองข้อมูลแก่สหรัฐอเมริกาถือเป็นโมฆะ คำตัดสินนี้ส่งผลกระทบอย่างมากต่อการค้าข้ามมหาสมุทรแอตแลนติกและการแบ่งปันข้อมูล ขณะเดียวกันก็สร้างเงาให้กับสหราชอาณาจักรเมื่อใกล้จะสิ้นสุดช่วงเปลี่ยนผ่าน ในสหราชอาณาจักร ศาลฎีกามีกำหนดตัดสินเกี่ยวกับความเป็นไปได้ในการดำเนินคดีแบบกลุ่มโดยไม่สมัครใจในกรณีการละเมิดข้อมูลใน คดี Lloyd v Google เนื่องจากผู้ให้บริการด้านการแพทย์และหน่วยงานต่างๆ เป็นเป้าหมายของการเลือก การปกป้องที่มากขึ้นจึงมีความจำเป็นเนื่องจากมีความเสี่ยงที่จะต้องเผชิญกับการเรียกร้องค่าเสียหายที่อาจมีค่าใช้จ่ายสูง

ความเชื่อมั่นของประชาชนที่เพิ่มมากขึ้นยังนำไปสู่การจัดหาข้อมูลที่มาจากกลุ่มประชากรที่หลากหลายมากขึ้น เราทราบอยู่แล้วว่าโรคบางชนิดไม่ได้แสดงอาการในลักษณะเดียวกันขึ้นอยู่กับภูมิหลังทางชาติพันธุ์ของผู้ป่วยตัวอย่างง่ายๆ ที่เห็นได้ชัดเจนคือเครื่องมือ AI ที่สร้างขึ้นเพื่อตรวจจับไฝที่เป็นมะเร็ง ในช่วงเริ่มต้นของการพัฒนา AI จะได้รับการฝึกบนฐานข้อมูลที่ประกอบด้วยภาพผิวขาวเป็นส่วนใหญ่ ซึ่งหมายความว่า AI จะมีโอกาสพบรูปแบบมะเร็งดังกล่าวบนผิวสีเข้มน้อยกว่า

ปัญหาอีกประการหนึ่งที่เกิดจากการใช้ AI ก็คือการเลือกปฏิบัติ รัฐบาลเนเธอร์แลนด์ใช้อัลกอริทึมที่มีชื่อว่า SyRI เพื่อตรวจจับการทุจริตสวัสดิการสังคมที่อาจเกิดขึ้นโดยพิจารณาจากเกณฑ์ต่างๆ เช่น ปริมาณน้ำที่ไหลผ่านในครัวเรือน อย่างไรก็ตาม การร้องขอข้อมูลตามเสรีภาพในการเข้าถึงข้อมูลเผยให้เห็นว่า SyRI ถูกใช้เป็นหลักในย่านที่มีรายได้น้อย ซึ่งทำให้เกิดอคติมากขึ้น ในที่สุด ศาลเนเธอร์แลนด์ในกรุงเฮกตัดสินว่า SyRI ละเมิดมาตรา 8 ของอนุสัญญาว่าด้วยสิทธิมนุษยชนยุโรปที่คุ้มครองสิทธิในการเคารพชีวิตส่วนตัวและครอบครัว ประโยชน์ที่ได้รับจาก AI ไม่ควรถูกบดบังด้วยการเรียนรู้ของเครื่องจักรที่มีอคติซึ่งสามารถแก้ไขได้ด้วยการดูแลของมนุษย์ที่เหมาะสม

ขณะที่ AI กำลังได้รับการเผยแพร่สู่สาธารณะมากขึ้น และความท้าทายต่างๆ ดังกล่าวข้างต้นมีความชัดเจนมากขึ้น รัฐบาลจึงมุ่งเน้นไปที่การสร้างกรอบการทำงานเพื่อรักษาสมดุลระหว่างการสร้างสภาพแวดล้อมที่ไม่เพียงแต่เป็นมิตรต่อธุรกิจในพื้นที่นี้ เช่น องค์กรด้านวิทยาศาสตร์ชีวภาพและบริษัทเภสัชกรรมเท่านั้น แต่ยังต้องให้การปกป้องข้อมูลของเราอย่างเพียงพออีกด้วย

เงินทุนและการลงทุนที่เกิดขึ้นระหว่างการระบาดใหญ่ในภาควิทยาศาสตร์ชีวภาพจะยังคงมีอยู่ต่อไป เนื่องจากนายกรัฐมนตรีต้องการเสริมสร้างบทบาทของสหราชอาณาจักรในฐานะประเทศผู้นำในกิจการนี้ นับตั้งแต่ที่ออกจากสหภาพยุโรป รัฐบาลสหราชอาณาจักรได้ประกาศแผนการลงทุน 14,900 ล้านปอนด์ในปี 2021/2022 และเพิ่มขึ้นเป็น 22,000 ล้านปอนด์ภายในปี 2025 สำหรับการวิจัยและพัฒนาในอุตสาหกรรมวิทยาศาสตร์ชีวภาพ โดยเน้นที่เทคโนโลยี

ในร่างเอกสารนโยบายที่เผยแพร่เมื่อวันที่ 22 มิถุนายน 2021 ชื่อว่า ข้อมูลรักษาชีวิต: การปรับเปลี่ยนการดูแลสุขภาพและสังคมด้วยข้อมูล กระทรวงสาธารณสุขและการดูแลทางสังคมได้กำหนดแผนสำหรับอนาคตในช่วงเวลาที่ข้อมูลด้านสุขภาพของเรามีความสำคัญต่อการเปิดสังคมอีกครั้ง เอกสารนโยบายนี้มุ่งเน้นไปที่การเสริมอำนาจให้กับนักวิจัยด้วยข้อมูลที่จำเป็นในการพัฒนาการรักษาที่ช่วยชีวิตได้ การพัฒนาโครงสร้างพื้นฐานทางเทคนิคที่เหมาะสม และการช่วยเหลือนักพัฒนาและผู้สร้างสรรค์นวัตกรรมในการปรับปรุงสุขภาพและการดูแล โดยเน้นเป็นพิเศษที่การสนับสนุนนวัตกรรม AI รวมถึงการสร้างกรอบการกำกับดูแล AI ที่ชัดเจนและเข้าใจได้ ตัวอย่างเช่น มีการแก้ไขแนวทางของรัฐบาลเกี่ยวกับการจัดซื้อ AI เพื่อกระตุ้นให้องค์กร NHS เป็นผู้ซื้อที่แข็งแกร่งขึ้น และมีการให้คำมั่นสัญญาว่าจะพัฒนามาตรฐานรวมสำหรับการทดสอบประสิทธิภาพและความปลอดภัยของโซลูชัน AI โดยทำงานอย่างใกล้ชิดกับหน่วยงานกำกับดูแลผลิตภัณฑ์ยาและการดูแลสุขภาพและสถาบันแห่งชาติเพื่อความเป็นเลิศด้านสุขภาพและการดูแลภายในปี 2023

โครงการอื่น ๆ คือ AI in Health and Care Awards ในรอบแรกมีผู้ชนะ 42 ราย รวมถึงบริษัทเช่น Kheiron Medical Technologies สำหรับ MIA “Mammography Intelligent Assessment” MIA เป็นซอฟต์แวร์การเรียนรู้เชิงลึกที่พัฒนาขึ้นเพื่อแก้ปัญหาในโครงการตรวจคัดกรองมะเร็งเต้านมของ NHS เช่น การลดการวินิจฉัยที่ผิดพลาดและการจัดการความล่าช้าที่ทำให้ชีวิตของผู้หญิงตกอยู่ในความเสี่ยง การใช้ซอฟต์แวร์ดังกล่าวมีผลกระทบอย่างมากต่อสุขภาพของประชาชน โดยช่วยชีวิตผู้คนได้ด้วยการวินิจฉัยในระยะเริ่มต้นและลดต้นทุนการรักษาที่ NHS เสนอให้ การวิจัยแสดงให้เห็นว่ามีการตัดชิ้นเนื้อประมาณ 20% ที่ไม่จำเป็น

แม้ว่าสหราชอาณาจักรจะไม่ผูกพันตามกฎหมายของสหภาพยุโรปอีกต่อไปแล้ว แต่การพัฒนาในกิจการนี้ที่เกิดขึ้นในทวีปนี้ต้องได้รับการติดตาม ในเดือนเมษายน 2021 คณะกรรมาธิการยุโรปได้เผยแพร่ร่างข้อบังคับ เกี่ยวกับการประสานกฎเกณฑ์ด้าน AI แม้ว่าจะใช้แนวทางตามความเสี่ยงสำหรับ AI แต่ก็ควรสังเกตว่าร่างระเบียบข้อบังคับห้ามใช้ AI สำหรับการให้คะแนนทางสังคมโดยหน่วยงานของรัฐและการจดจำใบหน้าแบบเรียลไทม์ เช่นเดียวกับในคดี Bridges v South Wales Police ในปี 2020 การเพิ่มทรัพยากรให้สูงสุดและการประสานงานการลงทุนยังเป็นองค์ประกอบที่สำคัญของกลยุทธ์ของคณะกรรมาธิการยุโรปอีกด้วย ภายใต้โครงการ Digital Europe และ Horizon Europe คณะกรรมาธิการยังวางแผนที่จะลงทุน 1,000 ล้านยูโรต่อปีในด้าน AI

ขณะนี้สหราชอาณาจักรได้รับสิทธิ์คุ้มครองที่เหมาะสมแล้ว ซึ่งหมายความว่าสหภาพยุโรปยอมรับว่าระดับการคุ้มครองข้อมูลส่วนบุคคลในสหราชอาณาจักรเทียบได้กับกฎหมายของสหภาพยุโรป ข้อมูลจึงสามารถไหลเวียนระหว่างทั้งสองฝ่ายได้อย่างต่อเนื่อง และไม่น่าจะเกิดความแตกต่างอย่างมีนัยสำคัญในอนาคตอันใกล้นี้ ซึ่งก็คล้ายกับโครงการริเริ่มของ Covax ความร่วมมือที่มากขึ้น และการพัฒนา AI ที่สอนโดยใช้ฐานข้อมูลที่ประกอบด้วยข้อมูลของทั้งสหภาพยุโรปและสหราชอาณาจักรนั้นคงไม่น่าแปลกใจ

ปัจจุบัน รัฐบาลและผู้มีส่วนได้ส่วนเสียต่างมองว่า AI คืออนาคตของการดูแลสุขภาพ แม้ว่าการใช้งาน AI จะบ่งบอกถึงคำถามทางจริยธรรมมากมาย แต่ประโยชน์ที่ได้รับนั้นน่าจะมีมากกว่าความเสี่ยง เนื่องจากกรอบการกำกับดูแลที่เกี่ยวข้องกับ AI นั้นให้ทั้งความยืดหยุ่นสำหรับผู้ริเริ่มนวัตกรรม และมีข้อกำหนดที่เข้มงวดในการปกป้องข้อมูลทางการแพทย์ของเรา แนวทางทั้งสองแนวทางที่สหราชอาณาจักรและสหภาพยุโรปใช้ดูเหมือนจะมุ่งเน้นไปที่เกณฑ์เดียวกันซึ่งไม่ค่อยก่อให้เกิดข้อโต้แย้ง อย่างไรก็ตาม รัฐบาลสหราชอาณาจักรจะเต็มใจลงทุนในกิจการนี้มากกว่า โดยอาศัยชื่อเสียงของประเทศในด้านการจัดลำดับจีโนม การพัฒนาที่กำลังจะเกิดขึ้นในสาขานี้ควรได้รับการจับตามองสำหรับทุกคนที่สนใจเทคโนโลยีใหม่ การดูแลสุขภาพ และการปกป้องข้อมูล 

โดยสรุปความก้าวหน้าของ AI มีศักยภาพที่จะเปลี่ยนแปลงหลายๆ ด้านของการดูแลสุขภาพ ทำให้เกิดอนาคตที่เป็นส่วนตัวมากขึ้น แม่นยำขึ้น ทำนายได้แม่นยำขึ้น และพกพาสะดวกขึ้น ยังไม่ชัดเจนว่าเราจะได้เห็นการนำเทคโนโลยีใหม่ๆ มาใช้เพิ่มขึ้นหรือการนำนวัตกรรมทางเทคโนโลยีเหล่านี้มาใช้ในเชิงปฏิวัติหรือไม่ แต่ผลกระทบของเทคโนโลยีดังกล่าวและการฟื้นฟูทางดิจิทัลที่เกิดขึ้นทำให้ระบบสุขภาพต้องพิจารณาว่าจะปรับตัวให้เข้ากับภูมิทัศน์ที่เปลี่ยนแปลงไปได้ดีเพียงใด สำหรับการนำเทคโนโลยีดังกล่าวไปใช้มีศักยภาพอย่างแท้จริงที่จะช่วยประหยัดเวลาในการดูแลผู้ป่วย ทำให้สามารถมุ่งเน้นไปที่สิ่งที่สำคัญสำหรับผู้ป่วย และในอนาคตอาจใช้ประโยชน์จากชุดข้อมูลที่เป็นประชาธิปไตยทั่วโลกซึ่งประกอบด้วย "ระดับความรู้ของมนุษย์สูงสุด" เพื่อ "ทำงานภายใต้ขีดจำกัดของวิทยาศาสตร์" เพื่อส่งมอบมาตรฐานการดูแลผู้ป่วยระดับสูงร่วมกัน ไม่ว่าจะให้บริการที่ไหนและเมื่อใดก็ตาม และโดยใครก็ตาม50 ในระดับโลก AI อาจกลายเป็นเครื่องมือสำคัญในการปรับปรุงความเสมอภาคด้านสุขภาพทั่วโลก

ในช่วง 10 ปีที่ผ่านมา การเปลี่ยนแปลงระบบบันทึกสุขภาพให้เป็นดิจิทัลนั้นมีความสำคัญมาก (และในบางระบบการรักษาพยาบาลก็รวมถึงระบบเรียกเก็บเงิน/การคืนเงิน) แต่ในอีก 10 ปีข้างหน้า สังคมจะมองเห็นคุณค่าและได้รับประโยชน์จากทรัพยากรดิจิทัลเหล่านี้มากขึ้น และจะสามารถนำทรัพยากรดิจิทัลเหล่านี้ไปปรับใช้เพื่อผลลัพธ์ทางคลินิกที่ดีขึ้นได้อย่างไรด้วยความช่วยเหลือของ AI และการสร้างทรัพยากรและเครื่องมือข้อมูลใหม่ๆ ตามมา เห็นได้ชัดว่าเรากำลังอยู่ในจุดเปลี่ยนในแง่ของการบรรจบกันระหว่างการแพทย์กับการประยุกต์ใช้เทคโนโลยี แม้ว่าจะมีโอกาสมากมาย แต่ก็ยังมีความท้าทายอันยิ่งใหญ่ที่ต้องเอาชนะให้ได้เมื่อเกี่ยวข้องกับโลกแห่งความเป็นจริงและขนาดของการนำนวัตกรรมดังกล่าวไปใช้ กุญแจสำคัญในการบรรลุวิสัยทัศน์นี้คือการขยายขอบเขตการวิจัยเชิงแปลผลในสาขาการประยุกต์ใช้ปัญญาประดิษฐ์ในการดูแลสุขภาพ นอกจากนี้ ต้องลงทุนเพื่อยกระดับทักษะของบุคลากรทางการแพทย์และผู้นำในอนาคตที่มีความสามารถด้านดิจิทัล และทำความเข้าใจและยอมรับศักยภาพของระบบการรักษาพยาบาลที่เสริมประสิทธิภาพด้วย AI แทนที่จะรู้สึกหวาดกลัว


เทคโนโลยีปัญญาประดิษฐ์ถูกพิพากษา

 เนื่องจากเทคโนโลยีปัญญาประดิษฐ์ (AI) พัฒนาเร็วขึ้นตลอดเวลา ศาลจึงเริ่มพิจารณาองค์ประกอบพื้นฐานว่าปัญญาประดิษฐ์ได้รับการปฏิบัติแตกต่างจากมนุษย์อย่างไร และส่งผลกระทบต่อกฎหมายที่มีอยู่อย่างไร ในอนาคตไม่ไกล เราไม่ได้มองไปที่หุ่นยนต์อีกต่อไป ปัญญาประดิษฐ์ไม่เพียงแต่มาถึงแล้ว แต่ยังแทรกซึมเข้าไปในแทบทุกอุตสาหกรรมอีกด้วย แน่นอนว่าการเปลี่ยนแปลงดังกล่าวมาพร้อมกับคำถามมากมาย แม้ว่าจะมีสัญญาณบางอย่างบ่งชี้ว่ากฎระเบียบดังกล่าวอาจไม่ก้าวหน้าได้เร็วเท่ากับเทคโนโลยี แต่ศาลก็ได้เริ่มพิจารณาปัญหาเหล่านี้ในระดับเชิงลึกแล้ว เทคโนโลยีปัญญาประดิษฐ์ได้ท้าทายกระบวนการยุติธรรมในศาลแล้ว เกิดคดีขึ้นหลายคดี ดังนี้ 

คดีแรกเทคโนโลยี Deepfake ผู้พิพากษาในรัฐแคลิฟอร์เนียได้แสดงความเห็นว่าการที่เทคโนโลยี Deepfake ที่สร้างโดย AI มีอยู่ทุกหนทุกแห่ง ไม่ได้ทำให้มีการคุ้มครองความคิดเห็นต่อสาธารณะของคนดังแต่ อย่างใด ในคดี Huang v. Teslaครอบครัวผู้สูญเสียของ Walter Huang ซึ่งเป็นชายที่เสียชีวิตขณะใช้ระบบขับเคลื่อนอัตโนมัติของรถยนต์ Tesla ในปี ค.ศ. 2018 ได้ฟ้องบริษัทในข้อหาฆ่าคนตายโดยผิดกฎหมายที่ศาลเมืองซานตาคลารา คำฟ้องกล่าวหาว่า "สภาพบกพร่อง" ของรถยนต์ Tesla เป็นสาเหตุให้ Huang เสียชีวิต นอกจากนี้ โจทก์ยังขอให้ถอดถอนนาย Elon Musk ผู้ร่วมก่อตั้งและซีอีโอของบริษัท Tesla เกี่ยวกับคำแถลงต่อสาธารณะที่ประกาศยืนยันความสามารถในการขับเคลื่อนอัตโนมัติและความปลอดภัยของ Tesla ในบันทึกเมื่อปี ค.ศ. 2016

แต่บริษัทเทสลาได้คัดค้าน โดยให้เหตุผลว่าเนื่องจากนายมัสก์เป็นบุคคลสาธารณะ จึงตกเป็นเป้าหมายของวิดีโอ Deepfake จำนวนมาก และด้วยเหตุนี้ ความถูกต้องของการบันทึกในปี ค.ศ. 2016 จึงเป็นประเด็นในคดีที่ถูกตั้งคำถาม ผู้พิพากษามีความเห็นว่าข้อโต้แย้งของเทสลาในการคัดค้านคำให้การนั้นน่ากังวลอย่างยิ่ง พร้อมทั้งแสดงความคิดเห็นเพิ่มเติมว่า “จุดยืนของเทสลาคือ เนื่องจากนายมัสก์มีชื่อเสียงและอาจเป็นเป้าหมายของวิดีโอ Deepfake มากกว่าคำแถลงต่อสาธารณะของเขาจึงปลอดภัย” และด้วยเหตุนี้ การกระทำดังกล่าวจึงทำให้บุคคลสาธารณะสามารถหลีกเลี่ยงการเป็นเจ้าของสิ่งที่พวกเขาพูดและทำจริง ๆ ก่อนที่คดีจะได้รับการยุติในที่สุด ผู้พิพากษาได้สั่งให้มีการพักการพิจารณาเป็นเวลาสามชั่วโมง โดยจะถามว่ามัสก์ได้ให้การตามบันทึกเสียงจริงหรือไม่ เรื่องดังกล่าวนี้ต้องรอดูกันต่อไปว่าศาลจะให้ความเห็นเป็นอย่างไร 

คดีที่สองสิทธิของนักประดิษฐ์ในหมู่ผู้สร้าง AI ในการต่อสู้ทางกฎหมายอีกครั้ง ค่ายเพลงได้ยื่นฟ้องต่อศาลแขวงกลางสองแห่ง ได้แก่เขตแมสซาชูเซตส์และเขตทางใต้ของนิวยอร์กเมื่อวันที่ 24 มิถุนายน ค.ศ. 2024 โดยฟ้องผู้สร้าง AI ของเพลงออนไลน์ในข้อหาละเมิดลิขสิทธิ์เนื้อหาเสียงที่สร้างโดย AI ค่ายเพลงกล่าวหาว่าผู้สร้าง AI ของเพลงออนไลน์ "สามารถทำงานได้ในลักษณะเดียวกับที่ทำอยู่โดยคัดลอกไฟล์เสียงจำนวนมากจากศิลปินจากทุกประเภท สไตล์ และยุคสมัย" ซึ่งส่วนใหญ่เป็นไฟล์เสียงที่ค่ายเพลงที่ฟ้องร้องเป็นเจ้าของหรือควบคุมแต่เพียงผู้เดียว ในปีก่อนหน้านั้นมีการยื่นฟ้อง OpenAI ต่อศาลรัฐบาลกลางในเขตทางตอนเหนือของแคลิฟอร์เนีย โดยกล่าวหาสาเหตุการดำเนินคดีหลายประการ รวมถึงการละเมิดลิขสิทธิ์โดยตรงและโดยอ้อม การละเมิด Digital Millennium Copyright Act การแข่งขันที่ไม่เป็นธรรม การละเลย และการได้มาซึ่งผลประโยชน์โดยมิชอบ มีการโต้แย้งว่า OpenAI กำลังใช้ผลงานศิลปะของตนอย่างผิดกฎหมายเพื่อฝึกอบรม ChatGPT ในที่สุดคำร้องก็ได้รับการแก้ไข เหลือเพียงการเรียกร้องการละเมิดลิขสิทธิ์โดยตรงเท่านั้น หลังจากที่ผู้พิพากษาได้พิจารณาอย่างละเอียดถี่ถ้วน รวมถึงความล้มเหลวของโจทก์ในการกล่าวหาความคล้ายคลึงกันอย่างมีนัยสำคัญระหว่างผลงานของโจทก์และผลลัพธ์ของ ChatGPT คดีนี้ยังอยู่ระหว่างดำเนินการ

คดีที่สามสิทธิบัตร ศาลฎีกาของสหรัฐฯ ปฏิเสธที่จะรับพิจารณาอุทธรณ์เนื่องจากสำนักงานสิทธิบัตรและเครื่องหมายการค้าของสหรัฐฯปฏิเสธที่จะออกสิทธิบัตรที่สร้างขึ้นโดย AI ในเดือนเมษายน สตีเฟน เธเลอร์ นักวิทยาศาสตร์คอมพิวเตอร์ เคยยื่นจดสิทธิบัตรสิ่งประดิษฐ์สองชิ้นที่ระบบ AI ของเขาสร้างขึ้นมาก่อน สำนักงานสิทธิบัตรและเครื่องหมายการค้าและผู้พิพากษาในรัฐเวอร์จิเนียเคยปฏิเสธคำขอจดสิทธิบัตรดังกล่าวโดยให้เหตุผลว่าผู้ประดิษฐ์ที่ระบุไว้ในคำขอไม่ใช่บุคคลธรรมดาตามที่กฎหมายสิทธิบัตรของรัฐบาลกลางกำหนด การที่ศาลฎีกาปฏิเสธที่จะอนุมัติการอุทธรณ์ของเธเลอร์นั้นส่งสัญญาณถึงขอบเขตที่ชัดเจน ผู้ประดิษฐ์เพื่อวัตถุประสงค์ด้านสิทธิบัตรจะต้องเป็นมนุษย์

สำหรับกรณีที่เกี่ยวข้องกับ AI ที่กล่าวหาว่าละเมิดลิขสิทธิ์ผลงานของผู้สร้างสรรค์ที่จะเกิดขึ้นในอนาคต การวิเคราะห์ของคณะกรรมการส่วนใหญ่น่าจะเน้นไปที่ว่าผลงานที่ผลิตโดย AI มีความคล้ายคลึงกับผลงานต้นฉบับที่ส่งเข้าเครื่องมือ AI มากน้อยเพียงใด ในการวิเคราะห์นี้ คณะกรรมการจะต้องให้รายละเอียดและคำจำกัดความเกี่ยวกับสิ่งที่ทำให้สิ่งประดิษฐ์นั้นสร้างขึ้นโดย AI และ AI สามารถมีส่วนร่วมในกระบวนการประดิษฐ์ได้มากน้อยเพียงใด ก่อนที่ผลิตภัณฑ์ขั้นสุดท้ายจะถูกพิจารณาว่าสร้างขึ้นโดย AI

คดีที่สี่ หลักฐานวิดีโอที่ปรับปรุงด้วย AI ในศาลอาญา ในคดี State of Washington v. Pulokaศาลชั้นสูงของรัฐวอชิงตันปฏิเสธการยอมรับหลักฐานวิดีโอที่ได้รับการปรับปรุงด้วย AI ในการพิจารณาคดีอาญา เนื่องจากมีเหตุผลหลายประการ คือ ชุมชนการวิเคราะห์วิดีโอทางนิติเวชไม่ถือว่าหลักฐานดังกล่าวเป็นแหล่งหลักฐานที่เชื่อถือได้ ในกรณีนี้ ฝ่ายจำเลยพยายามนำวิดีโอสมาร์ทโฟนที่ปรับปรุงด้วย AI มาเป็นหลักฐาน โดยให้เหตุผลว่าวิดีโอต้นฉบับมีความละเอียดต่ำ เบลอภาพจากการเคลื่อนไหวมาก และภาพไม่ชัด ในการตัดสินว่าการบันทึกดังกล่าวเป็นที่ยอมรับได้หรือไม่ ศาลรับฟังคำให้การว่าเครื่องมือ AI ได้เพิ่มและเปลี่ยนแปลงเนื้อหาจากวิดีโอต้นฉบับ และแม้ว่าการปรับปรุงด้วย AI จะทำให้วิดีโอเป็น "ผลิตภัณฑ์ที่น่าดึงดูดใจสำหรับผู้ใช้มากขึ้น" แต่ก็ไม่ได้รักษาความสมบูรณ์ของภาพเอาไว้ ดังนั้น การวิเคราะห์วิดีโอทางนิติเวชจะไม่ยอมรับเทคนิคนี้ในการประเมินวิดีโอในบริบททางกฎหมาย

ทั้งนี้ ศาลพบว่าการใช้ AI เพื่อปรับปรุงวิดีโอในการพิจารณาคดีอาญาเป็นเทคนิคใหม่ และด้วยเหตุนี้ จึงต้องผ่านการทดสอบ Frye ซึ่งระบุว่า “[มาตรฐานในการยอมรับหลักฐานที่ใช้ทฤษฎีหรือหลักการทางวิทยาศาสตร์ใหม่คือว่าหลักฐานนั้นได้รับการยอมรับโดยทั่วไปในชุมชนวิทยาศาสตร์ที่เกี่ยวข้องหรือไม่” ในแวดวงวิทยาศาสตร์ในคดีนี้คือ กลุ่มผู้เชี่ยวชาญการวิเคราะห์วิดีโอทางนิติเวช และฝ่ายจำเลยไม่ได้ให้หลักฐานที่เพียงพอว่าการใช้ AI เพื่อปรับปรุงวิดีโอหลักฐานในการพิจารณาคดีอาญาเป็นที่ยอมรับโดยทั่วไปจากกลุ่มนี้

อย่างไรก็ตาม แม้ว่าศาลชั้นสูงของวอชิงตันจะตัดสินเช่นนี้ แต่ก็มีข้อบ่งชี้ว่าหลักฐานเสียงที่ได้รับการปรับปรุงด้วย AI อาจได้รับการต้อนรับในศาลมากกว่า แม้ว่าศาลจะยังคงใช้ การทดสอบ Frye และนำหลักฐานที่เสนอมาไปใช้กับมาตรฐานที่กำหนดไว้ในกฎหมายที่เกี่ยวข้อง แต่เสียงที่ได้รับการปรับปรุงด้วย AI เช่น การใช้เอฟเฟกต์งานเลี้ยงค็อกเทลเพื่อลดเสียงรบกวนพื้นหลังในเสียงนั้น มีความแตกต่างที่สำคัญอย่างหนึ่งจากเสียงที่ได้รับการปรับปรุงด้วย AI ในหลายๆ ด้าน การปรับปรุงเสียงด้วย AI จะใช้ AI เพื่อแยกเนื้อหาเพื่อช่วยให้ผู้ฟังมุ่งความสนใจไปที่ เนื้อหา ที่มีอยู่แล้ว ในขณะที่ในวิดีโอที่ได้รับการปรับปรุงด้วย AI จาก Puloka นั้น AI จะเข้ามาเพิ่มในเนื้อหา

ปัจจุบัน ในขณะที่ศาลต่างๆกำลังเผชิญกับการเริ่มต้นของการฟ้องร้องที่เกี่ยวข้องกับ AI อีกไม่นานศาลสูงสุดของประเทศก็จะเข้ามาเกี่ยวข้องในการพิจารณาคดีนี้ ด้วยเศรษฐกิจระหว่างรัฐและโลกาภิวัตน์ที่เพิ่มมากขึ้น และความเร็วและความลึกที่ AI ถูกผนวกเข้าในรูปแบบธุรกิจโซเชียลมีเดียการดูแลสุขภาพและความบันเทิงจึงไม่ใช่คำถามว่าจะเกิดขึ้นหรือไม่แต่เป็นเรื่องของเวลาว่าศาลจะพิจารณาปัญหาที่คล้ายกันหรือไม่ แต่สิ่งหนึ่งที่แน่นอนคือ AI กำลังพัฒนาเร็วกว่าที่เคย และไม่ช้าก็เร็ว ศาล ทุกแห่งจะต้องรับมือกับองค์ประกอบพื้นฐานว่า AI ได้รับการปฏิบัติแตกต่างจากมนุษย์อย่างไร และส่งผลกระทบต่อกฎหมายที่มีอยู่อย่างไร


เทคโนโลยีปัญญาประดิษฐ์ในวิชาชีพกฎหมาย

 ท่ามกลางยุคสมัยที่อุตสาหกรรมกฎหมายเปลี่ยนแปลงอย่างรวดเร็วนี้ เทคโนโลยีได้เปลี่ยนแปลงแนวทางปฏิบัติของกฎหมาย ทำให้มีประสิทธิภาพมากขึ้น ดังนั้น จะเห็นได้ว่าเครื่องจักรได้เข้ามาแทนที่งานของผู้คนทุกที่ ในอดีตระบบตรวจสอบคำสะกดและเครื่องมือค้นหาเป็นเทคโนโลยีสารสนเทศอัจฉริยะ และมีการพัฒนาระบบจดจำใบหน้าตรวจสอบผู้โดยสารที่สนามบิน เทคโนโลยี Google Maps ให้คำแนะนำเกี่ยวกับจุดหมายปลายทางโดยไม่ได้ร้องขอ หนังสือพิมพ์พูดถึงความยุติธรรมของหุ่นยนต์ มีการอ้างว่าอัลกอริทึมสามารถทำนายคำตัดสินของศาลได้อย่างแม่นยำ จึงไม่จำเป็นต้องมีผู้พิพากษาที่เป็นมนุษย์อีกต่อไป เรามักพูดคุยเกี่ยวกับสิ่งที่ยังไม่มีอยู่ และจินตนาการว่าสิ่งเหล่านั้นจะทำให้ชีวิตของเราง่ายขึ้นได้อย่างไร แต่เราทราบอะไรเกี่ยวกับการใช้ปัญญาประดิษฐ์บ้างแล้ว บทความนี้จะสำรวจศักยภาพและความเสี่ยงของปัญญาประดิษฐ์ในศาลโดยอาศัยความรู้ในปัจจุบัน จึงมีการโต้แย้งว่าเครื่องจักรไม่ควรมาแทนที่มนุษย์ แต่เนื่องจากเทคโนโลยียังคงส่งอิทธิพลและปรับเปลี่ยนอุตสาหกรรมกฎหมายอย่างต่อเนื่อง

ก่อนที่เทคโนโลยีจะเข้ามา ทนายความเคยเป็นคลังข้อมูลกฎหมายเคลื่อนที่ ตัวอย่างเช่น ลอร์ดเดนนิ่งมีชื่อเสียงในความสามารถจดจำคดีต่างๆ เมื่อเทคโนโลยีก้าวหน้าขึ้น การเข้าถึงข้อมูลก็เพิ่มขึ้นเช่นกัน ไม่จำเป็นต้องมีห้องสมุดกฎหมายอยู่ในหัวอีกต่อไป ทนายความสมัยใหม่ยังคงต้องรู้กฎหมาย แต่มีการเน้นย้ำทักษะทางสังคมที่จำเป็นในการจัดการกับลูกความมากขึ้น แต่ถึงอย่างนั้น ทักษะเหล่านี้ก็ยังอยู่ในภาวะเสี่ยง ทนายความหุ่นยนต์ได้เกิดขึ้นแล้ว ซึ่งสามารถตาดการ์ผลลัพธ์ของคดีและแม้แต่ให้คำแนะนำทางกฎหมายในบางกรณี แต่ทนายความสมัยใหม่ยังคงมีความหวัง บ่อยครั้ง วิธีแก้ปัญหาที่ดีที่สุดอาจไม่ใช่การแก้ปัญหาทางกฎหมาย คุณค่าของทนายความจึงอยู่ที่ความสามารถในการประเมินทางเลือกทางกฎหมายและไม่ใช่กฎหมายต่างๆ ที่มีให้ลูกความ และให้คำแนะนำตามความเหมาะสม

ทัศนะของนักกฎหมายพหุนิยมที่ว่ากฎหมายไม่ใช่ระเบียบเชิงบรรทัดฐานเพียงอย่างเดียว บรรทัดฐานอื่นๆ เช่น ศีลธรรมของสังคมมีบทบาทในการควบคุมปฏิสัมพันธ์ในชีวิตประจำวันของเรา นี่คือจุดที่ AI ล้มเหลว เนื่องจากไม่สามารถคำนึงถึงบรรทัดฐานอื่นๆ ได้ แต่ทนายความสามารถให้คำแนะนำลูกความได้ดีขึ้น ซึ่งนั่นหมายความว่าทนายความในยุคใหม่ต้องก้าวข้ามกรอบการพิจารณาคดีและเรียนรู้ที่จะเห็นอกเห็นใจลูกความในสถานการณ์ต่างๆ ทนายความมีบทบาทเป็นที่ปรึกษามากกว่าที่เคย

ปัจจุบัน AI สามารถถูกนำมาใช้ในศาลในหลายๆ ด้าน เช่น การวิเคราะห์ข้อมูลทางกฎหมาย: AI สามารถช่วยให้ทนายความค้นหาบรรทัดฐานในกฎหมาย การปรับกระบวนการ: AI สามารถช่วยในการทำงานด้านการบริหาร เช่น การจัดสรรคดีให้กับผู้พิพากษาและรับรองความไม่เปิดเผยตัวตนของเอกสารทางศาล การคาดการณ์ผลลัพธ์: AI สามารถช่วยให้ผู้พิพากษาคาดการณ์ประเด็นต่างๆ เช่น ระยะเวลาการพิพากษาและคะแนนการกระทำผิดซ้ำ การร่างเอกสารทางกฎหมาย: เครื่องมือ AI เช่น ChatGPT สามารถร่างเอกสารทางกฎหมายได้ การดำเนินการวิจัยทางกฎหมาย: เครื่องมือ AI เช่น ChatGPT สามารถดำเนินการวิจัยทางกฎหมาย การปรับปรุงประสิทธิภาพและความเท่าเทียม: เครื่องมือ AI สามารถปรับปรุงประสิทธิภาพและความเท่าเทียมสำหรับจำเลยและการเป็นตัวแทนทางกฎหมาย และการจัดโครงสร้างข้อมูล: AI สามารถช่วยจัดโครงสร้างข้อมูลจำนวนมากได้

จคงอาจกล่าวได้ว่า AI ก็มีลกระทบต่อผู้พิพากษาเช่นกัน หากเทคโนโลยีพัฒนาไปถึงจุดที่สามารถคาดการณ์คดีได้ 100% AI อาจเข้ามาแทนที่ผู้พิพากษาได้ ว่าจะทำได้หรือไม่นั้นต้องย้อนกลับไปที่รากฐานทางปรัชญาของกฎหมายเอง โดยย้อนกลับไปดูข้อถกเถียงทางนิติศาสตร์ที่ยิ่งใหญ่ในยุคของเรา หากเราคิดว่ากฎหมายเป็นเพียงชุดกฎเกณฑ์ที่คลุมเครือที่ต้องนำไปใช้ AI ก็สามารถเข้ามาแทนที่ผู้พิพากษาได้ เพราะท้ายที่สุดแล้ว AI เพียงแค่ต้องเปรียบเทียบรูปแบบข้อเท็จจริงในคดีที่อยู่ระหว่างการพิจารณากับฐานข้อมูลคดีที่ตัดสินไปแล้ว เพื่อที่จะตัดสินคดีได้ ซึ่งวิธีนี้จะฝังรากลึกในหลักกฎหมาย ส่งผลให้หลักการทางกฎหมายถูกนำไปใช้กับข้อเท็จจริงอย่างเป็นกลไก

อย่างไรก็ตาม ทั้งกฎหมายทั่วไปและกฎหมายแพ่งต่างปฏิเสธแนวทางนี้โดยสิ้นเชิง ผู้พิพากษาจากทั้งสองฝ่ายของกฎหมายทั่วไปและกฎหมายแพ่งยังคงหาวิธีสร้างสรรค์ในการให้ความยุติธรรมในคดีที่ยาก โดยมักจะทำโดยอาศัยคำพูดของกฎหมาย กฎหมายจำเป็นต้องมีความแน่นอน แต่ต้องมีความยืดหยุ่นเพื่อให้เกิดความยุติธรรมในคดีที่ยาก ผู้พิพากษาจึงไม่เพียงแต่ใช้กฎอย่างเคร่งครัดตามตรรกะเท่านั้น บ่อยครั้ง อารมณ์ก็มีบทบาทในการตัดสินใจของศาลเช่นกัน ความเห็นอกเห็นใจซึ่งเกิดจากความจริงที่ว่าเราเป็นมนุษย์ ช่วยให้ประเมินได้โดยสัญชาตญาณว่าความยุติธรรมควรอยู่ที่ใด และพยายามอย่างเต็มที่เพื่อตอบสนองต่อความยุติธรรมนั้น เท่าที่ทุกคนทราบ AI ยังต้องพัฒนาความสามารถในการใช้ความรู้สึก หาก AI เข้ามามีบทบาทในการตัดสิน นั่นหมายถึงการสิ้นสุดของกฎหมายตามที่เรารู้จัก เราจะต้องเสียสละความยืดหยุ่นบนแท่นบูชาแห่งความแน่นอน กฎหมายจะกลายเป็นหิน กฎหมายจะไม่สามารถเปลี่ยนแปลงเพื่อตอบสนองความต้องการของสังคมหรือให้ความยุติธรรมแก่ผู้เรียกร้องที่สมควรได้รับได้อีกต่อไป อาจเกิดความอยุติธรรมขึ้นอันเป็นผลให้สูญเสียความเชื่อมั่นในระบบกฎหมาย

นั่นไม่ได้หมายความว่า AI จะไม่สามารถช่วยเหลือผู้พิพากษาได้ เทคโนโลยีการทำนายนี้สามารถใช้ประโยชน์เพื่อเพิ่มประสิทธิภาพของศาลได้ ผู้พิพากษาต้องวิเคราะห์ข้อมูลจำนวนมากเมื่อต้องตัดสินคดี AI สามารถช่วยย่นระยะเวลาของกระบวนการดังกล่าวได้ โดยใช้พลังของการวิเคราะห์ข้อมูลเพื่อค้นหาและกลั่นกรองหลักการทางกฎหมายที่เกี่ยวข้อง ซึ่งจะช่วยเพิ่มการเข้าถึงความยุติธรรมโดยไม่กระทบต่อคุณภาพของคำตัดสิน ในประเทศเช่นอินเดียซึ่งมีคดีค้างจำนวนมาก การดำเนินการดังกล่าวอาจช่วยเปลี่ยนแปลงสถานการณ์ได้ นอกจากนี้ ยังอาจช่วยปรับประสานกฎหมายได้อีกด้วย AI อาจถูกนำมาใช้เพื่อให้ผู้พิพากษามีมุมมองเชิงเปรียบเทียบเพิ่มเติมโดยวิเคราะห์คำตัดสินของเขตอำนาจศาลต่างประเทศ ซึ่งจะเพิ่มโอกาสในการนำกฎหมายมาใช้ อย่างไรก็ตาม AI สามารถและควรมีบทบาทสนับสนุนเท่านั้น มนุษย์ยังคงต้องเป็นผู้ควบคุมเครื่องจักร

ความก้าวหน้าทางเทคโนโลยีได้เข้ามามีบทบาทอย่างมากในแวดวงกฎหมาย ท่ามกลางคำมั่นสัญญาที่ไม่เคยบอกใครเกี่ยวกับประสิทธิภาพและความแน่นอน เราควรทำแบบที่โฮเมอร์ทำกับไซเรน นั่นคืออุดหูตัวเองด้วยขี้ผึ้งและต่อต้านคำดึงดูดที่ AI ดูเหมือนจะสัญญาไว้ ยิ่งไปกว่านั้น จึงจำเป็นต้องหวนคิดถึงแก่นแท้ของวิชาชีพกฎหมายอีกด้วย โดยต้องพยายามทำความเข้าใจอีกครั้งว่าการเป็นทนายความหมายความว่าอย่างไรและกฎหมายคืออะไร จากนั้นเท่านั้น เราจึงจะตัดสินใจได้ว่า AI จะช่วยให้วิชาชีพนี้บรรลุเป้าหมายนิรันดร์ในการทำให้มั่นใจว่าความยุติธรรมเกิดขึ้นได้อย่างไร

 

ความท้าทายของอาวุธอัตโนมัติในทางกฎหมายระหว่างประเทศ

 ปัญญาประดิษฐ์ (AI) ถือเป็นเทคโนโลยีรูปแบบใหม่ที่เกิดขึ้นอย่างรวดเร็วที่สุดในสังคมยุคใหม่ แทบทุกภาคส่วนและกระบวนการทางสังคมได้รับอิทธิพลจากเทคโนโลยีปัญญาประดิษฐ์และกองทัพก็ไม่มีข้อยกเว้น AI ได้รับการยอมรับอย่างมั่นคงว่าเป็นหนึ่งในเทคโนโลยีที่เป็นที่ต้องการมากที่สุดสำหรับประเทศต่างๆ ที่จะนำมาใช้ในความขัดแย้งทางอาวุธ โดยหลายประเทศพยายามทดสอบขีดจำกัดของอาวุธอัตโนมัติสื่อกระแสหลักเผยแพร่บทความข่าวมากมายเกี่ยวกับ " หุ่นยนต์สังหาร"และความเสี่ยงที่อาจเกิดขึ้นกับมนุษยชาติ อย่างไรก็ตาม ความเป็นจริงของผลกระทบของ AI ต่อการใช้อาวุธระดับทหารนั้นยังไม่ชัดเจนนัก

กฎหมายมนุษยธรรมระหว่างประเทศ (IHL) เฝ้าติดตามอย่างใกล้ชิดมาตั้งแต่มีการใช้ทุ่นระเบิดต่อต้านบุคคลในทศวรรษ1940โดยติดตามความก้าวหน้าทางเทคโนโลยีของแต่ละประเทศอย่างใกล้ชิด และตอบสนองต่อผลที่ตามมาจากการใช้งาน ซึ่งกฎหมายมนุษยธรรมระหว่างประเทศมีไว้เพื่อปกป้องพลเรือนที่ไม่ได้มีส่วนเกี่ยวข้องโดยตรงในความขัดแย้ง และเพื่อจำกัดและควบคุมบางแง่มุมของสงคราม อย่างไรก็ตาม ระบบอาวุธอัตโนมัติกำลังพัฒนาเร็วกว่ากฎหมาย   และนักวิจารณ์กฎหมายจำนวนมากกังวลในหลายประเด็น เช่น มนุษยชาติอาจต้องเผชิญกับความเสี่ยงจากตลาดเทคโนโลยีที่ผูกขาดและผูกติดกับการเมือง ควรจะมีกฎหมายกำกับดูแลหรือไม่ และหากบังคับใช้ กฎหมายจะมีลักษณะอย่างไร และใครจะต้องรับผิดชอบ?

อาวุธอัตโนมัติเป็นแนวหน้าของเทคโนโลยีทางการทหารตั้งแต่ช่วงปี 1900โดยมีบทบาทสำคัญในความขัดแย้งครั้งใหญ่ เช่นสงครามอ่าวเปอร์เซียการใช้งานอาวุธอัตโนมัติครั้งแรกคือในรูปแบบของทุ่นระเบิดต่อต้านบุคคล ทุ่นระเบิดต่อต้านบุคคลทำงานโดยเซ็นเซอร์ โดยผู้ปฏิบัติการไม่ต้องรับผิดชอบว่าใครเสียชีวิต ส่งผลให้พลเรือนเสียชีวิต จำนวนมากอย่างหลีกเลี่ยงไม่ได้ ส่งผลให้ทุ่นระเบิดต่อต้านบุคคลทำงานโดยเซ็นเซอร์ถูกห้ามใช้ตามสนธิสัญญาออตตาวาปี 1997อย่างไรก็ตาม การใช้อาวุธอัตโนมัติเพิ่งเริ่มต้นเท่านั้น

ในช่วงทศวรรษ 1970 กองทัพเรือสหรัฐได้พัฒนาและใช้งานเรือดำน้ำอัตโนมัติ ซึ่งเป็นเทคโนโลยีที่ต่อมาได้ขายให้กับประเทศที่มีความก้าวหน้าทางเทคโนโลยี อื่นๆ อีกหลายประเทศ นับตั้งแต่มีการนำ AI ขั้นสูงมาใช้ ระดับของอาวุธที่ประเทศต่างๆ สามารถพัฒนาได้นั้นทำให้มีการบัญญัติศัพท์ใหม่ขึ้นมา นั่นก็คือ 'LAWS' ระบบอาวุธอัตโนมัติที่ทำลายล้างได้ (LAWS) คืออาวุธที่ใช้เทคโนโลยี AI ขั้นสูงเพื่อระบุเป้าหมายและนำไปใช้งานโดยแทบไม่มีมนุษย์เข้ามาเกี่ยวข้องเลย ในงานวิจัยทางวิชาการกฎหมายแบ่งออกเป็น 3 ระดับของความเป็นอิสระ ซึ่งแต่ละระดับจะมีลักษณะเฉพาะตามปริมาณการมีส่วนร่วมของผู้ปฏิบัติการที่จำเป็นในการใช้งาน ระดับแรกคือ "อาวุธอัตโนมัติภายใต้การควบคุมดูแล" หรือที่เรียกอีกอย่างว่า "มนุษย์อยู่ในวงจร" อาวุธเหล่านี้อนุญาตให้มนุษย์เข้ามาแทรกแซงเพื่อยุติการโจมตี ระดับที่สองคือ "อาวุธกึ่งอัตโนมัติ" หรือ "มนุษย์อยู่ในวงจร" อาวุธที่เมื่อถูกโจมตีแล้วจะกำหนดเป้าหมายที่ตั้งไว้ล่วงหน้า ระดับที่สามคือ "อาวุธอัตโนมัติเต็มรูปแบบ" หรือ "มนุษย์อยู่นอกวงจร" ซึ่งระบบอาวุธไม่มีผู้ปฏิบัติการเข้ามาเกี่ยวข้องเลย

กฎหมายอาศัยความก้าวหน้าของ AI เพื่อให้มีความแม่นยำมากขึ้น ปัจจุบันมีกฎหมายหลายฉบับทั้งที่ใช้งานอยู่และอยู่ระหว่างการพัฒนา ได้แก่:

รถถัง Uran 9ที่พัฒนาโดยรัสเซียสามารถระบุเป้าหมายและใช้งานโดยไม่ต้องมีผู้ปฏิบัติการเข้ามาเกี่ยวข้อง

เครื่องบินรบไร้คนขับ Taranisกำลังได้รับการพัฒนาในสหราชอาณาจักรโดย BAE Systems ซึ่งเป็นเครื่องบินเจ็ทไร้คนขับที่ใช้โปรแกรม AI เพื่อโจมตีและทำลายพื้นที่ขนาดใหญ่ด้วยการเขียนโปรแกรมเพียงเล็กน้อย

การนำ AI มาใช้ในกองทัพนั้นมีขอบเขตที่กว้างขวาง อย่างไรก็ตาม เช่นเดียวกับอาวุธอัตโนมัติเหล่านี้ ปัญญาประดิษฐ์มีความซับซ้อนมากขึ้นเรื่อยๆ และการนำไปใช้ในเทคโนโลยีของกองทัพก็ไม่ต่างกัน มีการใช้ AI ในด้านต่างๆ มากกว่าด้านอื่นๆ ตัวอย่างเช่น การจดจำใบหน้าสามารถใช้ในวงกว้างเพื่อระบุเป้าหมายในฝูงชน นอกจากนั้น อาวุธบางชนิดยังมีเทคโนโลยีที่สามารถคำนวณโอกาสในการโจมตีเป้าหมายและการโจมตีเป้าหมายครั้งที่สองโดยการติดตามการเคลื่อนไหว ซึ่งถูกนำมาใช้ในการใช้งานโดรนโดยเฉพาะเพื่อติดตามเป้าหมายเมื่อเคลื่อนที่จากอาคารหนึ่งไปยังอีกอาคารหนึ่ง

ในขณะที่พัฒนาการทางกฎหมายนั้น กฎหมายมนุษยธรรมระหว่างประเทศเป็นกฎหมายที่ใช้บังคับระหว่างความขัดแย้งทางอาวุธ กฎหมายดังกล่าวมีขอบเขตนอกอาณาเขตที่กว้างไกลและมุ่งหมายที่จะปกป้องผู้ที่ไม่ได้มีส่วนเกี่ยวข้องในการปฏิบัติความขัดแย้ง ตลอดจนจำกัดการทำสงครามและยุทธวิธีทางการทหารกฎหมายมนุษยธรรมระหว่างประเทศมีหลักการพื้นฐานสี่ประการ ได้แก่ การรับรองความแตกต่างระหว่างพลเรือนและทหาร ความสมส่วน (การรับรองว่าความก้าวหน้าทางการทหารใดๆ จะต้องสมดุลระหว่างชีวิตพลเรือนและการได้รับผลประโยชน์ทางทหาร) การรับรองว่าปฏิบัติตามข้อควรระวังในการโจมตี และหลักการของ"มนุษยธรรม"กฎหมายมนุษยธรรมระหว่างประเทศติดตามความคืบหน้าของอาวุธที่ประเทศต่างๆ เริ่มใช้และพัฒนาอย่างใกล้ชิด และ (ในทางทฤษฎี) กำลังพิจารณาว่าการใช้อาวุธเหล่านี้สอดคล้องกับหลักการของประเทศนั้นๆ หรือไม่ อย่างไรก็ตาม ในปัจจุบัน กฎหมายที่เกี่ยวข้องกับกฎหมายมนุษยธรรมระหว่างประเทศยังไม่ชัดเจน ด้วยกฎหมายมนุษยธรรมระหว่างประเทศที่เพิ่มขึ้น กฎหมายมนุษยธรรมระหว่างประเทศจำเป็นต้องปรับตัวและเข้มงวดข้อจำกัดเกี่ยวกับระบบบางอย่าง

ความกังวลหลักประการหนึ่งอยู่ที่กฎเกณฑ์การแยกแยะมีการโต้แย้งกันว่าอาวุธที่กึ่งอัตโนมัติหรืออัตโนมัติทั้งหมด (ระบบที่มนุษย์อยู่ในวงจรและนอกวงจร) ไม่สามารถแยกแยะระหว่างหน่วยงานพลเรือนและทหารได้ ซึ่งหมายความว่าชีวิตผู้บริสุทธิ์อาจถูกพรากไปจากความผิดพลาดของระบบอัตโนมัติ ดังที่กล่าวไว้ก่อนหน้านี้ อาวุธอัตโนมัติไม่ใช่แนวคิดใหม่ และภายหลังการใช้ทุ่นระเบิดต่อต้านบุคคลอัตโนมัติในช่วงปี 1900 อาวุธเหล่านี้ก็ถูกจำกัดเนื่องจากไม่มีความแตกต่างระหว่างพลเรือนที่ "เหยียบทุ่นระเบิด" และเจ้าหน้าที่ทหารที่ "เหยียบทุ่นระเบิด"กฎหมายมนุษยธรรมระหว่างประเทศใช้กฎเกณฑ์การแยกแยะเพื่อเสนอห้ามซึ่งลงนามโดย 128 ประเทศในสนธิสัญญาออตตาวาปี 1997

เงื่อนไขข้อ Marten ซึ่งเป็นมาตราหนึ่งของอนุสัญญาเจนีวา มีเป้าหมายเพื่อควบคุมแนวคิดที่ว่า “สิ่งใดก็ตามที่ไม่ได้ถูกควบคุมโดยชัดแจ้งก็ถือว่าไม่ได้ถูกควบคุม” กฎหมายมนุษยธรรมระหว่างประเทศจำเป็นต้องควบคุมการพัฒนา และในระดับหนึ่งจะต้องป้องกันการพัฒนาอาวุธที่ละเมิดกฎหมายบางประการโดยตรง ตัวอย่างเช่น การห้ามใช้อาวุธอัตโนมัติที่ "ทำให้ตาบอดด้วยเลเซอร์"ในปี 1990 ซึ่งเกิดจากการที่ "ทำให้ตาบอดด้วยเลเซอร์" ถูกมองว่าเป็นรูปแบบหนึ่งของการทรมานซึ่งละเมิดสิทธิมนุษยชนที่ได้รับการคุ้มครองโดยตรง นั่นคือสิทธิที่จะไม่ถูกทรมานในเวลานั้น อาวุธที่ "ทำให้ตาบอดด้วยเลเซอร์" ยังไม่ได้ใช้ในความขัดแย้งทางอาวุธ อย่างไรก็ตาม ประเด็นที่เกี่ยวข้องกับผลกระทบทางจริยธรรมของอาวุธเหล่านี้ต่อเชลยศึกถือเป็นข้อกังวลของกฎหมายมนุษยธรรมระหว่างประเทศ

แต่น่าเสียดายที่โอกาสมีน้อยมาก ประเทศที่พัฒนาแล้วทางเศรษฐกิจสามารถซื้อและควบคุมตลาดระบบอาวุธอัตโนมัติที่ทำลายล้างได้ ในขณะที่ประเทศที่พัฒนาแล้วทางเศรษฐกิจน้อยกว่าไม่สามารถซื้อเทคโนโลยีเหล่านี้ได้ จึงมีการเรียกร้องให้มีการห้ามใช้กฎหมายระหว่างประเทศทั้งหมด โดยผู้วิจารณ์กฎหมายระบุว่ากฎหมายมนุษยธรรมระหว่างประเทศไม่สามารถบรรลุเป้าหมายได้ตามมาตรฐานสูงสุดด้วยการอนุญาตให้มีการดำรงอยู่ พัฒนา และใช้งานกฎหมาย มนุษยธรรมระหว่าง ประเทศได้ มีการโต้แย้งว่าประเด็นหลักที่เชื่อมโยงปัญญาประดิษฐ์ กฎหมาย และกฎหมายมนุษยธรรมระหว่างประเทศเข้าด้วยกันคือคำถามว่า ควรไว้วางใจให้เครื่องจักรตัดสินใจเกี่ยวกับชีวิตหรือความตายหรือไม่

แม้จะมีเทคโนโลยีการจดจำใบหน้าขั้นสูงก็ตาม แต่นักวิจารณ์เรียกร้องให้มีการแบน เนื่องจากไม่มีเทคโนโลยีใดที่ปราศจากข้อบกพร่อง แล้วจะสรุปได้อย่างไรว่าระบบต่างๆ เช่น การจดจำใบหน้ามีความแม่นยำเต็มที่การใช้อาวุธที่ควบคุมโดยมนุษย์โดยสมบูรณ์ และมนุษย์ไม่สามารถควบคุมเทคโนโลยีได้ในทุกกรณี หมายความว่าพลเรือนมีความเสี่ยง มีการโต้แย้งว่าการกระทำดังกล่าวละเมิดหลักการของกฎหมายมนุษยธรรมระหว่างประเทศอย่างสิ้นเชิง

นักวิชาการด้านกฎหมายบางคนโต้แย้งว่าการใช้กฎหมายมนุษยธรรมควรขึ้นอยู่กับนโยบายสังคม ซึ่งเป็นวางหลักเกณฑ์กำกับดูแลล่วงหน้าต่อประเทศที่ใช้กฎหมายมนุษยธรรม ระบบที่เสนอนี้ช่วยให้กฎหมายมนุษยธรรมระหว่างประเทศสามารถกำกับควบคุมอาวุธในระยะพัฒนาได้ ซึ่งถือเป็นสิ่งสำคัญที่จะหลีกเลี่ยงผลกระทบจากกฎหมายมนุษยธรรม และป้องกันวิกฤตการณ์ด้านมนุษยธรรมนโยบายนี้จะทำให้ผู้พัฒนาต้องรับผิดชอบก่อนที่จะเกิดสงคราม อย่างไรก็ตาม อาจโต้แย้งได้ว่านโยบายนี้อยู่นอกเหนือขอบเขตอำนาจศาลของกฎหมายมนุษยธรรมระหว่างประเทศ ซึ่งบังคับใช้ได้เฉพาะเมื่อความขัดแย้งเริ่มขึ้นเท่านั้น ซึ่งนำไปสู่การอภิปรายอย่างกว้างขวางว่าขอบเขตอำนาจศาลของกฎหมายมนุษยธรรมระหว่างประเทศคืออะไรเมื่อเทียบกับขอบเขตอำนาจศาลที่ควรจะเป็น

แม้กฎหมายมนุษยธรรมระหว่างประเทศอาจยืดเวลาการบังคับใช้กฎหมายที่อาจช่วยชีวิตได้ เนื่องจากประเทศที่มีอำนาจอ้างอิทธิพลในการตัดสินใจ ประเทศที่มีอำนาจเหล่านี้มีอิทธิพลในการขัดขวางการเปลี่ยนแปลงในกฎหมายระหว่างประเทศที่ "ผลประโยชน์สูงสุด" ของมนุษยชาติไม่สอดคล้องกับความก้าวหน้าทางทหารของตนเอง ประเทศต่างๆ เช่น สหราชอาณาจักร กำลังใช้แนวทาง "สนับสนุนนวัตกรรม" ในการผลิตอาวุธด้วยปัญญาประดิษฐ์ ซึ่งหมายความว่าโดยทั่วไปแล้ว ประเทศเหล่านี้ไม่เห็นด้วยกับข้อจำกัดที่อาจขัดขวางความก้าวหน้าในการผลิต อย่างไรก็ตาม ได้มีการตั้งข้อสังเกตอย่างถูกต้องว่า "เทคโนโลยีขั้นสูง" เหล่านี้ซึ่งอยู่ภายใต้การควบคุมขององค์กรก่อการร้าย (ซึ่งไม่จำเป็นต้องปฏิบัติตามกฎหมายมนุษยธรรมระหว่างประเทศ) จะส่งผลกระทบอย่างร้ายแรง พวกเขาโต้แย้งว่าการห้ามใช้กฎหมายโดยสมบูรณ์อาจนำไปสู่ความรุนแรงมากกว่าการไม่บังคับใช้กฎหมาย

ในขณะที่เทคโนโลยี AI กำลังก้าวหน้า และระบบอาวุธอัตโนมัติก็เช่นกัน อาวุธกำลังกลายเป็นประโยชน์ต่อกองทัพมากขึ้น โดยเทคโนโลยีมีความแม่นยำและแม่นยำมากขึ้น กฎหมายมนุษยธรรมระหว่างประเทศซึ่งได้รับอิทธิพลจากจุดยืนทางการเมืองและประโยชน์ทางเศรษฐกิจของประเทศต่างๆ อย่างต่อเนื่อง กำลังพยายามสร้างและจัดโครงสร้างกฎหมายในแนวนอนอย่างช้าๆ อย่างไรก็ตาม กฎหมายและเทคโนโลยีกำลังพัฒนาอย่างรวดเร็ว ซึ่งไม่สามารถเปรียบเทียบได้ และเป็นที่วิพากษ์วิจารณ์ทางกฎหมายจำนวนมาก คำถามยังคงอยู่ว่า กฎหมายกำลังพยายามชะลอชัยชนะที่หลีกเลี่ยงไม่ได้หรือไม่


สัญญาอัจฉริยะเป็นสัญญาทางกฎหมายหรือไม่

 การฉ้อโกงทางการเงินมีมาตั้งแต่ 300 ปีก่อนคริสตกาล เมื่อพ่อค้าชาวกรีกชื่อเฮเจสตราโตสได้ทำประกันภัยมูลค่าสูงที่เรียกว่า บอตทอรี่ พ่อค้าได้กู้ยืมเงินและตกลงที่จะจ่ายคืนพร้อมดอกเบี้ยเมื่อสินค้าถูกส่งไป ซึ่งในกรณีนี้คือข้าวโพด หากพ่อค้าปฏิเสธที่จะจ่ายคืนเงินกู้ ผู้ให้กู้สามารถเรียกร้องสินค้าและเรือที่ใช้ในการขนส่งได้ เฮเจสตราโตส (Hegestratos) วางแผนที่จะจมเรือเปล่าของเขา เก็บเงินกู้ไว้ และขายข้าวโพด แต่แผนล้มเหลว และเขาจมน้ำเสียชีวิตขณะพยายามหลบหนีลูกเรือและผู้โดยสาร เมื่อพวกเขาจับได้คาหนังคาเขา นี่เป็นเหตุการณ์ฉ้อโกงทางการเงินครั้งแรกที่ได้รับการบันทึกไว้ (ประมาณ 300 ปีก่อนคริสตกาล) 

ปัจจุบัน อุตสาหกรรมประกันภัยเป็นอุตสาหกรรมที่มีมูลค่าหลายล้านล้านดอลลาร์ตลาดในสหราชอาณาจักรเป็นตลาดที่ใหญ่ที่สุดในยุโรปและใหญ่เป็นอันดับสี่ของโลก ไม่ว่าจะเป็นอุบัติเหตุเล็กน้อยหรืออันตรายอื่นๆ กรมธรรม์ประกันภัยสามารถคุ้มครองได้ บทบาทของเทคโนโลยีในอุตสาหกรรมที่เติบโตอย่างรวดเร็วนี้กำลังได้รับความสนใจมากขึ้นแนวคิดเรื่อง 'InsurTech'กำลังได้รับความนิยมมากขึ้น ผู้สนับสนุนเชื่อว่าการใช้ 'สัญญาอัจฉริยะ' และเทคโนโลยีบล็อกเชน/บัญชีแยกประเภทแบบกระจายอำนาจ (DLT) อาจปฏิวัติตลาดประกันภัยได้ 

สัญญาอัจฉริยะทางกฎหมายเป็นอัลกอริทึมชนิดหนึ่งสำหรับการดำเนินการเฉพาะที่รวมอยู่ในรหัสบล็อคเชน หากปฏิบัติตามข้อตกลงที่กำหนดไว้ซึ่งระบุไว้ในนั้น ลำดับจะถูกเรียกใช้โดยอัตโนมัติ ตัวอย่างเช่น มาดูธุรกรรมที่ง่ายที่สุดกัน นั่นคือกระบวนการซื้อและขายสกุลเงินดิจิทัลระหว่างผู้ใช้ กระบวนการนี้เกิดขึ้นตามข้อกำหนดของการไม่เปิดเผยตัวตนและไม่ได้รับการควบคุมโดยองค์กรตัวกลาง แบบจำลองนี้เป็นไปได้ด้วยสัญญาอัจฉริยะซึ่งกำหนดอัลกอริทึมโดยละเอียดของธุรกรรมระหว่างผู้ใช้สองคน นอกจากนี้ ยังขจัดโอกาสของการฉ้อโกงจากทั้งสองฝ่าย และทำให้สามารถดำเนินธุรกรรมในอัลกอริทึมเฉพาะของการดำเนินการตามลำดับได้

อนึ่ง สัญญาอัจฉริยะทางกฎหมายไม่ได้ร่างขึ้นโดยทนายความและโดยพื้นฐานแล้วเป็นซอฟต์แวร์ เงื่อนไขของสัญญาจะถูกแปลเป็นชุดรหัสของฟังก์ชัน "ถ้า-แล้ว" เมื่อตรงตามเงื่อนไข สัญญาอัจฉริยะจะดำเนินการขั้นตอนต่อไปที่จำเป็นเพื่อชำระเงินโดยอัตโนมัติ ดังนั้น คำว่า "สัญญาอัจฉริยะ" จึงหมายถึงโปรโตคอลธุรกรรมที่ดำเนินการตามเงื่อนไขสัญญาโดยอัตโนมัติโดยอิงตามกฎชุดหนึ่ง ปัจจุบัน สัญญาอัจฉริยะในทางกฎหมายมีจุดมุ่งหมายเพื่อปรับปรุงความสัมพันธ์และธุรกรรมทางธุรกิจให้ดีขึ้นอย่างแท้จริง ตลาดสัญญาอัจฉริยะทั่วโลกคาดว่าจะมีมูลค่าถึง 1,460.3 ล้านดอลลาร์ภายในปี 2028 การใช้สัญญาอัจฉริยะช่วยให้เกิดความโปร่งใส สามารถตรวจสอบย้อนกลับได้ และธุรกรรมที่ย้อนกลับไม่ได้ภายในบล็อคเชน

อย่างไรก็ตาม แม้ว่าสัญญาอัจฉริยะได้รับการยกย่องว่าเป็นหนึ่งในนวัตกรรมที่ก้าวล้ำที่สุดในยุคใหม่นี้ หากเป็นเช่นนั้น สัญญาอัจฉริยะก็มีความเสี่ยงที่จะเกิดผลที่ไม่พึงประสงค์ได้เช่นกัน ในหนังสือ Code: And Other Laws of Cyberspace ของศาสตราจารย์ Lawrence Lessig กล่าวว่าการมองโลกในแง่ดีเกินจริงเกี่ยวกับสัญญาอัจฉริยะอาจจะทำให้มองข้ามข้อเท็จจริงที่ว่าสัญญาอัจฉริยะอาจเปิดทางให้เกิดวิธีการทำธุรกรรมที่ผิดกฎหมายซึ่งยังไม่เป็นที่รู้จักมาก่อน

ทั้งนี้ สาเหตุส่วนหนึ่งเป็นเพราะมีการเน้นย้ำถึงความเข้าใจทั่วไปมากขึ้น และเข้าใจในเชิงเทคนิคน้อยลงเกี่ยวกับเทคโนโลยีเหล่านี้ ดังที่ Andrés Guadamuz อธิบายว่า “สัญญาอัจฉริยะไม่ใช่สัญญา” และ “โดยเจตนาและวัตถุประสงค์ทั้งหมดแล้ว สัญญาอัจฉริยะไม่ควรเป็นเช่นนั้น” แท้จริงแล้ว สัญญาอัจฉริยะเป็นโค้ดที่ดำเนินการเอง ซึ่งต่างจากสัญญาแบบเดิม ตรงที่อาจมีผลผูกพันหรือไม่ก็ได้ ข้อตกลงที่ดำเนินการเองซึ่งเขียนเป็นโค้ดไม่ใช่ยารักษาโรคสำหรับปัญหาการทำสัญญาของธุรกิจและบุคคล

สัญญาอัจฉริยะมีศักยภาพในการเร่งการทำธุรกรรมทางการเงิน สินค้า และบริการข้ามพรมแดนในขณะที่ขจัดคนกลางออกไป อย่างไรก็ตาม สัญญาอัจฉริยะต้องปฏิบัติตามกฎหมายของประเทศต่างๆ และถึงแม้จะเป็นเช่นนั้น ก็ยังยากที่จะรับรองว่าสัญญาเหล่านี้จะได้รับความเคารพในทุกประเทศ ในที่สุด รัฐบาลอาจต้องการควบคุมธุรกรรมและข้อตกลงเหล่านี้ ซึ่งจะทำให้จุดประสงค์ในการใช้เครือข่ายเพียร์ทูเพียร์ต้องเปลี่ยนไปโดยให้บุคคลที่สามเป็นผู้ตรวจสอบกระบวนการ และอาจมีอุปสรรคอื่นๆ ที่ทำให้การใช้สัญญาอัจฉริยะหยุดชะงัก คุณสมบัติสำคัญอีกประการหนึ่งของสัญญาอัจฉริยะคือความไม่เปลี่ยนแปลง เมื่อทำข้อตกลงและรหัสสัญญาได้รับการทำให้ชัดเจนแล้ว จะไม่มีวิธีการง่ายๆ ในการยกเลิกหรือปรับเปลี่ยน ดังนั้น หากมีการเปลี่ยนแปลงกฎหมายหรือทั้งสองฝ่ายบรรลุข้อตกลงร่วมกันใหม่ แล้วจะเกิดอะไรขึ้น สัญญาอัจฉริยะอาจต้องถูกยกเลิกและสร้างสัญญาใหม่ ซึ่งอาจมีค่าใช้จ่ายสูง 

นอกจากนี้ยังมีปัญหาเรื่องข้อมูล สำหรับสัญญาทางกฎหมายง่ายๆ เช่น ใบทะเบียนสมรส การแปลงเป็นดิจิทัลเป็นเรื่องง่าย สำหรับอุตสาหกรรมที่มีข้อมูลเชิงปริมาณ เช่น การเงินหรือเกษตรกรรม สัญญาอัจฉริยะสามารถเข้ารหัสได้ค่อนข้างง่าย แต่สัญญาทั้งหมดไม่ได้ใช้มาตรการเชิงปริมาณ แล้วจะคำนวณได้อย่างไร และยังมีกฎหมายระหว่างประเทศที่สำคัญบางฉบับที่ขัดขวางการใช้สัญญาอัจฉริยะในทางกฎหมายในวงกว้าง ตัวอย่างเช่น สหภาพยุโรปได้ตกลงตามข้อบังคับทั่วไปว่าด้วยการคุ้มครองข้อมูลของยุโรป ซึ่งรับรองว่าพลเมืองมี "สิทธิที่จะถูกลืม" พวกเขาสามารถเรียกร้องให้ลบข้อมูลดิจิทัลเกี่ยวกับพวกเขาได้ แต่หากพลเมืองผูกพันตามข้อตกลงทางกฎหมายดิจิทัล พวกเขาอาจไม่สามารถถูกลืมได้ ดังนั้น เพื่อให้สัญญาอัจฉริยะได้รับการรับรองทางกฎหมาย อาจเป็นไปได้ที่ประชาชนต้องได้รับความเข้าใจเกี่ยวกับการเข้ารหัสมากขึ้น จึงมีการตั้งคำถามว่าศาลจะต้องเรียนรู้ภาษาของสัญญาอัจฉริยะเพื่อพิจารณาคดีดิจิทัลหรือไม่ 

ดังที่ได้กล่าวมาแล้วเบื้องต้น สัญญาอัจฉริยะก็ยังมีจุดอ่อนเฉพาะตัว เช่น ปัญหาประสิทธิภาพ ภัยคุกคามด้านความปลอดภัย และปัญหา ความเป็น ส่วนตัว ปัญหาประสิทธิภาพที่ผู้เชี่ยวชาญด้านเทคโนโลยีได้เน้นย้ำ ได้แก่ คอขวดปริมาณงาน ความสามารถในการปรับขนาดที่จำกัด และเวลาแฝงของธุรกรรม ปัญหาความปลอดภัยที่เกี่ยวข้องกับสัญญาอัจฉริยะก็มีมูลความจริงเช่นกันการโจมตีองค์กรอิสระแบบกระจายอำนาจ (DAO) ซึ่งใช้ประโยชน์จากช่องโหว่การเข้าสู่ระบบซ้ำเพื่อขโมยอีเธอร์ประมาณสองล้านอีเธอร์จากสัญญาอัจฉริยะ ถือเป็นการเปิดหูเปิดตาให้คนได้มองเห็นอะไรใหม่ๆการโจมตี SmartBillions ซึ่งเป็นระบบลอตเตอรีแบบกระจายอำนาจและโปร่งใส แสดงให้เห็นว่าแฮชของบล็อคเชนสามารถถูกจัดการได้อย่างไร การโจมตีเหล่านี้แสดงให้เห็นว่าเทคโนโลยี Distributed Ledger Technology (DLT) มีความเสี่ยงต่อการเข้าสู่ระบบซ้ำและการสั่งการเหตุการณ์

ความท้าทายอีกประการหนึ่งที่สัญญาอัจฉริยะต้องเผชิญคือการปฏิบัติตามกฎการคุ้มครองข้อมูล ตัวอย่างเช่นข้อบังคับทั่วไปว่าด้วยการคุ้มครองข้อมูลของยุโรป (GDPR) กำหนดว่าพลเมืองมี "สิทธิที่จะถูกลืม" ซึ่งขัดแย้งกับธรรมชาติที่ไม่เปลี่ยนแปลงของสัญญาอัจฉริยะที่เปิดใช้งานบล็อคเชน การวิจัยเผยให้เห็นว่าแม้ว่าสัญญาอัจฉริยะจะกลายเป็นสัญญาทางกฎหมาย แต่ก็อาจไม่เกิดขึ้นระหว่างเจ้าของข้อมูลและผู้ควบคุม นอกจากนี้ ความยินยอมยังมีมูลค่าจำกัดในกรณีนี้ เนื่องจากภายใต้ระบอบการคุ้มครองข้อมูลของสหภาพยุโรป เจ้าของข้อมูลจะต้องสามารถเพิกถอนความยินยอมได้ ซึ่งเป็นไปไม่ได้หากไม่สามารถหยุดการประมวลผลข้อมูลตามคำขอของเจ้าของข้อมูลได้

นอกจากนี้มาตรา 22(3) ของกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป (GDPR) กำหนดให้ผู้ควบคุมข้อมูลต้องดำเนินการตามมาตรการต่างๆ รวมถึงสิทธิในการแทรกแซงของมนุษย์ ความไม่แน่นอนและข้อโต้แย้งเกี่ยวกับขอบเขตของภาระผูกพันนี้ยังคงเป็นประเด็นที่เกี่ยวข้อง การปฏิบัติตามข้อบังคับเหล่านี้หมายความว่ากรอบงาน "ไม่น่าเชื่อถือ" ของสัญญาอัจฉริยะจะถดถอยกลับไปสู่เครือข่ายที่เชื่อถือได้ของบุคคลที่สามซึ่งสูญเสียสาระสำคัญไป

อีกมิติหนึ่งของการแทรกแซงของบุคคลที่สามในสัญญาอัจฉริยะคือการใช้ทรัพยากร "นอกเครือข่าย" (หรือ Oracle) สัญญาอัจฉริยะต้องได้รับข้อมูลนอกเครือข่ายในช่วงเวลาที่กำหนดไว้ล่วงหน้าจากทรัพยากรที่ไม่อยู่ในบล็อคเชน ปัญหาที่อาจเกิดขึ้นซึ่งเกี่ยวข้องกับเรื่องนี้อาจเป็นการไม่สามารถส่งข้อมูลที่จำเป็นออกไปหรือให้ข้อมูลที่ไม่ถูกต้อง นอกจากนี้ ยังอาจทำให้โหนดบล็อคเชนถูกแฮ็กหรือใช้ในทางที่ผิดเพื่อรายงานข้อมูลผิดพลาดที่จะถูกบันทึกลงในบล็อคเชนในลักษณะที่ไม่สามารถเปลี่ยนแปลงได้

สัญญาอัจฉริยะยังมีศักยภาพในการเปิดประตูน้ำสู่ข้อตกลงสมคบคิดประเภทใหม่ DLT พร้อมที่จะท้าทายการบังคับใช้กฎหมายต่อต้านการผูกขาดโดยใช้แนวทางปฏิบัติที่ผิดกฎหมายและหลีกเลี่ยงกฎอย่างมีประสิทธิภาพมากขึ้นผ่านสัญญาอัจฉริยะ บล็อคเชนในฐานะสื่อกลางในการอำนวยความสะดวกให้กับแนวทางปฏิบัติต่อต้านการแข่งขันจะก่อให้เกิดคำถามที่น่าสนใจที่เกี่ยวข้องกับ มาตรา 1 ของกฎหมายป้องกันการผูกขาดของอเมริกา มาตรา2(1) ของกฎหมายการแข่งขันของอังกฤษ และมาตรา 101(1) ของTFEU ของสหภาพยุโรป สัญญาอัจฉริยะสามารถช่วยให้บริษัทต่างๆ มี "ความมุ่งมั่นอย่างมีสติสัมปชัญญะต่อโครงการร่วมกัน" (Monsanto v Spray-Rite Serv. Corp.) สัญญาอัจฉริยะยังสามารถกลายเป็น "แนวทางปฏิบัติร่วมกัน" ระหว่างบริษัทต่างๆ โดย "การประสานงานระหว่างการดำเนินการซึ่ง...แทนที่ความร่วมมือในทางปฏิบัติระหว่างกันโดยเจตนาเพื่อความเสี่ยงในการแข่งขัน" ( Imperial Chemical Industries Ltd v Commission of EC )

ในอุตสาหกรรมประกันภัย การขาดความไว้วางใจซึ่งกันและกันระหว่างผู้มีส่วนเกี่ยวข้องถือเป็นความท้าทายครั้งใหญ่ ซึ่งเราไม่สามารถตำหนิใครได้ เมื่อพิจารณาถึงประวัติศาสตร์อันยาวนานและคลุมเครือของผู้ฉ้อโกงอย่างกรณี Hegestratos ยังคงต้องรอดูว่าคำกล่าวอ้างที่โอ้อวดถึง 'ความไม่น่าเชื่อถือ' และ 'ความโปร่งใส' ซึ่งถือเป็นจุดเด่นของสัญญาอัจฉริยะ จะให้ผลลัพธ์ที่ต้องการได้หรือไม่ ในปี 2020 การลงทุนในโซลูชันประกันภัยที่ใช้เทคโนโลยีอยู่ที่ 6 พันล้านยูโรและคาดว่าจำนวนเงินที่ลงทุนจะเพิ่มขึ้นแบบทวีคูณ เมื่อวิเคราะห์จุดอ่อนและข้อเสียที่อาจเกิดขึ้นของเทคโนโลยีเหล่านี้อย่างมีวิจารณญาณ คำถามสำคัญก็คือเงินที่ฉลาดจะลงทุนใน 'สัญญาอัจฉริยะ' หรือไม่

โดยสรุป สัญญาอัจฉริยะทางกฎหมายคือรหัสในเทคโนโลยีบล็อคเชน เครื่องเสมือนจะดำเนินการหลังจากได้รับธุรกรรมที่มีพารามิเตอร์ที่ถูกต้อง ด้วยการพัฒนาของเทคโนโลยีคอมพิวเตอร์และบล็อคเชน แนวคิดของสัญญาอัตโนมัติที่ดำเนินการเองโดยใช้อัลกอริทึมจึงได้รับความนิยม และในปัจจุบันมีข้อกำหนดทางกฎหมายมากมาย แต่ก็ยังคงนำไปใช้ โดยเฉพาะอย่างยิ่งบนแพลตฟอร์ม Ethereum ดังนั้น ทัศนคติของหน่วยงานกำกับดูแลในประเทศต่างๆ ต่อข้อตกลง "อัจฉริยะ" ดังกล่าวแตกต่างกันไป ขึ้นอยู่กับการควบคุมสกุลเงินดิจิทัลในเขตอำนาจศาลที่เกี่ยวข้องและบรรทัดฐานเด็ดขาดของกฎหมายและระเบียบ อย่างไรก็ตาม อนาคตของสัญญาอัจฉริยะดูน่าสนใจทีเดียว


สถานะของสินทรัพย์ดิจิทัลในทางกฎหมายอังกฤษ

 การเติบโตอย่างรวดเร็วของสกุลเงินดิจิทัลได้ก่อให้เกิดปัญหาทางกฎหมายที่เร่งด่วนในภาคการเงิน โดยเฉพาะอย่างยิ่งในกฎหมายทรัพย์สิน รูปแบบการเป็นเจ้าของแบบเดิม เช่น สินทรัพย์ที่จับต้องได้หรือสิทธิบังคับใช้ได้ จะต้องถูกกำหนดใหม่เพื่อรองรับคุณลักษณะเฉพาะของสินทรัพย์ดิจิทัล เช่น สกุลเงินดิจิทัล การตีความคำว่า "ทรัพย์สิน" ในปัจจุบันได้นำไปสู่ปัญหาทางกฎหมาย โดยกฎหมายของสหราชอาณาจักรล้มเหลวในการรับรองหรือปกป้องสินทรัพย์ดิจิทัลอย่างเหมาะสม จึงก่อให้เกิดอันตรายหรือความเสี่ยงต่อผู้เข้าร่วมตลาดและระบบการเงิน

ในช่วงไม่กี่ปีที่ผ่านมา สกุลเงินดิจิทัลและเทคโนโลยีบล็อคเชนถูกนำมาใช้กันอย่างแพร่หลายมากขึ้น ยิ่งเทคโนโลยีนี้ปรากฎขึ้น มีการใช้และเข้าถึงได้แพร่หลายมากเท่าไร ก็ยิ่งมีข้อพิพาทเกิดขึ้นมากขึ้นเท่านั้น ซึ่งเกี่ยวข้องกับเทคโนโลยีนี้และประเภทสินทรัพย์ที่เกี่ยวข้อง ในสหราชอาณาจักรที่ถือเป็นศูนย์กลางทางการเงินของโลกจำเป็นต้องมีกรอบนโยบายที่ชัดเจน คณะกรรมาธิการกฎหมายของสหราชอาณาจักรได้ออกรายงานการศึกษาและร่างกฎหมายเกี่ยวกับสินทรัพย์ดิจิทัลในฐานะทรัพย์สินส่วนบุคคล ซึ่งถือเป็นก้าวสำคัญในการแก้ไขปัญหานี้ กฎหมายที่เสนอดังกล่าวเป็นการยืนยันถึงการรับรองรูปแบบใหม่ของสิทธิในทรัพย์สินส่วนบุคคลที่สามารถถือครองสินทรัพย์ดิจิทัลบางประเภท เช่น สกุลเงินดิจิทัล การนิยามคำว่า "ทรัพย์สิน" ใหม่ให้รวมถึงสกุลเงินดิจิทัลถือเป็นสิ่งสำคัญ เนื่องจากกฎหมายสอดคล้องกับความก้าวหน้าทางเทคโนโลยี และเป็นการตอกย้ำที่แสดงให้เห็นถึงความทะเยอทะยานอันแน่วแน่ของสหราชอาณาจักรที่จะเป็นศูนย์กลางระดับโลกสำหรับสกุลเงินดิจิทัลและเทคโนโลยีบล็อคเชน ความทะเยอทะยานดังกล่าวได้รับการระบุในกรอบนโยบายของรัฐบาลเมื่อไม่นานนี้ซึ่งเน้นย้ำถึงการสร้างสภาพแวดล้อมที่เอื้อต่อการเติบโตและการควบคุมสกุลเงินดิจิทัล โดยการกำหนดแนวทางการควบคุมที่ชัดเจน สหราชอาณาจักรมีเป้าหมายที่จะมอบความชัดเจนและความมั่นใจให้กับทั้งนักลงทุนและผู้สร้างสรรค์นวัตกรรม แนวทางนี้ไม่เพียงแต่สอดคล้องกับมาตรฐานระดับโลกเท่านั้น แต่ยังทำให้สหราชอาณาจักรอยู่แถวหน้าของการเงินดิจิทัล เสริมสร้างสถานะของตนในฐานะผู้นำในภาคส่วนที่เปลี่ยนแปลงอย่างรวดเร็วนี้

อนึ่ง ในทางปฏิบัตินั้น ปัญหาทางกฎหมายที่เกิดจากสกุลเงินดิจิทัลมีสาเหตุมาจากลักษณะที่จับต้องไม่ได้ สกุลเงินดิจิทัลนั้นแตกต่างจากทรัพย์สินทางกายภาพตรงที่มีอยู่ในโลกเสมือนจริงเท่านั้น ทำให้การจัดหมวดหมู่สกุลเงินดิจิทัลตามหลักเกณฑ์ทางกฎหมายที่มีอยู่เกี่ยวกับการครอบครองและการดำเนินคดีเป็นเรื่องที่ท้าทาย ดังนั้น ที่ผ่านมาศาลจึงพยายามหาทางจำแนกสกุลเงินดิจิทัลในแบบดั้งเดิม จึงทำให้เกิดความคลุมเครือทางกฎหมายอย่างมาก

ศาลสหราชอาณาจัรต้องพิจารณาประเด็นทางกฎหมายพื้นฐานหลายประเด็นเกี่ยวกับวิธีการจัดประเภทและปรับผลิตภัณฑ์ ระบบ และเทคโนโลยีเหล่านี้ให้สอดคล้องกับหลักการและกรอบทางกฎหมายที่จัดตั้งขึ้น รวมถึงสิ่งที่สำคัญคือการพิจารณาว่าสินทรัพย์ดิจิทัลถือเป็นทรัพย์สินได้หรือไม่ สถานะทางกฎหมายว่าสินทรัพย์ดิจิทัลมีสิทธิในทรัพย์สินหรือไม่ และหากมี มีลักษณะอย่างไร ถือเป็นสิ่งสำคัญในฐานะจุดเริ่มต้นในการพิจารณาสาเหตุของการดำเนินคดีและปัญหาทางกฎหมายอื่นๆ ตามมา เนื่องจากสิทธิในทรัพย์สินสามารถได้รับการยอมรับจากบุคคลที่สามได้ ในขณะที่สิทธิประเภทอื่นๆ มีลักษณะที่จำกัดมากกว่า เช่น สิทธิตามสัญญาซึ่งสามารถรับรู้ได้เฉพาะกับฝ่ายที่ได้ถือเอาภาระผูกพันทางกฎหมายที่เกี่ยวข้องเท่านั้น ที่ผ่านมา มีคดีสำคัญหลายคดีได้กำหนดรูปแบบและการยอมรับสกุลเงินดิจิทัลเป็นทรัพย์สินตามกฎหมายของสหราชอาณาจักร ดังนี้

ตามหลักการดั้งเดิมแล้ว ในประเด็นเรื่องทรัพย์สิน ศาลสหราชอาณาจักรจะยึดถือหลักการตามคำกล่าวของ Fry LJ ในคดี Colonial Bank v Whinney [1885] 30 Ch.D 261 ซึ่งระบุว่า “ สิ่งของส่วนบุคคลทั้งหมดอยู่ในความครอบครองหรืออยู่ในการกระทำ ” นอกจากนี้ ยังเข้าใจกันโดยทั่วไปว่าในกฎหมายอังกฤษ สิ่งของจะถือเป็น “ทรัพย์สินส่วนบุคคล” ได้ก็ต่อเมื่อเป็นสิ่งของ (หรือเลือก) ที่อยู่ในความครอบครอง (จับต้องได้ เคลื่อนย้ายได้ และมองเห็นได้) หรือเป็นสิ่งของที่อยู่ในการกระทำ (สามารถอ้างสิทธิ์หรือบังคับใช้ได้ผ่านการดำเนินคดีหรือกระบวนการทางกฎหมาย) ทั้งสองหมวดหมู่นี้ถือว่าครอบคลุมทั้งหมด ดังนั้น หากสิ่งของไม่เข้าข่ายหมวดหมู่ใดหมวดหมู่หนึ่ง ก็ถือว่าสิ่งของนั้นไม่สามารถเป็นวัตถุแห่งสิทธิในทรัพย์สินส่วนบุคคลได้ จึงกล่าวได้ว่ากฎหมายคอนมมอนลอว์ในอังกฤษพัฒนาจากกฎหมายนี้ในช่วงสิบปีที่ผ่านมาจนได้รับการยอมรับในประเภทที่สามของสิ่งที่เป็นสิทธิในทรัพย์สินส่วนบุคคล แต่ไม่เข้าข่ายหมวดหมู่ทรัพย์สินสองประเภทที่ได้รับการยอมรับโดยทั่วไป กฎหมายเกี่ยวกับประเด็นนี้ขยายออกไปนอกเหนือจากคำถามเกี่ยวกับทรัพย์สินที่เกี่ยวข้องกับสินทรัพย์ดิจิทัล เช่น สิทธิ์อนุญาตการปล่อยคาร์บอน โควตาการส่งออก และใบอนุญาตการจัดการขยะ

ในคดี Vorotyntseva v Money-4 Ltd (T/A Nebus.com) [2018] ศาลสูงได้มีคำสั่งอายัดเงินของบริษัทแห่งหนึ่ง (และกรรมการบริษัท) ในกรณีสกุลเงินดิจิทัลจำนวนหนึ่งที่โจทก์ได้มอบให้กับจำเลย จากหลักฐานที่ศาลให้ไว้ พบว่ามีความเสี่ยงที่เงินจะถูกโอนไปจริง ประเด็นที่สำคัญคือคำพิพากษานี้ทำให้เห็นชัดเจนว่าสินทรัพย์ดิจิทัลถือเป็นรูปแบบหนึ่งของทรัพย์สิน เนื่องจากสกุลเงินดิจิทัลในกรณีนี้สามารถเป็นเขตอำนาจของคำสั่งห้ามได้ อย่างไรก็ตาม มีสินทรัพย์ดิจิทัลหลายประเภทซึ่งแต่ละประเภทก็มีลักษณะเฉพาะที่แตกต่างกัน แม้ว่าประเด็นนี้ไม่ได้หยิบยกขึ้นมาพิจารณาในระหว่างการพิจารณาคดี และศาลระบุว่าคำสั่งอายัดทรัพย์เป็น "คำสั่งคุ้มครองชั่วคราว" โดยมีวันที่พิจารณาคดีอีกครั้ง ในระหว่างการพิจารณาคดีครั้งใหม่ อาจมีการโต้แย้งว่าสินทรัพย์ดิจิทัล (หรืออย่างน้อยสินทรัพย์ดิจิทัลเหล่านี้) ไม่ใช่ทรัพย์สินส่วนบุคคลที่สามารถเป็นหัวข้อของคำสั่งห้ามได้ ซึ่งมีนักวิชาการได้สนับสนุนคำพิพากษาดังกล่าวโดยมีการเผยแพร่แถลงการณ์ว่าสินทรัพย์ดิจิทัลมีลักษณะทางกฎหมายทั้งหมดของทรัพย์สิน และควรได้รับการปฏิบัติเป็นทรัพย์สินตามกฎหมายอังกฤษ แม้ว่าจะชัดเจนว่าสามารถขอคำสั่งอายัดสินทรัพย์ดิจิทัลเหล่านี้ได้ แต่ประเด็นว่าสินทรัพย์ดิจิทัลที่จับต้องไม่ได้สามารถถือเป็น "ทรัพย์สิน" ตามกฎหมายอังกฤษได้หรือไม่ยังคงไม่ได้รับการแก้ไข คดีดังกล่าวเปิดโอกาสให้ศาลได้แก้ไขปัญหานี้ 

ต่อมา ในคดี AA v Persons Unknown & Ors [2019] ศาลฎีกาได้ออกคำสั่งห้ามมิให้มีการครอบครอง Bitcoin ที่ได้รับมาโดยทุจริต ซึ่งผู้พิพากษา Bryan ยอมรับว่าการปฏิบัติต่อ Bitcoin และสกุลเงินดิจิทัลอื่นๆ ในรูปแบบทรัพย์สินนั้นถือเป็นเรื่องท้าทายในเบื้องต้น เนื่องจากแนวทางแบบดั้งเดิมในกฎหมายทั่วไป จึงตั้งข้อสังเกตว่าสกุลเงินดิจิทัลไม่ใช่สิ่งของที่ครอบครองได้ เนื่องจากไม่มีรูปธรรม เป็นสิ่งเสมือนจริง และไม่สามารถครอบครองได้ทางกายภาพ สกุลเงินดิจิทัลไม่ใช่สิ่งของที่ใช้งานได้ เนื่องจากไม่มีสิทธิใดๆ ที่สามารถบังคับใช้ได้ด้วยการกระทำ อย่างไรก็ตาม ผู้พิพากษา Bryan อธิบายต่อไปว่า “ การดำเนินการต่อโดยยึดหลักว่ากฎหมายทรัพย์สินของอังกฤษไม่ยอมรับรูปแบบทรัพย์สินอื่นใดนอกจากทรัพย์สินที่ถือครองและทรัพย์สินที่ถือครองจริง ” ถือเป็นการ “ผิดพลาด” เหตุผลของผู้พิพากษาในเรื่องนี้ขึ้นอยู่กับส่วนต่างๆ ของคำชี้แจงทางกฎหมายเกี่ยวกับสินทรัพย์ Crypto และสัญญาอัจฉริยะ (หรือ “คำชี้แจงทางกฎหมาย”) ที่ UKJT เผยแพร่ในเดือนพฤศจิกายน 2019 ก่อนที่ผู้พิพากษาจะตัดสินในเดือนธันวาคม 2019 เพียงช่วงสั้นๆ คำชี้แจงทางกฎหมายได้พิจารณาหลักการทางกฎหมายทั่วไปที่ใช้กับแง่มุมใหม่ๆ ของสินทรัพย์ดิจิทัล รวมถึงการที่สินทรัพย์ดิจิทัลนั้นเข้าข่ายขอบเขตของสิ่งที่สามารถถือเป็นทรัพย์สินตามกฎหมายหรือไม่ โดยระบุว่า ไม่ควรถือว่า Colonial Bank เป็นผู้จำกัดขอบเขตของประเภทของสิ่งที่เป็นทรัพย์สิน แท้จริงแล้ว คดีดังกล่าวไม่ได้เกี่ยวกับคำจำกัดความของทรัพย์สินโดยทั่วไป แต่เกี่ยวกับการที่หุ้นที่ฝากไว้เป็นหลักประกันเงินกู้เป็น "สิ่งที่อยู่ในการดำเนินการ" ตามความหมายของกฎหมายล้มละลายฉบับใดฉบับหนึ่งหรือไม่ คำชี้แจงทางกฎหมายเน้นย้ำว่าในหลายกรณี ศาลไม่พบปัญหาใดๆ ในการปฏิบัติต่อสินทรัพย์ที่จับต้องไม่ได้ประเภทใหม่ เช่น โควตาการผลิตนมใน Swift v Dairywise (No 1) [2000] 1 WLR 1177 และค่าเผื่อการปล่อยคาร์บอนของสหภาพยุโรปในArmstrong DLW GmbH v Winnington Networks Ltd [2012] EWHC 10 (Ch)) เป็นรูปแบบหนึ่งของทรัพย์สิน จึงสรุปได้ว่าแม้สินทรัพย์ดิจิทัลอาจไม่ใช่สิ่งที่ใช้งานอยู่หรือเป็นสิ่งที่ครอบครองได้ แต่นั่นไม่ได้หมายความว่าจะไม่สามารถถือเป็นทรัพย์สินได้ 

ผู้พิพากษา Bryan ยังได้สังเกตว่าสกุลเงินดิจิทัลเป็นไปตามเกณฑ์ของลอร์ดวิลเบอร์ฟอร์ซเกี่ยวกับทรัพย์สินที่รวมอยู่ในคดี  National Provincial Bank v Ainsworth [1965] 1 AC 1175 เนื่องจากสกุลเงินดิจิทัลนั้น (1) สามารถกำหนดได้ (2) สามารถระบุได้โดยบุคคลที่สาม (3) สามารถสันนิษฐานได้โดยบุคคลที่สาม และ (4) มีความคงอยู่ในระดับหนึ่ง จึงกล่าวได้ว่าศาลยอมรับสกุลเงินดิจิทัลอย่างชัดเจนว่าเป็นทรัพย์สิน โดยอ้างถึงคำชี้แจงทางกฎหมายของ UK Jurisdictional Taskforce (UKJT) เกี่ยวกับสินทรัพย์ดิจิทัลและสัญญาอัจฉริยะ คดีนี้ได้สร้างบรรทัดฐานทางกฎหมายที่ชัดเจนขึ้นว่าสกุลเงินดิจิทัลสามารถถือเป็นทรัพย์สินประเภทที่สาม ซึ่งสามารถเรียกร้องและแก้ไขสิทธิ์ในทรัพย์สินได้

ที่น่าสนใจอีกคดีคือ คดีของ Tulip Trading Ltd กับ Bitcoin Association for BSV [2023] ศาลอุทธรณ์ยืนยันหลักการตามที่ระบุไว้ในคำพิพากษา ในคดีAA v Persons Unknownและยืนยันว่าสินทรัพย์ดิจิทัลเช่น Bitcoin เป็นทรัพย์สิน กล่าวคือในเดือนมีนาคม 2020 กระทรวงยุติธรรมได้ขอให้คณะกรรมาธิการกฎหมายทบทวนกฎหมายในหัวข้อนี้ จากนั้นคณะกรรมาธิการกฎหมายได้เผยแพร่รายงานขั้นสุดท้ายเกี่ยวกับสินทรัพย์ดิจิทัลเมื่อวันที่ 28 มิถุนายน 2023 รายงานนี้ระบุถึงจุดยืนในกฎหมายทั่วไปในอังกฤษและเวลส์ตามที่ระบุไว้ข้างต้น แต่ยังระบุด้วยว่าเนื่องจากธรรมชาติของเทคโนโลยีและตลาดสินทรัพย์ดิจิทัลที่เปลี่ยนแปลงไป จึงยังคงมีความซับซ้อนและความไม่แน่นอนทางกฎหมายอยู่บ้าง ดังนั้น คณะกรรมาธิการกฎหมายจึงแนะนำแนวทางสามฝ่ายในการปฏิรูปกฎหมาย:

ประการแรก สรุปได้ว่ากฎหมายทั่วไปในพื้นที่นี้มีความแน่นอนค่อนข้างมากและแนะนำให้ให้ความสำคัญกับการพัฒนากฎหมายทั่วไป

ประการที่สอง เสนอแนะให้มีการปฏิรูปกฎหมายที่ตรงเป้าหมายเพื่อยืนยันและสนับสนุนข้อเสนอตามกฎหมายทั่วไปที่มีอยู่เกี่ยวกับทรัพย์สินส่วนบุคคลประเภทที่สาม

ประการที่สาม แม้ว่ากฎหมายทั่วไปจะสามารถตามทันการเปลี่ยนแปลงและเทคโนโลยีที่ก้าวหน้ามากขึ้นได้ดีกว่าการปฏิรูปกฎหมายที่บังคับใช้ แต่แนะนำให้จัดเตรียมการให้คำแนะนำเพิ่มเติมจากผู้เชี่ยวชาญในอุตสาหกรรมเพื่อสนับสนุนทั้งกฎหมายทั่วไปและกฎหมาย

เพิ่มเติมจากคำแนะนำของคณะกรรมาธิการกฎหมายเกี่ยวกับการปฏิรูปกฎหมายที่กำหนดเป้าหมาย คณะกรรมาธิการได้เผยแพร่ Digital Assets as Personal Property: Short Consultation on Draft Clauses ในเดือนกุมภาพันธ์ 2024 เอกสารการปรึกษาหารือรับทราบว่านักลงทุนส่วนใหญ่ถือว่าเมื่อพวกเขาซื้อสินทรัพย์ดิจิทัล พวกเขาจะได้รับสิทธิ์ในทรัพย์สินในสินทรัพย์เหล่านี้ อย่างไรก็ตาม ไม่จำเป็นต้องเป็นกรณีนี้ตามกฎหมายปัจจุบัน นอกจากนี้ แม้ว่ากฎหมายทั่วไปจะได้คำตอบสำหรับคำถามบางข้อที่เกี่ยวข้องกับสินทรัพย์ดิจิทัลบางประเภทแล้ว แต่เอกสารดังกล่าวยังระบุว่าสิ่งนี้อาจเปลี่ยนแปลงแนวทางการพิจารณาคดีในอนาคตได้ เอกสารการปรึกษาหารือประกอบด้วยร่างกฎหมาย ซึ่งร่างขึ้นเพื่อยืนยันว่าสิ่งของ “ รวมถึงสิ่งของที่มีลักษณะเป็นดิจิทัลหรืออิเล็กทรอนิกส์ ” (ซึ่งเป็นหมวดหมู่ที่ไม่ชัดเจนซึ่งขยายออกไปเกินขอบเขตของโทเค็นดิจิทัลไปจนถึงสินทรัพย์อื่นๆ เช่น เครดิตคาร์บอนโดยสมัครใจ) สามารถได้รับการยอมรับจากกฎหมายว่ามีสิทธิในทรัพย์สินส่วนบุคคลได้ แม้ว่าจะไม่ใช่สิ่งของที่ครอบครองหรือสิ่งของที่ดำเนินการอยู่ก็ตาม กำหนดส่งคำตอบต่อร่างกฎหมายคือวันที่ 22 มีนาคม 2024 เรารอคำตอบต่อร่างกฎหมายและความคืบหน้าเพิ่มเติม กฎหมายทั่วไปของอังกฤษได้รับการพิสูจน์แล้วหลายครั้งว่าสามารถปรับตัวให้เข้ากับการเปลี่ยนแปลงของอุตสาหกรรมได้อย่างรวดเร็ว ความยืดหยุ่นและความสามารถในการปรับตัวที่แสดงให้เห็นช่วยให้สามารถแก้ไขข้อพิพาทได้ในลักษณะที่สมเหตุสมผลทางการค้า

ดังนั้น ในคดีนี้ศาลได้อธิบายเพิ่มเติมเกี่ยวกับผลกระทบของการปฏิบัติต่อสกุลเงินดิจิทัลเป็นทรัพย์สิน ศาลอุทธรณ์ได้พิจารณาว่านักพัฒนา Bitcoin จำเป็นต้องช่วยกู้คืนทรัพย์สินที่ถูกขโมยหรือไม่ เนื่องจากพวกเขาอาจมีหน้าที่รับผิดชอบต่อผู้ใช้ แม้ว่าศาลจะยืนยันว่า Bitcoin เป็นทรัพย์สิน แต่ยังเน้นย้ำถึงความสัมพันธ์ที่ซับซ้อนระหว่างแนวคิดทางกฎหมายทั่วไปและลักษณะการกระจายอำนาจของสกุลเงินดิจิทัล คดีนี้เน้นย้ำว่าแม้ว่าสกุลเงินดิจิทัลจะถือเป็นทรัพย์สินได้ แต่การใช้หน้าที่รับผิดชอบต่อสินทรัพย์ดิจิทัลมาตรฐานยังคงเป็นปัญหาทางกฎหมายที่ยังไม่ได้รับการแก้ไข

คดีข้างต้นเหล่านี้มีความสำคัญต่อภาคการเงิน ไม่เพียงแต่แสดงให้เห็นถึงความเต็มใจของศาลในการรับรองสินทรัพย์ดิจิทัลเท่านั้น แต่ยังให้ความแน่นอนในระดับหนึ่งเกี่ยวกับการบังคับใช้กับสินทรัพย์ดิจิทัลเหล่านี้อีกด้วย ประเด็นของสินทรัพย์ดิจิทัลยังได้รับการพิจารณาในต่างประเทศอีกด้วย ในคดีล่าสุดของสิงคโปร์ B2C2 Ltd v Quoine Pte Ltd [2019] SGHC (I) ผู้พิพากษาได้ใช้หลักการที่เป็นที่ยอมรับของกฎหมายสัญญาและความไว้วางใจในบริบทของการซื้อขายสกุลเงินดิจิทัลโดยอัตโนมัติ ซึ่งสรุปว่า Bitcoin เป็นทรัพย์สินส่วนบุคคลที่สามารถเป็นทรัพย์สินของทรัสต์ได้  “สกุลเงินดิจิทัลไม่ใช่เงินที่ชำระหนี้ได้ตามกฎหมายในความหมายที่เป็นสกุลเงินที่ควบคุมและออกโดยรัฐบาล แต่มีลักษณะพื้นฐานของทรัพย์สินที่จับต้องไม่ได้ซึ่งเป็นสิ่งที่มีค่าที่ระบุได้” ในที่สุด ศาลก็พอใจว่าหลักการตามสัญญาและทรัสต์ปกติสามารถนำไปใช้กับสกุลเงินดิจิทัลได้เช่นเดียวกับทรัพย์สินอื่น ๆ

อย่างไรก็ตาม ความไม่สอดคล้องกับกฎหมายและปัญหาที่ยังไม่ได้รับการแก้ไขที่เกี่ยวข้องกับการปฏิบัติทางกฎหมายต่อสินทรัพย์ดิจิทัล โดยเฉพาะอย่างยิ่งสกุลเงินดิจิทัล เน้นย้ำถึงความจำเป็นเร่งด่วนสำหรับกรอบกฎหมายที่ครอบคลุม แม้ว่ากฎหมายตัวอย่างจะมีคุณค่า แต่จะต้องมีการปรับปรุงเพื่อจัดการกับบริบททางกฎหมายที่ซับซ้อน เช่น การกู้คืนสินทรัพย์และการบังคับใช้ข้ามพรมแดน คำตัดสินที่สำคัญได้สร้างบรรทัดฐานที่สำคัญ แต่ยังเปิดเผยข้อจำกัดของแนวทางที่ศาลเป็นผู้ขับเคลื่อนทีละน้อย หากไม่มีการปฏิรูปกฎหมายอย่างชัดเจน คำถามที่สำคัญเกี่ยวกับภาระผูกพันของผู้ถือกรรมสิทธิ์และการบังคับใช้ข้ามพรมแดนยังคงไม่ได้รับการแก้ไข อันเป็นผลจากความไม่แน่นอนทางกฎหมายนี้ บริษัทต่างๆ ที่ต้องดำเนินการภายใต้ระบอบการกำกับดูแลที่แตกต่างกันและเปลี่ยนแปลงไปจะต้องเผชิญกับความซับซ้อนและความคลุมเครือที่มากขึ้นซึ่งขัดขวางความสามารถในการปฏิบัติตามภาระผูกพันและข้อกำหนดที่เกี่ยวข้อง ดังนั้น บริษัทเหล่านี้จะต้องแบกรับภาระทางการเงินที่มากขึ้นจากค่าใช้จ่ายทางกฎหมายและการปฏิบัติตามที่เพิ่มขึ้นเพื่อให้เป็นไปตามมาตรฐานการกำกับดูแลต่างๆ ดังนั้น จึงมีความจำเป็นอย่างเร่งด่วนสำหรับแนวทางที่ชัดเจนและสอดคล้องกันเพื่อให้แน่ใจว่ามีความแน่นอนทางกฎหมายและได้รับการคุ้มครองสำหรับผู้เข้าร่วมตลาดและระบบการเงินโดยรวม

ดังนั้น เมื่อพิจารณาถึงความซับซ้อนที่เปลี่ยนแปลงไปรอบๆ สินทรัพย์ดิจิทัลรายงานเพิ่มเติมและร่างกฎหมายของคณะกรรมาธิการกฎหมายของสหราชอาณาจักรจึงมีความทันเวลาและจำเป็น กฎหมายที่เสนอนี้มุ่งหวังที่จะรับรอง "ประเภทที่สาม" ของทรัพย์สินส่วนบุคคลอย่างเป็นทางการ ซึ่งออกแบบมาเพื่อให้ครอบคลุมสินทรัพย์ดิจิทัล เช่น สกุลเงินดิจิทัล การเคลื่อนไหวดังกล่าวมีความสำคัญ เนื่องจากหมวดหมู่ทางกฎหมายที่มีอยู่ ซึ่งได้แก่ "สิ่งของที่ครอบครอง" และ "สิ่งของที่ดำเนินการอยู่" ไม่เหมาะกับลักษณะเฉพาะของสินทรัพย์เหล่านี้ หากไม่มีกรอบกฎหมายที่ชัดเจนเพื่อควบคุมกิจกรรมที่อยู่ภายใต้การควบคุมความไม่แน่นอนทางกฎหมายที่สำคัญ จะเกิดขึ้นสำหรับบริษัทที่ทำธุรกิจกับหรือเกี่ยวข้องกับสินทรัพย์ดิจิทัล เช่น สกุลเงินดิจิทัล ซึ่งอาจก่อให้เกิดปัญหาได้ เนื่องจากจะสร้างปัญหามากมายให้กับอุตสาหกรรมสินทรัพย์ดิจิทัลและความสามารถในการดำรงอยู่ของการใช้สินทรัพย์ดิจิทัลในภาคการเงิน ตัวอย่างเช่น ในกรณีของหลักประกัน ผู้รับหลักประกันที่ต้องการรับหลักประกันโดยวิธีการเรียกเก็บค่าธรรมเนียมตามหลักธรรมคงที่สำหรับสินทรัพย์ดิจิทัลจะต้องควบคุมสินทรัพย์ดิจิทัลที่เกี่ยวข้องในระดับหนึ่ง อย่างไรก็ตาม ประเด็นทางกฎหมายที่เกี่ยวข้องมักปรากฏขึ้นเมื่อต้องพิจารณาความรับผิดชอบในด้านต่างๆ เช่น ผลประโยชน์ในกรรมสิทธิ์ตามการควบคุมและภาระผูกพันอื่นๆ ที่กว้างขวางกว่า ซึ่งไม่ใช่บรรทัดฐานสำหรับสินทรัพย์ที่จับต้องไม่ได้อื่นๆ หากไม่มีการปฏิรูปกฎหมาย การพึ่งพากฎหมายกรณีตัวอย่างในปัจจุบัน แม้จะมีค่า แต่ก็มีความเสี่ยงที่จะทำให้ความคลุมเครือทางกฎหมายจำนวนมากไม่ได้รับการแก้ไข โดยเฉพาะในด้านต่างๆ เช่น การกู้คืนทรัพย์สินและการบังคับใช้กฎหมายข้ามพรมแดน

เป้าหมายหลักของร่างกฎหมายที่เสนอนี้คือเพื่อให้มีการรับรองทางกฎหมายที่ชัดเจนต่อสินทรัพย์ดิจิทัลในฐานะทรัพย์สิน โดยสร้างกรอบการทำงานที่สอดคล้องกันสำหรับวิธีการจัดการสินทรัพย์ดิจิทัลในระบบกฎหมาย ความชัดเจนนี้มีความจำเป็น โดยเฉพาะในสถานการณ์ทางกฎหมายที่ซับซ้อน เช่น การล้มละลายหรือข้อพิพาทระหว่างประเทศ ซึ่งสถานะทางกฎหมายปัจจุบันของสินทรัพย์ดิจิทัลยังคงไม่ชัดเจน นอกจากนี้ ข้อเสนอแนะจากคณะกรรมาธิการกฎหมายในการจัดตั้งคณะผู้เชี่ยวชาญในอุตสาหกรรมเพื่อช่วยเหลือศาลในประเด็นทางกฎหมายเหล่านี้เน้นย้ำถึงความสำคัญของการมีความเชี่ยวชาญในการจัดการกับแง่มุมทางเทคนิคที่ซับซ้อนของสินทรัพย์ดิจิทัล แนวทางนี้ช่วยเพิ่มความแน่นอนทางกฎหมายและสร้างรากฐานที่แข็งแกร่งสำหรับการพัฒนากฎหมายทั่วไปต่อไปในพื้นที่ทางกฎหมายที่มีพลวัตนี้

โดยสรุป การรับรองอย่างเป็นทางการของสินทรัพย์ดิจิทัลในฐานะประเภทของทรัพย์สินภายใต้กฎหมายของสหราชอาณาจักรถือเป็นการปฏิรูปครั้งสำคัญที่จำเป็นเพื่อรับมือกับความท้าทายเร่งด่วนที่เกิดจากการเพิ่มขึ้นของสกุลเงินดิจิทัลและสินทรัพย์ดิจิทัลอื่นๆ อย่างรวดเร็วในโลกยุคดิจิทัล กฎหมายต่างๆ ที่เสนอโดยคณะกรรมาธิการกฎหมายของสหราชอาณาจักรมีความสำคัญอย่างยิ่งในการให้ความชัดเจนและความสอดคล้องในทางกฎหมาย การประกาศใช้กฎหมายฉบับนี้จะทำให้สหราชอาณาจักรสามารถยกระดับสถานะของตนในฐานะผู้นำระดับโลกในการควบคุมการเงินดิจิทัล และทำให้มั่นใจได้ว่าระบบกฎหมายของสหราชอาณาจักรพร้อมที่จะตอบสนองความต้องการของเศรษฐกิจดิจิทัลที่ทันสมัย การปฏิรูปนี้ไม่เพียงแต่เสริมสร้างการป้องกันที่เกี่ยวข้องกับสินทรัพย์ดิจิทัลเท่านั้น แต่ยังปูทางไปสู่การวิจัย นวัตกรรม และการแก้ไขกฎหมายเพิ่มเติมในจุดตัดระหว่างกฎหมายและเทคโนโลยี ซึ่งจะช่วยให้กรอบกฎหมายมีความแข็งแกร่งและปรับเปลี่ยนได้มากขึ้นในอนาคต

ในปัจจุบันกล่าวได้ว่าสินทรัพย์ดิจิทัลถือเป็นทรัพย์สินตามกฎหมายอังกฤษอย่างไม่ต้องสงสัย แม้ว่าจะมีลักษณะเป็นทรัพย์สินที่ไม่มีตัวตน แต่ก็สามารถถือได้ว่าตั้งอยู่ในอังกฤษ (เพื่อจุดประสงค์ในการจัดตั้งเขตอำนาจศาล) ในสถานการณ์ที่เหมาะสม เอกสารสามารถได้รับการส่งโดย NFT ตามกฎหมายอังกฤษได้ ความไว้วางใจโดยปริยายสามารถเกิดขึ้นเหนือสกุลเงินดิจิทัล (และด้วยเหตุนี้ จึงสามารถใช้แนวทางแก้ไขที่เป็นกรรมสิทธิ์กับโจทก์ได้) ตามกฎหมายอังกฤษ ในไม่ช้านี้ ศาลอาจมีกระเป๋าเงินดิจิทัลของตนเอง และที่สำคัญกว่านั้น ผู้พัฒนาสกุลเงินดิจิทัลอาจต้องมีหน้าที่รับผิดชอบต่อผู้ใช้ (และจำเป็นต้องแก้ไข/กู้คืนสินทรัพย์ดิจิทัลที่ถูกขโมยไป) แต่บุคคลที่สามที่สำคัญ เช่น ธนาคารและการแลกเปลี่ยนสกุลเงินดิจิทัล เริ่มต่อสู้กลับและปกป้องสิทธิและภาระผูกพันของตนเอง

เมื่อมองไปข้างหน้า ดูเหมือนว่าสกุลเงินดิจิทัลจะคงอยู่ต่อไป และการยอมรับในวงกว้างอาจนำไปสู่การฉ้อโกงสกุลเงินดิจิทัลที่แพร่หลายมากขึ้น อย่างไรก็ตาม แนวโน้มมหภาคที่ทรงพลังสองประการอาจช่วยลดความเสียหายได้บ้าง ประการแรก การล่มสลายของชื่อคริปโตที่มีชื่อเสียงบางชื่อ เช่น FTX อาจทำให้ผู้ลงทุนที่มีแนวโน้มจะเป็นไปได้คิดทบทวนว่าข้อเสนอนั้นดีเกินจริงหรือไม่ ประการที่สอง ขณะนี้สหราชอาณาจักรได้ตราพระราชบัญญัติเพื่อนำสินทรัพย์คริปโตเข้ามาอยู่ในขอบเขตอำนาจหน้าที่ของ FCA ในฐานะผู้กำกับดูแล: บทบัญญัติที่เกี่ยวข้องของพระราชบัญญัติบริการทางการเงินและตลาด 2023 (FSMA 2023) มีผลบังคับใช้เมื่อวันที่ 29 สิงหาคม 2023 การเปลี่ยนแปลงดังกล่าวทำให้สินทรัพย์คริปโตอยู่ในขอบเขตของ "กิจกรรมที่ได้รับการควบคุม" ซึ่งหมายความว่าจะต้องไม่ดำเนินการโดยบุคคลที่ไม่ได้รับการควบคุม และการส่งเสริมสินทรัพย์คริปโตอยู่ภายใต้กฎการส่งเสริมและการสื่อสารที่เข้มงวดยิ่งขึ้น ในขณะที่ผู้ฉ้อโกงพัฒนากลโกงคริปโตอย่างรวดเร็ว กฎหมาย (อย่างน้อยในอังกฤษ) ก็ติดตามมาในไม่ช้า