วันพุธที่ 25 ธันวาคม พ.ศ. 2567

ความท้าทายของอาวุธอัตโนมัติในทางกฎหมายระหว่างประเทศ

 ปัญญาประดิษฐ์ (AI) ถือเป็นเทคโนโลยีรูปแบบใหม่ที่เกิดขึ้นอย่างรวดเร็วที่สุดในสังคมยุคใหม่ แทบทุกภาคส่วนและกระบวนการทางสังคมได้รับอิทธิพลจากเทคโนโลยีปัญญาประดิษฐ์และกองทัพก็ไม่มีข้อยกเว้น AI ได้รับการยอมรับอย่างมั่นคงว่าเป็นหนึ่งในเทคโนโลยีที่เป็นที่ต้องการมากที่สุดสำหรับประเทศต่างๆ ที่จะนำมาใช้ในความขัดแย้งทางอาวุธ โดยหลายประเทศพยายามทดสอบขีดจำกัดของอาวุธอัตโนมัติสื่อกระแสหลักเผยแพร่บทความข่าวมากมายเกี่ยวกับ " หุ่นยนต์สังหาร"และความเสี่ยงที่อาจเกิดขึ้นกับมนุษยชาติ อย่างไรก็ตาม ความเป็นจริงของผลกระทบของ AI ต่อการใช้อาวุธระดับทหารนั้นยังไม่ชัดเจนนัก

กฎหมายมนุษยธรรมระหว่างประเทศ (IHL) เฝ้าติดตามอย่างใกล้ชิดมาตั้งแต่มีการใช้ทุ่นระเบิดต่อต้านบุคคลในทศวรรษ1940โดยติดตามความก้าวหน้าทางเทคโนโลยีของแต่ละประเทศอย่างใกล้ชิด และตอบสนองต่อผลที่ตามมาจากการใช้งาน ซึ่งกฎหมายมนุษยธรรมระหว่างประเทศมีไว้เพื่อปกป้องพลเรือนที่ไม่ได้มีส่วนเกี่ยวข้องโดยตรงในความขัดแย้ง และเพื่อจำกัดและควบคุมบางแง่มุมของสงคราม อย่างไรก็ตาม ระบบอาวุธอัตโนมัติกำลังพัฒนาเร็วกว่ากฎหมาย   และนักวิจารณ์กฎหมายจำนวนมากกังวลในหลายประเด็น เช่น มนุษยชาติอาจต้องเผชิญกับความเสี่ยงจากตลาดเทคโนโลยีที่ผูกขาดและผูกติดกับการเมือง ควรจะมีกฎหมายกำกับดูแลหรือไม่ และหากบังคับใช้ กฎหมายจะมีลักษณะอย่างไร และใครจะต้องรับผิดชอบ?

อาวุธอัตโนมัติเป็นแนวหน้าของเทคโนโลยีทางการทหารตั้งแต่ช่วงปี 1900โดยมีบทบาทสำคัญในความขัดแย้งครั้งใหญ่ เช่นสงครามอ่าวเปอร์เซียการใช้งานอาวุธอัตโนมัติครั้งแรกคือในรูปแบบของทุ่นระเบิดต่อต้านบุคคล ทุ่นระเบิดต่อต้านบุคคลทำงานโดยเซ็นเซอร์ โดยผู้ปฏิบัติการไม่ต้องรับผิดชอบว่าใครเสียชีวิต ส่งผลให้พลเรือนเสียชีวิต จำนวนมากอย่างหลีกเลี่ยงไม่ได้ ส่งผลให้ทุ่นระเบิดต่อต้านบุคคลทำงานโดยเซ็นเซอร์ถูกห้ามใช้ตามสนธิสัญญาออตตาวาปี 1997อย่างไรก็ตาม การใช้อาวุธอัตโนมัติเพิ่งเริ่มต้นเท่านั้น

ในช่วงทศวรรษ 1970 กองทัพเรือสหรัฐได้พัฒนาและใช้งานเรือดำน้ำอัตโนมัติ ซึ่งเป็นเทคโนโลยีที่ต่อมาได้ขายให้กับประเทศที่มีความก้าวหน้าทางเทคโนโลยี อื่นๆ อีกหลายประเทศ นับตั้งแต่มีการนำ AI ขั้นสูงมาใช้ ระดับของอาวุธที่ประเทศต่างๆ สามารถพัฒนาได้นั้นทำให้มีการบัญญัติศัพท์ใหม่ขึ้นมา นั่นก็คือ 'LAWS' ระบบอาวุธอัตโนมัติที่ทำลายล้างได้ (LAWS) คืออาวุธที่ใช้เทคโนโลยี AI ขั้นสูงเพื่อระบุเป้าหมายและนำไปใช้งานโดยแทบไม่มีมนุษย์เข้ามาเกี่ยวข้องเลย ในงานวิจัยทางวิชาการกฎหมายแบ่งออกเป็น 3 ระดับของความเป็นอิสระ ซึ่งแต่ละระดับจะมีลักษณะเฉพาะตามปริมาณการมีส่วนร่วมของผู้ปฏิบัติการที่จำเป็นในการใช้งาน ระดับแรกคือ "อาวุธอัตโนมัติภายใต้การควบคุมดูแล" หรือที่เรียกอีกอย่างว่า "มนุษย์อยู่ในวงจร" อาวุธเหล่านี้อนุญาตให้มนุษย์เข้ามาแทรกแซงเพื่อยุติการโจมตี ระดับที่สองคือ "อาวุธกึ่งอัตโนมัติ" หรือ "มนุษย์อยู่ในวงจร" อาวุธที่เมื่อถูกโจมตีแล้วจะกำหนดเป้าหมายที่ตั้งไว้ล่วงหน้า ระดับที่สามคือ "อาวุธอัตโนมัติเต็มรูปแบบ" หรือ "มนุษย์อยู่นอกวงจร" ซึ่งระบบอาวุธไม่มีผู้ปฏิบัติการเข้ามาเกี่ยวข้องเลย

กฎหมายอาศัยความก้าวหน้าของ AI เพื่อให้มีความแม่นยำมากขึ้น ปัจจุบันมีกฎหมายหลายฉบับทั้งที่ใช้งานอยู่และอยู่ระหว่างการพัฒนา ได้แก่:

รถถัง Uran 9ที่พัฒนาโดยรัสเซียสามารถระบุเป้าหมายและใช้งานโดยไม่ต้องมีผู้ปฏิบัติการเข้ามาเกี่ยวข้อง

เครื่องบินรบไร้คนขับ Taranisกำลังได้รับการพัฒนาในสหราชอาณาจักรโดย BAE Systems ซึ่งเป็นเครื่องบินเจ็ทไร้คนขับที่ใช้โปรแกรม AI เพื่อโจมตีและทำลายพื้นที่ขนาดใหญ่ด้วยการเขียนโปรแกรมเพียงเล็กน้อย

การนำ AI มาใช้ในกองทัพนั้นมีขอบเขตที่กว้างขวาง อย่างไรก็ตาม เช่นเดียวกับอาวุธอัตโนมัติเหล่านี้ ปัญญาประดิษฐ์มีความซับซ้อนมากขึ้นเรื่อยๆ และการนำไปใช้ในเทคโนโลยีของกองทัพก็ไม่ต่างกัน มีการใช้ AI ในด้านต่างๆ มากกว่าด้านอื่นๆ ตัวอย่างเช่น การจดจำใบหน้าสามารถใช้ในวงกว้างเพื่อระบุเป้าหมายในฝูงชน นอกจากนั้น อาวุธบางชนิดยังมีเทคโนโลยีที่สามารถคำนวณโอกาสในการโจมตีเป้าหมายและการโจมตีเป้าหมายครั้งที่สองโดยการติดตามการเคลื่อนไหว ซึ่งถูกนำมาใช้ในการใช้งานโดรนโดยเฉพาะเพื่อติดตามเป้าหมายเมื่อเคลื่อนที่จากอาคารหนึ่งไปยังอีกอาคารหนึ่ง

ในขณะที่พัฒนาการทางกฎหมายนั้น กฎหมายมนุษยธรรมระหว่างประเทศเป็นกฎหมายที่ใช้บังคับระหว่างความขัดแย้งทางอาวุธ กฎหมายดังกล่าวมีขอบเขตนอกอาณาเขตที่กว้างไกลและมุ่งหมายที่จะปกป้องผู้ที่ไม่ได้มีส่วนเกี่ยวข้องในการปฏิบัติความขัดแย้ง ตลอดจนจำกัดการทำสงครามและยุทธวิธีทางการทหารกฎหมายมนุษยธรรมระหว่างประเทศมีหลักการพื้นฐานสี่ประการ ได้แก่ การรับรองความแตกต่างระหว่างพลเรือนและทหาร ความสมส่วน (การรับรองว่าความก้าวหน้าทางการทหารใดๆ จะต้องสมดุลระหว่างชีวิตพลเรือนและการได้รับผลประโยชน์ทางทหาร) การรับรองว่าปฏิบัติตามข้อควรระวังในการโจมตี และหลักการของ"มนุษยธรรม"กฎหมายมนุษยธรรมระหว่างประเทศติดตามความคืบหน้าของอาวุธที่ประเทศต่างๆ เริ่มใช้และพัฒนาอย่างใกล้ชิด และ (ในทางทฤษฎี) กำลังพิจารณาว่าการใช้อาวุธเหล่านี้สอดคล้องกับหลักการของประเทศนั้นๆ หรือไม่ อย่างไรก็ตาม ในปัจจุบัน กฎหมายที่เกี่ยวข้องกับกฎหมายมนุษยธรรมระหว่างประเทศยังไม่ชัดเจน ด้วยกฎหมายมนุษยธรรมระหว่างประเทศที่เพิ่มขึ้น กฎหมายมนุษยธรรมระหว่างประเทศจำเป็นต้องปรับตัวและเข้มงวดข้อจำกัดเกี่ยวกับระบบบางอย่าง

ความกังวลหลักประการหนึ่งอยู่ที่กฎเกณฑ์การแยกแยะมีการโต้แย้งกันว่าอาวุธที่กึ่งอัตโนมัติหรืออัตโนมัติทั้งหมด (ระบบที่มนุษย์อยู่ในวงจรและนอกวงจร) ไม่สามารถแยกแยะระหว่างหน่วยงานพลเรือนและทหารได้ ซึ่งหมายความว่าชีวิตผู้บริสุทธิ์อาจถูกพรากไปจากความผิดพลาดของระบบอัตโนมัติ ดังที่กล่าวไว้ก่อนหน้านี้ อาวุธอัตโนมัติไม่ใช่แนวคิดใหม่ และภายหลังการใช้ทุ่นระเบิดต่อต้านบุคคลอัตโนมัติในช่วงปี 1900 อาวุธเหล่านี้ก็ถูกจำกัดเนื่องจากไม่มีความแตกต่างระหว่างพลเรือนที่ "เหยียบทุ่นระเบิด" และเจ้าหน้าที่ทหารที่ "เหยียบทุ่นระเบิด"กฎหมายมนุษยธรรมระหว่างประเทศใช้กฎเกณฑ์การแยกแยะเพื่อเสนอห้ามซึ่งลงนามโดย 128 ประเทศในสนธิสัญญาออตตาวาปี 1997

เงื่อนไขข้อ Marten ซึ่งเป็นมาตราหนึ่งของอนุสัญญาเจนีวา มีเป้าหมายเพื่อควบคุมแนวคิดที่ว่า “สิ่งใดก็ตามที่ไม่ได้ถูกควบคุมโดยชัดแจ้งก็ถือว่าไม่ได้ถูกควบคุม” กฎหมายมนุษยธรรมระหว่างประเทศจำเป็นต้องควบคุมการพัฒนา และในระดับหนึ่งจะต้องป้องกันการพัฒนาอาวุธที่ละเมิดกฎหมายบางประการโดยตรง ตัวอย่างเช่น การห้ามใช้อาวุธอัตโนมัติที่ "ทำให้ตาบอดด้วยเลเซอร์"ในปี 1990 ซึ่งเกิดจากการที่ "ทำให้ตาบอดด้วยเลเซอร์" ถูกมองว่าเป็นรูปแบบหนึ่งของการทรมานซึ่งละเมิดสิทธิมนุษยชนที่ได้รับการคุ้มครองโดยตรง นั่นคือสิทธิที่จะไม่ถูกทรมานในเวลานั้น อาวุธที่ "ทำให้ตาบอดด้วยเลเซอร์" ยังไม่ได้ใช้ในความขัดแย้งทางอาวุธ อย่างไรก็ตาม ประเด็นที่เกี่ยวข้องกับผลกระทบทางจริยธรรมของอาวุธเหล่านี้ต่อเชลยศึกถือเป็นข้อกังวลของกฎหมายมนุษยธรรมระหว่างประเทศ

แต่น่าเสียดายที่โอกาสมีน้อยมาก ประเทศที่พัฒนาแล้วทางเศรษฐกิจสามารถซื้อและควบคุมตลาดระบบอาวุธอัตโนมัติที่ทำลายล้างได้ ในขณะที่ประเทศที่พัฒนาแล้วทางเศรษฐกิจน้อยกว่าไม่สามารถซื้อเทคโนโลยีเหล่านี้ได้ จึงมีการเรียกร้องให้มีการห้ามใช้กฎหมายระหว่างประเทศทั้งหมด โดยผู้วิจารณ์กฎหมายระบุว่ากฎหมายมนุษยธรรมระหว่างประเทศไม่สามารถบรรลุเป้าหมายได้ตามมาตรฐานสูงสุดด้วยการอนุญาตให้มีการดำรงอยู่ พัฒนา และใช้งานกฎหมาย มนุษยธรรมระหว่าง ประเทศได้ มีการโต้แย้งว่าประเด็นหลักที่เชื่อมโยงปัญญาประดิษฐ์ กฎหมาย และกฎหมายมนุษยธรรมระหว่างประเทศเข้าด้วยกันคือคำถามว่า ควรไว้วางใจให้เครื่องจักรตัดสินใจเกี่ยวกับชีวิตหรือความตายหรือไม่

แม้จะมีเทคโนโลยีการจดจำใบหน้าขั้นสูงก็ตาม แต่นักวิจารณ์เรียกร้องให้มีการแบน เนื่องจากไม่มีเทคโนโลยีใดที่ปราศจากข้อบกพร่อง แล้วจะสรุปได้อย่างไรว่าระบบต่างๆ เช่น การจดจำใบหน้ามีความแม่นยำเต็มที่การใช้อาวุธที่ควบคุมโดยมนุษย์โดยสมบูรณ์ และมนุษย์ไม่สามารถควบคุมเทคโนโลยีได้ในทุกกรณี หมายความว่าพลเรือนมีความเสี่ยง มีการโต้แย้งว่าการกระทำดังกล่าวละเมิดหลักการของกฎหมายมนุษยธรรมระหว่างประเทศอย่างสิ้นเชิง

นักวิชาการด้านกฎหมายบางคนโต้แย้งว่าการใช้กฎหมายมนุษยธรรมควรขึ้นอยู่กับนโยบายสังคม ซึ่งเป็นวางหลักเกณฑ์กำกับดูแลล่วงหน้าต่อประเทศที่ใช้กฎหมายมนุษยธรรม ระบบที่เสนอนี้ช่วยให้กฎหมายมนุษยธรรมระหว่างประเทศสามารถกำกับควบคุมอาวุธในระยะพัฒนาได้ ซึ่งถือเป็นสิ่งสำคัญที่จะหลีกเลี่ยงผลกระทบจากกฎหมายมนุษยธรรม และป้องกันวิกฤตการณ์ด้านมนุษยธรรมนโยบายนี้จะทำให้ผู้พัฒนาต้องรับผิดชอบก่อนที่จะเกิดสงคราม อย่างไรก็ตาม อาจโต้แย้งได้ว่านโยบายนี้อยู่นอกเหนือขอบเขตอำนาจศาลของกฎหมายมนุษยธรรมระหว่างประเทศ ซึ่งบังคับใช้ได้เฉพาะเมื่อความขัดแย้งเริ่มขึ้นเท่านั้น ซึ่งนำไปสู่การอภิปรายอย่างกว้างขวางว่าขอบเขตอำนาจศาลของกฎหมายมนุษยธรรมระหว่างประเทศคืออะไรเมื่อเทียบกับขอบเขตอำนาจศาลที่ควรจะเป็น

แม้กฎหมายมนุษยธรรมระหว่างประเทศอาจยืดเวลาการบังคับใช้กฎหมายที่อาจช่วยชีวิตได้ เนื่องจากประเทศที่มีอำนาจอ้างอิทธิพลในการตัดสินใจ ประเทศที่มีอำนาจเหล่านี้มีอิทธิพลในการขัดขวางการเปลี่ยนแปลงในกฎหมายระหว่างประเทศที่ "ผลประโยชน์สูงสุด" ของมนุษยชาติไม่สอดคล้องกับความก้าวหน้าทางทหารของตนเอง ประเทศต่างๆ เช่น สหราชอาณาจักร กำลังใช้แนวทาง "สนับสนุนนวัตกรรม" ในการผลิตอาวุธด้วยปัญญาประดิษฐ์ ซึ่งหมายความว่าโดยทั่วไปแล้ว ประเทศเหล่านี้ไม่เห็นด้วยกับข้อจำกัดที่อาจขัดขวางความก้าวหน้าในการผลิต อย่างไรก็ตาม ได้มีการตั้งข้อสังเกตอย่างถูกต้องว่า "เทคโนโลยีขั้นสูง" เหล่านี้ซึ่งอยู่ภายใต้การควบคุมขององค์กรก่อการร้าย (ซึ่งไม่จำเป็นต้องปฏิบัติตามกฎหมายมนุษยธรรมระหว่างประเทศ) จะส่งผลกระทบอย่างร้ายแรง พวกเขาโต้แย้งว่าการห้ามใช้กฎหมายโดยสมบูรณ์อาจนำไปสู่ความรุนแรงมากกว่าการไม่บังคับใช้กฎหมาย

ในขณะที่เทคโนโลยี AI กำลังก้าวหน้า และระบบอาวุธอัตโนมัติก็เช่นกัน อาวุธกำลังกลายเป็นประโยชน์ต่อกองทัพมากขึ้น โดยเทคโนโลยีมีความแม่นยำและแม่นยำมากขึ้น กฎหมายมนุษยธรรมระหว่างประเทศซึ่งได้รับอิทธิพลจากจุดยืนทางการเมืองและประโยชน์ทางเศรษฐกิจของประเทศต่างๆ อย่างต่อเนื่อง กำลังพยายามสร้างและจัดโครงสร้างกฎหมายในแนวนอนอย่างช้าๆ อย่างไรก็ตาม กฎหมายและเทคโนโลยีกำลังพัฒนาอย่างรวดเร็ว ซึ่งไม่สามารถเปรียบเทียบได้ และเป็นที่วิพากษ์วิจารณ์ทางกฎหมายจำนวนมาก คำถามยังคงอยู่ว่า กฎหมายกำลังพยายามชะลอชัยชนะที่หลีกเลี่ยงไม่ได้หรือไม่


ไม่มีความคิดเห็น:

แสดงความคิดเห็น