วันจันทร์ที่ 30 กันยายน พ.ศ. 2567

การรณรงค์ต่อต้านการพัฒนาหุ่นยนต์สังหาร

เทคโนโลยีปัญญาประดิษฐ์เริ่มมีการพูดถึงกันอย่างกว้างขวางว่าเป็นเทคโนโลยีแห่งอนาคตที่จะเริ่มเข้ามามีบทบาทมากขึ้นกับสังคมและเศรษฐกิจในระดับโลกในอนาคตอันใกล้อย่างหลีกเลี่ยงไม่ได้ แต่ก็เป็นเทคโนโลยีที่มีการถกเถียงหรือวิพากษ์วิจารณ์มากที่สุดด้วยเช่นเดียวกันทั้งข้อดีและข้อเสีย เนื่องจากเทคโนโลยีปัญญาประดิษฐ์สามารถทำให้เทคโนโลยีบางอย่างสามารถทำงานได้อย่างมีประสิทธิภาพ เช่น รถยนต์ไร้คนขับหรือการตรวจรักษาโรคที่มีประสิทธิภาพมากกว่าแพทย์ เทคโนโลยีช่วยทำให้เครื่องจักรหรือหุ่นยนต์สามารถทำงานแทนมนุษย์ได้อย่างมีประสิทธิภาพดีกว่าในหลากหลายสาขา ซึ่งสร้างความวิตกกังวลในสังคมอย่างมาก
ในด้านความมั่นคง เทคโนโลยีปัญญาประดิษฐ์สามารถพัฒนาไปจนถึงระดับที่สามารถทำให้หุ่นยนต์สังหาร (killer robot) สามารถทำงานได้อย่างอัตโนมัติโดยไม่ต้องการคบคุมหรือสั่งการจากมนุษย์ในการทำงาน กล่าวคือสามารถกำหนดภารกิจให้หุ่นยนต์สามารถตัดสินใจได้เองว่าจะสู้รบอย่างไรและจะสังหารใคร ตัวอย่างความสำเร็จของศักยภาพของเทคโนโลยีต้นแบบของหุ่นยนต์สังหารคือ โดรนติดอาวุธที่พัฒนาโดยประเทศสหรัฐอเมริกา จีน เกาหลีใต้ รัสเซีย และสหราชอาณาจักร เป็นต้น มีคำถามว่าอาวุธอัตโนมัติที่มีปัญญาประดิษฐ์ดังกล่าวจะต้องอยู่ภายใต้มาตรฐานกฎหมายมนุษยธรรมระหว่างประเทศด้วย เช่น หลักความแตกต่าง หลักความได้สัดส่วน และหลักความจำเป็นทางการทหาร มิฉะนั้นจะเป็นภัยคุกคามต่อสิทธิพื้นฐานของมนุษย์และหลักศักดิ์ศรีความเป็นมนุษย์ กลุ่มสิทธิมนุษย์ชนได้เรียกร้องในเวทีระดับโลกมีการรณรงค์ให้หยุดการพัฒนาหุ่นยนต์สังหารดังกล่าว
แรงจูงใจหลักเบื้องหลังการพัฒนาอาวุธอัตโนมัติเกี่ยวข้องกับการกระจายกำลังทหาร ความหวังก็คืออาวุธดังกล่าวจะช่วยให้ผู้บัญชาการสามารถจัดสรรเจ้าหน้าที่และกำลังอาวุธของตนในรูปแบบใหม่ที่มีประสิทธิภาพอย่างน่าทึ่ง ตัวอย่างเช่น กระทรวงกลาโหมของสหรัฐฯ กำลังพัฒนาเทคโนโลยีการโจมตีแบบรุมสำหรับภาคพื้นดิน ทางทะเล และทางอากาศ ในสถานการณ์หนึ่ง นักบินจำนวนน้อยจะสามารถควบคุมฝูงเครื่องบินอัตโนมัติที่ทำลายล้างได้จำนวนมาก ในสถานการณ์อื่น หุ่นยนต์อัตโนมัติจะเข้าร่วมการต่อสู้กับทหารอเมริกัน หุ่นยนต์เหล่านี้จะสามารถระบุแหล่งที่มาของการยิงของศัตรูและตอบโต้ได้ทันทีโดยไม่ต้องได้รับอนุญาตจากมนุษย์ เหตุผลประการที่สองสำหรับอาวุธอัตโนมัติเกี่ยวข้องกับความเร็วและความซับซ้อนของสงครามสมัยใหม่ สงครามเป็นการแข่งขันกับเวลา ใครก็ตามที่สามารถคิดได้เร็วกว่า ตัดสินใจได้เร็วกว่า และริเริ่มปฏิบัติการทางทหารอันชาญฉลาดได้เร็วกว่าศัตรู มักจะเป็นผู้ชนะ กองทัพที่มีความก้าวหน้าทางเทคโนโลยีพึ่งพาคอมพิวเตอร์มากขึ้นเรื่อยๆ เพื่อรวบรวมและวิเคราะห์ข้อมูลจำนวนมหาศาลอย่างรวดเร็ว ซึ่งข้อมูลดังกล่าวจะทำหน้าที่เป็นพื้นฐานสำหรับการตัดสินใจเชิงกลยุทธ์ กองทัพต้องระมัดระวังที่จะยืนกรานว่าการตัดสินใจใช้กำลังยังคงอยู่ในมือของมนุษย์อย่างปลอดภัย รองรัฐมนตรีกลาโหมสหรัฐฯ โรเบิร์ต เวิร์ค ยืนกรานว่ากองทัพสหรัฐฯ "จะไม่มอบอำนาจในการโจมตีให้เครื่องจักรทำการตัดสินใจ" ยกเว้นในกรณีที่สิ่งต่างๆ "ดำเนินไปเร็วกว่าเวลาตอบสนองของมนุษย์ เช่น สงครามไซเบอร์หรือสงครามอิเล็กทรอนิกส์" 
อย่างไรก็ตาม ความเป็นจริงก็คือ ส่วนใหญ่ของสงครามในปัจจุบันกำลังดำเนินไปอย่างรวดเร็วและพึ่งพาอุปกรณ์อิเล็กทรอนิกส์ มนุษย์มีบทบาทในการควบคุมดูแลและมีอำนาจยับยั้งคำแนะนำของเครื่องจักรในการใช้กำลังมากขึ้นเรื่อยๆ เมื่อความซับซ้อน ความเร็ว และความล้ำสมัยของระบบเหล่านี้เพิ่มขึ้น ผู้ดูแลที่เป็นมนุษย์อาจไว้วางใจระบบมากขึ้น และมีแนวโน้มที่จะยับยั้งคำแนะนำของระบบน้อยลง เมื่อสิ่งนี้เกิดขึ้น อำนาจในการตัดสินใจเกี่ยวกับชีวิตและความตายจะตกไปอยู่ที่อาวุธเอง ลักษณะของสงครามที่เปลี่ยนไป อาวุธอัตโนมัติไม่ได้เป็นเพียงเครื่องมือสงครามใหม่เท่านั้น แต่ยังเปลี่ยนแปลงเงื่อนไขของสงครามด้วย นวัตกรรมด้านหุ่นยนต์และปัญญาประดิษฐ์เปิดโอกาสใหม่ๆ ซึ่งจะกำหนดเป้าหมายและกลยุทธ์ของปฏิบัติการทางทหารในอนาคตในระดับหนึ่ง การกระจายอำนาจทางทหารที่เกิดขึ้นได้ด้วยเทคโนโลยีอัตโนมัติได้เปลี่ยนแปลงแนวคิดทางการทหารไปแล้ว สงครามกำลังกลายเป็นเหมือนความขัดแย้งแบบเดิมๆ ระหว่างศูนย์กลางอำนาจที่กำหนดไว้อย่างชัดเจนน้อยลง แต่เป็นเหมือนเครือข่ายสนามรบที่กระจัดกระจายและกำลังอาวุธที่เคลื่อนที่ได้สูงและกระจัดกระจายมากขึ้น และหากหุ่นยนต์ทำงานผิดพลาดหรือตัดสินใจผิดพลาด ใครคือผู้ต้องรับผิดชอบ โปรแกรมเมอร์ ผู้ผลิต หรือผู้กำหนดนโยบาย สงครามกำลังกลายเป็นเหมือนความขัดแย้งแบบเดิมๆ ระหว่างศูนย์กลางอำนาจที่กำหนดไว้อย่างชัดเจนน้อยลง แต่เป็นเหมือนเครือข่ายสนามรบที่กระจัดกระจายและกำลังอาวุธที่เคลื่อนที่ได้สูงและกระจัดกระจายมากขึ้น ซึ่งยิ่งกัดกร่อนความแตกต่างแบบเดิมๆ ระหว่าง "แนวหน้า" และ "แนวรบ" มากขึ้น กัดกร่อนความแตกต่างแบบเดิมๆ ระหว่าง "แนวหน้า" และ "แนวรบ" เทคโนโลยีฝูงใหม่จะเข้ามามีส่วนสนับสนุนการพัฒนานี้ โดยโดรนขนาดเล็กที่ขับเคลื่อนอัตโนมัติเต็มรูปแบบจะหลุดออกจาก "ยานแม่" และกลับมาอีกครั้งในเวลาหลายชั่วโมงต่อมา เทคโนโลยีดังกล่าวมีแนวโน้มที่จะเพิ่มศักยภาพด้านข่าวกรองทางทหาร แต่เมื่อมีอยู่จริงแล้ว ก็ไม่มีอะไรที่จะหยุดยั้งกองทัพไม่ให้ติดอาวุธให้โดรนได้ ลองนึกภาพฝูงโดรนที่ติดตั้งข้อมูลไบโอเมตริกซ์และคำสั่งเพื่อค้นหาและฆ่าบุคคล กลุ่มบุคคล หรือทุกคนในพื้นที่ที่กำหนด เทคโนโลยีฝูงโดรนซึ่งได้รับการส่งเสริมจากอุตสาหกรรมว่ามีราคาค่อนข้างถูก อาจตกไปอยู่ในมือของผู้ที่ไม่ใช่รัฐได้เช่นกัน
แนวโน้มของอาวุธอัตโนมัติเต็มรูปแบบได้กลายเป็นแหล่งที่มาของความกังวลในระดับนานาชาติ นักวิจารณ์ที่ดังที่สุดได้แก่ "แคมเปญเพื่อหยุดยั้งหุ่นยนต์สังหาร" ซึ่งนำโดยองค์กรพัฒนาเอกชนทั้งในประเทศและต่างประเทศ รวมถึงองค์กรสิทธิมนุษยชน โนเอล ชาร์คีย์ นักวิทยาศาสตร์คอมพิวเตอร์ ซึ่งเป็นสมาชิกคนสำคัญของแคมเปญนี้ โต้แย้งว่า "หุ่นยนต์สังหาร" โดยธรรมชาติแล้ว ละเมิดจริยธรรมและกฎหมายของสงคราม อ้างว่าหุ่นยนต์ไม่สามารถแยกแยะระหว่างผู้สู้รบและพลเรือนได้ เพราะไม่สามารถเขียนโปรแกรมคอมพิวเตอร์ด้วยคุณลักษณะว่าพลเรือนคืออะไร ชาร์คีย์ยังยืนกรานว่าไม่มีทางที่หุ่นยนต์จะตัดสินใจตามสัดส่วนที่กฎหมายมนุษยธรรมระหว่างประเทศกำหนดได้ ในความเห็นนี้ จำเป็นต้องมีรูปแบบการตัดสินใจของมนุษย์โดยเฉพาะเพื่อตัดสินว่าจำนวนพลเรือนที่เสียชีวิตและความเสียหายต่อทรัพย์สินนั้นสอดคล้องกับข้อได้เปรียบทางทหารหรือไม่ การถกเถียงดังกล่าวมีมิติทางปรัชญา หุ่นยนต์ไม่สามารถตายได้ และไม่สามารถเข้าใจถึงความร้ายแรงของการตัดสินใจที่จะฆ่าได้ ชาร์คีย์ยังตั้งข้อสังเกตว่าเราไม่สามารถให้หุ่นยนต์รับผิดชอบต่อการกระทำของตนได้ แล้วเราจะเรียกร้องความรับผิดชอบจากใคร? ผู้บัญชาการมนุษย์? หากหุ่นยนต์ทำงานผิดพลาดหรือตัดสินใจผิดพลาด ใครควรได้รับโทษ? โปรแกรมเมอร์? ผู้ผลิต? ผู้กำหนดนโยบาย? 
อีกด้านหนึ่งของการโต้แย้งนี้ก็คือผู้ที่โต้แย้งว่าหุ่นยนต์จะทำให้สงครามทำลายล้างน้อยลง มีความเสี่ยงน้อยลง และเลือกปฏิบัติมากขึ้น เช่น โรนัลด์ อาร์คิน นักหุ่นยนต์ การรับรู้และการตัดสินใจของมนุษย์นั้นมีข้อจำกัดและลำเอียงโดยเนื้อแท้ และสงครามมีความซับซ้อนเกินกว่าที่จิตใจของมนุษย์จะเข้าใจได้ อาร์คินอ้างว่าความโหดร้ายที่เลวร้ายที่สุดบางประการในสงครามเกิดจากความอ่อนแอของมนุษย์ อารมณ์ต่างๆ เช่น ความกลัว ความโกรธ และความเกลียดชัง หรือเพียงแค่ความเหนื่อยล้า สามารถทำให้การตัดสินใจของทหารในสนามรบไม่ชัดเจนได้ จากมุมมองนี้ การโต้แย้งว่าหุ่นยนต์จะไม่สามารถคิดและกระทำได้เหมือนมนุษย์นั้นเป็นเรื่องที่มุ่งเน้นที่มนุษย์เป็นหลักและพลาดประเด็นสำคัญ คำถามสำหรับผู้สนับสนุนอาวุธสังหารอัตโนมัติแบบอัตโนมัติไม่ใช่ว่าเทคโนโลยีดังกล่าวสามารถเลียนแบบจิตวิทยาของมนุษย์ได้หรือไม่ แต่เป็นว่าเราสามารถออกแบบ โปรแกรม และใช้งานหุ่นยนต์ให้ทำงานได้ถูกต้องตามจริยธรรมได้เท่ากันหรือดีกว่ามนุษย์ในสถานการณ์ที่คล้ายคลึงกันได้หรือไม่
ในการถกเถียงกันเรื่องอาวุธอัตโนมัติที่ใช้ปัญญาประดิษฐ์ควบคุมและสั่งการมีประเด็นสำคัญประการหนึ่งว่าอาวุธควรมีความสามารถในการทำงานโดยอัตโนมัติและความชาญฉลาดของปัญญาประดิษฐ์มากน้อยเพียงใด ที่สำคัญมนุษย์ควรเข้าไปเกี่ยวข้องมากน้อยเพียงใดในเรื่องนี้ ซึ่งยังคงไม่มีความชัดเจนเนื่องจากมีการปกปิดจากอุตสาหกรรมผลิตอาวุธและประเด็นความมั่นคงของประเทศ เช่น ไม่มีทิศทางที่ชัดเจจากผู้วิจัยหรือผู้ผลิตว่าจะมีการประดิษฐ์หุ่นยนต์นักฆ่าที่เหมือนมนุษย์หรือไม่ 
การอภิปรายเกี่ยวกับหุ่นยนต์สังหารที่มีปัญญาประดิษฐ์ในอนาคตยังเบี่ยงเบนความสนใจจากขอบเขตที่การพึ่งพาเทคโนโลยีของเราได้ผลักดันมนุษย์ออกจากวงจรไปแล้ว และทำให้การแยกแยะระหว่างอาวุธอัตโนมัติ กึ่งอัตโนมัติ และอัตโนมัติเลือนลางลง ในที่สุด การเน้นที่ความเป็นอิสระของเครื่องจักรสังหารบดบังว่าเทคโนโลยีอัตโนมัติกระจุกกำลังอาวุธจำนวนมหาศาลไว้ในมือของมนุษย์เพียงไม่กี่คนอย่างไร ประเด็นสำคัญที่นี่ไม่ได้อยู่ที่ความเป็นอิสระของเครื่องจักรสังหาร แต่เป็นความสามารถของมนุษย์ในการใช้ความเป็นอิสระอย่างมีนัยสำคัญในการโต้ตอบระหว่างมนุษย์กับเครื่องจักรที่ก่อให้เกิดสงครามในอนาคต อาวุธสังหารอัตโนมัติจะขยายขอบเขตของความรุนแรงที่อาจเกิดขึ้นได้อย่างมากในช่วงเวลาที่ความซับซ้อนและความเร็วของสงครามได้ขยายออกไปเกินความสามารถของมนุษย์ที่จะทำตาม ช่องว่างที่เพิ่มมากขึ้นระหว่างความสามารถอันมหาศาลของมนุษย์ในการสร้างความรุนแรงและความสามารถในการตัดสินใจที่จำกัด อาจเป็นผลกระทบที่อันตรายที่สุดของเทคโนโลยีดังกล่าว
แคมเปญเพื่อหยุดยั้งหุ่นยนต์สังหารกำลังนำเสนอข้อโต้แย้งทางศีลธรรมที่สำคัญ โดยมีการเตือนเกี่ยวกับอันตรายที่อาจเกิดขึ้นจากเทคโนโลยีทางการทหารใหม่ที่กำลังเกิดขึ้น “หุ่นยนต์สังหาร” มีศักยภาพที่จะเพิ่มการสูญเสียชีวิตพลเรือนในสงครามและทำให้กฎหมายสงครามไม่เกี่ยวข้อง อาวุธดังกล่าวจะเปลี่ยนแปลงความสัมพันธ์ระหว่างมนุษย์กับเครื่องจักรโดยพื้นฐาน โดยโอนอำนาจการตัดสินใจไปที่เครื่องจักรมากขึ้น ในขณะเดียวกันก็รวมอำนาจการยิงไว้ในมือมนุษย์เพียงไม่กี่คน การห้ามล่วงหน้าที่แคมเปญเรียกร้องนั้นไม่น่าจะป้องกันการพัฒนาเทคโนโลยีนี้ได้อย่างสมบูรณ์ และเรารู้จากประสบการณ์ว่าเมื่อมีเทคโนโลยีแล้ว ผู้คนมักจะใช้และละเมิดมัน อย่างไรก็ตาม การห้าม การพักการใช้ หรือกฎระเบียบที่เข้มงวดอื่นๆ อาจทำให้การพัฒนาเหล่านี้ล่าช้าลง เช่นเดียวกับที่อาจทำให้เกิดความรู้สึกเร่งด่วนและตราหน้าเทคโนโลยีดังกล่าว การห้ามในระดับนานาชาติมีบรรทัดฐานที่ส่งผลต่อพฤติกรรมของประเทศต่างๆ แม้ว่าจะปฏิเสธที่จะเข้าร่วมสนธิสัญญาห้ามก็ตาม สหประชาชาติจะเริ่มการเจรจาสนธิสัญญาห้ามอาวุธนิวเคลียร์ในปี ค.ศ. 2017 ซึ่งจะปูทางไปสู่การอภิปรายที่คล้ายกันเกี่ยวกับอาวุธสังหารอัตโนมัติ มีการเรียกร้องให้รัฐบาลเดนมาร์กให้ความสำคัญกับการหารือที่กำลังจะมีขึ้นที่สหประชาชาติ และพิจารณาอย่างจริงจังเกี่ยวกับการห้ามหรือใช้กฎข้อบังคับที่เข้มงวดอื่นๆ เกี่ยวกับการพัฒนาและการใช้อาวุธสังหารอัตโนมัติ
นายชาร์เรสัมภาษณ์วิศวกรที่สร้างอาวุธอัตโนมัติและนักยุทธศาสตร์ที่กำลังเตรียมตัวสำหรับการมาถึงของอาวุธเหล่านี้ เขาได้เห็นด้วยตัวเองว่าจะคาดหวังอะไรจากเทคโนโลยีเหล่านี้ เช่น ฝูงโดรนขนาดเล็กราคาถูกที่ต่อสู้ทางอากาศโดยมีการประสานงานที่เหนือมนุษย์ พบว่าความเร็วของการพัฒนาเหล่านี้ทั้งสร้างความตื่นเต้นและความกังวลให้กับสถาบันการทหาร บรรดานายพลรู้ดีว่ากำลังเข้าสู่ยุคที่อัลกอริทึมจะกำหนดความสำเร็จในสนามรบ และมนุษย์อาจไม่สามารถตามทันจังหวะของการสู้รบได้
ความแตกต่างที่สำคัญอย่างหนึ่ง นายชาร์เรกล่าวว่า คือ ระหว่างอาวุธใหม่ที่ติดตั้งระบบอัตโนมัติ "ค่อนข้างจำกัด" และจะดำเนินการเฉพาะอย่างมีประสิทธิภาพมากกว่ามนุษย์ เช่น ขีปนาวุธต่อต้านเรือที่ได้รับการตั้งโปรแกรมให้เลือกเป้าหมาย และระบบในอนาคต (อาจจะอีก 20 ปี) ที่มีปัญญาประดิษฐ์ "ทั่วไป" อาวุธที่มีการทำงานอัตโนมัติจำกัดซึ่งสามารถเปิดใช้งานได้เอง เช่น เพื่อตอบสนองต่อการโจมตีทางไซเบอร์ด้วยความเร็วแสง จะมีความเสี่ยงที่จะเกิดการยกระดับความรุนแรงขึ้นได้ แต่เมื่อใช้ร่วมกับระบบควบคุมโดยมนุษย์ เช่น ฝูงบินโดรนที่ควบคุมโดยเครื่องบินที่มีคนขับ อาจทำให้มีความแม่นยำและรับรู้สถานการณ์ได้ดีขึ้น และสามารถวิเคราะห์ได้ดีกว่ามนุษย์ซึ่งมักจะกลัว โกรธ และเหนื่อยล้า 
อาวุธที่ทำงานอัตโนมัติเต็มรูปแบบซึ่งสามารถวางแผน แก้ปัญหา และสรุปผลจากประสบการณ์ได้นั้นแตกต่างออกไป อาวุธเหล่านี้ต้องการเพียงมนุษย์ในการสั่งการให้เริ่มภารกิจ (อาจไม่ใช่ด้วยซ้ำ) ในกรณีนี้ นายชาร์เรคิดว่าอันตรายและปัญหาทางศีลธรรมนั้นร้ายแรงมากจนเป็นประโยชน์ต่อมนุษยชาติในการหาวิธีควบคุมเทคโนโลยี ซึ่งแตกต่างจากผู้รณรงค์ต่อต้าน "หุ่นยนต์สังหาร" ไม่เชื่อว่าหุ่นยนต์เหล่านี้จะถูกแบนได้ง่ายๆ แต่กลับสนับสนุนให้มนุษย์มีส่วนร่วมขั้นต่ำในการปฏิบัติการและปฏิบัติตามกฎหมายระหว่างประเทศ แต่ข้อตกลงควบคุมอาวุธจะมีผลก็ต่อเมื่อมีการตรวจสอบที่เชื่อถือได้เท่านั้น นายชาร์เรเขียนว่าแก่นแท้ของความเป็นอิสระคือซอฟต์แวร์มากกว่าฮาร์ดแวร์ ทำให้ความโปร่งใสทำได้ยากมาก ประชาธิปไตยแบบเสรีนิยมอาจยืนกรานให้มีการตรวจสอบโดยมนุษย์อย่าง "มีนัยสำคัญ" แต่ทุกประเทศจะพิถีพิถันเท่ากันหรือไม่ และเมื่อพิจารณาถึงการมีอยู่ทั่วไปของปัญญาประดิษฐ์ ผู้ก่อการร้ายที่ไร้สำนึกจะใช้ประโยชน์จากสิ่งนี้ได้อย่างไร

ไม่มีความคิดเห็น:

แสดงความคิดเห็น