วันจันทร์ที่ 25 สิงหาคม พ.ศ. 2568

ปัญหาการเลือกปฏิบัติโดยอัลกอริทึม

ด้วยพัฒนาความก้าวหน้าของระบบปัญญาประดิษฐ์ที่มีการนำมาประยุกต์ใช้อย่างกว้างขวางในปัจจุบันและมากขึ้นเรื่อยๆในอนาคต ระบบปัญญาประดิษฐ์ทำให้เกิดการตัดสินใจอัตโนมัติกำลังเกิดขึ้นในสังคม อาทิ ระบบอัลกอริทึมประมวลผลแบบแสดงรายการภาษี ประเมินใบสมัครงาน ให้คำแนะนำ คาดการณ์อาชญากรรม หรือโอกาสที่ผู้ลี้ภัยจะเข้าสู่ตลาดแรงงาน การตัดสินใจของระบบเหล่านี้มีผลกระทบโดยตรงต่อชีวิตของผู้คน บางคนถูกเลือกปฏิบัติในกระบวนการนี้ระบบอัลกอริทึมได้รับการวิจารณ์อยู่แล้วจากนักวิชาการว่าไม่ใช่ระบบที่เป็นมีความกลาง เนื่องจากระบบอัลกอริทึมจำลองรูปแบบการเลือกปฏิบัติที่มีอยู่แล้วในสังคมข้อมูลที่ใช้ในกระบวนการการเรียนรู้ของเครื่อง ภายในระบบการตัดสินใจอัตโนมัติสะท้อนถึงสภาพสังคมกลุ่มคนบางกลุ่มอาจมีจำนวนเกินหรือน้อยกว่าความเป็นจริง ในกรณีเช่นนี้ ข้อมูลเกี่ยวกับกลุ่มใดกลุ่มหนึ่งอาจมีมากกว่าหรือน้อยกว่าที่ควรจะเป็นเมื่อเทียบกับจำนวนคนทั้งหมดที่ได้รับผลกระทบจากการตัดสินใจ ดังนั้น จึงมีความเสี่ยงที่การออกแบบระบบจะได้รับอิทธิพลจากบุคลากรที่เกี่ยวข้องกับการพัฒนาระบบการตัดสินใจในระยะเริ่มต้น เช่น การพัฒนา ระบบจะถูกกำหนดโดยสมมติฐาน ความเชื่อ มุมมอง และอคติของผู้พัฒนา ซึ่งอาจส่งผลต่อผลลัพธ์ของระบบ เช่น การตัดสินใจอัตโนมัติ นอกจากนี้ ระบบยังสามารถเลือกปฏิบัติต่อบุคคลเมื่อนำไปใช้งานเช่น เมื่อใช้ระบบจดจำใบหน้าเพื่อระบุตัวตนของคนผิวสีในฝูงชนหากการตัดสินใจของระบบส่งผลกระทบต่อคนจำนวนมาก คนจำนวนไม่น้อยก็อาจได้รับผลกระทบจากการตัดสินใจแบบเลือกปฏิบัติด้วยเช่นกัน ในกรณีส่วนใหญ่ สาเหตุของการเลือกปฏิบัติสามารถพบได้ในคุณสมบัติของระบบ ปัญหานี้ ซึ่งโดยเฉพาะอย่างยิ่งที่เกี่ยวข้องกับการเลือกปฏิบัติด้วยอัลกอริทึม เรียกว่าผลกระทบจากการปรับขนาด รูปแบบการเลือกปฏิบัติที่มีอยู่สามารถได้รับการเสริมกำลังด้วยสิ่งที่เรียกว่าวงจรป้อนกลับ ตัวอย่างเช่น ข้อมูลจากอดีตถูกนำมาใช้โดยตั้งสมมติฐานว่าอนาคตจะไม่แตกต่างจากอดีต ในระบบอัลกอริทึมสำหรับการบังคับใช้กฎหมายเชิงพยากรณ์ ข้อมูลนี้สามารถนำไปสู่การลาดตระเวนหรือเฝ้าระวังในพื้นที่บางแห่งมากกว่าพื้นที่อื่นๆ อย่างไรก็ตาม การเฝ้าระวังที่เพิ่มขึ้นยังเพิ่มโอกาสที่ตำรวจจะค้นพบอาชญากรรมในพื้นที่นั้นๆ ได้มากขึ้น การทำนายดังกล่าวโดยระบบจะเป็นจริงในตัวเอง เช่นเดียวกับในคำทำนายที่เป็นจริงในตัวเอง การทำนายจะได้รับการเสริมกำลังเมื่อระบบถูกใช้งานเป็นระยะเวลานานขึ้น และจะทำนายโดยอิงจากการคาดการณ์ก่อนหน้าของระบบเองเมื่อใช้อัลกอริทึมในพื้นที่ที่มีความไม่สมดุลของอำนาจอย่างมาก ความเสี่ยงต่อการตัดสินใจที่ไม่เป็นธรรมและการเลือกปฏิบัติจะสูงเป็นพิเศษ ไม่ว่าจะเป็นความไม่สมดุลของอำนาจระหว่างผู้สมัครและบริษัท ลูกจ้างและนายจ้าง ผู้ต้องสงสัยและตำรวจ ผู้ลี้ภัยและเจ้าหน้าที่ควบคุมชายแดน ผู้รับสวัสดิการและหน่วยงานภาครัฐ นักเรียนและครู หรือผู้ใช้รายบุคคลและแพลตฟอร์มโซเชียลมีเดีย ในสถานการณ์เช่นนี้ มีฝ่ายหนึ่งที่ต้องพึ่งพาการตัดสินใจของอีกฝ่ายหนึ่ง หากฝ่ายที่มีอำนาจมากกว่าตัดสินใจโดยอัตโนมัติ ผู้ที่ได้รับผลกระทบมักจะไม่รู้ตัว พวกเขาต้องตกอยู่ภายใต้อำนาจของการตัดสินใจดังกล่าวและแทบจะป้องกันตัวเองจากความไม่สมดุลของอำนาจไม่ได้เลยแม้แต่ประเทศต่างๆ เริ่มใช้ระบบอัลกอริทึมที่สามารถเลือกปฏิบัติต่อบุคคลได้ ในประเทศเนเธอร์แลนด์ ในปี 2019 หน่วยงานด้านภาษีของเนเธอร์แลนด์ได้ใช้อัลกอริทึมการเรียนรู้ด้วยตนเอง เพื่อสร้างโปรไฟล์ความเสี่ยงเพื่อตรวจจับ การฉ้อโกงเงินสวัสดิการ เด็กเพียงความสงสัยจากตัวชี้วัดความเสี่ยงของระบบก็เพียงพอที่จะทำให้หน่วยงานสามารถลงโทษครอบครัวที่กระทำการฉ้อโกงได้ ครอบครัวหลายหมื่นครอบครัว ซึ่งมักมีรายได้น้อยหรือเป็น “ชนกลุ่มน้อย” ที่มีสองสัญชาติ ต้องจ่ายเงินช่วยเหลือบุตรที่ได้รับมาหลายปีคืน ส่งผลให้ครอบครัวเหล่านี้มีหนี้สิน ครอบครัวส่วนใหญ่ถึงขั้นยากจน ส่งผลให้เด็กมากกว่าหนึ่งพันคนต้องอยู่ในสถานสงเคราะห์ ต่อมาหน่วยงานคุ้มครองข้อมูลของเนเธอร์แลนด์ได้สรุปว่าการประมวลผลข้อมูลโดยระบบดังกล่าวเป็นการเลือกปฏิบัติการเลือกปฏิบัติทางอัลกอริทึมในที่ทำงานอาจเริ่มต้นจากการโฆษณาหางาน ปรากฎงานวิจัยนำเสนอว่าแบบแผนทางเพศเป็นตัวกำหนดวิธีที่บริษัท Facebook และ Google แสดงโฆษณาหางาน Google สำหรับตำแหน่งงาน นักพัฒนาแมชชีนเลิร์นนิง คนขับรถบรรทุก ช่างทำผม พนักงานดูแลเด็ก ที่ปรึกษากฎหมาย และพยาบาล โฆษณาทั้งหมดใช้รูปแบบอาชีพที่เป็นเพศชายและแสดงรูปภาพที่เกี่ยวข้องกับงาน ในเยอรมนี โปแลนด์ ฝรั่งเศส สเปน และสวิตเซอร์แลนด์ ทั้งนี้ โฆษณาแต่ละรายการ จะไม่มีการกำหนดกลุ่มเป้าหมายใดๆ เลย ยกเว้นตามพื้นที่ทางภูมิศาสตร์ ซึ่งเป็นข้อกำหนด ผลจากงานวิจัยพบว่าโฆษณาสำหรับคนขับรถบรรทุกมักแสดงให้ผู้ชายเห็นบ่อยกว่ามาก และโฆษณาสำหรับพนักงานดูแลเด็กมักแสดงให้ผู้หญิงเห็นบ่อยกว่ามาก อัลกอริทึมยังช่วยคัดแยกและคัดเลือกเรซูเม่หรือให้คำแนะนำแก่พนักงานอีกด้วย เมื่ออัลกอริทึมกลายเป็น "เจ้านาย" ในการตัดสินใจเกี่ยวกับการเลื่อนตำแหน่งหรือการเลิกจ้างอาจกลายเป็นเรื่องที่น่าสงสัย การขาดความโปร่งใสโดยทั่วไปเป็นแหล่งเพาะพันธุ์ของการตัดสินใจเลือกปฏิบัติ หรืออีกกรณีหนึ่งคือหน่วยงานสินเชื่อ Schufa ของเยอรมนี ให้ข้อมูลเกี่ยวกับระดับ “ความน่าเชื่อถือทางเครดิต” ของบุคคล โดยคำนวณคะแนนความเสี่ยงที่ธนาคารและบริษัทที่คล้ายคลึงกันใช้ในการตัดสินใจว่าจะปล่อยสินเชื่อให้บุคคลใดหรือเซ็นสัญญากับบุคคลใด การตัดสินใจเช่นนี้อาจส่งผลกระทบอย่างใหญ่หลวงต่อบุคคล เช่น หากบุคคลนั้นถูกปฏิเสธโอกาสในการกู้ยืมหรือทำประกันภัยอย่างไม่มีเหตุผล อย่างไรก็ตาม ไม่มีใครรู้ว่าคะแนนความเสี่ยงเหล่านี้คำนวณอย่างไร หรือระบบอัตโนมัติคำนวณหรือไม่ ซึ่งอาจทำให้เกิดการเลือกปฏิบัติอย่างมากและยังเป็นปัญหาทางกฎหมายอีกด้วย กฎหมายคุ้มครองข้อมูลของยุโรประบุว่าการตัดสินใจที่มีผลทางกฎหมายต่อบุคคลนั้นไม่สามารถทำโดยระบบอัตโนมัติเพียงอย่างเดียวได้ ศาลยุติธรรมแห่งยุโรปตัดสินให้ Schufa ด้วยเหตุผลนี้ปัจจุบันกรมตำรวจในเมืองใหญ่ๆ หลายแห่งของสหรัฐอเมริกาได้ทดลองใช้การพยากรณ์พฤติกรรมการก่ออาชญากรรม (Predictive Policing) เป็นวิธีหนึ่งในการพยากรณ์พฤติกรรมการก่ออาชญากรรม การพยากรณ์พฤติกรรมการก่ออาชญากรรมใช้ระบบคอมพิวเตอร์วิเคราะห์ชุดข้อมูลขนาดใหญ่ รวมถึงข้อมูลอาชญากรรมในอดีต เพื่อช่วยตัดสินใจว่าควรส่งตำรวจไปที่ไหน หรือเพื่อระบุตัวบุคคลที่มีแนวโน้มจะก่ออาชญากรรมหรือตกเป็นเหยื่อของอาชญากรรม ผู้สนับสนุนแนวคิดนี้โต้แย้งว่าการทำนายเหตุการณ์อาชญากรรมสามารถช่วยคาดการณ์อาชญากรรมได้แม่นยำและมีประสิทธิภาพมากกว่าวิธีการแบบดั้งเดิมของตำรวจ อย่างไรก็ตาม นักวิจารณ์ได้แสดงความกังวลเกี่ยวกับความโปร่งใสและความรับผิดชอบ นอกจากนี้ แม้ว่าบริษัทข้อมูลขนาดใหญ่จะอ้างว่าเทคโนโลยีของพวกเขาสามารถช่วยขจัดอคติในการตัดสินใจของตำรวจได้ แต่อัลกอริทึมที่อาศัยข้อมูลในอดีตก็มีความเสี่ยงที่จะทำให้เกิดอคติเหล่านั้นซ้ำอีก อย่างไรก็ตาม การพยากรณ์พฤติกรรมของตำรวจเป็นเพียงหนึ่งในหลายๆ วิธีที่กรมตำรวจในสหรัฐอเมริกาได้นำวิธีการบิ๊กดาต้ามาใช้ในการทำงานในช่วงสองทศวรรษที่ผ่านมา แนวทางอื่นๆ ได้แก่ การนำเทคโนโลยีการเฝ้าระวัง เช่น การจดจำใบหน้าและการติดตามโซเชียลมีเดียมาใช้ การพัฒนาเหล่านี้ไม่ได้มาพร้อมกับมาตรการป้องกันที่เพียงพอเสมอไปอนึ่ง ตำรวจและศาลใช้ระบบอัลกอริทึมเพื่อคำนวณความน่าจะเป็นที่ผู้กระทำความผิดจะกระทำผิดซ้ำ ข้อมูลที่ป้อนเข้าสู่ระบบอัลกอริทึมเพื่อจุดประสงค์นี้มักจะให้ภาพจำลองที่บิดเบือนความเป็นจริงเท่านั้น ตัวอย่างเช่น หากใช้จำนวนการติดต่อโดยทั่วไปของผู้กระทำความผิดกับตำรวจเป็นตัวบ่งชี้ความน่าจะเป็นที่จะกระทำผิดซ้ำ ในแง่ที่ว่า ยิ่งผู้กระทำความผิดมีการติดต่อกับตำรวจมากเท่าใด โอกาสที่จะกระทำผิดซ้ำก็ยิ่งมากขึ้นเท่านั้น สิ่งนี้อาจนำไปสู่การเลือกปฏิบัติต่อคนผิวดำ เจ้าหน้าที่ตำรวจบางนายใช้ "การจำแนกประเภทเชื้อชาติ" และตรวจสอบคนผิวดำบ่อยกว่าคนผิวขาวมาก หากคนผิวดำถูกจับกุมบ่อยกว่าโดยไม่มีเหตุผลอันสมควร ก็จะเพิ่มจำนวนการติดต่อกับตำรวจ คะแนนการกระทำผิดซ้ำเป็นพื้นฐานของข้อจำกัดที่บังคับใช้กับผู้กระทำความผิดหลังจากได้รับการปล่อยตัวจากเรือนจำ หากคนผิวดำมีคะแนนสูงขึ้นเนื่องจาก "การจำแนกประเภทเชื้อชาติ" และคะแนนนี้นำไปสู่ข้อจำกัดของตำรวจหรือศาลที่สูงขึ้นสำหรับพวกเขา พวกเขาตกเป็นเหยื่อของการเลือกปฏิบัติตัวอย่างที่น่าสนใจคือ พระราชบัญญัติการปฏิบัติที่เท่าเทียมกันโดยทั่วไป (Allgemeines Gleichbehandlungsgesetz, AGG) มีผลบังคับใช้ในประเทศเยอรมนีในปี พ.ศ. 2549 พระราชบัญญัตินี้ออกแบบมาเพื่อ "ป้องกันหรือขจัดการเลือกปฏิบัติโดยพิจารณาจากเชื้อชาติหรือชาติพันธุ์ เพศ ศาสนาหรือความเชื่อ ความพิการ อายุ หรืออัตลักษณ์ทางเพศ" จนถึงปัจจุบัน กฎหมายนี้ควบคุมเฉพาะการเลือกปฏิบัติโดยภาคเอกชน เช่น นายจ้าง เจ้าของบ้านเช่า และผู้ให้บริการสินค้าและบริการเท่านั้น AGG บังคับใช้คำสั่งต่อต้านการเลือกปฏิบัติของยุโรป 4 ฉบับที่ออกตั้งแต่ปี พ.ศ. 2543ปัจจุบันหน่วยงานภาครัฐและสถาบันการศึกษายังคงได้รับการยกเว้นจากกฎหมายนี้ จนถึงปัจจุบัน เบอร์ลินเป็นรัฐเดียวของรัฐบาลกลางที่ได้ผ่านกฎหมายต่อต้านการเลือกปฏิบัติเพิ่มเติมของรัฐ ซึ่งมีผลบังคับใช้ในปี พ.ศ. 2563 กฎหมายนี้ห้ามการเลือกปฏิบัติโดยหน่วยงานภาครัฐ และมีเป้าหมายเพื่อเสริมสร้างสิทธิของผู้ที่ได้รับผลกระทบโดยทั่วไปแล้ว AGG มีวัตถุประสงค์เพื่อให้บุคคลสามารถปกป้องตนเองจากการตัดสินใจที่เลือกปฏิบัติและผลกระทบด้านลบที่อาจเกิดขึ้น อย่างไรก็ตาม กฎหมายไม่ได้คำนึงถึงผลกระทบจากการขยายขอบเขต นั่นคือ การตัดสินใจของระบบอัลกอริทึมที่ส่งผลกระทบต่อคนจำนวนมาก สิ่งนี้ยิ่งทำให้ช่องว่างทางกฎหมายที่เกิดจากการที่ AGG ขาดสิทธิในการฟ้องร้องร่วมกันสำหรับสมาคมที่เป็นตัวแทนทางกฎหมายหลายคนยิ่งกว้างขึ้น บุคคลที่ได้รับผลกระทบจากการตัดสินใจอัตโนมัตินั้นยากที่จะระบุตัวตน หากพวกเขาสงสัยว่ามีการเลือกปฏิบัติ พวกเขาต้องแสดงหลักฐาน ซึ่งเป็นไปไม่ได้หากไม่ทราบการใช้งานและการทำงานของระบบ ข้อสรุปนี้มาจากความเห็นทางกฎหมายของสำนักงานต่อต้านการเลือกปฏิบัติแห่งสหพันธรัฐปี 2566 ว่า “ลักษณะที่เป็นระบบปิดของระบบ ADM ทำให้ผู้ที่ได้รับผลกระทบไม่สามารถติดตามสาเหตุของการเลือกปฏิบัติได้ในทางปฏิบัติ และมาตรการทางกฎหมายเพื่อบรรเทาภาระการพิสูจน์ภายใต้ AGG ในรูปแบบปัจจุบันยังไม่เพียงพอที่จะเอาชนะอุปสรรคเหล่านี้”ดังนั้น การคุ้มครองการเลือกปฏิบัติที่มีอยู่ในปัจจุบันจึงไม่เพียงพอสำหรับกรณีการเลือกปฏิบัติโดยอัลกอริทึม นอกจากผลกระทบจากการปรับขนาดและวงจรป้อนกลับแล้ว AGG ยังขาดการคุ้มครองการเลือกปฏิบัติ เนื่องจากไม่ได้นำสิ่งที่เรียกว่าตัวแปรตัวแทนมาพิจารณา AGG ระบุว่า ลักษณะส่วนบุคคลบางประการได้รับการคุ้มครองจากการเลือกปฏิบัติ เช่น ถิ่นกำเนิด ภาษา สถานะทางสังคม วิถีชีวิต ศาสนา อุดมการณ์ หรือความเชื่อทางการเมือง อย่างไรก็ตาม ระบบการตัดสินใจอัตโนมัติสามารถใช้ลักษณะที่เกี่ยวข้องสำหรับการตัดสินใจโดยตัวแทนได้ ตัวอย่างเช่น ระบบที่จัดการแอปพลิเคชันอาจไม่ปฏิเสธบุคคลเนื่องจากอายุ เนื่องจากอายุเป็นลักษณะที่ได้รับการคุ้มครองภายใต้ AGG อย่างไรก็ตาม ระบบอาจใช้จำนวนปีของประสบการณ์การทำงานก่อนหน้าเป็นตัวแปรตัวแทนเพื่อระบุและยกเว้นผู้สูงอายุ เนื่องจากช่องว่างการคุ้มครองดังกล่าวในกฎหมาย องค์กรต่างๆ เรียกร้องให้ AGG เพิ่มสิทธิในการฟ้องร้องสมาคมและนำขั้นตอนการตรวจสอบสำหรับผู้ที่ได้รับผลกระทบมายื่นอุทธรณ์คำตัดสินโดยอัตโนมัติ

ไม่มีความคิดเห็น:

แสดงความคิดเห็น