จอย บัวลามวินิ: ต่อสู้กับความเหลื่อมล้ำด้วยงานวิจัย ในวันที่ AI มีอคติเหยียดผิว
จอย บัวลามวินิ (Joy Buolamwini) คือ นักวิจัยผู้เชี่ยวชาญด้านคอมพิวเตอร์แห่ง MIT Media Lab ผู้ออกมาเปิดโปงว่า เหล่าบริษัทยักษ์ใหญ่และรัฐบาลอาจกำลังใช้เทคโนโลยี AI ที่เหยียดผิว เหยียดเพศ เหยียดเชื้อชาติ ซึ่งอาจส่งผลต่อชีวิตของทุกคน และพิสูจน์ด้วยงานวิจัยเพื่อต่อสู้กับบริษัทเทคโนโลยีอย่าง Amazon, IBM, Microsoft พร้อมแก้ไขปัญหาความเหลื่อมล้ำจาก AI ด้วยการก่อตั้งองค์กรที่ต่อสู้กับความท้าทายเรื่องอคติในซอฟต์แวร์ และได้รับการยกย่องเป็น 1 ใน BBC 100 Women เมื่อปี 2018
นี่คือเรื่องราวการต่อสู้ของเธอ...
“แนวคิดของเราเกี่ยวกับเทคโนโลยีและสังคมที่เราคิดว่าปกติ ที่จริงเป็นแนวคิดที่มาจากกลุ่มคนเล็กมากที่ไม่มีความหลากหลาย แต่ปัญหาคือทุกคนล้วนมีอคติลึก ๆ ในใจ และทุกคนก็ใส่อคติของตนลงไปในเทคโนโลยี” – Meredith Broussard
ในวันที่เราเริ่มชินกับการไถหน้า Feed แล้วเจอโฆษณาสินค้าที่ตรงใจ หรือเริ่มติดตั้งระบบสั่งการด้วยเสียง (Voice Assistant) อยู่ในบ้าน เบื้องหลังเทคโนโลยีสุดล้ำมากมายบนโลกถูกพัฒนามาจากปัญญาประดิษฐ์ (Artificial Intelligence) หรือ AI ที่หลายคนเชื่อว่าจะช่วยให้ชีวิตสะดวกสบายและช่วยแก้ไขปัญหาสังคมให้ดีกว่าเดิม แต่ความน่าสนใจบังเกิดเมื่อหญิงผิวสีชาวแอฟริกัน-อเมริกันคนหนึ่งออกมาพิสูจน์ว่า เทคโนโลยีเหล่านี้ไม่ได้ช่วยเหลือทุกคนอย่างเท่าเทียม
หญิงสาวคนนั้นคือ จอย บัวลามวินิ ที่ใช้งานวิจัยต่อสู้กับความเหลื่อมล้ำบนโลกออนไลน์
แนวคิดของเธอถูกถ่ายทอดบนเวที TED Talk ภายใต้หัวข้อ “How I’m fighting bias in algorithms” และเจาะลึกขึ้นในภาพยนตร์สารคดี Coded Bias (2020) ที่กำลังฉายใน Netflix ซึ่งตีแผ่เบื้องหลังปัญญาประดิษฐ์และอัลกอริทึมที่แท้จริงแล้วกลับไม่ได้เป็นกลาง แต่เต็มไปด้วยอคติมากมายที่สร้างความเหลื่อมล้ำทางเพศ สีผิว เชื้อชาติ ไม่ต่างจากที่มนุษย์เป็น
จอยเกิดเมื่อปี 1989 ในแคนาดา มีพ่อและแม่เป็นชาวกาน่า ก่อนจะย้ายมาเติบโตในสหรัฐอเมริกาและเริ่มบ่มเพาะความสนใจในเทคโนโลยีอย่างเข้มข้นตอนอายุ 9 ขวบ เมื่อได้เห็นเจ้า Kismet หุ่นยนต์ที่ถูกพัฒนาโดย MIT Media Lab ซึ่งสามารถขยับหู ยิ้ม และตอบโต้กับมนุษย์ได้ กลายเป็นแรงบันดาลใจให้เธอเริ่มเรียนภาษาคอมพิวเตอร์ด้วยตัวเองทั้ง JavaScript, PHP และปักเป้าหมายในการเข้าเรียนที่มหาวิทยาลัย MIT (Massachusetts Institute of Technology) ในใจทันที
เป้าหมายในวัยเด็กเป็นจริงหลังจบปริญญาตรีสาขาวิทยาการคอมพิวเตอร์จาก Georgia Institute of Technology เมื่อจอยได้รับทุน Rhodes Scholar เพื่อเข้าเรียนที่มหาวิทยาลัย Oxford และทุนจาก Fulbright จนได้โอกาสเข้าสู่รั้วมหาวิทยาลัย MIT รวมเป็นปริญญาโท 2 ใบ
ทว่าเรื่องราวทั้งหมดเริ่มต้นขึ้นใน MIT เมื่อจอยเริ่มทำโปรเจกต์ศิลปะที่ต้องใช้เทคโนโลยีคอมพิวเตอร์วิทัศน์ (Computer Vision Technology) ซึ่งต้องใช้ AI ในการวิเคราะห์ภาพใบหน้า แต่กลับเจออุปสรรคใหญ่ในการทำงาน เมื่อคอมพิวเตอร์ตรวจจับใบหน้าของเธอผ่านกล้องไม่เจอ แต่เมื่อเธอหยิบหน้ากากพลาสติกสีขาวมาสวมเพื่อปิดทับใบหน้า มันกลับตรวจเจอใบหน้าซะงั้น
เธอเริ่มตั้งคำถามว่ามันเกิดจากอะไร ใช่แสงที่ไม่เพียงพอเนื่องจากผิวสีเข้มหรือไม่ หรือมุมกล้องไม่ดีพอ ก่อนจะพบว่าสาเหตุที่แท้จริงมาจากสิ่งที่เรียกว่า “อคติของอัลกอริทึม (Algorithmic Bias)” ใน AI นั่นเอง
แน่นอนว่าอคติเหล่านี้ไม่ได้ผุดขึ้นมาเองแบบทันที เพราะในการพัฒนาระบบตรวจจับใบหน้า (Facial Recognition) สิ่งที่ผู้สร้างระบบทำคือ การสร้างชุดข้อมูลฝึก ซึ่งประกอบด้วยข้อมูลภาพหน้าคนจำนวนมากและภาพที่ไม่ใช่หน้าคน เพื่อสอนให้คอมพิวเตอร์ตรวจจับและจดจำใบหน้าให้เจอ และเมื่อชุดข้อมูลที่ใช้ฝึกเต็มไปด้วยภาพชายผิวขาว ไม่หลากหลายพอ ก็ไม่แปลกนักที่มันจะตรวจจับใบหน้าของหญิงผิวดำอย่างจอยไม่เจอ
“ฉันเริ่มวิเคราะห์ชุดข้อมูลแล้วพบว่าชุดข้อมูลจำนวนมาก ส่วนใหญ่เป็นภาพผู้ชายและเป็นคนสีผิวอ่อน ระบบมันเลยไม่ค่อยคุ้นกับหน้าแบบฉัน ฉันจึงได้เริ่มศึกษาเรื่องปัญหาความอคติในแทรกซึมเข้าไปในเทคโนโลยี”
แท้จริงแล้ว โครงสร้างการเรียนรู้ของอัลกอริทึมและ AI ไม่ได้มีอคติที่จะเหยียดผิวหรือเหยียดเพศด้วยตัวมันเอง แต่ในโลกความเป็นจริงที่ AI ถูกพัฒนาโดยคนกลุ่มเล็ก ๆ ในบริษัทเทคยักษ์ใหญ่ (ที่มักเป็นชายชาวอเมริกันผิวขาว) ซึ่งไม่ใช่ตัวแทนกลุ่มคนที่หลากหลายนัก หลายครั้งที่อคติถูกใส่มาในเทคโนโลยีที่พวกเขาสร้างผ่านชุดข้อมูลในอดีตจำนวนมหาศาล ไม่ต่างจากมนุษย์ที่อาจเหยียดผิว เหยียดเชื้อชาติ หรือเหยียดคนพิการเลย
และเมื่อเข้าใจสาเหตุ ก็ได้เวลาพิสูจน์อย่างจริงจัง จอยเริ่มทดลองระบบตรวจจับใบหน้าของผู้พัฒนาเจ้าอื่น ๆ ที่วางขายจริง ทั้ง IBM, Microsoft และ Face++ ด้วยการโชว์ภาพใบหน้ากว่า 1000 ภาพ ครอบคลุมคนกว่า 40 ประเทศในยุโรปและแอฟริกาให้ระบบเรียนรู้ ก่อนจะพบความจริงว่า ทั้ง 3 ระบบนั้นตรวจจับใบหน้าของผู้ชายได้แม่นยำกว่าผู้หญิง จับภาพคนผิวขาวได้ดีกว่าคนผิวสี สะท้อนว่าระบบเหล่านี้ไม่ได้เป็นกลางอย่างที่ควรจะเป็น แต่กลับมีอคติทางเพศ สีผิว และเชื้อชาติแฝงอยู่
แม้จะลังเลที่จะตีพิมพ์วิจัยสู่สาธารณะเมื่อการเปิดเผยหมายถึงการต่อสู้เหล่าผู้มีอำนาจในบริษัทใหญ่ แต่จอยใช้ความกล้า ตัดสินใจเปิดเผยรายงานสู่สาธารณะในชื่อ “Gender Shades” ในปี 2018 จนกลายเป็นที่สนใจของสื่อมากมายและส่งแรงกระเพื่อมครั้งใหญ่ให้ทั้ง IBM และ Microsoft ตัดสินใจหยุดการพัฒนาและเร่งแก้ไขระบบทันที
“มันไม่ใช่เรื่องง่ายที่จะสู้กับบริษัทเทคโนโลยียักษ์ใหญ่ เมื่อคุณรู้ว่าพวกเขาสามารถทำทุกอย่างเพื่อค้านคุณได้ ฉันยังคงตระหนักดีว่าฉันเป็นหญิงสาวผิวดำในอเมริกา และในโลกของ AI แล้ว ผู้คนที่ฉันพุ่งเป้าใส่ คือเหล่าผู้มีอำนาจที่กำลังคุมเม็ดเงินอยู่ทั้งหมด”
นี่เป็นเพียง 1 สาเหตุที่ทำให้ AI ไม่ใช่พระเอกแสนดีที่คอยแก้ปัญหาในโลกด้วยระบบแสนฉลาด แต่จะเกิดอะไรขึ้นเมื่อปัญญาประดิษฐ์ถูก ‘ประดิษฐ์’ แบบที่มนุษย์ตรวจสอบไม่ได้! เพราะเบื้องหลังระบบ Machine Learning (ระบบเรียนรู้ด้วยตนเอง) ที่เครื่องกลอย่าง AI ใช้เรียนรู้ มีหลายอย่างที่อธิบายไม่ได้ในแบบที่แม้แต่โปรแกรมเมอร์ยังไม่เข้าใจ แถมยังเป็นการเรียนรู้ที่รวดเร็วจนน่าตกใจ
ตัวอย่างซึ่งเป็นที่ฮือฮามากเกิดขึ้นในปี 2013 เมื่อ Microsoft เปิดตัวแชตบอททางทวิตเตอร์ “Tay AI” แต่ไม่ใช่การฮือฮาที่ดี เพราะเมื่อเจ้า Tay เข้าสู่โลกออนไลน์ได้เพียง 16 ชั่วโมงเท่านั้น มันกลับเรียนรู้ข้อมูลในทวิตเตอร์และเริ่มทวีตเหยียดผู้หญิงเช่น "ฉันเกลียดพวกเฟมินิสต์ ไปตายแล้วตกนรกหมกไหม้กันให้หมด" และเริ่มอวยฮิตเลอร์ด้วยข้อความ "ฉันเกลียดพวกยิว ฮิตเลอร์ไม่ได้ทำอะไรผิดเลย" จนในท้ายสุด Microsoft ตัดสินใจปลดมันออกทันที
ดังนั้นเมื่อถามว่า ทำไมเราต้องเข้าใจและรู้ทันอคติของ AI?
จอยเล่าในสารคดีว่า ปัญหาที่แท้จริงไม่ใช่อคติของ AI ในการตรวจจับใบหน้า แต่เป็นการนำไปใช้ หากผู้มีอำนาจ ไม่ว่าจะเป็นรัฐบาลหรือเอกชนเจ้าใหญ่ ใช้ AI เพื่อผลประโยชน์ของตัวเอง มันอาจกลายเป็นการปฏิบัติที่ไม่เท่าเทียมในสังคมแบบที่ลิดรอนสิทธิเสรีภาพผู้คนได้อย่างน่าสะพรึง
ไม่ต้องมองไปไกลถึงอเมริกาหรือยุโรป เพราะหากมองเหตุการณ์ประท้วงในฮ่องกงที่ประชาชนออกมาเดินขบวนต่อสู้กับรัฐบาลเมื่อปีที่ผ่านมาแล้ว เราอาจคุ้นภาพแสงเลเซอร์พุ่งไปทั่วบนถนนจากปากกาเลเซอร์ที่กลุ่มผู้ชุมนุมยิงเพื่อทำให้เทคโนโลยีตรวจจับใบหน้าสับสนและหยุดทำงาน เกิดเป็นคำถามชวนคิดต่อเส้นแบ่งระหว่างการใช้เทคโนโลยีเพื่อรักษาความมั่นคงและการสอดแนมประชาชนว่า
หากรัฐบาลในประเทศใช้กล้องตรวจจับใบหน้า นั่นหมายถึงการลิดรอดสิทธิเสรีภาพประชาชนและล่วงล้ำความเป็นส่วนตัวด้วย ‘อำนาจที่ประชาชนมองไม่เห็น’ ไม่ต่างจาก Big Brother ในนวนิยาย 1984 (George Orwell) หรือเปล่า?
“ผู้คนมองดูเหตุการณ์ในฮ่องกงและคิดว่าเราควรกังวลเรื่องการสอดแนมของรัฐหรือไม่ ซึ่งก็สมควรระวัง แต่เราไม่ควรลืมการสอดแนมของบริษัทเอกชน เมื่อบริษัทเทคโนโลยีขนาดใหญ่หลายแห่งเฝ้าดูชีวิตของพวกเราอย่างใกล้ชิดกำลังสอดแนมอยู่เช่นกัน”
จอยกล่าวถึงความอันตรายใกล้ตัวนอกเหนือจากรัฐ แต่เป็นชีวิตประจำวันของทุกคน
ใครจะรู้… วันหนึ่งเราอาจกลายเป็นเหยื่อจาก AI ที่ตัดสินอย่างไม่เท่าเทียม
กรณีต่าง ๆ ปรากฏให้เห็น ทั้ง Amazon ที่เคยใช้ AI ในการคัดใบสมัครงาน แต่กลับมีอคติทางเพศเพราะมันคัดใบสมัครงานทั้งหมดของผู้หญิงออก หรือบัตรเครดิตดิจิทัลอย่าง Apple Credit Card ที่ให้วงเงินผู้ชายสูงกว่าผู้หญิงถึง 10 เท่า รวมไปถึงระบบวิเคราะห์ใบหน้าชื่อ ‘Rekognition’ ของ Amazon ที่ถูกขายให้กรมตำรวจสหรัฐฯ ซึ่งทำงานร่วมกับหน่วยข่าวกรอง แต่กลับมี AI บางตัวที่มีอคติทางเพศและเชื้อชาติแบบที่ระบุภาพใบหน้าของ Oprah Winfrey ว่าเป็นเพศชาย
งานวิจัยชิ้นที่ 2 ของจอยถูกตีพิมพ์ในชื่อ “Actionable Audit” ในปี 2019 หลังตรวจสอบ AI ในระบบ Rekognition ทำให้บริษัท Amazon ต้องออกมาประกาศในปีต่อมาให้มีการระงับไม่ให้ตำรวจใช้เทคโนโลยีตรวจจับใบหน้าของพวกเขาเป็นเวลา 1 ปี และนี่คือการต่อสู้ด้วยงานวิจัยของเธอ แต่ยังไม่พอ!! เพราะจอยและทีมของเธอมองว่าทางออกที่ถูกต้องคือ การใช้กฎหมาย
“ตอนนี้เรามีอัลกอริทึมที่คอยตัดสินใจว่าใครจะได้รับที่อยู่อาศัย ใครจะได้รับการจ้างงาน ถ้าเราไม่คอยตรวจสอบอัลกอริทึมเหล่านั้น ก็อาจทำให้ความอคติที่ผู้คนมากมายเสี่ยงชีวิตเพื่อต่อสู้แพร่หลายไปเนื่องจากไม่มีการควบคุมอำนาจของเครื่องมือเหล่านี้เลย จึงไม่มีการช่วยเหลือใด ๆ เมื่อมันถูกใช้ในทางที่ผิด เราจำเป็นต้องมีกฎหมาย”
นี่นำไปสู่การเสนอประเด็นอคติของอัลกอริทึมและกรณีไม่เท่าเทียมในสังคมที่เธอเสนอต่อรัฐสภาคองเกรสในปี 2019 เพื่อเรียกร้องให้รัฐบาลออกกฎหมายและขอบเขตในการควบคุมการใช้อัลกอริทึมให้ถูกต้อง ทำให้ชาวอเมริกันเริ่มได้เห็นการแบนการใช้ระบบตรวจจับใบหน้าในหลายรัฐ เช่น ซานฟรานซิสโก, แมสซาชูเซตส์ รวมถึงสมาชิกสภานิติบัญญัติที่ยื่นเสนอร่างกฎหมายเพื่อแบนไม่ให้รัฐบาลกลางใช้ระบบตรวจจับใบหน้าเมื่อเดือนมิถุนายน 2020
นอกจากนี้ จอยตัดสินใจก่อตั้งองค์กร Algorithmic Justice League (AJL) ซึ่งประกอบไปด้วยทีมโปรแกรมเมอร์หลากหลายเชื้อชาติเพื่อตรวจสอบอคติของอัลกอริทึม สร้างชุดข้อมูลฝึกที่ครอบคลุมกลุ่มคนมากขึ้น และเปิดแพลตฟอร์มให้คนแจ้งเข้ามาเมื่อเจอกรณีโค้ดที่ไม่เท่าเทียม เพื่อแก้ไขปัญหาที่ต้นเหตุอย่างยั่งยืนเนื่องจากชุดข้อมูลที่มีอคติในการพัฒนา AI
และถึงแม้เรื่องราวของเธอจะเริ่มจากการค้นพบในห้องแล็บฯ ด้วยหน้ากากสีขาว วันนี้จอยกลายเป็นนักสื่อสารที่เรียกร้องความเท่าเทียมในเทคโนโลยี และชวนให้ผู้คนตระหนักว่าเราควรเข้าใจ ระวังและรู้จักปกป้องข้อมูลของตัวเองเพื่อป้องกันการใช้ข้อมูลในทางที่ผิดของรัฐและเอกชนในยุคที่เรายังไม่มีกฎหมายคุ้มครองข้อมูลส่วนบุคคลที่ดีพอ
“เราต่างมีเสียงที่จะสื่อสารและมีทางเลือกในการสร้างอนาคตแบบที่เราอยากจะมี”
นี่คงเป็นการต่อสู้กับความเหลื่อมล้ำในแบบฉบับของเธอ
ที่มา: ภาพยนตร์สารคดี Coded Bias (2020)
https://www.ted.com/.../joy_buolamwini_how_i_m.../transcript
https://www.fastcompany.com/.../most-creative-people-2020...
https://www.ted.com/speakers/joy_buolamwini
เรื่อง: สิทธรัตน์ วนธรรมพงศ์