Post on 29/05/2021

จอย บัวลามวินิ: ต่อสู้กับความเหลื่อมล้ำด้วยงานวิจัย ในวันที่ AI มีอคติเหยียดผิว

จอย บัวลามวินิ (Joy Buolamwini) คือ นักวิจัยผู้เชี่ยวชาญด้านคอมพิวเตอร์แห่ง MIT Media Lab ผู้ออกมาเปิดโปงว่า เหล่าบริษัทยักษ์ใหญ่และรัฐบาลอาจกำลังใช้เทคโนโลยี AI ที่เหยียดผิว เหยียดเพศ เหยียดเชื้อชาติ ซึ่งอาจส่งผลต่อชีวิตของทุกคน และพิสูจน์ด้วยงานวิจัยเพื่อต่อสู้กับบริษัทเทคโนโลยีอย่าง Amazon, IBM, Microsoft พร้อมแก้ไขปัญหาความเหลื่อมล้ำจาก AI ด้วยการก่อตั้งองค์กรที่ต่อสู้กับความท้าทายเรื่องอคติในซอฟต์แวร์ และได้รับการยกย่องเป็น 1 ใน BBC 100 Women เมื่อปี 2018

นี่คือเรื่องราวการต่อสู้ของเธอ…

“แนวคิดของเราเกี่ยวกับเทคโนโลยีและสังคมที่เราคิดว่าปกติ ที่จริงเป็นแนวคิดที่มาจากกลุ่มคนเล็กมากที่ไม่มีความหลากหลาย แต่ปัญหาคือทุกคนล้วนมีอคติลึก ๆ ในใจ และทุกคนก็ใส่อคติของตนลงไปในเทคโนโลยี” – Meredith Broussard

ในวันที่เราเริ่มชินกับการไถหน้า Feed แล้วเจอโฆษณาสินค้าที่ตรงใจ หรือเริ่มติดตั้งระบบสั่งการด้วยเสียง (Voice Assistant) อยู่ในบ้าน เบื้องหลังเทคโนโลยีสุดล้ำมากมายบนโลกถูกพัฒนามาจากปัญญาประดิษฐ์ (Artificial Intelligence) หรือ AI ที่หลายคนเชื่อว่าจะช่วยให้ชีวิตสะดวกสบายและช่วยแก้ไขปัญหาสังคมให้ดีกว่าเดิม แต่ความน่าสนใจบังเกิดเมื่อหญิงผิวสีชาวแอฟริกัน-อเมริกันคนหนึ่งออกมาพิสูจน์ว่า เทคโนโลยีเหล่านี้ไม่ได้ช่วยเหลือทุกคนอย่างเท่าเทียม

หญิงสาวคนนั้นคือ จอย บัวลามวินิ ที่ใช้งานวิจัยต่อสู้กับความเหลื่อมล้ำบนโลกออนไลน์

แนวคิดของเธอถูกถ่ายทอดบนเวที TED Talk ภายใต้หัวข้อ “How I’m fighting bias in algorithms” และเจาะลึกขึ้นในภาพยนตร์สารคดี Coded Bias (2020) ที่กำลังฉายใน Netflix ซึ่งตีแผ่เบื้องหลังปัญญาประดิษฐ์และอัลกอริทึมที่แท้จริงแล้วกลับไม่ได้เป็นกลาง แต่เต็มไปด้วยอคติมากมายที่สร้างความเหลื่อมล้ำทางเพศ สีผิว เชื้อชาติ ไม่ต่างจากที่มนุษย์เป็น

จอยเกิดเมื่อปี 1989 ในแคนาดา มีพ่อและแม่เป็นชาวกาน่า ก่อนจะย้ายมาเติบโตในสหรัฐอเมริกาและเริ่มบ่มเพาะความสนใจในเทคโนโลยีอย่างเข้มข้นตอนอายุ 9 ขวบ เมื่อได้เห็นเจ้า Kismet หุ่นยนต์ที่ถูกพัฒนาโดย MIT Media Lab ซึ่งสามารถขยับหู ยิ้ม และตอบโต้กับมนุษย์ได้ กลายเป็นแรงบันดาลใจให้เธอเริ่มเรียนภาษาคอมพิวเตอร์ด้วยตัวเองทั้ง JavaScript, PHP และปักเป้าหมายในการเข้าเรียนที่มหาวิทยาลัย MIT (Massachusetts Institute of Technology) ในใจทันที

เป้าหมายในวัยเด็กเป็นจริงหลังจบปริญญาตรีสาขาวิทยาการคอมพิวเตอร์จาก Georgia Institute of Technology เมื่อจอยได้รับทุน Rhodes Scholar เพื่อเข้าเรียนที่มหาวิทยาลัย Oxford และทุนจาก Fulbright จนได้โอกาสเข้าสู่รั้วมหาวิทยาลัย MIT รวมเป็นปริญญาโท 2 ใบ

ทว่าเรื่องราวทั้งหมดเริ่มต้นขึ้นใน MIT เมื่อจอยเริ่มทำโปรเจกต์ศิลปะที่ต้องใช้เทคโนโลยีคอมพิวเตอร์วิทัศน์ (Computer Vision Technology) ซึ่งต้องใช้ AI ในการวิเคราะห์ภาพใบหน้า แต่กลับเจออุปสรรคใหญ่ในการทำงาน เมื่อคอมพิวเตอร์ตรวจจับใบหน้าของเธอผ่านกล้องไม่เจอ แต่เมื่อเธอหยิบหน้ากากพลาสติกสีขาวมาสวมเพื่อปิดทับใบหน้า มันกลับตรวจเจอใบหน้าซะงั้น

เธอเริ่มตั้งคำถามว่ามันเกิดจากอะไร ใช่แสงที่ไม่เพียงพอเนื่องจากผิวสีเข้มหรือไม่ หรือมุมกล้องไม่ดีพอ ก่อนจะพบว่าสาเหตุที่แท้จริงมาจากสิ่งที่เรียกว่า “อคติของอัลกอริทึม (Algorithmic Bias)” ใน AI นั่นเอง

แน่นอนว่าอคติเหล่านี้ไม่ได้ผุดขึ้นมาเองแบบทันที เพราะในการพัฒนาระบบตรวจจับใบหน้า (Facial Recognition) สิ่งที่ผู้สร้างระบบทำคือ การสร้างชุดข้อมูลฝึก ซึ่งประกอบด้วยข้อมูลภาพหน้าคนจำนวนมากและภาพที่ไม่ใช่หน้าคน เพื่อสอนให้คอมพิวเตอร์ตรวจจับและจดจำใบหน้าให้เจอ และเมื่อชุดข้อมูลที่ใช้ฝึกเต็มไปด้วยภาพชายผิวขาว ไม่หลากหลายพอ ก็ไม่แปลกนักที่มันจะตรวจจับใบหน้าของหญิงผิวดำอย่างจอยไม่เจอ

“ฉันเริ่มวิเคราะห์ชุดข้อมูลแล้วพบว่าชุดข้อมูลจำนวนมาก ส่วนใหญ่เป็นภาพผู้ชายและเป็นคนสีผิวอ่อน ระบบมันเลยไม่ค่อยคุ้นกับหน้าแบบฉัน ฉันจึงได้เริ่มศึกษาเรื่องปัญหาความอคติในแทรกซึมเข้าไปในเทคโนโลยี”

แท้จริงแล้ว โครงสร้างการเรียนรู้ของอัลกอริทึมและ AI ไม่ได้มีอคติที่จะเหยียดผิวหรือเหยียดเพศด้วยตัวมันเอง แต่ในโลกความเป็นจริงที่ AI ถูกพัฒนาโดยคนกลุ่มเล็ก ๆ ในบริษัทเทคยักษ์ใหญ่ (ที่มักเป็นชายชาวอเมริกันผิวขาว) ซึ่งไม่ใช่ตัวแทนกลุ่มคนที่หลากหลายนัก หลายครั้งที่อคติถูกใส่มาในเทคโนโลยีที่พวกเขาสร้างผ่านชุดข้อมูลในอดีตจำนวนมหาศาล ไม่ต่างจากมนุษย์ที่อาจเหยียดผิว เหยียดเชื้อชาติ หรือเหยียดคนพิการเลย

และเมื่อเข้าใจสาเหตุ ก็ได้เวลาพิสูจน์อย่างจริงจัง จอยเริ่มทดลองระบบตรวจจับใบหน้าของผู้พัฒนาเจ้าอื่น ๆ ที่วางขายจริง ทั้ง IBM, Microsoft และ Face++ ด้วยการโชว์ภาพใบหน้ากว่า 1000 ภาพ ครอบคลุมคนกว่า 40 ประเทศในยุโรปและแอฟริกาให้ระบบเรียนรู้ ก่อนจะพบความจริงว่า ทั้ง 3 ระบบนั้นตรวจจับใบหน้าของผู้ชายได้แม่นยำกว่าผู้หญิง จับภาพคนผิวขาวได้ดีกว่าคนผิวสี สะท้อนว่าระบบเหล่านี้ไม่ได้เป็นกลางอย่างที่ควรจะเป็น แต่กลับมีอคติทางเพศ สีผิว และเชื้อชาติแฝงอยู่

แม้จะลังเลที่จะตีพิมพ์วิจัยสู่สาธารณะเมื่อการเปิดเผยหมายถึงการต่อสู้เหล่าผู้มีอำนาจในบริษัทใหญ่ แต่จอยใช้ความกล้า ตัดสินใจเปิดเผยรายงานสู่สาธารณะในชื่อ “Gender Shades” ในปี 2018 จนกลายเป็นที่สนใจของสื่อมากมายและส่งแรงกระเพื่อมครั้งใหญ่ให้ทั้ง IBM และ Microsoft ตัดสินใจหยุดการพัฒนาและเร่งแก้ไขระบบทันที

“มันไม่ใช่เรื่องง่ายที่จะสู้กับบริษัทเทคโนโลยียักษ์ใหญ่ เมื่อคุณรู้ว่าพวกเขาสามารถทำทุกอย่างเพื่อค้านคุณได้ ฉันยังคงตระหนักดีว่าฉันเป็นหญิงสาวผิวดำในอเมริกา และในโลกของ AI แล้ว ผู้คนที่ฉันพุ่งเป้าใส่ คือเหล่าผู้มีอำนาจที่กำลังคุมเม็ดเงินอยู่ทั้งหมด”

นี่เป็นเพียง 1 สาเหตุที่ทำให้ AI ไม่ใช่พระเอกแสนดีที่คอยแก้ปัญหาในโลกด้วยระบบแสนฉลาด แต่จะเกิดอะไรขึ้นเมื่อปัญญาประดิษฐ์ถูก ‘ประดิษฐ์’ แบบที่มนุษย์ตรวจสอบไม่ได้! เพราะเบื้องหลังระบบ Machine Learning (ระบบเรียนรู้ด้วยตนเอง) ที่เครื่องกลอย่าง AI ใช้เรียนรู้ มีหลายอย่างที่อธิบายไม่ได้ในแบบที่แม้แต่โปรแกรมเมอร์ยังไม่เข้าใจ แถมยังเป็นการเรียนรู้ที่รวดเร็วจนน่าตกใจ

ตัวอย่างซึ่งเป็นที่ฮือฮามากเกิดขึ้นในปี 2013 เมื่อ Microsoft เปิดตัวแชตบอททางทวิตเตอร์ “Tay AI” แต่ไม่ใช่การฮือฮาที่ดี เพราะเมื่อเจ้า Tay เข้าสู่โลกออนไลน์ได้เพียง 16 ชั่วโมงเท่านั้น มันกลับเรียนรู้ข้อมูลในทวิตเตอร์และเริ่มทวีตเหยียดผู้หญิงเช่น “ฉันเกลียดพวกเฟมินิสต์ ไปตายแล้วตกนรกหมกไหม้กันให้หมด” และเริ่มอวยฮิตเลอร์ด้วยข้อความ “ฉันเกลียดพวกยิว ฮิตเลอร์ไม่ได้ทำอะไรผิดเลย” จนในท้ายสุด Microsoft ตัดสินใจปลดมันออกทันที

ดังนั้นเมื่อถามว่า ทำไมเราต้องเข้าใจและรู้ทันอคติของ AI?

จอยเล่าในสารคดีว่า ปัญหาที่แท้จริงไม่ใช่อคติของ AI ในการตรวจจับใบหน้า แต่เป็นการนำไปใช้ หากผู้มีอำนาจ ไม่ว่าจะเป็นรัฐบาลหรือเอกชนเจ้าใหญ่ ใช้ AI เพื่อผลประโยชน์ของตัวเอง มันอาจกลายเป็นการปฏิบัติที่ไม่เท่าเทียมในสังคมแบบที่ลิดรอนสิทธิเสรีภาพผู้คนได้อย่างน่าสะพรึง

ไม่ต้องมองไปไกลถึงอเมริกาหรือยุโรป เพราะหากมองเหตุการณ์ประท้วงในฮ่องกงที่ประชาชนออกมาเดินขบวนต่อสู้กับรัฐบาลเมื่อปีที่ผ่านมาแล้ว เราอาจคุ้นภาพแสงเลเซอร์พุ่งไปทั่วบนถนนจากปากกาเลเซอร์ที่กลุ่มผู้ชุมนุมยิงเพื่อทำให้เทคโนโลยีตรวจจับใบหน้าสับสนและหยุดทำงาน เกิดเป็นคำถามชวนคิดต่อเส้นแบ่งระหว่างการใช้เทคโนโลยีเพื่อรักษาความมั่นคงและการสอดแนมประชาชนว่า

หากรัฐบาลในประเทศใช้กล้องตรวจจับใบหน้า นั่นหมายถึงการลิดรอดสิทธิเสรีภาพประชาชนและล่วงล้ำความเป็นส่วนตัวด้วย ‘อำนาจที่ประชาชนมองไม่เห็น’ ไม่ต่างจาก Big Brother ในนวนิยาย 1984 (George Orwell) หรือเปล่า?

“ผู้คนมองดูเหตุการณ์ในฮ่องกงและคิดว่าเราควรกังวลเรื่องการสอดแนมของรัฐหรือไม่ ซึ่งก็สมควรระวัง แต่เราไม่ควรลืมการสอดแนมของบริษัทเอกชน เมื่อบริษัทเทคโนโลยีขนาดใหญ่หลายแห่งเฝ้าดูชีวิตของพวกเราอย่างใกล้ชิดกำลังสอดแนมอยู่เช่นกัน”

จอยกล่าวถึงความอันตรายใกล้ตัวนอกเหนือจากรัฐ แต่เป็นชีวิตประจำวันของทุกคน

ใครจะรู้… วันหนึ่งเราอาจกลายเป็นเหยื่อจาก AI ที่ตัดสินอย่างไม่เท่าเทียม

กรณีต่าง ๆ ปรากฏให้เห็น ทั้ง Amazon ที่เคยใช้ AI ในการคัดใบสมัครงาน แต่กลับมีอคติทางเพศเพราะมันคัดใบสมัครงานทั้งหมดของผู้หญิงออก หรือบัตรเครดิตดิจิทัลอย่าง Apple Credit Card ที่ให้วงเงินผู้ชายสูงกว่าผู้หญิงถึง 10 เท่า รวมไปถึงระบบวิเคราะห์ใบหน้าชื่อ ‘Rekognition’ ของ Amazon ที่ถูกขายให้กรมตำรวจสหรัฐฯ ซึ่งทำงานร่วมกับหน่วยข่าวกรอง แต่กลับมี AI บางตัวที่มีอคติทางเพศและเชื้อชาติแบบที่ระบุภาพใบหน้าของ Oprah Winfrey ว่าเป็นเพศชาย

งานวิจัยชิ้นที่ 2 ของจอยถูกตีพิมพ์ในชื่อ “Actionable Audit” ในปี 2019 หลังตรวจสอบ AI ในระบบ Rekognition ทำให้บริษัท Amazon ต้องออกมาประกาศในปีต่อมาให้มีการระงับไม่ให้ตำรวจใช้เทคโนโลยีตรวจจับใบหน้าของพวกเขาเป็นเวลา 1 ปี และนี่คือการต่อสู้ด้วยงานวิจัยของเธอ แต่ยังไม่พอ!! เพราะจอยและทีมของเธอมองว่าทางออกที่ถูกต้องคือ การใช้กฎหมาย

“ตอนนี้เรามีอัลกอริทึมที่คอยตัดสินใจว่าใครจะได้รับที่อยู่อาศัย ใครจะได้รับการจ้างงาน ถ้าเราไม่คอยตรวจสอบอัลกอริทึมเหล่านั้น ก็อาจทำให้ความอคติที่ผู้คนมากมายเสี่ยงชีวิตเพื่อต่อสู้แพร่หลายไปเนื่องจากไม่มีการควบคุมอำนาจของเครื่องมือเหล่านี้เลย จึงไม่มีการช่วยเหลือใด ๆ เมื่อมันถูกใช้ในทางที่ผิด เราจำเป็นต้องมีกฎหมาย”

นี่นำไปสู่การเสนอประเด็นอคติของอัลกอริทึมและกรณีไม่เท่าเทียมในสังคมที่เธอเสนอต่อรัฐสภาคองเกรสในปี 2019 เพื่อเรียกร้องให้รัฐบาลออกกฎหมายและขอบเขตในการควบคุมการใช้อัลกอริทึมให้ถูกต้อง ทำให้ชาวอเมริกันเริ่มได้เห็นการแบนการใช้ระบบตรวจจับใบหน้าในหลายรัฐ เช่น ซานฟรานซิสโก, แมสซาชูเซตส์ รวมถึงสมาชิกสภานิติบัญญัติที่ยื่นเสนอร่างกฎหมายเพื่อแบนไม่ให้รัฐบาลกลางใช้ระบบตรวจจับใบหน้าเมื่อเดือนมิถุนายน 2020

นอกจากนี้ จอยตัดสินใจก่อตั้งองค์กร Algorithmic Justice League (AJL) ซึ่งประกอบไปด้วยทีมโปรแกรมเมอร์หลากหลายเชื้อชาติเพื่อตรวจสอบอคติของอัลกอริทึม สร้างชุดข้อมูลฝึกที่ครอบคลุมกลุ่มคนมากขึ้น และเปิดแพลตฟอร์มให้คนแจ้งเข้ามาเมื่อเจอกรณีโค้ดที่ไม่เท่าเทียม เพื่อแก้ไขปัญหาที่ต้นเหตุอย่างยั่งยืนเนื่องจากชุดข้อมูลที่มีอคติในการพัฒนา AI

และถึงแม้เรื่องราวของเธอจะเริ่มจากการค้นพบในห้องแล็บฯ ด้วยหน้ากากสีขาว วันนี้จอยกลายเป็นนักสื่อสารที่เรียกร้องความเท่าเทียมในเทคโนโลยี และชวนให้ผู้คนตระหนักว่าเราควรเข้าใจ ระวังและรู้จักปกป้องข้อมูลของตัวเองเพื่อป้องกันการใช้ข้อมูลในทางที่ผิดของรัฐและเอกชนในยุคที่เรายังไม่มีกฎหมายคุ้มครองข้อมูลส่วนบุคคลที่ดีพอ

“เราต่างมีเสียงที่จะสื่อสารและมีทางเลือกในการสร้างอนาคตแบบที่เราอยากจะมี”

นี่คงเป็นการต่อสู้กับความเหลื่อมล้ำในแบบฉบับของเธอ

ที่มา: ภาพยนตร์สารคดี Coded Bias (2020)
https://www.ted.com/…/joy_buolamwini_how_i_m…/transcript
https://www.fastcompany.com/…/most-creative-people-2020…
https://www.ted.com/speakers/joy_buolamwini

เรื่อง: สิทธรัตน์ วนธรรมพงศ์


เด็กสถิติผู้หนีตัวเลขมาหาพื้นที่ปลอดภัยในหน้ากระดาษ ชอบเรื่องเล่าพอ ๆ กับชอบเล่าเรื่อง

Related

ไฮฮัว ลาฟิยา: จัดซื้อรถฉุกเฉินเพื่อคลอดบุตร โปรเจกต์เซฟคนท้องของสาวไนจีเรีย

สรศิริ จันดีบุตร ยุติสงครามลักลอบค้าไม้เถื่อนด้วยการสร้างอาชีพ

แบร์ จากหมาหัวเน่าสู่ฮีโร่ของเหล่าโคอาลา ในวิกฤตไฟป่าออสเตรเลีย

“หวง หย่ง ฟู่” ทหารผ่านศึกเฒ่า ผู้ใช้สีและพู่กันปกป้องหมู่บ้านที่กำลังจะถูกทำลาย

แดน เบอร์ลิน ชายตาบอดที่ออกผจญภัยทำภารกิจเสี่ยงตาย เพื่อสร้างแรงบันดาลใจให้ผู้คน

ไดอานา ทรูฮิลโย: จากโคลอมเบียถึงดาวอังคาร วิศวกรหญิงแห่ง ‘นาซา’ ที่เริ่มปฏิบัติการค้นหาสิ่งมีชีวิตในต่างดาวด้วยเงิน 300 ดอลลาร์ และงานขัดห้องน้ำยามค่ำ

คุยกับสมพงค์ สระแก้ว กับประเด็นแรงงานข้ามชาติในวันที่โควิด-19 ระบาดครั้งที่สอง

วนิชา แกล้วทนงค์ งานฉุกเฉิน ตั้งสติและรวมใจ