Clearview AI และการประมวลผลข้อมูลชีวภาพ

Clearview AI และการประมวลผลข้อมูลชีวภาพ

Clearview AI สตาร์ทอัพอเมริกัน ให้บริการเทคโนโลยีจดจำใบหน้า แก่หน่วยงานบังคับใช้กฎหมาย เพื่อใช้ติดตามใบหน้าของอาชญากร

HIGHLIGHTS

§  Clearview AI ด้วย “ด้วยดวงตาของเครื่องจักรกลเพื่อโลกที่ปลอดภัยมากขึ้น” บริษัทที่จะเข้ามาเปลี่ยนแปลงชีวิตและความเป็นส่วนตัวของทุกคนอย่างมีนัยสำคัญ  

§  มนุษย์จะเชื่อได้ไหมว่า AI จะประมวลผลได้ถูกต้องและเข้ามาแทนการใช้ดุลพินิจของคน เทคโนโลยีจะ ไม่จับคนถูก” และ ปล่อยคนผิด” 

§  “ข้อมูลภาพจำลองใบหน้า” ที่ใช้เทคโนโลยีในการช่วยประมวลผลในการนำลักษณะเด่นทางกายภาพหรือทางพฤติกรรมของบุคคลมาใช้ทำให้สามารถยืนยันตัวตนของบุคคลนั้นที่ไม่เหมือนกับบุคคลอื่นได้ เป็นข้อมูลส่วนบุคคลที่กฎหมายมุ่งคุ้มครองเป็นพิเศษ

                                                          ......................................                          

161355999641            

        หนึ่งในการพัฒนาทางเทคโนโลยีที่สำคัญในช่วงสองถึงสามทศวรรษที่ผ่านมาคือการเติบโตอย่างมากในการใช้ประโยชน์จากเทคโนโลยีการประมวลผลด้วยระบบอัตโนมัติจากข้อมูลชีวภาพของบุคคล (biometric data) โดยเฉพาะ ข้อมูลภาพจำลองใบหน้า เพื่อใช้เป็นพื้นฐานในการสร้างหรือยืนยันตัวตนของมนุษย์หรือ “facial recognition technology” (FRT) ข้อมูลชีวภาพเหล่านี้ได้เปลี่ยนแปลงความสัมพันธ์ระหว่างร่างกายและตัวตนของมนุษย์ (body and identity) เพราะเทคโนโลยีได้สร้างอัตลักษณ์และรูปแบบของบุคคลให้สามารถอ่านและประมวลผลได้ด้วยเครื่องจักรและสามารถนำไปใช้ต่อได้อย่างไม่จำกัด ซึ่งในธุรกิจดังกล่าว Clearview AI เทคสตาร์ทอัพที่ก่อตั้งขึ้นในปี 2560 ถือเป็นบริษัทที่ได้รับการกล่าวถึงและประสบความสำเร็จอย่างสูง

                   Clearview AI ได้ชื่อว่าเป็นผู้ให้บริการ FRT ที่อาจเข้ามาเปลี่ยนแปลงชีวิตและความเป็นส่วนตัวของทุกคนอย่างมีนัยสำคัญ บริษัทนี้เป็นเจ้าของเทคโนโลยีการจดจำใบหน้าอัจฉริยะและการประมวลผลจาก big data บริษัทได้เข้ามามีบทบาทในการช่วยเจ้าหน้าที่ตำรวจในการค้นหาผู้กระทำความผิด โดยมีข้อมูลปรากฏว่ามีหน่วยงานในกระบวนการยุติธรรมทางอาญาและบังคับใช้กฎหมายรวมกว่า 2,200 องค์กรใน 27 ประเทศทั่วโลก (ที่มา: BuzzFeed News Review) ได้นำเทคโนโลยีของ Clearview AI ไปใช้ในงานด้านการป้องกันและปราบปรามการกระทำความผิด  

                   การทำงานของ Clearview AI ทำให้เจ้าหน้าที่ตำรวจสามารถนำเข้าภาพของผู้ต้องสงสัยเพื่อเปรียบเทียบกับคลังภาพจำนวนมหาศาลของ Clearview AI และสามารถระบุตัวบุคคลได้ว่าบุคคลในภาพเป็นใครและมีพฤติกรรมอย่างไรบ้างในอดีตที่ผ่านมา ซึ่งข้อมูลเหล่านี้ที่อยู่ในความครอบครองของ Clearview AI เกิดจากการที่บริษัทได้รวบรวมข้อมูลรูปภาพใบหน้าของผู้คนหลายพันล้านรูปจากการคัดลอกโพสต์ในโซเชียลมีเดียสาธารณะ (ที่มา: The New York Times (2020)) ซึ่งผู้ที่ไม่เห็นด้วยกับการกระทำดังกล่าวเห็นว่าเป็นการรวบรวมข้อมูลส่วนบุคคลและข้อมูลชีวภาพของบุคคลอื่นโดยที่บุคคลเหล่านั้นไม่ทราบหรือได้ให้ความยินยอม ถือว่าเป็นการขัดหรือแย้งต่อนโยบายความเป็นส่วนตัวของ Facebook และ Twitter และละเมิดสิทธิของเจ้าของข้อมูลส่วนบุคคลเหล่านั้นอีกด้วย

                   ในขณะที่ Clearview AI ให้เหตุผลว่าบริษัทสามารถกระทำได้โดยอาศัยฐานทางกฎหมายในเรื่องของเสรีภาพในการแสดงความคิดเห็นตามที่กำหนดไว้ใน First Amendment ของรัฐธรรมนูญสหรัฐอเมริกาและถือเป็นหลักการพื้นฐานในทางสิทธิมนุษยชนในอีกหลาย ๆ ประเทศ โดย Clearview AI ให้ข้อมูลด้วยว่าการประมวลผลด้วยซอฟต์แวร์ของบริษัทมีความถูกต้องมากกว่าร้อยละ 99.6 เลยทีเดียว หากสามารถควบคุมค่าตัวแปรต่าง ๆ ได้ตามที่บริษัทกำหนด

                   อย่างไรก็ตาม ข้อกล่าวอ้างของ Clearview AI ในเรื่องการละเมิดข้อมูลส่วนบุคคลดูจะมีความชัดเจนมากขึ้นเรื่อย ๆ เมื่อปรากฏว่าหลายประเทศเริ่มมีคำสั่งที่อาจส่งผลกระทบต่อการดำเนินธุรกิจของบริษัท ไม่ว่าจะเป็นกรณีของประเทศสวีเดนที่คณะกรรมการคุ้มครองข้อมูลส่วนบุคคลมีคำสั่งปรับสำนักงานตำรวจเมื่อวันที่ 10 กุมภาพันธ์ 2564 เนื่องจากการใช้ Clearview AI ในการประมวลผลข้อมูลโดยไม่ถูกต้องตามกฎหมายเกี่ยวกับการคุ้มครองข้อมูลส่วนบุคคล หรือในประเทศแคนาดาที่กรรมการคุ้มครองข้อมูลส่วนบุคคลมีความเห็นเมื่อวันที่ 3 กุมภาพันธ์ 2564 ว่า Clearview AI ทำการเก็บ รวบรวมและใช้ข้อมูลส่วนบุคลซึ่งเป็นข้อมูลชีวภาพที่มีความอ่อนไหวสูงโดยไม่ชอบด้วยกฎหมาย ในขณะที่กระบวนการสอบสวนการกระทำความผิดของบริษัทโดยคณะกรรมการคุ้มครองข้อมูลส่วนบุคคลของเมืองฮัมบูร์ก  ประเทศเยอรมนี ก็ได้เริ่มต้นขึ้นแล้วในเดือนมกราคม 2564 ที่ผ่านมา

         ตามกฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรปหรือ GDPR “ข้อมูลภาพจำลองใบหน้า” ที่ทำโดยระบบคอมพิวเตอร์หรือ AI เข้าข่ายการเป็นข้อมูลกลุ่มพิเศษที่ GDPR และกฎหมายว่าด้วยการคุ้มครองข้อมูลส่วนบุคคลของประเทศในสหภาพยุโรปให้ความสำคัญอย่างมาก ในขณะที่กรอบนโยบายทางกฎหมายเฉพาะในส่วนที่เกี่ยวกับการบังคับใช้กฎหมายและกระบวนการยุติธรรมทางอาญาที่เกี่ยวเนื่องกับการประมวลผลข้อมูลส่วนบุคคลถูกกำหนดไว้ใน Law Enforcement Directive (Directive (EU) 2016/680) ซึ่งเป็นกฎหมายที่ออกมาพร้อมกับ GDPR ก็ยิ่งทำให้การใช้ประโยชน์จากเทคโนโลยีของ Clearview AI มีข้อจำกัดมากยิ่งขึ้น

       ในขณะที่พระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล พ.ศ. 2562 มาตรา 26 ก็มีบทบัญญัติห้ามมิให้เก็บรวบรวมข้อมูลส่วนบุคคลเกี่ยวกับข้อมูลชีวภาพ (ซึ่งรวมถึงข้อมูลภาพจำลองใบหน้า) โดยไม่ได้รับความยินยอมโดยชัดแจ้งจากเจ้าของข้อมูลส่วนบุคคลเช่นเดียวกัน แต่มาตรา 4 ได้กำหนดยกเว้นไม่ให้ใช้กฎหมายบังคับกับการดำเนินงานตามกระบวนการยุติธรรมทางอาญา เพียงแต่กำหนดให้ผู้ควบคุมข้อมูลส่วนบุคคลต้องจัดให้มีการรักษาความมั่นคงปลอดภัยของข้อมูลส่วนบุคคลให้เป็นไปตามมาตรฐานด้วยเท่านั้น โดยผู้เขียนเห็นว่าในระบบกฎหมายไทย ยังไม่มีบทบัญญัติหรือกฎหมายที่อาจเทียบเคียงได้กับ Law Enforcement Directive ที่จะเป็นเครื่องมือสำคัญในการคุ้มครองสิทธิในความเป็นส่วนตัวของข้อมูลส่วนบุคคลของพลเมืองจากการใช้อำนาจของเจ้าหน้าที่รัฐในกระบวนการยุติธรรมทางอาญาได้

                   สุดท้าย ด้วยดวงตาของเครื่องจักรกลเพื่อโลกที่ปลอดภัยมากขึ้นตามปณิธานของ Clearview AI จะเป็นจริงได้แค่ไหน แล้วมนุษย์จะเชื่อได้ไหมว่า AI จะประมวลผลได้ถูกต้องและเข้ามาแทนการใช้ดุลพินิจของคนได้ FRT และเทคโนโลยีทำนองเดียวกันนี้จะ ไม่จับคนถูกและ ปล่อยคนผิดและหากเหตุการณ์ดังกล่าวเกิดขึ้น ใครควรเป็นผู้รับผิดชอบต่อความเสียหายที่เกิดขึ้น ล้วนเป็นความท้าทายของการบังคับใช้กฎหมายจากความก้าวหน้าของเทคโนโลยีที่ต้องรักษาสมดุลระหว่าง “การคุ้มครองความปลอดภัยของสาธารณะ” “ความสามารถของรัฐในการดำเนินคดีอาญากับผู้กระทำผิด” และ “การคุ้มครองสิทธิในความเป็นส่วนตัวของพลเมืองทุกคนอย่างเท่าเทียม เสมอภาคและเป็นธรรม”.

อ้างอิง

  • Natasha Lomas, Sweden's data watchdog slaps police for unlawful use of Clearview AI, 12 February 2021, https://techcrunch.com/2021/02/12/swedens-data-watchdog-slaps-police-for-unlawful-use-of-clearview-ai/
  • Zack Whittaker, Clearview AI ruled ‘illegal’ by Canadian privacy authorities, 3 February 2021, https://techcrunch.com/2021/02/03/clearview-ai-ruled-illegal-by-canadian-privacy-authorities/
  • WP29, Opinion 02/2012 on facial recognition in online and mobile services, https://ec.europa.eu/justice/article-29/documentation/opinion-recommendation/files/2012/wp192_en.pdf
  • Kashmir Hill, The Secretive Company That Might End Privacy as We Know It, Published Jan. 18, 2020 Updated Jan. 31, 2021, The New York Times,
  • "Clearview's Facial Recognition App Has Been Used By The Justice Department, ICE, Macy's, Walmart, And The NBA". February 27, 2020. Retrieved February 27, 2020. A BuzzFeed News review of Clearview AI documents has revealed the company is working with more than 2,200 law enforcement agencies, companies, and individuals around the world, https://www.buzzfeednews.com/article/ryanmac/clearview-ai-fbi-ice-global-law-enforcement
  • (on the application of Bridges) v Chief Constable of South Wales [2020] EWCA Civ 1058
  • "Facial Recognition Tech Stories and Rights Harms from around the World." In Focus, International Network of Civil Liberties Organizations, 2021.
  • Clearview AI’s unlawful practices represented mass surveillance of Canadians, commissioners sayม _ 3 February 2021, https://www.priv.gc.ca/en/opc-news/news-and-announcements/2021/nr-c_210203/?=february-2-2021
  • Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation, GDPR)
  • WP29, Opinion 3/2012 on developments in biometric technologies, https://ec.europa.eu/justice/article-29/documentation/opinion-recommendation/files/2012/wp193_en.pdf
  • European Union Agency for Fundamental Rights (FRA). "Facial Recognition Technology: Fundamental Rights Considerations in the Context of Law Enforcement." 2019.
  • O'Flaherty, Michael. "Facial Recognition Technology and Fundamental Rights." European Data Protection Law Review, vol. 6, no. 2, 2020, pp. 170-173.