“คน” ต้องมาก่อน “เทคโนโลยี” (6) คติของคะแนนเครดิตทางเลือก***

“คน” ต้องมาก่อน “เทคโนโลยี” (6) คติของคะแนนเครดิตทางเลือก***

2 ตอนที่ผ่านมา ผู้เขียนพูดถึงคะแนนเครดิตทางเลือก (alternative credit scoring) ว่าเป็นเครื่องมือสำคัญในการขยายบริการทางการเงิน

ไปยังผู้มีรายได้น้อย แต่ก็มีความเสี่ยงมากมายที่จะซ้ำเติมความเหลื่อมล้ำ เลือกปฏิบัติจากอคติ (prejudice) ที่มีอยู่มากมายในสังคม โดยที่เจ้าหนี้หรือบริษัทผู้ให้บริการข้อมูลคะแนนเครดิตไม่รู้ตัวด้วยซ้ำว่าแบบจำลองของตัวเองมีปัญหา เพราะอัลกอริธึม (algorithm) ที่ทำงานอย่างเป็นเอกเทศโดยปัญญาประดิษฐ์หรือ AI อาจคิดค้นแบบจำลองเครดิตโดยที่คนไม่มีส่วนรู้เห็นใดๆ ด้วย 

เมื่อผู้ให้บริการทางการเงินที่ใช้เทคโนโลยีหรือฟินเทคเริ่มผุดขึ้นเป็นดอกเห็ด และแม้แต่บริษัทที่เก็บข้อมูลคะแนนเครดิตเองก็หันไปหา “ข้อมูลทางเลือก” อย่างเช่นพฤติกรรมการซื้อของออนไลน์ การใช้โซเชียลมีเดีย ฯลฯ มากขึ้น นักวิชาการหลายคนและผู้กำกับดูแลภาครัฐหลายองค์กรก็เริ่มกังวลว่า ข้อมูลทางเลือกมหาศาลหรือ “บิ๊กดาต้า” เหล่านี้จะซ้ำเติมความเหลื่อมล้ำในสังคมให้ถ่างกว้างกว่าเดิม หรือยิ่งกีดกันกลุ่มคนบางกลุ่มออกจากบริการทางการเงินหรือไม่เพียงใด 

ยกตัวอย่างเช่น ในปี 2016 เพียงปีเดียว ในสหรัฐประเทศเดียว คณะกรรมการการค้าของรัฐบาลกลาง (Federal Trade Commission) กระทรวงการคลัง และทำเนียบขาว ต่างออกรายงานเกี่ยวกับอคติในอัลกอริธึม โดยเฉพาะโปรแกรมที่ใช้ตัดสินการเข้าถึงสินเชื่อ รายงานเหล่านี้อธิบายกรณีที่อัลกอริธึม ซึ่งดู “เป็นกลาง” อาจนำไปสู่การเลือกปฏิบัติที่ไม่ตั้งใจและผิดกฎหมายได้ (อเมริกามีกฎหมายโอกาสการเข้าถึงสินเชื่อที่เท่าเทียม หรือ Equal Credit Opportunity Act ห้ามเจ้าหนี้เลือกปฏิบัติบนพื้นฐานของสีผิว เชื้อชาติ ศาสนา พื้นเพ เพศ สถานภาพครอบครัว หรืออายุ) 

รายงานเหล่านี้สรุปปัญหาที่อาจเกิดขึ้นจากบิ๊กดาต้าทางเลือกได้ห้าประการดังนี้ 

1. คนเข้าไม่ถึงบริการทางการเงินเพราะการกระทำของคนอื่น ไม่ใช่ของตัวเองยกตัวอย่างเช่น บริษัทบัตรเครดิตบางแห่งลดเพดานเครดิตของลูกค้าบางคน ไม่ใช่เพราะมีประวัติการชำระหนี้ไม่ดี แต่เป็นเพราะพวกเขาใช้บริการร้านค้าเดียวกันกับลูกค้าคนอื่นที่มีประวัติการชำระหนี้ไม่ดี! (อัลกอริธึมสังเกตว่าคนที่มีประวัติการชำระหนี้ไม่ดีมักจะใช้บริการร้านค้าบางร้านมากกว่า) แบบจำลองทางสถิติทำนองนี้อาจช่วยลดต้นทุนทางการเงินให้กับคนบางคนได้ แต่มันก็อาจทำให้ผู้บริโภคอีกหลายคนถูกกีดกัน หรือต้องจ่ายดอกเบี้ยแพงกว่าปกติ 

2. สร้างหรือซ้ำเติมความเหลื่อมล้ำเวลาผู้ให้บริการใช้บิ๊กดาต้าโฆษณาและโปรโมทผลิตภัณฑ์ทางการเงิน ผู้มีรายได้น้อยอาจไม่รู้เรื่องโปรโมชั่นเหล่านี้เลยเพราะไม่อยู่ใน ‘ถัง’ ของบิ๊กดาต้า และในคอลัมน์นี้ผู้เขียนก็เคยยกตัวอย่างฟินเทคเยอรมันที่ใช้ความสัมพันธ์บนโซเชียลมีเดียมาคำนวณคะแนนเครดิต แปลว่าผู้มีรายได้น้อยที่มีโอกาสสูงว่าจะไม่รู้จักลูกหนี้ชั้นดีของสถาบันการเงินเลย (ไม่ใช่ ‘เพื่อน’ กันบนเฟซบุ๊ค) ก็จะเข้าไม่ถึงบริการทางการเงินเหมือนเดิม 

3. ใช้ข้อมูลส่วนบุคคลซึ่งเป็นข้อมูลอ่อนไหวคนหลายคนอาจมีลักษณะหรือพฤติกรรมบางอย่างที่อยากเก็บไว้เป็นความลับ เพราะเป็นข้อมูลที่ทำให้เขาสุ่มเสี่ยงต่อการถูกเลือกปฏิบัติในสังคม แต่แบบจำลองเครดิตทางเลือกอาจ ‘เปิด’ ข้อมูลเหล่านี้ออกมา ยกตัวอย่างเช่น งานวิจัยชิ้นหนึ่งนำข้อมูลเรื่อง “การกดไลค์” บนเฟซบุ๊ค มาผสมกับคำตอบบนแบบสอบถามขนาดสั้น พบว่านักวิจัยสามารถพยากรณ์รสนิยมทางเพศของผู้ใช้ที่เป็นชายถูกต้อง 88% พยากรณ์ชาติพันธุ์ของผู้ใช้ถูกต้อง 95% พยากรณ์ได้แม้กระทั่งว่าผู้ใช้นับถือศาสนาคริสต์หรืออิสลาม (ถูกต้อง 82%) สนับสนุนพรรครีพับลิกันหรือเดโมแครต (85%) หรือเสพสุรา ยาเสพติด หรือบุหรี่หรือไม่ (ระหว่าง 65-75%) 

4. ทำให้บริษัทที่มีเจตนาไม่ดีพุ่งเป้าไปที่กลุ่มเปราะบางได้บริษัทที่อยากจะหลอกลวงผู้บริโภคสามารถใช้บิ๊กดาต้าในการออกแคมเปญหลอกลวง พุ่งเป้าอย่างจำเพาะเจาะจงไปที่กลุ่มคนที่เปราะบางที่สุด น่าจะ ‘หลอกง่าย’ ที่สุด อาทิ ผู้อาวุโสที่ป่วยเป็นโรคความจำเสื่อม หรือผู้มีรายได้น้อย บิ๊กดาต้าช่วยให้บริษัทต่างๆ ระบุตัวตนและตำแหน่งของกลุ่มเปราะบางได้อย่างง่ายดายและเฉพาะเจาะจงกว่าในอดีตมาก 

5. สร้างเหตุผลใหม่ๆ ให้กับการกีดกันการวิเคราะห์บิ๊กดาต้าอาจทำให้บริษัทมีวิธีใหม่ๆ ที่ไม่ชอบธรรม ในการอ้างว่าทำไมจึงกีดกันกลุ่มคนบางกลุ่มออกไป ยกตัวอย่างเช่น รายงานผลการวิเคราะห์บิ๊กดาต้าชิ้นหนึ่งระบุว่า “คนที่กรอกใบสมัครงานออนไลน์โดยใช้บราวเซอร์ที่ไม่ได้ติดมากับคอมพิวเตอร์ ...แต่ต้องลงโปรแกรมเอง (อย่างเช่นไฟร์ฟอกซ์หรือโครมของกูเกิล) ทำงานได้ดีกว่าและเปลี่ยนงานน้อยกว่าคนอื่น” บริษัทนายจ้างอาจยกข้อมูลนี้มาอ้างว่า นี่คือสาเหตุที่บริษัทจะไม่จ้างคนที่ใช้บราวเซอร์ที่ติดมากับคอมพิวเตอร์ ซึ่งก็จะเป็นการเลือกปฏิบัติที่ไม่สมเหตุสมผลและไม่ยุติธรรม

นอกจากนี้ นักวิชาการและผู้เชี่ยวชาญด้านสิทธิผู้บริโภคจำนวนไม่น้อยยังกังวลว่า การใช้และการวิเคราะห์บิ๊กดาต้าทางเลือกจะเปิดให้สถาบันการเงินและฟินเทคต่างๆ ตีความข้อมูลจำนวนมากว่าเป็น ‘ข้อมูลเชิงลบ’ มากกว่าเป็นบวก ทำให้สุดท้ายแล้วผู้บริโภคต้องเผชิญกับคะแนนเครดิตที่แย่กว่าเดิม และต้องจ่ายดอกเบี้ยแพงกว่าเดิม เทียบกับสถานการณ์ก่อนหน้าที่จะใช้ข้อมูลทางเลือก 

แล้วเราจะมีวิธีป้องกันและแก้ปัญหาอคติเหล่านี้อย่างไร? ผู้เขียนคิดว่าจุดตั้งต้นที่จำเป็นมีอยู่ 2 ข้อด้วยกัน ข้อแรก กฎหมายคุ้มครองข้อมูลส่วนบุคคลจะต้องครอบคลุมธุรกิจข้อมูลเครดิต คุ้มครองข้อมูลทุกชนิดที่เอาไปคำนวณคะแนนเครดิต เพื่อเสริมสร้างความโปร่งใสของอัลกอริธึม ซึ่งวันนี้เป็น “กล่องดำ” ไม่มีใครรู้ว่าคะแนนเครดิตใช้ข้อมูลทางเลือกอะไร และคำนวณอย่างไร ผู้บริโภคไม่มีทางรู้เลยว่าถูกปฏิเสธสินเชื่อเพราะอะไร เพราะข้อมูลทางเลือก(ซึ่งอาจมีอคติ หรือผิดพลาด)ที่ตนไม่รู้ว่าถูกเก็บ และนำไปคำนวณคะแนนเครดิตหรือเปล่า 

ข้อ 2 ผู้กำกับดูแลภาครัฐที่เกี่ยวข้อง เช่น ธนาคารกลาง จะต้องตื่นตัวว่ามีโอกาสที่จะเกิดปัญหาเหล่านี้ จากนั้นก็ปรับปรุงกฎเกณฑ์และแนวปฏิบัติว่าด้วย “การปล่อยสินเชื่อที่เป็นธรรม” (fair lending practices) ให้ครอบคลุมถึงอัลกอริธึมที่ใช้ในฟินเทคและสถาบันการเงิน เป้าหมายหลักเพื่อเปิดเผยเหตุผลที่ผู้บริโภคถูกปฏิเสธสินเชื่ออย่างชัดเจนโปร่งใส และเพื่อให้สถาบันการเงินและฟินเทคทั้งหลายเข้าใจว่า การปล่อยสินเชื่อทั้งที่ใช้และไม่ใช้อัลกอริธึมนั้นอาจมีอคติได้อย่างไร จะได้แก้ไขและป้องกันไม่ให้เกิดปัญหานี้ขึ้น 

ไม่เช่นนั้น ความหวังว่าบิ๊กดาต้าและข้อมูลทางเลือกจะช่วยขยายบริการทางการเงินได้อย่างแท้จริง ก็จะเป็นเพียงความฝันลมๆ แล้งๆ เท่านั้น 

แล้วกฎหมายคุ้มครองข้อมูลส่วนบุคคลที่ดี และกฎเกณฑ์กำกับฟินเทคที่ดีควรเป็นอย่างไร เมืองไทยอยู่ตรงไหนในเรื่องนี้? 

โปรดติดตามตอนต่อไป

*** ชื่อเต็ม: “คน” ต้องมาก่อน “เทคโนโลยี” (6) การป้องกันและแก้ปัญหาจากอคติของคะแนนเครดิตทางเลือก