“คน” ต้องมาก่อน “เทคโนโลยี” (5)alternative credit scoring***

“คน” ต้องมาก่อน “เทคโนโลยี” (5)alternative credit scoring***

ตอนที่แล้วผู้เขียนแนะนำความสำคัญและองค์ประกอบหลักของ “คะแนนเครดิต” (credit score) และเสนอว่ามันเป็นอุปสรรคประการหนึ่ง

ของการเข้าถึงบริการทางการเงินตลอดหลายสิบปีที่ผ่านมา เพราะสถาบันการเงินต่างๆ ล้วนแต่คำนวณตัวเลขนี้จาก “ข้อมูลอดีต” ของลูกค้าเป็นหลัก รวมถึงข้อมูลประวัติการชำระหนี้ที่ผ่านมา 

ในเมื่อคนที่ไม่เคยเข้าบริการทางการเงินมักจะเป็นผู้ที่มีรายได้น้อยและรายได้ไม่แน่นอน ไม่เคยใช้สินเชื่อในระบบ หลายคนไม่เคยแม้แต่กล้าเดินเข้าสาขาธนาคาร พวกเขาจึงไม่มีประวัติการชำระหนี้ที่จำเป็นต่อการสร้างคะแนนเครดิต และในเมื่อไม่มีคะแนนเครดิต ความเป็นไปได้ของสินเชื่อธนาคารก็ยิ่งห่างไกลออกไปอีก

ในยุคอินเทอร์เน็ตที่ข้อมูลมหาศาลหรือ บิ๊กดาต้า” (big data) ปัญญาประดิษฐ์หรือเอไอ (AI) โดยเฉพาะการให้คอมพิวเตอร์เรียนรู้จากข้อมูล (machine learning) กำลังเติบโตอย่างรวดเร็ว บริษัทเทคโนโลยีทางการเงินหรือฟินเทค (FinTech) จำนวนมากก็กำลังใช้ข้อมูลและเทคโนโลยีเหล่านี้ผลิต คะแนนเครดิตทางเลือก” (alternative credit score) ซึ่งแตกต่างจากการสร้างคะแนนเครดิตแบบเดิมๆ เพราะใช้ข้อมูลหลากหลายรูปแบบที่ธนาคารไม่เคยสนใจมาคำนวณคะแนนเครดิต เนื่องจากพบว่า “พฤติกรรม” จำนวนมากซึ่งดูเผินๆ ไม่เกี่ยวอะไรกับเรื่องการเงิน แท้ที่จริงสามารถใช้ประเมินความน่าจะเป็นในการชำระหนี้ได้

ยกตัวอย่าง ทาลา (Tala) ฟินเทครุ่นบุกเบิกแห่งหนึ่งในวงการ ใช้ข้อมูลนับหมื่นตัวโดยเฉพาะพฤติกรรมการใช้โทรศัพท์มือถือ มาคำนวนคะแนนเครดิตและปล่อยสินเชื่อขนาดจิ๋วให้กับผู้มีรายได้น้อยในประเทศกำลังพัฒนา อาทิ เคนยา แทนซาเนีย และฟิลิปปินส์ ทาลายกตัวอย่างว่า ถ้าคนโทรออกระหว่างเวลา 21.00 ถึงเที่ยงคืนน้อยกว่า 30% ของการโทรออกทั้งวันของเธอ ความน่าจะเป็นที่เธอจะชำระสินเชื่อขนาดจิ๋วก็จะสูงขึ้นราว 18% และถ้าเธอมีแอพโซเชียลมีเดีย (เช่น เฟซบุ๊ค ทวิตเตอร์ ฯลฯ) มากกว่า 23 แอพบนมือถือ ความน่าจะเป็นที่เธอจะชำระหนี้ก็จะลดลง 20% แต่ถ้าเธอมีแอพโซเชียลไม่ถึง 10 แอพ ความน่าจะเป็นที่เธอจะชำระหนี้ได้ก็จะพุ่งสูงขึ้น

ทาลาใช้อาจไม่รู้ และไม่มีวันรู้ว่า ทำไมจำนวนแอพโซเชียลจึงสัมพันธ์กับความน่าจะเป็นในการชำระหนี้ และสัมพันธ์กันแบบไหน แบบเป็นเหตุเป็นผลหรือเปล่า (causation เช่น คนที่ใช้แอพโซเชียลเยอะอาจสุ่มเสี่ยงว่าจะมัวแต่สังสันทน์กับเพื่อนๆ หรือมีไลฟ์สไตล์ที่ใช้เงินสุรุ่ยสุร่ายกว่าคนที่ใช้แอพโซเชียลไม่กี่ตัว ทำให้มีแนวโน้มน้อยกว่าที่จะชำระหนี้?) หรือว่าเชื่อมโยงกันเฉยๆ (correlation)

ประเด็นสำคัญคือ ทาลาไม่จำเป็นจะต้องรู้คำตอบก็ได้ เพราะลำพังการมองเห็น ความสัมพันธ์ระหว่างข้อมูลของลูกหนี้ กับความน่าจะเป็นในการชำระหนี้ ก็เพียงพอแล้วที่จะตัดสินใจปล่อยสินเชื่อ

การรวบรวมและนำข้อมูลที่แตกต่างหลากหลายเหล่านี้มาสร้างคะแนนเครดิตทางเลือก จึงเป็นกุญแจสำคัญของการขยายการเข้าถึงบริการทางการเงิน และด้วยเหตุนี้ เราจึงเห็นฟินเทคจำนวนมากขึ้นเรื่อยๆ เข้าสู่วงการ ทั้งฟินเทคที่ให้บริการสร้างคะแนนเครดิตอย่างเดียว หรือปล่อยสินเชื่อเองด้วยแบบทาลา

อย่างไรก็ดี ความท้าทายประการสำคัญของอัลกอริธึม (คนเขียนโปรแกรมป้อนคอมพิวเตอร์) และเอไอ (คอมพิวเตอร์เรียนรู้เองจากข้อมูล) ก็คือ วิธีคำนวณคะแนนเครดิตของมันอาจผลิตซ้ำอคติและค่านิยมแย่ๆ ของสังคม กีดกันคนบางกลุ่มออกไปเพียงเพราะตกเป็นเหยื่อของอคติ แถมยังอาจซ้ำเติมความเหลื่อมล้ำและความไม่เป็นธรรมให้ดำรงอยู่ต่อไป

โปรแกรมเมอร์มีสำนวนเก่าแก่ที่ใช้กันมานานว่า “ขยะเข้า ขยะออก” (garbage in, garbage out) แปลว่าถ้าฝั่งอินพุต (input) หรือตัวแปรที่นำเข้าสู่ระบบมีความผิดพลาด (errors) หรืออคติ (bias) อะไรสักอย่าง เอ้าท์พุต (output) หรือผลลัพธ์ที่ออกจากระบบก็ย่อมผิดพลาดหรือมีอคติตามไปด้วย ในการเขียนโปรแกรมธรรมดา (ซึ่งมีตัวแปรขาเข้าขาออกที่ชัดเจน) การค้นหาอคติและข้อผิดพลาดไม่ใช่เรื่องยาก เพียงแต่ต้องลงมือหา แต่ในระบบแบบเอไอที่ให้คอมพิวเตอร์เรียนรู้ด้วยตัวเอง ระบบนี้สามารถทำงานอย่างเป็นเอกเทศ (autonomous) ซึ่งนั่นก็หมายความว่า วิธีที่มันเลือกและวิเคราะห์ตัวแปรต่างๆ จากข้อมูลมหาศาลนั้นอาจไม่ใช่สิ่งที่เรามองเห็นอย่างชัดเจน ต่อให้นักพัฒนาเองก็อาจมองไม่ชัด ประเด็นนี้ทำให้เป็นเรื่องยากกว่าเดิมที่จะค้นหาให้เจอว่า อคติเกิดขึ้นในระบบหรือเปล่า และเกิดตรงจุดไหน

โดยทั่วไป อคติสามารถเข้าสู่ระบบคอมพิวเตอร์ที่ประมวลข้อมูลมหาศาลได้ 3 ทาง ได้แก่ อคติของอินพุต (input bias) อคติของการสอน (training bias) และอคติของโปรแกรม (program bias)

อคติของอินพุต (input bias) เกิดขึ้นเมื่อข้อมูลต้นทางมีอคติ โดยเฉพาะอคติที่สืบทอดทางประวัติศาสตร์มาอย่างยาวนาน ลองสมมุติว่ามีอัลกอริธึมซึ่งถูกเขียนโปรแกรม (หรือเอไอเรียนรู้เอง) ว่า ผู้ขอสินเชื่อที่จบจากมหาวิทยาลัยชื่อดังจะได้คะแนนเครดิตสูงกว่าคนที่จบจากมหาวิทยาลัยไม่ดัง ถ้าหากกระบวนการคัดเลือกของมหาวิทยาลัยชื่อดังเหล่านี้มีอคติต่อคนบางกลุ่ม (เช่น กีดกันคนจากครอบครัวยากจน) ตลอดหลายสิบปีที่ผ่านมา คะแนนเครดิตที่ออกมาจากอัลกอริธึมนี้ก็จะได้อคติของมหาวิทยาลัยติดมาเป็น ‘มรดก’ ด้วย และคนที่ถูกกีดกันจากมหาวิทยาลัยชื่อดังก็จะหมดโอกาสได้รับสินเชื่อ ทั้งที่พวกเขาอาจเป็นลูกหนี้ที่ดีก็ได้

อคติของการสอน (training bias) คืออคติที่เกิดจากการจัดหมวดหมู่ข้อมูลฐาน (baseline data) อย่างมีอคติ หรือมีอคติในการตีความผลลัพธ์ สมมุติว่าเราบอกให้เอไอคิดค้นอัลกอริธึมสำหรับปล่อยสินเชื่อที่ประเมินพฤติกรรมการใช้ภาษา (เวลาโพสเฟซบุ๊ก ฯลฯ) ของคนจำนวนมาก สมมุติต่อไปว่า เอไอ “เรียนรู้” ว่าคนที่สะกดผิดบ่อยครั้ง หรือใช้ภาษาถิ่น มีอัตราการผิดนัดชำระหนี้สูงกว่าคนอื่น มันก็จะให้คะแนนเครดิตของคนเหล่านี้ต่ำกว่าคนอื่น ทั้งที่นิสัยออนไลน์เหล่านี้ไม่มีความเกี่ยวข้องใดๆ เลยกับความสามารถในการชำระหนี้ (ที่แย่กว่านั้นอีกคือ สมมุติถ้ากรณีนี้คนที่ดูแลเอไอตีความอย่างมีอคติว่า ดูสิ พวกคนต่างจังหวัด (รู้จากการใช้ภาษาถิ่นเวลาโพสออนไลน์) ไม่มีการศึกษา ไม่มีวินัยทางการเงิน ไม่มีปัญญาใช้หนี้หรอก!)

อคติของโปรแกรม (program bias) อาจเกิดในการออกแบบระบบ หรือเมื่อเอไอฉลาดๆ สามารถเรียนรู้และปรับปรุงระบบการประเมินคะแนนเครดิตผ่านการมีปฏิสัมพันธ์กับผู้ใช้ที่เป็นมนุษย์ หรือประมวลข้อมูลชนิดใหม่

คำถามต่อไปคือ แล้วเราจะป้องกันอคติเหล่านี้ในการออกแบบคะแนนเครดิตทางเลือกได้อย่างไร? การคุ้มครองข้อมูลส่วนบุคคลและความเป็นส่วนตัวสำคัญอย่างไร? และภาครัฐควรมีบทบาทอะไรบ้าง?

โปรดติดตามตอนต่อไป

 

*** ชื่อเต็ม: “คน” ต้องมาก่อน “เทคโนโลยี” (5) อคติของคะแนนเครดิต “ทางเลือก” (alternative credit scoring)