วิวัฒนาการ AI

ย้อนรอยต้นกำเนิด AI หรือปัญญาประดิษฐ์ ที่เกิดขึ้นเมื่อราว 30 กว่าปีก่อน ซึ่งขณะนั้นมีการนำเสนอภาษาใหม่เรียกว่า Prolog เพื่อหวังสร้างความฉลาดให้กับคอมพิวเตอร์ เรื่องราวจะเป็นอย่างไร พัฒนาการเป็นไปทางไหน ติดตามอ่านได้ที่นี่

ในช่วงอาทิตย์ที่ผ่านมา ผมมีโอกาสเป็นกรรมการพิจารณาทุนให้แก่โครงการนวัตกรรมหลายแห่ง พบความคล้ายคลึงกันคือ มีการนำเสนอว่าจะนำ AI หรือปัญญาประดิษฐ์ มาใช้งานเต็มไปหมด จนบางทีผมฟังดูก็เห็นว่าเจ้าของโครงการยังไม่รู้ว่า AI คืออะไร ทำอะไรได้บ้าง แต่กลายเป็น Buzz Word ที่แก้โรคสารพัด ทำให้ข้อเสนอโครงการดูดี

เรื่องปัญญาประดิษฐ์นั้นเคยเป็นเรื่องฮิตตั้งแต่สามสิบปีก่อน ตั้งแต่สมัยที่ผมยังเรียนหนังสืออยู่แล้วครับ ผมจำได้ว่าในช่วงนั้นมีการนำเสนอภาษาใหม่เรียกว่า Prolog ซึ่งฝากความหวังไว้ว่าจะช่วยให้เราใช้ภาษานี้สร้างความฉลาดให้กับคอมพิวเตอร์ได้ ลักษณะเด่นของภาษานี้คือแทนที่จะกล่าวถึงตัวแปรที่มีการกำหนดค่าเป็นตัวเลขแบบภาษาทั่วไป ภาษานี้จะบอกความสัมพันธ์ของกลุ่มคำแทน คล้ายๆ กับประโยคภาษาพูด เช่นกำหนดความสัมพันธ์ประโยคแรกว่าสมชายเป็นพ่อ ประโยคที่สองพ่อเลี้ยงลูก นำไปสู่ข้อสรุปที่เครื่องคิดได้เองว่า สมชายเลี้ยงลูก เป็นต้น

หากจะทำให้คอมพิวเตอร์เข้าใจเรื่องราวใดๆ ได้คล้ายเด็ก 5 ขวบ ก็ต้องสอนความสัมพันธ์ของคำต่างๆ ใช้องค์ความรู้ที่เรียกว่า Ontology ซึ่งก็มีผู้สร้างเวบ Wikidata แล้วให้พวกเราช่วยกันสอนศัพท์ให้คอมพิวเตอร์ ผ่านมาหลายสิบปียังไปไม่ถึงไหน

บางคนเห็นว่าการกำหนดแบบนี้มันยืดเยื้อก็หันไปสร้างระบบผู้ชำนาญการ หรือ Expert System ซึ่งระบบนี้จะมีลักษณะคล้ายชุดคำสั่งเงื่อนไขในภาษาคอมพิวเตอร์ทั่วไป เราอาจเรียกกลุ่มนี้ว่าเป็น Rule Based ตัวอย่างเช่น คนไข้เจ็บคอ ทางเลือกที่เป็นไปได้คือเป็นโรคต่าง ๆ 5 โรค เครื่องจะถามต่อมีไข้ไหม ถ้าไม่มีจะคัดกรองทางเลือกที่เป็นไปได้เหลือ 2 โรค ซึ่งอาจจำแนกจากอาการคอแดง หรือปวดหัว เพื่อให้เหลือทางเลือกที่เป็นไปได้น้อยที่สุด นำไปสู่การวินิจฉัย

จะเห็นว่า ดังนั้นการสร้าง Rule Based ต้องอาศัยองค์ความรู้ในเรื่องเจาะจงมาก และยังมีความเสี่ยงในการเกิดเคสที่เหมือนกับที่เคยมีมาก่อน ทำให้ข้อสรุปผิดพลาดได้

ทางเลือกใหม่คือ การนำระบบสถิติมาใช้งาน ซึ่งผมแบ่งสถิติแบบดั้งเดิมเป็น 2 กลุ่ม คือ กลุ่มที่ไม่มีโครงสร้าง เก็บข้อมูลมาแล้วให้ข้อมูลแจกแจงความสัมพันธ์เองเรียกว่า Multivariate Statistics ซึ่งนิยมใช้การในการวิจัยทางการแพทย์ สังคมศาสตร์

และอีกกลุ่มหนึ่งเป็นแบบโครงสร้างเรียกว่า Econometrics เริ่มจากงานวิจัยทางการแพทย์แล้วขยายไปสู่เศรษฐศาสตร์ แนวทางนี้จะกำหนดความสัมพันธ์ของตัวแปรแต่ละตัวไว้ก่อนแล้วใช้ข้อมูลสถิติในการหาความสัมพันธ์ของแต่ละตัวแปรในเชิงปริมาณ

เช่น ทฤษฎีบอกว่าปริมาณผลผลิตขึ้นอยู่กับจำนวนปัจจัยการผลิต ซึ่งจำแนกเป็นทุนและแรงงาน และรูปแบบความสัมพันธ์นี้อยู่ในรูป Non-Linear ที่เรียกว่า Cobb-Douglas แบบนี้หากนักเศรษฐศาสตร์ต้องการสร้างสมการมาพยากรณ์ผลผลิตหรือ GDP เขาก็ไม่ต้องไปควานข้อมูลมามากมายแต่เน้นไปที่ข้อมูลปัจจัยการผลิตเลย แล้วประมาณค่าความสัมพันธ์ของตัวแปรตามที่ทฤษฎีแนะนำ

แต่จุดอ่อนคือหากทฤษฎีผิดหรือความสัมพันธ์ในปัจจุบันเปลี่ยนรูปแบบไปจากเดิมแล้ว ซึ่งมีความเป็นไปได้สูงเพราะสิ่งที่สังคมศาสตร์แตกต่างจากวิทยาศาสตร์คือกฎธรรมชาติตายตัว แน่นอน ในขณะที่พฤติกรรมมนุษย์นั้นปรับตัว เปลี่ยนแปลงตามสภาพแวดล้อมตลอด การพยากรณ์ก็จะผิดพลาดตามไปด้วย

แบบจำลองสถิติแนวทางใหม่เริ่มนำเทคโนโลยีการคำนวณที่เรียกว่า Fuzzy Logic คือแนวคิดว่าใดๆ ในโลกไม่ได้มีแต่สีขาวหรือดำ ยังมีสีเทาด้วย มาผสมกับการทำงานของสมองมนุษย์ซึ่งมีหน่วยประมวลเป็นล้านๆ หน่วยเรียกว่า Neuron ที่เชื่อมโยงกันและกันด้วยเส้นประสาทเรียกว่า Synapse เราเรียกแนวทางใหม่นี้ว่า Neural Network

หากเราสร้างแบบจำลองสถิติที่ไม่ต้องใช้โครงสร้างแบบ Multivariate พูดง่ายๆ คือ คุณคิดว่าอะไรน่าจะเป็น Input ก็ใส่เข้าไปเลย แล้วกำหนดให้ Input เหล่านี้สัมพันธ์กันผ่านโครงสร้างที่เชื่อมโยงกันไปมาแบบ Synapse แต่แทนที่จะให้ Input วิ่งตรงไปอธิบาย Output ที่เราต้องการรู้คำตอบ เราสามารถสร้างความสัมพันธ์ในรูป Non-Linear ที่ซับซ้อนขึ้น โดยการเพิ่ม Hidden Layer ที่มี Neuron อีกจำนวนหนึ่งที่เราไม่รู้ว่ามันคืออะไร มาช่วยคำนวณ Neuron พวกนี้จะทำการปรับค่าพารามิเตอร์และส่งค่าในลักษณะ Fuzzy ไปสู่ Neuron อีก

Neural Network นี้จะกลายมาเป็นบรรพบุรุษของ Deep Learning ที่ปลุกกระแส AI ขึ้นมาในปัจจุบัน ในเวลานั้น ผมและเพื่อนๆ ที่กำลังเรียนปริญญาเอกด้วยกันมองเป็นโอกาสหาเงิน หากเราสามารถพยากรณ์ราคาหุ้นได้ด้วยแบบจำลองนี้ เรื่องราวจะเป็นอย่างไรต่อไป โปรดติดตามตอนหน้าครับ