Google I/O เหนือชั้นด้วย Speech Recognition

Google I/O เหนือชั้นด้วย Speech Recognition

ในงาน Google I/O 2019 ที่จัดขึ้นเมื่อวันที่ 7-9 พ.ค.ที่ Shoreline Amphitheatre ในแคลิฟอร์เนีย Sundar Pichai ซีอีโอของกูเกิลกล่าวเปิดงานว่า

“กูเกิลกำลังเปลี่ยนจากการพัฒนานวัตกรรมที่ช่วยในการหาคำตอบ มาเป็นการช่วยให้งานสำเร็จ โดยมีเป้าหมายที่จะสร้างผลิตภัณฑ์ที่ช่วยเหลือทุกคนได้มากขึ้น” เห็นได้จากนวัตกรรมที่กูเกิลนำมาแสดงให้ชม นอกจากกูเกิล เลนส์ (Google Lens) ที่ช่วยในการค้นหาและแนะนำข้อมูลซึ่งถูกติดตั้งมากับกล้องและแอพอย่าง Photos ยังถูกนำมาใช้เพิ่มความสามารถของเสริ์ช (Search) และการนำทางใน Google Map รวมถึงนวัตกรรมล้ำหน้าของ Machine Learning ที่คำนึงถึงความความเป็นส่วนตัวและความปลอดภัยของข้อมูล (Privacy & Security)

โดยเฉพาะความโดดเด่นด้านนวัตกรรมเสียง (Speech Recognition) ผ่านกูเกิลแอสซิสแทนท์ (Google Assistant) และกูเกิลดูเพล็กซ์ (Google Duplex) ที่เปิดเส้นทางใหม่ของการใช้นวัตกรรมเสียงสนทนาเพื่อการบริการ (Conversational Service) และนวัตกรรมเพื่อช่วยเหลือผู้พิการทางการได้ยินและการพูดอย่าง “Live Transcribe”, “Live Caption” และ “Live Relay” ที่เหนือชั้น

 

ล้ำด้วย Speech Recognition

กูเกิลกล่าวในงาน Google I/O ถึงการความก้าวหน้าครั้งสำคัญของนวัตกรรม Speech Recognition Technology โดยได้กล่าวถึงนวัตกรรม Live Transcribe ซึ่งช่วยบรรยายเสียงที่ผ่านเข้ามาให้เป็นตัวอักษร (Speech to Text) ช่วยให้ผู้พิการทางการพูดและการได้ยินที่มีมากกว่า 500 ล้านรายให้สามารถเข้าใจเสียงเหล่านั้นด้วยเทคโนโลยีที่แปลงการสนทนาแบบเรียลไทม์

Live Caption นับเป็นนวัตกรรม Speech Recognition สำคัญที่ให้ประโยชน์ทั้งทางธุรกิจและการใช้ชีวิต จนอาจช่วยผู้คนให้ก้าวพ้นข้อจำกัดของภาษาและการได้ยิน ตัวอย่างเช่น การถ่ายไลฟ์วิดีโอพร้อมเปิดฟังก์ชั่น Live Caption เพื่อแสดงคำพูดจากเสียงให้ปรากฎในภาพวิดีโอที่บันทึกและเปิดปิดตัวอักษรตามต้องการ ซึ่งจะทำงานในภาษาท้องถิ่นกว่า 70 ภาษาผ่านระบบปฏิบัติการแอนดรอยด์

ขยายผลต่อด้วยนวัตกรรม Live Relay ที่ทำงานผ่าน “Smart Compose” และ “Smart Reply” ช่วยในการเปลี่ยนตัวอักษรให้เป็นเสียงพูด (Text to Speech) และเปลี่ยนจากเสียงพูดเป็นตัวอักษร (Speech to Text) เพื่อให้ผู้พิการทางการได้ยินสามารถสื่อสารผ่านการสนทนาทางโทรศัพท์ได้อย่างน่าอัศจรรย์

 

“On-Device” Federated Learning

Sundar Pichai ได้กล่าวถึง “Federated Learning” ซึ่งเป็นแนวคิดใหม่ของการเพิ่มความปลอดภัยและความเป็นส่วนตัวในการทำงานของ Machine Learning ให้ตอบสนองการทำงานที่ดีขึ้นของ AI โดยการเก็บข้อมูลของผู้ใช้งานไว้ในสมาร์ทโฟนหรือในอุปกรณ์

โดยแทนที่จะส่งข้อมูลไปเก็บไว้ในระบบคลาวด์คอมพิวติ้ง กูเกิลจะเก็บข้อมูลของผู้ใช้งานและโมเดลของ Machine Learning ไว้ที่ตัวอุปกรณ์ จากนั้นจึงส่งผลการคำนวณจาก Machine Learning ไปอัพเดทยัง Global Model ซึ่งข้อมูลอัพเดทของโมเดลเท่านั้นที่ถูกส่งไปรวมกันยังระบบคลาวด์ของ Global Model และค่าโมเดลที่ถูกปรับปรุงแล้วจึงถูกส่งกลับมาใช้งานยังอุปกรณ์อีกครั้ง โดยที่ข้อมูลดิบของผู้ใช้งานจะยังคงถูกเก็บอยู่ในเครื่องไม่ถูกส่งไปเก็บที่อื่น

นวัตกรรมอย่าง Live Caption ในระบบปฏิบัติการแอนดรอยด์ Q ใช้หลักการเพื่อทำงานลักษณะ “On-Device” ที่ขนาดความจุเพียง 80 เมกะไบต์ โดย Live Speech Model จะทำงานกับข้อมูลเสียงภายในเครื่องโดยตรง เป็นการรักษาความเป็นส่วนตัวของข้อมูลผู้ใช้งานที่ตัวอุปกรณ์

 

Conversational Commerce

ตั้งแต่เปิดตัวเมื่อปีที่แล้ว Google Duplex ถูกกล่าวขวัญถึงเสียงสนทนาจาก AI ที่มีความเป็นธรรมชาติเทียบเคียงได้ราวกับการสนทนาของมนุษย์ ปัจจุบัน Google Duplex ถูกนำมาทดลองใช้ในการจองโต๊ะอาหาร จองตั๋วชมภาพยนตร์หรือการนัดหมายร้านค้าใน 43 มลรัฐในอเมริกา

กูเกิลต่อยอดนวัตกรรม Google Duplex ออกไปอีกขั้นด้วยการทดสอบการให้บริการใหม่ที่เรียกว่า “CallJoy” ที่ทำงานเสมือนเจ้าหน้าที่ฝ่ายงานบริการ (Virtual Customer Service Agent) ให้กับร้านค้าขนาดเล็กในการตอบโทรศัพท์ที่ให้บริการพื้นฐานกับลูกค้าที่โทรเข้ามาที่ร้าน อาทิ การตอบข้อสอบถามในการสั่งสินค้าหรือการนัดหมายและเวลาเปิดปิดของร้าน หรือต่อสายให้คุยกับพนักงานของร้าน โดยผู้จัดการร้านสามารถตรวจสอบข้อมูลโทรศัพท์ที่โทรเข้ามาผ่านบันทึกการสนทนา พร้อมแสดงจำนวนสายการติดต่อ เชื่อว่าบริการลักษณะนี้จะพบเห็นได้มากขึ้นในอนาคตจากค่ายดิจิทัลรายใหญ่

 

โลกที่คุณสนทนาอยู่กับ AI

กูเกิลแอสซิสแทนท์ที่เปิดบริการกว่า 30 ภาษาใน 80 ประเทศผนวกกับนวัตกรรม Speech Recognition กำลังเป็นกระแสใหม่ของการทำธุรกิจที่ยากจะละเลย คงไม่น่าแปลกใจที่ AI จะโทรศัพท์คุยกันเองเพื่อจัดการนัดหมายหรือสั่งสินค้าแทนผู้คน นวัตกรรมใหม่ที่กำลังเกิดขึ้นอาจส่งผลกับธุรกิจมากจนเกินคาดเดา