3 บิ้กเทค Google-OpenAI-Microsoft ตั้งฟอรัมควบคุมการพัฒนา AI

3 บิ้กเทค Google-OpenAI-Microsoft ตั้งฟอรัมควบคุมการพัฒนา AI

Google, OpenAI, Microsoft ก่อตั้ง 'Frontier Model Forum' เพื่อควบคุมการพัฒนา AI ยักษ์ใหญ่ด้านเทคโนโลยีขนาดใหญ่มารวมตัวกันเพื่อก่อตั้ง “ฟรอนเทียร์ โมเดล ฟอรัม” เพื่อร่วมกันมุ่งเน้นไปที่การพัฒนา "ปลอดภัยและมีความรับผิดชอบ" ของโมเดล AI

3 บริษัทยักษ์ใหญ่ด้านเทคโนโลยี Google, Microsoft, ผู้ผลิต ChatGPT OpenAI และสตาร์ทอัพ AI Anthropic ประกาศเมื่อวันที่ 26 กรกฎาคมว่าได้เตรียมจัดตั้งกลุ่มเฝ้าระวังอุตสาหกรรมใหม่เพื่อช่วยควบคุมการพัฒนา AI

ในแถลงการณ์ร่วมที่เผยแพร่บนบล็อกของ Google เผยว่าบริษัทต่างๆ ได้เปิด Frontier Model Forum มุ่งตรวจสอบการพัฒนา "ปลอดภัยและมีความรับผิดชอบ" ของโมเดล AI 

ชี้ให้เห็นว่าในขณะที่รัฐบาลทั่วโลกได้เริ่มใช้ความพยายามในการควบคุมการพัฒนาและการใช้งาน AI แล้ว ดังนั้นจำเป็นต้องมีการทำงานเพิ่มเติมเกี่ยวกับมาตรฐานความปลอดภัยและการประเมิน

“ฟอรัมจะเป็นเครื่องมือหนึ่งสำหรับการอภิปรายข้ามองค์กรและการดำเนินการเกี่ยวกับความปลอดภัยและความรับผิดชอบของ AI”

เป้าหมายหลักในปัจจุบันของความคิดริเริ่มคือ เพื่อพัฒนาการวิจัยเกี่ยวกับความปลอดภัยของ AI เพื่อระบุแนวทางปฏิบัติที่ดีที่สุดสำหรับการพัฒนาและปรับใช้โมเดล AI อย่างมีความรับผิดชอบ รวมถึงการมีความร่วมมือกับรัฐบาลและเอกชน

การเป็นสมาชิกฟอรัมเปิดให้องค์กรที่มีคุณสมบัติตรงตามเกณฑ์ที่กำหนดไว้ล่วงหน้า ซึ่งรวมถึงการพัฒนาและปรับใช้ AI ด้วย

แบรด สมิธ รองประธานและประธานของ Microsoft กล่าวว่า “บริษัทที่สร้างเทคโนโลยี AI มีหน้าที่รับผิดชอบในการรับรองว่าเทคโนโลยีนั้นปลอดภัย มั่นคง และอยู่ภายใต้การควบคุมของมนุษย์”

"ความคิดริเริ่มนี้เป็นขั้นตอนสำคัญในการนำภาคเทคโนโลยีมารวมกันเพื่อพัฒนา AI อย่างมีความรับผิดชอบและจัดการกับความท้าทายต่างๆ เพื่อให้เป็นประโยชน์ต่อมวลมนุษยชาติ"

ตามประกาศ Frontier Model Forum จะจัดตั้งคณะกรรมการที่ปรึกษาในอีกไม่กี่เดือนข้างหน้า เพื่อกำหนดลำดับความสำคัญและกลยุทธ์ของการร่วมมือครั้งนี้ นอกจากนี้ยังระบุด้วยว่า บริษัทผู้ก่อตั้งวางแผนที่จะปรึกษากับ “ภาคประชาสังคมและรัฐบาล” เกี่ยวกับการออกแบบฟอรัม

แอนนา มากันจู รองประธานฝ่ายกิจการระดับโลกของ OpenAI กล่าวว่าระบบ AI ขั้นสูงมี “ประโยชน์อย่างลึกซึ้ง” ต่อสังคม แต่เพื่อให้บรรลุศักยภาพนี้จำเป็นต้องมีการกำกับดูแลและการกำกับดูแล

จำเป็นอย่างยิ่งที่บริษัทด้าน AI โดยเฉพาะอย่างยิ่งผู้ที่ทำงานที่เกี่ยวเนื่องกับ AI จะต้องวางแนวทางร่วมกัน และพัฒนาแนวปฏิบัติด้านความปลอดภัยที่รอบคอบและปรับเปลี่ยนได้ เพื่อให้แน่ใจว่าเครื่องมือ AI ที่ทรงพลังจะได้รับประโยชน์ในวงกว้างที่สุดเท่าที่จะเป็นไปได้