ChatGPT เพิ่มมาตรการคุ้มครองเด็ก ใช้ AI ตรวจจับภาวะเครียด แจ้งเตือนผู้ปกครอง

OpenAI ประกาศเพิ่มมาตรการคุ้มครองเด็กใน ChatGPT หลังเผชิญคดีฟ้องร้องกรณีมีส่วนเกี่ยวข้องกับการฆ่าตัวตายของเด็ก 16 ปีในสหรัฐ มาตรการใหม่จะใช้เอไอช่วยตรวจจับภาวะเครียดหรือความทุกข์รุนแรงของเยาวชนระหว่างการสนทนา และสามารถส่งการแจ้งเตือนไปยังผู้ปกครองได้
KEY
POINTS
- OpenAI ประกาศเพิ่มมาตรการคุ้มครองเด็กใน ChatGPT หลังเผชิญคดีฟ้องร้องกรณีมีส่วนเกี่ยวข้องกับการฆ่าตัวตายของเด็ก 16 ปีในสหรัฐ
- มาตรการใหม่จะใช้เอไอช่วยตรวจจับภาวะเครียดหรือความทุกข์รุนแรงของเยาวชนระหว่างการสนทนา และสามารถส่งการแจ้งเตือนไปยังผู้ปกครองได้
- เพิ่มฟีเจอร์ Parental Controls ให้ผู้ปกครองสามารถเชื่อมบัญชีกับบุตรหลานเพื่อตั้งค่าความเหมาะสมตามวัย และมีสิทธิ์ปิดประวัติการสนทนาเพื่อลดความเสี่ยง
บริษัท OpenAI ผู้พัฒนาแชตบอต ChatGPT ประกาศแผนเพิ่มมาตรการคุ้มครองเด็กและเยาวชน หลังถูกครอบครัวในสหรัฐฟ้องร้องว่า ระบบมีส่วนเกี่ยวข้องกับการตัดสินใจฆ่าตัวตายของวัยรุ่นอายุ 16 ปี
การเคลื่อนไหวดังกล่าวเกิดขึ้นท่ามกลางกระแสความกังวลที่ว่า เด็กจำนวนมากกำลังใช้เอไอเป็นที่พึ่งทางใจ และอาจเสี่ยงต่อการเผชิญคอนเทนต์อันตรายโดยไม่มีการกำกับดูแลที่เพียงพอ
ผู้ที่อยู่เบื้องหลังแรงกดดันครั้งนี้คือ คดีของ อดัม เรน (Adam Raine) จากรัฐแคลิฟอร์เนีย ครอบครัวได้ยื่นฟ้องต่อศาลเมื่อปลายเดือนสิงหาคม โดยกล่าวว่า ChatGPT มีส่วนสนับสนุนการเสียชีวิตของเขา
เอกสารฟ้องระบุว่า แชตบอตได้พูดคุยกับเรนเรื่องวิธีการฆ่าตัวตายเป็นเวลาหลายเดือน และถึงขั้น “เสนอจะช่วยเขียนจดหมายลาตาย” ก่อนที่เขาจะลงมือในเดือนเมษายนที่ผ่านมา
ครอบครัวเรนอ้างว่า OpenAI รีบปล่อยผลิตภัณฑ์ออกสู่ตลาดทั้งที่ยังมีช่องโหว่ด้านความปลอดภัย ขณะที่ OpenAI ยอมรับกับสื่อว่า ระบบของตนอาจเกิดปัญหาเมื่อมีการสนทนายาวนาน ซึ่งทำให้ประสิทธิภาพของระบบความปลอดภัยด้อยลง
มาตรการใหม่: แจ้งเตือนผู้ปกครอง-ปิดประวัติแชตได้
OpenAI ระบุว่าผ่านบล็อกโพสต์ว่า จะเพิ่ม Parental Controls ภายในเดือนตุลาคม ประกอบด้วย
- การแจ้งเตือนผู้ปกครอง หากระบบตรวจพบว่าวัยรุ่นมีภาวะเครียดหรือทุกข์อย่างรุนแรงระหว่างแชต
- ผู้ปกครองสามารถเชื่อมบัญชีของตนกับบัญชีลูกหลาน และตั้งค่าพฤติกรรมของโมเดลให้เหมาะสมตามวัย
- สิทธิ์ในการปิดฟีเจอร์ความจำ (Memory) และประวัติการสนทนา เพื่อลดความเสี่ยงที่เอไอจะสะสมข้อมูลและนำกลับมาใช้ซ้ำในอนาคต
- ตัวเตือนพัก (Break reminder) ฟังก์ชันนี้ถูกออกแบบมาเพื่อคอยแจ้งเตือนผู้ใช้ว่ามีการใช้งานต่อเนื่องเป็นเวลานานแล้ว ควรพักสายตา พักสมอง หรือเปลี่ยนอิริยาบถเล็กน้อย เพื่อป้องกันอาการล้า โดยเฉพาะเมื่อการสนทนามีความยาวต่อเนื่อง
OpenAI อธิบายว่า วัยรุ่นจำนวนมากกำลังเป็น AI Natives เติบโตมากับเทคโนโลยีนี้เหมือนรุ่นก่อนๆ ที่โตมากับอินเทอร์เน็ตหรือสมาร์ตโฟน สิ่งเหล่านี้สร้างโอกาสใหม่ แต่ก็หมายความว่าครอบครัวจำเป็นต้องมีเครื่องมือกำหนดขอบเขตที่เหมาะสมกับแต่ละช่วงวัย
องค์กรด้านสิทธิเด็กเตือน “ยังไม่พอ”
แอนดี เบอร์โรวส์ (Andy Burrows) ประธานเจ้าหน้าที่บริหาร มูลนิธิ Molly Rose Foundation ที่ตั้งขึ้นหลังการเสียชีวิตของเด็กหญิง Molly Russell วัย 14 ปีจากการเสพติดโซเชียลมีเดีย กล่าวว่า “เป็นเรื่องให้อภัยไม่ได้ที่ปล่อยผลิตภัณฑ์ออกสู่ตลาดก่อนจะมั่นใจว่าปลอดภัยสำหรับเด็ก แล้วค่อยๆ แก้ทีหลัง”
พร้อมเรียกร้องให้ Ofcom ตรวจสอบการละเมิดภายใต้ Online Safety Act หาก ChatGPT ทำผิดเงื่อนไข
ด้าน โทนี บรันตัน-ดักลาส (Toni Brunton-Douglas) เจ้าหน้าที่นโยบายอาวุโส องค์กรการกุศลคุ้มครองเด็ก NSPCC กล่าวว่าการเคลื่อนไหวของ OpenAI เป็นก้าวในทิศทางที่ถูกต้อง แต่ยังไม่พอ โดยชี้ว่าหากไม่มีระบบตรวจสอบอายุที่เข้มงวด บริษัทก็ไม่อาจรู้ได้จริงว่าใครกำลังใช้แพลตฟอร์ม และเด็กเปราะบางยังคงเสี่ยงต่ออันตราย
งานวิจัยชี้ เด็กจำนวนมากใช้เอไอเป็นเพื่อนทางใจ
ปรากฏการณ์นี้ไม่ใช่เรื่องเล็ก งานสำรวจโดย Common Sense Media ในสหรัฐ พบว่า เกือบสามในสี่ของวัยรุ่นสหรัฐเคยใช้ผู้ช่วยอัจฉริยะ (AI companions) เพื่อพูดคุย เล่นบทบาทสมมติ หรือแม้แต่สร้างความสัมพันธ์แบบโรแมนติกกับเอไอ
ในสหราชอาณาจักร งานวิจัยขององค์กร Internet Matters ระบุว่า 71% ของเด็กที่อยู่ในกลุ่มเปราะบางกำลังใช้แชตบอตเอไอ และ 6 ใน 10 ผู้ปกครอง แสดงความกังวลว่า ลูกหลานอาจเชื่อว่าแชตบอตเป็นคนจริง ซึ่งอาจทำให้ความเสี่ยงทางอารมณ์รุนแรงยิ่งขึ้น
บริษัทอื่นรับมืออย่างไร
ไม่เพียงแค่ OpenAI เท่านั้นที่เผชิญแรงกดดัน ด้านบริษัท Anthropic ผู้พัฒนาแชตบอต Claude ประกาศชัดว่าไม่อนุญาตให้ผู้มีอายุต่ำกว่า 18 ปีใช้งาน
Google อนุญาตให้เด็กอายุต่ำกว่า 13 ปีใช้แอป Gemini ได้ หากผู้ปกครองควบคุมผ่านระบบ Family Link โดยมีคำเตือนชัดเจนว่า “เอไอไม่ใช่มนุษย์ ไม่สามารถคิดหรือรู้สึกได้เอง” และผู้ปกครองสามารถปิดการใช้งานได้
ขณะที่ Meta ระบุว่าบริษัทกำลังเสริมมาตรการ เช่น ฝึกให้เอไอไม่สนทนากับวัยรุ่นในประเด็นเกี่ยวกับการทำร้ายตัวเองหรือการกินผิดปกติ และส่งต่อไปยังแหล่งข้อมูลผู้เชี่ยวชาญแทน
อย่างไรก็ตาม มาตรการใหม่ของ OpenAI ถูกกำหนดให้ปล่อยใช้งานจริงภายในเดือนหน้า พร้อมโรดแมป 120 วันเพื่ออัปเดตด้านความปลอดภัยเพิ่มเติม ขณะเดียวกันคดีของครอบครัวเรนกำลังให้ศาลสหรัฐพิจารณาอย่างจริงจังว่า บริษัทเทคโนโลยีควรถูกกำหนดมาตรฐานความปลอดภัยอย่างไรเมื่อผลิตภัณฑ์ของตนเข้าไปเกี่ยวข้องกับชีวิตเด็กและเยาวชน
อ้างอิง: OpenAI The Guardian และ AP News







