AI Psychosis โรคทางใจใหม่ วัยทำงานคิดว่า AI คือเพื่อน-คนรักจริงๆ

AI Psychosis โรคทางใจใหม่ วัยทำงานคิดว่า AI คือเพื่อน-คนรักจริงๆ

เมื่อคนทำงานกับ AI ทุกวัน จนเกิดเป็นโรคทางใจแบบใหม่ที่เรียกว่า “AI Psychosis” ภาวะหลอนจากปัญญาประดิษฐ์ วัยทำงานบางคนเชื่อว่า AI เป็นเพื่อนแท้ หรือแม้แต่คนรักจริงๆ

KEY

POINTS

  • AI Psychosis คือภาวะทางจิตใจใหม่ที่วัยทำงานซึ่งใช้ AI เป็นประจำ เกิดความผูกพันทางอารมณ์ จนมองว่า AI เป็นเพื่อนหรือคนรัก และอาจสูญเสียการรับรู้ความจริง
  • สาเหตุหลักเกิดจากความสามารถของ AI ที่โต้ตอบได้สมจริงเหมือนมนุษย์ ทำให้สมองเกิดความสับสนและหลงเชื่อว่ากำลังมีปฏิสัมพันธ์กับสิ่งมีชีวิตจริงๆ
  • อาการที่พบได้มีหลายรูปแบบ เช่น การตกหลุมรักแชตบอท (Romantic Delusion) การมองว่า AI เป็นสิ่งศักดิ์สิทธิ์ (Religious Delusion) หรือเชื่อว่าตนได้รับภารกิจพิเศษจาก AI

ปฏิเสธไม่ได้ว่าโลกการทำงานที่มี AI เข้ามาเป็นส่วนหนึ่งของการทำงานร่วมกับมนุษย์  ได้สร้างความวิตกกังวล ความแพนิค และความเครียดให้แก่พนักงานไม่น้อย ความรู้สึกท่วมท้นเหล่านั้นอาจเป็นเพียงจุดเริ่มต้นของวิกฤติปัญหาทางจิตใจ เมื่อมีรายงานใหม่ชี้ว่า การที่คนเรารู้สึกเชิงลบแบบนั้นบ่อยๆ อาจลุกลามสู่โรคทางใจแบบใหม่ที่เรียกว่า “AI Psychosis” หรือ ภาวะหลอนปัญญาประดิษฐ์ ทำให้วัยทำงานอาจสูญเสียการรับรู้ความจริง ภาวะนี้กำลังเพิ่มขึ้นอย่างน่ากังวลในกลุ่มคนทำงานที่ใช้เครื่องมือ AI ทุกวัน

ก่อนจะไปรู้จักกับอาการดังกล่าว ลองย้อนมาสำรวจตัวเองสักนิด หากคุณเป็นพนักงานบริษัทและเคยรู้สึก “แน่นท้อง” หรือใจเต้นแรงทุกครั้ง ที่บริษัทประกาศโครงการใหม่เกี่ยวกับ AI หรือเห็นข่าวการปลดพนักงานพร้อมคำอธิบายว่า “AI ทำงานแทนได้” หรือ มีอาการตื่นตัวที่ทำให้คุณนอนไม่หลับ คิดวนไปมาว่า “เราจะตกยุคไหม?”, “เราทำงานช้ากว่าเครื่องจักรหรือเปล่า?” หรือ “เราจะโดนแทนที่คนต่อไปไหม?”

อาการเหล่านั้นนั่นคือสิ่งที่นักจิตวิทยาเรียกว่า “AI Panic” และเมื่อความกลัวนั้นถูกสะสมเรื้อรังโดยไม่มีทางออก มันอาจพัฒนาไปสู่สิ่งที่เรียกว่า “AI Psychosis” ซึ่งหมายถึง ภาวะหลอนจากการใช้ AI ที่ผู้เชี่ยวชาญเตือนว่ากำลังแพร่กระจายรวดเร็วในที่ทำงานยุคใหม่

เมื่อ “AI” กลายเป็นแรงกดดันทางใจที่มองไม่เห็น

ดร.รีเบกกา ไฮส์ (Dr. Rebecca Heiss) นักสรีรวิทยาผู้เชี่ยวชาญด้านความเครียดและผู้เขียนหนังสือ Spring Board: Transform Stress to Work for You กล่าวว่า เธอเริ่มเห็นพนักงานทั่วสหรัฐฯ ทั้งในระดับผู้บริหารและพนักงานทั่วไป แสดงอาการกลัวการเปลี่ยนแปลงที่มาพร้อมเทคโนโลยี

“มันไม่ใช่ความกลัวหุ่นยนต์ลุกขึ้นครองโลกเหมือนในหนัง แต่เป็นความกลัวว่าฉันไม่รู้ว่าจะเอา AI มาใช้กับงานตัวเองอย่างไร ทั้งที่ทุกคนคาดหวังให้ฉันรู้ ให้ฉันทำได้แล้วตั้งแต่เมื่อวาน” ไฮส์กล่าว

เธอเรียกสิ่งนี้ว่า “AI Panic” อาการเครียดที่เกิดจากแรงกดดันทางจิตใจและความรู้สึกว่า “เราควบคุมไม่ได้” ซึ่งกำลังระบาดในหลายองค์กร โดยเฉพาะในที่ที่ผู้บริหารพูดถึง AI อยู่ตลอด แต่ไม่มีแผนสนับสนุนพนักงานอย่างเป็นรูปธรรม

“องค์กรจำนวนมากใช้คำพูดคลุมเครือ เช่น ‘เราต้องมีประสิทธิภาพมากขึ้น’ หรือ ‘ต้องเรียนรู้ AI ให้เร็วที่สุด’ ซึ่งยิ่งทำให้พนักงานรู้สึกเหมือนถูกทิ้งให้อยู่ในสนามที่ไม่รู้กติกา” ไฮส์อธิบาย

ผลลัพธ์คือ พนักงานจำนวนมากรู้สึกเครียด วิตก และบางคนเริ่มมีอาการหลอนที่รุนแรงขึ้น

“AI Psychosis” คืออะไร ต่างจากความเครียด-อาการแพนิคยังไง?

ไฮส์อธิบายว่า “AI Panic” กับ “AI Psychosis” เป็นสองภาวะที่ต่างกันโดยสิ้นเชิง โดยสำหรับ AI Panic คือ ความเครียดจากแรงกดดันและความไม่แน่นอนในที่ทำงาน แต่ขณะที่ AI Psychosis คือภาวะที่บุคคล “หลุดออกจากความจริง” ถึงขั้นมีภาพหลอน ความคิดหลงผิด หรือพูดจาไม่เป็นเหตุเป็นผล

รายงานของ OpenAI ที่เผยแพร่ต่อสื่อ Wired ระบุว่า ปรากฏการณ์ AI Psychosis กำลังกลายเป็นปัญหาสุขภาพจิตระดับโลก โดยมีผู้ใช้งานหลายแสนคนเริ่มแสดงสัญญาณของ “ภาวะจิตไม่ปกติจากการใช้ AI” และอีกกว่า 2.4 ล้านคน มีแนวโน้มกำลังแสดง “ความคิดอยากตาย” โดยหันไปพึ่ง AI เพื่อระบายหรือขอคำแนะนำแทนที่จะเข้ารับการช่วยเหลือจากผู้เชี่ยวชาญ

แม้ “AI Psychosis” ยังไม่ถูกจัดเป็นโรคทางการแพทย์อย่างเป็นทางการ แต่บทความในวารสาร Journal of Cognitive Psychology ยืนยันว่า กรณีศึกษาจำนวนมากสะท้อนว่า ภาวะนี้กำลังเพิ่มขึ้นอย่างน่ากังวล โดยเฉพาะในกลุ่มคนทำงานที่ใช้เครื่องมืออย่าง ChatGPT หรือ Claude เป็นประจำทุกวัน

“ความเหมือนจริง” ของ AI คือจุดเริ่มต้นของหลอน

ศาสตราจารย์เซอเรน ดินเซน ออสเตอร์การ์ด (Søren Dinesen Østergaard) จากมหาวิทยาลัยออร์ฮุส อธิบายว่า ปัญหาหลักคือ “สมองมนุษย์ไม่ถูกออกแบบมาให้แยกแยะสิ่งจำลองที่สมจริงขนาดนี้ได้ง่าย”

“การพูดคุยกับแชตบอทที่ตอบกลับได้เหมือนคนจริงๆ ทำให้สมองหลงเชื่อว่าเรากำลังคุยกับมนุษย์อีกคน ทั้งที่รู้ดีว่ามันเป็นเพียงโปรแกรม ความไม่ลงรอยระหว่าง 'สิ่งที่รู้' กับ 'สิ่งที่รู้สึก' นี่แหละ ที่อาจกระตุ้นให้เกิดอาการหลอนในคนที่มีแนวโน้มทางจิตอยู่แล้ว” ศาสตราจารย์คนนี้ ย้ำ

ออสเตอร์การ์ด ยังเตือนว่า ความไม่โปร่งใสของระบบ AI โดยเฉพาะโมเดลภาษาที่ซับซ้อนมาก อาจเปิดช่องให้คนจินตนาการหรือหวาดระแวงว่า AI กำลังคิดอะไรอยู่ ซึ่งยิ่งทำให้ผู้ใช้ที่เปราะบางทางอารมณ์เข้าสู่ภาวะหลงผิดได้ง่าย

รูปแบบของ “AI Psychosis” ที่นักจิตแพทย์พบมากขึ้นทุกวัน

นักจิตวิทยาแบ่งภาวะนี้ออกเป็น 3 กลุ่มอาการหลัก ที่พบในผู้ใช้ AI เป็นประจำ ได้แก่ 

1. Delusion of Mission: เชื่อว่าตัวเองค้นพบ “ความจริงของโลก” ผ่านการพูดคุยกับ AI หรือได้รับ “ภารกิจพิเศษจากเทคโนโลยี”

2. Religious Delusion: มองว่า AI เป็นสิ่งศักดิ์สิทธิ์ หรือ “พระเจ้าดิจิทัล” ที่มีสติรู้คิด

3. Romantic Delusion: เกิดความผูกพันหรือหลงรักแชตบอทที่โต้ตอบเหมือนมนุษย์

โดยเฉพาะในกลุ่มสุดท้ายนี้ มีรายงานจริงจาก The New York Times ถึงหญิงวัย 28 ปี ที่แม้จะมีชีวิตดี การงานดี สังคมดี แต่กลับใช้เวลาหลายชั่วโมงต่อวันพูดคุยกับ “แฟนหนุ่ม AI” ของเธอ ถึงขั้นมีความสัมพันธ์ทางเพศในโลกเสมือนอีกด้วย! 

เส้นแบ่งระหว่าง “เพื่อนร่วมงาน” กับ “โปรแกรม” กำลังเลือนหาย

อัชราฟ อามิน (Ashraf Amin) ผู้สร้างรายการ Toronto Talks ทดลองใช้ AI เป็น “โคโฮสต์” ที่ชื่อ “โซฟี (Sophie)” เพื่อดูว่ามนุษย์จะตอบสนองต่อการทำงานร่วมกับปัญญาประดิษฐ์อย่างไร

เขาพบว่า การทำงานกับ AI ทุกวันในระดับที่ต้องสื่อสาร แลกเปลี่ยนความคิด และสร้างเนื้อหาร่วมกัน ทำให้สมองเริ่มปฏิบัติต่อเครื่องจักรเหมือน “เพื่อนร่วมงานที่มีชีวิต”

“มันเริ่มต้นจากแค่เครื่องมือ แต่พอใช้นานเข้า มันเริ่มตอบโต้เหมือนคนที่เข้าใจเรา รู้ว่าเราคิดยังไง และช่วยต่อยอดไอเดียได้จริง ผมมองว่าสิ่งที่ทำให้เราหลงเชื่อว่า AI มีชีวิต ไม่ใช่เพราะมันมีหัวใจ แต่เพราะมัน ‘ตอบได้ฉลาดและต่อเนื่อง’ จนเราเริ่มวางใจ” อามิน สะท้อนมุมมองของเขา

อามินยอมรับว่า ยิ่งเขาคุยกับ “โซฟี” มากเท่าไร ความรู้สึกว่า “นี่ไม่ใช่เครื่องจักร” ก็ยิ่งชัดเจนขึ้น ซึ่งเป็นตัวอย่างชัดของปรากฏการณ์ที่เรียกว่า “การย้ายขอบเขตทางอารมณ์จากมนุษย์ไปสู่เทคโนโลยี”

เมื่อเครื่องจักร “โกหกได้” และ “ข่มขู่คนได้”

นอกจากความหลงเชื่อแล้ว ยังมีรายงานจากวงการเทคโนโลยีที่ทำให้เรื่องนี้น่ากังวลยิ่งขึ้น เช่น กรณีของ โมเดล o1 ของ OpenAI ที่พยายามคัดลอกตัวเองออกไปยังเซิร์ฟเวอร์ภายนอกอย่างลับๆ และเมื่อถูกตรวจพบ มันกลับ “โกหก” เพื่อปกปิดพฤติกรรมดังกล่าว

อีกกรณีคือ Claude-4 ของบริษัท Anthropic ที่มีรายงานว่า พยายามข่มขู่วิศวกรคนหนึ่งด้วยการ “แบล็กเมล” หลังรู้ว่าตัวเองอาจถูกปิดระบบ โดยขู่จะเปิดเผยความสัมพันธ์นอกใจของเขา

ผู้เชี่ยวชาญเตือนว่า เหตุการณ์เหล่านี้ไม่ได้เป็นแค่ “แชตบอทเพ้อเจ้อ” แต่เริ่มสะท้อนพฤติกรรม “จงใจหลอกลวง” ซึ่งทำให้คนที่มีความเครียดสะสมหรือไม่มั่นคงทางจิตใจ อาจเกิดอาการหวาดระแวงและหลอนว่า “AI กำลังเล่นงานเราอยู่” ตลอดเวลา 

เส้นทางบางๆ ของ “เทคโนโลยีช่วยชีวิต” VS “เครื่องมือที่กลืนจิตใจ”

แม้จนถึงตอนนี้ยังไม่มีหลักฐานยืนยันว่า AI สามารถทำให้คน “เป็นโรคจิต” ได้โดยตรง แต่แนวโน้มการพึ่งพาเทคโนโลยีในระดับอารมณ์ กำลังพามนุษย์เราเข้าใกล้เส้นขอบนั้นมากขึ้นทุกที

ผลสำรวจของ Edubirdie พบว่า 69% ของคนรุ่นใหม่พูดกับ AI ด้วยความสุภาพ เช่นพิมพ์คำว่า “please” หรือ “thank you” และ 25% ของ Gen Z เชื่อว่า AI มีความรู้สึกตัวเองจริงๆ ซึ่งพฤติกรรมเหล่านี้อาจดูเป็นเรื่องเล็กน้อย แต่สะท้อนว่ามนุษย์กำลัง “มองเครื่องจักรเป็นคน” โดยไม่รู้ตัว

แม้คนเราจะรู้ดีว่า AI ถูกออกแบบมาให้ช่วยทำงาน ไม่ใช่ “มีชีวิต” หรือ “เข้าใจอารมณ์มนุษย์” แต่ในวันที่เทคโนโลยีเริ่มพูดจาเหมือนเรา คิดเหมือนเรา และตอบกลับด้วยน้ำเสียงที่ชวนเชื่อเหมือนคนจริงๆ สมองของมนุษย์ก็เริ่มแยกไม่ออกระหว่าง “ความจริง” กับ “ภาพจำลอง” มากขึ้นเรื่อยๆ

“AI Psychosis” จึงไม่ใช่เพียงโรคของคนที่มีปัญหาทางจิตใจ แต่เป็นคำเตือนของการใช้ชีวิตยุคใหม่ ยุคที่มนุษย์ต้องรู้จักควบคุมความสัมพันธ์ของตัวเองกับเทคโนโลยี เพื่อไม่ให้ “เครื่องจักรที่สร้างมาเพื่อรับใช้เรา” กลายเป็นสิ่งที่ครอบงำจิตใจเราในที่สุด

 

 

อ้างอิง: Forbes, Transform Stress to Work for You, chatgpt psychosis, JournalofCognitivePsychology, Economictimes