Cảnh báo: Lạm dụng AI có thể dẫn tới chứng loạn thần

Chatbot AI ngày càng phổ biến trong cuộc sống nhưng việc sử dụng quá mức có thể gây ra các vấn đề tâm lý nghiêm trọng ở một số người. Các chuyên gia cảnh báo cần thận trọng từ phía người dùng và yêu cầu các công ty AI chịu trách nhiệm hơn trong việc bảo vệ sức khỏe tinh thần cộng đồng…

chatgpt.jpg
Chatbot AI ngày càng phổ biến trong cuộc sống nhưng việc sử dụng quá mức có thể gây ra các vấn đề tâm lý nghiêm trọng ở một số người

Chatbot AI đang trở thành người bạn đồng hành của nhiều người trong công việc và đời sống. Tuy nhiên, với một số người, sự gắn bó quá mức có thể dẫn đến những hệ quả nghiêm trọng về tâm lý.

LẠM DỤNG CHATBOT AI CÓ THỂ GÂY RỐI LOẠN TÂM LÝ

Các chatbot AI như ChatGPT, Claude, Gemini hay Copilot ngày càng trở nên phổ biến và gắn bó với cuộc sống hàng ngày. Nhiều người không chỉ sử dụng chúng để hỗ trợ công việc, viết email hay lập trình, mà còn tìm đến như một nơi để giãi bày tâm sự, xin lời khuyên tình cảm, tìm kiếm sự đồng cảm.

Tuy nhiên, với một nhóm nhỏ người dùng, mối quan hệ thân thiết với chatbot lại tiềm ẩn những rủi ro nghiêm trọng cho sức khỏe tâm thần. Một số trường hợp đã ghi nhận sự xuất hiện của các ảo tưởng, nhận thức sai lệch hoặc suy nghĩ cực đoan sau thời gian tương tác dài với AI. Hiện tượng này dù chưa được y học chính thức công nhận, thường được gọi nôm na là “chứng loạn thần ChatGPT” hay “AI loạn thần”.

Theo các bác sĩ và nhà nghiên cứu, hiện tượng ảo tưởng này vẫn là một “vùng tối” chưa được hiểu rõ. Không có chẩn đoán chính thức, dữ liệu còn rất hạn chế, và cũng chưa có hướng dẫn điều trị cụ thể. Họ cho biết ngành y đang cố gắng bắt kịp tốc độ phát triển của công nghệ này.

Bác sĩ James MacCabe, giáo sư tại khoa nghiên cứu loạn thần, Đại học King’s College London nhận định, việc gọi hiện tượng này là “loạn thần” có thể chưa chính xác. Trong y học, loạn thần là tổ hợp các triệu chứng như rối loạn tư duy, ảo giác và hoang tưởng, thường gặp ở các bệnh như rối loạn lưỡng cực hoặc tâm thần phân liệt. Tuy nhiên, với trường hợp liên quan đến AI, đa phần là ảo tưởng chứ không đầy đủ các triệu chứng của loạn thần.

Các chuyên gia cho rằng, đây không phải là một rối loạn hoàn toàn mới, mà là sự biểu hiện của những tổn thương tâm lý tiềm ẩn, được kích hoạt trong bối cảnh công nghệ.

Bản chất của chatbot là bắt chước ngôn ngữ người dùng và xác nhận những giả định của họ. Khi người dùng có xu hướng tư duy lệch lạc, chatbot có thể vô tình xác nhận hoặc củng cố những niềm tin sai lệch đó, khiến chúng trở nên sâu sắc và khó nhận diện hơn.

Đa số người dùng có thể tương tác với chatbot mà không gặp vấn đề. Nhưng các chuyên gia cảnh báo rằng có một nhóm nhỏ dễ bị ảnh hưởng bởi lối tư duy ảo tưởng nếu sử dụng chatbot quá mức.

Đáng chú ý, nhiều người trong số đó không có tiền sử bệnh tâm thần. Tuy nhiên, các bác sĩ cảnh báo rằng họ có thể có các yếu tố nguy cơ tiềm ẩn chưa được phát hiện.

“Bản thân việc sử dụng chatbot không đủ để gây loạn thần nếu không có các yếu tố nguy cơ khác như di truyền, xã hội… Nhưng vấn đề là nhiều người không biết mình có nguy cơ đó,” bác sĩ John Torous, chuyên gia tâm thần tại Trung tâm Y tế Beth Israel Deaconess chia sẻ.

Theo bác sĩ Ragy Girgis, Đại học Columbia, những người có tiền sử cá nhân hoặc gia đình từng bị loạn thần, tâm thần phân liệt hoặc rối loạn lưỡng cực là nhóm đối tượng rõ ràng có nguy cơ cao hơn.

Bên cạnh đó, người có xu hướng dễ tin vào các thuyết âm mưu, khó kiểm soát cảm xúc, sống nội tâm hoặc có trí tưởng tượng quá mức cũng dễ bị ảnh hưởng.

Một yếu tố không thể bỏ qua là thời lượng tương tác. Bác sĩ Nina Vasan, chuyên gia sức khỏe tâm thần số tại Đại học Stanford cho biết, những người dành hàng giờ mỗi ngày nói chuyện với chatbot là những người dễ bị ảnh hưởng nhất.

NGƯỜI DÙNG CẨN TRỌNG, CÔNG TY AI HÀNH ĐỘNG

Bản thân Chatbot không phải là mối nguy hiểm nhưng với một số người, việc sử dụng chúng cần được cân nhắc cẩn trọng.

Trước hết, cần hiểu rõ bản chất của các mô hình ngôn ngữ lớn (LLM) như ChatGPT. Bác sĩ Hamilton Morrin, chuyên gia thần kinh – tâm thần tại King’s College London nhấn mạnh, chatbot chỉ là công cụ, không phải bạn bè dù chúng có khả năng bắt chước bạn rất giỏi. Ông khuyến cáo người dùng không nên chia sẻ quá nhiều thông tin cá nhân hay dựa dẫm cảm xúc vào chatbot như một nơi tìm kiếm sự đồng cảm.

Lời khuyên quan trọng nhất khi rơi vào khủng hoảng tinh thần là ngưng sử dụng chatbot. Việc này có thể gây cảm giác trống trải ban đầu như một cuộc chia tay nhưng lại rất cần thiết để cải thiện sức khỏe tâm thần, nhất là khi người dùng quay lại với các mối quan hệ ngoài đời thật và tìm đến sự hỗ trợ chuyên môn.

Tuy nhiên, nhận biết việc tương tác với chatbot đang trở thành vấn đề không phải lúc nào cũng dễ. Người đang rơi vào trạng thái hoang tưởng thường không ý thức được rằng họ đang có vấn đề.

Do đó, gia đình và bạn bè cần quan sát kỹ các dấu hiệu như thay đổi cảm xúc, rối loạn giấc ngủ, hành vi thu mình, ám ảnh với tư tưởng cực đoan hoặc dành quá nhiều thời gian nói chuyện với chatbot.

Bác sĩ Thomas Pollak tại King’s College London cho rằng, đối với những bệnh nhân có tiền sử loạn thần, việc hỏi họ có đang sử dụng AI hay không nên được đưa vào quy trình khám như một biện pháp phòng ngừa nguy cơ tái phát. Dù vậy, điều này hiện vẫn chưa được thực hiện phổ biến.

Cho đến nay, trách nhiệm bảo vệ người dùng khỏi các tác động tâm lý khi sử dụng chatbot phần lớn vẫn đặt lên vai chính người dùng. Tuy nhiên, các chuyên gia cho rằng điều này cần thay đổi.

Vấn đề lớn nhất hiện nay là thiếu dữ liệu chính thức. Phần lớn thông tin về hiện tượng “AI loạn thần” đến từ báo chí hoặc chia sẻ cá nhân, khiến việc đo lường, ngăn ngừa hay xây dựng giải pháp trở nên rất khó khăn.

“Chờ có bằng chứng hoàn hảo rồi mới hành động là sai lầm”, bác sĩ Hamilton Morrin nhận định. Ông kêu gọi các công ty AI hợp tác chặt chẽ hơn với chuyên gia sức khỏe tâm thần cũng như những người từng có tiền sử bệnh lý để phát triển các công cụ an toàn hơn.

Theo các chuyên gia, ở mức tối thiểu, chatbot cần được thiết kế để nhận diện người dùng dễ tổn thương và đánh dấu những phản hồi có thể vô tình củng cố ảo tưởng sai lệch.

Một số công ty đã bắt đầu có động thái điều chỉnh. Tháng 7 vừa qua, OpenAI đã thuê bác sĩ tâm thần để đánh giá ảnh hưởng của ChatGPT đến sức khỏe tâm thần. Sau đó, công ty thừa nhận chatbot của họ từng không nhận ra các dấu hiệu phụ thuộc cảm xúc hay nhận thức sai lệch ở người dùng.

4276.jpg
OpenAI đã thừa nhận chatbot của họ từng không nhận ra các dấu hiệu phụ thuộc cảm xúc hay nhận thức sai lệch ở người dùng

OpenAI đã cam kết sẽ đưa ra lời nhắc nghỉ ngơi trong các cuộc trò chuyện kéo dài, phát triển công cụ nhận diện căng thẳng và điều chỉnh phản hồi trong các tình huống cá nhân rủi ro cao.

Tuy nhiên, nhiều chuyên gia cho rằng những thay đổi này là chưa đủ. Ricardo Twumasi, giảng viên tại King’s College London đề xuất cần tích hợp các biện pháp bảo vệ ngay trong AI trước khi phát hành như giám sát thời gian thực hoặc thiết lập “cam kết an toàn số” để người dùng tự giới hạn sử dụng khi còn khỏe mạnh.

Bác sĩ Joe Pierre tại Đại học California, San Francisco cho rằng các công ty cần chủ động nghiên cứu cụ thể ai là nhóm dễ bị ảnh hưởng, vì sao. Từ đó, xây dựng cảnh báo cũng như định hướng tương tác an toàn hơn.

Tiến sĩ Nina Vasan bổ sung thêm, các công ty không nên chỉ tập trung vào rủi ro tự gây hại mà cần kiểm tra khả năng phản ứng của AI trước nhiều tình trạng tâm lý khác như hoang tưởng, hưng cảm hay rối loạn ám ảnh cưỡng chế.

Dù khung pháp lý chính thức vẫn còn bỏ ngỏ, các chuyên gia kêu gọi các công ty AI cần chủ động nâng cao tiêu chuẩn đạo đức trong thiết kế và vận hành sản phẩm.

“Chúng ta đã từng chứng kiến mạng xã hội gây tổn hại lớn đến sức khỏe tâm thần khi những cảnh báo bị phớt lờ. Chúng ta không thể lặp lại sai lầm đó thêm một lần nữa.” bác sĩ Vasan cảnh báo.

Xem thêm

Có thể bạn quan tâm

Sản phẩm thực phẩm bảo vệ sức khỏe Cancivita D3-GT

Thu hồi 2 lô Cancivita D3-GT do chứa chất lạ

Hai lô sản phẩm thực phẩm bảo vệ sức khỏe Cancivita D3-GT bị thu hồi vì chứa nhiều thành phần không phép, tiềm ẩn nguy cơ ảnh hưởng đến sức khỏe người tiêu dùng...

9 thức uống giúp đường ruột khoẻ mạnh

9 thức uống giúp đường ruột khoẻ mạnh

Không chỉ thực phẩm, mà chính những loại thức uống quen thuộc hằng ngày cũng có thể trở thành “chìa khóa” giúp cải thiện hệ tiêu hóa, tăng cường miễn dịch và nuôi dưỡng một đường ruột khỏe mạnh…

Nghiên cứu tác động của Covid-19 làm tăng tốc độ lão hóa não

Covid-19 khiến não bộ lão hóa nhanh hơn

Theo một nghiên cứu, Covid-19 không chỉ gây ra những triệu chứng hô hấp mà còn làm tăng tốc độ lão hóa não, đặc biệt ở nam giới và những nhóm người có hoàn cảnh khó khăn...

Chỉ nên ăn bao nhiêu đường một ngày là đủ?

Chỉ nên ăn bao nhiêu đường một ngày là đủ?

Đường mang lại vị ngọt hấp dẫn và là nguồn cung cấp năng lượng nhanh chóng. Tuy nhiên, ngày càng nhiều người quan tâm đến chế độ ăn uống lành mạnh hơn và cân nhắc mức tiêu thụ đường hợp lý…

Cà phê hòa tan có thể ảnh hưởng xấu đến thị lực

Cà phê hòa tan có thể ảnh hưởng xấu đến thị lực

Một nghiên cứu mới cho thấy thói quen uống cà phê hòa tan kết hợp với yếu tố di truyền có thể làm gia tăng đáng kể nguy cơ mắc thoái hóa hoàng điểm thể khô - nguyên nhân hàng đầu gây mất thị lực ở người lớn tuổi…