![]() |
Chuyên gia cảnh báo mối nguy hiểm khi con người phụ thuộc vào ChatGPT
1 Attachment(s)
Sự phụ thuộc cảm xúc vào ChatGPT hay các ứng dụng AI khác đang tạo ra mối nguy cơ rất lớn, theo cảnh báo của nhà tâm lư học lâm sàng Paul Losoff.
Nhiều người Mỹ đang dùng các ứng dụng trí tuệ nhân tạo (AI) như ChatGPT để yêu cầu hỗ trợ và tư vấn về mặt cảm xúc. Trên thực tế, một số người "đầu tư" quá nhiều vào quá tŕnh tương tác qua lại với AI, đến mức họ h́nh thành mối quan hệ với các chatbot này. Nhà tâm lư học lâm sàng Paul Losoff nói với tờ DailyMail rằng, sự phụ thuộc vào AI đang tạo nên rủi ro rất lớn; ông cảnh báo không nên tiếp cận quá gần ChatGPT: "Con người có thể trở nên phụ thuộc và dựa dẫm vào AI quá nhiều đến nỗi không c̣n t́m kiếm sự tương tác giữa con người nữa". https://www.intermati.com/forum/atta...1&d=1745106489 Tiến sĩ tâm lư học lâm sàng Paul Losoff cảnh báo không nên phụ thuộc về mặt cảm xúc vào AI. Tại sao con người lại t́m đến AI để được hỗ trợ về mặt cảm xúc? Tiến sỹ Losoff cho biết: "Tôi nghĩ AI có thể cung cấp một lượng lớn sự hỗ trợ hữu ích giúp con người hiểu rơ hơn về những trải nghiệm cảm xúc của ḿnh, đây là lĩnh vực tư duy. Tuy nhiên, khi ai đó bắt đầu mong đợi sự kết nối cảm xúc với một tác nhân không phải con người, điều đó đi ngược lại nhu cầu cơ bản của chúng ta về kết nối chân thực giữa con người. Đó là một phương pháp chưa hoàn thiện để thỏa măn nhu cầu kết nối". Ông giải thích rằng, điều này có thể gây bất lợi đặc biệt cho những người đang phải vật lộn với chứng lo âu hoặc trầm cảm. Bằng việc lạm dụng AI, họ có thể làm t́nh trạng của ḿnh trở nên tồi tệ hơn và gặp phải các triệu chứng về nhận thức như bi quan măn tính, suy nghĩ méo mó hoặc suy nghĩ mơ hồ; và những điều đó có thể tạo ra nhiều vấn đề hơn nữa. Những triệu chứng nhận thức này dẫn đến nguy cơ con người hiểu sai phản hồi của AI và gặp hậu quả tai hại. Với những người đang gặp khủng hoảng, điều này chỉ làm trầm trọng thêm vấn đề. TS Losoff cho biết, AI luôn có nguy cơ mắc lỗi và đưa ra phản hồi có hại trong những thời điểm quan trọng liên quan đến sức khỏe tâm thần. "Những người mắc chứng rối loạn tư duy cấp tính như bệnh tâm thần phân liệt cũng có nguy cơ rất lớn khi họ dễ hiểu sai phản hồi của AI", ông nói. Nhưng thay v́ hoàn toàn bác bỏ AI, TS Losoff nói rằng điều quan trọng là phải cho trẻ nhỏ tiếp xúc với AI sớm hơn: "Tôi tin rằng nên có các khóa học về AI dành cho các trường trung học cơ sở và trung học phổ thông, đưa vào chương tŕnh giảng dạy để trẻ em có thể lớn lên và học cách sử dụng AI một cách có trách nhiệm. Các chương tŕnh SEL (học tập xă hội và cảm xúc) trong trường học rất quan trọng để trẻ học được các kỹ năng lành mạnh, hiệu quả để quản lư cảm xúc". Ngoài ra, ông cho rằng phải ngay lập tức quản lư các phần mềm AI hiện tại. "AI vẫn c̣n hoang dă, không được quản lư và không có cơ chế nào để ngăn ngừa tác hại. Chắc chắn AI có thể hữu ích ở một 'liều lượng' nhất định nhưng phương pháp điều trị bán phần này vẫn chưa được nghiên cứu nghiêm ngặt; nó không khác ǵ các loại dược phẩm phải trải qua thử nghiệm mở rộng để được FDA chấp thuận", chuyên gia chia sẻ. VietBF@sưu tập |
All times are GMT. The time now is 10:07. |
VietBF - Vietnamese Best Forum Copyright ©2006 - 2025
User Alert System provided by
Advanced User Tagging (Pro) -
vBulletin Mods & Addons Copyright © 2025 DragonByte Technologies Ltd.