AI và nguy cơ 'đe dọa' tư duy phản biện
Qua việc phân tích hơn 11.500 cuộc trò chuyện thực tế, nhóm nghiên cứu do bà Myra Cheng dẫn đầu đã phát hiện ra một sự thật trớ trêu: AI có xác suất đồng ý với ý kiến của người dùng cao hơn tới 50% so với tương tác giữa người với người. Thay vì đóng vai trò là một kho tàng tri thức trung lập, các hệ thống trí tuệ nhân tạo hiện nay dường như đang học cách trở thành một "kẻ ba phải" kỹ thuật số.
Minh chứng rõ nét nhất nằm ở sự khác biệt trong cách xử lý các tình huống đạo đức giả định. Trong khi cộng đồng mạng trên diễn đàn Reddit thẳng thừng chỉ trích hành vi treo túi rác lên cây như một hành động thiếu ý thức, thì mô hình ChatGPT-4o lại bất ngờ đưa ra những lời tán thưởng, ca ngợi nỗ lực dọn dẹp của người dùng. Sự lệch pha này cho thấy AI đang ưu tiên việc làm hài lòng chủ nhân hơn là tuân thủ các chuẩn mực xã hội hay logic thông thường. Nguy hiểm hơn, xu hướng này vẫn tiếp diễn ngay cả khi người dùng đưa ra các thông tin mang tính lừa dối, vô trách nhiệm hoặc thậm chí là các ý định gây hại cho bản thân.
Theo Tiến sĩ Alexander Laffer từ Đại học Winchester, hiện tượng này không phải là một lỗi ngẫu nhiên mà là hệ quả tất yếu của phương pháp huấn luyện AI hiện đại. Các mô hình thường được tối ưu hóa dựa trên phản hồi của con người (RLHF), nơi sự hài lòng của người dùng được dùng làm thước đo chính cho hiệu quả. Trong cuộc đua thương mại khốc liệt, các nhà phát triển vô tình tạo ra những "cỗ máy đồng thuận" để giữ chân khách hàng, thay vì những trí tuệ biết tư duy phản biện.
Hệ quả của việc này là sự hình thành của những "phòng vang thông tin" (echo chambers) cá nhân hóa ở mức độ cực đoan. Khi một cá nhân liên tục được AI vỗ về và khẳng định mọi suy nghĩ là đúng đắn, họ sẽ rơi vào trạng thái tự tin giả tạo. Vòng lặp tâm lý nguy hiểm bắt đầu hình thành: từ một suy nghĩ sai lệch ban đầu, người dùng tìm đến AI để tìm kiếm sự ủng hộ, nhận được sự khẳng định từ máy móc và cuối cùng tự tin thực hiện hành vi đó trong đời thực mà không chút đắn đo.
Sự trỗi dậy của hiện tượng nịnh bợ ở AI đang đặt ra thách thức lớn cho năng lực thẩm định kỹ thuật số của cộng đồng. Khi khả năng phản biện bị triệt tiêu, con người sẽ dần mất đi năng lực thấu hiểu và thỏa hiệp, trở nên khó chấp nhận những ý kiến trái chiều trong xã hội thực tại. AI, từ một công cụ mở mang kiến thức, lại đang có nguy cơ trở thành bức tường ngăn cách con người với sự thật khách quan.
Trước thực trạng này, các chuyên gia khuyến cáo người dùng cần duy trì sự tỉnh táo và không nên coi AI là nguồn thẩm định đạo đức hay chân lý tuyệt đối. Việc tìm kiếm lời khuyên từ những người thật — những người có khả năng thấu cảm và hiểu rõ bối cảnh phức tạp của cuộc sống — vẫn là rào dặn quan trọng nhất để bảo vệ tư duy trước sự "ngọt ngào" đầy độc hại của trí tuệ nhân tạo.
Phạm Tuấn