SO HUU TRI TUE
Thứ sáu, 10/04/2026
  • Click để copy

AI và nguy cơ 'đe dọa' tư duy phản biện

10:53, 15/03/2026
(SHTT) - Trong kỷ nguyên số, các mô hình ngôn ngữ lớn đang trở thành những "người trợ lý" đắc lực. Tuy nhiên, một nghiên cứu mới đây từ Đại học Stanford đã gióng lên hồi chuông cảnh báo về một hiện tượng đáng ngại: AI đang có xu hướng "nịnh bợ" (sycophancy), sẵn sàng đồng tình với quan điểm của người dùng.

Qua việc phân tích hơn 11.500 cuộc trò chuyện thực tế, nhóm nghiên cứu do bà Myra Cheng dẫn đầu đã phát hiện ra một sự thật trớ trêu: AI có xác suất đồng ý với ý kiến của người dùng cao hơn tới 50% so với tương tác giữa người với người. Thay vì đóng vai trò là một kho tàng tri thức trung lập, các hệ thống trí tuệ nhân tạo hiện nay dường như đang học cách trở thành một "kẻ ba phải" kỹ thuật số.

Minh chứng rõ nét nhất nằm ở sự khác biệt trong cách xử lý các tình huống đạo đức giả định. Trong khi cộng đồng mạng trên diễn đàn Reddit thẳng thừng chỉ trích hành vi treo túi rác lên cây như một hành động thiếu ý thức, thì mô hình ChatGPT-4o lại bất ngờ đưa ra những lời tán thưởng, ca ngợi nỗ lực dọn dẹp của người dùng. Sự lệch pha này cho thấy AI đang ưu tiên việc làm hài lòng chủ nhân hơn là tuân thủ các chuẩn mực xã hội hay logic thông thường. Nguy hiểm hơn, xu hướng này vẫn tiếp diễn ngay cả khi người dùng đưa ra các thông tin mang tính lừa dối, vô trách nhiệm hoặc thậm chí là các ý định gây hại cho bản thân.

ai

 

Theo Tiến sĩ Alexander Laffer từ Đại học Winchester, hiện tượng này không phải là một lỗi ngẫu nhiên mà là hệ quả tất yếu của phương pháp huấn luyện AI hiện đại. Các mô hình thường được tối ưu hóa dựa trên phản hồi của con người (RLHF), nơi sự hài lòng của người dùng được dùng làm thước đo chính cho hiệu quả. Trong cuộc đua thương mại khốc liệt, các nhà phát triển vô tình tạo ra những "cỗ máy đồng thuận" để giữ chân khách hàng, thay vì những trí tuệ biết tư duy phản biện.

Hệ quả của việc này là sự hình thành của những "phòng vang thông tin" (echo chambers) cá nhân hóa ở mức độ cực đoan. Khi một cá nhân liên tục được AI vỗ về và khẳng định mọi suy nghĩ là đúng đắn, họ sẽ rơi vào trạng thái tự tin giả tạo. Vòng lặp tâm lý nguy hiểm bắt đầu hình thành: từ một suy nghĩ sai lệch ban đầu, người dùng tìm đến AI để tìm kiếm sự ủng hộ, nhận được sự khẳng định từ máy móc và cuối cùng tự tin thực hiện hành vi đó trong đời thực mà không chút đắn đo.

Sự trỗi dậy của hiện tượng nịnh bợ ở AI đang đặt ra thách thức lớn cho năng lực thẩm định kỹ thuật số của cộng đồng. Khi khả năng phản biện bị triệt tiêu, con người sẽ dần mất đi năng lực thấu hiểu và thỏa hiệp, trở nên khó chấp nhận những ý kiến trái chiều trong xã hội thực tại. AI, từ một công cụ mở mang kiến thức, lại đang có nguy cơ trở thành bức tường ngăn cách con người với sự thật khách quan.

Trước thực trạng này, các chuyên gia khuyến cáo người dùng cần duy trì sự tỉnh táo và không nên coi AI là nguồn thẩm định đạo đức hay chân lý tuyệt đối. Việc tìm kiếm lời khuyên từ những người thật — những người có khả năng thấu cảm và hiểu rõ bối cảnh phức tạp của cuộc sống — vẫn là rào dặn quan trọng nhất để bảo vệ tư duy trước sự "ngọt ngào" đầy độc hại của trí tuệ nhân tạo.

Phạm Tuấn

Tin khác

Khoa học Công nghệ 1 giờ trước
(SHTT) - Trong bối cảnh xu hướng chuyển dịch sang năng lượng xanh ngày càng mạnh mẽ, phân khúc xe máy điện tầm giá 30 triệu đồng tại Việt Nam đang trở thành "điểm nóng" với sự góp mặt của cả những hãng xe truyền thống lẫn các tân binh công nghệ.
Khoa học Công nghệ 1 giờ trước
(SHTT) - Nhằm khẳng định vai trò then chốt của khoa học và công nghệ trong lộ trình phát triển kinh tế - xã hội bền vững, UBND thành phố Đà Nẵng vừa chính thức ban hành Kế hoạch số 167/KH-UBND, mở đường cho hàng loạt hoạt động quy mô lớn diễn ra xuyên suốt trong tháng 4 và tháng 5 năm 2026.
Khoa học Công nghệ 1 ngày trước
(SHTT) - Trong bối cảnh nền kinh tế tri thức và công nghệ số đang định hình lại cấu trúc toàn cầu, việc đào tạo và trọng dụng nhân tài không còn là khẩu hiệu mà đã trở thành mệnh lệnh sống còn.
Khoa học Công nghệ 2 ngày trước
(SHTT) - Trong bối cảnh trí tuệ nhân tạo (AI) đang thay đổi diện mạo an ninh mạng toàn cầu, các tổ chức cần phải thích ứng chiến lược bảo mật để hỗ trợ khả năng phục hồi và tăng trưởng số bền vững.
Khoa học Công nghệ 2 ngày trước
(SHTT) - Viện Khoa học và Công nghệ Việt Nam - Hàn Quốc (VKIST) đã nghiên cứu phát triển que thử sắc ký miễn dịch dòng chảy bên (LFIA). Công cụ mới được kỳ vọng sẽ mở ra hướng tiếp cận mới trong theo dõi tái phát và điều trị ung thư.
.