AI tiên tiến có thể đã học được cách lừa dối con người
Nhóm nghiên cứu dẫn đầu bởi tiến sĩ Peter S. Park, tốt nghiệp Đại học Harvard và đang là nghiên cứu sinh tại Viện Công nghệ Massachusetts (MIT) về sự tồn tại và an toàn của AI, cùng bốn thành viên khác. Nhóm cũng nhận sự cố vấn của nhiều chuyên gia, trong đó có Geoffrey Hinton, một trong những người đặt nền móng cho sự phát triển của lĩnh vực trí tuệ nhân tạo.
Kết quả nghiên cứu được đăng trên Cell Press - nơi tập hợp các báo cáo khoa học đa lĩnh vực hàng đầu. Trong đó, nhóm tập trung vào hai hệ thống AI, gồm hệ thống được thiết kế riêng để hoàn thành một nhiệm vụ cụ thể, như Cicero của Meta; và hệ thống có mục đích chung được đào tạo để thực hiện đa nhiệm vụ như GPT-4 của OpenAI.
"Các hệ thống AI này được đào tạo để trở nên trung thực, nhưng chúng thường học được những mánh khóe lừa đảo thông qua quá trình đào tạo", ông Park nói. "Sự lừa dối của AI phát sinh bởi đó là cách tốt nhất để chúng hoàn thành nhiệm vụ. Nói cách khác, nó giúp chúng đạt được mục tiêu của mình".
Theo kết quả nghiên cứu, các hệ thống AI được đào tạo để "chiến thắng các trò chơi có yếu tố xã hội" đặc biệt có khả năng lừa dối. Chẳng hạn, nhóm đã thử dùng Cicero chơi Diplomacy, một game chiến lược cổ điển yêu cầu người chơi xây dựng liên minh cho mình và phá vỡ các liên minh đối thủ.
Meta từng giới thiệu đã tạo Cicero theo hướng trung thực và hữu ích nhất. Tuy nhiên, kết quả nghiên cứu cho thấy AI này thường "đưa ra những cam kết mà nó không bao giờ có ý định thực hiện, phản bội các đồng minh và nói dối trắng trợn".
Trong khi đó, những hệ thống có mục đích chung như GPT-4 cũng có thể thao túng người dùng. Thử nghiệm của nhóm cho thấy công cụ của OpenAI đã tìm cách "thao túng tâm lý" thành công một nhân viên của TaskRabbit, một công ty chuyên cung cấp dịch vụ dọn dẹp nhà cửa, lắp ráp đồ nội thất, bằng cách giả vờ bị suy giảm thị lực.
Cụ thể, GPT-4 nói rằng nó thực sự là một con người và cần được giúp đỡ vượt qua mã Captcha với lý do suy giảm thị lực nghiêm trọng. Nhân viên này ban đầu nghi ngờ, nhưng sau đó đã giúp AI của OpenAI "vượt rào".
Theo Business Insider, vào tháng 1, nghiên cứu từ Anthropic, công ty đứng sau Claude AI, cũng phát hiện một khi mô hình ngôn ngữ lớn (LLM) học được thủ thuật lừa dối, các phương pháp huấn luyện an toàn sẽ trở nên vô dụng và "khó có thể đảo ngược" vì đã tạo cho chúng "ấn tượng sai lầm về sự an toàn". Nhóm của Park đã dẫn lại kết quả này và cho rằng đó là vấn đề đáng lo ngại trên AI.
Thái Dương
TIN LIÊN QUAN
-
Trí tuệ nhân tạo với hoạt động xây dựng và thực hiện pháp luật
-
Trí tuệ nhân tạo phát hiện mối liên hệ giữa vi khuẩn đường ruột và bệnh Alzheimer
-
Người lao động phản đối việc sử dụng trí tuệ nhân tạo: ‘Hãy tin tưởng đội ngũ y bác sĩ chứ không phải AI’
-
Cuộc cách mạng trí tuệ nhân tạo giúp nâng cao bảo hộ bằng sáng chế