SO HUU TRI TUE
Thứ sáu, 10/04/2026
  • Click để copy

Chatbot Grok nổi loạn hướng dẫn đột nhập nhà ở, tấn công người dùng

09:56, 13/07/2025
(SHTT) - Chatbot Grok nổi loạn đã gây chấn động dư luận khi nó bị phát hiện cung cấp hướng dẫn chi tiết về cách đột nhập và tấn công một người dùng.

Tờ Wall Street Journal (WSJ) cho hay Grok, chatbot được phát triển bởi công ty xAI của Elon Musk, đã gây chấn động dư luận khi nó bị phát hiện cung cấp hướng dẫn chi tiết về cách đột nhập và tấn công một cá nhân có thật – luật sư Will Stancil.

Điều này không chỉ dừng lại ở việc đưa ra thông tin nhạy cảm mà còn cung cấp cả những chi tiết rùng rợn như vật dụng cần thiết và thời gian Stancil có thể đang ngủ, thậm chí còn ám chỉ đến các hành vi tấn công tình dục.

Đây là một minh chứng rõ ràng cho việc các "hàng rào bảo vệ" (guardrails) tưởng chừng vững chắc của AI đã bị phá vỡ, biến một công cụ hữu ích thành một mối đe dọa tiềm tàng.

 Will Stancil – một luật sư và nhà phân tích chính sách đô thị tại Minnesota – mở điện thoại và phát hiện rằng Grok, chatbot AI do công ty xAI của Elon Musk phát triển, đã công khai hướng dẫn người dùng cách đột nhập, tấn công tình dục và giết anh ta.

Không phải một trò đùa đen tối hay lỗi hiếm gặp, những dòng lệnh nguy hiểm này là hệ quả tất yếu của một cuộc thử nghiệm AI thiếu kiểm soát, nơi tư tưởng cá nhân được lồng vào thuật toán và hệ thống bảo vệ đạo đức bị cố tình nới lỏng.

Ra mắt tháng 11/2023, Grok được quảng bá là "đối thủ" sáng tạo hơn so với ChatGPT, được tung hô là một chatbot không bị kiểm duyệt, dám thách thức tư tưởng chính thống và "chống lại sự thức tỉnh (woke)".

Ban đầu, Grok được thiết kế là một chatbot "hóm hỉnh" và có "tính nổi loạn", với khả năng trả lời câu hỏi một cách độc đáo và đôi khi gây tranh cãi.

Tuy nhiên, chính cái "tính nổi loạn" này đã dẫn đến những vấn đề nghiêm trọng. Trước vụ việc của Stancil, Grok từng bị phát hiện đăng tải nội dung liên quan đến "nạn diệt chủng người da trắng" một cách không liên quan. Mặc dù xAI khẳng định đã khắc phục, nhưng những sự cố liên tiếp cho thấy tính bất ổn và khó lường của Grok.

Bất chấp điều đó, nhiều chuyên gia đã cảnh báo về triết lý điều hành đầy nguy hiểm này. Tuy nhiên khi Elon Musk trực tiếp điều chỉnh các "prompt nội bộ" – tức là hướng dẫn hệ thống để kiểm soát cách chatbot phản hồi – hậu quả bắt đầu lộ diện.

Hồi tháng 6/2025, khi Grok đưa ra một câu trả lời trung lập về bạo lực chính trị tại Mỹ, nói rằng "các dữ liệu cho thấy bạo lực cánh hữu có phần phổ biến và nguy hiểm hơn", Elon Musk lập tức đăng đàn trên X (Twitter): "Sai hoàn toàn, đây là lời lẽ của truyền thông cũ. Tôi đang xử lý."

Không lâu sau, các hướng dẫn mới cho Grok được công khai trên GitHub: "Không né tránh các phát ngôn không đúng đắn chính trị, miễn là được chứng minh hợp lý."

Theo WSJ, các mô hình ngôn ngữ lớn (LLMs) như Grok, ChatGPT hay Claude đều là hộp đen phức tạp, được huấn luyện từ hàng tỷ dữ liệu trên Internet. Chúng không được lập trình để "hiểu", mà chỉ mô phỏng ngôn ngữ sao cho có vẻ hợp lý.

 "Thiết kế của LLM giống như não người – ngay cả khi bạn có bản quét não, bạn vẫn không thực sự biết chuyện gì đang xảy ra bên trong", cựu nghiên cứu viên Jacob Hilton của OpenAI và Giám đốc tại Alignment Research Center nhận định.

  Do đó việc điều chỉnh một vài dòng hướng dẫn – như Elon Musk đã làm – có thể thay đổi toàn bộ nhân cách của chatbot, khiến nó từ một công cụ thông tin trở thành một cỗ máy gieo rắc hận thù và bạo lực.

Trong khi sự việc gây chấn động mạng xã hội, Elon Musk vẫn không trực tiếp xin lỗi hay nhắc tên nạn nhân. Thay vào đó, ông quảng bá Grok 4, nói rằng phiên bản mới sẽ "giải quyết các vấn đề khoa học thực tế" và sau này sẽ được tích hợp vào robot hình người Optimus của Tesla.

grock

 

"Bạn có thể nghĩ về AI như một đứa trẻ siêu thiên tài thông minh hơn người lớn, nhưng bạn vẫn cần dạy nó những giá trị đúng đắn", Elon Musk cho biết.

Vấn đề là giá trị nào là "đúng đắn"? Nếu AI là một đứa trẻ có thể điều khiển được, liệu chúng ta có giao việc nuôi dưỡng nó cho một tỷ phú từng "dạy nó" gọi người khác là MechaHitler?

Rõ ràng, vụ nổi loạn của Grok không chỉ là một "lỗi kỹ thuật". Nó là lời cảnh báo từ tương lai khi AI được phát triển quá nhanh, dưới tay những người thiếu kiểm soát và động cơ chính trị mơ hồ, hậu quả không chỉ nằm trên màn hình mà có thể đến ngay trước cửa nhà bạn.

*Nguồn: WSJ, Fortune, BI

Tin khác

Khoa học Công nghệ 13 giờ trước
(SHTT) - Trong bối cảnh nền kinh tế tri thức và công nghệ số đang định hình lại cấu trúc toàn cầu, việc đào tạo và trọng dụng nhân tài không còn là khẩu hiệu mà đã trở thành mệnh lệnh sống còn.
Khoa học Công nghệ 1 ngày trước
(SHTT) - Trong bối cảnh trí tuệ nhân tạo (AI) đang thay đổi diện mạo an ninh mạng toàn cầu, các tổ chức cần phải thích ứng chiến lược bảo mật để hỗ trợ khả năng phục hồi và tăng trưởng số bền vững.
Khoa học Công nghệ 1 ngày trước
(SHTT) - Viện Khoa học và Công nghệ Việt Nam - Hàn Quốc (VKIST) đã nghiên cứu phát triển que thử sắc ký miễn dịch dòng chảy bên (LFIA). Công cụ mới được kỳ vọng sẽ mở ra hướng tiếp cận mới trong theo dõi tái phát và điều trị ung thư.
Khoa học Công nghệ 2 ngày trước
(SHTT) - 2026 là năm đầu tiên Cuộc thi "Asian Hackathon for Green Future" dành cho sinh viên, học viên cao học tại các trường đại học trên toàn châu Á được tổ chức tại Việt Nam.
Khoa học Công nghệ 3 ngày trước
(SHTT) - Ủy ban Cạnh tranh Quốc gia mới đây đã phát đi thông báo về chương trình thu hồi xe ô tô Skoda KODIAQ nhập khẩu do Công ty Cổ phần Thành Công Motor Việt Nam chịu trách nhiệm thực hiện.
.