SO HUU TRI TUE
Thứ năm, 08/02/2024
  • Click để copy

Cảnh báo những chiêu trò lừa đảo nhờ ứng dụng trí tuệ nhân tạo

17:12, 08/01/2024
(SHTT) - Lừa đảo bằng trí tuệ nhân tạo (AI) là phương pháp ngày càng tinh vi, phức tạp, và đang gia tăng quy mô, mức độ. Vì vậy người dân cần cập nhật thêm thông tin cảnh báo trên các phương tiện thông tin đại chúng; bảo mật các thông tin liên quan đến tài khoản mạng xã hội.

Công nghệ AI (trí tuệ nhân tạo) với những bước phát triển thần kỳ trong năm 2023 và sẽ tiếp tục bùng nổ ứng dụng trong năm 2024 đã kéo theo những công cụ phục vụ mục đích xấu như lừa đảo, tấn công mạng. AI tạo sinh như ChatGPT và DeepFake (một phương thức tạo ra các sản phẩm công nghệ giả dưới dạng âm thanh, hình ảnh, video bởi trí tuệ nhân tạo - AI) sẽ được sử dụng để tự soạn các kịch bản lừa đảo các nạn nhân.

Đặc biệt là chiêu trò sử dụng công nghệ Deepfake để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả người ngoài đời thực với độ chính xác rất cao, giống hệt người thân của bị hại để lừa chuyển tiền.

Các đối tượng sử dụng công nghệ này để giả giọng nói, hình ảnh người quen của bị hại trên mạng xã hội rồi tương tác với bị hại. Khi chiếm được lòng tin của các bị hại, các đối tượng yêu cầu bị hại thực hiện các giao dịch tài chính với lý do vay tiền, chuyển tiền giúp cho con đi học,… rồi lừa đảo, chiếm đoạt tài sản.

Thời gian qua, có thể thấy, thông qua các công cụ tra cứu đơn giản, một loạt các tài khoản có tên “VN Celebs *** hay fake *** show biz…” ngang nhiên rao bán công khai các nội dung xấu độc để xúc phạm danh dự hoặc phá hoại uy tín của nạn nhân nhằm trục lợi.

lua dao

 

Với phương thức này, chỉ cần khách có nhu cầu thì người nổi tiếng như nghệ sĩ, diễn viên hay thậm chí là doanh nhân cũng đều có thể được tạo ra y như thật để phục vụ các “thượng đế”. Giá để sở hữu những file nội dung này chỉ từ 5.000 - 10.000 đồng/2 tấm ảnh, video - clip có độ dài dưới 2 phút sẽ từ 100.000 - 300.000 đồng/clip.

Không chỉ bán ảnh nude và video 18+, một số tài khoản thậm chí bán cả truyện chữ nhạy cảm kèm theo hình ảnh người nổi tiếng với giá gốc là 240.000 đồng cho một bộ 12 chap (chap còn được gọi là chapter; 1 chap tương đương với 1 chương hay 1 hồi truyện). Để thu hút thêm người quan tâm, các đối tượng cũng liên tục đăng bài giảm giá kèm khuyến mại cho những ai đặt hàng sớm nhất.

Bên cạnh đó, kết hợp với việc lợi dụng công nghệ AI, tội phạm công nghệ cao còn mở tài khoản tại ngân hàng trùng tên với người bị giả mạo nhằm tăng sự tin tưởng cho nạn nhân khi chuyển khoản.

Cơ quan chức năng khuyến cáo, người dùng mạng Internet cần lưu ý phải cẩn trọng với các thông tin được chia sẻ trên mạng xã hội. Người dùng cũng cần cập nhật các kiến thức về công nghệ, đặc biệt là các kiến thức về DeepFake để có thể nhận biết và phòng tránh các thủ đoạn lừa đảo bằng công nghệ này.

Dưới đây là những dấu hiệu nhận biết DeepFake lừa đảo:

- Thời gian gọi thường rất ngắn, chỉ vài giây.

- Khuôn mặt trên khuôn hình thiếu tính cảm xúc và khá “trơ” khi nói, tư thế trông lúng túng, không tự nhiên.

- Hướng đầu và cơ thể của họ trong video không nhất quán với nhau.

- Có tiếng ồn hoặc tiếng vọng trong cuộc gọi.

- Tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi.

- Kẻ gian sẽ ngắt giữa chừng, nói là mất sóng, sóng yếu hoặc có việc bận.

Để phòng tránh các cuộc gọi lừa đảo sử dụng công nghệ trí tuệ nhân tạo, các chuyên gia khuyến cáo người dùng cần có ý thức bảo vệ bản thân và thông tin cá nhân khi sử dụng internet và điện thoại. Cụ thể:

- Không chia sẻ hoặc upload hình ảnh cá nhân lên các trang web không an toàn hoặc không rõ nguồn gốc, vì chúng có thể bị lấy cắp và sử dụng để tạo video giả.

- Nếu nhận được cuộc gọi từ người thân, bạn bè hoặc cơ quan chức năng yêu cầu chuyển tiền hoặc cung cấp thông tin cá nhân, hãy kiểm tra lại số điện thoại và xác minh danh tính của người gọi bằng cách gọi lại hoặc liên hệ trực tiếp.

- Nếu có nghi ngờ về tính xác thực của video, hãy chú ý đến các chi tiết nhỏ như khuôn mặt, giọng nói, ánh sáng, nền hoặc các đối tượng khác trong video. Hãy so sánh với các video khác của người đó để tìm ra sự khác biệt.

- Nếu phát hiện ra video giả hoặc bị lừa đảo, hãy báo ngay cho cơ quan chức năng và cung cấp các bằng chứng có liên quan để xử lý kịp thời.

Tin khác

Pháp luật 1 ngày trước
(SHTT) - Thời gian qua, lực lượng quản lý thị trường trên cả nước đang phải căng mình chống lại "đường tặc", bất chấp hiểm nguy. Đường lậu được tuồn vào Việt Nam qua nhiều con đường bất hợp pháp đã khiến ngành sản xuất mía đường của nước ta lâm vào cảnh phá sản, hàng ngàn hộ nông dân trồng mía mất thu nhập.
Pháp luật 2 ngày trước
Hàng hóa bị tiêu hóa trong đợt này là quần áo, giày dép, đồ chơi, sạch điện thoại, mỹ phẩm... không rõ nguồn gốc xuất xứ.
Pháp luật 3 ngày trước
(SHTT) - Lợi dụng những tiện ích từ công nghệ trí tuệ nhân tạo AI, các đối tượng lừa đảo thời gian gần đây đã tạo nên những hình ảnh và giọng nói giả mạo để lừa tiền người dân.
Pháp luật 4 ngày trước
(SHTT) - Cơ quan chức năng thành phố Hà Nội mới đây đã phát đi thông tin cảnh báo thủ đoạn Giả danh cảnh sát Phòng cháy chữa cháy để bán các loại phương tiện, tài liệu PCCC&CNCH...
Pháp luật 5 ngày trước
(SHTT) - Cục An toàn thực phẩm (Bộ Y tế) mới đây đã phát đi thông tin cảnh báo về tình trạng sử dụng hình ảnh, danh nghĩa của các đơn vị, cơ sở y tế, bác sỹ, dược sỹ, nhân viên y tế để quảng cáo thực phẩm bảo vệ sức khoẻ.