Cảnh báo hình thức đánh cắp dữ liệu khuôn mặt qua cuộc gọi video

(SHTT) - Lợi dụng công nghệ trí tuệ nhân tạo Deepfake, các đối tượng lừa đảo sẽ làm các video giả mạo với mục đích lấy dữ liệu khuôn mặt của khách hàng để dùng những dữ liệu này mở tài khoản tại ngân hàng.

Ngân hàng TMCP Hàng hải Việt Nam (MSB) vừa đưa ra khuyến cáo khách hàng về thủ đoạn lừa đảo sử dụng công nghệ Deepfake - công nghệ ứng dụng trí tuệ nhân tạo (AI) làm giả cuộc gọi video, với mục đích lấy dữ liệu khuôn mặt của khách hàng để dùng những dữ liệu này mở tài khoản tại ngân hàng.

 

Theo đó, Ngân hàng chỉ ra thủ đoạn lừa đảo đối tượng thường sử dụng như sau:

Đối tượng lừa đảo sử dụng công nghệ Deepfake giả danh hình ảnh và giọng nói để giả mạo cán bộ cơ quan Nhà nước (công an, cơ quan thuế, tòa án…) hoặc người quen của nạn nhân sau đó gọi video call với nạn nhân. Khi gọi video call, đối tượng lừa đảo bằng các thủ đoạn khác nhau sẽ yêu cầu nạn nhân nhìn thẳng, nhìn sang trái, nhìn sang phải, nhìn lên, nhìn xuống. Quá trình gọi, đối tượng sẽ ghi lại video và sử dụng để mở tài khoản online (eKYC) tại các tổ chức tài chính - ngân hàng. Trong một số trường hợp, đối tượng lừa đảo yêu cầu nạn nhân cung cấp thêm các thông tin cá nhân như số CMT/CCCD, số điện thoại, địa chỉ…

“Việc khách hàng vô tình thực hiện theo các yêu cầu đã gián tiếp giúp cho đối tượng có dữ liệu để đăng ký mở tài khoản tại các tổ chức tài chính - ngân hàng thành công. Cuối cùng đối tượng sẽ sử dụng các tài khoản này với mục đích xấu” – Ngân hàng MSB cho biết.

Nhằm ngăn chặn nguy cơ bị lừa đảo và bảo vệ quyền lợi của khách hàng, Ngân hàng khuyến cáo khách hàng cần nâng cao cảnh giác với các cuộc gọi giới thiệu là nhân viên của cơ quan nhà nước hoặc người quen đặc biệt là các yêu cầu thực hiện các hành động lạ như: nhìn thẳng, nhìn sang trái, nhìn lên, nhìn xuống. Đồng thời, không cung cấp thông tin cá nhân như: số điện thoại, số CMT/CCCD, địa chỉ cho bất kỳ ai không quen biết hoặc chưa rõ mục đích sử dụng.

Deepfake là sự kết hợp giữa deep learning (học sâu) và fake (giả). Công nghệ này sử dụng AI phân tích cử chỉ, nét mặt và giọng nói của một người, từ đó tái tạo và chỉnh sửa để cho ra đời ảnh hoặc video trông như thật.

Deepfake hình ảnh, giọng nói thường được kẻ xấu lợi dụng để tạo sự tin tưởng với nạn nhân. Tuy nhiên, các video này có điểm chung là chất lượng hình ảnh thấp, rung mờ, thời lượng ngắn. Ngoài ra, người dùng cũng có thể nhận biết video lừa đảo làm bới deepfake thông qua một số dấu hiệu như:

Cử chỉ mắt không tự nhiên: Công nghệ hiện tại chưa bắt chước được cách chớp mắt tự nhiên của con người. Khi giao tiếp, ánh mắt thường thay đổi theo chuyển động của đối phương, nhưng video deepfake không làm được.

Màu da và ánh sáng bất thường: Nếu thấy màu da của người gọi thay đổi khi chuyển từ khung hình này sang khung hình khác, đó có thể là một sản phẩm của deepfake. Nếu nghi ngờ, người dùng hãy lưu ý đến những vệt sáng lạ, bóng đổ và những vệt màu bất thường trên khung hình.

Chuyển động kỳ lạ: Cuộc gọi deepfake thường có chất lượng không tốt, thiếu mượt mà, dễ để lộ dấu vết khi quay đầu, nghiêng sang một bên, khung hình bị giật.

Khuôn mặt thiếu cân đối: Nếu thấy khuôn mặt không thể hiện nhiều cảm xúc, chi tiết mắt, mũi không tương đồng, mỗi cái hướng về một bên, đó cũng có thể là một video deepfake.

Khẩu hình: Deepfake thường ghép video và âm thanh từ hai tệp riêng biệt nên khẩu hình không khớp.Ngoài ra, giọng nói từ robot hoặc phần mềm thường có tiếng ồn kỹ thuật số và thiếu âm thanh của môi trường tự nhiên.

Thời lượng: Cuộc gọi deepfake thường diễn ra rất nhanh. Kẻ xấu thường gọi 5-7 giây rồi tắt với lý do sóng yếu, hết tiền. Khi nạn nhân gọi lại thường không liên lạc được hoặc chỉ nói những câu cũ.

Khánh An