Thứ hai 23/12/2024 14:30

Cảnh giác với thủ đoạn dùng công nghệ video Deepfake để lừa đảo

Deepfake trở thành cơn ác mộng đối với toàn xã hội, tội phạm mạng hiện đang khai thác trí tuệ nhân tạo để thực hiện các hành vi đánh cắp thông tin, lừa đảo.

Thời gian gần đây, xuất hiện một thủ đoạn lừa đảo qua mạng mới, hết sức tinh vi khiến không ít người dùng “sập bẫy”. Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè để thực hiện các cuộc gọi lừa đảo trực tuyến. Các chuyên gia khuyến cáo, thủ đoạn lừa đảo này được dự báo sẽ “nở rộ” trong thời gian tới, vì vậy người dùng cần hết sức cảnh giác để tránh bị mất tiền oan.

Cảnh giác với thủ đoạn dùng công nghệ video Deepfake để lừa đảo

Theo các chuyên gia công nghệ, trong tình huống trên đối tượng đã sử dụng công nghệ Deepfake AI, tạo ra các sản phẩm công nghệ âm thanh, hình ảnh, video làm giả người ngoài đời thực với độ chính xác tương đối cao. Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật - giả, có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.

Ông Joe Rospars, sáng lập công ty tư vấn chính trị thiên tả Blue State, nói với AFP: Tác động của AI sẽ phản ánh giá trị của những người sử dụng nó, đặc biệt là những kẻ xấu kích động sự căm ghét và nghi ngờ hoặc làm sai lệch hình ảnh, âm thanh hay video để lừa báo chí và công chúng. Ông Rospars cho rằng rất cần sự cảnh giác của các nhà báo, công ty công nghệ cũng như chính các cử tri.

Thông tin thêm về thủ đoạn này, chuyên gia bảo mật Vũ Ngọc Sơn, Giám đốc Kỹ thuật Công ty Công nghệ An ninh mạng Việt Nam (NCS) cho biết: Deepfake ban đầu được sử dụng trong các ứng dụng “hoán đổi khuôn mặt” giúp người sử dụng dễ dàng thay khuôn mặt, giọng nói của mình vào những nhân vật trong các bộ phim nổi tiếng, rồi đến trào lưu chế ảnh, lồng tiếng hài hước cho các clip từng gây sốt thời gian trước. Tuy nhiên, gần đây, những kẻ lừa đảo đã lợi dụng ứng dụng Deepfake để làm ra các clip có nội dung lừa đảo, mạo danh. Nhiều người đã bị mất tiền do tưởng là người thân, đồng nghiệp, lãnh đạo gọi cho mình yêu cầu chuyển một khoản tiền cho họ.

Cũng theo ông Sơn, do năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo nên các clip “chế” từ công nghệ này thường có dung lượng nhỏ, thời gian ngắn, chất lượng âm thanh, hình ảnh không cao. Vì thế, người dùng không nên tin các clip có thời lượng ngắn, chất lượng clip thấp, nhòe, không rõ, khuôn mặt ít biểu cảm, cơ thể ít di chuyển và giọng nói không trơn tru,…

Cục an toàn thông tin khuyến cáo người dùng công nghệ cần bình tĩnh và chủ động trong mọi tình huống

Tại Việt Nam, deepfake các đối tượng sử dụng công nghệ trí tuệ nhân tạo để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè để thực hiện các cuộc gọi lừa đảo trực tuyến. Phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính.

Cách đây khoảng 1 tuần, chị N. T. T. H. ở Thanh Trì (Hà Nội) nhận được tin nhắn của anh trai qua Faecbook đề nghị chuyển tiền với nội dung “tài khoản em còn đủ 17 triệu không, chuyển cho anh qua đây, sáng mai anh gửi lại sớm được không?”. Sau khi nhắn tin, tài khoản này còn gọi video qua Facebook cho chị với thời lượng khoảng 8-10 giây. Trong video hiện lên hình ảnh của anh trai chị H. dù hình ảnh video không thực sự sắc nét.

Tuy nhiên, sau khi yêu cầu gửi số tài khoản để chuyển tiền, thấy tên tài khoản không phải là tên anh trai mà là một người khác, chị H. cảm thấy nghi ngờ và gọi điện thoại để xác minh thì được biết anh trai chị vừa bị hack Facebook.

Không may mắn như chị H., chị T.H.L. đang làm việc thì nhận được tin nhắn của bạn thân qua Facebook với nội dung “Cho mình mượn tạm 10 triệu đồng vì đang có việc cần gấp” và yêu cầu chuyển thẳng số tiền đó vào tài khoản của người thứ 3 để “đỡ mất công phải chuyển đi chuyển lại.”

Nghi ngờ bị lừa đảo chị L. đã gọi video để kiểm chứng. Phía bên kia bắt máy, mở video cho chị L. thấy mặt nhưng hình ảnh hơi mờ. Khi nạn nhân hỏi sao hình ảnh mờ thì bên kia trả lời "đang vùng sóng yếu". Khi thấy được hình ảnh, chị L. đã tin tưởng và chuyển 10 triệu đồng vào tài khoản. Sau khi chuyển tiền, chị L. gọi điện thoại cho bạn thì mới biết mình bị lừa.

Theo dự đoán của các chuyên gia của Công ty Cổ phần BKAV, việc sử dụng công nghệ Deepfake để lừa đảo trên không gian mạng sẽ đang gia tăng và có thể nở rộ trong thời gian tới.

Các chuyên gia khuyến cáo người dùng công nghệ cần bình tĩnh và chủ động xác thực bằng cách gọi điện thoại trực tiếp, kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch. Bên cạnh đó, cũng nên tìm hiểu về công nghệ Deepfake để nhận biết được các đặc điểm nhằm phân biệt giữa video và hình ảnh thật và giả mạo.

Đức Lâm
Bài viết cùng chủ đề: Công nghệ AI

Tin cùng chuyên mục

Đường dây 500kV mạch 3: 'Chiến dịch' thần tốc, tiết kiệm và hiệu quả

Thứ trưởng Nguyễn Hoàng Long làm việc với đại diện Chương trình Phát triển Liên Hợp Quốc (UNDP)

Bộ Công Thương: Nhiều kết quả nổi bật trong xây dựng Chính phủ số

Quan điểm, giải pháp về chống lãng phí khơi thông nguồn lực phát triển

Mang Tết ấm đến với mọi nhà với Chương trình Xuân tình nguyện

Chống lãng phí: Yêu cầu cấp bách để phát triển kinh tế

Bộ Công Thương rà soát, đẩy mạnh công tác cải cách hành chính

Gỡ 'nút thắt' trong xây dựng thể chế, pháp luật ngành Công Thương để bước vào kỷ nguyên vươn mình

Ngày mai (23/12) sẽ diễn ra Diễn đàn 'Bộ Công Thương: Chống lãng phí, khơi thông nguồn lực phát triển'

Trường Đại học Điện lực đề xuất phối hợp với Nhật Bản để phát triển nguồn nhân lực điện hạt nhân

Gia Lai: Khám bệnh, cấp phát thuốc miễn phí cho hàng trăm người dân nghèo

Giải cứu người trong vụ hỏa hoạn tại TP. Hồ Chí Minh: Thêm anh hùng giữa đời thường

Gia Lai: Những món quà hạnh phúc cho người dân vùng biên dịp cuối năm

Bộ Công Thương lấy ý kiến về Dự thảo Nghị định về giấy phép hoạt động điện lực theo Luật Điện lực

Bộ đội, thanh niên Gia Lai hối hả dọn dẹp vệ sinh, làm đẹp môi trường đón Tết Ất Tỵ 2025

Lửa giận thiêu lý trí, bài học chua cay từ bi kịch cháy quán hát Hà Nội

Cuộc đua taxi bay trên thế giới và bài học kinh nghiệm cho Việt Nam

Chỉ thị của Bộ Công Thương về bảo đảm cung cấp điện trong các dịp Lễ, Tết và năm 2025

Gia Lai: Lan tỏa chương trình 'bữa sáng yêu thương' cho học sinh nghèo

Đảng bộ Bộ Công Thương tập huấn nghiệp vụ công tác tổ chức đại hội Đảng các cấp