Bộ TT-TT chỉ cách nhận diện cuộc gọi lừa đảo deepfake

Thu Hằng
Thu Hằng
05/05/2023 12:46 GMT+7

Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Nó có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác.

Tại cuộc họp báo thường kỳ của Bộ TT-TT sáng nay 5.5, ông Trần Quang Hưng, Phó cục trưởng Cục An toàn thông tin (Bộ TT-TT), đã đưa ra cảnh báo về cuộc gọi lừa đảo deepfake.

Bộ TT-TT chỉ cách nhận diện cuộc gọi lừa đảo deepfake - Ảnh 1.

Ông Trần Quang Hưng, Phó cục trưởng Cục An toàn thông tin

T.H

Theo đại diện Cục An toàn thông tin, thời gian gần đây, tại Việt Nam bùng nổ các cuộc gọi lừa đảo trực tuyến deepfake. Các đối tượng sử dụng công nghệ trí tuệ nhân tạo (AI) để tạo ra những video hoặc hình ảnh giả, sao chép chân dung để tạo ra các đoạn video giả người thân, bạn bè, thực hiện các cuộc gọi lừa đảo.

Ngay sau khi nhận được thông tin phản ánh của người dân, các chuyên gia Cục An toàn thông tin đã thực hiện phân tích và đưa ra cảnh báo rộng rãi. 

"Deepfake đang là một mối đe dọa đối với sự trung thực và tin cậy của video và hình ảnh. Nó có thể được sử dụng không chỉ để lừa đảo trực tuyến mà còn cho các mục đích khác như tấn công chính trị, tạo ra những tin tức giả mạo hoặc phá hoại danh tiếng của người khác. Phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính", ông Hưng chia sẻ.

Để nhận diện cuộc gọi lừa đảo deepfake, theo đại diện Cục An toàn thông tin, bằng mắt thường vẫn có thể có một số dấu hiệu nhận biết như thời gian gọi thường rất ngắn, chỉ vài giây. Đặc biệt, khuôn mặt của họ thiếu tính cảm xúc và khá "trơ" khi nói hoặc tư thế của họ trông lúng túng, không tự nhiên, hướng đầu và cơ thể của họ trong video không nhất quán với nhau…

Ngoài ra, ông Hưng cho hay, cũng có thể thấy màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến video trông rất giả tạo và không tự nhiên. Bên cạnh đó, âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.

"Đáng chú ý, cuộc gọi lừa đảo deepfake thường xảy ra tình huống mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi. Thường kẻ gian sẽ ngắt giữa chừng, bảo là mất sóng, sóng yếu... Các yếu tố kỳ lạ như trên là báo hiệu đỏ của deepfake. Người dân nên cảnh giác và tuyệt đối bình tĩnh", ông Hưng cảnh báo.

Để ngăn chặn các cuộc gọi lừa đảo trực tuyến sử dụng AI, đại diện Cục An toàn thông tin cho biết, công nghệ thay đổi hàng ngày, cuộc chiến chống lại lừa đảo trực tuyến là trường kỳ. Chống lừa đảo trực tuyến không đơn giản về mặt công nghệ mà cần có giải pháp về mặt pháp lý. Không chỉ Việt Nam, chính phủ các nước, các doanh nghiệp công nghệ cùng phải chung tay để phát hiện, ngăn chặn.

"Trong lúc chúng ta chờ giải pháp kỹ thuật để ngăn chặn triệt để được các hình thức này thì rất cần các cơ quan truyền thông tuyên truyền rộng rãi tới người dân các dấu hiệu nhận biết, cảnh giác, nắm bắt kịp thời các thông tin và thủ đoạn để đề phòng các cuộc lừa đảo trực tuyến", ông Hưng nói.

Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.