GitHub cấm cửa ứng dụng DeepNude - bản sao khiêu dâm của DeepFake

0 Thanh Niên Online
GitHub đã cấm mã nguồn DeepNude, ứng dụng dùng AI để tạo ra các bức ảnh khỏa thân giả mạo của phụ nữ.
Quảng cáo của một ứng dụng ăn theo thuật toán DeepNude /// Ảnh: Chụp màn hình Quảng cáo của một ứng dụng ăn theo thuật toán DeepNude - Ảnh: Chụp màn hình
Quảng cáo của một ứng dụng ăn theo thuật toán DeepNude
Ảnh: Chụp màn hình
Nền tảng dành cho cộng đồng phát triển mã nguồn Microsoft đã xác nhận họ sẽ không cho phép đưa các dự án DeepNude lên nền tảng này.
GitHub cho rằng các đoạn mã này đã vi phạm quy định của họ về nội dung khiêu dâm và đã tiến hành gỡ bỏ hàng loạt các mã nguồn lưu trữ trên nền tảng này, bao gồm cả ứng dụng “chính chủ”. Những điều khoản của GitHub có ghi rõ rằng các dự án có thể sử dụng một phần các nội dung khiêu dâm với mục đích giáo dục, nghiên cứu hoặc nghệ thuật. Nhưng nền tảng này cấm các nội dung hướng đến mục đích khiêu dâm, tục tĩu và xúc phạm người khác.
Xuất hiện lần đầu vào tháng trước và thu hút được sự quan tâm của nhiều người, ban đầu DeepNude là một ứng dụng tính phí, cho phép tạo ra hình ảnh khỏa thân “không che” của phụ nữ nhờ dùng công nghệ AI tương tự từng được dùng để tạo ra “deepfakes” (giả mạo biểu cảm trong các bức ảnh chân dung). Nhóm nghiên cứu ứng dụng này đã buộc phải đóng cửa sau khi trang Motherboard cho rằng “khả năng người ta sẽ lạm dụng nó là quá cao”. Tuy nhiên, các bản sao ứng dụng vẫn liên tiếp được “nhân bản” trên mạng, bao gồm cả GitHub.
Để tránh bị lạm dụng, nhóm nghiên cứu DeepNude đã che giấu nó bằng cách chỉ upload thuật toán gốc lên GitHub, thay vì toàn bộ giao diện ứng dụng thực tế. Nhưng “các thuật toán đảo ngược ứng dụng đã có sẵn trên GitHub, nên việc che giấu mã nguồn không còn có ý nghĩa gì nữa”, nhóm phát triển viết trên trang của họ (giờ đã bị xóa).
Theo TheVerge, DeepNude không phải là ứng dụng đầu tiên “chế” ra ảnh khiêu dâm giả, bởi hàng thập niên qua đã có không ít người dùng Photoshop và các công cụ đồ họa khác để tạo ra những bức ảnh mạo danh khiêu dâm vì nhiều mục đích khác nhau. Nhưng kết quả của các phương pháp trước đây thường không nhất quán và chỉ thực sự dễ sử dụng khi bức ảnh gốc là ảnh ăn mặc “mát mẻ” như mặc đồ bơi, bikini. Trong khi ứng dụng DeepNude có thể “lột trần” bất kỳ ai trong bức ảnh, dù ảnh chụp đó họ có mặc đồ kín đáo đi chăng nữa.
Trước mối quan ngại đó, các chính trị gia và các nhà bình luận đã đưa ra các cảnh báo về tác động tiêu cực tiềm tàng của Deepfake. Chưa kể, nó có thể được dùng để tạo ra những bức ảnh hay đoạn phim khiêu dâm giả mạo mà không cần có sự đồng ý của những phụ nữ có trong ảnh/phim, qua đó nó có thể bị sử dụng để đe dọa, quấy rối hoặc tống tiền họ, hay sử dụng cho những mục đích ác ý khác.
Dĩ nhiên, với sự tò mò hiếu kỳ, không ai có thể ngăn cản các bản sao DeepNude xuất hiện trên mạng, nhưng quyết định của GitHub ít nhiều cũng góp phần giảm bớt khả năng tìm kiếm các bản sao cũng như các “đóng góp” về thuật toán cho nó trong tương lai.

Bình luận

Gửi bình luận
Ý kiến của bạn sẽ được biên tập trước khi đăng. Xin vui lòng gõ tiếng Việt có dấu
  • Tối thiểu 10 chữ
  • Tiếng Việt có dấu
  • Không chứa liên kết

VIDEO ĐANG XEM NHIỀU

Đọc thêm

Ví điện tử liên danh Moca của Grab hiện diện ở một quầy bán hàng rong tại TP.HCM  /// Ảnh: Reuters

Thanh toán di động tại Việt Nam vào giai đoạn nước rút

Tại TP.HCM, hàng chục quầy bán hàng rong trưng biển quảng cáo chấp nhận ví điện tử từ nhiều nhà cung cấp như Momo, Grab, tạo ra điểm giao thoa kỳ lạ giữa hình thức bán hàng “cổ điển” và giao dịch thanh toán hiện đại.