Việc tạo ra nội dung khiêu dâm giả bằng công nghệ deepfake của bất kỳ ai trở nên kinh khủng một cách dễ dàng nhờ vào các công cụ AI tạo sinh hiện nay. Một báo cáo năm 2023 của Home Security Heroes (một công ty đánh giá các dịch vụ bảo vệ chống trộm danh tính) đã phát hiện ra rằng chỉ cần một hình ảnh rõ ràng của khuôn mặt và chưa đầy 25 phút để tạo ra một video deepfake khiêu dâm dài 60 giây — hoàn toàn miễn phí.
Thế giới đã chú ý đến thực tế mới này vào tháng Giêng khi những hình ảnh deepfake của Taylor Swift lan truyền trên các nền tảng mạng xã hội, với một hình ảnh nhận được 47 triệu lượt xem trước khi bị xóa. Những người khác trong ngành giải trí, đặc biệt là các ngôi sao K-pop Hàn Quốc, cũng đã thấy hình ảnh của mình bị lấy cắp và sử dụng sai mục đích - nhưng cũng có cả những người không nổi tiếng. Tuy nhiên, có một điều mà hầu hết các nạn nhân đều có điểm chung: Theo báo cáo năm 2023, 99% nạn nhân là phụ nữ hoặc trẻ em gái.
Tình hình nghiêm trọng này đang thúc đẩy hành động, chủ yếu từ phụ nữ, những người đã quá chán nản. Như một nhà sáng lập startup, Nadia Lee, cho biết: "Nếu công nghệ an toàn không tăng tốc cùng tốc độ phát triển của AI, thì chúng ta gặp rắc rối lớn." Mặc dù đã có nhiều nghiên cứu về các công cụ phát hiện deepfake, nhưng chúng khó có thể theo kịp với các công cụ tạo ra deepfake. Hơn nữa, các công cụ phát hiện chỉ có tác dụng nếu một nền tảng quan tâm đến việc lọc bỏ deepfake, và hầu hết deepfake khiêu dâm được lưu trữ trên các trang web chuyên về thể loại này.
"Thế hệ của chúng ta đang đối mặt với khoảnh khắc Oppenheimer của riêng mình," Lee, CEO của startup That'sMyFace có trụ sở tại Úc, cho biết. "Chúng ta đã tạo ra thứ này" - tức là AI sinh ảnh - "và chúng ta có thể sử dụng nó theo cách này hay cách khác." Công ty của Lee ban đầu cung cấp các công cụ nhận dạng hình ảnh cho các khách hàng doanh nghiệp muốn đảm bảo logo, đồng phục, hoặc sản phẩm của họ không xuất hiện trong các nội dung khiêu dâm (ví dụ, tiếp viên hàng không). Nhưng mục tiêu dài hạn của cô là tạo ra một công cụ mà bất kỳ phụ nữ nào cũng có thể sử dụng để quét toàn bộ Internet tìm các hình ảnh hoặc video deepfake có khuôn mặt của mình.
Một nhà sáng lập startup khác có lý do cá nhân để tham gia vào lĩnh vực này. Breeze Liu đã từng là nạn nhân của nội dung khiêu dâm giả mạo vào năm 2020; cô ấy đã tìm thấy hơn 800 đường dẫn dẫn đến video giả mạo. Cô ấy cảm thấy nhục nhã và kinh hoàng khi phát hiện ra rằng mình không có nhiều cách để đối phó: Cảnh sát nói rằng họ không thể làm gì được, và cô ấy phải tự mình xác định tất cả các trang web nơi video xuất hiện và kiến nghị để gỡ bỏ nó - những lời kiến nghị không phải lúc nào cũng thành công. Cô ấy nghĩ rằng phải có một cách tốt hơn. “Chúng ta cần sử dụng AI để chống lại AI,” cô ấy nói.
Liu, người đã làm việc trong lĩnh vực công nghệ, đã sáng lập Alecto AI, một startup được đặt tên theo một nữ thần báo thù trong thần thoại Hy Lạp. Ứng dụng mà cô ấy đang phát triển cho phép người dùng sử dụng nhận diện khuôn mặt để kiểm tra việc sử dụng sai hình ảnh của họ trên các nền tảng mạng xã hội lớn (cô ấy không tính đến việc hợp tác với các nền tảng khiêu dâm). Liu hy vọng sẽ hợp tác với các nền tảng mạng xã hội để ứng dụng của cô ấy có thể giúp gỡ bỏ ngay lập tức các nội dung vi phạm. “Nếu bạn không thể gỡ bỏ nội dung, bạn chỉ đang cho mọi người xem những hình ảnh gây khó chịu và tạo thêm căng thẳng,” cô ấy nói.
Liu nói rằng cô ấy hiện đang đàm phán với Meta về một chương trình thí điểm, cô ấy cho rằng sẽ mang lại lợi ích cho nền tảng này bằng cách cung cấp kiểm duyệt nội dung tự động. Tuy nhiên, với tầm nhìn xa hơn, cô ấy cho rằng công cụ này có thể trở thành một phần của “cơ sở hạ tầng cho danh tính trực tuyến”, cho phép mọi người kiểm tra cả những thứ như hồ sơ mạng xã hội giả mạo hoặc hồ sơ hẹn hò được lập ra với hình ảnh của họ.
Việc gỡ bỏ các tài liệu deepfake khỏi các nền tảng mạng xã hội đã đủ khó khăn, việc gỡ bỏ chúng khỏi các nền tảng phim khiêu dâm còn khó khăn hơn. Để có cơ hội buộc phải hành động, những người ủng hộ bảo vệ chống lại lạm dụng tình dục dựa trên hình ảnh nghĩ rằng các quy định là cần thiết, mặc dù họ khác nhau về loại quy định nào sẽ hiệu quả nhất.
Susanna Gibson đã thành lập tổ chức phi lợi nhuận MyOwn sau câu chuyện kinh hoàng về deepfake của chính mình. Cô đã tranh cử vào Hạ viện Virginia năm 2023 khi đảng Cộng hòa chính thức của Virginia gửi thư hình ảnh tình dục của cô mà đã được tạo ra và chia sẻ mà không có sự đồng ý của cô, bao gồm, cô nói, ảnh chụp màn hình của phim khiêu dâm deepfake. Sau khi cô thua cuộc bầu cử một cách sít sao, cô đã cống hiến mình để dẫn đầu cuộc chiến lập pháp ở Virginia và sau đó trên toàn quốc để chống lại lạm dụng tình dục dựa trên hình ảnh.
Chiến thắng đầu tiên của cô là một dự luật mà thống đốc Virginia đã ký vào tháng 4 để mở rộng luật “ảnh khỏa thân báo thù” hiện có của tiểu bang nhằm bao phủ nhiều loại hình ảnh hơn. “Nó vẫn chưa đạt đến mức tôi nghĩ nó nên có, nhưng đó là một bước đi đúng hướng để bảo vệ mọi người,” Gibson nói.
Mặc dù đã có một số dự luật liên bang được đề xuất để hình sự hóa rõ ràng việc phân phối hình ảnh thân mật mà không có sự đồng ý, hoặc đặc biệt là porn giả mạo, Gibson cho biết cô không có nhiều hy vọng các dự luật đó sẽ trở thành luật chính thức. Cô cho rằng có nhiều hành động hơn ở cấp tiểu bang.
“Hiện tại có 49 tiểu bang, cộng với D.C., đã có luật chống lại việc phân phối hình ảnh thân mật mà không có sự đồng ý,” Gibson nói. “Nhưng vấn đề là mỗi tiểu bang đều khác nhau, vì vậy nó là một mảnh ghép của các đạo luật. Và một số thì tốt hơn đáng kể so với những cái khác.” Gibson lưu ý rằng gần như tất cả các luật đều yêu cầu chứng minh rằng kẻ phạm tội đã hành động với ý định quấy rối hoặc đe dọa nạn nhân, điều này có thể rất khó chứng minh.
Trong số các luật khác nhau và các đề xuất cho luật mới, có sự bất đồng đáng kể về việc liệu việc phân phối porn giả mạo có nên được coi là một vấn đề hình sự hay dân sự. Và nếu là dân sự, có nghĩa là nạn nhân có quyền kiện đòi bồi thường, thì có sự bất đồng về việc nạn nhân có nên kiện các cá nhân phân phối porn giả mạo hay các nền tảng đã lưu trữ nó.
Ngoài Hoa Kỳ, có một mảnh ghép chính sách lớn hơn nữa. Ở Vương quốc Anh, Đạo luật An toàn Trực tuyến được thông qua vào năm 2023 đã hình sự hóa việc phân phối porn giả mạo, và một sửa đổi được đề xuất trong năm nay có thể sẽ hình sự hóa cả việc tạo ra nó. Liên minh Châu Âu gần đây đã thông qua một chỉ thị chống bạo lực và bạo lực mạng đối với phụ nữ, bao gồm việc phân phối porn giả mạo, nhưng các quốc gia thành viên có thời hạn đến năm 2027 để thực hiện các quy định mới. Ở Úc, một luật năm 2021 đã biến việc đăng tải hình ảnh thân mật mà không có sự đồng ý thành một tội danh dân sự, nhưng một dự luật mới được đề xuất nhằm biến nó thành tội danh hình sự và cũng nhắm đến việc giải quyết rõ ràng các hình ảnh giả mạo. Hàn Quốc có một luật trực tiếp giải quyết nội dung giả mạo, và khác với nhiều nơi khác, nó không yêu cầu chứng minh ý định xấu. Trung Quốc có một luật toàn diện hạn chế việc phân phối “nội dung tổng hợp,” nhưng chưa có bằng chứng cho thấy chính phủ sử dụng các quy định này để trấn áp porn giả mạo.
Khi phụ nữ chờ đợi hành động pháp lý, các dịch vụ từ các công ty như Alecto AI và That’sMyFace có thể lấp đầy những khoảng trống. Nhưng tình huống này gợi nhớ đến các còi báo động mà một số phụ nữ đô thị mang trong túi xách của họ để sẵn sàng gọi giúp nếu họ bị tấn công trong một con hẻm tối. Có một công cụ như vậy thì hữu ích, nhưng sẽ tốt hơn nếu xã hội của chúng ta kiên quyết chống lại sự săn mồi tình dục dưới mọi hình thức, và cố gắng đảm bảo rằng các cuộc tấn công không xảy ra ngay từ đầu.
Thế giới đã chú ý đến thực tế mới này vào tháng Giêng khi những hình ảnh deepfake của Taylor Swift lan truyền trên các nền tảng mạng xã hội, với một hình ảnh nhận được 47 triệu lượt xem trước khi bị xóa. Những người khác trong ngành giải trí, đặc biệt là các ngôi sao K-pop Hàn Quốc, cũng đã thấy hình ảnh của mình bị lấy cắp và sử dụng sai mục đích - nhưng cũng có cả những người không nổi tiếng. Tuy nhiên, có một điều mà hầu hết các nạn nhân đều có điểm chung: Theo báo cáo năm 2023, 99% nạn nhân là phụ nữ hoặc trẻ em gái.
Tình hình nghiêm trọng này đang thúc đẩy hành động, chủ yếu từ phụ nữ, những người đã quá chán nản. Như một nhà sáng lập startup, Nadia Lee, cho biết: "Nếu công nghệ an toàn không tăng tốc cùng tốc độ phát triển của AI, thì chúng ta gặp rắc rối lớn." Mặc dù đã có nhiều nghiên cứu về các công cụ phát hiện deepfake, nhưng chúng khó có thể theo kịp với các công cụ tạo ra deepfake. Hơn nữa, các công cụ phát hiện chỉ có tác dụng nếu một nền tảng quan tâm đến việc lọc bỏ deepfake, và hầu hết deepfake khiêu dâm được lưu trữ trên các trang web chuyên về thể loại này.
"Thế hệ của chúng ta đang đối mặt với khoảnh khắc Oppenheimer của riêng mình," Lee, CEO của startup That'sMyFace có trụ sở tại Úc, cho biết. "Chúng ta đã tạo ra thứ này" - tức là AI sinh ảnh - "và chúng ta có thể sử dụng nó theo cách này hay cách khác." Công ty của Lee ban đầu cung cấp các công cụ nhận dạng hình ảnh cho các khách hàng doanh nghiệp muốn đảm bảo logo, đồng phục, hoặc sản phẩm của họ không xuất hiện trong các nội dung khiêu dâm (ví dụ, tiếp viên hàng không). Nhưng mục tiêu dài hạn của cô là tạo ra một công cụ mà bất kỳ phụ nữ nào cũng có thể sử dụng để quét toàn bộ Internet tìm các hình ảnh hoặc video deepfake có khuôn mặt của mình.
—NADIA LEE, THAT’SMYFACE“Nếu công nghệ an toàn không phát triển với tốc độ tương đương như sự phát triển của AI, thì chúng ta sẽ gặp rắc rối.”
Một nhà sáng lập startup khác có lý do cá nhân để tham gia vào lĩnh vực này. Breeze Liu đã từng là nạn nhân của nội dung khiêu dâm giả mạo vào năm 2020; cô ấy đã tìm thấy hơn 800 đường dẫn dẫn đến video giả mạo. Cô ấy cảm thấy nhục nhã và kinh hoàng khi phát hiện ra rằng mình không có nhiều cách để đối phó: Cảnh sát nói rằng họ không thể làm gì được, và cô ấy phải tự mình xác định tất cả các trang web nơi video xuất hiện và kiến nghị để gỡ bỏ nó - những lời kiến nghị không phải lúc nào cũng thành công. Cô ấy nghĩ rằng phải có một cách tốt hơn. “Chúng ta cần sử dụng AI để chống lại AI,” cô ấy nói.
Liu, người đã làm việc trong lĩnh vực công nghệ, đã sáng lập Alecto AI, một startup được đặt tên theo một nữ thần báo thù trong thần thoại Hy Lạp. Ứng dụng mà cô ấy đang phát triển cho phép người dùng sử dụng nhận diện khuôn mặt để kiểm tra việc sử dụng sai hình ảnh của họ trên các nền tảng mạng xã hội lớn (cô ấy không tính đến việc hợp tác với các nền tảng khiêu dâm). Liu hy vọng sẽ hợp tác với các nền tảng mạng xã hội để ứng dụng của cô ấy có thể giúp gỡ bỏ ngay lập tức các nội dung vi phạm. “Nếu bạn không thể gỡ bỏ nội dung, bạn chỉ đang cho mọi người xem những hình ảnh gây khó chịu và tạo thêm căng thẳng,” cô ấy nói.
Liu nói rằng cô ấy hiện đang đàm phán với Meta về một chương trình thí điểm, cô ấy cho rằng sẽ mang lại lợi ích cho nền tảng này bằng cách cung cấp kiểm duyệt nội dung tự động. Tuy nhiên, với tầm nhìn xa hơn, cô ấy cho rằng công cụ này có thể trở thành một phần của “cơ sở hạ tầng cho danh tính trực tuyến”, cho phép mọi người kiểm tra cả những thứ như hồ sơ mạng xã hội giả mạo hoặc hồ sơ hẹn hò được lập ra với hình ảnh của họ.
Deepfake Porn có thể lách được các quy định pháp luật?
Việc gỡ bỏ các tài liệu deepfake khỏi các nền tảng mạng xã hội đã đủ khó khăn, việc gỡ bỏ chúng khỏi các nền tảng phim khiêu dâm còn khó khăn hơn. Để có cơ hội buộc phải hành động, những người ủng hộ bảo vệ chống lại lạm dụng tình dục dựa trên hình ảnh nghĩ rằng các quy định là cần thiết, mặc dù họ khác nhau về loại quy định nào sẽ hiệu quả nhất.
Susanna Gibson đã thành lập tổ chức phi lợi nhuận MyOwn sau câu chuyện kinh hoàng về deepfake của chính mình. Cô đã tranh cử vào Hạ viện Virginia năm 2023 khi đảng Cộng hòa chính thức của Virginia gửi thư hình ảnh tình dục của cô mà đã được tạo ra và chia sẻ mà không có sự đồng ý của cô, bao gồm, cô nói, ảnh chụp màn hình của phim khiêu dâm deepfake. Sau khi cô thua cuộc bầu cử một cách sít sao, cô đã cống hiến mình để dẫn đầu cuộc chiến lập pháp ở Virginia và sau đó trên toàn quốc để chống lại lạm dụng tình dục dựa trên hình ảnh.
Vấn đề là mỗi tiểu bang đều khác nhau, vì vậy nó giống như một mảnh ghép của các luật lệ. Và một số luật lệ tốt hơn đáng kể so với những luật lệ khác.—SUSANNA GIBSON, MYOWN
Chiến thắng đầu tiên của cô là một dự luật mà thống đốc Virginia đã ký vào tháng 4 để mở rộng luật “ảnh khỏa thân báo thù” hiện có của tiểu bang nhằm bao phủ nhiều loại hình ảnh hơn. “Nó vẫn chưa đạt đến mức tôi nghĩ nó nên có, nhưng đó là một bước đi đúng hướng để bảo vệ mọi người,” Gibson nói.
Mặc dù đã có một số dự luật liên bang được đề xuất để hình sự hóa rõ ràng việc phân phối hình ảnh thân mật mà không có sự đồng ý, hoặc đặc biệt là porn giả mạo, Gibson cho biết cô không có nhiều hy vọng các dự luật đó sẽ trở thành luật chính thức. Cô cho rằng có nhiều hành động hơn ở cấp tiểu bang.
“Hiện tại có 49 tiểu bang, cộng với D.C., đã có luật chống lại việc phân phối hình ảnh thân mật mà không có sự đồng ý,” Gibson nói. “Nhưng vấn đề là mỗi tiểu bang đều khác nhau, vì vậy nó là một mảnh ghép của các đạo luật. Và một số thì tốt hơn đáng kể so với những cái khác.” Gibson lưu ý rằng gần như tất cả các luật đều yêu cầu chứng minh rằng kẻ phạm tội đã hành động với ý định quấy rối hoặc đe dọa nạn nhân, điều này có thể rất khó chứng minh.
Trong số các luật khác nhau và các đề xuất cho luật mới, có sự bất đồng đáng kể về việc liệu việc phân phối porn giả mạo có nên được coi là một vấn đề hình sự hay dân sự. Và nếu là dân sự, có nghĩa là nạn nhân có quyền kiện đòi bồi thường, thì có sự bất đồng về việc nạn nhân có nên kiện các cá nhân phân phối porn giả mạo hay các nền tảng đã lưu trữ nó.
Ngoài Hoa Kỳ, có một mảnh ghép chính sách lớn hơn nữa. Ở Vương quốc Anh, Đạo luật An toàn Trực tuyến được thông qua vào năm 2023 đã hình sự hóa việc phân phối porn giả mạo, và một sửa đổi được đề xuất trong năm nay có thể sẽ hình sự hóa cả việc tạo ra nó. Liên minh Châu Âu gần đây đã thông qua một chỉ thị chống bạo lực và bạo lực mạng đối với phụ nữ, bao gồm việc phân phối porn giả mạo, nhưng các quốc gia thành viên có thời hạn đến năm 2027 để thực hiện các quy định mới. Ở Úc, một luật năm 2021 đã biến việc đăng tải hình ảnh thân mật mà không có sự đồng ý thành một tội danh dân sự, nhưng một dự luật mới được đề xuất nhằm biến nó thành tội danh hình sự và cũng nhắm đến việc giải quyết rõ ràng các hình ảnh giả mạo. Hàn Quốc có một luật trực tiếp giải quyết nội dung giả mạo, và khác với nhiều nơi khác, nó không yêu cầu chứng minh ý định xấu. Trung Quốc có một luật toàn diện hạn chế việc phân phối “nội dung tổng hợp,” nhưng chưa có bằng chứng cho thấy chính phủ sử dụng các quy định này để trấn áp porn giả mạo.
Khi phụ nữ chờ đợi hành động pháp lý, các dịch vụ từ các công ty như Alecto AI và That’sMyFace có thể lấp đầy những khoảng trống. Nhưng tình huống này gợi nhớ đến các còi báo động mà một số phụ nữ đô thị mang trong túi xách của họ để sẵn sàng gọi giúp nếu họ bị tấn công trong một con hẻm tối. Có một công cụ như vậy thì hữu ích, nhưng sẽ tốt hơn nếu xã hội của chúng ta kiên quyết chống lại sự săn mồi tình dục dưới mọi hình thức, và cố gắng đảm bảo rằng các cuộc tấn công không xảy ra ngay từ đầu.