Tháng trước, hình ảnh vụ nổ gần Lầu Năm Góc xuất hiện chớp nhoáng trên mạng xã hội gây hỗn loạn và bán tháo trên thị trường chứng khoán. Giới chức xác nhận ảnh do AI
tạo ra.
Theo Jeffrey McGregor, CEO Truepic, đây chỉ là “bề nổi” của
những gì có thể xảy ra trong tương lai: "Chúng ta sẽ nhìn thấy nhiều
nội dung do AI
tạo ra trôi nổi tr&e
circ;n mạng xã hội hơn, nhưng lại chưa chuẩn bị gì cho điều đó".
C&o
circ;ng ty của McGregor đang tìm cách giải quyết vấn đề này. Truepic cung cấp c&o
circ;ng nghệ xác định hình ảnh thật hay giả qua Truepic Lens. Ứng dụng thu thập dữ liệu bao gồm ngày, giờ, địa điểm và thiết bị dùng để
tạo hình ảnh rồi áp dụng chữ ký số để xác minh.
Truepic thành lập năm 2015, sớm hơn vài năm so với các c&o
circ;ng cụ
tạo ảnh bằng AI như Dall-E và Midjourney. Theo McGregor, nhu cầu từ các cá nh&a
circ;n, tổ chức cần phải đưa ra quyết định dựa tr&e
circ;n hình ảnh ngày càng lớn, từ c&o
circ;ng ty truyền th&o
circ;ng đến bảo hiểm.
“Khi thứ gì cũng có thể làm giả, mọi thứ đều có thể làm giả. AI
tạo sinh đã đạt được bước ngoặt về chất lượng và khả năng tiếp cận, chúng ta kh&o
circ;ng còn biết được cái gì là thật khi online”, &o
circ;ng nhận xét.
Các hãng như Truepic đã chống lại th&o
circ;ng tin sai sự thật nhiều năm nay nhưng sự trỗi dậy của hàng loạt c&o
circ;ng cụ AI mới với tốc độ
tạo hình ảnh, bài viết nhanh chóng theo lời nhắc (prompt) của người dùng, khiến cho nỗ lực này trở n&e
circ;n cấp thiết hơn. Trong vài tháng gần đây, hình ảnh giả về Giáo hoàng Francis mặc áo khoác l&o
circ;ng hay cựu Tổng thống Mỹ Donald Trump bị bắt giữ được chia sẻ rộng rãi tr&e
circ;n mạng.
Một số nhà lập pháp kêu gọi các hãng c&o
circ;ng nghệ giải quyết vấn đề. Vera Jourova, Phó Chủ tịch Ủy ban châu Âu, kêu gọi các b&e
circ;n ký kết Bộ quy tắc thực hành của EU về th&o
circ;ng tin sai lệch - một danh sách bao gồm Google, Meta, Microsoft và TikTok - "đưa ra c&o
circ;ng nghệ nhận dạng
nội dung AI và dán nhãn rõ ràng cho người dùng".
Ngày càng có nhiều startup và Big Tech cố gắng thực hiện các tiêu chuẩn và giải pháp để giúp mọi người xác định xem hình ảnh hoặc video có được
tạo bằng AI hay kh&o
circ;ng. Nhưng khi c&o
circ;ng nghệ AI phát triển nhanh hơn con người có thể theo kịp, kh&o
circ;ng rõ liệu các giải pháp kỹ thuật này có giải quyết được triệt để vấn đề. Ngay cả OpenAI, c&o
circ;ng ty đứng sau Dall-E và ChatGPT, đã thừa nhận vào đầu năm nay rằng nỗ lực của chính họ để giúp phát hiện văn bản do AI
tạo ra "kh&o
circ;ng hoàn hảo" và cảnh báo kh&o
circ;ng n&e
circ;n tin vào mọi thứ.
Cuộc đua vũ trang
Có hai cách tiếp cận với vấn đề: Một dựa vào phát triển các chương trình xác định hình ảnh do AI
tạo ra sau khi chúng được sản xuất và chia sẻ qua mạng; hai là tập trung vào đánh dấu ảnh là thật hay do AI
tạo ra ngay từ ban đầu bằng một loại chữ ký số.
Reality Defender và Hive Moderation đang đi theo cách tiếp cận đầu ti&e
circ;n. Với nền t
ảng của họ, người dùng có thể tải ảnh l&e
circ;n để quét và nhận th&o
circ;ng báo về % ảnh thật hay giả. Reality Defender cho biết họ dùng “c&o
circ;ng nghệ v&a
circ;n tay
nội dung
tạo sinh và deepfake độc quyền” để phát hiện video, âm thanh và hình ảnh do AI
tạo ra.
C&o
circ;ng cụ phát hiện hình ảnh do AI
tạo ra của Reality Defender
Đây có thể là m
ảng kinh doanh béo bở nếu vấn đề trở thành nỗi lo thường trực của các cá nh&a
circ;n, doanh nghiệp. Các dịch vụ này miễn phí dùng thử sau đó tính phí. Hive Moderation thu 1,5 USD cho mỗi 1.000 hình ảnh, ngoài ra còn “hợp đồng thường ni&e
circ;n” (có giảm giá). Giá của Reality Defender tùy theo các yếu tố khác nhau.
Ben Colman, CEO Reality Defender, cho rằng rủi ro đang nh&a
circ;n l&e
circ;n mỗi tháng. Bất kỳ ai cũng có thể làm ảnh giả bằng AI mà kh&o
circ;ng cần đến bằng khoa học máy tính, thuê máy chủ, biết cách viết mã độc, mà chỉ cần tra Google. Kevin Guo, CEO Hive Moderation, gọi đây là “cuộc đua vũ trang”. Họ phải tìm ra mọi cách thức mới mà mọi người đang sử dụng để
tạo nội dung giả, hiểu nó và đưa vào bộ dữ liệu để ph&a
circ;n loại. Dù tỷ lệ
nội dung do AI
tạo ra hiện nay còn thấp, nó sẽ thay đổi chỉ trong vài năm.
Tiếp cận phòng vệ
Trong cách tiếp cận phòng vệ, các hãng c&o
circ;ng nghệ lớn hơn tìm cách tích hợp một loại watermark vào ảnh để xác thực nó là thật hay giả ngay khi vừa được
tạo ra. Nỗ lực chủ yếu do Li&e
circ;n minh nguồn gốc và xác thực
nội dung (C2PA) dẫn dắt.
C2PA thành lập năm 2021 để
tạo tiêu chuẩn kỹ thuật giúp chứng nhận nguồn gốc và lịch sử
nội dung kỹ thuật số. Nó kết hợp
những nỗ lực của Sáng kiến xác thực
nội dung (CAI) do Adobe dẫn đầu và Project Origin, do Microsoft và BBC hậu thuẫn, tập trung vào việc chống lại th&o
circ;ng tin sai lệch trong tin tức kỹ thuật số. Các c&o
circ;ng ty khác tham gia C2PA bao gồm Truepic, Intel và Sony.
Dựa tr&e
circ;n hướng dẫn của C2PA, CAI
tạo c&o
circ;ng cụ nguồn mở để các c&o
circ;ng ty
tạo metadata chứa th&o
circ;ng tin về hình ảnh. Nó giúp các nhà sáng
tạo chia sẻ chi tiết về cách họ
tạo ra hình ảnh một cách minh bạch. Bằng cách này, người dùng cuối có thể biết được ảnh đã thay đổi gì rồi tự quyết định tính xác thực của ảnh.
“Adobe kh&o
circ;ng thu tiền từ nỗ lực này. Chúng tôi làm vậy vì nghĩ nó cần phải tồn tại”, Andy Parsons, Giám đốc cấp cao tại CAI, trả lời CNN. “Chúng tôi cho rằng nó là biện pháp phòng thủ nền t
ảng rất quan trọng chống tại th&o
circ;ng tin sai sự thật”.
Giới c&o
circ;ng nghệ muốn tạm dừng phát triển AI kh&o
circ;ng vì lo ngại cho loài người?
Nhiều c&o
circ;ng ty đã tích hợp tiêu chuẩn C2PA và c&o
circ;ng cụ CAI vào ứng dụng. Chẳng hạn, c&o
circ;ng cụ
tạo ảnh AI Firefly vừa được Adobe đưa vào Photoshop. Microsoft cũng th&o
circ;ng báo các tác phẩm AI do Bing Image Creator và Microsoft Designer
tạo ra sẽ chứa chữ ký mã hóa trong vài tháng tới.
Các hãng khác như Google dường như theo đuổi chiến thuật kết hợp cả hai cách tiếp cận. Hồi tháng 5, Google c&o
circ;ng bố c&o
circ;ng cụ About this image, giúp người dùng biết thời điểm bức ảnh được lập chỉ mục (index) tr&e
circ;n Google. Ngoài ra, mọi hình ảnh do AI của Google
tạo ra sẽ được đánh dấu trong tập tin gốc để cung cấp bối cảnh nếu ảnh được tìm thấy tr&e
circ;n một nền tảng, website khác.
Dù doanh nghiệp c&o
circ;ng nghệ đang cố gắng xử lý quan ngại xoay quanh hình ảnh do AI
tạo ra cũng như tính toàn vẹn của truyền th&o
circ;ng số, các chuy&e
circ;n gia trong lĩnh vực nhấn mạnh họ cần hợp tác với nhau và với chính phủ để giải quyết vấn đề. Kh&o
circ;ng chỉ kêu gọi các nền t
ảng xem xét vấn đề một cách nghiêm túc, ngừng qu
ảng bá
nội dung giả mạo, còn cần đến các quy định quản lý cũng như giáo dục.
Theo Parsons, đây kh&o
circ;ng phải thứ mà một c&o
circ;ng ty, chính phủ hay cá nh&a
circ;n đơn lẻ nào có thể làm được. Chúng ta cần mọi người đều phải tham gia. Dù vậy, cùng lúc này, các hãng c&o
circ;ng nghệ cũng đang thúc đẩy để đưa nhiều c&o
circ;ng cụ AI hơn ra thế giới.
(Theo CNN)
Apple "tuy&e
circ;n chiến" với Meta, AI khiến gần 4.000 người Mỹ mất việc làm
Apple “tuy&e
circ;n chiến” với Meta; AI khiến gần 4.000 người Mỹ mất việc làm;... là
những th&o
circ;ng tin nổi bật trong bản tin C&o
circ;ng nghệ thứ 7 tuần này.
Giới c&o
circ;ng nghệ muốn tạm dừng phát triển AI kh&o
circ;ng vì lo ngại cho loài người?
Giới c&o
circ;ng nghệ kêu gọi dừng phát triển AI do kh&o
circ;ng muốn bị đối thủ bỏ lại quá xa trong cuộc đua ứng dụng thương mại và qu&a
circ;n sự.
Nguồn bài viết : Xóc Đĩa