Quy tắc bắt buộc
Cuộc đua vào Nhà Trắng năm 2024 được cho là cuộc bầu cử chứng kiến việc sử dụng rộng rãi các công cụ tiên tiến được hỗ trợ bởi AI. Cùng với sự phát triển của công nghệ, âm thanh hay hình ảnh giả mạo (deepfake) ngày càng tinh vi đặt ra thách thức lớn cho nỗ lực chống thông tin xấu độc cũng như hành vi lừa đảo trước bầu cử.
Theo hãng tin CNN, ứng dụng TikTok cho biết sẽ sử dụng một loại công nghệ giúp gắn nhãn cho hình ảnh và video tạo ra từ AI và được đăng tải lên dịch vụ chia sẻ. Cụ thể, TikTok sẽ áp dụng tính năng “Thông tin xác thực nội dung” để xác thực liệu những thông tin hình ảnh và video được tạo và chỉnh sửa bằng AI hay không.
Từ tháng 5, Meta (công ty mẹ của Instagram, Threads và Facebook) bắt đầu dán nhãn những video, hình ảnh và audio được xác định do AI tạo ra trên Instagram, Facebook và Threads. Meta cũng sẽ gắn nhãn nổi bật cho những nội dung có nguy cơ cao dễ gây hiểu lầm trong các cộng đồng.
Động thái trên nhằm đáp ứng yêu cầu từ hội đồng giám sát các quyết định kiểm duyệt nội dung của Meta. Trước đó, hội đồng đã yêu cầu tập đoàn xem xét lại cách tiếp cận đối với nội dung qua chỉnh sửa, trong bối cảnh AI phát triển thần tốc và deepfake dễ dàng lan truyền.
YouTube đã đưa ra các quy tắc bắt buộc người sáng tạo tiết lộ thời điểm video được tạo bởi AI để có thể áp dụng nhãn. Trong khi đó, OpenAI, cha đẻ của công cụ ChatGPT, sẽ sớm ra mắt một công cụ cho phép người dùng phát hiện thời điểm hình ảnh được tạo bởi chatbot. Ngoài ra, công ty sẽ cùng Microsoft thành lập một quỹ trị giá 2 triệu USD liên quan đến bầu cử để chống lại các trò lừa đảo sâu có thể đánh lừa cử tri và làm suy yếu nền dân chủ.
Xử lý nội dung AI có hại
Hồi tháng 2 năm nay, một nhóm 20 công ty công nghệ, trong đó có OpenAI, Microsoft và Stability AI, đã ký kết một thỏa thuận phối hợp để ngăn chặn những nội dung gây hiểu nhầm do AI sáng tạo tác động đến các cuộc bầu cử, trong đó có bầu cử Mỹ. Thỏa thuận này có tên gọi “Hiệp định công nghệ nhằm chống lại việc sử dụng AI để lừa đảo trong cuộc bầu cử năm 2024”.
Theo đó, 20 công ty cam kết sẽ tuân thủ 8 tuyên bố về sứ mệnh, bao gồm phát triển các công nghệ để giảm thiểu rủi ro liên quan đến nội dung AI giả mạo trong bầu cử, phát hiện việc phân phối và phát tán tài liệu đó trên các nền tảng mạng xã hội và minh bạch với công chúng về những nỗ lực xử lý nội dung AI có hại.
Chính phủ Mỹ hiện chưa có quy định liên bang nào nhắm mục tiêu cụ thể đến AI. Tuy nhiên, ứng dụng AI trong các ngành cụ thể phải tuân theo luật pháp và quy định hiện hành trong ngành đó. Quốc hội Mỹ cũng đã bắt đầu có nhiều hành động hơn về luật AI và rất quan tâm đến việc thiết lập cơ chế quản lý. Theo hãng tin Bloomberg, dữ liệu từ các cơ quan lập pháp tiểu bang của Mỹ chỉ ra rằng trong năm 2023, ít nhất 25 tiểu bang ở Mỹ đã xem xét các luật liên quan đến AI.