Chiều 6-11, tại cuộc họp báo thường kỳ của Bộ TT-TT, ông Lê Quang Tự Do, Cục trưởng Cục Phát thanh, Truyền hình và Thông tin điện tử (Bộ TT-TT) cho biết, sau khi công bố kết luận kiểm tra toàn diện với TikTok Việt Nam, đại diện TikTok Singapore (đơn vị trực tiếp quản lý, vận hành cung cấp các dịch vụ TikTok tại Việt Nam) đã có buổi làm việc với cơ quan chức năng Việt Nam.
Ông Lê Quang Tự Do trao đổi với báo chí tại cuộc họp báo thường kỳ của Bộ TT-TT chiều 6-11 |
Sau buổi làm việc, TikTok Singarpore đã gửi một văn bản cam kết thực hiện các yêu cầu của cơ quan chức năng, đặc biệt là cam kết bảo vệ trẻ em trên môi trường TikTok. Trong đó có những giải pháp bảo vệ trẻ em trên nền tảng TikTok, như hạn chế thời gian truy cập với người dưới 18 tuổi, xóa bỏ tài khoản của trẻ dưới 13 tuổi. Hiện nay, TikTok Singapore đang hoàn thiện các thông tin chi tiết về thời gian, tiến độ thực hiện và cách thức, biện pháp thực hiện những giải pháp trên, dự kiến sẽ gửi lại cơ quan chức năng Việt Nam trong tuần này.
Ông Lê Quang Tự Do cho biết, những tháng gần đây, bằng công cụ giám sát của Bộ TT-TT, nền tảng TikTok có chuyển biến tích cực, nội dung độc hại giảm nhiều. TikTok cũng phối hợp tốt với cơ quan chức năng trong việc ngăn chặn các tài khoản độc hại. Trong tháng 10, TikTok đã chặn, gỡ bỏ 53 nội dung vi phạm (tỷ lệ 95%). Trong đó, xóa 44 tài khoản có nội dung chống phá Đảng, Nhà nước, bôi nhọ, xúc phạm lãnh tụ.
Quang cảnh cuộc họp báo thường kỳ của Bộ TT-TT chiều 6-11 |
Vào đầu tháng 10 vừa qua, Bộ TT-TT đã công bố kết quả kiểm tra liên ngành với hoạt động của TikTok tại Việt Nam, chỉ ra nhiều sai phạm của TikTok liên quan đến bảo vệ quyền trẻ em, như: TikTok không có biện pháp, công cụ bảo đảm an toàn về thông tin bí mật đời sống riêng tư của trẻ em. TikTok cũng không thực hiện việc phát hiện, loại bỏ các hình ảnh, tài liệu, thông tin không phù hợp với trẻ em, ảnh hưởng đến sự phát triển lành mạnh của trẻ em; không tổ chức tiếp nhận thông tin, đánh giá phân loại theo mức độ an toàn cho trẻ em, vẫn cho phép trẻ em dưới 13 tuổi mở tài khoản dù là nền tảng mạng xã hội chỉ dành cho người từ 13 tuổi trở lên...
Đoàn kiểm tra liên ngành yêu cầu TikTok phải triển khai các biện pháp bảo vệ trẻ em theo quy định tại các điều 33, 34, 35, 36, 37, chương IV về trách nhiệm bảo vệ trẻ em trên môi trường mạng của Nghị định số 56/2017/NĐ-CP (ngày 9-5-2017) của Chính phủ quy định chi tiết một số điều của Luật Trẻ em.
Trong đó, đặc biệt lưu ý triển khai các vấn đề: xác thực thông tin tài khoản để phát hiện trường hợp trẻ em khai không đúng độ tuổi sử dụng TikTok, xóa các tài khoản trẻ em dưới 13 tuổi; giới hạn thời gian truy cập, sử dụng TikTok với người dưới 18 tuổi, không cho phép trẻ em kiếm tiền qua TikTok; bảo vệ thông tin cá nhân của trẻ em, khi đăng lên cần có sự đồng ý của trẻ em và cha mẹ, người chăm sóc, người giám hộ trẻ em hoặc video cần phải che mặt, làm mờ hình ảnh trẻ em trước khi đăng lên; cảnh báo về độ tuổi cho các video trên TikTok, kiểm soát chặt chẽ video có nội dung nhảm nhí, độc hại, không phù hợp với lứa tuổi. Đồng thời, nghiên cứu xây dựng ứng dụng dành riêng cho trẻ em (app for kid) tại Việt Nam.