Facebook xóa sổ 5,4 tỉ tài khoản giả mạo trong năm nay
Cho đến nay, Facebook đã đóng cửa 5,4 tỉ tài khoản giả mạo, nhưng cho biết vẫn còn hàng triệu người dùng "ảo" tồn tại, trước đó vào năm 2018, mạng xã hội này đã xóa khoảng 3,3 tỉ tài khoản giả.
Có tới 5% số người dùng hàng tháng của Facebook (khoảng 2,5 tỉ) được xác định là tài khoản "ảo", công ty này cho biết, mặc dù những tiến bộ trong công nghệ đã cho phép Facebook phát giác được nhiều tài khoản giả hơn ngay khi chúng được tạo.
Thông tin này cho thấy quyết tâm thanh lọc nền tảng của Facebook, khi nước Mỹ chuẩn bị bước vào cuộc bầu cử, cũng như tiến hành cuộc điều tra dân số năm 2020. Các nhà phân tích và cơ quan giám sát đang chuẩn bị đối đầu với một làn sóng nội dung giả mạo và gây hiểu lầm trên mạng xã hội, nhất là sau các vụ "lùm xùm" từ vụ bầu cử năm 2016.
Trả lời báo chí, nhà sáng lập và CEO Mark Zuckerberg cho biết việc xóa sổ số lượng lớn các tài khoản giả mạo có thể coi là một dấu hiệu cho thấy công ty đang nghiêm túc thực hiện vấn đề kiểm soát nội dung giả và kêu gọi các mạng xã hội khác có hành động tương tự.
"Mặc dù con số của chúng tôi lớn, nhưng không có nghĩa Facebook có nhiều nội dung độc hại hơn", ông Zuckerberg nói hôm thứ Tư.
Số lượng tài khoản giả mạo bị vô hiệu hóa bởi Facebook đã đạt đỉnh vào đầu năm, khi mạng xã hội này cho biết đã xóa hơn 2 tỉ tài khoản trong khoảng thời gian từ tháng 1 đến tháng 3.
Trong 3 tháng tiếp theo, chỉ có 1,5 tỉ tài khoản bị xóa bỏ. Nhưng con số này đang tăng trở lại: báo cáo mới nhất của Facebook cho thấy họ đã loại bỏ 1,7 tỉ tài khoản giả từ tháng 7 đến tháng 9 năm nay.
Thông báo mới nhất được đưa ra như một phần của báo cáo minh bạch mới nhất từ Facebook, lần đầu tiên bao gồm thông tin về Instagram.
Từ tháng 4 đến tháng 9, dữ liệu Instagram cho thấy Facebook đã lấy đi khoảng 3 triệu nội dung vi phạm chính sách chống bán thuốc. Công ty đã xóa 95.000 nội dung Instagram khác liên quan đến việc mua bán súng.
Mạng xã hội Instagram cũng kiểm soát gắt gao các bài đăng có nội dung liên quan tới buôn bán, lạm dụng trẻ em, tự sát hay tự gây thương tích và tuyên truyền khủng bố.
Đầu năm nay, Facebook đã bắt đầu cho phép các thuật toán phát hiện các ngôn từ có nội dung gây kích động bạo lực và bắt nạn trên mạng, qua đó sẽ tự động xóa các nội dung mà họ cho là vi phạm chính sách của công ty.
Theo báo cáo, có tới 7 triệu mẩu nội dung chứa ngôn từ kích động thù địch đã bị xóa khỏi Facebook trong khoảng thời gian từ tháng 7 đến tháng 9, tăng gần 60% so với giai đoạn từ tháng 4 đến tháng 6. Trong số 7 triệu nội dung, hơn 80% đã được Facebook phát hiện trước khi được các người dùng khác báo cáo, công ty cho biết.
Facebook đã phải chịu sự chỉ trích ngày càng tăng về sự lan truyền của ngôn từ kích động thù địch trên nền tảng của mình. Báo cáo được đưa ra vài ngày sau khi các nhóm nhân quyền gặp mặt Zuckerberg để cảnh báo về những cách mà ngôn ngữ gây chia rẽ, gây tổn thương có thể làm tổn hại tới các đối tượng yếu thế, dễ bị tổn thương trên mạng xã hội.