За повідомленнями мережевих джерел, система штучного інтелекту facebook, яка використовується для пошуку і блокування проблемного контенту в соціальній мережі компанії, не здатна ефективно виконувати поставлені завдання. Про це пише видання the wall street journal з посиланням на внутрішні документи гіганта соціальних мереж.

Згідно з наявними даними, ai-система facebook не здатна ефективно ідентифікувати відео від першої особи, а також контент, що містить расистські висловлювання, мову ненависті і надмірне насильство. Джерело зазначає, що в деяких випадках алгоритм не може відрізнити півнячі бої від автокатастрофи. Документи facebook говорять про те, що щодо контенту з ненависницькими висловлюваннями ші-система визначає і блокує лише малу частину таких публікацій (менше 10 %). У випадках, коли алгоритм не може дати чіткий висновок про необхідність блокування того чи іншого поста користувача, спірний контент демонструється рідше, але опублікував його аккаунт залишається безкарним.

Близько двох років тому facebook скоротила час, який є у модераторів-людей на розгляд скарг, а також внесла ряд інших змін в робочі процеси, щоб скоротити загальну кількість скарг. При цьому співробітники, відповідальні за захист платформи facebook від небажаного контенту, повідомляли керівництву, що використовуваний ші-алгоритм недостатньо ефективний. За оцінками старшого інженера, автоматизовані системи компанії видаляли повідомлення, які генерували лише 2% переглядів розпалюють ненависть висловлювань на платформі. Він також зазначив, що в разі, якщо найближчим часом не будуть внесені істотні зміни в стратегію компанії в плані модерації контенту, то в короткостроковій перспективі ші-алгоритм буде виявляти не більше 10-20% проблемного контенту.

Представник facebook енді стон (andy stone) заявив, що озвучені в звіті відсотки відносяться до повідомлень, які були видалені безпосередньо ші-системою і не включають контент, оброблений іншими способами, в тому числі шляхом зниження рейтингу постів. Опубліковані дані різко контрастують з очікуваннями керівництва гіганта соціальних мереж в особі генерального директора марка цукерберга (mark zuckerberg), який раніше заявляв, що ші-система компанії буде здатна виявляти «переважна більшість проблемного контенту» до кінця 2019 року. Представник компанії також зазначив, що важливіше враховувати інші цифри, що показують скорочення загальної кількості ненависницького контенту на платформі.