Facebook оголошує "Виклик ненависних мемів", щоб зупинити образливі меми та виступ ненависті

Facebook оголосив про нову ініціативу щодо запобігання появі «ненависних» пам’яток у мережі. Цей новий алгоритм, який отримав назву «Ненависний виклик мемів», доступний журналістам та дослідникам для огляду, що, в свою чергу, може зробити «небезпечні меми» чимось «позитивним», щоб «захистити людей» під час перегляду Інтернету.

По-перше, якщо ви хочете короткий підсумок нещодавно оголошеної програми Facebook для стримування ненависних мемів, ви можете перевірити Відео мемології 101 саме тут:

У випадку, якщо ви не переглянули відео, відповідно facebook.com, як стверджують Дуу Кіела (науковий співробітник), Хамед Фіруз (науковець з прикладних досліджень) та Аравінд Мохан (науковець з даних), що шкідливий вміст "впливає на всю технологічну галузь та суспільство взагалі".

На додаток до сказаного, ось один із безлічі етапів позаду The Hateful Memes Challenge і що він має на меті досягти:

"Ми створили і зараз обмінюємося набором даних, розробленим спеціально для того, щоб допомогти дослідникам AI розробити нові системи для виявлення багатомодальної мови ненависті. Цей вміст поєднує в собі різні модальності, такі як текст і зображення, що ускладнює розуміння машинами.

Набір даних ненависних мемів містить 10,000 XNUMX+ нових мультимодальних прикладів, створених AI Facebook. Ми ліцензували зображення від Getty Images, щоб дослідники могли використовувати набір даних для підтримки своєї роботи. Ми також випускаємо код для моделей, що навчаються базовим сценаріям.

Ми також запускаємо Hateful Memes Challenge - перший у своєму роді онлайн-конкурс, який влаштовує DrivenData із загальним призовим фондом 100,000 2020 доларів. Ця задача була прийнята як частина змагання NeurIPS XNUMX ».

Три науковці та команда Facebook вважають, що AI Facebook, а також Hateful Memes Challenge, є найкращим рішенням на даний момент. Однак команда також розглядає способи запобігання можливим неправомірному використанню, і тому доступ буде обмежений.

Це означає, що учасникам (журналістам та дослідникам) необхідно погодитися з суворими умовами використання щодо того, як вони будуть використовувати, зберігати та обробляти ці дані.

Крім того, ми також дізнаємось, що команда намагається допомогти алгоритму AI відрізнити приклади ненависті від потенційних помилкових позитивних результатів. Намагаючись переконатися, що рішення щодо класифікації є прийнятними, команда створила такі приклади, щоб конкретно визначити мову ненависті:

“Прямий або непрямий напад на людей, що ґрунтується на характеристиках, включаючи етнічну приналежність, расу, національність, імміграційний статус, релігію, касту, стать, гендерну приналежність, сексуальну орієнтацію та інвалідність чи захворювання. Ми визначаємо напад як насильницьку чи дегуманізуючу (порівнюючи людей з нелюдськими речами, наприклад, тваринами) мовлення, заяви про неповноцінність та заклики до виключення чи сегрегації. Знущання над злочинами на ґрунті ненависті також вважається мовою ненависті ».

Нарешті, кажуть, що команда досягає прогресу в удосконаленні систем ШІ для виявлення "мови ненависті" та іншого "шкідливого вмісту" у Facebook. Однак команда хоче, щоб Hateful Memes Challenge поширився за межі Facebook та інших платформ, щоб "зберегти людей у ​​безпеці".