...
Соціальні Мережи

Повідомлення державам США: Не забувайте про основи боротьби з ненавистю та антисемітизму в Інтернеті

Повідомлення державам США: Не забувайте про основи боротьби з ненавистю та антисемітизму в Інтернеті

Джордан Креймер – директор з досліджень Центру технологій та суспільства ADL.

З розповсюдженням генеративних інструментів AI з моменту запуску Chatgpt OpenAI у 2022 році, технологічна промисловість, дослідники та розробники політики стикалися з тим, як регулювати ШІ та забезпечити справедливість у його впровадженні. Ці зусилля часто відображають настрої, що регулювання прийшло занадто пізно для компаній із соціальних медіа, які виросли масовим – і масово вигідним – в той час, як це дозволило чинити шкоду, включаючи широку ненависть, домагання та помилкову інформацію. Цей акцент випливає і від власних засновників песимізму AI засідав, розпалюючи дистопійські страхи щодо машинного розвідки поза контролем, зробивши ставку на прибутковість власних інструментів.

На своїх майбутніх законодавчих сесіях уряди штатів не повинні потрапляти в цю надто знайоме пастку управління за допомогою заголовків. Основи регулювання техніки все ще мають значення, як і основні проблеми, які залишаються невирішеними, наприклад, ті, що стимулюють бурхливу ненависть та антисемітизм. Так, держави повинні приймати правила, які потребують аудитів автоматизованих систем, включаючи інструменти AI на основі великої мовної моделі (LLM) та інші використання алгоритмів. Ці моделі навчаються на масивних наборах даних тексту, які ризикують відтворити існуючі форми несправедливості, такі як расова та гендерна упередженість. Багато їх заявок вже повторюють шкоду попередніх автоматизованих інструментів, які розповсюджували упередженість у прогнозуванні ризику охорони здоров’я, кримінальному правосуддя (для прогнозування злочинів чи рецидивізму), оцінки фінансового ризику (наприклад, іпотечних кредитів та позик), наймання та навіть конкурси краси краси . І так, вони повинні приймати закони для захисту підлітків, в першу чергу зосереджуючись на конфіденційності даних (в ідеалі для всіх, а не лише молоді).

Але законодавці не повинні забувати три основні сфери для регулювання, які ще повинні бути розглянуті на федеральному рівні: підтримка жертв ненависті та домагань, вимагає прозорості соціальних медіа та припинення помилкового законодавства проти модеруючих ненависних та цькування вмісту. Продовження цієї політики необхідно, щоб сприяти антисемітським домаганням та протизраїльським упередженим упередженості, які зросли в Інтернеті (і офлайн) за останній рік.

Підтримка жертв ненависті

Ненависть і домагання залишаються закріпленою особливістю життя в Інтернеті, непропорційно впливають на євреїв, жінок, кольорових людей, людей з обмеженими можливостями та ЛГБТК+ людей (особливо трансгендерних людей). Члени маргіналізованих груп набагато частіше зазнають цькування за свою ідентичність, ніж інші: останнє опитування в Інтернеті ненависті та домагань показало порівняно з 37% в середньому); 45% людей з обмеженими можливостями були переслідувані порівняно з 36% немилої). Члени маргіналізованих груп також набагато частіше зазнають цькування за їх ідентичністю: серед тих, хто переслідував, 34% євреїв та 49% мусульман були переслідувані через їх релігію (порівняно з 18% в цілому), 29% жінок були націлені Їх стать (порівняно з 22% в цілому) та 46% чорно -афроамериканців за свою расу чи етнічну приналежність (порівняно з 24% в цілому).

Але підтримка цілей залишається слабкою для неіснуючої. Більшість платформ не діють у звітах користувачів про ненависть чи домагання, такі як антисемітські теорії змови або термін “сіоніст” при використанні як слюс, віддаючи перевагу автоматизованим системам, які не можуть виявити контекст або визначити поточні утискання кампанії. Жертви ненависті в Інтернеті, такі як злочини ненависті в Інтернеті або інциденти упередженості, можуть бути захищені, якщо законодавці додадуть закони “безпечна відпустка”, коли вони оновлюють FMLA та інші положення про оплачувану відпустку.

Держави також повинні зміцнити свої закони про боротьбу з Doxxing та Swatting. Doxxing і Swatting – це інструменти, на які цікавили, щоб прищепити найбільший страх у цілях. Doxxing (публікація чиїсь приватної ідентифікаційної інформації) може призвести до масштабних та тривалих кампаній домагань, які можуть включати домагання в Інтернеті, по телефону та особисто. Цілі часто повинні вносити фундаментальні зміни в їхньому житті, відмовляючись від роботи та будинків та спричиняючи великі зриви для їхніх сімей.

Doxxing також піднімає подальший привид шлунка (закликаючи помилковий звіт поліції, щоб надіслати екстрену команду правоохоронних органів до чийсь дому). На його найнебезпечнішому плані може призвести до цілі або до члена сім'ї, вбитий. В одній особливо помітній серії інцидентів, що розбиваються, ФБР визначило, що одна людина, яка, як відомо, закликала загрози бомбами та спроби проведення єврейських закладів, у тому числі щонайменше двадцять п’ять синагог у тринадцяти штатах у період з липня 2023 по серпень 2023 року.

Незважаючи на те, що сама пошкодження є рідкісною (лише три відсотки респондентів пережили це в попередньому році), страх бути проведеним (або Doxxed) спричиняє багато цілей цькування зійти з онлайн -просторів. Водіння маргіналізованих людей в режимі офлайн-це основний спосіб, коли домагання на основі ідентичності служать для посилення існуючого соціального порядку, охолодження промови (та соціальної участі) цільових груп.

Законодавство про прозорість, що вимагає від компаній соціальних медіа публікувати дані про їх виконання правил, зіткнувшись із невдачею, коли у вересні 2024 р Публікуйте показники щодо певних типів змісту, тому вони вирішили це підпорядкованим юридичним стандартом “суворим контролем”. Але доручення прозорості все ще має ключову роль у захисті споживачів від потенційно шкідливих соціальних медіа, де вони можуть відчувати ненависть чи зловживання.

Тим часом інші державні законодавчі органи повинні дотримуватися змінених законів, які не вирішують ці проблеми, або принаймні дозволяють іншому ланцюгу переглянути типи мови, які можуть бути сумнівні при розгляді регуляції прозорості платформи. Звернення до додаткових розкриттів від компаній соціальних медіа повинно отримувати широку двосторонню підтримку, оскільки ліва, і права може отримати користь від того, щоб дізнатися більше про те, що відбувається за алгоритмами соціальних медіа.

Немає вимог «нейтрального вмісту»

Запобігаючи технологічним компаніям модеруючи шкідливий контент, деякі штати, як Флорида та Техас, приймають протилежну справу, щоб запобігти ненависті та цькуванню в Інтернеті. Ці закони призначені для захисту консервативної мови. Наприклад, закон Техасу забороняє платформам модерувати вміст на основі точки зору плаката. Ці положення можуть вимагати платформ, щоб дозволити антисемітський зміст, особливо згідно з законом Техасу. Незважаючи на те, що з законодавством є достатньо видатних питань, що Верховний Суд передав їх до зниження судів минулого року, однією точкою обговорення під час усного аргументу Верховного Суду було те, чи може бути веб-сайт, який заблокував антисемітський вміст, все-таки дозволяє «просетичним» вмісту.

Для просування цих законодавчих цілей держави також повинні визначити пріоритети на фінансування досліджень. Значна частина того, що відбувається в соціальних мережах, залишається недостатньо вивченим, головним чином тому, що технологічні компанії забезпечують невеликий доступ до дослідників. Деякі, такі як X та Reddit, взагалі віддаляються від такого доступу. Також не вистачає можливостей для дослідників провести тип масштабного аналізу (кількісного та якісного), який може сприяти розробці політики на основі доказів. Держави повинні фінансувати вищу освіту та державні установи, щоб забезпечити високоякісні дослідження для проведення політики в нову епоху.

Alex

About Author

Recommend – дізнавайтеся більше про події, що формують наше сьогодення. Найцікавіші новини України та світу, аналітика, тренди та ексклюзивні матеріали – все це на recommend.com.ua!

Отримуйте останні оновлення та великі пропозиції