Минулого тижня Google випустив свій звіт про безпеку оголошень 2024 року, висвітлюючи, як він використовував поєднання штучного інтелекту, контролю політики та контролю за людьми для демонтажу поганих суб'єктів в екосистемі цифрової реклами. Саме числа приголомшливі: 5,1 мільярда оголошень, заблокованих або видалених, 9,1 мільярда обмежених та 39,2 мільйона рахунків рекламодавців, призупинених у всьому світі.
Номери звіту про безпеку ADS 2024 року підкреслюють велику шкалу проблеми та розвиваюча витонченість її рішень – 1,3 мільярда сторінок видавців, заблокованих або обмежених, та 220 000 сайтів видавців, що піддаються більш широкому виконанню. Компанія впровадила понад 50 LLM вдосконалень та запровадила понад 30 оновлень політики. Він також призупинив 700 000 рахунків афери з видом на себе та побачив на 90% падіння звітів про аферу.
Це поєднання досвіду даних та досвіду домену являє собою перехід від реактивної модерації до проактивної профілактики. Але під даними лежить глибша історія-одне проактивне виявлення, локалізоване правозастосування та повороти під керуванням технології до превентивної безпеки.
У той час, коли понад два мільярди людей використовують Google Services щодня, захист цифрової екосистеми AD – це вже не просто вправа на гігієну платформи; Це суспільна відповідальність. “Наш прогрес 2024 року підкреслює зростаючу ефективність ШІ при виявленні та блокування шахрайських спроб ввести нашу екосистему”, – сказав Алекс Родрігес, генеральний менеджер – ADS в Google, в ексклюзивних запитах Кампанія.
Новий технологічний арсенал: LLMS на передовій
Найбільш суттєвим зрушенням у 2024 році було використання Google вдосконалених великих мовних моделей (LLMS) для впорядкування виконання політики. “Ми запустили понад 50 вдосконалень до наших LLM”, – сказав Родрігес. Ці оновлення не просто пришвидшили оцінки вмісту; Вони також наділили повноваження системи Google виявляти схеми зловживань, включаючи афери та представництво, до того, як було подано одне враження.
Різниця від попередніх років – масштаб та специфічність. Раніше моделі машинного навчання потребували масових наборів даних для адекватного виконання. Нові LLM побудовані для визнання тонких варіацій поведінки та швидко розрізняють законних рекламодавців та зловмисних суб'єктів.
Як стверджував Родрігес, “пріоритет на цей технічний прогрес дозволяє нашим командам зосередитись на складних неоднозначність, в свою чергу забезпечуючи LLM з нюансованими даними про навчання для майбутніх вдосконалень”. Коротше кажучи, AI – це не просто фільтрування оголошень; це вчитися у них.
Месення, зловмисне програмне забезпечення та зловживання рекламою мережі
В іншому помітному зсуві модель безпеки реклами Google зараз сильно завантажена. Зростаюча частка рахунків призупиняється на самому етапі налаштування на основі сигналів шахрайства, таких як маніпульовані платежні дані, маску IP або вміст.
“Хоча LLM збільшили нашу швидкість і точність, люди залишаються невід'ємною частиною цього процесу”, – стверджував Родрігес. Людські рецензенти закликають під час звернень або коли автоматизовані системи стикаються з неоднозначністю, особливо у чутливих категоріях, таких як охорона здоров'я, фінанси чи політичний зміст.
Числа вказує на цю гібридну модель, що працює. Тільки в 2024 р. Більше 700 000 рекламодавців, що сприяють аферу з видом на себе-часто з генерацією AI Deepfakes громадських діячів-постійно призупинилися. Це призвело до зменшення звітів користувачів на 90% за такі оголошення за рік.
Значна частина, 793,1 мільйона оголошень, вилучених у 2024 році, потрапила до категорії “зловживання рекламною мережею”. Ця категорія охоплює маскування (показує різний вміст для користувачів та рецензентів), розподіл зловмисного програмного забезпечення та тактики маніпуляцій, розроблених для обходу систем огляду.
Родрігес пояснив: “Ця категорія політики значною мірою охоплює тактику, яка має на меті обійти процеси огляду технічної компанії, такі як маскування, а також включають такі речі, як розповсюдження зловмисного програмного забезпечення”.
Така поведінка становить подвійну загрозу для безпеки користувачів та довіри рекламодавців. Попередня реагування Google, що працює на LLMS, спрямована на закриття розриву між виявленням та дією, при цьому мінімізуючи експозицію споживачів.
Поліція видавця
Це не просто рекламодавці під мікроскопом. У 2024 році Google заблокував або обмежені оголошення з роботи на 1,3 мільярда сторінок видавців, а більш широкі дії на сайті були вжиті на 220 000 веб-сайтів.
Важливо, що 97% цих дій були спровоковані системами AI Google. Ця автоматизація дозволила швидше оглядати сайти, гарантуючи, що розміщення реклами не просто сумісні, але контекстно безпечні-зростаюча стурбованість у створених користувачем контентних середовищ, таких як шорти YouTube.
“У нас є низка політики видавця, яка регулює те, що вміст може монетизувати на нашій платформі. Ми виконуємо ці політики послідовно, незалежно від видавця та на різних поверхнях”, – сказав Родрігес.
Для маркетологів бренду це забезпечує рівень впевненості навколо суміжних ризиків – стурбованість тим, що їх оголошення може з’явитися поруч із наступальним або невідповідним вмістом. Системи Google все частіше здатні оцінювати контекст у режимі реального часу, зменшуючи відставання та підвищуючи безпеку в масштабах.
Культурний контекст та місцевий нюанс
Однією з більш тихих проблем у глобальній безпеці AD є локалізація. Заборонена реклама на одному ринку може бути цілком прийнятною в іншій, і культурна чутливість постійно розвивається. Вирішення цього вимагає поєднання точності машини та людського судження.
“Наш підхід до локалізованих рамок безпеки контенту передбачає динамічну взаємодію до дотримання місцевих законів, розуміння та адаптації до суспільних норм та нюансів та співпраці з місцевими зацікавленими сторонами”, – сказав Родрігес.
Для цього Google створив команди політики та фахівців з питань правозастосування по географії. “Ми переконуємось, що наші команди є репрезентативними регіонами, які ми служимо”, – додав він.
Йдеться не лише про юридичну відповідність; Йдеться про безпеку репутації для брендів, що працюють на кордонах.
Наприклад, шкала та складність Індії роблять це критичним тестом для протоколів безпеки реклами Google. У 2024 році було видалено 247,4 мільйона оголошень, а з країни було призупинено 2,9 мільйона рахунків рекламодавців. Фінансові послуги, зловживання торговою маркою, обрізання мережі, персоналізовані оголошення та вміст азартних ігор були п’ятьма причинами для виконання.
Родрігес підтвердив, що нові сфери ризику Індії, включаючи фантастичні ігри та додатки з реальних грошей, контролюються зі збільшенням контролю. “Програма перевірки ідентичності рекламодавців зараз охоплює понад 200 країн та територій … У нас є додаткові вимоги до сертифікації до певних вертикалів, які змінюються в країні”, – зазначив він.
Незважаючи на те, що не підтверджують неминуче розширення критеріїв програми в Індії, Родрігес зазначив, що динамічна оцінка ризику залишається центральною для стратегії виконання Google. “Ці сертифікати є окремими та на додаток до перевірки посвідчення особи.”
Що це означає для агентств та рекламодавців
Для креативних агентств та маркетологів бренду, Google, що розвивається в програмі безпеки реклами, пропонує як впевненість, так і виклик. З одного боку, це зменшує вплив репутаційних ризиків та забезпечує більш чисті інвентаризацію. З іншого боку, це вимагає більш детального дотримання все більш детальних рамок політики та процесів перевірки.
Це також піднімає планку для творчості, що стосується платформи. Як зазначав Родрігес, майбутнє безпеки реклами не лише блокування поганого-це швидко відстежувати добро. “Наші останні моделі … відрізняють законний бізнес від афери для точного виконання в масштабах”.
Звіт про 2024 рік компанії простий. У екосистемі, стійкої до шахрайства, перевага буде полягати з рекламодавцями, які розуміють як лист, так і дух правил; і хто може створити вміст, який працює всередині них.