...
Соціальні Мережи

Оскільки шахраї притягуються до штучного інтелекту, Microsoft каже, що блокує 1,6 мільйона ботів щогодини

Оскільки шахраї притягуються до штучного інтелекту, Microsoft каже, що блокує 1,6 мільйона ботів щогодини

Аферири зафіксували AI як найновіший інструмент у своєму арсеналі – генеруючи фальшиві фотографії, голосові клони, фішинг -електронні листи та фальшиві веб -сайти “з все більш швидкою швидкістю”.

Завантаження вмісту Instagram

Штучний інтелект зробив це “простішим і дешевшим” для аферистів генерувати правдоподібний контент для атак, згідно з останнім звітом Microsoft Cyber ​​Signals.

У звіті зазначається, що Microsoft зірвала близько 6,28 мільярдів доларів у спробах шахрайства за 12 місяців з квітня 2024 року.

У той же часовий проміжок часу він сказав, що блокує близько 1,6 мільйона ботів, які намагаються створювати рахунки щогодини.

Корпоративний віце-президент Microsoft з питань боротьби з шахрайством та зловживанням продуктами, Келлі Бісселл, заявив ABC, що компанія минулого року закрила близько 450 «шкідливих» веб-сайтів афери.

“Я був у цьому ІТ -світі вже 30 років, я бачив кожну нову інновацію технологій від Інтернету Mobile до Cloud та всі речі між ними”, – сказав він.

«Зловмисники приймуть цю нову технологію швидше, ніж компанія, велика і мала, або людина.

«Афери тривають тисячі років, але за допомогою технології вони використовують інший інструмент, краще.

ЩоЗ AI, де до цього знадобиться, можливо, тижні або дні, щоб створити шкідливий веб -сайт, тепер ви можете це зробити за лічені хвилини.Що

Штучний інтелект, що робить знайомі афери більш небезпечними

За даними команди Microsoft, керована AI-орієнтована атака, відбувається в усьому світі.

Значна частина діяльності надходить з Китаю та Європи-зокрема Німеччина, яка є “одним з найбільших ринків електронної комерції та онлайн-послуг у світі”.

Пан Бісселл сказав, що кожен споживач повинен бути “продуманим”.

“З плином часу, і AI продовжує розвиватися і змінюватися, я думаю, що це все більше і більше буде частиною нашого життя”,.

– сказав він.

«Нічим не відрізняється від мобільних телефонів, Інтернету чи хмарних служб.

“Я просто думаю, що кожен споживач там [needs to] Будьте обережні щодо речей, і їм потрібно використовувати інструменти, яким вони можуть довіряти ».

Звіт Microsoft заявив, що він посилив захист для реагування на афери технічної підтримки та інші постійні загрози.

Він заявив, що тепер блокує в середньому 4415 підозрілих спроб підключення щодня на своєму інструменті швидкої допомоги, що дозволяє віддалений доступ до екранів комп'ютера для технічної підтримки.

У звіті додано, що Microsoft використовувала “масштабні моделі виявлення” для боротьби з AI з AI, і пан Бісселл зазначив, що вони протягом багатьох років розробляли “відповідальний AI”.

“Не всі АІ однакові”, – сказав він.

«І тому ми створили надійний слід AI, але зловмисники використовують недостовірні функції AI.

“Так само, як шахраї можуть швидко писати код, так і хороші актори, так і захисники”.

Професор Меттью Уоррен – директор Центру досліджень та інновацій університету університету РМІТ.

За його словами, більшість афери, що використовуються, вже були відомі експертам, але використання штучного інтелекту підняло його на новий рівень.

“Я думаю, що чистий обсяг і велика витонченість того, як аферистри використовують ШІ з точки зору вдосконалення … це зробить це набагато складніше для людей [to know] Коли сталися афери », – сказав він ABC.

«Я думаю, що це стане все більшою проблемою, тому що з точки зору аферистів ми завжди кажемо, що вони працюють на п’ять відсотків.

“Це п’ять відсотків людей, які відкриють електронні листи або надішлять свою особисту інформацію, тому що їх просять.

“Отже, те, що ви бачите, – це шахраї, що збільшує обсяг людей, на які вони можуть напасти … у них буде більша віддача бізнесу.

«Шахраї працюють як бізнес -модель, і саме це вони шукають, – це отримати прибуток [and] дохід. “

Шахтари за допомогою чатів та торгових сайтів AI та торгових сайтів

Раніше, за словами Microsoft, для створення переконливих веб -сайтів покупок може знадобитися суб'єкти загрози.

Тепер – за допомогою AI – шахрайські веб -сайти можна налаштувати за кілька хвилин.

“Використовуючи описи продуктів, зображення та відгуки клієнтів, поподілених AI, клієнти придумують до того, що вони взаємодіють з справжнім торговим купером, використовуючи довіру споживачів у знайомих брендах”,-йдеться у звіті Microsoft.

«Чат для обслуговування клієнтів, що працюють на AI, можуть додати ще один шар обману, переконливо взаємодіючи з клієнтами.

“Ці боти можуть затримати плату, затримуючи клієнтів із сценарійними виправданнями та маніпулюючи скаргами на відповіді, що генеруються AI, які роблять сайти афери професійними”.

Австралійці втратили більше грошей на торгові афери в 2024 році, ніж будь -який інший тип афери, повідомляє, повідомляє Scamwatch.

Загалом 10 022 австралійців повідомили про загальні втрати в розмірі 9,8 мільйонів доларів минулого року.

Платіжна компанія ACI Worldwide репортери австралійці втратили 1224 мільйони доларів у 2023 році на уповноважені афери з оплати.

Афера обдурила жертв ініціювання платежу – звіт компанії про Scamscope виявив, що AI дозволив шахраям посилити довіру та автоматизувати точні атаки з “витонченістю та в масштабі”.

Генеральний менеджер компанії Тихоокеанського регіону Трент Гунторп заявив, що шахраї змогли розвинути свій набір навичок швидше, ніж раніше.

“У темній павутині ви можете придбати аферу як послугу”,.

– сказав він.

«Невидимий, непосильний шахрай тепер може придбати і стати дуже складним дуже швидко і почати використовувати деякі з цих інструментів.

“[This] Дозволяє їм робити такі речі, як вискоблювання з соціальних медіа, щоб дійсно особисті повідомлення, які орієнтуються на цих потенційних жертв афери.

“Ми чули історії, де компанії були зламані, а інформація про клієнтів викрадається та продається в темній павутині, це набагато ширше”.

Цифрова грамотність «вирішальна» для збереження безпеки

Щоб захистити себе, звіт Microsoft рекомендував інтернет -покупці уникати покупки імпульсу, натискання неперевірених оголошень та довіри до «доказів» соціальних медіа.

Для шукачів Джоба перевірка повноважень та компаній та підозріло на запити на попередні платежі чи особисту інформацію було ключовим.

“Якщо відеоінтерв'ю здається неприродним, із синхронізацією губ, робототехнічною мовою або непарним міміком, це може бути технологія DeepFake на роботі”,-йдеться у повідомленні.

Завантаження …

Професор аналітики La Trobe та AI Daswin de Silva сказав, що такі речі, як багатофакторна автентифікація, також є життєво важливими для збереження безпеки.

“Що часто не помічають, – це кількість тренувань, необхідних для цифрового присутності”, – сказав він.

“Ми насправді не розглядаємо необхідність первинної підготовки, а також подальших раундів тренувань, щоб зберегти [up to date]наприклад, [knowing] Цей фішинг як послуга – це можливість.

«Цифрова грамотність є досить важливою.

«Існує відставання, оскільки ШІ, який ми маємо в соціальних мережах та на наших смарт -телефонах, є досить хорошим, і до нього дуже легко дістатися, не враховуючи ризику безпеки.

ЩоМи думаємо про безпеку як про думку. Ніколи не перша думка, коли ви використовуєте пароль, який вас могли зламати, ви навряд чи подумаєте про це.Що

“Це завжди про те, щоб мати зручність”.

Завантаження вмісту Instagram

Він сказав, що “армія людей” активно прагне до моделей AI Jailbreak, додавання “екосистеми” AI була такою ж хорошою, як можна було очікувати.

“У великих моделях є безліч гарантій, і технологічні компанії є досить відповідальними у своєму підході”, – сказав він.

“Зазвичай це в соціальних мережах зустрічається:” Я зламав чатгпт, і це розповідає, як зібрати якусь зброю “.

“Щоразу, коли це просочується … компанія випускає виправлення, звертаючись до нього”.

“Гонка зброї” між аферистами, жертвами та корпораціями

На запитання, яка його найбільша стурбованість у світі AI, містер Бісселл

Професор Уоррен сказав, що багато інструментів AI почали розробляти “етичні алгоритми”, щоб припинити генерування вмісту афери.

“Але [scammers] все ще може використовувати систему AI, щоб сказати: “Напишіть мені діловий лист потенційному працівникові, щоб працювати на мене”, – сказав він.

“Тож, хоча багато цих сайтів ШІ ввели етичні алгоритми, які намагаються припинити погану поведінку, ви можете легко обійти це, просто змінивши те, що ви просите це зробити.

“І це не підніме, що це афера. Це просто думає [it is] Наприклад, генерування бізнес -електронної пошти. “

Австралійський департамент промисловості науки та ресурси опублікували вісім “принципів етики” для інструментів штучного інтелекту.

Серед них необхідність безпеки для зменшення “потенційних ризиків зловживання” та необхідність систем AI не брати участь у “обману” чи “несправедливих маніпуляцій”.

Професор Уоррен заявив, що питання вимагало “технічних рішень”.

“Я думаю, що ви можете побачити трохи гонки озброєнь у розвитку технологій шахрайства”

– сказав він.

«Великі корпорації намагаються розробити рішення, аферисти потім намагаються знайти шляхи навколо цього. Тому я думаю, що це буде постійним питанням.

«Що мене насправді дивує – це чистий обсяг атак, той факт, що Microsoft блокує 1,6 мільйона спроб бота на годину.

“Але те, що ви збираєтеся побачити в майбутньому, – це те, що число збільшиться в експоненціально”.

Alex

About Author

Recommend – дізнавайтеся більше про події, що формують наше сьогодення. Найцікавіші новини України та світу, аналітика, тренди та ексклюзивні матеріали – все це на recommend.com.ua!

Отримуйте останні оновлення та великі пропозиції