Сучасні веб-браузери активно впроваджують штучний інтелект, що робить користування інтернетом більш зручним та швидким. Проте експерти застерігають: з підвищенням зручності посилюються ризики витоків інформації та виникнення нових уразливостей.
Власники великих технологічних компаній змагаються за контроль над головним інструментом доступу до інтернету – веб-браузером. Google інтегрує модель Gemini у Chrome, Opera працює над своїм “розумним” браузером Neon, а The Browser Company пропонує проект Dia. Стартап Perplexity відкрив доступ до свого браузера Comet, а шведський Strawberry активно залучає користувачів, які незадоволені Atlas.
Нове виявлено вразливості
Однак, із розширенням функціональних можливостей зростає й кількість ризиків. Дослідники вже виявили уразливості в Atlas, які дозволяють зловмисникам використати “пам’ять” ChatGPT для виконання шкідливих кодів або здобуття додаткових привілеїв.
У Comet з’явилися можливості для прихованої передачі команд через вбудовані AI-функції. Представники OpenAI та Perplexity підтвердили, що так звані “prompt injections” (приховані команди для ШІ) є серйозною проблемою, для якої на даний момент не існує універсального вирішення.
Експерти зазначають, що AI-браузери збирають набагато більше даних про користувачів, ніж звичайні. Функції “пам’яті” не лише запам’ятовують пошукові запити, але й листування, історію відвідувань веб-сайтів, взаємодію з поштою та багато іншого. Це веде до створення “досконалих і більш інвазивних цифрових профілів”, які можуть бути цікавими для злочинців.
Швидка гонка за “першістю” загрожує безпеці
Ще один фактор ризику – темпи, з якими компанії впроваджують нові функції. У гонитві за конкурентами багато рішень виходять на ринок без належного тестування, що підвищує ймовірність появи критичних уразливостей.
При цьому основна небезпека полягає не в самому браузері, а в автономних AI-агентах, які можуть відвідувати сайти, вводити дані та виконувати дії без прямого контролю користувача. Достатньо прихованого інструктажу в тексті чи зображенні, і агент може бути “підкореним”.
Способи захисту
Експерти рекомендують, що на нинішньому етапі найефективніший спосіб захисту – це обмежити використання AI-функцій. Рекомендується активувати їх лише при необхідності та користуватися перевіреними ресурсами, щоб уникнути ситуацій, коли AI випадково переходить на шахрайські сайти або передає конфіденційні дані.
















