Раскрыты способы защитить свои запросы к ИИ от утечки данных
Об этом рассказал Андрей Рыбников, старший преподаватель кафедры инструментального и прикладного программного обеспечения РТУ МИРЭА, в беседе с RT. Исследования показали, что ИИ-модели могут подвергаться атакам, в результате которых могут быть скомпрометированы пользовательские данные.
Злоумышленники могут получить доступ к информации, введенной пользователем в систему. Особенно уязвимы модели, обученные на открытых источниках без строгой фильтрации, а также те, которые продолжают обучение на основе пользовательских запросов. При использовании ИИ-сервисов важно, чтобы пользователь понимал, где и как обрабатываются его запросы, особенно если речь идет о зарубежных сервисах.
Один из наиболее безопасных вариантов - использование локальных ИИ-решений, которые работают автономно и не передают данные в облако. Также важно проводить ручную фильтрацию вводимых данных, удаляя чувствительные фрагменты, такие как личные имена, контактные данные и номера документов. Для защиты от утечки данных пользователи могут воспользоваться шифрованием файловой системы, доступным через встроенные средства Windows, macOS или Linux.
Ранее в России было предсказано влияние ИИ на будущие профессии. Светлана Бессараб, российский парламентарий, высказала мнение, что профессии кассиров и водителей могут исчезнуть из-за влияния новой технологии, а также предсказала сокращение в IT-отрасли.
Источник и фото - lenta.ru
Больше новостей на сайтах Медиахолдинга