Спрос на разработчиков в России в сфере кибербезопасности в ИИ вырос
Эксперты ГК Swordfish Security отмечают, что вакансий для таких специалистов в этой сфере стало значительно больше - 878 вакансий в 2024 году против всего 154 в 2023 году.
Специалисты в области кибербезопасности, работающие с искусственным интеллектом, становятся все более востребованными в современном мире. Это связано с ростом угроз в сети интернет и необходимостью защиты информации от кибератак. Компания Swordfish Security специализируется на консалтинге в сфере защищенного программного обеспечения и отмечает, что спрос на разработчиков в области кибербезопасности будет продолжать расти в ближайшие годы. Важно, чтобы специалисты в этой области были хорошо подготовлены и обладали актуальными знаниями и навыками.Эксперты отмечают значительный рост спроса на специалистов в области LLM Security за последний год. Например, количество вакансий для аналитиков в сфере безопасности ИИ увеличилось в пять раз согласно данным hh.ru (555 в 2024 году против 107 в 2023 году). Это свидетельствует о возрастающей потребности рынка в квалифицированных специалистах в области кибербезопасности.Одновременно с ростом спроса на специалистов в области безопасности ИИ, наблюдается некоторое снижение интереса к разработчикам в целом. В 2024 году количество открытых вакансий для разработчиков ИИ уменьшилось на 14% по сравнению с предыдущим годом, составив 483 вакансии. Это может быть связано с изменением приоритетов компаний и спроса на конкретные навыки в сфере искусственного интеллекта.Согласно оценкам экспертов, около 40% крупных компаний в России уже внедрили или планируют внедрить искусственный интеллект в свои бизнес-процессы. Использование ИИ включает в себя анализ данных, предиктивную аналитику, оценку ресурсов и другие задачи, что подчеркивает важность развития компетенций в этой области для будущего успеха на рынке труда.В ближайшие годы потребность в продвинутых Data-аналитиках с функциями LLM Security будет расти. Они ожидают, что спрос на специалистов по безопасности больших языковых моделей (LLM Security) в 2025 году вырастет на четверть. Среди потенциальных рисков, которые назвали эксперты, - репутационные потери из-за отсутствия этики у чат-ботов, внедрение вредоносного кода в запросы к нейросетям, выдача ошибочной информации за истину на этапе обучения модели и даже кража ИИ-модели злоумышленниками. Если компании не учитывают риски, это может привести к потерям, указали аналитики. Важно осознать, что защита информации и обеспечение безопасности данных становятся все более актуальными в контексте развития технологий и искусственного интеллекта.Согласно Дарье Фигуркиной, директору по талантам компании, в ближайшие два-три года ожидается рост запросов на создание центров компетенций по безопасности больших языковых моделей (LLM Security) для коммерческих компаний. Она подчеркивает, что при массовом использовании искусственного интеллекта в бизнесе ключевыми становятся специалисты, способные эффективно внедрять большие языковые модели, минимизируя потенциальные риски. Компании-новаторы уже активно внедряют такие модели в свою работу, однако вопросы кибербезопасности в области искусственного интеллекта могут стать особенно острыми в ближайшем будущем.Источник и фото - ria.ru
Понравилась новость? Оцените
Больше новостей на сайтах Медиахолдинга
18 февраля 2026
Власть
18 февраля 2026
Общество
18 февраля 2026
Власть
18 февраля 2026
Общество
18 февраля 2026
Общество
18 февраля 2026
Общество
18 февраля 2026
Общество
18 февраля 2026
Общество
18 февраля 2026
Власть
18 февраля 2026
Власть
18 февраля 2026
Власть
18 февраля 2026
Власть
18 февраля 2026
Власть