В Microsoft назвали ИИ опасным
Специалисты из компании Microsoft провели оценку уровня безопасности пользователей, связанного с использованием искусственного интеллекта (ИИ). Результаты исследования были опубликованы на платформе arXiv. В ходе исследования было проанализировано более 100 инструментов генеративного ИИ, чтобы определить связанные с ними риски. Ученые подчеркнули, что полная безопасность при работе с ИИ недостижима, поэтому важно контролировать процесс обучения языковых моделей (LLM) и предотвращать возможные ошибки.
Эксперты пришли к выводу, что большие языковые модели (LLM) увеличивают существующие риски безопасности и могут создавать новые угрозы. Например, если обучать LLM на основе некорректных или конфиденциальных данных, то модель может распространить эту информацию среди пользователей. Они также отметили, что потенциальный вред от использования ИИ сложно оценить.
Для повышения безопасности при работе с ИИ специалисты предложили контролировать каждый этап обучения языковых моделей. Они подчеркнули, что человеческий фактор играет ключевую роль в процессе обучения ИИ. Также для работы с искусственным интеллектом необходимы предметная экспертиза, культурная компетентность и эмоциональный интеллект.
В начале января швейцарские исследователи высказали мнение о том, что частое использование инструментов ИИ может привести к снижению навыков критического мышления. Они предположили, что в долгосрочной перспективе использование ИИ может негативно сказаться на когнитивных функциях общества.
Больше новостей на сайтах Медиахолдинга