В Microsoft назвали ИИ опасным
Исследование было опубликовано на платформе arXiv. Специалисты изучили более 100 генеративных инструментов ИИ и выявили потенциальные риски. Они подчеркнули, что полная безопасность ИИ недостижима, поэтому важно контролировать процесс обучения языковых моделей (LLM) и предотвращать ошибки.
В результате исследования было выявлено, что большие языковые модели (LLM) увеличивают существующие угрозы безопасности и создают новые. Обучение LLM на основе недостоверных или конфиденциальных данных может привести к распространению ошибочной информации среди пользователей. Эксперты также отметили, что потенциальный вред от использования ИИ трудно оценить.
Для повышения безопасности при работе с ИИ специалисты предложили строго контролировать каждый этап обучения LLM. Они подчеркнули, что человеческий фактор играет ключевую роль в процессе обучения ИИ. Также важны предметная экспертиза, культурная компетентность и эмоциональный интеллект при работе с искусственным интеллектом. В начале января швейцарские ученые связали частое использование инструментов ИИ с ухудшением критического мышления и предсказали, что в долгосрочной перспективе ИИ может негативно повлиять на когнитивные функции общества.
Источник и фото - lenta.ru