В настоящее время 70% российских компаний внедрили ИИ-решения. Однако стремительное развитие нейросети несет не только преимущества, но и серьезные риски. О том, какие угрозы ИИ представляет и как от них защититься, рассказал 29 июня в беседе с «Известиями» заместитель генерального директора IVA Technologies Максим Смирнов.
Среди основных рисков выделяются утечки персональных данных и мошенничество с дипфейками. В России за первые два месяца текущего года произошло 19 крупных утечек данных, затронувших 24 млн человек. Чтобы защитить свои данные, рекомендуется избегать их размещения в открытых источниках и использовать шифрование. Для корпоративного сегмента предпочтительнее устанавливать ИИ в закрытом контуре компании.
Смирнов обратил внимание на то, что мошенничество с дипфейками также становится серьезной проблемой: эксперты прогнозируют, что к 2025 году каждый второй россиянин столкнется с подобными атаками. В настоящее время каждая пятая российская компания пострадала от использования поддельных аудио- и видеозаписей. Чтобы избежать обмана, важно перепроверять источники информации и минимизировать размещение личных данных в публичном доступе.
Современные нейросетевые модели не имеют автономного сознания и действуют на основе обучающих данных, что может приводить к предвзятости. Например, алгоритм Amazon для подбора кадров дискриминировал женщин из-за доминирования мужчин в обучающих данных.
По словам эксперта, для снижения таких проблем необходимо несколько шагов. Во-первых, компании должны быть прозрачными и публиковать информацию о принципах работы ИИ. Во-вторых, данные должны тщательно проверяться на наличие предвзятости. Третьим важным аспектом является государственное регулирование ИИ.
«Для повышения доверия к ИИ-технологиям критически важно создавать и использовать отечественные решения. Зависимость от иностранных платформ в ключевых отраслях может обернуться стратегическим риском», — заключил собеседник.
Фото: pxhere.com