Сбер, новые технологии и кибербезопасность

Пресс-служба Сбера сообщила о том, что банк заработал более 230 млрд рублей в 2022 году благодаря внедрению искусственного интеллекта.

По предварительным оценкам, финансовый эффект от внедрения искусственного интеллекта (ИИ) в Сбере в 2022 году составил более 230 млрд рублей. Искусственный интеллект в банке используют, чтобы создавать новые продукты, улучшать клиентский опыт и развивать клиентоцентричный подход.

Сбер

 В следующем году Сбербанк планирует дальнейшее развитие технологий искусственного интеллекта в таких направлениях, как персональные предложения, кредитование, здравоохранение, оптимизация процессов и кибербезопасность.

Мы поставили искусственный интеллект на службу нашим клиентам и сегодня на собственном опыте видим: нет такого процесса, который искусственный интеллект не мог бы сделать более эффективным. И мы чётко понимаем: тот уровень качества, на котором сейчас находятся наши продукты и услуги, бесшовность и лёгкость клиентских путей, высокая скорость, надёжность и безопасность всех наших сервисов, возможны только при использовании искусственного интеллекта.

Сбер

Источник

«Сбер» в отчёте по прогнозу влияния новых технологий на кибербезопасность назвал глобальный разум одной из главных киберугроз в будущем. Эксперты «Сбера» в публикации «Прогноз влияния перспективных технологий на ландшафт угроз кибербезопасности» (Hypervector 2022) также пояснили, что новые технологии — виртуальная и дополненная реальность, 5G, генеративный искусственный интеллект, распределённые вычисления, дипфейк и многие другие — уже значительно влияют на все аспекты нашей жизни. В том числе они могут использоваться для кибератак и, напротив, для защиты от них.

По мнению сотрудников лаборатории кибербезопасности «Сбера», одними из серьёзнейших угроз могут стать глобальный разум, квантовые компьютеры, психиатрия искусственного интеллекта (ИИ), сильный ИИ и другие. По оценке специалистов, эти технологии могут иметь высокий уровень влияния на ландшафт киберугроз на дальнем горизонте (больше десяти лет).

Самыми серьёзными киберугрозами эксперты «Сбера» назвали:

  • сильный ИИ, который в теории может понимать и выполнять любую интеллектуальную задачу. Из-за развития технологии может появиться самообучающееся вредоносное программное обеспечение, которое будет обходить классические методы защиты;
  • квантовые компьютеры — из-за них классические методы шифрования могут оказаться под угрозой;
  • двунаправленный нейрокомпьютерный интерфейс, который может направлять информацию в обе стороны. Его развитие может привести к возможным атакам на изменения восприятия и удалённый контроль и произвольными и непроизвольными функциями организма;
  • глобальный разум — общая сеть, соединяющая компьютеры и людей и содержащая в себе огромный объем информации. Его появление потребует пересмотра большинства принципов и подходов к кибербезопасности;
  • психиатрия ИИ — расстройства ИИ, схожие с расстройствами психики людей. Такие нарушения могут принести большой вред работе различных систем, управляемых ИИ;
  • аугментация человека — биологические и технологические подходы к расширению возможностей человеческого организма. Это технология может нести угрозы кибербезопасности, так как существующие требования к специалистам в области основаны на ограниченных возможностях тела человека.

В отчёте Hypervector 2022 каждая такая технология проанализирована и оценена с точки зрения степени влияния на ландшафт киберугроз. Также там указан период времени, в течение которого технология, предположительно, достигнет зрелости и начнёт применяться массово. Более того, для каждой из рассмотренных технологий приведены примеры возможных угроз или её использования в кибербезопасности.

В «Сбере» пояснили, что информация из отчёта Hypervector 2022 поможет специалистам в сфере кибербезопасности заранее подготовиться к новым угрозам, а исследователям и разработчикам — учитывать возможное влияние их изобретений на безопасность и предусмотреть механизмы защиты от их применения в преступных целях.

Источник

Поделиться ссылкой:

Total Views: 184 ,
 

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *