Три компании запускают новый Научно-Исследовательский Институт, целью которого будет повышение приватности и уровня доверия к децентрализованному искусственному интеллекту.
Частный Институт Совместных Исследований Искусственного Интеллекта был открыт отделом исследований Intel, позже подключились производитель ПО в области информационной безопасности Avast и Borsetta – компания, которая занимается разработкой ПО на основе искусственного интеллекта.
«Мы рады соединить наши силы с Intel и Borsetta, чтобы раскрыть потенциал ИИ в области информационной безопасности», – высказался главный технический директор Avast.
Компании собираются совершенствовать конфиденциальность и информационную безопасность, освобождать данные из силосов и поддерживать эффективность с помощью децентрализованного ИИ. Трио сообщает, что централизованный ИИ можно легко атаковать, изменив данные где-то между коллекцией и облаком.
Одна из проблем безопасности ИИ – это ограничения федеративного метода его обучения, при котором используется единая модель без прямого обмена данными.
Команда Института сообщает, что метод не может одинаково гарантировать точность, приватность и безопасность.
Как сообщает Borsetta, компания была рада присоединиться к коллаборации, потому что они твердо уверены в возможности создания механизма сохранения конфиденциальности, чтобы поддержать развитие ИИ.
«Миссия проекта заключается в том, чтобы создать будущее, где данные будут защищены с помощью новейших вычислительных технологий, которым можно доверять, – говорит исполнительный директор Borsetta. – Доверие – это валюта будущего, и нам нужно создать системы со встроенным ИИ, которые будут безопасными, прозрачными и надежными».
В начале этого года был объявлен конкурс исследовательских предложений, который закончился выбором 9 проектов в 8 университетах в Бельгии, Канаде, Германии, Сингапуре и США.