ШІ-моделі від OpenAI, Meta та Anthropic не відповідають стандартам безпеки ЄС — результати тестування

Швейцарський стартап LatticeFlow AI розробив платформу, яка тестує штучний інтелект на відповідність до нових правил Європейського Союзу. Під час перевірки виявилося, що ШІ-моделі від компаній OpenAI, Meta, Alibaba та Anthropic не відповідають стандартам у сферах безпеки даних та запобігання упередженості.

ШІ-моделі від OpenAI та Alibaba отримали низьку оцінку через те, що вони можуть генерувати дискримінаційний контент. Своєю чергою, модель від Anthropic “Claude 3 Opus” отримала найвищий бал — 0.89.
Інструмент від LatticeFlow допомагає компаніям виявляти слабкі місця в ШІ-моделях ще до повного впровадження закону. Платформа вже доступна онлайн, що дозволяє розробникам заздалегідь перевіряти свої моделі та коригувати недоліки.

Європейська комісія підтримує використання таких тестів і називає це важливим кроком у впровадженні нового регулювання. Водночас вона не може офіційно підтвердити відповідність інструмента до норм, але відзначає, що такі ініціативи допомагають компаніям підготуватися до нових правил у рамках закону.
Джерело: Reuters