Meta може припинити розробку ШІ-систем, які вважає занадто ризикованими

Meta може припинити розробку ШІ-систем, які вважає занадто ризикованими

Meta оприлюднила Frontier AI Framework — документ, у якому визначає умови, за яких компанія може обмежити або припинити розробку власних ШІ-систем. Зокрема, Meta виокремлює дві категорії: високий ризик і критичний ризик.

До систем високого ризику належать моделі, здатні допомагати в кіберзагрозах чи розробленні небезпечних речовин, але не з абсолютною надійністю. 

Критично небезпечні системи, за визначенням Meta, можуть мати катастрофічні наслідки, які неможливо мінімізувати в контексті їхнього використання.

Якщо ШІ-модель є високоризикованою, то компанія обмежить її внутрішнє використання та відкладе випуск до зниження рівня загрози. Якщо ж систему визнають критичною, Meta вживатиме додаткових заходів безпеки або припинить її розроблення.

Ця стратегія стала відповіддю на критику щодо відкритого підходу Meta до розвитку ШІ. Її ШІ-моделі Llama вже завантажили сотні мільйонів разів. Проте відомо, що деякі з них використали недружні держави для створення військових рішень.

Meta зазначає, що її підхід до розробки ШІ буде змінюватися залежно від розвитку технологій і глобальних ризиків.

Джерело: Tech Crunch

Яна Поліщук
Яна Поліщук
• Content Writer
Inweb
Редактор за фахом і райтер за покликанням. Уже понад 13 років пишу тексти, які допомагають читачам знайти відповіді на свої запитання. Люблю слова і їхню силу, але «порожні» і «без цілі» — безжально видаляю. Уважна до деталей, бо вірю, що саме вони роблять тексти живими й переконливими.
Більше цікавого