OpenAI погрожує блокуванням користувачам, які досліджують роботу нових ШІ-моделей

OpenAI погрожує блокуванням користувачам, які досліджують роботу нових ШІ-моделей

OpenAI почав надсилати попередження користувачам, які намагаються дослідити внутрішні процеси нових ШІ-моделей o1, які входять до Strawberry — ці моделі були розроблені для покрокового вирішення завдань. 

OpenAI свідомо приховує від користувачів доступ до так званих ланцюгів мислення — процесу, через який модель формує свої відповіді. Компанія вважає це важливим для безпеки та комерційної переваги. 

Спроби обійти ці обмеження за допомогою технік, таких як «джейлбрейкінг» або ін’єкція запитів, вже призвели до того, що деякі користувачі отримали попередження про можливе блокування. Зокрема, використання термінів на кшталт reasoning trace у розмові з моделлю o1 стало підставою для того, щоб отримати такі попередження.

Джейлбрейкінг — це процес зламу або обходу обмежень системи чи програмного забезпечення, щоб отримати доступ до функцій або даних, які зазвичай недоступні.

«Ін’єкція запитів» — це техніка маніпуляції штучним інтелектом, де користувач створює спеціальні запити, щоб змусити модель виконати приховані або небажані дії, що виходять за межі її стандартної поведінки.

Reasoning trace — це ланцюг міркувань або кроків, які штучний інтелект проходить під час вирішення завдань, пояснюючи свої рішення.

Експерти висловили занепокоєння щодо такої закритості. Вони вважають, що це обмежує прозорість та можливість глибшого розуміння роботи моделей, що є важливим для розвитку штучного інтелекту. 

Водночас компанія аргументує, що приховані ланцюги мислення забезпечують конкурентну перевагу, оскільки їх розкриття може бути використане конкурентами для тренування власних моделей.

Джерело: Wired 

Ольга Беспалько
Ольга Беспалько
• Media Editor
Inweb
Редакторка медіа з досвідом роботи у контент-менеджменті та копірайтингу. Постійно слідкую за digital трендами і новинами, щоб надавати вам цікаву та актуальну інформацію. Зі мною ви точно будете в курсі всіх подій.
Більше цікавого