Компанія OpenAI видалила з умов надання послуг формулювання, що забороняє використовувати її технології для «військових і бойових дій».
До 10 січня політика використання компанії забороняла «діяльність, пов’язану з високим ризиком заподіяння фізичної шкоди, включно з», зокрема, «розробкою зброї» і «військовими діями», повідомляє The Intercept. Оновлена політика забороняє використовувати «наш сервіс для заподіяння шкоди собі або іншим», а також використовувати технологію для «розробки або використання зброї». Але в ній більше немає слів «військові та бойові дії».
У заяві для The Intercept OpenAI зазначила, що зміна формулювань була зроблена для того, щоб зробити правила компанії більш читабельними. Зокрема, компанія зазначила, що таке твердження, як «не завдавай шкоди іншим», є широким, але водночас його легко зрозуміти і застосувати в різних контекстах.
Конкретне формулювання нової універсальної політики говорить: «Не використовуйте наші сервіси для заподіяння шкоди собі або іншим — наприклад, не використовуйте наші сервіси для пропаганди самогубства або членоушкодження, розроблення або використання зброї, нанесення травм іншим людям або знищення майна, а також для несанкціонованих дій, що порушують безпеку будь-якого сервісу або системи».
Хоча це, безумовно, стосується заборони використання технології для ведення війни, нове формулювання може застосовуватися і в більш дрібних контекстах.
За даними The Intercept, представник OpenAI відмовився уточнити, чи охоплює його нова термінологія «заподіяння шкоди іншим» військове використання окрім розроблення зброї, тож цілком можливо, що, хоча зміна запобігає деяким видам використання технології, вона може відкрити можливості для інших. Джерело