0
ChatGPT і подібні технології на основі машинного навчання набувають зростання. Однак навіть найдосконаліші алгоритми стикаються з обмеженнями. Дослідники з Копенгагенського університету зробили новаторське відкриття, математично продемонструвавши, що, окрім основних проблем, неможливо розробити завжди стабільні алгоритми ШІ. Це дослідження може прокласти шлях до вдосконалення протоколів тестування для алгоритмів, підкреслюючи притаманні відмінності між машинною обробкою та людським інтелектом.
Наукова стаття з описом результату схвалена до публікації на одній з провідних міжнародних конференцій з теоретичної інформатики.
Машини інтерпретують медичні скановані зображення точніше, ніж лікарі, перекладають іноземні мови та, можливо, незабаром зможуть керувати автомобілями безпечніше, ніж люди. Однак навіть найкращі алгоритми мають недоліки. Дослідницька група факультету комп’ютерних наук Копенгагенського університету намагається їх розкрити.
Візьмемо як приклад автоматизований транспортний засіб, який читає дорожній знак. Якщо хтось розмістив наклейку на знак, це не буде відволікати людину-водія. Але машину можна легко відкласти, оскільки знак тепер відрізняється від тих, на яких її навчали.
«Ми хотіли б, щоб алгоритми були стабільними в тому сенсі, що якщо вхідні дані трохи змінено, вихідні дані залишаться майже такими ж. Реальне життя включає всілякі шуми, які люди звикли ігнорувати, тоді як машини можуть заплутатися», — каже професор Амір Єгудайофф, керівник групи.
Мова для обговорення недоліків
Будучи першою у світі, група разом із дослідниками з інших країн математично довела, що окрім простих задач неможливо створити алгоритми машинного навчання, які завжди будуть стабільними. Наукова стаття з описом результату була схвалена до публікації на одній з провідних міжнародних конференцій з теоретичної інформатики Foundations of Computer Science (FOCS).
«Хочу зауважити, що ми не працювали безпосередньо над автоматизованими автомобільними додатками. Проте це здається занадто складною проблемою для того, щоб алгоритми завжди були стабільними», — каже Амір Єгудайофф, додаючи, що це не обов’язково означає серйозні наслідки щодо розробки автоматизованих автомобілів:
«Якщо алгоритм помиляється лише за кількох дуже рідкісних обставин, це цілком може бути прийнятним. Але якщо це відбувається за великої сукупності обставин, це погана новина».
Наукова стаття не може застосовуватися промисловістю для виявлення помилок у її алгоритмах. Це не було наміром, пояснює професор:
«Ми розробляємо мову для обговорення слабких місць в алгоритмах машинного навчання. Це може призвести до розробки вказівок, які описуватимуть, як слід тестувати алгоритми. І в довгостроковій перспективі це знову може призвести до розробки кращих і стабільніших алгоритмів».
Від інтуїції до математики
Можливим застосуванням може бути тестування алгоритмів для захисту цифрової конфіденційності.
«Деякі компанії можуть стверджувати, що розробили абсолютно безпечне рішення для захисту конфіденційності. По-перше, наша методологія може допомогти встановити, що рішення не може бути абсолютно безпечним. По-друге, він зможе точно визначити слабкі місця», — каже Амір Єгудайофф.
Але перш за все наукова стаття сприяє теорії. Особливо новаторським є математичний зміст, додає він: «Ми інтуїтивно розуміємо, що стабільний алгоритм має працювати майже так само добре, як і раніше, піддаючись впливу невеликої кількості вхідного шуму. Так само, як дорожній знак із наклейкою. Але як вченим-теоретикам, нам потрібне чітке визначення. Ми повинні вміти описати проблему мовою математики. Яку саме кількість шуму повинен витримувати алгоритм і наскільки близьким до вихідного має бути результат, якщо ми хочемо вважати алгоритм стабільним? Ось на що ми запропонували відповідь».
Важливо пам’ятати про обмеження
Наукова стаття викликала великий інтерес у колег із теоретичного світу інформатики, але не в індустрії технологій. Принаймні ще ні.
«Завжди слід очікувати певної затримки між новою теоретичною розробкою та інтересом людей, які працюють у додатках», — каже Амір Єгудайофф, усміхаючись додаючи: «І деякі теоретичні розробки залишаться непоміченими назавжди».
Однак він не бачить, що це відбувається в цьому випадку: «Машинне навчання продовжує швидко прогресувати, і важливо пам’ятати, що навіть рішення, які є дуже успішними в реальному світі, все ще мають обмеження. Іноді може здаватися, що машини здатні думати, але врешті-решт вони не володіють людським інтелектом. Це важливо мати на увазі».