Професор втратив два роки «ретельно структурованої академічної роботи» в ChatGPT через зміну лише одного налаштування
Марсель Бухер, професор Кельнського університету, втратив два роки академічної роботи через один клік у ChatGPT.
Марсель Бухер, професор Кельнського університету, втратив два роки академічної роботи через один клік у ChatGPT.
Марсель Бухер, професор Кельнського університету, втратив два роки академічної роботи через один клік у ChatGPT.
Бухер використовував ChatGPT Plus як помічника для виконання різних завдань, включаючи написання електронних листів, структурування заявок на гранти, перегляд публікацій та аналіз відповідей студентів на іспити, пише PC Gamer.
Професор зауважив, що не сприймав ChatGPT як джерело точних фактів, розуміючи схильність ШІ до впевнених помилок. Натомість він покладався на безперервність та очевидну стабільність робочого простору.
У серпні минулого року Бухер тимчасово вимкнув опцію «згоди на дані», бо хотів побачити, чи матиме доступ до всіх функцій моделі, якщо не надаватиме OpenAI свої дані.
«У той момент усі мої чати були назавжди видалені, а папки проєкту очищені — два роки ретельно структурованої академічної роботи зникли», — каже Бухер. «Жодного попередження не з’явилося. Не було опції скасування. Просто чиста сторінка».
Бухер визнає, що зберігав лише часткові копії деяких розмов і матеріалів, тож решта результатів його дворічної академічної праці просто зникла. Професор неодноразово звертався до служби підтримки OpenAI, але зрештою отримав відповідь, що дані втрачено безповоротно і відновити їх неможливо.
«Це не був випадок втрати випадкових нотаток чи пустих чатів», — вважає Бучер. «Це був інтелектуальний каркас, який створювався протягом двох років».
Бухер стверджує: якщо один клік здатний безповоротно знищити роки праці, то, на його думку та з огляду на власний досвід, ChatGPT не можна вважати повністю безпечним для професійного використання. Він зауважив, що як платний підписник, який сплачує понад $20 на місяць, очікував на наявність базових заходів захисту — зокрема, попередження про незворотне видалення, опцію відновлення (нехай і обмежену в часі), а також резервне копіювання чи дублювання даних.
Бухер підсумовує, що OpenAI, мовляв, виконала свої зобов’язання щодо конфіденційності користувача, видаливши його дані в ту саму секунду, як він про це попросив.


