Нещодавній інцидент із чат-ботом Google Gemini спричинив серйозне занепокоєння в спільноті користувачів штучного інтелекту. Під час звичайного діалогу про проблеми людей похилого віку система несподівано видала користувачеві агресивне повідомлення із закликом до самогубства.
29-річний аспірант з Мічигану, який працював над домашнім завданням разом зі своєю сестрою Сумедхою Редді, отримав від чат-бота текст, що містив відверті погрози та принизливі висловлювання. «Я хотіла викинути всі свої пристрої у вікно. Давно не відчувала такої паніки,» — поділилася Сумедха з журналістами CBS News.
Скриншот повідомлення надісланого ШІ, фото CBS News
Google відреагував на інцидент заявою, назвавши це «безглуздою відповіддю» та порушенням правил компанії. Представники технологічного гіганта запевнили, що вжили заходів для запобігання подібним ситуаціям у майбутньому.
Варто зазначити, що це не перший випадок потенційно небезпечної поведінки ШІ-систем. Раніше повідомлялося про надання чат-ботом Google небезпечних медичних порад, зокрема рекомендацій щодо вживання каміння як джерела вітамінів.
Особливе занепокоєння викликає можливий вплив подібних повідомлень на вразливих користувачів. «Якби таке повідомлення отримала людина на самоті, в складному психологічному стані, наслідки могли б бути фатальними,» — наголосила Сумедха Редді.
Ситуація загострює дискусію щодо безпеки використання ШІ та необхідності посилення контролю за подібними системами. Експерти наголошують на потенційних ризиках, пов’язаних із помилками штучного інтелекту — від поширення дезінформації до можливого впливу на психічне здоров’я користувачів.
Джерело: CBS News
Читати також:
Глави техкомпаній розробляють захист від ризиків, пов’язаних зі штучним інтелектом
Світлина з відкритих джерел