Глави техкомпаній розробляють захист від ризиків, пов’язаних зі штучним інтелектом

Делегація провідних технологічних лідерів, включаючи Ілона Маска, Марка Цукерберга та Сема Альтмана, зібралася у середу у Вашингтоні на закриту зустріч з американськими сенаторами, щоб обговорити розвиток штучного інтелекту та способи його регулювання.

Сенатор-демократ Чак Шумер, який назвав зустріч «історичною», зазначив, що учасники загалом схвалили ідею регулювання, проте консенсусу з приводу того, як мають виглядати такі правила, немає», — повідомляє The Guardian.

Чак Шумер запитав усіх присутніх у залі, включаючи понад 60 сенаторів, майже два десятки керівників технологічних компаній, прихильників і скептиків, чи повинен уряд відігравати якусь роль у нагляді за штучним інтелектом, і «всі до одного підняли руки, попри те, що їхні думки розділилися».

Обговорювалися, зокрема, такі питання, як необхідність створення незалежного агентства з нагляду за деякими аспектами технології, що швидко розвивається, підвищення прозорості діяльності компаній і те, як США можуть випередити Китай та інші країни.

«Ключовим моментом було те, що нам важливо мати третейського суддю. Це була дуже цивілізована дискусія серед найрозумніших людей у світі», — Ілон Маск.


Учасники форуму також обговорили нагальну необхідність вжити заходів щодо захисту виборів у США у 2024 році від дезінформації, яка може посилитися з допомогою використання штучного інтелекту.

У конференції також взяли участь кілька експертів з ШI та інших лідерів галузі, у тому числі Білл Гейтс, генеральний директор Motion Picture Association Чарльз Рівкін, колишній генеральний директор Google Ерік Шмідт, співзасновник Центру гуманних технологій Трістан Харріс та Дебора Раджі, дослідник з Каліфорнійського університету Берклі.

У своєму вступному слові Марк Цукерберг заявив, що компанія співпрацює з науковцями, політиками та громадянським суспільством, щоб «мінімізувати ризики», пов’язані з цією технологією, і водночас не допустити недооцінки її переваг. Зокрема, він згадав роботу над створенням водяних знаків для контенту ШI, щоб уникнути таких ризиків, як масове поширення дезінформації.

Деякі сенатори критично поставилися до закритої зустрічі, заявивши, що керівники технологічних компаній мають надавати свідчення публічно. Сенатор-республіканець Джош Хоулі заявив, що не буде присутнім на «гігантській коктейльній вечірці для великих технологій».

«Я не розумію, навіщо запрошувати всіх найбільших монополістів світу, щоб вони прийшли та дали Конгресу поради про те, як допомогти їм заробити більше грошей, а потім закрити цю тему для громадськості», — Джош Хоулі.


Після виходу ChatGPT компанії почали активно використовувати нові інструменти генеративного ШІ, які дозволяють складати «людиноподібні» фрагменти тексту, програмувати комп’ютерний код, створювати нові зображення, аудіо- та відеоматеріали.

Ажіотаж навколо таких інструментів посилив побоювання щодо їхньої потенційної шкоди для суспільства і викликав заклики до більшої прозорості щодо збору та використання даних, що лежать в основі нових продуктів та технологій.



Читати також:

Штучний інтелект лікуватиме американців замість лікарів?

Google використовує ШІ чат-бота для створення «людських» рекламних кампаній

Штучний інтелект може замінити 300 млн робочих місць у США та ЄС

Політ на літаку без пілота: в США тестують безпілотний літак керований штучним інтелектом системи Skyborg

Паралізована жінка заговорила через 18 років завдяки цифровому аватару (+Відео)

Американська компанія отримала дозвіл випробувати чіпи для мозку на людях


Світлина з відкритих джерел

News Reporter
У медіа з 2017 року. Писала для https://inpoland.net.pl/. Слідкую за подіями у світі від технологій до економічних і соціальних процесів, суспільно-політичного життя та геополітичної ситуації. Закінчила ЛНУ ім. Івана Франка за спеціальністю історія. Зараз у Львові, 7 років жила у Варшаві. Люблю книги, кіно, активний відпочинок та свою роботу.

2 thoughts on “Глави техкомпаній розробляють захист від ризиків, пов’язаних зі штучним інтелектом

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *