OpenAI, Google та інші зобов’язуються наносити водяні знаки на контент, зроблений штучним інтелектом – Білий дім
Джерело: Reuters
Компанії штучного інтелекту, зокрема OpenAI, Alphabet і Meta Platforms добровільно взяли на себе зобов’язання перед Білим домом запровадити такі заходи, як позначення водяних знаків на створеному штучним інтелектом контенті, щоб допомогти зробити цю технологію безпечнішою.
“Ці зобов’язання є перспективним кроком, але нам потрібно ще багато працювати разом”, — сказав президент США Джо Байден.
На заході в Білому домі Байден заявив, що зростають стурбованості з приводу потенціалу використання ШІ для руйнівних цілей, та сказавши, що “ми маємо бути чіткими та пильними щодо загроз від нових технологій”.
Компанії, до яких також входять Anthropic, Inflection, Amazon.com і партнер OpenAI Microsoft, пообіцяли ретельно тестувати системи перед їх випуском і ділитися інформацією про те, як зменшити ризики та інвестувати в кібербезпеку.
“Ми вітаємо лідерство президента в об’єднанні технологічної індустрії, щоб виробити конкретні кроки, які допоможуть зробити штучний інтелект безпечнішим і кориснішим для суспільства”, — йдеться в повідомленні Microsoft.
Байден сказав, що він також працює над розробкою виконавчого указу та двопартійного законодавства щодо технології ШІ.
“Ми побачимо більше технологічних змін у наступні 10 років або навіть у наступні кілька років, ніж ми бачили за останні 50 років. Це було для мене дивовижним відкриттям, відверто кажучи”, — сказав Байден.
У рамках зусиль сім компаній взяли на себе зобов’язання розробити систему “водяних знаків” для всіх форм вмісту, від тексту, зображень, аудіо до відео, створених ШІ, щоб користувачі знали, що дана технологія була використана.
Компанії також пообіцяли зосередитися на захисті конфіденційності користувачів у міру розвитку штучного інтелекту та на забезпеченні того, щоб технологія була вільною від упереджень і не використовувалася для дискримінації вразливих груп. Серед інших зобов’язань – розробка рішень ШІ для таких наукових проблем, як медичні дослідження та пом’якшення кліматичних змін.
- Міністерство освіти Японії попросило університети та технічні коледжі по всій країні розробити власні правила або рекомендації щодо використання генеративного штучного інтелекту (ШІ).
- ЗС Ізраїлю стали використовувати штучний інтелект для автоматизовного вибору цілей під час авіаударів. Зокрема йдеться про організацію матеріально-технічного забезпечення під час ведення війни з Іраном.
- Компанія Google черговий раз оновила політику конфіденційності своїх сервісів. Відтепер вона може застосовувати загальнодоступну інформацію з метою навчання моделей штучного інтелекту, в тому числі чат-бота Bard.
Стрес на роботі спричинив клінічну смерть британки Кортні Стокс. Серце дівчини зупинилося на сім хвилин. Її батьку вдалося врятувати життя доньки за допомогою серцево-легеневої реанімації до приїзду медиків.
Нові дослідження засвідчили, що сполуки канабісу CBD і THC мають значний протираковий ефект проти клітин раку яєчників. Вчені виявили, що їхнє спільне застосування сповільнює ріст клітин, зменшує формування колоній і потенційно блокує здатність раку до метастазування. Водночас, додають науковців, здорові клітини майже не зазнають шкоди, натомість лікування відновлює порушений сигнальний шлях PI3K/AKT/mTOR, який сприяє росту пухлин.
11 грудня під час етеру “Новий відлік” на Першому каналі Суспільного мікрофон речника Генштабу, офіцера ЗСУ Андрія Ковальова, вимкнули після кількох попереджень та прохань не відходити від заявленої теми, повідомила ведуча Власта Лазур.
У Берліні президент Володимир Зеленський 15 грудня провів чергові переговори з представниками США щодо завершення війни з Росією. Україна намагається переконати США, що припинення вогню має відбутися без попередніх територіальних поступок на користь Росії.
Російський ринок нерухомості стрімко втрачає інвесторів і покупців. Зокрема обсяг інвестиційних угод за рік скоротився на третину, тоді як адміністративне утримання високих цін лише поглиблює розрив між первинним і вторинним ринками та посилює кризу довіри.