Поддержать команду Зеркала
Беларусы на войне
  1. Зима берет реванш: в стране ожидаются морозы до −16°C и гололедица
  2. Среди данных утечки из бота «Беларускага Гаюна» были уникальные ID пользователей Telegram
  3. Зеленский анонсировал введение системы призыва для 18-летних
  4. Уроженец Гомеля и один из самых богатых бизнесменов России высказался о мирном соглашении с Украиной
  5. Минэнерго: Беларусская энергосистема продолжает стабильную работу после выхода стран Балтии из БРЭЛЛ
  6. Лукашенко озадачился ситуацией с валютой. Эксперт пояснил, что может стоять за этим беспокойством и какие действия могут последовать
  7. Курская область под огнем: 28 атак, 61 авиаудар и более 400 артобстрелов за сутки
  8. С официальных карт исчезли границы резиденций Лукашенко, но кое-что важное спрятать забыли — рассказываем
  9. Эдуарда Бабарико вновь будут судить
  10. Утечка данных из бота «Гаюна»: начались первые задержания
  11. В Минске с 15-го этажа выпал полуторагодовалый ребенок
  12. Глава ГТК анонсировал открытие в феврале после реконструкции пункта пропуска «Берестовица», но забыл кое-что уточнить
  13. Беларусский айтишник продолжает рассказывать, как тяжело жить в Испании и как хорошо — в Беларуси
  14. «Наша гераіня». Как в Вильнюсе встречали Полину Шарендо-Панасюк, отсидевшую четыре года, — репортаж «Зеркала»
  15. В Беларуси идет проверка боеготовности — военнообязанных вызывают повестками. Как должны вручать и по каким причинам можно не явиться


/

Google удалил из своих принципов работы с искусственным интеллектом пункт, в котором компания обещала не участвовать в создании технологий, способных нанести вред людям, в том числе в военных целях. На это обратило внимание агентство Bloomberg.

Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com
Изображение носит иллюстративный характер. Фото: Pawel Czerwinski / unsplash.com

Со страницы целиком исчез раздел под заголовком «Применение [ИИ], которым мы не будем заниматься». Судя по копиям страницы в веб-архиве, в конце января этот раздел еще присутствовал на ней. Он содержал четыре пункта:

  • технологии, которые в целом наносят или могут нанести вред (только если польза от них значительно не перевешивает риски);
  • оружие или другие технологии, предназначенные для причинения вреда человеку напрямую или косвенно;
  • технологии слежки, нарушающие международные нормы;
  • технологии, цели которых противоречат международным правовым принципам.

Страница в ее нынешнем виде вообще не содержит упоминаний об обязательствах отказаться от применения ИИ в опасных и неэтичных технологиях, включая оружейные.

В ответ на запрос журналистов прокомментировать произошедшие изменения представитель Google отправил запись в блоге компании, которая была опубликована 4 февраля. В ней говорится об итогах работы в 2024 году и ближайших планах корпорации относительно искусственного интеллекта.

Как рассказали в блоге старший вице-президент Google Джеймс Манийка и глава лаборатории искусственного интеллекта DeepMind Демис Хассабис, правительства и компании должны работать вместе над созданием искусственного интеллекта, который будет защищать людей, способствовать глобальному развитию и поддерживать нацбезопасность.

Одна из бывших руководителей исследовательской группы Google по этике искусственного интеллекта Маргарет Митчелл сказала Bloomberg, что подобное изменение принципов работы корпорации с ИИ будет иметь серьезные последствия: «Удаление этого пункта <…> означает, что Google теперь, вероятно, будет работать над внедрением технологий, которые смогут убивать людей».

Изменение политики Google в сфере разработки искусственного интеллекта совпадает с общей тенденцией среди крупных игроков на рынке, отметило Bloomberg. В частности, в январе Meta и Amazon расформировали часть своих программ по обеспечению разнообразия и инклюзивности.