Поддержать команду Зеркала
Беларусы на войне
  1. Минэнерго: Беларусская энергосистема продолжает стабильную работу после выхода стран Балтии из БРЭЛЛ
  2. Среди данных утечки из бота «Беларускага Гаюна» были уникальные ID пользователей Telegram
  3. Уроженец Гомеля и один из самых богатых бизнесменов России высказался о мирном соглашении с Украиной
  4. Глава ГТК анонсировал открытие в феврале после реконструкции пункта пропуска «Берестовица», но забыл кое-что уточнить
  5. С официальных карт исчезли границы резиденций Лукашенко, но кое-что важное спрятать забыли — рассказываем
  6. В Минске с 15-го этажа выпал полуторагодовалый ребенок
  7. Зеленский анонсировал введение системы призыва для 18-летних
  8. Беларусский айтишник продолжает рассказывать, как тяжело жить в Испании и как хорошо — в Беларуси
  9. Лукашенко озадачился ситуацией с валютой. Эксперт пояснил, что может стоять за этим беспокойством и какие действия могут последовать
  10. Курская область под огнем: 28 атак, 61 авиаудар и более 400 артобстрелов за сутки
  11. Камера засекла — деньги ушли: новый механизм взыскания штрафов за ПДД предлагают в Беларуси
  12. Утечка данных из бота «Гаюна»: начались первые задержания
  13. В Беларуси идет проверка боеготовности — военнообязанных вызывают повестками. Как должны вручать и по каким причинам можно не явиться
  14. Эдуарда Бабарико вновь будут судить
  15. Поклоннику Лукашенко, который хвастался разработкой «вакцин от алкоголизма и запоя», вынесли приговор (очень мягкий)


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.