Поддержать команду Зеркала
Беларусы на войне
  1. «У нас тотальное падение». Интервью с представительницей директората BYSOL о скандале со Стрижаком
  2. «Хотел спасти хотя бы какое-то количество людей». Поговорили с дочкой задержанного беларуса, который отправлял данные в «Беларускі Гаюн»
  3. Переговоры в Стамбуле еще не состоялись, но Россия уже демонстрирует свое истинное отношение к их результатам — вот примеры
  4. В пяти точках Беларуси под землей лежат ядовитые «вечные химикаты». Ситуацией сильно обеспокоена Генпрокуратура — рассказываем
  5. «Я считаю, что нас довольно много: до 35% по стране». Беларус, который называет себя инцелом, рассказал, как пришел к этой мысли
  6. Андрей Стрижак отстранен от руководства BYSOL
  7. Любимая газета Путина опубликовала статью о нападении ЕС на Россию в 2027 году. Главный эксперт в ней — одиозный беларусский пропагандист
  8. «Кто насрал нам в уши о том, что там есть мины?» Украинский уклонист утверждает, что бежал в Европу через Беларусь
  9. В 2026 году будем отдыхать четыре дня подряд. В какие даты
  10. «Мне жаль, что меня неправильно поняли». Тихановский объяснил, что имел в виду, когда говорил об «островах» для беларусов
  11. Признание Стрижака об отправке дикпиков собрало более 300 комментариев. Не все написавшие их поняли, в чем проблема поступка, — объясняем
  12. «В этом смысле очень существенными стали два события». Власти переключились на «тихие репрессии» — правозащитник
  13. 398 из 400 возможных. Посмотрите, насколько высокие баллы нужно было набрать, чтобы бесплатно учиться на некоторых специальностях
  14. До Минска дошел грозовой фронт — город в очередной раз подтопило. Местами не ходит транспорт
  15. Кресла-убийцы. Дома и на работе вас может подстерегать опасность, о которой вы не знали — объясняем, как ее избежать


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.