Вымирание человечества уже в ближайшем будущем

Во время слушаний в Сенате Хелен Тонер, бывший член правления OpenAI и известный эксперт по искусственному интеллекту (ИИ). Выступила с тревожным предупреждением о потенциальных опасностях, связанных с новыми технологиями ИИ. Она отметила, что эти передовые инструменты могут оказать значительное негативное влияние / вымирание человечества уже в ближайшем будущем.

Тонер обратила внимание на различия в восприятии искусственного интеллекта на Восточном и Западном побережьях и подчеркнула, что в ближайшем будущем есть риск создания крайне продвинутых и потенциально опасных систем ИИ.

По ее словам, некоторые инженеры и ученые верят, что системы общего искусственного интеллекта (AGI) могут быть созданы в ближайшие 10-20 лет. Эти системы могут быть крайне разрушительными, а в худшем случае привести к вымиранию человечества.

Общий искусственный интеллект

Общий искусственный интеллект — это область теоретических исследований, направленных на создание программного обеспечения с человекоподобным интеллектом и способностью к самообучению. Цель заключается в том, чтобы это программное обеспечение могло выполнять задачи, для которых оно не было специально создано или обучено.

Эксперт призвала правительства принять меры для смягчения негативных последствий от искусственного интеллекта и усилить контроль в этой области. Она отметила, что ситуация может стать все более сложной, и нам необходимо быть готовыми к изменениям, связанным с развитием ИИ.

Интересно, что Тонер — не единственный эксперт, который опасается, что искусственный интеллект может привести к гибели человечества. Согласно опросу, проведенному журналом Nature среди экспертов по ИИ, по меньшей мере 5% из них считают, что существует вероятность того, что сверхразумные машины могут уничтожить человечество.

Некоторые пользователи Reddit выразили обеспокоенность словами Тонера и согласились с необходимостью контроля за развитием ИИ. Однако другие пользователи обратили внимание на другие угрозы, такие как изменение климата, и выразили сомнения в том, что искусственный интеллект должен быть приоритетной задачей.

Вас может заинтересовать:  Приостановить обучение системы ИИ: Маск и Возняк обеспокоены

Один из сценариев заключается в том, что злонамеренные субъекты будут использовать его возможности для создания нового биологического оружия, более смертоносного, чем естественные пандемии. По мере интеграции ИИ в мировые системы террористы и прочие злоумышленники могут использовать его для отключения финансовых рынков, электросетей и другой жизненно важной инфраструктуры, такой как водоснабжение.

Серьезная опасность также связана с тем, что на каком-то этапе ИИ может посчитать человечество помехой на пути осуществления своей цели и решить, что его необходимо уничтожить.

(Посещений всего:89, Визитов сегодня:1)

Вам может понравиться:

Рекомендации редакции:

+ Пока нет комментариев

Добавьте ваш