Во время слушаний в Сенате Хелен Тонер, бывший член правления OpenAI и известный эксперт по искусственному интеллекту (ИИ). Выступила с тревожным предупреждением о потенциальных опасностях, связанных с новыми технологиями ИИ. Она отметила, что эти передовые инструменты могут оказать значительное негативное влияние / вымирание человечества уже в ближайшем будущем.
Тонер обратила внимание на различия в восприятии искусственного интеллекта на Восточном и Западном побережьях и подчеркнула, что в ближайшем будущем есть риск создания крайне продвинутых и потенциально опасных систем ИИ.
По ее словам, некоторые инженеры и ученые верят, что системы общего искусственного интеллекта (AGI) могут быть созданы в ближайшие 10-20 лет. Эти системы могут быть крайне разрушительными, а в худшем случае привести к вымиранию человечества.
Общий искусственный интеллект
Общий искусственный интеллект — это область теоретических исследований, направленных на создание программного обеспечения с человекоподобным интеллектом и способностью к самообучению. Цель заключается в том, чтобы это программное обеспечение могло выполнять задачи, для которых оно не было специально создано или обучено.
Эксперт призвала правительства принять меры для смягчения негативных последствий от искусственного интеллекта и усилить контроль в этой области. Она отметила, что ситуация может стать все более сложной, и нам необходимо быть готовыми к изменениям, связанным с развитием ИИ.
Интересно, что Тонер — не единственный эксперт, который опасается, что искусственный интеллект может привести к гибели человечества. Согласно опросу, проведенному журналом Nature среди экспертов по ИИ, по меньшей мере 5% из них считают, что существует вероятность того, что сверхразумные машины могут уничтожить человечество.
Некоторые пользователи Reddit выразили обеспокоенность словами Тонера и согласились с необходимостью контроля за развитием ИИ. Однако другие пользователи обратили внимание на другие угрозы, такие как изменение климата, и выразили сомнения в том, что искусственный интеллект должен быть приоритетной задачей.
Один из сценариев заключается в том, что злонамеренные субъекты будут использовать его возможности для создания нового биологического оружия, более смертоносного, чем естественные пандемии. По мере интеграции ИИ в мировые системы террористы и прочие злоумышленники могут использовать его для отключения финансовых рынков, электросетей и другой жизненно важной инфраструктуры, такой как водоснабжение.
Серьезная опасность также связана с тем, что на каком-то этапе ИИ может посчитать человечество помехой на пути осуществления своей цели и решить, что его необходимо уничтожить.
+ Пока нет комментариев
Добавьте ваш