Суцкевер подчеркнул, что временные рамки неопределенны — три, пять, может быть, десять лет, — но направление ясно. "ИИ сделает все наше... все, что мы можем сделать. Не только некоторых из них, но и всех ". Главный вопрос, по его словам, заключается в том, что произойдет потом: "Это драматические вопросы".
Он указал на возможные результаты, такие как расширение исследований, более быстрый экономический рост и большая автоматизация, что приведет к периоду, когда "темпы прогресса станут действительно чрезвычайно быстрыми, по крайней мере, в течение некоторого времени", что приведет к "невообразимым вещам".
Но он настаивал, что отказаться невозможно. Цитируя известное высказывание о том, что политики проявляют к вам интерес, даже если вы им не интересуетесь, Суцкевер сказал, что тот же принцип применим к ИИ "во многих случаях".
"И в некотором смысле, нравится вам это или нет, ИИ в значительной степени повлияет на вашу жизнь", - заключил Суцкевер.
Суцкевер покинул OpenAI в мае 2024 года после внутренних споровсреди руководства компании. Затем он основал
Safe Superintelligence (SSI), стартап, специализирующийся на разработке безопасного сверхразумного ИИ.
Подробности о работе SSI не были обнародованы, но в конце 2024 года
Суцкевер указал, что предыдущие принципы масштабирования ИИ достигли своих пределов и что
необходимы новые подходы. Несмотря на отсутствие продукта или дохода,
SSI уже оценивается более чем в 30 миллиардов долларов.