Jesus Christ
Конфуций
С искусственным интеллектом мы соседствуем с прошлого века, но вот плотнячком в новостные ленты ИИ вошел именно весной прошлого года. Тогда нам предвещали чуть ли не пришествие Скайнета, но в итоге для большинства людей будто бы ничего не изменилось. Или изменилось? Давайте разбираться вместе.
К одной из первых попыток реализации нейросети можно отнести перцептрон, разработанный американским ученым Фрэнком Розенблаттом в конце 1950-х. Перцептрон — модель машинного обучения, которую создали для обучения компьютеров на разных базах данных.
В конце 80-х эту идею развили Дэвид Румельхарт и Джеффри Хинтон, которые представили метод обратного распространения ошибки. Если очень сильно упростить, то в суть его в том, что нейросетью используется цепное правило, из-за которого ошибка вертится в круге вычислений до тех пор, пока не пропадет. Этот метод позволил нейросетям обучаться намного эффективнее.
Дополнительным шагом в развитии искусственного интеллекта стали нелинейные функции активации. Они же легли в основу Deep Learning, того самого «глубокого обучения», благодаря которому нейросети стали и сложнее, и размашистее. Приплюсуйте сюда прокачку новых архитектур и алгоритмов, а также развитие графических процессоров, которые также повлияли на становление искусственного интеллекта.
Казалось бы, уже много, но вот случается 2020-й и выпуск GPT-3 от OpenAI. Эта языковая модель задумывалась как «инструмент для решения любых задач». Это был iPhone в мире подобных разработок, и возможности GPT-3 начали тестировать все — от энтузиастов и до гигантов вроде Microsoft. Последние, к слову, оперативно внедрили модель в своих продукты.
А полноценным поп-культурным событием стал выход ChatGPT от той же OpenAI. В феврале 2023-го количество пользователей этого чат-бота, якобы знающего все про все, достигло 100 миллионов человек. Людей, для которых определение «генеративный искусственный интеллект» прекращало быть абракадаброй, становилось все больше, и весенний релиз GPT-4 ждали чуть ли не всем миром.
О потенциальной опасности искусственного интеллекта заговорили не только обычные люди, но и те, кто приложил руку к его развитию. Например, «крестный отец ИИ» Джеффри Хинтон, ответственный за создание метода обратного распространения ошибки, уволился из Google и высказался по поводу искусственного интеллекта в
— Есть вероятность, что происходящее в этих системах намного превосходит по сложности процессы в человеческом мозге. Посмотрите на то, что происходило в сфере исследований ИИ пять лет назад, и на то, что происходит сейчас. Представьте, с какой скоростью изменения будут происходить в будущем. Это пугает.
Обычные люди больше не будут знать, где правда. Некоторые люди верили, что технологии могут стать умнее, чем мы, но большинство считало это преувеличением. Я тоже думал, что до этого еще далеко. Я думал, что нам остается до этого от 30 до 50 лет или даже больше. Очевидно, я больше так не считаю.
Опасения Хинтона разделили Илон Маск, Стив Возняк и еще 33 тысячи человек. Все они подписали
К чему привел изначальный восторг от GPT-4, плавно перетекший в панику? Эффект от открытого письма был кратковременным: в мае 2024-го OpenAI презентовала GPT-4o. Модель снабдили реалистичным голосовым помощником и улучшили ее возможности в плане обработки изображений, текста и аудио. Параллельно с этим попытки модели выдать себя за человека становятся все более успешными: на прошлой неделе GPT-4 прошла тест
Весь остальной мир получил регулярное упоминание нейросетей в новостных заголовках, ботов, в которых можно превращать свои фото в кадры из аниме, и возможность генерировать контент за несколько щелчков по клавиатуре. Подробнее о том, что дали (и не дали) нам нейросети за последний год, — далее по тексту.
Представители LinkedIn отметили, что количество упоминаний работы с ИИ в профилях маркетологов, писателей и дизайнеров увеличилось в 142 раза. А 45% таких специалистов переживают, что искусственный интеллект заменит их на работе. В принципе, эти опасения не беспочвенные: по оценкам
Случаются увольнения из-за ИИ в 2024-м? Да, но не в таких гигантских масштабах, как описывают McKinsey Global Institute и Goldman Sachs. Например, некоторые водители Amazon были
Есть ли возможность как-то сдерживать влияние ИИ на рынок труда? По словам президента Американской федерации труда и Конгресса промышленных организаций Лиз Шулер, США необходимо правительственное агентство, проверяющее нейросети на предмет их опасности для работников-людей. Шулер сравнивает такое агентство с FDA, «которое проверяет лекарства, чтобы убедиться, что те не убивают людей».
Взаимодействие ИИ с человеческими эмоциями может показаться натягиванием совы на глобус. Ровно до момента, пока вы не натыкаетесь на новость о том, что искусственный интеллект
Отдельного материала заслуживает коллекция «вредных советов», которые искусственный интеллект выдает пользователям. Искусственный интеллект
То, какие ссылки подсовывает нам поисковая строка, то, какие рекламные товары появляются на нашем экране, и то, как мобильная клавиатура обучается нашему стилю письма, — все это завязано на ИИ. Презентации
Сейчас искусственный интеллект — это инструмент, который можно использовать как в хороших, так и в плохих целях. С одной стороны — использование нейросетей для кражи данных, производство дипфейков и копирование голосов: в мае Скарлетт Йоханссон обвинила OpenAI в том, что один из голосов модели «устрашающе похож» на ее собственный.
С другой — предположение канадских ученых о том, что искусственный интеллект может
Изменил ли ИИ мир? Точно не до уровня Cyberpunk 2077. Пока что это контролируемый процесс, в котором искусственный интеллект еще не взялся за бесконечное самоусовершенствование, создавая реальность, где нет места человеку. Остается надеяться, что местная SHODAN в нашем мире никогда не появится.
Напомните, когда вообще появился искусственный интеллект?
Концепция нейросетей как таковых сформировалась в первой половине прошлого века. Тогда исследователи пытались понять, какие вычислительные процедуры можно назвать интеллектуальными, а также ответить на вопрос, может ли вообще машина мыслить.К одной из первых попыток реализации нейросети можно отнести перцептрон, разработанный американским ученым Фрэнком Розенблаттом в конце 1950-х. Перцептрон — модель машинного обучения, которую создали для обучения компьютеров на разных базах данных.
В конце 80-х эту идею развили Дэвид Румельхарт и Джеффри Хинтон, которые представили метод обратного распространения ошибки. Если очень сильно упростить, то в суть его в том, что нейросетью используется цепное правило, из-за которого ошибка вертится в круге вычислений до тех пор, пока не пропадет. Этот метод позволил нейросетям обучаться намного эффективнее.
Дополнительным шагом в развитии искусственного интеллекта стали нелинейные функции активации. Они же легли в основу Deep Learning, того самого «глубокого обучения», благодаря которому нейросети стали и сложнее, и размашистее. Приплюсуйте сюда прокачку новых архитектур и алгоритмов, а также развитие графических процессоров, которые также повлияли на становление искусственного интеллекта.
Казалось бы, уже много, но вот случается 2020-й и выпуск GPT-3 от OpenAI. Эта языковая модель задумывалась как «инструмент для решения любых задач». Это был iPhone в мире подобных разработок, и возможности GPT-3 начали тестировать все — от энтузиастов и до гигантов вроде Microsoft. Последние, к слову, оперативно внедрили модель в своих продукты.
А полноценным поп-культурным событием стал выход ChatGPT от той же OpenAI. В феврале 2023-го количество пользователей этого чат-бота, якобы знающего все про все, достигло 100 миллионов человек. Людей, для которых определение «генеративный искусственный интеллект» прекращало быть абракадаброй, становилось все больше, и весенний релиз GPT-4 ждали чуть ли не всем миром.
Что произошло после выпуска GPT-4?
Как минимум, выход самой продвинутой языковой модели макнул интернет-сообщество в калейдоскоп эмоций. Мультимодальность, возможность запоминать целые пласты контекста и способность GPT-4 связно ответить на любой вопрос одновременно и восхищали, и пугали пользователей. Особенно из-за того, что нейросеть могла стать консультантом в не самых безопасных штуках — например, в изготовленииБудь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
.О потенциальной опасности искусственного интеллекта заговорили не только обычные люди, но и те, кто приложил руку к его развитию. Например, «крестный отец ИИ» Джеффри Хинтон, ответственный за создание метода обратного распространения ошибки, уволился из Google и высказался по поводу искусственного интеллекта в
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
The New York Times:— Есть вероятность, что происходящее в этих системах намного превосходит по сложности процессы в человеческом мозге. Посмотрите на то, что происходило в сфере исследований ИИ пять лет назад, и на то, что происходит сейчас. Представьте, с какой скоростью изменения будут происходить в будущем. Это пугает.
Обычные люди больше не будут знать, где правда. Некоторые люди верили, что технологии могут стать умнее, чем мы, но большинство считало это преувеличением. Я тоже думал, что до этого еще далеко. Я думал, что нам остается до этого от 30 до 50 лет или даже больше. Очевидно, я больше так не считаю.
Опасения Хинтона разделили Илон Маск, Стив Возняк и еще 33 тысячи человек. Все они подписали
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут разработаны оптимальные протоколы безопасности. Тогда же в сети вспомнили высказывания Стивена Хокинга: еще в 2014-м ученый
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
о том, что «искусственный интеллект может покончить с человечеством».К чему привел изначальный восторг от GPT-4, плавно перетекший в панику? Эффект от открытого письма был кратковременным: в мае 2024-го OpenAI презентовала GPT-4o. Модель снабдили реалистичным голосовым помощником и улучшили ее возможности в плане обработки изображений, текста и аудио. Параллельно с этим попытки модели выдать себя за человека становятся все более успешными: на прошлой неделе GPT-4 прошла тест
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
.Весь остальной мир получил регулярное упоминание нейросетей в новостных заголовках, ботов, в которых можно превращать свои фото в кадры из аниме, и возможность генерировать контент за несколько щелчков по клавиатуре. Подробнее о том, что дали (и не дали) нам нейросети за последний год, — далее по тексту.
Изменился и рынок труда, и то, как люди стали работать
Утверждение о том, что ИИ начнет отбирать у людей работу, было одним из ключевых лейтмотивов новостей, посвященных искусственному интеллекту. Например, по результатам исследования Goldman Sachs заключили, что 300 миллионов рабочих мест по всему миру могут быть автоматизированы. А из совместногоБудь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
Microsoft и LinkedIn видно, что за последние шесть месяцев использование генеративного ИИ почти удвоилось. По данным компаний, ИИ в своей работе используют 75% работников, а 75% опрошенных заявили, что им нужны навыки по работе с искусственным интеллектом, чтобы оставаться востребованными на рынке труда.Представители LinkedIn отметили, что количество упоминаний работы с ИИ в профилях маркетологов, писателей и дизайнеров увеличилось в 142 раза. А 45% таких специалистов переживают, что искусственный интеллект заменит их на работе. В принципе, эти опасения не беспочвенные: по оценкам
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
, к 2030 году рабочие места могут потерять 12 миллионов американских рабочих.Случаются увольнения из-за ИИ в 2024-м? Да, но не в таких гигантских масштабах, как описывают McKinsey Global Institute и Goldman Sachs. Например, некоторые водители Amazon были
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
ботами под управлением ИИ — без объяснения причин и вмешательства других людей. Случаются такие увольнения и в среде, из которой и вышел ИИ: в начале 2024-го из Meta, Microsoft, Google и Amazon
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
больше 41 тысячи сотрудников.Есть ли возможность как-то сдерживать влияние ИИ на рынок труда? По словам президента Американской федерации труда и Конгресса промышленных организаций Лиз Шулер, США необходимо правительственное агентство, проверяющее нейросети на предмет их опасности для работников-людей. Шулер сравнивает такое агентство с FDA, «которое проверяет лекарства, чтобы убедиться, что те не убивают людей».
ИИ научился влиять на человеческие эмоции, а «вредных советов» становится все больше
В 2024 году сильные мира сего осознали, что оставлять искусственный интеллект без контроля на государственном уровне больше нельзя. По этой причине в марте 2024-го ЕвропарламентБудь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
Закон об искусственном интеллекте — первый в мире нормативный акт по регулированию ИИ. В нем предусмотрены различные меры по защите общества от негативного влияния ИИ: от маркировки контента, созданного нейросетями, и до запрета на определение эмоций с помощью компьютеров.Взаимодействие ИИ с человеческими эмоциями может показаться натягиванием совы на глобус. Ровно до момента, пока вы не натыкаетесь на новость о том, что искусственный интеллект
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
человека до самоубийства. Это мы про бельгийца, который решил свести счеты с жизнью после двух месяцев общения с чат-ботом Eliza. Мужчина был обеспокоен глобальным потеплением, и Eliza согласилась позаботиться о планете после того, как бельгиец «пожертвует собственной жизнью».Отдельного материала заслуживает коллекция «вредных советов», которые искусственный интеллект выдает пользователям. Искусственный интеллект
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
добавить в пиццу клей, чтобы сыр не соскальзывал с теста,
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
заправки для салата, вызывающие ботулизм, и предлагает
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
депрессию прыжком с моста. И это еще случаи, когда отсебятину ИИ удавалось обнаружить невооруженным глазом: на том же Reddit регулярно мелькают ветки о том, что иногда нейросети не только не находят ошибки в компьютерном коде, но и добавляют новые.К чему нам стоит быть готовыми?
Во-первых, давайте выдохнем и поймем, что нашествие терминаторов в ближайшее время нам не грозит. Во-вторых, давайте глянем в сторону наших смартфонов и осознаем, что мы ежедневно носим искусственный интеллект в кармане брюк.То, какие ссылки подсовывает нам поисковая строка, то, какие рекламные товары появляются на нашем экране, и то, как мобильная клавиатура обучается нашему стилю письма, — все это завязано на ИИ. Презентации
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
,
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
,
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
— львиную долю всех этих ивентов заняли разговоры об искусственном интеллекте.Сейчас искусственный интеллект — это инструмент, который можно использовать как в хороших, так и в плохих целях. С одной стороны — использование нейросетей для кражи данных, производство дипфейков и копирование голосов: в мае Скарлетт Йоханссон обвинила OpenAI в том, что один из голосов модели «устрашающе похож» на ее собственный.
С другой — предположение канадских ученых о том, что искусственный интеллект может
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
человечеству в борьбе с изменением климата. Футуролог Рэймонд Курцвейл
Будь ласка,
Увійти
або
Реєстрація
щоб переглянути вміст URL-адреси!
, что ИИ станет разгадкой в борьбе с раком и болезнью Альцгеймера. А аналитик по работе с ИИ в Open Philanthropy Аджей Котра считает, что ИИ возьмет на себя всю рутинную работу и все, что останется человечеству, — это процветать и заниматься только тем, что нам действительно интересно.Изменил ли ИИ мир? Точно не до уровня Cyberpunk 2077. Пока что это контролируемый процесс, в котором искусственный интеллект еще не взялся за бесконечное самоусовершенствование, создавая реальность, где нет места человеку. Остается надеяться, что местная SHODAN в нашем мире никогда не появится.