Прежде чем перейти к статье, хочу вам представить, экономическую онлайн игру Brave Knights, в которой вы можете играть и зарабатывать. Регистируйтесь, играйте и зарабатывайте!
Развитие искусственного интеллекта доросло до качественного прорыва, когда нейросети становятся «слегка сознательными». Из-за чего бизнесмены строят фантастические планы и считают будущие прибыли, программисты тренируют красноречие, а стратеги ищут способ защитить человечество от машинного самоуправства.
Началось все с невинной задачки: надо было понять, как вырастет мировой рынок AI в ближайшие годы. За самыми смелыми прогнозами я полез в отчет Кэти Вуд. Ее аналитики обещают, что рынок вырастет более чем в десять раз, с 10,5 до 108 триллионов долларов к 2030 году. При этом стоимость специализированного аппаратного и программного обеспечения, а также услуг по обучению нейросетей будет радикально падать. Искусственный интеллект будет брать количеством, забравшись в самые неожиданные сферы нашей жизни.
Немного фактов. Сейчас одна из самых продвинутых нейросетей для генерации текста – это GPT-3, содержащая 175 млрд токенов. В 2015 году, когда GPT только создавалась, стоимость обучения такой нейросети составила бы $875 млн, и на это потребовались бы годы. А в 2020 году такое обучение было проведено, и оно обошлось в $4,6 млн. По прогнозам ARK, в 2030 году затраты на подобную задачу снизятся до 500 долларов, а время – до нескольких часов. Понимаете, да? В 9200 раз меньше. Закон Мура с экспонентой тихо курят в сторонке.
Что интересно, если сейчас попытаться обучить нейросеть размером с человеческий мозг (а это 240 триллионов синапсов), то затраты составят больше 2,5 млрд долларов. В 2030 году на это уйдет не больше 600 тыс. долларов. Сумма небольшая, наверняка найдется тот, кто это сделает.
Специализированные нейропроцессоры в ближайшие годы будут штамповаться как пирожки, предложение услуг по обучению нейросетей вырастет на несколько порядков. В результате AI быстро начнет отбирать все те рутинные задачи, которыми сейчас занимаются миллионы людей.
По прогнозам все той же Кэти Вуд, к 2030 году эффективность работы разных клерков (секретарей, помощников юристов, делопроизводителей) вырастет в 4 раза. По сути, им нужно будет дать некой системе вводные, и словами или комментариями корректировать процесс. Ну что ж, у них будет еще больше времени, чтобы сидеть в Insta... Яндекс.картинках и VK.
Но это не все, по тем же прогнозам эффективность программистов вырастет в 2 раза, и помогут им все те же нейросети. Они будут сами писать большую часть кода, нужно только правильно формулировать свои задачи. Сейчас есть два проекта, которые уже можно увидеть в действии, это OpenAI Codex и AlphaCode. Первый построен на уже упомянутой нейросети GPT-3, которой скормили весь доступный код с Github и не только. Второй реализован компанией DeepMind на той же трансформерной архитектуре глубоких нейронных сетей.
Что интересно, нейросети-трансформеры способны не просто находить подходящий текст или строчку кода, но генерировать то, что первоначально даже не встречалось. Из-за этой особенности соучредитель OpenAI Илья Суцкевер даже назвал свое детище «слегка сознательной» нейросетью.
Ситуация, когда одна написанная или произнесенная фраза программиста превращается в десятки строчек кода, выглядит весьма привлекательно. Сами программисты не исчезнут, но им придется обзаводиться новым навыком: красноречием. Причем не на обычном человеческом языке,а на неком новоязе, впитавшем в себя алгоритмические подходы. От того, как, с помощью каких выражений и синонимов, будущий программист сформулирует задание машине, зависит качество генерируемого кода. Картинка вырисовывается феерическая, особенно если взять в расчет встречающуюся нелюдимость, неграмотность и косноязычность некоторых прогеров. Конкуренцию им составят весело щебечущие с «нейроняшкой» девочки-единорожки.
На этом видео для создания веб-сайта потребовалось 180 слов
Есть ли тут обратная сторона медали? Конечно. Эти глубокие нейросети обучаются на огромном массиве данных, куда могут попадать весьма спорные вещи. И в случае целенаправленного зловредного обучения, прямого провоцирования или в ситуации со сложным выбором одинаково вероятностных результатов такая нейросеть может выдать что-то недопустимое с точки зрения человека.
И если сгенерированный AI новостной фейк приведет максимум к скандалу, то глубоко запрятанный вызов условного «Format c:» может нарушить работоспособность какой-нибудь критической инфраструктуры. Нейросеть строит свои ответы, исходя из приобретенного опыта. А опытом ее снабжаем мы, люди - весьма агрессивные и эгоистичные существа. Так что уже сейчас задачи контроля и глубокой проверки результатов становятся серьезным вызовом для евангелистов AI.
Полезные ссылки:
Возможности и результаты генерации кода от AlphaCode
Официальная страница OpenAI Codex с видео его работы
Очень доходчивая статья про архитектуру Transformer на Хабре