Нейросети-кодеры: к чему готовиться программистам?

Моя цель - предложение широкого ассортимента товаров и услуг на постоянно высоком качестве обслуживания по самым выгодным ценам.

Прежде чем перейти к статье, хочу вам представить, экономическую онлайн игру Brave Knights, в которой вы можете играть и зарабатывать. Регистируйтесь, играйте и зарабатывайте!

Развитие искусственного интеллекта доросло до качественного прорыва, когда нейросети становятся «слегка сознательными». Из-за чего бизнесмены строят фантастические планы и считают будущие прибыли, программисты тренируют красноречие, а стратеги ищут способ защитить человечество от машинного самоуправства.

Началось все с невинной задачки: надо было понять, как вырастет мировой рынок AI в ближайшие годы. За самыми смелыми прогнозами я полез в отчет Кэти Вуд. Ее аналитики обещают, что рынок вырастет более чем в десять раз, с 10,5 до 108 триллионов долларов к 2030 году. При этом стоимость специализированного аппаратного и программного обеспечения, а также услуг по обучению нейросетей будет радикально падать. Искусственный интеллект будет брать количеством, забравшись в самые неожиданные сферы нашей жизни.

Немного фактов. Сейчас одна из самых продвинутых нейросетей для генерации текста – это GPT-3, содержащая 175 млрд токенов. В 2015 году, когда GPT только создавалась, стоимость обучения такой нейросети составила бы $875 млн, и на это потребовались бы годы. А в 2020 году такое обучение было проведено, и оно обошлось в $4,6 млн. По прогнозам ARK, в 2030 году затраты на подобную задачу снизятся до 500 долларов, а время – до нескольких часов. Понимаете, да? В 9200 раз меньше. Закон Мура с экспонентой тихо курят в сторонке.

Что интересно, если сейчас попытаться обучить нейросеть размером с человеческий мозг (а это 240 триллионов синапсов), то затраты составят больше 2,5 млрд долларов. В 2030 году на это уйдет не больше 600 тыс. долларов. Сумма небольшая, наверняка найдется тот, кто это сделает.

Специализированные нейропроцессоры в ближайшие годы будут штамповаться как пирожки, предложение услуг по обучению нейросетей вырастет на несколько порядков. В результате AI быстро начнет отбирать все те рутинные задачи, которыми сейчас занимаются миллионы людей.

По прогнозам все той же Кэти Вуд, к 2030 году эффективность работы разных клерков (секретарей, помощников юристов, делопроизводителей) вырастет в 4 раза. По сути, им нужно будет дать некой системе вводные, и словами или комментариями корректировать процесс. Ну что ж, у них будет еще больше времени, чтобы сидеть в Insta... Яндекс.картинках и VK.

Но это не все, по тем же прогнозам эффективность программистов вырастет в 2 раза, и помогут им все те же нейросети. Они будут сами писать большую часть кода, нужно только правильно формулировать свои задачи. Сейчас есть два проекта, которые уже можно увидеть в действии, это OpenAI Codex и AlphaCode. Первый построен на уже упомянутой нейросети GPT-3, которой скормили весь доступный код с Github и не только. Второй реализован компанией DeepMind на той же трансформерной архитектуре глубоких нейронных сетей.

Что интересно, нейросети-трансформеры способны не просто находить подходящий текст или строчку кода, но генерировать то, что первоначально даже не встречалось. Из-за этой особенности соучредитель OpenAI Илья Суцкевер даже назвал свое детище «слегка сознательной» нейросетью.

Ситуация, когда одна написанная или произнесенная фраза программиста превращается в десятки строчек кода, выглядит весьма привлекательно. Сами программисты не исчезнут, но им придется обзаводиться новым навыком: красноречием. Причем не на обычном человеческом языке,а на неком новоязе, впитавшем в себя алгоритмические подходы. От того, как, с помощью каких выражений и синонимов, будущий программист сформулирует задание машине, зависит качество генерируемого кода. Картинка вырисовывается феерическая, особенно если взять в расчет встречающуюся нелюдимость, неграмотность и косноязычность некоторых прогеров. Конкуренцию им составят весело щебечущие с «нейроняшкой» девочки-единорожки.

На этом видео для создания веб-сайта потребовалось 180 слов

Есть ли тут обратная сторона медали? Конечно. Эти глубокие нейросети обучаются на огромном массиве данных, куда могут попадать весьма спорные вещи. И в случае целенаправленного зловредного обучения, прямого провоцирования или в ситуации со сложным выбором одинаково вероятностных результатов такая нейросеть может выдать что-то недопустимое с точки зрения человека. 

И если сгенерированный AI новостной фейк приведет максимум к скандалу, то глубоко запрятанный вызов условного «Format c:» может нарушить работоспособность какой-нибудь критической инфраструктуры. Нейросеть строит свои ответы, исходя из приобретенного опыта. А опытом ее снабжаем мы, люди - весьма агрессивные и эгоистичные существа. Так что уже сейчас задачи контроля и глубокой проверки результатов становятся серьезным вызовом для евангелистов AI.

Полезные ссылки:

Возможности и результаты генерации кода от AlphaCode

Официальная страница OpenAI Codex с видео его работы

Очень доходчивая статья про архитектуру Transformer на Хабре

Источник: https://habr.com/ru/post/658347/


Интересные статьи

Интересные статьи

Когда появились первые новости о том, что восходящая звезда Реге-Жан Пейдж уходит из сериала «Бриджертоны» после первого же сезона, в первую минуту я был потрясен и огорчен. У меня в голове не укл...
Дисклеймер: данная статья носит скорее философский, чем технический характер рассуждений и рассчитана на людей, имеющих небольшой опыт собеседований. С повышением квалификации может меняться отношение...
В 2013 году Илон Маск предложил идею создания скоростной транспортной системы, которая способна в разы сократить время, которое мы тратим на перемещение из точки А в точку Б. Сокращение...
Представьте себе, что вы директор маленькой средней школы, который ищет нового учителя. Поскольку у вас в штате менее 20 учителей, вы должны убедиться, что каждый человек, которого вы нан...
Мы сегодня запустили виртуальную галерею, где все картины созданы нейронной сетью. Её особенность в том, что каждую картину в полном размере может забрать себе только один человек. Почти как в на...