Нейросети наступают: явные и скрытые опасности ИИ

Моя цель - предложение широкого ассортимента товаров и услуг на постоянно высоком качестве обслуживания по самым выгодным ценам.

За последние пару лет нейросети и другие продукты на базе ИИ и ML успели стать частью нашей повседневной реальности. Но, несмотря на это, они продолжают вызывать неоднозначные чувства даже у технически подкованных людей. Взрывной рост подобных технологий привлек повышенное общественное внимание как к позитивным, так и к негативным сторонам повсеместного внедрения продвинутых систем искусственного интеллекта.

По мере того как ИИ становился все более изощренным и распространенным, голоса, предупреждающие о его потенциальных опасностях, начинали звучать все громче.

«Развитие искусственного интеллекта может означать конец человеческой расы», — утверждал в одном из интервью Стивен Хокинг.

«[ИИ] чертовски пугает меня», — заявил основатель Tesla и SpaceX Илон Маск на технической конференции SXSW. «Он способен на гораздо большее, чем кто-либо знает, и скорость улучшения экспоненциальна».

Источник: slate.com
Источник: slate.com

Весной 2023 года голоса ИИ-скептиков слились в дружный хор, результатом чего стало открытое письмо с призывом немедленно приостановить создание «гигантских» ИИ как представляющих «серьезные риски для общества и человечества». Меморандум подписали Илон Маск (Tesla, SpaceX), Эмад Мостак (Stability AI), Стив Возняк (Apple), а также более 1000 экспертов, исследователей и разработчиков искусственного интеллекта.

«В последние месяцы лаборатории искусственного интеллекта увязли в неконтролируемой гонке за разработку и развертывание все более мощных цифровых интеллектов, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать», — говорится в письме.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми».

Не исключено, что данное заявление было вызвано непониманием общей картины или личными мотивами. Например, как в случае с Маском, который сам присоединился к LLM-гонке («соревнованию» крупнейших ИТ-корпораций по разработке больших языковых моделей или LLM). А возможно, нам стоит прислушаться к словам специалистов и задуматься над потенциальными недостатками этой технологии, пока искусственный интеллект не показал нам весь свой потенциал? 

Ниже мы подробно рассмотрим возможные опасности искусственного интеллекта и пути управления рисками, связанными с ним.

Массовая потеря работы из-за автоматизации

2022-3 годы ознаменовались не только беспрецедентным обострением мировой экономико-политической напряженности, но и настоящим валом увольнений технических специалистов в крупнейших компаниях отрасли, включая Microsoft, Meta (запрещенную в России), Google и Amazon. 

По данным онлайн «счетчика» увольнений Layoffs.fyi, только за этот год из ИТ-компаний было уволено порядка 200 000 сотрудников, около 20% из которых составили инженеры-программисты. Массовые увольнения ценных технических кадров стали лишь наиболее заметной частью общего кризиса индустрии, который многие называют крупнейшим обвалом со времен «пузыря доткомов».

Одной из веских причин для подобной ситуации, наряду с инфляцией и закончившейся пандемией COVID-19, стал «внезапный» триумф больших языковых моделей (LLM) и повсеместное внедрение в производство ChatGPT-подобных нейросетей. Новые ИИ-инструменты не только показали поразительную ранее продуктивность в деле автоматизации рутинных задач, но и породили своеобразный всплеск социальной истерии. 

Судя по этой потрясающей воображение рекламе Coca-Cola, созданной при помощи ИИ, без работы рискуют остаться многие представители индустрии маркетинга и рекламы.

Согласно недавнему опросу, проведенному по заказу Microsoft, почти половина (49 %) сотрудников ИТ-гиганта боятся потерять работу из-за ИИ. Похожие опасения разделяют представители различных «офисных» профессий — от бухгалтеров и дизайнеров, до маркетологов и юристов, — чьи повседневные обязанности теоретически можно передоверить алгоритмам нейросетей. 

Велика ли опасность?

Из приведенного выше исследования также следует, что большая часть сотрудников Microsoft относится к автоматизации со смешанным чувством надежды и тревоги. 70% опрошенных ожидают, что искусственный интеллект поможет им лучше справляться с постоянно растущими рабочими нагрузками и снижать угрозу выгорания. Большинство респондентов заявило, что им будет удобно использовать ИИ для автоматизации таких сфер своей деятельности, как:

  • административная работа;

  • анализ данных; 

  • творческие задачи;

  • исследования;

  • обобщение информации;

  • планирование рабочего времени.

С похожим оптимизмом ИИ воспринимают и поучаствовавшие в исследовании работодатели. Отвечая на вопрос «Какую потенциальную пользу вы видите от внедрения искусственного интеллекта в компании?», 29% выбрали «помощь сотрудникам в необходимых, но повторяющихся/рутинных задачах», 26% «улучшение самочувствия сотрудников» и лишь 16% назвали «сокращение численности персонала».

Похоже, сотрудникам крупных технологических компаний ИИ-автоматизация несет больше плюсов, чем минусов. Но как же быть с офисными работниками в мелком и среднем бизнесе, чей ежедневный труд может быть потенциально заменен умными алгоритмами? Реальный спрос на рынке труда показывает, что и тут все далеко от реализации мрачных прогнозов «нейросетевых» скептиков.

Например, в моей профессиональной области (производстве цифрового контента) появление общедоступных нейросетей создало новые направления и, соответственно, рабочие места буквально за последние месяцы. Сначала на западных, а затем и на отечественных HR-площадках появились ранее не существовавшие в природе вакансии «промпт-инженер», «сценарист чат-бота» и «AI-тренер» с весьма заманчивыми предложениями по оплате. 

Профессия промпт-инженер уже стала новой реальностью рынка труда.
Профессия промпт-инженер уже стала новой реальностью рынка труда.

Пройдя ряд тестов на знание основ русского языка и редактуры, соискатель, может лично принять участие в кропотливом процессе обучения «с подкреплением» ИИ, который потенциальные работодатели сравнивают с воспитанием. При этом наличие технического бэкграунда и знакомство с основами разработки, хоть и указывается в пункте «желательно», не является обязательным условием для получения заветного оффера. 

Хотя аналитики Всемирного экономического форума (ВЭФ) ожидают, что в ближайшие годы внедрение ИИ и роботизация производства создадут 58 миллионов новых рабочих мест, картина будущего пока далека от утопии. Ведь большинство (2/3) этих вакансий будет требовать от сотрудников достаточного высокого уровня технических навыков, что может оставить «за бортом» массу работников без подходящей квалификации. 

Многие эксперты вообще со скепсисом воспринимают шумиху вокруг «революционного» влияния ИИ на экономику. Например, лауреат Нобелевской премии по экономике 2008 года Пол Кругман считает, что нейросети вряд ли сильно изменят существующую динамику развития производительных сил в ближайшее десятилетие. 

Рост производительности американской экономики за последние 100 лет. Положительный эффект от появления новых технологий никогда не наступал быстро. Источник: bls.gov. 
Рост производительности американской экономики за последние 100 лет. Положительный эффект от появления новых технологий никогда не наступал быстро. Источник: bls.gov. 

В своем интервью ведущему американскому изданию ученый указал, что историческим инновациям, таким как компьютерная революция или электрификация промышленности, потребовались десятилетия, чтобы оказать какое-либо заметное влияние на экономику. По его словам, настоящий эффект от появления ChatGPT и других решений на основе больших языковых моделей можно ожидать лишь в 2030-х годах, а не в ближайшее время.  

Введение в заблуждение и распространение дезинформации

Умные системы с каждым днем все лучше приспосабливаются к созданию «человекоподобного» контента — они могут заменять лица на фото и видео, составлять тексты статей, создавать посты в соцсетях, манипулировать изображениями, клонировать голоса и участвовать в «умной» рекламе.

По мере развития искусственный интеллект сможет создавать на потоке фальшивый контент, который будет все сложнее и сложнее верифицировать. Это даст злоумышленникам еще более совершенный способ распространять дезинформацию и пропаганду, создавая кошмарный сценарий, в котором практически невозможно отличить заслуживающие доверия новости от ложных.

Фальшивки от ИИ уже сегодня начинают оказывать негативное влияние на жизнь общества. В конце мая 2023 года в американских социальных сетях завирусилось фото, якобы запечатлевшее последствия разрушительной атаки на сердце Министерства обороны США. Вид огромного черного облака, поднимающегося над Пентагоном мгновенно вызвал шквал слухов и околопанических комментариев от пользователей. 

Всего одно созданное нейросетью фейк-фото смогло пошатнуть индексы крупнейших американских компаний. Источник: theaustralian.com.
Всего одно созданное нейросетью фейк-фото смогло пошатнуть индексы крупнейших американских компаний. Источник: theaustralian.com.

Несмотря на то, что местная полиция и представители Минобороны довольно быстро выпустили официальное опровержение, а специалисты опознали в фотографии подделку, ущерб не ограничился негативным общественным резонансом. Благодаря тому, что слухи распространяли, в том числе, верифицированные аккаунты, волна паники быстро докатилась до финансовых рынков, серьезно обвалив индексы многих крупных компаний. Например, S&P 500 упал на 30 пунктов, а Dow Jones Industrial Average — на целых 50. 

Незадолго до этого случая скандал, вызванный слишком реалистично сгенерированным изображением, потряс европейскую и шире — католическую общественность на разных континентах. На Reddit было опубликовано фото, где 86-летний папа римский прогуливается в роскошном дизайнерском пуховике по площади Св. Петра. 

Фейковое фото с папой Франциском показало всем способность ИИ влиять на общественное мнение с помощью дезинформации. Источник: cbsnews.com.
Фейковое фото с папой Франциском показало всем способность ИИ влиять на общественное мнение с помощью дезинформации. Источник: cbsnews.com.

Хотя никто не скрывал, что изображение сгенерировано при помощи нейросети Midjourney (на что недвусмысленно намекало название аккаунта), фото успело разогнать огромный негативный резонанс, схожий с появлением не менее реалистичного ИИ-фейка, демонстрирующего «арест» Трампа.

Нейросети уже сейчас могут заставить многих принять желаемое за действительное. Источник: (запрещенный в РФ) Twitter.
Нейросети уже сейчас могут заставить многих принять желаемое за действительное. Источник: (запрещенный в РФ) Twitter.

Не меньшую потенциальную угрозу могут представлять дипфейки — видео, на которых лица реальных действующих персонажей заменены на лица медийных, политических знаменитостей или любых персон по желанию создателя. Несмотря на то, что большая часть создаваемых дипфейков относится к порнографии и развлекательной сфере, эта технология может повернуться к людям и более опасной стороной. 

По мере проникновения дипфейков в политическую и социальную сферы, они меняют новостной фон на все более мрачный. Теперь мы становимся свидетелями не только трогательных «извинений» Джона Сноу за мрачный финал «Игры престолов», но и можем увидеть, как Барак Обама называет Дональда Трампа «полным придурком» или Марк Цукерберг хвастается, что «полностью контролирует украденные данные миллиардов людей». 

Как бороться с ИИ-фейками

В целом ситуация с совершенствованием дипфейков и поиском путей противодействия им напоминает извечное соревнование между киберзлоумышленниками, выпускающими вирусы, и ИБ-специалистами, стремящимися обнаружить и закрыть уязвимости ПО. Повинуясь этой логике, лидеры индустрии стремятся найти адекватные решения, чтобы взять под контроль волну «псевдопользовательского» контента, создаваемого нейросетями. 

В 2022 году Google запретил использование своего сервиса Colab для обучения моделей дипфейков. В 2023-м техногигант анонсировал новую функциональность дополнительного атрибутирования изображений в своей поисковой системе. Теперь все найденные картинки получат дополнительный контекст о времени индексирования, а ИИ-изображения будут автоматически получать соответствующую маркировку.

Подробнее о технологических решениях для автоматического распознавания дипфейков можно почитать в нашем отдельном подробном разборе. 

Фейковое интервью с отставным гонщиком Формулы-1 Михаэлем Шумахером стало первым прецедентом привлечения к ответственности за контент, созданный ИИ. Источник: foxsports.com.
Фейковое интервью с отставным гонщиком Формулы-1 Михаэлем Шумахером стало первым прецедентом привлечения к ответственности за контент, созданный ИИ. Источник: foxsports.com.

Не менее важно и отношение самого общества к использованию сгенерированного ИИ контента, который нарушает нормы морали или закона. 

Так, в марте 2023 года разразился мощный скандал вокруг интервью, которое знаменитый гонщик Михаэль Шумахер якобы дал немецкому журналу Die Aktuelle после почти 10-летнего затворничества. Когда выяснилось, что ответы в «интервью» были полностью сгенерированы ИИ, поднялась волна общественного возмущения, вынудившая издателя уволить редактора, ответственного за статью. Похожий резонанс вызвал случай с американским адвокатом, пытавшимся защитить интересы своего клиента в суде, предоставив фейковые прецедентные материалы, сгенерированные ChatGPT.

Нарушение приватности 

Каждый день человечество создает свыше 300 миллионов терабайт данных. Это главный ресурс, на котором основывается могущество технологических корпораций — главной силы цифровой эпохи. Несмотря на то, что большая часть всего цифрового контента в мире была создана за последние пару лет, личные данные остаются самым желанным и ценным «призом» для аналитических машинных алгоритмов на основе искусственного интеллекта.

Источник: MidJourney.
Источник: MidJourney.

В попытке построить наиболее полный профиль пользователя, позволяющий влиять на его поведение, коммерческие и государственные структуры часто нарушают разумные границы приватности. А когда у «дата-майнеров» появились продвинутые технологии с ИИ, границы личного пространства истончились до предела. 

Раньше пользователю нужно было оставить большой «цифровой след», чтобы дать о себе потенциально ценные сведения. Сейчас же для профилирования достаточно обвешать город и автотрассы камерами, с подключенными к ним нейросетями, которые будут заниматься распознаванием лиц, анализом голоса, поведения и жестов в реальном времени.

С практическим применением высокотехнологичного сбора данных в реальном времени можно столкнуться практически в любой точке планеты. От уличного билборда в Дублине, анализирующего прохожих, чтобы показывать им более релевантные рекламные ролики, до предиктивных алгоритмов, помогающих американским полицейским прогнозировать места совершения преступлений.

Наиболее ярким примером вторжения в личное пространство с помощью продвинутых ИИ можно назвать китайский опыт использования технологий распознавания лиц в офисах, школах и других общественных местах. Помимо разветвлённой сети камер, данные для обрабатывающих алгоритмов могут поступать и с легких переносных источников, например, со специальных очков, надетых на патрулирующих улицы полицейских. 

Далеко не во всех странах вторжение в личную жизнь с помощью ИИ воспринимается с энтузиазмом. Так, именно из-за нарушения приватности и незаконного сбора пользовательских данных (а вовсе не из-за фейковых фото с Папой в пуховике) власти Италии — первыми в Европе — ввели полный запрет на использование ChatGPT в своей стране. Правда национальный бан чат-бота не продержался долго, но вынудил OpenAI впервые ввести специальную форму, с помощью которой пользователи из ЕС могут отправить запрос для удаления личных данных в соответствии с европейским Общим регламентом защиты данных (GDPR).

Манипуляция общественным мнением

Еще в 2018 году группа ученых и исследователей из ведущих научных центров создала отчет о потенциальных опасностях ИИ, в котором на одном из первых мест значились «социальные манипуляции». Сегодня эти опасения во многом превратились в реальность, когда политики стали применять ИИ-технологии на просторах медиаплатформ для продвижения своих точек зрения. Если раньше для политического PR нужно было нанимать массу людей, то теперь достаточно нажать одну кнопку, и алгоритмы автоматически наполнят инфополе нужными смыслами, действуя с пугающей эффективностью.

Источник: Getty Images.
Источник: Getty Images.

Недавним примером стала предвыборная кампания Фердинанда Маркоса-младшего, который с помощью армии ИИ-троллей в TikTok смог повлиять на голоса молодых филиппинцев во время выборов 2022 года. Еще одним резонансным случаем стала история с британской консалтинговой компанией Cambridge Analytica. С помощью ИИ ей удалось получить доступ к данным из 87 миллионов профилей американцев в (запрещенном в России) Facebook, чтобы использовать собранную информацию для манипуляции общественным мнением в ходе выборов 2018 года в США.

При этом у многих возникает резонный вопрос — есть ли возможность ограничить или хотя бы сделать границы влияния искусственного интеллекта на общественное мнение более прозрачными? 

В нашумевшем интервью Илона Маска популярному ведущему Такеру Карлсону создатель SpaceX заявил, что, по его мнению, огромная угроза исходит из потенциальной способности продвинутых моделей искусственного интеллекта массово создавать контент, способный изменять общественное мнение в ту или иную сторону. 

«Со временем ИИ будет все четче понимать, как лучше влиять на людей. Затем он влезет в соцсети… и сможет манипулировать общественным мнением так, что это обернется катастрофой. Вот поэтому я настаиваю, чтобы в будущем аккаунты в (запрещенном в России) Twitter имели верификацию “человек”, чтобы все понимали, что это действительно человек», — резюмировал проблему Маск. По его словам, только «дотошные проверки» на «человечность» смогут оградить пользователей от возможного негативного влияния миллионов ботов, чьи возможности вскоре могут превысить когнитивные способности людей.

Ухудшение качества образования 

Мечта приспособить продвинутые машины к освоению сложно перевариваемого «гранита науки» будоражила юные умы еще во времена СССР (вспомните школьные похождения Электроника из одноименного фильма). Однако до недавнего времени «автоматизация» учебного процесса в основном сводилась к рерайтам несложных статей, рефератов или эссе. Появление в массовой доступности технологий на базе LLM резко изменило устоявшуюся ситуацию.

Находчивый студент с помощью ИИ смог проверить на практике действенность поговорки «победителей не судят». Хотя его последователям может повести гораздо меньше. Источник: twitter.com (запрещен в РФ).
Находчивый студент с помощью ИИ смог проверить на практике действенность поговорки «победителей не судят». Хотя его последователям может повести гораздо меньше. Источник: twitter.com (запрещен в РФ).

О способности нейросетей кардинально влиять на образование широко заговорили в начале 2023 года в связи с беспрецедентным случаем. Студент Российского государственного гуманитарного университета (РГГУ) Александр Жадан разместил в своей соцсети информацию, что смог успешно защитить диплом, полностью написанный с помощью ChatGPT. Потратив всего 23 часа на «скармливание» машине англоязычных промптов, перевод с английского на русский и легкую редактуру, Александр смог добиться 82% уникальности текста и получить искомую тройку у комиссии. 

Результат технологического «эксперимента», больше похожего на шалость, вызвал настоящую бурю в профессиональном сообществе и за его пределами. Ответы на извечный вопрос «и что нам с этим теперь делать» варьировались от немедленного аннулирования результатов защиты диплома и увольнения принявших его преподавателей до использования этого практического опыта в будущем. Дискуссия даже поднялась на высший уровень — Александра позвали в Госдуму на круглый стол, где обсуждались потенциальные опасности, которые представляют ИИ-инструменты для образования.

Реакция самого ВУЗа оказалась на удивление взвешенной. Студента вызвали для объяснений (потенциальный конфликт был улажен дистанционно с помощью юриста) и выпустили официальный пресс-релиз, в котором рекомендовали «ограничить доступ к ChatGPT в образовательных организациях», чтобы не допустить снижения общего качества образования. А вот зарубежные коллеги оценили кейс Жадана более насторожено. Например, несколько ведущих японских университетов ввели ограничения на использование студентами ChatGPT, а один наложил полный запрет на детище OpenAI.

Этические проблемы

Главная опасность этического характера связана не с тем, кто и как задает вопросы ИИ, а с тем, где нейросети берут ответы на эти вопросы. Согласно имеющимся законодательным нормам США, на которые опирались создатели ChatGPT и аналогичных продуктов, все материалы, сгенерированные чат-ботами (и другими программами), включая промпты от пользователей не попадают под категории авторского права. 

Зато данные, которые использовались для обучения продвинутых моделей, часто защищены копирайтом, что, по идее, требует официального разрешения от правообладателей. Юридически такие ИИ-системы, как генераторы изображений, музыки и чат-боты, вроде ChatGPT и LaMDA, не могут считаться авторами материалов, которые они производят. Их результаты являются просто комбинацией предыдущей человеческой работы, большая часть которой была взята из интернета и так или иначе защищена авторским правом.

Kris Kashtanova — автор комиксов, попавшая в историю мировой правоприменительной практики по отношению к ИИ. Источник: wsj.com.
Kris Kashtanova — автор комиксов, попавшая в историю мировой правоприменительной практики по отношению к ИИ. Источник: wsj.com.

Как показала практика, подобные этические проблемы имеют и обратную сторону. Это доказал кейс с графическим романом «Заря рассвета» (Zarya of the Dawn), ставший первой в истории попыткой зарегистрировать авторские права на продукцию ИИ. Комикс был создан на основе текста автора Кристины Каштановой (Kris Kashtanova) и визуальной части от нейросети Midjourney. 

В сентябре 2022 года Бюро регистрации авторских прав США (U.S. Copyright Office) зарегистрировало копирайт на произведение, но буквально через несколько месяцев пересмотрело свое решение. В итоге регистрация авторских прав была частично отменена по причине того, что комикс имеет ранее не учтенное «нечеловеческое авторство». Под защитой авторских прав остались текст произведения, а также «подбор, согласование и расположение» его «письменных и визуальных элементов». А вот сами изображения, использованные в комиксе под копирайт не попали — участие человека в их редактировании посчитали «слишком незначительным и незаметным».

Еще одна потенциально крупная этическая проблема, связанная с продвинутыми ИИ-системами — использование богатых возможностей этих инструментов в сомнительных или откровенно аморальных целях. Известно, что разработчики вложили в ChatGPT множество ограничений, не позволяющих умному чат-боту стать орудием в руках потенциальных нарушителей общественных норм или законов.

Безусловно, нейросеть будет всячески избегать тем, связанных с оскорблениями личности, расизмом, планами совершения мошеннических или насильственных действий. Однако «моральные» алгоритмы ИИ зачастую оказываются бессильны против отработанных на людях приемах реверсивной психологии или хитроумных методов социального инжиниринга.  

Заключение

Большинство обычных людей (и даже технически подкованных специалистов) до конца не представляет себе, как работают запутанные алгоритмы нейронных сетей. Зато почти каждый из нас может легко представить ситуацию, когда умная машина превращается из помощника, улучшающего качество жизни, в источник многочисленных и вполне реальных проблем.

Продвинутые ИИ системы с каждым днем все больше проникают в нашу жизнь, умножая как надежды, так и опасения, которые вряд ли можно уместить в рамки одной статьи. Помимо упомянутых выше угроз в медиапространстве регулярно обсуждаются и такие опасности, как: 

  • появление самосознающего ИИ, который увидит в человеке угрозу или препятствие (привет «Терминатор»);

  • усиление социальной-экономического неравенства и дискриминации из-за алгоритмической предвзятости;

  • волатильность финансовых рынков из-за массового использования ботов;

  • повышение сложности киберугроз;

  • автономизация вооружения.    

Сейчас технология больших языковых моделей находится в фазе стремительного развития, поэтому трудно дать долгосрочные рецепты для преодоления связанных с ней проблем в разных областях. Конечно, можно прислушаться к рекомендациям титулованных ИИ-скептиков и попытаться законодательно зарегулировать эту сферу. Тем более, что лидеры технологической гонки, пусть и не без сопротивления, соглашаются с подобным регулированием. Однако, такие ограничения обычно носят догоняющий характер и могут стать лишь краткосрочным решением. 

Пока ИИ не превзошел человека по общему интеллекту, благодаря развитию вычислительных мощностей, у каждого из нас остается испытанное средство противодействия «машинным» угрозам — развитие собственного критического мышления, вкупе со стремлением познавать окружающий мир.

А как вы оцениваете риски, связанные с активным внедрением развитых версий искусственного интеллекта? Стоит ли начать беспокоиться об этом уже сейчас и можно ли что-либо предпринять для предотвращения угрозы


НЛО прилетело и оставило здесь промокод для читателей нашего блога:
— 15% на заказ любого VDS (кроме тарифа Прогрев) — HABRFIRSTVDS.

Источник: https://habr.com/ru/companies/first/articles/740126/


Интересные статьи

Интересные статьи

Привет Хабр! Поговорим о безопасности в k8s, и начнем с безопасности подов, как базового строительного блока нашего кластера.
Современные нейронные сети достигли уже столь выдающихся результатов качества предсказаний, что компании начали встраивать их в свои процессы принятия решений.ИИ уже сегодня водит автомобили, предсказ...
Развитие искусственного интеллекта доросло до качественного прорыва, когда нейросети становятся «слегка сознательными». Из-за чего бизнесмены строят фантастические планы и считают будущие прибыли, про...
Сетевая безопасность? Да у нас на периметре роутер стоит и все нормально!Благодаря многолетней работе в интеграторе я периодически сталкиваюсь с таким мнением, поэтому надеюсь, что популяризация данно...
Это моя вторая статья с обзором изменений в Scala 3. Первая статья была про новый бесскобочный синтаксис. Одна из наиболее известных фич языка Scala — имплиситы (от англ. implicit — не...