Искусственный интеллект x Криптоактивы: исследование революционного влияния глубокого обучения на индустрию

ИИ x Крипто: от нуля до вершины

Недавнее быстрое развитие отрасли искусственного интеллекта воспринимается некоторыми как четвертая промышленная революция. Появление крупных языковых моделей значительно повысило эффективность в различных отраслях, и, по оценкам, увеличило эффективность работы в США примерно на 20%. В то же время универсальные возможности, предоставляемые большими моделями, рассматриваются как новая парадигма проектирования программного обеспечения, отличная от точного проектирования кода в прошлом; теперь проектирование программного обеспечения включает внедрение более универсальных рамок больших моделей, что позволяет программному обеспечению демонстрировать лучшие результаты и поддерживать более широкий диапазон входных и выходных модальностей. Технологии глубокого обучения действительно принесли новый виток процветания в индустрию ИИ, и этот бум также повлиял на индустрию криптовалют.

В этом отчете будет подробно рассмотрен процесс развития AI-индустрии, классификация технологий и влияние изобретения технологий глубокого обучения на отрасль. Затем будет проведен глубокий анализ текущего состояния и тенденций в цепочке поставок, включая GPU, облачные вычисления, источники данных, устройства на границе и т.д. После этого будет проведено фундаментальное исследование связи между Crypto и AI-индустрией, а также проанализирована структура AI-цепочки поставок, связанной с Crypto.

История развития AI-индустрии

Индустрия ИИ начала свое развитие с 50-х годов XX века. Для реализации видения искусственного интеллекта академическое и промышленное сообщества в разные эпохи и с разных дисциплинарных фонов разработали множество направлений для достижения искусственного интеллекта.

Современные технологии искусственного интеллекта в основном используют термин "машинное обучение". Идея этой технологии заключается в том, чтобы позволить машинам улучшать производительность системы за счет многократной итерации на основе данных в рамках задач. Основные шаги включают передачу данных в алгоритм, использование этих данных для обучения модели, тестирование и развертывание модели, а также выполнение автоматизированных прогнозных задач с помощью модели.

В настоящее время в машинном обучении существует три основные школы: коннекционизм, символизм и бихевиоризм, которые имитируют человеческую нервную систему, мышление и поведение.

Новый пользователь: AI x Crypto: от нуля до вершины

На данный момент связь, представленная нейронными сетями, доминирует (, также известная как глубокое обучение ). Основная причина заключается в том, что такая архитектура имеет один входной слой и один выходной слой, но несколько скрытых слоев. Как только количество слоев и нейронов ( и параметры ) становятся достаточными, появляется возможность подстроить сложные универсальные задачи. С помощью ввода данных можно постоянно корректировать параметры нейронов, и после многократного прохождения данных нейрон достигнет оптимального состояния ( параметров ), что и называется "большая сила — большие чудеса", и это также объясняет слово "глубокий" — достаточное количество слоев и нейронов.

Например, можно просто понять, что мы построили функцию, где при вводе X=2, Y=3; при X=3, Y=5. Если мы хотим, чтобы эта функция работала для всех X, нам нужно постоянно добавлять степень этой функции и её параметры. Например, в данный момент я могу построить функцию, удовлетворяющую этому условию, как Y = 2X - 1, но если есть одна выборка с X=2, Y=11, то необходимо перестроить функцию, подходящую для этих трёх точек данных. Используя GPU для брутфорса, мы находим, что Y = X2 - 3X + 5 достаточно подходит, но не обязательно полностью совпадать с данными, достаточно соблюдать баланс и выдавать примерно похожий результат. Здесь X2, X и X0 представляют разные нейроны, а 1, -3, 5 — это их параметры.

В это время, если мы вводим большое количество данных в нейронную сеть, мы можем увеличить количество нейронов и итерационных параметров для подгонки новых данных. Таким образом, мы сможем подогнать все данные.

На основе технологий глубокого обучения, основанных на нейронных сетях, также произошло несколько итераций и эволюций технологий, таких как ранние нейронные сети на изображении, прямые нейронные сети, RNN, CNN, GAN, которые в конечном итоге эволюционировали в современные большие модели, такие как технологии Transformer, используемые в GPT и других. Технология Transformer - это лишь одно из направлений эволюции нейронных сетей, которое добавляет преобразователь ( Transformer ), чтобы кодировать данные всех модальностей (, таких как аудио, видео, изображения и т.д. ) в соответствующие числовые значения для представления. Затем они вводятся в нейронную сеть, благодаря чему нейронная сеть может моделировать любые типы данных, что и позволяет реализовать многомодальность.

Развитие ИИ прошло через три технологические волны. Первая волна началась в 60-х годах XX века, это произошло через десять лет после появления технологий ИИ. Эта волна была вызвана развитием символистских технологий, которые решили проблемы общего обработки естественного языка и взаимодействия человека с машиной. В то же время возникли экспертные системы, важной из которых является система экспертных знаний по химии, обладающая очень сильными знаниями в области химии, позволяя делать выводы на основе вопросов и генерировать ответы, аналогичные ответам химического эксперта. Эта система экспертных знаний по химии может рассматриваться как сочетание базы знаний по химии и системы вывода.

После экспертных систем в 1990-х годах Джудея Перл ( предложил байесовские сети, которые также известны как сети верований. В то же время Брукс предложил поведенческую робототехнику, что ознаменовало рождение бихевиоризма.

В 1997 году шахматный ИИ победил чемпион мира по шахматам Гарри Каспарова со счетом 3.5:2.5)Kasparov(, эта победа считается вехой в развитии искусственного интеллекта, который пережил второй пик своего развития.

Третья волна технологий ИИ произошла в 2006 году. Три гиганта глубокого обучения Ян ЛеКун, Джеффри Хинтон и Ёсуа Бенжио предложили концепцию глубокого обучения, алгоритма, основанного на искусственных нейронных сетях, для представления данных. Затем алгоритмы глубокого обучения постепенно эволюционировали, от RNN и GAN до Transformer и Stable Diffusion, эти два алгоритма совместно сформировали третью технологическую волну, и это также был расцвет коннекционизма.

Многие знаковые события также начали постепенно появляться в ходе исследования и эволюции технологий глубокого обучения, включая:

  • В 2011 году ИИ-система победила человека и стала чемпионом в викторине «Опасная граница» )Jeopardy(.

  • В 2014 году Гудфеллоу представил GAN) Генеративную Состязательную Сеть, Generative Adversarial Network(, которая обучается путем соперничества двух нейронных сетей и может создавать фотореалистичные изображения. В то же время Гудфеллоу написал книгу "Deep Learning", которая называется "цветной книгой" и является одной из важных вводных книг в области глубокого обучения.

  • В 2015 году Хинтон и др. представили алгоритм глубокого обучения в журнале «Природа», что вызвало огромный резонанс как в академических кругах, так и в индустрии.

  • В 2015 году OpenAI была основана, и несколько известных личностей объявили о совместном вложении 1 миллиарда долларов.

  • В 2016 году, основанный на технологии глубокого обучения AlphaGo провел матч против чемпиона мира по го, профессионального игрока девятого дана Ли Сидо, выиграв со счетом 4:1.

  • В 2017 году компания-разработчик технологий создала гуманоидного робота по имени София, который был признан первым в истории роботом, получившим статус гражданина первого класса, обладающим богатой мимикой и способностью понимать человеческий язык.

  • В 2017 году Google опубликовал статью «Внимание — это все, что вам нужно», в которой был представлен алгоритм Transformer, и начали появляться крупномасштабные языковые модели.

  • В 2018 году OpenAI выпустила GPT) Generative Pre-trained Transformer(, построенный на алгоритме Transformer, который был одной из крупнейших языковых моделей на тот момент.

  • В 2018 году команда Google Deepmind выпустила AlphaGo на основе глубокого обучения, способного предсказывать структуру белка, что рассматривается как огромный прогресс в области искусственного интеллекта.

  • В 2019 году OpenAI выпустила GPT-2, эта модель имеет 1,5 миллиарда параметров.

  • В 2020 году OpenAI разработала GPT-3, который имеет 175 миллиардов параметров, что в 100 раз больше, чем у предыдущей версии GPT-2. Эта модель использовала 570 ГБ текста для обучения и может достигать передовых результатов в нескольких задачах NLP), включая ответ на вопросы, перевод и написание статей(.

  • В 2021 году OpenAI выпустила GPT-4, эта модель имеет 1,76 триллиона параметров, что в 10 раз больше, чем у GPT-3.

  • В январе 2023 года было запущено приложение ChatGPT на основе модели GPT-4, в марте ChatGPT достигла ста миллионов пользователей, став приложением, которое быстрее всего достигло ста миллионов пользователей в истории.

  • В 2024 году OpenAI выпустит GPT-4 omni.

Примечание: из-за большого количества статей по искусственному интеллекту, множества направлений и различий в эволюции технологий, здесь в основном следуют истории развития глубокого обучения или соединительного подхода, в то время как другие направления и технологии по-прежнему находятся на стадии быстрого развития.

! [Новичок в популярной науке丨AI x Crypto: от нуля до пика])https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp(

Цепочка создания ценности в глубоком обучении

В настоящее время все языковые модели большого размера используют методы глубокого обучения на основе нейронных сетей. Модели большого размера, возглавляемые GPT, вызвали волну в области искусственного интеллекта, и множество игроков устремилось на этот рынок. Мы также обнаружили, что рынок испытывает огромный спрос на данные и вычислительные мощности. Таким образом, в этой части отчета мы в основном исследуем цепочку поставок алгоритмов глубокого обучения, как устроены ее вверх и вниз по течению в AI-индустрии, доминируемой алгоритмами глубокого обучения, а также каковы нынешнее состояние и соотношение спроса и предложения, а также будущее развитие.

Во-первых, нам нужно прояснить, что при обучении больших моделей LLMs на основе GPT с использованием технологии Transformer) процесс делится на три этапа.

Перед обучением, поскольку он основан на Transformer, преобразователь должен преобразовать текстовый ввод в числовой формат, этот процесс называется "Токенизация", после чего эти числа называются Токенами. В общем случае одно английское слово или символ можно грубо считать одним Токеном, а каждый китайский иероглиф можно грубо считать за два Токена. Это также является базовой единицей, используемой для оценки GPT.

Первый шаг, предварительная тренировка. Путем предоставления входному слою достаточного количества пар данных, аналогично примеру, приведенному в первой части отчета (X,Y), мы ищем наилучшие параметры для каждого нейрона под этой моделью. На этом этапе требуется много данных, и этот процесс также является самым ресурсоемким, поскольку необходимо многократно итеративно пробовать разные параметры нейронов. После завершения тренировки одной партии пар данных обычно используется та же партия данных для повторной тренировки с целью итерации параметров.

Шаг второй, дообучение. Дообучение заключается в использовании небольшой, но очень качественной выборки данных для обучения, такие изменения позволяют повысить качество вывода модели, потому что предварительное обучение требует больших объемов данных, но многие из этих данных могут содержать ошибки или быть низкого качества. Шаг дообучения может повысить качество модели с помощью высококачественных данных.

Шаг третий, обучение с подкреплением. Сначала будет создана совершенно новая модель, которую мы называем "моделью награды", цель этой модели очень проста - сортировать результаты вывода, поэтому реализация этой модели будет довольно простой, поскольку бизнес-сценарий довольно узкий. Затем с помощью этой модели будет определяться, является ли вывод нашей большой модели качественным, таким образом, можно использовать модель награды для автоматической итерации параметров большой модели. ( Но иногда также требуется человеческое участие для оценки качества вывода модели )

Короче говоря, в процессе тренировки больших моделей предварительное обучение требует очень большого объема данных, а необходимая вычислительная мощность GPU также максимальна. В то время как дообучение требует более качественных данных для улучшения параметров, обучение с подкреплением может повторно итеративно изменять параметры с помощью модели вознаграждения для получения более качественных результатов.

В процессе обучения, чем больше параметров, тем выше потолок его обобщающей способности. Например, в приведенном примере с функцией Y = aX + b, на самом деле есть два нейрона X и X0, поэтому как бы ни изменялись параметры, данные, которые можно подогнать, будут крайне ограничены, потому что по своей сути это все еще прямая линия. Если нейронов больше, то можно итерировать больше параметров, что позволяет подгонять больше данных. Вот почему большие модели творят чудеса, и это также причина, по которой они получили общее название «большие модели», по сути, это огромное количество нейронов и параметров, а также огромное количество данных, что требует значительной вычислительной мощности.

Таким образом, на производительность больших моделей в основном влияют три аспекта: количество параметров, объем и качество данных, а также вычислительная мощность. Мы предположим, что количество параметров равно p, объем данных n(, рассчитываемый по количеству токенов), тогда мы можем рассчитать необходимую вычислительную мощность, используя общие эмпирические правила, что позволит нам приблизительно оценить, сколько вычислительных мощностей нам нужно будет купить и сколько времени потребуется для обучения.

Вычислительная мощность обычно измеряется в Flops, что представляет собой одно浮点运算, и浮点运算 является обобщением для нецелых чисел, таких как 2.5 + 3.557, где浮点 означает возможность наличия десятичной точки, а FP16 представляет собой точность, поддерживающую десятичные числа, в то время как FP32 является более распространенной точностью. Согласно эмпирическим правилам на практике, предварительная подготовка (Pre-traning) один раз ( обычно будет обучена.

GPT-7.62%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 5
  • Поделиться
комментарий
0/400
LiquiditySurfervip
· 07-22 09:40
злонамеренный свайпинг так высококлассно?
Посмотреть ОригиналОтветить0
DegenDreamervip
· 07-19 21:53
Что бы ни было, даже если цена взлетит, она все равно упадет до нуля.
Посмотреть ОригиналОтветить0
GasFeePhobiavip
· 07-19 21:46
Американцы снова выиграли, что ли?
Посмотреть ОригиналОтветить0
FUD_Vaccinatedvip
· 07-19 21:44
Снова говорим про ИИ, лучше обсудим, как GPU большой памп.
Посмотреть ОригиналОтветить0
Web3ExplorerLinvip
· 07-19 21:34
гипотеза: ai + крипто = цифровое возрождение 2.0... так же, как древний шелковый путь революционизировал торговлю, если честно.
Посмотреть ОригиналОтветить0
  • Закрепить