Глоссарий TechCrunch: AGI, ИИ-агент, цепочка рассуждений, вычислительные мощности, LLM и другие термины ИИ

Искусственный интеллект — глубокая и запутанная область. Ученые, работающие в этой сфере, часто используют жаргон и профессиональный сленг, чтобы описывать свои задачи. Поэтому в наших материалах мы нередко вынуждены использовать эти технические термины. Именно поэтому мы решили собрать глоссарий с определениями некоторых из самых важных слов и выражений, которые встречаются в наших статьях.

Мы будем регулярно обновлять этот глоссарий, добавляя новые пункты по мере того, как исследователи продолжают находить новые способы продвинуть границы искусственного интеллекта и одновременно выявляют новые риски для безопасности.

  • * *

AGI

Artificial general intelligence, или AGI, — расплывчатый термин. Но обычно он относится к ИИ, который в большинстве, если не во всех, задачах более способен, чем средний человек. Генеральный директор OpenAI Сэм Альтман недавно описал AGI как «эквивалент среднего человека, которого можно нанять в качестве коллеги». Между тем устав OpenAI определяет AGI как «высокоавтономные системы, которые превосходят людей в большинстве экономически ценной работы». Понимание Google DeepMind немного отличается от этих двух определений: в лаборатории считают AGI «ИИ, который хотя бы столь же способен, как человек, в большинстве когнитивных задач». Запутались? Не переживайте — эксперты на переднем крае исследований ИИ тоже.

AI agent

AI agent — это инструмент, использующий технологии ИИ, чтобы выполнять серию задач от вашего имени — выходя за рамки того, что может более простой AI chatbot, — например, подавать отчеты о расходах, бронировать билеты или столик в ресторане или даже писать и сопровождать код. Однако, как мы объясняли раньше, в этой зарождающейся области много подвижных частей, поэтому «AI agent» может означать разные вещи для разных людей. Инфраструктура для реализации заявленных возможностей тоже еще только выстраивается. Но базовая идея подразумевает автономную систему, которая может задействовать несколько ИИ-систем для выполнения многошаговых задач.

Chain of thought

Если задать человеку простой вопрос, мозг может ответить почти не задумываясь — например, «какое животное выше, жираф или кошка?» Но во многих случаях для правильного ответа нужен карандаш и бумага, потому что есть промежуточные шаги. Например, если у фермера есть куры и коровы, а вместе у них 40 голов и 120 ног, может понадобиться записать простое уравнение, чтобы получить ответ (20 кур и 20 коров).

В контексте ИИ chain-of-thought reasoning для large language models означает разбиение проблемы на более мелкие промежуточные шаги, чтобы улучшить качество конечного результата. Обычно ответ получается медленнее, но вероятность, что он будет верным, выше — особенно в задачах логики или программирования. Reasoning models создаются на базе традиционных large language models и оптимизируются для chain-of-thought мышления благодаря reinforcement learning.

(См.: Large language model)

Мероприятие TechCrunch

San Francisco, CA|October 13-15, 2026

Compute

Хотя термин многозначный, compute обычно означает жизненно важную вычислительную мощность, которая позволяет моделям ИИ работать. Именно эта обработка подпитывает индустрию ИИ, давая ей возможность обучать и развертывать свои мощные модели. Термин часто используется как сокращение для обозначения типов аппаратного обеспечения, которое обеспечивает эту вычислительную мощность, — таких как GPU, CPU, TPU и другие формы инфраструктуры, составляющие фундамент современной индустрии ИИ.

Deep learning

Это подмножество self-improving machine learning, в котором алгоритмы ИИ построены на многоуровневой структуре искусственной нейронной сети (ANN). Это позволяет им делать более сложные корреляции по сравнению с более простыми системами на основе machine learning, такими как линейные модели или деревья решений. Структура deep learning-алгоритмов вдохновлена взаимосвязанными путями нейронов в человеческом мозге.

Модели deep learning способны самостоятельно определять важные характеристики в данных, а не требовать от инженеров вручную задавать эти признаки. Такая структура также поддерживает алгоритмы, которые могут учиться на ошибках и через повторение и корректировку улучшать собственные результаты. Однако системам deep learning требуется очень много точек данных, чтобы показывать хорошие результаты (миллионы и более). Кроме того, их обычно дольше обучать по сравнению с более простыми алгоритмами machine learning — поэтому стоимость разработки, как правило, выше.

(См.: Neural network)

Diffusion

Diffusion — это технология, лежащая в основе многих ИИ-моделей, создающих изображения, музыку и текст. Вдохновленные физикой diffusion-системы медленно «разрушают» структуру данных — например, фотографий, песен и так далее — добавляя шум, пока от исходного сигнала ничего не остается. В физике диффузия — процесс спонтанный и необратимый: сахар, растворившийся в кофе, нельзя вернуть в форму кубика. Но diffusion-системы в ИИ пытаются освоить некий процесс «обратной диффузии», чтобы восстановить разрушенные данные и получить возможность извлекать их из шума.

Distillation

Distillation — это техника извлечения знаний из большой модели ИИ с помощью схемы «teacher-student». Разработчики отправляют запросы teacher model и записывают выходные данные. Ответы иногда сравнивают с набором данных, чтобы проверить их точность. Затем эти выходные данные используют для обучения student model, которую обучают приближать поведение teacher.

Distillation можно использовать для создания более компактной и эффективной модели на основе более крупной модели при минимальных потерях distillation loss. Вероятно, именно так OpenAI разработала GPT-4 Turbo, более быструю версию GPT-4.

Fine-tuning

Это дальнейшее обучение модели ИИ, чтобы оптимизировать ее работу под более конкретную задачу или область, чем та, что была основным фокусом при предыдущем обучении, — обычно за счет подачи новых специализированных, то есть ориентированных на задачу данных.

Многие AI-стартапы берут large language models за отправную точку для создания коммерческого продукта, но стремятся повысить полезность для целевого сектора или задачи, дополняя предыдущие циклы обучения fine-tuning на основе собственных предметных знаний и экспертизы.

(См.: [Large language model [LLM]](http://techcrunch.com/2026/04/12/artificial-intelligence-definition-glossary-hallucinations-guide-to-common-ai-terms/#large-language-model))

GAN

GAN, или Generative Adversarial Network, — это тип machine learning framework, который лежит в основе некоторых важных достижений в generative AI, когда речь идет о создании реалистичных данных, включая, но не только, deepfake-инструменты. GAN используют пару нейронных сетей, одна из которых на основе обучающих данных генерирует результат, передаваемый другой модели для оценки. Эта вторая, discriminator model, таким образом играет роль классификатора для выхода generator — и помогает ему со временем улучшаться.

Структура GAN построена как соревнование (отсюда «adversarial») — обе модели по сути запрограммированы пытаться превзойти друг друга: generator стремится провести свой результат мимо discriminator, а discriminator работает над тем, чтобы распознать искусственно созданные данные. Такое структурированное состязание может оптимизировать выходы ИИ, делая их более реалистичными, без необходимости дополнительного человеческого вмешательства. Хотя GAN лучше всего работают для более узких задач, например для создания реалистичных фотографий или видео, а не для универсального ИИ.

Hallucination

Hallucination — это предпочитаемый в индустрии ИИ термин для случаев, когда модели ИИ выдумывают информацию, то есть буквально генерируют неверные данные. Очевидно, это огромная проблема для качества ИИ.

Hallucinations порождают GenAI-выходы, которые могут вводить в заблуждение и даже приводить к реальным рискам — с потенциально опасными последствиями (например, когда на медицинский запрос выдаются вредные советы). Именно поэтому в мелком шрифте большинства GenAI-инструментов теперь есть предупреждение о необходимости проверять ответы, сгенерированные ИИ, хотя сами такие оговорки обычно заметно менее заметны, чем информация, которую инструменты выдают по нажатию кнопки.

Считается, что проблема выдумывания информации ИИ возникает из-за пробелов в обучающих данных. Особенно для универсального GenAI — который также иногда называют foundation models — это выглядит трудноразрешимой задачей. Данных, существующих в мире, просто недостаточно, чтобы обучить модели ИИ, способные исчерпывающе отвечать на все возможные вопросы, которые мы могли бы задать. TL;DR: мы еще не изобрели Бога (пока).

Hallucinations подталкивают индустрию к созданию все более специализированных и/или вертикальных моделей ИИ — то есть domain-specific AI, которым нужна более узкая экспертиза, — как способ снизить вероятность пробелов в знаниях и уменьшить риски дезинформации.

Inference

Inference — это процесс запуска модели ИИ. Иными словами, это когда модели «дают волю», чтобы она делала прогнозы или выводы на основе ранее увиденных данных. Разумеется, inference невозможен без training: модель должна сначала выучить закономерности в наборе данных, чтобы затем эффективно экстраполировать их из обучающего материала.

Inference могут выполнять разные типы оборудования — от процессоров смартфонов до мощных GPU и специализированных AI-ускорителей. Но не все они одинаково хорошо справляются с запуском моделей. Очень большие модели будут делать прогнозы мучительно долго, если запускать их, скажем, на ноутбуке, а не на облачном сервере с высокопроизводительными AI-чипами.

См.: [Training]

Large language model (LLM)

Large language models, или LLM, — это модели ИИ, которые используются популярными AI assistants, такими как ChatGPT, Claude, Google Gemini, Meta AI Llama, Microsoft Copilot или Mistral Le Chat. Когда вы общаетесь с AI assistant, вы взаимодействуете с large language model, которая обрабатывает ваш запрос напрямую или с помощью разных доступных инструментов, например веб-поиска или code interpreter.

У AI assistants и LLM могут быть разные названия. Например, GPT — это large language model OpenAI, а ChatGPT — продукт AI assistant.

LLM — это глубокие нейронные сети, состоящие из миллиардов числовых параметров (или weights, см. ниже), которые изучают связи между словами и фразами и создают представление языка — своего рода многомерную карту слов.

Эти модели создаются путем кодирования закономерностей, которые они находят в миллиардах книг, статей и расшифровок. Когда вы задаете prompt LLM, модель генерирует наиболее вероятный шаблон, соответствующий запросу. Затем она оценивает наиболее вероятное следующее слово после предыдущего, исходя из того, что было сказано до этого. Повторить, повторить и повторить.

(См.: Neural network)

Memory cache

Memory cache — это важный процесс, который ускоряет inference (то есть процесс, с помощью которого ИИ генерирует ответ на запрос пользователя). По сути, caching — это техника оптимизации, призванная сделать inference более эффективным. Очевидно, ИИ опирается на высокоинтенсивные математические вычисления, и каждый раз, когда они выполняются, расходуется больше энергии. Caching призван сократить число вычислений, которые модели приходится выполнять, сохраняя определенные вычисления для будущих пользовательских запросов и операций. Существуют разные виды memory caching, но один из наиболее известных — KV (или key value) caching. KV caching работает в transformer-based моделях и повышает эффективность, ускоряя получение результатов за счет сокращения времени — и алгоритмической работы, — необходимого для генерации ответов на вопросы пользователей.

(См.: Inference)

Neural network

Neural network — это многослойная алгоритмическая структура, лежащая в основе deep learning и, шире, всего бума generative AI-инструментов, последовавшего за появлением large language models.

Хотя идея заимствовать у плотных взаимосвязанных путей человеческого мозга дизайн-структуру для алгоритмов обработки данных восходит к 1940-м годам, именно более недавний рост графических процессоров (GPU) — через индустрию видеоигр — по-настоящему раскрыл потенциал этой теории. Эти чипы оказались хорошо приспособлены для обучения алгоритмов с гораздо большим числом слоев, чем было возможно в более ранние эпохи, — что позволило AI-системам на основе neural network добиться значительно лучшей производительности во многих областях, включая распознавание голоса, автономную навигацию и поиск лекарств.

(См.: [Large language model [LLM]](http://techcrunch.com/2026/04/12/artificial-intelligence-definition-glossary-hallucinations-guide-to-common-ai-terms/#large-language-model))

RAMageddon

RAMageddon — это забавный новый термин для не очень забавной тенденции, захватывающей технологическую индустрию: все более острого дефицита random access memory, или RAM-чипов, которые питают практически все технологические продукты, которыми мы пользуемся каждый день. По мере расцвета индустрии ИИ крупнейшие технологические компании и AI labs — все борющиеся за самый мощный и эффективный ИИ — покупают столько RAM для своих дата-центров, что для остальных почти ничего не остается. А это узкое место в поставках означает, что то немногое, что осталось, становится все дороже.

Это затрагивает и такие отрасли, как игры (где крупным компаниям пришлось повышать цены на консоли, потому что для устройств труднее найти memory chips), потребительскую электронику (где дефицит памяти может вызвать самое сильное падение поставок смартфонов более чем за десятилетие) и корпоративные вычисления в целом (потому что этим компаниям не хватает RAM для собственных дата-центров). Ожидается, что рост цен прекратится только после окончания этого пугающего дефицита, но, к сожалению, пока не видно особых признаков, что это случится в ближайшее время.

Training

Разработка AI на основе machine learning включает процесс, известный как training. Если говорить просто, это подача данных, чтобы модель могла учиться на закономерностях и генерировать полезные результаты.

На этом уровне AI-стека все становится немного философским: до pre-training математическая структура, которая используется как отправная точка для создания обучающейся системы, — это всего лишь набор слоев и случайных чисел. По-настоящему форму AI-модель обретает только через training. По сути, именно процесс реакции системы на характеристики данных позволяет ей адаптировать выходные данные к поставленной цели — будь то распознавание изображений кошек или генерация хайку по запросу.

Важно отметить, что training требуется не каждому ИИ. Rules-based AI, которые запрограммированы следовать вручную заданным инструкциям — например, линейные чатботы, — не нуждаются в обучении. Однако такие AI-системы, вероятно, будут более ограниченными, чем (хорошо обученные) self-learning systems.

Тем не менее training может быть дорогим, потому что требует большого количества входных данных — а обычно объемы данных, необходимые для таких моделей, продолжают расти.

Иногда можно использовать гибридные подходы, чтобы сократить разработку модели и снизить затраты. Например, выполнить data-driven fine-tuning rules-based AI — это означает, что разработка требует меньше данных, compute, энергии и алгоритмической сложности, чем если бы разработчик начал с нуля.

См.: [Inference]

Tokens

Когда речь идет о человеческо-машинном общении, очевидны некоторые трудности. Люди общаются на естественном языке, тогда как AI-программы выполняют задачи и отвечают на запросы через сложные алгоритмические процессы, опирающиеся на данные. В самом простом определении tokens — это базовые строительные блоки общения между человеком и ИИ, то есть отдельные сегменты данных, которые были либо обработаны, либо созданы LLM.

Tokens создаются в процессе, известном как tokenization, который разбивает сырые данные и преобразует их в отдельные единицы, понятные LLM. Подобно тому как программный compiler переводит человеческий язык в двоичный код, который может обработать компьютер, tokenization интерпретирует человеческий язык для AI-программы через пользовательские запросы, чтобы она могла подготовить ответ.

Существует несколько типов tokens — включая input tokens (те, которые должны быть сгенерированы в ответ на запрос пользователя), output tokens (те, которые генерируются, когда LLM отвечает на запрос человека) и reasoning tokens, которые связаны с более долгими и ресурсоемкими задачами и процессами, происходящими в рамках пользовательского запроса.

В enterprise AI использование tokens также определяет стоимость. Поскольку tokens эквивалентны объему данных, обрабатываемых моделью, они стали и способом монетизации услуг AI-индустрии. Большинство AI-компаний взимают плату за использование LLM по модели оплаты за token. Поэтому чем больше tokens тратит бизнес, используя AI-программу, например ChatGPT, тем больше денег он должен заплатить своему поставщику AI-услуг, например OpenAI.

Transfer learning

Это техника, при которой ранее обученная модель ИИ используется как отправная точка для создания новой модели для другой, но обычно связанной задачи, — что позволяет повторно применять знания, полученные в предыдущих циклах обучения.

Transfer learning может повысить эффективность, сокращая путь разработки модели. Он также полезен, когда данных для задачи, под которую создается модель, сравнительно мало. Но важно помнить, что у этого подхода есть ограничения. Моделям, которые используют transfer learning для получения более общих возможностей, вероятно, потребуется дополнительное обучение на новых данных, чтобы хорошо работать в своей основной предметной области

(См.: Fine tuning)

Weights

Weights — основа обучения ИИ, потому что они определяют, какой вес или значимость придается разным признакам или входным переменным в данных, используемых для обучения системы, — тем самым формируя результат работы модели ИИ.

Иными словами, weights — это числовые параметры, которые определяют, что именно в наборе данных является наиболее значимым для конкретной задачи обучения. Свою функцию они выполняют, умножая входные значения. Обучение модели обычно начинается с randomly assigned weights, но по мере процесса weights корректируются, пока модель не стремится получить результат, который точнее соответствует целевому значению.

Например, модель ИИ для прогнозирования цен на жилье, обученная на исторических данных о недвижимости для конкретной локации, может включать weights для таких признаков, как число спален и ванных комнат, отдельно стоящий дом или дом на две семьи, наличие парковки, гаража и так далее.

В конечном счете weights, которые модель присваивает каждому из этих входных параметров, отражают то, насколько они влияют на стоимость объекта недвижимости, исходя из заданного набора данных.

Эта статья регулярно обновляется новой информацией.


Материал — перевод статьи с английского.

Оригинал: From LLMs to hallucinations, here’s a simple guide to common AI terms