Что такое ИИ: основы, модели и большие языковые модели в ChatGPT

Если вы только начинаете знакомство с AI, технический бэкграунд не нужен. Полезнее всего — простая карта местности, чтобы понимать, на что способны AI-системы, как они упакованы и как выбрать подходящий инструмент под свои задачи.

Artificial intelligence (AI) — это широкая категория software, которое может распознавать patterns, учиться на данных и выдавать полезные результаты.

Вы, вероятно, уже встречали AI в повседневных ситуациях, например когда:

  • ваше map app перестраивает маршрут в обход пробок
  • банк помечает покупку как «unusual»
  • чатбот customer support отвечает на частые вопросы

AI — это категория, а не один инструмент. Внутри нее есть models: обученные системы, которые учатся на данных и затем применяют полученное к новым ситуациям. Некоторые models специализируются на speech, vision или forecasting.

Скорее всего, вы начинаете путь в AI с conversational AI tools, таких как ChatGPT. Models, лежащие в основе ChatGPT, специализируются на language — это так называемые large language models.

Large language model (LLM) — это model, созданная для работы с language. Она изучает patterns на больших объемах текста из многих источников, чтобы затем полезным образом генерировать и преобразовывать text. LLM не «знает» вещи так, как человек. Вместо этого она предсказывает наиболее вероятный следующий фрагмент language на основе context. Со временем рост вычислительной мощности, методы training и доступ к большим datasets сделали возможным создание более крупных и более способных large language models.

OpenAI и другие frontier research labs создают такие models как ключевую часть своих продуктов, а затем делают их доступными через пользовательские продукты, например ChatGPT или Codex, и через APIs, которые позволяют разработчикам использовать эти models для создания собственных AI-инструментов и интеграции AI в существующее software.

Новые models становятся доступны из этих research labs после того, как они были trained и прошли внутреннюю evaluation и safety testing. Когда вы слышите, что AI model была «trained», обычно речь идет о двух этапах — представьте это как процесс, в котором человек учится и становится лучше в своей работе.

Первый этап — pre-training, когда model изучает общие patterns на огромном объеме text, что дает ей базовые навыки, такие как summarizing, drafting, translating и explaining.

Представьте, что это новый сотрудник, который неделями читает все, что может: manuals, примеры сильных работ, прошлые проекты, FAQs — пока не понимает «shape» работы.

Затем этот «сотрудник» начинает работать, а «manager» его коучит: будь яснее, задавай хорошие follow-ups, подстраивайся под нужный tone и соблюдай company policies. Это и есть post-training. Этот этап помогает model надежнее следовать instructions, общаться в полезном стиле и лучше справляться со сложными ситуациями.

Именно на этапе post-training особенно усиливаются safety checks — training, направленное на снижение harmful outputs, отказ от нежелательных requests и более осторожные ответы, когда тема sensitive или uncertain.

По мере того как models обновляются и проходят training, вы можете замечать изменения в tone или ответах. Если вам нужны стабильные результаты, четко формулируйте goal, audience, format и constraints — и ожидайте, что model будет осторожнее, когда в игре safety или uncertainty.

Разные models настраиваются под разные tradeoffs — например, speed, depth и то, насколько тщательно они следуют multi-step instructions. Некоторые созданы для быстрого и плавного ответа на повседневные задачи — drafting, summarizing, rewriting, brainstorming. Другие рассчитаны на то, чтобы тратить больше compute на thinking through проблемы перед ответом, что может повысить надежность в сложной multi-step работе.

Non-reasoning models (иногда помеченные как «Instant») оптимизированы под быстрый и fluent output. Это хороший default, когда задача простая и вам в первую очередь нужен momentum: превратить заметки в сообщение, отполировать формулировку, сгенерировать варианты или выделить key points.

Reasoning models (иногда помеченные как «Thinking») обучены лучше справляться с deliberate, step-by-step problem solving — например, планированием, complex analysis, tricky debugging или решениями с constraints и edge cases. Им может требоваться больше времени, но они часто лучше удерживают в голове несколько moving parts и избегают поверхностных ошибок.

Если вы только начинаете, о выборе model можно не беспокоиться — default experience в ChatGPT designed to auto-switch, чтобы вы могли сосредоточиться на вопросе, а не на settings.

Со временем, по мере того как вы поймете, что вам ближе — speed или depth, quick drafts или careful analysis, — можно начать экспериментировать с optional controls: например, чаще выбирать Auto и переключаться на Thinking, когда задача complex или high-stakes.

Вот простая hierarchy:

  • AI = общая область
  • Models = обученные системы, которые выполняют отдельные tasks
  • Large language models (LLMs) = models, сфокусированные на понимании и генерации language, которые со временем обучаются AI research labs
  • ChatGPT = продукт, который помогает эффективно использовать LLM

Когда эта картина сложится, вам будет проще учиться получать отличные результаты с tools like ChatGPT — начиная с того, как разговаривать с ним, чтобы получать нужный результат.

Материал — перевод статьи с английского.

Оригинал: AI fundamentals

Подписаться на новости в Telegram