Гайд по терминам ИИ: понятный ИИ-словарь

icon FOR
Фото - Гайд по терминам ИИ: понятный ИИ-словарь
Множество терминов, связанных с искусственным интеллектом, стало привычным. По мере развития технологий ИИ-словечки встречаются всё чаще — в новостях, соцсетях и повседневной жизни. Чтобы упростить понимание, мы подготовили удобный глоссарий с ключевыми ИИ-жаргонизмами.

15 ИИ-терминов, которые нужно знать 

Мы собрали для вас популярные термины из мира искусственного интеллекта с подробными определениями и объяснением их значимости. Здесь вы найдете как знакомые слова, получившие новое значение в контексте ИИ, так и более технические термины, часто встречающиеся в этой сфере.

Начнем с основного термина.

1. Искусственный интеллект (ИИ)

Науке до сих пор не удалось полностью раскрыть сущность интеллекта, и искусственный интеллект не является исключением. Изначально термин «искусственный интеллект» описывал машины с интеллектуальными способностями на уровне человека. Американский информатик Джон Маккарти первым использовал этот термин в 1955 году.

Сейчас ИИ охватывает более широкий круг технологий, от распознавания речи и изображений до перевода и навигации, которые, несмотря на свои возможности, не обладают здравым смыслом и полнотой мышления.

Границы возможностей таких систем остаются неизученными.

Больше интересностей: Обзор токенов с искусственным интеллектом

2. AGI — общий искусственный интеллект 

С развитием искусственного интеллекта термин AGI стал неотъемлемой частью обсуждений и всё чаще появляется в новостях. В отличие от узконаправленного ИИ с ограниченным функционалом, AGI предполагает, что система будет обладать самосознанием, эмоциональным интеллектом и другими чертами человеческого разума.

Представьте себе героя научной фантастики — робота, который способен самостоятельно принимать решения и действовать без указаний человека. На данный момент это фантазия, так как ИИ пока не может понимать контекст и обучаться, как люди.

Но ситуация может измениться.

Многие компании активно занимаются исследованием AGI. В 2023 году OpenAI, разработчик ChatGPT, объявил о своих планах создать AGI, а генеральный директор Сэм Альтман заявил, что это может стать реальностью в недалеком будущем.

Не все AGI будут обладать одинаковыми способностями к пониманию и выполнению задач.
Sony, персонаж из фильма «Я, робот», способен испытывать эмоции, обучаться и самостоятельно принимать решения. Источник: imbd.com

Sony, персонаж из фильма «Я, робот», способен испытывать эмоции, обучаться и самостоятельно принимать решения. Источник: imbd.com

3. Машинное обучение (ML) 

Машинное обучение — это направление искусственного интеллекта, нацеленное на разработку алгоритмов и моделей, которые позволяют компьютерам учиться на данных и делать прогнозы. Без этого подхода современные продвинутые ИИ-системы были бы невозможны.

Машинное обучение работает следующим образом: инженеры загружают в систему большие массивы данных, которые она анализирует многократно, чтобы выявить определенные закономерности. Например, система может изучить тысячи отмеченных изображений животных, что со временем улучшает ее точность в их распознавании.

Еще один пример — это система, которая изучает языковые структуры и получает возможность переводить тексты. Чем больше данных она анализирует, тем лучше становится в ответах на запросы и выполнении задач по требованиям пользователей.

Тематический материал: Что такое машинное обучение с нулевым разглашением (ZKML)

4. Нейронные сети

Для обеспечения работы искусственного интеллекта технологии используют принципы, основанные на структуре человеческого мозга, состоящего из миллиардов нейронов. Нейронные сети-ИИ моделируют взаимодействие нейронов в мозге человека.

Эти сети создают сложные связи, формируя систему, способную учиться на данных, корректироваться и прогнозировать. В нейронной сети данные проходят через несколько слоев, и каждый слой добавляет новую обработку. Входной слой принимает сырые данные, например текст или изображения, которые затем проходят через скрытые слои для более глубокой обработки.

К примеру, в модели для распознавания изображений начальные слои могут выделять простые контуры, в то время как более глубокие слои распознают сложные фигуры или объекты. В конце данные доходят до выходного слоя, который выполняет прогноз или классификацию, например определяет объект на фото.

Во время обучения сеть корректирует эти структуры, используя обратную связь от данных, что позволяет ей со временем улучшать точность.
Нейронные сети передают информацию через различные слои. На изображении — Сол Гудман из сериала «Во все тяжкие». Источник: Instagram

Нейронные сети передают информацию через различные слои. На изображении — Сол Гудман из сериала «Во все тяжкие». Источник: Instagram

5. Глубокое обучение 

Глубокое обучение — это отрасль машинного обучения, которая использует нейронные сети с несколькими слоями для работы с большими данными. Этот метод позволяет системам более точно выявлять сложные закономерности, что особенно полезно в таких задачах, как распознавание изображений и понимание речи.

Основное отличие глубокого обучения от машинного — это потребность в огромных объемах данных. Обычные алгоритмы машинного обучения могут работать с небольшими наборами данных, а глубокое обучение требует значительных объемов информации, чтобы выявлять паттерны автоматически, без участия человека в отборе признаков. Модели глубокого обучения обычно более сложные, что позволяет решать особенно специфические задачи.

Кроме того, глубокое обучение требует значительной вычислительной мощности, поэтому для его реализации обычно используются высокоэффективные устройства, такие как GPU.

Читать больше: ИИ и образование: решения будущего для персонализации обучения

6. Трансформеры 

В современных ИИ-моделях, таких как ChatGPT, используются многослойные сети трансформеров. Аббревиатура GPT расшифровывается как генеративный предобученный трансформер.

Трансформеры представляют собой уникальный вид нейронных сетей, предназначенный для обработки последовательных данных, таких как текст, и позволяют анализировать все части сразу.

Это делает возможным более глубокое понимание сложных взаимосвязей в данных по сравнению с традиционными моделями.

Одной из ключевых особенностей трансформеров является механизм внимания, позволяющий модели фокусироваться на значимых словах и их взаимосвязи. Система разбивает текст на фрагменты — токены, чтобы прогнозировать следующие слова.

Например, в предложении «Кот сидит на коврике» модель понимает связь между «кот» и «сидит», что помогает точнее передавать контекст.

Первое описание трансформеров было опубликовано Google в 2017 году в статье «Внимание — это всё, что вам нужно».
image
ChatGPT преобразует текст в токены в зависимости от структуры. Источник: openai.com/tokenizer

ChatGPT преобразует текст в токены в зависимости от структуры. Источник: openai.com/tokenizer

7. Большие языковые модели (LLM)

LLM — это мощные алгоритмы, обученные понимать и генерировать текст, максимально близкий к человеческой речи. Они лежат в основе ИИ-моделей, таких как ChatGPT, Claude, Llama и других.

Эти модели создаются на основе огромных объемов данных, пропущенных через нейронные сети, что позволяет им выдавать осмысленные и точные ответы.

К примеру, если вы попросите LLM написать стих о космосе, она не просто соберет строки, а добавит образы и метафоры. Или завершит начатый черновик письма.

LLM применяются в создании контента, переводе и программировании. Они еще не идеальны, но с каждым обновлением становятся все быстрее и точнее.

Больше по теме: Командная работа: возможности современных LLM

8. Генеративный искусственный интеллект 

Генеративный искусственный интеллект — это тип ИИ, способный создавать новый контент, такой как изображения, музыка, код и видео. В отличие от традиционного программного обеспечения, которое выполняет строго заданные инструкции, генеративные модели используют полученные на этапе обучения знания для создания оригинального материала.

Вспомним нейронные сети и их взаимосвязи?

С помощью этих сетей генеративный ИИ может комбинировать элементы из базы данных для создания нового контента.

Например, ChatGPT может отвечать на вопросы и писать тексты, анализируя и переосмысливая данные, а не просто копируя их.

Когда вы начинаете предложение, модель предсказывает следующее слово или фразу, опираясь на шаблоны, изученные ранее.
image
9. Галлюцинации искусственного интеллекта 

Когда мы общаемся с генеративным ИИ, он выдает ответы на основе алгоритмов предопределения, без какого-либо понимания контекста, сознания или осознания себя. Это приводит к ошибочным предположениям и нелогичным ответам.

Например, функция AI Overviews от Google однажды посоветовала пользователям наносить клей на пиццу, чтобы предотвратить соскальзывание сыра. Ответ был сгенерирован на основе саркастического поста на Reddit, тон которого ИИ не смог определить.

Из-за этого Google отключил функцию ИИ-поиска в июне 2024 года, всего через две недели после запуска.

Галлюцинации остаются одной из самых серьёзных проблем языковых моделей. Исследователи разрабатывают методы для борьбы с этим явлением, но пока неясно, удастся ли полностью его искоренить.

Читать далее: Новое исследование OpenAI: борьба с галлюцинациями в ChatGPT

10. Предвзятость ИИ 

Модели искусственного интеллекта могут демонстрировать предвзятость и проявлять стереотипное мышление. Под термином «предвзятость ИИ» понимается ситуация, когда ИИ-системы проявляют несправедливость по отношению к разным группам людей.

Причин этого несколько.

Основная причина в том, что ИИ обучается на данных, и если в них содержатся предвзятости или дисбаланс, ИИ перенимает их. Например, если человек видит изображения только мужчин-врачей, у него может сложиться впечатление, что врачи — это только мужчины.

ИИ может сделать аналогичный вывод: если его обучают в основном на данных об одной группе, он может работать хуже для других.

Проблема в том, что предвзятость возникает часто непреднамеренно. Она может быть связана как с историческими тенденциями, так и с недостатком разнообразия в обучающих данных.

К тому же исследования показывают, что крупные языковые модели отражают взгляды их создателей. Это не особо удивляет, правда?
Мем на основе фильма «Я, робот». Источник: markmcneilly.substack.com

Мем на основе фильма «Я, робот». Источник: markmcneilly.substack.com

11. Этические аспекты искусственного интеллекта 

Этика ИИ предполагает ответственный подход к созданию ИИ-систем, что следует моральным принципам и ценностям. Это подразумевает защиту прав человека, конфиденциальности и справедливого отношения. Ожидается, что ИИ также будет поддерживать разнообразие и устойчивое развитие.

Один из важнейших этических вопросов в разработке ИИ — защита авторских и интеллектуальных прав. ИИ часто обучается на книгах, произведениях искусства, музыке, коде и другом контенте, что вызывает опасения о нарушении прав при использовании произведений без разрешения.

Ещё один вопрос — кому принадлежит контент, созданный ИИ: автору оригинала или компании, создавшей ИИ.

В последние годы ряд контент-мейкеров подал иски против компаний, использующих ИИ. Например, The New York Times подал иск против OpenAI и Microsoft за использование их статей, а Dow Jones, владелец The Wall Street Journal и The New York Post, подал иск против ИИ-поисковика Perplexity.

Регулирующие нормы и законы могли бы помочь в решении этих этических вопросов.

12. Отравление данных 

Отравление данных — это практика подачи некорректной информации ИИ, которая позволяет манипулировать его результатами и снижать производительность.

При атаке через отравление в обучающие данные модели могут встраиваться триггерные фразы, шаблоны или изображения. Если пользователь загружает файл с таким элементом, это может нарушить работу модели ИИ.

Этот метод применяется как для компрометации ИИ-моделей, так и для защиты работ художников от несанкционированного использования. Например, инструмент Nightshade защищает изображения, изменяя их пиксели, что не позволяет ИИ их распознать.

Таким образом, изменённое изображение воспринимается ИИ иначе. Например, изображение человека с незначительными изменениями пикселей может быть распознано ИИ как изображение кошки.
Инструмент для отравления данных Nightshade. Источник: reddit.com

Инструмент для отравления данных Nightshade. Источник: reddit.com

13. Инференс 

Создание ИИ делится на два ключевых этапа: обучение и инференс. На этапе обучения модель получает данные для оптимизации и распознавания закономерностей.

Инференс наступает, когда модель готова к использованию в реальных задачах и принимает решения на новых данных, с которыми не сталкивалась ранее.

Обычно инференс быстрее и требует меньше ресурсов, чем обучение, поскольку это применение усвоенных знаний для решения задач в режиме реального времени.

Это практическая часть ИИ, которая позволяет моделям применять то, чему они научились.

Больше по теме: Обучение искусственного интеллекта и авторское право

14. Промпт 

Промпт — это команда или запрос, который помогает ИИ сгенерировать ответ или выполнить задачу. Например, запрос «Напиши рассказ о героическом коте» или «Создай изображение пляжного дня» побуждает ИИ использовать алгоритмы для создания оптимального результата на основе вашего ввода.

Промпты широко применяются для создания текстов, генерации изображений, решения сложных задач и даже автоматизации процессов.

Чем детальнее и точнее ваш промпт, тем больше вероятность, что ИИ выдаст качественный результат. Понятие «промпт-инжиниринг» описывает процесс создания и улучшения запросов для получения оптимальных результатов.
Поиск оптимального промпта для нужного результата — задача непростая. Источник: meme-arsenal.com

Поиск оптимального промпта для нужного результата — задача непростая. Источник: meme-arsenal.com

15. Тест Тьюринга 

Тест Тьюринга, предложенный британским математиком и информатиком Аланом Тьюрингом в 1950 году, призван определить, способна ли машина демонстрировать мышление, сходное с человеческим.

Механизм теста заключается в следующем: человек общается через текст с машиной (например, чат-ботом) и другим человеком, не зная, кто из них кто. Если человек не способен отличить машину от человека, считается, что машина прошла тест, то есть сумела сымитировать интеллект, похожий на человеческий.

Изначально Тьюринг называл его «Игрой в имитацию», и этот тест стал важной темой в области искусственного интеллекта. Он поднимает интересные вопросы о том, могут ли машины действительно мыслить и понимать мир, как это делает человек.

Web3-райтер и по совместительству крипто-HODLер. Отслеживает тенденции рынка, а также интересуется новейшими технологиями.