Гайд по термінах ШІ: зрозумілий ШІ-словник
Безліч термінів, пов'язаних зі штучним інтелектом, вже стала буденною. У міру розвитку технологій ШІ-словечка трапляються дедалі частіше — у новинах, соцмережах і повсякденному житті. Щоб спростити розуміння, ми підготували зручний глосарій із ключовими ШІ-жаргонізмами.
15 ШІ-термінів, які варто знати
Ми зібрали для вас популярні терміни зі світу штучного інтелекту з докладними визначеннями і поясненням їхньої значущості. Тут ви знайдете як знайомі слова, що отримали нове значення в контексті ШІ, так і більш технічні терміни, які часто трапляються в цій сфері.
Почнемо з основного терміна.
1. Штучний інтелект (ШІ)
Науці досі не вдалося повністю висвітлити сутність інтелекту, і штучний інтелект не є винятком. Спочатку термін «штучний інтелект» описував машини з інтелектуальними здібностями на рівні людини. Американський інформатик Джон Маккарті першим використав цей термін у 1955 році.
Зараз ШІ охоплює ширше коло технологій, від розпізнавання мови і зображень до перекладу і навігації, які, незважаючи на свої можливості, не володіють здоровим глуздом і повнотою мислення.
Межі можливостей таких систем залишаються невивченими.
Більше цікавинок: Огляд токенів зі штучним інтелектом
З розвитком штучного інтелекту термін AGI став невіддільною частиною обговорень і дедалі частіше фігурує в новинах. На відміну від вузькоспрямованого ШІ з обмеженим функціоналом, AGI передбачає, що система володітиме самосвідомістю, емоційним інтелектом та іншими рисами людського розуму.
Уявіть собі героя наукової фантастики — робота, який здатен самостійно ухвалювати рішення і діяти без вказівок людини. Наразі це фантазія, оскільки ШІ поки не може розуміти контекст і навчатися, як люди.
Але ситуація може змінитися.
Багато компаній активно займаються дослідженням AGI. У 2023 році OpenAI, розробник ChatGPT, оголосив про свої плани створити AGI, а генеральний директор Сем Альтман заявив, що це може стати реальністю в найближчому майбутньому.
Не всі AGI матимуть однакові здібності до розуміння і виконання завдань.
Машинне навчання — це напрям штучного інтелекту, націлений на розроблення алгоритмів і моделей, які дають комп'ютерам змогу вчитися на даних і робити прогнози. Без цього підходу сучасні високотехнологічні ШІ-системи були б неможливими.
Машинне навчання працює так: інженери завантажують у систему великі масиви даних, які вона аналізує багаторазово, щоб виявити певні закономірності. Наприклад, система може вивчити тисячі позначених зображень тварин, що з часом покращує її точність у їхньому розпізнаванні.
Ще один приклад — це система, яка вивчає мовні структури та отримує можливість перекладати тексти. Що більше даних вона аналізує, то кращою стає у відповідях на запити та виконанні завдань за вимогами користувачів.
Тематичний матеріал: Що таке машинне навчання з нульовим розголошенням (ZKML)
Для забезпечення роботи штучного інтелекту технології використовують принципи, засновані на структурі людського мозку, що складається з мільярдів нейронів. Нейронні мережі ШІ моделюють взаємодію нейронів у мозку людини.
Ці мережі створюють складні зв'язки, формуючи систему, здатну вчитися на даних, коригуватися і прогнозувати. У нейронній мережі дані проходять через кілька шарів, і кожен шар додає нову обробку. Вхідний шар приймає сирі дані, наприклад текст або зображення, які потім проходять через приховані шари для глибшого опрацювання.
Наприклад, у моделі для розпізнавання зображень початкові шари можуть виділяти прості контури, тоді як глибші шари розпізнають складні фігури або об'єкти. Наприкінці дані доходять до вихідного шару, який виконує прогноз або класифікацію, наприклад визначає об'єкт на фото.
Почнемо з основного терміна.
1. Штучний інтелект (ШІ)
Науці досі не вдалося повністю висвітлити сутність інтелекту, і штучний інтелект не є винятком. Спочатку термін «штучний інтелект» описував машини з інтелектуальними здібностями на рівні людини. Американський інформатик Джон Маккарті першим використав цей термін у 1955 році.
Зараз ШІ охоплює ширше коло технологій, від розпізнавання мови і зображень до перекладу і навігації, які, незважаючи на свої можливості, не володіють здоровим глуздом і повнотою мислення.
Межі можливостей таких систем залишаються невивченими.
Більше цікавинок: Огляд токенів зі штучним інтелектом
З розвитком штучного інтелекту термін AGI став невіддільною частиною обговорень і дедалі частіше фігурує в новинах. На відміну від вузькоспрямованого ШІ з обмеженим функціоналом, AGI передбачає, що система володітиме самосвідомістю, емоційним інтелектом та іншими рисами людського розуму.
Уявіть собі героя наукової фантастики — робота, який здатен самостійно ухвалювати рішення і діяти без вказівок людини. Наразі це фантазія, оскільки ШІ поки не може розуміти контекст і навчатися, як люди.
Але ситуація може змінитися.
Багато компаній активно займаються дослідженням AGI. У 2023 році OpenAI, розробник ChatGPT, оголосив про свої плани створити AGI, а генеральний директор Сем Альтман заявив, що це може стати реальністю в найближчому майбутньому.
Не всі AGI матимуть однакові здібності до розуміння і виконання завдань.
Sony, персонаж із фільму «Я, робот», здатен відчувати емоції, навчатися і самостійно ухвалювати рішення. Джерело: imbd.com
3. Машинне навчання (ML)
Машинне навчання — це напрям штучного інтелекту, націлений на розроблення алгоритмів і моделей, які дають комп'ютерам змогу вчитися на даних і робити прогнози. Без цього підходу сучасні високотехнологічні ШІ-системи були б неможливими.
Машинне навчання працює так: інженери завантажують у систему великі масиви даних, які вона аналізує багаторазово, щоб виявити певні закономірності. Наприклад, система може вивчити тисячі позначених зображень тварин, що з часом покращує її точність у їхньому розпізнаванні.
Ще один приклад — це система, яка вивчає мовні структури та отримує можливість перекладати тексти. Що більше даних вона аналізує, то кращою стає у відповідях на запити та виконанні завдань за вимогами користувачів.
Тематичний матеріал: Що таке машинне навчання з нульовим розголошенням (ZKML)
Для забезпечення роботи штучного інтелекту технології використовують принципи, засновані на структурі людського мозку, що складається з мільярдів нейронів. Нейронні мережі ШІ моделюють взаємодію нейронів у мозку людини.
Ці мережі створюють складні зв'язки, формуючи систему, здатну вчитися на даних, коригуватися і прогнозувати. У нейронній мережі дані проходять через кілька шарів, і кожен шар додає нову обробку. Вхідний шар приймає сирі дані, наприклад текст або зображення, які потім проходять через приховані шари для глибшого опрацювання.
Наприклад, у моделі для розпізнавання зображень початкові шари можуть виділяти прості контури, тоді як глибші шари розпізнають складні фігури або об'єкти. Наприкінці дані доходять до вихідного шару, який виконує прогноз або класифікацію, наприклад визначає об'єкт на фото.
Нейронні мережі передають інформацію через різні шари. На зображенні Сол Гудман із серіалу «Пуститися берега». Джерело: Instagram
5. Глибоке навчання
Глибоке навчання — це галузь машинного навчання, яка використовує нейронні мережі з кількома шарами для роботи з великими даними. Цей метод дає змогу системам точніше виявляти складні закономірності, що особливо корисно в таких завданнях, як розпізнавання зображень і розуміння мови.
Основна відмінність глибокого навчання від машинного — це потреба у величезних обсягах даних. Звичайні алгоритми машинного навчання можуть працювати з невеликими наборами даних, а глибоке навчання вимагає значних обсягів інформації, щоб виявляти патерни автоматично, без участі людини у відборі ознак. Моделі глибокого навчання зазвичай складніші, що дає змогу розв’язувати особливо специфічні завдання.
Крім того, глибоке навчання вимагає значної обчислювальної потужності, тому для його реалізації зазвичай використовуються високоефективні пристрої, такі як GPU.
Читати більше: ШІ та освіта: рішення майбутнього для персоналізації навчання
У сучасних ШІ-моделях, таких як ChatGPT, використовуються багатошарові мережі трансформерів. Абревіатура GPT розшифровується як генеративний попередньо навчений трансформер.
Трансформери являють собою унікальний вид нейронних мереж, призначений для опрацювання послідовних даних, таких як текст, і дають змогу аналізувати всі частини відразу.
Це уможливлює глибше розуміння складних взаємозв'язків у даних порівняно з традиційними моделями.
Однією з ключових особливостей трансформерів є механізм уваги, що дає змогу моделі фокусуватися на значущих словах та їхньому взаємозв'язку. Система розбиває текст на фрагменти — токени, щоб прогнозувати наступні слова.
Наприклад, у реченні «Кіт сидить на килимку» модель розуміє зв'язок між «кіт» і «сидить», що допомагає точніше передавати контекст.
Перший опис трансформерів було опубліковано Google у 2017 році в статті «Увага — це все, що вам потрібно».
ChatGPT перетворює текст на токени залежно від структури. Джерело: openai.com/tokenizer
7. Великі мовні моделі (LLM)
LLM — це потужні алгоритми, навчені розуміти та генерувати текст, максимально близький до людської мови. Вони лежать в основі ШІ-моделей, таких як ChatGPT, Claude, Llama та інших.
Ці моделі створюються на основі величезних обсягів даних, пропущених через нейронні мережі, що дає їм змогу видавати осмислені й точні відповіді.
Наприклад, якщо ви попросите LLM написати вірш про космос, вона не просто збере рядки, а додасть образи і метафори. Або завершить розпочату чернетку листа.
LLM застосовуються у створенні контенту, перекладі та програмуванні. Вони ще не ідеальні, але з кожним оновленням стають дедалі швидшими та точнішими.
Більше на тему: Командна робота: можливості сучасних LLM
8. Генеративний штучний інтелект
Генеративний штучний інтелект — це тип ШІ, що спроможний створювати новий контент, такий як зображення, музика, код і відео. На відміну від традиційного програмного забезпечення, яке виконує певні конкретні інструкції, генеративні моделі використовують отримані на етапі навчання знання для створення оригінального матеріалу.
Згадаймо нейронні мережі та їхні взаємозв'язки?
За допомогою цих мереж генеративний ШІ може комбінувати елементи з бази даних для створення нового контенту.
Наприклад, ChatGPT може відповідати на запитання і писати тексти, аналізуючи і переосмислюючи дані, а не просто копіюючи їх.
Коли ви починаєте речення, модель прогнозує наступне слово або фразу, спираючись на шаблони, вивчені раніше.
Генеративний ШІ завойовує популярність, і ChatGPT посідає лідерську позицію з приблизно 200 мільйонами щотижнево активних користувачів.
9. Галюцинації штучного інтелекту
Коли ми спілкуємося з генеративним ШІ, він видає відповіді на основі алгоритмів детермінації, без будь-якого розуміння контексту, свідомості або усвідомлення себе. Це призводить до помилкових припущень і нелогічних відповідей.
Наприклад, функція AI Overviews від Google одного разу порадила користувачам наносити клей на піцу, щоб запобігти зісковзуванню сиру. Відповідь було згенеровано на основі саркастичного поста на Reddit, тон якого ШІ не зміг визначити.
Через це Google вимкнув функцію ШІ-пошуку в червні 2024 року, лише через два тижні після запуску.
Галюцинації залишаються однією з найсерйозніших проблем мовних моделей. Дослідники розробляють методи для боротьби з цим явищем, але поки незрозуміло, чи вдасться повністю його викорінити.
Читати далі: Нове дослідження OpenAI: боротьба з галюцинаціями в ChatGPT
Моделі штучного інтелекту можуть демонструвати упередженість і виявляти стереотипне мислення. Під терміном «упередженість ШІ» розуміють ситуацію, коли ШІ-системи демонструють несправедливість щодо різних груп людей.
Причин цього є декілька.
Основна проблема в тому, що ШІ навчається на даних, і якщо вони містять упередженості або дисбаланс, ШІ переймає їх. Наприклад, якщо людина бачить зображення тільки чоловіків-лікарів, у неї може скластися враження, що лікарі — це тільки чоловіки.
ШІ може зробити аналогічний висновок: якщо його навчають переважно на даних про одну групу, він може працювати гірше для інших.
Проблема в тому, що упередженість виникає часто ненавмисно. Вона може бути пов'язана як з історичними тенденціями, так і з браком різноманітності в навчальних даних.
До того ж дослідження показують, що великі мовні моделі відображають погляди їхніх творців. Це не особливо дивує, правда?
Мем за мотивами фільму «Я, робот». Джерело: markmcneilly.substack.com
11. Етичні аспекти штучного інтелекту
Етика ШІ передбачає відповідальний підхід до створення ШІ-систем, що дотримується моральних принципів і цінностей. Це передбачає захист прав людини, конфіденційності та справедливого ставлення. Від ШІ також очікують підтримки різноманітності та сталого розвитку.
Одне з найважливіших етичних питань у розробленні ШІ — захист авторських та інтелектуальних прав. ШІ часто навчається на книжках, творах мистецтва, музиці, коді та іншому контенті, що викликає побоювання щодо порушення прав у разі використання творів без дозволу.
Ще одне питання — кому належить контент, створений ШІ: автору оригіналу або компанії, що створила ШІ.
Останніми роками низка контент-мейкерів подала позови проти компаній, що використовують ШІ. Наприклад, The New York Times подав позов проти OpenAI і Microsoft за використання їхніх статей, а Dow Jones, власник The Wall Street Journal і The New York Post, подав позов проти ШІ-пошуковика Perplexity.
Регуляторні норми і закони могли б допомогти у розв’язанні цих етичних питань.
12. Отруєння даних
Отруєння даних — це практика постачання некоректної інформації до ШІ, яка дає змогу маніпулювати його результатами і знижувати продуктивність.
Під час атаки через отруєння у навчальні дані моделі можуть вбудовуватися тригерні фрази, шаблони або зображення. Якщо користувач завантажує файл із таким елементом, це може порушити роботу моделі ШІ.
Цей метод застосовується як для компрометації ШІ-моделей, так і для захисту робіт художників від несанкціонованого використання. Наприклад, інструмент Nightshade захищає зображення, змінюючи їхні пікселі, що не дає змоги ШІ їх розпізнати.
Отже, змінене зображення сприймається ШІ інакше. Наприклад, зображення людини з незначними змінами пікселів може бути ідентифіковано ШІ як зображення кішки.
Інструмент для отруєння даних Nightshade. Джерело: reddit.com
13. Інференс
Створення ШІ поділяють на два ключові етапи: навчання та інференс. На етапі навчання модель отримує дані для оптимізації та розпізнавання закономірностей.
Інференс настає, коли модель готова до використання в контексті реальних завдань і ухвалює рішення на нових даних, з якими не стикалася раніше.
Зазвичай інференс швидший і потребує менше ресурсів, ніж навчання, оскільки це застосування засвоєних знань для розв’язання завдань у режимі реального часу.
Це практична частина ШІ, яка дає змогу моделям застосовувати те, чого вони навчилися.
Більше на тему: Навчання штучного інтелекту та авторське право
14. Промпт
Промпт — це команда або запит, який допомагає ШІ згенерувати відповідь або виконати завдання. Наприклад, запит «Напиши розповідь про героїчного кота» або «Створи зображення пляжного дня» спонукає ШІ використовувати алгоритми для створення оптимального результату на основі вашого запиту.
Промпти широко застосовуються для створення текстів, генерації зображень, розв'язання складних завдань і навіть автоматизації процесів.
Що детальніший і точніший ваш промпт, то більша ймовірність, що ШІ видасть якісний результат. Поняття «промпт-інжиніринг» описує процес створення і поліпшення запитів для отримання оптимальних результатів.
Пошук оптимального промпта для потрібного результату — завдання непросте. Джерело: meme-arsenal.com
15. Тест Тюрінга
Тест Тюрінга, що був запропонований британським математиком та інформатиком Аланом Тюрінгом 1950 року, покликаний визначити, чи здатна машина демонструвати мислення, подібне до людського.
Механізм тесту полягає ось у чому: людина спілкується через текст із машиною (наприклад, чат-ботом) та іншою людиною, не розуміючи, хто з них хто. Якщо людина не здатна відрізнити машину від людини, вважається, що машина пройшла тест, тобто зуміла зімітувати інтелект, схожий на людський.
Спочатку Тюрінг називав його «Грою в імітацію», і цей тест став важливою темою в галузі штучного інтелекту. Він порушує цікаві питання про те, чи можуть машини справді мислити і розуміти світ, як це робить людина.