В даній статті представлено використання технік машинного навчання і аналізу даних для створення адаптивних схем вибору рівнів для мовних відеоігор. Описано передумови до створення подібної системи, а також проведений статистичний аналіз ефективності побудованої схеми на основі даних, зібраних з вибірки студентів Астраханського державного університету. Наведено порівняння з більш простими схемами, використаними раніше в процесі розробки, за допомогою як класичних частотних методів (критерій згоди Пірсона), так і за допомогою байесовских методів.

Анотація наукової статті з математики, автор наукової роботи - Сидоров К.С., Єрмілов Н.О..


MACHINE LEARNING IN DEVELOPMENT OF VIDEO GAMES FOR LANGUAGE LEARNING

This article presents the use of machine learning and data analysis techniques in development of adaptive level selection schemes for video games for language learning. The prerequisites for the development of such a system are described in the paper, as well as a statistical analysis of the effectiveness of the constructed scheme based on data collected from a sample of students of the Astrakhan State University. The comparison is made with the simpler schemes used earlier in the development process, using both classical frequency methods (Pearson consensus test) and Bayesian methods.


Область наук:
  • Математика
  • Рік видавництва діє до: 2017
    Журнал: Міжнародний науково-дослідний журнал

    Наукова стаття на тему 'машинного навчання ПРИ СТВОРЕННІ РОЗВИВАЮЧИХ МОВНИХ відеоігор'

    Текст наукової роботи на тему «машинного навчання ПРИ СТВОРЕННІ РОЗВИВАЮЧИХ МОВНИХ відеоігор»

    ?DOI: https://doi.org/10.23670/IRJ.2017.66.137 Сидоров К.С.1, Єрмілов Н.О.2

    : ORCID: 0000-0003-0395-286X, студент, 2Старшій викладач кафедри математики і методики її

    викладання,

    ФГБОУ ВО «Астраханський державний університет».

    Машинного навчання ПРИ СТВОРЕННІ РОЗВИВАЮЧИХ МОВНИХ відеоігор

    анотація

    В даній статті представлено використання технік машинного навчання і аналізу даних для створення адаптивних схем вибору рівнів для мовних відеоігор. Описано передумови до створення подібної системи, а також проведений статистичний аналіз ефективності побудованої схеми на основі даних, зібраних з вибірки студентів Астраханського державного університету. Наведено порівняння з більш простими схемами, використаними раніше в процесі розробки, за допомогою як класичних частотних методів (критерій згоди Пірсона), так і за допомогою байесовских методів.

    Ключові слова: машинне навчання, аналіз даних, вищу освіту, відеоігри, статистика.

    Sidorov K.S.1, Ermilov N.O.2

    : ORCID: 0000-0003-0395-286X, student, 2 Senior professor of department of mathematics and its teaching methodology, Federal State Budget Educational Institution of Higher Professional Education "Astrakhan State University" MACHINE LEARNING IN DEVELOPMENT OF VIDEO GAMES FOR LANGUAGE LEARNING

    Abstract

    This article presents the use of machine learning and data analysis techniques in development of adaptive level selection schemes for video games for language learning. The prerequisites for the development of such a system are described in the paper, as well as a statistical analysis of the effectiveness of the constructed scheme based on data collected from a sample of students of the Astrakhan State University. The comparison is made with the simpler schemes used earlier in the development process, using both classical frequency methods (Pearson consensus test) and Bayesian methods.

    Keywords: machine learning, data analysis, higher education, video games, statistics.

    Вступ

    Як і в будь-якому університеті, в Астраханському державному університеті навчаються студенти з різних країн, і рівень знання російської мови, зрозуміло, у них різний. Оскільки для успішного засвоєння матеріалу потрібно знання російської мови, одне із завдань, що стоять перед університетом - підготувати іноземних студентів так, щоб мовний бар'єр не заважав їм вчитися.

    З цією метою в АМУ була розроблена навчальна відеогра, заснована на наступній відомої ідеї: гравцеві видається слово, його завдання - за обмежений час скласти якомога більше слів з виданих йому букв. Подібних програм на ринку, зрозуміло, представлено багато, але вони не заточені під вивчення мови (зокрема, в них відсутні продумані системи рівнів).

    Як вже було зазначено, рівні складності гри необхідно градуювати. У той же час прості схеми, неповно враховують специфіку слова, працювали неякісно (поняття якісної моделі буде уточнено в розділі «Статистичне порівняння результатів»). Тому для побудови більш ефективної схеми градуювання рівнів за узгодженими з розробником технічними завданнями були зібрані дані про проходження гри з різними словами і настройками часу, по якій засобами машинного навчання була побудована схема градуювання, яка успішно працює на практиці.

    Постановка проблеми

    Як уже згадувалося, що розробляється продукт заснований на складанні якомога більшого числа анаграм заданого слова за обмежений час. На момент написання статті інтерфейс програми виглядав так, як показано на рис. 1:

    ДАНИЙ СЛОВО

    Б У К В И

    Правильна відповідь i 11раві ний відповідь 2

    +500

    -100

    400

    Праннлм | ис ошсгм

    Помилки Всього очок

    час

    Мал. 1 - зразок інтерфейсу додатку 137

    Залишається неясним, як побудувати рівні, якщо зафіксовано час проходження гри і розігрується слово. Іншими словами, нас цікавить проблема того, як по заданому слову вибрати порогові кількості слів 11,12,13 так, щоб вони могли адекватно ставити ступінь складності гри в тому сенсі, що кількість дійшли до того чи іншого рівня було б приблизно однаковим.

    Наскільки нам відомо, усвідомлених спроб вирішити подібну задачу не робилося. В одній зі статей на Хабрахабр була спроба враховувати специфіку слова для побудови системи нагород, але вона не була підкріплена аналізом даних, і деякі ідеї з тієї статті будуть розглянуті далі разом з обґрунтуванням їх неефективності. [1] Опис вибірки

    Для подальшого аналізу було зібрано вибірка даних про проходження гри. Більш детально, вона містить 989 записів, кожна з яких містить: розігрується слово;

    максимальну можливу кількість слів, яке можна в ньому знайти; час проходження; кількість знайдених слів.

    П'ять перших записів вибірки наведені в таблиці 1.

    Таблиця 1 - Зразок формату записів у вибірці

    Слово Максимальна Час на гру, Результат

    кількість хвилини

    математика 129 7 13

    алгебра 97 7 6

    геометрія 229 7 15

    логіка 76 5 16

    графіка 77 5 24

    Як можна бачити вже з перших записів, вибірка досить варіативна - наприклад, розігрувалися слова різної довжини і з різним потенціалом на пошук слів.

    У той же час можна помітити, що більшість гравців не вгадують дуже багато можливих слів (див. Рис. 2). З одного боку, це пояснюється обмеженістю часу, а з іншого - наявністю рідкісних слів, невідомих навіть багатьом носіям мови

    Розподіл процентного відношення напоєних слів

    % МЙПЯ-НМЬ'К СЛЙ0

    Мал. 2 - гістограма розподілу процентного відношення знайдених слів

    Як бачимо, основна маса не знаходить більше 15% слів, а більше 50% було знайдено тільки в 1 грі (нагадаємо, що у вибірці їх 989).

    Математична модель

    Для подальшого аналізу нам знадобиться математична модель залежності кількості знайдених слів від часу. Для цього ми будемо використовувати модель, відому з ядерної фізики як найпростішу модель числа нераспавшіхся частинок [2]. А саме, будемо вважати, що якщо все в слові можна знайти 5тіж слів, то в момент часу? гравець знайде 5 (?) = 5тіж (1 - слів. На якісному рівні це можна розуміти так: спочатку гравець знаходить слова з постійною швидкістю Я, після чого приходить «насичення», і він починає знаходити слова все повільніше і повільніше, але асимптотично при ? ^ + оо гравець знаходить все слова.

    Параметр Я в даній моделі відображає, як уже згадувалося, швидкість «прорешіванія» слова. Зауважимо, що для більш досвідчених гравців цей параметр буде більше - це буде істотно для побудови системи рівнів на основі даної моделі.

    Цю модель поки що не можна використовувати безпосередньо, тому що є прихований параметр Я, тому подальший виклад буде розгортатися навколо оцінки цього параметра. Оскільки в нашій вибірці зберігаються тільки параметри 5, 5тіж,?, То ми можемо побудувати емпіричну оцінку на прихований параметр наступним чином:

    Летра ~ -71п (1 - Т

    Налаштування параметрів за допомогою машинного навчання

    Як вже зазначалося, ми шукаємо залежність від параметрів слова. Пропонується шукати цю залежність в класі

    параметричних залежностей виду

    н'-х + Ь

    де - вектор параметрів слова (що містить, зокрема,

    максимальне доступне кількість слів), а - поки що невідомі параметри, що задають залежність. Саме такий вид залежності обґрунтовується графіком, представленому на рис. 3.

    Мал. 3 - діаграма розсіювання для залежності - =? від максимального числа слів

    Як можна бачити на наведеній діаграмі, залежність від можна хоча б з точністю до випадкового шуму вважати лінійної. З цього виникає наступна задача машинного навчання: за вибіркою, що складається з параметрів слова і оцінки - =?, Побудувати лінійну модель для передбачення? по іншим змінним. для

    Л-етр

    ясності, в таблиці 2 наводимо приблизний вигляд вибірки в тому форматі, в якому вона використовується при застосуванні алгоритмів машинного навчання (використані ті ж об'єкти в тому ж порядку, що і в таблиці 1).

    Таблиця 2 - Зразок формату записів у вибірці, складеної для пошуку моделі для (для простоти вказана

    лише одна вільна змінна)

    Максимальна?, Емпірична оцінка

    кількість

    129 0,015

    97 0,009

    229 0,009

    76 0,047

    77 0,075

    У такій постановці виходить стандартна задача лінійної регресії, для вирішення якої існує безліч інструментів [3]. Перед застосуванням алгоритму, втім, виявилося потрібним для кожного слова видалити всі об'єкти, які не перебувають між 25-ою і 75-х процентилями за кількістю знайдених слів. Таким чином, з вибірки були вилучені нетипово слабкі і нетипово сильні гравці - через дуже великий різнорідність рівня знань гравців в області лексики російської мови дані вийшли дуже зашумлений, без подібної процедури очищення побудувати корисні висновки не представлялося можливим. В результаті подібної очищення в вибірці залишилося лише 563 об'єкта.

    До залишилися об'єктам була застосована стандартна модель лінійної регресії з Ь х-регуляризатора [4]. На крос-валідації з 3 проходами модель показала середнє значення коефіцієнта детермінації 0,539. Це можна інтерпретувати в такий спосіб: модель змогла «пояснити» 53,9% дисперсії в даних (для порівняння, константная модель по визначенню даного коефіцієнта пояснює 0% дисперсії) [5]. З урахуванням того, що дані залишилися досить зашумлений навіть після видалення частини даних (рис. 3 був побудований саме на скороченою

    вибірці), це можна розцінювати як позитивний результат, який можна використовувати далі для інших завдань (наприклад, для оцінки порогів рівнів).

    В кінцевому підсумку була знайдена наступна залежність: Яе тр = ---. У даній залежності фігурує

    17.05 +0.2 35шал:

    тільки одна вільна змінна - 5таж, чому є суворе обгрунтування. Оскільки видання ^ регуляризатора має властивість видалення ознак, які не пояснюють варіативність даних [4], то під час дослідження в модель додавалися ознаки, які можуть непрямим чином пояснювати складність слова - наприклад, його довжина, кількість голосних, відношення кількості голосних до довжини слова. Всі подібні ознаки моделлю відхилялися як несуттєві (якщо точніше, модель виставляла їм нульові коефіцієнти), що говорить про те, що такі ознаки не мають значення для гравців за умови, що відомо максимально кількість слів. Зокрема, це спростовує схеми зі згаданих статей на Хабрахабр і дозволяє перейти до вирішення основної поставленої задачі.

    Реалізація рівнів складності

    Як уже згадувалося, великі значення параметра швидкості при інших рівних в нашій моделі задають вищий рівень майстерності гравця. Тому можлива наступна реалізація рівнів: нехай зафіксовано слово і час По параметрам слова (як було показано вище) оцінюємо Яетр. Зробивши це, обчислюємо величину 5 (?), Використовуючи Я = Яетр - це буде середній рівень складності. Легкий (важкий) рівень тепер виходять підстановкою меншого (більшого) значення у вираз для .

    Відзначимо, що емпірично величина 1 п Я розподілена нормально, що відображено на Q-Q графіку [6] на рис. 4, побудованому за допомогою оцінок Хетр для всіх об'єктів вибірки.

    0-0 графік

    -г л

    -3.0

    -35

    І

    ".V

    ? -4 0

    ?

    «г,

    -4.б

    -5.0

    -3 -2-19 1 2 3

    Квантилі норма л і не го розподілу

    Мал. 4 - Q-Q графік для квантилів нормального розподілу і значень досліджуваної величини

    З графіка видно, що відповідні квантилі двох розподілів - нормального і емпіричного - дуже схожі (особливо в зоні типових значень), що означає, що хоча б наближено можна вважати нормально розподіленої.

    Відповідно, якщо вважати, що, то тоді при виборі відповідного значення

    , , виявляться (відповідно) першим, другим і третім Квартиль розподілу, тобто

    поділять гравців на чотири приблизно рівні групи в залежності від ступеня досвіду - як раз те, що і повинна робити хороша схема побудови рівнів.

    Переходячи від логарифмів до початкових величин, отримуємо формули для побудови легкого, середнього і важкого

    рівнів виходять вибором Я відповідно До Яетр, Яе тр і Яе ™ р для деякого К (в наших експериментах непогані результати давало).

    Статистичне порівняння результатів

    Раніше в додатку використовувалася наступна схема рівнів (далі будемо називати її жорсткої - на противагу м'якої, адаптивної схемою, розробленою вище): для проходження легкого рівня потрібно знайти ,

    середнього -, важкого - .

    Оскільки нашим основним вимогою до рівнів складності є рівний поділ гравців по групах, то був проведений наступний тест: для кожного слова були виписані рівні відповідно до обома схемами, після чого для кожного слова було розраховано кількість гравців, що дійшли до того чи іншого рівня (всього для кожного слова вийшло 4 числа).

    Приклад вибірки, побудованої для статистичного аналізу - в таблиці 3.

    Таблиця 3 - Кількість дійшли до того чи іншого рівня (по жорсткої схемою) для перших 5 слів вибірки

    Слово Чи не дійшло до 1 Дійшло до 1, але не до 2 Дійшло до 2, але не до 3 Дійшло до 3

    рівня рівня рівня рівня

    математика 1 4 31 27

    алгебра 1 8 24 30

    геометрія 2 20 до 27 14

    логіка 0 Разом 4 12 40

    графіка 0 3 6 47

    Оскільки перед нами стоїть вимога рівномірності, розумно застосувати до всіх слів критерій згоди Пірсона [7]. (Необхідний рівень значущості всюди - 5%). В результаті застосування критерію до жорсткої схемою тільки для одного слова - «розетка» - не можна відхилити нульову гіпотезу (яка в критерії згоди Пірсона формулюється як рівномірність досліджуваного розподілу). У м'якій схемою нульова гіпотеза не відхиляється вже для шести слів - «геометрія», «розетка», «монетизація», «лінолеум», «клавіатура», «святковий». З огляду на, що вибірка містить дуже велику кількість шуму, це вже дозволяє зробити висновок про те, що м'яка схема являє собою якісне поліпшення в порівнянні з жорсткою.

    Також був проведений ще один тест, в якому безпосередньо оцінювалася ентропія отриманих розподілів гравців - з наших міркувань випливає, що чим вище ентропія розбиття, тим краще працює схема побудови рівнів.

    Для цього використовувалася наступна імовірнісна модель:

    а = (а1 (..., ак) р | а ~ Dir (а) х | р ~ Cat (р)

    тут:

    а = (а 1 (..., а fc) - гіперпараметр, що відповідає за апріорне знання про кількість об'єктів (ми використовували а = (1, 1, 1, 1));

    р - імовірнісний розподіл, задану ймовірність побачити гравця, який дійшов до відповідного рівня;

    - конкретне «спостереження», тобто рівень, до якого дійшов гравець.

    Нехай ми побачили N = (V ,..., V) гравців, що дійшли до того чи іншого рівня. (Це рівно ті числа, які наведені в таблиці 3). Тоді, як відомо, за правилом Байеса можна отримати апостеріорне розподіл на р, яке дорівнюватиме р ~ Dir (а + N) - знову розподіл Діріхле, але з іншими параметрами [8].

    Далі ми провели наступний експеримент: для кожної зі схем побудували вказане Байєсова апостеріорне розподіл, після чого побудували випадкову вибірку для величини Н (р) - ентропії Шеннона [9] - і емпірично оцінили 95% -ний довірчий інтервал для неї. (Оскільки апостеріорне розподіл ми отримали в явному вигляді, то для емпіричної оцінки ми могли використовувати досить багато значень - в наших експериментах результати перестали змінюватися після того, як розмір вибірки перевищив 10 мільйонів).

    В результаті для шести слів - «логіка», «графіка», «монетизація», «лінолеум», «клавіатура», «святковий» -доверітельний інтервал для ентропії м'якої схеми лежав цілком правіше, ніж довірчий інтервал для жорсткої схеми, що можна інтерпретувати наступним чином: м'яка схема на цих словах стійко дає статистично значимо більш рівномірний розподіл. Зворотній ситуації не виникало жодного разу; більш того, точкові оцінки на ентропію м'якої схеми були більше для 14 слів з 16. Повні результати запуску - в таблиці 4.

    Таблиця 4 - Емпіричні довірчі інтервали для двох схем.

    Слово Довірчий Довірчий Статистично

    інтервал жорсткої інтервал м'якою ефективна схема

    схеми схеми

    математика [0.85, 1.15] [0.94, 1.26] -

    алгебра [0.94, 1.21] [0.94, 1.19] -

    геометрія [1.07, 1.29] [1.24, 1.28] -

    логіка [0.65, 1.03] [1.18, 1.37] М'яка схема

    графіка [0.43, 0.88] [1.04, 1.31] М'яка схема

    розетка [1.21, 1.37] [1.24, 1.38] -

    монетизація [0.77, 1.09] [1.22, 1.38] М'яка схема

    стелю [0.75, 1.07] [0.75, 1.07] -

    аудиторія [1.04, 1.27] [1.10, 1.33] -

    фарба [0.61, 0.97] [0.93, 1.23] -

    лінолеум [0.95, 1.25] [1.28, 1.38] М'яка схема

    куртка [1.12, 1.31] [1.16, 1.35] -

    комп'ютер [0.96, 1.25] [0.97, 1.27] -

    сковорода [1.04, 1.31] [1.00, 1.29] -

    клавіатура [0.74, 1.08] [1.25, 1.38] М'яка схема

    святковий [0.82, 1.18] [1.20, 1.37] М'яка схема

    Відзначимо, що ще однією перевагою представленої схеми (як видно по таблиці 4) є її стійкість - навіть коли м'яка схема в чомусь програвала жорсткої, її все одно вдавалося виробляти досить збалансовані розбиття.

    висновок

    У даній статті була розглянута, побудована і проаналізована система рівнів, здатна адаптуватися під параметри конкретного слова і (після модифікації алгоритму з урахуванням виникає специфіки завдання online learning [10]) до специфіки гравців.

    Все дослідження було підкріплено конкретними даними і статистичними оцінками, побудованими на них, що підтверджує працездатність даної моделі в розглянутій задачі.

    Як подальші поліпшень розглядається розширення даної схеми на вибір не тільки цікавих рівнів складності, а й цікавих тимчасових інтервалів (побудова швидких або довгих ігор в залежності від слова). Також розглядається побудова системи нагород на основі даних, що може також бути дуже корисно при Гейміфікація додатки і, як наслідок, залучення користувачів в процес вивчення лексики.

    Список літератури / References

    1. Створення гри «Слова з Слова» [Електронний ресурс] // Habrahabr. - 2016. - URL: https://habrahabr.org.ua/post/308256/ (дата звернення: 16.11.2017).

    2. Rutherford E. A comparative study of the radioactivity of radium and thorium. / Ernest Rutherford, Frederick Soddy // Philosophical Magazine - 1903. - Vol. 5 - P. 445-457 - doi: 10.1080 / 14786440309462943

    3. Pedregosa F. Scikit-leam: Machine Learning in Python. / Fabian Pedregosa, Gael Varoquaux, Alexandre Gramfort and others // Journal of Machine Learning Research - 2011. - Vol. 12 - P. 2825-2830.

    4. Tibshirani R. Regression Shrinkage and Selection via the Lasso. / Robert Tibshirani // Journal of the Royal Statistical Society. Series B (Methodological) - 1996. - Vol. 58 - P. 267-288.

    5. Glantz S. Primer of Applied Regression and Analysis of Variance. / Stanton A. Glantz, Bryan K. Slinker. - McGraw-Hill, 1990 - 949 p.

    6. NIST / SEMATECH e-Handbook of Statistical Methods, 1.3.3.24. Quantile-Quantile Plot [Електронний ресурс] // National Institute of Standards and Technology. - 2012. - URL: http://www.itl.nist.gov/div898/handbook/eda/section3/qqplot.htm (дата звернення: 16.11.2017).

    7. Pearson K. On the criterion that a given system of deviations from the probable in the case of a correlated system of variables is such that it can be reasonably supposed to have arisen from random sampling. / Karl Pearson // The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science - 1900. - Vol. 50 - P. 157-175 -doi: 10.1080 / 14786440009463897

    8. Agresti A. Bayesian inference for categorical data analysis. / Alan Agresti, David B. Hitchcock // Statistical Methods and Applications - 2005. - Vol. 14 - P. 297-330 - doi: 10.1007 / s10260-005-0121-y

    9. Shannon C. E. A Mathematical Theory of Communication. / Claude E. Shannon // Bell System Technical Journal -1948. - Vol. 27 - P. 379-423 - doi: 10.1002 / j.1538-7305.1948.tb01338.x

    10. Bottou L. Online Learning and Stochastic Approximations. / Leon Bottou - тисячі дев'ятсот дев'яносто вісім.

    Список літератури англійською мовою / References in English

    1. Sozdanie igry «Slova iz Slova» [Creation of the game "Words from Words"] [Electronic resource] // Habrahabr. -2016. - URL: https://habrahabr.org.ua/post/308256/ (accessed: 16.11.2017). [In Russian]

    2. Rutherford E. A comparative study of the radioactivity of radium and thorium. / Ernest Rutherford, Frederick Soddy // Philosophical Magazine - 1903. - Vol. 5 - P. 445-457 - doi: 10.1080 / 14786440309462943

    3. Pedregosa F. Scikit-learn: Machine Learning in Python. / Fabian Pedregosa, Gael Varoquaux, Alexandre Gramfort and others // Journal of Machine Learning Research - 2011. - Vol. 12 - P. 2825-2830.

    4. Tibshirani R. Regression Shrinkage and Selection via the Lasso. / Robert Tibshirani // Journal of the Royal Statistical Society. Series B (Methodological) - 1996. - Vol. 58 - P. 267-288.

    5. Glantz S. Primer of Applied Regression and Analysis of Variance. / Stanton A. Glantz, Bryan K. Slinker. - McGraw-Hill, 1990 - 949 p.

    6. NIST / SEMATECH e-Handbook of Statistical Methods, 1.3.3.24. Quantile-Quantile Plot [Electronic resource] // National Institute of Standards and Technology. - 2012. - URL: http://www.itl.nist.gov/div898/handbook/eda/section3/qqplot.htm (accessed: 16.11.2017).

    7. Pearson K. On the criterion that a given system of deviations from the probable in the case of a correlated system of variables is such that it can be reasonably supposed to have arisen from random sampling. / Karl Pearson // The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science - 1900. - Vol. 50 - P. 157-175 -doi: 10.1080 / 14786440009463897

    8. Agresti A. Bayesian inference for categorical data analysis. / Alan Agresti, David B. Hitchcock // Statistical Methods and Applications - 2005. - Vol. 14 - P. 297-330 - doi: 10.1007 / s10260-005-0121-y

    9. Shannon C. E. A Mathematical Theory of Communication. / Claude E. Shannon // Bell System Technical Journal -1948. - Vol. 27 - P. 379-423 - doi: 10.1002 / j.1538-7305.1948.tb01338.x

    10. Bottou L. Online Learning and Stochastic Approximations. / Leon Bottou - тисячі дев'ятсот дев'яносто вісім.


    Ключові слова: машинного навчання / MACHINE LEARNING / АНАЛІЗ ДАНИХ / DATA ANALYSIS / ВИЩА ОСВІТА / HIGHER EDUCATION / ВІДЕОІГРИ / VIDEO GAMES / СТАТИСТИКА / STATISTICS

    Завантажити оригінал статті:

    Завантажити