|
||
DeepSeek придумав, як підвищити ефективність ШІ-моделей за допомогою самонавчанняКитайський стартап DeepSeek прославився на початку року, випустивши міркувальну модель R1, яка змогла конкурувати з ШІ-моделями американських технологічних гігантів, незважаючи на скромний бюджет. Тепер DeepSeek опублікував у співпраці з дослідниками університету Цинхуа статтю з докладним описом нового підходу до навчання моделей із підкріпленням, що дає змогу значно підвищити їхню ефективність. Про це повідомив ресурс SCMP.
Згідно з публікацією, новий метод спрямований на те, щоб допомогти ШІ-моделям краще відповідати людським вподобанням, використовуючи механізм винагород за точніші та зрозуміліші відповіді. Навчання з підкріпленням довело свою ефективність у прискоренні розв'язання завдань ШІ в обмежених сферах і додатках. Однак його використання для більш загальних завдань виявилося не настільки ефективним. Команда DeepSeek намагається вирішити це питання, об'єднавши генеративне моделювання винагороди (GRM) і так зване налаштування самокритики на основі принципів. Як стверджується в статті, новий підхід з метою поліпшення можливостей міркувань великих мовних моделей (LLM) перевершив наявні методи, що підтверджено перевіркою моделей у різних тестах, і дав змогу отримати найвищу продуктивність для загальних запитів при використанні менших обчислювальних ресурсів. Джерело: SmartPhone.ua Обговорення новиниКоментариев пока никто не оставил. Станьте первым! Попередні новини
|
|
|