Четвертий парадигма випускає рішення для великих моделей на кшталт AIoT ModelHub для країни

Дані Jinshi 26 лютого повідомили, що з четвертого парадигми стало відомо, що четверта парадигма випустила рішення для розв'язання великих моделей AIoT ModelHub AIoT на боці інференції, користувачі можуть легко розгортати на боці малі моделі дистиляції, такі як DeepSeek R1, Qwen 2.5, Llama 2/3 тощо, і реалізувати автономну роботу. Користувачі можуть гнучко перемикатися між декількома моделями, враховуючи стиснення моделі, продуктивність інференції, вирішуючи складність розгортання та оптимізації. Компанія заявила, що це рішення не тільки задовольняє вимоги користувачів до конфіденційності та реального часу, але також значно знижує витрати на інференцію великих моделей AI.

Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити