Дані Jinshi 26 лютого повідомили, що з четвертого парадигми стало відомо, що четверта парадигма випустила рішення для розв'язання великих моделей AIoT ModelHub AIoT на боці інференції, користувачі можуть легко розгортати на боці малі моделі дистиляції, такі як DeepSeek R1, Qwen 2.5, Llama 2/3 тощо, і реалізувати автономну роботу. Користувачі можуть гнучко перемикатися між декількома моделями, враховуючи стиснення моделі, продуктивність інференції, вирішуючи складність розгортання та оптимізації. Компанія заявила, що це рішення не тільки задовольняє вимоги користувачів до конфіденційності та реального часу, але також значно знижує витрати на інференцію великих моделей AI.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Четвертий парадигма випускає рішення для великих моделей на кшталт AIoT ModelHub для країни
Дані Jinshi 26 лютого повідомили, що з четвертого парадигми стало відомо, що четверта парадигма випустила рішення для розв'язання великих моделей AIoT ModelHub AIoT на боці інференції, користувачі можуть легко розгортати на боці малі моделі дистиляції, такі як DeepSeek R1, Qwen 2.5, Llama 2/3 тощо, і реалізувати автономну роботу. Користувачі можуть гнучко перемикатися між декількома моделями, враховуючи стиснення моделі, продуктивність інференції, вирішуючи складність розгортання та оптимізації. Компанія заявила, що це рішення не тільки задовольняє вимоги користувачів до конфіденційності та реального часу, але також значно знижує витрати на інференцію великих моделей AI.