Лише тоді, коли ШІ справді «зануриться» в кожен пристрій, децентралізація співпраці стане не лише концепцією, а й необхідністю?
Автор: Haotian
Останнім часом, спостерігаючи за AI-індустрією, я виявив все більше «занурення»: з початкової концентрації обчислювальної потужності та загального консенсусу щодо «великих» моделей, виникла гілка, яка схиляється до локальних малих моделей та обчислень на краю.
Це видно з того, як Apple Intelligence охоплює 500 мільйонів пристроїв, Microsoft запускає спеціальну модель Mu з 3,3 мільярда параметрів для Windows 11, а також з «вимкнених» операцій роботів DeepMind від Google.
Що буде інакше? Хмарний AI змагається за масштаб параметрів і навчальні дані, здатність витрачати гроші є основною конкурентною перевагою; локальний AI змагається за оптимізацію інженерії та адаптацію до сценаріїв, що забезпечує подальший захист конфіденційності, надійності та практичності. (Основні загальні моделі мають серйозні проблеми з ілюзіями, що суттєво вплине на проникнення в нішеві сценарії).
Це насправді відкриває більші можливості для web3 AI, адже раніше всі змагалися у «універсальності» (обчислення, дані, алгоритми), що природно було монополізовано традиційними великими компаніями. Спробувати конкурувати з Google, AWS, OpenAI, накласти концепцію децентралізації - це просто марення, адже немає ні ресурсних переваг, ні технологічних переваг, і вже тим більше немає бази користувачів.
Але в світі локалізованих моделей + крайових обчислень ситуація, з якою стикаються послуги технології блокчейн, може бути зовсім іншою.
Коли модель ШІ працює на пристрої користувача, як довести, що результати виходу не були змінені? Як реалізувати співпрацю моделей, захищаючи приватність? Ці питання якраз і є сильною стороною технології блокчейн...
Звернули увагу на кілька нових проектів у сфері web3 AI, таких як недавній проект Pantera, який інвестував 10M у @Gradient_HQ, що запустив протокол зв'язку даних Lattica для вирішення проблеми монополії даних і чорних ящиків централізованих AI платформ; @PublicAI_ пристрій для зчитування електроенцефалограм HeadCap збирає реальні дані людей, створюючи «шар ручної перевірки», вже досягнувши 14M доходу; насправді, всі намагаються вирішити проблему «достовірності» локального AI.
Одна фраза: тільки коли ШІ справді «заглибиться» в кожен пристрій, децентралізована співпраця стане не лише концепцією, а й необхідністю?
#Web3AI проекту, замість того, щоб продовжувати внутрішню конкуренцію на універсальній арені, краще серйозно задуматися, як забезпечити інфраструктурну підтримку для локалізованої хвилі AI?
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Чи є «заглиблення» штучного інтелекту можливістю для Web3?
Автор: Haotian
Останнім часом, спостерігаючи за AI-індустрією, я виявив все більше «занурення»: з початкової концентрації обчислювальної потужності та загального консенсусу щодо «великих» моделей, виникла гілка, яка схиляється до локальних малих моделей та обчислень на краю.
Це видно з того, як Apple Intelligence охоплює 500 мільйонів пристроїв, Microsoft запускає спеціальну модель Mu з 3,3 мільярда параметрів для Windows 11, а також з «вимкнених» операцій роботів DeepMind від Google.
Що буде інакше? Хмарний AI змагається за масштаб параметрів і навчальні дані, здатність витрачати гроші є основною конкурентною перевагою; локальний AI змагається за оптимізацію інженерії та адаптацію до сценаріїв, що забезпечує подальший захист конфіденційності, надійності та практичності. (Основні загальні моделі мають серйозні проблеми з ілюзіями, що суттєво вплине на проникнення в нішеві сценарії).
Це насправді відкриває більші можливості для web3 AI, адже раніше всі змагалися у «універсальності» (обчислення, дані, алгоритми), що природно було монополізовано традиційними великими компаніями. Спробувати конкурувати з Google, AWS, OpenAI, накласти концепцію децентралізації - це просто марення, адже немає ні ресурсних переваг, ні технологічних переваг, і вже тим більше немає бази користувачів.
Але в світі локалізованих моделей + крайових обчислень ситуація, з якою стикаються послуги технології блокчейн, може бути зовсім іншою.
Коли модель ШІ працює на пристрої користувача, як довести, що результати виходу не були змінені? Як реалізувати співпрацю моделей, захищаючи приватність? Ці питання якраз і є сильною стороною технології блокчейн...
Звернули увагу на кілька нових проектів у сфері web3 AI, таких як недавній проект Pantera, який інвестував 10M у @Gradient_HQ, що запустив протокол зв'язку даних Lattica для вирішення проблеми монополії даних і чорних ящиків централізованих AI платформ; @PublicAI_ пристрій для зчитування електроенцефалограм HeadCap збирає реальні дані людей, створюючи «шар ручної перевірки», вже досягнувши 14M доходу; насправді, всі намагаються вирішити проблему «достовірності» локального AI.
Одна фраза: тільки коли ШІ справді «заглибиться» в кожен пристрій, децентралізована співпраця стане не лише концепцією, а й необхідністю?
#Web3AI проекту, замість того, щоб продовжувати внутрішню конкуренцію на універсальній арені, краще серйозно задуматися, як забезпечити інфраструктурну підтримку для локалізованої хвилі AI?