Сообщение ChainCatcher: Исследовательская группа Массачусетского технологического института, Колледжа Уэллсли и Массачусетской художественной школы недавно обнаружила, что длительная зависимость от крупных языковых моделей (LLM), таких как ChatGPT, может нанести вред когнитивным способностям. Исследование показало, что количество связей альфа-волны в мозге участников, использующих ИИ для написания, составляет лишь половину от числа у независимых мыслителей (42 против 79), и 83,3% не могут точно сослаться на содержание своих собственных статей. Исследователи назвали это явление когнитивным долгом — краткосрочное снятие нагрузки с мышления, но долгосрочное снижение критического мышления и креативности.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Исследование: Долгосрочная зависимость от крупных языковых моделей, таких как ChatGPT, может повредить когнитивным способностям.
Сообщение ChainCatcher: Исследовательская группа Массачусетского технологического института, Колледжа Уэллсли и Массачусетской художественной школы недавно обнаружила, что длительная зависимость от крупных языковых моделей (LLM), таких как ChatGPT, может нанести вред когнитивным способностям. Исследование показало, что количество связей альфа-волны в мозге участников, использующих ИИ для написания, составляет лишь половину от числа у независимых мыслителей (42 против 79), и 83,3% не могут точно сослаться на содержание своих собственных статей. Исследователи назвали это явление когнитивным долгом — краткосрочное снятие нагрузки с мышления, но долгосрочное снижение критического мышления и креативности.