Для сравнения, у ChatGPT 175 миллиардов параметров — то есть, примерно в 58 раз больше. Однако это не значит, что StableLM в 58 раз хуже, ведь, по словам Stability AI, их языковая модель «работает эффективнее других, поэтому большое число параметров ей не нужно». С другой стороны, такое относительно небольшое число параметров облегчает скачивание и использование модели обычными пользователями.
Благо хоть генерация длилась три секунды, но такое ощущение, что нейросеть просто не поняла запроса. К слову, в прошлый раз мы писали, что и StableLM на Hugging Face работала очень и очень плохо — выдавала набор не связанных слов. Такое ощущение, что сервис искусственно урезает мощности бесплатных серверов и заставляет программу останавливаться в самом начале генерации.
Нейросеть пишет код — что такое StableCode
