Лол это интересно. Отсюда видимо и все эти ошибки, что мне попадались.
=> More informations about this toot | More toots from minnidia@mastodon.ml
@minnidia
Это так у всех LLM сейчас.
Максимум что может отличаться в некоторых местах - это доступ к функции поиска - сходить в поисковик и почитать тексты оттуда. Но модель на них не научится прямо сейчас. Они будут влиять только в рамках того диалога, который ты с ней ведёшь. Создашь новый диалог и модель не будет знать ничего, что до этого нашла в первом диалоге.
Потому что веса модели не меняются во время диалогов.
=> More informations about this toot | More toots from skobkin@lor.sh
@skobkin понятно, ну я не шарю. Чатжпт в целом поиском пользуется и немного памяти имеет и в целом если ее регулярно чистить то пользоваться можно.
=> More informations about this toot | More toots from minnidia@mastodon.ml
@minnidia
немного памяти имеет
Ну эта память - это не совсем память. Точнее, это не та "память", которой модель "помнит", какие-то факты существовавшие до момента её запуска.
Это скорее невидимый для тебя контекст диалогов.
Просто в каждом диалоге эта "память" говорит модели (заново) что-то вроде "пользователь любит обсуждать Древний Рим". Но ты этого не видишь.
Прикольно у ChatGPT (как у сервиса) сделано то, что он умеет сам вычленять факты, которые полезно было бы запомнить и добавляет их в "память" по своей инициативе.
=> More informations about this toot | More toots from skobkin@lor.sh
@skobkin угу, а можно это и вручную вбить, как и параметры ответов. Но у меня специфичные запросы, которые устаревают спустя неделю, там что память забивается и надо чистить.
=> More informations about this toot | More toots from minnidia@mastodon.ml
@minnidia
По-моему, её там можно просто выключить в настройках и оно не будет запоминать ничего про тебя.
=> More informations about this toot | More toots from skobkin@lor.sh
@skobkin да, но мне это неудобно
=> More informations about this toot | More toots from minnidia@mastodon.ml
@minnidia
Жизнь - боль 😢
=> More informations about this toot | More toots from skobkin@lor.sh
@skobkin так вопросы короче получаются если в "памяти" есть контекст
=> More informations about this toot | More toots from minnidia@mastodon.ml
@skobkin AFAIK у Grok немножко не так: они постоянно файн-тюнят его на последних новостях, а в контекст вгружают свежие удивительные истории из твитора
@minnidia
=> More informations about this toot | More toots from rayslava@lor.sh This content has been proxied by September (3851b).Proxy Information
text/gemini