@inex О, вот это прям по делу пост.
А какие нейронки, на текст или на графон?
Top-level
8 comments
@inex Ну, допустим, Continue с Mistral, Codellama, Llama3.1 и т.д. https://ollama.com/library/mistral > Квен какой-то @drq известно какой, китайский. Помнишь пост о расцензуривании, где ассистировавшего Claude порвало на риторику? |
@drq на графон, стейбл диффюжн. Запустил никсосный флейк который готовит всю среду для запуска с Rocm, а он взял и сработал, никак ебаться не пришлось. Генерит довольно шустро на крупных моделях, спасибо объёму памяти.
LLMки не проверял, так как у меня нет интереса к этому. Если хочешь, могу потыкать как лама работает.