:blobcatscience: А вы знали, что у Ollama умеет сообщать моделям о доступных им внешних инструментах? Я вот не знал. А там и API довольно простой[1], внезапно. Я по-быстрому набросал скриптик, который уверяет нейросеть, что у неё в распоряжении есть калькулятор, задаёт ей вопрос и выводит полученные в ответ команды к калькулятору. Довольно примитивный: curl как в документации + склеивание переменных + доставание массива с вызовами через jq.
Почему-то llama3.1 (:8b) убеждена, что объём сферы измеряется в квадратных метрах и использует диаметр вместо радиуса, а вот mistral-nemo (:12b) (на скриншоте) таким не страдает. А llama3.1 хорошо знает скорость света, например (только единицы измерения понимает плохо).
Преобразует выражения он неплохо, составляет с большим скрипом. Но так устраняется хотя бы проблема откровенно ненадёжного устного счёта у языковых моделей, из-за которого этот класс задач ей был в принципе не по зубам, теперь по зубам хотя бы иногда.
[1]: https://github.com/ollama/ollama/blob/main/docs/api.md#chat-request-with-tools
Пока я в других приложениях ошивался, Tusky куда-то посеял упомянутый скриншот вместе с альт-текстом к нему :blobcatgooglyshrug:
Если ваш уголок федивёрса неспособен осознать редактирование сообщений, возможно вам придётся открыть страницу с исходным постом. Извините. :blobcatverysad: