Email or username:

Password:

Forgot your password?
D:\side\

:blobcatscience: А вы знали, что у Ollama умеет сообщать моделям о доступных им внешних инструментах? Я вот не знал. А там и API довольно простой[1], внезапно. Я по-быстрому набросал скриптик, который уверяет нейросеть, что у неё в распоряжении есть калькулятор, задаёт ей вопрос и выводит полученные в ответ команды к калькулятору. Довольно примитивный: curl как в документации + склеивание переменных + доставание массива с вызовами через jq.

Почему-то llama3.1 (:8b) убеждена, что объём сферы измеряется в квадратных метрах и использует диаметр вместо радиуса, а вот mistral-nemo (:12b) (на скриншоте) таким не страдает. А llama3.1 хорошо знает скорость света, например (только единицы измерения понимает плохо).

Преобразует выражения он неплохо, составляет с большим скрипом. Но так устраняется хотя бы проблема откровенно ненадёжного устного счёта у языковых моделей, из-за которого этот класс задач ей был в принципе не по зубам, теперь по зубам хотя бы иногда.

[1]: github.com/ollama/ollama/blob/

Кусок сеанса в терминале:

$ sh ollama.sh "What is a volume of a sphere with a diameter of 2.5m?"
[
  {
    "function": {
      "name": "calculator",
      "arguments": {
        "expression": "4/3 * pi * (2.5/2)^3"
      }
    }
  }
]
1 comment
D:\side\

Пока я в других приложениях ошивался, Tusky куда-то посеял упомянутый скриншот вместе с альт-текстом к нему :blobcatgooglyshrug:

Если ваш уголок федивёрса неспособен осознать редактирование сообщений, возможно вам придётся открыть страницу с исходным постом. Извините. :blobcatverysad:

Go Up