Тем временем, в OpenWebUI некоторое количество релизов назад подвезли функции и тулзы.
Насколько я понял, они стараются ещё и быть как минимум частично совместимыми с API OpenAI.
В итоге можно теперь решать проблему диалога с нейросетью, которая плохо знает твой язык: подключается функция перевода (я тестил Google Translate, есть и LibreTranslate) и диалог не на английском становится уже не таким странным.
Ещё надо потестить интеграцию тулзов - можно будет предоставить модели доступ к внешним вызовам вроде запроса погоды или даже похода в Home Assistant.
Когда-нибудь я найду время и накручу на коленке свою селфхостед Алису из LLaMA, OpenWhisper, какого-то TTS и пачки плагинов. Но это неточно.