@skobkin Вот только придется брать мерзкую Невидию, и ставить их пакостные дрова.
Потому что у всех остальных с compute api все еще все плохо.
Top-level
@skobkin Вот только придется брать мерзкую Невидию, и ставить их пакостные дрова. Потому что у всех остальных с compute api все еще все плохо. 4 comments
> Более того, можно Не, это я в курсе, за это Лизе Су вообще решпект без меры. Но тем не менее, с вычислениями ситуация долго была очень так себе. |
@drq @altext @n0icz
Ты говоришь это человеку, который принципиально сидит на AMD и запускает разные модельки.
У AMD с этим всё не так плохо, как может показаться. Они, конечно, отстают по производительности, но зато у них абсолютно открытые драйверы прямо в ядре, которые даже кучу разных типов ML могут ускорять без добавки проприетарного драйвера сверху, а ещё и ROCm - SDK для вычислений.
И если два года назад я бы сказал, что пока что на ROCm мало кто заводится, то сейчас я вот недавно писал что у очень простого тулкита для LLM появилась официальная поддержка AMD.
И Stable Diffusion (ещё до XL) я запускал (пусть и немного попердолившись) на AMD тоже.
А сейчас ситуация ещё получше - вышли более новые версии ROCm с поддержкой большего количества карточек, например.
Так что не надо тут вот это тут всю эту радеонофобию разводить!
@drq @altext @n0icz
Ты говоришь это человеку, который принципиально сидит на AMD и запускает разные модельки.
У AMD с этим всё не так плохо, как может показаться. Они, конечно, отстают по производительности, но зато у них абсолютно открытые драйверы прямо в ядре, которые даже кучу разных типов ML могут ускорять без добавки проприетарного драйвера сверху, а ещё и ROCm - SDK для вычислений.