Во многих устройствах доступ к памяти на несколько порядков медленнее, так что оборудование для работы с такими каналами должно получаться ебанически дорогим в любом случае
Top-level
Во многих устройствах доступ к памяти на несколько порядков медленнее, так что оборудование для работы с такими каналами должно получаться ебанически дорогим в любом случае 29 comments
@loonycyborg Ну, естественных не избежать. Тут мы даже не в память или в дисковое пространство упираемся, а в PCI-шину, например и даже в шину памяти. Но шины-то тоже потихоньку развиваются. По крайней, мере, у нас пропадают все проблемы с интерконнектом. Ну, опять же, это если технология хорошо себя проявит в независимых тестах, что, если честно, бабка надвое сказала, но как все же было бы круто. "не просто дохуя, а настолько дохуя дохуя, что все, дальше мысль останавливается. Тебе никогда и нигде не понадобится столько за несколько сотен жизней" - Dr. Quadragon "When we set the upper limit of PC-DOS at 640K, we thought nobody would ever need that much memory" - Bill Gates, @ever Придумай мне хоть один реалистичный сценарий, в котором кому-то может понадобиться 301 терабит трафика. Типа, даже если ты умышленно будешь слать мусор туда-сюда, ты столько не израсходуешь. @drq @ever Все еще копейки для такой линии. Если я правильно помню, подводные кабели между америкой и Европой выдают сравнимую скорость, а в них, на секундочку, помещается весь межконтинентальный Интернет. @drq @drq @loonycyborg @grishka Я же говорю, это сейчас. А речь шла о "нескольких сотен жизней" @ever там кмк больше важна latency, а для этого придется поставить сервера не в разных датацентрах а где нибудь поближе, потому что физика беспощадная сука... Ну а если кто-то придумает, как шардить такие нейронки на очень независимые куски, то там и трафика запредельные объемы не понадобятся @mo В этом и весь поинт. Когда трафика запредельные объемы под рукой, вместо того, чтобы ломать голову и придумывать, как шардить, дешевле будет просто кабель воткнуть. @ever кмк, если у вас достаточно ресурсов чтобы напрямую, без промежуточных точек соединить два датацентра, то можно просто построить датацентр поболбше... ну и latency в географически отдаленных ДЦ будет выше, банально потому что скорость света учёные поднимать ещё не научились @ever Эмм... Ну, и пусть? Это все равно будет совершенно копеечный трафик на такой ширине канала. @drq @grishka @loonycyborg @ever Придумают криптовалюту с майнингом через сетевой обмен. Типа Чиа, но онлайн :))
@drq @grishka Там будут нужны эпических размеров буферы, чтобы такое переваривать. Просто представь: с одной стороны в шланг напихивают эти сотни терабит по одному импульсу (это ж какая плотность сигналов, просто пиздец), эта лавина летит тысячу километров какое-то время и приёмник должен принять, положить в буфер и отправить подтверждение, продолжая принимать, ведь ответ тоже моментально не долетит. Но прикольно, да. @shuro Не, ну, разумеется, вся траса будет работать со скоростью самого медленного звена. Просто верхний лимит фактически снят (поднят на недосягаемую высоту, во всяком случае), вот я о чем. Мне интересно, кстати, чо у нас вообще после кремния будет. Фотоника, я думаю, ну очень много шухера наведет, если ее как следует освоить. @drq @grishka вообще этому миру очень бы не помешала какая-то приостановка в развитии как раз таки верхних звеньев технологий. Временно, года на 3-4. Просто чтобы некоторые разработчики упёрлись в тупик и стали оптимизировать свой софт. Иначе нам и правда никаких терабитов скоро не хватит. Дай дураку терабитный канал и он его забьёт. Если не фронтендом и блокчейнами, то AI моделями @drq @grishka @a1ba @mittorn Я, скорее, имел в вижу оптимизацию всякого в интернет. Когда телефоны массово взлетели, народ кинулся оптимизировать сайтики, делать им мобильные версии, корректировать работу фронта с учётом "вдруг у клиента сеть моргнёт". Потом мобильные сети потянулись по пропускной, аккумуляторы тоже стали получше и на это снова забили. @shuro @drq @grishka @a1ba такого что делали что-то на случай что сеть моргнёт - не замечал. Единственное что было - всякие wap/pda версии сайтов, которые зачастую были очено ограничены по функционалу. А года с 14-15 это всё прекратилось, стали делать адаптивный дизайн, который везде максимально отвратителен, тормозит даже на компах. Да даже флеш, которого не было на мобилках смогли убрать с сайтов только когда adobe закрыл его таймбомбой. Dr. Quadragon ❌, вот кстати про IPv6 у меня таки есть претензия, что его так разбазаривают как-то очень безответственно. Целая подсеть /64 на один сетевой интерфейс? Ну да, действительно, давайте прямо вот так сразу сделаем, чтобы адресов было не 2^128, а чуть больше, чем 2^64. Давайте просто возьмём и сделаем наше дохуя в 64 раза меньше. Что может пойти не так. На самом деле я что-то смутно помню, что большие магистральные маршрутизаторы ничего мельче /64 маршрутизировать не умеют, но всё же. |
@grishka Тут я вижу ситуацию, как примерно с IPv6, или ядерной энергетикой. Ну, то есть, некая технология, дающая ресурса не просто дохуя, а настолько дохуя дохуя, что все, дальше мысль останавливается. Тебе никогда и нигде не понадобится столько за несколько сотен жизней, можно брать столько [адресов/энергии/пропускной способности], сколько твое устройство (и вообще, все твои устройства вместе взятые) способно унести, вообще не задумываясь о каких-то искусственных лимитах.