Набрали, блин, по объявлениям
Jan. 29th, 2026 01:57 pmНарисовали тут граждане аналитики скриптов на R — финансовые данные обрабатывать. Всё бы ничего, только на их лаптопах оно летает, а в продакшене скрипт встаёт колом.
Ну ладно, говорю, давайте посмотрим, в чём разница. Разница нашлась быстро.
Поджигаем скрипт — он радостно стартует, бодро грузит в память 40 с лихером гигабайт данных, а потом начинает долго и вдумчиво делать всякую фигню.
Открываю диспетчер задач. Смотрю… ага.
Гляжу в книгу — вижу фигу: из 64 ядер скрипт бодро молотит ОДНО ядро. Остальные 63 стоят вокруг, жуют сено, и курят бамбук.
Потому что про многонитевость и многопроцессность товарищ финансовый аналитик, как выясняется, слышит впервые в жизни.
На ноутбуке у него — AMD «Рязань» с турбочастотой 5.1 ГГц. А в продакшене, извините, ядер-то хоть отбавляй, но они попроще лицом будут, и на 2 ГГц.
Разработчик винит железо.
Я виню разработчика.
Потому что в 2026 году писать однопоточный процесс — это не просто западло, а тупизна со взломом.
Вот так и живём. Пойду писать грозное письмо проджект-лиду. Пусть он им в команду хоть одного погромиста с реальной степенью в CS вкрутит, иначе они продолжат выдавать херню на гора. Таких дундуков даже ИИ не спасает.
no subject
Date: 2026-01-30 02:31 pm (UTC)no subject
Date: 2026-01-30 03:22 pm (UTC)Особенно весело если серии данных привязаны ко времени/имеют скрытую казуацию или корреляцию к старым данным (типа истории цен рыночных с точки зрения технического анализа), тогда сегментацией будет не так просто сделать. Грубо говоря как если им надо экспоненциальное скользящее среднее взять по большому массиву - оно ведь зависит от предыдущих данных так что хер ты его посчитаешь по сегментами, в отличие от обычного скользящего среднего. А это самый простой пример из того яоя который там есть.
no subject
Date: 2026-01-30 03:28 pm (UTC)