?helpUnix
вот есть мейк, который делает около 500 000 файлов небольшого размера (в среднем килобайт). Ну общим, оно все паралельно (в десяток процессов), это реально убыстряет. По наблюдениям все упирается в диск. Хотелось бы что бы работало быстрее, а то ждать пока рандомно запишутся-прочитаются пол ляма файлов по всему моему не ссд умереть ждать (полчаса). Есть ли какие идеи как оптимизировать это все? Оно у меня сейчас на отдельном диске, так что можно какую-то суперкешированную файловую систему с отложенной записью, например. Это на маке все
@Shchvova, Сделай диск в оперативной памяти и скидывай туда все файлы, а потом можно делать svn update на этом диске, чтобы получать последнюю версию из хранилища. Вариант №2 — хранить файлы на твёрдотельном диске, чтение с него происходит намного быстрее.
@Shchvova, О, слушай, так там сколько процессов запускается? По одному на ресурс? Это тоже по-хорошему бы оптимизировать, если есть доступ к исходникам ресурс компилятора.