> Очень интересно, как оно это делает, если работенки привалило много?GC будет происходить чаще. Но он по-прежнему будет быстрым и предсказуемым.
> Кроме того - 0.1мс на каком интервале времени? День? Час? Год? Минуту?
> Секунду? Миллисекунду?
Это абсолютное время STW за один проход GC. Я не знаю как это лучше объяснить, если вы всё ещё этого не понимаете. Как часто он будет случаться - 6 раз в секунду или 600 зависит от того как часто и сколько памяти вы выделяете вместо того чтобы её переиспользовать.
> А я таки видел как штуки с GC себя ведут при *активном*
> использовании. И мне что-то не нравилось - если они не тупят
> процом на GC, они гигазы рамы как не в себя наворачивают.
Если выделять по 600 мегабайт в секунду вместо переиспользования это действительно будет жрать CPU (быдлокодить можно на любом языке и тут никакие прекрасные технологии не помогут). Но во-первых память можно переиспользовать, а во-вторых игры в большинстве случаев тормозят на стороне GPU, а не CPU, а в-третьих CPU всё время дешевеет, я прекрасно помню тормоза duron-800 (могу путать модель за давностью лет, но тормоза помню), небо и земля от того что имеем сейчас.
> А вот игродела за юзеж го пожалуй и правда стоило бы выпереть.
Я не делаю игры, я делаю webrtc и регулярно тестирую задержки вносимые GC, которые выглядят незначительными, а на фоне задержек периферии так и вообще смешными. Я попросил аргументы против GC, но услышал только бредовые предрассудки из 90-х основанные на каких-то проблемах тогдашней java.