Никак не могу определиться с правильным использованием cstdint.
Например, пишу тип uint32_t и я ориентируюсь на его размер при программировании логики, потом переношу на платформу где int > 32 и мои uint32_t обрабатываются медленней. Хорошо, используем просто int, который всегда равен правильному значению. Если я перенесу на другую платформу, где int < 32, логика моей программы пострадает.
Может быть, тогда нужно программировать логику на самый маленький int и устанавливать значения uint_leastN_t/unit_fastN_t? Или жертвовать производительностью?
И uint_leastN_t/unit_fastN_t - чем они отличаются?