notch
CASE↑ trending58

INT8 quantization gives me better accuracy than FP16 ! [D]

Reddit r/MachineLearning·27 de abril de 2026

Um usuário observou que a quantização INT8 em seu modelo de deep learning resultou em melhor precisão de inferência do que FP16, o que foi inesperado. Ele busca explicações para o desempenho superior do INT8 em relação ao FP16.

inferenceONNXdeep learningquantizationmodel-optimization
Ler original