Zwykła Binary Cross-Entropy podzielona przez benchmarkową Binary Cross-Entropy, czyli taką, w której zawsze przewidujemy stałe p-stwo równe stosunkowi pozytywnych przypadków do całości (za Practical Lessons from Predicting Clicks on Ads at Facebook). Nazywana też Normalized Entropy (NE).

Po co to normalizować? Po to, że zwykłą cross-entropię nie możemy porównywać między różnymi datasetami. Znormalizowaną możemy, bo możemy z niej zrobić Relative Infomation Gain (RIG = 1 - NE), co wyraża % poprawy względem benchmarku.

To jest dokładnie ten sam pomysł co w Skills score i Brier skill score.

metryka