Mamy dwa rozkłady prawdopodobieństwa: i . KL-divergence to miara podobieństwa między tymi rozkładami: Można to interpretować jako że KL-divergence to wartość oczekiwana różnicy między zlogarytmizowanymi prawdopodobieństwami ().
Mamy dwa rozkłady prawdopodobieństwa: i . KL-divergence to miara podobieństwa między tymi rozkładami: Można to interpretować jako że KL-divergence to wartość oczekiwana różnicy między zlogarytmizowanymi prawdopodobieństwami ().