Cross-entropy mierzy to jaka jest średnia niespodzianka (czyli entropia) kiedy zakładamy, że dane pochodzą z rozkładu podczas gdy naprawdę pochodzą z innego rozkładu . Zapisując zwięźle

Zależność między cross-entropy a Kullback Leibler divergence jest taka: i intuicyjnie oznacza, że średnia niespodzianka to suma samej w sobie niepewności oraz dodatkowej niespodzianki wynikającej z tego, że założyliśmy niepoprawny rozkład .

Źródło: Probabilistic Artificial Intelligence