Entropía cruzada
En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide el número medio de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación está basado en una distribución de probabilidad dada , más que en la verdadera distribución .
La entropía cruzada para dos distribuciones y sobre el mismo espacio de probabilidad se define como sigue:
donde es la entropía de , y es la divergencia de Kullback-Leibler entre y (también conocida como entropía relativa).
Si y son variables discretas:
Para las distribuciones con variables aleatorias continuas:
Véase también
🔥 Top keywords: Wikipedia:PortadaEspecial:BuscarCleopatra I de EgiptoEslovaquiaCaso Asunta BasterraYasukeChatGPTRobert FicoTabla periódica de los elementosBridgertonCopa Libertadores 2024Nueva CaledoniaEl planeta de los simios (franquicia)CleopatraJessica Goicoechea JoverJesús NavasNicolás Jarry (tenista)YouTubeSegunda Guerra MundialPrimera Guerra MundialArroba (símbolo)Copa Sudamericana 2024BaloncestoLuísa Villalta GómezCopa Libertadores de AméricaCristiano Ronaldo16 de mayoAlejandro TabiloLionel MessiIsidro LabradorLoco MíaKingdom of the Planet of the ApesRichard GaddHernán BarcosClasificación para la Copa Mundial de Clubes de 2025Especial:CambiosRecientesLiga de Campeones de la UEFAMiguel Ángel AguilarAdolf Hitler