Zegers Fernández, Pablo2025-01-202025-01-20Zegers Ferhttp://repositorio.uandes.cl/handle/uandes/888Se presenta un conjunto de propiedades de información de Fisher para trazar un paralelo con propiedades similares de la entropía diferencial de Shannon. Las propiedades ya conocidas se presentan junto con otras nuevas, que incluyen: (i) una generalización de información mutua para información de Fisher; (ii) una nueva prueba de que la información de Fisher aumenta bajo condicionamiento; (iii) mostrar que la información de Fisher disminuye en las cadenas de Markov; y (iv) error de estimación encuadernada utilizando información de Fisher. Este último resultado es especialmente importante, porque completa la desigualdad de Fano, es decir, un límite inferior para el error de estimación, que muestra que la información de Fisher se puede utilizar para definir un límite superior para este error. De esta manera, se muestra que la entropía diferencial de Shannon, que cuantifica el comportamiento de la variable aleatoria, y la información de Fisher, que cuantifica la estructura interna de la función de densidad que define la variable aleatoria, se pueden utilizar para caracterizar el error de estimación. Entropía (Teoría de la Información)Procesos de MarkovFisher information properties /Artículo