Fisher information properties /

Loading...
Thumbnail Image
Date
Zegers Fernández, Pablo
Journal Title
Journal ISSN
Volume Title
Publisher
Abstract
Se presenta un conjunto de propiedades de información de Fisher para trazar un paralelo con propiedades similares de la entropía diferencial de Shannon. Las propiedades ya conocidas se presentan junto con otras nuevas, que incluyen: (i) una generalización de información mutua para información de Fisher; (ii) una nueva prueba de que la información de Fisher aumenta bajo condicionamiento; (iii) mostrar que la información de Fisher disminuye en las cadenas de Markov; y (iv) error de estimación encuadernada utilizando información de Fisher. Este último resultado es especialmente importante, porque completa la desigualdad de Fano, es decir, un límite inferior para el error de estimación, que muestra que la información de Fisher se puede utilizar para definir un límite superior para este error. De esta manera, se muestra que la entropía diferencial de Shannon, que cuantifica el comportamiento de la variable aleatoria, y la información de Fisher, que cuantifica la estructura interna de la función de densidad que define la variable aleatoria, se pueden utilizar para caracterizar el error de estimación. 
Description
Keywords
Entropía (Teoría de la Información), Procesos de Markov
Citation