- Browse by Subject
Facultad de Ingeniería y Ciencias Aplicadas
Permanent URI for this collection
Browse
Browsing Facultad de Ingeniería y Ciencias Aplicadas by Subject "Entropía (Teoría de la Información)"
Now showing 1 - 2 of 2
Results Per Page
Sort Options
Item Classification and verification of handwritten signatures with time causal information theory quantifiers /(Rosso, Osvaldo A) Rosso, Osvaldo APresentamos un nuevo enfoque para la clasificación y verificación de firmas manuscritas basado en descriptores derivados de la teoría de la información causal temporal. La propuesta utiliza la entropía de Shannon, la complejidad estadística y la información de Fisher evaluada sobre la simbolización de Bandt y Pompe de las coordenadas horizontales y verticales de las firmas. Estas seis características son fáciles y rápidas de calcular, y son la entrada a un clasificador de máquina de vectores de soporte de una clase. Los resultados son mejores que las técnicas en línea de vanguardia que emplean espacios de características de dimensiones más altas que a menudo requieren software y hardware especializados. Evaluamos la consistencia de nuestra propuesta con respecto al tamaño de la muestra de capacitación, y también la usamos para clasificar las firmas en grupos significativos.Item Fisher information properties /(Zegers Fernández, Pablo) Zegers Fernández, PabloSe presenta un conjunto de propiedades de información de Fisher para trazar un paralelo con propiedades similares de la entropía diferencial de Shannon. Las propiedades ya conocidas se presentan junto con otras nuevas, que incluyen: (i) una generalización de información mutua para información de Fisher; (ii) una nueva prueba de que la información de Fisher aumenta bajo condicionamiento; (iii) mostrar que la información de Fisher disminuye en las cadenas de Markov; y (iv) error de estimación encuadernada utilizando información de Fisher. Este último resultado es especialmente importante, porque completa la desigualdad de Fano, es decir, un límite inferior para el error de estimación, que muestra que la información de Fisher se puede utilizar para definir un límite superior para este error. De esta manera, se muestra que la entropía diferencial de Shannon, que cuantifica el comportamiento de la variable aleatoria, y la información de Fisher, que cuantifica la estructura interna de la función de densidad que define la variable aleatoria, se pueden utilizar para caracterizar el error de estimación.