miércoles, 21 de diciembre de 2016

Compresion RLE


Cómo se realiza el proceso de compresión de imágenes RLE.


La compresión de una imagen mediante RLE, se basa en la observación de que, al seleccionar un píxel de la imagen al azar, existe una probabilidad muy alta de encontrar otros adyacentes a él —sus vecinos— con el mismo color (véanse también, las Secciones 4.30 y 4.32). El compresor, por lo tanto, explora el mapa de bits fila por fila, en busca de secuencias de píxeles con el mismo color. Si el bitmap comienza, e.g., con 17 píxeles blancos, seguidos de 1 píxel negro, 55 blancos, etc, entonces sólo es necesario escribir, como datos de salida, los números: 17, 1, 55,. . . . El compresor asume que el bitmap comienza con píxeles blancos. Si esto no es cierto, se considera entonces que el mapa de bits empieza con cero píxeles blancos, y se indica en la secuencia de salida, escribiendo un 0 como primer run length. La resolución del bitmap también debería guardarse al principio de dicha secuencia.


Cómo se ejemplifica el proceso para la compresión de imágenes en escala de gris.

RLE también puede utilizarse para comprimir imágenes en escala de grises. Cada bloque (run) de píxeles con la misma intensidad (nivel de gris) se codifica como un par (run length, valor del píxel). El run length, ocupa normalmente un byte, lo que permite secuencias de hasta 255 píxeles. El valor del píxel ocupa varios bits, dependiendo del número de niveles de gris (típicamente, entre 4 y 8 bits).


Ejercicio 1.3

6, 8, 0, 1, 3, 1, 4, 1, 3, 1, 4, 1, 3, 1, 4, 1, 3, 1, 2, 2, 2, 2, 6, 1, 1. Los dos primeros, son la resolución del bitmap (6 × 8). El siguiente, indica que el primer píxel es negro. Si se almacenan usando un byte por número, el tamaño es de 25 bytes —en comparación con el del mapa de bits de tan sólo 6 × 8 bits = 6 bytes—. El método no funciona con imágenes pequeñas.


Cómo son las formas de muestreo en RLE.










Ejercicio 1.4


El método RLE para imágenes se basa en la idea de que los píxeles adyacentes tienden a ser idénticos. No es común que el último píxel de una fila sea idéntico al primer píxel de la fila siguiente


Explique el algoritmo RLE como trabaja para su funcionamiento.


El código es muy sencillo. Comienza por la conversión de la matriz —M— en un vector unidimensional —x—; para ello, guarda en f y c el número de filas y de columnas, respectivamente —[f, c] = size (M)—, y con el bucle for van introduciendo en x las filas de la matriz —M (k, :)—, una tras otra. Cada run length, continúa de una línea a la siguiente y se calculan todos a partir de x, mediante las siguientes operaciones: N = f ∗ c, calcula el número de elementos de la matriz, N. La suma de los elementos —de 2 a N— de x (x (2 : N)), con los elementos —de 1 a N − 1— de x (x (1 : N − 1)), proporciona el vector z, que contendrá unos en los lugares clave14 . Con la búsqueda de los unos en z, obtenemos una matriz unidimensional z1 (z1 = find(z == 1)), con la que se construyen dos vectores: el primero —i1—, formado por todos los elementos de z1 con N al final (i1 = [z1 N]); el segundo —i2—, formado por todos los elementos de z1 precedidos por 0 (i2 = [0 z1]). La resta i1 − i2 genera todos los run lengths de la matriz M. La desventaja del algoritmo RLE para imágenes consiste en que cuando se modifica la imagen, normalmente los run lengths tienen que ser reconstruidos por completo.






Codificar el algoritmo de compresión RLE











Código Java











Código en Visual












lunes, 19 de diciembre de 2016

Sistemas de Codificación

Código Braille:

Este conocido código, que permite a los ciegos a leer, fue desarrollado por Louis Braille en 1820, y después de haber sido modificado varias veces, todavía se sigue utilizando hoy en día. Hay disponibles muchos libros en Braille en el National Braille Press. El código Braille se compone de grupos (o celdas) de 3 × 2 puntos cada una, con relieve en papel grueso. Cada uno de los 6 puntos de un grupo pueden ser planos o elevados, lo que implica que el contenido de la información de un grupo es equivalente a 6 bits, siendo posibles por ello un total de 2 6 = 64 grupos. Las letras (Tabla 1.1), dígitos y signos de puntuacion más corrientes no requieren los 64 códigos, por lo que los grupos restantes pueden ser utilizados para codificar las palabras comunes como “and, for, of, the y with” y las cadenas de letras más utilizadas, como “ch, gh, sh, th, wh, ed, er, ou y ow”.

Para optimizar códigos: Una letra es mayúscula, si va precedida del signo Mayúscula; los números tienen la misma representación que las 10 primeras letras (1–2–3–4–5–6–7–8–9–0 se corresponden, respectivamente, con a–b–c–d–e–f–g–h–i–j), y deben ir precedidos del signo Número. Puesto que en las primeras letras, la última fila del codigo es siempre “◦◦”, se aprovecha esta circunstancia para representar las fracciones (las dos primeras filas del código del numerador de la fracción son desplazadas hacia abajo). Se pueden ver los signos especiales comentados, así como algunos ejemplos en la Tabla 1.2c.


1.1: (1) hacer una pregunta, (2) es absolutamente necesario, (3) con previo aviso, (4) punto de ebullición caliente, (5) subir, (6) un examen riguroso, (7) exactamente lo mismo, (8) obsequio, (9) calentador de agua, (10) mi opinión personal, (11) recién nacido, (12) aplazado hasta más tarde, (13) sorpresa inesperada, (14) misterios sin resolver.

Comprensión irreversible de texto:

Algunas veces, es aceptable “comprimir” texto, simplemente desechando alguna información. Esto se conoce como compresión irreversible de texto o compactación. El texto descomprimido no es idéntico al original, por lo que estos métodos no son de propósito general; sólo pueden utilizarse en casos especiales. Una secuencia consecutiva de espacios en blanco, puede reemplazarse por un solo espacio. Esto es aceptable en textos literarios y en la mayor parte del código fuente de programas informáticos; pero no debería ser usado cuando el formato de los datos es tabular. En casos extremos, todos los caracteres, excepto letras y espacios, pueden ser despreciados, y se puede convertir todo el texto, a mayúsculas o minúsculas1 , reduciendo así el número de signos a codificar. De esta manera, un texto en inglés estará compuesto por combinaciones de exactamente 27 símbolos, cada uno de los cuales puede ser codificado con 5 bis, en lugar de los 8 usuales. La razón de compresión es de 5/8 = 0,625, que no es mala, pero se puede mejorar.

Compresión del texto Ad hoc:

Si el texto contiene muchos espacios, pero no están agrupados, se pueden eliminar; sus posiciones, se indican entonces mediante una cadena de bits, que contiene un 0 por cada carácter del texto que no es un espacio y un 1 por cada espacio. Por lo tanto, el texto.

Si el número de espacios en blanco es pequeño, la cadena de bits será dispersa y se pueden emplear los métodos de la Sección 8.5 para comprimiría considerablemente. 

Codificación run-lenght:

La idea básica de este método es la siguiente: Si un dato d aparece n veces consecutivas en el flujo de entrada, se cambian las n ocurrencias con el par único nd. Las n apariciones consecutivas de un elemento de datos se llama run length9 de n, y este enfoque para la compresión de datos se llama codificación run-length o RLE. Aplicamos esta primera idea a la compresión de texto y luego a la compresión de imágenes..

Compresión de texto RLE:

El reemplazo exacto de 2.⊔all⊔is⊔too⊔well con 2.⊔a2⊔is⊔t2⊔we2, es ambiguo y no funciona . Claramente, el descompresor debería tener una manera de expresar que el primer 2 es parte del texto, mientras que los demás indican el número de repeticiones de las letras o y l.

Incluso la cadena 2.⊔a2l⊔is⊔t2o⊔we2l, sigue sin resolver este problema (y además no proporciona compresión alguna). Un camino para resolver este problema es preceder cada repetición con un carácter especial de cambio de código (o código de escape). 

Si usamos @ como carácter de cambio de código, entonces la cadena 2.⊔a@2l⊔is⊔t@2o⊔we@2l, puede ser descomprimida sin ambigüedad. Sin embargo, esta cadena es más larga que la original, ya que sustituye dos letras consecutivas, con tres caracteres. 

Tenemos que adoptar la convención de que sólo se reemplacen por un factor de repetición, aquellos grupos compuestos por tres o más repeticiones de un mismo carácter. La Figura 1.6a es un diagrama de flujo, que explica el funcionamiento de un sencillo compresor de texto run-length. Después de leer el primer elemento —CH—, el contador de caracteres es C = 1, por lo que CH se almacena (SC := guarda CH). Los siguientes elementos se comparan con éste (¿SC = CH?), y si son idénticos, se incrementa el contador de repeticiones (R := R + 1).

Cuando se lee un carácter diferente, la operación depende del valor de R. Si es pequeño, se escribe el carácter grabado —SC— en el archivo comprimido (R veces); se actualiza SC con el último carácter leído, y se reinicia el contador (R := 0), para seguir con el siguiente carácter de la cadena. De lo contrario, se escribe el indicador de cambio de código —@—, seguido por el valor de R y el carácter SC; a continuación se pone a cero R, y se guarda el siguiente elemento del flujo de datos a comprimir —en SC—. 

Todo este ciclo se repite hasta procesar todos los datos. La descompresión también es sencilla. Se muestra en la Figura 1.6b. Se explora la secuencia de entrada hasta encontrar el carácter de cambio de código —@— (todos los caracteres, hasta la aparición de dicho símbolo, se escriben en la salida); inmediatamente después, se lee el contador de repeticiones —n— y el carácter a repetir, escribiendolo en la cadena de salida —n veces—; este proceso se repite hasta que no haya más datos en la entrada.

Codificación relativa:

Esta es otra variante, a veces llamada diferenciación ([Gottlieb et al. 75]). Se utiliza cuando los datos a comprimir, están formados por una serie de números que no difieren en mucho entre sí (e.g., en la telemetría); o bien cuando se componen de cadenas similares. El último caso, se utiliza en la compresión de datos para envío por fax descrita en la Sección 2.13 y también en la compresión LZW (Sección 3.12.4). En la telemetría, se utiliza un detector para recopilar datos a determinados intervalos y transmitirlos a una central para su posterior procesamiento. 

Un ejemplo, es el estudio de la temperatura de un lugar, en el que se realizan mediciones cada hora. Dos temperaturas sucesivas, no difieren mucho normalmente, por lo que el sensor necesita enviar sólo la primera de ellas, seguida por las diferencias. De este modo, la secuencia de temperaturas: 70, 71, 72,5, 73,1,. . . , puede representarse con esta otra: 70, 1, 1,5, 0,6,. . . .. Debido a que las diferencias son pequeñas, se pueden utilizar menos bits para guardar cada número, lo que permite la compresión de los datos.





miércoles, 7 de diciembre de 2016

¿En qué consiste la desigualdad de Kraft?


Desigualdad de Kraft


En la teoria de codigos, '''la desigualdad de Kraft''', nombrada así debido a Leon Kraft, expresa las condiciones suficientes para la existencia de un código prefijo y, las condiciones necesarias para la existencia de un código unívocamente decodificable para un grupo dado de longitudes de palabra. Sus aplicaciones a los códigos y arboles prefijos son usualmente empleadas en ciencias de la computación y teoría de la información.


Más específicamente, la desigualdad de Kraft, limita la longitud de las palabras en un código prefijo: si se toma la exponencial de la longitud de cada palabra válida, el grupo resultante de valores debe seguir una función de probabilidad, es decir, su medida total debe ser menor o igual a uno (1). La desigualdad de Kraft puede ser entendida en términos de un presupuesto limitado de palabras a ser empleado, siendo las palabras más cortas, las más caras.
Si la desigualdad de Kraft se cumple de manera estrictamente desigual (menor a 1), el código tiene alguna redundancia.
Si la desigualdad de Kraft se cumple de manera que el resultado es exactamente igual a 1, el código en cuestión es un código completo.
Si la desigualdad de Kraft no se cumple, el código no es unívocamente descodificable.


Dada una fuente de símbolos a codificar con un alfabeto de {\displaystyle r} símbolos utilizando un conjunto de palabras de longitudes a , la desigualdad de Kraft corresponde a:





Hay que tener en cuenta que:
Es condición necesaria para que un código sea uno de los códigos prefijo (o códigos instantáneos).
Es condición suficiente para que exista algún código prefijo (o código instantáneo) con la secuencia de longitudes: ... .
Dado un código conocido , con longitudes a , que cumple la desigualdad de Kraft, NO podemos afirmar que es instantáneo (pues no tiene por qué cumplir la regla del prefijo). Sin embargo, sabemos que existe algún código instantáneo con longitudes ... , puesto que se verifica la desigualdad de Kraft con dicha secuencia de longitudes.



Su explicación en el siguiente link: https://youtu.be/QM_B681Q6hw











lunes, 5 de diciembre de 2016

Códigos

  • ¿Qué tipos de códigos se conocen?




Las familias más conocidas de estos códigos son: Códigos lineales: de Hamming, de Hamming extendidos, simplex, de Golay, de Reed- Muller, de Goppa geométricos. 
Códigos cíclicos: BCH, de Reed-Solomon, de residuos cuadráticos, de Goppa clásicos. 
Códigos no-lineales: Hadamard, Kerdock, Justesen, Preparata.


  • A qué se refiere la equivalencia y automorfismo de códigos?


Definición 10. Sean C y C 0 dos códigos lineales, se dice que son equivalentes si uno puede obtenerse del otro por una combinación de operaciones del tipo:
i. Permutación de posiciones;
ii. Permutación de símbolos en una posición fija.


  • A que se refiere un código lineal.


Un código lineal es un código de corrección de errores para los que cualquier combinación lineal de palabras de código es también una palabra de código.


  • Que son los códigos duales u ortogonales 




  • Codificación y decodificación de códigos lineales


Codificación.
Traducción, entre mensaje original (o palabra fuente) x y el tipo de mensaje c que el canal está habilitado para enviar (palabras codigo).

Decodificación
Detectar errores (posiblemente a causa del ruido, interferencias,...)y corrección al mensaje original x' si es posible


  • Cuáles son los constructores con códigos lineales. 




  • A que se refiere la Cota de Hamming, Singleton y Códigos MDS Investigue sobre los tipos especiales de códigos lineales: Hamming y códigos simples, de Golay y Reed-Muller 





  • Investigar los siguientes códigos cíclicos:


Códigos cíclicos y anillos de polinomios 


Ceros de un código cíclico y matriz de control. 



Codificación y decodificación en códigos cíclicos. 

lunes, 24 de octubre de 2016

Prepare un analices similar al caso planteado en el ejemplo donde se obtenga el cálculo de la entropía con ejemplos de codificación.

  1. Bebe.
  2. Niño
  3. Adolescente.
  4. Adulto.
  5. Tercera Edad.


Que dice la teoría de Shannon para el manejo de entropías de casos de la información.

La entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como «que», «el», «a» aportan poca información, mientras que palabras menos frecuentes como «corren», «niño», «perro» aportan más información. Si de un texto dado borramos un «que», seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra «niño» del mismo texto original. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.

Porqué nlogn como medida para el cálculo de las entropías. 

Si se tiene un sistema con por ejemplo n diferentes opciones de transmisión.

Y si se quiere tener una medida basada en esas opciones para poder diferenciar un sistema de otro o para diseñar sistemas en el cuales el origen, el canal y el destino estuvieran bien dimensionados.

Que pasa con los sistemas de probabilidades distintas?

En sistemas en los cuales las probabilidades de los componentes transmitidos en mensajes no son equiprobables, entonces es necesario ampliar nuestra medida (log2 (n)). 

Esta medida se llama entropía se usa el símbolo H para designarla.

No se pueden sumar las contribuciones de los diferentes componentes de manera igual ya que en sistemas reales los componentes de los mensajes tienen diferentes frecuencias y probabilidades. 

Incluir esas probabilidades es esencial para que nuestra medida mida las contribuciones de las diferentes opciones en nuestro mensajes de manera mas realista.

miércoles, 19 de octubre de 2016

Formulas de la Entropía




Definición de la Entropía

Mapa Mental creado con GoConqr por Arturo Muñoz

Fundamento de la entropía


La información es tratada como magnitud física, caracterizando la información de una secuencia de símbolos utilizando la entropía. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos métodos de envío de información o la cantidad de información útil que se pueda enviar a través de un canal.

La información necesaria para especificar un sistema físico tiene que ver con su entropía.

Elementos de la teoría fuente

Mapa Mental creado con GoConqr por Arturo Muñoz