![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi0OHZusLissDZijZtY4UWL7_6ZfQ5cq3J8BjbFuJyg-5TpfYSngwKQRhc-FXw6zfXSuDn2razuOC_tFzfGtx8PzTbYjn_lzmDjCDcVbgz4u52pQ87wvlFetWPDhzFgduwBw1aiQU1NiOLd/s1600/Sin+t%25C3%25ADtulo+%252813%2529.png)
El constante progreso en esta área no
ha sido por si mismo, sino en conjunto con otras áreas con las cuales esta relacionada como las matemáticas, la computación,
y el conocimiento cada vez mayor de ciertos órganos del cuerpo humano que intervienen en la percepción y
en la manipulación de las imágenes. Aunado a esto, la inquietud del hombre por imitar y usar ciertas características del
ser humano como apoyo en la solución de problemas. El avance del Procesamiento Digital de Imágenes se ve reflejado
en la medicina, la astronomía, geología, microscopía, etc. Información meteorológica, transmisión y despliegue
agilizado de imágenes por Internet tienen sustento gracias a estos avances.
Lo que se presenta a continuación es una recopilación y posible guía que sirve como introducción al estudio del
procesamiento digital de imágenes. Esta recopilación contiene conceptos básicos de dicha área y esta dirigida a los
alumnos que cursan la asignatura de Procesamiento Digital de Imágenes.
Esta recopilación esta divida en 7 capítulos correspondientes a los temas que se impartirán en clase.
1. Introducción
Antes de comenzar con la parte formal del curso, es conveniente conocer ciertos datos que nos permitirán tener una
idea clara de cual es la metodología más conveniente a emplear en el tratado de una imagen digital.
En el procesamiento digital de imágenes deben tomarse en cuenta varios aspectos como la percepción psicovisual
del ser humano. Éste es un factor importante porque independientemente del tratamiento que se le aplique a una imagen,
el observador será quien, según su percepción, decidirá si dicha imagen le agrada o no.
El desarrollo de los métodos de procesamiento digital de imágenes tiene su origen en dos áreas principales de
aplicación: el mejoramiento de la información pictórica para la interpretación humana, y el procesamiento de datos de
la imagen para la percepción de máquina autónoma en el que se incluyen etapas de transmisión y/o almacenamiento
de estos datos.
La herramienta usada en el tratamiento digital de las imágenes son las matemáticas; los conceptos que se verán son
básicos. La computadora y los algoritmos que se implementan sobre éstas también tienen un papel muy importante en
la manipulación de las imágenes.
1.1. Representación de una imagen digital
El término "imagen monocromática" o imagen simplemente, se refiere a una función de intensidad de luz bidimensional
f(x,y), donde x e y indican las coordenadas espaciales y el valor de f en cualquier punto (x,y) es proporcional
a la luminosidad (o nivel de gris) de la imagen en dicho punto.
Una imagen digital es una imagen (función) f(x,y) que ha sido discretizada tanto en coordenadas espaciales como
en luminosidad. Una imagen digital puede ser considerada como una matriz cuyos índices de renglón y columna
identifican un punto (un lugar en el espacio bidimensional) en la imagen y el correspondiente valor de elemento de
matriz identifica el nivel de gris en aquel punto. Los elementos de estos arreglos digitales son llamados elementos de
imagen o pixels.
En el tratamiento de imágenes se pueden distinguir tres etapas principales:
1. Adquisición de la imagen.
2. Procesamiento de la imagen.
3. Presentación al observador.
La adquisición de la imagen está a cargo de algún transductor o conjunto de transductores que mediante la manipulación
de la luz o de alguna otra forma de radiación que es emitida o reflejada por los cuerpos, se logra formar una
representación del objeto dando lugar a la imagen. Ejemplos: el ojo humano, sensores de una cámara fotográfica o de
vídeo, tomógrafos.
Es importante saber que durante la etapa de adquisición, los transductores agregan ruido a la imagen. Además del
ruido, los transductores poseen una resolución limitada, lo cual repercute en la apreciación de dicha imagen.
El procesamiento
digital de la imagen consiste en eliminar la mayor cantidad de ruido que se le agrega durante la adquisición así
como también mejorar las características de dicha imagen como: definición de contornos, color, brillo, etc., valiéndose
de procedimientos y herramientas matemáticas. En esta etapa se encuentran también técnicas de codificación para el
almacenamiento o bien para la transmisión.
La presentación al observador consiste en el método empleado para exponer la imagen la cual puede ser impresa o
por medios electrónicos como la televisión, el monitor de una computadora, o algún otro medio. Para la presentación
de la imagen se deben considerar ciertos aspectos de percepción humana así como las velocidades de despliegue del
dispositivo utilizado.
Algunos de los problemas característicos en el diseño de estos subsistemas que involucran el uso de representaciones
de señales son las siguientes:
Los dispositivos sensoriales realizan un número limitado de mediciones sobre las señales de entrada; estas mediciones
deben ser adecuadas para obtener aproximaciones útiles. Decidir que mediciones realizar y como usarlas
de tal manera que aproximen mejor a la señales de entrada son los problemas que deben ser resueltos.
Para la selección del procesamiento y/o codificación que se hará sobre una señal, es necesaria una interpretación
de las componentes de la señal. El modelo del sistema de visión humano puede ser utilizado en ciertas etapas de
procesamiento para dicha interpretación.
Los dispositivos de despliegue sintetizan una imagen usando un número finito de respuestas básicas de despliegue,
como los puntos de fósforo utilizados en un tubo de rayos catódicos. Seleccionar el tamaño y la forma de
éstas respuestas de despliegue, la configuración (número y posición relativa) y como pueden ser controlados de
la mejor manera óptima para obtener imágenes con la calidad/fidelidad requerida son aspectos que deben ser
cubiertos.
Realizar un breve estudio sobre el funcionamiento del sistema visual humano (Human Visual System, HVS) será de
utilidad para entender mejor la forma en que percibimos las imágenes y con ello, poder explotar estas características en
el tratamiento digital de imágenes. Es posible modelar el ojo humano como un sistema lineal e invariante en el tiempo
(SLI). Para ello se deben tener presentes dos conceptos:
La respuesta al impulso, que es una función que describe el comportamiento en el tiempo de un sistema, en
nuestro caso el sistema es el ojo.
Una vez obtenida la respuesta al impulso, se realiza la convolución de la función
obtenida con cualquier otra función con el objetivo de observar y conocer la respuesta del sistema a esa nueva
función.
2
La función de transferencia; esta función describe al sistema en el dominio de la frecuencia, y es la transformada
de Fourier de la respuesta a impulso. El ojo se puede modelar como un sistema que modifica funciones y que
depende de tres variables, dos espaciales y una temporal. La respuesta puede ser representada como una función
que también depende de tres variables (dos espaciales y una temporal).
En un primer análisis del sistema visual humano se pueden omitir las variables espaciales y solamente evaluar su
comportamiento con la variable temporal. Se encontró que el ojo es incapaz de distinguir una sucesión rápida de
imágenes, y al observar su respuesta en frecuencia, se determinó que su comportamiento correspondía al de un filtro
paso-bajas, cuya frecuencia de corte se ubicaba en el intervalo de 24 a 30 imágenes por segundo. Este fenómeno se
puede apreciar en los televisores antiguos, pues su frecuencia de barrido vertical es de menor rapidez que el necesario,
para que el ojo pueda ver una imagen continua, presentando un efecto conocido como flicker. También la respuesta en
frecuencia del ojo puede variar, según la intensidad de la luz, ante imágenes poco brillantes la frecuencia de corte es
menor, y con imágenes altamente brillantes la frecuencia de corte aumenta.
En el sentido espacial el comportamiento del ojo también ha sido motivo de estudio, lo que ha permitido conocer
más acerca de cómo vemos.
Por ejemplo, en las pantallas de cristal líquido (LCD, Liquid Crystal Display), los cristales
de un mismo color se colocaban en líneas verticales, lo que daba como resultado una resolución desagradable a la vista
del observador; esto motivó a los investigadores a buscar una solución que mejorara la calidad de la imagen. Esta investigación
arrojó dos posibles soluciones: disminuir el tamaño de los cristales de tal forma que la resolución aumentara,
o cambiar la disposición de los cristales de forma que en lugar de formar líneas verticales formaran líneas diagonales.
En cualquiera de ambos casos, la apariencia de la imagen mejoró significativamente a la vista del observador. Se eligió
la segunda opción porque se invierte la misma cantidad de dinero en la construcción de la pantalla, pero se mejora
considerablemente la calidad; la explicación es que las células receptoras de luz del ojo están dispuestas de tal manera
que forman arreglos hexagonales, y las líneas de LCD al ser diagonales, también construyen pequeños hexágonos que
permiten tener una mejor adaptación a las células receptoras del ojo. En la siguiente imagen, se puede entender la
explicación anterior.
Apuntes del curso impartido por el Dr. Boris Escalante Ramírez
Agosto, 2006
[1] Gonzalez, R. C. , and Woods, P., Digital Image Processing, Addison Wesley, 2002
[2] http://encyclopedia.thefreedictionary.com/light
[3] Hecht, E., Óptica, Addison Wesley Iberoamericana, Madrid, 2000. Mas inf. http://verona.fi-p.unam.mx/boris/teachingnotes/Introduccion.pdf