|
|
La indexación/descripción de la imagen es un proceso complejo que se realiza en varios pasos y que trata de encontrar el mínimo número de características que mejor puedan definir la información que contiene cada imagen. Para ello, se comienza dividiendo la imagen en regiones más pequeñas del mismo tamaño, que van a permitir analizar las características y variaciones en dichas áreas por separado. Una vez hecho esto, se prueban diferentes algoritmos que permitan la extracción de características de la región con el fin de crear los descriptores. Estos algoritmos pueden estar destinados a analizar diversas características de la imagen como son el color, la textura, o los bordes y contornos de los elementos. Para el análisis de las características de color, normalmente se realizan conversiones entre diferentes espacios de color (RGB, Gris, HSI, L*a*b, etc.) y después se pueden calcular valores como la Media, Varianza o el Histograma. Las características de textura pueden ser medidas empleando operadores como el Local Binary Pattern (LBP), matrices de co-ocurrencia o Tamura, que tienen en cuenta la información de los pixeles vecinos al que se quiere calcular, asignándoles diferente peso según el valor que se quiera medir. Por otro lado, el cálculo de características de bordes se puede realizar utilizando operadores como Sobel, Kirch o Canny basados en el gradiente de la imagen, pero también otros basados en funciones u ondas como son Gabor, Haar o Daubechies. Además, existen otras aproximaciones como SIFT o SURF, y variaciones sobre los mismos, que permiten describir la región de forma que sean invariantes a escala, rotación o cambios de iluminación y ruido. En este sentido, cada vez hay más algoritmos presenten en la literatura que buscar resolver esta problemática utilizando menos recursos de computación y concentrando la información lo máximo posible.
|