Portada » Diseño e Ingeniería » Modelo raster y vectorial
– Mayor precisión geométrica de los ficheros vectoriales frente a los raster condicionada en estos últimos por XY puede tener elevada precisión, la precisión raster depende también de la orientación. Mientras que las líneas verticales u horizontales se representan correctamente, las líneas diagonales están frecuentemente dentadas. En un sistema vectorial la precisión de los objetos no está sujeta a su orientación.
– Fácil integración de los datos vectoriales con los atributos temáticos, almacenados en forma de bases de datos alfanuméricas. Un punto, una línea o un área
tienen una lógica relación con un registro determinado de la base de datos temática, mientras que en el modelo raster esta relación es a priori menos razonable y en términos informáticos más compleja de resolver. Por ello, los SIG vectoriales son más adecuados para aquellos trabajos en los que el acceso a la base de datos de atributos sea fundamental.
– Funciones de análisis y cálculo más eficaces en un entorno raster. La simplicidad de la estructura raster permite al usuario superponer múltiples capas de un mismo área así como realizar operaciones matemáticas en las celdas correspondientes en estas capas. Por el contrario, las mismas operaciones en un sistema vectorial son mucho más complejas desde el punto de vista del ordenador, ya que requieren un procesado de los datos exhaustivo para definir las relaciones topológicas entre los elementos.
– Mejor modelización de los fenómenos espacialmente continuos en un entorno raster. Muchos fenómenos son espacialmente continuos o difusos (la elevación del terreno, las concentraciones de contaminantes, etc.) a diferencia de los discretos (carreteras, límites administrativos, etc.).
– Mayor facilidad en el procesamiento de la información procedente de los satélites en un entorno raster. Las fotografías aéreas y ortofotos son bancos de datos raster y capaces de ser integrados en un SIG raster. Del mismo modo, los datos de los satélites son recogidos y distribuidos en formato imagen (variante de raster).
a) Resolución – Es la dimensión lineal mínima de la unidad más pequeña del espacio geográfico para la que se recogen los datos. En un SIG raster de celdas cuadradas se expresará mediante la medida lineal de la superficie representada por cada celda.
Cuanto menor sea la superficie de terreno representada por cada celda mayor será la resolución.
b) Orientación – Es el ángulo formado por el norte y la dirección definida por las columnas de la retícula. Lo habitual es que ese ángulo sea 0 ya que los mapas suelen orientarse de forma que el norte aparezca en la parte superior aunque en ciertas ocasiones se decide cambiar su orientación.
c) Zona y clase – Conjunto de celdas que representan el mismo valor en un mapa raster (un lago, una determinada formación vegetal, un tipo de uso del suelo…). La diferencia existente radica en la condición de contigüidad, de modo que la zona implica celdas contiguas (tienen el mismo valor y forman una sola mancha o grupo) mientras que la clase no implica esta condición de modo que solo es necesario que tengan el mismo valor (una clase puede estar organizada por varias zonas).
d) Valor – Es el ítem de información almacenado en cada celda de una capa (un dato por celda). De acuerdo con lo expresado anteriormente, las celdas de la misma zona tienen por definición el mismo valor (estos valores pueden ser números enteros o reales). En un raster todas las celdas deben tener su valor, de modo que aquellas que no tienen información almacenan el valor 0, pero no vacío.
e) Localización – En el modelo raster el número de fila y de columna se utiliza para identificar la celda y situarla en relación a las demás (localización relativa). El que la localización relativa sea un concepto fundamental en los SIGs raster no quiere decir que no se haga uso, cuando sea necesario, de la localización absoluta. Para ello, las esquinas del mapa se geo-referencian sobre el espacio de acuerdo con un sistema de coordenadas geográficas.
La evaluación multicriterio es entendida como un conjunto de operaciones espaciales para la adopción de decisiones, teniendo en consideración simultáneamente varios criterios o condiciones (factores y restricciones). Una decisión es una elección entre varias alternativas. La decisión se basa en una serie de criterios. En una evaluación multicriterio, por tanto, se realiza la combinación de una serie de criterios que sirva de base para la toma de decisión en función de un objetivo específico. Mediante una evaluación multicriterio, las capas o niveles con los criterios que definen la idoneidad, son combinadas para generar un mapa de capacidad de acogida (idoneidad), a partir del cual se realizará la selección final (lo que se denomina normalmente una solución multicriterio). Los criterios pueden ser de dos tipos:
1. Los factores son, generalmente, de naturaleza continua (tal como altitudes, pendientes, distancia a carreteras…) e indican la capacidad de acogida relativa de determinadas áreas.
2. Las restricciones, por otra parte, son siempre de carácter booleano-binario (tal como restricciones de zonas de interés ecológico, buffers…) y sirven para excluir determinadas áreas del proceso de selección, ejerciendo un efecto de máscara que no puede compensarse con otras características. Las zonas excluidas por una restricción quedan eliminadas como alternativa en la toma de decisiones con independencia de que sean muy adecuadas en base a otras condiciones.
En la evaluación multicriterio los condicionantes que actúan como factor cuentan con la particularidad de presentar un comportamiento graduado entre lo que es óptimo y la adecuación nula, denominado lógica difusa.
Con esta filosofía, se superan las limitaciones de la lógica binaria de las superposiciones booleanas y la realidad ya no se interpreta de forma categórica como 0 ó 1, sino que entre el óptimo de adecuación (1) y la nula adecuación (0) existen escalas intermedias de adecuación (0,1; 0,2; etc.). Otro concepto fundamental asociado a la evaluación multicriterio es el de peso o importancia relativa:
Se otorga un peso para cada factor de manera que todos los pesos de los factores sumen 1 (pesos en tantos por uno); estos pesos indican la importancia relativa de cada factor para el objetivo en consideración.
El método multicriterio se desarrolla a partir de cinco fases encadenadas en las que el inicio
lo marca, como es lógico, la determinación del objetivo que se persigue con el método que posteriormente se desarrollará (por ejemplo, identificar zonas para nuevas localizaciones industriales, para crecimiento residencial, detectar zonas con riesgo de incendio, localizar sectores homogéneos según una serie de características, etc.):
1.
Para cada objetivo se deben seleccionar las variables, o criterios, que condicionan el hecho de que una ubicación sea apta para un determinado uso o fin. Además de identificar las variables-
criterio es fundamental distinguir cuáles actúan como factor y cuáles como restricción ya que según esta diferenciación intervendrán de diferente manera en las fases siguientes y su adaptación para la evaluación multicriterio será también distinta como se muestra en la siguiente fase.
2.
Los factores se traducen en mapas de conjuntos difusos en los que cada celda asume un valor de adecuación desde 0 (adecuación nula) a 1 (óptimo). Para atribuir estos valores de adecuación se recurre a alguna de las funciones de pertenencia a un conjunto difuso. Con frecuencia pueden distinguirse varios tipos de funciones, que pueden variar de unos programas SIG a otros. La transformación de factores a una escala común implica conocer previamente los siguientes parámetros, tanto del factor original como del condicionante con el que ese factor se va a incorporar en la evaluación multicriterio: Lectura de valores mínimos y máximos de la capa de referencia. Definición del tipo de función de pertenencia difusa. Definición del comportamiento de la función. Definición de puntos de control o puntos de inflexión, según el condicionante que supone el factor en la toma de decisiones
La preparación de criterios incluye también la preparación de las restricciones; si bien su tratamiento cambia de forma considerable respecto a lo planteado para la preparación de los factores. Las restricciones por su naturaleza (cualitativa) imponen condicionantes absolutos (no se pueden compensar) por lo que su preparación se vincula directamente a la lógica booleana.
3. El método multicriterio permite establecer una serie de pesos relativos para los factores considerados. En ayuda a la toma de decisiones con frecuencia los pesos se generan a partir de una serie de comparaciones por pares, con la que se mide la importancia relativa de los factores para la decisión de ubicar cierto uso en una zona concreta. Estas comparaciones por pares se analizan para producir una serie de pesos que suman 1 (pesos en tantos por uno). Por tanto, se genera una matriz de simétrica (tantas filas y columnas como factores se consideren en la toma de decisiones). En cada celda de la matriz por pares se mide la importancia del factor de la fila en relación al de la columna. Si son igual de importantes el valor en la matriz debe ser 1; si es más importante el de la fila se le dará un valor hasta 9 y si es más importante el de la columna se le dará un valor hasta 1/9. Se suele aplicar al final un índice de consistencia que mide si las importancias relativas son coherentes o si por el contrario presentan alguna incongruencia, con lo que el usuario en ese caso debería revisar las importancias relativas otorgadas.
4. Por evaluación multicriterio (como fase de análisis en el conjunto del método) se entiende la etapa orientada a la combinación de todos los criterios preparados en la toma de decisiones. Esta operación permite obtener un mapa de adecuación para ubicar un uso (lograr el objetivo planteado en la fase 0) en función de ciertos criterios (factores preparados y ponderados a partir de sus pesos y restricciones preparadas para enmascarar la zona). Hay diferentes métodos posibles para esta fase de evaluación multicriterio, siendo uno ampliamente extendido el que corresponde con la Combinación Lineal Ponderada (Weighted Linear Combination, WLC) donde los criterios pueden incluir tanto factores ponderados como restricciones. Para ello, se multiplica cada factor por su peso y, posteriormente, se suman los resultados. Éstos serán multiplicados por las áreas de restricción (con valor 0), definiendo así las zonas de exclusión (enmascaradas). En este caso, a mayor peso del factor mayor influencia tendrá este factor en el mapa de adecuación final.
En una filosofía SIG raster se definirán rutas óptimas basadas en el concepto de caminos o rutas de menor coste.
Se consideran barreras aquellas variables que interfieren en el desplazamiento en una determinada zona, dificultado el desarrollo de rutas y, por tanto, aumentando los costes de desplazamiento.
Esta denominación genérica puede materializarse en barreras concretas -según el objetivo de la ruta, el ámbito de estudio, etc.- si bien se pueden clasificar en dos tipos básicos:
Barreras absolutas (insalvables);
Barreras relativas (aquellas que se pueden atravesar con mayor o menor dificultad).
La fricción en el cálculo de rutas óptimas es entendida como la magnitud de resistencia al desplazamiento impuesta por una barrera.
Para establecer la superficie de fricción se parte de la base de que las distancias o el movimiento entre un origen y un destino no lo son en términos geométricos y que se pueden derivar distancias efectivas, en las cuales la superficie atravesada no se considera homogénea.
El coste de desplazamiento viene impuesto por la distancia al punto destino de la ruta y por la existencia de una serie de barreras u obstáculos al desplazamiento materializados en la superficie de fricción descrita en el apartado anterior. Se considera acumulado desde el destino de forma que en la capa de costes cada celda representa el coste de desplazamiento a la celda objetivo (si solo se considera un destino) o bien al destino más cercano (en caso de tomarse varias celdas como referencia destino- en el cálculo del coste). Los costes acumulados de desplazamiento se pueden calcular tomando como referencia dos principios posibles:
Isotrópico basado en un coste de desplazamiento idéntico en todas las direcciones, solo alterado por la distancia a la celda destino y por la dificultad indicada en la superficie de fricción.
Anisotrópico igual que el isotrópico pero añadiendo la orientación en grados.
Al margen de estas precisiones iniciales, la realización del cálculo de rutas óptimas, o rutas de mínimo coste, implican una serie de pasos encadenados que deben seguirse hasta lograr la propuesta de camino final. Tal como muestra el organigrama anterior son variados los datos o capas de referencia necesarias y los procedimientos o algoritmos que intervienen en el cálculo de caminos de mínimo coste. En esencia las capas de partida son:
1. Mapa (raster) con la localización del destino de la ruta.
2. Coordenadas X,Y del punto de origen de la ruta. En caso de disponer de la localización cartografiada deben incorporarse los procedimientos necesarios para la extracción de sus coordenadas.
3.
Barrera o barreras cartografiadas: según el objetivo de la ruta, el ámbito de estudio, etc. Por término general se incorporan barreras representadas bajo el modelo raster.
4. Traducción de las barreras en superficies de fricción
. Mediante reclasificación se otorga un valor de fricción a los distintos valores de la variable considerada barrera.
La mínima fricción es 1 y la fricción de las barreras absolutas se indica con el valor – 1 si el programa contempla este tipo de barreras, o bien con un valor de fricción muy
elevado.
5. Cálculo de los costes de desplazamiento desde el destino hacia todos los pixeles de la
zona en función de la distancia al punto de referencia y de la fricción impuesta por las
barreras. Si se opta por el coste acumulado anisotrópico será necesario incorporar la
capa de orientación de las celdas en grados.
En el caso que nos ocupa el resultado de un análisis de rutas óptimas se materializa en dos archivos vectoriales de geometría distinta:
Vectorial de líneas con el trayecto correspondiente a la ruta de mínimo coste.
Vectorial de puntos tomados a lo largo del trayecto de la ruta de mínimo coste para los que se dispone de coordenadas X,Y del valor de coste en esa localización, la distancia horizontal al extremo de la ruta, la distancia real y el valor extraído de las capas raster adicionales que se hubiesen indicado en el análisis de ruta óptima.
4.1. OPERADOR Y (AND)
Resuelve el cálculo de la intersección de dos conjuntos de datos. Sólo en el caso de que el valor en ambos conjuntos sea verdadero, el resultado es verdadero. En términos matemáticos, equivale a multiplicar dos o más matrices binarias.
4.2. OPERADOR O (OR)
Calcula la unión de dos conjuntos y es, por consiguiente, menos selectivo que el anterior. Si el valor en cualquiera de los conjuntos es verdadero, el resultado final es verdadero. En términos matemáticos, equivale a sumar dos o más matrices binarias y reclasificar todos los valores distintos a 0 como 1.
4.3. OPERADOR NO (NOT)
Selecciona las celdas que pertenecen al primer conjunto de datos y que no pertenecen al mismo tiempo a la segunda imagen. En términos matemáticos, el operador NO equivale a multiplicar una matriz binaria por la inversa de la segunda.
4.4. OPERADOR O EXCLUSIVO (XOR)
Busca aquellas celdas distintas a 0 en ambas capas, pero descarta aquellas que están presentes simultáneamente. Si uno y sólo uno de los valores en uno de los conjuntos es verdadero, el resultado es verdadero. En términos matemáticos, esta operación se resuelve sumando dos matrices binarias y reclasificando los valores superiores a dos como cero.
La interpolación puede definirse como el proceso para la estimación de las propiedades de los sitios para los que no se dispone información en un ámbito en el que sí se conocen ciertas localizaciones que se han muestreado (Waters, 1989). Según Comas y Ruiz (1993)
la interpolación es el procedimiento empleado para predecir valores desconocidos de unas localizaciones geográficas, vecinas de otras localizaciones con valores conocidos
. Esta definición enlaza con la llamada Primera ley de la Geografía (Tobler, 1959) por la que los puntos próximos en el espacio tienden a parecerse más (valores parecidos) que los que se encuentran alejados entre sí.
La modelización del terreno exige métodos de interpolación más exactos. Está generalmente aceptada la adecuación para la variable altitudinal de los modelos de redes de triángulos irregulares Triangulated Irregular Network, TIN. Procedentes del campo del Dibujo Asistido por Ordenador (CAD), este tipo de modelos vectoriales ofrecen una definición más exhaustiva de una superficie topográfica y son especialmente útiles en ámbitos con alta energía del relieve o topografía irregular. Se trata de un interpolador exacto consistente en la conexión mediante líneas de los puntos observados con la consecuente construcción de triángulos. Con ello, cada triángulo se delimita a partir de tres líneas y éstas a su vez están acotadas por dos vértices. Esta estructura TIN aplicada a un MDT se interpreta del siguiente modo: los vértices son entidades del terreno (cumbres, fosas…) y las líneas representan valles, crestas, etc.
Los efectos (defectos) denominados bordes puente y túnel (Bridge & Tunnel edges, B/T) suponen artificios del modelo TIN en aquellas zonas donde las curvas de nivel no definen con la suficiente precisión la topografía real. Estas imprecisiones se localizan, frecuentemente, en las cumbres y en los fondos de valle, en donde los triángulos del modelo TIN dibujan falsas superficies llanas. Los bordes B/T se definen como aquellos lados de un triángulo cuyos vértices tienen la misma cota, pero que no son puntos vecinos en la curva de nivel sobre la que se apoyan; con ello, estos defectos consisten en límites de triángulos que pasan por encima o por debajo (respectivamente) de la superficie real.
Una vez completada la identificación de los bordes B/T se generan nuevos puntos (denominados puntos críticos) en el punto intermedio de cada borde B/T. Estos nuevos vértices se incorporan a las curvas de nivel originales para resolver los artificios B/T y se procede a un nuevo cálculo de la red TIN. El valor altitudinal de cada uno de estos nuevos puntos se interpola a partir de las ocho direcciones principales, empleando las altitudes de las curvas de nivel cercanas. El valor final asignado a cada punto crítico es la media de los valores interpolados en todas las direcciones válidas