Opensource

Inicio/Opensource

IX Clinic de cartografía de orientación

Clinic CARTOFEDO 2016

El fin de semana del 27 y 28 del pasado mes de noviembre, se llevó a cabo en el magnífico entorno del Castillo de San Servando (Toledo) el IX Clinic de Cartografía, CARTOFEDO 2016. Este evento, que se viene realizando desde 2007  organizado por el Comité de Cartografía de la Federación Española de Orientación, consiste en celebrar una reunión para cartógrafos de este deporte, contando en esta ocasión con 28 asistentes. En este congreso se tratan las últimas técnicas y novedades cartográficas relacionadas con la confección de los mapas de orientación, los singulares y en mi opinión casi artísticos o – mapas, sobre los que podéis encontrar más información aquí. Así, tienen lugar ponencias que versan por ejemplo, desde el software para su creación, los dispositivos móviles asistidos por GPS para ayudar en el duro trabajo de campo, y por supuesto, sobre las distintas fuentes cartográficas disponibles para su elaboración.

Toledo

Río Tajo, Toledo.

 

Ponencias

Este año, como siempre, el programa contenía un gran número de intervenciones relevantes, cuyas presentaciones estarán próximamente a disposición de cualquier interesado en la página web de la FEDO. (n. del a.: las ponencias ya se pueden descargar desde el enlace:  http://www.fedo.org/web/cartografia/ponencias). A continuación, un escueto resumen de las mismas:

  • Introducción histórica de los Clinics precedentes, a cargo de Javier Arufe.
  • Planes LiDAR del IGN, impartida por J. Carlos Ojeda, técnico de la institución, que habló tanto del manejo esta tecnología (incluyendo software) como de la cartografía disponible actualmente. Muy interesantes resultaron los planes futuros del Instituto Geográfico Nacional, como son los nuevos vuelos PNOA – LiDAR de 1 y 2 puntos por metro cuadrado, la captación del infrarrojo para distinguir la vegetación, etc.
  • Los ficheros LAS desde dentro, todo un viaje al interior de este formato de distribución de datos LiDAR y sus implicaciones informáticas, por Javier Arufe.
  • La impresión digital de o – mapas, por Santiago Chóliz.
  • El empleo de cartografía del Catastro de urbana para la realización de los mapas base para la disciplina de sprint, por L. Alberto Jiménez.
  • La creación de mapas de la disciplina rogaine y cuestiones sobre la generalización y la simbología en los o – mapas, a cargo de Pablo F. Liria.
  • La creación de mapas base (con vegetación, cortados, arroyos, curvas de nivel y sombreados) a partir de datos LiDAR manejados con software libre (o al menos parcialmente) como SAGA, QGIS y LasTools. Arturo Murúa, autor del blog NABESAR y de magníficos tutoriales para el tratamiento de la información que animamos a leer y que podéis encontrar en dicha página web, impartió esta ponencia.
  • Experiencias en el manejo de Open Orienteering Mapper para Android y en la realización de todo un proyecto cartográfico mediante la versión de escritorio de ese mismo software, por parte de Daniel Mayoral, autor del blog Orienta – TIC.
  • El proyecto de la Colmena Cultural, similar al geocaching con códigos QR.
  • El software OCAD 12 y la gestión de los Modelos Digitales de Elevaciones, haciendo hincapié en la importación de datos LiDAR y la creación de Modelos Digitales del Terreno (MDT) y Modelos Digitales de Superficies (MDS), a cargo de Javier Arufe. Él mismo impartió después una ponencia sobre sus experiencias de trabajo de campo en la realización de mapas de disciplina O – BM.
  • Cartografía para la promoción de la orientación en centros escolares, por Juan Plata.

 

Nueva cartografía y técnicas para la elaboración del mapa base: Sentinel-2

Esta vez, al igual que en los precedentes VIII Clinic CARTOFEDO 2015 y el XIII Curso Nacional de Cartografía Nivel II, donde mis intervenciones se centraron en el manejo de datos LiDAR del PNOA empleando sotware libre para la confección de los mapas base y la definición del parámetro runnability (penetrabilidad de la vegetación), fui invitado a impartir una ponencia.

En esta ocasión, hablé en parte sobre una de las fuentes de datos de libre disposición que pueden ser de utilidad en la confección de los mapas y con las que en Paraje Innovación y Consultoría estamos trabajando mucho en los últimos meses, junto con las escenas del satélite Landsat 8. Se trata de las imágenes del satélite Sentinel-2, que gracias a su buena resolución espacial (10 metros), temporal (5 – 10 días) y espectral, junto con la mayor disponibilidad y facilidad de manejo que nos brindan los avances de Internet y el desarrollo del software open source, suponen un gran avance tanto cartográfico como para la obtención de datos de interés para el medio natural, agrícola y forestal.

Además de indicar en qué consiste esta fuente de información, desde dónde descargarla y sus posibles aplicaciones en algunas disciplinas de la orientación, se mostraron ejemplos de tratamiento de las bandas de las que se componen las imágenes del satélite, procesándolas «en directo» mediante QGIS obteniendo composiciones RGB (bandas 4, 3, 2) e índices de vegetación (NDVI).

Navaleno

Composición ortofotografía, imagen RGB Sentinel 2 y o-mapa de Navaleno (Soria).

 

SVF: visualización de datos LiDAR

Una vez analizadas la usabilidad y las ventajas que proporciona esta información sobre todo en cuanto a actualización de las imágenes y la zonificación de eventos (incendios, tratamientos selvícolas…) que pueden alterar el terreno donde se va a disputar la carrera, se plantearon posibles combinaciones (a futuro) de esta información tratada conjuntamente con los datos LiDAR. Esta fusión de informaciones dio pie a hablar sobre las nuevas formas de visualización mejorada de los sombreados de MDT y MDS obtenidos a partir de sus nubes de puntos, empleando la metodología Sky View Factor (SVF) desarrollada por el Institute of Anthropological and Spatial Studies de Eslovenia (más información en este enlace).

Para terminar, un comentario sobre el aumento del rendimiento en la creación de mapas base que pueden proporcionar las nuevas tecnologías, a pesar de su necesaria curva de aprendizaje.

Urbasa

Aplicación de SVF a MDT de 2 m de resolución obtenido a partir de PNOA – LiDAR, en Urbasa (Navarra).

 

Como puede verse, destacó por el número de ponencias implicadas y entre otras temáticas, el empleo de los datos LiDAR y otras fuentes para el mapa base, el uso del software libre y la introducción en la cartografía de orientación de los Sistemas de Información Geográfica (GIS) como alternativa a los software específicos de o – mapas. En conjunto, resultó una reunión en la que se transmitió y recibió gran cantidad de información muy aprovechable en distintos ámbitos de la cartografía (no sólo de orientación). Esto, unido al habitual buen ambiente reinante en el entorno de este sano deporte y la fantástica organización, hizo que resultase un fin de semana de lo más agradable. Agradecer al Comité de Cartografía y en especial a Mario Vidal, su invitación para participar en este interesante evento.

Asistentes

Algunos de los asistentes al Clinic Cartofedo 2016.

 

IX Clinic de cartografía de orientación2017-05-25T11:35:48+00:00

Big Data y Data Mining en la agricultura. Se aproxima el punto de inflexión

Pocos dudan, al menos entre los que conocen algo del tema, que la utilización del Big Data y Data Mining en la agricultura son claves para su desarrollo. Por el momento son términos de los que se abusa cada vez más en Internet, conferencias, publicaciones y medios de comunicación, y en cierto modo su mención parece cada vez más una moda pasajera.

Pero lo cierto es que lo que quedará en el recuerdo es haber estado en boca de periodistas, expertos y gurús tecnológicos, mientras que las aplicaciones de estas tecnologías perdurarán, casi transparentes a nuestros ojos, pero unidas de forma definitiva a nuestras vidas.

tendencia big data

Interés de la expresión «Big Data» en Google en los últimos 5 años, de acuerdo con Google Trends.

Pero antes de entrar a analizar en qué punto se encuentran en mi opinión estas tecnologías en nuestro sector, haremos una pequeña introducción sobre las mismas.

Qué son Big Data y Data Mining

Big Data, que podríamos traducir como datos masivos, son sistemas que se ocupan de manipular grandes cantidades de datos (captarlos, almacenarlos, utilizarlos, etc.). El aprovechamiento de dichos datos se apoya en diversas tecnologías, entre las que se encuentra el Data Mining o minería de datos. A su vez, la minería de datos se apoya en otras técnicas y ciencias, entre las que se encuentran la estadística y el Machine Learning o aprendizaje automático. Este último lo constituyen sistemas matemáticos capaces de detectar patrones ocultos en los datos, así como generar modelos a partir de datos de ejemplo que les permitan clasificar nuevos datos desconocidos.

Gran cantidad de datos se vienen acumulando desde tiempos inmemoriales, tanto por administraciones, como empresas e incluso particulares, si bien su explotación y aprovechamiento eran realmente complicados, ya que cualquier utilización pasaba por revisiones manuales realizadas por humanos, con las limitaciones que tenemos en cuanto a rapidez, paciencia, capacidad de detectar patrones y posibilidad de cometer errores. Esto hacía que cualquier actividad de explotación de datos fuese lenta, cara y poco efectiva, por lo que o no se hacía o se hacía en contadas ocasiones. Esta situación se mantiene en ciertos sectores, mientras en otros, ya ha evolucionado.

Para esta evolución, dos cosas claves han cambiado:

  • El descenso radical del coste de manipulación y almacenamiento de datos, gracias a la masificación de la tecnología digital y a Internet;
  • y la disponibilidad de grandes potencias de cálculo a un coste asequible.

A esto se une una tercera: la disponibilidad de grandes cantidades de datos accesibles a través de Internet, obtenidos desde sensores (movimiento de boyas marinas, estaciones meteorológicas, sensores de tráfico en las carreteras,…), desde instituciones (mercados de valores, centros de estadística,…), o desde redes sociales y otras plataformas online (comentarios en Facebook, fotos subidas a Instagram, datos de compras online,…), etc.

La conjunción de estos factores ha detonado el boom de estas tecnologías, que actualmente se están utilizando en temas tan dispares como las predicciones meteorológicas, la conducción autónoma, el reconocimiento de objetos o la inversión en bolsa.

Big Data en la agricultura: Sí, pero todavía no

Chris Hasdwick dio en el clavo en una entrevista en 2012:

“Ya no estamos en la era de la información. Estamos en la era de la gestión de la información.”

Si echamos un vistazo al proceso que engloba el Big Data, veremos que es un proceso cíclico en que los datos entran, se normalizan, se analizan mediante técnicas de minería de datos (como el aprendizaje automático) y se almacenan. Como resultado obtenemos información utilizable en nuestra explotación, siendo necesario que ésta sea limpia, precisa, relevante y oportuna.

Proceso Big Data

Proceso de gestión del Big Data. Elaboración: Alberto Sanz.

Analicemos el proceso por partes, y evaluemos si en nuestro sector se está cumpliendo este esquema de funcionamiento.

Adquisición de datos masivos

Hasta no hace mucho, la captura de información de un agricultor consistía habitualmente en ver cómo crecía el cultivo en el campo del vecino. Si lo veía mejor que el suyo, y la relación con el vecino era buena, le preguntaba sobre cuándo había fertilizado y con qué, qué semilla había utilizado o a qué dosis había sembrado, por ejemplo, con el fin de mejorar su propio cultivo en futuras campañas. Probablemente el vecino había hecho lo mismo con otro vecino anteriormente, o bien había probado diversas opciones mediante ensayo-error, o bien se había asesorado en libros, revistas sectoriales, boletines agrarios, foros, jornadas, o con algún técnico en la materia.

Actualmente, en la explotación agrícola media, al menos en mi querida región, el sistema no ha cambiado demasiado, y lo cierto es que aunque es un sistema de «captura y gestión de la información» que puede funcionar medianamente bien, está lejos de ser efectivo. En plena era digital el campo está un paso por detrás en estos temas, y eso que la disponibilidad y gestión de la información es al menos tan importante como en otros sectores como el industrial o el de servicios.

El agricultor necesita su tiempo para otras labores

El agricultor es en general muy reacio a tomar datos sistemáticos sobre su explotación. Es un proceso costoso en tiempo y recursos que no suele tener recompensa a corto plazo, por lo que no lo ven como una inversión interesante. Y no les falta razón. Es necesaria una automatización en la toma de datos, hacer el proceso transparente para el agricultor. Y se ha de aspirar a que esta sea tan eficiente como las que se están instaurando o se han instaurado en otros sectores.

Desde hace años, más o menos de forma principal en los 90s, han entrado en escena diversos sistemas de captura de datos aplicados en la denominada Agricultura de Precisión. Desde sensores de rendimiento en cosechadoras, a muestreadores automáticos de suelos, a sensores de vigor vegetal, humedad o temperatura en tiempo real.

Nota: Hace 14 años (2002) escribí un pequeño informe interno para Itagra en el que se hacía un breve repaso a lo que había en el sector en aquél momento. Si alguien tiene curiosidad puede leerlo en este enlace.

También desde hace años están disponibles gran cantidad de satélites con sensores multiespectrales, y últimamente han entrado en escena los drones, que se han convertido en muchos casos en un auténtico hype (permítanme el anglicismo), y que desde Paraje hemos utilizado en diversas ocasiones para la toma de datos, como por ejemplo en este caso.

Yara N sensor

Yara N sensor

Como vemos, hay multitud de potenciales fuentes de datos, pero sigamos adelante en el diagrama expuesto.

Normalización y estandarización de los datos

El Big Data se construye desde el Small Data. Es decir, un verdadero despliegue del Big Data y Data Mining en la agricultura requiere que multitud de datos locales, a nivel parcela, estén disponibles para la «comunidad».

Por ejemplo, si dispongo de una red de sensores que, junto con un software determinado, predicen la probabilidad de aparición de una plaga o enfermedad en mi parcela, pero en las parcelas de alrededor no disponen de dicho sistema, o lo que es peor, su sistema no es compatible con el mío, y por lo tanto no se comunican, ante una plaga que avanza desde las parcelas vecinas actuaré en mi cultivo reactivamente, y no preventivamente, que es lo deseable.

Otro planteamiento. Si yo dispongo de un medidor de cosecha instalado en mi cosechadora, ¿la información recogida es compatible con el resto de mis equipos? ¿Puedo compartir dicha información con un contratista que va a hacerme determinada labor con una máquina de otro fabricante distinto al de la mía? ¿Alguien (o algo) se ha preocupado de calibrar el equipo de medición antes de cada labor de cosecha para asegurarse de que los datos recogidos son precisos y comparables con los tomados por otros sensores?.

No tenemos – aun – Big Data

Mike Duncan, investigador canadiense experto en agricultura de precisión lo definía perfectamente en una entrevista en febrero de este año:

[En agricultura] no podemos hablar realmente de Big Data. Si quieres ver Big Data, ve a una central bancaria. Podrás sentarte allí y observar como millones de transacciones fluyen por sus sistemas cada hora. Eso es Big Data, y nosotros [el sector agrario] no tenemos nada que se asemeje a eso».

Y eso (el Big Data en las transacciones bancarias), es posible gracias a la estandarización de los formatos de datos, de forma que los datáfonos de los comercios, los cajeros electrónicos, y los sistemas informáticos de cualquier entidad hablan el mismo idioma.

Lo mismo sucede con el coche autónomo. La base del sistema es que en un futuro no muy lejano todos los vehículos y las infraestructuras viarias se comuniquen entre sí, para lo cual todas las marcas y la Administración deberán acordar un sistema estándar de comunicación y respetarlo. ¿Es factible esto en la agricultura en la que predominan los sistemas verticales y la incompatibilidad?. ¿Todas las marcas respetan, por ejemplo, la norma ISOBUS?. ¿Vemos factible la implantación masiva de tractores totalmente autónomos que no compartan información con otros aperos o tractores porque son de otra marca?.

¿Aparecerá el VHS de la agricultura que desplace a todos los sistemas Betamax?.

En definitiva,

  • en lo que no haya una masa crítica de usuarios que dispongan, y utilicen, tecnología de toma de datos automatizada en sus explotaciones,
  • y en lo que esos sistemas de captura, análisis y utilización de los datos no sean compatibles entre sí,
  • y en lo que no haya métodos de comunicación efectivos entre todos esos sistemas en el mundo rural, no podremos hablar de Big Data y Data Mining en la agricultura.

Minería de Datos

Siguiendo el diagrama propuesto, llegamos a la fase de la Minería de Datos. En este punto nos encontramos con una falta importante de modelos matemáticos.

El valor de los datos, como he indicado antes, reside en la posibilidad de aprender de ellos, detectar patrones y tendencias, y aplicar ese nuevo conocimiento a nuevas situaciones.

Se han desarrollado gran cantidad de modelos agrícolas (de predicción de plagas, de predicción de cosechas, de fertilización, de riego, de evolución de precios, etc.), pero su utilización da, en general, resultados razonablemente precisos a nivel local, o generalizaciones de precisión muy limitada a nivel regional. Esto es debido a la cantidad limitada de datos de entrada disponibles para el desarrollo de los modelos.

Con un auténtico Big Data y Data Mining en la agricultura, los sistemas de aprendizaje automático se alimentarían de miles, centenares de miles o millones de datos procedentes de cada explotación, con lo que los modelos obtenidos serían de muy alta calidad, e incluso podríamos aspirar a obtener modelos con aplicaciones que ahora no podemos ni imaginar.

Minería de datos con Weka en Paraje Innova

Desarrollando modelos en Paraje Innova.

Almacenamiento

Por último en nuestro diagrama nos encontramos el almacenamiento. En un entorno auténticamente de Big Data hay que desterrar memorias USB, tarjetas de memoria o descargas en el PC de casa o la oficina. Lo que se requiere es acceso móvil, a pie de parcela, desde nuestros smartphones, así como descargas directas en nuestras máquinas y aperos y complementos de abordo en el tractor, al igual que realizan muchos sistemas embarcados en los coches actuales. Lo ideal es que en cuanto un componente (sensor, apero, tractor, etc.) detecte una red WiFi o UMTS, cargue los datos capturados y descargue los datos procesados (lo que sería el Internet de las Cosas de la agricultura).

Para ello será necesario ampliar el acceso a la red desde el entorno rural, que ha mejorado mucho en los últimos años, pero aún adolece de muchas zonas con baja o nula cobertura, y abaratar de forma importante los costes de dicho acceso.

El futuro del Big Data y Data Mining en la agricultura

Si hacemos un repaso a todo lo dicho hasta ahora, veremos que todas las tecnologías de base necesarias para el desarrollo del Big Data y Data Mining en la agricultura ya están disponibles. Así pues «solo» es necesario que el sector evolucione adecuadamente en paralelo a otros sectores que ya están recurriendo a estas tecnologías en los últimos años.

Lo Open es la clave

Será necesario un descenso de los precios del hardware y el software relacionados, algo complicado si las marcas más potentes siguen apostando por sistemas cerrados y verticales. Una apuesta por el desarrollo de sistemas de código abierto (open source) y de hardware abierto (open hardware) y compartición de datos entre explotaciones, empresas y la administración (open data o datos abiertos) podría ser el camino.

Para los agricultores sería más accesible la tecnología, ya que la mejora en sus explotaciones ampliaría sus márgenes económicos lo necesario para cubrir los gastos y aun así mejorar sus ingresos, y las empresas de servicios podríamos obtener beneficios por la implantación, el asesoramiento, el mantenimiento y el desarrollo de nuevos equipos, modelos, prestaciones y mejoras.

No es un pensamiento tecnológicamente utópico, habida cuenta de que la inmensa mayoría de sistemas de explotación de Big Data que se utilizan en la actualidad están basados en sistemas abiertos.

La información es poder

Cierto es que puede haber cierta resistencia «cultural» a ese flujo de datos. Por ejemplo, entre explotaciones que sean competencia entre sí, o desde las explotaciones a la Administración, que dispondría de información directa y detallada de nosotros, por lo que estaríamos más controlados. Pero también hay que ver la parte positiva, ya que por ejemplo:

  • no habría que rellenar formularios sobre los tratamientos fitosanitarios, ya que nuestros equipos ya se ocuparían de registrar cuándo, dónde, cuánto y con qué habríamos hecho los tratamientos;
  • podríamos recibir previsiones de entrada de nuestra mercancía al mercado, para no saturarlo y poder mantener los precios;
  • nuestro concesionario de maquinaria habitual podría hacer mantenimiento predictivo de nuestros equipos, gracias a un modelo matemático basado en datos de uso y averías de otros usuarios que utilizan el mismo tipo de máquinas;
  • en una compra-venta de una tierra, los datos acumulados asociados a ella podrían componer parte del valor de la operación, ya que el comprador sabría qué está comprando en realidad;
  • y por supuesto, muchas otras prestaciones que nos ofrecerían tanto la agricultura de precisión como otras tecnologías basadas en la información.

Una nueva revolución

Así pues, parece claro que el Big Data y Data Mining en la agricultura es el camino, y probablemente su uso tendrá un impacto similar al que tuvo la Revolución Verde en su día, si bien habrá de definirse en términos de privacidad, seguridad y ética en el uso de esos datos, al igual que está sucediendo en otros sectores en los que ya se están utilizando, como las compras online, las redes sociales o el marketing.

Por nuestra parte, ya llevamos tiempo caminando con este enfoque, y utilizamos sistemas de Minería de Datos en nuestros proyectos y Open Source y Open Hardware en nuestros desarrollos y en nuestro trabajo diario.

Recientemente hemos puesto también en marcha un curso de introducción a la Minería de Datos, para que aquellos interesados en aprender a exprimir el valor de datos masivos, pueda empezar a hacerlo de una forma práctica.

Veremos lo que nos depara el futuro.

Crédito de la foto de portada: Gaetano Cessati.

Big Data y Data Mining en la agricultura. Se aproxima el punto de inflexión2017-06-02T14:26:34+00:00

X Premio a las ideas emprendedoras: Nduino

Hace unos meses se abrió el plazo de envío de propuestas para el X Premio a las Ideas Emprendedoras de la localidad vallisoletana de Aldeamayor de San Martín; este premio, reconocido en el ámbito provincial y con un buen número de ediciones ya celebradas, está impulsado por la Asociación Aldeamayor Emprende, que pretende fomentar el emprendimiento y el autoempleo como forma de desarrollo económico. Dentro de otras propuestas de innovación que tenemos en mente, optamos por presentar a este premio la iniciativa Nduino, consistente en el desarrollo de un medidor del contenido de nitrógeno de las plantas, de bajo coste, útil para la agricultura de precisión. En este enlace podéis conocer mucho más sobre este medidor, ideado y elaborado principalmente por mi compañero Alberto Sanz Sánchez, gerente de Paraje Innovación y Consultoría; si deseáis aún más información, no dudéis en poneros en contacto con nosotros.

X Premio Ideas Emprendedoras

Así, enviamos un documento de 10 páginas titulado “Nduino – Sistema Low Cost para un mejor uso de los Fertilizantes en Agricultura” donde describimos el desarrollo que pretendemos llevar cabo (medidor + aplicación móvil), el estado de desarrollo actual de Nduino, las ventajas que supone su uso, así como el modelo de negocio y las posibles mejoras a introducir, con el enfoque de idea de emprendimiento, que es el objetivo de este premio. Este documento fue revisado por el jurado, compuesto por D. Tomas Fernández de Larrinoa, Presidente de SECOT (Voluntariado Senior de Asesoramiento Empresarial), Dña. Alicia González Torres,  Doctora en Economía y profesora de la Universidad Europea Miguel de Cervantes, D. Rubén Gómez, Secretario General en Castilla y León de ATA (Asociación de Trabajadores Autónomos), Dña. Ángela de Miguel Sanz, presidenta de la Confederación Vallisoletana de Empresarios y Dña. Virginia Almanza Badás, concejala de Empleo del Ayuntamiento de Aldeamayor de San Martín.

Mapa Nduino, Paraje Innova

Este jurado, compuesto por personas y entidades de reconocido prestigio en el mundo empresarial y de los emprendedores, nos concedió el Primer Premio, compuesto por una dotación de 1.000 euros y una bonita reproducción de la magnífica Iglesia de San Martín de Tours llevada a cabo por un artista local. El segundo galardón fue para la idea “El Ecortijo, Proyecto de Incubadora Agroecológica”, desarrollado por Celia Crespo Sánchez y Carlos Labajos Moreno, con la que bajo un enfoque de economía sostenible, se pretende fomentar la agricultura ecológica como medio real de producción de alimentos (horticultura, miel, etc.). La ceremonia de entrega de premios se celebró el viernes 18 de diciembre, en el Ayuntamiento de Aldeamayor de San Martín, donde tras unas breves palabras por parte de los galardonados y los miembros del jurado, se realizó un vino español con el fin de fomentar el networking entre los participantes. Este complemento, que nos sirvió para hacer nuevos contactos y seguir generando nuevas ideas, fue un buen punto final a una bonita jornada que nos hace estar orgullosos de los desarrollos propios, que como Nduino, pretendemos impulsar desde Paraje y nos anima en los duros comienzos del emprendimiento. Agradecemos al Excmo. Ayuntamiento de Aldeamayor, al jurado, y a la Asociación Aldemayor Emprende, su iniciativa con estos premios de apoyo a los emprendedores.

Entrega X Premio Ideas Emprendedoras

A continuación, unos enlaces donde podréis conocer más sobre estos premios y la difusión de la noticia:

X Premio a las ideas emprendedoras: Nduino2017-05-25T11:35:51+00:00

XIII Curso de Cartografía de Orientación – LiDAR

LiDAR en la orientación deportiva

Hace unos meses, en este artículo, escribí acerca de una fenomenal jornada transcurrida en el ámbito de la Orientación deportiva, en la que se me invitó a participar con una ponencia en el VIII Clinic Nacional de Cartografía – CARTOFEDO 2015. En esta ocasión, he asistido como docente al XIII Curso Nacional de Cartografía Nivel II, celebrado en Covaleda (Soria) y dirigido por Mario Vidal, del Comité de Cartografía de la Federación Española de Orientación (FEDO). También asistió como docente, Javier Arufe Varela, de la FEGADO, que con su gran capacidad didáctica supo hacer llegar a los alumnos las nuevas tecnologías para trabajo en campo (tablets) y las aplicaciones informáticas específicas de la cartografía de este deporte.

A juicio del equipo docente, el curso ha resultado un éxito de convocatoria y de cumplimiento de sus objetivos, focalizados en la formación de nuevos cartógrafos de Orientación; con este fin, se impartieron ponencias de distinta índole, desde la actual normativa de creación de mapas, pasando por el manejo de software específico (OCAD, OOM), cartografía general y por supuesto, trabajo práctico de campo llevado a cabo en el magnífico entorno natural de Covaleda. Los bosques de pino silvestre y roble rebollo, principalmente, unidos al buen clima reinante durante todo el fin de semana y el buen ambiente que desprende este deporte, hicieron que la experiencia resultase muy agradable aunque intensa. En las semanas actuales se están llevando a cabo los ejercicios prácticos en modalidad a distancia, que espero sean fructíferos para los alumnos y ayuden a complementar el aprendizaje presencial.

campo

En mi caso, impartí tres ponencias con los siguientes contenidos:

  • Fundamentos de la información geográfica.
  • Fuentes documentales (servidores de búsqueda de cartografía en Internet).
  • Tratamiento de datos LiDAR para mapa base.

Con ellas mi intención era que los nuevos cartógrafos de Orientación tuviesen unos conocimientos mínimos acerca de cartografía en sentido amplio (desde el geoide hasta los formatos de archivo habituales en GIS), supiesen dónde buscar la información necesaria para componer sus mapas base principalmente a través del Centro de Descargas del Centro Nacional de Información Geográfica, y tuviesen nociones de la potencialidad de los datos LiDAR – PNOA, disponibles desde hace casi un año en libre descarga y que a mi juicio son muy interesantes para la conformación inicial de los mapas base (minutas) de los o – maps. Así, mostré el trabajo que es posible hacer con el software open source Fusion en combinación con Quantum GIS, logrando unos resultados válidos que permiten conocer con profundidad el terreno antes de los indispensables recorridos para la definición final del mapa de orientación, reduciendo así el tiempo y esfuerzo del duro trabajo de campo.

Uso del LiDAR

A continuación, se muestra una ortofotografía de la zona de trabajo de campo, para que os hagáis una idea de cómo es (podéis verla en este enlace en un visor de mapas), y a continuación unos ejemplos de lo que se puede obtener con el necesario procesamiento de las nubes de puntos LiDAR en formato LAZ o LAS y su traslado a las minutas de campo:

ortofotografia

Ortofotografía PNOA.

MDTsombreado

Sombreado del Modelo Digital del Terreno 2 m.

Pendientes

Modelo Digital de Pendientes.

MDSsombreado

Sombreado del Modelo Digital de Superficies 2 m, con curvas de nivel equidistancia 1 m (zoom).

Alturas

Modelo Digital de Alturas de la Vegetación y otros elementos situados sobre la superficie.

Alturas

Modelo Digital de Densidad de la Vegetación (más rojo = más densidad).

Ventajas del uso de la información LiDAR – PNOA

Para finalizar, y resumiendo las ventajas de emplear la información LiDAR – PNOA en su formato LAS o LAZ, pueden citarse las siguientes, entre otras:

  • Podemos depurar o filtrar la clase suelo (ASPRS = 2) que viene previamente clasificada automáticamente desde el CNIG, pudiendo así mejorar la definición del terreno excluyendo árboles o edificios que a veces aparecen incluidos en dicha clase y por ende, en el MDT y que alterarán finalmente, por ejemplo, las curvas de nivel.

  • Obtenemos un dato de altura cada 2 metros en lugar de los 5 metros con los que son servidos los datos del MDT05 – LiDAR desde el CNIG.

  • Podemos extraer información del Modelo Digital de Superficies, que no se proporciona desde el CNIG (sólo el MDT).

  • Podemos inferir información sobre la vegetación (altura, densidad y otros muchos parámetros de índole forestal).

Ni que decir tiene que desde Paraje Innovación y Consultoría podemos ayudaros tanto con el aprendizaje y formación en esta materia, como con el filtrado, manejo y tratamiento de estos datos tan interesantes para multitud de aplicaciones de la ingeniería, la cartografía, la orientación, etc., por lo que no dudéis en poneros en contacto con nosotros.

XIII Curso de Cartografía de Orientación – LiDAR2017-05-25T11:35:52+00:00

Nduino: Medidor de bajo coste basado en Arduino para Agricultura de Precisión

Hace años, gracias a unos compañeros de Itagra, conocí de la existencia de un equipo portátil para la medición del contenido en nitrógeno / clorofila en los cultivos llamado N-tester, utilizado en agricultura de precisión. En aquellos entonces este aparato lo distribuía la multinacional noruega Yara, aunque creo que el equipo en sí mismo lo fabricaba la japonesa Minolta y actualmente hay otros fabricantes y distribuidores.

(más…)

Nduino: Medidor de bajo coste basado en Arduino para Agricultura de Precisión2017-07-31T12:23:58+00:00

Nduino: Low cost vegetal index meter with Arduino for Precision Agriculture

Years ago, thanks to some colleagues from Itagra, I knew of the existence of a handheld meter of nitrogen / chlorophyll content in crops called N-tester. This was distributed by Yara, a Norwegian multinational, although I think the device itself was manufactured by the Japanese company Minolta and now are other manufacturers and distributors.

(más…)

Nduino: Low cost vegetal index meter with Arduino for Precision Agriculture2017-05-25T11:35:54+00:00

3 ventajas y 3 inconvenientes de usar Linux en nuestra empresa

Cuando mis socios y yo estuvimos hablando de los aspectos operativos de la empresa que estábamos creando, uno de los temas que apareció rápidamente fue el del hardware y el software que íbamos a utilizar. Queríamos romper con las ataduras que siempre habíamos tenido en cuanto a usar obligatoriamente aplicaciones basadas en Windows y queríamos apostar por el software libre, al menos siempre que pudiésemos hacerlo.

Personalmente he tenido contacto con el mundo Linux desde el año 1996, en el que empecé a cacharrear con una primitiva versión de SlackWare que venía de regalo en un número de la ya desaparecida PC Actual. Después de aquellos primeros pinitos, me compré una distribución de SuSE que incluía 5 CDs y era bastante más manejable. He pasado de una a otra distribución durante estos años, experimentando con ellas y con el software disponible para éstas, pero nunca usándolas a nivel profesional. Mi rutina la reservaba a Windows y estos últimos años también a MacOS X y a los conocidos programas privativos que se usan en nuestro sector.

Pero en esta ocasión buscábamos utilizar una distribución a nivel profesional, para usarla en nuestro día a día, y la elección debía de ser más cuidadosa. Finalmente nos decantamos por Ubuntu Trusty Thar y un montón de software libre funcionando en Linux (GNU/Linux, para los más puristas). Estas son las 3 ventajas y los 3 inconvenientes que hemos encontrado en esta apuesta por usar software libre.

Las ventajas:

1. Precio

Bueno, esto es bastante obvio. El coste económico directo de utilizar un sistema operativo y programas open source, es cero. Este aspecto en una empresa es algo muy importante, y favorece ser más competitivo en precios a la hora de realizar los proyectos. Está claro que si quieres ser justo, lo suyo es aportar donaciones a los equipos de desarrollo para que sigan mejorando el software y en agradecimiento a su labor, y participar en los foros reportando bugs, ayudando a otros usuarios y, si es posible, aportando mejoras al programa. Esto requiere tiempo, y algo de dinero, pero está a años luz del coste de utilización de un software privativo.

2. Variedad

Hay una buena cantidad de software libre de calidad para utilizar en consultoría y proyectos de ingeniería: QGis, LibreOffice, RKWard,… Algunos de ellos están casi a la altura del software comercial. Otros la sobrepasan. Otros, desgraciadamente, no llegan. Eso sí, existe un montón de ayuda en Internet para solucionar casi cualquier inconveniente, y si no la encuentras, en los foros siempre hay gente dispuesta a ayudar. Mención aparte merecen las distribuciones Linux como Ubuntu. Una vez que te habitúas a trabajar con ella, usar un ordenador con Windows se convierte en una pesadez.

3. Potencia

Los programas en entornos Linux funcionan realmente rápido y de forma muy estable, consumiendo en general menos recursos que en otros entornos como Windows. Además, las actualizaciones son constantes, tanto en cuestión de mejoras en prestaciones como en solucionar bugs y problemas de seguridad. Raro es el día en el que no haya alguna actualización disponible para el software instalado o el propio sistema operativo. La diferencia es tal que a nivel particular tengo un portátil Compaq de 2004 con Lubuntu y tiene aún potencia como para navegar por Internet y usar LibreOffice sin despeinarse.

Pero como ya he dicho, no todo es bueno. Así que aquí van los tres inconvenientes que hemos encontrado:

1. Menos amigable

Las distribuciones basadas en Linux han mejorado radicalmente en cuanto a su «amigabilidad» con el usuario, pero todavía le queda recorrido para llegar al nivel de Windows o MacOS. El uso del terminal está muy extendido, y pese a que este uso permite realizar acciones muy potentes en cuanto a configuración o tareas complejas, para el usuario que busca productividad pura en su trabajo y no quiere tener que cacharrear con el ordenador, esto es una pega. Creo que todas las distribuciones deberían evolucionar hacia herramientas como el YasST de SuSE y otras como el Automator de MacOS que permitan acudir al terminal lo menos posible.

2. Configuración de la gráfica y otros dispositivos

Esto está claro que es culpa de los fabricantes de los dispositivos, que no facilitan drivers en condiciones. Pero lo cierto es que en nuestra empresa hemos tenido problemas en nuestros ordenadores Mountain hasta que hemos logrado que funcionase el binomio gráfico Intel-NVidia sin dar guerra. También hemos tenido problemas con el micrófono integrado y el PulseAudio y con una impresora multifunción láser de Canon en red, que imprime cuando ella quiere. En general no son problemas graves, pero sí molestos y ciertamente ha llevado tiempo poderlos solventar (algunos como los del sonido y la impresora, no del todo).

3. Portabilidad de ciertos archivos

Esto se nota especialmente con LibreOffice. Si le pasas a un cliente o colaborador un documento en formato ODF normalmente te mandará un email o te llamará a los 5 minutos para decirte que no sabe que hacer con lo que le has enviado. Cierto es que MS Office abre los archivos ODF, pero no hay una compatibilidad completa (¿accidental?). Cierto es que LibreOffice abre .docx, .xlsx, etc., pero la compatibilidad tampoco es completa (como el documento tenga un formato complejo se puede liar una buena al manipularlo con LibreOffice). Cierto es que el uso del formato ODF se va extendiendo, incluso entre administraciones. Pero la realidad es que el estándar de facto es el de Microsoft, y si quieres compartir documentos con terceras personas tienes que usarlo inevitablemente.

En resumen:

En Paraje nos alegramos de la decisión tomada en cuanto al software utilizar basado en Linux. Nos permite un importante ahorro de costes y el poder experimentar con software con buenas prestaciones y una forma más creativa de trabajar. Ahora bien, esto ha requerido, y requiere, de un esfuerzo extra en tiempo y estudio por nuestra parte, que posiblemente no todas las empresas estén dispuestas a realizar.

3 ventajas y 3 inconvenientes de usar Linux en nuestra empresa2017-05-25T11:35:57+00:00

10 aspectos prácticos en la transición a QuantumGIS

Tal y como indicamos en nuestra página web, y mi compañero Alberto en su post acerca del sistema operativo Linux que tenemos instalado en nuestros ordenadores, hemos elegido el empleo de hardware y software open source como una de las señas de identidad de Paraje Innovación y Consultoría. Debido a los sectores económicos a los que nos dirigimos y a la mayoría de los servicios que ofrecemos a nuestros clientes, es fundamental el manejo de un software de Sistemas de Información Geográfica (SIG o GIS, si empleamos el acrónimo anglosajón). Una vez analizadas las diversas opciones existentes, decidimos decantarnos por el uso prioritario del software libre QuantumGIS (ó QGIS) en nuestro quehacer diario, aunque también usamos ocasionalmente otros programas como gvSIG. En los respectivos enlaces podéis consultar toda la información relativa a ambos proyectos.

La generalización del empleo de GIS libre es un hecho debido a sus grandes ventajas, principalmente económicas, frente al uso de software propietario, si bien es cierto que algunas marcas concretas que todos los que estamos en este mundillo tenemos en la cabeza, siguen copando buena parte del mercado. En este post quiero centrarme en los aspectos prácticos fundamentales que supone el cambio desde el uso de un programa bajo licencia comercial a QGIS (actualmente en su versión 2.4 Chugiak), de carácter open source, tras unos cuantos meses de modesta experiencia real empleándolo en algunos de los proyectos que llevamos a cabo:

    1. El paso desde un software a otro supone un cambio considerable que requiere un tiempo prudencial de adaptación; es decir, debemos estar dispuestos a asumir que nos supondrá un coste en horas de trabajo importante en las primeras jornadas, hasta que nos acostumbremos a la localización de las herramientas, la interfaz, etc. Por todo ello, y como para casi todo en la vida, «las prisas no son buenas».
    1. Es un proceso que requerirá grandes dosis de paciencia, ya que es frecuente la aparición de ciertos bugs o problemas informáticos que nos parecerán incomprensibles y nos harán dudar de si tirar el ordenador por la ventana o no. Hemos de tener en cuenta que se trata de un software de código abierto que está siendo constantemente actualizado y enriquecido en cuanto a sus algoritmos por parte de diversos participantes y organizaciones colaboradoras de distintos lugares del mundo.
    1. Existe toda una comunidad muy activa en Internet empleando este programa, por lo que cuando tengamos dudas en ciertas operaciones, será inevitable acudir a la ayuda oficial del programa (aún para la versión 2.2) y a «San Google», siendo extrañísimo que alguien no haya tenido el mismo problema y lo haya resuelto ya. Eso sí, casi todas estas búsquedas de soluciones o dudas deberemos hacerlas en inglés.
    1. La interfaz y las ventanas o cuadros de diálogo de las herramientas, nos parecerán pobres estéticamente en comparación con otros programas (corriendo el programa bajo Linux Ubuntu).

Interfaz QGIS

    1. Inicialmente nos confundirá un poco el trabajo con distintos sistemas de proyección. Hemos de tener en cuenta que al empezar un proyecto, será adecuado aplicar un sistema de proyección a la vista, pulsando para ello Project > Project properties > CRS > Enable ‘on the fly’ CRS transformation y eligiendo el que sea de nuestro interés empleando la codificación de Spatial Reference. Aunque nos cueste encontrarlo, el programa permite aplicar distintas transformaciones, utilizar multitud de CRS diferentes e incluso diseñar los nuestros propios. Encontraréis mucha más información en este enlace.
    1. Admite todos los formatos de archivo habitualmente empleados en el campo de los GIS, por lo que podemos estar tranquilos a este respecto, si bien recomiendo emplear en todo caso la codificación (Encoding) windows-1252, lo que hará que evitemos problemas con caracteres especiales como tildes, «ñ», etc. El programa incluye también las conexiones a los estándares WMS, WFS y WCS de la OGC, e incluso a bases de datos espaciales como GeoDatabases, PostGIS, etc. a través de cuadros de diálogo bastante intuitivos ubicados en la pestaña Layers.
    1. El programa cuenta con multitud de herramientas y comandos que nos permitirán hacer casi todo lo que nos imaginemos, gracias al aporte de diversas organizaciones desarrolladoras de proyectos tan conocidos como GRASS, Sextante, SAGA, R, etc. Todos sus algoritmos, algunos de los cuales están mejor desarrollados que los homólogos de las grandes casas comerciales del mundo GIS, se almacenan en la ventana Processing > Toolbox, si bien los más usados habitualmente también se encuentran en los desplegables de las pestañas Vector y Raster. En algunas ocasiones nos encontraremos con los temidos bugs que he citado anteriormente, con los consiguientes quebraderos de cabeza.

Toolbox

    1. Además de estas herramientas, podemos implementar adicionalmente plugins pulsando la pestaña homónima que nos conectará con los repositorios de QGIS, donde podremos elegir e instalar aquel o aquellos que requiramos.
    1. Puesto que estoy hablando de las herramientas del programa, no puedo dejar pasar la sorprendente potencia y facilidad desde el punto de vista del usuario, que tiene QGIS para el manejo de las bases de datos asociadas o no a las entidades geográficas. Así, el uso de los comandos Vector > Table manager > Table manager y Open Field Calculator con su simpático icono en forma de ábaco, será el pan nuestro de cada día. Eso sí, hemos de tener en cuenta que el formato más cómodo para QGIS es el estándar *.csv, con lo que el empleo conjunto (no indispensable) con el software LibreOffice Calc será también habitual.

Icono

    1. Por último QGIS cuenta con su propio explorador de archivos, un poco menos potente que otros más conocidos, que puede desplegarse mediante View > Panels > Browser.

 

Espero que este post haya servido para que conozcáis las ventajas y problemas más básicos con los que os vais a encontrar si alguna vez os proponéis hacer la migración desde los software GIS comerciales a los libres, en este caso centrándome en el empleo de QuantumGIS, uno de los más estables y potentes en el ecosistema open source. Por nuestra parte, la adaptación desde el punto de vista empresarial ha sido satisfactoria por el momento. Más adelante hablaremos de aplicaciones específicas y os seguiremos contando nuestras experiencias.

10 aspectos prácticos en la transición a QuantumGIS2017-05-25T11:35:57+00:00
Ir a Arriba