Alberto

Inicio/Alberto Sanz

Acerca de Alberto Sanz

Cofundador de Paraje Innovación y Consultoría, SL y un apasionado de la tecnología y la naturaleza. Trato de conjugar ambas pasiones profesionalmente y seguir mejorando en el camino.

Predicción de cosecha mediante Teledetección y Aprendizaje Automático

LA IMPORTANCIA DE LA PREDICCIÓN DE COSECHA

La predicción de cosecha es una herramienta que se ha mostrado muy útil a diversas escalas. Por ejemplo, permite a los operadores de mercados de futuros realizar sus operaciones con estimaciones objetivas de rendimientos, lo que les permite afinar más en sus transacciones. También permite a las agencias de ayuda contra el hambre a prever malas cosechas en países susceptibles de hambruna, con lo que se pueden realizar previsiones de envío de ayuda humanitaria. Así mismo, los operadores logísticos de productos agrícolas pueden organizar con antelación las necesidades de transporte en barcos, trenes, camiones, etc. También las empresas agroalimentarias pueden programar compras de unos u otros proveedores y, además, las compañías aseguradoras pueden hacer previsiones en cuanto al volumen global de desembolsos de posibles indemnizaciones. Por último, los gobiernos pueden hacer una mejor política de planificación agraria y ordenación de las políticas de mercado. Y a escala local, puede permitir al agricultor ajustar el uso de fertilizantes, ya que la cosecha esperada suele ser uno de los parámetros a contemplar de forma previa a cualquier recomendación de abonado.

ES UNA LABOR COMPLICADA

La predicción de cosecha es una labor ciertamente complicada. Modelizar matemáticamente el medio agrícola es un reto que se lleva abordando desde hace décadas. El problema reside en que este es un entorno complejo, afectado por multitud de variables (suelo, meteorología, nutrientes, plagas, manejo, etc.), muchas de ellas, a su vez, de difícil modelización. Por ejemplo, un cultivo puede ir evolucionando de forma óptima, pero sufrir una importante granizada cerca de la cosecha y echar al traste cualquier predicción previa. Está claro que es realmente improbable que un modelo matemático prediga algo así con antelación suficiente. En todo caso, en el campo agrario, como en muchos otros, hay que emplear en muchas ocasiones la máxima de “mejor una aproximación que una conjetura”.

Actualmente hay diversos modelos de predicción de cosecha. Unos son públicos, como Aquacrop, de la FAO (Organización de las Naciones Unidas para la Alimentación y la Agricultura), que es el que utiliza el Instituto Tecnológico Agrario de Castilla y León (ITACyL) para sus estimaciones; o el MARS (Monitoring Agricultural Resources), de la Unión Europea, que es el que usa la Comisión Europea para la gestión de la PAC. Otros son privados, y muchos otros son experimentales. Los modelos más conocidos usan fundamentalmente una aproximación estadística y meteorológica al problema, si bien los hay que integran también, por ejemplo, imágenes de satélite y muestreos a pie de campo.

UNA APROXIMACIÓN SIMPLE, QUE NO SIMPLISTA

En la empresa Paraje Innova nos propusimos el desarrollo de un modelo matemático de predicción de cosecha propio, con el fin de utilizarlo en diversas iniciativas que estamos poniendo en marcha. Para ello, nos planteamos la premisa de simplificar en lo posible los datos de partida, y utilizar la mejor tecnología a nuestro alcance para desarrollar dicho modelo.

Dado que la finalidad que se busca en el modelo es la de predecir, antes de finalizar la campaña (y preferiblemente con bastante antelación), la cosecha que se va a obtener, se necesitan varios elementos para lograrlo.

En primer lugar, unas variables en las que basar la predicción de cosecha. En este caso, se optó por utilizar reflectancia espectral del cultivo en varias fechas durante su desarrollo. Esta información espectral, es decir, de la energía reflejada por el cultivo en varias longitudes de onda, se puede captar desde diversas plataformas, pero siempre mediante sensores multiespectrales montados en aeronaves tripuladas, UAVs o RPAS (popularmente conocidos como drones), equipos manuales de campo, equipos embarcados en vehículos terrestres, o satélites.

En segundo lugar, un sistema de modelización. En este caso utilizamos una herramienta de gran actualidad, como es el software de “Aprendizaje Automático”, o “Machine Learning”, en inglés. Este tipo de software utiliza técnicas de inteligencia artificial para aprender a partir de ejemplos (clasificación) u ordenar elementos por similitud (agrupamiento o clustering), y se utiliza en aplicaciones tan dispares como la meteorología, la predicción de valores bursátiles, la recomendación de compras o los sistemas de conducción autónoma, entre muchos otros.

Y en tercer y último lugar, una amplia cantidad de campos con suficiente variabilidad en los que tomar datos, y de los que conociésemos con precisión la cosecha obtenida al final de la campaña, con el fin de poder ofrecer los datos necesarios para que nuestro modelo pudiese “aprender a predecir”. El Centro Tecnológico Agrario y Agroalimentario (ITAGRA.CT) dispone de una extensa red de campos de ensayo, entre los cuales se encuentran varios de trigo blando, tanto de variedades como de fertilización, en los que se encuentran decenas de microparcelas. Gracias a esto, se pueden capturar gran cantidad de datos de gran calidad con un despliegue moderado de recursos.

DESARROLLO DEL MODELO

Este primer modelo que se ha desarrollado se ha enfocado al trigo blando, y para elaborarlo se ha partido de los datos recopilados en dos campañas (2015 y 2016) en las microparcelas de cuatro campos de ensayo de trigo blando en secano situados en la provincia de Palencia, gestionados, como se ha indicado anteriormente, por ITAGRA.CT. En total supusieron 436 microparcelas de 10×1,2m, repartidas en dichos cuatro campos de ensayo, uno de variedades y tres de fertilización.

Durante la primera campaña se realizaron 3 vuelos con dron en 3 fechas clave del desarrollo del cultivo, coincidiendo con los meses de abril, mayo y junio. Las imágenes se captaron con un vehículo de ala fija operado por personal de la empresa palentina colaboradora en el proyecto, Überbaum Industrie, S.L. Este dron se equipó con una cámara multiespectral, capaz de capturar imágenes en las tres bandas del espectro visible (rojo, verde y azul), más el rojo extremo y el infrarrojo cercano, con una resolución de 4 cm.

Preparación de dron eBee de Überbaum para vuelo en campo de ensayo en Palencia

Personal de Überbaum instalando la cámara en el dron de ala fija.

Debido a la necesidad de poder relacionar los datos tomados en las distintas fechas en distintos vuelos, con distintas condiciones de iluminación y de operación, se realizó una calibración geométrica y radiométrica de las imágenes. La calibración geométrica se efectuó mediante el uso de dianas y un GPS Leica 1200 conectado a la red GNSS del ITACyL, alcanzando errores inferiores a 5 cm en los ejes XYZ. En cuanto a la calibración radiométrica, se realizó mediante el uso de dianas radiométricas y un espectrorradiómetro de campo ASD Fieldspec, con la colaboración de miembros del Grupo de Óptica Atmosférica de la Universidad de Valladolid (GOA-Uva).

Toma de datos geométricos en dianas de campo de ensayo en Palencia

En primer plano, Luis Carlos Fernández, de Paraje Innova, tomando puntos de apoyo con un GPS para la calibración geométrica de las imágenes. Imagen de fondo, ortofoto en visible de uno de los campos. Se observan en la parte superior izquierda las dianas radiométricas (de colores), y en el centro y derecha, las utilizadas para corrección geométrica (con cruces).

Toma de dato radiométricos en dianas de campo de ensayo en Palencia

Ramiro González Catón y Cristian Velasco Merino, del GOA-Uva, midiendo con espectroradiómetro reflectancias en paneles de colores para la calibración radiométrica de las imágenes. A la derecha de la fotografía se ve parcialmente un panel de los utilizados para la calibración geométrica.

Se trataron las imágenes obtenidas en los vuelos utilizando un software de procesado fotogramétrico, gracias al cual se generaron los mosaicos u ortofotos de cada campo en cada fecha y para cada banda indicada anteriormente. A partir de dichos mosaicos se calcularon mediante software de Sistemas de Información Geográfica (SIG), diversos índices de vegetación. Estos índices son combinaciones, relaciones matemáticas, derivadas de las propiedades de reflectancia de la vegetación y su entorno, en dos o más longitudes de onda, y están diseñados para realzar una o varias propiedades de la vegetación. El más “popular” es el NDVI, que representa la relación entre la resta del valor del infrarrojo cercano menos el valor del canal rojo y la suma de las mismas longitudes de onda. Este índice está directamente relacionado con la actividad fotosintética. Para este proyecto se calcularon, además del NDVI, otros índices como EVI, GNDVI y SAVI, entre otros.

Al final de la campaña, ITAGRA.CT proporcionó, entre otros parámetros, los resultados del rendimiento en grano obtenido por cada microparcela en cada uno de los campos, en kg/ha al 13-14% de humedad.

Todos los datos recopilados esta campaña se introdujeron en el software de aprendizaje para el desarrollo del modelo. La generación de este modelo no es totalmente automática. Existen gran cantidad de algoritmos disponibles que funcionan mejor o peor según el tipo y características de los datos de entrada, y a su vez estos admiten también gran cantidad de parámetros. Por otro lado, los datos de entrada también son susceptibles de ser preprocesados y filtrados. Así pues, el proceso de aprendizaje automático es relativamente complejo.

RESULTADOS OBTENIDOS EN LA PRIMERA CAMPAÑA

Tras diversas pruebas con distintas combinaciones de bandas espectrales e índices de vegetación, se pudo comprobar que el índice NDVI es el que mejor funciona para esta aplicación.

Para comprobar la validez del modelo se hicieron tres rondas de pruebas. Dos utilizando los índices NDVI de las tres fechas (abril, mayo y junio), y una utilizando solo las de las dos primeras fechas (abril y mayo). En cada una de ellas se generó el modelo, utilizando validación cruzada (cross-validation, en inglés), y sin contar con los datos de 6 ó 7 microparcelas “test”, en cada caso distintas, y tomadas al azar de dos de los campos, y se indicó a cada modelo que predijese los rendimientos para esas microparcelas “desconocidas”. Los resultados se muestran en los Gráficos 1 al 3.

Resultados del primer test, utilizando los índices NDVI de tres fechas y con datos de 6 microparcelas de test. La fecha de la predicción es el 2 de junio. Correlación 94,20%. Error absoluto medio 404,64. Todos los valores en kg/ha.

Resultados del segundo test, utilizando los índices NDVI en tres fechas y con datos de 7 microparcelas de test. La fecha de la predicción es el 2 de junio. Correlación 97,53%. Error absoluto medio 183,88. Todos los valores en kg/ha.

Resultados del tercer test, utilizando los índices NDVI de dos fechas y con datos de 7 microparcelas de test. La fecha de la predicción es el 6 de mayo. Correlación 99,00%. Error absoluto medio 218,98. Todos los valores en kg/ha.

METODOLOGÍA DE LA SEGUNDA CAMPAÑA

En la campaña 2015-2016 se simplificó el sistema de captura de datos. Visto que el mejor índice para desarrollar el modelo era el NDVI, se optó por hacer directamente las mediciones de éste microparcela por microparcela, en los 2 campos de ensayo seleccionados para esa campaña. Para ello se contó con un equipo muy conocido en el sector, un GreenSeeker de Trimble cedido por ITAGRA.CT. Este equipo emite ráfagas de luz roja e infrarroja hacia el cultivo, y detecta la porción de luz de cada tipo que es reflejada. A partir de esos datos ofrece el índice NDVI. Dado que el equipo emite su propia luz, no es necesario someterlo a calibraciones según las condiciones lumínicas existentes, por lo que las mediciones hechas con este aparato son siempre comparables entre sí.

NDVI GreenSeeker ensayo trigo Palencia

Alberto Sanz, de Paraje Innova, realizando mediciones del NDVI mediante el GreenSeeker.

En este caso se hicieron mediciones en abril y junio en uno de los campos, y en abril, mayo y junio en el otro, midiendo el NDVI de cada microparcela. Al igual que en la campaña anterior, desde ITAGRA.CT se proporcionaron los datos de rendimiento en grano obtenido en cada microparcela. Con toda esta información, se procedió a hacer nuevas pruebas en el software de aprendizaje automático.

RESULTADOS OBTENIDOS EN LA SEGUNDA CAMPAÑA

En primer lugar se comprobó la robustez del modelo obtenido en 2015. Para ello se probó dicho modelo con los valores de NDVI obtenidos en 2016 en un campo de testeo. Como resultado se obtuvo una predicción con un error absoluto medio de aproximadamente 329 kg/ha y un ajuste entre predicción y realidad del 56,9%. Es decir, la predicción de cosecha empeora sensiblemente entre campañas, como era de esperar.

En segundo lugar se unificaron los datos de todos los campos y de ambas campañas. Con esta base de datos ampliada se generaron varios modelos de predicción de cosecha que se mejoraron también mediante validación cruzada.

En este punto conviene indicar que existen dos principales problemas de cara a predecir el rendimiento de un campo a partir de varios valores NDVI. El primero, es que los valores de este índice son siempre relativos, salvo que se calibren las fuentes de adquisición o las imágenes adquiridas para cada condición lumínica. El segundo, es que no siempre podemos tomar los datos en las mismas fechas o en el mismo estado fenológico exacto del cultivo, de un año para otro.

En este proyecto, el primer problema se solventó como se indicó anteriormente, mediante el uso de datos calibrados, y el segundo, mediante la consideración en los datos de partida que alimentan el modelo de una referencia temporal de la medición del índice NDVI en cada campo. Aplicando este sistema se ha obtenido un nuevo modelo resultante de ambas campañas con un ajuste de un 95,5% y un error medio absoluto de 254 kg/ha.

Predicciones de rendimiento realizadas en los cuatro campos de ensayo durante las campañas de 2015 y 2016. En el eje horizontal, los pesos reales obtenidos en cada microparcela. En el eje vertical, los predichos por el modelo.

PRÓXIMOS PASOS

Viendo el comportamiento del modelo, puede deducirse que el uso del índice NDVI durante la campaña es una buena herramienta para predecir el rendimiento en cosecha que se va a obtener del trigo blando en secano. Como se ha indicado con anterioridad, el estudio ha sido desarrollado en un entorno limitado, tanto en tiempo (dos campañas) como en espacio (4 campos de ensayo en la provincia de Palencia). Es nuestro deseo ampliar la zona y periodo de estudio, así como disminuir la escala de trabajo, utilizando también imágenes de satélite, para poder utilizar el modelo en grandes extensiones.

Por otra parte, creemos de gran interés el desarrollo de modelos de predicción de cosecha para otros cultivos herbáceos, como la cebada, el centeno, la avena o el maíz, o leñosos, como el viñedo. En este último caso para al algo tan necesario como prever aforos y poder organizar la vendimia.

Hasta aquí, el importante esfuerzo en horas y equipos tanto de Paraje Innova como de las entidades citadas y de sus técnicos, que ha dado como resultado un modelo de predicción de cosecha que promete ser válido para el fin previsto. El modelo necesita continuar su desarrollo para conseguir alcanzar una más perfecta calibración, exactitud y precisión, además de poderse aplicar a otros cultivos. Para esta siguiente fase los promotores esperan el apoyo de organizaciones o entidades que puedan sentirse interesadas en este desarrollo.

A todos los técnicos y entidades que han colaborado en este proyecto, nuestro más profundo agradecimiento por su apoyo y estímulo.

Predicción de cosecha mediante Teledetección y Aprendizaje Automático2017-07-31T12:21:13+00:00

Big Data y Data Mining en la agricultura. Se aproxima el punto de inflexión

Pocos dudan, al menos entre los que conocen algo del tema, que la utilización del Big Data y Data Mining en la agricultura son claves para su desarrollo. Por el momento son términos de los que se abusa cada vez más en Internet, conferencias, publicaciones y medios de comunicación, y en cierto modo su mención parece cada vez más una moda pasajera.

Pero lo cierto es que lo que quedará en el recuerdo es haber estado en boca de periodistas, expertos y gurús tecnológicos, mientras que las aplicaciones de estas tecnologías perdurarán, casi transparentes a nuestros ojos, pero unidas de forma definitiva a nuestras vidas.

tendencia big data

Interés de la expresión «Big Data» en Google en los últimos 5 años, de acuerdo con Google Trends.

Pero antes de entrar a analizar en qué punto se encuentran en mi opinión estas tecnologías en nuestro sector, haremos una pequeña introducción sobre las mismas.

Qué son Big Data y Data Mining

Big Data, que podríamos traducir como datos masivos, son sistemas que se ocupan de manipular grandes cantidades de datos (captarlos, almacenarlos, utilizarlos, etc.). El aprovechamiento de dichos datos se apoya en diversas tecnologías, entre las que se encuentra el Data Mining o minería de datos. A su vez, la minería de datos se apoya en otras técnicas y ciencias, entre las que se encuentran la estadística y el Machine Learning o aprendizaje automático. Este último lo constituyen sistemas matemáticos capaces de detectar patrones ocultos en los datos, así como generar modelos a partir de datos de ejemplo que les permitan clasificar nuevos datos desconocidos.

Gran cantidad de datos se vienen acumulando desde tiempos inmemoriales, tanto por administraciones, como empresas e incluso particulares, si bien su explotación y aprovechamiento eran realmente complicados, ya que cualquier utilización pasaba por revisiones manuales realizadas por humanos, con las limitaciones que tenemos en cuanto a rapidez, paciencia, capacidad de detectar patrones y posibilidad de cometer errores. Esto hacía que cualquier actividad de explotación de datos fuese lenta, cara y poco efectiva, por lo que o no se hacía o se hacía en contadas ocasiones. Esta situación se mantiene en ciertos sectores, mientras en otros, ya ha evolucionado.

Para esta evolución, dos cosas claves han cambiado:

  • El descenso radical del coste de manipulación y almacenamiento de datos, gracias a la masificación de la tecnología digital y a Internet;
  • y la disponibilidad de grandes potencias de cálculo a un coste asequible.

A esto se une una tercera: la disponibilidad de grandes cantidades de datos accesibles a través de Internet, obtenidos desde sensores (movimiento de boyas marinas, estaciones meteorológicas, sensores de tráfico en las carreteras,…), desde instituciones (mercados de valores, centros de estadística,…), o desde redes sociales y otras plataformas online (comentarios en Facebook, fotos subidas a Instagram, datos de compras online,…), etc.

La conjunción de estos factores ha detonado el boom de estas tecnologías, que actualmente se están utilizando en temas tan dispares como las predicciones meteorológicas, la conducción autónoma, el reconocimiento de objetos o la inversión en bolsa.

Big Data en la agricultura: Sí, pero todavía no

Chris Hasdwick dio en el clavo en una entrevista en 2012:

“Ya no estamos en la era de la información. Estamos en la era de la gestión de la información.”

Si echamos un vistazo al proceso que engloba el Big Data, veremos que es un proceso cíclico en que los datos entran, se normalizan, se analizan mediante técnicas de minería de datos (como el aprendizaje automático) y se almacenan. Como resultado obtenemos información utilizable en nuestra explotación, siendo necesario que ésta sea limpia, precisa, relevante y oportuna.

Proceso Big Data

Proceso de gestión del Big Data. Elaboración: Alberto Sanz.

Analicemos el proceso por partes, y evaluemos si en nuestro sector se está cumpliendo este esquema de funcionamiento.

Adquisición de datos masivos

Hasta no hace mucho, la captura de información de un agricultor consistía habitualmente en ver cómo crecía el cultivo en el campo del vecino. Si lo veía mejor que el suyo, y la relación con el vecino era buena, le preguntaba sobre cuándo había fertilizado y con qué, qué semilla había utilizado o a qué dosis había sembrado, por ejemplo, con el fin de mejorar su propio cultivo en futuras campañas. Probablemente el vecino había hecho lo mismo con otro vecino anteriormente, o bien había probado diversas opciones mediante ensayo-error, o bien se había asesorado en libros, revistas sectoriales, boletines agrarios, foros, jornadas, o con algún técnico en la materia.

Actualmente, en la explotación agrícola media, al menos en mi querida región, el sistema no ha cambiado demasiado, y lo cierto es que aunque es un sistema de «captura y gestión de la información» que puede funcionar medianamente bien, está lejos de ser efectivo. En plena era digital el campo está un paso por detrás en estos temas, y eso que la disponibilidad y gestión de la información es al menos tan importante como en otros sectores como el industrial o el de servicios.

El agricultor necesita su tiempo para otras labores

El agricultor es en general muy reacio a tomar datos sistemáticos sobre su explotación. Es un proceso costoso en tiempo y recursos que no suele tener recompensa a corto plazo, por lo que no lo ven como una inversión interesante. Y no les falta razón. Es necesaria una automatización en la toma de datos, hacer el proceso transparente para el agricultor. Y se ha de aspirar a que esta sea tan eficiente como las que se están instaurando o se han instaurado en otros sectores.

Desde hace años, más o menos de forma principal en los 90s, han entrado en escena diversos sistemas de captura de datos aplicados en la denominada Agricultura de Precisión. Desde sensores de rendimiento en cosechadoras, a muestreadores automáticos de suelos, a sensores de vigor vegetal, humedad o temperatura en tiempo real.

Nota: Hace 14 años (2002) escribí un pequeño informe interno para Itagra en el que se hacía un breve repaso a lo que había en el sector en aquél momento. Si alguien tiene curiosidad puede leerlo en este enlace.

También desde hace años están disponibles gran cantidad de satélites con sensores multiespectrales, y últimamente han entrado en escena los drones, que se han convertido en muchos casos en un auténtico hype (permítanme el anglicismo), y que desde Paraje hemos utilizado en diversas ocasiones para la toma de datos, como por ejemplo en este caso.

Yara N sensor

Yara N sensor

Como vemos, hay multitud de potenciales fuentes de datos, pero sigamos adelante en el diagrama expuesto.

Normalización y estandarización de los datos

El Big Data se construye desde el Small Data. Es decir, un verdadero despliegue del Big Data y Data Mining en la agricultura requiere que multitud de datos locales, a nivel parcela, estén disponibles para la «comunidad».

Por ejemplo, si dispongo de una red de sensores que, junto con un software determinado, predicen la probabilidad de aparición de una plaga o enfermedad en mi parcela, pero en las parcelas de alrededor no disponen de dicho sistema, o lo que es peor, su sistema no es compatible con el mío, y por lo tanto no se comunican, ante una plaga que avanza desde las parcelas vecinas actuaré en mi cultivo reactivamente, y no preventivamente, que es lo deseable.

Otro planteamiento. Si yo dispongo de un medidor de cosecha instalado en mi cosechadora, ¿la información recogida es compatible con el resto de mis equipos? ¿Puedo compartir dicha información con un contratista que va a hacerme determinada labor con una máquina de otro fabricante distinto al de la mía? ¿Alguien (o algo) se ha preocupado de calibrar el equipo de medición antes de cada labor de cosecha para asegurarse de que los datos recogidos son precisos y comparables con los tomados por otros sensores?.

No tenemos – aun – Big Data

Mike Duncan, investigador canadiense experto en agricultura de precisión lo definía perfectamente en una entrevista en febrero de este año:

[En agricultura] no podemos hablar realmente de Big Data. Si quieres ver Big Data, ve a una central bancaria. Podrás sentarte allí y observar como millones de transacciones fluyen por sus sistemas cada hora. Eso es Big Data, y nosotros [el sector agrario] no tenemos nada que se asemeje a eso».

Y eso (el Big Data en las transacciones bancarias), es posible gracias a la estandarización de los formatos de datos, de forma que los datáfonos de los comercios, los cajeros electrónicos, y los sistemas informáticos de cualquier entidad hablan el mismo idioma.

Lo mismo sucede con el coche autónomo. La base del sistema es que en un futuro no muy lejano todos los vehículos y las infraestructuras viarias se comuniquen entre sí, para lo cual todas las marcas y la Administración deberán acordar un sistema estándar de comunicación y respetarlo. ¿Es factible esto en la agricultura en la que predominan los sistemas verticales y la incompatibilidad?. ¿Todas las marcas respetan, por ejemplo, la norma ISOBUS?. ¿Vemos factible la implantación masiva de tractores totalmente autónomos que no compartan información con otros aperos o tractores porque son de otra marca?.

¿Aparecerá el VHS de la agricultura que desplace a todos los sistemas Betamax?.

En definitiva,

  • en lo que no haya una masa crítica de usuarios que dispongan, y utilicen, tecnología de toma de datos automatizada en sus explotaciones,
  • y en lo que esos sistemas de captura, análisis y utilización de los datos no sean compatibles entre sí,
  • y en lo que no haya métodos de comunicación efectivos entre todos esos sistemas en el mundo rural, no podremos hablar de Big Data y Data Mining en la agricultura.

Minería de Datos

Siguiendo el diagrama propuesto, llegamos a la fase de la Minería de Datos. En este punto nos encontramos con una falta importante de modelos matemáticos.

El valor de los datos, como he indicado antes, reside en la posibilidad de aprender de ellos, detectar patrones y tendencias, y aplicar ese nuevo conocimiento a nuevas situaciones.

Se han desarrollado gran cantidad de modelos agrícolas (de predicción de plagas, de predicción de cosechas, de fertilización, de riego, de evolución de precios, etc.), pero su utilización da, en general, resultados razonablemente precisos a nivel local, o generalizaciones de precisión muy limitada a nivel regional. Esto es debido a la cantidad limitada de datos de entrada disponibles para el desarrollo de los modelos.

Con un auténtico Big Data y Data Mining en la agricultura, los sistemas de aprendizaje automático se alimentarían de miles, centenares de miles o millones de datos procedentes de cada explotación, con lo que los modelos obtenidos serían de muy alta calidad, e incluso podríamos aspirar a obtener modelos con aplicaciones que ahora no podemos ni imaginar.

Minería de datos con Weka en Paraje Innova

Desarrollando modelos en Paraje Innova.

Almacenamiento

Por último en nuestro diagrama nos encontramos el almacenamiento. En un entorno auténticamente de Big Data hay que desterrar memorias USB, tarjetas de memoria o descargas en el PC de casa o la oficina. Lo que se requiere es acceso móvil, a pie de parcela, desde nuestros smartphones, así como descargas directas en nuestras máquinas y aperos y complementos de abordo en el tractor, al igual que realizan muchos sistemas embarcados en los coches actuales. Lo ideal es que en cuanto un componente (sensor, apero, tractor, etc.) detecte una red WiFi o UMTS, cargue los datos capturados y descargue los datos procesados (lo que sería el Internet de las Cosas de la agricultura).

Para ello será necesario ampliar el acceso a la red desde el entorno rural, que ha mejorado mucho en los últimos años, pero aún adolece de muchas zonas con baja o nula cobertura, y abaratar de forma importante los costes de dicho acceso.

El futuro del Big Data y Data Mining en la agricultura

Si hacemos un repaso a todo lo dicho hasta ahora, veremos que todas las tecnologías de base necesarias para el desarrollo del Big Data y Data Mining en la agricultura ya están disponibles. Así pues «solo» es necesario que el sector evolucione adecuadamente en paralelo a otros sectores que ya están recurriendo a estas tecnologías en los últimos años.

Lo Open es la clave

Será necesario un descenso de los precios del hardware y el software relacionados, algo complicado si las marcas más potentes siguen apostando por sistemas cerrados y verticales. Una apuesta por el desarrollo de sistemas de código abierto (open source) y de hardware abierto (open hardware) y compartición de datos entre explotaciones, empresas y la administración (open data o datos abiertos) podría ser el camino.

Para los agricultores sería más accesible la tecnología, ya que la mejora en sus explotaciones ampliaría sus márgenes económicos lo necesario para cubrir los gastos y aun así mejorar sus ingresos, y las empresas de servicios podríamos obtener beneficios por la implantación, el asesoramiento, el mantenimiento y el desarrollo de nuevos equipos, modelos, prestaciones y mejoras.

No es un pensamiento tecnológicamente utópico, habida cuenta de que la inmensa mayoría de sistemas de explotación de Big Data que se utilizan en la actualidad están basados en sistemas abiertos.

La información es poder

Cierto es que puede haber cierta resistencia «cultural» a ese flujo de datos. Por ejemplo, entre explotaciones que sean competencia entre sí, o desde las explotaciones a la Administración, que dispondría de información directa y detallada de nosotros, por lo que estaríamos más controlados. Pero también hay que ver la parte positiva, ya que por ejemplo:

  • no habría que rellenar formularios sobre los tratamientos fitosanitarios, ya que nuestros equipos ya se ocuparían de registrar cuándo, dónde, cuánto y con qué habríamos hecho los tratamientos;
  • podríamos recibir previsiones de entrada de nuestra mercancía al mercado, para no saturarlo y poder mantener los precios;
  • nuestro concesionario de maquinaria habitual podría hacer mantenimiento predictivo de nuestros equipos, gracias a un modelo matemático basado en datos de uso y averías de otros usuarios que utilizan el mismo tipo de máquinas;
  • en una compra-venta de una tierra, los datos acumulados asociados a ella podrían componer parte del valor de la operación, ya que el comprador sabría qué está comprando en realidad;
  • y por supuesto, muchas otras prestaciones que nos ofrecerían tanto la agricultura de precisión como otras tecnologías basadas en la información.

Una nueva revolución

Así pues, parece claro que el Big Data y Data Mining en la agricultura es el camino, y probablemente su uso tendrá un impacto similar al que tuvo la Revolución Verde en su día, si bien habrá de definirse en términos de privacidad, seguridad y ética en el uso de esos datos, al igual que está sucediendo en otros sectores en los que ya se están utilizando, como las compras online, las redes sociales o el marketing.

Por nuestra parte, ya llevamos tiempo caminando con este enfoque, y utilizamos sistemas de Minería de Datos en nuestros proyectos y Open Source y Open Hardware en nuestros desarrollos y en nuestro trabajo diario.

Recientemente hemos puesto también en marcha un curso de introducción a la Minería de Datos, para que aquellos interesados en aprender a exprimir el valor de datos masivos, pueda empezar a hacerlo de una forma práctica.

Veremos lo que nos depara el futuro.

Crédito de la foto de portada: Gaetano Cessati.

Big Data y Data Mining en la agricultura. Se aproxima el punto de inflexión2017-06-02T14:26:34+00:00

EnerBrío: Soluciones de aprovechamiento de la biomasa

Este artículo resume nuestra actuación en el proyecto EnerBrío: Soluciones de aprovechamiento íntegro de la biomasa procedente de la agricultura, la ganadería y los recursos forestales. Proyecto en el que hemos estado trabajando a lo largo de 2015 y del que nos sentimos muy satisfechos.

Proyecto de cooperación entre Grupos de Acción Local

EnerBrío ha sido un proyecto de cooperación desarrollado por cuatro Grupos de Acción Local castellanoleoneses: Asociación para el Desarrollo de la Zona Oeste de Salamanca (Salamanca), ADRI Páramos y Valles Palentinos (Palencia), Cuatro Valles (León) y ADRI Cerrato Palentino (Palencia), con el apoyo técnico del Centro Tecnológico ITAGRA, Green Future Consulting y, nosotros, Paraje Innovación y Consultoría.

territorio enerbrio

Territorio de actuación del proyecto EnerBrío (clic para ampliar).

Esta iniciativa se ha realizado con el fin de generar soluciones de aprovechamiento íntegro de la biomasa procedente de la agricultura, la ganadería y los recursos forestales de los territorios de dichos grupos.

A lo largo del proyecto se han cuantificado los recursos biomásicos disponibles en cada zona, definiendo aquellas localizaciones en las que a priori es factible poner en marcha iniciativas de aprovechamiento. Se han propuesto también diversas opciones de negocio basadas en el uso de la biomasa, determinando potencias instalables, inversiones medias necesarias y tecnologías disponibles.

Evaluar los recursos biomásicos y su potencial utilización

Nuestra labor principal ha sido la de evaluar los recursos biomásicos presentes en cada territorio y su potencial utilización. Sin entrar en detalles de la metodología utilizada, que se describe exhaustivamente en los inventarios y en los estudios de aprovechamiento que se han realizado para cada territorio, se ha seguido un itinerario muy concreto para determinar los recursos disponibles, su localización y su potencial utilización.

El primer paso, lógico dentro de un proyecto que busca el aprovechamiento de la biomasa, ha consistido en analizar cuánta biomasa hay disponible en cada territorio. Por ello, dentro del proyecto se ha elaborado un inventario de recursos bioenergéticos de las distintas comarcas. Se ha buscado en cada caso la forma de cálculo más eficiente, basando los datos en cartografía y bibliografía procedentes de fuentes solventes, su análisis y su representación cartográfica mediante un Sistema de Información Geográfica (SIG).

tabla enerbrio adezos

Inventario de recursos de biomasa en el territorio de ADEZOS (Salamanca).

En segundo lugar, para poder plantear la explotación de los recursos biomásicos inventariados en la comarca, se ha realizado una aproximación basada en determinar donde hay mayor concentración de residuo o mayor aptitud (según el tipo de residuo del que se tratase) para la explotación de los mismos. Este planteamiento ha permitido determinar la potencial localización de plantas de aprovechamiento y facilitar cálculos de costes de transporte.

Para poder concretar esos puntos de mayor aptitud se han considerado una serie de condicionantes, entre los que están las distancias máximas de transporte de los residuos, distancia a vías de transporte principales, pendientes máximas admisibles, etc.

Por otra parte también se han establecido limitaciones en cuanto a la recogida de la biomasa, como no recoger parte de la biomasa forestal por razones ecológicas y económicas, la estimación de disponibilidad de residuos agrícolas como la paja contando con las necesidades de su mercado, etc.

En tercer lugar, se han seleccionado una serie de emplazamientos en cada territorio que, por su localización estratégica respecto a los puntos de máxima aptitud descritos, y por sus condiciones de superficie suficiente, proximidad a carreteras, proximidad a cursos de agua, distancia a núcleos urbanos, etc., se han considerado ideales para la puesta en marcha de iniciativas de explotación biomásica.

aprovechamiento paja cerrato palencia enerbrio

Mapa del Cerrato Palentino indicando la localización y puntos de recogida óptimos para la instalación de una planta de aprovechamiento de paja (clic para ampliar).

En último lugar, se han descrito dichas posibles iniciativas, indicando si existe, a priori, viabilidad técnica para su puesta en marcha.

Comunicación de los resultados del proyecto

Dentro de EnerBrío también se han desarrollado importantes actividades de comunicación, incluyendo la realización de jornadas en cada territorio, visitas técnicas a instalaciones de referencia en el ámbito bioenergético, charlas y actividades prácticas relacionadas con la biomasa en colegios de educación primaria e institutos así como difusión en las redes sociales.

Alberto Sanz presentación Enerbrio

Un servidor presentando los resultados del estudio en Cuatro Valles (León).

Si tienes interés en el resultado de los estudios te animo a que te pongas en contacto con ADRI Cerrato Palentino, que fue la entidad que coordinó el proyecto.

EnerBrío: Soluciones de aprovechamiento de la biomasa2017-05-25T11:35:51+00:00

Nduino: Medidor de bajo coste basado en Arduino para Agricultura de Precisión

Hace años, gracias a unos compañeros de Itagra, conocí de la existencia de un equipo portátil para la medición del contenido en nitrógeno / clorofila en los cultivos llamado N-tester, utilizado en agricultura de precisión. En aquellos entonces este aparato lo distribuía la multinacional noruega Yara, aunque creo que el equipo en sí mismo lo fabricaba la japonesa Minolta y actualmente hay otros fabricantes y distribuidores.

(más…)

Nduino: Medidor de bajo coste basado en Arduino para Agricultura de Precisión2017-07-31T12:23:58+00:00

Nduino: Low cost vegetal index meter with Arduino for Precision Agriculture

Years ago, thanks to some colleagues from Itagra, I knew of the existence of a handheld meter of nitrogen / chlorophyll content in crops called N-tester. This was distributed by Yara, a Norwegian multinational, although I think the device itself was manufactured by the Japanese company Minolta and now are other manufacturers and distributors.

(más…)

Nduino: Low cost vegetal index meter with Arduino for Precision Agriculture2017-05-25T11:35:54+00:00

Nuevos flyers con nuestros servicios

Lanzamos nuevos flyers describiendo nuestros principales servicios enfocados a los parques eólicos, ayuntamientos y agricultores y ganaderos. También presentamos nuestros servicios adaptados al uso de drones, con lo que se gana en rapidez a la hora de realizar ciertos trabajos, e incluso permite realizar trabajos en zonas de difícil acceso o grandes extensiones con buena precisión. Poco a poco, pero sin pausa, iremos lanzando nuevos flyers enfocados a sectores concretos, para que nuestros potenciales clientes puedan conocer que servicios adaptados podemos ofrecerles.

Las publicaciones se pueden descargar pinchando directamente sobre cada imagen.

Flyer servicios consultoría ingeniería ambiental agrícola forestal ordenación territorio ayuntamientos

Flyer servicios agrícolas ganaderos medioambientales forestales para agricultores y ganaderos ParajeInnova

Flyer servicios ambientales para parques eólicos

Flyer servicios agrícolas forestales ambientales innovación y desarrollo teledetección con drones

Nuevos flyers con nuestros servicios2017-05-25T11:35:57+00:00

3 ventajas y 3 inconvenientes de usar Linux en nuestra empresa

Cuando mis socios y yo estuvimos hablando de los aspectos operativos de la empresa que estábamos creando, uno de los temas que apareció rápidamente fue el del hardware y el software que íbamos a utilizar. Queríamos romper con las ataduras que siempre habíamos tenido en cuanto a usar obligatoriamente aplicaciones basadas en Windows y queríamos apostar por el software libre, al menos siempre que pudiésemos hacerlo.

Personalmente he tenido contacto con el mundo Linux desde el año 1996, en el que empecé a cacharrear con una primitiva versión de SlackWare que venía de regalo en un número de la ya desaparecida PC Actual. Después de aquellos primeros pinitos, me compré una distribución de SuSE que incluía 5 CDs y era bastante más manejable. He pasado de una a otra distribución durante estos años, experimentando con ellas y con el software disponible para éstas, pero nunca usándolas a nivel profesional. Mi rutina la reservaba a Windows y estos últimos años también a MacOS X y a los conocidos programas privativos que se usan en nuestro sector.

Pero en esta ocasión buscábamos utilizar una distribución a nivel profesional, para usarla en nuestro día a día, y la elección debía de ser más cuidadosa. Finalmente nos decantamos por Ubuntu Trusty Thar y un montón de software libre funcionando en Linux (GNU/Linux, para los más puristas). Estas son las 3 ventajas y los 3 inconvenientes que hemos encontrado en esta apuesta por usar software libre.

Las ventajas:

1. Precio

Bueno, esto es bastante obvio. El coste económico directo de utilizar un sistema operativo y programas open source, es cero. Este aspecto en una empresa es algo muy importante, y favorece ser más competitivo en precios a la hora de realizar los proyectos. Está claro que si quieres ser justo, lo suyo es aportar donaciones a los equipos de desarrollo para que sigan mejorando el software y en agradecimiento a su labor, y participar en los foros reportando bugs, ayudando a otros usuarios y, si es posible, aportando mejoras al programa. Esto requiere tiempo, y algo de dinero, pero está a años luz del coste de utilización de un software privativo.

2. Variedad

Hay una buena cantidad de software libre de calidad para utilizar en consultoría y proyectos de ingeniería: QGis, LibreOffice, RKWard,… Algunos de ellos están casi a la altura del software comercial. Otros la sobrepasan. Otros, desgraciadamente, no llegan. Eso sí, existe un montón de ayuda en Internet para solucionar casi cualquier inconveniente, y si no la encuentras, en los foros siempre hay gente dispuesta a ayudar. Mención aparte merecen las distribuciones Linux como Ubuntu. Una vez que te habitúas a trabajar con ella, usar un ordenador con Windows se convierte en una pesadez.

3. Potencia

Los programas en entornos Linux funcionan realmente rápido y de forma muy estable, consumiendo en general menos recursos que en otros entornos como Windows. Además, las actualizaciones son constantes, tanto en cuestión de mejoras en prestaciones como en solucionar bugs y problemas de seguridad. Raro es el día en el que no haya alguna actualización disponible para el software instalado o el propio sistema operativo. La diferencia es tal que a nivel particular tengo un portátil Compaq de 2004 con Lubuntu y tiene aún potencia como para navegar por Internet y usar LibreOffice sin despeinarse.

Pero como ya he dicho, no todo es bueno. Así que aquí van los tres inconvenientes que hemos encontrado:

1. Menos amigable

Las distribuciones basadas en Linux han mejorado radicalmente en cuanto a su «amigabilidad» con el usuario, pero todavía le queda recorrido para llegar al nivel de Windows o MacOS. El uso del terminal está muy extendido, y pese a que este uso permite realizar acciones muy potentes en cuanto a configuración o tareas complejas, para el usuario que busca productividad pura en su trabajo y no quiere tener que cacharrear con el ordenador, esto es una pega. Creo que todas las distribuciones deberían evolucionar hacia herramientas como el YasST de SuSE y otras como el Automator de MacOS que permitan acudir al terminal lo menos posible.

2. Configuración de la gráfica y otros dispositivos

Esto está claro que es culpa de los fabricantes de los dispositivos, que no facilitan drivers en condiciones. Pero lo cierto es que en nuestra empresa hemos tenido problemas en nuestros ordenadores Mountain hasta que hemos logrado que funcionase el binomio gráfico Intel-NVidia sin dar guerra. También hemos tenido problemas con el micrófono integrado y el PulseAudio y con una impresora multifunción láser de Canon en red, que imprime cuando ella quiere. En general no son problemas graves, pero sí molestos y ciertamente ha llevado tiempo poderlos solventar (algunos como los del sonido y la impresora, no del todo).

3. Portabilidad de ciertos archivos

Esto se nota especialmente con LibreOffice. Si le pasas a un cliente o colaborador un documento en formato ODF normalmente te mandará un email o te llamará a los 5 minutos para decirte que no sabe que hacer con lo que le has enviado. Cierto es que MS Office abre los archivos ODF, pero no hay una compatibilidad completa (¿accidental?). Cierto es que LibreOffice abre .docx, .xlsx, etc., pero la compatibilidad tampoco es completa (como el documento tenga un formato complejo se puede liar una buena al manipularlo con LibreOffice). Cierto es que el uso del formato ODF se va extendiendo, incluso entre administraciones. Pero la realidad es que el estándar de facto es el de Microsoft, y si quieres compartir documentos con terceras personas tienes que usarlo inevitablemente.

En resumen:

En Paraje nos alegramos de la decisión tomada en cuanto al software utilizar basado en Linux. Nos permite un importante ahorro de costes y el poder experimentar con software con buenas prestaciones y una forma más creativa de trabajar. Ahora bien, esto ha requerido, y requiere, de un esfuerzo extra en tiempo y estudio por nuestra parte, que posiblemente no todas las empresas estén dispuestas a realizar.

3 ventajas y 3 inconvenientes de usar Linux en nuestra empresa2017-05-25T11:35:57+00:00
Ir a Arriba