Phenology/Doc/Documents/Papers/7.md

85 lines
5.4 KiB
Markdown
Raw Blame History

This file contains invisible Unicode characters

This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# 7
Crop: NaN
Date of Lecture: 16 de julio de 2025
Link: https://www.mdpi.com/2073-4395/13/2/463?utm_source=chatgpt.com
Name: Computer Vision and Deep Learning as Tools for Leveraging Dynamic Phenological Classification in Vegetable Crops
Type: Phenology
## 1. Contesto e motivazione
- La **fenologia** vegetale (cronologia di eventi quali l'apertura dei cotiledoni, lo sviluppo delle foglie, la fioritura, ecc.) è fondamentale per programmare con precisione le pratiche agricole (irrigazione, diserbo, raccolta) e massimizzare i rendimenti e la qualità del prodotto.
- Nelle colture orticole (verdure), la **crescita molto rapida** e le transizioni fenologiche poco marcate rendono difficile il monitoraggio tradizionale (ispezione sul campo, modelli di coltivazione, telerilevamento satellitare), che è spesso costoso, lento o poco preciso .
## 2. Obiettivo
Sviluppare e valutare un **sistema automatico** basato sulla **visione artificiale (CV)** e sul **deep learning (DL)** in grado di **classificare dinamicamente** le principali fasi fenologiche di **otto colture orticole** a livello di appezzamento, utilizzando immagini RGB e in scala di grigi, dai cotiledoni al raccolto .
## 3. Dati e annotazioni
- **Specie studiate (8):** rucola, carota, coriandolo, lattuga, ravanello, spinacio, bietola e rapa.
- **Ubicazione:** serra in Portogallo; semina manuale in appezzamenti di 4,5 m²; irrigazione e diserbo controllati.
- **Immagini:** 4123 foto RGB (3456×4608 px), scattate con smartphone in diverse condizioni di luce e angolazioni.
- **Fenofasi BBCH:** sono state raggruppate le fasi chiave (ad esempio, 10=cotiledoni aperti; 1118=foglie multiple; …; 4919=raccolta).
- **Trasformazione in scala di grigi:** con metodo di luminosità (0,299 R + 0,587 G + 0,114 B), per costringere il modello ad apprendere caratteristiche morfologiche oltre al colore.
- **Annotazione:** riquadri delimitati etichettati con lo strumento CVAT, esportati nei formati Pascal VOC (SSD) e YOLO .
## 4. Architetture DL valutate
1. **SSD (Single Shot Multibox Detector)** con tre “backbone”:
- Inception v2 (300×300px)
- MobileNet v2 (300×300 e 640×640px)
- ResNet 50 (640×640 px)
2. **YOLO v4** (416×416 px)
Questi modelli eseguono il rilevamento degli oggetti in un unico passaggio, prevedendo contemporaneamente la classe (fenofase) e il riquadro di delimitazione.
## 5. Addestramento e convalida
- **Divisione del set di dati:**
- *Addestramento* (≈70%)
- *Convalida* (≈20%)
- *Test* (≈10%)
- **Aumento dei dati** (rotazioni, ridimensionamenti, ritagli, modifiche di luminosità/contrasto) applicato all'addestramento e alla convalida per migliorare la robustezza.
- **Transfer learning** basato su pesi pre-addestrati in COCO; regolazioni delle dimensioni del batch e del numero di passaggi (SSD: 50000, YOLO: in base alle classi).
- Ottimizzazione della **soglia di confidenza** (0100%) tramite validazione incrociata per massimizzare il **F1Score**.
## 6. Metriche di valutazione
- **F1Score** (media armonica di precisione e richiamo)
- **mAP** (mean average precision)
- **BA** (balanced accuracy), che corregge le distorsioni nei set sbilanciati .
## 7. Risultati principali
- **SSD ResNet 50** è stato il miglior SSD:
- mAP ≈76,0% (RGB), 73,3% (grigio)
- BA ≈81,4% (RGB), 79,8% (grigio)
- **YOLO v4** ha superato tutti:
- mAP ≈76,2% (RGB), 83,5% (grigio)
- BA ≈85,2% (RGB), 88,8% (grigio)
- Addestrando YOLO v4 con **tutte le colture e le fenofasi** (72 classi in totale):
- F1 ≈83,0%
- mAP ≈76,6%
- BA ≈81,7%
- **Prestazioni per coltura:**
- *Peggiore:* carota (mAP ≈53% RGB / 38% grigio), a causa della sua bassa copertura e della confusione con il terreno e le erbacce.
- *Migliore:* spinaci (mAP ≈98%), per le foglie ben definite e il netto contrasto con lo sfondo .
## 8. Discussione
- **YOLO v4** offre il miglior compromesso tra **velocità** e **immagine completa** della stagione.
- La **trasformazione in grigio** non ha compromesso in modo sostanziale i risultati, facilitando la generalizzazione.
- La **qualità e la quantità** delle immagini (soprattutto nelle fasi fenologiche precoci come i cotiledoni) e le **somiglianze morfologiche** tra colture ed erbacce sono le sfide principali.
- Questo è il **primo studio** che applica CV+DL alla fenologia degli ortaggi, aprendo la strada a sistemi di supporto decisionale automatizzati nell'orticoltura di precisione.
## 9. Conclusioni e passi futuri
- Un **unico modello** (YOLO v4) può **classificare** più specie e le loro **fenofasi** tra la semina e il raccolto, con un'elevata precisione subparcellare.
- **Prossime sfide**:
1. **Ampliare il dataset** (più fasi poco rappresentate e più colture).
2. **Valutare la velocità di inferenza** su piattaforme robotiche per il volo o il suolo.
3. **Testare le architetture più recenti** (ad es. YOLO v7, Faster RCNN) e condurre studi di ablazione per capire quali componenti apportano il maggior contributo.
4. Integrare questi dati in **modelli di coltivazione** (climatici e di rendimento) che tengano conto delle interazioni genetiche-ambientali-gestionali.
Questo lavoro segna una pietra miliare nell'**automazione del monitoraggio fenologico** degli ortaggi, contribuendo a pratiche agricole più **sostenibili**, **efficienti** e **redditizie**.