85 lines
5.4 KiB
Markdown
85 lines
5.4 KiB
Markdown
# 7
|
||
|
||
Crop: NaN
|
||
Date of Lecture: 16 de julio de 2025
|
||
Link: https://www.mdpi.com/2073-4395/13/2/463?utm_source=chatgpt.com
|
||
Name: Computer Vision and Deep Learning as Tools for Leveraging Dynamic Phenological Classification in Vegetable Crops
|
||
Type: Phenology
|
||
|
||
## 1. Contesto e motivazione
|
||
|
||
- La **fenologia** vegetale (cronologia di eventi quali l'apertura dei cotiledoni, lo sviluppo delle foglie, la fioritura, ecc.) è fondamentale per programmare con precisione le pratiche agricole (irrigazione, diserbo, raccolta) e massimizzare i rendimenti e la qualità del prodotto.
|
||
- Nelle colture orticole (verdure), la **crescita molto rapida** e le transizioni fenologiche poco marcate rendono difficile il monitoraggio tradizionale (ispezione sul campo, modelli di coltivazione, telerilevamento satellitare), che è spesso costoso, lento o poco preciso .
|
||
|
||
## 2. Obiettivo
|
||
|
||
Sviluppare e valutare un **sistema automatico** basato sulla **visione artificiale (CV)** e sul **deep learning (DL)** in grado di **classificare dinamicamente** le principali fasi fenologiche di **otto colture orticole** a livello di appezzamento, utilizzando immagini RGB e in scala di grigi, dai cotiledoni al raccolto .
|
||
|
||
## 3. Dati e annotazioni
|
||
|
||
- **Specie studiate (8):** rucola, carota, coriandolo, lattuga, ravanello, spinacio, bietola e rapa.
|
||
- **Ubicazione:** serra in Portogallo; semina manuale in appezzamenti di 4,5 m²; irrigazione e diserbo controllati.
|
||
- **Immagini:** 4 123 foto RGB (3 456×4 608 px), scattate con smartphone in diverse condizioni di luce e angolazioni.
|
||
- **Fenofasi BBCH:** sono state raggruppate le fasi chiave (ad esempio, 10=cotiledoni aperti; 11–18=foglie multiple; …; 49–19=raccolta).
|
||
- **Trasformazione in scala di grigi:** con metodo di luminosità (0,299 R + 0,587 G + 0,114 B), per costringere il modello ad apprendere caratteristiche morfologiche oltre al colore.
|
||
- **Annotazione:** riquadri delimitati etichettati con lo strumento CVAT, esportati nei formati Pascal VOC (SSD) e YOLO .
|
||
|
||
## 4. Architetture DL valutate
|
||
|
||
1. **SSD (Single Shot Multibox Detector)** con tre “backbone”:
|
||
- Inception v2 (300×300 px)
|
||
- MobileNet v2 (300×300 e 640×640 px)
|
||
- ResNet 50 (640×640 px)
|
||
2. **YOLO v4** (416×416 px)
|
||
|
||
Questi modelli eseguono il rilevamento degli oggetti in un unico passaggio, prevedendo contemporaneamente la classe (fenofase) e il riquadro di delimitazione.
|
||
|
||
## 5. Addestramento e convalida
|
||
|
||
- **Divisione del set di dati:**
|
||
- *Addestramento* (≈ 70 %)
|
||
- *Convalida* (≈ 20 %)
|
||
- *Test* (≈ 10 %)
|
||
- **Aumento dei dati** (rotazioni, ridimensionamenti, ritagli, modifiche di luminosità/contrasto) applicato all'addestramento e alla convalida per migliorare la robustezza.
|
||
- **Transfer learning** basato su pesi pre-addestrati in COCO; regolazioni delle dimensioni del batch e del numero di passaggi (SSD: 50 000, YOLO: in base alle classi).
|
||
- Ottimizzazione della **soglia di confidenza** (0–100 %) tramite validazione incrociata per massimizzare il **F1‑Score**.
|
||
|
||
## 6. Metriche di valutazione
|
||
|
||
- **F1‑Score** (media armonica di precisione e richiamo)
|
||
- **mAP** (mean average precision)
|
||
- **BA** (balanced accuracy), che corregge le distorsioni nei set sbilanciati .
|
||
|
||
## 7. Risultati principali
|
||
|
||
- **SSD ResNet 50** è stato il miglior SSD:
|
||
- mAP ≈ 76,0 % (RGB), 73,3 % (grigio)
|
||
- BA ≈ 81,4 % (RGB), 79,8 % (grigio)
|
||
- **YOLO v4** ha superato tutti:
|
||
- mAP ≈ 76,2 % (RGB), 83,5 % (grigio)
|
||
- BA ≈ 85,2 % (RGB), 88,8 % (grigio)
|
||
- Addestrando YOLO v4 con **tutte le colture e le fenofasi** (72 classi in totale):
|
||
- F1 ≈ 83,0 %
|
||
- mAP ≈ 76,6 %
|
||
- BA ≈ 81,7 %
|
||
- **Prestazioni per coltura:**
|
||
- *Peggiore:* carota (mAP ≈ 53 % RGB / 38 % grigio), a causa della sua bassa copertura e della confusione con il terreno e le erbacce.
|
||
- *Migliore:* spinaci (mAP ≈ 98 %), per le foglie ben definite e il netto contrasto con lo sfondo .
|
||
|
||
## 8. Discussione
|
||
|
||
- **YOLO v4** offre il miglior compromesso tra **velocità** e **immagine completa** della stagione.
|
||
- La **trasformazione in grigio** non ha compromesso in modo sostanziale i risultati, facilitando la generalizzazione.
|
||
- La **qualità e la quantità** delle immagini (soprattutto nelle fasi fenologiche precoci come i cotiledoni) e le **somiglianze morfologiche** tra colture ed erbacce sono le sfide principali.
|
||
- Questo è il **primo studio** che applica CV + DL alla fenologia degli ortaggi, aprendo la strada a sistemi di supporto decisionale automatizzati nell'orticoltura di precisione.
|
||
|
||
## 9. Conclusioni e passi futuri
|
||
|
||
- Un **unico modello** (YOLO v4) può **classificare** più specie e le loro **fenofasi** tra la semina e il raccolto, con un'elevata precisione subparcellare.
|
||
- **Prossime sfide**:
|
||
1. **Ampliare il dataset** (più fasi poco rappresentate e più colture).
|
||
2. **Valutare la velocità di inferenza** su piattaforme robotiche per il volo o il suolo.
|
||
3. **Testare le architetture più recenti** (ad es. YOLO v7, Faster R‑CNN) e condurre studi di ablazione per capire quali componenti apportano il maggior contributo.
|
||
4. Integrare questi dati in **modelli di coltivazione** (climatici e di rendimento) che tengano conto delle interazioni genetiche-ambientali-gestionali.
|
||
|
||
Questo lavoro segna una pietra miliare nell'**automazione del monitoraggio fenologico** degli ortaggi, contribuendo a pratiche agricole più **sostenibili**, **efficienti** e **redditizie**. |