Phenology/Doc/Documents/Papers/7.md

5.4 KiB
Raw Blame History

7

Crop: NaN Date of Lecture: 16 de julio de 2025 Link: https://www.mdpi.com/2073-4395/13/2/463?utm_source=chatgpt.com Name: Computer Vision and Deep Learning as Tools for Leveraging Dynamic Phenological Classification in Vegetable Crops Type: Phenology

1. Contesto e motivazione

  • La fenologia vegetale (cronologia di eventi quali l'apertura dei cotiledoni, lo sviluppo delle foglie, la fioritura, ecc.) è fondamentale per programmare con precisione le pratiche agricole (irrigazione, diserbo, raccolta) e massimizzare i rendimenti e la qualità del prodotto.
  • Nelle colture orticole (verdure), la crescita molto rapida e le transizioni fenologiche poco marcate rendono difficile il monitoraggio tradizionale (ispezione sul campo, modelli di coltivazione, telerilevamento satellitare), che è spesso costoso, lento o poco preciso .

2. Obiettivo

Sviluppare e valutare un sistema automatico basato sulla visione artificiale (CV) e sul deep learning (DL) in grado di classificare dinamicamente le principali fasi fenologiche di otto colture orticole a livello di appezzamento, utilizzando immagini RGB e in scala di grigi, dai cotiledoni al raccolto .

3. Dati e annotazioni

  • Specie studiate (8): rucola, carota, coriandolo, lattuga, ravanello, spinacio, bietola e rapa.
  • Ubicazione: serra in Portogallo; semina manuale in appezzamenti di 4,5 m²; irrigazione e diserbo controllati.
  • Immagini: 4123 foto RGB (3456×4608 px), scattate con smartphone in diverse condizioni di luce e angolazioni.
  • Fenofasi BBCH: sono state raggruppate le fasi chiave (ad esempio, 10=cotiledoni aperti; 1118=foglie multiple; …; 4919=raccolta).
  • Trasformazione in scala di grigi: con metodo di luminosità (0,299 R + 0,587 G + 0,114 B), per costringere il modello ad apprendere caratteristiche morfologiche oltre al colore.
  • Annotazione: riquadri delimitati etichettati con lo strumento CVAT, esportati nei formati Pascal VOC (SSD) e YOLO .

4. Architetture DL valutate

  1. SSD (Single Shot Multibox Detector) con tre “backbone”:
    • Inception v2 (300×300px)
    • MobileNet v2 (300×300 e 640×640px)
    • ResNet 50 (640×640 px)
  2. YOLO v4 (416×416 px)

Questi modelli eseguono il rilevamento degli oggetti in un unico passaggio, prevedendo contemporaneamente la classe (fenofase) e il riquadro di delimitazione.

5. Addestramento e convalida

  • Divisione del set di dati:
    • Addestramento (≈70%)
    • Convalida (≈20%)
    • Test (≈10%)
  • Aumento dei dati (rotazioni, ridimensionamenti, ritagli, modifiche di luminosità/contrasto) applicato all'addestramento e alla convalida per migliorare la robustezza.
  • Transfer learning basato su pesi pre-addestrati in COCO; regolazioni delle dimensioni del batch e del numero di passaggi (SSD: 50000, YOLO: in base alle classi).
  • Ottimizzazione della soglia di confidenza (0100%) tramite validazione incrociata per massimizzare il F1Score.

6. Metriche di valutazione

  • F1Score (media armonica di precisione e richiamo)
  • mAP (mean average precision)
  • BA (balanced accuracy), che corregge le distorsioni nei set sbilanciati .

7. Risultati principali

  • SSD ResNet 50 è stato il miglior SSD:
  • mAP ≈76,0% (RGB), 73,3% (grigio)
  • BA ≈81,4% (RGB), 79,8% (grigio)
  • YOLO v4 ha superato tutti:
  • mAP ≈76,2% (RGB), 83,5% (grigio)
  • BA ≈85,2% (RGB), 88,8% (grigio)
  • Addestrando YOLO v4 con tutte le colture e le fenofasi (72 classi in totale):
  • F1 ≈83,0%
  • mAP ≈76,6%
    • BA ≈81,7%
  • Prestazioni per coltura:
  • Peggiore: carota (mAP ≈53% RGB / 38% grigio), a causa della sua bassa copertura e della confusione con il terreno e le erbacce.
    • Migliore: spinaci (mAP ≈98%), per le foglie ben definite e il netto contrasto con lo sfondo .

8. Discussione

  • YOLO v4 offre il miglior compromesso tra velocità e immagine completa della stagione.
  • La trasformazione in grigio non ha compromesso in modo sostanziale i risultati, facilitando la generalizzazione.
  • La qualità e la quantità delle immagini (soprattutto nelle fasi fenologiche precoci come i cotiledoni) e le somiglianze morfologiche tra colture ed erbacce sono le sfide principali.
  • Questo è il primo studio che applica CV+DL alla fenologia degli ortaggi, aprendo la strada a sistemi di supporto decisionale automatizzati nell'orticoltura di precisione.

9. Conclusioni e passi futuri

  • Un unico modello (YOLO v4) può classificare più specie e le loro fenofasi tra la semina e il raccolto, con un'elevata precisione subparcellare.
  • Prossime sfide:
  1. Ampliare il dataset (più fasi poco rappresentate e più colture).
  2. Valutare la velocità di inferenza su piattaforme robotiche per il volo o il suolo.
  3. Testare le architetture più recenti (ad es. YOLO v7, Faster RCNN) e condurre studi di ablazione per capire quali componenti apportano il maggior contributo.
  4. Integrare questi dati in modelli di coltivazione (climatici e di rendimento) che tengano conto delle interazioni genetiche-ambientali-gestionali.

Questo lavoro segna una pietra miliare nell'automazione del monitoraggio fenologico degli ortaggi, contribuendo a pratiche agricole più sostenibili, efficienti e redditizie.