Wie künstliche Intelligenz die Pflanzenbestimmung revolutioniert

Wie künstliche Intelligenz die Pflanzenbestimmung revolutioniert
Wie künstliche Intelligenz die Pflanzenbestimmung revolutioniert

Wer kennt die Situation nicht? Beim Wandern entdecken Sie eine Pflanze, über die Sie gern mehr erfahren würden. Wie heißt die Pflanze, ist sie giftig oder steht sie womöglich unter Naturschutz? Ein Bestimmungsbuch haben Sie entweder nicht dabei oder Sie finden herkömmliche Bestimmungsliteratur zu komplex und aufgrund der Verwendung zahlreicher Fachtermini zu schwierig. Rasante Fortschritte im Bereich des maschinellen Lernens in Kombination mit der ständigen Verfügbarkeit von mobilen Endgeräten wie Smartphones und Tablets machen es heutzutage möglich, die Bestimmung von Pflanzen deutlich zu vereinfachen [1]. Die Flora Incognita App zeigt eindrücklich, wie einfach heute Pflanzenbestimmung sein kann. Mit der Kamera des Smartphones fotografieren Sie die Blüte, dann das Blatt und in Sekundenschnelle erhalten Sie einen Vorschlag zum Namen der Pflanze sowie weiterführende Informationen. Die kostenlose App erlaubt Pflanzenbestimmung für jedermann und überall.

Extraktion von Pflanzenmerkmalen für die automatische Bilderkennung

Seit mehr als 15 Jahren arbeiten Wissenschaftler und Wissenschaftlerinnen vor allem aus der Informatik an einer Möglichkeit, Pflanzen anhand von Bildern automatisch zu erkennen [2]. Viele Jahre hat man dabei auf Experten mit Erfahrung in digitaler Bildverarbeitung gesetzt, welche Modelle entwickelt haben, um Bildobjekte und deren Eigenschaften zu extrahieren. Speziell für Pflanzen wurden aus Bildern mit Blättern oder Blüten botanische Merkmale wie z. B. Blattformen, Blattränder, Blatttexturen, Blütenformen oder Blütenfarbe extrahiert. Das jeweilige Model verweist im anschließenden Klassifizierungsschritt auf diese Merkmale. Diese aus Bildern extrahierten Merkmale repräsentieren dabei das, was das Model „in den Bildern sieht“, wobei die Auswahl der Merkmale jeweils sehr problem‐ und objektspezifisch ist. Die manuelle Ableitung dieser Merkmalen war lange Zeit für einen Klassifikationsprozess unerlässlich, erwies sich jedoch als sehr arbeitsintensiv und erforderte umfangreiches Spezialwissen [3].

Abb. 1: Die Beschreibung der Blüte aus botanischer (links) und aus informationstechnologischer (rechts) Sichtweise [3]

 

Maschinelle Bilderkennung mit Deep Learning

Lange fehlte ein Verfahren, das ein Programm in die Lage versetzt, die Merkmale aus einem Bild ohne vom Menschen kodierte Logik selbstständig zu extrahieren. In den letzten Jahren haben sogenannte tieflernende künstliche neuronale Netze (Deep Learning) und im speziellen Convolutional Neural Networks (CNN) in der automatischen Bildklassifizierung einen bedeutenden Durchbruch erzielt. Künstliche neuronale Netze sind informationsverarbeitende Strukturen, deren Aufbau und Funktionsweise vom Nervensystem und speziell dem Gehirn von Wirbeltieren inspiriert sind. Ein neuronales Netz besteht aus einer großen Anzahl parallelarbeitender Einheiten, den sogenannten Neuronen. Diese tauschen Informationen in Form von Aktivierungssignalen über gewichtete Verbindungen aus. Die Neuronen eines künstlichen neuronalen Netzes sind in mehreren Schichten angeordnet: der Eingabeschicht, der Ausgabeschicht und einer Anzahl dazwischenliegender “Hidden Layers”. Während flachlernende neuronale Netzwerke über eine oder maximal zwei „Hidden Layers“ verfügen, bestehen tieflernende neuronale Netzwerke aus einer Vielzahl von „Hidden Layers“. Die Eingabeschicht ist für die Erfassung der Rohdaten verantwortlich. Jedes Neuron dieser Schicht speichert Informationen und übergibt sie an die nächste Schicht von Neuronen und so weiter. Während des Trainings bildet das Netzwerk eine Hierarchie von Bildmerkmalen mit zunehmender Komplexität, beginnend mit „Low‐Level‐Bildkonzepten“ (z. B. Ecken und Kanten) in der Nähe der Eingangsschicht bis hin zu „High‐Level‐Bildkonzepten“ (ganze Blüten oder Blätter) in der Nähe der Ausgangsschicht [4].

Abb. 2:  Vergleich zwischen biologischen und künstlichen Neuronen und Netzwerken [1]

Bilder als Grundlage der automatischen Pflanzenbestimmung

Im Gegensatz zu den obengenannten, modellbasierten Prozessen benötigen CNNs keine expliziten und handgefertigten Schritte zur Erkennung und Extraktion von Merkmalen. Welche Konzepte und damit Auswahl der Parameter am wichtigsten sind, lernt das System ausschließlich durch Trainingsbilder selbst. Dafür benötigt es eine große Menge an Beispieldaten. Für die Flora Incognita App wurde ein tiefes neuronales Netz mit derzeit mehr als einer Millionen Bilder trainiert. Diese große Anzahl der benötigten Bilder spiegelt die Bedeutung von sehr gut annotieren und von Experten geprüften Bilddatensätzen wieder. Durch weltweite Initiativen wie z. B. „Encyclopedia Of Life“ (EOL) [5], aber auch durch verschiedene nationale Citizen Science Bestrebungen (z. B. die Flora Capture App im Rahmen des Flora Incognita Projektes) kann heute schon auf eine große und immer weiter wachsende Bilddatenmenge zurückgegriffen werden.

Allein mit Hilfe des Bilderkennungsverfahrens wird aktuell für die 2.770 natürlich auf dem Gebiet der Bundesrepublik Deutschland vorkommenden Pflanzenarten mit der Flora Incognita App eine Erkennungsgenauigkeit von über 85 Prozent erreicht. In mehr als 96 Prozent der Fälle befindet sich die korrekte Art unter den ersten fünf Treffern für ein Bild. Ein noch höhere Genauigkeit, gerade auch bei bestimmungskritischen Artengruppen lässt sich in Zukunft durch das Einbeziehen von Metainformationen wie z. B. Standort oder Blühzeitraum [6], durch die optimale Bildauswahl [7],  sowie durch eine Kombination von automatischer Bestimmung mit traditionellem Bestimmungsschlüssel erreichen.

 

 

[1] J. Wäldchen, P. Mäder, Machine learning for image based species identification. Methods in Ecology and Evolution, 2018, 9, 2216–2225.

[2] J, Wäldchen, P. Mäder, Plant species identification using computer vision techniques: A systematic literature review, Archives of Computational Methods in Engineering, 2018, 25.2, 507–543.

[3] J. Wäldchen, M. Rzanny, M. Seeland, P. Mäder, Automated plant species identification – Trends and future directions. PLoS computational biology, 2018, 14, e1005993.

[4] Y. LeCun, Y. Bengio, G. Hinton, Deep learning. Nature, 2015, 521, 436.

[5] E. O. Wilson, The encyclopedia of life. Trends in Ecology & Evolution, 2003, 18, 77–80.

[6] H. C. Wittich, M. Seeland, J. Wäldchen, M. Rzanny, P. Mäder, Recommending plant taxa for supporting on-site species identification. BMC bioinformatics, 2018, 19, 190.

[7] M. Rzanny, M. Seeland, J. Wäldchen,  P. Mäder, Acquiring and preprocessing leaf images for automated plant identification: understanding the tradeoff between effort and information gain. Plant Methods, 2017, 13(1), 97.

 

Quelle: Wäldchen, J. and Mäder, P. (2019), Flora Incognita – wie künstliche Intelligenz die Pflanzenbestimmung revolutioniert. Biol. Unserer Zeit, 49: 99-101. doi:10.1002/biuz.201970211