Mit Computern auf der Spur von giftigen Substanzen
Riesige Datenmengen kombiniert mit moderner Hardware geben bereits länger bekannten Methoden neuen Auftrieb. Das macht sich auch das Institut für Bioinformatik der Johannes Kepler University (JKU) zunutze. Jetzt gewannen die Linzer die "Tox21 Challenge" der amerikanischen Gesundheitsbehörde (NIH).
"Jedes Jahr kommen sehr viele neue Produkte wie Kosmetika, Dünger oder Putzmittel auf den Markt. Die alle auf Giftigkeit zu testen, würde jeden Menschen überfordern. Deshalb wird versucht, eine Vorhersage mittels Computermethoden zu treffen", erklärte Sepp Hochreiter von der JKU, der als einer der Begründer von "Deep Learning" gilt. Das sei zwar nicht perfekt, aber es ermögliche ein Ranking zu erstellen und die gefährlichsten Substanzen zu identifizieren.
Konkret mussten bei der Challenge 10.000 chemische Stoffe auf ihre potenzielle Giftigkeit überprüft werden. Die Wissenschafter der JKU extrahierten Millionen von chemischen Merkmalen und kombinierten sie auf 12.000 parallelgeschalteten Prozessoren miteinander. Das ermöglichte präzise Rückschlüsse und führte zum - überlegenen - Sieg der "Tox21 Challenge".
Als Methode wurde "Deep Learning" verwendet. Es ermöglicht Rechnern, Muster in riesigen Datenmengen zu erkennen und - ähnlich dem Gehirn - mit riesigen neuronalen Netzwerken Analysen durchzuführen. Die Grundlagen dafür, konkret die Architektur "Long short term memory" (LSTM), wurden von Hochreiter bereits vor 20 Jahren entwickelt, "damals hat das aber noch keinen interessiert".
Big Data als Treiber
"Deep Learning ist eine alte Methode in der Künstlichen Intelligenz. Aber zwei Entwicklungen haben das komplett auf den Kopf gestellt: Einerseits Big Data und andererseits die bessere Hardware", so der Experte für Maschinelles Lernen. Früher seien zwischen Ein- und Ausgabe rund 20 Neurone gewesen, jetzt viele Tausend. Das habe neue Möglichkeiten eröffnet. "In der Bilderkennung sind die Maschinen inzwischen besser als die Menschen. Und in der Spracherkennung hat es 30 Jahre lang Forschung mit linguistischen Modellen gegeben. Das wurde innerhalb von einem halben Jahr weggeschossen, weil die 'Deep Learning'-Methoden einen Riesensprung darstellen", so Hochreiter.
Neu sei bei diesem Ansatz auch die abstrakte Repräsentation auf verschiedenen Ebenen. "Die erste Stufe beim Erkennen von Bildern wird automatisch gelernt, beispielsweise erkennen Detektoren die Kanten. In der zweiten Schicht werden, wenn man Gesichter erkennen möchte, aus den Kanten Nase, Augen oder Ohren zusammengebaut. Auf weiteren Ebenen entstehen dann die individuellen Gesichter", erklärte der Professor: "Aus einfachen Sachen werden in höheren Ebenen immer komplexere Sachen gebaut. Das hat uns auch bei der Tox-Challenge extrem geholfen."
Service: "Tox21 Challenge"
Von Stefan Thaler / APA-Science
Das könnte Sie auch interessieren
Partnermeldung
FORWIT-Initiative setzt neue Impulse für den Fonds Zukunft Österreich
Partnermeldung
BOKU-Rektorin Eva Schulev-Steindl einstimmig wiederbestellt
Partnermeldung