Ereignishorizont Digitalisierung - KI

Künstliche Intelligenz und Machine Learning in a Nutshell

Künstliche Intelligenz (KI) ist der Oberbegriff für eine Menge von Techniken, die mithilfe von Computern oder anderen technischen Anlagen intelligente Systeme schaffen wollen. Der Begriff der Intelligenz kann in diesem Zusammenhang auf verschiedene Arten definiert werden. So stellen Russel und Norvig [1] zwei wesentliche Richtungen vor, in die KI-Systeme in der Vergangenheit entwickelt wurden:

1. Zum einen die Entwicklung einer KI mit dem Ziel, Verhalten und Fähigkeiten von Menschen zu imitieren. Die Bewertung eines solchen Systems erfolgt in diesem Fall anhand der Ähnlichkeit des Verhaltens der KI zum Verhalten von Menschen [1, vgl. S. 1 f]. Diese Ähnlichkeit kann z. B. durch den Turing Test des britischen Mathematikers und Informatikers Alan Turing beurteilt werden. Dieser Test zielt darauf ab, festzustellen, ob eine KI intelligent ist. Dies geschieht indem eine unabhängige Testperson mit einem Menschen und einer KI über ein Computerterminal kommuniziert. Kann die Testperson dabei nicht zuverlässig feststellen, bei welchem Gesprächspartner es sich um die KI handelt, gilt der Turing Test für die KI als bestanden.

2. Die andere wesentliche Richtung für die Entwicklung von KI-Systemen hat das Ziel, eine sich möglichst rational verhaltende KI zu entwickeln, die eine Idealform der Intelligenz anstrebt [1, vgl. S. 1 f]. KI-Systeme dieser Form werden nicht an menschlichem Verhalten gemessen, sondern zielen darauf ab, die Fehlerquote in ihren Anwendungsgebieten so gering wie möglich zu halten. Damit ist es möglich, Systeme zu entwickeln, die sich zur Steigerung der Effizienz in Prozessen der Entscheidungsfindung einsetzen lassen, indem sie menschliche Aufgaben komplett übernehmen oder Menschen bei diesen Aufgaben unterstützen.

Einordnung von KI-Techniken

Abbildung 1 zeigt eine Einordnung von verschiedenen Techniken der KI in die Bereiche der menschenähnlichen KI und der rationalen KI. Die dargestellte Abgrenzung stellt dabei keine scharfe Trennung dar, sondern soll vielmehr eine Orientierung über die Struktur der verschiedenen Techniken geben. Zwar ist es möglich, Machine Learning (ML) zu verwenden, um ein menschenähnliches Verhalten einer KI zu erzeugen. Jedoch wird ML v. a. für die rationale Entscheidungsfindung eingesetzt. Aus diesem Grund wird ML ausschließlich der Kategorie „rationale KI“ zugeordnet. Auf der Seite der menschenähnlichen KI werden beispielhaft Spracherkennungssysteme (Natural Language Processing Systems) und visuelle Systeme zur Bilderkennung (Computer Vision Systems) dargestellt. Der Seite der rationalen KI werden ML-Systeme und Wissensbasierte Systeme zugeordnet.

Einordnung KI

Abbildung 1: Einordnung von KI-Techniken.

Machine Learning

Machine Learning (ML) bezeichnet das maschinelle Lernen durch Ableiten von Gesetzmäßigkeiten aus einer großen Menge von Daten [2, vgl. S. 132]. Diese Erkenntnisse können dann in einem nächsten Schritt genutzt werden, um konkrete Aufgaben, wie die Einordnung eines neuen Datensatzes in Klassen (Klassifikation) oder die Zuordnung eines numerischen Wertes zum Datensatz (Regression) zu lösen. Eine typische Klassifikation ist z. B. die Einordnung eines Neukunden im Kreditantragsprozess in die Klassen „kreditwürdig“ oder „nicht kreditwürdig“. Eine Regression kann z. B. dazu verwendet werden, Preisbewertungen für Immobilien durchzuführen.

Beide Arten von ML-Modellen funktionieren auf ähnliche Weise: Einem ML-Modell zur Klassifikation oder Regressionsanalyse werden als Eingabedaten erforderliche Parameter und Werte übergeben und das Modell gibt daraufhin das ermittelte Ergebnis aus. Im Fall der Klassifikation bei der Bewertung der Kreditwürdigkeit sind Parameter und Werte z. B. das Alter des Kunden, das Einkommen und das jeweilige Eigenkapital die Eingabeparameter. Bei der Regression des Immobilienpreises können dies beispielsweise das Alter der Immobilie, die Wohnfläche und der Neupreis sein.

Die Ausgabe eines Klassifikationsmodells sind dann verschiedene Wahrscheinlichkeiten für die einzelnen Klassen. So kann das Modell zur Beurteilung der Kreditwürdigkeit die in Abbildung 2 dargestellten Werte ausgeben. Dies bedeutet, dass als Ergebnis des ML-Modells der entsprechende Kunde mit einer Wahrscheinlichkeit von 86 % kreditwürdig ist.

Beispiel

Abbildung 2: Schematische Darstellung eines ML-Modells zur Klassifikation.

Abbildung 3 zeigt die Ausgabe des Regressionsmodells zur Immobilienpreisbewertung. Hier wird der numerische Wert von 440.000€ ausgegeben, der dem ermittelten Verkaufspreis der Immobilie entspricht.

ML-Beispiel 2

Abbildung 3: Schematische Darstellung eines ML-Modells zur Regression.

Sowohl die Regression, als auch die Klassifikation durch ML-Modelle funktioniert durch das Lernen aus Beispieldaten. Diese sogenannten Trainingsdaten enthalten neben Features und zugehörigen Werten auch ein Label. Das Label ist die Zielvariable, die das zu lernende Ergebnis darstellt.

Im Prozess des Trainings lernt das ML-Modell auf Basis der Werte der Features auf den Wert des Labels zu schließen. Diese Art des Lernens aus Beispieldaten, die ein Label enthalten, wird als Supervised Learning bezeichnet. Ein Auszug eines möglichen Supervised Learning-Trainingsdatensatzes ist in Tabelle 1 für das Beispiel der Immobilienpreisberechnung dargestellt. Die Spalte „Verkaufspreis“, die das Label enthält, ist grau hinterlegt.

ML - Tabelle 1

Tabelle 1: Beispielhafter Trainingsdatensatz für die Immobilienpreisberechnung.

Im Gegensatz zum Training von ML-Modellen aus Datensätzen, die das Lernziel bereits in Form eines Labels enthalten, gibt es jedoch auch Anwendungsfälle, in denen für den einzelnen Datensatz keine Zielvariable bekannt ist. Diese Anwendungsfälle erfordern es, dass Zusammenhänge der Trainingsdatensätze untereinander in erweitertem Maße erkannt und im Lernprozess des ML-Modells verwendet werden. Dies ist beispielsweise bei der Anomalieerkennung, oder beim Clustering der Fall.

Anomalieerkennung

Die Anomalieerkennung eignet sich z. B. zum Erkennen von untypischen Transaktionen im Rahmen einer Betrugserkennung für Kreditkartentransaktionen. Hier wird auf einem Datensatz von typischen Transaktionen gelernt, um dann einzelne Transaktionen, die vom typischen Muster abweichen, erkennen zu können [3, vgl. S. 9430].

Um ein ML-Modell zur Anomalieerkennung zu erstellen, eignen sich beispielsweise Neuronale Netze als Autoencoder oder baumbasierte Algorithmen, wie der Isolation Forest. Diese ansonsten typischerweise im Supervised Learning verwendeten Algorithmen lassen sich mit Anpassungen auch für Unsupervised Learning nutzen.

Am Beispiel des neuronalen Netzes verwendet der ursprünglich auf ein Label angewiesene Algorithmus als Autoencoder den Eingabedatensatz sowohl als Eingabe, als auch als Lernziel. Sind die Eingaben typische Kreditkartentransaktionen, so lernt der Autoencoder deren normale Ausprägung kennen. Bei der Ausführung mit neuen Daten ist der Autoencoder damit in der Lage, aus dem Ursprungsdatensatz nach einem Durchlauf durch das neuronale Netz mit hoher Genauigkeit den Datensatz wieder zu rekonstruieren. Der reconstruction error ist niedrig. Bei einem anomalen Datensatz kann der Autoencoder den ursprünglichen Datensatz jedoch nicht mehr zuverlässig rekonstruieren, weshalb der „reconstruction error“ als Maß für eine Anomalie ansteigt [3, vgl. S. 9430].

Abbildung 4 zeigt schematisch den Durchlauf eines anomalen Datensatzes durch einen Autoencoder. Die Eingabe ist ein mit 15.000€ extrem hoher Geldbetrag, der nachts um 04:39 Uhr über das Internet an einen deutschen Empfänger bezahlt wurde. Der Autoencoder verarbeitet diese Eingabe, und versucht sie mithilfe des während des Modelltrainings gewonnenen Erfahrungsschatzes an validen Transaktionen zu rekonstruieren. Da Kreditkartentransaktionen über das Internet typischerweise mit weitaus geringeren Beträgen und nicht nachts erfolgen, kann der Autoencoder die Eingabe an diesen Stellen nicht korrekt rekonstruieren, eine Anomalie wurde erkannt.

Autoencoder-Modell

Abbildung 4: Durchlauf eines anomalen Datensatzes durch ein Autoencoder-Modell.

Clustering

Beim Clustering werden die Trainingsdatensätze nach bestimmten Kriterien in Gruppen eingeteilt. Der ML-Algorithmus stellt dafür die einzelnen Datensätze anhand ihrer Merkmale untereinander in Zusammenhang. Damit lassen sich sogenannte Cluster identifizieren, deren Datensätze untereinander starke Ähnlichkeiten aufweisen, jedoch möglichst unterschiedlich zu den Datensätzen anderer Cluster sind.

Der k-Means-Algorithmus beispielsweise nimmt als Eingabeparameter die Anzahl der erwarteten Cluster (k) im Datensatz entgegen und verteilt daraufhin zufällig k Clustermittelpunkte. In einem iterativen Vorgehen werden die einzelnen Datensätze nun so lange den nächstgelegenen Clustermittelpunkten zugeordnet und daraufhin die Clustermittelpunkte neu berechnet, bis sich die Clustermittelpunkte nicht mehr signifikant ändern [4, vgl. S. 246 f]. Unabhängig vom Clustering-Algorithmus ist es daher nicht erforderlich, dem Algorithmus eine korrekte Antwort in Form eines Labels zu liefern, oder Kenntnis über Inhalt und Ursprung des Datensatzes zu haben [5, vgl. S. 225 f].

Der ML-Algorithmus lernt völlig eigenständig und damit ohne Aufsicht des Benutzers. Neue Datensätze können in ein so trainiertes MLModell hineingegeben werden, und werden in ein entsprechendes Cluster einsortiert. Da dem Clustering-Algorithmus keine Details über den Kontext des Datensatzes bekannt sind, werden die einzelnen Cluster nummeriert. Bei der Modellausführung ist es daher am Benutzer, das Ergebnis im Kontext einzuordnen. Cook [5] stellt dies anschaulich am Beispiel des Clusterings von Filmbeschreibungen dar: Die Eingaben für den Clustering- Algorithmus sind hierbei lediglich die einzelnen Begriffe als Features, sowie deren relative Häufigkeit in den jeweiligen Handlungsbeschreibungen als Feature-Werte [5, vgl. S. 226 f]. Tabelle 2 stellt den von Cook verwendeten Eingabedatensatz beispielhaft in verkürzter Form dar. Den einzelnen Filmen, die durch eine ID repräsentiert sind, werden für jeden der Begriffe relative Häufigkeiten zwischen 0 und 1 zugeordnet. Als Ergebnis lieferte der Algorithmus fünf Gruppen, in die die verschiedenen Filme einsortiert wurden. Nun kann daraus die Erkenntnis gezogen werden, dass die Filme, die sich im gleichen Cluster befinden mit hoher Wahrscheinlichkeit Gemeinsamkeiten in der Handlung aufweisen, und damit z. B. einem gemeinsamen Genre angehören.

Tabelle 2

Tabelle 2: Beispielhafter Datensatz für das Clustering von Filmbeschreibungen.

Diese Art des Lernens durch selbstständiges Erkennen von Mustern aus ungelabelten Daten, wie es bei der Anomalieerkennung und beim Clustering erfolgt, wird als Unsupervised Learning bezeichnet.

Video: Wie funktioniert eigentlich Machine Learning?

Machine Learning Workflow

Sowohl Supervised, als auch Unsupervised Learning ML-Modelle müssen, bis sie in ihrem Anwendungsbereich produktiv eingesetzt werden können, zunächst einen mehrstufigen Entwicklungs- und Validierungsprozess durchlaufen. Dieser Prozess wird als ML-Workflow bezeichnet.

Er beginnt bei der Auswahl und Aufbereitung von Rohdaten, reicht über Modelltraining und -evaluierung bis zur produktiven Nutzung und eventuellen Erneuerung des ML-Modells. Abbildung 5 zeigt einen typischen ML-Workflow, der in die folgenden drei Phasen aufgegliedert ist: (1) Datenaufbereitung, (2) Modellerstellung und (3) produktiver Einsatz.

ML Workflow

Abbildung 5: Darstellung eines typischen ML-Workflows im Finance-Bereich.

Datenaufbereitung

Die Erstellung jedes neuen ML-Modells beginnt mit der Auswahl der Rohdaten. In der ersten Phase werden diese Daten aufbereitet, um die Informationsdichte zu steigern, aussagekräftige Zusammenhänge zwischen den Eingabevariablen (Features) und der Zielvariablen (Label) herauszuarbeiten, und um die Daten für entsprechende ML-Algorithmen besser nutzbar zu machen. Die Eingabevariablen in einem Datensatz enthalten die Informationen, auf deren Basis auf die Zielvariable geschlossen werden soll. Der komplette Vorgang des Aufbereitens von Rohdatenzu effizient nutzbaren Trainingsdaten für ML-Modelle wird als Feature Engineering bezeichnet. Er besteht aus mehreren Aktivitäten, wie z. B. der Feature Selection zur Auswahl von nutzbringenden Features, der Feature Construction zur Erzeugung neuer Features auf Basis von anderen Features, und der Feature Transformation zum Herausarbeiten von Informationen durch Normalisierung, Diskretisierung oder Thresholding der Feature-Werte.

Nach dem Feature Engineering erfolgt im ML-Workflow der Split des Trainingsdatensatzes in Trainingsdaten, Validierungsdaten und Testdaten. Dadurch wird vermieden, dass das zu trainierende ML-Modell die Trainingsdaten in zu detaillierter Form abbildet und nicht ausreichend generalisiert. Dieses sogenannte Overfitting kann auftreten, wenn die Validierung der Modellperformance auf den selben Daten erfolgt, die bereits für das Training verwendet wurden [5, vgl. S. 41 f]. Durch den Split der Daten wird sichergestellt, dass das ML-Modell jeweils auf Datensätzen validiert und getestet werden kann, die für das ML-Modell unbekannt sind. Die Ergebnisse spiegeln somit die für neue Daten erwartbare Qualität der Ergebnisse wider.

Um so wenige wertvolle Erkenntnisse der Trainingsdaten wie möglich ungenutzt zu lassen, kann der Split zwischen Trainingsdaten, Validierungsdaten und Testdaten z. B. im Verhältnis 8 : 1 : 1 vorgenommen werden, oder es kommt an der Stelle der Validierung eine Cross-Validation zum Einsatz. Die Cross-Validation führt mehrere Splits eines Datensatzes durch und verwendet nacheinander jeden Teil des Datensatzes einmal als Trainingsdaten und als Validierungsdaten [5, vgl. S. 104 f]. Dadurch können auch die Validierungsdaten vollständig für das Modelltraining genutzt werden, während gleichzeitig das Risiko für Overfitting vermindert wird.

Modellerstellung

Mithilfe eines ML-Algorithmus, wie z. B. Deep Learning oder Random Forest, können in dieser Phase aus den Trainingsdaten ML-Modelle trainiert werden. Die trainierten ML-Modelle werden dann gegen die zuvor abgesplitteten Validierungsdaten geprüft und durch geeignete Performance-Metriken bewertet. Durch die schrittweise Anpassung einzelner Trainingsparameter (Tuning), wie z. B. der Tiefe oder der Anzahl der Neuronen in einem neuronalen Netz, können die Ergebnisse noch weiter verbessert werden [5, vgl. S. 215 ff]. Viele ML-Systeme bieten hier die Möglichkeit, vollautomatisch mehrere ML-Modelle mit verschiedenen Trainingsparametern zu trainieren und in einem Leaderboard darzustellen. Der Prozessschritt der Validierung und Optimierung wird in der Regel iterativ durchlaufen, bis die Qualität der Ergebnisse zufriedenstellend ist. Dann wird das beste Modell ausgewählt, einem abschließenden Modelltest unterzogen und in die Produktivumgebung überführt.

Produktiveinsatz

In der Produktivumgebung wird das ML-Modell verwendet, um die Aufgaben zu erfüllen, auf die es im Modelltraining vorbereitet wurde. Dies kann beispielsweise die Klassifikation von Kreditanfragen bei einem Kreditinstitut sein, in der eine Anfrage in die Kategorien „kreditwürdig“ und „nicht kreditwürdig“ eingeteilt wird. Das ML-Modell führt hier für jede neue Kundenanfrage auf Basis der aus den Trainingsdaten abstrahierten Gesetzmäßigkeiten eine Klassifikation durch. Um diesen Erfahrungsschatz im Laufe der Zeit zu erweitern, lässt sich ein Nachtraining des ML-Modells durchführen [6, vgl. S. 445]. Dafür existiert eine Rückschleife des Prozesses in den Schritt der Modellerstellung, wo das Modell mit den erweiterten Trainingsdaten und eventuell angepassten Trainingsparametern nachtrainiert werden kann. Auch dieser Schritt lässt sich wiederholt durchführen, um das ML-Modell stets aktuell zu halten.

Video: The danger of AI is weirder than you think | Janelle Shane.

Machine Learning Nachvollziehbarkeit

Um zu gewährleisten, dass ein ML-Modell konform mit den Interessen des einsetzenden Unternehmens und regulatorischen Vorgaben ist, ist es erforderlich, über den kompletten ML-Workflow hinweg sicherzustellen, dass das Verhalten des ML-Modells nachvollziehbar ist.

Neben dem Begriff der Nachvollziehbarkeit von ML-Modellen existieren in der Literatur noch eine Reihe weiterer Begriffe, die Aufschluss über den Grad der Verständlichkeit von ML-Modellen durch den Anwender geben. Abbildung 6 ordnet die Begriffe der Interpretierbarkeit, Nachvollziehbarkeit, Erklärbarkeit und Transparenz nach dem Verständnis dieser Arbeit ein.

Die Interpretierbarkeit von ML-Modellen bezeichnet hier die am weitesten gefasste Bezeichnung über den Grad der Verständlichkeit eines Modells. Ist ein ML-Modell interpretierbar, aber nicht nachvollziehbar, so können die Vorgänge zwischen Ein- und Ausgabezwar in gewisser Weise verstanden werden, jedoch beinhalten sie unter Umständen keine schlüssigen Zusammenhänge, die den Anwender in die Lage versetzen, konkrete Gründe für ein Verhalten oder eine Entscheidung darzulegen.

Interpretierbarkeit lässt damit im Allgemeinen mehrere mögliche Gründe für ein Verhalten zu, während bei Nachvollziehbarkeit das Verhalten in einer schlüssigen Form begründet werden kann. Ist ein Verhalten oder eine Entscheidung nicht nur nachvollziehbar, sondern auch erklärbar, so werden vom gewählten Verfahren neben der Entscheidung selbst auch umfangreiche Begründungen dargelegt, die den Benutzer dazu befähigen, die Gründe, die zu einem Ergebnis geführt haben mit geringem Zweifel zu erklären. Transparenz bildet die detaillierteste und sicherste Form der Nachvollziehbarkeit. Ist eine Entscheidung oder ein Verhalten eines ML-Modells transparent, so kann der so bezeichnete Prozess zweifelsfrei und eindeutig nachvollzogen werden. Dies ist beispielsweise bei einfachen Entscheidungsbäumen der Fall, deren Entscheidungen sich durch einfaches Verfolgen des Entscheidungspfades zweifelsfrei und eindeutig nachvollziehen lassen. Um die Compliance eines ML-Modells zu gewährleisten, erfolgt an mehreren Stellen während des Trainings, aber auch während der Ausführung ein Monitoring des MLModellverhaltens und der Einflüsse darauf. Der ML-Workflow in Abbildung 5 stellt drei wesentliche Punkte dar, die für die umfassende Nachvollziehbarkeit eines ML-Modells relevant sind: (1) Transparenz bei der ML-Modellerstellung, (2) globale Nachvollziehbarkeit des ML-Modellverhaltens und (3) lokale Nachvollziehbarkeit von Entscheidungen.

Begriffe

Abbildung 6: Einordnung der Begriffe Interpretierbarkeit, Nachvollziehbarkeit, Erklärbarkeit und Transparenz.

Transparenz bei der ML-Modellerstellung

Bis zum Zeitpunkt des Deployments im ML-Workflow werden mit dem Feature Engineering, der Auswahl des ML-Algorithmus, dem Tuning der Trainingsparameter und der Auswahl eines ML-Modells für die Überführung in die Produktivumgebung zahlreiche Schritte durchgeführt, die Einfluss auf das Verhalten des ML-Modells haben. Werden im Rahmen des Feature Engineerings durch Feature Construction beispielsweise irrtümlich unzulässige Merkmale mit anderen Merkmalen zu einem neuen, künstlichen Feature kombiniert, so kann dies am fertigen ML-Modell nur sehr schwer oder gar nicht nachvollzogen werden. Daher ist es entscheidend für die Nachvollziehbarkeit des ML-Modells, den Prozess der ML-Modellerstellung transparent zu dokumentieren, sodass eventuelle Versäumnisse z. B. beim Feature Engineering auch zu einem späteren Zeitpunkt noch nachvollzogen werden können.

Globale Nachvollziehbarkeit des ML-Modellverhaltens

Bei Abschluss des Modelltrainings ist es erforderlich, vor der Überführung des ML-Modells in die Produktivumgebung nicht nur seine Performance hinsichtlich der gängigen Metriken zu prüfen, sondern auch zu prüfen, ob das Modellverhalten an sich den Erwartungen der Organisation entspricht.

Dazu bedarf es der globalen Nachvollziehbarkeit des ML-Modells, d. h. es muss ersichtlich gemacht werden können, welche Entscheidungen das Modell auf Basis verschiedener Werte der Eingabeparameter trifft. Ziel der globalen Nachvollziehbarkeit ist es, ML-Modelle mit unberechenbarem oder unerwünschtem Verhalten schon vor dem Deployment zu identifizieren, um negative Auswirkungen im Produktivbetrieb zu vermeiden.

Lokale Nachvollziehbarkeit von Entscheidungen

Um während des Produktivbetriebs eines ML-Modells getroffene Einzelentscheidungen nachvollziehbar zu machen, wie es beispielsweise bei der Rückfrage eines Kunden nach den Gründen der Zurückweisung seines Kreditantrags erforderlich ist, eignen sich die Methoden der lokalen Nachvollziehbarkeit. Diese versuchen zu erklären, aus welchem Grund genau das ML-Modell unter den gegebenen Eingabedaten eine spezielle Entscheidung getroffen hat. Ansätze zur lokalen Nachvollziehbarkeit von Entscheidungen durch ML-Modelle werden z. B. in [5] genauer untersucht.

Video: Künstliche Intelligenz vs. Machine Learning vs. Deep Learning.

Literatur

[1] Russell, Stuart J. et. al: Artificial Intelligence – A Modern Approach. London: Prentice Hall, ISBN: 9780136042594, 2010.

[2] Rimscha, Markus von: Künstliche Intelligenz. In: Algorithmen kompakt und verständlich: Lösungsstrategien am Computer. Wiesbaden: Springer Fachmedien Wiesbaden, S. 129–172. ISBN: 9783658186111, 2017.

[3] Borghesi, Andrea et. al: Anomaly Detection Using Autoencoders in High Performance Computing Systems. In: Proceedings of the AAAI Conference on Artificial Intelligence 33, S. 9428–9433. ISSN: 2159-5399, 2019.

[4] Ertel, Wolfgang: Grundkurs Künstliche Intelligenz – Eine praxisorientierte Einführung. Springer Fachmedien Wiesbaden, ISBN: 9783658135485, 2016.

[5] Cook, Darren: Practical Machine Learning with H2O: Powerful, Scalable Techniques for Deep Learning and AI. O’Reilly Media, 2017.

[6] Kavikondala, Akanksha et. al: Automated Retraining of Machine Learning Models. In: International Journal of Innovative Technology and Exploring Engineering, 8(12), S. 445–452, 2019.

Geschrieben von

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *