Seite 4 von 4

Re: Busting Big Data

Verfasst: 18. November 2018, 13:36
von Franz_Nord

Re: Busting Big Data

Verfasst: 18. November 2018, 14:55
von fehlgeleitet
danke für diesen aufklärerischen artikel, der schlägt ja in meine kerbe ;-P

Re: Busting Big Data

Verfasst: 24. Januar 2019, 15:11
von LordCaramac
Mein autoritär-marxistischer Ex-Mitbewohner findet ja immer noch China ganz großartig und würde sich wünschen, die ganze Welt täte sich China anschließen, weil seiner Ansicht nach nur eine harte sozialistische Weltdiktatur diese Zivilisation noch vor dem Untergang retten kann...

Re: Busting Big Data

Verfasst: 24. Januar 2019, 15:21
von Bwana Honolulu
Inkonsequent. Dann soll er lieber auf das Modell Nordkorea setzen. :uglevil:

Re: Busting Big Data

Verfasst: 26. Januar 2019, 01:48
von fehlgeleitet
LordCaramac hat geschrieben:Mein autoritär-marxistischer Ex-Mitbewohner findet ja immer noch China ganz großartig und würde sich wünschen, die ganze Welt täte sich China anschließen, weil seiner Ansicht nach nur eine harte sozialistische Weltdiktatur diese Zivilisation noch vor dem Untergang retten kann...
DKP?

Re: Busting Big Data

Verfasst: 26. Januar 2019, 03:39
von Bwana Honolulu
Nee, falls Lord Caramac das /dev/null des ddR meinen sollte, dann ist derjenige bei der Linken. Du kennst den auch vom Treffen im Unigarten, der zottelig-schmuddelige Kerl mit dem Märchenonkelgesicht, der auch letztes Jahr zufällig am Sektenberatungsstand vorbeischneite...

Re: Busting Big Data

Verfasst: 28. Januar 2019, 15:10
von fehlgeleitet
Habe in letzter Zeit viel zu OCR recherchiert und war überrascht, wie wenig die Technik kann. bei OCR geht es um Schrifterkennung. Also ich nehme mein Handy, fotografiere einen Text und habe dann eine editierbare Datei, zum Beispiel im txt format.

OCR Programme gibt es wie Sand am Meer, die Trefferwahrscheinlichkeit pro Zeichen liegt zwischen 80-99%. Geht es um die Korrektheit von ganzen Wörtern werden aus den 99% ganz schnell 95%. Das das ganze Dokument korrekt erkannt wird, ist entsprechend unwahrscheinlich.

Außerdem scheint jedes OCR Programm individuelle stärken und Schwächen zu haben, man kann sich also noch nichtmal drauf verlassen, für einen Batzen Geld ein zuverlässiges Programm zu bekommen.

Re: Busting Big Data

Verfasst: 14. Februar 2019, 22:42
von fehlgeleitet
Ich bin derweil der Frage was eine KI kann bzw. nicht kann etwas näher gekommen. Die besten KIs setzen auf "deep learning". Das hat was mit neuronalen Netzwerken (NN) zu tun, die sehen in etwa so aus:

Bild

Zuerst einmal: Ein biologisches Neuron ist sehr viel komplexer als ein solcher Knotenpunkt.

Jeder Knotenpunkt steht für eine mathematische Funktion der Form (wx+b)A(x), also links eine lineare Funktion (eine Gerade) und rechts einer sogenannten "Aktivierungsfunktion", die dafür sorgt, dass die Knotenpunkte des neuronalen Netzwerks zueinander inkommensurabel sind. Die Aktivierungsfunktion ist also irgendetwas nicht-lineares, zb der tangens hyperbolicus.

Ein solches Netzwerk hat noch keinerlei "Intelligenz", man muss das neuronale Netzwerk erst trainieren.

Angenommen wir wollen nun das NN darauf trainieren, Spammails zu filtern, dann hauen wir links eine (möglichst große) Menge Spammails rein, die bestimmte Merkmale aufweisen (zb Wörter, absenderadresse, betreff, Headerinformationen usw. usf, genauere Infos braucht man nicht, man kommt also ohne jede Semantik aus) und sagen dem Netzwerk gleichzeitig, ob es sich um eine spammail oder nicht handelt. Dementsprechend ändert das NN dann die Gewichtungen der einzelnen Knotenpunkte, erhöht/verringert also das "W" bzw. das "b".
Je mehr Daten, desto genauer wird die Ausrichtung des NN.

Danach lassen wir unser NN auf einen Testdatensatz los, der ihm bis dahin unbekannt ist und schauen ob das NN den weitgehend richtig zuordnet.

Passt alles sind wir auf dem richtigen weg, gibt es eine große Differenz zwischen Trainingsdatensatz und Testdatensatz liegt wahrscheinlich "overfitting" vor, dasss NN hat sich zu sehr auf den Trainingsdatensatz eingeschossen und fährt mit Scheuklappen durch die Gegend. Dannn müssen wir herumoptimieren und das Spielchen wiederholen.

Auf dieser Technologie basiert also der ganze Big Data Krams, und jederman kann mit Anleitung in Phyton oder R ein NN trainieren, das recht zuverlässig Katzenbilder erkennt. Oder er packt ein Framework wie Tensorflow drauf und macht sich die Arbeit noch einfacher. Alles kann das NN allerdings nicht - Gesichtserkennung braucht ne Menge Rechenpower und feinste Technologie, google hat das ne Menge auf dem Kasten und rückt es nicht raus. Jeder der was brauchbares produziert bleibt wohl auf seinem Wissen sitzen.

Natürlich lassen sich auch verschiedene NN zusammenschalten etc pp. Vieles ist allerdings Inginieursmathematik, es hat also wenig mit System und viel mehr etwas mit herumprobieren zu tun. Viele Methoden werden also einfach benutzt, ohne dass der Programmierer versteht was er da macht. Jedenfalls überblickt der Demiurg sein Werk nur teilweise.

Re: Busting Big Data

Verfasst: 16. Februar 2019, 03:13
von fehlgeleitet
So, 2. Teil der neuronalen Netze(NN).

Also ich bleibe noch eine Antwort auf die Frage schuldig, wie das NN seine Fehler korrigiert. Das passiert folgendermassen: Das Ausgangssignal des Trainingsdatensatz wird in eine Kostenfunktion eingesetzt. Die Kostenfunktion ist eine Metrik (ein Maß), die die Abweichung der Vorhersagen des NN von den "echten" Werten zu messen.

In der Naturwissenschaft wählt man zum Beispiel häufig die Methode der kleinsten Quadrate, um eine Funktion durch ein paar Messwerte zu legen:

Bild

Dies habe ich aber nur der Anschaulichkeit halber hier rein gestellt, unser Verfahren funktioniert nämlich ein wenig anders: Und zwar rechnet man das Optimum einer solchen Funktion für mehrere Dimensionen mithilfe eines Gradienten aus.

Bild

Also umgangssprachlich bildet man die Ableitung der Kostenfunktion in jede Dimension und versucht dann in Richtung der größten Senkung vorzustoßen:

Bild

Mit der "learning_rate" alpha gibt man die Geschwindigkeit an, mit der man Vorzustoßen gedenkt. Dann ändert man Wx+b des entsprechenden Layers und wendet dann das Verfahren iterativ auf die vorherigen Layer an. Lokale Minima stellen bei großen Dimensionen wenig Probleme da, da mit der Anzahl der Dimensionen die Wahrscheinlichkeit sinkt in einer Sackgasse zu landen.

Die Anzahl der Dimensionen wird durch das Ausgangssignal bestimmt.

Fügt man der Neugewichtung noch ein wenig "zufall" hinzu, ist ziemlich ausgeschlassen, dass die Funktion irgendwo hängen bleibt, da sie quasi hin und her schlingert.