War mir eine Freude.
Zu Recht. Es gibt mittlerweile ganze Netze von hastig aufgesetzten Blogs, die GPT-2 als Summary und Rewriting Generator eingesetzen; also automatisiert „Zusammenfassungen“ und Neufassungen von Texten aus eingespeisten Feeds generieren lassen. Es gibt ja mittlerweile auch eine API für GPT-3, … aber das funktioniert schon fast zu gut und würde nicht solche lustigen Brainfucks wie oben erzeugen.
Ich bin ja dafür, nach einer gewissen Zeit alle Forenposts, WASTED-Artikel und WhatsApp-Verläufe von Christian, Jagoda und mir in einen Mixer zu werfen, um daraus dann einen Bot zu basteln, der hier im Board kommentiert.
Ich hab jetzt erstmal das „Ich habe mehr Wörter als die Bibel“-Script von Disco Elysium in meinen K.I. Hexenkessel geschmissen aber deine Idee gefällt mir auch ausgesprochen gut…
Kann einem das Ding eigentlich auch in Minutenschnelle eine Doktorarbeit zuammenkleistern? Und zwar ohne dass einem die Spielverderber von Vroni- oder Guttenplag gleich die Ministerkarriere versauen?
Ja, das lässt sich durchaus machen. Zumindest eindeutige Plagiate dürften sich dann darin nicht finden lassen, wenn man die „heat“ - also quasi den „Mut“ und „kreative Freiheit“ der KI - entsprechend hochdreht. Aber du dürftest nicht erwarten, dass die Arbeit inhaltlich einen Sinn ergibt. Zwar können GPT-2 mit den entsprechenden Modellen und GPT-3 durchaus kohärent formulieren, so dass kein Unterschied mehr zu einem menschlichen Autor feststellbar ist. Aber natürlich „versteht“ die KI nicht, was sie da schreibt, sondern reproduziert lediglich „erlernte“ statistische Zusammenhänge, die im Rahmen ihres Models sinnig und homogen erscheinen – es sei denn, sie wurde explizit auf ein Fachgebiet hin-trainiert und kann entsprechend beispielsweise Namen von historischen Figuren zuverlässig mit deren Geburts- und Todesdaten verknüpfen.
Da nimmste lieber den Postmodernismus-Generator. Selbst wenn Du Deinen generierten Text jemandem vorlegst, der was davon versteht, hast Du noch genug Zeit, schnell wegzurennen.
„… und des Schnees oft nicht genug Wasser haben, sodass sie ihre Kälber mitbringen müssen“, sagt eine Quelle.
Und die kennt sich mit Wasser schließlich aus!
Wieder mal ein sehr schöner Artikel vom lieben Robby
Einfach nur großartig. Es wurde alles gesagt, was gesagt werden musste zu Microsoft und Activision. Danke Robby & Michael
Ich bin immer noch konsterniert ob der analystischen Schärfe, die Robby hier erneut an den Tag gelegt hat. Und ein wenig hoffe ich auf die nächste Mega-Übernahme, sodass Michael Robby wieder von der Leine lässt…
Man könnte gucken was Robby zur gescheiterten Übernahme von ARM durch Nvidia sagt
Kann man Robby dazu bringen transparent zu sein? Also die Verbindung zwischen z. B. Kasachstan, den Kühen und der Übernahme von Activision durch Microsoft zu zeigen? In der Medizin wird das häufig genutzt, damit nachvollziehbar ist, wie das Modell zu seiner Entscheidung kommt. Fände ich spannend.
Meiner laienhaften angelesenen Meinung nach ist ja genau dies das Riesenproblem an den ganzen „Deep Learning“-Dingen, dass man nicht genau weiß warum dies und jenes am Ende rausgespuckt wird. Aber @Michael weiß da bestimmt noch mehr und genaueres zum Thema.
Im weitesten Sinne stimmt das. Was eine „Künstliche Intelligenz“ (eigentlich ist eine KI weder intelligent, noch kann sie denken) tut, ist, in den ihr vorgesetzten Daten nach Mustern und statistischen Zusammenhängen zu suchen.
Was die KI bei GPT-2 treibt, ist etwa: die KI schaut sich Texte an und stellt fest, dass nach etwas, das wir als Substantiv bezeichnen oft ein Verb kommt. Oder, dass Texte meist mit einem Wort anfangen, das groß geschrieben ist. Oder, dass vor Substantiven manchmal Adjektive stehen usw. usf. Damit beginnt die KI zu „verstehen“, wie ein Text funktioniert. Im weiteren erkennt und speichert sie aber auch statische Auffälligkeiten, die wir als „Sinnzusammenhänge“ begreifen. Sei es so trivialer Kram wie, dass die Worte Schule und Schüler oft gemeinsam vorkommen. Oder dass, wenn von Xbox die Rede ist gerne in einem weiteren Satz die Worte Halo oder Playstation vorkommen. Je nachdem, wie intensiv und lange man die KI „lernen“ lässt, können diese statistischen Erkenntnisse unendlich tief und breit werden.
Die Sache ist: Was die KI genau lernt und wie sie das tut, davon haben wir keine Ahnung. Denn KIs sind eben dafür geschaffen, sich weitestgehend selbst einen Reim auf die Daten zu machen, die wir ihnen fortsetzen. Es sind in Teilen sehr dynamische Prozesse, da die Daten etwa durch mehrere Schichten von künstlichen Neuronen gefiltert werden. Und wir haben bislang keine Option „zu lesen“, was in diesen Neuronen an Mustern und Statistik ausgefiltert wird, „hängen bleibt“ und weitergereicht wird.
Dazu werden die destillierten Zusammenhänge in einem Model gespeichert, das für Menschen unleserlicher ist. Ein KI-Model wie für GPT-2 ist keine Datenbank in der drinsteht, „Alle Worte-X kommt Wort-Y“ oder so. Sondern es ist ein unbeschreiblicher und unleserlicher Wust von Werten auf die sich nur die KI einen Reim machen kann. Und bisher haben wir keine Technik, die es ermöglicht, solche KI-Modelle menschenlesbar oder optisch aufzubereiten oder eine KI zu fragen, wie oder warum sie irgendwas in einer bestimmte Weise tut.
Wir können KIs nur „bitten“ etwas zu tun und dann schauen, ob das für uns einen Sinn ergibt, was dabei rumkommt.
Das ist jetzt mal grob vereinfacht. Denn das KI-Black-Box-Prinzip ist irre komplex und so ganz peil ich es auch nicht.
Allerdings arbeiten Forscher mittlerweile verstärkt an Möglichkeiten, eine gut nutzbare explainable AI zu schaffen, also eine KI, die zumindest aufbereiten kann, wie und wieso sie zu einem bestimmten Ergebnis kommt – oder bei der es möglich ist, Daten mitzuschreiben, die eine KI für ihre Schlussfolgerungen einleitet. Dafür gibt es keinen einheitlichen Ansatz, sondern wahnsinnig viele Ideen.
Es gibt einige Methoden, die im Ansatz schon für bestimmte Anwendungsfälle so irgendwie okay-ish funktionieren. Beispielsweise Explainable Neuro Symbolic AI, die bereits für Bau- und Architektur eingesetzt wird und über eine Fähigkeit zum „reasoning“ verfügt – also Entscheidungen in rudimentärer Form argumentieren kann. Auch für das US-Militär wird schon an KIs gearbeitet, die etwa strategische Auswertungen „erklären“ können und derartiges. Aber wie das genau funktioniert, das übersteigt ehrlich gesagt meine Horizont.
Dem muss ich etwas widersprechen. Es ist schwer lesbar, aber es ist durchaus einsehbar und auch möglich es grafisch aufzubereiten. Bei text ist das natürlich nochmal etwas abstrakter, aber z.B. bei der Bilderkennung kann man in jedem Layer sehen welche Schichte sich aktiviert und welche Komponenten innerhalb der Schicht. Man sieht dann z.B. super die erkannten Kanten und das zurechtdrehen der Bilder usw.
Auch wie es lernt ist bekannt, weil es ja mathematisch definiert ist. Wie die genaue Gewichtung der Funktionen ist nicht vorhersehbar und auch nicht unbedingt nachvollziehbar, weil es eben auch stark Zufallsbedingt ist. Aber das ist auch gar nicht notwendig. Auch wählt man die Aktivierungsschichten entsprechend deiner Anforderung und hoffst, dass die auch wirklich passen. Wobei man auch sagen muss, dass es ein Glücksspiel ist ob die Schichten wirklich am Ende so funktionieren wie du es dir erhoffst und besteht hauptsächlich aus Trial&Error.
Ja, zu Recht. Vor allem was Bild- und optische Musterkennung angeht, das stimmt natürlich. Ich habe da etwas zu „absolut“ gesprochen und vielleicht zu sehr heruntergebrochen – und bin auch kein KI-Entwickler oder Experte, sondern nur ein Idiot, der sich nebenbei etwas damit beschäftigt. Daher Dank für den Widerspruch.
Freilich ist es dennoch so, dass wir nicht nicht das Verständnis einer KI vollständig nachvollziehen und lesen können. Aktuelle KIs folgen zwar mathematischen Prinzipien, aber was von der KI wie gelesen, gewichtet und dadurch später als Frame angelegt wird, das ist halt … naja, irgendwie „unentdecktes Land“, wie mir ein Entwickler mal gesagt hat. Das liegt oft auch an den Daten und deren Uneindeutigkeit, was vor allem bei Fotos und Grafiken der Fall ist.
Wobei man auch sagen muss, dass es ein Glücksspiel ist ob die Schichten wirklich am Ende so funktionieren wie du es dir erhoffst und besteht hauptsächlich aus Trial&Error.
Und das macht die Beschäftigung mit der Technik auch so spannend.
Das sind halt Vektoren mit tausenden von Zeilen voller Zahlen, natürlich ist das nicht lesbar aber das ist auch eigentlich irrelevant, weil das Prinzip einfach simpel ist und viele Daten und ohnehin eine Abstraktion. Würden wir wissen wie das geht, würden wir kein Deep Learning benötigen und könnten entsprechende Algorithmen entwickeln die optimierter sind
Das ist korrekt. ㅤㅤㅤ
Vielleicht ist das ja was fuer euch: