Ich war wirklich aufgeregt ob dieses tollen Gastes für diese Spezialfolge. Hoffentlich habt ihr beim Hören nur halb so viel Freude, wie ich beim Gespräch! Viel Spaß!
Seeehr interessantes Interview, vielen Dank dafür. <3
blöd gefragt: ist Portfolio Royal das richtige format für sowas? Ich fände so ein Offtopic format vielleicht gar nicht so blöd, dass über sowas redet.
noch nicht fertig gehört (als es mit dem Punkt auf der Stirn anfingt, habe ich aufgehört) und ich finde es super
Im übrigen wurde der Punkt-Versuch auch bei Elefanten wiederholt (vielleicht sprecht ihr es noch an, also entschuldigt) und man hat festgestellt, dass Elefanten im Zoo sich in der Spiegelung erkennen und den Punkt dann anfassen, während wildlebende Elefanten dies nicht tun. Ich weiß nicht ob der Grund mittlerer weile bekannt ist, aber einer der möglichen Gründe war, dass sich Elefanten im Zoo öfters ihren Spiegelbildern ausgesetzt sind.
Mochte diese Folge wieder sehr. Schön, dass jemand mal diesen overhypeten KI-Begriff entschärft, wenn es sich eigentlich (bislang) nur um high-speed-trial-and-error oder automatisierte Regelwerke handelt.
@Jagoda s Loriot-Sketch-Aufgabe ist gemein - aber hilft beim Kalibrieren des Satire-Detektors ^^. Nehme an, das ist die hier? https://www.dailymotion.com/video/x38rt75
Eine klitzekleine Ungenauigkeit war in der wieder mal sehr tollen Folge drin. Die Texte wurden mit GPT-2 geschrieben.
Wann ist @christianschiffer das nächste Mal außer Haus? Nicht das da noch jemand abkömmlich wird in Zukunft.
Gab es jetzt eigentlich mal einen Vergleich zwischen DeepBlue und AlphaZero? Mein letzter Stand war, dass die gar nicht Vergleichbar sind bezgl. der Rechenleistung und bei AlphaZero bzw. AlphaGo auch sehr viel getrickst wurde. Direkt gegeneinander angetreten sind die ja nie.
Es ist ohnehin interessant, weil Alpha— ohnehin gar nicht so eine Strategie spielt, wie andere Computer auch, da es die Gewinnwahrscheinlichkeit maximiert, nur die Art wie es auf die Strategie kommt ist anders. Am Ende ist es ohnehin auch eine Frage des Spielzug-Horizontes wie viele Bewegungen man überhaupt berücksichtigen will.
Coole Folge, Cooler Gast.
Wenn jemand komplizierte Themen vernünftig erklären kann, und das ganze dann noch mit humorvollen Formulierungen kombinieren kann, dann ist sowas immer sehr sehr super.
Zum Thema.
Steile These: Meiner Meinung nach hat die künstliche Intelligenz im Sinne von „Intelligenz“ in den letzten Jahren sogar eher Rückschritte als Fortschritte gemacht.
Früher (bis vor ca. 10 Jahren) hat man sich z.B. bei Maschineller Übersetzung noch daran versucht, den Rechnern sowas wie ein inhaltliches Verständnis über ein Regelwerk der Sprache beizubringen. Die Erfolge der neuronalen Netze in den letzten Jahren verzichten aber letztlich komplett auf diesen „Verständnis“ Ansatz. Die werden stattdessen einfach mit einem möglichst großen Textkorpus samt bekannter Übersetzungen gefüttert, und generieren daraus dann „Übersetzungs-Simulator“. Und das funktioniert an vielen Stellen verblüffend gut. Aber die Gefahr ist natürlich dass es gelegentlich auch total danebenliegt. Und man weiß nicht wann und wo, weil die „Regeln“ ja nicht explizit bekannt sind, sondern im Netz „verborgen“ enthalten sind.
Dieses „verborgen“ ist übrigens das „deep“ in „deep learning“. Hat erstmal nix mit „tiefgründig“ zu tun, auch wenn es sich in typischer „cool english wording“-Manier erstmal so anhört. Das „deep“ ist mehr Schritt 2 hier:
In gewisser Weise sind Rechner in den letzten 10 Jahren also eher dümmer geworden. Sie sind (Kraft der steigenden Rechenleistung) nur besser darin geworden, Intelligenz zu simulieren. Was erstmal auch überhaupt nicht schlimm ist. Wenn ich einen Rechner dazu bringen will eine, eine Aufgabe gut zu erledigen (wie Autofahren oder Texte zu übersetzen), dann soll er diese Aufgabe gut erledigen und nicht noch nebenbei die „Intelligenz“ entwickeln um sich mit mir über Kant zu unterhalten… Das sind einfach unterschidliche Dinge, die wir nur aus Formulierungs-Faulheit beides als Intelligenz bezeichnen. Das ist es glaube ich auch, was Mads in seinem Schlusswort meinte.
Fun Fact: Am derzeitige Erfolg der KI sind die Gamer schuld.
Denn Grafikkarten müssen in der Lage sein, viele ähnliche Operationen gleichzeitig auszuführen, um coole Spielszenen zu rendern. Und genau dafür wurden Grafikkarten (auch in Konsolen) immer weiter verbessert. Aber mit genau dieser Technologie kann man dann auch super neuronale Netze realisieren. Und damit verdient Nvidia sich gerade eine goldene Nase. (Und mit Bitcoin Minern. But I won’t honor them by discussing them)
Kann ich nur Zustimmen.
Was als KI verkauft wird, ist eine „stupide“ Mustererkennung, aber ohne Verständnis dahinter. Das schlimme ist ja auch noch, dass man von neu Anfängt (nicht ganz richtig, es gibt ja transfer learning), sobald man die Regeln ändert. Würde man beim Schachspielen Turm und König vertauschen, muss die Maschine neu antrainiert werden und man muss außerdem auch noch das gesamte Trainingsmaterial entsprechend anpassen.
Das hat nichts mit KI zu tun.
Genau. Wobei ich das nicht als so negativ empfinde. Wir haben halt eine Mensch-zentrierte Vorstellung von Intelligenz. Und Aufgabe von Rechnern (bzw. KI) ist es nicht, dieser nachzueifern. Wie so häufig hat der brillante Douglas Adams das bereits 1979 in Per Anhalter durch die Galaxis wunderbar beschrieben:
Es ist eine bedeutende und allgemein verbreitete Tatsache, daß die Dinge nicht immer das sind, was sie zu sein scheinen. Zum Beispiel waren die Menschen auf dem Planeten Erde immer der Meinung, sie seien intelligenter als die Delphine, weil sie so vieles zustandegebracht hatten – das Rad, New York, Kriege und so weiter, während die Delphine doch nichts weiter taten, als im Wasser herumzutoben und sich’s wohlsein zu lassen. Aber umgekehrt waren auch die Delphine der Meinung, sie seien intelligenter als die Menschen, und zwar aus genau den gleichen Gründen.
Kurz drüber nachdenken, bis es Klick macht. Sehr sehr cool. (Kann man auch schön auf die eigenen Haustiere anwenden.)
Jetzt können aber Delphine auch neue dinge lernen ohne altes zu Vergessen
Klar, man kann argumentieren, dass KI möglich ist, wenn man viele kleine KIs zusammen bringt die spezifische aufgaben können. Aber Effektives lernen können sie halt (noch) nicht und ist der schwierige teil der Forschung. Man muss ja auch zugeben, dass 99% was wir täglich so machen, genau genommen nur eine schöne Mustererkennung ist die restlichen 1% sind rauszufinden was man damit anfangen kann.
Adams bleibt Held meiner schlaflosen Tagträume. So ein schönes Zitat. <3
Zweiundvierzig. Für die Fragesteller eine enttäuschende Antwort - gegeben von Deep Thought, einer „KI“. Douglas Adams schildert in dieser Passage um Deep Thought einen entscheidenden Aspekt. Der Fehler liegt nämlich nicht in der Antwort.
Wenn der Umgang mit KI für Menschen nützlich werden soll, dann brauchen wir erstmal Ahnung, wovon wir noch wenig bis keine haben: Was ist die Frage und wie formuliert man sie treffend?
„Erst wenn ihr die Frage kennt, werdet ihr erfahren, was die Antwort bedeutet.“