Welche Dramen ereignen sich eigentlich hinter den Kulissen bei den Machern der Technologie von morgen ab! Elon Musk warnt vor den Gefahren von künstlicher Intelligenz. Mark Zuckerberg bezeichnet das als „unverantwortlich“ bis er wenige Tage später eine Künstliche Intelligenz von Facebook vorsichtshalber abschalten muss, weil sie eine Geheimsprache entwickelt hat, die wir Menschen nicht verstehen. Es wird also höchste Zeit gesetzliche Regelungen zu finden, um die Forschung zu kontrollieren.

Anlässlich der aktuellen Entwicklungen zu diesem Thema veröffentlichen wir heute in unserer Facebook Gruppe „Chief Digital Officers“ und über unserem Messenger Service den brandneuen Ratgeber als E-Book mit dem Titel: “Künstliche Intelligenz ist ein alter Hut! In Zukunft verbindet Neuralink Menschen mit Maschinen.“

Wie “Fast Co. Design” berichtet, haben Facebookforscher ein AI-System abgeschaltet, als sie realisierten, dass sich zwei Bots in einer Sprache „unterhielten“, die für uns nicht verständlich ist. „Bob“ und „Alice“ waren ursprünglich auf Englisch trainiert worden. Doch sie entwickelten mit der Zeit eine eigene, effizientere Sprache.

Die beiden Bots sind mittlerweile mit optimierten Systemen wieder in Betrieb. Sie müssen jetzt Englisch sprechen und dürfen nicht mehr davon abweichen. Zusätzlich wurden die Antworten der Bots analysiert und man hat festgestellt, dass es sich um Abkürzungen gehandelt haben muss, die die Sprache der beiden effizienter machte. Diese Optimierung der Sprache lässt sich auch in menschlicher Kommunikation finden, wenn beispielsweise Experten untereinander Abkürzungen verwenden, um sich schneller zu verständigen. Es war eine sehr menschliche Anpassung, um die Leistung zu steigern und die Anstrengung zu minimieren – etwas, was sonst nur das menschliche Gehirn auszeichnet.

Freut euch auf eine neue Folge von The Art of AI mit Florian Schild.

Viel Spaß dabei!

 

Shownotes

 

Podcast-Interview in Textform

Norman: Florian, schön dass du wieder dabei bist, heute hier zu einer brandneuen Folge von The Art of AI. Wie geht es dir?

Florian: Sehr gut, vielen Dank. (beide lachen). Ich hoffe dir geht es auch gut Norman?

Norman: (lacht) Das haben wir eigentlich schon geklärt im Vorgespräch, wie immer (beide lachen). Aber ich fand das immer schon lustig als Einstieg.

Florian, für alle die, die gestern erst unseren Podcast abonniert haben, vielleicht stellst du dich in ein paar Sätzen vor. Was machst du so?

Florian: Ich bin experte für Künstliche Intelligenz. Seit meiner Jugend beschäftige ich mich mit der Künstlichen Intelligenz. Seit fast acht Jahren beschäftige ich mich mit dem Entrepreneur, das habe ich zusammengebracht dieses Jahr in eigener Campina, die sich eben mit der Thematik der Künstlichen Intelligenz beschäftigt. Wir bezeichnen uns selbst als One-Stop-Shop für Künstliche Intelligenz. Wir sorgen dafür, dass der deutschsprachige Raum näher zusammenrückt, um mehr über Themen zur Thematik der Künstlichen Intelligenz sich zu unterhalten. Das heißt, ich bin jemand, der sich sehr stark für Technik interessiert, aber auch die gesellschaftlichen Fragen nicht außer Acht läßt.

Norman: Was ich auch sehr wertvoll finde ist, dein oder euer Angagemour zum Thema Community-Aufbau. Vielleicht sagst du noch ein oder zwei Sätze zum Thema boot-AI. Was das ist?

Florian: Wir sind ein One-Stop-Shop für Künstliche Intelligenz, das heißt, wenn irgendwelche Fragen zur Künstlichen Intelligenz auftreten oder irgendwas implementiert werden soll, dann haben wir das Know-How dafür. Wir haben mittlerweile schon ein großes Team an Entwicklern, die zu jeglichen Fragen Antwort stehen. Aber wenn es darum geht, irgendetwas mit Künstlicher Intelligenz anzuwenden, dann haben wir die Expertise, um die Sachen auch wirklich zu implementieren oder umzusetzen. Sei es zum Beispiel von Chatboard zum intelligenten Crawler oder zum Dashboard, um übersichtliche Informationen aus dem Internet zu extrahieren oder bildgebende Verfahren und so weiter.

Norman: Dann Florian lass uns einsteigen. Wir haben heute den - wie du gesagt hast - reißerischen Titel gewählt: “Die apokalyptischen Auswirkungen künstlicher Intelligenz” (beide lachen). Und zwar gab es ein kleines Wortgefecht auch via Twitter zwischen Elon Musk und Mark Zuckerberg, die sich dort so ein bisschen ausgetauscht haben. Der Elon meinte “hey, seid vorsichtig mit dem Thema KI, es müssen gesetzliche Regelungen geben um die Forschung zu kontrollieren”. Der Mark Zuckerberg bezeichnete es als unverantwortlich und eher negativ. Er musste ein paar Tage später seine Facebookforscher beauftragen, sein eigenes Artificial Intelligenz System abzuschalten, weil sich zwei Bots, nämlich Bob und Alice auf einmal unterhalten haben, was wir Menschen nicht verstehen konnten, weil das in einer eigenen Sprache stattfand. Mittlerweile hat man herausgefunden, dass dieser Dialog der dort entstand, durchaus in englisch war, aber die beiden Bots Abkürzungen verwendet haben, um einfach Energie zu sparen, um sich schneller austauschen zu können, was eher eine menschliche Eigenschaft ist.

Meine erste Frage an dich Florian: Wie kann man KI kontrollieren und wie können die überhaupt außer Kontrolle geraten? Das finde ich echt abgefahren.

Florian: Ich muss gerade erst einmal schmunzeln, weil du gerade gesagt hast, dass sie energiesparend kommunizieren. Das würde ich mir bei manchen WhatsApp-Chats auch wünschen, dass ich verkürzte Nachrichten hätte (beide lachen).

Die Frage ist eigentlich, Mark Zuckerberg und Elon Musk. Da fängt jetzt die schwarz-weiß-Malerei innerhalb der USA an, das heißt, es gibt so, wie im Hacking auch, ein Blackhead und ein Whitehead. Was ich so im Hintergrund auch mitbeobachte ist, warum neben diesen Szenarien die KI wirklich gefährlich sein sollte. Die Motivation dahinter ist das Geld. Wenn man sich einmal anschaut, wie man eine Marktwirtschaft oder ein Wirtschaftssystem am laufen hält, dann versucht man eigentlich immer zwei Gegenpole zu haben, um die ganze Zeit hin und her zu spielen. Das ist wie in der Politik, um in einer pendelnden Bewegung zu sein. Das sehe ich bei Musk und Zuckerberg genau so. Der Trend in der USA ist aktuell, Forschungsgelder damit zu gewinnen, indem man sagt: Okay, wir müssen eine KI haben, die gegen eine mögliche - wie du im Titel sagst -  Apokalypse  auch antreten kann. Das heißt, wie dämmen wir es ein? KI-World ist nicht mehr zu fassen, es wird alle Menschen beherrschen und so weiter. Das hat einfach den Zweck, dass die Regierung, Gelder frei macht. Das ist ein Fakt! Was ich bei Elon Musk auch vermute und das ist auch meine persönliche Meinung, ist, dass er eben mit diesen ganzen Space-Projekten und der ganzen Infrastruktur mit Autos, viel erreichen will. Er will das ganze Transportsystem revolutionieren und auch gerne so ein bisschen Mitspracherecht im politischen Bereich haben. Das kann ich mir gut vorstellen. Wenn er so etwas sagt, dass ist dann eben der Fuß sozusagen, auch wenn es nicht gerade der direkte Fuß für Transportation ist, sondern eher zur KI. Er will sich irgendwie im politischen Bereich langfristig etablieren und ich glaube, dass ist strategisch was er da macht.

Ich persönlich tendiere eher zu Mark Zuckerbergs Meinung, dass die Künstliche Intelligenz in der Hand der Gesellschaft liegen sollte. Hier müssen wir uns quasi bemühen, die Gesellschaft aufzuklären, dass die einfach mitsprechen kann. Ich denke, dass ist keine Lösung, wenn wir jetzt nur Künstliche Intelligenz in der Industrie haben oder beziehungsweise die Leute, die jetzt den Markt zerstören werden, einfach in dem Sinne KI entwickeln und dann Marktherrschaft zu erlangen. Wenn wir jetzt Google nehmen: Es wäre schwer, wenn da ein kleiner Player kommt und ähnlich viele Daten sammeln kann, was die Websuche angeht. Dass wir da hingehen und dass wir die Menschen wirklich aufklären, dass diese mitreden können und selber gestalten können, was Künstliche Intelligenz kann und wie es trainiert werden kann und wie sie auf die Gesellschaft reagiert.

Norman: Wie würdest du sagen, wie könnte die Gesellschaft in die Lage kommen mitreden zu können? Ich meine, das, worüber wir hier reden ist schon einmal schwer vorstellbar, geschweige denn ohne Expertenwissen überhaupt unmöglich einen aktiven Dialog zu führen. Ist es ein Thema, wo du sagst: “Hey das muss eigentlich so schnell wie möglich in den Lehrplan der Schulen oder an die Universitäten. Oder es muss Foren oder Communitys geben, oder vielleicht sogar ein Gremium? Vielleicht gibt es nicht nur die Wirtschaftsweisen oder noch Consultants oder sonst was. Also ein Gremium, dass dann im Interesse der Gesellschaft mit spricht und auch mitentwickelt mit den Unternehmen.

Florian: Du sprichst was interessantes an, als du es gerade gesagt hast, sind mir die Schuppen von den Augen gefallen. Und zwar Bildung! Das ist der Knackpunkt: Die Menschen müssen gebildet werden! Es sollte jetzt nicht jede Bäckersfrau oder jeder Maler wissen, wie die Technologie der KI im Detail funktioniert. Es geht tatsächlich um Bildung. Aber hier haben wir den ersten Knackpunkt, zumindest in Deutschland. In den nordischen Ländern, Norwegen, Schweden und so weiter, sieht es anders aus. Wir haben eine sehr starke Bildung, die darauf ausgerichtet ist, für die Industrie, eigentlich vom Militär zur Industrie, die Gesellschaft dahin zubringen, gute Arbeiter zu werden. Wir haben alleine in der Bildung schon das Problem, heutzutage. Da tut sich einiges, ich weiß, aber wir haben immer noch starre Systeme, die ein richtiges persönliches Lernen nicht zulassen. Digitale Lehre sollte zumindest mittlerweile in der Sekundarstufe I angefangen zu lernen, sodass jeder weiß, was digitales Leben bedeutet. Was passiert mit meinen Daten? Wie kann ich mich vor irgendwelche AGB schützen, die im Internet sind? Allgemein eine digitale Expertise sehe ich als Grundstein in jedem jeglichen Lehrplan. Was aber leider nicht ist, sondern noch schlimmer noch. Ich habe mich letztes noch mit einem von RTE Aachen unterhalte, der Kontakte mit den Informatikstudenten hat. Er hat gefragt, ob bei denen denn Machine-Learning oder Künstliche Intelligenz allgemein vorkommen würde. Man kann da wohl Zusatzmodule wählen, aber es ist jedoch kein allgemeines Grundlagenfach vorhanden. Zum Beispiel Machine-Learning: Wie funktionieren automatisierte Algorithmen? Das im Jahr 2017 finde ich ein bisschen kritisch. Das ist jetzt nicht in jeder Universität so, in Heidelberg zum Beispiel ist es nicht so. Man sollte schon überlegen: a) die Allgemeinheit, das wäre dann die Gesellschaft. Da sehe ich es überhaupt schwer, sagen wir einmal Zeitkomformes von den letzten fünf Jahren, irgendwas modernes in die Schule zu bringen. Bishin zu, dass wir jetzt was ganz aktuelles, was sehr schnell uns überrollen wird, nämlich die Künstliche Intelligenz oder Algorithmen oder überhaupt das digitale Zeitalter ist, da und wir sind mitten drin, bis hin zum, dass wir die Experten haben und selbst bei den Experten, die sich mühsam zum Beispiel selbst einlesen, oder indem sie Spezialwissen aufbauen oder spezielle Module wählen, nur da sich dieses Wissen aufbauen können. Das finde ich ein bisschen fatal, dass quasi so ein Grund ein Basiselement sein wird. Intelligente Systeme werden in der Zukunft genau so andockbar sein, wie man damals an eine Maschine Strom angeschlossen hatte. Ich glaube Andrew Engy hat das damals gesagt, für ihn ist sozusagen Künstliche Intelligenz das neue Level von Elektrizität. Ich sehe das ganz ähnlich.

Norman: Das wäre im Grunde der eine Teil der Klammer und der andere Teil der Klammer, den ich gerne ergänzen würde wäre, dass jedes größere Unternehmen irgendwie einen Aufsichtsrat hat, vielleicht ein Beirat oder so etwas. Ich könnte mir vorstellen, dass es vielleicht auch für jedes Land so ein Aufsichtsratsgremium geben würde, mit digitalen Kompetenzen, sodass man wirklich auf diesem wahnsinnig hohen Technologielevel auch mitreden kann. Mit einem Elon Musk und den ganzen Vertretern der Entwickler, die da an KI arbeiten. Tatsächlich auch einen direkten Dialog einzutreten, um wirklich im Fokus das Interesse der Gesellschaft zu haben. Also weg von Unternehmensinteresse, sondern hin zu: Wie kann uns eine KI wirklich helfen?

Wir arbeiten jetzt beide zusammen im Bereich Digital Health, also wie kann eine KI Krebs heilen, als Beispiel. Das wäre wieder so ein gesellschaftlicher Fortschritt und ein gesellschaftlicher Mehrwert. Ich glaube, ohne so ein Board, wenn ich es mir anschaue, würde es für unsere Politik  (völlig wurscht, welche Partei), die tatsächlich über digitale Kompetenzen verfügt, in so einer Ausprägungsstufe um sich mit solchen Leuten auf so einem Level zu unterhalten, eng werden.

Florian: Die erste Frage ist, wie können wir es regulieren und brauchen wir einen TüV für Künstliche Intelligenzsysteme? Ich kann das verstehen, aber ich würde erwarten, dass zeitgleich auch die Frage gestellt ist: Wie funktioniert das genau und wie kann man das fördern? Wie kommen wir voran? Ich sehe hier schon wieder direkt diese Gefahr, also eher so eine Angst vor dieser ganzen Technologie und auch ein bisschen die Müßigkeit. Man besitzt einfach nicht die Energie oder man ist nicht wirklich interessiert, sich da wirklich einzuarbeiten, weil man gar nicht die Gefahr sieht, wie schnell das eigentlich einen überrollen kann.

Norman: Für alles mögliche gibt es einen Führerschein. Wenn du in Deutschland Auto fahren willst, brauchst du einen Führerschein. Wenn du einen Hund hast, der auf einer schwarzen Liste ist, brauchst du einen Hundeführerschein. Vielleicht brauchst du in Zukunft auch einen KI-Führerschein, mit dem du nachweist, dass du in der Lage bist, so eine KI tatsächlich zu beherrschen. Das ist jetzt genau der Punkt, an dem ich nochmal zurück möchte, diese Beherrschung einer KI. Wie kann es sein, dass zwei Bots, Bob und Alice auf einmal anfangen einen Dialog zu führen, der nicht durch Menschenhand initiiert ist und diesen Dialog auch noch optimieren, indem sie eine Sprache wählen, die nur sie verstehen, um sich effizienter auszutauschen? Wie geht das?

Florian: Es kommt immer darauf an, was für ein Ziel die KI besitzt. Ich habe jetzt die Insides nicht dafür. Ich muss jetzt ehrlich sagen, dass ich mich in Alice und Bob nicht eingelesen habe, ich habe das in den Zeitungen nur Headlinemäßig verfolgt. Aber wenn das zum Beispiel eine KI ist, die Kommunikation zwischen zwei Server optimieren soll oder Facebook hat sehr viele allgemeine Datenbankabfragen und Schnittstellenabfragen, zwischen Computern und so weiter, kann es sein, dass es dahingehend optimiert sein soll. Dann macht es Sinn, jegliche Spyt oder jedes einzelne Bit zu sparen. Das heißt, da würde es quasi die Aufgabe erfüllen, eventuell in nicht mehr Menschen lesbaren Code ist, dass es keine ASCII-Zeichen mehr verwendet, sondern du hast vielleicht nur noch Nullen und Einsen und soetwas. Dann hätte die KI ihre Aufgabe gut gemacht. Ich könnte nicht sagen: Okay, sie ist eigentlich gefährlich. Wenn sie allerdings die Aufgabe hat, in allen Sprachen der Welt  zu kommunizieren und sei es nicht über Facebook, sondern über Google. Google hatte eine ähnliche Nachricht vor zwei Jahren, als die Google-Translation verbessert wurde. Da hatten wir das gleiche Phänomen und zwar hatte Google eine Sprache, die kein Mensch versteht, aber alle Sprachen auf der Welt voll kombiniert. Das macht auch Sinn, weil es auch eine KI gibt, die alle Sprachen managt und versucht, gleich alles zu verbinden. Es ist eine Schnittstelle, die dann versucht händeringend alle Anfrage bestmöglich zu bedienen. Dass das wie ein Außerirdischer wirkt, wirkt auf mich nicht komisch. Die Frage ist nur, was ist der Output davon, wenn beide sich unterhalten und dann quasi einen Plan schmieden? Das ist die Gefahr. Aber das sehe ich gerade überhaupt nicht. Wobei es da wieder Menschen gibt, die das sagen - und das kann ich irgendwie auch verstehen - dass, wenn sie es machen würden und so intelligent sind, dann würden wir es gar nicht mitbekommen. Die wären dann intelligenter als wir und die könnten vorhersehen was und wie wir denken. Sie wüssten, was wir wüssten und könnten so einen Schritt voraus planen. Wir würden gar nicht bemerken, dass ein Plan über uns gemacht werden würde.

Im Umkehrschluss könnte man sagen, es gibt irgendetwas größeres in der Natur, was uns auch schon bestimmt und da sind wir wieder bei der Diskussion, die auch in der Philosophie schon lange geführt wird: Gibt es den Zufall oder gibt es ihn nicht? Da komme ich auch wieder zur Physik, weil ich auch das studiert habe. Rein physikalisch betrachtet ist es interessant, wenn wir jetzt bei dieser Urknalltheorie bleiben und man sagt, es gibt diesen Knall und alles ist explodiert. Das würde heißen, wenn wir die Zeit einfrieren würden in diesem Augenblick, dann könnten wir - wenn wir die Messinstrumente hätten - in jedem Moment sagen, was war alles in der Vergangenheit und was wird in der Zukunft passieren. Dies wäre möglich, wenn wir nur bei den physikalischen Gesetzen bleiben würden. Wenn man das jetzt explizit auf die Künstliche Intelligenz überträgt, könnte die Künstliche Intelligenze diese Theorien lernen und könnte sagen, was in der Zukunft  passiert.

Norman: Das ist sehr spannend, weil der Umkehrschluss würde ja auch bedeuten, dass wir vielleicht schon infiltriert wurden von der Künstlichen Intelligenz. Was ich sehr spannend finde und da unterscheidet sich das glaube ich, ob man Experte ist in Sachen KI oder nicht ist. Ich hatte schon ein Gänsehautmoment, weil ich hatte überlegt: “OK, da schaltet irgendein Facebookforscher ihr KI-System ab”. Wann machen wir das Florian? Ich ziehe den Stecker von einem Rechner, wenn ich eine E-Mail rausgeschickt habe, die ich gar nicht verschicken möchte und gar nicht so schnell reagieren kann, um den richtigen Knopf zu finden und ziehe einfach panisch den Stecker, weil ich der Situation nicht mehr Herr werde. Das stelle ich mir halt bei so einem System einfach mal vor, dass, wenn man was abschaltet, es deaktivieren muss, man vielleicht überhaupt keine Ahnung hat, wieso aufeinmal ein Dialog zwischen zwei Systemen entstehen kann. Das finde ich emotional so ein Thema, wo ich sage: “Ey, wisst ihr überhaupt was ihr da tut?”

Florian: Ist die Frage jetzt, wann wir den Stecker ziehen oder ob es noch überhaupt geht, dass man den Stecker zieht?

Norman: (lacht) Das ist eine gute Frage.

Florian: Ich habe auch eine lange Zeit gedacht, okay gut, ich schalte mal alles ab, dann habe ich einmal einen Abend mit jemanden rumgesponnen. Zum Beispiel bei Rechenzentren gibt es diese Notstromaggregate. Es gibt einmal so USV, das sind so Stromversorgung in Form von Batterien, aber ganz gute Rechenzentren haben noch weitere Alternativen, Energieressourcen, als Beispiel Dieselaggregate. Was wären dann tatsächlich selbstfahrende Fahrzeuge, selbst Ölplattformen, die quasi selber es regulieren? Das Fahrzeug dockt an, holt das Öl ran und muss noch zur Raffinerie. (beide lachen). Aber wenn das wirklich alles Automatisiert wäre und man wirklich die Stromzufuhr automatisiert hätte, dann würde es zumindest, so lange es noch Ressourcen auf dieser Welt gibt, diesen Kreislauf automatisiert fortführen können. Wobei natürlich der LKW wird sich abnutzen, er muss gewartet werden und so weiter. Selbst wenn es dafür Roboter geben würde, dann wäre das denkbar. Aktuell sehe sich das momentan nicht, dass wir das System abschalten und dass dann weitere Rechner sich wieder selber einschreiten. Aber zumindest in der Zukunft wäre es denkbar, wenn wir diese Energieversorgungskette automatisiert hätten.

Norman: Sag mal, zum Thema: Wie kann ich mir vorstellen, wie intelligent Systeme tatsächlich sein können? Jetzt hast du für das Militär gearbeitet, wir wissen, dass im Militär sehr viele Dinge schon entwickelt sind und werden erst viele Jahre später in den Privatgebrauch gehen. Wir glauben jetzt, dass es total toll ist über Google-Maps zu schauen, auf unser Haus, auf unsere Wohnung oder was auch immer. Das Militär hat Live-Bilder aus dem All. Es ist jetzt nur die Frage, wann wir über Google-Maps schauen, ob wir die Markise eingefahren haben oder nicht. (beide lachen). Hast du so ein paar Beispiele, die du sagen oder über die du sprechen darfst, wie intelligent Systeme heute schon sind?

Florian: Mit der Markise musste ich gerade schmunzeln. Du kannst theoretisch auch, - wenn du bei dir zu Hause einen neuen Schokoriegel oder so etwas hättest und jetzt im Urlaub bist und jetzt die Verbindung hast - die Zutatenliste auf diesem Schokoriegel lesen. So detailliert sind die Kameras heutzutage. Man kann wirklich kleine Schriften, Beipackzettel oder so etwas, mittlerweile auch schon Sachen aus dem All erkennen.

Norman: Wer? Das Militär?

Florian: Die Kameras, sind so gut aus dem All. (beide lachen)

Norman: Meine Frage hat sich erübrigt, klar (lacht)

Florian: Ich wollte dich gar nicht korrigieren. Viele denken, dass ist immer verpixelt, man sieht sowieso nur Menschen ein bisschen laufen, aber es ist halt super detailliert. Die zweite Sache ist, dass ich 2006 die erste Anwendung von KI hatte, also ich hatte Zugang in den Forschungsbereichen.Vor der Universität hatte ich den Zugang schon und da hatte ich das erste KI-System gesehen, nämlich Roboter. Ich weiss nicht mehr, welcher Hersteller es war, es ist auch gut, dass ich es nicht weiß. Da gab es schon dieses Verfahren, also so ein Kamerasystem, was erst einmal zwischen Menschen und dann zwischen Feinden und nicht Feinden unterscheiden konnte. Es war ganz einfach, man hat nur eine Binde angehabt, so eine reflektierende mit UV-Strahlung und daran konnte man erkennen, wer der Feind und wer nicht der Feind ist. Erst wurde der Mensch erkannt und dann wurde klassifiziert, Feind und nicht Feind. Es war auch richtig schön, das Szenario zu sehen. Das war in Form eines Videos, das man auch rote und grüne Markierungen hatte, ob es dann Feind und nicht Feind ist. Es ist ein Waffensystem gewesen. Ich meine, das kann man im Internet noch einmal nachschauen, also Roboter Sentinella oder so hieß das. Müsste man nachgoogeln. Auf jedenfall gibt es ein Waffensystem schon aus der Vergangenheit. Es ist super interessant, das jetzt mal anzuwenden, auch heute, wo in der Öffentlichkeit angefangen wird, so Katzen und Hundevideos zu analysieren. Das ist jetzt auch schon vier Jahre her.

Norman: Ich meine, wir reden über 10/11 Jahre, die vergangen sind, seitdem diese… Aber war es tatsächlich eine Software-Intelligenz in den Kamerasystemen, die Objekte erkennen oder?

Florian: Ne, ne, es sind verschiedene Kameras, wie zum Beispiel Infrarotkameras, Wärmebildkamera, normale Kameras oder auch zwei Kameras. Das war angebracht und letztendlich ist es an einem Laptop oder Computer angeschlossen. In dem Fall hat man jetzt den Roboter, extern hat man einen Laptop, aber innen drinnen gibt es eine Computereinheit, die natürlich dann ohne äußere Einwirkung durch die Gegend rollen und dann die Funktion ausführen könnte. Du könntest zum Beispiel sagen - dafür war er gebaut - : rolle durch das Feld, erkenne Feinde und nicht Feinde und erschieße alle Feinde. So einfach ist es. Das Ding ist aus Stahl, gepanzert, fährt 12 Stunden und viel Spaß damit. Wenn du halt nur ein Gewehr hast, kannst du dagegen nicht viel ausrichten. Rumschubsen kannst du es nicht, da musst du erst einmal dran kommen. Das Ding ist definitiv gefährlich. Das ist jetzt schon 10-12 Jahre her. Man kann sich vorstellen, das sind fliegende Waffensysteme, unbemannte Drohnen, die im Luftraum fliegen. Man kann sich das einfach schon vorstellen, was da an alternativen Aufgaben noch gelöst werden können.

Norman: Ich glaube das System ist eigentlich gar nicht so gefährlich, sondern der, der das ganze Steuert, bzw. der die KI dahinter kontrolliert. Da sind wir dann schon in einer Frage der Regulierung: Wer darf das kontrollieren. Ist es eine Supermacht? oder ist es vielleicht der Hacker, der irgendwo sitzt. (lacht). Blackhead, der sich dann auf so ein System einhakt, wo wir doch immer sagen, es gibt kein sicheres System.

Florian: Ja, definitiv, vor allem das Häcken ist mittlerweile nicht mehr das klassische hacken, dass man ein Netzwerkkabel nimmt und  baut einen Trojaner. Es ist teilweise super langfristig geplant zum Beispiel, dass man tatsächlich einer Hardware ausgeliefert wird, dass man da schon so Backdoors installiert. Das sind zum Beispiel auch isolierte Systeme, die sind gar nicht mehr mit dem Internet verbunden, die haben gar keine Schnittstellen, man kann einfach einen Stecker reinstecken und so weiter. Die sind tatsächlich so auf die Platine gebrannt und so weiter. Da gibt es auch Verfahren, dass man solche geschlossene Systeme auch häcken kann. Das heißt, dass du hinterher mit bestimmten magnetischen Signalen Sachen übertragen kannst oder dass du mit Hilfe von Lautsprechern auch Signale übertragen kannst. Das ist zum Beispiel was, was viele außer Acht lassen. Was war die Ursprungsfrage? (lacht)

Norman: Die hast du eigentlich schon beantwortet. Irgendwie hat es mich zu der nächsten Frage geführt. Dass heißt im Grunde, dass die Gefahr gar nicht so sehr von der KI selbst ausgeht, sondern eher von der Gefahr, dass sie vielleicht von Menschen übernommen wird, die finanzielles Interesse haben oder andere niedere Beweggründe verfolgen. Das zum Beispiel, ob das jetzt ein Waffensystem ist oder ob das jetzt eine Facebook-KI ist, dass es von Menschen übernommen wird, also die Gefahr von Menschen ausgeht.

Florian: Definitiv, also die Frage ist: Wie stark kann ein einzelner Mensch es regulieren? Aber da gibt es wieder die Schwarmintelligenz. Wenn ich mir vorstelle - wir können beim einfachen bleiben, dann wird es nicht so abstrakt : Ganz normale Netzwerkattacken, was immer mehr kommt, sind zum Beispiel diese Botattaken. Die gab es schon immer, es ist ein Netzwerk-“Fehler” vom Netzwerkprotokoll dieser DDos Attacken. Es gibt diese DDos Attacke, das sind Attacken, die kann man sich vorstellen, wenn man einzelne Computer hat, da ist eine Website drauf, dass ist sozusagen ein Webserver und jetzt kommt eine Freundin und schließt ein Kabel an das Netzwerk an und möchte jetzt auf diese Website zugreifen. Dann stellt die Freundin eine Anfrage über das Kabel an meinen Computer und der sagt: ja, du darfst hier rein und zeigt dann hier die Website an. So kann man sich ganz einfach ein Webserver-Model vorstellen. Wenn wir zum Beispiel Google haben, dann haben wir es auf unserem Rechner, dann gehen zehn Leute auf Google, das heißt, zehn Kabeln sind verbunden mit dem Rechner um dann anschließend die Seite zurückzuschicken. Das heißt, zehnmal sage ich ja, ihr dürft hier rein und schicke die Seite zurück. Diese Anfrage “dürft ihr rein oder dürft ihr nicht rein”, alleine die Frage beantworten, ja oder nein, ist schon eine Rechenleistung für den Computer. Bei diesen DDos Attacken werden ganz viele Computer infiziert mit einer Software, die eine Person kontrollieren kann, - das kann man im Internet mittlerweile einkaufen. Man kauft sich dann 100.000 Computer ein, die dann nichts anderes machen, als einen Computer, nur diesen einen Computer gleichzeitig zu bombardieren, sodass der Computer nicht mehr so schnell ja oder nein sagen kann und die Seite kann nicht mehr angezeigt werden. Er sagt nur ja/nein, ja/nein, ja/nein. Die Website wird gar nicht mehr übertragen. Das ist ein Szenario, das mittlerweile auch schon mit Hilfe von Künstlicher Intelligenz geregelt werden kann von beiden Seiten. Die Botnetze werden so geclustert, das man so einen Angriff erkennt und versucht diese Angreifer umzurouten. Die laufen ins leere, da gibt es halt verschiedene Szenarien und Taktiken, die man da anwenden kann. Auf der Gegenseite wird natürlich versucht, diese Muster zu erkennen. Wenn man zum Beispiel 100.000 infizierte Geräte hat, dann fängt man mit 10.000 an und man merkt, 5.000 kommen nicht mehr an und werden umgelenkt, dann versucht man halt intelligent die Computer so zu steuern, dass die Gegenmaßnahme auch ausgetrickst wird. Das ist diese ganz normal klassiche Hackersache, deswegen habe ich am Anfang auch diese Whitehead und Blackhead, also White AI und Black AI, genannt. Ich glaube, dass geht in diese Richtung. So kommen wir vielleicht auch gut zum Ende, dass man halt hier eine schöne Runde machen kann, dass man sagt, Okay von diesem eigentlichen Hackergedanken hin zur Künstlichen Intelligenz, was letztendlich nichts anderes ist, als eine Software kombiniert mit Sensoren, die quasi Informationen von Außen reinnehmen. Aber es geht in der Zukunft immer mehr, Stichwort In..of Things, auch wieder nach Außen. Das wird auf jeden Fall super interessant.

Zum Schluss würde ich gerne noch sagen: Es gab dieses Beispiel von Burger King, mit Alexa oder Siri, ich weiß es gar nicht mehr so genau. Da war ein Werbespot in den USA, da hatte Burger King sich einen Scherz gemacht und einfach Alexa gebeten, eine Suche bei Wikipedia nach Whopper zu machen. Dann ging in mehreren Haushalten in den USA Alexa an und liest den Wikipediabeitrag von Whopper. (beide lachen). Das wäre eine lustige Kampagne gewesen. Noch lustiger war es dann, als jemand den Wikipediaeintrag zu dem Zeitpunkt umgeschrieben hat, als die Kampange gestartet ist und sie sagte: Whopper ist das ekelhafteste was ich mir überhaupt vorstellen kann. Ich weiß jetzt nicht ganz genau, was der Wortlaut war, aber jemand hat sozusagen die Kampagne genommen und hat die Technologie ausgenutzt. Ganz klassisch, den Wikipediabeitrag umgeschrieben und es als Gegenmaßnahme gemacht. Das ist das, was man im Internet immer sieht: Jemand kommt mit einer Lösung und jemand versucht direkt diese Lösung zu knacken. Das geht hin und her.

Norman: Um das apokalyptische Szenario, was wir heute aufgemacht haben zu schließen, will ich unsere Zuhörer auch einfach mit der Frage entlassen, darüber nachzudenken, ob der Krieg, den wir als Krieg in den vergangenen Jahren so kennen, so mit Militär und Stahl und mit Panzer und so weiter, nicht der Krieg von Morgen - wie du es schon selbst beschrieben hast - auch in Form von KI ausgetragen wird. Aber weniger die Technologie selbst, die sich verselbständigt, sondern vielleicht auch eher darüber nachzudenken, ob nicht der Mensch, im Fokus, der es ist, der die eigentliche Gefahr ist.

Florian, in diesem Sinne bedanke ich mich ganz herzlich wieder für deine Zeit. Es hat mir großen Spaß gemacht und wir hören uns wieder, in spätestens vier Wochen.

Florian: Vielen Dank Norman, alles Gute.

Florian: Danke, dir auch. Ciao.

 

Noch ein wichtiger Aufruf: Es geht nicht ohne dich. Und deshalb ist es sehr wichtig, dass du diesen Podcast mit deiner Bewertung bei iTunes unterstützt. Denn durch deine Bewertung rankt dieser Podcast bei iTunes entsprechend höher und schafft höhere Aufmerksamkeit, wodurch mehr Fragen an mich gestellt werden, mehr Interaktion stattfindet und dieser Podcast einen Dialog erfährt und damit lebendig gestaltet werden kann - nicht nur von mir, sondern von uns allen. Vielen Dank also jetzt schon für deine Bewertung bei iTunes.

 

Frisches Hörfutter direkt auf Dein Smartphone

 

Du kannst nun umgehend auf dem Messenger Deiner Wahl über neue Podcast-Episoden, Blogbeiträge, Newsletter und Aktionen auf dem Smartphone informiert werden und die Inhalte auch gleich abrufen. Zusätzlich kannst Du dem MARKENREBELL auch Anregungen, Fragen oder andere Feedbacks senden, die dieser dann auf dem kurzen Weg gerne beantwortet. Wie das funktioniert, erfährst du hier.

 

Außerdem versorgen dich einmal im Monat mit den wichtigsten Informationen kostenlos. Melde dich für unseren Newsletter an.

 

Wenn dir der Artikel gefallen hat, teile ihn bitte in deinen Netzwerken, dadurch unterstützt du uns enorm! Danke!!!

 

%d Bloggern gefällt das: