... KI, sagen wir einmal so: ist nur eine inselbegabte Software. Eben eine Maschinenintelligenz, mit respektablen, mehr oder weniger wertvollen autistischen Zügen.
Nehmen wir kurz Dein Beispiel, eines Hoverboards. Sehr kreativ, - was eine KI in diesem Kontext, aller Wahrscheinlichkeit nach, so nicht angewandt hätte. Das spricht also für die assoziative Bandbreite des Menschen.
Tatsächlich ist künstliche Intelligenz nicht das, was wir unter "Intelligenz" verstehen.
Was den Maschinen u.a. fehlt, ist die Kontextuierung zum "Sinn einer Aufgabe".
Als Erdbeeranbau Oligarch, um auf das Beispiel im Haupttext zurückzukommen, ist es zwar ökonomisch reizvoll, die gesamte Erde mit Erdbeeren zu bepflanzen. Ich liebe Erdbeeren, aber aus der Perspektive der Menschen, eben nicht wirklich wünschenswert.
Würden wir das Erdbeerprogramm mit dieser Unterhaltung konfrontieren, - das Thema also schwenken, könnt eine KI die alleine darauf geprägt wurde Erdbeerfelder so ertragreich wie möglich zu planen, womöglich versagen, - aufgeben und beleidigt in den Error gehen. Wir werden mit einer maschinellen Erdbeeranbau ego-KI, also kaum über die Folgen für uns Menschen philosophieren können.
Oder nehmen wir ein relevantes, in der Praxis heute bereits angewandtes Beispiel.
Eine KI, die Hautkrebs anhand von Bildern erkennt, - jedoch ohne zu "wissen", was Krebs für den Betroffenen und sein soziales Umfeld als Leid bedeutet, - aller Wahrscheinlichkeit nach würde diese Maschinenintelligenz, in unserer Unterhaltung versagen. Oder aber, die Software erkennt das sich der Kontext, - oder sogar das gesamte Thema verändert hat, -passt (wenn man so will) auf, und lernt möglicherweise gepflegtes socializing. Dann kämen wir in einen Bereich assoziativer Bandbreite, - eines für Menschen ähnlichen Verhalten.
Übrigens ein spannendes KI-Projekt in diesem Zusammenhang, ist das Chatbot-System Rose (http://brilligunderstanding.com/rosedemo.html) das sich über unterschiedliche Aspekte des Lebens hinaus, zu bewegen versucht.
KI-Systeme sind deutlich mehr als if-Schleifen, true or false und If–then(–else) Regelungen und deutlich weniger als das, was uns als Spezies Mensch auszeichnet.
Offenbar sind wir es, die klug genug sind, Systeme wie bspw. #Cimon (die vielversprechende KI-Assistenz von Alexander Gerst) zu entwickeln.
Dennoch, künstliche Intelligenz ist uns in vielerlei Hinsicht überlegen, was vielen ein wenig bedrohlich vorkommt. Wir verstehen nicht eindeutig, wie KI Entschlüsse fasst. Nicht alleine nur wir.
Denn, was im inneren eines neuronalen Netz vor sich geht, ist mysteriös,- sagt Sebastian Thrun, KI-Entwickler, Mitbegründer von Udacity, vormals Google VP und Fellow, Professor für Informatik an der Stanford University und an der Carnegie Mellon University. Thurn gründete und leitete bei Google, das Sagen umwogene Google X, und war maßgeblich an der Entwicklung der selbstfahrenden Autos, bei Google verantwortlich.
"Maschinen", so Thurn: "treffen keine nachvollziehbaren Entscheidungen, aufgrund von Wissen und Erkenntnis" (...) Thurn hat eine auf KI basierende Software entwickelt, die Leberflecke von Melanome zu unterscheiden vermag, wobei,- so beschreibt er: "die KI eine mathematische Gewichtung vornimmt, - die Gehirnsynapsen simulieren".
if-Schleifen. Tja, gerade im Bereich Quantencomputer, Deep Learning ist das wenigste was wir erwarten wollen, eine Erwartbare vordefinierte: if, else Reaktion. Deepmind Alphago hat uns das großartig demonstriert.
Eigentlich geht es bei KI darum: Einer Maschine eine Aufgabe; "A", zu stellen und hoffen das dabei nicht "B" ausgegeben wird.
Das wird im Falle von, - über KI entschiedenes Fahren eines Autos sehr spannend.
Am wenigsten wollen wir da, - in einem verzwickten Entscheidungskonflikt, eine vom Menschen einprogrammierte; "was, wenn, - dann, Entscheidung" (wäre ja dann keine Maschinenintelligenz).
Wenngleich es letztendlich nichts anderes ist als eine Berechnung zur Eintrittswahrscheinlichkeit, was wäre, wenn und wie muss jetzt reagiert werden? Aber eben auf einer tieferen Ebene, einer Entscheidungsintelligenz, - und eben bitte keine Affekt Programmierung, oder vorgedachte Schachzüge :)
Ich bin überzeugt es gibt Maschinenintelligenz, - die, weil nicht biologisch, als künstliche Intelligenz bezeichnet werden muss.
Larry Page beschreibt es so: Er mag den Begriff künstliche Intelligenz nicht und bevorzugt den Begriff "aufkommende Intelligenz".
Funfact. Wenn man den Google Home Assistenten befragt: Hey Google, bist du eine künstliche Intelligenz? Gibt's als Antwort: Ja! All' meine Intelligenz ist tatsächlich künstlich.
Aber ja, wir sollen nicht alles glauben, was Google sagt ;)
Die Quellen zu den Zitaten von Page und Thurn
https://books.google.de/books?id=Zxw-DwAAQBAJ&lpg=PP1&dq=zukunftsmedizin%20thomas%20schulz&hl=de&pg=PP1#v=onepage&q=k%C3%BCnstliche%20intelligenz%20page&f=false