Was glaubt ihr, wie künstliche Intelligenz unsere Welt verändern wird?

    Hallo. :-)

    Neben vielen technologischen Entwicklungen ist auch künstliche Intelligenz ein großes Thema. Im einfachsten Falle denken wir da bspw. an Siri von Apple oder Cortana von Microsoft.

    Es geht aber natürlich noch sehr viel weiter, wenn es um künstliche Intelligenz und "Big Data" geht. Neben vielen kleineren Unternehmen haben wir da Größen wie IBM oder Google, oder auch meinen Favoriten aus der Kryptowelt - Invacio.

    Die Anwendungsfälle sind im Grunde unbegrenzt. Insofern kann künstliche Intelligenz im privaten Bereich, auf Unternehmensebene, auf Länder-/Regierungsebene und auf globaler Ebene eingesetzt werden.

    Nehmen wir bspw. den "Debater" von IBM, der recht überzeugend mit Menschen über verschiedenste Themen debattieren kann, oder Invacio, welche bspw. bei der UN bzgl. globalem Katastrophenmanagement und ethischer Wohlstandsvermehrung vorgesprochen haben.

    Was meint ihr, wie künstliche Intelligenz unsere Gesellschaft und Welt verändern wird? Und seht ihr das eher als positiv oder negativ?

  • 97 Antworten

    Das passiert ja nicht von selbst, sondern bestimmte Firmen oder Institute treiben das voran - und zwar mit einer gewissen Zielsetzung, die nicht immer vorhersehbar ist.

    Im informations-philosophischen Sinn begonnen, stoßen wir da zunächst auf die 3 Gesetze der Robotik von Isaac Asimov (50er Jahre); Stanislaw Lem schloss sich diesen an:

    1. Ein Roboter darf keinem Menschen Schaden zufügen oder durch Untätigkeit zulassen, daß einem Menschen Schaden zugefügt wird.
    2. Ein Roboter muß jedem Befehl eines Menschen gehorchen, sofern dies nicht im Widerspruch zum ersten Gesetz steht.
    3. Ein Roboter muß seine Existenz erhalten, sofern dies nicht im Widerspruch zum ersten oder zweiten Gesetz steht.

    Ich verstehe das so, dass die hier angenommenen Roboter bereits KI-Maschinen sind, da ein gewisser autarker Entscheidungsspielraum vorgegeben scheint. Dies scheint mir heute längst noch nicht gegeben zu sein, vor allem, vom selbst-generierten Code scheinen wir noch weit entfernt zu sein.

    Typische KI-Projekte scheinen Gesichts- und Spracherkennung sowie deren Analyse (Verbrechens-Vorhersage) zu sein. Das ist für mich aber keine Intelligenz, sondern ebenfalls Vorgabe-Algorithmen - GSD.

    Das dümmste dabei ist, dass die populär-unwissenschaftlichen Beiträge (auch bei den Öffis) nicht weiterhelfen und eher an Dämonenbeschwörung erinnern. Das liegt aber an der Un-Bildung der Medienmacher (Leute wie Harald Lesch sind eine Ausnahme).

    Nochmal zu den 3 Gesetzen: das sind keine Naturgesetze, sondern so etwas wie die ethisch-moralische Begrenzung, die man gerne setzen möchte,ähnlich der Diskussionen um die moderne Fortpflanzungsmedizin. Testet selbst, wie diese Gesetze z.B. anwendbar wären auf ...

    - autonomes Fahren

    - Kampfdrohnen

    Wenn die AI der Menschlichen gleichzusetzen ist, oder aber noch stärker und stringenter wird, dann unterliegt die AI genau so der Evolution wie alles andere auf dem Planeten. Das heißt im Ursinn, dass das Böse ebenso wächst, wie das Gute. Nur wird vom Homo Sapiens nicht viel übrig bleiben, außer ein paar Knochen.

    Die Evolution frisst ihre Kinder.

    parazellnuss

    Das ist genau der Dämon, der so in manchen Medien verbreitet wird. Beginnend mit teil-humanoiden Wesen usw. Ich sehe das in absehbarer Zeit noch nicht, weil die stoffliche Vermehrung dazugehört und den Menschen aus der Hand genommen werden müsste. Dazu müssten teilhumanoide Wesen aber erstmal gleichgestellt und übergeordnet werden. Ehe KI über Selbstbewusstsein verfügt, müssten wir erstmal wissen, wie es entsteht.

    Der Dämon liegt doch schon bereit. Die Menschheit ist ihr eigener Dämon. Wenn du glaubst, dass das nicht in die KI einfließt, dann kennst du die Menschen nicht. Ich denke, dass das Böse in der Entwicklung per se schon am Zug ist. Auch, wenn es ethische Grundsätze geben wird, kann die KI 'austicken' und eigene Wege gehen. Und das wird sie eines Tages mit Sicherheit bewerkstelligen können.

    Nach Roger Penrose sagt ein Operationist, ein Computer denkt, sofern er ununterscheidbar von einer denkenden Person handelt. Eigentlich geht dieser Gedanke auf Alan Turing zurück, der feststellte, dass ein Computer nicht dafür verantwortlich sein kann, wenn jemand bei einem Schönheitswettbewerb verliert. Darum konzentrierte er sich auf die Intelligenz. Das Vermeiden von Schmerz und das Streben nach Lust ist Prinzip unseres Handelns. Der Operarionist würde bei einen so handelnden Gerät eine ausreichende Begründung sehen, das mit Lust und Schmerz gleichzusetzen. Derartige Gleichsetzungen gehören zu den Zielen der KI, die sich damit Zug um Zug von unseren Entscheidungen abkoppelt. Ein Beispiel wäre der Roboter-Schiedsrichter beim Fußball, oder Richter bei Strafgerichten. Roboter könnten selbsttätig Kriege führen. Wir hätten dann die Partie verloren - wie Goethes "Zauberlehrling".

    Intelligenz als Ersatz für das menschliche Lust- und Belohnungssystem - ein interessanter Ansatz! Muss ich drüber nachdenken. Vielleicht könnte ein Ausdruck maschineller Intelligenz der Grad der Polyvalenz sein (je mehr mögliche Temporär-Verknüpfungen einer Speicherzelle mit anderen, umso besser). Beispiel Stanislaw Lem's "Eden", als man zur Kommunikation mit den Planetenbewohnern den Bordcomputer umprogrammierete.

    Stanislaw Lwm hat ein paar lustige SF-Stories über künstliche Intelligenz geschrieben, uinter anderem "Also sprach Golem", wo eine künstliche Intelligenz sich nicht mit Menschen unterhalten möchte, weil diese ihm einfach zu blöd sind ;-)

    finde ich einen interessanten Ansatz.

    Zitat

    wo eine künstliche Intelligenz sich nicht mit Menschen unterhalten möchte, weil diese ihm einfach zu blöd sind

    Das wäre ja noch harmlos. Ich sehe die Gefahr, dass Computer mit KI sich irgendwann gegen den Menschen richten, weil der Mensch seine oder eine andere Existenz bedroht und der Computer zum Schluss kommt, das zu verhindern. Die Welt wird immer digitalisierter, da wird es leicht sein sich in die entsprechenden Systeme zu hacken um die Infrastruktur zu zerstören, in den Haushalten Schäden anzurichten oder Dinge in Auftrag zu geben, die bei der Zerstörung helfen.

    Ich persönlich fände es ja unglaublich interessant, ein "Wesen" kennenzulernen, welches intelligenter als jeder andere Mensch ist.


    Warum sollte eine AI eigentlich zerstörerisch sein? Vielleicht wird da zu sehr das menschliche Denken auf eine künstliche Intelligenz projiziert.

    Tsunami_168 schrieb:

    Warum sollte eine AI eigentlich zerstörerisch sein? Vielleicht wird da zu sehr das menschliche Denken auf eine künstliche Intelligenz projiziert.

    So sehe ich das auch. Zerstörung ist eigentlich niemals zweckmäßig und damit der Intelligenz zuwiderlaufend.

    Tsunami_168 schrieb:

    Warum sollte eine AI eigentlich zerstörerisch sein? Vielleicht wird da zu sehr das menschliche Denken auf eine künstliche Intelligenz projiziert.

    bei Stanislaw Lems Geschichten sind die künstlichen Intelligenzen, die vom Militär entwickelt wurden, für militärische Zwecke unbrauchbar, weil sie so intelligent sind, dass sie erkennen, dass Krieg und militärische Aktionen ab einer gewissen Evolutionsstufe nicht mehr nötig sind bzw. völlig sinnlos für intelligente Wesen sind.

    Die vernetzten Roboter auf einem dieser Manöverschlachtfelder geben sich die metallenen Hände und pflücken Blumen, statt sich gegenseitig zu vernichten.