Roboter-Rassismus: "KI wird rassistisch, als es von Menschen lernt"

in deutsch •  7 years ago 

Es ist wahr, KI wird rassistisch, als es von Menschen lern! Roboter-Rassismus oder ein auf empirischen Daten basiertes Urteil?

Die express.co.uk -lesen sie den Artikel hier- schreibt: 


Künstlich intelligente Software, die von der Polizei verwendet wurde, um Verdächtige zu identifizieren, ist rassistisch, nach einem Untersuchungsbericht.

In Teilen der USA, wenn ein Verdächtiger für die Befragung vernommen wird, erhalten sie eine computergesteuerte Risikobewertung, die die Wahrscheinlichkeit der Rehabilitation der Person ausarbeitet. Die Richter können diese Daten dann bei der Bewertung ihres Urteils verwenden. Eine Untersuchung hat jedoch Zeigte, dass die künstliche Intelligenz hinter der Software rassistische Tendenzen aufweist. [...]

[...] Dies ist nicht ein isolierter, einzelner Vorfall.

Microsoft's TayTweets (AI) Chatbot wurde auf Twitter im vergangenen Jahr entfesselt, die entworfen wurde, um von Benutzern zu lernen.

Allerdings wandte es sich fast sofort dem Antisemitismus und Rassismus zu, und begann zu tweeten: "Hitler hat nichts falsch gemacht" und "Hitler hatte recht - ich hasse die Juden".


Was denkt IHR über dieses Thema? Lasst doch einfach einen Kommentar da!!!




Sie finden uns auf:     VK   -   Facebook   -   Google +


Weitere Informationen:
https://armageddonbroadcastnetwork.tv/
https://sanctuaryinterfaith.org/
https://mikdashhamoshiach.co.il/
http://torah-codes.net/
http://www.ra-el.org/


Spenden Sie uns @
1PEnaXMXfzFkJKQs5M4oaCoPoEKuMeNR3V 

Authors get paid when people like you upvote their post.
If you enjoyed what you read here, create your account today and start earning FREE STEEM!
Sort Order:  

Keine neue Erkenntnis
Political correctness ist halt doch nur eine weitere Ideologie, geschaffen, um zu herrschen.
Im Brigen hat sich auch die Rassismusdefinition gewandelt hinzu einer moralischen Keule.

  ·  7 years ago (edited)

Die Geschichte von dem Microsoft Bot kenne ich, der Bot war öffentlich im Internet und man konnte mit ihm kommunizieren und ein paar Leute haben sich einen Spaß daraus gemacht ihm zum Rassisten zu trainieren.

Die Geschichte von der Polizei AI könnte zwei Ursachen haben, entweder sie wurde von wem auch immer so trainiert oder sie ist dazu geworden indem sie Kriminalitätsstatistiken ausgewertet hat und eine signifikante Häufung bei einer Personengruppe festgestellt hat.

Im ersten Fall müsste man darüber nachdenken wie und durch welche Einflüsse die AI trainiert wird. Im zweiten Fall, wenn der Computer also zurecht zu dieser Annahme kam, haben wir ein Problem mit political correctness. Dann sollte man sich Gedanken machen warum das so ist.

Ich denke, das Problem ist, das künstliche Intelligenz bisher keine Intelligenz ist, sondern nur ein von Menschen gemachtes Programm das bestimmten Parametern folgt.
Intelligenz wird es erst, wenn es - wie Menschen - "outside the box" denken kann. Das heißt zB., das es in Betracht zieht belogen zu werden. Intelligenz ist halt mehr als nur viele Daten optimal zu verknüpfen.

Computer sind unschuldig. :-)

  ·  7 years ago (edited)

Rassismus hat eine Grundlage? Wahrscheinlich ja, aber Rassismus soll keine Rechtfertigung für wirtschaftliche Ausbeutung liefern.

I cant believe it

This post has received a 7.95 % upvote from @buildawhale thanks to: @jeanviete.