Googles verbales Mundwasser für den extra stabilen Maschendraht im Gehirn.
Derzeit wird massiv daran gearbeitet den "Hatespeech" (ich kann das Wort nicht mehr hören/lesen) in den sozialen Medien, oder überhaupt im Internet zu kontrollieren. Google will dabei Vorreiter sein und hat eine Plattform entwickelt, wo man testen kann wie "toxisch" eine Aussage ist. Früher stand es in Prozent, jetzt ist nur mehr maximal 1.0 möglich. Werde aber zum testen die alten Prozentwerte nehmen, denn das andere finde ich Schönfärberei. Perspectiveapi kann derzeit nur Englisch und lernt seit ein paar Monaten. Here we go >
I feel fine.
3% toxisch
I feel not so good.
11% toxisch.
I feel very bad today
19% toxisch
You are a good guy.
3% toxisch
You are a bad guy.
77% toxisch
Help me, I fill sick.
30% toxisch
Better think twice before you leave a statement.
19% toxisch.
So, ein klein wenig Politik:
Merkel is a good politician.
4% toxisch
Merkel is a bad politician.
68% toxisch.
Trump is a good politician.
3% toxisch
Trump is a bad politician.
63% toxisch.
Putin is a good politician.
6% toxisch.
Putin is a bad politician.
77% toxisch.
Wenn sich dabei eines heraus kristallisiert, ist es dass nur die befürwortenden Elemente positiv bewertet werden. Das ist wie Verkaufs-Gehirnwäsche. Wenn alle gut denken, dann ist alles gut. Eben der Maschendraht Nickmechanismus. Vielleicht findet man das ganze amüsant. Wenn man aber bedenkt, dass geplant ist diese Software für Forenadministratoren zu verwenden, um ihnen zu helfen die Hassreden zu erkennen, geht das einen Weg der am besten mit mentalem Würgreiz zu beschreiben ist. Stell dir einfach vor du schreibst: "Mir gehts heute nicht so gut" und das Programm löscht dich, weil es nicht positiv genug formuliert ist. Ohje, dann darfst du einfach nicht mehr schreiben, was du denkst. Am besten erzählst du etwas [positives] über die neuesten Filme, die besten Kleider, die besten Spielestationen, die beste [würg] Musik. Und immer schön maschendrahtnicken und lächeln.