Zehn KI-Texte sind dümmer als fünf!
Die Büchse der Pandora ist offen – mehr als ein Jahr nach der endemischen Ausbreitung der Nutzung verschiedener Formen der „Künstlichen Intelligenz“ sind erste Ergebnisse zu sehen. Sie sind furchtbar. Noch hat keine Superintelligenz die Macht übernommen oder der Menschheit den Krieg erklärt. Die Auswirkungen sind kein großer Knall, sondern eher ein schleichendes, stetig schlimmer schadendes Siechtum. […]
Auf die Sucheingabe „zehn Deutsche dümmer fünf Deutsche“ sind die Ergebnismengen sehr ähnlich. Verschiedene Treffer, darunter einige aus den Medien und immer Zitatensammlungen, die Heiner Müllers Diktum in unterschiedlichen Versionen (wie oben genannt) liefern. Nirgendwo eine Quellenangabe.
Man erkennt: Für Suchmaschinen spielt die Frage, was Heiner Müller wirklich gesagt hat, keine Rolle. Sie spiegeln nur, was irgendwer im Netz publiziert hat. Keine Suchmaschine bietet die Möglichkeit, die Ergebnismengen nach Publikationsdatum zu ordnen.
Die Suchmaschinen sind vermüllt – ihre Algorithmen scheitern daran, aus der Menge der Treffer im Netz die wirklich relevanten auszuwählen. Und wie gesagt: bedauerlicherweise keine Quellenangaben.
Eine Ausnahme ist Wikiquote. […]
Auch in anderen Bereichen versagen die Suchmaschinen beim Aussortieren fragwürdiger, weil minderwertiger Inhalte. So das Ergebnis einer über ein Jahr laufenden Studie von vier Forschern der Universität Leipzig, des dortigen Zentrums für Skalierbare Datenanalyse und künstliche Intelligenz (Scads) und der Bauhaus-Universität Weimar. Titel: „Is Google Getting Worse?“
Sie untersuchten die Ergebnismengen von Google, Bing und Duckduckgo, faktisch also einmal Google und zweimal Bing – denn wie sie schreiben: „Although DuckDuckGo claims to utilize many different data sources, we found the results to be extremely similar to Bing.“
Sie untersuchten „die häufige Beobachtung, dass ‚Google immer schlechter wird‘“. Dabei fokussierten sie auf die Suche nach Produktbewertungen. Diese werden gern mit KI erstellt, um mit viel Suchmaschinenoptimierung und Affiliate-Marketing dann in den Suchmaschinen präsentiert zu werden. Der inhärente Interessenkonflikt zwischen Inhaltsanbietern, Suchmaschinen und deren Benutzern liegt dabei auf der Hand.
Sie stellten fest, „dass Seiten mit höherem Ranking im Durchschnitt besser optimiert sind, durch Affiliate-Marketing mehr Geld verdienen und Anzeichen einer geringeren Textqualität aufweisen“. Kurzum: Den Anbietern minderwertiger Texte gelingt es, diese prominent in den Trefferlisten der Suchmaschinen zu platzieren. Ihr Interesse ist klar – mehr Klicks bedeuten mehr Geld und bei Produktbewertungen wohl auch mehr Verkäufe.
Gelingt es den Suchmaschinen, durch Änderungen der Ranking-Kriterien gegenzusteuern? Auch das haben die Forscher untersucht: „Wir stellen fest, dass Suchmaschinen mit ihren Ranking-Updates messbar auf SEO und Affiliate-Spam abzielen. Insbesondere die Updates von Google zeigen eine spürbare, aber meist nur kurzlebige Wirkung.“
Und weiter: „Der ständige Kampf milliardenschwerer Suchmaschinenunternehmen mit gezieltem SEO-Affiliate-Spam sollte als Beispiel dafür dienen, dass die Websuche ein dynamisches Spiel mit vielen Spielern ist, von denen einige schlechte Absichten haben.“ Durch KI haben die Macher mit den schlechten Absichten ein mächtiges Werkzeug in der Hand. Stellen wir uns darauf ein, dass Suchmaschinen noch schlechtere Ergebnisse liefern werden als schon jetzt. Dass zehn KI-generierte Texte dümmer sind als fünf, werden wir erleben.
https://nitromagazin.com/zehn-ki-texte-sind-duemmer-als-fuenf/
Wie sich KI unserer Kontrolle entzieht
Künstliche Intelligenz könnte sich verselbstständigen. Auf diese Gefahr sind wir nicht vorbereitet, warnen Experten. Sie fordern Verbote.
Ein dringender Aufruf von fünf Experten für Künstliche Intelligenz ist im Magazin Science erschienen. Unter den Autoren sind der kanadische Informatiker Yoshua Bengio, der als einer der Paten moderner KI gilt, und der Brite Stuart Russell, der sich seit Jahren für ein Verbot autonomer Waffen einsetzt. Sie fordern Regierungen dazu auf, jetzt Maßnahmen zu ergreifen, um gegen existenzielle Risiken vorzugehen, die von Künstlicher Intelligenz ausgehen. […]
Sie zeigen einen Weg auf, wie sich die Technologien der menschlichen Kontrolle entziehen können. Heutige Sicherheitsmechanismen seien der Gefahr nicht gewachsen, schreiben die Experten. Sie glauben zwar nicht, dass KI die dafür nötigen Fähigkeiten bereits besitzt. In einigen Fällen hätten die Systeme aber schon trickreiche Wege gefunden, um Regeln zu brechen, die ihre Konstrukteure ihnen auferlegt haben. […]
Forscher des KI-Unternehmens OpenAI haben bestärkendes Lernen eingesetzt, um Roboter in einer simulierten Umgebung lernen zu lassen. Während die Maschinen versuchten, die Aufgaben zu lösen, wurden sie von Menschen beobachtet, die sie bei Erfolg belohnten. Als die Experten einem Roboter auf diese Art beibringen wollten, einen Ball zu greifen, lernte die Maschine etwas völlig anderes, nämlich das Betrügen: Sie hielt ihre Hand lediglich so über dem Ball, dass es aus der Perspektive des Menschen aussah, als habe sie den Ball gepackt. Dieser Fehler war möglich, weil der Mensch aufgrund der Kamerastellung nicht genügend Informationen hatte, um den Roboter zu bewerten. Laut den OpenAI-Experten habe die KI ihren menschlichen Bewerter „ausgetrickst“. […]
Die Idee, dass Software sich irgendwann gegen den Menschen richtet, ist umstritten. Andere Experten gehen davon aus, dass KI die dafür nötigen Fähigkeiten vielleicht gar nicht entwickeln kann.
Die fünf Autoren des Aufrufs machen keine Aussagen dazu, ob die KI es tatsächlich das irgendwann schafft. Sie schreiben zudem, es sei schwierig vorherzusagen, wann es so weit sein könnte. Überhaupt sei unklar, wie fähig eine KI sein muss, um gefährlich zu sein, geben sie zu. (Paid)
Billie Eilish? Das kann ich auch
Stars warnen gerade mit einem offenen Brief vor künstlicher Intelligenz in der Musikbranche. Ist ihre Sorge berechtigt? […]
Durch den Wunsch, das Werk eines Künstlers zu erweitern, wird dieser letztlich völlig verdrängt, weil sich der vom Hörer zum Nutzer verwandelte Fan nämlich über die kreativen Entscheidungen des Vorbilds hinwegsetzt. Das ursprünglich so geschätzte Werk wird zum schnöden Input degradiert, wird mehr oder weniger willkürliches Ausgangsmaterial und Remix-Spachtelmasse für die eigenen Bedürfnisse – oder vielmehr die Interpretationen der KI.
Was dabei auf der Strecke bleibt? Wahrscheinlich die Möglichkeit der Transzendenz, sich wahrgenommen zu fühlen oder sich mit den Gefühlen anderer zu identifizieren. So steht der KI-Nutzer in der Musik vor der gleichen Frage, die auch andere Kunstformen betrifft. Inwieweit befriedigt man sein Bedürfnis nach Überhöhung, wenn man dafür eine programmierbare Blackbox benutzt, die einem doch nur das Gegenteil beweist?
Quelle: DIMBB-MEDIEN-News