Warum durch KI generierte (Website-) Texte nicht von KI gefunden werden

Dieser Beitrag ist lang und es kommt Statistik darin vor. Tönt nicht sexy – ist aber super relevant. Denn wer morgen gefunden werden möchte, sollte auf gute, relevante, selbst geschriebene Texte setzen – und sich ein bisschen mit Statistik beschäftigen.
/

Meme philosophical Velociraptor der sich überlegt, ob SEO ausstirbtAktuell: Workshop KI in der Kommunikation.

Google investiert mit Gemini viel in Künstliche Intelligenz (KI). Das hat seinen guten Grund: Suchmaschinen bekommen durch KI-Systeme Konkurrenz. Denn Nutzer:innen müssen bei Antworten von KI-Modellen nicht erst durch die Werbeanzeigen scrollen – zumindest heute noch nicht – und sie bekommen Antworten und nicht bloss Resultate. Zur Illustration kann man mal in der Suchmaschine und einem KI-Modell den nachfolgenden Prompt eingeben und die Ergebnisse vergleichen.

Welches sind die beliebtesten Restaurants in Zürich, Kreis 1. Beziehe dabei die Bewertungen der letzten 12 Monate auf Tripadvisor, Google, Yelp, Uber Eats und Booking mit ein.

Wenn KI die Inhalte der eigenen Website referenzieren soll, dann müssen die Inhalte dafür optimiert werden. Nur, wie macht man das? Dazu – leider ….

etwas Statistik (Triggerwarnung: man kann das auch überspringen und nachher lesen)

Wirft man einen Würfel, dann ist die Wahrscheinlichkeit, dass dieser auf einer der sechs Seiten zu liegen kommt, gleich gross. Würfelt man also genügend lange, wird jede der sechs Seiten gleich häufig oben liegen (wenn nicht, kann man davon ein Geschäftsmodell ableiten – was aber wohl in den meisten Fällen illegal ist).

Grafik einer Normalverteilung

Bei komplexeren natürlichen Systemen mit grossen Datenmengen ist das anders. Die Häufigkeit verteilt sich dann in vielen Fällen nicht gleichmässig, sondern oft entlang der Gaussschen Glockenkurve (Normalverteilung). Beispiele dafür sind Körpergrösse, Streuung von Produktionsprozessen, Kundenbewertungen oder wenn man mehrere Würfel wirft und dabei die Häufigkeit der gewürfelten Anzahl Augen auswertet. Mit grösster Wahrscheinlichkeit wird dabei der Mittelwert erreicht. Wohl aus diesem Grund sagt man in der Finanzindustrie, dass man es auf lange Frist nicht schafft, den Markt(index) zu schlagen.

The Great Averaging

Wenn man jetzt mehr Informationen mit KI erstellt und die generative KI damit lernt, dann führt das einerseits dazu, dass sich die Inhalte immer mehr gleichen und andererseits, dass die Verteilung immer enger wird, die Variabilität geringer. Das ist dann wie mit den Matryoshka-Puppen. Es ist zwar keine gleich, aber alle sehen sich ähnlich. Forbes nannte das «The Great Averaging», nennen wir es «The M-ai-tryoshka-Trap».

Language Models (SLM, LLM) rechnen Wahrscheinlichkeiten.

LMs rechnen aufgrund der Eingabe (des Prompts) aus, was mit höchster Wahrscheinlichkeit der nächste «Token» an Daten sein wird. Dafür nutzen sie die grosse Datenmenge, anhand derer sie trainieren. Man kann darum wohl davon ausgehen, dass sowohl die Häufigkeit der Lerndaten, wie auch der Resultate normalverteilt sind. Folglich darf als Antwort der wahrscheinlichste Token, die wahrscheinlichste und damit mittelmässigste Antwort erwarten werden (die ist aber immerhin besser als 49% der sonstigen Resultate).
Jetzt kann man den Language-Modellen (LM) mitgeben, es mit der Wahrscheinlichkeit nicht so ernst zu nehmen. Man sagt dem «Temperatur». Und bei der künstlichen Intelligenz ist das wie bei uns Menschen: Je höher die Temperatur desto mehr Halluzinationen. Wenn man kreativ werden möchte, ist eine hohe Temperatur (die der künstlichen Intelligenz) besser. Eine höhere Temperatur wird bei einer Übersetzung vermutlich auch aussergewöhnlichere Ergebnisse liefern (manche zum Guten, manche zum Schlechten). Im Umkehrschluss bedeutet das: Wenn man einen Text auf Rechtschreibung prüfen, einen Fachartikel zusammenfassen oder das eigene Produkt beschreiben möchte, ist «Coolness» gefragt. Der Text sollte sitzen und allem voran korrekt sein.

Überdurchschnittliche Texte sind das Bat-Signal für SEO und AIO

Batman slaps Robin. Robin wants to use AI to be found, Batman will still use the Bat-Signal Wer zuoberst in den Suchresultaten erscheint, der ist relevant und damit man oben in den Resultaten erscheint, muss die Website und der Text folglich auch relevant sein. Relevante Inhalte sind verständlich und aussagekräftig und haben eine gute Struktur. Es ist relevant, wenn der Text viel gelesen und referenziert wird (und noch vieles mehr). Darauf baut der Algorithmus für den Suchroboter (auch der von LMs) auf und ganze Industrien machen ein Geschäftsmodell daraus, diesen Algorithmus zu rekonstruieren und zu entschlüsseln (Reverse-Engineering), um dann zu sagen, dass relevante Inhalte verständlich, aussagekräftig und gut strukturiert sein müssen. Im Web gilt dann noch, dass der Inhalt auch technisch richtig umgesetzt ist (wovon man ja schon seit Jahren spricht, es aber immer noch nicht überall sauber gemacht wird). Die Relevanz von Inhalten für das Finden über KI (AIO) wird wohl noch wichtiger werden, als sie es für Suchmaschinen (SEO) heute schon sind, denn KI schreibt Antworten und macht – etwas plakativ formuliert – nicht nur eine Sortierreihenfolge.

Wenn die Website jetzt von KI gebaut und getextet ist, dann erreicht sie bestenfalls Durchschnitt und wird damit wiederum wohl nicht als Ergebnis von KI-Recherchen angezeigt werden (wer es übersprungen hat, jetzt wäre Zeit für den Statistik-Einschub). Das ist die schlechte Nachricht. Die gute Nachricht ist, dass man mit KI ganz einfach eine durchschnittlich gute Website, die durchschnittlich gut gefunden wird, erstellen kann. Gute Nachricht ist auch, dass man KI recht gut nutzen kann, um die Website oder den Text auf seine Relevanz zu beurteilen.

Die beste Nachricht ist jedoch: Wer schon zuvor und weiterhin überdurchschnittlich relevante Inhalte ins Web stellt, der wird auch von KI gefunden werden – und zwar besser als die Inhalte vom Mitbewerbenden, die das mit KI machen. Oder anders gesagt: Gefunden wird, wer ein (Bat-)Signal und kein KI-Rauschen generiert.

Danke, dass Sie so lange durchgehalten haben: Die nächsten Texte werden sehr wahrscheinlich wieder kürzer und (Spoiler) es wird noch mehr zu KI geben.

Wer noch etwas weiterlesen möchte:

Bilder:

  • Titelbild @slartbart on Flickr
  • Memes (Philociraptor, Batman, Matryoshka) mit Imgflip Meme Generator erstellt
  • Kurve Normalverteilung mit CahtGPT/Dall-e generiert (Hoppla)
  • Kategorien
  • Tags

Kommentieren

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

* Pflichtfelder