Die SEOkomm am nächsten Tag eröffnete Bastian Grimm. 2011 meinte Marc Andreessen, Gründer von Netscape: „Software ist eating the world.“ Sechs Jahre später ließ Jensen Huang, CEO von Nvidia, verlauten: „AI is eating the software.“ Grimm führte mit seiner Keynote „AI is eating the world (and Google)“ die illustre Zitatreihe fort. Er startete mit einem kleinen Test. Unter jedem Stuhl befand sich ein Umschlag mit einem doppelseitig bedruckten Test über jeweils eine Kurzbiografie von zwei Persönlichkeiten. Eine wurde von einem Menschen verfasst, eine von einer KI. Über einen QR-Code konnte man abstimmen, welcher Text, A oder B, einem besser gefällt. In Summe gab es vier unterschiedliche Karten, sodass es am Ende auch vier Ergebnisse gab. Alle Ergebnisse waren sehr knapp, bei drei Abstimmungen gab es einen minimalen Vorsprung für die Maschine. Fazit: Bei Kurzbiografien bekannter Persönlichkeiten ist eine KI in der Lage, so zu formulieren, dass es sich genauso gut liest, wie wenn ein Mensch so einen Text verfasst. Da allerdings nicht bekannt war, welche Ausbildung der menschliche Schreiber hatte, ob die Fakten tatsächlich richtig sind und ob der KI-Text ggf. feinjustiert wurde, war der Test zwar erstaunlich, aber letztlich noch kein hinlänglicher Beweis, dass Maschinen heute gleich gut texten wie Menschen. Das dürfte aber nur eine Frage der Zeit sein, die Fortschritte auf diesem Feld, so führte Grimm aus, sind enorm. Letztlich kommt es auch darauf an, was genau an dem sogenannten Promt, also im Eingabefeld einer KI, angegeben wird.
Grimm machte neben vielen interessanten und erklärenden Beispielen aber auch darauf aufmerksam, dass der Betrieb von Rechenzentren wie die von Google enorme Mengen an Energie und Wasser zur Kühlung benötigen. Werden Websites nun automatisiert über maschinell erzeugten Content (Text, Bild, Video, Ton) deutlich aufgepumpt, steigt der Aufwand für das Crawlen, Erfassen und Speichern enorm an. Mit anderen Worten: Wächst das WWW, dann müssen Google und alle anderen Suchsysteme mitwachsen. Behält man den Klimaschutz im Sinn, könnte diese Entwicklung in die falsche Richtung laufen. Mindestens müssen sich Google & Co. hier etwas einfallen lassen. Denn Zehntausende essenziell inhaltliche Webseiten zu einem Thema und das in alles Sprachen zu verarbeiten und intern zu speichern, wird wohl schlicht und einfach nicht mehr bezahlbar und/oder tolerierbar sein. Auch Grimm sah ein Problem in möglichen Copyrightverstößen, die Maschinen durch ungefragte Verwendung unterschiedlicher Datenpools (Korpus) begehen (könnten). Bei Github, einer Plattform, wo Entwickler in der Regel Programmiercode publizieren, gab es bereits die erste Sammelklage wegen Softwarepiraterie. Eine KI hat sich bei bestehenden Codebausteinen bedient und diese einfach verwendet. Ob Google und andere maschinell verfassten Text als solchen erkennen können, ist unklar bzw. wird schwieriger, je mehr die Modelle wachsen.