Już dziś duża część Internetu to strony wygenerowane automatycznie, bez większej wartości, za to z mocnym SEO. Szukając czegoś w Google, takie wyniki często są windowane na stronie, przez co trudniej znaleźć autentyczne, pożądane treści. Sprawy na pewno nie ułatwi wysyp radosnej twórczości generowanej przez sztuczną inteligencję ani to, że Google nie zamierza nic z tym robić.
Wraz z rozwojem i dostępnością AI do generowania tekstów, takich jak ChatGPT, czeka nas prawdziwy zalew artykułów o niewielkiej bądź żadnej wartości poznawczej, które zdominują całą infosferę. Tak jak dziś szukając czegoś, trafiamy na wiele bezwartościowych, pełnych reklam tekstów pisanych przez copywriterów, tak zaprzęgnięcie do tego sztucznej inteligencji jedynie pogłębi problem w przyszłości. Nie jest przesadą stwierdzenie, że aby faktycznie znaleźć coś autentycznego w angielskim Internecie, trzeba na końcu zapytania wpisać "reddit". Wkrótce może to jednak nie wystarczyć, bowiem boty mogą zdominować również tę platformę. Google też nie zdaje się tym przejmować.
Jest znanym faktem, że Google co kilka miesięcy zmienia algorytm, aby pokazywać bardziej trafne i lepiej napisane treści w swoich wynikach (przynajmniej teoretycznie). Zmiany te mogą podnieść bądź zdegradować witryny w wynikach. Niektórzy uważają, że treści stworzone przez AI są gorszej jakości i to właśnie ich odfiltrowywanie powinno być głównym priorytetem. Google ma na ten temat inne zdanie:
Treści słabej jakości nie są dla Google Search nowym wyzwaniem, z którym się mierzy. Od lat walczymy z treściami niskiej jakości tworzonymi zarówno przez ludzi, jak i automatyzację. Mamy istniejące systemy, które określają przydatność treści. Inne systemy pracują, by podnosić [w wynikach] oryginalne newsy. Nasze systemy są nadal regularnie ulepszane.
Google twierdzi, że twórcy powinni upewnić się, że ich artykuły spełniają kryteria nazywane przez firmę E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness), co sprawi, że będą wyświetlane wyżej w wynikach wyszukiwania. Dotyczy to tak samo artykułów tworzonych przez maszynę, jak i przez człowieka. Jeśli technologia asystująca AI została wykorzystana do napisania artykułu, dla Google to nie problem.
Korzystanie z AI nie daje treści żadnej specjalnej przewagi. To po prostu content. Jeśli jest użyteczny, pomocny, oryginalny i spełnia aspekty E-E-A-T, może radzić sobie dobrze w Wyszukiwaniu. Jeśli nie — to nie.
FAQ mówi też, że wydawcy witryn prawdopodobnie nie powinni wymieniać AI jako autora tekstu. Zamiast tego zaleca umieszczenie notki wyjaśniającej, że narzędzia AI pomogły w napisaniu artykułu. Boty na pewno posłuchają.
Pewnym rozwiązaniem tego problemu byłaby integracja z przeglądarkami technologii rozpoznającej, czy tekst został napisany przez maszynę, czy człowieka. Takie narzędzie (klasyfikator tekstu) oferuje od niedawna OpenAI. Jego skuteczność pozostawia jednak wiele do życzenia.