Nelle redazioni di certi media oggi occorre avere coraggio per sostenere che il
linguaggio SEO (Search Engine Optimisation) – se diventa la bussola principale o
prevalente nel lavoro di chi informa – è una minaccia per il giornalismo. Ovviamente,
come tutti i mezzi che usiamo, è pericoloso per il modo in cui troppi lo utilizzano, dato
che si fanno diventare i motori di ricerca una specie di Oracolo di Delfi 4.0.
Infatti, va precisata una circostanza a proposito della Search Engine Optimization: non
si basa su una fonte disinteressata. Gli algoritmi che fanno funzionare i motori di
ricerca (così come quelli che governano i social network) vengono realizzati da esseri
umani, i loro proprietari, molto ricchi e potenti. Dunque la scelta dei contenuti da
indicizzare avviene sulla base di decisioni legate a interessi economici e politici.
Le recenti proposte normative dell’Europa (Digital Markets Act in primis), l’inchiesta
dell’antitrust UE su presunte distorsioni del motore di ricerca Google, la causa antitrust
del Dipartimento di Giustizia Usa di ottobre e anche la nuova causa americana posta
sulle stesse basi dovrebbero essere sufficienti per farci dubitare dell’oggettività di
questi algoritmi.
Condizionati dalla SEO
Ciononostante, oggi troppi giornalisti, direttori ed editori si fanno condizionare dalle
regole della SEO, contravvenendo non solo alle regole del giornalismo “di una volta” ma
anche al buon senso. Ma ancora più grave il rischio di essere condizionati – in modo
piuttosto subdolo – dalle “entità” che governano i motori di ricerca (e che, per inciso, si
sono sostituiti a quegli stessi media nel governo della comunicazione globale).
Così può capitare di sentirsi dire: “Questo pezzo non va bene perché i suoi contenuti non
vengono indicizzati abbastanza dai motori di ricerca”. Ovviamente non bisogna
prendersela con chi svolge con la legittima professione di “esperto di linguaggio Seo”.
Perché in effetti va studiato e conosciuto: per farne un buon uso e anche per potersi
difendere da eventuali manipolazioni. Però non deve diventare il direttore che decide
quello che va pubblicato.
Nei media, tuttavia, la ribellione contro la dittatura degli algoritmi si leva di rado, un po’
per timore di essere sostituiti da qualcuno più malleabile, un po’ perché qualche
redattore non si rende conto di essere pilotato da un direttore virtuale. Tra chi ha
tirato fuori questo discorso c’è la giornalista Guia Soncini: ha puntato il dito contro
certi capi rapiti dalla lettura di manuali per la SEO.
Scrive: “Dicono, quei manuali, un sacco di robe orribili. Che bisogna cominciare con la
parola del giorno, e poi la virgola. Lockdown, virgola. Stati generali, virgola. Premio
Strega, virgola. Che quella parola bisogna ripeterla molte volte nel corso dell’articolo,
perché l’algoritmo… per capire che l’articolo parla di Trump deve trovare ogni tre parole
il nome Trump; non ‘l’inquilino della Casa Bianca’, non ‘il presidente degli Usa’… Insomma,
nel magico mondo del SEO il New Yorker dovrebbe essere introvabile su Google, e letto
da nessuno. Con quei pezzi lunghi, con quella impostazione che se la prende comoda, che
ti racconta cose, mica ti gonfia a quaranta righe una notizia da due ripetendo molte
volte lo stesso nome acciocché venga indicizzato per bene”.
Cos’è, esattamente, la SEO
Per capire cosa sia la SEO – acronimo di Search Engine Optimization – proviamo a
immaginare uno chef che – invece di basarsi sui prodotti di stagione e sulle proprie
caratteristiche professionali (riferimenti, formazione, creatività, conoscenze,
esperienze, capacità e competenze) – fa decidere il menù del giorno a uno strumento
disponibile online: questo gli “spiega” ciò che, secondo un algoritmo scritto da chissà chi,
la gente gradirebbe mangiare. Forse il suo ristorante diventerebbe il punto di
riferimento per onnivori tecnologici e solitari, in grado di farlo diventare ricco
consumando cibi precotti. Di certo, starebbero alla larga i buongustai e anche coloro
che, pur possedendo meno cognizioni gastronomiche, desiderano mangiare
decentemente.
Ebbene, se prendete un giornalista e lo costringete a scrivere quello che gli suggerisce
un algoritmo, avrete la versione mediatica dello chef. Con la differenza che l’esistenza
di quel tipo di cuoco è (almeno, lo speriamo…) un’ipotesi teorica e provocatoria. Mentre i
giornalisti in balìa degli algoritmi – più o meno consensualmente – esistono già: parecchi
sono troppo sottomessi, volenti o nolenti, al linguaggio SEO.
Ma cos’è, esattamente, la Search Engine Optimization?
Al centro c’è soprattutto Google: è controllato da una holding californiana, Alphabet,
che ha avuto un fatturato di 46 miliardi di dollari solo negli ultimi tre mesi del 2019, con
un utile di 10,67 miliardi derivanti soprattutto da un’immane mole di inserzioni
pubblicitarie a livello globale (per farsi un’idea: il suo fatturato annuale è maggiore del
Pil della maggioranza degli Stati che sono sul pianeta).
Google trends come fonte di ispirazione dei giornalisti?
Lo sfogo della Soncini fa sorridere. Ma anche no. Dipende dai punti di vista. Perché si
rischia che, invece di cercare le notizie, il giornalista (o chi, pur senza l’iscrizione
all’Ordine, scrive qualcosa da vendere come notizia) consideri come prevalente fonte di
ispirazione Google Trends (significa “tendenze di ricerca”): questo strumento fornisce i
trend topic online (“termini di tendenza sul web”), che spesso diventano il fulcro di ogni
discussione in qualsiasi redazione (incluse quelle di grandi testate) prima ancora della
notizie vere. Guarda caso, il servizio è fornito dal più ricco e usato motore di ricerca,
già citato.
Cliccando Google Trends, si intravede quello su cui puntano 3 miliardi e mezzo di utenti
che, in tutto il mondo, svolgono 4,5 miliardi di ricerche quotidiane. L’analisi, offerta
anche in italiano, si può raffinare e circoscrivere. Spontaneamente, la home page ci fa
sapere subito che cos’è di tendenza. Per esempio, alle 14,40 del 3 dicembre 2020 in
Italia vinceva le ricerca su “Lombardia zona gialla” (1°, con più di 100.000 quesiti online),
seguita da quella (più di 20.000) dedicata alla storia del fidanzamento tra Francesco
Rutelli e Barbara Palombelli (2°) e dalla scomparsa di Giscard d’Estaing (3 °); poi – con
più di 10.000 visualizzazioni – ecco storie varie: dal cashback natalizio (4° posto) ai
rapporti di Paolo Brosio con la morosa di 22 anni (6°), dal Barcellona (7°), che non paga
gli stipendi ai calciatori, fino al nuovo Dpcm governativo con le misure natalizie
anti-Covid (solo al 10° posto). Nel giro di poco tempo le indicizzazioni possono cambiare.
Per scrivere un pezzo online di successo in quel momento si sarebbe dovuta dare la
seguente notizia: “Mentre vagavano nella zona gialla della Lombardia, Francesco Rutelli e
Barbara Palombelli si sono commossi pensando al loro fidanzamento, incuranti della sorte
di Giscard d’Estaing”.
Non è tutto SEO quel che luccica
Viene di nuovo da sorridere, certo. Invece è una questione terribilmente seria. Per
capire meglio, è interessante andare su un sito, molto professionale, che offre
consulenza Seo e Google Ads (un software che permette di inserire spazi pubblicitari
all’interno delle pagine di ricerca di Google), Propone una guida. Titolo: “SEO per
Giornalisti: regole pratiche per il Giornalismo Online”. Esordisce spiegando che “la SEO
per giornalisti è fondamentale per scrivere articoli che vengono trovati e per far
arrivare da Google un numero maggiore di lettori interessati sui propri articoli. Questo
si traduce in più soldi in pubblicità, più abbonamenti, maggiore forza del marchio”. Poi:
“Fare il giornalista oggi non è facile: mentre una volta il grosso del lavoro era andare a
cercare le notizie, adesso sono le notizie che vengono a cercare te e arrivano a ondate
che non è semplice cavalcare senza farsi sommergere”. Ancora: “Tra le variabili che
influiscono sul ciclo di vita delle notizie c’è anche Google che, in base alle ricerche
effettuate dagli utenti, decide se mettere in evidenza un certo topic (argomento, ndr) e
se mantenerlo in SERP (Search Engine Results Page, “pagina dei risultati del motore di
ricerca”, ndr) più o meno a lungo”. Infine: “Se vuoi essere supportato in questo difficile
compito e imparare a scrivere articoli giornalistici SEO oriented, richiedi pure una
consulenza SEO oraria”.
Il fatto che il giornalista SEO-orientato non venga descritto come un cacciatore
incallito di notizie, ma una persona che non sa più dove metterle perché ne viene
travolta, rende l’idea della piega che potrebbe prendere questa delicata professione.
Certo, va ribadito: è bene che un cronista conosca i meccanismi con cui funzionano i
motori di ricerca e gli interessi delle aziende che li gestiscono; è pure opportuno che
sappia quali sono le chiavi attraverso le quali una notizia può apparire nelle ricerche.
Però il redattore, prima di diventare un campione nell’uso degli strumenti della SEO,
dovrebbe ricordarsi del “giornalismo di una volta”: quello che si basa sulla fondamentale
regola delle 5 W: Who, What, Where, When, Why.
Conclusioni
In altre parole (italiane), il giornalista dovrebbe prima di tutto chiedersi chi c’è dietro
quella selezione di cosiddetti topic, cosa fa, dove lo fa, quando e come lo fa (cioè, in
funzione di quali interessi). Non dovrebbe mai trasformarsi in uno strumento passivo di
quel sistema, né di altri. Purtroppo, invece, allarma la passività con cui molti di coloro
che scrivono notizie online – anche su importanti testate – si stanno adattando alle
pretese degli algoritmi e dei loro mandanti. Col rischio che le basilari 5 W siano
sacrificate, insieme alla professionalità e al diritto/dovere di cronaca, sull’altare di
Google Trends.
SCHEDA
Perché il dominio di Google sulla search è incontrastabile
L’indice di Google oggi, secondo le stime, si colloca tra i 500 e i 600 miliardi di pagine
web, come riporta un recente articolo del New York Times.
Capire come funziona la ricerca di Google è la chiave per capire perché così tante
aziende trovano quasi impossibile competere e, di fatto, fanno di tutto per soddisfare le
sue esigenze.
Ogni richiesta di ricerca fornisce a Google più dati per rendere più intelligente il suo
algoritmo di ricerca. Google ha effettuato così tante ricerche in più rispetto a qualsiasi
altro motore di ricerca che ha stabilito un enorme vantaggio rispetto ai concorrenti nel
capire cosa cercano i consumatori. Questo vantaggio non fa che aumentare, dato che
Google ha una quota di mercato di circa il 90%.
Google indirizza miliardi di utenti verso i siti internet, e i siti web, affamati di quel
traffico, creano un diverso insieme di regole per l’azienda. I siti web spesso forniscono
un accesso maggiore e più frequente ai cosiddetti web crawler di Google – computer che
setacciano automaticamente Internet e scansionano le pagine web – consentendo
all’azienda di offrire un indice più ampio e aggiornato di ciò che è disponibile su
Internet.
Quando lavorava al sito musicale Bandcamp, Zack Maril, ingegnere del software, si è
preoccupato del modo in cui il dominio di Google lo avesse reso così essenziale per i siti
web.
Nel 2018, quando Google ha sostenuto che il suo crawler, Googlebot, aveva problemi con
una delle pagine di Bandcamp, Maril ha fatto della risoluzione del problema una priorità,
perché Google era fondamentale per il traffico del sito. Quando altri crawler
incontravano problemi, Bandcamp di solito li bloccava.
Maril ha continuato a ricercare i diversi modi in cui i siti web aprivano le porte per
Google e le chiudevano per gli altri. L’anno scorso, ha inviato un rapporto di 20 pagine,
“Understanding Google”, a una sottocommissione antitrust della Camera e poi ha
incontrato gli investigatori per spiegare perché altre aziende non potevano ricreare
l’indice di Google.
Un rapporto recentissimo della sottocommissione della Camera ha citato la ricerca di
Maril sugli sforzi di Google per creare una mappa in tempo reale di Internet e su come
questo sia “bloccato nel suo dominio”. Mentre il Dipartimento di Giustizia sta cercando
di sciogliere gli accordi commerciali di Google che mettono il suo motore di ricerca al
centro di miliardi di smartphone e computer, Maril sta esortando il governo a
intervenire e a regolare l’indice di Google. Una portavoce di Google si è rifiutata di
commentare.
Siti web e motori di ricerca sono simbiotici. I siti web si affidano ai motori di ricerca
per il traffico, mentre i motori di ricerca hanno bisogno di accedere ai siti per fornire
risultati rilevanti per gli utenti. Ma ogni crawler mette a dura prova le risorse di un sito
web in termini di costi di server e di banda, e alcuni crawler aggressivi assomigliano a
rischi per la sicurezza che possono abbattere un sito.
Dal momento che avere le loro pagine “crawlate” costa denaro, i siti web hanno un
incentivo a lasciare che sia fatto solo dai motori di ricerca che dirigono abbastanza
traffico verso di loro. Nell’attuale mondo della ricerca, ciò lascia solo Google e – in
alcuni casi – Bing di Microsoft.