image_supersizeme.jpg Ultimamente si fa un gran parlare della crisi degli old media. Molte testate web e blogs deridono e criticano  le sparate degli editori tradizionali contro aggregatori e blog.

Ma mentre questi “nuovi editori” fanno un gran parlare della morte della editoria tradizionale  non si rendono conto della grande minaccia che sta arrivando all’orizzonte. La crescita incontenibile del “fast food content”. Già qualche anno fa, dai tempi in cui si parlava di “nanopublishing” la cosa mi sembrò pericolosa, e successivamente con l’esplosione del fenomeno si è palesata. Un recente articolo di Techcrunch  mi ha dimostrato che non sono il solo a pensarla così.

Il problema non è quello di aggregatori o finti blog che prendono una parte dei contenuti e poi mettono un link alla fonte originaria. Infatti portano comunque traffico e fanno link building. Il problema non è neanche nella copia di un contenuto e nella violazione del diritto di autore, dato che google grossomodo riesce a capire la fonte originaria.

Il problema è piuttosto nel fatto che esistono ormai decine e decine di migliaia di siti, con degli umani dietro, che di mestiere leggono  contenuti e li riscrivono scopiazzando sciattamente e malamente cambiando ed invertendo qualche frase.

Così per una notizia originale, artigianale, e prodotta con 2-3 ore di lavoro e di ricerca, dopo poche ore a partire da questa ce ne sono almeno altre 100  scopiazzate e prodotte in 10 minuti, a cui poi seguono  altre 1000 tra aggregatori, catalogatori e finti blog,  tutte fatte senza lavoro.

Techcrunch non lo dice, ma la colpa principale è di Google, che davanti ad 1 contenuto vero ed artigianale, e 100 copie sciatte, e 1000 url farlocche di aggregatori NON fa differenza. Non vuole, o non riesce. Leggi tutto l’articolo