Pagine

lunedì 6 novembre 2017

CorrieredelWeb.it denuncia informazioniultime.blogspot.com e ituoidati.blogspot.com, due scrap blog che violano il copyright

Con questa denuncia pubblica, amaramente, segnaliamo che ci sono almendo due scrap blog*:
che (uno dal 16 aprile, l'altro dall'8 maggio 2017) stanno duplicando ogni nostro post, causandoci gravi danni per il ranking del CorrieredelWeb.it e in piena violazione delle norme sul Copyright riconosciute globalmente.

I due ignobili scrap blog (https://informazioniultime.blogspot.com e https://ituoidati.blogspot.com) si nutrono tramite il nostro feed che ora siamo costretti a chiudere a tempo intederminato, pur causando un disservizio enorme, per noi e per i nostri lettori.

Stiamo segnalando questi ignobili parassiti, che si nascondono sotto il più totale anonimato a Google, il motore di ricerca più utilizzato, che penalizza pesantemente i contenuti duplicati.

Infatti stiamo sparendo dai risultati di ricerca e ogni condivisone ora deve essere svolta, per ogni articolo singolarmente e per ciascun Social in modo del tutto manuale.

Stiamo provvedendo alla prossima denuncia alla Polizia Postale Italiana contro gli anonimi ladri di contenuti.

Per far capire quanto siano ignobili gli autori di questi siti copiano proprio tutto:
pure la nostra pagina chi siamo e il nostro logo.

Andrea Pietrarota



Qualche esempio delle migliaia di post duplicati:


Da Wikipedia
Il web scraping (detto anche web harvesting o web data extraction) è una tecnica informatica di estrazione di dati da un sito web per mezzo di programmi software. 

Di solito, tali programmi simulano la navigazione umana nel World Wide Web attraverso l'implementazione di basso livello dell'Hypertext Transfer Protocol (HTTP) o l'incorporamento di un vero e proprio browser, come Internet Explorer o Mozilla Firefox.

Il web scraping è strettamente correlato all'indicizzazione dei siti Internet; tale tecnica è attuata mediante l'uso di bot dalla maggior parte dei motori di ricerca. 

D'altro canto, il web scraping si concentra di più sulla trasformazione di dati non strutturati presenti in Rete, di solito in formato HTML, in metadati che possono essere memorizzati e analizzati in locale in un database. 

Il web harvesting è altresì affine alla web automation, che consiste nella simulazione della navigazione umana in Rete attraverso l'uso di software per computer.

Il web scraping si può usare per confrontare prezzi online, monitorare dati meteorologici, rilevare modifiche in un sito internet, nella ricerca scientifica, per il web mashup e il web data integration.



Questa informazione è diffusa dal CorrieredelWeb.it  ©  Ogni diritto è riservato.
Copyright © CorrieredelWeb.it , All rights reserved.

Nessun commento:

Posta un commento