Anzeige - [Hier werben]
(?) Tags raten (?) (edit)
 
Reply to this topicStart new topicStart Poll
Diskussion

Duplicate content Filter (Google: Slow Death?)

Doppelter Content bei Google

Hans-Werner
Geschrieben am: So 27.06.2004, 10:52
Report PostQuote Post

AyomRank 6
Group Icon 2 Gruppe: Experte

Gruppe: Experte
Beiträge: 546
Mitglied seit: 23.03.2004


Hi Hi,

identsiche Inhalte führen ja evtl. zu Nachteilen bei den Suchmaschinen!

Ab wann meint z.B. Google Duplicate content zu erkennen.

Beispiel:
Auf dieser Lexikon-Seite von Webkoch.de wird der Inhalt von der entsprechenden Wikipedia-Seite übernommen (was übrigens völlig legal ist).

Erkennt Google das als doppelten content?

Wenn ja, was könnte man anders machen? Man darf ja den Text nicht verändern. Würden hier zusätzliche andere Inhalte was ändern?


Schöne Grüße
Hans


--------------------
Dumme Benutzer gibt es nicht, es gibt nur schlecht gestaltete Webseiten.
Top
PM
Top
 
 

#2 Geschrieben am: So 27.06.2004, 11:36 (+00:44)
Report PostQuote Post

AyomRank 10
Group Icon 2 Gruppe: Admin

Gruppe: Admin
Beiträge: 5270
Mitglied seit: 25.09.2003


QUOTE
Ab wann meint z.B. Google Duplicate content zu erkennen.

Salop: wenn es Mirrors sind, wie dein Beispiel. Aber diese Frage exakt zu beantworten ist eine Nummer zu gross für mich...
QUOTE
Erkennt Google das als Duplicate content?

Nein, dieses Beispiel, m.E. nicht, jedoch einfach noch nicht alle Wiki-Mirrors vollständig. Ist nur ein Algorithmus und ist sicher relativ viel Rechenzeit nötig ;-)

Duplicate content heisst nicht, dass die Seite nicht in Google ist.

Es hängt damit Zusammen, das bei der Generierung der SERPs für einen Teil KWs Seiten als Mirrors identifiziert werden und immer zu Gunsten der populärsten (Inbound-Links) fallen gelassen werden.

QUOTE
Wenn ja, was könnte man anders machen?

2. Möglichkeiten:

QUOTE
Würden hier zusätzliche andere Inhalte was ändern?

1. Da der Algorithmus von Google unbekannt ist, aber klar ist, dass es sich um einen approximativen also ungenauen Algo handelt, ist klar, dass man die Grenzen nicht eindeutig setzen kann.
Intuitiv scheint aber klar, dass die Gleichheit nicht mehr gegeben sein kann, wenn du für den Leser zusätzlichen Inhalt mit dem Mirror content verbindest. Wiederum ist klar, je mehr desto ungleicher sind die Seiten.

2. Alternativ kannst du die Ursprungsseite an Populatität überbieten, was die u.U. zu überraschend positive Resultate führen würde ;-)

Illustration:
Seiten in den SERPs: http://www.google.com/search?num=100&hl=de...e%22&lr=lang_de
#138 für Ananas. http://www.google.com/search?q=Ananas&num=...&start=138&sa=N

Ich bin mir noch nicht ganz sicher (aber gehe davon aus), ob die Doubles vom KW abhängig sind, und ob bei Entlarven von Doubletten dies dazu führt, dass sie in den jeweiligen SERPs nicht angezeigt werden.

PS Dies sind leider alles Hypothesen ;-) Sowie Pagerank Penalties für Doubletten m.E. urbane Legenden sind.
Top
PMEmail PosterUsers Website
Top
 
Hans-Werner
#3 Geschrieben am: Mo 28.06.2004, 11:38 (+24:01)
Report PostQuote Post

AyomRank 6
Group Icon 2 Gruppe: Experte

Gruppe: Experte
Beiträge: 546
Mitglied seit: 23.03.2004


Hallo Alain,

danke! Mal wieder ein gutes Feedback! smile.gif

Ich rekapituliere:
- je mehr zusätzlicher Text, desto besser
- auf Title- und Linktexte etc. achten


Schöne Grüße
Hans


--------------------
Dumme Benutzer gibt es nicht, es gibt nur schlecht gestaltete Webseiten.
Top
PM
Top
 
David Reisner
#4 Geschrieben am: Mo 28.06.2004, 11:54 (+00:16)
Report PostQuote Post

AyomRank 6
************

Gruppe: Member (aktiv)
Beiträge: 954
Mitglied seit: 2.12.2003


Genau. Das Ändern von Texten usw. ist nicht illegal, man muss sich nur genau die jeweiligen Lizenzen durchlesen und dann danach handeln.
Das Problem ist, im Internet gibt es ne Mega Menge an Duplicte content, ich weiß nicht wie viele meiner Forenpostings duplicate content sind usw.
Das Problem ist immer das Ranking. Generell, wie auch Alain gesagen hat, kann man mit genügend Link Pop alles schlagen, wobei ich gegen die wikipedia nicht mit link pop kämpfen würde;)


--------------------
Top
PMEmail PosterUsers WebsiteICQMSN
Top
 

#5 Geschrieben am: Mo 28.06.2004, 21:32 (+09:37)
Report PostQuote Post

AyomRank 10
Group Icon 2 Gruppe: Admin

Gruppe: Admin
Beiträge: 5270
Mitglied seit: 25.09.2003


Einige Weiterführende Überlegungen, die das Problem bekämpfen könnten:

QUOTE
Ich rekapituliere:
- je mehr zusätzlicher Text, desto besser

Hm, pauschal ja, aber ich Frage mich:

Wie verlgeicht Google Texte?

Es gibt verschiedene Textvergleich Algorithmen. Diese können aber wenn Text nicht identisch ist, ihn nur begrenzt Vergleichen.

Z.B. Sei eine Seite mit 5 Abschnitten in einer Html Seite.
1. Wenn man die gleiche Seite Text in ein anders Template (andere Tags, andere Navigation) packt, ist es immer noch sehr änhlich.
2. Wenn man die Reihenfolge der Abschnitte ändert, ist der Text immernoch sehr ähnlich (weniger als bei 1).
3. Wenn man der Seite Text hinzufügt (vor oder nach dem Text) ist er immernoch ähnlich (weniger als bei 2).
4. Wenn man der Seite zwischen den Abschnitten Text hinzufügt ist die Seite immernoch ähnlich (weniger als bei 3)
5. Wenn man Text weglässt, ist die Seite immernoch ähnlich (weniger als 1)
6. Wenn man Text ändert ist der Text immernoch ähnlich (weniger als 1-5)

Aus diesen Überlegungen folgt, dass Text, der auf einer Quelle basiert immer eine gewisse Ähnlichkeit mit dieser aufweist. Daraus folgt, dass es aus Webmastersicht nur darum geht die Ähnlichkeit zu reduzieren, um sie unter eine nicht bekannt untere Schranke von Google zu bringen.

QUOTE
- auf Title- und Linktexte etc. achten

Dem kann ich jetzt nicht ganz folgen.

Mein persönliches Fazit: Wenn du dem User Mehrwert (in Textform) bietest, wird Google dich nicht als Doublette ansehen. Es reicht aber nicht einfach oben und unter 2 Links o.ä. hinzuzufügen.

Eine Diskussion, die sich zwar nicht genau mit der Problematik beschäftigt, aber interessant sein könnte, da die Krankheiten wohl verwandt sind: http://www.suchmaschinentricks.de/forum/th...5&forum=1&stm=0
Top
PMEmail PosterUsers Website
Top
 
David Reisner
#6 Geschrieben am: Di 29.06.2004, 05:10 (+07:37)
Report PostQuote Post

AyomRank 6
************

Gruppe: Member (aktiv)
Beiträge: 954
Mitglied seit: 2.12.2003


Danke für den langen Beitragen zu den textvergleich algos. So gesehen müsste fast alles sehr ähnlich sein, da wohl jeder beim Schreiben seiner Texte sich auf Quellen bezieht, und sei es nur auf Dinge man gelesen und ausprobiert hat, irgendwoher hat jeder sein Wissen.


--------------------
Top
PMEmail PosterUsers WebsiteICQMSN
Top
 

#7 Geschrieben am: Di 29.06.2004, 08:35 (+03:25)
Report PostQuote Post

AyomRank 10
Group Icon 2 Gruppe: Admin

Gruppe: Admin
Beiträge: 5270
Mitglied seit: 25.09.2003


QUOTE
So gesehen müsste fast alles sehr ähnlich sein, da wohl jeder beim Schreiben seiner Texte sich auf Quellen bezieht

;-) Ja, jeder Beitrag dieser Diskussion ist jedem anderen ähnlich, weil in jedem das Word ähnlich vorkommt ;-)
Aber obiger Gedanke ist ein wenig abstrakt und dient der Illustration. Wenn man sich pratisch orientieren will, dann muss diese relative Ähnlichkeit schon sehr hoch sein, damit Google die Seiten wirklich als Doppelten Content siehr (Z.B. sind diese Post niemals Doubletten für Google).
Quellen beziehen != Copy and Past, ungenaue Ausdrucksweise meinerseits.

PS Nochmal zu dem obigen Link. Sehr wohl lesenswert bezüglich Dublicate Content. Der erwähnte Slow Death ist m.E. ein simples Produkt von Dublicate Content (sowie den Neuen Linktext Analysen etc).
Top
PMEmail PosterUsers Website
Top
 
David Reisner
#8 Geschrieben am: Di 29.06.2004, 10:16 (+01:40)
Report PostQuote Post

AyomRank 6
************

Gruppe: Member (aktiv)
Beiträge: 954
Mitglied seit: 2.12.2003


das ist allerdings korrekt Alain, die beiträge hier sind keine Doubles, da jeder auch seinen eigenen Stil hat und den sollte man auch beim erstellen der seiten beachten. Das ultimative ziel sollte net sein fremden inhalt möglichst gut so zu doublen das er net als double erkannt wird..sondern zu ner hub&authority seite zu werden, wer das erreicht, hat super listings trotz algo-änderungen, die wf faq ist ein gutes beispiel in die richtige richtung;-)

Copy und Paste..ist meist auf faulheit zurückzuführen, und wer nicht selbst arbeiten will..der hat gutes ranking net verdient..sorry für meine Interpretationen hier;-)


--------------------
Top
PMEmail PosterUsers WebsiteICQMSN
Top
 

#9 Geschrieben am: Mi 30.06.2004, 18:43 (+32:26)
Report PostQuote Post

AyomRank 10
Group Icon 2 Gruppe: Admin

Gruppe: Admin
Beiträge: 5270
Mitglied seit: 25.09.2003


Einige Weitere Überlegungen zu obiger Abhandlung:

Ich verwende immer den Begriff Seite und diesen gilt es jetzt genau zu definieren:
Def: Eine Seite ist eine einzelne Html- (php, asp, htm, whatever) Seite.

D.h. es geht bei Google nicht darum Domain asdf.ch mit ölkj.ch zu vergleichen, sondern asdf.ch/bauen.html mit ölkj.ch/häuser_bauen.php.

Achtung: eine Domain (d.h. ein Internetprojekt wie z.B. webmasterforum.ch) besteht aus x Seiten (nach def). Es ist sehr wichtig zu verstehen, dass Google einzelne Seiten vergleicht. Somit vergleicht sie auch die einzelnen Seiten einer Domain. Sicherlich hat jeder von euch folgenden Text schon einmal bei Google gesehen:
QUOTE
Um Ihnen nur die treffendsten Ergebnisse anzuzeigen, wurden einige Einträge ausgelassen, die den 33 bereits angezeigten Treffern sehr ähnlich sind.
Sie können bei Bedarf die Suche unter Einbeziehung der übersprungenen Ergebnisse wiederholen.


Fazit: m.E. Gibt es zwischen der Mirrorpoblematik, aufgrund Google's neuer Fähigkeiten Doubletten von anderen Webseiten effizient zu erkennen und der Gleichsetzung einzelner Seiten von Domains einen Zusammenhang. Für mich scheint es aber logisch, dass gleiche Seiten von verschiedenen Domains nicht den gleichen Faktoren unterliegen wie gleiche Seiten von gleichen Domains.
Top
PMEmail PosterUsers Website
Top
 

#10 Geschrieben am: Do 1.07.2004, 10:18 (+15:35)
Report PostQuote Post

AyomRank 10
Group Icon 2 Gruppe: Admin

Gruppe: Admin
Beiträge: 5270
Mitglied seit: 25.09.2003


Ein super Abakus-Posting über verschwundene Seiten: http://www.abakus-internet-marketing.de/fo...pic/t-6063.html

Unter anderem verschwand die Seite www.ranardo.de: http://www.google.de/search?hl=de&ie=UTF-8...tnG=Suche&meta=

Wenn ich die mal so anschaue, einen Satz in Google kopiere und dann den Link anklicke habe ich das:

http://www.ranardo.de/008/index.html
http://www.uhren-experte.com/

Google räumt auf.

PS Bezgl. Ranardo: Neben DC dürfte die Verlinkung dieser Domain wohl noch einen gewichtigen Grund gewesen sein, wieso sie nicht im index auftaucht.
Top
PMEmail PosterUsers Website
Top
 

#11 Geschrieben am: Do 1.07.2004, 10:32 (+00:13)
Report PostQuote Post

AyomRank 10
Group Icon 2 Gruppe: Admin

Gruppe: Admin
Beiträge: 5270
Mitglied seit: 25.09.2003


Jetzt wirds zum Selbstgespräch ;-)

Vor Monaten hab ich mir mal einen Text ausgedruck mit dem Titel: "Finding near-peplicas of documents on the web". Tönte interessant.

Jetzt nam es mich anhand dieser Google Neurungen wunder, wer Narayanan Shivakumar et al denn waren.

http://www-db.stanford.edu/~shiva/ -> Studierte in Stanford, arbeitet bei Google

Das Paper: http://dbpubs.stanford.edu:8090/pub/1998-31

;-)
Top
PMEmail PosterUsers Website
Top
 

#12 Geschrieben am: Fr 2.07.2004, 13:32 (+27:00)
Report PostQuote Post

AyomRank 10
Group Icon 2 Gruppe: Admin

Gruppe: Admin
Beiträge: 5270
Mitglied seit: 25.09.2003


QUOTE
Auf dieser Lexikon-Seite von Webkoch.de wird der Inhalt von der entsprechenden Wikipedia-Seite übernommen (was übrigens völlig legal ist).

Erkennt Google das als Duplicate content?


Ja ;-) Der populärste deutsche Wiki-Mirror ist net-lexikon.de. Der ist raus ;-)
http://www.google.ch/search?num=100&hl=de&...n.de+-asdf&meta
Top
PMEmail PosterUsers Website
Top
 
David Reisner
#13 Geschrieben am: Mi 7.07.2004, 10:48 (+4d 21:15)
Report PostQuote Post

AyomRank 6
************

Gruppe: Member (aktiv)
Beiträge: 954
Mitglied seit: 2.12.2003


Danke für die Links und Infos Alain, halte uns bitte auf dem laufenden. Man sieht mal wieder, eigener Inhalt ist der king;-)


--------------------
Top
PMEmail PosterUsers WebsiteICQMSN
Top
11 Monate später...
markus_1
#14 Geschrieben am: So 29.05.2005, 02:08 (+11m )
Report PostQuote Post

AyomRank 5
**********

Gruppe: Member (aktiv)
Beiträge: 320
Mitglied seit: 8.01.2005


Jetzt eine Verständnisfrage zu Wikipedia. Wenn ich

Dieser Artikel basiert auf dem Artikel XYZ (http://de.wikipedia.org/wiki/Hauptseite) aus der freien Enzyklopädie Wikipedia (http://de.wikipedia.org/) und steht unter der GNU-Lizenz für freie Dokumentation (http://www.gnu.org/licenses/fdl.txt). In der Wikipedia ist eine Liste der Autoren (http://de.wikipedia.org/w/index.php?title=Hauptseite&action=history) verfügbar.

dazuschreibe, kann ich mit den Texten online machen, was ich will und sie beliebig auf meiner Website verwenden ...

Kann das sein, dass mich Google in den Suchergebnissen zurückreiht, weil bei meinem (aus duplicate content-Gründen ziemlich abgeänderten) Text der Wikipedia-Link steht?


Gibt es irgendwo im Web Beispiele, was Google NICHT unter duplicate content versteht?






--------------------
Top
PMEmail PosterUsers Website
Top
 

#15 Geschrieben am: Mo 30.05.2005, 14:49 (+36:40)
Report PostQuote Post

AyomRank 10
Group Icon 2 Gruppe: Admin

Gruppe: Admin
Beiträge: 5270
Mitglied seit: 25.09.2003


Verzeih mir, aber kannst Du die Frage bitte präzisieren? Geht es um eine einzelne Seite, geht es um mehrere Seiten, und wo vermutest Du eine Zurückstufung in den SERPS.

Beispiele habe ich in der Vergangenheit einige gepostet. Siehe den FAQ Artikel zu Duplicate Content.
Top
PMEmail PosterUsers Website
Top
 
markus_1
#16 Geschrieben am: Mo 30.05.2005, 15:45 (+00:56)
Report PostQuote Post

AyomRank 5
**********

Gruppe: Member (aktiv)
Beiträge: 320
Mitglied seit: 8.01.2005


Hallo Alain!

Mir geht es um einzelne Seiten, die z. B. Pressemeldungen enthalten. Wie muss ich die umformulieren, damit das nicht als DC erkannt wird? Im Normalfall ist ja praktsich jede Meldung auf irgendeine Quelle im Netz zurückzuführen. Ich kann mir nicht vorstellen, dass Google da alle Quellen bzw. Inhalten untereinander abgleicht ....

Eine Zurückstufung in den Suchmaschinen habe ich selbst noch nicht bemerkt, vielleicht aber jemand anderer?




--------------------
Top
PMEmail PosterUsers Website
Top
 

#17 Geschrieben am: Mo 30.05.2005, 15:52 (+00:07)
Report PostQuote Post

AyomRank 10
Group Icon 2 Gruppe: Admin

Gruppe: Admin
Beiträge: 5270
Mitglied seit: 25.09.2003


QUOTE
Mir geht es um einzelne Seiten

Die einzelne Seite wird u.U. (richtigerweise) als DC erkannt (für wenige spezifische Queries) und nicht angezeigt, wenn nicht verändert, mehr nicht. Je nach deiner Einbindung sinkt die Warscheinlichkeit.
Top
PMEmail PosterUsers Website
Top
 
Thema wird von 0 Benutzer(n) gelesen (0 Gäste und 0 anonyme Benutzer)
0 Mitglieder:

Topic Options Reply to this topicStart new topicStart Poll

 


> Ähnliche Themen
Produkte via Facebook, Google+ und Twitter anbiete lukas1 398 5 Mi 16.04.2014, 15:56
Viele neue Content-Datenbanken codemonk 533 0 Do 3.04.2014, 13:24
Was haltet Ihr vom neuen Google Chrome OS Goodbuys 2663 14 Mi 2.04.2014, 10:05
Google Adsense / Welcher Auftraggeber Ireland/USA? maria123 359 3 Fr 28.03.2014, 18:33
Google Hacking mal anders... Alain Aubert 657 4 Mi 19.02.2014, 16:00
Google Places - Falsche Daten Flash 1780 8 Di 18.02.2014, 18:04
Google+ richtig nutzen? Ronny84 1548 10 Fr 14.02.2014, 12:11


Günstig werben auf Ayom:
Kontakt: ayom@small-n-tall.com



Anzeigen

Textlinks kaufen oder anbieten



[Hier werben]

 

Statistiken:
Top 10 Autoren heute
Top 50 Autoren insgesamt