Web Scraping mit ZimmWriter

Web Scraping und KI-Inhaltsgenerierung

🌐Die magi­schen Befeh­le von Zimm­Wri­ter ermög­li­chen Echt­zeit-Web-Scra­ping und Zusam­men­fas­sun­gen, so dass Benut­zer aktu­el­le Nach­rich­ten­ar­ti­kel, Pro­dukt­in­for­ma­tio­nen und kI-mani­pu­lier­te Daten auto­ma­tisch in ihre Inhal­te ein­bau­en können.

💰Der Tur­bo-Modus der Platt­form macht Web-Scra­ping äußerst kos­ten­ef­fi­zi­ent, mit Prei­sen von nur 2 Cent für einen Blog­bei­trag mit 10.000 Wör­tern und 0,2 Cent für einen Bei­trag mit 1.000 Wör­tern.

SEO und Inhaltsstrategie

🔍Der SEO-Blog­schrei­ber von Zimm­Wri­ter ver­wen­det gescrap­te URL-Daten in Glo­bal- und Zwi­schen­über­schrif­ten-Hin­ter­grün­den, um H2 zu gene­rie­ren, die den von der KI geschrie­be­nen Inhalt in den Abschnit­ten H2, H3 und H4 beeinflussen.

🔗Die Rever­se Out­reach Stra­te­gie kon­zen­triert sich auf die Erstel­lung von Inhal­ten rund um jour­na­lis­ti­sche Key­words mit ein­zig­ar­ti­gen Daten und Sta­tis­ti­ken, die Opti­mie­rung für kur­ze Ant­wor­ten auf ver­wand­te Fra­gen und den effek­ti­ven Auf­bau von White Hat Back­links ohne bestehen­de Autorität.

Produktbewertungen und Affiliate Marketing

🛒Die Scra­pe Out API ermög­licht die Extrak­ti­on von spe­zi­fi­schen Pro­dukt­da­ten von E‑Com­mer­ce-Sei­ten wie Ama­zon, ein­schließ­lich Pro­dukt­na­me, Preis, Rezen­sio­nen und Spe­zi­fi­ka­tio­nen, unter Ver­wen­dung von CSS IDs und Klas­sen.

📊Die Funk­ti­on Pro­dukt­lay­out von Zimm­Wri­ter erleich­tert die schnel­le Erstel­lung von umfas­sen­den Pro­dukt­über­sich­ten und Kauf­an­lei­tun­gen, indem sie bestimm­te Lay­outs aus­löst und Zwi­schen­über­schrif­ten­hin­ter­grün­de für aus­führ­li­che Bewer­tun­gen verwendet.

Grundlagen des Web Scraping mit ZimmWriter

Grund­la­gen des Web Scra­ping mit ZimmWriter

Wer es noch nicht gehört hat: Zimm­Wri­ter, die KI-Schreib­soft­ware, kann jetzt Daten aus dem Inter­net zusam­men­fas­sen und scra­pen. Du kannst Daten in Echt­zeit ein­ge­ben, sei es ein Nach­rich­ten­ar­ti­kel oder Pro­dukt­in­for­ma­tio­nen von Ama­zon oder einem gro­ßen Ein­zel­händ­ler oder Her­stel­ler, und KI wird sie auto­ma­tisch zusam­men­fas­sen. Das ist ziem­lich erstaun­lich. In die­sem Video zei­ge ich, wie das geht, wo man das machen kann und gebe eini­ge Best Practices.

Zuerst kön­nen wir Daten mit einem magi­schen Befehl abru­fen. Das zei­ge ich dir zuerst und dann schau­en wir uns den SEO Blog­ger an. Wir kön­nen auch Daten aus dem glo­ba­len Hin­ter­grund und den loka­len Hin­ter­grün­den für dei­ne ver­schie­de­nen Zwi­schen­über­schrif­ten abru­fen. Sehen wir uns zuerst die magi­schen Befeh­le an.

Ich habe den Notiz­block geöff­net und wir wer­den hier arbei­ten. Es gibt eine URL für einen CNN-Arti­kel, die ich hier ein­fü­ge. Nor­ma­ler­wei­se muss man der KI mit einem magi­schen Befehl sagen, was sie tun soll. Neh­men wir an, ich möch­te einen Social Media Post über die­se URL schrei­ben. Ich benut­ze hier das Wort „URL“, weil Zim­wri­ter ins Inter­net geht, die­se Infor­ma­tio­nen aus­liest, sie zusam­men­fasst und sie dann in die Hin­ter­grund­in­for­ma­tio­nen für die­sen Befehl einfügt.

Um die gescrap­te Infor­ma­ti­on, also die Daten aus der URL, die gescraped und zusam­men­ge­fasst wur­den, als „URL“ zu bezeich­nen, musst du sie ein­fü­gen. Füge nicht die URL ein, son­dern sage: „Schrei­be einen Social Media Post über die­se URL“ oder „Schrei­be eine Zusam­men­fas­sung die­ser URL“ oder „Schrei­be ein paar Dis­kus­si­ons­punk­te über die­se URL“ und du wirst gute Ergeb­nis­se erzielen.

Das Scra­ping ist fast fer­tig, und was pas­siert, ist, dass es zuerst die URL skrip­tet und dann unse­ren magi­schen Befehl ver­ar­bei­tet. Jetzt ist die URL gescraped und zusam­men­ge­fasst und führt den magi­schen Befehl aus. Wenn du also die­sen Som­mer nach Ita­li­en fährst, soll­test du auf jeden Fall die Regi­on Fri­aul-Julisch Vene­ti­en besu­chen. Die­se Regi­on ist reich an Kul­tur, Geschich­te und atem­be­rau­ben­der Natur­schön­heit, und du kannst auch Gut­schei­ne im Wert von bis zu 350 Pfund für vie­le Attrak­tio­nen, Restau­rants und Hotels erhal­ten. Das soll­test du dir nicht ent­ge­hen lassen.

Wir haben gera­de die­se gan­ze Sei­te mit AI zusam­men­ge­fasst und dann einen Social Media Post dar­über geschrie­ben. Jetzt wer­de ich ein Geheim­nis mit dir tei­len. Wir kön­nen die Zusam­men­fas­sung, die die KI auf der Sei­te erstellt hat, nicht sehen. Wenn wir also die­sen magi­schen Befehl ändern wol­len, um einen Face­book-Post über die­se URL zu schrei­ben, müs­sen wir sie mar­kie­ren, die Steue­rungs­tas­te drü­cken und Zim­wri­ter wür­de die­se Daten erneut scra­pen. Das wol­len wir nicht, denn wir haben die Daten bereits ana­ly­siert und zusam­men­ge­fasst, aber wir sehen die­se Zusam­men­fas­sung nicht.

Was wir tun kön­nen, ist Ctrl‑V zu drü­cken und die Zusam­men­fas­sung, die sich in der Zwi­schen­ab­la­ge befin­det, in Note­pad ein­zu­fü­gen. Wenn wir eine Sei­te scan­nen und einen magi­schen Befehl mit der URL ein­ge­ben, wird der magi­sche Befehl aus­ge­führt, aber die Zusam­men­fas­sung wird auch in der Zwi­schen­ab­la­ge gespei­chert. Das Tol­le dar­an ist, dass wir jetzt die­sen Befehl neh­men, einen Face­book-Post schrei­ben, ihn an das Ende der Zusam­men­fas­sung anhän­gen, den Befehl und die Zusam­men­fas­sung mar­kie­ren und die Steue­rungs­tas­te drü­cken können.

Jetzt muss Zim­wri­ter die Sei­te nicht mehr neu erstel­len, son­dern ver­ar­bei­tet nur noch unse­re Hin­ter­grund­in­for­ma­tio­nen. Eine tol­le neue Initia­ti­ve in Ita­li­en: Besu­cher kön­nen bis zu 350 Pfund in Form von Gut­schei­nen erhal­ten, die sie in Hotels etc. ein­lö­sen kön­nen. Das ist eine schnel­le und ein­fa­che Mög­lich­keit, die Zusam­men­fas­sung wie­der­zu­ver­wen­den, ohne sie erneut zu scrapen.

Wenn du kei­nen magi­schen Befehl aus­füh­ren möch­test, kannst du hier oben „zusam­men­fas­sen“ und dann ein Gleich­heits­zei­chen ein­ge­ben. Wenn wir das tun, die Sei­te mar­kie­ren und die Steue­rungs­tas­te drü­cken, wird Zim­wri­ter die Sei­te ein­fach scra­pen und zusam­men­fas­sen und die Zusam­men­fas­sung für uns aus­spu­cken. Er wird kei­nen wei­te­ren magi­schen Befehl für uns verarbeiten.

Es gibt ver­schie­de­ne Mög­lich­kei­ten, mit URLs in einem magi­schen Befehl zu arbei­ten. Wenn das funk­tio­niert, möch­te ich dir ein paar Best Prac­ti­ces geben. Ers­tens: Alle Scra­pings und Zusam­men­fas­sun­gen, egal ob du sie mit einem magi­schen Befehl oder im SEO Blog Wri­ter machst, ver­wen­den den Tur­bo. Wenn du einen Blog­bei­trag mit 10.000 Wör­tern scra­pen und zusam­men­fas­sen wür­dest, wür­de dich das im Durch­schnitt etwa zwei Cent kosten.

Wenn du einen Blog­bei­trag mit 1.000 Wör­tern scra­pen und zusam­men­fas­sen wür­dest, wür­de dich das wahr­schein­lich etwa einen Fünf­tel Cent kos­ten. Das ist also ein sehr kos­ten­güns­ti­ger Ansatz für die Daten­ver­ar­bei­tung. Ich wür­de mir kei­ne Sor­gen machen, dass du zu viel Geld für das Scra­ping aus­gibst; mit Tur­bo wird es sehr billig.

Ein wei­te­rer Vor­teil ist, dass man mit den magi­schen Befeh­len immer nur eine URL bear­bei­ten kann. Du kannst nicht zwei URLs ein­ge­ben und die KI bit­ten, z.B. zwei Pro­duk­te unter zwei ver­schie­de­nen URLs zu ver­glei­chen. Das ist nicht mög­lich, es kann immer nur eine URL bear­bei­tet werden.

Alle URLs, die du hin­zu­fügst, müs­sen das For­mat http oder https, Dop­pel­punkt, Schräg­strich und dann die URL haben. Wenn du ein ande­res For­mat aus­pro­bierst, z.B. nur www, wird es nicht funk­tio­nie­ren. Du brauchst https und so weiter.

Manch­mal funk­tio­niert der Scra­pe nicht und du bekommst eine Feh­ler­mel­dung. Ver­su­che den Scra­pe noch ein­mal und schau, ob er funk­tio­niert. Wenn es nicht funk­tio­niert, ist viel­leicht die URL inkom­pa­ti­bel oder so. Manch­mal fin­det das Pro­gramm kei­ne Daten für den Scra­pe, was an einem Feh­ler oder ähn­li­chem lie­gen kann. Scra­ping ist nicht per­fekt. Wenn du dir den Quell­text der Sei­te ansiehst, siehst du alle Daten, die die KI bei der Ana­ly­se der Sei­te berück­sich­tigt, und sie muss den eigent­li­chen Text aus dem gan­zen HTML-Code her­aus­fil­tern. Es ist also kein ein­fa­cher, son­dern ein kom­ple­xer Pro­zess. Scra­ping ist alles ande­re als ein­fach. Es wird hier und da ein paar Feh­ler geben, das liegt in der Natur der Sache. Aber in den meis­ten Fäl­len soll­ten 99 % aller Web­sites, mit denen du zu tun hast, pro­blem­los gescraped wer­den können.

Du kannst URLs in den glo­ba­len Hin­ter­grund und auch in den Hin­ter­grund dei­ner Zwi­schen­über­schrif­ten ein­fü­gen. Das ist wie ein H2; hier kannst du eine URL ein­fü­gen. Zuerst wer­den wir über den glo­ba­len Hin­ter­grund spre­chen. Es gibt meh­re­re Grün­de, war­um du etwas in den glo­ba­len Hin­ter­grund ein­fü­gen soll­test. Ers­tens: Wenn du die drit­te Opti­on ver­wen­dest, kannst du den glo­ba­len Hin­ter­grund und die gescrap­ten URL-Daten ver­wen­den, um dei­ne H2s zu gene­rie­ren. Wenn du hier eine URL ein­gibst und sie in den Goog­le-Hin­ter­grund kon­ver­tierst, wird die­se Infor­ma­ti­on in jede H2, jede H3 und jede H4 über­nom­men, wäh­rend die KI den Arti­kel schreibt. Und das kann das, was geschrie­ben wird, beein­flus­sen. Wenn du über ein Nischen­the­ma schreibst, kann der glo­ba­le Hin­ter­grund der KI hel­fen, das Pro­dukt oder den Her­stel­ler zu ver­ste­hen, über den die KI nichts weiß.

Wenn du eine URL in den glo­ba­len Hin­ter­grund ein­gibst und auf Opti­on 3 klickst, wird die KI die URL scra­pen, eine Zusam­men­fas­sung im glo­ba­len Hin­ter­grund erstel­len und dann auto­ma­tisch mit dem Schrei­ben der H2s begin­nen. Hin­ter den Kulis­sen sind vie­le Schrit­te not­wen­dig, um die H2s für einen bestimm­ten Arti­kel zu erstel­len. Das ist sehr nütz­lich, um ent­we­der eine Nische zu repli­zie­ren, die die KI nicht kennt, oder um den Arti­kel eines ande­ren in dei­nem eige­nen Stil zu schrei­ben. Man könn­te auch ein­fach den gesam­ten Text des Arti­kels kopie­ren und in den glo­ba­len Hin­ter­grund­be­reich einfügen.

Einer der Nach­tei­le ist, dass der glo­ba­le Hin­ter­grund auf etwa 1.000 bis 1.200 Wör­ter begrenzt ist und Zim­wri­ter beim Scra­ping einer URL den Inhalt die­ser Sei­te zusam­men­fasst. Es wird nicht jedes ein­zel­ne Wort über­nom­men, daher ist die Anzahl der Wör­ter, die in den glo­ba­len Hin­ter­grund ein­ge­fügt wer­den kön­nen, begrenzt. Die Scra­ping-Funk­ti­on ermög­licht es, den Haupt­punkt und die wich­tigs­ten Unter­punk­te des Arti­kels sehr kurz zusammenzufassen.

Das Scra­ping ist bei 80 ange­kom­men, und ich den­ke, das ist der Indi­ka­tor dafür, dass jetzt alles gescraped und zusam­men­ge­fasst ist und jetzt die­se Mini-Chunks, die­se Mini-Zusam­men­fas­sun­gen, zusam­men­ge­fasst wer­den. Das soll­te nur noch einen Moment dau­ern. Gut, das war’s. Im Moment haben wir Über­blick, Stra­te­gie, Vor­tei­le, Umset­zungs­schrit­te, Erfolgs­fak­to­ren, Feed­back und Tests. Wenn du nach oben schaust, siehst du die gesam­te Zusam­men­fas­sung die­ser Web­site. Ich emp­feh­le dir, sie durch­zu­ge­hen und eini­ge Din­ge zu überprüfen.

Das ist die bes­te Pra­xis. Ver­las­se dich nicht nur auf die KI, um die wich­tigs­ten Punk­te zu erken­nen. Gehe sie durch und über­prü­fe sie, beson­ders wenn du eine Pro­dukt­über­sicht machst. Ama­zon ist ziem­lich sicher, da brauchst du dir kei­ne Sor­gen zu machen. Aber wenn du Pro­duk­te aus ande­ren gro­ßen Geschäf­ten wie Best Buy oder Home Depot aus­wählst, wo es vie­le ande­re Infor­ma­tio­nen auf der Sei­te gibt, die nichts mit dem Haupt­the­ma zu tun haben, z.B. ein Pro­dukt: Du gehst zu Home Depot und schaust dir eine bestimm­te Bohr­ma­schi­ne an. Auf der glei­chen Sei­te gibt es viel­leicht noch ande­re Bohr­ma­schi­nen, die damit zu tun haben. Die KI wird nicht wis­sen, was mit die­ser Bohr­ma­schi­ne zu tun hat und was mit den ande­ren Bohrmaschinen.

Ich emp­feh­le, die gescrap­ten Ergeb­nis­se durch­zu­ge­hen und nicht rele­van­te Din­ge zu ent­fer­nen, da dies nicht nur Aus­wir­kun­gen auf die H2-Gene­ra­tio­nen hat, wenn Opti­on 3 ver­wen­det wird, son­dern auch auf die tat­säch­li­che Aus­ga­be. Da die­ser glo­ba­le Hin­ter­grund jedes Mal in den Inhalt ein­fließt, wenn der Prü­fungs­au­tor mit dem Schrei­ben des H2 beginnt, wird er auch in den Inhalt ein­flie­ßen, wenn er ihn schreibt. Ach­te dar­auf, dass er sau­ber ist und nur Din­ge ent­hält, die für das The­ma „Back­links durch Rever­se Lin­king“ rele­vant sind. Auf den ers­ten Blick sieht das hier ganz gut aus.

Wenn du einen glo­ba­len Hin­ter­grund ver­wen­dest, emp­feh­le ich, nicht mehr als fünf Zwi­schen­über­schrif­ten zu ver­wen­den. Bei mehr als fünf Unter­ti­teln kann es zu Wie­der­ho­lun­gen kom­men. Wenn du sehr vie­le Zwi­schen­über­schrif­ten hast, emp­feh­le ich dir, nicht unbe­dingt einen glo­ba­len Hin­ter­grund zu ver­wen­den oder zumin­dest einen glo­ba­len Hin­ter­grund in Kom­bi­na­ti­on mit einem loka­len Hin­ter­grund zu ver­wen­den, z.B. einen Hin­ter­grund für dein spe­zi­el­les H2. Wir gehen nicht über fünf hin­aus und die­se Zusam­men­fas­sung sieht ziem­lich gut aus. Die­ses The­ma ist kein Nischen­the­ma, also den­ke ich, dass die AI gute Arbeit leis­ten kann, wenn sie über die­ses The­ma schreibt.

Aber wenn dein The­ma sehr nischen­spe­zi­fisch ist, die AI nicht viel dar­über weiß und du vie­le H2s, vie­le H3s und vie­le H4s hast, dann ver­wen­de nicht nur die­sen glo­ba­len Hin­ter­grund. Ver­wen­de auch einen Hin­ter­grund für jedes ein­zel­ne H2, um bes­se­re Ergeb­nis­se zu erzie­len und Wie­der­ho­lun­gen zu ver­mei­den. Lass uns eine URL zum Scra­pen hin­zu­fü­gen und sehen, wie es funk­tio­niert. Als Feed­back und zum Tes­ten fügen wir eine wei­te­re H2 hin­zu, die wir „ande­re Tricks“ nen­nen. Ich neh­me die­se URL, kopie­re sie und füge sie hier ein. Dann scan­nen wir das Ergeb­nis und über­prü­fen es, bevor wir den Arti­kel erstel­len.

Ich habe bereits erwähnt, dass die Anzahl der Wör­ter für eine Zusam­men­fas­sung begrenzt ist, oder? Nicht die Wör­ter, die die KI liest, son­dern die Zusam­men­fas­sung, die sie erstellt, umfasst etwa 1.000 bis 1.200 Wör­ter im glo­ba­len Hin­ter­grund. In eini­gen Fäl­len kannst du bis zu drei URLs in den Hin­ter­grund der Zwi­schen­über­schrif­ten ein­fü­gen. Du bist auf 500 Wör­ter beschränkt, also hal­bie­ren wir die­se Zahl, da sie alle zusam­men in Open AI ein­ge­ge­ben wer­den. Die Anzahl der Wör­ter, die in Open AI ein­ge­ge­ben wer­den kön­nen, ist begrenzt. Ich habe eine Ober­gren­ze von 500 Wör­tern fest­ge­legt, so dass wir hof­fent­lich eine Zusam­men­fas­sung von 500 Wör­tern aus die­sem Arti­kel erhalten.

Ich wür­de die­se Zusam­men­fas­sung ger­ne scra­pen und eine Vor­schau anzei­gen. Hier unten gibt es meh­re­re Mög­lich­kei­ten. Wenn ich auf „URLs scra­pen und SEO Wri­ter star­ten“ kli­cke, wird Zim­wri­ter ver­su­chen, alle URLs hier oben zu scra­pen und dann mit dem Schrei­ben zu begin­nen. Ich wer­de kei­ne Mög­lich­keit haben, die gescrap­ten Daten zu über­prü­fen. Ich emp­feh­le das nicht. Mit die­ser Opti­on wer­den nur die URLs gescrapt, aber der Arti­kel wird nicht geschrie­ben. Sie erlaubt mir eine Vor­schau des Ergeb­nis­ses. Mit die­sem Knopf hier kann ich SEO Wri­ter star­ten, ohne URLs zu scra­pen. Eini­ge Leu­te haben mir erzählt, dass sie ger­ne URLs im Hin­ter­grund ein­fü­gen, in der Hoff­nung, dass die KI die­se URLs als Zita­te oder Links oder ähn­li­ches verwendet.

Ich möch­te auf die­se Schalt­flä­che kli­cken, damit Zimm­Wri­ter mit dem Scra­ping der URL beginnt, aber nicht mit dem Schrei­ben des Arti­kels. Wir kön­nen das gescrap­te Ergeb­nis über­prü­fen und bear­bei­ten, wenn wir etwas sehen, das dort nicht hin­ge­hört, bevor wir mit dem Schrei­ben des Arti­kels beginnen.

Ich wer­de das Video beschleu­ni­gen und wir wer­den uns das Ergeb­nis anse­hen. Der Scrap ist fer­tig, also scrol­len wir nach oben und sehen uns das Ergeb­nis an. Es ist alles in die­sem Kas­ten – min­des­tens 500 Wör­ter. Wir sehen, dass es abge­schnit­ten ist. Er hat genau hier aufgehört.

Kopie­ren wir es von hier und fügen es in Note­pad ein, um es zu über­prü­fen. Es ist ein­fa­cher, wenn es nicht hier ist. Zu den Stra­te­gien für den Auf­bau von White-Hat-Back­links gehö­ren Gast­blog­ging, Part­ner­schaf­ten mit Unter­neh­men und das Ersu­chen um Back­links. Das ist groß­ar­tig, und ich den­ke, die AI wür­de sich hier wirk­lich aus­to­ben und ein paar gute Sachen für den Abschnitt „Ande­re Tricks“ schrei­ben, ein­schließ­lich Fak­ten, Sta­tis­ti­ken und Schlüsselpunkte.

Es sieht nicht so aus, als gäbe es hier über­flüs­si­ge Infor­ma­tio­nen, also las­sen wir es so. Wir gehen hier rüber und legen die Ein­stel­lun­gen fest, mit denen wir die­sen Arti­kel schrei­ben wol­len. Wir wer­den einen kur­zen Arti­kel in der zwei­ten Per­son mit lite­ra­ri­schen Mit­teln schrei­ben. Wir akti­vie­ren die Lis­ten und las­sen die Leser leer. Wir brau­chen kei­ne Ein­ga­be­auf­for­de­rung für das Pro­dukt­lay­out und ver­wen­den sie auch nicht.

Ich akti­vie­re den auto­ma­ti­schen Stil, der die ver­trau­ens­wür­digs­te Per­son fin­det, die die­sen Arti­kel schreibt. Wir wer­den kei­ne auto­ma­ti­schen Schlüs­sel­wör­ter ver­wen­den und den Arti­kel mit Tur­bo schrei­ben. Ich emp­feh­le Tur­bo immer, wenn man einen glo­ba­len Hin­ter­grund ver­wen­det, da die Kos­ten bei der Ver­wen­dung von GPT‑4 oder DaVin­ci sehr hoch sein kön­nen und eini­ge Leu­te sich des­sen nicht bewusst sind.

Ich habe ein­mal 60 Zwi­schen­über­schrif­ten in einem Arti­kel erstellt und die Ver­wen­dung von DaVin­ci hat mich $5 gekos­tet, wenn ich GPT‑4 ver­wen­det hät­te, wären es $15 gewe­sen. Sei vor­sich­tig, wenn du einen glo­ba­len Hin­ter­grund ver­wen­dest; die Leu­te den­ken, es sei ein All­heil­mit­tel, aber es gibt auch eini­ge Nach­tei­le. Da wir Tur­bo ver­wen­den und es kei­ne URLs mehr zu scra­pen gibt, kön­nen wir ent­we­der auf die­se Schalt­flä­che oder auf „Wri­ter star­ten“ kli­cken, ohne zu scrapen.

Der Arti­kel ist fer­tig, gehen wir in unser Ver­zeich­nis und suchen ihn. Ich wer­de die alten Arti­kel löschen. Die­ser Arti­kel heißt „Wie man Back­links mit Rever­se Out­reach bekommt“. Ich gebe ihn in die­sen Mark­down-Kon­ver­ter ein, um ihn in ein Word-Doku­ment umzu­wan­deln, und che­cke ihn aus. Ich wer­de die Datei in der Beschrei­bung die­ses Vide­os zur Ver­fü­gung stel­len, damit du sie dir in Ruhe anse­hen kannst.

Die Erstel­lung die­ses Arti­kels mit Tur­bo hat drei Pfen­ni­ge gekos­tet. Hät­ten wir Tur­bo nicht benutzt, hät­te es mit DaVin­ci 30 Cent gekos­tet. Wir haben fünf oder sechs H2-Titel. In dem Arti­kel geht es dar­um, wie man mit Rever­se Out­reach Back­links bekommt, und er erklärt die Über­sicht, die Stra­te­gie, die Vor­tei­le und die Schrit­te zur Umset­zung. Er schlägt vor, mit der Suche nach jour­na­lis­ti­schen Schlüs­sel­wör­tern zu begin­nen, die mit der eige­nen Nische zu tun haben, und Inhal­te rund um die­se Schlüs­sel­wör­ter mit ein­zig­ar­ti­gen Daten und Sta­tis­ti­ken zu erstellen.

Ich habe den Arti­kel gele­sen und fin­de ihn wirk­lich gut. Der Arti­kel betont auch, wie wich­tig es ist, Zwi­schen­über­schrif­ten ein­zu­fü­gen, den Inhalt für jour­na­lis­ti­sche Schlüs­sel­wör­ter zu opti­mie­ren und kur­ze Ant­wor­ten auf Fra­gen zu die­sen Schlüs­sel­wör­tern zu geben. Der Arti­kel ent­hält auch Kom­men­ta­re von ande­ren, die die Rever­se Out­reach Stra­te­gie ange­wen­det haben und sagen, dass es ein nütz­li­cher und effek­ti­ver Ansatz ist.

Es wird dar­auf hin­ge­wie­sen, dass es eini­ge Zeit dau­ern kann, bis die Web­site im Ran­king erscheint – bis zu drei oder vier Mona­te. Wei­te­re Tak­ti­ken zum Auf­bau von White-Hat-Back­links wer­den genannt, wie z. B. die Erstel­lung von Inhal­ten, die geteilt wer­den kön­nen, die Nut­zung sozia­ler Medi­en, der Auf­bau von gebro­che­nen Links und die Teil­nah­me an Online-Communities.

Jetzt wer­den wir Ama­zon scra­pen, um etwas ande­res zu demons­trie­ren. Keh­ren wir zu unse­rem SEO-Blog­ger zurück und löschen wir all die­se Ein­stel­lun­gen, um neu anzu­fan­gen. Ich gebe einen Titel ein – „Bes­ter Robo­ter-Rasen­mä­her“ – und wir schrei­ben einen neu­en Blog­ein­trag. Dies ist nur eine Demons­tra­ti­on; ich wür­de kei­nen Arti­kel über den bes­ten Robo­ter-Rasen­mä­her schrei­ben. Wir akti­vie­ren den Hin­ter­grund der Zwi­schen­über­schrift und gehen zu Amazon.

IP-Adres­sen für einen Moment: Das gan­ze Scra­ping wird mit dei­ner eige­nen IP-Adres­se durch­ge­führt. Da ich in Ohio lebe und die meis­ten Orte IP-Adres­sen aus Ohio nicht blo­ckie­ren, kann ich pro­blem­los einen Back­link oder eine bestimm­te Sei­te aus einem Such­ma­schi­nen-Jour­nal scra­pen. Ich mache ihre Web­site nicht kaputt, ich mache nur eine Anfra­ge an ihre Web­site, und sie wer­den mei­ne IP-Adres­se nicht blockieren.

Bei Ama­zon oder Goog­le kann ich das nicht. Wenn ich Goog­le scra­pen will, brau­che ich etwas Zusätz­li­ches – einen rotie­ren­den IP-Pro­xy, einen Scra­ping-Pro­xy. Und wenn du in einem ande­ren Land bist, zum Bei­spiel in Chi­na oder irgend­wo, wo es eine Fire­wall gibt, kannst du die­se URLs ohne einen rotie­ren­den Pro­xy viel­leicht nicht scra­pen. Das ist anders, als wenn du ein VPN auf dei­nem Com­pu­ter benutzt; du hast viel­leicht einen bezahl­ten VPN-Plan, aber das reicht nicht aus.

Im Opti­ons­me­nü siehst du zwei Links: Der eine heißt „Set­ze einen neu­en Scra­pe Owl API Schlüs­sel“ und „Kau­fe einen Scra­pe Owl API Schlüs­sel“. Kli­cke auf die­sen Link und ver­ge­wis­se­re dich, dass du auf die­sen Link klickst, denn dann bekommst du einen Son­der­preis für die­se API für die­sen rotie­ren­den Pro­xy. Du wirst einen klei­nen Hin­weis in der URL sehen. Ich ver­die­ne kein Geld damit, es ist über­haupt kein Geld­ma­cher für mich. Ich habe mit die­ser Fir­ma einen Son­der­preis für Zim-Autoren aus­ge­han­delt. Wenn du nicht auf die­sen Link klickst, siehst du die­sen Son­der­preis nicht.

Auch bei die­sem Hob­by-Plan kannst du für fünf Dol­lar im Monat 10.000 Cre­dits bekom­men. Jeder Cre­dit ist wie ein Scra­pe, okay? Du könn­test also theo­re­tisch 10.000 Mal in einem Monat bei Ama­zon scra­pen. Das wird nie­mand machen. Goog­le, wenn ich das imple­men­tie­re – es ist noch nicht imple­men­tiert – könn­te ein biss­chen mehr Cre­dits als ein Scra­pe pro Cre­dit haben, ich weiß nicht, wir wer­den das alles her­aus­fin­den. Aber die meis­ten Leu­te kom­men mit den fünf Dol­lar pro Monat aus.

Du beginnst die kos­ten­lo­se Test­pha­se mit die­sem Link, wech­selst dann zum Fünf-Dol­lar-Tarif und gibst hier den Scra­pe Owl API-Schlüs­sel ein. Danach kannst du Ama­zon mit Zimm­Wri­ter scra­pen. Das Tol­le dar­an ist: Wenn man auf eine Ama­zon-Sei­te geht, gibt es dort eine Men­ge Zeug, das für die­ses Pro­dukt nicht rele­vant ist. Es wird oft zusam­men gekauft, da sind noch ein paar ande­re Sachen drin. Wenn ich Zimm­Wri­ter ein­fach auf die­se Sei­te gehen las­se und ver­su­che, sie zu scra­pen, bekom­me ich eine Men­ge irrele­van­ter Infor­ma­tio­nen. Aber mit Scra­pe Owl kön­nen wir wirk­lich erstaun­li­che Din­ge damit machen und nur die Daten zu die­sem bestimm­ten Pro­dukt herausziehen.

Wir geben also die­se URL ein und fügen sie direkt hier in die Hin­ter­grund­in­for­ma­tio­nen ein. Wir nen­nen das Pro­dukt Hus­q­var­na Auto­mo­ti­ve Rasen­mä­her­ro­bo­ter, das ist unser Titel. Und ich löse die­ses Pro­dukt­lay­out aus. All das wird in den Trai­nings­de­tails auf mei­ner… Wenn du hier auf Online-Hil­fe klickst, fin­dest du ein aus­führ­li­ches Tuto­ri­al zur Ver­wen­dung von SEO Blog Wri­ter, also erklä­ren wir das in die­sem Video nicht.

Lan­ge Rede, kur­zer Sinn: Wir geben hier die URL von Ama­zon ein, und jetzt möch­te ich auf eine ande­re Sei­te gehen. Ich möch­te zu Home Depot gehen und etwas demons­trie­ren. Wir neh­men auch eine Sei­te von Home Depot und fügen die­sen Gar­ten­zwerg ein. Also kopie­re ich das und füge Yard Force hier ein, Yard Force… nen­nen wir es Yard Force Robo­ter­ra­sen­mä­her, das wird das Pro­dukt­lay­out hier aus­lö­sen. Dann gehe ich hier run­ter und möch­te nicht die Erstel­lung des Arti­kels star­ten, son­dern nur die URLs bear­bei­ten. Also kli­cke ich auf die Schalt­flä­che „Nur die URLs scra­pen“ und die URLs wer­den sofort gescrapt.

Ich möch­te dir etwas zei­gen. Ich möch­te dir zei­gen, dass wir Scra­pe Owl nicht brau­chen, um Home Depot zu scra­pen, aber da wir Scra­pe Owl benut­zen, um Ama­zon zu scra­pen, habe ich es so pro­gram­miert, dass es nur die pro­dukt­spe­zi­fi­schen Din­ge extra­hiert. Und wenn du tech­nisch ver­sier­ter bist, erklä­re ich dir, wie das funk­tio­niert. Ich habe die ent­spre­chen­den CSS-Klas­sen und IDs für eini­ge die­ser ver­schie­de­nen Din­ge gefun­den. Mit Scra­pe Owl kann man nur Daten extra­hie­ren, die zu einer bestimm­ten ID oder CSS-Klas­se gehö­ren, so dass wir sehr genau bestim­men kön­nen, was wir von der Sei­te scrapen.

Das kann kaum ein ande­rer Scra­per. Wir fas­sen die­se Infor­ma­tio­nen hier gar nicht an; ich glau­be, wir fas­sen die­se Infor­ma­tio­nen hier gar nicht an. Wir extra­hie­ren nur die rele­van­ten Din­ge und auch die Pro­dukt­be­wer­tun­gen. Bei Home Depot machen wir das nicht; wir zie­hen alles von die­ser Sei­te. Wenn man also ande­re Sei­ten als die von Ama­zon scannt, muss man die Skrip­te und die Zusam­men­fas­sun­gen über­prü­fen, weil man eini­ge die­ser irrele­van­ten Infor­ma­tio­nen hat.

Ich möch­te Benut­zern wie dir die Mög­lich­keit geben, mit ein wenig tech­ni­schem Ver­ständ­nis her­aus­zu­fin­den, wel­che CSS-Tags, Klas­sen und IDs du für eine bestimm­te Web­site aus­le­sen möch­test. Man stel­le sich also eine Gemein­schaft von Zim-Autoren vor, die fra­gen: „Hey, was ist rele­vant für das Scra­ping einer Home Depot-Sei­te?“ Und jemand teilt dir die­se CSS-IDs und Klas­sen mit, du kannst sie in Zimm­Wri­ter ein­ge­ben und dann wer­den nur die Pro­dukt­de­tails, der Titel des Pro­dukts, der Preis und nur die guten Sachen extra­hiert, wäh­rend der Rest hier igno­riert wird. Ich den­ke, das wäre sehr wert­voll für Affi­lia­te-Ver­mark­ter. Wir haben die­se Funk­ti­on noch nicht, ich habe sie noch nicht ein­ge­baut, aber ich den­ke, sie wird sich in die­se Rich­tung ent­wi­ckeln. Scra­pe Owl wird also mit der Zeit noch nütz­li­cher werden.

Ich öff­ne den Notiz­block, damit wir das bes­ser über­prü­fen kön­nen. Ich lösche die Zusam­men­fas­sung, wir brau­chen sie nicht mehr. Die bei­den URLs sind zusam­men­ge­fasst, und weil wir auf die­se Schalt­flä­che geklickt haben, wur­de der Arti­kel nicht geschrie­ben, was gut ist. Jetzt wol­len wir die­se Zusam­men­fas­sun­gen über­prü­fen. Ich habe die spe­zi­el­le Ama­zon-Behand­lung mit CSS-IDs und Klas­sen erklärt, die es uns ermög­licht, einen qua­li­ta­tiv hoch­wer­ti­gen Scra­pe zu erstellen.

Der Pro­dukt­na­me wird auf­ge­lis­tet und dann gibt es Details wie die Eig­nung für mit­tel­gro­ße bis gro­ße Gär­ten. Es gibt noch ein paar ande­re Spe­zi­fi­ka­tio­nen und ein paar Din­ge aus den Rezen­sio­nen. Es ist ein biss­chen teu­er, aber die Inves­ti­ti­on lohnt sich, da es mit Dieb­stahl­si­che­rung aus­ge­stat­tet ist. Wir fin­den nichts Über­flüs­si­ges oder Unwich­ti­ges. Viel­leicht ist der Best­sel­ler-Rang nicht wirk­lich rele­vant, aber abge­se­hen davon ist es eine sehr gute Zusam­men­fas­sung der Qua­li­tät die­ses spe­zi­el­len Produkts.

Schau­en wir uns nun das Pro­dukt von Home Depot an. Ich wäh­le alles aus und brin­ge es hier­her. Zurück zur Pro­dukt­sei­te. Das ist der Yard Force und hier steht NX100i. Ist das der Name? Bei den Pro­dukt­de­tails wür­de ich das anneh­men. Ja, NX100i, Steue­rung über eine Han­dy-App, Regen­sen­so­ren, Akku, sie­ben Zoll, ja, das ist der­sel­be, funk­tio­niert bis jetzt gut. Vie­les davon sieht gut aus. Schau­en wir uns mal die Unter­sei­te an. Mel­de dich für E‑Mail an und bekom­me fünf Dol­lar Rabatt; das brau­chen wir nicht. Home Depot ist im Grun­de ein Copy­right; das brau­chen wir nicht. Wenn du die­se Sei­te benutzt, brauchst du kei­ne Nut­zungs­be­din­gun­gen. Die Prei­se vari­ie­ren; hier ist eine Tele­fon­num­mer; all das brau­chen wir nicht. Das kön­nen wir strei­chen. Spe­zi­el­le Finan­zie­rung; das brau­chen wir nicht. Das hat nichts mit dem Pro­dukt zu tun.

Es ist unmög­lich, eine per­fek­te Zusam­men­fas­sung zu erstel­len, ohne die ver­schie­de­nen CSS-IDs und Klas­sen zu iden­ti­fi­zie­ren. Und das ist nur Home Depot; stell dir vor, wir hät­ten Best Buy, Lowe’s und all die ande­ren Läden in den USA. Ich weiß nicht, wel­che ande­ren Läden ihr in Euro­pa habt, aber das ist das Wesent­li­che. Du soll­test auf jeden Fall dei­ne Zusam­men­fas­sun­gen durch­ge­hen und über­prü­fen, wenn du den SEO Blog­ger ver­wen­dest und Din­ge zusam­men­fasst. Das bedeu­tet, dass du einen Arti­kel von guter Qua­li­tät haben möch­test. Du sparst immer noch eine Men­ge Zeit, es ist viel schnel­ler als es von Hand zu machen, aber es ist nicht nar­ren­si­cher. Man muss eini­ge Din­ge noch ein­mal überprüfen.

Wir haben die Zusam­men­fas­sung bear­bei­tet und ich füge sie hier wie­der ein, das ist unse­re neue Zusam­men­fas­sung. Jetzt gehen wir hier rüber und schrei­ben die­sen Arti­kel ganz schnell. Ich zei­ge dir, wie das geht. Wir ver­wen­den DaVin­ci, weil wir kei­nen glo­ba­len Hin­ter­grund ver­wen­den; man spart eine Men­ge Geld, wenn man nur die­se loka­len Hin­ter­grün­de ver­wen­det, wo es ange­bracht ist oder das Pro­dukt­lay­out aus­löst. Das ist alles, was wir wollen.

Wir schrei­ben das jetzt, es wird schnell gehen. Auch hier wür­de ich kei­ne Pro­dukt­über­sicht schrei­ben, denn unse­re ein­zi­gen H2 sind die­se bei­den unter­schied­li­chen Pro­duk­te. Aber es gibt einen Ein­druck davon, was man bekom­men kann, wenn man das Pro­dukt­lay­out aus­löst, wenn man die Hin­ter­grund­in­for­ma­tio­nen ein­fügt. Ich wer­de die­se Datei auch in dem Link in der Beschrei­bung die­ses Vide­os zum Down­load anbieten.

Der Arti­kel ist fer­tig und wie gesagt, die­ser Arti­kel ist nicht reprä­sen­ta­tiv dafür, wie ich ein Pro­dukt­lay­out erstel­len wür­de. Ich woll­te nur zei­gen, wie wir die URLs scra­pen, die­se Unter­ti­tel-Hin­ter­grün­de ver­wen­den und dann die KI über die­ses The­ma schrei­ben las­sen kön­nen. Das hat 10 Cent für die­se bei­den H2s gekos­tet. Ver­giss nicht, dass wir das Pro­dukt­lay­out getaggt haben. Der Hus­q­var­na Auto­mo­ti­ve for 30 HX ist die idea­le Wahl für alle, die eine zuver­läs­si­ge auto­ma­ti­sche Lösung für die Rasen­pfle­ge mit GPS-Navi­ga­ti­on suchen. Die­ser Mäh­ro­bo­ter eig­net sich für mit­tel­gro­ße bis gro­ße Gär­ten bis zu 0,8 Hekt­ar. Er ist mit einem GPS-Dieb­stahl­schutz, einem ein­ge­bau­ten Alarm­sys­tem und einer PIN-Code-Sper­re für mehr Sicher­heit ausgestattet.

Die Schnitt­brei­te beträgt 9,45 cm, die Flä­chen­leis­tung 1430 cm. Die tech­ni­schen Daten sowie die Vor- und Nach­tei­le sind in den Rezen­sio­nen zu fin­den. Er arbei­tet mit GPS-Navi­ga­ti­on, ist aber etwas teu­er. Der Robo­ter-Rasen­mä­her Yard Force sorgt mit sei­nem 3‑Mes­ser-Mäh­kopf und acht Hin­ter­rä­dern für einen gepfleg­ten Rasen und arbei­tet fast geräusch­los. Der Robo­ter­ra­sen­mä­her wird über eine App gesteu­ert und ist mit Regen­sen­so­ren aus­ge­stat­tet. Die Regen­sen­so­ren wei­sen den Motor an, zu sei­ner Lade­sta­ti­on zurück­zu­keh­ren, sobald er erkennt, dass dies not­wen­dig ist. Es

Ich emp­feh­le dir, den Tur­bo zu benut­zen – du wirst tol­le Ergeb­nis­se mit Zoom Wri­ter erzie­len, und du hast auch die Auf­for­de­rung in der Mit­te des Vide­os: „Robo­ter mäht saf­tig grü­nen Rasen“ mit einem fried­li­chen Hin­ter­grund aus Bäu­men vor einem strah­lend blau­en Himmel.

Ich hof­fe, dass dir das Video gefällt und dass es dir gut erklärt, wie du die Scra­ping-Funk­ti­on in Zimm­Wri­ter nut­zen kannst. Im Lau­fe der Zeit wer­de ich noch mehr Funk­tio­nen in die magi­schen Befeh­le von SEO Blog­wri­ter ein­bau­en, um sie noch nütz­li­cher zu machen, aber schon jetzt gibt es eine Men­ge, was du damit machen kannst – eine Men­ge Power.

Ich wür­de ger­ne hören, wie du es benutzt, also hin­ter­las­se einen Kom­men­tar. Wenn dir das Video gefällt, gib ihm einen Dau­men hoch und abon­nie­re es. In der Beschrei­bung unten fin­dest du einen Link zu Zimm­Wri­ter und tritt der Face­book-Grup­pe bei, in der mehr als 7.000 groß­ar­ti­ge Men­schen dir auf dei­ner Rei­se durch KI und Con­tent Crea­ti­on hel­fen. Wir wür­den uns freu­en, dich dort zu sehen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert