Inhaltsverzeichnis
ToggleWeb Scraping und KI-Inhaltsgenerierung
🌐Die magischen Befehle von ZimmWriter ermöglichen Echtzeit-Web-Scraping und Zusammenfassungen, so dass Benutzer aktuelle Nachrichtenartikel, Produktinformationen und kI-manipulierte Daten automatisch in ihre Inhalte einbauen können.
💰Der Turbo-Modus der Plattform macht Web-Scraping äußerst kosteneffizient, mit Preisen von nur 2 Cent für einen Blogbeitrag mit 10.000 Wörtern und 0,2 Cent für einen Beitrag mit 1.000 Wörtern.
SEO und Inhaltsstrategie
🔍Der SEO-Blogschreiber von ZimmWriter verwendet gescrapte URL-Daten in Global- und Zwischenüberschriften-Hintergründen, um H2 zu generieren, die den von der KI geschriebenen Inhalt in den Abschnitten H2, H3 und H4 beeinflussen.
🔗Die Reverse Outreach Strategie konzentriert sich auf die Erstellung von Inhalten rund um journalistische Keywords mit einzigartigen Daten und Statistiken, die Optimierung für kurze Antworten auf verwandte Fragen und den effektiven Aufbau von White Hat Backlinks ohne bestehende Autorität.
Produktbewertungen und Affiliate Marketing
🛒Die Scrape Out API ermöglicht die Extraktion von spezifischen Produktdaten von E-Commerce-Seiten wie Amazon, einschließlich Produktname, Preis, Rezensionen und Spezifikationen, unter Verwendung von CSS IDs und Klassen.
📊Die Funktion Produktlayout von ZimmWriter erleichtert die schnelle Erstellung von umfassenden Produktübersichten und Kaufanleitungen, indem sie bestimmte Layouts auslöst und Zwischenüberschriftenhintergründe für ausführliche Bewertungen verwendet.
Grundlagen des Web Scraping mit ZimmWriter
Wer es noch nicht gehört hat: ZimmWriter, die KI-Schreibsoftware, kann jetzt Daten aus dem Internet zusammenfassen und scrapen. Du kannst Daten in Echtzeit eingeben, sei es ein Nachrichtenartikel oder Produktinformationen von Amazon oder einem großen Einzelhändler oder Hersteller, und KI wird sie automatisch zusammenfassen. Das ist ziemlich erstaunlich. In diesem Video zeige ich, wie das geht, wo man das machen kann und gebe einige Best Practices.
Zuerst können wir Daten mit einem magischen Befehl abrufen. Das zeige ich dir zuerst und dann schauen wir uns den SEO Blogger an. Wir können auch Daten aus dem globalen Hintergrund und den lokalen Hintergründen für deine verschiedenen Zwischenüberschriften abrufen. Sehen wir uns zuerst die magischen Befehle an.
Ich habe den Notizblock geöffnet und wir werden hier arbeiten. Es gibt eine URL für einen CNN-Artikel, die ich hier einfüge. Normalerweise muss man der KI mit einem magischen Befehl sagen, was sie tun soll. Nehmen wir an, ich möchte einen Social Media Post über diese URL schreiben. Ich benutze hier das Wort „URL“, weil Zimwriter ins Internet geht, diese Informationen ausliest, sie zusammenfasst und sie dann in die Hintergrundinformationen für diesen Befehl einfügt.
Um die gescrapte Information, also die Daten aus der URL, die gescraped und zusammengefasst wurden, als „URL“ zu bezeichnen, musst du sie einfügen. Füge nicht die URL ein, sondern sage: „Schreibe einen Social Media Post über diese URL“ oder „Schreibe eine Zusammenfassung dieser URL“ oder „Schreibe ein paar Diskussionspunkte über diese URL“ und du wirst gute Ergebnisse erzielen.
Das Scraping ist fast fertig, und was passiert, ist, dass es zuerst die URL skriptet und dann unseren magischen Befehl verarbeitet. Jetzt ist die URL gescraped und zusammengefasst und führt den magischen Befehl aus. Wenn du also diesen Sommer nach Italien fährst, solltest du auf jeden Fall die Region Friaul-Julisch Venetien besuchen. Diese Region ist reich an Kultur, Geschichte und atemberaubender Naturschönheit, und du kannst auch Gutscheine im Wert von bis zu 350 Pfund für viele Attraktionen, Restaurants und Hotels erhalten. Das solltest du dir nicht entgehen lassen.
Wir haben gerade diese ganze Seite mit AI zusammengefasst und dann einen Social Media Post darüber geschrieben. Jetzt werde ich ein Geheimnis mit dir teilen. Wir können die Zusammenfassung, die die KI auf der Seite erstellt hat, nicht sehen. Wenn wir also diesen magischen Befehl ändern wollen, um einen Facebook-Post über diese URL zu schreiben, müssen wir sie markieren, die Steuerungstaste drücken und Zimwriter würde diese Daten erneut scrapen. Das wollen wir nicht, denn wir haben die Daten bereits analysiert und zusammengefasst, aber wir sehen diese Zusammenfassung nicht.
Was wir tun können, ist Ctrl-V zu drücken und die Zusammenfassung, die sich in der Zwischenablage befindet, in Notepad einzufügen. Wenn wir eine Seite scannen und einen magischen Befehl mit der URL eingeben, wird der magische Befehl ausgeführt, aber die Zusammenfassung wird auch in der Zwischenablage gespeichert. Das Tolle daran ist, dass wir jetzt diesen Befehl nehmen, einen Facebook-Post schreiben, ihn an das Ende der Zusammenfassung anhängen, den Befehl und die Zusammenfassung markieren und die Steuerungstaste drücken können.
Jetzt muss Zimwriter die Seite nicht mehr neu erstellen, sondern verarbeitet nur noch unsere Hintergrundinformationen. Eine tolle neue Initiative in Italien: Besucher können bis zu 350 Pfund in Form von Gutscheinen erhalten, die sie in Hotels etc. einlösen können. Das ist eine schnelle und einfache Möglichkeit, die Zusammenfassung wiederzuverwenden, ohne sie erneut zu scrapen.
Wenn du keinen magischen Befehl ausführen möchtest, kannst du hier oben „zusammenfassen“ und dann ein Gleichheitszeichen eingeben. Wenn wir das tun, die Seite markieren und die Steuerungstaste drücken, wird Zimwriter die Seite einfach scrapen und zusammenfassen und die Zusammenfassung für uns ausspucken. Er wird keinen weiteren magischen Befehl für uns verarbeiten.
Es gibt verschiedene Möglichkeiten, mit URLs in einem magischen Befehl zu arbeiten. Wenn das funktioniert, möchte ich dir ein paar Best Practices geben. Erstens: Alle Scrapings und Zusammenfassungen, egal ob du sie mit einem magischen Befehl oder im SEO Blog Writer machst, verwenden den Turbo. Wenn du einen Blogbeitrag mit 10.000 Wörtern scrapen und zusammenfassen würdest, würde dich das im Durchschnitt etwa zwei Cent kosten.
Wenn du einen Blogbeitrag mit 1.000 Wörtern scrapen und zusammenfassen würdest, würde dich das wahrscheinlich etwa einen Fünftel Cent kosten. Das ist also ein sehr kostengünstiger Ansatz für die Datenverarbeitung. Ich würde mir keine Sorgen machen, dass du zu viel Geld für das Scraping ausgibst; mit Turbo wird es sehr billig.
Ein weiterer Vorteil ist, dass man mit den magischen Befehlen immer nur eine URL bearbeiten kann. Du kannst nicht zwei URLs eingeben und die KI bitten, z.B. zwei Produkte unter zwei verschiedenen URLs zu vergleichen. Das ist nicht möglich, es kann immer nur eine URL bearbeitet werden.
Alle URLs, die du hinzufügst, müssen das Format http oder https, Doppelpunkt, Schrägstrich und dann die URL haben. Wenn du ein anderes Format ausprobierst, z.B. nur www, wird es nicht funktionieren. Du brauchst https und so weiter.
Manchmal funktioniert der Scrape nicht und du bekommst eine Fehlermeldung. Versuche den Scrape noch einmal und schau, ob er funktioniert. Wenn es nicht funktioniert, ist vielleicht die URL inkompatibel oder so. Manchmal findet das Programm keine Daten für den Scrape, was an einem Fehler oder ähnlichem liegen kann. Scraping ist nicht perfekt. Wenn du dir den Quelltext der Seite ansiehst, siehst du alle Daten, die die KI bei der Analyse der Seite berücksichtigt, und sie muss den eigentlichen Text aus dem ganzen HTML-Code herausfiltern. Es ist also kein einfacher, sondern ein komplexer Prozess. Scraping ist alles andere als einfach. Es wird hier und da ein paar Fehler geben, das liegt in der Natur der Sache. Aber in den meisten Fällen sollten 99 % aller Websites, mit denen du zu tun hast, problemlos gescraped werden können.
Du kannst URLs in den globalen Hintergrund und auch in den Hintergrund deiner Zwischenüberschriften einfügen. Das ist wie ein H2; hier kannst du eine URL einfügen. Zuerst werden wir über den globalen Hintergrund sprechen. Es gibt mehrere Gründe, warum du etwas in den globalen Hintergrund einfügen solltest. Erstens: Wenn du die dritte Option verwendest, kannst du den globalen Hintergrund und die gescrapten URL-Daten verwenden, um deine H2s zu generieren. Wenn du hier eine URL eingibst und sie in den Google-Hintergrund konvertierst, wird diese Information in jede H2, jede H3 und jede H4 übernommen, während die KI den Artikel schreibt. Und das kann das, was geschrieben wird, beeinflussen. Wenn du über ein Nischenthema schreibst, kann der globale Hintergrund der KI helfen, das Produkt oder den Hersteller zu verstehen, über den die KI nichts weiß.
Wenn du eine URL in den globalen Hintergrund eingibst und auf Option 3 klickst, wird die KI die URL scrapen, eine Zusammenfassung im globalen Hintergrund erstellen und dann automatisch mit dem Schreiben der H2s beginnen. Hinter den Kulissen sind viele Schritte notwendig, um die H2s für einen bestimmten Artikel zu erstellen. Das ist sehr nützlich, um entweder eine Nische zu replizieren, die die KI nicht kennt, oder um den Artikel eines anderen in deinem eigenen Stil zu schreiben. Man könnte auch einfach den gesamten Text des Artikels kopieren und in den globalen Hintergrundbereich einfügen.
Einer der Nachteile ist, dass der globale Hintergrund auf etwa 1.000 bis 1.200 Wörter begrenzt ist und Zimwriter beim Scraping einer URL den Inhalt dieser Seite zusammenfasst. Es wird nicht jedes einzelne Wort übernommen, daher ist die Anzahl der Wörter, die in den globalen Hintergrund eingefügt werden können, begrenzt. Die Scraping-Funktion ermöglicht es, den Hauptpunkt und die wichtigsten Unterpunkte des Artikels sehr kurz zusammenzufassen.
Das Scraping ist bei 80 angekommen, und ich denke, das ist der Indikator dafür, dass jetzt alles gescraped und zusammengefasst ist und jetzt diese Mini-Chunks, diese Mini-Zusammenfassungen, zusammengefasst werden. Das sollte nur noch einen Moment dauern. Gut, das war’s. Im Moment haben wir Überblick, Strategie, Vorteile, Umsetzungsschritte, Erfolgsfaktoren, Feedback und Tests. Wenn du nach oben schaust, siehst du die gesamte Zusammenfassung dieser Website. Ich empfehle dir, sie durchzugehen und einige Dinge zu überprüfen.
Das ist die beste Praxis. Verlasse dich nicht nur auf die KI, um die wichtigsten Punkte zu erkennen. Gehe sie durch und überprüfe sie, besonders wenn du eine Produktübersicht machst. Amazon ist ziemlich sicher, da brauchst du dir keine Sorgen zu machen. Aber wenn du Produkte aus anderen großen Geschäften wie Best Buy oder Home Depot auswählst, wo es viele andere Informationen auf der Seite gibt, die nichts mit dem Hauptthema zu tun haben, z.B. ein Produkt: Du gehst zu Home Depot und schaust dir eine bestimmte Bohrmaschine an. Auf der gleichen Seite gibt es vielleicht noch andere Bohrmaschinen, die damit zu tun haben. Die KI wird nicht wissen, was mit dieser Bohrmaschine zu tun hat und was mit den anderen Bohrmaschinen.
Ich empfehle, die gescrapten Ergebnisse durchzugehen und nicht relevante Dinge zu entfernen, da dies nicht nur Auswirkungen auf die H2-Generationen hat, wenn Option 3 verwendet wird, sondern auch auf die tatsächliche Ausgabe. Da dieser globale Hintergrund jedes Mal in den Inhalt einfließt, wenn der Prüfungsautor mit dem Schreiben des H2 beginnt, wird er auch in den Inhalt einfließen, wenn er ihn schreibt. Achte darauf, dass er sauber ist und nur Dinge enthält, die für das Thema „Backlinks durch Reverse Linking“ relevant sind. Auf den ersten Blick sieht das hier ganz gut aus.
Wenn du einen globalen Hintergrund verwendest, empfehle ich, nicht mehr als fünf Zwischenüberschriften zu verwenden. Bei mehr als fünf Untertiteln kann es zu Wiederholungen kommen. Wenn du sehr viele Zwischenüberschriften hast, empfehle ich dir, nicht unbedingt einen globalen Hintergrund zu verwenden oder zumindest einen globalen Hintergrund in Kombination mit einem lokalen Hintergrund zu verwenden, z.B. einen Hintergrund für dein spezielles H2. Wir gehen nicht über fünf hinaus und diese Zusammenfassung sieht ziemlich gut aus. Dieses Thema ist kein Nischenthema, also denke ich, dass die AI gute Arbeit leisten kann, wenn sie über dieses Thema schreibt.
Aber wenn dein Thema sehr nischenspezifisch ist, die AI nicht viel darüber weiß und du viele H2s, viele H3s und viele H4s hast, dann verwende nicht nur diesen globalen Hintergrund. Verwende auch einen Hintergrund für jedes einzelne H2, um bessere Ergebnisse zu erzielen und Wiederholungen zu vermeiden. Lass uns eine URL zum Scrapen hinzufügen und sehen, wie es funktioniert. Als Feedback und zum Testen fügen wir eine weitere H2 hinzu, die wir „andere Tricks“ nennen. Ich nehme diese URL, kopiere sie und füge sie hier ein. Dann scannen wir das Ergebnis und überprüfen es, bevor wir den Artikel erstellen.
Ich habe bereits erwähnt, dass die Anzahl der Wörter für eine Zusammenfassung begrenzt ist, oder? Nicht die Wörter, die die KI liest, sondern die Zusammenfassung, die sie erstellt, umfasst etwa 1.000 bis 1.200 Wörter im globalen Hintergrund. In einigen Fällen kannst du bis zu drei URLs in den Hintergrund der Zwischenüberschriften einfügen. Du bist auf 500 Wörter beschränkt, also halbieren wir diese Zahl, da sie alle zusammen in Open AI eingegeben werden. Die Anzahl der Wörter, die in Open AI eingegeben werden können, ist begrenzt. Ich habe eine Obergrenze von 500 Wörtern festgelegt, so dass wir hoffentlich eine Zusammenfassung von 500 Wörtern aus diesem Artikel erhalten.
Ich würde diese Zusammenfassung gerne scrapen und eine Vorschau anzeigen. Hier unten gibt es mehrere Möglichkeiten. Wenn ich auf „URLs scrapen und SEO Writer starten“ klicke, wird Zimwriter versuchen, alle URLs hier oben zu scrapen und dann mit dem Schreiben zu beginnen. Ich werde keine Möglichkeit haben, die gescrapten Daten zu überprüfen. Ich empfehle das nicht. Mit dieser Option werden nur die URLs gescrapt, aber der Artikel wird nicht geschrieben. Sie erlaubt mir eine Vorschau des Ergebnisses. Mit diesem Knopf hier kann ich SEO Writer starten, ohne URLs zu scrapen. Einige Leute haben mir erzählt, dass sie gerne URLs im Hintergrund einfügen, in der Hoffnung, dass die KI diese URLs als Zitate oder Links oder ähnliches verwendet.
Ich möchte auf diese Schaltfläche klicken, damit ZimmWriter mit dem Scraping der URL beginnt, aber nicht mit dem Schreiben des Artikels. Wir können das gescrapte Ergebnis überprüfen und bearbeiten, wenn wir etwas sehen, das dort nicht hingehört, bevor wir mit dem Schreiben des Artikels beginnen.
Ich werde das Video beschleunigen und wir werden uns das Ergebnis ansehen. Der Scrap ist fertig, also scrollen wir nach oben und sehen uns das Ergebnis an. Es ist alles in diesem Kasten – mindestens 500 Wörter. Wir sehen, dass es abgeschnitten ist. Er hat genau hier aufgehört.
Kopieren wir es von hier und fügen es in Notepad ein, um es zu überprüfen. Es ist einfacher, wenn es nicht hier ist. Zu den Strategien für den Aufbau von White-Hat-Backlinks gehören Gastblogging, Partnerschaften mit Unternehmen und das Ersuchen um Backlinks. Das ist großartig, und ich denke, die AI würde sich hier wirklich austoben und ein paar gute Sachen für den Abschnitt „Andere Tricks“ schreiben, einschließlich Fakten, Statistiken und Schlüsselpunkte.
Es sieht nicht so aus, als gäbe es hier überflüssige Informationen, also lassen wir es so. Wir gehen hier rüber und legen die Einstellungen fest, mit denen wir diesen Artikel schreiben wollen. Wir werden einen kurzen Artikel in der zweiten Person mit literarischen Mitteln schreiben. Wir aktivieren die Listen und lassen die Leser leer. Wir brauchen keine Eingabeaufforderung für das Produktlayout und verwenden sie auch nicht.
Ich aktiviere den automatischen Stil, der die vertrauenswürdigste Person findet, die diesen Artikel schreibt. Wir werden keine automatischen Schlüsselwörter verwenden und den Artikel mit Turbo schreiben. Ich empfehle Turbo immer, wenn man einen globalen Hintergrund verwendet, da die Kosten bei der Verwendung von GPT-4 oder DaVinci sehr hoch sein können und einige Leute sich dessen nicht bewusst sind.
Ich habe einmal 60 Zwischenüberschriften in einem Artikel erstellt und die Verwendung von DaVinci hat mich $5 gekostet, wenn ich GPT-4 verwendet hätte, wären es $15 gewesen. Sei vorsichtig, wenn du einen globalen Hintergrund verwendest; die Leute denken, es sei ein Allheilmittel, aber es gibt auch einige Nachteile. Da wir Turbo verwenden und es keine URLs mehr zu scrapen gibt, können wir entweder auf diese Schaltfläche oder auf „Writer starten“ klicken, ohne zu scrapen.
Der Artikel ist fertig, gehen wir in unser Verzeichnis und suchen ihn. Ich werde die alten Artikel löschen. Dieser Artikel heißt „Wie man Backlinks mit Reverse Outreach bekommt“. Ich gebe ihn in diesen Markdown-Konverter ein, um ihn in ein Word-Dokument umzuwandeln, und checke ihn aus. Ich werde die Datei in der Beschreibung dieses Videos zur Verfügung stellen, damit du sie dir in Ruhe ansehen kannst.
Die Erstellung dieses Artikels mit Turbo hat drei Pfennige gekostet. Hätten wir Turbo nicht benutzt, hätte es mit DaVinci 30 Cent gekostet. Wir haben fünf oder sechs H2-Titel. In dem Artikel geht es darum, wie man mit Reverse Outreach Backlinks bekommt, und er erklärt die Übersicht, die Strategie, die Vorteile und die Schritte zur Umsetzung. Er schlägt vor, mit der Suche nach journalistischen Schlüsselwörtern zu beginnen, die mit der eigenen Nische zu tun haben, und Inhalte rund um diese Schlüsselwörter mit einzigartigen Daten und Statistiken zu erstellen.
Ich habe den Artikel gelesen und finde ihn wirklich gut. Der Artikel betont auch, wie wichtig es ist, Zwischenüberschriften einzufügen, den Inhalt für journalistische Schlüsselwörter zu optimieren und kurze Antworten auf Fragen zu diesen Schlüsselwörtern zu geben. Der Artikel enthält auch Kommentare von anderen, die die Reverse Outreach Strategie angewendet haben und sagen, dass es ein nützlicher und effektiver Ansatz ist.
Es wird darauf hingewiesen, dass es einige Zeit dauern kann, bis die Website im Ranking erscheint – bis zu drei oder vier Monate. Weitere Taktiken zum Aufbau von White-Hat-Backlinks werden genannt, wie z. B. die Erstellung von Inhalten, die geteilt werden können, die Nutzung sozialer Medien, der Aufbau von gebrochenen Links und die Teilnahme an Online-Communities.
Jetzt werden wir Amazon scrapen, um etwas anderes zu demonstrieren. Kehren wir zu unserem SEO-Blogger zurück und löschen wir all diese Einstellungen, um neu anzufangen. Ich gebe einen Titel ein – „Bester Roboter-Rasenmäher“ – und wir schreiben einen neuen Blogeintrag. Dies ist nur eine Demonstration; ich würde keinen Artikel über den besten Roboter-Rasenmäher schreiben. Wir aktivieren den Hintergrund der Zwischenüberschrift und gehen zu Amazon.
IP-Adressen für einen Moment: Das ganze Scraping wird mit deiner eigenen IP-Adresse durchgeführt. Da ich in Ohio lebe und die meisten Orte IP-Adressen aus Ohio nicht blockieren, kann ich problemlos einen Backlink oder eine bestimmte Seite aus einem Suchmaschinen-Journal scrapen. Ich mache ihre Website nicht kaputt, ich mache nur eine Anfrage an ihre Website, und sie werden meine IP-Adresse nicht blockieren.
Bei Amazon oder Google kann ich das nicht. Wenn ich Google scrapen will, brauche ich etwas Zusätzliches – einen rotierenden IP-Proxy, einen Scraping-Proxy. Und wenn du in einem anderen Land bist, zum Beispiel in China oder irgendwo, wo es eine Firewall gibt, kannst du diese URLs ohne einen rotierenden Proxy vielleicht nicht scrapen. Das ist anders, als wenn du ein VPN auf deinem Computer benutzt; du hast vielleicht einen bezahlten VPN-Plan, aber das reicht nicht aus.
Im Optionsmenü siehst du zwei Links: Der eine heißt „Setze einen neuen Scrape Owl API Schlüssel“ und „Kaufe einen Scrape Owl API Schlüssel“. Klicke auf diesen Link und vergewissere dich, dass du auf diesen Link klickst, denn dann bekommst du einen Sonderpreis für diese API für diesen rotierenden Proxy. Du wirst einen kleinen Hinweis in der URL sehen. Ich verdiene kein Geld damit, es ist überhaupt kein Geldmacher für mich. Ich habe mit dieser Firma einen Sonderpreis für Zim-Autoren ausgehandelt. Wenn du nicht auf diesen Link klickst, siehst du diesen Sonderpreis nicht.
Auch bei diesem Hobby-Plan kannst du für fünf Dollar im Monat 10.000 Credits bekommen. Jeder Credit ist wie ein Scrape, okay? Du könntest also theoretisch 10.000 Mal in einem Monat bei Amazon scrapen. Das wird niemand machen. Google, wenn ich das implementiere – es ist noch nicht implementiert – könnte ein bisschen mehr Credits als ein Scrape pro Credit haben, ich weiß nicht, wir werden das alles herausfinden. Aber die meisten Leute kommen mit den fünf Dollar pro Monat aus.
Du beginnst die kostenlose Testphase mit diesem Link, wechselst dann zum Fünf-Dollar-Tarif und gibst hier den Scrape Owl API-Schlüssel ein. Danach kannst du Amazon mit ZimmWriter scrapen. Das Tolle daran ist: Wenn man auf eine Amazon-Seite geht, gibt es dort eine Menge Zeug, das für dieses Produkt nicht relevant ist. Es wird oft zusammen gekauft, da sind noch ein paar andere Sachen drin. Wenn ich ZimmWriter einfach auf diese Seite gehen lasse und versuche, sie zu scrapen, bekomme ich eine Menge irrelevanter Informationen. Aber mit Scrape Owl können wir wirklich erstaunliche Dinge damit machen und nur die Daten zu diesem bestimmten Produkt herausziehen.
Wir geben also diese URL ein und fügen sie direkt hier in die Hintergrundinformationen ein. Wir nennen das Produkt Husqvarna Automotive Rasenmäherroboter, das ist unser Titel. Und ich löse dieses Produktlayout aus. All das wird in den Trainingsdetails auf meiner… Wenn du hier auf Online-Hilfe klickst, findest du ein ausführliches Tutorial zur Verwendung von SEO Blog Writer, also erklären wir das in diesem Video nicht.
Lange Rede, kurzer Sinn: Wir geben hier die URL von Amazon ein, und jetzt möchte ich auf eine andere Seite gehen. Ich möchte zu Home Depot gehen und etwas demonstrieren. Wir nehmen auch eine Seite von Home Depot und fügen diesen Gartenzwerg ein. Also kopiere ich das und füge Yard Force hier ein, Yard Force… nennen wir es Yard Force Roboterrasenmäher, das wird das Produktlayout hier auslösen. Dann gehe ich hier runter und möchte nicht die Erstellung des Artikels starten, sondern nur die URLs bearbeiten. Also klicke ich auf die Schaltfläche „Nur die URLs scrapen“ und die URLs werden sofort gescrapt.
Ich möchte dir etwas zeigen. Ich möchte dir zeigen, dass wir Scrape Owl nicht brauchen, um Home Depot zu scrapen, aber da wir Scrape Owl benutzen, um Amazon zu scrapen, habe ich es so programmiert, dass es nur die produktspezifischen Dinge extrahiert. Und wenn du technisch versierter bist, erkläre ich dir, wie das funktioniert. Ich habe die entsprechenden CSS-Klassen und IDs für einige dieser verschiedenen Dinge gefunden. Mit Scrape Owl kann man nur Daten extrahieren, die zu einer bestimmten ID oder CSS-Klasse gehören, so dass wir sehr genau bestimmen können, was wir von der Seite scrapen.
Das kann kaum ein anderer Scraper. Wir fassen diese Informationen hier gar nicht an; ich glaube, wir fassen diese Informationen hier gar nicht an. Wir extrahieren nur die relevanten Dinge und auch die Produktbewertungen. Bei Home Depot machen wir das nicht; wir ziehen alles von dieser Seite. Wenn man also andere Seiten als die von Amazon scannt, muss man die Skripte und die Zusammenfassungen überprüfen, weil man einige dieser irrelevanten Informationen hat.
Ich möchte Benutzern wie dir die Möglichkeit geben, mit ein wenig technischem Verständnis herauszufinden, welche CSS-Tags, Klassen und IDs du für eine bestimmte Website auslesen möchtest. Man stelle sich also eine Gemeinschaft von Zim-Autoren vor, die fragen: „Hey, was ist relevant für das Scraping einer Home Depot-Seite?“ Und jemand teilt dir diese CSS-IDs und Klassen mit, du kannst sie in ZimmWriter eingeben und dann werden nur die Produktdetails, der Titel des Produkts, der Preis und nur die guten Sachen extrahiert, während der Rest hier ignoriert wird. Ich denke, das wäre sehr wertvoll für Affiliate-Vermarkter. Wir haben diese Funktion noch nicht, ich habe sie noch nicht eingebaut, aber ich denke, sie wird sich in diese Richtung entwickeln. Scrape Owl wird also mit der Zeit noch nützlicher werden.
Ich öffne den Notizblock, damit wir das besser überprüfen können. Ich lösche die Zusammenfassung, wir brauchen sie nicht mehr. Die beiden URLs sind zusammengefasst, und weil wir auf diese Schaltfläche geklickt haben, wurde der Artikel nicht geschrieben, was gut ist. Jetzt wollen wir diese Zusammenfassungen überprüfen. Ich habe die spezielle Amazon-Behandlung mit CSS-IDs und Klassen erklärt, die es uns ermöglicht, einen qualitativ hochwertigen Scrape zu erstellen.
Der Produktname wird aufgelistet und dann gibt es Details wie die Eignung für mittelgroße bis große Gärten. Es gibt noch ein paar andere Spezifikationen und ein paar Dinge aus den Rezensionen. Es ist ein bisschen teuer, aber die Investition lohnt sich, da es mit Diebstahlsicherung ausgestattet ist. Wir finden nichts Überflüssiges oder Unwichtiges. Vielleicht ist der Bestseller-Rang nicht wirklich relevant, aber abgesehen davon ist es eine sehr gute Zusammenfassung der Qualität dieses speziellen Produkts.
Schauen wir uns nun das Produkt von Home Depot an. Ich wähle alles aus und bringe es hierher. Zurück zur Produktseite. Das ist der Yard Force und hier steht NX100i. Ist das der Name? Bei den Produktdetails würde ich das annehmen. Ja, NX100i, Steuerung über eine Handy-App, Regensensoren, Akku, sieben Zoll, ja, das ist derselbe, funktioniert bis jetzt gut. Vieles davon sieht gut aus. Schauen wir uns mal die Unterseite an. Melde dich für E-Mail an und bekomme fünf Dollar Rabatt; das brauchen wir nicht. Home Depot ist im Grunde ein Copyright; das brauchen wir nicht. Wenn du diese Seite benutzt, brauchst du keine Nutzungsbedingungen. Die Preise variieren; hier ist eine Telefonnummer; all das brauchen wir nicht. Das können wir streichen. Spezielle Finanzierung; das brauchen wir nicht. Das hat nichts mit dem Produkt zu tun.
Es ist unmöglich, eine perfekte Zusammenfassung zu erstellen, ohne die verschiedenen CSS-IDs und Klassen zu identifizieren. Und das ist nur Home Depot; stell dir vor, wir hätten Best Buy, Lowe’s und all die anderen Läden in den USA. Ich weiß nicht, welche anderen Läden ihr in Europa habt, aber das ist das Wesentliche. Du solltest auf jeden Fall deine Zusammenfassungen durchgehen und überprüfen, wenn du den SEO Blogger verwendest und Dinge zusammenfasst. Das bedeutet, dass du einen Artikel von guter Qualität haben möchtest. Du sparst immer noch eine Menge Zeit, es ist viel schneller als es von Hand zu machen, aber es ist nicht narrensicher. Man muss einige Dinge noch einmal überprüfen.
Wir haben die Zusammenfassung bearbeitet und ich füge sie hier wieder ein, das ist unsere neue Zusammenfassung. Jetzt gehen wir hier rüber und schreiben diesen Artikel ganz schnell. Ich zeige dir, wie das geht. Wir verwenden DaVinci, weil wir keinen globalen Hintergrund verwenden; man spart eine Menge Geld, wenn man nur diese lokalen Hintergründe verwendet, wo es angebracht ist oder das Produktlayout auslöst. Das ist alles, was wir wollen.
Wir schreiben das jetzt, es wird schnell gehen. Auch hier würde ich keine Produktübersicht schreiben, denn unsere einzigen H2 sind diese beiden unterschiedlichen Produkte. Aber es gibt einen Eindruck davon, was man bekommen kann, wenn man das Produktlayout auslöst, wenn man die Hintergrundinformationen einfügt. Ich werde diese Datei auch in dem Link in der Beschreibung dieses Videos zum Download anbieten.
Der Artikel ist fertig und wie gesagt, dieser Artikel ist nicht repräsentativ dafür, wie ich ein Produktlayout erstellen würde. Ich wollte nur zeigen, wie wir die URLs scrapen, diese Untertitel-Hintergründe verwenden und dann die KI über dieses Thema schreiben lassen können. Das hat 10 Cent für diese beiden H2s gekostet. Vergiss nicht, dass wir das Produktlayout getaggt haben. Der Husqvarna Automotive for 30 HX ist die ideale Wahl für alle, die eine zuverlässige automatische Lösung für die Rasenpflege mit GPS-Navigation suchen. Dieser Mähroboter eignet sich für mittelgroße bis große Gärten bis zu 0,8 Hektar. Er ist mit einem GPS-Diebstahlschutz, einem eingebauten Alarmsystem und einer PIN-Code-Sperre für mehr Sicherheit ausgestattet.
Die Schnittbreite beträgt 9,45 cm, die Flächenleistung 1430 cm. Die technischen Daten sowie die Vor- und Nachteile sind in den Rezensionen zu finden. Er arbeitet mit GPS-Navigation, ist aber etwas teuer. Der Roboter-Rasenmäher Yard Force sorgt mit seinem 3-Messer-Mähkopf und acht Hinterrädern für einen gepflegten Rasen und arbeitet fast geräuschlos. Der Roboterrasenmäher wird über eine App gesteuert und ist mit Regensensoren ausgestattet. Die Regensensoren weisen den Motor an, zu seiner Ladestation zurückzukehren, sobald er erkennt, dass dies notwendig ist. Es
Ich empfehle dir, den Turbo zu benutzen – du wirst tolle Ergebnisse mit Zoom Writer erzielen, und du hast auch die Aufforderung in der Mitte des Videos: „Roboter mäht saftig grünen Rasen“ mit einem friedlichen Hintergrund aus Bäumen vor einem strahlend blauen Himmel.
Ich hoffe, dass dir das Video gefällt und dass es dir gut erklärt, wie du die Scraping-Funktion in ZimmWriter nutzen kannst. Im Laufe der Zeit werde ich noch mehr Funktionen in die magischen Befehle von SEO Blogwriter einbauen, um sie noch nützlicher zu machen, aber schon jetzt gibt es eine Menge, was du damit machen kannst – eine Menge Power.
Ich würde gerne hören, wie du es benutzt, also hinterlasse einen Kommentar. Wenn dir das Video gefällt, gib ihm einen Daumen hoch und abonniere es. In der Beschreibung unten findest du einen Link zu ZimmWriter und tritt der Facebook-Gruppe bei, in der mehr als 7.000 großartige Menschen dir auf deiner Reise durch KI und Content Creation helfen. Wir würden uns freuen, dich dort zu sehen.