Wie man sich mit der Claude API von Anthropic, der API von Groq und OpenRouter verbindet

Die KI in Zimm­Wri­ter ist nicht mehr auf die KI API von Ope­nAI beschränkt. Du kannst jetzt auch die APIs der KIs von Anthro­pics “Claude”-Modelle sowie bestimm­te Model­le von Groq und Open­Rou­ter im Zimm­Wri­ter zum erstel­len von KI-Con­tent nutzen.

Es ist jedoch wich­tig zu wis­sen, dass Zimm­Wri­ter ursprüng­lich auf den KI API Model­len von Ope­nAI auf­ge­baut war. Jedes Modell hat sei­ne eige­nen Macken und Pro­ble­me. Obwohl ich ver­sucht habe, Din­ge, die zu uner­war­te­ten Ergeb­nis­sen füh­ren, zu behe­ben, kann es sein, dass du bei der Ver­wen­dung die­ser Model­le immer noch auf Feh­ler in den Blog­bei­trä­gen stößt. Des­halb soll­test du dir dei­ne Arti­kel genau anse­hen, bevor du die­se veröffentlichst.

Hinzufügen von KI APIs von Drittanbietern in ZimmWriter

Hier ist die Stel­le im Zimm­Wri­ter Opti­ons­me­nü, an der du die­se zusätz­li­chen KI API-Schlüs­sel hin­zu­fü­gen kannst:

Wie man sich mit der Claude API von Anthropic, der API von Groq und OpenRouter verbindetWie man sich mit der Claude API von Anthropic, der API von Groq und OpenRouter verbindet

Anthropic’s KI API

Anthro­pic ist wie Ope­nAI ein Unter­neh­men, das KI-Model­le anbie­tet, die Zimm­Wri­ter zum Schrei­ben von Blog­bei­trä­gen nut­zen kann.

So bekommst du einen Anthropic-API-Schlüssel

Gehen Sie zunächst zu Web­site von Anthro­pic und mel­de dich an, um einen KI API-Schlüs­sel zu erhalten.

Wenn du ein Kon­to erstellst, trittst du auto­ma­tisch in den kos­ten­lo­sen Bereich ein. Wie Ope­nAI erzwingt auch Anthro­pic Nut­zungs- und Tarif­be­schrän­kun­gen. Um schnell auf Stu­fe 2 auf­zu­stei­gen, die ide­al für den Betrieb einer ein­zel­nen Zimm­Wri­ter-Lizenz ist, musst du nur 50 US-Dol­lar auf dein Kon­to auf­la­den. Obwohl auf der Sei­te mit den Nut­zungs- und Tarif­be­schrän­kun­gen eine 7‑tägige War­te­zeit ange­ge­ben ist, wur­de ich sofort hoch­ge­stuft, viel­leicht hast du ja auch so viel Glück.

Wenn du meh­re­re Zimm­Wri­ter-Lizen­zen auf ver­schie­de­nen Com­pu­tern ver­wen­den musst, soll­test du eine höhe­re Stu­fe in Betracht zie­hen, um die Clau­de-Model­le von Anthro­pic aus­gie­big nut­zen zu können.

Auf der Anthro­pic-Web­site fin­dest du auch eine Opti­on, um einen KI API-Schlüs­sel zu gene­rie­ren. Sobald du ihn hast, gehst du in das Opti­ons­me­nü von Zimm­Wri­ter und klickst auf “Set­up Text API” (Non-Ope­nAI). Gib dort dei­nen Schlüs­sel ein und du bist fertig.

Anthropic’s Claude AI Modelle

Zum Zeit­punkt der Erstel­lung die­ses Arti­kels bie­tet Anthro­pic drei Model­le an, die Zimm­Wri­ter der­zeit nut­zen kann.

  • Clau­de 3 Opus ist das teu­ers­te Modell und in Preis und Qua­li­tät mit dem GPT‑4 ver­gleich­bar.
  • Clau­de 3 Son­net ist das Mit­tel­klas­se­mo­dell, ähn­lich dem GPT‑4 Tur­bo.
  • Clau­de 3 Hai­ku ist das güns­tigs­te Modell, ver­gleich­bar mit dem GPT‑3.5.

Du kannst fin­den spe­zi­fi­sche Prei­se für die­se Model­le auf der Preis­sei­te von Anthro­pic. Die Prei­se für jedes Modell sind sowohl für “Input”- als auch für “Output”-Token aufgeführt.

Was sind Input- und Output-Token?

Wenn du mit der KI inter­agierst, müs­sen wir dei­ne Anfra­ge ein­ge­ben, was Input-Token ver­braucht, und dann ant­wor­tet die KI, was Out­put-Token verbraucht.

Die Prei­se auf der Sei­te sind jedoch in Mil­lio­nen von Token ange­ge­ben – zum Bei­spiel kos­tet Clau­de 3 Son­net $15 pro Mil­li­on Out­put-Token. Aber wie lässt sich das auf die Kos­ten für das Schrei­ben von Arti­keln übertragen?

Es ist schwie­rig, das genau zu bestim­men, weil die Kos­ten je nach den Ein­stel­lun­gen, die du für das Schrei­ben dei­ner Arti­kel wählst, stark vari­ie­ren. Eine gro­be Schät­zung besagt, dass eine Mil­li­on Token für Input und Out­put zusam­men etwa 50–75 Bulk-Wri­ter-Arti­kel erge­ben, jeder mit 10 H2-Über­schrif­ten, FAQs, ohne H3-Über­schrif­ten, ohne SERP-Scra­ping und ohne eige­ne Glie­de­rung.

Groqs KI API

Groq ist ein wei­te­res Unter­neh­men, des­sen KI-Model­le du nut­zen kannst. Der Haupt­un­ter­schied ist, dass die Model­le von Groq die Open-Source-Model­le von Face­book sind. Der­zeit ist das ein­zi­ge Modell, das leis­tungs­fä­hig genug ist, um die Zimm­Wri­ter-Auf­for­de­run­gen aus­zu­füh­ren, das LLaMA3 70b-Modell.

Du kannst dich für ein Kon­to anmel­den und dei­nen KI API-Schlüs­sel erhal­ten auf Groqs API-Sei­te.

Das wirk­lich Erstaun­li­che (zumin­dest zum Zeit­punkt des Ver­fas­sens die­ses Arti­kels) ist, dass du die KI API von Groq jetzt schon kos­ten­los nut­zen kannst! Bald wird sie auf einen kos­ten­pflich­ti­gen Modus umge­stellt, aber bis dahin ist sie kostenlos.

Aber… (es gibt immer ein Aber).

Der kos­ten­lo­se Plan ist in der Geschwin­dig­keit begrenzt, also wird er lang­sa­mer sein als die Model­le von Ope­nAI oder Anthro­pic. Aber wenn er kos­ten­pflich­tig wird, soll­te er der schnells­te Gene­ra­tor auf dem Markt sein.

Die KI-Modelle von Groq

Das ein­zi­ge Modell, das Zimm­Wri­ter-Auf­for­de­run­gen aus­füh­ren kann, ist LLaMA3 70b.

Die Qua­li­tät von LLaMA3 70b wird höher ein­ge­stuft als die von GPT4 Tur­bo, aber etwas nied­ri­ger als die von GPT4.

Jetzt fragst du dich viel­leicht, war­um du die­ses von Face­book ent­wi­ckel­te Open-Source-Modell nicht ein­fach kos­ten­los auf dei­nem Com­pu­ter aus­füh­ren kannst.

Das ist eine gute Frage.

Ich habe das Modell LLaMA3 8b getes­tet, das 8 Mil­li­ar­den Para­me­ter hat und tech­nisch gese­hen auf den meis­ten Com­pu­tern lau­fen soll­te, aber es kommt mit den Auf­for­de­run­gen nicht zurecht und lie­fert unbrauch­ba­re Ergeb­nis­se. Des­halb müs­sen wir uns auf das Modell mit 70 Mil­li­ar­den Para­me­tern verlassen.

Das LLaMA3 70b-Modell erfor­dert jedoch 34 GB GPU-RAM und über­steigt damit das Maxi­mum von 24 GB, das in Gra­fik­kar­ten für Ver­brau­cher zu fin­den ist. Ich bin mir nicht sicher, ob man SLI-Kon­fi­gu­ra­tio­nen ver­wen­den kann, aber das über­steigt wahr­schein­lich die Mög­lich­kei­ten der meis­ten Benutzer/innen.

Der Betrieb mit PC-RAM ist auf­grund der begrenz­ten Spei­cher­band­brei­te eben­falls nicht möglich.

Du könn­test dir vor­stel­len, dass die Mac-Com­pu­ter der M‑Serie mit ihrer höhe­ren Spei­cher­band­brei­te eine Lösung sein könn­ten. War­um nicht mit Zimm­Wri­ter unter Par­al­lels oder Wine?

Eine wei­te­re gute Frage.

Lei­der greift auch die­ser Ansatz zu kurz. Sogar mein M2 Max mit 96 GB RAM hat mit dem LLaMA3 70b-Modell zu kämp­fen, was ihn unprak­tisch lang­sam macht. Außer­dem: Wie vie­le von euch haben Macs der M‑Serie mit mehr als 64 GB RAM?

Für den Moment bleibt Groq eine her­vor­ra­gen­de Alternative.

Selbst wenn Groq anfängt, Gebüh­ren zu erhe­ben, wer­den die Prei­se mit denen von Ope­nAIs GPT 3.5 kon­kur­rie­ren oder sogar dar­un­ter liegen.

OpenRouter’s KI API

Open­Rou­ter ist die jüngs­te Erwei­te­rung von Zimm­Wri­ter, und Jun­ge, Jun­ge, ist er mächtig!

Du kannst den­KI API-Schlüs­sel von Open­Rou­ter ver­wen­den, um dich mit meh­re­ren Model­len zu ver­bin­den. Das erspart dir die Mühe, ver­schie­de­ne KI API-Schlüs­sel zu besor­gen, und hilft dir, wenn du dich in einem Land auf­hältst, in dem Ope­nAI (oder einer der ande­ren KI-Modell­an­bie­ter) ver­bo­ten ist.

Gehe ein­fach auf die Sei­te Open­Rou­ter Web­site, erstel­le ein Kon­to, füge ein paar Cre­dits hin­zu und erhal­te einen KI API-Schlüssel.

Die KI-Modelle von OpenRouter

Open­Rou­ter hat eine gan­ze Rei­he von Model­len, aber ich habe für Zimm­Wri­ter nur die aus­ge­wählt, die mit den Prompts umge­hen können.

Die­se Model­le kön­nen sich jeder­zeit ändern, da Open­Rou­ter sie mög­li­cher­wei­se von sei­ner Platt­form entfernt.

Auch die Prei­se sind varia­bel, aber sie stei­gen nor­ma­ler­wei­se nicht. Der Preis, der in den von Zimm­Wri­ter erstell­ten Text­da­tei­en ange­zeigt wird, ist nur so genau wie die letz­te Über­prü­fung auf den Open­Rou­ter-Ser­vern. Zimm­Wri­ter prüft den Preis, wenn du ihn zum ers­ten Mal star­test oder dei­nen KI API-Schlüs­sel änderst, also beach­te das.

Hin­weis: Bei eini­gen Model­len, wie z. B. Per­ple­xi­ty Online, wird eine zusätz­li­che Gebühr für die Anzahl der Anfra­gen erho­ben (z. B. $ 5 pro 1.000 Anfra­gen). Die­se Gebühr wird von Zimm­Wri­ter nicht in der Text­da­tei ange­zeigt. Behal­te dies also im Hin­ter­kopf und über­wa­che dein OpenRouter-Konto.

Umstellung auf GPT 3.5 bei Serverfehlern

Im Opti­ons­me­nü von Zimm­Wri­ter, in dem du die KI API-Schlüs­sel kon­fi­gu­rierst, fin­dest du eine inter­es­san­te Opti­on mit dem Titel “Bei Ser­ver­feh­lern für einen bestimm­ten Auf­trag auf GPT 3.5 Tur­bo umschalten.

Was machst du, wenn du mit Clau­de arbei­test und dein Gut­ha­ben auf­ge­braucht ist oder wenn die Ser­ver von Clau­de mit­ten im Job aus­fal­len und vor­aus­sicht­lich erst in ein paar Tagen wie­der ver­füg­bar sein wer­den? Vor allem, wenn du gera­de dabei bist, 1.000 Blog­bei­trä­ge zu erstellen?

Stan­dard­mä­ßig zeigt Zimm­Wri­ter eine Pop-up-Mel­dung an, in der du drei Mög­lich­kei­ten hast:

  1. Wie­der­ho­len (Zimm­Wri­ter ver­sucht es auto­ma­tisch alle 10 Minu­ten, oder du kannst die Schalt­flä­che Wie­der­ho­len drü­cken, um es manu­ell zu wie­der­ho­len) bis zu 99 Mal.
  2. Wechs­le für den Rest dei­nes Auf­trags (z. B. das Schrei­ben von 1.000 Blog­bei­trä­gen) zu Ope­nAIs GPT 3.5.
  3. Been­de ZimmWriter.

Viel­leicht möch­test du aber nicht, dass Zimm­Wri­ter alle zehn Minu­ten einen neu­en Ver­such star­tet. Viel­leicht möch­test du lie­ber, dass Zimm­Wri­ter sofort mit der Ver­wen­dung von GPT 3.5 Tur­bo beginnt und die Arbeit been­det. Wenn das der Fall ist, akti­vie­re ein­fach die­ses Käst­chen. Wenn es akti­viert ist, wech­selt Zimm­Wri­ter für den Rest des Auf­trags auto­ma­tisch zu den Model­len von Ope­nAI, wenn Anthro­pic oder Groq Pro­ble­me haben.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert