Wie man sich mit der Claude API von Anthropic, der API von Groq und OpenRouter verbindet

Die KI in Zimm­Wri­ter ist nicht mehr auf die KI API von Ope­nAI beschränkt. Du kannst jetzt auch die APIs der KIs von Anthro­pics “Claude”-Modelle sowie bestimm­te Model­le von Groq und Open­Rou­ter im Zimm­Wri­ter zum erstel­len von KI-Con­tent nutzen.

Es ist jedoch wich­tig zu wis­sen, dass Zimm­Wri­ter ursprüng­lich auf den KI API Model­len von Ope­nAI auf­ge­baut war. Jedes Modell hat sei­ne eige­nen Macken und Pro­ble­me. Obwohl ich ver­sucht habe, Din­ge, die zu uner­war­te­ten Ergeb­nis­sen füh­ren, zu behe­ben, kann es sein, dass du bei der Ver­wen­dung die­ser Model­le immer noch auf Feh­ler in den Blog­bei­trä­gen stößt. Des­halb soll­test du dir dei­ne Arti­kel genau anse­hen, bevor du die­se veröffentlichst.

Hinzufügen von KI APIs von Drittanbietern in ZimmWriter

Hier ist die Stel­le im Zimm­Wri­ter Opti­ons­me­nü, an der du die­se zusätz­li­chen KI API-Schlüs­sel hin­zu­fü­gen kannst:

Anthropic’s KI API

Anthro­pic ist wie Ope­nAI ein Unter­neh­men, das KI-Model­le anbie­tet, die Zimm­Wri­ter zum Schrei­ben von Blog­bei­trä­gen nut­zen kann.

So bekommst du einen Anthropic-API-Schlüssel

Gehen Sie zunächst zu Web­site von Anthro­pic und mel­de dich an, um einen KI API-Schlüs­sel zu erhalten.

Wenn du ein Kon­to erstellst, trittst du auto­ma­tisch in den kos­ten­lo­sen Bereich ein. Wie Ope­nAI erzwingt auch Anthro­pic Nut­zungs- und Tarif­be­schrän­kun­gen. Um schnell auf Stu­fe 2 auf­zu­stei­gen, die ide­al für den Betrieb einer ein­zel­nen Zimm­Wri­ter-Lizenz ist, musst du nur 50 US-Dol­lar auf dein Kon­to auf­la­den. Obwohl auf der Sei­te mit den Nut­zungs- und Tarif­be­schrän­kun­gen eine 7‑tägige War­te­zeit ange­ge­ben ist, wur­de ich sofort hoch­ge­stuft, viel­leicht hast du ja auch so viel Glück.

Wenn du meh­re­re Zimm­Wri­ter-Lizen­zen auf ver­schie­de­nen Com­pu­tern ver­wen­den musst, soll­test du eine höhe­re Stu­fe in Betracht zie­hen, um die Clau­de-Model­le von Anthro­pic aus­gie­big nut­zen zu können.

Auf der Anthro­pic-Web­site fin­dest du auch eine Opti­on, um einen KI API-Schlüs­sel zu gene­rie­ren. Sobald du ihn hast, gehst du in das Opti­ons­me­nü von Zimm­Wri­ter und klickst auf “Set­up Text API” (Non-Ope­nAI). Gib dort dei­nen Schlüs­sel ein und du bist fertig.

Anthropic’s Claude AI Modelle

Zum Zeit­punkt der Erstel­lung die­ses Arti­kels bie­tet Anthro­pic drei Model­le an, die Zimm­Wri­ter der­zeit nut­zen kann.

  • Clau­de 3 Opus ist das teu­ers­te Modell und in Preis und Qua­li­tät mit dem GPT‑4 ver­gleich­bar.
  • Clau­de 3 Son­net ist das Mit­tel­klas­se­mo­dell, ähn­lich dem GPT‑4 Tur­bo.
  • Clau­de 3 Hai­ku ist das güns­tigs­te Modell, ver­gleich­bar mit dem GPT‑3.5.

Du kannst fin­den spe­zi­fi­sche Prei­se für die­se Model­le auf der Preis­sei­te von Anthro­pic. Die Prei­se für jedes Modell sind sowohl für “Input”- als auch für “Output”-Token aufgeführt.

Was sind Input- und Output-Token?

Wenn du mit der KI inter­agierst, müs­sen wir dei­ne Anfra­ge ein­ge­ben, was Input-Token ver­braucht, und dann ant­wor­tet die KI, was Out­put-Token verbraucht.

Die Prei­se auf der Sei­te sind jedoch in Mil­lio­nen von Token ange­ge­ben – zum Bei­spiel kos­tet Clau­de 3 Son­net $15 pro Mil­li­on Out­put-Token. Aber wie lässt sich das auf die Kos­ten für das Schrei­ben von Arti­keln übertragen?

Es ist schwie­rig, das genau zu bestim­men, weil die Kos­ten je nach den Ein­stel­lun­gen, die du für das Schrei­ben dei­ner Arti­kel wählst, stark vari­ie­ren. Eine gro­be Schät­zung besagt, dass eine Mil­li­on Token für Input und Out­put zusam­men etwa 50–75 Bulk-Wri­ter-Arti­kel erge­ben, jeder mit 10 H2-Über­schrif­ten, FAQs, ohne H3-Über­schrif­ten, ohne SERP-Scra­ping und ohne eige­ne Glie­de­rung.

Groqs KI API

Groq ist ein wei­te­res Unter­neh­men, des­sen KI-Model­le du nut­zen kannst. Der Haupt­un­ter­schied ist, dass die Model­le von Groq die Open-Source-Model­le von Face­book sind. Der­zeit ist das ein­zi­ge Modell, das leis­tungs­fä­hig genug ist, um die Zimm­Wri­ter-Auf­for­de­run­gen aus­zu­füh­ren, das LLaMA3 70b-Modell.

Du kannst dich für ein Kon­to anmel­den und dei­nen KI API-Schlüs­sel erhal­ten auf Groqs API-Sei­te.

Das wirk­lich Erstaun­li­che (zumin­dest zum Zeit­punkt des Ver­fas­sens die­ses Arti­kels) ist, dass du die KI API von Groq jetzt schon kos­ten­los nut­zen kannst! Bald wird sie auf einen kos­ten­pflich­ti­gen Modus umge­stellt, aber bis dahin ist sie kostenlos.

Aber… (es gibt immer ein Aber).

Der kos­ten­lo­se Plan ist in der Geschwin­dig­keit begrenzt, also wird er lang­sa­mer sein als die Model­le von Ope­nAI oder Anthro­pic. Aber wenn er kos­ten­pflich­tig wird, soll­te er der schnells­te Gene­ra­tor auf dem Markt sein.

Die KI-Modelle von Groq

Das ein­zi­ge Modell, das Zimm­Wri­ter-Auf­for­de­run­gen aus­füh­ren kann, ist LLaMA3 70b.

Die Qua­li­tät von LLaMA3 70b wird höher ein­ge­stuft als die von GPT4 Tur­bo, aber etwas nied­ri­ger als die von GPT4.

Jetzt fragst du dich viel­leicht, war­um du die­ses von Face­book ent­wi­ckel­te Open-Source-Modell nicht ein­fach kos­ten­los auf dei­nem Com­pu­ter aus­füh­ren kannst.

Das ist eine gute Frage.

Ich habe das Modell LLaMA3 8b getes­tet, das 8 Mil­li­ar­den Para­me­ter hat und tech­nisch gese­hen auf den meis­ten Com­pu­tern lau­fen soll­te, aber es kommt mit den Auf­for­de­run­gen nicht zurecht und lie­fert unbrauch­ba­re Ergeb­nis­se. Des­halb müs­sen wir uns auf das Modell mit 70 Mil­li­ar­den Para­me­tern verlassen.

Das LLaMA3 70b-Modell erfor­dert jedoch 34 GB GPU-RAM und über­steigt damit das Maxi­mum von 24 GB, das in Gra­fik­kar­ten für Ver­brau­cher zu fin­den ist. Ich bin mir nicht sicher, ob man SLI-Kon­fi­gu­ra­tio­nen ver­wen­den kann, aber das über­steigt wahr­schein­lich die Mög­lich­kei­ten der meis­ten Benutzer/innen.

Der Betrieb mit PC-RAM ist auf­grund der begrenz­ten Spei­cher­band­brei­te eben­falls nicht möglich.

Du könn­test dir vor­stel­len, dass die Mac-Com­pu­ter der M‑Serie mit ihrer höhe­ren Spei­cher­band­brei­te eine Lösung sein könn­ten. War­um nicht mit Zimm­Wri­ter unter Par­al­lels oder Wine?

Eine wei­te­re gute Frage.

Lei­der greift auch die­ser Ansatz zu kurz. Sogar mein M2 Max mit 96 GB RAM hat mit dem LLaMA3 70b-Modell zu kämp­fen, was ihn unprak­tisch lang­sam macht. Außer­dem: Wie vie­le von euch haben Macs der M‑Serie mit mehr als 64 GB RAM?

Für den Moment bleibt Groq eine her­vor­ra­gen­de Alternative.

Selbst wenn Groq anfängt, Gebüh­ren zu erhe­ben, wer­den die Prei­se mit denen von Ope­nAIs GPT 3.5 kon­kur­rie­ren oder sogar dar­un­ter liegen.

OpenRouter’s KI API

Open­Rou­ter ist die jüngs­te Erwei­te­rung von Zimm­Wri­ter, und Jun­ge, Jun­ge, ist er mächtig!

Du kannst den­KI API-Schlüs­sel von Open­Rou­ter ver­wen­den, um dich mit meh­re­ren Model­len zu ver­bin­den. Das erspart dir die Mühe, ver­schie­de­ne KI API-Schlüs­sel zu besor­gen, und hilft dir, wenn du dich in einem Land auf­hältst, in dem Ope­nAI (oder einer der ande­ren KI-Modell­an­bie­ter) ver­bo­ten ist.

Gehe ein­fach auf die Sei­te Open­Rou­ter Web­site, erstel­le ein Kon­to, füge ein paar Cre­dits hin­zu und erhal­te einen KI API-Schlüssel.

Die KI-Modelle von OpenRouter

Open­Rou­ter hat eine gan­ze Rei­he von Model­len, aber ich habe für Zimm­Wri­ter nur die aus­ge­wählt, die mit den Prompts umge­hen können.

Die­se Model­le kön­nen sich jeder­zeit ändern, da Open­Rou­ter sie mög­li­cher­wei­se von sei­ner Platt­form entfernt.

Auch die Prei­se sind varia­bel, aber sie stei­gen nor­ma­ler­wei­se nicht. Der Preis, der in den von Zimm­Wri­ter erstell­ten Text­da­tei­en ange­zeigt wird, ist nur so genau wie die letz­te Über­prü­fung auf den Open­Rou­ter-Ser­vern. Zimm­Wri­ter prüft den Preis, wenn du ihn zum ers­ten Mal star­test oder dei­nen KI API-Schlüs­sel änderst, also beach­te das.

Hin­weis: Bei eini­gen Model­len, wie z. B. Per­ple­xi­ty Online, wird eine zusätz­li­che Gebühr für die Anzahl der Anfra­gen erho­ben (z. B. $ 5 pro 1.000 Anfra­gen). Die­se Gebühr wird von Zimm­Wri­ter nicht in der Text­da­tei ange­zeigt. Behal­te dies also im Hin­ter­kopf und über­wa­che dein OpenRouter-Konto.

Umstellung auf GPT 3.5 bei Serverfehlern

Im Opti­ons­me­nü von Zimm­Wri­ter, in dem du die KI API-Schlüs­sel kon­fi­gu­rierst, fin­dest du eine inter­es­san­te Opti­on mit dem Titel “Bei Ser­ver­feh­lern für einen bestimm­ten Auf­trag auf GPT 3.5 Tur­bo umschalten.

Was machst du, wenn du mit Clau­de arbei­test und dein Gut­ha­ben auf­ge­braucht ist oder wenn die Ser­ver von Clau­de mit­ten im Job aus­fal­len und vor­aus­sicht­lich erst in ein paar Tagen wie­der ver­füg­bar sein wer­den? Vor allem, wenn du gera­de dabei bist, 1.000 Blog­bei­trä­ge zu erstellen?

Stan­dard­mä­ßig zeigt Zimm­Wri­ter eine Pop-up-Mel­dung an, in der du drei Mög­lich­kei­ten hast:

  1. Wie­der­ho­len (Zimm­Wri­ter ver­sucht es auto­ma­tisch alle 10 Minu­ten, oder du kannst die Schalt­flä­che Wie­der­ho­len drü­cken, um es manu­ell zu wie­der­ho­len) bis zu 99 Mal.
  2. Wechs­le für den Rest dei­nes Auf­trags (z. B. das Schrei­ben von 1.000 Blog­bei­trä­gen) zu Ope­nAIs GPT 3.5.
  3. Been­de ZimmWriter.

Viel­leicht möch­test du aber nicht, dass Zimm­Wri­ter alle zehn Minu­ten einen neu­en Ver­such star­tet. Viel­leicht möch­test du lie­ber, dass Zimm­Wri­ter sofort mit der Ver­wen­dung von GPT 3.5 Tur­bo beginnt und die Arbeit been­det. Wenn das der Fall ist, akti­vie­re ein­fach die­ses Käst­chen. Wenn es akti­viert ist, wech­selt Zimm­Wri­ter für den Rest des Auf­trags auto­ma­tisch zu den Model­len von Ope­nAI, wenn Anthro­pic oder Groq Pro­ble­me haben.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert