Raycast: So installiert ihr lokale KI-Modelle

Raycast ist unser tägliches Tool für effizientes Arbeiten am Mac, egal ob für Shortcuts, die Suche, Automatisierungen oder KI-gestützte Workflows. Mit Version 1.99 könnt ihr jetzt auch eigene lokale KI-Modelle direkt in Raycast AI einbinden und das komplett ohne extra Kosten. Raycast nutzt dafür im Hintergrund Ollama und die damit zur Verfügung stehende riesige Modellpalette. So geht die Installation und Nutzung:

Als Erstes solltet ihr überprüfen, ob ihr Version 1.99 installiert habt. Ist das nicht der Fall, dann führt den „Check for Updates“-Befehl aus und installiert die neueste Version.

Danach könnt ihr über die Einstellungen -> AI Ollama herunterladen und installieren. Geht natürlich auch über die Ollama-Website. Raycast erkennt dann automatisch, ob ihr Ollama auf dem Mac habt.

Nun müsst ihr euch noch für ein Modell entscheiden, dass ihr auf dem Mac installiert. Je nachdem, welche Hardware ihr habt, könnt ihr größere oder eben kleinere Modelle nutzen. Ein Leichtgewicht ist beispielsweise Googles Gemma3. Die zur Verfügung stehenden Modelle findet ihr direkt bei Ollama. Ihr gebt nun entweder im Terminal den Befehl zum Pull des Modells ein oder nutzt die Raycast-Oberfläche zum Download in den Einstellungen.

Ist das erledigt, habt ihr ab sofort in den Einstellungen für Quick-AI oder im AI-Chat die Möglichkeit das lokale Modell auszuwählen. Ihr erkennt die auf eurem Mac befindlichen Modelle an einem Disk-Symbol rechts daneben. Gerade wenn man kein Abo bei Raycast abschließen möchte, ist das eine gute Alternative dennoch AI-Befehle (beispielsweise Rechtschreibfehler aus Texten holen, Zusammenfassungen erstellen etc.) und Quick-AI nutzen zu können.

Die Nutzung in AI-Extension ist aktuell noch im Test, kann aber auf Wunsch auch in den Einstellungen aktiviert werden. Stellt euch hierbei aber noch auf Fehler ein, da die lokalen Modelle noch Probleme mit Tool-Calls haben.

Probiert es ruhig mal aus und lasst gern Feedback da.

Transparenz: In diesem Artikel sind Partnerlinks enthalten. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalten wir ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Partnerlinks haben keinerlei Einfluss auf unsere Berichterstattung.

Gefällt dir der Artikel? Dann teile ihn mit deinen Freunden.

Avatar-Foto

Hauptberuflich im SAP-Geschäft tätig und treibt gerne Menschen an. Behauptet von sich den Spagat zwischen Familie, Arbeit und dem Interesse für Gadgets und Co. zu meistern. Hat ein Faible für Technik im Allgemeinen. Auch zu finden bei X (Twitter), Threads, Instagram, XING und Linkedin, per Website oder via Mail

Neueste Beiträge

Mit dem Absenden eines Kommentars stimmst du unserer Datenschutzerklärung und der Speicherung von dir angegebener, personenbezogener Daten zu.

2 Kommentare

  1. Schade, dass es keine Firefox Integration gibt. Wär genau, was ich gesucht habe

    • zumindest mit Ollama lokal funktioniert das in Firefox mit nomic-embed-text (zusätzlich in Ollama installieren) und der Page assist Erweiterung für Firefox. Sieht dann aus wie ChatGPT in Firefox und kann auch in nem Netzwerk genutzt werden. Sollte damit auch funktionieren.

Es werden alle Kommentare moderiert. Lies auch bitte unsere Kommentarregeln:

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen. Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte - gerne auch mit Humor. In jedes Thema Politik einbringen ist nicht erwünscht. Es besteht kein Recht auf die Veröffentlichung eines Kommentars.

Du willst nichts verpassen?

Du hast die Möglichkeit, den Kommentar-Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den Hauptfeed abonnieren.
OSZAR »