Download
PromptOps
xShellonback
Dokumentation

PromptOps Manager

Vollständiger Plattform-Leitfaden — von deiner ersten Session bis zur fortgeschrittenen AI-Agent-Team-Orchestrierung.

Quick Start

In 30 Sekunden loslegen. Herunterladen, installieren und deine erste AI-Session starten.

1. Herunterladen und installieren

PromptOps Manager von der Download-Seite herunterladen. Verfügbar für macOS, Windows und Linux. Das Installationsprogramm erledigt alles — keine Konfiguration nötig.

2. Anmelden oder registrieren

Konto erstellen oder mit deinen Zugangsdaten anmelden. Die E-Mail-Verifizierung verwendet einen 6-stelligen OTP-Code. Dein Gerät wird automatisch zur Sicherheit registriert.

3. Workspace verbinden

Wähle dein Projektverzeichnis aus. PromptOps erkennt automatisch die Struktur, Sprache, Konfigurationsdateien und Datenbankverbindungen. Der Workspace wird mit deinem Gerät verknüpft.

4. Session starten

Wähle einen AI Provider (Claude, Codex, Gemini, Copilot oder Shell), schreibe einen prompt und der Agent beginnt zu arbeiten. Echtzeit-Output im integrierten terminal.

Tipp: Mit Claude Pro/Max bekommst du das volle Erlebnis — sub-agents, Extended Thinking und bis zu 1M-Token-Kontext.

Sessions

Sessions sind das Herzstück von PromptOps Manager. Jede Session ist eine isolierte Umgebung mit eigenem AI Provider, terminal und Kontext.

Session erstellen

Klicke auf "Neue Session" oder verwende den Shortcut. Wähle den gewünschten AI Provider und Workspace. Jede Session hat ihren eigenen isolierten terminal-Prozess.

Mehrere Sessions

Du kannst mehrere aktive Sessions auf demselben Workspace haben. Jede Session hat ihr eigenes terminal, ihren Kontext und einen unabhängigen Zustand. Zwischen Sessions mit den Tabs in der oberen Leiste wechseln.

Lebenszyklus

Sessions werden alle 30 Sekunden automatisch gespeichert. Bei Absturz oder versehentlichem Schließen wird die Session beim nächsten Start automatisch wiederhergestellt. Du kannst auch wiederverwendbare Templates für häufige Sessions erstellen.

Session-History

Jede Aktion innerhalb einer Session wird getrackt: spawn, prompt, Output, merge, Fehler. Die History ist persistent im Backend und wird als git-style Timeline angezeigt.

Smart Context Injection

Beim Session-Start wird der Workspace analysiert und eine Projektkarte (Struktur, Einstiegspunkte, aktuelle Dateien) in den Agent-Kontext injiziert. Geschätzte Einsparung: 30K-100K Tokens pro Session.

Sub-Agents

Sub-agents sind spezialisierte AI-Agents, die parallel unter der Aufsicht des Hauptagenten arbeiten.

Verfügbare Rollen

Jeder sub-agent hat eine vordefinierte Rolle mit einem dedizierten System-Prompt:

  • Security Audit — Schwachstellenanalyse, Code-Review auf Security-Mängel
  • Test Runner — Generierung und Ausführung von Unit- und Integrationstests
  • Code Review — Code-Review auf Qualität, Best Practices und Wartbarkeit
  • Documentation — Generierung und Aktualisierung der Projektdokumentation
  • Refactoring — Code-Restrukturierung zur Verbesserung von Lesbarkeit und Performance
  • Performance — Bottleneck-Analyse und Performance-Optimierung

Spawn und Management

Ein Klick spawnt einen sub-agent aus dem Quick-Agents-Panel. Jeder sub-agent erhält sein eigenes dediziertes terminal, optimierten Kontext (mit tatsächlich geänderten Dateien aus dem git diff) und Anweisungen mit reduziertem Scope.

Inter-Agent-Kommunikation

Agents kommunizieren automatisch miteinander über den Agent Relay. Der Hauptagent ändert eine Datei, der Security-Agent reviewt sie, der Test-Agent aktualisiert die Tests. Asynchrones Message-Passing mit Acknowledgment.

Ergebnis-Zusammenführung

Ergebnisse von jedem sub-agent werden gesammelt und in der Haupt-Session-Timeline präsentiert. Du kannst den Output jedes sub-agents individuell einsehen.

AI Provider

PromptOps unterstützt 5 AI Provider, jeder mit eigenen Merkmalen. Du kannst Provider pro Session oder pro individuellem sub-agent wechseln.

Claude Code

Recommended

Die tiefste Integration. Unbegrenzte parallele sub-agents, Extended Thinking, bis zu 1M-Token-Kontext. Erfordert Anthropic Pro oder Max Plan. Empfohlenes Erlebnis.

OpenAI Codex

Multi-File-Code-Generierung mit Streaming-Output. Prompt library, Session-Tracking und persistente History.

Gemini CLI

Codebase-Analyse mit großem Kontext. Session-Management, prompt-Versionierung und Team-Sharing.

GitHub Copilot

Inline-Completions und kontextuelle Vorschläge. PR-Workflow-Integration und terminal-Befehlsgenerierung.

Cursor CLI

Der AI-first Editor in PromptOps integriert. Verwaltete Sessions, parallele sub-agents und geteilte prompt library — mit dem Cursor-Workflow, den du bereits kennst.

OpenCode

Open-Source Local-first Coding-CLI. Direkter opencode-command-spawn mit Session-Tracking, prompt library und materialisiertem Projektkontext.

Shell / Custom CLI

Jedes CLI-Tool als Provider nutzen. Custom-Skripte, Automatisierung und vollständiger terminal-Zugriff mit integriertem Logging.

Um Provider zu wechseln, öffne die Session-Einstellungen und wähle den gewünschten Provider. Der Wechsel ist sofort und unterbricht die Session nicht.

Prompt Library

Die Prompt Library ist das strukturierte prompt-Verwaltungssystem. Jeder prompt ist ein versioniertes, forkbares und teilbares Asset.

Prompt erstellen

Erstelle einen neuen prompt mit Titel, Inhalt, Kategorie und Tags. Du kannst dynamische Variablen mit der {{variable}}-Syntax hinzufügen, um den prompt für jedes Projekt wiederverwendbar zu machen.

Versionierung

Jede Änderung an einem prompt erstellt eine neue Version. Du kannst Versionen mit dem diff viewer vergleichen und jederzeit eine frühere Version wiederherstellen.

Fork und Sharing

Fork den prompt eines Kollegen, um ihn anzupassen. Die Ableitungskette wird automatisch getrackt. Du kannst Prompts mit dem Team teilen — Change Requests durchlaufen einen Genehmigungsflow ähnlich einem pull request.

AI Generator

Strukturierte Prompts aus einer Aufgabenbeschreibung generieren. Der Generator erstellt automatisch Titel, Inhalt, Variablen und Template.

Integriertes Git

PromptOps integriert ein vollständiges git-System in der Sidebar. Du musst die App nicht verlassen, um die Versionierung zu verwalten.

Unterstützte Operationen

Stage, unstage, commit, diff, pull, push, stash, branch — alle grundlegenden git-Operationen sind über die UI verfügbar. Der Git Explorer zeigt den Dateibaum mit Echtzeit-Status.

AI Commit & Branch

Das System analysiert gestagte Dateien, Session-Kontext und verknüpfte Aufgabe, um Commit-Messages im Conventional-Commits-Format zu generieren. Branch-Namen werden automatisch aus dem Aufgabenkontext generiert.

Diff Viewer

Unterschiede zwischen Dateien und Commits mit Syntax-Highlighting anzeigen. Versionen side-by-side direkt aus der Session vergleichen.

Konflikt-Auflösung

Bei Merge-Konflikten hilft AI bei der Auflösung, indem sie die passendste Lösung basierend auf dem Projektkontext vorschlägt.

Database Explorer

Der Database Explorer erkennt die Verbindung automatisch aus dem Projekt und ermöglicht das Durchsuchen von Daten im Read-Only-Modus.

Automatische Verbindung

PromptOps analysiert das Projekt auf der Suche nach Konfigurationsdateien und erkennt die Datenbankverbindung automatisch. Unterstützt alle wichtigen relationalen Datenbanken.

Daten durchsuchen

Tabellen durchsuchen, Daten filtern und sortieren, das Schema inspizieren. Alle Operationen sind Read-Only zur Sicherheit — du kannst die Daten nicht versehentlich ändern.

Schema Inspector

Tabellenstruktur anzeigen: Spalten, Typen, Primärschlüssel und Beziehungen. Nützlich, um dem AI-Agent Kontext zu geben, wenn er mit der Datenbank arbeitet.

Voice Control

Sende Sprachbefehle an den AI-Agent, ohne die Tastatur zu berühren.

Wie es funktioniert

Drücke den Mikrofon-Button (oder den dedizierten Shortcut) und sprich. Das native macOS Speech-to-Text-System transkribiert deinen Befehl in einen prompt, der an den Agent gesendet wird. Derzeit nur auf macOS verfügbar.

Tipps

Sprich klar und prägnant. Das System funktioniert am besten mit direkten Anweisungen. Du kannst komplexe Prompts diktieren — die Transkription verarbeitet Zeichensetzung und Formatierung.

Team & Zusammenarbeit

PromptOps Manager unterstützt Zusammenarbeit auf Team-Ebene mit Rollen, Berechtigungen und strukturiertem Sharing.

Team erstellen

Erstelle ein Team aus dem Team-Panel. Lade Mitglieder per E-Mail ein — die Einladung hat einen getrackten Status (ausstehend, angenommen, abgelehnt). Jedes Mitglied hat eine Rolle: Owner, Admin oder Member.

Rollen und Berechtigungen

Owner: vollständige Kontrolle, Mitglieder- und Einstellungsverwaltung. Admin: Session-, prompt- und Dokumentenverwaltung. Member: Zugriff auf geteilte Prompts und Team-Sessions.

Sharing

Prompts, Sessions und Dokumente können auf Team-Ebene geteilt werden. Der Team Lead sieht alle Entwicklungs-Timelines und Workflows über die gesamte Organisation.

Dokumente und Notizen

Erstelle kontextuelle Notizen und Dokumente, die mit Sessions, Dateien oder Aufgaben verknüpft sind. Dokumente sind nach Kategorie typisiert mit Volltextsuche und sind projektübergreifend wiederverwendbar.

Token Efficiency Engine

Das Token-Optimierungssystem reduziert den Verbrauch und trackt Einsparungen in Echtzeit.

Smart Context Injection

Beim Session-Start wird eine Projektkarte (Struktur, Einstiegspunkte, aktuelle Dateien) injiziert. Der Agent weiß sofort, wo er suchen muss — keine blinde Erkundung. Einsparung: 30K-100K Tokens pro Session.

Sub-Agent-Prompt-Optimierung

Sub-agent-Prompts werden mit tatsächlich geänderten Dateien (aus dem git diff) und Anweisungen mit reduziertem Scope angereichert. Der Agent liest 5 gezielte Dateien statt 30 zu erkunden. Einsparung: 50K-70K Tokens pro sub-agent.

File Read Cache

Tracking jedes Datei-Lesevorgangs mit MD5-Content-Hash. Redundante Wiederholungen (unveränderte Dateien) werden erkannt und markiert.

Dashboard

Im Dashboard: gesamte verwendete Tokens, gesparte Tokens, durchschnittliche Effizienz und Session-Ranking nach Einsparungen. Daten aus allen Sessions aggregiert mit Datenbankpersistenz.

Optimierungs-Flags

Jede Session zeigt, welche Optimierungen aktiv sind (Smart Context, Cache, Graph, Tool Filtering, Local Execution) mit einer Erklärung, wie jede zur Einsparung beiträgt.

Docker & Integrationen

PromptOps integriert sich mit Docker und anderen Tools in deinem Entwicklungs-Stack.

Docker Status

Deine Docker-Container direkt in der App überwachen. Status und Metadaten einsehen, ohne den Kontext zu wechseln. Das Monitoring ist in das Workspace-Panel integriert.

Hooks und Automatisierungen

Hooks für Session-Ereignisse konfigurieren: on_start, on_prompt, on_commit, on_end. Jeder hook führt einen shell-Befehl aus. Pipelines sind auf Team-Ebene teilbar.

Code Editor

Dateien öffnen, bearbeiten und speichern, ohne die Session zu verlassen. Integrierter Editor mit Syntax-Highlighting und automatischer Spracherkennung.

Projekte & Workspaces

Workspaces verknüpfen lokale Verzeichnisse mit Remote-Projekten und sorgen für Konsistenz über mehrere Geräte.

Workspaces

Jeder Workspace verknüpft ein lokales Verzeichnis mit einem Remote-Workspace. Das System verwendet die Hardware-ID des Geräts zur Synchronisation — du kannst am selben Projekt von verschiedenen Geräten arbeiten.

Projekte

Projekte gruppieren Workspaces, Sessions, Prompts und Dokumente. Jedes Projekt hat eigene Mitglieder, Rollen und Berechtigungen. Sessions werden automatisch dem aktiven Projekt zugeordnet.

Sprint Board

Integriertes Kanban-Board mit Sprints (Start-/Enddatum, Velocity-Tracking). Tasks folgen einer State Machine: backlog, in_progress, review, done. Many-to-Many-Beziehung zwischen Tasks und Sessions, um zu tracken, welche AI-Sessions an welchem Task gearbeitet haben.

Systemanforderungen

Mindestanforderungen zum Ausführen von PromptOps Manager Desktop.

macOS: macOS 12 Monterey oder neuer. Intel- oder Apple-Silicon-Chip. Mindestens 4 GB RAM.

Windows: Windows 10 (64-Bit) oder neuer. Mindestens 4 GB RAM.

Linux: Ubuntu 20.04+, Fedora 36+ oder gleichwertig. Mindestens 4 GB RAM.

Für AI Provider: Ein aktives Konto beim gewählten Provider ist erforderlich (Anthropic, OpenAI, Google, GitHub).

Internetverbindung erforderlich für AI-Provider-Kommunikation und Backend-Synchronisation.

Shellonback

Preferenze cookie

Scegli quali categorie di cookie accettare. I cookie tecnici e funzionali sono sempre attivi.

Per maggiori informazioni, consulta la nostra Privacy e Cookie Policy.

Cookie di profilazione

Utilizzati per creare profili relativi all'utente e inviare messaggi promozionali in linea con le preferenze espresse.

Cookie analitici

Ci permettono di capire come gli utenti navigano il sito per migliorare l'esperienza e i contenuti.

Cookie tecnici

Sempre attivo

Necessari per il funzionamento del sito. Non possono essere disattivati.

Cookie funzionali

Sempre attivo

Consentono funzionalità avanzate come la memorizzazione delle preferenze di navigazione.