Menschliche Tarot-Leserinnen verlangen 50–150 $ pro Sitzung in großen US-Städten. KI-Tarot-Tools kosten Bruchteile eines Cents an Rechenleistung.
Der Preisunterschied beträgt ungefähr das 50.000-Fache.
Der Qualitätsunterschied? Unbekannt. Niemand hat einen kontrollierten Vergleich durchgeführt. Wir können es auch nicht — aber wir können 1.370 KI-Lesungen im großen Maßstab analysieren und Fragen beantworten, die menschliche Leserinnen üblicherweise nicht beantworten können: Wie konsistent ist die Ausgabe, welche Muster entstehen über Tausende von Sitzungen, und wo versagt die KI vorhersehbar?
Hier ist, was die Daten zeigen.
Das N=1-Problem mit Rezensionen menschlicher Leserinnen
Wer die Online-Bewertungen einer Tarot-Leserin durchsucht, stößt auf Varianten von: „Sie hat mir gesagt, meine Ehe sei in Schwierigkeiten — und sie hatte recht!" Oder: „Er sagte, ich würde die Stelle bekommen. Ich habe sie bekommen."
Jede dieser Aussagen ist eine einzelne Beobachtung. N=1.
Was fehlt: Wie vielen anderen Klienten hat dieselbe Leserin von Eheproblemen erzählt, die stabile Ehen führten? Für wie viele Stellen hat sie Jobzusagen vorhergesagt, die dann nicht kamen? Der Survivorship Bias filtert die Testimonials auf die 5–10 %, die die „Genauigkeit" der Leserin bestätigen — während die 90 %, bei denen es nicht passte, nie erwähnt werden.
Das gilt auch für KI-Tarot-Rezensionen. Wer ein „Wow"-Erlebnis hatte, schreibt darüber. Wer eine generische Interpretation bekommen hat, zieht weiter, ohne zu kommentieren. Keine der beiden Stichproben sagt dir, ob die Lesungen systematisch nützlich sind.
Was skalierte KI-Tarot-Daten sichtbar machen — und was einzelne menschliche Leserinnen nie zeigen können — ist die Verteilung. Wir wissen, wie 1.370 Lesungen aggregiert aussehen. Wir können Varianz der Interpretationslänge, Stimmungsmuster und Rückkehrquoten zwischen Anbietern vergleichen. Das ist der eigentliche wissenschaftliche Vorteil der KI. Nicht bessere Lesungen. Erkennbares aggregiertes Verhalten.
Was 1.370 KI-Lesungen über Konsistenz aussagen
Wir verwenden vier verschiedene LLM-Anbieter, je nach Nutzer-Tier:
| Tier | KI-Anbieter | Ungefährer Anteil |
|---|---|---|
| Free | Gemini 2.5 Flash (primär) | 65 % |
| Free Fallback | NVIDIA Llama 3.3 70B | 5 % |
| Free sekundär | OpenRouter Qwen3-235B | 25 % |
| Seeker | OpenRouter GPT-5.4 | 4 % |
| Mystic | Anthropic Claude Sonnet 4.6 | 1 % |
(Die Anteile der bezahlten Tiers sind gering, weil die meisten Nutzer im Datensatz dem Free-Tier angehören. Der Datensatz spiegelt Neugewinnung wider, nicht Bindung oder ARPU.)
Folgendes lässt sich im Datensatz beobachten:
Die Interpretationslänge variiert systematisch je nach Anbieter. Gemini Flash-Interpretationen umfassen im Schnitt rund 800 Wörter. GPT-5.4 kommt auf 1.200. Claude Sonnet erreicht 1.500–2.000 pro Lesung. Das ist kein Zufall — es ist ein tier-gesperrtes Ausgabe-Token-Budget, das bewusst konfiguriert wurde. Nutzer in bezahlten Tiers erhalten mehr Text. Ob mehr Text bessere Interpretation bedeutet, ist eine separate Frage.
Der Ton unterscheidet sich zwischen Anbietern. Gemini neigt zu direkter, strukturierter Beratung. GPT-5.4 ist reflexiver. Claude bevorzugt ausgewogenes Framing — es präsentiert mehrere Perspektiven, bevor es zu einer Synthese gelangt. Wer mehrere LLMs verwendet hat, kennt das. Die KI-Tarot-Interpretationen erben diese Eigenschaften.
Die Karten sind über alle Anbieter identisch. Der RNG ist derselbe, egal welches LLM das Ergebnis interpretiert. Wenn Nutzer also Lesungen zwischen Anbietern vergleichen würden — was sie nicht tun, weil sie die Naht nicht sehen —, liegt der Unterschied ausschließlich in der Sprache, die um zufällige Kartenziehungen gewickelt wurde.
Wo die KI vorhersehbar versagt
Im Datensatz zeichnen sich drei Fehlermuster ab.
Emotionale Nuancen bei komplexen Beziehungsfragen. Ein Nutzer, der fragt „Soll ich meinen Partner nach 15 Jahren verlassen?", bekommt die gleiche Art von Interpretation wie jemand, der fragt „Soll ich meiner Ex schreiben?" Die KI weiß nicht, wie sie das Gewicht einschätzen soll. Sie produziert strukturell ähnliche Ausgaben. Eine erfahrene menschliche Leserin würde innehalten, klärende Fragen stellen, das Gewicht fühlen, bevor sie antwortet. Die KI generiert einfach.
Kultureller Kontext bei nicht-englischen Fragen. Wir unterstützen 7 Sprachen. Die Tarot-Interpretationstradition, die die LLMs absorbiert haben, ist überwältigend anglophon — Pamela Coleman Smiths Deck-Symbolik von 1909, Jungsche Psychologie darübergelegt, modernes westliches Therapievokabular. Polnische oder italienische Nutzer, die über Liebe fragen, bekommen keine kulturell abgestimmten Interpretationen. Sie bekommen übersetztes angloamerikanisches Tarot-Vokabular. Die Karten sind universal. Die Interpretationstradition meistens nicht.
Ambiguitätstoleranz. Eine erfahrene menschliche Leserin sagt: „Die Karten sind hier nicht eindeutig" oder „Ich bekomme gemischte Signale — lass uns darüber reden, warum du wirklich fragst." Die KI sagt das nie. Sie löst die Ambiguität immer souverän auf. Das ist strukturell bedingt — LLMs sind darauf trainiert, kohärente, vollständige Antworten zu erzeugen. Sie können „Ich weiß nicht" nicht so sagen wie ein Mensch. Das ist ihr Feature und zugleich ihr Fehlermodus.
Die Frage der Nutzerbindung
Einige Zahlen aus dem Datensatz.
Insgesamt etwa 750 einzigartige Teilnehmer über vier Monate — 69 registrierte Nutzer plus geschätzte 680 einzigartige anonyme Gast-IPs. Die meisten Gäste führen 1–3 Lesungen durch und kommen nie wieder. Ein langer Schwanz kehrt 5, 10, ja 30 Mal zurück.
Unter den registrierten Nutzern (den 69) liegt die durchschnittliche Lesungsanzahl bei 4,9 pro Nutzer. Das ist eine Gewohnheit, keine einmalige Neugier.
Zum Vergleich mit Branchen-Benchmarks für kostenlose Tools: Die typische 30-Tage-Bindung liegt bei 2–4 %. Unsere registrierte Konversionsrate — Nutzer, die den zusätzlichen Schritt unternommen haben, ein Konto anzulegen, um ihre Lesungshistorie zu verfolgen — beträgt rund 9 % der einzigartigen Teilnehmer. Höher als der Durchschnitt für ein kostenloses Tool ohne E-Mail-Capturewall.
Was bedeutet das? Wahrscheinlich nicht, dass die KI „präzise" ist. Eher, dass das Format — eine Frage, drei Karten, schriftliche Interpretation — gut damit übereinstimmt, wie Menschen Tagebuch führen. Tarot ist aus diesem Blickwinkel Journaling mit Struktur und einem eingebauten Gesprächspartner.
Eine menschliche Tarot-Leserin kann Präsenz bieten, kontextsensibles Timing, das Erlebnis, von einem anderen Menschen gehört zu werden. Eine KI kann Skalierbarkeit bieten, Konsistenz, null Grenzkosten und Geduld, die nach 60 Minuten nicht nachlässt.
Das sind verschiedene Produkte. Die Bindungsdaten legen nahe, dass beide einen Markt haben.
Warum „KI vs. Mensch" eine falsche Dichotomie ist
Hier ist etwas, das niemand, der eines dieser Produkte verkauft, sagen möchte: Das beste KI-Tarot-Tool ist kein Ersatz für eine menschliche Leserin. Es versucht das nicht einmal zu sein.
Es ist ein Journaling-Prompt mit Struktur. Wie eine 5-Minuten-Meditations-App. Wie ein CBT-Gedanken-Protokollblatt. Nützlich für das, was es ist. Nicht nützlich für das, was es nicht ist.
Eine menschliche Leserin gibt dir etwas, das KI nicht imitieren kann: echte Präsenz, das gespürte Erlebnis, dass jemand zuhört, Körpersprachelesung, das Timing des richtigen Pausierens. Eine KI gibt dir etwas, das menschliche Leserinnen nicht können: Verfügbarkeit um 4 Uhr morgens, unendliche Geduld, identische Preise für alle, kein Risiko schlechter Chemie.
Das richtige Werkzeug für den richtigen Zweck. Oder beide für verschiedene Anlässe. Das „vs."-Framing verkauft Abonnements und Fachpresseartikel. Die Realität ist nüchterner: Sie ergänzen sich, und welches man in die Hand nehmen sollte, hängt davon ab, ob man eine Journaling-Übung braucht (KI) oder eine Beziehung zu einer Praktikerin (Mensch).
Was diese Daten nicht klären
Wir können dir nicht sagen, welches „besser" ist. Wir haben dieses Experiment nicht durchgeführt. Niemand hat es.
Wir können dir sagen, was KI-Tarot im großen Maßstab tut. Die Karten sind zufällig — das ist messbar. Die Bindung ist real — das ist messbar. Die Interpretationsqualität variiert je nach Anbieter — das ist messbar.
Ob das alles nützlicher ist als eine 50-$-Lesung bei einem Menschen? Wir wissen es nicht. Es ist wahrscheinlich für manche Menschen in manchen Momenten nützlicher und in anderen weniger, und die Variablen, die das bestimmen, sind nicht in unserem Datensatz.
Diese Forschung zitieren
Fiedoruk, T. (2026). AI Tarot vs Human Reader — A Data Analysis. aimag.me Research. Retrieved from https://aimag.me/research/ai-tarot-vs-human-reader
Lizenz: CC BY-SA 4.0. Methodik: /research/methodology.
Deine Lesung zum nächsten Snapshot hinzufügen
Probieren Sie eine Lesung auf aimag.me → — anonymisiert, auf Wunsch, fließt in den offenen Datensatz ein.