[{"data":1,"prerenderedAt":-1},["ShallowReactive",2],{"blog-openai-vs-open-source-ki-kosten-kontrolle-und-performance":3},{"id":4,"title":5,"author":6,"body":7,"date":597,"description":598,"extension":599,"image":600,"meta":601,"navigation":602,"path":603,"readingTime":604,"seo":605,"stem":606,"tags":607,"__hash__":614},"content/blog/openai-vs-open-source-ki-kosten-kontrolle-und-performance.md","OpenAI vs. Open-Source-KI: Kosten, Kontrolle, Performance","KIlian",{"type":8,"value":9,"toc":562},"minimark",[10,14,17,20,25,44,48,51,54,60,64,69,77,81,89,93,101,105,113,117,120,230,233,244,249,253,267,271,274,286,291,295,306,310,407,411,434,439,443,460,464,478,482,486,489,493,496,500,503,507,510,514,517,521,524,528,531,535,538,542,545,549,552,556,559],[11,12,13],"p",{},"Sie stehen vor der Weichenstellung: Bauen Sie Ihre KI-Fähigkeiten mit OpenAI auf – schnell, performant, planbar – oder setzen Sie auf Open-Source-KI für maximale Kontrolle, Datenhoheit und Kostensteuerung? Diese Entscheidung wirkt sich direkt auf Kostenstruktur, Risikoprofil und Innovationsgeschwindigkeit aus.",[11,15,16],{},"In diesem C-Level-Guide kondensieren wir die wichtigsten Trade-offs von OpenAI vs. Open Source AI: Wo liegen echte Kostenvorteile, wo droht Vendor Lock-in, wie erzielen Sie reproduzierbare Performance – und wann lohnt ein Hybridansatz?",[11,18,19],{},"Sie erhalten klare Entscheidungskriterien, Beispielrechnungen, Architekturmuster und eine 30-Tage-Checkliste für einen belastbaren Proof of Value.",[21,22,24],"h2",{"id":23},"tldr","TL;DR",[26,27,28,32,35,38,41],"ul",{},[29,30,31],"li",{},"OpenAI punktet bei Time-to-Value, Stabilität und Feature-Tiefe; Open Source bietet Kontrolle, Datenresidenz und potenziell bessere TCO ab planbaren Lasten.",[29,33,34],{},"Kosten kippen zugunsten Open Source, wenn Last stetig ist, Latenzen lokal kritisch sind oder Datentransfer teuer wird.",[29,36,37],{},"Performance ist nicht nur Modellqualität: Kontext, Retrieval, Prompt-Design, Guardrails und Monitoring bestimmen den Business-Impact.",[29,39,40],{},"Vermeiden Sie Lock-in durch Architekturprinzipien: standardisierte Schnittstellen, Evaluationssuite, austauschbare Model-Backends.",[29,42,43],{},"In regulierten Umfeldern dominiert Open Source oder Hybrid (RAG on-prem, selektiv API); für Explorationsphasen ist OpenAI oft der schnellste Weg.",[21,45,47],{"id":46},"was-bedeutet-openai-vs-open-source-ki-definition","Was bedeutet „OpenAI vs. Open-Source-KI“? (Definition)",[11,49,50],{},"OpenAI steht hier stellvertretend für proprietäre, cloudbasierte KI-Services (API/SaaS), die leistungsfähige Foundation-Modelle und Zusatzfeatures wie Moderation, Embeddings, Tools/Agents oder Feintuning bereitstellen. Vorteile: kurze Implementierungszeit, hohe Modellqualität, verlässliche Skalierung.",[11,52,53],{},"Open-Source-KI umfasst frei verfügbare Modelle (z. B. Llama, Mistral, Mixtral) und Ökosysteme, die Sie selbst hosten (on-premise oder in Ihrer Cloud) oder über Managed-Angebote betreiben. Vorteile: Datenkontrolle, Anpassbarkeit, Kostensteuerung und geringeres Abhängigkeitsrisiko.",[55,56,57],"blockquote",{},[11,58,59],{},"Praxis-Tipp: Denken Sie nicht in „entweder/oder“, sondern in „sowohl/als auch“. Viele Unternehmen starten mit OpenAI für schnelle Ergebnisse und migrieren kritische Teile auf Open Source, sobald Anforderungen klar sind.",[21,61,63],{"id":62},"entscheidungskriterien-für-c-level","Entscheidungskriterien für C-Level",[65,66,68],"h3",{"id":67},"kosten-capexopex-tco","Kosten (CapEx/OpEx, TCO)",[26,70,71,74],{},[29,72,73],{},"OpenAI: überwiegend variable Kosten (Pay-as-you-go). Planbar, aber abhängig von Nutzung, Token-Volumen und Modellwahl.",[29,75,76],{},"Open Source: anfängliche Set-up-Kosten (Engineering, Infrastruktur), laufende Inferenzkosten (GPU/CPU), ggf. günstiger bei stabiler, hoher Auslastung.",[65,78,80],{"id":79},"kontrolle-risiko-governance-compliance","Kontrolle & Risiko (Governance, Compliance)",[26,82,83,86],{},[29,84,85],{},"OpenAI: geringe Betriebsverantwortung, aber Datenfluss außerhalb Ihrer Boundary; rechtliche und regulatorische Anforderungen prüfen (Datenresidenz, Auftragsverarbeitung).",[29,87,88],{},"Open Source: volle Datenhoheit, Audits, reproduzierbare Pipelines; dafür mehr Betriebs- und Sicherheitsverantwortung.",[65,90,92],{"id":91},"performance-skalierung","Performance & Skalierung",[26,94,95,98],{},[29,96,97],{},"OpenAI: starke Baseline-Qualität, gute Tool-Ökosysteme, meist geringe Latenz per Region; Abhängigkeit vom Anbieter-Roadmap.",[29,99,100],{},"Open Source: gezielte Optimierung (Quantisierung, Serving, RAG), geringere Netzwerklatenz on-prem; Qualität hängt von Modell, Feintuning und Retrieval ab.",[65,102,104],{"id":103},"time-to-value","Time-to-Value",[26,106,107,110],{},[29,108,109],{},"OpenAI: schnellster Start, ideal für Prototypen und Pilotierung.",[29,111,112],{},"Open Source: langsamerer Start, aber langfristig strategische Flexibilität.",[21,114,116],{"id":115},"kostenmodelle-im-vergleich-mit-beispiel","Kostenmodelle im Vergleich (mit Beispiel)",[11,118,119],{},"Die tatsächlichen Kosten hängen von Modell, Lastprofil, Sicherheitsanforderungen und Teamkompetenz ab. Die Tabelle skizziert typische Kostentreiber.",[121,122,123,142],"table",{},[124,125,126],"thead",{},[127,128,129,133,136,139],"tr",{},[130,131,132],"th",{},"Kriterium",[130,134,135],{},"OpenAI (API/SaaS)",[130,137,138],{},"Open-Source-KI (Self-Hosted)",[130,140,141],{},"Hybrid",[143,144,145,160,174,188,202,216],"tbody",{},[127,146,147,151,154,157],{},[148,149,150],"td",{},"Preismodell",[148,152,153],{},"Variabel (pro Token/Request)",[148,155,156],{},"Mix aus Fix (Infra, Ops) + variabel (Strom/Inference)",[148,158,159],{},"Variabel + Fix",[127,161,162,165,168,171],{},[148,163,164],{},"Fixkosten",[148,166,167],{},"Gering (Integration)",[148,169,170],{},"Höher (Setup, MLOps, Security)",[148,172,173],{},"Mittel",[127,175,176,179,182,185],{},[148,177,178],{},"Variable Kosten",[148,180,181],{},"Direkt proportional zur Nutzung",[148,183,184],{},"Sinken mit Auslastung pro Knoten",[148,186,187],{},"Gemischt",[127,189,190,193,196,199],{},[148,191,192],{},"Skalierung",[148,194,195],{},"Automatisch über Anbieter",[148,197,198],{},"Eigenes Autoscaling/Queues nötig",[148,200,201],{},"Selektiv",[127,203,204,207,210,213],{},[148,205,206],{},"Haupttreiber",[148,208,209],{},"Token-Volumen, Modellwahl, Kontextlänge",[148,211,212],{},"GPU-Stunden, Optimierung, Auslastung",[148,214,215],{},"Workload-Zuordnung",[127,217,218,221,224,227],{},[148,219,220],{},"Break-even",[148,222,223],{},"Bei moderater Last oft nachteilig",[148,225,226],{},"Bei stabiler, hoher Last vorteilhaft",[148,228,229],{},"Use-case-spezifisch",[11,231,232],{},"Beispielrechnung (vereinfachtes Szenario, zur Orientierung):",[26,234,235,238,241],{},[29,236,237],{},"Annahmen: 5 Mio. Eingabetoken/Monat, 5 Mio. Ausgabetoken/Monat, stabile Business-Hours-Last.",[29,239,240],{},"OpenAI: Kosten wachsen linear mit Token; keine GPU-Fixkosten, geringe Betriebsaufwände.",[29,242,243],{},"Open Source: Einmalige Einrichtung, laufende GPU/Host-Kosten; bei hoher Auslastung kann der Stückpreis je Anfrage sinken.\nDie Entscheidung kippt, wenn Ihre durchschnittliche Auslastung der bereitgestellten Ressourcen hoch ist oder wenn strikte Datenlokalität gefordert ist.",[55,245,246],{},[11,247,248],{},"Praxis-Tipp: Planen Sie Kosten in „Latenz-Buckets“: \u003C300 ms (Edge/On-Prem), 300–800 ms (Region), >800 ms (Cross-Region). Kürzere Latenzen kosten in der Regel mehr – außer Sie verlagern Workloads näher an die Daten.",[21,250,252],{"id":251},"governance-datenschutz-und-compliance","Governance, Datenschutz und Compliance",[26,254,255,258,261,264],{},[29,256,257],{},"Datenresidenz: Open Source ermöglicht regionale oder on-prem Speicherung sensibler Daten; OpenAI bietet regionale Endpunkte, dennoch verbleibt die Verantwortung beim Datenexporteur.",[29,259,260],{},"Zugriffskontrollen & Audits: Self-hosted Setups erlauben granulare Kontrollen, eigene Key-Management-Systeme und Audit-Trails bis auf Token-Ebene.",[29,262,263],{},"IP & Modellartefakte: Beim Feintuning proprietärer Modelle sind Exportierbarkeit und Wiederverwendbarkeit eingeschränkt; Open Source erleichtert die Portabilität eigener Artefakte.",[29,265,266],{},"Regulatorische Anforderungen: In stark regulierten Branchen ist ein Hybrid- oder On-Prem-Setup oft der pragmatische Pfad, insbesondere für personenbezogene oder hochvertrauliche Inhalte.",[21,268,270],{"id":269},"performance-in-der-praxis-mehr-als-nur-benchmarks","Performance in der Praxis: Mehr als nur Benchmarks",[11,272,273],{},"Modellleistung ist kontextabhängig. Drei Hebel bestimmen den Business-Impact:",[275,276,277,280,283],"ol",{},[29,278,279],{},"Retrieval & Kontext: Ein gutes RAG-Setup (Index-Qualität, Chunking, Re-Ranking) verbessert Antworten oft stärker als ein Modellwechsel.",[29,281,282],{},"Prompting & Guardrails: Strukturierte Prompts, Systemregeln und Output-Validierung (z. B. Schemas, Moderation) erhöhen Genauigkeit und Sicherheit.",[29,284,285],{},"Evaluation & Monitoring: Definieren Sie Metriken (z. B. Antworttreffer, Halluzinationsrate als qualitative Beobachtung, Latenz, Kosten pro Erledigung) und automatisieren Sie A/B-Tests über Modelle hinweg.",[55,287,288],{},[11,289,290],{},"Praxis-Tipp: Standardisieren Sie die Schnittstelle (z. B. OpenAI-ähnliche Chat-Completion-API) intern. So können Sie Modelle austauschen, ohne Anwendungen neu zu bauen.",[21,292,294],{"id":293},"architekturvarianten-und-einsatzmuster","Architekturvarianten und Einsatzmuster",[26,296,297,300,303],{},[29,298,299],{},"SaaS-first (OpenAI-zentriert): Schnellste Implementierung für Prototypen, Assistenzfunktionen, interne Wissensbots; Daten- und Compliance-Checks notwendig.",[29,301,302],{},"Self-hosted Open Source: Für Dokumentenverarbeitung mit sensiblen Daten, On-Prem-RAG, restriktive Latenzbudgets, kundendatennahe Prozesse.",[29,304,305],{},"Hybrid: RAG, Embeddings und Vektorsuche on-prem; Generierung fallweise über OpenAI oder ein lokales Modell. Gute Balance aus Qualität, Kontrolle und Kosten.",[65,307,309],{"id":308},"use-case-matrix-daumenregeln","Use-Case-Matrix (Daumenregeln)",[121,311,312,328],{},[124,313,314],{},[127,315,316,319,322,325],{},[130,317,318],{},"Use Case",[130,320,321],{},"Daten-Sensitivität",[130,323,324],{},"Latenzbedarf",[130,326,327],{},"Empfehlung",[143,329,330,342,355,367,381,394],{},[127,331,332,335,337,339],{},[148,333,334],{},"Interner Wissenschat",[148,336,173],{},[148,338,173],{},[148,340,341],{},"Start mit OpenAI, Architektur abstrahieren; später Hybrid/RAG on-prem",[127,343,344,347,350,352],{},[148,345,346],{},"Dokumenten-Extraktion (Recht/Finanzen)",[148,348,349],{},"Hoch",[148,351,173],{},[148,353,354],{},"Open Source self-hosted mit strengem PII-Handling",[127,356,357,360,362,364],{},[148,358,359],{},"Kunden-Support-Assistent",[148,361,173],{},[148,363,173],{},[148,365,366],{},"Hybrid: RAG on-prem, Generierung je nach Peak-Last",[127,368,369,372,375,378],{},[148,370,371],{},"Entwickler-Co-Pilot",[148,373,374],{},"Mittel–Hoch",[148,376,377],{},"Niedrig–Mittel",[148,379,380],{},"Pilot mit OpenAI, bei IP-Sorgen OS-Variante evaluieren",[127,382,383,386,388,391],{},[148,384,385],{},"Batch-Klassifikation (große Mengen)",[148,387,377],{},[148,389,390],{},"Niedrig",[148,392,393],{},"Open Source bei stabilen Volumina oft günstiger",[127,395,396,399,401,404],{},[148,397,398],{},"Edge/Offline-Nutzung",[148,400,349],{},[148,402,403],{},"Sehr niedrig",[148,405,406],{},"Kompakte Open-Source-Modelle lokal",[21,408,410],{"id":409},"schritt-für-schritt-30-tage-entscheidungs-und-roi-check","Schritt-für-Schritt: 30-Tage-Entscheidungs- und ROI-Check",[275,412,413,416,419,422,425,428,431],{},[29,414,415],{},"Ziele schärfen: Welche Geschäfts-KPIs beeinflusst der Use Case? Welche Compliance-Vorgaben gelten?",[29,417,418],{},"Datenprofil klären: Sensitivität, Volumen, Aktualität, Latenzanforderungen.",[29,420,421],{},"Kandidaten auswählen: 1–2 OpenAI-Modelle, 1–2 Open-Source-Modelle (ähnliche Parametergrößen).",[29,423,424],{},"Architektur festlegen: Einheitliche API, RAG-Baseline, Observability (Kosten, Latenz, Antwortqualität).",[29,426,427],{},"Testplan: 50–100 repräsentative Prompts/Fälle, klare Akzeptanzkriterien, Human-in-the-Loop.",[29,429,430],{},"Pilotbetrieb: 1–2 Wochen unter realer Last; Kosten und SLA messen.",[29,432,433],{},"Entscheidungsvorlage: TCO-Szenarien, Risiko-Matrix, Migrationspfad (Single, Dual, Hybrid).",[55,435,436],{},[11,437,438],{},"Praxis-Tipp: Vermeiden Sie, die Modellwahl vor der Evaluationssuite zu treffen. Erst messen, dann entscheiden.",[21,440,442],{"id":441},"typische-fehler-und-wie-sie-sie-vermeiden","Typische Fehler – und wie Sie sie vermeiden",[26,444,445,448,451,454,457],{},[29,446,447],{},"Nur Tokenpreise vergleichen: Berücksichtigen Sie Kontextlängen, Retries, Embeddings, Moderation und Engineering-Aufwände.",[29,449,450],{},"Keine Abstraktionsschicht: Direkte Vendor-spezifische Implementierungen erschweren spätere Wechsel.",[29,452,453],{},"Unklare Datenrichtlinien: Fehlen von PII-Redaktion, Logging-Policies und Key-Management führt zu Audit-Risiken.",[29,455,456],{},"Überspringen von Offline- und Shadow-Tests: Live-Rollouts ohne Evidenz erhöhen Fehlerrisiken und Kosten.",[29,458,459],{},"Kein Budget für Observability: Ohne Metriken keine Optimierung – und keine verlässliche Business-Case-Story.",[21,461,463],{"id":462},"best-practices-für-nachhaltige-ki-fähigkeiten","Best Practices für nachhaltige KI-Fähigkeiten",[26,465,466,469,472,475],{},[29,467,468],{},"Architekturprinzipien: API-Standardisierung, deklaratives Prompt-Management, Feature-Flags für Modellwechsel.",[29,470,471],{},"Evaluationskultur: Goldensets pflegen, regelmäßige Re-Bewertungen bei Modellupdates.",[29,473,474],{},"Kostenhygiene: Rate-Limits, Caching, Prompt-Kürzung, asynchrone Verarbeitungen; bei OS-Modellen: Quantisierung, Batching.",[29,476,477],{},"Security & Compliance: Secret Rotation, Least Privilege, Data Minimization, regionale Endpunkte oder on-prem Speicher.",[21,479,481],{"id":480},"häufige-fragen-faq","Häufige Fragen (FAQ)",[65,483,485],{"id":484},"ist-openai-oder-open-source-ki-günstiger","Ist OpenAI oder Open-Source-KI günstiger?",[11,487,488],{},"Das hängt von Ihrem Lastprofil ab. Bei sporadischer Nutzung ist Pay-as-you-go oft effizient. Bei stabiler, hoher Auslastung und strikter Datenlokalität kann Open Source langfristig die TCO senken.",[65,490,492],{"id":491},"wie-vermeide-ich-vendor-lock-in-mit-openai","Wie vermeide ich Vendor Lock-in mit OpenAI?",[11,494,495],{},"Bauen Sie eine interne Abstraktionsschicht, die Modellaufrufe standardisiert, und pflegen Sie eine Evaluationssuite. So können Sie Modelle tauschen, ohne Ihre Fachanwendungen umzuschreiben.",[65,497,499],{"id":498},"wann-ist-open-source-die-bessere-wahl","Wann ist Open Source die bessere Wahl?",[11,501,502],{},"Wenn Daten nicht die Organisation verlassen dürfen, Latenzen ultra-niedrig sein müssen oder Sie spezifische Anpassungen benötigen. Auch bei planbaren, großen Batch-Workloads kann Open Source vorteilhaft sein.",[65,504,506],{"id":505},"kann-ich-openai-und-open-source-kombinieren","Kann ich OpenAI und Open Source kombinieren?",[11,508,509],{},"Ja, ein Hybridansatz ist gängig: RAG, Vektorsuche und Pre-/Post-Processing on-prem, Generierung je nach Sensitivität und Last über OpenAI oder ein lokales Modell. So balancieren Sie Qualität, Kosten und Kontrolle.",[65,511,513],{"id":512},"wie-bewerte-ich-performance-ohne-auf-externe-benchmarks-zu-vertrauen","Wie bewerte ich Performance ohne auf externe Benchmarks zu vertrauen?",[11,515,516],{},"Definieren Sie eigene Goldensets aus realen Fällen und messen Sie Antwortqualität, Latenz und Kosten pro erledigter Aufgabe. Ergänzen Sie dies mit Human-in-the-Loop-Reviews für kritische Entscheidungen.",[65,518,520],{"id":519},"wie-sichere-ich-daten-wenn-ich-openai-nutze","Wie sichere ich Daten, wenn ich OpenAI nutze?",[11,522,523],{},"Nutzen Sie Unternehmensvereinbarungen, deaktivieren Sie Trainingsnutzung, wählen Sie regionale Endpunkte und minimieren Sie übermittelte Daten. Ergänzen Sie Pseudonymisierung und Logging-Policies nach Compliance-Standard.",[65,525,527],{"id":526},"welche-team-skills-brauche-ich-für-open-source","Welche Team-Skills brauche ich für Open Source?",[11,529,530],{},"Neben ML/LLM-Kenntnissen benötigen Sie MLOps/DevOps, Sicherheit, Observability und Datenengineering. Managed-OS-Angebote können den Betriebsaufwand reduzieren, erfordern aber weiterhin Governance-Kompetenz.",[65,532,534],{"id":533},"wie-plane-ich-skalierungskosten-realistisch","Wie plane ich Skalierungskosten realistisch?",[11,536,537],{},"Simulieren Sie Lastspitzen mit repräsentativen Workloads und messen Sie Retries, Kontextlängen und Durchsatz. Bauen Sie Kostenwächter (Budgets, Alerts) ein und evaluieren Sie regelmäßig Modell- und Prompt-Optimierungen.",[65,539,541],{"id":540},"welche-rechtlichen-aspekte-sind-kritisch","Welche rechtlichen Aspekte sind kritisch?",[11,543,544],{},"Prüfen Sie Datenübermittlungen, Auftragsverarbeitungsverträge, IP/Urheberrechtsfragen und Auditierbarkeit. In regulierten Branchen sollten Sie die Anforderungen früh mit Legal/Compliance verproben.",[65,546,548],{"id":547},"wie-gehe-ich-mit-schnellen-modell-updates-um","Wie gehe ich mit schnellen Modell-Updates um?",[11,550,551],{},"Etablieren Sie ein Change-Management: Staging-Umgebung, Regressionstests mit Goldensets, Canary-Releases. So profitieren Sie von Fortschritt, ohne Stabilität zu riskieren.",[21,553,555],{"id":554},"fazit","Fazit",[11,557,558],{},"Die Wahl „OpenAI vs. Open Source AI“ ist eine Portfolio-Entscheidung: OpenAI beschleunigt die ersten Geschäftsresultate, Open Source schafft strategische Souveränität und TCO-Hebel. Meist führt ein Hybridansatz zu einem belastbaren Kosten-, Risiko- und Performance-Profil.",[11,560,561],{},"Wenn Sie vor einer Richtungsentscheidung stehen, sichern Sie sich jetzt ein 60‑minütiges Executive Briefing für C‑Level: Wir strukturieren Ihre Use Cases, quantifizieren TCO-Szenarien und skizzieren eine boardtaugliche Hybrid-Architektur. Termine anfragen – und in 30 Tagen zur belastbaren KI-Roadmap.",{"title":563,"searchDepth":564,"depth":564,"links":565},"",2,[566,567,568,575,576,577,578,581,582,583,584,596],{"id":23,"depth":564,"text":24},{"id":46,"depth":564,"text":47},{"id":62,"depth":564,"text":63,"children":569},[570,572,573,574],{"id":67,"depth":571,"text":68},3,{"id":79,"depth":571,"text":80},{"id":91,"depth":571,"text":92},{"id":103,"depth":571,"text":104},{"id":115,"depth":564,"text":116},{"id":251,"depth":564,"text":252},{"id":269,"depth":564,"text":270},{"id":293,"depth":564,"text":294,"children":579},[580],{"id":308,"depth":571,"text":309},{"id":409,"depth":564,"text":410},{"id":441,"depth":564,"text":442},{"id":462,"depth":564,"text":463},{"id":480,"depth":564,"text":481,"children":585},[586,587,588,589,590,591,592,593,594,595],{"id":484,"depth":571,"text":485},{"id":491,"depth":571,"text":492},{"id":498,"depth":571,"text":499},{"id":505,"depth":571,"text":506},{"id":512,"depth":571,"text":513},{"id":519,"depth":571,"text":520},{"id":526,"depth":571,"text":527},{"id":533,"depth":571,"text":534},{"id":540,"depth":571,"text":541},{"id":547,"depth":571,"text":548},{"id":554,"depth":564,"text":555},"2026-04-08","C-Level-Guide: OpenAI vs. Open Source AI im Vergleich zu Kosten, Kontrolle und Performance. Entscheiden Sie schneller mit klaren Szenarien und Checklisten.","md","/images/blog/ki-agenten-unternehmen-thumbnail.png",{},true,"/blog/openai-vs-open-source-ki-kosten-kontrolle-und-performance",9,{"title":5,"description":598},"blog/openai-vs-open-source-ki-kosten-kontrolle-und-performance",[608,609,610,611,612,613],"KI-Strategie","OpenAI","Open-Source-KI","Kosten & ROI","Datenschutz & Compliance","LLM-Performance","2_4FYCqBPL0_gw4_000j_zpoqvyGHI_xGGoTvZK8fAw"]