KI-Workflows, Code-Editoren und Plattformdisruption | Original, von KI übersetzt

Home 2025.01

Inhaltsverzeichnis

  1. Gedanken über KI
    • KI fehlt echte Intelligenz oder Tiefe
    • Maschinelles Lernen ist fortgeschrittene angewandte Analysis
    • LLMs kämpfen mit strukturierten Dateiformaten
    • Open Source beseitigt technologische Geheimhaltung
    • Textbasierte Tools werden zuerst von KI disruptiert
  2. Neue Plattformen mit KI-Workflows
    • KI-Workflows automatisieren mehrsprachige Inhaltsgenerierung
    • Nutzer übermitteln Prompts zur Formatkonvertierung
    • Plattformen ermöglichen Inhaltsverfeinerung und Zusammenfassung
    • Anpassbare KI-Workflows durch Schlüsselworteinstellungen
    • KI übernimmt Inhaltsumwandlung end-to-end
  3. Die nächste Richtung von KI-Code-Editoren
    • Cloud-Integration entscheidend für CI/CD-Workflows
    • A/B-Tests verbessern KI-generierte Inhalte
    • RLHF erweitert auf Feedback aus der realen Welt
    • Menschliches Feedback verfeinert unvollkommene KI-Outputs
    • Prompt-Optimierung schlägt Output-Korrektur

Gedanken über KI

Zuletzt aktualisiert im August 2025

Wie ich gut in der KI- und Blockchain-Ära lebe


Neue Plattformen mit KI-Workflows

08.01.2025



Die nächste Richtung von KI-Code-Editoren

08.01.2025

Kürzlich habe ich daran gearbeitet, eine xelatex-Pipeline zu GitHub Actions hinzuzufügen.

Ich stieß auf ein Problem mit dem fontawesome5-Paket im GitHub-Flow. Die von 4o-mini vorgeschlagene Lösung (Installation von TeX Live 2021 und Verwendung von tlmgr install fontawesome5) funktionierte bei mir nicht. Allerdings schlug 4o einen besseren Ansatz vor: ein Upgrade auf TeX Live 2023 und weiterhin die Verwendung von tlmgr zur Installation von fontawesome5. Dies löste das Problem nicht vollständig, aber der Wechsel zu TeX Live 2023 verbesserte die Situation erheblich.

Ich habe ChatGPT genutzt, um das Problem zu lösen. Für weitere Details siehe What ChatGPT O1 Can Do That 4o-mini Cannot.

Zu diesem Zeitpunkt habe ich keine Editoren wie Cursor oder Windsurf verwendet, obwohl ich sie in einem anderen Projekt ausprobiert habe. Das Problem mit diesen Code-Editoren ist, dass sie nur lokale Testausgaben erfassen, was ihre Funktionalität in Cloud-Umgebungen einschränkt.

In Workflows wie GitHub Actions, Jenkins-Jobs oder jedem Code-Deployment- oder Testflow müssen Code-Editoren besser integriert sein. Sie sollten nahtlose Interaktion mit der Cloud und CI/CD-Prozessen bieten.

Diese Integration gilt auch für andere Inhaltserstellungstools – ob für Text, Bilder, Audio oder Video. Diese Tools sollten mit A/B-Test-Systemen integriert sein. KI-Tools könnten Inhalte generieren, und A/B-Test-Tools könnten Feedback liefern. Diese Dynamik ähnelt dem Reinforcement Learning from Human Feedback (RLHF), bei dem KI-Modelle sich basierend auf Feedback aus der realen Welt mit der Zeit verbessern.

Dieses Konzept, RLHF über reine Modell-Outputs hinaus auf reale Test- und Deployment-Umgebungen auszudehnen, scheint eine vielversprechende Richtung für die Verbesserung von sowohl Code-Editoren als auch KI-gestützten Inhaltserstellungstools zu sein.

Der Test kann entweder sofort oder langfristig sein und entweder automatisiert oder mit menschlicher Unterstützung erfolgen. Wenn die Tests automatisiert sind, wie z.B. A/B-Tests für ein KI-Tool, beinhaltet dies immer noch menschliches Feedback, aber der Prozess ist automatisiert. Zum Beispiel können wir den Computer täglich oder stündlich basierend auf A/B-Test-Ergebnissen prüfen lassen, um den Erstellungsprozess zu verbessern. Ähnlich können wir für Jenkins- oder GitHub-Actions-Jobs den Computer nach Abschluss der Aufgaben prüfen lassen.

Wenn menschliche Unterstützung involviert ist, kann das Feedback nicht vollständig von der Maschine verstanden werden und ist oft etwas vage. Zum Beispiel, wenn KI-Tools Inhalte wie Bilder oder Videos erstellen, könnten Menschen anmerken, dass der Inhalt nicht lustig genug ist oder dass ein bestimmtes Detail verbessert werden sollte. Maschinen haben noch einen langen Weg vor sich, um alles perfekt zu machen, und ob etwas “perfekt” ist, hängt oft vom individuellen Geschmack ab. Es ist menschliches Feedback, das Dinge besser macht.

Theoretisch können alle vom Menschen definierten Regeln als Prompts geschrieben werden. Es gibt Nutzer-Prompts und System-Prompts. Wir sollten uns darauf konzentrieren, die Prompts zu verbessern, anstatt jedes Mal den Output zu korrigieren.

  1. Building Effective Agents, Anthropic 


Back Donate