KI-Tools Tipps
-
Kopiere Beispielcode in Cursor und verwende Kommentare, um Kontext zu liefern.
-
Im Hong Kong Gebiet ist es akzeptabel, DeepSeek oder Mistral-Dienste zu verwenden, während es nicht akzeptabel ist, ChatGPT, Claude oder Gemini zu verwenden.
-
Die API-Richtlinie einer Region ist ungefähr dieselbe wie ihre App-Richtlinie.
-
Verwende Cursor anstelle von Visual Studio Code.
-
Es gibt immer noch Fälle, in denen du Visual Studio Code verwenden musst, wie z.B. für git merge editor Szenarien, bei denen ich immer noch
git config --global core.editor "code --wait"
verwende. -
Ab dem Tag der Veröffentlichung von Deepseek V3 benötigen wir keine AI-Tools mehr zu abonnieren.
-
Verwende Gemini oder Grok, um Festtagsfeier-Bilder mit Anweisungen wie “Erstelle ein glückliches Lunar Snake New Year Bild mit eingeschlossenen Textnamen” zu generieren.
-
In einigen Fällen, selbst wenn du Originaltext an AI-Modelle gibst, um eine Tabelle zu erstellen, können einige Stellen im Output vom Input abweichen. Zum Beispiel, wenn du das Deepseek V3 Modell in Cursor verwendest, um eine Tabelle der pip Liste zu generieren, kann es Versionen wie
1.极狐0
enthalten. Hier bezieht sich极狐
auf die chinesische GitLab-Plattform. -
Wenn du Deepseek oder Mistral API verwendest, um Übersetzungen mit Anweisungen wie
Du bist ein professioneller Übersetzer. Du übersetzt eine Markdown-Datei für einen Jekyll-Blogpost von Englisch nach Chinesisch. {text}
zu erstellen, kann dies zu falschen Übersetzungen führen. Neben dem Text, den du bereitstellst, enthält der Output oft übermäßige Übersetzungen. -
Obwohl AI-Modelle in Cursor manchmal teilweise korrekten Text liefern, können wir sie akzeptieren, da wir Folgeanweisungen hinzufügen können, die die AI-Modelle dazu bringen, die korrekten Teile neu zu generieren.
-
Vermeide es, großen Sprachmodellen übermäßigen Kontext zu geben, wenn es unwahrscheinlich ist, dass er hilfreich ist. Zum Beispiel, wenn du Dialogzeilen generierst, vermeide es, 100 Punkte zu einem Thema bereitzustellen. Große Sprachmodelle enthalten bereits riesige Datenmengen.
-
Wenn du ausreichend Kontext für Aufgaben wie Übersetzungen oder das Generieren von Dialoglyrics bereitstellst, vermeide es, Chain-of-Thought-Funktionen zu verwenden, da dies langsam sein und zu umständlichen oder unnützen Antworten führen kann.
-
Eine Möglichkeit, zu testen, ob ein Chatbot den Anweisungen eines Benutzers folgen kann, besteht darin, ihn zu bitten, etwas auf Englisch zu erklären und dann die Eingabe auf Chinesisch fortzusetzen, um zu beobachten, ob der Chatbot seine Ausgabe in Englisch beibehält.
-
Anstatt Kontext an LLMs bereitzustellen, finetune ein Modell basierend auf einem großen Datensatz von Text oder Code und verwende dann das finetuned Modell.