AIツールのコツ | オリジナル、AI翻訳
-
サンプルコードをCursorにコピーし、コメントでコンテキストを提供する。
-
香港地域では、DeepSeekやMistralサービスの利用は問題ないが、ChatGPT、Claude、Geminiの使用は認められていない。
-
地域のAPIポリシーは、そのアプリポリシーとほぼ同じである。
-
Visual Studio CodeではなくCursorを使用する。
-
それでもVisual Studio Codeを使う必要がある場合がある。例えばgit merge editorのシナリオでは、
git config --global core.editor "code --wait"
をまだ使用している。 -
Deepseek V3リリースの日から、AIツールのサブスクリプションは不要になった。
-
GeminiやGrokを使って、「『Happy Lunar Snake New Year』というテキストを含んだ楽しい旧正月の蛇年の画像を生成」といったプロンプトで祝祭日の画像を作成する。
-
場合によっては、AIモデルに元のテキストを提供して表を作成しても、出力のいくつかの部分が入力と異なることがある。例えば、CursorでDeepseek V3モデルを使ってpip listの表を生成すると、
1.极狐0
のようなバージョンが含まれることがある。ここで极狐
は中国のGitLabプラットフォームを指す。 -
DeepseekやMistral APIを使って、「あなたはプロの翻訳者です。Jekyllブログ投稿のマークダウンファイルを英語から中国語に翻訳しています。{text}」といったプロンプトでタイトルを翻訳すると、誤訳が生じることがある。提供したテキスト以外に、出力には過剰な翻訳が含まれることが多い。
-
CursorのAIモデルが部分的に正しいテキストを返すこともあるが、それは許容できる。後続の指示を追加すれば、AIモデルが正しい部分を再生成してくれるからだ。
-
役に立つ見込みが低い場合は、大規模言語モデルに過剰なコンテキストを提供しないこと。例えば、会話のダイアログラインを生成する際、トピックに関する100点もの情報を提供しない。大規模言語モデルには既に膨大なデータが含まれている。
-
翻訳やダイアログ歌詞の生成など、十分なコンテキストを提供するタスクでは、連鎖思考(chain-of-thought)機能を使用しないこと。処理が遅くなり、冗長で役に立たない回答が得られる可能性がある。
-
チャットボットがユーザーの指示に従えるかどうかをテストする方法の一つは、何かを英語で説明させ、その後に入力を中国語で続け、チャットボットが英語での出力を維持するかどうかを観察することだ。
-
大規模言語モデルにコンテキストを提供する代わりに、テキストやコードの大規模データセットに基づいてモデルをファインチューニングし、そのファインチューニング済みモデルを使用する。
-
週ごとにAIチャットボットを順番に使用し、その違いを理解する。より学びたいなら、一つのAIツールや最良のツールに固執しないこと。
-
Grok、Gemini、ChatGPT、DeepSeek、Mistral、Perplexity、Claudeを一緒に開き、複数のタブでそれらを読み、回答を比較したり興味に基づいて質問を続けたりするのは楽しい。
-
タスクがYouTube動画の要約ならGeminiを、Xからの情報が関わるならGrokを最初に使う。
-
本はますます役に立たなくなっている。AIチャットボットを使って本を読むと、第1章や第2章、要約、または本の紹介を提供してくれる。
-
深い思考や連鎖思考(CoT)を使って難しい問題を解決する代わりに、問題を単純化して標準モデルに解決させることもできる。
-
AIとチャットする際には言語が重要で、特定の地域や分野に関わる場合は特にそうだ。関連する現地の知識を使うことで、より正確な情報を見つけられる。例えば、身分証の取得や車両登録の方法など。
-
最新の情報(新しくリリースされたライブラリ、コード、ドキュメントなど)を扱う際は、複数のAIチャットボットで確認するのが良い。知識のカットオフや回答が微妙に異なることがあるからだ。