MENU
知識がなくても始められる、AIと共にある豊かな毎日。

AI トークンカウンター

swiftwand

AI トークンカウンター

テキストを貼り付けると、Claude / GPT / Gemini / DeepSeek 主要LLMのトークン数とコスト試算を即表示する無料ツール。日本語・英語・コード混在でも正確に推定、AI API 料金計算機との連携で実運用コストが見える化されます。

🔢 AI トークンカウンター

テキストを貼り付けると、Claude / GPT / Gemini など主要 LLM のトークン数とコスト試算を即表示。日本語・英語・コード全部対応。AI API 料金計算機との連携で実運用コストを把握できます。

① テキスト入力

0
文字数
0
単語数
0
行数
0
バイト

② リクエスト設定 (コスト試算用)

📊 モデル別トークン数・月額コスト試算
    ※トークン数は各モデルの公開仕様に基づくヒューリスティック計算です (英文: 1 token ≒ 4 chars、日本語/中国語/韓国語: 1 token ≒ 1.3 chars、コード: 1 token ≒ 3.5 chars)。正確な値は各社公式 tokenizer ライブラリ参照。コストは入力ペースト分 × リクエスト数/月 + Output × リクエスト数/月で算出。

    トークン数の目安

    • 英文: 1 token ≈ 4 chars (約 0.75 words)
    • 日本語: 1 token ≈ 1.3 chars (CJK文字は1文字で1〜2トークン)
    • コード: 1 token ≈ 3.5 chars (記号が多いため密度高)
    • 絵文字: 1絵文字 = 1〜4 tokens (合成絵文字は複数)
    • URL: 1 URL ≈ 10〜30 tokens (ドメイン・パス各分割)

    モデル別 トークナイザの違い

    • OpenAI (GPT-5/5.5): cl100k_base / o200k_base ベース。日本語は1文字1.5 tokens程度
    • Anthropic (Claude): 独自トークナイザ。日本語は1文字1.3 tokens程度 (Opus 4.7 は新トークナイザで最大35%増)
    • Google (Gemini): SentencePiece ベース、やや日本語効率良し
    • DeepSeek: GPT系トークナイザベース、コード処理に強い

    使い方のヒント

    • システムプロンプト最適化: System prompt の長さを測定 → 不要な指示を削除 → コスト削減
    • RAG コンテキスト見積もり: 検索結果テキストのトークン数を確認、Top-K のサイズ調整
    • Few-shot プロンプト最適化: 例文数 × トークン数 × リクエスト数 で月額試算
    • 翻訳コスト試算: 翻訳元文書のトークン数 + 翻訳後出力推定 (英→日は約1.3倍)
    • 正確な値が必要な場合: OpenAI Tiktoken / Anthropic 公式 tokenizer / Google AI Studio Token counter を使用

    関連ツール / 記事

    ※本ツールはヒューリスティックな推定であり、正確な値は各社公式 tokenizer に依存します。本ツールは完全にブラウザ内で動作し、テキストデータがサーバーに送信されることはありません。

    記事URLをコピーしました