Token カウンター

AIモデルでのToken数を推定、主要LLMの料金計算に対応

テキストを入力

統計

Token数0
文字数0
中国語文字数0
単語数(推定)0
文字/Token比0

推定コスト

入力Token0
出力Token1,000
合計コスト$0.0100

1M入力トークンあたり$2.50
1M出力トークンあたり$10.00

Tokenとは?

TokenはAIモデルがテキストを処理する基本単位です。モデルはテキストをTokenという小さなセグメントに分割して処理します。

モデルごとに異なるトークン化アルゴリズムを使用します。DeepSeekなどのモデルは中国語に最適化されています。

使い方

基本操作

  1. 入力エリアにテキストを入力または貼り付け
  2. ターゲットAIモデルを選択(GPT-4、Claude、Geminiなど)
  3. 右側のパネルでトークン数推定を確認
  4. 推定出力長を設定してAPIコストを計算

トークン化ルール

  • GPTシリーズ:英語約4文字=1トークン、中国語約1.5文字=1トークン
  • Claudeシリーズ:GPTと類似、わずかな違いあり
  • DeepSeekシリーズ:中国語最適化、約2文字=1トークン
  • 特殊文字、句読点、改行もトークンを消費
  • コードやJSONなどの構造化テキストは高いトークン密度

よくある質問

Q: なぜ推定結果がAPIと異なるのですか?

A: 本ツールは近似算法を使用しています。推定値は参考としてご利用ください。

Q: 中国語と英語のトークン計算の違いは?

A: 英語は平均4文字で1トークン、中国語はGPTで約1.5文字、DeepSeekで約2文字です。

Q: トークン使用量を減らすには?

A: プロンプトを簡潔にし、冗長な情報を削除し、より簡潔な表現を使用してください。

Q: トークンと文字数の関係は?

A: 英語テキストは通常3-5の文字/トークン比、中国語はGPTで0.5-1.5です。

Q: 異なるモデルは同じようにトークンをカウントしますか?

A: いいえ。各モデルは独自のトークナイザーと語彙を持っています。