Token カウンター
AIモデルでのToken数を推定、主要LLMの料金計算に対応
テキストを入力
統計
Token数0
文字数0
中国語文字数0
単語数(推定)0
文字/Token比0
推定コスト
入力Token0
出力Token1,000
合計コスト$0.0100
1M入力トークンあたり$2.50
1M出力トークンあたり$10.00
Tokenとは?
TokenはAIモデルがテキストを処理する基本単位です。モデルはテキストをTokenという小さなセグメントに分割して処理します。
モデルごとに異なるトークン化アルゴリズムを使用します。DeepSeekなどのモデルは中国語に最適化されています。
使い方
基本操作
- 入力エリアにテキストを入力または貼り付け
- ターゲットAIモデルを選択(GPT-4、Claude、Geminiなど)
- 右側のパネルでトークン数推定を確認
- 推定出力長を設定してAPIコストを計算
トークン化ルール
- GPTシリーズ:英語約4文字=1トークン、中国語約1.5文字=1トークン
- Claudeシリーズ:GPTと類似、わずかな違いあり
- DeepSeekシリーズ:中国語最適化、約2文字=1トークン
- 特殊文字、句読点、改行もトークンを消費
- コードやJSONなどの構造化テキストは高いトークン密度
よくある質問
Q: なぜ推定結果がAPIと異なるのですか?
A: 本ツールは近似算法を使用しています。推定値は参考としてご利用ください。
Q: 中国語と英語のトークン計算の違いは?
A: 英語は平均4文字で1トークン、中国語はGPTで約1.5文字、DeepSeekで約2文字です。
Q: トークン使用量を減らすには?
A: プロンプトを簡潔にし、冗長な情報を削除し、より簡潔な表現を使用してください。
Q: トークンと文字数の関係は?
A: 英語テキストは通常3-5の文字/トークン比、中国語はGPTで0.5-1.5です。
Q: 異なるモデルは同じようにトークンをカウントしますか?
A: いいえ。各モデルは独自のトークナイザーと語彙を持っています。