ZeroTool Workbench
AI トークンカウンター
GPT-5、GPT-4.1、Claude Sonnet 4.6、Gemini 3、Llama 3.3、DeepSeek V3 対応の無料トークンカウンター。リアルタイムでカウントとコストを表示。アップロード不要、API キー不要。
使い方
- プロンプトを入力欄に貼り付けるか入力します。カウントとコストカードはタイピングと同時に更新されます。
- 各モデルカードは 3 つの値を表示します — トークン数、その文章を入力として使った場合の推定コスト、そして百万トークンあたりの入力/出力料金です。
- exact ラベルのカードは OpenAI 公式 BPE エンコーダーで精密に計算します。approx ラベルのカードは同じエンコーダーに校正係数を掛けたもので、各社公式トークナイザーとの差は 5〜10% 以内が目安です。
- Token Visualization を開くと、exact モデルがテキストをどのように分割するかを視覚的に確認できます。色付きチップひとつがトークン 1 個。チップにホバーするとトークン ID が表示されます。
- Copy stats をクリックすると、1 行プレーンテキストのサマリーが取得できます — コードレビューやチャットでコンテキストウィンドウを共有するときに便利です。
トークンとは
大規模言語モデルはテキストを文字や単語ではなく、トークン列として読み込みます。トークンは Byte Pair Encoding(BPE)アルゴリズムをインターネット規模のコーパスで学習させて得たサブワード単位です。tokenizer のような頻出英単語は 1〜2 トークンですが、URL や珍しい綴り、CJK 1 文字はそれぞれ 3 トークン以上になることがあります。料金、レート制限、コンテキストウィンドウはすべてトークン単位で計測されます。
本ツールが使う cl100k_base と o200k_base は OpenAI 公式テーブルで、GPT-3.5 から GPT-5 までの本番環境と完全に同一です。o200k_base は cl100k_base に対して語彙数を倍増させており、中国語・日本語・韓国語・アラビア語のトークン消費量は 20〜40% 削減されます。多言語プロンプトを多用するなら、節約は実コストに直結します。
なぜローカルで数えるのか
プロンプトをリモート API に送って数える「オンラインカウンター」は便利ですが、system プロンプトには企業秘密、顧客データ、未公開のプロダクトコピーが入っていることが日常茶飯事です。ネットワーク往復が発生した瞬間にすべて漏洩します。本ツールはブラウザ内完結で 1 バイトも端末から出さず、初回読み込み後はオフラインでも動作します。
プロバイダー間のコスト比較
トークン数自体は、各社のトークナイザーがテキストを切る粒度が異なるため、直接比較できません。同じ 1,000 文字の段落が OpenAI では 250 トークン、Claude では 230 トークンになることもあれば、その逆もあります。比較に意味がある指標はコストです。各コストカードはトークン数に各社公開の百万トークンあたり入力料金を掛けて、同じ物差しで比較できるようにしています — チャット中心のアプリでは DeepSeek V3 と Llama 3.3 が単価で勝ち、複雑な推論では GPT-5 と Claude Sonnet 4.6 が「品質単価」で勝つ傾向があります。
プライバシーとネットワーク挙動
ページの HTML と JavaScript がロードされた後、本ページはトークンデータのためのネットワーク要求を一切発行しません。BPE 語彙はページに同梱される JavaScript チャンクにバンドルされています。入力内容は HTTP 要求、アナリティクスイベント、エラーログのいずれにも記録されません。ブラウザ DevTools の Network タブで自分で検証できます — ページが ready になってから入力を続けても、新規リクエストは 0 件のままです。
FAQ
プロンプトはサーバーに送信されますか?
送信されません。トークン化はすべてブラウザ内で実行されます。cl100k_base と o200k_base の BPE 語彙はページにバンドルされており、エンコーダーはテキストエリアの内容しか読みません。最初のページ読み込み以降、ネットワーク通信は一切発生せず、入力内容がタブから外に出ることはありません。
OpenAI 以外のモデルのカウント精度はどの程度ですか?
GPT-5・GPT-4.1・GPT-4o・GPT-4 Turbo・GPT-3.5 のカウントは OpenAI 公式 BPE テーブルによる精密値です。Claude・Gemini・Llama・DeepSeek は o200k_base をベースラインに、公開サンプルで校正したヒューリスティック係数を適用しており、各社公式トークナイザーとの差は通常 5〜10% 以内に収まります。請求金額に直結する用途では、各プロバイダーの count_tokens API で再確認してください。
価格はリアルタイムですか?
価格は 2026 年 5 月時点で人手で確認した参考値です。バッチ料金・地域別課金・プロンプトキャッシュ割引は随時変動します。予算策定の出発点として使い、本格運用前に各社の料金ページで照合してください。
対応する入力サイズは?
1 セッションあたり概ね 500 KB までの文章を処理できます。それを超えると、低スペック端末ではテキストエリアやトークナイザーが反応しづらくなります。バッチ処理が必要な場合は、公式トークナイザーをローカルで実行してください — OpenAI は pip install tiktoken、Claude は anthropic.tokenizers を使います。
アプリで集計したトークン数とこのカウンターが一致しないのはなぜですか?
本番アプリには system プロンプト、function や tool 定義、画像・音声トークン、チャット書式オーバーヘッドなどが含まれますが、本ツールはこれらを意図的に除外しています。本ツールは平文 1 ブロックを測るだけです。請求項目を調査するときは、ユーザー入力部分のみを貼り付け、アプリ側の「ユーザーメッセージのトークン数」と比較してください。