AI主権を、すべての日本企業に

持ってますか? 自社AI

AIを「借りる」から「持つ」へ

Anthropic、OpenAI、Google ── あなたの会社のAIは、誰の手の中にありますか? クラウドAI依存からの脱却を、いま実現する。

CORE PRODUCT
TOROTAKU Sovereign AI Stack
diso / torotaku IDE / diso-lake の3層構成

ChatGPTを使い、Copilotを使い、Claudeを使う。
便利だ。仕事は速くなった。
AIなしの時代には、もう戻れない。

── ところで、ひとつ、質問させてください ──

そのAIの値段、明日からいくらになるか、
決めているのは誰ですか?

決めているのは、あなたの会社ではありません。
サンフランシスコと、シアトルと、マウンテンビューにいる、数社の経営陣です。

第1章 ── 危機

見えない従属は、
もう始まっている

「便利に使えている」のと「主権がある」のは、まったく別のことです。

RISK 01

価格は向こうが決め、向こうが上げる

API料金は静かに改定されます。「お得意様割引」はありません。昨年の事業計画で組んだAI予算は、今年の請求書では通用しないかもしれない。

RISK 02

モデルは突然「廃止」される

去年あなたの社内システムが前提にしていたモデルは、半年後には deprecated と書かれて消えます。社内ワークフローを組み直すコストは、もちろんあなたの会社が払います。

RISK 03

レートリミットで、業務が止まる

「アクセス過多のため、サービスを一時的に制限しています」── あなたが見るこの一文の裏で、決算の山場の集計作業が、契約書のレビューが、止まります。

RISK 04

データの行き先が、見えない

社内資料、顧客情報、設計図のスニペット ── 「学習には使われない設定」だと画面の説明文には書いてあります。ただし、その設定が変わらない保証はありません。

RISK 05

「使える機能」は向こうが決める

ある日、特定の話題への回答を拒否されるようになる。ある日、特定の業界向けの利用が利用規約で禁止される。あなたの業務の根幹が、他人の方針転換ひとつで揺らぐ。

これを、私たちは ──
AI主権の
喪失と呼んでいます

「便利に使えているじゃないか」と言う人がいる。
それは、便利に使えている今この瞬間だけの話です。

第2章 ── 構造

これは「クラウド従属」の
構造問題です

電気で例えます。

大手AI APIを使うことは、電力を電力会社から買うようなもの。便利で、効率的で、合理的です。

しかし、いまのAI業界は、世界に発電所が3社しかない状態に近づいています。

そして、その3社は、それぞれ自分の都合で料金と供給と仕様を決めます。

あなたの会社が、その電気で何を作ろうと ── 最終的には3社の意思に握られている

世界のAI"発電所"
わずか3社
A
Anthropic
San Francisco
O
OpenAI
San Francisco
G
Google
Mountain View
料金・供給・仕様の決定権
100% あちら側
第3章 ── 答え

株式会社とろたくの
答え

私たちは、AIの完全な自前主義を勧めません。

GPT-5やClaudeを使うな、とは言いません。
一流の顧問弁護士を雇わないのと同じくらい、もったいない。

私たちの提案

強いAIは「顧問」として呼ぶ。
日々の業務は「自社のAI」が回す。

主権はこちらにあり、外部の強力なモデルは、
必要なときだけ、こちらから呼びつける。

これを実現するのが、株式会社とろたくの中核製品
TOROTAKU Sovereign AI Stack です。

第4章 ── 製品

3本の柱

エンドポイント・エージェント・観測 ── すべての階層で「主権」を確保する

柱 01
diso
AIゲートウェイ

あなたの会社専用の「AI発電所」

社内サーバーで動くオープンソースAI(Gemma、GLMなど)を複数台束ね、ひとつの窓口にまとめる社内AIゲートウェイ。社員PCやアプリは、外のAI APIではなく、社内のdisoを呼びます。

値上げの影響を受けない
突然の廃止通告がない
データは社外に出ない
何回呼んでも料金が増えない
例えるなら ── 毎月のクラウド請求書を、社内の電気代に置き換える製品です。
柱 02
torotaku
IDE
エンジニアの相棒

AIを「物理的に」飼いならす開発環境

VSCode拡張として動作。ローカルAIに対し、お説教ではなく物理的な躾と補助を与えます。私たちのモットー: 「コーディングの品質は、賢さよりも"手順を守れるか"で決まる。」

特徴 01 物理ガード
「考えるふり」「計画モード違反」「ループ」「完了詐称」を物理的に封じる
特徴 02 Hirameki システム
難所でだけ強AIを呼ぶ4種類の「ひらめき」機能
特徴 03 サブエージェント
最大4台のローカルAIを並列で同時稼働させる調査機能
特徴 04 LSP連携
AIがファイルを読むたびにコンパイルエラー情報も自動添付
最大の差別化
特徴 05 インテリジェント記憶圧縮(Condense)
数時間級の連続タスクでもAIが直前の作業を忘れない。同業他ツールが踏み抜く「圧縮事故」を、構造的に直してあります。
特徴 06 耐運用設計
git log で固まる問題、resume での履歴破壊、15分タイムアウト ── 業務を止める「地雷」を踏み抜いて修正済み
ローカルAIを「使い物になる」レベルまで引き上げ、強モデルを「顧問」として最小限だけ呼び、業務地雷をすべて踏み抜いてある。
柱 03
diso-lake
観測・監査基盤

AIの「行動記録」を自社で保管する観測基盤

AIに業務を任せるなら、AIが何をやったかを自社で記録できなければなりません。diso-lakeは、それらをすべて自社サーバーに保存し、毎日要約レポートを出します。

どのモデルが、いつ、どんな質問に、どう答えたか
どの社員が、AIにどんな仕事を振ったか
AIが間違えたとき、なぜ間違えたか、後から再現できるか
監査法人にも、内部統制部にも、説明責任を果たせます。
これは外部AI APIでは絶対に手に入らない情報です。
第5章 ── 実証

大規模基幹システムで
「卓越した成果」

「ローカルAIで、本当に仕事になるのか?」── すでに答えを出しています。

業務 01
障害調査

複雑な不具合の根本原因究明、再現手順の確立、修正方針の立案 ── シニアエンジニアの工数を大量に消費する重量級の業務

業務 02
ドキュメント作成

設計書・仕様書・運用手順書・引き継ぎ資料の整備 ── 基幹システム運用の最重量級の知的労働

使用したAI ── 両方ともローカルモデル
GLM-4.7
LOCAL / 推論担当
論理的推論・原因仮説の組み立て
Gemma-4
LOCAL / 並列調査担当
広範な調査・読解・要約・並列下調べ(複数台同時稼働)

この2つのローカルAIの組み合わせのみで、業務として通用する品質のアウトプットに到達。
外部AI APIには、一切依存していません。

¥0
外部APIへの追加課金
0件
顧客情報・社内資料の社外流出
無縁
サービス停止・廃止通告・値上げ
対応
ネットワーク遮断環境でも稼働

TOROTAKU Sovereign AI Stack は、絵に描いた餅ではありません。

すでに、大規模基幹案件の現場で、結果を出している現実の道具です。

第6章 ── 効果

導入企業に何が起きるか

BEFORE
今のあなたの会社
  • 月末になるとAI請求書が想定の1.5倍になっている
  • ベンダーから「このモデルは3か月後に廃止します」というメールが来る
  • 顧客情報を貼り付けるのが少し怖くて、AI活用を一部制限している
  • AIの回答品質が、ある日突然変わったことに気づいたが原因がわからない
  • 経営会議で「AIへの依存度が高すぎないか」と問われ、答えに詰まる
AFTER
とろたく導入後
  • AI関連費用は、サーバー減価償却+電気代+運用人件費に固定化
  • 廃止通告は来ない(自社で持っているから)
  • 機密情報をAIに渡しても、社外に出ない
  • AIの行動はすべて社内に記録され、品質変動が可視化される
  • 経営会議で「我が社はAI主権を確保しています」と答えられる
変化のイメージ
外部AI依存度Before → After
自社AI主権度Before → After
機密データ流出リスクBefore → After

※イメージ図。実際の比率は導入規模・運用体制により異なります。

第7章 ── タイミング

なぜ「今」なのか

3つの時間軸があります。

+6か月

価格は確実に上がる

クラウドAIは「市場拡大フェーズ」の終盤。次に来るのは収益化フェーズ=値上げフェーズ。これは AWS / Salesforce / すべての SaaS が辿った歴史です。

+12か月

依存はもっと深くなる

社内ワークフローがAIなしで動かない設計に書き換わる頃、ベンダー切り替えのコストは今の10倍に。移行は、依存が浅いうちにしかできません。

+24か月

自前AIはもっと賢くなる

Gemma系オープンモデルは半年ごとに性能が跳ね上がっています。2026年現在「日常業務の8割」、2027年には「9割」。いま土台を作れば、性能向上をそのまま社内に取り込めます。

逆に言えば ──
いま動かない会社は、
来年以降の性能向上の恩恵も、
自社の中に閉じ込められません。

第8章 ── 導入

3ヶ月で完成する
脱却ロードマップ

PHASE 1 / 1か月

disoの社内設置

  • 業務PCはそのまま、社内サーバー1台に diso を立てる
  • AI APIの呼び出し先を、外部URLから社内URLに切り替え
  • これだけで社外データ流出リスクはゼロ
PHASE 2 / 2か月

torotaku IDE 展開

  • 開発部門・情シス部門に torotaku IDE を配布
  • ローカルAIによるコード支援が稼働
  • 強モデルの呼び出しは、難所だけに限定
PHASE 3 / 3か月

diso-lake 監査基盤

  • AI利用ログの集約、日次レポート生成
  • 内部統制・コンプライアンス報告に組み込み
  • AI主権の完成

合計3か月で、外部AI依存からの脱却ロードマップが完成します。

第9章 ── 差別化

とろたくが選ばれる理由

大規模基幹案件で実証済み

障害調査・ドキュメント作成という最重量級業務を、ローカルAI(GLM-4.7 + Gemma-4)のみで完遂しています。

製品全体を内製で開発

海外OSSの寄せ集めではなく、3層すべての設計と実装に責任を持っています。

オンプレ/クラウド両対応

御社のセキュリティ方針・インフラ事情に合わせて配置可能です。

既存AIワークフローを否定しない

強モデルは引き続き使えます。ただし、こちらの土俵で。「捨てる」ではなく「主従関係を入れ替える」設計です。

日本語・日本企業向けに設計

ベンダーロックインの怖さを知っている日本の開発チームが、日本企業の運用文化に合わせて作っています。

いまも進化を続けている

torotaku IDE は社内本番運用しながら毎週改善を重ねています。現場で出た課題をその週のうちに踏み抜いて潰す、それを繰り返してきた結晶です。

FAQ

よくあるご質問

大規模基幹システム案件において、障害調査・ドキュメント作成業務を GLM-4.7 + Gemma-4 のローカル組み合わせのみで完遂した実績があります。難所だけ強モデルを「Hirameki」機能で短時間呼ぶ設計のため、一般的なローカルAIの弱点(賢さ不足)を構造的にカバーしています。
いいえ。私たちは「全否定」ではなく「主従関係の入れ替え」を提案します。GPT-5 や Claude は 難所限定の顧問として引き続きお使いいただけます。ただし、呼び出し量は1/10以下に圧縮されるため、API料金は大幅に下がるケースがほとんどです。
現在は数百GBのRAMを搭載したサーバーを中心に複数台構成で稼働させています。ユーザーの要求に応じてスケーリング可能です。
torotaku IDE は VSCode 拡張として動作するため、既存の開発環境をそのまま使えます。OpenAI互換APIに対応しているツール(Cline, Continue, Aider 等)であれば、API接続先のURLを書き換えるだけで diso 経由に切り替わります。
完全オンプレミス運用に対応しているため、機密データを社外に出さずにAI活用が可能です。さらに diso-lake により全AI利用ログを社内に保管し、日次の要約レポートを自動生成。内部統制部・監査法人への説明責任を果たせます。
いいえ。diso は OpenAI 互換のローカルAIサーバー(LMStudio、Ollama 等)を束ねる構造のため、新しいモデルが出るたびに差し替え可能です。Gemma 系の性能向上をそのまま社内に取り込めるのが、自前運用の最大のメリットでもあります。
現在、株式会社とろたく社内および提携プロジェクトで実戦運用中のプロダクトです。外部企業向けの一般リリースは近日予定しています。本ページは現時点での販売告知ではなく、開発成果のショーケースとしてご覧ください。

── もう一度、聞きます ──

持ってますか?
自社AI

借りるAIは、借家です。

持つAIは、本社ビルです。

BUILT BY
株式会社とろたく
TOROTAKU Sovereign AI Stack ── 自社で開発・自社で運用中

CONTACT

導入のご相談はお気軽に!

お問い合わせ
TOP