About teai.io
teai.ioについて
開発者のためのAIインフラを、シンプルに。
ミッション
teai.io は、開発者が複数のLLMプロバイダーを意識せずにAIを活用できる統合APIゲートウェイです。 OpenAI互換のエンドポイントを1つ用意するだけで、GPT-4o・Claude・Gemini・DeepSeek・Qwen3など 45以上のモデルを切り替え不要で使えます。
日本語に特化した最適化を施し、国内の開発者・スタートアップが世界クラスのAIを最小コストで プロダクトに組み込めることを目指しています。
なぜ teai.io か
OpenAI SDKそのまま使える 1行変更
既存コードの
base_url を https://api.teai.io に変えるだけ。
ライブラリの置き換え不要、移行コストゼロ。
45+モデル対応
GPT-4o、Claude Sonnet、Gemini 2.5、DeepSeek V3、Qwen3など主要モデルを網羅。
用途・コスト・速度に合わせてモデルを自在に選択。
日本語特化モデル Nemotron 9B 無料
NVIDIA Nemotron Nano 9B v2 Japanese を無料枠として提供。
日本語タスクに最適化されたモデルをクレジット不要で利用可能。
自動フェイルオーバー
プロバイダー障害・レートリミット・タイムアウト発生時に次のモデルへ自動切替。
サーキットブレーカー + ラウンドロビンで高可用性を実現。
東京リージョン
AWS ap-northeast-1(東京)にデプロイ済み。国内ユーザーへの低レイテンシを優先。
データは日本国内に保管。
移行サンプル (Python)
# Before client = OpenAI(api_key="sk-...") # After — base_url を変えるだけ client = OpenAI( api_key="cw_your_teai_key", base_url="https://api.teai.io", )
技術スタック
信頼性・性能・低コストを両立するために、以下の技術スタックを採用しています。
Rust (axum 0.7) — コアAPI
AWS Lambda ARM64 — サーバーレス実行
API Gateway — エッジルーティング
DynamoDB — セッション・認証・課金
マルチプロバイダーLB — 自動フェイルオーバー
SSE Streaming — リアルタイム応答
Rustによるゼロコスト抽象化でLambdaのコールドスタートを最小化。 Tokio非同期ランタイムで高並列なストリーミングリクエストを処理します。
運営会社
teai.io は 株式会社イネブラ が開発・運営しています。 テクノロジーで人々をエンパワーする企業として、開発者コミュニティへの貢献を重視し、 AIインフラのコモディティ化を推進しています。
| 商号 | 株式会社イネブラ (Enabler Inc.) |
| 代表者 | 濱田 優貴 |
| 設立 | 2024年 |
| 資本金 | 100万円 |
| 所在地 | 東京都 |
| 事業内容 | AI APIインフラ、LLMゲートウェイサービスの開発・運営 |
| URL | enablerhq.com |