Agent Skills by ALSEL
Anthropic ClaudeLLM・AI開発⭐ リポ 622品質スコア 87/100

ai-models

最新のAIモデルリファレンス - Claude、OpenAI、Gemini、Eleven Labs、Replicate

description の原文を見る

Latest AI models reference - Claude, OpenAI, Gemini, Eleven Labs, Replicate

SKILL.md 本文

AIモデルリファレンススキル

最終更新: 2025年12月

哲学

仕事に応じた適切なモデルを使用してください。 大きければ良いというわけではありません。モデルの機能をタスク要件に合わせてください。コスト、レイテンシー、精度のトレードオフを検討してください。

モデル選択マトリックス

タスク推奨モデル理由
複雑な推論Claude Opus 4.5、o3、Gemini 3 Pro最高の精度
高速チャット/補完Claude Haiku、GPT-4.1 mini、Gemini Flash低レイテンシー、低コスト
コード生成Claude Sonnet 4.5、Codestral、GPT-4.1コーディング性能に優れている
ビジョン/画像Claude Sonnet、GPT-4o、Gemini 3 Proマルチモーダル
エンベディングtext-embedding-3-small、Voyageコスト効率的
音声合成Eleven Labs v3、OpenAI TTS自然な音質
画像生成FLUX.2、DALL-E 3、SD 3.5異なるスタイル

Anthropic (Claude)

ドキュメント

最新モデル (2025年12月)

const CLAUDE_MODELS = {
  // フラッグシップ - 最高機能
  opus: 'claude-opus-4-5-20251101',

  // バランス型 - ほとんどのタスクに最適
  sonnet: 'claude-sonnet-4-5-20250929',

  // 前世代 (依然として優秀)
  opus4: 'claude-opus-4-20250514',
  sonnet4: 'claude-sonnet-4-20250514',

  // 高速で安い - 大量タスク向け
  haiku: 'claude-haiku-3-5-20241022',
} as const;

使用方法

import Anthropic from '@anthropic-ai/sdk';

const anthropic = new Anthropic({
  apiKey: process.env.ANTHROPIC_API_KEY,
});

const response = await anthropic.messages.create({
  model: 'claude-sonnet-4-5-20250929',
  max_tokens: 1024,
  messages: [
    { role: 'user', content: 'Hello, Claude!' }
  ],
});

モデル選択

claude-opus-4-5-20251101 (Opus 4.5)
├── 最適な用途: 複雑な分析、研究、細微な執筆
├── コンテキスト: 200K トークン
├── コスト: 100万トークンあたり $5/$25 (入力/出力)
└── 使用場面: 精度が最も重要な場合

claude-sonnet-4-5-20250929 (Sonnet 4.5)
├── 最適な用途: コード、一般的なタスク、バランスの取れたパフォーマンス
├── コンテキスト: 200K トークン
├── コスト: 100万トークンあたり $3/$15
└── 使用場面: ほとんどのアプリケーションのデフォルト選択肢

claude-haiku-3-5-20241022 (Haiku 3.5)
├── 最適な用途: 分類、抽出、大量処理
├── コンテキスト: 200K トークン
├── コスト: 100万トークンあたり $0.25/$1.25
└── 使用場面: 速度とコストが最重要な場合

OpenAI

ドキュメント

最新モデル (2025年12月)

const OPENAI_MODELS = {
  // GPT-5 シリーズ (最新)
  gpt5: 'gpt-5.2',
  gpt5Mini: 'gpt-5-mini',

  // GPT-4.1 シリーズ (ほとんどの場合推奨)
  gpt41: 'gpt-4.1',
  gpt41Mini: 'gpt-4.1-mini',
  gpt41Nano: 'gpt-4.1-nano',

  // 推論モデル (o シリーズ)
  o3: 'o3',
  o3Pro: 'o3-pro',
  o4Mini: 'o4-mini',

  // レガシーだが依然有用
  gpt4o: 'gpt-4o',           // 依然としてオーディオサポート有り
  gpt4oMini: 'gpt-4o-mini',

  // エンベディング
  embeddingSmall: 'text-embedding-3-small',
  embeddingLarge: 'text-embedding-3-large',

  // 画像生成
  dalle3: 'dall-e-3',
  gptImage: 'gpt-image-1',

  // オーディオ
  tts: 'tts-1',
  ttsHd: 'tts-1-hd',
  whisper: 'whisper-1',
} as const;

使用方法

import OpenAI from 'openai';

const openai = new OpenAI({
  apiKey: process.env.OPENAI_API_KEY,
});

// チャット補完
const response = await openai.chat.completions.create({
  model: 'gpt-4.1',
  messages: [
    { role: 'user', content: 'Hello!' }
  ],
});

// ビジョン機能付き
const visionResponse = await openai.chat.completions.create({
  model: 'gpt-4.1',
  messages: [
    {
      role: 'user',
      content: [
        { type: 'text', text: 'What is in this image?' },
        { type: 'image_url', image_url: { url: 'https://...' } },
      ],
    },
  ],
});

// エンベディング
const embedding = await openai.embeddings.create({
  model: 'text-embedding-3-small',
  input: 'Your text here',
});

モデル選択

o3 / o3-pro
├── 最適な用途: 数学、コーディング、複雑なマルチステップ推論
├── コンテキスト: 200K トークン
├── コスト: プレミアム価格
└── 使用場面: 最難関の問題、思考連鎖が必要な場合

gpt-4.1
├── 最適な用途: 一般的なタスク、コーディング、指示の厳密な遵守
├── コンテキスト: 1M トークン (!)
├── コスト: GPT-4o より低い
└── 使用場面: デフォルト選択肢、GPT-4o の代替

gpt-4.1-mini / gpt-4.1-nano
├── 最適な用途: 大量処理、コスト重視
├── コンテキスト: 1M トークン
├── コスト: 非常に低い
└── 使用場面: 規模での単純なタスク

o4-mini
├── 最適な用途: 低コストでの高速推論
├── コンテキスト: 200K トークン
├── コスト: バジェット推論
└── 使用場面: 推論が必要だがコスト意識的な場合

Google (Gemini)

ドキュメント

最新モデル (2025年12月)

const GEMINI_MODELS = {
  // Gemini 3 (最新)
  gemini3Pro: 'gemini-3-pro-preview',
  gemini3ProImage: 'gemini-3-pro-image-preview',
  gemini3Flash: 'gemini-3-flash-preview',

  // Gemini 2.5 (安定版)
  gemini25Pro: 'gemini-2.5-pro',
  gemini25Flash: 'gemini-2.5-flash',
  gemini25FlashLite: 'gemini-2.5-flash-lite',

  // 特化型
  gemini25FlashTTS: 'gemini-2.5-flash-preview-tts',
  gemini25FlashAudio: 'gemini-2.5-flash-native-audio-preview-12-2025',

  // 前世代
  gemini2Flash: 'gemini-2.0-flash',
} as const;

使用方法

import { GoogleGenerativeAI } from '@google/generative-ai';

const genAI = new GoogleGenerativeAI(process.env.GOOGLE_API_KEY);
const model = genAI.getGenerativeModel({ model: 'gemini-2.5-flash' });

const result = await model.generateContent('Hello!');
const response = result.response.text();

// ビジョン機能付き
const visionModel = genAI.getGenerativeModel({ model: 'gemini-2.5-pro' });
const imagePart = {
  inlineData: {
    data: base64Image,
    mimeType: 'image/jpeg',
  },
};
const result = await visionModel.generateContent(['Describe this:', imagePart]);

モデル選択

gemini-3-pro-preview
├── 最適な用途: 「マルチモーダルで世界最高のモデル」
├── コンテキスト: 2M トークン
├── コスト: プレミアム
└── 使用場面: 最高品質が必要な場合

gemini-2.5-pro
├── 最適な用途: 最先端の思考、複雑なタスク
├── コンテキスト: 2M トークン
├── コスト: 100万トークンあたり $1.25/$5
└── 使用場面: 長いコンテキスト、複雑な推論

gemini-2.5-flash
├── 最適な用途: 高速で、バランスの取れたパフォーマンス
├── コンテキスト: 1M トークン
├── コスト: 100万トークンあたり $0.075/$0.30
└── 使用場面: 速度とコストが重要な場合

gemini-2.5-flash-lite
├── 最適な用途: 超高速、最低コスト
├── コンテキスト: 1M トークン
├── コスト: 100万トークンあたり $0.04/$0.15
└── 使用場面: 大量処理、単純なタスク

Eleven Labs (音声)

ドキュメント

最新モデル (2025年12月)

const ELEVENLABS_MODELS = {
  // 最新 - 最高品質 (アルファ)
  v3: 'eleven_v3',

  // 本番環境対応
  multilingualV2: 'eleven_multilingual_v2',
  turboV2_5: 'eleven_turbo_v2_5',

  // 超低レイテンシー
  flashV2_5: 'eleven_flash_v2_5',
  flashV2: 'eleven_flash_v2', // 英語のみ
} as const;

使用方法

import { ElevenLabsClient } from 'elevenlabs';

const elevenlabs = new ElevenLabsClient({
  apiKey: process.env.ELEVENLABS_API_KEY,
});

// テキストから音声へ
const audio = await elevenlabs.textToSpeech.convert('voice-id', {
  text: 'Hello, world!',
  model_id: 'eleven_turbo_v2_5',
  voice_settings: {
    stability: 0.5,
    similarity_boost: 0.75,
  },
});

// オーディオをストリーミング (リアルタイム向け)
const audioStream = await elevenlabs.textToSpeech.convertAsStream('voice-id', {
  text: 'Streaming audio...',
  model_id: 'eleven_flash_v2_5',
});

モデル選択

eleven_v3 (アルファ)
├── 最適な用途: 最高品質、感情表現の幅
├── レイテンシー: ~1s以上 (リアルタイムには非適)
├── 言語: 74
└── 使用場面: 品質を速度よりも重視、プリレンダリング

eleven_turbo_v2_5
├── 最適な用途: 品質と速度のバランス
├── レイテンシー: ~250-300ms
├── 言語: 32
└── 使用場面: 良好な品質と妥当なレイテンシー

eleven_flash_v2_5
├── 最適な用途: リアルタイム、会話AI
├── レイテンシー: <75ms
├── 言語: 32
└── 使用場面: ライブボイスエージェント、チャットボット

Replicate

ドキュメント

人気モデル (2025年12月)

const REPLICATE_MODELS = {
  // FLUX.2 (最新 - 2025年11月)
  flux2Pro: 'black-forest-labs/flux-2-pro',
  flux2Flex: 'black-forest-labs/flux-2-flex',
  flux2Dev: 'black-forest-labs/flux-2-dev',

  // FLUX.1 (依然優秀)
  flux11Pro: 'black-forest-labs/flux-1.1-pro',
  fluxKontext: 'black-forest-labs/flux-kontext', // 画像編集
  fluxSchnell: 'black-forest-labs/flux-schnell',

  // ビデオ
  stableVideo4D: 'stability-ai/sv4d-2.0',

  // オーディオ
  musicgen: 'meta/musicgen',

  // LLM (必要に応じて主要プロバイダー外)
  llama: 'meta/llama-3.2-90b-vision',
} as const;

使用方法

import Replicate from 'replicate';

const replicate = new Replicate({
  auth: process.env.REPLICATE_API_TOKEN,
});

// FLUX.2 で画像生成
const output = await replicate.run('black-forest-labs/flux-2-pro', {
  input: {
    prompt: 'A serene mountain landscape at sunset',
    aspect_ratio: '16:9',
    output_format: 'webp',
  },
});

// Kontext で画像編集
const edited = await replicate.run('black-forest-labs/flux-kontext', {
  input: {
    image: 'https://...',
    prompt: 'Change the sky to sunset colors',
  },
});

モデル選択

flux-2-pro
├── 最適な用途: 最高品質、最大4MP
├── 速度: ~6秒
├── コスト: $0.015 + メガピクセルあたり
└── 使用場面: プロフェッショナル品質が必要な場合

flux-2-flex
├── 最適な用途: 細部、タイポグラフィー
├── 速度: ~22秒
├── コスト: メガピクセルあたり $0.06
└── 使用場面: 正確な制御が必要な場合

flux-2-dev (オープンソース)
├── 最適な用途: 高速生成
├── 速度: ~2.5秒
├── コスト: メガピクセルあたり $0.012
└── 使用場面: 品質より速度を優先

flux-kontext
├── 最適な用途: テキストを用いた画像編集
├── 速度: 可変
├── コスト: 実行単位
└── 使用場面: 既存画像を編集

Stability AI

ドキュメント

最新モデル (2025年12月)

const STABILITY_MODELS = {
  // 画像生成
  sd35Large: 'sd3.5-large',
  sd35LargeTurbo: 'sd3.5-large-turbo',
  sd3Medium: 'sd3-medium',

  // ビデオ
  sv4d: 'sv4d-2.0', // Stable Video 4D 2.0

  // アップスケーリング
  upscale: 'esrgan-v1-x2plus',
} as const;

使用方法

const response = await fetch(
  'https://api.stability.ai/v2beta/stable-image/generate/sd3',
  {
    method: 'POST',
    headers: {
      'Content-Type': 'application/json',
      Authorization: `Bearer ${process.env.STABILITY_API_KEY}`,
    },
    body: JSON.stringify({
      prompt: 'A futuristic city at night',
      output_format: 'webp',
      aspect_ratio: '16:9',
      model: 'sd3.5-large',
    }),
  }
);

Mistral AI

ドキュメント

最新モデル (2025年12月)

const MISTRAL_MODELS = {
  // フラッグシップ
  large: 'mistral-large-latest',  // 2411 を指す

  // 中堅層
  medium: 'mistral-medium-2505',  // Medium 3

  // 小型/高速
  small: 'mistral-small-2506',    // Small 3.2

  // コード特化
  codestral: 'codestral-2508',
  devstral: 'devstral-medium-2507',

  // 推論 (Magistral)
  magistralMedium: 'magistral-medium-2507',
  magistralSmall: 'magistral-small-2507',

  // オーディオ
  voxtral: 'voxtral-small-2507',

  // OCR
  ocr: 'mistral-ocr-2505',
} as const;

使用方法

import MistralClient from '@mistralai/mistralai';

const client = new MistralClient(process.env.MISTRAL_API_KEY);

const response = await client.chat({
  model: 'mistral-large-latest',
  messages: [{ role: 'user', content: 'Hello!' }],
});

// Codestral によるコード補完
const codeResponse = await client.chat({
  model: 'codestral-2508',
  messages: [{ role: 'user', content: 'Write a Python function to...' }],
});

モデル選択

mistral-large-latest (123B パラメータ)
├── 最適な用途: 複雑な推論、知識タスク
├── コンテキスト: 128K トークン
└── 使用場面: 高い機能が必要な場合

codestral-2508
├── 最適な用途: コード生成、80以上の言語対応
├── 速度: 前バージョンの 2.5 倍高速
└── 使用場面: コード重視のタスク

magistral-medium-2507
├── 最適な用途: マルチステップ推論
├── 特性: 透過的な思考連鎖
└── 使用場面: 推論トレースが必要な場合

Voyage AI (エンベディング)

ドキュメント

最新モデル (2025年12月)

const VOYAGE_MODELS = {
  // 汎用
  large2: 'voyage-large-2',
  large2Instruct: 'voyage-large-2-instruct',

  // コード特化
  code2: 'voyage-code-2',
  code3: 'voyage-code-3',

  // 多言語対応
  multilingual2: 'voyage-multilingual-2',

  // ドメイン特化
  law2: 'voyage-law-2',
  finance2: 'voyage-finance-2',
} as const;

使用方法

const response = await fetch('https://api.voyageai.com/v1/embeddings', {
  method: 'POST',
  headers: {
    'Content-Type': 'application/json',
    Authorization: `Bearer ${process.env.VOYAGE_API_KEY}`,
  },
  body: JSON.stringify({
    model: 'voyage-code-3',
    input: ['Your code to embed'],
  }),
});

const { data } = await response.json();
const embedding = data[0].embedding;

クイックリファレンス

コスト比較 (100万トークンあたり、概算)

プロバイダー安い中程度プレミアム
Anthropic$0.25 (Haiku)$3 (Sonnet 4.5)$5 (Opus 4.5)
OpenAI$0.15 (4.1-nano)$2 (4.1)$15以上 (o3)
Google$0.04 (Flash-lite)$0.08 (Flash)$1.25 (Pro)
Mistral$0.25 (Small)$2.70 (Medium)$8 (Large)

各タスクに最適なモデル

推論/分析          → Claude Opus 4.5、o3、Gemini 3 Pro
コード生成         → Claude Sonnet 4.5、Codestral 2508、GPT-4.1
高速応答           → Claude Haiku、GPT-4.1-mini、Gemini Flash
長いコンテキスト   → Gemini 2.5 Pro (2M)、GPT-4.1 (1M)、Claude (200K)
ビジョン           → GPT-4.1、Claude Sonnet、Gemini 3 Pro
エンベディング     → Voyage code-3、text-embedding-3-small
音声合成           → Eleven Labs v3/flash、OpenAI TTS
画像生成           → FLUX.2 Pro、DALL-E 3、SD 3.5
ビデオ生成         → Stable Video 4D 2.0、Runway
画像編集           → FLUX Kontext、gpt-image-1

環境変数テンプレート

# .env.example (実際のキーはコミットしないでください)

# LLM
ANTHROPIC_API_KEY=sk-ant-...
OPENAI_API_KEY=sk-...
GOOGLE_API_KEY=AI...
MISTRAL_API_KEY=...

# メディア
ELEVENLABS_API_KEY=...
REPLICATE_API_TOKEN=r8_...
STABILITY_API_KEY=sk-...

# エンベディング
VOYAGE_API_KEY=pa-...

モデル更新チェックリスト

モデルが更新されたとき:
□ 公式の変更ログ/ブログを確認
□ モデル ID 文字列を更新
□ 既存プロンプトでテスト
□ 出力品質を比較
□ 価格変更を確認
□ コンテキスト制限が変更された場合は更新

参考資料

ライセンス: MIT(寛容ライセンスのため全文を引用しています) · 原本リポジトリ

詳細情報

作者
alinaqi
リポジトリ
alinaqi/claude-bootstrap
ライセンス
MIT
最終更新
2026/5/12

Source: https://github.com/alinaqi/claude-bootstrap / ライセンス: MIT

本サイトは GitHub 上で公開されているオープンソースの SKILL.md ファイルをクロール・インデックス化したものです。 各スキルの著作権は原作者に帰属します。掲載に問題がある場合は info@alsel.co.jp または /takedown フォームよりご連絡ください。
原作者: alinaqi · alinaqi/claude-bootstrap · ライセンス: MIT