汎用LLM・AI開発⭐ リポ 308品質スコア 84/100
clip
OpenAI CLIP — 対比的言語画像事前学習モデル。ゼロショット画像分類、画像とテキストの類似度判定、概念検索、クロスモーダル検索に対応しています。画像とテキストを共有の埋め込み空間にマッピングすることで、両者の関連性を理解・活用できます。
description の原文を見る
OpenAI CLIP — contrastive language-image pre-training. Zero-shot image classification, image-text similarity, concept search, and cross-modal retrieval. Embed images and text into shared space.
SKILL.md 本文
概要
OpenAI CLIP(対照的言語画像事前学習)は、テキストと画像の結合表現を学習します。タスク固有の学習なしで、ゼロショット画像分類、画像テキスト類似度、クロスモーダル検索、画像キャプショニングが可能になります。
インストール
uv pip install openai-clip
ゼロショット分類
import clip
import torch
model, preprocess = clip.load("ViT-B/32")
image = preprocess(load_image("photo.jpg")).unsqueeze(0)
text = clip.tokenize(["a dog", "a cat", "a bird"])
with torch.no_grad():
logits, _ = model(image, text)
probs = logits.softmax(dim=-1)
print(f"Predicted: class {probs.argmax().item()} with {probs.max():.2%} confidence")
テキスト画像類似度
images = torch.stack([preprocess(img) for img in [load_image("a.jpg"), load_image("b.jpg")]])
texts = clip.tokenize(["sunset", "ocean", "mountain"])
with torch.no_grad():
similarity = model(images, texts)[0].softmax(dim=-1)
参考資料
ライセンス: MIT(寛容ライセンスのため全文を引用しています) · 原本リポジトリ
詳細情報
- 作者
- mkurman
- リポジトリ
- mkurman/zorai
- ライセンス
- MIT
- 最終更新
- 2026/5/11
Source: https://github.com/mkurman/zorai / ライセンス: MIT