Agent Skills by ALSEL
汎用LLM・AI開発⭐ リポ 308品質スコア 84/100

clip

OpenAI CLIP — 対比的言語画像事前学習モデル。ゼロショット画像分類、画像とテキストの類似度判定、概念検索、クロスモーダル検索に対応しています。画像とテキストを共有の埋め込み空間にマッピングすることで、両者の関連性を理解・活用できます。

description の原文を見る

OpenAI CLIP — contrastive language-image pre-training. Zero-shot image classification, image-text similarity, concept search, and cross-modal retrieval. Embed images and text into shared space.

SKILL.md 本文

概要

OpenAI CLIP(対照的言語画像事前学習)は、テキストと画像の結合表現を学習します。タスク固有の学習なしで、ゼロショット画像分類、画像テキスト類似度、クロスモーダル検索、画像キャプショニングが可能になります。

インストール

uv pip install openai-clip

ゼロショット分類

import clip
import torch

model, preprocess = clip.load("ViT-B/32")
image = preprocess(load_image("photo.jpg")).unsqueeze(0)
text = clip.tokenize(["a dog", "a cat", "a bird"])

with torch.no_grad():
    logits, _ = model(image, text)
    probs = logits.softmax(dim=-1)

print(f"Predicted: class {probs.argmax().item()} with {probs.max():.2%} confidence")

テキスト画像類似度

images = torch.stack([preprocess(img) for img in [load_image("a.jpg"), load_image("b.jpg")]])
texts = clip.tokenize(["sunset", "ocean", "mountain"])

with torch.no_grad():
    similarity = model(images, texts)[0].softmax(dim=-1)

参考資料

ライセンス: MIT(寛容ライセンスのため全文を引用しています) · 原本リポジトリ

詳細情報

作者
mkurman
リポジトリ
mkurman/zorai
ライセンス
MIT
最終更新
2026/5/11

Source: https://github.com/mkurman/zorai / ライセンス: MIT

本サイトは GitHub 上で公開されているオープンソースの SKILL.md ファイルをクロール・インデックス化したものです。 各スキルの著作権は原作者に帰属します。掲載に問題がある場合は info@alsel.co.jp または /takedown フォームよりご連絡ください。
原作者: mkurman · mkurman/zorai · ライセンス: MIT