Agent Skills by ALSEL
汎用音声・動画・メディア⭐ リポ 2,743品質スコア 90/100

depth-estimation

Depth Anything v2を使用したリアルタイム深度マップのプライバシー変換(CoreML + PyTorch対応) このスキルは、Depth Anything v2モデルを活用して、画像やビデオから取得した深度情報をリアルタイムで処理し、プライバシーを保護しながら変換します。CoreMLとPyTorchの両方に対応しており、エッジデバイスでの高速処理とクラウド環境での柔軟な運用が可能です。顔認識データのぼかしや背景の匿名化など、プライバシー関連の処理を効率的に実行できます。

description の原文を見る

Real-time depth map privacy transforms using Depth Anything v2 (CoreML + PyTorch)

SKILL.md 本文

深度推定(プライバシー)

Depth Anything v2を使用したリアルタイム単眼深度推定。カメラフィードを色付けされた深度マップで変換します。近いオブジェクトは暖色、遠いオブジェクトは寒色で表示されます。

プライバシーモードとして使用する場合、depth_onlyブレンドモードはシーンを完全に匿名化しながら空間レイアウトとアクティビティを保持し、顔認証を明かさないセキュリティ監視を実現します。

ハードウェアバックエンド

プラットフォームバックエンドランタイムモデル
macOSCoreMLApple Neural Engineapple/coreml-depth-anything-v2-small (.mlpackage)
Linux/WindowsPyTorchCUDA / CPUdepth-anything/Depth-Anything-V2-Small (.pth)

macOSでは、CoreMLはNeural Engineで動作し、GPUを他のタスク用に解放します。モデルはHuggingFaceから自動ダウンロードされ、~/.aegis-ai/models/feature-extraction/に保存されます。

機能

  • プライバシー匿名化 — 深度のみモードはすべての視覚的識別情報を隠します
  • ライブカメラフィードへの深度オーバーレイ
  • 3Dシーン理解 — シーンの空間レイアウト
  • CoreML高速化 — Apple Silicon上のNeural Engine(MPS比3~5倍高速)

インターフェース:TransformSkillBase

このスキルはTransformSkillBaseインターフェースを実装しています。新しいプライバシースキルは、TransformSkillBaseをサブクラス化し、2つのメソッドを実装することで作成できます:

from transform_base import TransformSkillBase

class MyPrivacySkill(TransformSkillBase):
    def load_model(self, config):
        # モデルをロードして、{"model": "...", "device": "..."}を返す
        ...

    def transform_frame(self, image, metadata):
        # BGRイメージを変換してBGRイメージを返す
        ...

プロトコル

Aegis → スキル(標準入力)

{"event": "frame", "frame_id": "cam1_1710001", "camera_id": "front_door", "frame_path": "/tmp/frame.jpg", "timestamp": "..."}
{"command": "config-update", "config": {"opacity": 0.8, "blend_mode": "overlay"}}
{"command": "stop"}

スキル → Aegis(標準出力)

{"event": "ready", "model": "coreml-DepthAnythingV2SmallF16", "device": "neural_engine", "backend": "coreml"}
{"event": "transform", "frame_id": "cam1_1710001", "camera_id": "front_door", "transform_data": "<base64 JPEG>"}
{"event": "perf_stats", "total_frames": 50, "timings_ms": {"transform": {"avg": 12.5, ...}}}

セットアップ

python3 -m venv .venv && source .venv/bin/activate
pip install -r requirements.txt

ライセンス: MIT(寛容ライセンスのため全文を引用しています) · 原本リポジトリ

詳細情報

作者
SharpAI
リポジトリ
SharpAI/DeepCamera
ライセンス
MIT
最終更新
2026/4/21

Source: https://github.com/SharpAI/DeepCamera / ライセンス: MIT

本サイトは GitHub 上で公開されているオープンソースの SKILL.md ファイルをクロール・インデックス化したものです。 各スキルの著作権は原作者に帰属します。掲載に問題がある場合は info@alsel.co.jp または /takedown フォームよりご連絡ください。
原作者: SharpAI · SharpAI/DeepCamera · ライセンス: MIT