はじめに

自分自身の姿のかわりに、キャラクターの姿で仮想空間に登場させることができる、アバター。
面白そうでやってみたいなーと思っていたので、作ることにしました☺️

やりたいこと:
 ・フェイストラッキングを実装する
 ・ハンドトラッキングを実装する
 ・Unityでアバターを動かす

MediaPipeとは

Googleが開発したオープンソースのMLフレームワークです。
顔・手・姿勢などのランドマーク検出が簡単に行えます。

pip install mediapipe

顔・手のトラッキング

import cv2
import mediapipe as mp

mp_face_mesh = mp.solutions.face_mesh
mp_hands = mp.solutions.hands

cap = cv2.VideoCapture(0)

with mp_face_mesh.FaceMesh() as face_mesh, mp_hands.Hands() as hands:
    while cap.isOpened():
        ret, frame = cap.read()
        rgb = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)
        face_result = face_mesh.process(rgb)
        hand_result = hands.process(rgb)
        cv2.imshow('MediaPipe', frame)
        if cv2.waitKey(1) == 27:
            break
MediaPipe動作確認

さいごに

それでは、今回はここまで。ありがとうございました😊