> 通过输入视频,可以执行动捕、面捕、手势识别、表情识别等功能,开启动捕时其余识别会基于动捕的数据进行识别
npm install @locusx/pose-detection> 通过输入视频,可以执行动捕、面捕、手势识别、表情识别等功能,开启动捕时其余识别会基于动捕的数据进行识别
安装:
``sh`
npm install --save @locusx/pose-detection
复制静态资源:
`sh`
将@locusx/pose-detection目录下的inferenceModel和ort拷贝到自己项目的静态目录下
parcel项目
inferenceModel和ort粘贴到dist目录下
vite项目
worker放到public目录下,inferenceModel和ort放到worker目录下
使用:
开启摄像头
openCamera(video)
用于开启摄像头,传入承载视频画面的video dom,返回是一个promise,结果是[width,height]视频画面的尺寸
`js
import {openCamera} from "@locusx/pose-detection"
const video = document.getElementById("video")
openCamera(video)
`
开启3d场景
createThreeD(three)
用于创建初始的3D场景,传入div dom,返回的是3D场景的scene对象
`js
import {createThreeD} from "@locusx/pose-detection"
const three = document.getElementById("three")
let scene = createThreeD(three)
`
导入模型
loadModel(url,scene)
用于像3D场景内导入模型,传入模型的地址以及scene场景对象,返回的是promise,结果是模型对象
`js
import {loadModel,createThreeD} from "@locusx/pose-detection"
let scene = createThreeD(three)
let modelPromise = loadModel('./3DModel/trump_T.glb',scene)
`
识别
`js`
import {Identify} from "@locusx/pose-detection"
let identify = new Identify()
Identify.completeIdentify(video,size,options)
identify.bodyStatus = true
identify.faceStatus = true
identify.handStatus = true
identify.emotionStatus = true
`js
``