Mediapipe先容
MediaPipe是个基于图形的跨平台框架,用于构建多模式应用的呆板学习管道。
MediaPipe可在移动装备,工作站和服务器上跨平台运行,并支持移动GPU加速。利用MediaPipe,可以将应用的呆板学习管道构建为模块化组件的图形。
MediaPipe专为呆板学习从业者而设计包罗研究职员,门生,和软件开发职员,他们实行生产就绪的ML应用步调,发布伴随研究工作的代码,以及构建技术原型。MediaPipe的紧张用例上利用推理模型和其他可重用组件对应用呆板学习管道举行快速原型设计。MediaPipe还有助于呆板学习技术摆设到各种不消硬件平台上的演示和应用步调中。
MediaPipe Solutions是基于特定的预练习TensorFlow或TFLite模型的开源预构建示例,他提供了多个Solutions,如下图所示。

本篇紧张对手势辨认,人体姿态估计,面部辨认的方法举行演示,领导入门者入门。
1. 手势辨认
通过MediaPipe,可以获取手部关节的21个点(如下图),以及每个点对应的坐标,那么我们就可以用坐标点来做一下项目的现实应用了, 比如手语的翻译,手势指令之类的。

首先导入包
- import mediapipe as mp
- import cv2
- import numpy as np
- import time
复制代码 手势检测代码如下,再次我们只是展示了大拇指与食指之间的距离,然后举行了可视化展示。
获取了20个点的坐标,可以实现本身想要手势手语辨认。
- # 定义一个函数,计算两个点的距离
- def findDis(pts1,pts2):
- return ((pts2[0]-pts1[0])**2 + (pts2[1]-pts1[1])**2)**0.5
- # 创建手势检测模型
- mpHands = mp.solutions.hands # 检测人的手
- hand_mode = mpHands.Hands(max_num_hands=2,min_detection_confidence=0.5,
- min_tracking_confidence=0.5)
- # static_image_mode:默认为False,如果设置为false, 就是把输入看作一个视频流,在检测到手之后对手加了一个目标跟踪(目标检测+跟踪),
- # 无需调用另一次检测,直到失去对任何手的跟踪为止。如果设置为True,则手部检测将在每个输入图像上运行(目标检测),非常适合处理一批静态的,
- # 可能不相关的图像。(如果检测的是图片就要设置成True)
- # 检测手的模式参数设置,max_num_hands:可以检测到的手的数量最大值,默认是2
- # min_detection_confidence: 手部检测的最小置信度值,大于这个数值被认为是成功的检测,
- # min_tracking_confidence:目标踪模型的最小置信度值,大于这个数值将被视为已成功跟踪的手部,如果static_image_mode设置为true,则忽略此操作。
- mpDraw = mp.solutions.drawing_utils # 绘图
- cap = cv2.VideoCapture(0)
- while True:
- success,img = cap.read()
- img = cv2.flip(img,1)
- results = hand_mode.process(img)# 将图片导入模型,获取20个点的坐标进行分析
- if results.multi_hand_landmarks:
- for handLms in results.multi_hand_landmarks:
- point4_8 = []
- for id,lm in enumerate(handLms.landmark):
- h,w,c = img.shape
- cx,cy = int(lm.x*w),int(lm.y*h)
- cv2.circle(img,(cx,cy),10,(255,0,0),-1)
- if id in [4,8]:# 获取点4,8的坐标
- point4_8.append([cx,cy])
- mpDraw.draw_landmarks(img, handLms, mpHands.HAND_CONNECTIONS)
- # 求点4,8的坐标,进行可视化展示
- cv2.line(img,(point4_8[0][0],point4_8[0][1]),(point4_8[1][0],point4_8[1][1]),(0,0,255),5)
- distance = round(findDis((point4_8[0][0],point4_8[0][1]),(point4_8[1][0],point4_8[1][1])),2)
- cv2.putText(img,"distance:{}".format(distance),(50,50),cv2.FONT_HERSHEY_PLAIN, 3,(0,0,255),3)
- cv2.rectangle(img,(20,250),(20+10,250-int(distance)),(255,0,255),20)
- cv2.imshow("img",img)
- if cv2.waitKey(1)&0xFF == ord("q"):
- break
- cap.release()
- cv2.destroyAllWindows()
复制代码 结果如下:

2. 人体姿势辨认
人体姿势辨认便是辨认人体身上的32个点,本部分通过辨认点23,25的位置来辨认是否举行抬腿动作。通过这部分,各人可以去制作像深蹲计数、跳绳计数、摆臂等如许的功能。

代码如下:
- mpPose = mp.solutions.pose # 检测人的手
- pose_mode = mpPose.Pose(min_detection_confidence=0.5,min_tracking_confidence=0.5) # 模式参数设置
- mpDraw = mp.solutions.drawing_utils # 绘图
- cap = cv2.VideoCapture(0)
- biaoji = 0
- i = 0
- while True:
- success,img = cap.read()
- img = cv2.flip(img,1)
- results = pose_mode.process(img)
- if results.pose_landmarks:
- point23_25 = []
- for id,lm in enumerate(results.pose_landmarks.landmark):
- h,w,c = img.shape
- cx,cy = int(lm.x*w),int(lm.y*h)
- cv2.circle(img,(cx,cy),10,(255,0,0),-1)
- if id in [23,25]:
- point23_25.append([cx,cy])
- mpDraw.draw_landmarks(img, results.pose_landmarks, mpPose.POSE_CONNECTIONS)
- cv2.line(img,(point23_25[0][0],point23_25[0][1]),(point23_25[1][0],point23_25[1][1]),(0,0,255),5)
- if point23_25[0][1]>point23_25[1][1]:
- if biaoji == 1:
- i += 1
- biaoji = 0
- cv2.putText(img,"Leg up--{}".format(i),(10,50),cv2.FONT_HERSHEY_PLAIN, 3,(0,0,255),3)
- else:
- biaoji = 1
- cv2.putText(img,"Leg down--{}".format(i),(10,450),cv2.FONT_HERSHEY_PLAIN, 3,(0,0,255),3)
- cv2.imshow("img",img)
- if cv2.waitKey(1)&0xFF == ord("q"):
- break
- cap.release()
- cv2.destroyAllWindows()
复制代码 结果可视化展示:

3. 面部动作辨认
mediapip的人脸关键点一共有468个我在图中只看到467最大值,但是现实代码输出的478的关键点,从输出结果索引468-472存储的是人眼左边5个关键点,473-477存储的是人眼右边5个关键点。关键点图在网上还有点难找因此放这里,图片必要放大才气开清楚位置数字。
本文选取左眼【130,240,23,159】四个点和嘴巴【62,292,12,15】四个点,通过盘算四个点之间的关系,来判断眼睛和嘴巴是否处于伸开状态。这对于疲劳检测具有肯定的借鉴意义。代码如下:
- def findDis(pts1,pts2):
- return ((pts2[0]-pts1[0])**2 + (pts2[1]-pts1[1])**2)**0.5
- cap = cv2.VideoCapture(0)
- pTime = 0
- id_list = [23, 159, 130, 243, 62, 292, 12, 15]
- mpDraw = mp.solutions.drawing_utils
- mpFaceMesh = mp.solutions.face_mesh
- faceMesh = mpFaceMesh.FaceMesh(max_num_faces=2)
- drawSpec = mpDraw.DrawingSpec(thickness=1, circle_radius=2)
- while True:
- success, img = cap.read()
- imgRGB = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
- results = faceMesh.process(imgRGB)
- if results.multi_face_landmarks:
- for faceLms in results.multi_face_landmarks:
- mpDraw.draw_landmarks(img, faceLms, mpFaceMesh.FACEMESH_CONTOURS,
- drawSpec,drawSpec)
- mp_data = []
- for id,lm in enumerate(faceLms.landmark):
- ih, iw, ic = img.shape
- x,y = int(lm.x*iw), int(lm.y*ih)
- if id in id_list: #左眼[22, 23, 24, 26, 110, 157, 158, 159, 160, 161, 130, 243]:
- mp_data.append([x,y])
- cv2.circle(img,(x,y),2,(255,0,0),-1)
- eye_length_1 = findDis(mp_data[0],mp_data[1])
- eye_length_2 = findDis(mp_data[2],mp_data[3])
- mouth_length_2 = findDis(mp_data[4],mp_data[5])
- mouth_length_1 = findDis(mp_data[6],mp_data[7])
- # print(eye_length_1,eye_length_2)
- if ((mouth_length_1/mouth_length_2)<(98/18)):
- cv2.putText(img,"mouth close",(400,50),cv2.FONT_HERSHEY_PLAIN, 2,(0,0,255),3)
-
- else:
- cv2.putText(img,"mouth open",(400,50),cv2.FONT_HERSHEY_PLAIN, 2,(0,0,255),3)
- if (eye_length_2/eye_length_1)>18:
- cv2.putText(img,"eye open",(400,100),cv2.FONT_HERSHEY_PLAIN, 2,(0,0,255),3)
- else:
- cv2.putText(img,"eye close",(400,100),cv2.FONT_HERSHEY_PLAIN, 2,(0,0,255),3)
- cTime = time.time()
- fps = 1 / (cTime - pTime)
- pTime = cTime
- cv2.putText(img, f'FPS: {int(fps)}', (20, 70), cv2.FONT_HERSHEY_PLAIN,
- 3, (255, 0, 0), 3)
- cv2.imshow("Image", img)
- if cv2.waitKey(1)&0xFF == ord("q"):
- cv2.imwrite("6.jpg",img)
- break
- cap.release()
- cv2.destroyAllWindows()
复制代码 结果展示:

总结
无论是手势,人体姿态,还是人脸检测,都是对于点位的检测,通过点位坐标实现一系列功能。对于手势点位检测,我们可以实现手语辨认,对于人体姿势点位检测,可以实现人体动作,当下有那些跳绳计数、深蹲计数的App也是这么个原理;对于人脸检测,通过点位坐标检测,可以实现疲劳检测。这里不做多述,有兴趣者可以做各种有趣的事故。
来源:https://blog.csdn.net/qq_43018832/article/details/128015624
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |