本文基于YOLOv7进行人体姿态的实时估计,并附录完整代码。
概述
YOLO(You Only Look Once)是一种用于目标检测的方法论,同时也是构建于该方法论之上的一系列模型。
自2015年YOLOv1诞生以来,其作者相继提出了YOLOv2(YOLO9000)和YOLOv3等后续版本,并在随后的几年里,深度学习社区也不断开源改进相关技术。
YOLOv5是Ultralytics团队开发的一个基于YOLO方法的工业级目标检测仓库,它采用了PyTorch实现而非之前YOLO模型所使用的C++,并且完全开源,拥有简洁而强大的API接口,使得用户可以灵活地进行推理、训练及项目定制。
因其卓越的表现,许多针对YOLO方法的优化尝试都选择在此基础上进行拓展。
YOLOv7在YOLOv5的基础上进行了许多改进,使得其在目标检测领域的准确率和速度都得到了提升。
在本文中,笔者基于YOLOv7进行了视频实时姿态估计的实现。
安装YOLOv7
首先通过克隆GitHub仓库获取源代码:
! git clone https://github.com/WongKinYiu/yolov7.git
<