目录
0、项目介绍
1、效果展示
2、项目搭建
3、项目代码展示与部分讲解
Color_trackbar.py
bgr_detector.py
test.py
4、项目资源
5、项目总结
0、项目介绍
本次项目要完成的是对物体颜色的识别并框选,有如下功能:
(1)准确对颜色进行较大范围框选,统一使用绿色边界框显示。
(2)识别物体内部的颜色边缘轮廓,以白色为边缘,对物体的框选更加细致。
(3)可以对自己感兴趣的颜色进行识别选择,不想要的颜色不会被识别。
(4)在窗口中的边框旁打印上颜色对应的英文字母。
(5)如果发现效果不是很好,请耐心调试Color_trackbar.py文件。
1、效果展示
2、项目搭建
——22 Color box identification ——bgr_detector.py ——Color_trackbar.py ——test.py
按照如上所示,新建文件即可。
3、项目代码展示与部分讲解
这里我来讲解一下,这三个文件该怎么用,我这里就少讲原理了。(写着有点累,我想大家应该有这个能力看懂这个代码)。
Color_trackbar.py
import cv2import numpy as npfrom bgr_detector import BGR,emptypath = 'test.png'cv2.namedWindow("TrackBars")cv2.resizeWindow("TrackBars",640,250)cv2.createTrackbar("Hue Min","TrackBars",0,179,empty)cv2.createTrackbar("Hue Max","TrackBars",19,179,empty)cv2.createTrackbar("Sat Min","TrackBars",110,255,empty)cv2.createTrackbar("Sat Max","TrackBars",240,255,empty)cv2.createTrackbar("Val Min","TrackBars",153,255,empty)cv2.createTrackbar("Val Max","TrackBars",255,255,empty)while True: img = cv2.imread(path) bgr = BGR(img) #图像转化为HSV格式,H:色调S:饱和度V:明度 imgHSV = cv2.cvtColor(img,cv2.COLOR_BGR2HSV) #获取轨迹栏位 h_min = cv2.getTrackbarPos("Hue Min","TrackBars") h_max = cv2.getTrackbarPos("Hue Max", "TrackBars") s_min = cv2.getTrackbarPos("Sat Min", "TrackBars") s_max = cv2.getTrackbarPos("Sat Max", "TrackBars") v_min = cv2.getTrackbarPos("Val Min", "TrackBars") v_max = cv2.getTrackbarPos("Val Max", "TrackBars") print(h_min,h_max,s_min,s_max,v_min,v_max) #创建一个蒙版,提取需要的颜色为白色,不需要的颜色为白色 lower = np.array([h_min,s_min,v_min]) upper = np.array([h_max,s_max,v_max]) mask = cv2.inRange(imgHSV,lower,upper) imgResult = cv2.bitwise_and(img,img,mask=mask) imgStack = bgr.stackImages(0.5,([img,imgHSV],[mask,imgResult])) #定义比例尺 cv2.imshow("Stacked Images", imgStack) if cv2.waitKey(1) & 0xFF == 27: break
运行此文件,test.png文件为你需要检测的物体照片,这里我用的是以前的一个素材,你自行替换掉你需要识别的物体照片即可。
它会弹出这样的界面,你只需要自己不断的去拖拽左边的轨迹栏,然后将你想要识别的颜色单独识别出来即可,在下方的控制面板中,将里面的内容复制一行,记住是你成功识别后的内容。
如果你调来调去,效果不是很好,请你耐心一点,当然根据我的检测,使用你想要识别物体的照片,对后面的识别效果越好。
bgr_detector.py
import cv2import numpy as npclass BGR(): def __init__(self,img,scale=0.7): self.img=img self.scale=scale self.imgResult=img.copy() self.myColors = [[5, 107, 0, 19, 255, 255], [57, 76, 0, 100, 255, 255], [95, 78, 202, 128, 255, 255]] self.myColorValues = [[51, 153, 255], ## BGR [0, 255, 0], # https://www.rapidtables.org/zh-CN/web/color/RGB_Color.html [255, 0, 0]] self.objectColor=["Orange","Green","Blue"] def stackImages(self,scale,imgArray): rows = len(imgArray) cols = len(imgArray[0]) rowsAvailable = isinstance(imgArray[0], list) width = imgArray[0][0].shape[1] height = imgArray[0][0].shape[0] if rowsAvailable: for x in range ( 0, rows): for y in range(0, cols): if imgArray[x][y].shape[:2] == imgArray[0][0].shape [:2]: imgArray[x][y] = cv2.resize(imgArray[x][y], (0, 0), None, self.scale, self.scale) else: imgArray[x][y] = cv2.resize(imgArray[x][y], (imgArray[0][0].shape[1], imgArray[0][0].shape[0]), None, self.scale, self.scale) if len(imgArray[x][y].shape) == 2: imgArray[x][y]= cv2.cvtColor( imgArray[x][y], cv2.COLOR_GRAY2BGR) imageBlank = np.zeros((height, width, 3), np.uint8) hor = [imageBlank]*rows hor_con = [imageBlank]*rows for x in range(0, rows): hor[x] = np.hstack(imgArray[x]) ver = np.vstack(hor) else: for x in range(0, rows): if imgArray[x].shape[:2] == imgArray[0].shape[:2]: imgArray[x] = cv2.resize(imgArray[x], (0, 0), None, scale, scale) else: imgArray[x] = cv2.resize(imgArray[x], (imgArray[0].shape[1], imgArray[0].shape[0]), None,scale, scale) if len(imgArray[x].shape) == 2: imgArray[x] = cv2.cvtColor(imgArray[x], cv2.COLOR_GRAY2BGR) hor= np.hstack(imgArray) ver = hor return ver def getContours(self,img, minArea=500): contours, hierarchy = cv2.findContours(img, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_NONE) x, y, w, h = 0, 0, 0, 0 for cnt in contours: area = cv2.contourArea(cnt) if area > minArea: cv2.drawContours(self.imgResult, cnt, -1, (255, 255, 255), 3) peri = cv2.arcLength(cnt, True) approx = cv2.approxPolyDP(cnt, 0.02 * peri, True) x, y, w, h = cv2.boundingRect(approx) cv2.rectangle(self.imgResult, (x, y), (x + w, y + h), (0, 255, 0), 2) return x + w // 2, y,w,h def findColor(self,img): imgHSV = cv2.cvtColor(img, cv2.COLOR_BGR2HSV) count = 0 for color in self.myColors: lower = np.array(color[0:3]) upper = np.array(color[3:6]) mask = cv2.inRange(imgHSV, lower, upper) x,y,w,h=self.getContours(mask) cv2.putText(self.imgResult, self.objectColor[count], (x + (w // 2) - 10, y + (h // 2) - 10), cv2.FONT_HERSHEY_COMPLEX, 0.7, (0, 0, 255), 2) count += 1 return self.imgResultdef empty(ways): pass
此文件无需运行,这是一个类文件,你需要修改的地方在初始化中,将之前你复制的内容粘贴到self.myColors的列表中,然后在self.myColorValues的旁边有一个注释,内容为一个RGB网址,点击进入。记住,在上面是你想要的颜色,下面的BGR就是什么颜色。
这里的值是RGB值,你需要自己改成BGR值。
为了有些同学还是不能理解我的意思,你可以看看这里我给的注释。
self.myColors=[[橙色的HSV值],
[紫色的HSV值],
[绿色的HSV值],
[蓝色的HSV值]]
self.myColorValues=[[橙色的BGR值],
[紫色的BGR值],
[绿色的BGR值],
[蓝色的BGR值]] #网址中获得的是RGB值,手动改为BGR.
self.objectColor=[“Orange”,”Purple”,”Green”,”Blue”] #按顺序来.
以上就是你需要修改的地方,很详细了。
test.py
import cv2import numpy as npfrom bgr_detector import BGRframeWidth = 640frameHeight = 480cap = cv2.VideoCapture(0)cap.set(3, frameWidth)cap.set(4, frameHeight)cap.set(10,150)myPoints = [] ## [x , y , colorId ]while True: success, img = cap.read() bgr = BGR(img) imgResult=bgr.findColor(img) imgStack = bgr.stackImages(0.8, ([img, imgResult])) cv2.imshow("Result", imgStack) if cv2.waitKey(1) & 0xFF == 27: break
这里就是你的测试文件,可以看到代码行数很少,这就是使用类文件的好处。
4、项目资源
GitHub:22 物体颜色识别并框选
5、项目总结
我觉得本次项目挺有意思的,说实话项目22本来不是颜色识别的,这个是我室友他的项目上需要完成这样一个功能,然后我就花了一下午帮他做了做,效果的实现非常不错,用在比较单一背景下的物体追踪识别什么的,挺有研究意义的。最开始我还参考过其他博主对于RGB颜色的识别和框选,效果什么的我感觉不是很好,而且他们使用的方法与我最初想的一种思路有很大的接近,即是对某一感兴趣的颜色,将其临近的RGB值考虑到,实际上不是很靠谱,因为我们不知道三个值(‘R’、‘G’、‘B’)的组合会出现什么颜色,细微的改变可能变化肉眼是看不出来的,红色还是红色,像之前考虑的临近值,颜色可能是粉色或紫色,而你还是识别的红色。当然在我这里,我用到的方法是用HSV值来进行颜色检测,采用轨迹栏作为调色板,进行颜色的提取,然后将其对应的BGR值打印出来,有选择性。
偷偷给你们说一句,不要用黑色,识别时将我的头发识别的框和文字到处都是,巨搞笑。
还有一点就是,我发现环境的亮度对于颜色的识别也是有一点点的影响的。