目录

0、项目介绍

1、效果展示

2、项目搭建

3、项目代码展示与部分讲解

Color_trackbar.py

bgr_detector.py

test.py

4、项目资源

5、项目总结


0、项目介绍

本次项目要完成的是对物体颜色的识别并框选,有如下功能:

(1)准确对颜色进行较大范围框选,统一使用绿色边界框显示。

(2)识别物体内部的颜色边缘轮廓,以白色为边缘,对物体的框选更加细致。

(3)可以对自己感兴趣的颜色进行识别选择,不想要的颜色不会被识别。

(4)在窗口中的边框旁打印上颜色对应的英文字母。

(5)如果发现效果不是很好,请耐心调试Color_trackbar.py文件。

1、效果展示

2、项目搭建

——22 Color box identification  ——bgr_detector.py  ——Color_trackbar.py  ——test.py

按照如上所示,新建文件即可。

3、项目代码展示与部分讲解

这里我来讲解一下,这三个文件该怎么用,我这里就少讲原理了。(写着有点累,我想大家应该有这个能力看懂这个代码)。

Color_trackbar.py

import cv2import numpy as npfrom bgr_detector import BGR,emptypath = 'test.png'cv2.namedWindow("TrackBars")cv2.resizeWindow("TrackBars",640,250)cv2.createTrackbar("Hue Min","TrackBars",0,179,empty)cv2.createTrackbar("Hue Max","TrackBars",19,179,empty)cv2.createTrackbar("Sat Min","TrackBars",110,255,empty)cv2.createTrackbar("Sat Max","TrackBars",240,255,empty)cv2.createTrackbar("Val Min","TrackBars",153,255,empty)cv2.createTrackbar("Val Max","TrackBars",255,255,empty)while True:    img = cv2.imread(path)    bgr = BGR(img)    #图像转化为HSV格式,H:色调S:饱和度V:明度    imgHSV = cv2.cvtColor(img,cv2.COLOR_BGR2HSV)    #获取轨迹栏位    h_min = cv2.getTrackbarPos("Hue Min","TrackBars")    h_max = cv2.getTrackbarPos("Hue Max", "TrackBars")    s_min = cv2.getTrackbarPos("Sat Min", "TrackBars")    s_max = cv2.getTrackbarPos("Sat Max", "TrackBars")    v_min = cv2.getTrackbarPos("Val Min", "TrackBars")    v_max = cv2.getTrackbarPos("Val Max", "TrackBars")    print(h_min,h_max,s_min,s_max,v_min,v_max)    #创建一个蒙版,提取需要的颜色为白色,不需要的颜色为白色    lower = np.array([h_min,s_min,v_min])    upper = np.array([h_max,s_max,v_max])    mask = cv2.inRange(imgHSV,lower,upper)    imgResult = cv2.bitwise_and(img,img,mask=mask)    imgStack = bgr.stackImages(0.5,([img,imgHSV],[mask,imgResult]))    #定义比例尺    cv2.imshow("Stacked Images", imgStack)    if cv2.waitKey(1) & 0xFF == 27:        break

运行此文件,test.png文件为你需要检测的物体照片,这里我用的是以前的一个素材,你自行替换掉你需要识别的物体照片即可。

它会弹出这样的界面,你只需要自己不断的去拖拽左边的轨迹栏,然后将你想要识别的颜色单独识别出来即可,在下方的控制面板中,将里面的内容复制一行,记住是你成功识别后的内容。

如果你调来调去,效果不是很好,请你耐心一点,当然根据我的检测,使用你想要识别物体的照片,对后面的识别效果越好。

bgr_detector.py

import cv2import numpy as npclass BGR():    def __init__(self,img,scale=0.7):        self.img=img        self.scale=scale        self.imgResult=img.copy()        self.myColors = [[5, 107, 0, 19, 255, 255],                        [57, 76, 0, 100, 255, 255],                        [95, 78, 202, 128, 255, 255]]        self.myColorValues = [[51, 153, 255],  ## BGR                              [0, 255, 0],    # https://www.rapidtables.org/zh-CN/web/color/RGB_Color.html                              [255, 0, 0]]        self.objectColor=["Orange","Green","Blue"]    def stackImages(self,scale,imgArray):        rows = len(imgArray)        cols = len(imgArray[0])        rowsAvailable = isinstance(imgArray[0], list)        width = imgArray[0][0].shape[1]        height = imgArray[0][0].shape[0]        if rowsAvailable:            for x in range ( 0, rows):                for y in range(0, cols):                    if imgArray[x][y].shape[:2] == imgArray[0][0].shape [:2]:                        imgArray[x][y] = cv2.resize(imgArray[x][y], (0, 0), None, self.scale, self.scale)                    else:                        imgArray[x][y] = cv2.resize(imgArray[x][y], (imgArray[0][0].shape[1], imgArray[0][0].shape[0]), None, self.scale, self.scale)                    if len(imgArray[x][y].shape) == 2: imgArray[x][y]= cv2.cvtColor( imgArray[x][y], cv2.COLOR_GRAY2BGR)            imageBlank = np.zeros((height, width, 3), np.uint8)            hor = [imageBlank]*rows            hor_con = [imageBlank]*rows            for x in range(0, rows):                hor[x] = np.hstack(imgArray[x])            ver = np.vstack(hor)        else:            for x in range(0, rows):                if imgArray[x].shape[:2] == imgArray[0].shape[:2]:                    imgArray[x] = cv2.resize(imgArray[x], (0, 0), None, scale, scale)                else:                    imgArray[x] = cv2.resize(imgArray[x], (imgArray[0].shape[1], imgArray[0].shape[0]), None,scale, scale)                if len(imgArray[x].shape) == 2: imgArray[x] = cv2.cvtColor(imgArray[x], cv2.COLOR_GRAY2BGR)            hor= np.hstack(imgArray)            ver = hor        return ver    def getContours(self,img, minArea=500):        contours, hierarchy = cv2.findContours(img, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_NONE)        x, y, w, h = 0, 0, 0, 0        for cnt in contours:            area = cv2.contourArea(cnt)            if area > minArea:                cv2.drawContours(self.imgResult, cnt, -1, (255, 255, 255), 3)                peri = cv2.arcLength(cnt, True)                approx = cv2.approxPolyDP(cnt, 0.02 * peri, True)                x, y, w, h = cv2.boundingRect(approx)                cv2.rectangle(self.imgResult, (x, y), (x + w, y + h), (0, 255, 0), 2)        return x + w // 2, y,w,h    def findColor(self,img):        imgHSV = cv2.cvtColor(img, cv2.COLOR_BGR2HSV)        count = 0        for color in self.myColors:            lower = np.array(color[0:3])            upper = np.array(color[3:6])            mask = cv2.inRange(imgHSV, lower, upper)            x,y,w,h=self.getContours(mask)            cv2.putText(self.imgResult, self.objectColor[count],                        (x + (w // 2) - 10, y + (h // 2) - 10), cv2.FONT_HERSHEY_COMPLEX, 0.7,                        (0, 0, 255), 2)            count += 1        return self.imgResultdef empty(ways):    pass

此文件无需运行,这是一个类文件,你需要修改的地方在初始化中,将之前你复制的内容粘贴到self.myColors的列表中,然后在self.myColorValues的旁边有一个注释,内容为一个RGB网址,点击进入。记住,在上面是你想要的颜色,下面的BGR就是什么颜色。

这里的值是RGB值,你需要自己改成BGR值。

为了有些同学还是不能理解我的意思,你可以看看这里我给的注释。

self.myColors=[[橙色的HSV值],

[紫色的HSV值],

[绿色的HSV值],

[蓝色的HSV值]]

self.myColorValues=[[橙色的BGR值],

[紫色的BGR值],

[绿色的BGR值],

[蓝色的BGR值]] #网址中获得的是RGB值,手动改为BGR.

self.objectColor=[“Orange”,”Purple”,”Green”,”Blue”] #按顺序来.

以上就是你需要修改的地方,很详细了。

test.py

import cv2import numpy as npfrom bgr_detector import BGRframeWidth = 640frameHeight = 480cap = cv2.VideoCapture(0)cap.set(3, frameWidth)cap.set(4, frameHeight)cap.set(10,150)myPoints =  []  ## [x , y , colorId ]while True:    success, img = cap.read()    bgr = BGR(img)    imgResult=bgr.findColor(img)    imgStack = bgr.stackImages(0.8, ([img, imgResult]))    cv2.imshow("Result", imgStack)    if cv2.waitKey(1) & 0xFF == 27:        break

这里就是你的测试文件,可以看到代码行数很少,这就是使用类文件的好处。

4、项目资源

GitHub:22 物体颜色识别并框选

5、项目总结

我觉得本次项目挺有意思的,说实话项目22本来不是颜色识别的,这个是我室友他的项目上需要完成这样一个功能,然后我就花了一下午帮他做了做,效果的实现非常不错,用在比较单一背景下的物体追踪识别什么的,挺有研究意义的。最开始我还参考过其他博主对于RGB颜色的识别和框选,效果什么的我感觉不是很好,而且他们使用的方法与我最初想的一种思路有很大的接近,即是对某一感兴趣的颜色,将其临近的RGB值考虑到,实际上不是很靠谱,因为我们不知道三个值(‘R’、‘G’、‘B’)的组合会出现什么颜色,细微的改变可能变化肉眼是看不出来的,红色还是红色,像之前考虑的临近值,颜色可能是粉色或紫色,而你还是识别的红色。当然在我这里,我用到的方法是用HSV值来进行颜色检测,采用轨迹栏作为调色板,进行颜色的提取,然后将其对应的BGR值打印出来,有选择性。

偷偷给你们说一句,不要用黑色,识别时将我的头发识别的框和文字到处都是,巨搞笑。

还有一点就是,我发现环境的亮度对于颜色的识别也是有一点点的影响的。