Python+OpenCV编写车辆计数器系统

2022-07-14,,,,

介绍

本文,我们将使用欧几里德距离跟踪和轮廓的概念在 python 中使用 opencv 构建车辆计数器系统

对象追踪

对象跟踪是在视频中定位移动对象的过程。在 opencv 中有多种技术可以执行对象跟踪。可以针对 2 种情况执行对象跟踪:

  • 跟踪单个对象
  • 跟踪多个对象

在这里,我们将执行多对象跟踪方法,因为我们在一个时间范围内有多辆车。

流行的追踪算法

deep sort:它是最广泛使用和非常有效的目标跟踪算法之一,它适用于 yolo 目标检测,使用卡尔曼滤波器进行跟踪。

质心跟踪算法:质心跟踪算法是一种易于理解且非常有效的算法。这是一个多步骤的过程。

步骤 1:获取检测到的对象的边界框坐标并使用边界框的坐标计算质心。

步骤 2:对于每个后续帧,它使用边界框坐标计算质心,并为这些边界框分配一个 id,并计算每个可能的质心之间的欧几里德距离。

步骤 3:我们的假设是给定对象可能会在后续帧中移动,并且它们质心之间的欧几里德距离将是与其他对象相比的最小距离。

步骤 4:将相同的 id 分配给后续帧之间的最小移动质心。

为了检测任何运动物体,我们可以用 frame(t) 减去 frame(t+1)。

对象跟踪的应用

因为计算机不断增长的计算能力,对象跟踪变得越来越先进。对象跟踪有一些主要的用例。

  • 交通跟踪和避免碰撞。
  • 人群追踪
  • 无人在家时进行宠物追踪
  • 导弹跟踪
  • 空气画笔

实现欧几里得距离跟踪器

本文使用的所有代码的源文件和测试视频都可以通过这个链接下载

上面讨论的所有步骤都可以使用一些数学计算来执行

我们已经建立了一个名为euclideandisttracker对象跟踪的类。

import math
class euclideandisttracker:
    def __init__(self):
        # storing the positions of center of the objects
        self.center_points = {}
        # count of id of boundng boxes
        # each time new object will be captured the id will be increassed by 1
        self.id_count = 0
    def update(self, objects_rect):
        objects_bbs_ids = []
        # calculating the center of objects
        for rect in objects_rect:
            x, y, w, h = rect
            center_x = (x + x + w) // 2
            center_y = (y + y + h) // 2
            # find if object is already detected or not
            same_object_detected = false
            for id, pt in self.center_points.items():
                dist = math.hypot(center_x - pt[0], center_y - pt[1])
                if dist < 25:
                    self.center_points[id] = (center_x, center_y)
                    print(self.center_points)
                    objects_bbs_ids.append([x, y, w, h, id])     
                    same_object_detected = true
                    break
           # assign the id to the detected object
           if same_object_detected is false:
               self.center_points[self.id_count] = (center_x, center_y)                      
               objects_bbs_ids.append([x, y, w, h, self.id_count])       
               self.id_count += 1
        # cleaning the dictionary ids that are not used anymore
        new_center_points = {}
        for obj_bb_id in objects_bbs_ids:
            var,var,var,var, object_id = obj_bb_id
            center = self.center_points[object_id]
            new_center_points[object_id] = center
       # updating the dictionary with ids that is not used
       self.center_points = new_center_points.copy()
       return objects_bbs_ids

你可以创建一个名为tracker.py并粘贴跟踪器代码的文件,也可以使用此链接直接下载跟踪器文件。

  • update→更新方法需要一个包含所有边界框坐标的数组。
  • tracker 返回一个包含 [x,y,w,h, object_id] 的数组。这里 x,y,w,h 是边界框的坐标,object_id 是与该边界框关联的 id。

在准备好跟踪器文件后,我们需要实现我们的目标检测器,稍后我们将我们的跟踪器与目标检测器绑定。

加载库和视频

从我们已经创建的 tracker.py 文件中导入我们的 euclideandisttracker 类。

import cv2
import numpy as np
from tracker import euclideandisttracker
tracker = euclideandisttracker()
cap  = cv2.videocapture('highway.mp4')
ret, frame1 = cap.read()
ret, frame2 = cap.read()

cap.read()它返回帧和布尔值,我们需要捕获帧。

在opencv中获取视频帧

这个想法是获得两个后续帧之间的绝对差,以便检测移动对象。

while cap.isopened():
    # ret, frame = cap.read()
    diff = cv2.absdiff(frame1, frame2)  
    # this method is used to find the difference bw two  frames
    gray = cv2.cvtcolor(diff, cv2.color_bgr2gray)
    blur = cv2.gaussianblur(gray, (5,5), 0 )
    # here i would add the region of interest to count the single lane cars
    height, width = blur.shape
    print(height, width)
    # thresh_value = cv2.gettrackbarpos('thresh', 'trackbar')
    _, threshold = cv2.threshold(blur, 23, 255, cv2.thresh_binary)
    dilated = cv2.dilate(threshold, (1,1), iterations=1)
    contours, _, = cv2.findcontours(dilated, cv2.retr_tree, cv2.chain_approx_simple)
    detections = []
    # drawing rectangle box (bounding box)
    for contour in contours:
        (x,y,w,h) = cv2.boundingrect(contour)
        if cv2.contourarea(contour) <300:
            continue
        detections.append([x,y,w,h])
    boxes_ids = tracker.update(detections)
    for box_id in boxes_ids:
        x,y,w,h,id = box_id
        cv2.puttext(frame1, str(id),(x,y-15),  cv2.font_hershey_simplex, 0.8, (0,0,255), 2)
        cv2.rectangle(frame1, (x,y),(x+w, y+h), (0,255,0), 2)
        cv2.imshow('frame',frame1)
    frame1 = frame2
    ret, frame2 = cap.read()
    key = cv2.waitkey(30)
    if key == ord('q):
        break
cv2.destroyallwindows()

cv2.absdiff 此方法用于获取两帧之间的绝对差。

得到帧差后将差值转换为灰度,然后应用阈值和轮廓检测。

找到的轮廓是所有运动物体的轮廓

为了避免所有的噪音,我们只采用那些尺寸大于 300 的轮廓。

boxes_ids 包含 (x,y,w,h,id)。

cv2.puttext 用于在框架上写入 id。

cv2.rectange() 用于绘制边界框。

输出:车辆计数器系统

结论

在本文中,我们讨论了对象跟踪的概念和对象跟踪的用例,即车辆计数器。

我们讨论了对象跟踪的一些应用,并讨论了质心跟踪算法中涉及的步骤,并将其用于车辆计数。

基于深度学习的对象跟踪算法(如用于 yolo 对象检测的 deep sort 算法)在我们的案例中执行得更准确。

到此这篇关于python+opencv编写车辆计数器系统的文章就介绍到这了,更多相关python opencv车辆计数内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!

《Python+OpenCV编写车辆计数器系统.doc》

下载本文的Word格式文档,以方便收藏与打印。