WO2014079058A1 - 一种视频图像处理方法及系统 - Google Patents

一种视频图像处理方法及系统 Download PDF

Info

Publication number
WO2014079058A1
WO2014079058A1 PCT/CN2012/085258 CN2012085258W WO2014079058A1 WO 2014079058 A1 WO2014079058 A1 WO 2014079058A1 CN 2012085258 W CN2012085258 W CN 2012085258W WO 2014079058 A1 WO2014079058 A1 WO 2014079058A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving target
imaginary
frame
video image
shadow
Prior art date
Application number
PCT/CN2012/085258
Other languages
English (en)
French (fr)
Inventor
李永安
Original Assignee
华为技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为技术有限公司 filed Critical 华为技术有限公司
Priority to PCT/CN2012/085258 priority Critical patent/WO2014079058A1/zh
Priority to ES12876081.6T priority patent/ES2569386T3/es
Priority to EP12876081.6A priority patent/EP2813973B1/en
Priority to CN201280005320.5A priority patent/CN104662560B/zh
Publication of WO2014079058A1 publication Critical patent/WO2014079058A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the present application relates to the field of video image processing, and in particular, to a video image processing method and system. Background technique
  • the detection of the vehicle is usually carried out by processing the video image.
  • the virtual coil is usually set in the video monitoring area manually (ie, the video analysis area is selected), and then the vehicle features are detected in the virtual coil (such as the blackest shadow in front of the car, the license plate, and the vehicle). Color, vehicle type, vehicle lights, etc.), by detecting vehicle characteristics to achieve vehicle detection.
  • the embodiment of the present application provides a video image processing method and system, which can segment each complete moving target in a complex video monitoring environment (such as monitoring video picture jitter, moving target congestion, etc.).
  • a first aspect of the present application provides a video image processing method, including:
  • the moving direction of the moving target imaginary frame is tracked by using the corner-based optical flow, and the moving target to be adjusted is adjusted according to the moving direction to achieve complete segmentation of the moving target.
  • the extracting a shadow of a moving target in a current video image, taking a square of the upper side of the shadow as a bottom edge, to obtain a moving target imaginary box including :
  • the position filtering of the moving target imaginary frame according to the positional relationship between the moving target imaginary frames to obtain the real moving target imaginary box includes:
  • the imaginary frame of the moving target that is mutually circumscribed and/or detached is taken as the imaginary frame of the real moving target
  • the peripheral moving target imaginary frame which is mutually inclusive and/or inscribed is regarded as a real moving moving target imaginary frame
  • the outer imaginary box containing the moving target imaginary frames that intersect each other and the intersecting area is greater than or equal to the threshold is regarded as true a moving target imaginary box; wherein, the diagonal length of the peripheral imaginary box as the imaginary moving object imaginary box is equal to the mutual imaginary box of the moving target that intersects each other and the intersecting area is greater than or equal to the threshold The farthest diagonal connection line length;
  • the moving target imaginary box that intersects each other and the intersecting area is less than or equal to the threshold is regarded as the moving target that is really present.
  • a second aspect of the present application provides a video image processing system, including:
  • An imaginary frame extracting unit configured to extract a shadow of a moving target in the current video image, and take a square with the upper side of the shadow as a bottom edge to obtain a moving target imaginary frame
  • An imaginary frame filtering unit configured to perform position filtering on the moving target imaginary frame according to a positional relationship between the moving target imaginary frames to obtain a realistic moving target imaginary frame; and segmenting the moving target from the current video image a local contour, and obtaining a local contour center point of the moving target; and determining, from the real moving target imaginary box, a moving target imaginary box to which the local contour center point of the moving target belongs, as a moving target imaginary to be adjusted frame;
  • An imaginary frame adjustment unit is configured to track a moving direction of the moving target imaginary frame to be adjusted by using a corner-based optical flow, and adjust the moving target imaginary frame to be adjusted according to the moving direction to implement the motion Complete segmentation of the target.
  • the imaginary frame extracting unit includes: a preprocessing module, configured to perform histogram equalization on a current video image, and a video image obtained by equalizing the histogram Performing binarization, and performing morphological filtering on the video image obtained by the binarization to obtain a moving target shadow in the video image;
  • a search module configured to search for a black pixel start and end point of the moving target shadow in a horizontal direction, and determine a width of the moving target shadow according to the black pixel start and end points of the moving target shadow, and mark the moving target shadow whose width is greater than the width threshold;
  • a contour segmentation module configured to perform Canny edge detection on the moving target shadow marked by the search module and having a width greater than a width threshold, to obtain shadow edge information; and, according to the shadow edge information, the width is greater than a width threshold
  • the moving target shadow is contoured to obtain a rectangular shadow
  • the imaginary frame area generating module is configured to take a square shape with the upper side of the rectangular shadow as a bottom edge to obtain a moving target imaginary frame.
  • the imaginary frame filtering unit includes: a position filtering module, where the positional relationship between the moving target imaginary frames is mutually circumscribed and/or separated In the case where the imaginary frame of the moving target that is circumscribed and/or detached from each other is used as the imaginary frame of the real moving target; and/or, the positional relationship between the imaginary frames of the moving target is mutually inclusive and / Or in the case of intrinsic, the imaginary box of the peripheral moving target which is inclusive and/or inscribed as the imaginary box of the real moving target; and/or, the positional relationship between the imaginary frames of the moving target is mutual When intersecting, and the intersection area is greater than or equal to the threshold value, the peripheral imaginary frame including the moving target imaginary frame that intersects each other and the intersecting area is greater than or equal to the threshold value is used as a real moving target imaginary frame; wherein, the real existence The diagonal length of the peripheral imaginary frame of the moving target imaginary frame is equal to the length of the diagonal connecting line which is the farthest from each
  • a third aspect of the present application provides a video image processing system including a transmitter, a receiver, a memory, and a processor respectively connected to the transmitter, the receiver, and the memory;
  • the program stores a set of program codes
  • the processor is configured to invoke program code stored in the memory to perform the following operations:
  • the moving direction of the moving target imaginary frame is tracked by using the corner-based optical flow, and the moving target to be adjusted is adjusted according to the moving direction to achieve complete segmentation of the moving target.
  • the processor extracts a shadow of a moving target in a current video image, and takes a square from the upper side of the shadow as a bottom edge to obtain a moving target. Box, specifically: Histogram equalization of the current video image;
  • a square is drawn upward from the upper side of the rectangular shadow as a bottom edge to obtain a moving target imaginary frame.
  • the processor performs position filtering on the moving target imaginary frame according to the positional relationship between the moving target imaginary frames to obtain a real moving target frame. , Specifically:
  • the imaginary frame of the moving target that is mutually circumscribed and/or detached is taken as the imaginary frame of the real moving target
  • the peripheral moving target imaginary frame which is mutually inclusive and/or inscribed is regarded as a real moving moving target imaginary frame
  • the outer imaginary box containing the moving target imaginary frames that intersect each other and the intersecting area is greater than or equal to the threshold is regarded as true a moving target imaginary box; wherein, the diagonal length of the peripheral imaginary box as the imaginary moving object imaginary box is equal to the mutual imaginary box of the moving target that intersects each other and the intersecting area is greater than or equal to the threshold The farthest diagonal connection line length;
  • the moving target imaginary box intersecting each other and the intersecting area is less than or equal to the threshold is regarded as the actually existing moving target frame.
  • the shadow is The upper side takes a square as a bottom edge to obtain a moving target imaginary frame.
  • the moving target imaginary frame is positionally filtered, and the real moving target imaginary frame can be obtained;
  • the moving target imaginary box to which the local contour center point of the moving target belongs may be determined from the real moving target imaginary box as The imaginary frame of the moving target to be adjusted; further, the moving direction of the imaginary frame of the moving target to be adjusted can be tracked by using the optical flow based on the corner point, and the imaginary frame of the moving target to be adjusted according to the moving direction is adjusted, thereby achieving complete segmentation of the moving target.
  • Embodiments of the present application can segment each complete moving target in a complex traffic video monitoring environment (such as monitoring video picture jitter, moving target crowding, etc.
  • FIG. 1 is a flowchart of a video image processing method according to an embodiment of the present application
  • FIG. 2 is a flowchart of a method for extracting a shadow of a moving target in a current video image according to an embodiment of the present application
  • FIG. 3 is a flowchart of a method for adjusting a moving target imaginary frame according to an embodiment of the present invention
  • FIG. 4 is a schematic diagram of a three-dimensional extension of a moving target imaginary frame according to an embodiment of the present disclosure
  • a structural diagram of a video image processing system is provided;
  • FIG. 6 is a structural diagram of another video image processing system according to an embodiment of the present application.
  • FIG. 7 is a structural diagram of still another video image processing system according to an embodiment of the present application. detailed description
  • the embodiment of the present application provides a video image processing method and system, which can segment each complete moving target in a complex video monitoring environment (such as monitoring video picture jitter, moving target congestion, etc.). The details are described below separately.
  • FIG. 1 is a flowchart of a video image processing method according to an embodiment of the present application. As shown in FIG. 1, the video image processing method may include the following steps.
  • the moving object may include a vehicle, a pedestrian, and an animal, which are not specifically limited in the embodiment of the present application.
  • the shadows of the plurality of moving objects in the current video image may be extracted, and the upper side of each of the shadows is taken as a bottom edge to obtain a square, thereby obtaining a plurality of moving target imaginary frames.
  • the positional relationship between the imaginary frames of the moving object may include the inclusion, the incision, the intersection, the circumcision, and the detachment, which are not limited in the embodiment of the present application.
  • a corner point refers to a point having a high curvature in a video image.
  • the grayscale of the video image can be operated, and the curvature of the grayscale distribution of the video image is calculated, and the point of the maximum curvature is selected as the corner point.
  • the optical flow refers to the speed of the mode motion in the video image.
  • Optical flow is a vector field that transforms a video image into velocity, and each vector represents an instantaneous change in the position of a point in the image. Therefore, the optical flow carries rich information about the motion of the object and the three-dimensional structure of the scene. By analyzing the optical flow field, it is possible to judge the presence or absence of the moving object in the video image.
  • FIG. 2 is a flowchart of a method for implementing a shadow of a moving target in a current video image in the above step 101 according to an embodiment of the present application.
  • the extraction is currently 201.
  • the histogram equalization of the current video image can remove the influence of illumination.
  • the width threshold can be set to 20 pixels.
  • the positional filtering of the moving target imaginary frame is performed according to the positional relationship between the moving target imaginary frames, to obtain the real moving target imaginary frame, which may be:
  • the positional relationship is circumscribed and/or alienated from each other, and the imaginary frame of the moving target that is mutually circumscribed and/or detached is taken as the imaginary frame of the moving target;
  • the peripheral moving target imaginary frame which is inclusive and/or inscribed as each other is regarded as a real moving target imaginary frame
  • the peripheral imaginary box of the moving target imaginary box that intersects each other and the intersecting area is greater than or equal to the threshold is included as the real existence.
  • the moving target imaginary frame intersecting each other and the intersecting area is less than or equal to the threshold value is regarded as the actually existing moving target frame.
  • the local contour of the moving target is segmented from the current video image in the above step 102, and the local contour center point of the moving target is obtained:
  • the moving target imaginary frame to which the local contour center point of the moving target belongs is determined from the real moving target frame, and the imaginary frame to be adjusted as the moving target may be specifically:
  • FIG. 3 is a flow chart of a method for adjusting a moving target imaginary frame according to an embodiment of the present application, to implement the foregoing step 103. As shown in FIG. 3, the method may include the following steps.
  • step 304 Calculate, by using an arctangent function, a moving target imaginary frame of the tracking target to be adjusted relative to a moving direction of the video image of the previous frame. If the moving direction is a horizontal direction, step 305 is performed; if the moving direction is a non-horizontal direction, Then step 306 is performed.
  • the actual ratio of height to width can be 1:3.
  • the length of the extension may be equal to half the width of the moving target imaginary frame to be adjusted.
  • the moving target imaginary frame to be adjusted to determine the tracking corner point in the above step 303 is as shown in FIG. 4a, wherein the white point represents the tracking corner point; then, correspondingly, the above step 304 utilizes an arctangent function.
  • Calculating the imaginary frame of the moving target to be adjusted to track the corner point relative to the video frame of the previous frame The direction of motion of the image is from the upper right corner to the lower left corner; correspondingly, in step 306, the moving target imaginary frame to be adjusted may be three-dimensionally extended from the lower left corner to the upper right corner to achieve complete segmentation of the moving target, wherein As shown in FIG. 4b, the length of the extension may be equal to half the width of the moving target imaginary frame to be adjusted.
  • each complete moving target can be segmented in a complex video monitoring environment (such as monitoring video image jitter, moving target congestion, etc.). .
  • FIG. 5 is a structural diagram of a video image processing system according to an embodiment of the present application. As shown in FIG. 5, the video image processing system includes:
  • the imaginary frame extracting unit 501 is configured to extract a shadow of the moving target in the current video image, and take a square from the upper side of the shadow as a bottom edge to obtain a moving target imaginary frame;
  • the imaginary frame filtering unit 502 is configured to perform position filtering on the moving target imaginary frame according to the positional relationship between the moving target imaginary frames to obtain a realistic moving target imaginary frame; and segmenting the moving target from the current video image Contour, and obtaining a local contour center point of the moving target; and determining a moving target imaginary box to which the local contour center point of the moving target belongs from the imaginary moving object imaginary frame as the moving target imaginary box to be adjusted;
  • the imaginary frame adjusting unit 502 is configured to track the moving direction of the moving target imaginary frame to be adjusted by using the corner-based optical flow, and adjust the moving target imaginary frame according to the moving direction to complete the moving target segmentation.
  • FIG. 6 is a structural diagram of another video image processing system according to an embodiment of the present application.
  • the video image processing system shown in Fig. 6 is optimized by the video image processing system shown in Fig. 5.
  • the imaginary frame extracting unit 501 includes: a pre-processing module 5011, configured to perform histogram equalization on the current video image, and binarize the video image obtained by the histogram equalization, and Performing morphological filtering on the video image obtained by binarization to obtain a moving target shadow in the video image;
  • a search module 5012 configured to search for a black pixel start point and an end point of the moving target shadow in a horizontal direction, and determine a width of the moving target shadow according to the black pixel start and end points of the moving target shadow, and mark the moving target shadow whose width is greater than the width threshold;
  • the contour segmentation module 5013 is configured to perform Canny edge detection on the moving target shadow whose width is greater than the width threshold marked by the search module 5012, to obtain shadow edge information; and according to the shadow edge information
  • the moving target shadow having a width greater than the width threshold is subjected to contour segmentation to obtain a rectangular shadow;
  • the imaginary frame region generating module 5014 is configured to take a square with the upper side of the rectangular shadow as the bottom edge to obtain a moving target imaginary frame.
  • the imaginary frame filtering unit 502 includes:
  • the position filtering module 5021 is configured to use the imaginary frame of the moving target that is mutually circumscribed and/or detached as the actual existing motion when the positional relationship between the moving target imaginary frames is mutually circumscribed and/or alienated.
  • a target hypothetical frame and/or, for the case where the positional relationship between the moving target imaginary frames is mutually inclusive and/or inscribed, the peripheral moving target hypothetical frame which is mutually inclusive and/or inscribed is taken as a moving target hypothetical frame; and/or, for the positional relationship between the moving target imaginary frames intersecting each other, and if the intersecting area is greater than or equal to the threshold, the intersecting regions and the intersecting areas greater than or equal to the threshold are included
  • the peripheral imaginary box of the moving target imaginary box is used as a real moving target imaginary box; wherein, the diagonal length of the peripheral imaginary box as the real moving moving object imaginary box is equal to the moving target imaginary that intersects each other and the intersecting area is greater than or equal to the threshold
  • the distance between the frames is the farthest diagonal connecting line; and
  • the inter-frame difference module 5022 is configured to perform an inter-frame difference operation on the current video image to obtain a local contour of the motion target.
  • the local contour segmentation module 5023 is configured to perform morphological filtering on the local contour of the moving target and perform contour segmentation to obtain a local contour center point of the moving target;
  • the logic and module 5024 is configured to logically AND the local contour center point of the moving target and the real moving target imaginary box to obtain the moving target of the local contour center point of the moving target in the imaginary moving target box.
  • the imaginary box as a hypothetical frame of the moving target to be adjusted.
  • the imaginary frame adjusting unit 503 includes:
  • the corner optical flow tracking module 5031 is configured to extract corner points from the current video image, and use the corner-based optical flow to track the corner points of the extracted corner points that match the previous frame video image, as tracking corner;
  • a corner point imaginary box attribution module 5032 configured to determine a moving target imaginary box to be adjusted to track the corner point
  • the adjusting module 5033 is configured to calculate, by using an arctangent function, a moving target to be adjusted to track the corner point
  • the moving direction of the imaginary frame relative to the video image of the previous frame and in the case where the moving direction is the horizontal direction, the height of the imaginary frame of the moving target to be adjusted is kept constant, and the actual scale value according to the height and width of the moving target is Adjusting the width of the imaginary frame of the moving target to be adjusted to achieve complete segmentation of the moving target; or, in the case where the moving direction is non-horizontal, the imaginary frame of the moving target to be adjusted in the opposite direction of the moving direction is three-dimensionally extended, Achieve complete segmentation of the moving target.
  • the length of the extension may be equal to half the width of the moving target imaginary frame to be adjusted.
  • FIG. 7 is a structural diagram of another video image processing system according to an embodiment of the present application.
  • the video image processing system includes a transmitter 701, a receiver 702, a memory 703, and a processor 704 connected to the transmitter 701, the receiver 702, and the memory 703, respectively;
  • the memory 703 stores a set of program codes
  • the processor 704 is configured to call the program code stored in the memory 703 for performing the following operations:
  • the moving target imaginary frame is positionally filtered to obtain a realistic moving target imaginary frame;
  • the partial contour of the moving target is segmented from the current video image, and the local contour of the moving target is obtained a central point;
  • a moving target imaginary box to which the local contour center point of the moving target belongs is determined from the imaginary frame of the real moving target, as a moving target imaginary box to be adjusted;
  • the corner-based optical flow is used to track the moving direction of the moving target imaginary frame to be adjusted, and the moving target to be adjusted according to the moving direction is adjusted to achieve complete segmentation of the moving target.
  • the processor 704 extracts a shadow of the moving target in the current video image, and takes a square of the upper side of the shadow as a bottom edge to obtain a moving target imaginary box, specifically:
  • Canny edge detection is performed on the marked moving target shadow whose width is greater than the width threshold Shadow edge information
  • a square is drawn upward from the upper side of the rectangular shadow as a base to obtain a moving target imaginary frame.
  • the processor 704 performs position filtering on the motion target imaginary frame according to the positional relationship between the moving target imaginary frames to obtain a real moving target imaginary frame, which is specifically:
  • the imaginary frames of the moving targets that are mutually excised and/or detached are taken as the imaginary moving target imaginary boxes;
  • the peripheral moving target imaginary frame which is inclusive and/or inscribed as each other is regarded as a real moving target imaginary frame
  • the peripheral imaginary box of the moving target imaginary box that intersects each other and the intersecting area is greater than or equal to the threshold is included as the real existence.
  • the moving target imaginary box intersecting each other and the intersecting area is less than or equal to the threshold is regarded as the actually existing moving target frame.
  • the processor 704 segments a local contour of the moving object from the current video image, and obtains a local contour center point of the moving target, specifically:
  • the contour is segmented to obtain the local contour center point of the moving target; the moving target imaginary box to which the contour center point belongs, as the moving target imaginary box to be adjusted, specifically:
  • the local contour center point is logically ANDed with the real moving target imaginary box to obtain the moving target imaginary box to which the local contour center point of the moving target in the imaginary box is located, as the moving target to be adjusted Imaginary box.
  • the processor 704 uses the corner-based optical flow to track the moving direction of the imaginary target of the moving target to be adjusted, specifically: Extracting corner points from the current video image;
  • the processor 704 adjusts the moving target imaginary frame to be adjusted according to the moving direction, so as to achieve complete segmentation of the moving target, specifically:
  • the moving direction is the horizontal direction
  • the height of the imaginary frame of the moving target to be adjusted is kept unchanged
  • the width of the imaginary frame of the moving target to be adjusted is adjusted according to the actual ratio of the height and the width of the moving target, so as to achieve the completeness of the moving target.
  • the moving target imaginary frame to be adjusted in the opposite direction of the moving direction is three-dimensionally extended to achieve complete segmentation of the moving target.
  • the length of the extension may be equal to half the width of the imaginary frame of the moving target to be adjusted.
  • the video image processing system provided by the embodiment of the present application is described in detail.
  • the video image processing system provided by the embodiment of the present application can be segmented by using a software mode in a complex video surveillance environment (such as monitoring video image jitter, moving target congestion, etc.). Every complete moving goal.
  • the program may be stored in a computer readable storage medium, and the storage medium may include: Flash disk, Read-Only Memory (ROM), Random Access Memory (RAM), disk or optical disk.

Abstract

一种视频图像处理方法及系统,该方法包括:提取当前视频图像中的运动目标的阴影,以该阴影的上边作为底边向上取正方形,以获得运动目标假想框;根据运动目标假想框之间的位置关系,对运动目标假想框进行位置滤波,以获得真实存在的运动目标假想框;从当前视频图像中分割出运动目标的局部轮廓,并获得运动目标的局部轮廓中心点;从真实存在的运动目标假想框中确定出运动目标的局部轮廓中心点归属的运动目标假想框,作为待调整的运动目标假想框;采用基于角点的光流跟踪待调整的运动目标假想框的运动方向,并根据该运动方向对待调整的运动目标假想框进行调整,以实现运动目标的完整分割。本发明能够在复杂视频监控环境下分割出每一个完整的运动目标。

Description

一种视频图像处理方法及系统 技术领域
本申请涉及视频图像处理领域, 具体涉及一种视频图像处理方法及系统。 背景技术
在交通管理平台中, 通常采用对视频图像进行处理的方式来实现车辆的检 测。 以传统的视频图像处理方法为例, 通常是采用手工方式在视频监控区域中 设置虚拟线圈 (即选取视频分析区域 ), 然后在虚拟线圈中检测车辆特征 (如车 前最黑阴影、 车牌、 车辆颜色、 车辆类型、 车灯等), 通过分析车辆特征来实现 车辆的检测。
然而实践表明, 上述视频图像处理方法只能检测车辆的存在性, 无法在复 杂视频监控环境(如监控视频画面抖动、 车辆拥挤等) 下分割出每一个完整的 车辆目标。 发明内容
本申请实施例提供一种视频图像处理方法及系统, 能够在复杂视频监控环 境(如监控视频画面抖动、 运动目标拥挤等)下分割出每一个完整的运动目标。
本申请第一方面提供了一种视频图像处理方法, 包括:
提取当前视频图像中的运动目标的阴影, 以所述阴影的上边作为底边向上 取正方形, 以获得运动目标假想框;
根据运动目标假想框之间的位置关系, 对运动目标假想框进行位置滤波, 以获得真实存在的运动目标假想框; 从所述当前视频图像中分割出运动目标的 局部轮廓, 并获得运动目标的局部轮廓中心点; 从所述真实存在的运动目标假 想框中确定出所述运动目标的局部轮廓中心点归属的运动目标假想框, 作为待 调整的运动目标假想框;
采用基于角点的光流跟踪所述待调整的运动目标假想框的运动方向, 并根 据所述运动方向对所述待调整的运动目标^ 想框进行调整, 以实现运动目标的 完整分割。 在本申请第一方面的第一种可能的实现方式中, 所述提取当前视频图像中 的运动目标的阴影, 以所述阴影的上边作为底边向上取正方形, 以获得运动目 标假想框, 包括:
对当前视频图像进行直方图均衡;
对所述直方图均衡获得的视频图像进行二值化;
对所述二值化获得的视频图像进行形态学滤波, 获得视频图像中的运动目 标阴影;
水平方向搜索运动目标阴影的黑色像素起点和终点, 并根据运动目标阴影 的黑色像素起点和终点确定运动目标阴影的宽度, 以及标记出宽度大于宽度阈 值的运动目标阴影;
对标记出的所述宽度大于宽度阈值的运动目标阴影进行 Canny边 测, 以 获得阴影边缘信息;
根据所述阴影边缘信息对所述宽度大于宽度阈值的运动目标阴影进行轮廓 分割, 以获得矩形状阴影;
以所述矩形状阴影的上边作为底边向上取正方形, 以获得运动目标假想框。 在本申请第一方面的第二种可能的实现方式中, 所述根据运动目标假想框 之间的位置关系, 对运动目标假想框进行位置滤波, 以获得真实存在的运动目 标假想框, 包括:
若运动目标假想框之间的位置关系互为外切和 /或外离, 则将互为外切和 / 或外离的运动目标假想框作为真实存在的运动目标假想框;
和 /或, 若运动目标假想框之间的位置关系互为内含和 /或内切, 则将互为内 含和 /或内切的外围运动目标假想框作为真实存在的运动目标假想框;
和 /或, 若运动目标假想框之间的位置关系互为相交, 并且相交面积大于等 于阈值, 则将包含所述互为相交并且相交面积大于等于阈值的运动目标假想框 的外围假想框作为真实存在的运动目标假想框; 其中, 所述作为真实存在的运 动目标假想框的外围假想框的对角线长度等于所述互为相交并且相交面积大于 等于阈值的运动目标假想框之间的互为最远的对角连接线长度;
和 /或, 若运动目标假想框之间的位置关系互为相交, 并且相交面积小于阈 值, 则将相互相交并且相交面积小于等于阈值的运动目标假想框作为真是存在 的运动目标^ ϋ框。
本申请第二方面提供一种视频图像处理系统, 包括:
假想框提取单元, 用于提取当前视频图像中的运动目标的阴影, 以所述阴 影的上边作为底边向上取正方形, 以获得运动目标假想框;
假想框滤波单元, 用于根据运动目标假想框之间的位置关系, 对运动目标 假想框进行位置滤波, 以获得真实存在的运动目标假想框; 以及从所述当前视 频图像中分割出运动目标的局部轮廓, 并获得运动目标的局部轮廓中心点; 以 及从所述真实存在的运动目标假想框中确定出所述运动目标的局部轮廓中心点 归属的运动目标假想框, 作为待调整的运动目标假想框;
假想框调整单元, 用于采用基于角点的光流跟踪所述待调整的运动目标假 想框的运动方向, 并根据所述运动方向对所述待调整的运动目标假想框进行调 整, 以实现运动目标的完整分割。
在本申请第二方面的第一种可能的实现方式中, 所述假想框提取单元包括: 预处理模块, 用于对当前视频图像进行直方图均衡, 以及对所述直方图均 衡获得的视频图像进行二值化, 并对所述二值化获得的视频图像进行形态学滤 波, 获得视频图像中的运动目标阴影;
搜索模块, 用于水平方向搜索运动目标阴影的黑色像素起点和终点, 并根 据运动目标阴影的黑色像素起点和终点确定运动目标阴影的宽度, 以及标记出 宽度大于宽度阈值的运动目标阴影;
轮廓分割模块, 用于对所述搜索模块标记出的所述宽度大于宽度阈值的运 动目标阴影进行 Canny边缘检测, 以获得阴影边缘信息; 以及根据所述阴影边缘 信息对所述宽度大于宽度阈值的运动目标阴影进行轮廓分割, 以获得矩形状阴 影;
假想框区域生成模块, 用于以所述矩形状阴影的上边作为底边向上取正方 形, 以获得运动目标假想框。
在本申请第二方面的第二种可能的实现方式中, 所述假想框滤波单元包括: 位置滤波模块, 用于在运动目标假想框之间的位置关系互为外切和 /或外离 的情况下, 将互为外切和 /或外离的运动目标假想框作为真实存在的运动目标假 想框; 和 /或, 用于在运动目标假想框之间的位置关系互为内含和 /或内切的情况 下, 将互为内含和 /或内切的外围运动目标假想框作为真实存在的运动目标假想 框; 和 /或, 用于在运动目标假想框之间的位置关系互为相交, 并且相交面积大 于等于阈值的情况下, 将包含所述互为相交并且相交面积大于等于阈值的运动 目标假想框的外围假想框作为真实存在的运动目标假想框; 其中, 所述作为真 实存在的运动目标假想框的外围假想框的对角线长度等于所述互为相交并且相 交面积大于等于阈值的运动目标假想框之间的互为最远的对角连接线长度; 和 / 或, 用于在运动目标假想框之间的位置关系互为相交, 并且相交面积小于等于 阈值的情况下, 将相互相交并且相交面积小于等于阈值的运动目标假想框作为 真是存在的运动目标假想框。
本申请第三方面提供一种视频图像处理系统, 包括发射机、 接收机、 存储 器以及分别与所述发射机、 所述接收机和所述存储器连接的处理器;
其中, 所述存储器中存储一组程序代码, 且所述处理器用于调用所述存储 器中存储的程序代码, 用于执行以下操作:
提取当前视频图像中的运动目标的阴影, 以所述阴影的上边作为底边向上 取正方形, 以获得运动目标假想框;
根据运动目标假想框之间的位置关系, 对运动目标假想框进行位置滤波, 以获得真实存在的运动目标假想框; 从所述当前视频图像中分割出运动目标的 局部轮廓, 并获得运动目标的局部轮廓中心点; 从所述真实存在的运动目标假 想框中确定出所述运动目标的局部轮廓中心点归属的运动目标假想框, 作为待 调整的运动目标假想框;
采用基于角点的光流跟踪所述待调整的运动目标假想框的运动方向, 并根 据所述运动方向对所述待调整的运动目标^ 想框进行调整, 以实现运动目标的 完整分割。
在本申请第三方面的第一种可能的实现方式中, 所述处理器提取当前视频 图像中的运动目标的阴影, 以所述阴影的上边作为底边向上取正方形, 以获得 运动目标^ J¾框, 具体为: 对当前视频图像进行直方图均衡;
对所述直方图均衡获得的视频图像进行二值化;
对所述二值化获得的视频图像进行形态学滤波, 获得视频图像中的运动目 标阴影;
水平方向搜索运动目标阴影的黑色像素起点和终点, 并根据运动目标阴影 的黑色像素起点和终点确定运动目标阴影的宽度, 以及标记出宽度大于宽度阈 值的运动目标阴影;
对标记出的所述宽度大于宽度阈值的运动目标阴影进行 Canny边 测, 以 获得阴影边缘信息;
根据所述阴影边缘信息对所述宽度大于宽度阈值的运动目标阴影进行轮廓 分割, 以获得矩形状阴影;
以所述矩形状阴影的上边作为底边向上取正方形, 以获得运动目标假想框。 在本申请第三方面的第二种可能的实现方式中, 所述处理器根据运动目标 假想框之间的位置关系, 对运动目标假想框进行位置滤波, 以获得真实存在的 运动目标^ j¾框, 具体为:
若运动目标假想框之间的位置关系互为外切和 /或外离, 则将互为外切和 / 或外离的运动目标假想框作为真实存在的运动目标假想框;
和 /或, 若运动目标假想框之间的位置关系互为内含和 /或内切, 则将互为内 含和 /或内切的外围运动目标假想框作为真实存在的运动目标假想框;
和 /或, 若运动目标假想框之间的位置关系互为相交, 并且相交面积大于等 于阈值, 则将包含所述互为相交并且相交面积大于等于阈值的运动目标假想框 的外围假想框作为真实存在的运动目标假想框; 其中, 所述作为真实存在的运 动目标假想框的外围假想框的对角线长度等于所述互为相交并且相交面积大于 等于阈值的运动目标假想框之间的互为最远的对角连接线长度;
和 /或, 若运动目标假想框之间的位置关系互为相交, 并且相交面积小于阈 值, 则将相互相交并且相交面积小于等于阈值的运动目标假想框作为真是存在 的运动目标^ ϋ框。
本申请实施例在提取出当前视频图像中的运动目标的阴影后, 以该阴影的 上边作为底边向上取正方形, 从而获得运动目标假想框; 在此基础上, 根据运 动目标假想框之间的位置关系, 对运动目标假想框进行位置滤波, 可以获得真 实存在的运动目标假想框; 从当前视频图像中分割出运动目标的局部轮廓并获 得运动目标的局部轮廓中心点后, 可以从真实存在的运动目标假想框中确定出 运动目标的局部轮廓中心点归属的运动目标假想框, 作为待调整的运动目标假 想框; 进而可以采用基于角点的光流跟踪待调整的运动目标假想框的运动方向 并根据运动方向对待调整的运动目标假想框进行调整, 从而实现运动目标的完 整分割。 本申请实施例可以在复杂交通视频监控环境(如监控视频画面抖动、 运动目标拥挤等) 下分割出每一个完整的运动目标。 附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案, 下面将对实施 例中所需要使用的附图作筒单地介绍, 显而易见地, 下面描述中的附图仅仅是 本申请的一些实施例, 对于本领域普通技术人员来讲, 在不付出创造性劳动性 的前提下, 还可以根据这些附图获得其他的附图。
图 1为本申请实施例提供的一种视频图像处理方法的流程图;
图 2为本申请实施例提供的一种提取当前视频图像中的运动目标的阴影的 方法流程图;
图 3为本申请实施例提供的一种运动目标假想框的调整方法的流程图; 图 4为本申请实施例提供的一种运动目标假想框的三维延伸的示意图; 图 5为本申请实施例提供的一种视频图像处理系统的结构图;
图 6为本申请实施例提供的另一种视频图像处理系统的结构图;
图 7为本申请实施例提供的又一种视频图像处理系统的结构图。 具体实施方式
下面将结合本申请实施例中的附图, 对本申请实施例中的技术方案进行清 楚、 完整地描述, 显然, 所描述的实施例仅仅是本申请一部分实施例, 而不是 全部的实施例。 基于本申请中的实施例, 本领域普通技术人员在没有做出创造 性劳动前提下所获得的所有其他实施例, 都属于本申请保护的范围。 本申请实施例提供了一种视频图像处理方法及系统, 能够在复杂视频监控 环境(如监控视频画面抖动、 运动目标拥挤等) 下分割出每一个完整的运动目 标。 以下分别进行详细说明。
请参阅图 1 , 图 1为本申请实施例提供的一种视频图像处理方法的流程图。 如图 1所示, 该视频图像处理方法可以包括以下步骤。
101、 提取当前视频图像中的运动目标的阴影, 以该阴影的上边作为底边向 上取正方形, 以获得运动目标假想框。
本申请实施例中, 运动目标可以包括车辆、 行人以及动物, 本申请实施例 不作具体限定。
本申请实施例中, 可以提取当前视频图像中多个运动目标的阴影, 以分别 每一个阴影的上边作为底边向上取正方形, 从而获得多个运动目标假想框。
102、 根据运动目标假想框之间的位置关系, 对运动目标假想框进行位置滤 波, 以获得真实存在的运动目标假想框; 从当前视频图像中分割出运动目标的 局部轮廓, 并获得运动目标的局部轮廓中心点; 从真实存在的运动目标假想框 中确定出运动目标的局部轮廓中心点归属的运动目标假想框, 作为待调整的运 动目标假想框。
本申请实施例中, 运动目标假想框之间的位置关系可以包括内含、 内切、 相交、 外切以及外离, 本申请实施例不作限定。
103、 采用基于角点的光流跟踪待调整的运动目标假想框的运动方向, 并根 据运动方向对待调整的运动目标假想框进行调整, 以实现运动目标的完整分割。
本申请实施例中, 角点是指视频图像中具有高曲率的点。 其中, 可以对视 频图像灰度进行操作, 并计算视频图像灰度分布的曲率, 选择最大曲率的点作 为角点。
本申请实施例中, 光流是指视频图像中模式运动的速度。 光流是将视频图 像变为速度的矢量场, 每一个向量表示了景物中一个点在图像中位置的瞬时变 化。 因此, 光流携带了有关物体运动和景物三维结构的丰富信息, 通过对光流 场的分析可以判断在视频图像中运动目标的有无。
请一并参阅图 2, 图 2为本申请实施例提供的一种用于实现上述步骤 101中的 提取当前视频图像中的运动目标的阴影的方法流程图。 如图 2所示, 该提取当前 201、 对当前视频图像进行直方图均衡。
其中, 对当前视频图像进行直方图均衡可以去除光照的影响。
202、 对直方图均衡获得的视频图像进行二值化。
203、 对二值化获得的视频图像进行形态学滤波, 获得视频图像中的运动目 标阴影。
204、 水平方向搜索运动目标阴影的黑色像素起点和终点, 并根据运动目标 阴影的黑色像素起点和终点确定运动目标阴影的宽度。
205、 判断运动目标阴影的宽度是否大于宽度阈值, 如果是, 则执行步骤 206-208; 如果否, 则确定该运动目标阴影为伪阴影, 并结束本流程。
举例来说, 在视频图像大小为 320x240的情况下, 可以设置宽度阈值为 20个 像素。
206、 标记出宽度大于宽度阈值的运动目标阴影。
207、 对标记出的宽度大于宽度阈值的运动目标阴影进行 Canny边缘检测, 以获得阴影边缘信息。
208、 根据阴影边缘信息对宽度大于宽度阈值的运动目标阴影进行轮廓分 割, 以获得矩形状阴影。
本申请实施例中, 上述步骤 102中根据运动目标假想框之间的位置关系, 对 运动目标假想框进行位置滤波, 以获得真实存在的运动目标假想框具体可以为: 若运动目标假想框之间的位置关系互为外切和 /或外离, 则将互为外切和 /或 外离的运动目标假想框作为实存在的运动目标假想框;
和 /或, 若运动目标假想框之间的位置关系互为内含和 /或内切, 则将互为内 含和 /或内切的外围运动目标假想框作为实存在的运动目标假想框;
和 /或, 若运动目标假想框之间的位置关系互为相交, 并且相交面积大于等 于阈值, 则将包含互为相交并且相交面积大于等于阈值的运动目标假想框的外 围假想框作为真实存在的运动目标假想框; 其中, 作为真实存在的运动目标假 想框的外围假想框的对角线长度等于互为相交并且相交面积大于等于阈值的运 动目标假想框之间的互为最远的对角连接线长度;
和 /或, 若运动目标假想框之间的位置关系互为相交, 并且相交面积小于阈 值, 则将相互相交并且相交面积小于等于阈值的运动目标假想框作为真是存在 的运动目标^ ϋ框。 本申请实施例中, 上述步骤 102中从当前视频图像中分割出运动目标的局部 轮廓, 并获得运动目标的局部轮廓中心点具体可以为:
对当前视频图像作帧间差分运算, 以获得运动目标的局部轮廓;
以及, 对运动目标的局部轮廓作形态学滤波后进行轮廓分割, 以获得运动 目标的局部轮廓中心点。
相应地, 上述步骤 102中从真实存在的运动目标^ ί叚想框中确定出运动目标的 局部轮廓中心点归属的运动目标假想框, 作为待调整的运动目标假想框具体可 以为:
将运动目标的局部轮廓中心点与真实存在的运动目标假想框做逻辑与运 算, 以获得真实存在的运动目标假想框中的运动目标的局部轮廓中心点归属的 运动目标假想框, 作为待调整的运动目标假想框。
请参阅图 3 , 图 3为本申请实施例提供的一种运动目标假想框调整方法的流 程图, 用于实现上述步骤 103。 如图 3所示, 该方法可以包括以下步骤。
301、 从当前视频图像中提取出角点。
302、 采用基于角点的光流去追踪提取出的角点中与前一帧视频图像相匹配 的角点, 作为追踪角点。
303、 确定追踪角点归属的待调整的运动目标假想框。
304、 利用反正切函数计算追踪角点归属的待调整的运动目标假想框相对于 前一帧视频图像的运动方向, 若运动方向为水平方向, 则执行步骤 305; 若运动 方向为非水平方向, 则执行步骤 306。
305、 保持待调整的运动目标假想框的高度不变, 并按照运动目标的高与宽 的实际比例值调整待调整的运动目标假想框的宽度, 以实现运动目标的完整分 割, 并结束本流程。
举例来说, 运动目标为车辆时, 其高与宽的实际比例值可以为 1 : 3。
306、 沿运动方向的反方向对待调整的运动目标假想框做三维延伸, 以实现 运动目标的完整分割, 并结束本流程。
举例来说, 延伸的长度可以等于待调整的运动目标假想框的宽度的一半。 举例来说, 假设上述步骤 303中确定追踪角点归属的待调整的运动目标假想 框如图 4 a所示, 其中, 白色点表示追踪角点; 那么相应地, 上述步骤 304利用反 正切函数来计算追踪角点归属的待调整的运动目标假想框相对于前一帧视频图 像的运动方向即为从右上角至左下角; 相应地, 步骤 306中可以沿着从左下角至 右上角的方向对待调整的运动目标假想框做三维延伸, 以实现运动目标的完整 分割, 其中, 如图 4 b所示, 延伸的长度可以等于待调整的运动目标假想框的宽 度的一半。
以上对本申请实施例提供的视频图像处理方法进行了详细介绍, 本申请实 施例通过软件方式可以在复杂视频监控环境(如监控视频画面抖动、 运动目标 拥挤等) 下分割出每一个完整的运动目标。
请参阅图 5 , 图 5为本申请实施例提供的一种视频图像处理系统的结构图。 如图 5所示, 该视频图像处理系统包括:
假想框提取单元 501 , 用于提取当前视频图像中的运动目标的阴影, 以该阴 影的上边作为底边向上取正方形, 以获得运动目标假想框;
假想框滤波单元 502, 用于根据运动目标假想框之间的位置关系, 对运动目 标假想框进行位置滤波, 以获得真实存在的运动目标假想框; 以及从当前视频 图像中分割出运动目标的局部轮廓, 并获得运动目标的局部轮廓中心点; 以及 从真实存在的运动目标假想框中确定出运动目标的局部轮廓中心点归属的运动 目标假想框, 作为待调整的运动目标假想框;
假想框调整单元 502, 用于采用基于角点的光流跟踪待调整的运动目标假想 框的运动方向, 并根据运动方向对所述待调整的运动目标假想框进行调整, 以 实现运动目标的完整分割。
请一并参阅图 6 , 图 6为本申请实施例提供的另一种视频图像处理系统的结 构图。 其中, 图 6所示的视频图像处理系统是由图 5所示的视频图像处理系统进 行优化得到的。 在图 6所示的视频图像处理系统中, 假想框提取单元 501包括: 预处理模块 5011 , 用于对当前视频图像进行直方图均衡, 以及对直方图均 衡获得的视频图像进行二值化, 并对二值化获得的视频图像进行形态学滤波, 获得视频图像中的运动目标阴影;
搜索模块 5012, 用于水平方向搜索运动目标阴影的黑色像素起点和终点, 并根据运动目标阴影的黑色像素起点和终点确定运动目标阴影的宽度, 以及标 记出宽度大于宽度阈值的运动目标阴影;
轮廓分割模块 5013 , 用于对搜索模块 5012标记出的宽度大于宽度阈值的运 动目标阴影进行 Canny边缘检测, 以获得阴影边缘信息; 以及根据阴影边缘信息 对宽度大于宽度阈值的运动目标阴影进行轮廓分割, 以获得矩形状阴影; 假想框区域生成模块 5014 , 用于以矩形状阴影的上边作为底边向上取正方 形, 以获得运动目标假想框。
在图 6所示的视频图像处理系统中, 假想框滤波单元 502包括:
位置滤波模块 5021 , 用于在运动目标假想框之间的位置关系互为外切和 /或 外离的情况下, 将互为外切和 /或外离的运动目标假想框作为实存在的运动目标 假想框; 和 /或, 用于在运动目标假想框之间的位置关系互为内含和 /或内切的情 况下, 将互为内含和 /或内切的外围运动目标假想框作为实存在的运动目标假想 框; 和 /或, 用于在运动目标假想框之间的位置关系互为相交, 并且相交面积大 于等于阈值的情况下, 将包含互为相交并且相交面积大于等于阈值的运动目标 假想框的外围假想框作为真实存在的运动目标假想框; 其中, 作为真实存在的 运动目标假想框的外围假想框的对角线长度等于互为相交并且相交面积大于等 于阈值的运动目标假想框之间的互为最远的对角连接线长度; 和 /或, 用于在运 动目标假想框之间的位置关系互为相交, 并且相交面积小于阈值的情况下, 将 相互相交并且相交面积小于等于阈值的运动目标假想框作为真是存在的运动目 标假想框。
帧间差分模块 5022, 用于对当前视频图像作帧间差分运算, 以获得运动目 标的局部轮廓;
局部轮廓分割模块 5023 , 用于对运动目标的局部轮廓作形态学滤波后进行 轮廓分割, 以获得运动目标的局部轮廓中心点;
逻辑与模块 5024, 用于将运动目标的局部轮廓中心点与真实存在的运动目 标假想框做逻辑与运算, 以获得真实存在的运动目标假想框中的运动目标的局 部轮廓中心点归属的运动目标假想框, 作为待调整的运动目标假想框。
在图 6所示的视频图像处理系统中, 假想框调整单元 503包括:
角点光流跟踪模块 5031 , 用于从当前视频图像中提取出角点, 以及采用基 于角点的光流去追踪提取出的角点中与前一帧视频图像相匹配的角点, 作为追 踪角点;
角点假想框归属模块 5032, 用于确定追踪角点归属的待调整的运动目标假 想框;
调整模块 5033 , 用于利用反正切函数计算追踪角点归属的待调整的运动目 标假想框相对于前一帧视频图像的运动方向; 以及在运动方向为水平方向的情 况下, 保持待调整的运动目标假想框的高度不变, 并按照运动目标的高与宽的 实际比例值调整待调整的运动目标假想框的宽度, 以实现运动目标的完整分割; 或者, 在运动方向为非水平方向的情况下, 沿运动方向的反方向对待调整的运 动目标假想框做三维延伸, 以实现运动目标的完整分割。 举例来说, 延伸的长 度可以等于待调整的运动目标假想框的宽度的一半。
请参阅图 7, 图 7为本申请实施例提供的另一种视频图像处理系统的结构图。 如图 7所示, 该视频图像处理系统包括发射机 701、 接收机 702、 存储器 703以及 分别与发射机 701、 接收机 702和存储器 703连接的处理器 704;
其中, 存储器 703中存储一组程序代码, 且处理器 704用于调用存储器 703中 存储的程序代码, 用于执行以下操作:
提取当前视频图像中的运动目标的阴影, 以阴影的上边作为底边向上取正 方形, 以获得运动目标假想框;
根据运动目标假想框之间的位置关系, 对运动目标假想框进行位置滤波, 以获得真实存在的运动目标假想框; 从当前视频图像中分割出运动目标的局部 轮廓, 并获得运动目标的局部轮廓中心点; 从真实存在的运动目标假想框中确 定出运动目标的局部轮廓中心点归属的运动目标假想框, 作为待调整的运动目 标假想框;
采用基于角点的光流跟踪待调整的运动目标假想框的运动方向, 并根据运 动方向对待调整的运动目标^ 想框进行调整, 以实现运动目标的完整分割。
一个实施例中, 处理器 704提取当前视频图像中的运动目标的阴影, 以该阴 影的上边作为底边向上取正方形, 以获得运动目标假想框, 具体为:
对当前视频图像进行直方图均衡;
对直方图均衡获得的视频图像进行二值化;
对二值化获得的视频图像进行形态学滤波, 获得视频图像中的运动目标阴 影;
水平方向搜索运动目标阴影的黑色像素起点和终点, 并根据运动目标阴影 的黑色像素起点和终点确定运动目标阴影的宽度, 以及标记出宽度大于宽度阈 值的运动目标阴影;
对标记出的宽度大于宽度阈值的运动目标阴影进行 Canny边缘检测, 以获得 阴影边缘信息;
根据阴影边缘信息对宽度大于宽度阈值的运动目标阴影进行轮廓分割, 以 获得矩形状阴影;
以该矩形状阴影的上边作为底边向上取正方形, 以获得运动目标假想框。 一个实施例中, 处理器 704根据运动目标假想框之间的位置关系, 对运动目 标假想框进行位置滤波, 以获得真实存在的运动目标假想框, 具体为:
若运动目标假想框之间的位置关系互为外切和 /或外离, 则将互为外切和 /或 外离的运动目标假想框作为实存在的运动目标假想框;
和 /或, 若运动目标假想框之间的位置关系互为内含和 /或内切, 则将互为内 含和 /或内切的外围运动目标假想框作为实存在的运动目标假想框;
和 /或, 若运动目标假想框之间的位置关系互为相交, 并且相交面积大于等 于阈值, 则将包含互为相交并且相交面积大于等于阈值的运动目标假想框的外 围假想框作为真实存在的运动目标假想框; 其中, 作为真实存在的运动目标假 想框的外围假想框的对角线长度等于互为相交并且相交面积大于等于阈值的运 动目标假想框之间的互为最远的对角连接线长度;
和 /或, 若运动目标假想框之间的位置关系互为相交, 并且相交面积小于阈 值, 则将相互相交并且相交面积小于等于阈值的运动目标假想框作为真是存在 的运动目标^ ϋ框。
一个实施例中, 处理器 704从当前视频图像中分割出运动目标的局部轮廓, 并获得运动目标的局部轮廓中心点, 具体为:
对当前视频图像作帧间差分运算, 以获得运动目标的局部轮廓;
对运动目标的局部轮廓作形态学滤波后进行轮廓分割, 以获得运动目标的 局部轮廓中心点; 轮廓中心点归属的运动目标假想框, 作为待调整的运动目标假想框具体为: 将运动目标的局部轮廓中心点与真实存在的运动目标假想框做逻辑与运 算, 以获得真实存在的运动目标 4叚想框中的运动目标的局部轮廓中心点归属的 运动目标假想框, 作为待调整的运动目标假想框。
一个实施例中, 处理器 704采用基于角点的光流跟踪待调整的运动目标假想 才匡的运动方向, 具体为: 从当前视频图像中提取出角点;
采用基于角点的光流去追踪提取出的角点中与前一帧视频图像相匹配的角 点, 作为追踪角点;
确定追踪角点归属的待调整的运动目标假想框;
利用反正切函数计算追踪角点归属的待调整的运动目标假想框相对于前一 帧视频图像的运动方向;
相应地, 处理器 704根据运动方向对待调整的运动目标假想框进行调整, 以 实现运动目标的完整分割, 具体为:
若运动方向为水平方向, 则保持待调整的运动目标假想框的高度不变, 并 按照运动目标的高与宽的实际比例值调整待调整的运动目标假想框的宽度, 以 实现运动目标的完整分割;
或者, 若运动方向为非水平方向, 则沿运动方向的反方向对待调整的运动 目标假想框做三维延伸, 以实现运动目标的完整分割。 其中, 延伸的长度可以 等于待调整的运动目标假想框的宽度的一半。
以上对本申请实施例提供的视频图像处理系统进行了详细介绍, 本申请实 施例提供的视频图像处理系统利用软件方式可以在复杂视频监控环境(如监控 视频画面抖动、 运动目标拥挤等) 下分割出每一个完整的运动目标。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤 是可以通过程序来指令相关的硬件来完成, 该程序可以存储于一计算机可读存 储介质中,存储介质可以包括:闪存盘、只读存储器( Read-Only Memory , ROM )、 随机存取器 ( Random Access Memory, RAM ), 磁盘或光盘等。
以上对本申请实施例所提供的视频图像处理方法和系统进行了详细介绍, 说明只是用于帮助理解本申请的方法及其核心思想; 同时, 对于本领域的一般 技术人员, 依据本申请的思想, 在具体实施方式及应用范围上均会有改变之处, 综上所述, 本说明书内容不应理解为对本申请的限制。

Claims

权 利 要 求
1、 一种视频图像处理方法, 其特征在于, 包括:
提取当前视频图像中的运动目标的阴影, 以所述阴影的上边作为底边向上 取正方形, 以获得运动目标假想框;
根据运动目标假想框之间的位置关系, 对运动目标假想框进行位置滤波, 以获得真实存在的运动目标假想框; 从所述当前视频图像中分割出运动目标的 局部轮廓, 并获得运动目标的局部轮廓中心点; 从所述真实存在的运动目标假 想框中确定出所述运动目标的局部轮廓中心点归属的运动目标假想框, 作为待 调整的运动目标假想框;
采用基于角点的光流跟踪所述待调整的运动目标假想框的运动方向, 并根 据所述运动方向对所述待调整的运动目标^ 想框进行调整, 以实现运动目标的 完整分割。
2、 根据权利要求 1所述的视频图像处理方法, 其特征在于, 所述提取当前 视频图像中的运动目标的阴影, 以所述阴影的上边作为底边向上取正方形, 以 获得运动目标假想框, 包括:
对当前视频图像进行直方图均衡;
对所述直方图均衡获得的视频图像进行二值化;
对所述二值化获得的视频图像进行形态学滤波, 获得视频图像中的运动目 标阴影;
水平方向搜索运动目标阴影的黑色像素起点和终点, 并根据运动目标阴影 的黑色像素起点和终点确定运动目标阴影的宽度, 以及标记出宽度大于宽度阈 值的运动目标阴影;
对标记出的所述宽度大于宽度阈值的运动目标阴影进行 Canny边缘检测, 以 获得阴影边缘信息;
根据所述阴影边缘信息对所述宽度大于宽度阈值的运动目标阴影进行轮廓 分割, 以获得矩形状阴影;
以所述矩形状阴影的上边作为底边向上取正方形, 以获得运动目标假想框。
3、 根据权利要求 1所述的视频图像处理方法, 其特征在于, 所述根据运动 目标假想框之间的位置关系, 对运动目标假想框进行位置滤波, 以获得真实存 在的运动目标假想框, 包括:
若运动目标假想框之间的位置关系互为外切和 /或外离, 则将互为外切和 /或 外离的运动目标假想框作为真实存在的运动目标假想框;
和 /或, 若运动目标假想框之间的位置关系互为内含和 /或内切, 则将互为内 含和 /或内切的外围运动目标假想框作为真实存在的运动目标假想框;
和 /或, 若运动目标假想框之间的位置关系互为相交, 并且相交面积大于等 于阈值, 则将包含所述互为相交并且相交面积大于等于阈值的运动目标假想框 的外围假想框作为真实存在的运动目标假想框; 其中, 所述作为真实存在的运 动目标假想框的外围假想框的对角线长度等于所述互为相交并且相交面积大于 等于阈值的运动目标假想框之间的互为最远的对角连接线长度;
和 /或, 若运动目标假想框之间的位置关系互为相交, 并且相交面积小于阈 值, 则将相互相交并且相交面积小于等于阈值的运动目标假想框作为真是存在 的运动目标^ ϋ框。
4、 根据权利要求 3所述的视频图像处理方法, 其特征在于, 所述从所述当 前视频图像中分割出运动目标的局部轮廓, 并获得运动目标的局部轮廓中心点, 包括:
对所述当前视频图像作帧间差分运算, 以获得运动目标的局部轮廓; 对运动目标的局部轮廓作形态学滤波后进行轮廓分割, 以获得运动目标的 局部轮廓中心点;
所述从所述真实存在的运动目标假想框中确定出所述运动目标的局部轮廓 中心点归属的运动目标假想框, 作为待调整的运动目标假想框, 包括:
将所述运动目标的局部轮廓中心点与所述真实存在的运动目标假想框做逻 辑与运算, 以获得所述真实存在的运动目标假想框中的所述运动目标的局部轮 廓中心点归属的运动目标假想框, 作为待调整的运动目标假想框。
5、 根据权利要求 1~4任一项所述的视频图像处理方法, 其特征在于, 所述 采用基于角点的光流跟踪所述待调整的运动目标假想框的运动方向, 包括: 从所述当前视频图像中提取出角点;
采用基于角点的光流去追踪提取出的角点中与前一帧视频图像相匹配的角 点, 作为追踪角点;
确定所述追踪角点归属的待调整的运动目标假想框; 利用反正切函数计算所述追踪角点归属的待调整的运动目标假想框相对于 所述前一帧视频图像的运动方向;
所述根据所述运动方向对所述待调整的运动目标假想框进行调整, 以实现 运动目标的完整分割, 包括:
若所述运动方向为水平方向, 则保持所述待调整的运动目标假想框的高度 不变, 并按照所述运动目标的高与宽的实际比例值调整所述待调整的运动目标 假想框的宽度, 以实现运动目标的完整分割;
或者, 若所述运动方向为非水平方向, 则沿所述运动方向的反方向对所述 待调整的运动目标假想框做三维延伸, 以实现运动目标的完整分割。
6、 一种视频图像处理系统, 其特征在于, 包括:
假想框提取单元, 用于提取当前视频图像中的运动目标的阴影, 以所述阴 影的上边作为底边向上取正方形, 以获得运动目标假想框;
假想框滤波单元, 用于根据运动目标假想框之间的位置关系, 对运动目标 假想框进行位置滤波, 以获得真实存在的运动目标假想框; 以及从所述当前视 频图像中分割出运动目标的局部轮廓, 并获得运动目标的局部轮廓中心点; 以 及从所述真实存在的运动目标假想框中确定出所述运动目标的局部轮廓中心点 归属的运动目标假想框, 作为待调整的运动目标假想框;
假想框调整单元, 用于采用基于角点的光流跟踪所述待调整的运动目标假 想框的运动方向, 并根据所述运动方向对所述待调整的运动目标假想框进行调 整, 以实现运动目标的完整分割。
7、 根据权利要求 6所述的视频图像处理系统, 其特征在于, 所述假想框提 取单元包括:
预处理模块, 用于对当前视频图像进行直方图均衡, 以及对所述直方图均 衡获得的视频图像进行二值化, 并对所述二值化获得的视频图像进行形态学滤 波, 获得视频图像中的运动目标阴影;
搜索模块, 用于水平方向搜索运动目标阴影的黑色像素起点和终点, 并根 据运动目标阴影的黑色像素起点和终点确定运动目标阴影的宽度, 以及标记出 宽度大于宽度阈值的运动目标阴影;
轮廓分割模块, 用于对所述搜索模块标记出的所述宽度大于宽度阈值的运 动目标阴影进行 Canny边缘检测, 以获得阴影边缘信息; 以及根据所述阴影边缘 信息对所述宽度大于宽度阈值的运动目标阴影进行轮廓分割, 以获得矩形状阴 影;
假想框区域生成模块, 用于以所述矩形状阴影的上边作为底边向上取正方 形, 以获得运动目标假想框。
8、 根据权利要求 6所述的视频图像处理系统, 其特征在于, 所述假想框滤 波单元包括:
位置滤波模块, 用于在运动目标假想框之间的位置关系互为外切和 /或外离 的情况下, 将互为外切和 /或外离的运动目标假想框作为真实存在的运动目标假 想框; 和 /或, 用于在运动目标假想框之间的位置关系互为内含和 /或内切的情况 下, 将互为内含和 /或内切的外围运动目标假想框作为真实存在的运动目标假想 框; 和 /或, 用于在运动目标假想框之间的位置关系互为相交, 并且相交面积大 于等于阈值的情况下, 将包含所述互为相交并且相交面积大于等于阈值的运动 目标假想框的外围假想框作为真实存在的运动目标假想框; 其中, 所述作为真 实存在的运动目标假想框的外围假想框的对角线长度等于所述互为相交并且相 交面积大于等于阈值的运动目标假想框之间的互为最远的对角连接线长度; 和 / 或, 用于在运动目标假想框之间的位置关系互为相交, 并且相交面积小于阈值 的情况下, 将相互相交并且相交面积小于等于阈值的运动目标假想框作为真是 存在的运动目标假想框。
9、 根据权利要求 8所述的视频图像处理系统, 其特征在于, 所述假想框滤 波单元还包括:
帧间差分模块, 用于对所述当前视频图像作帧间差分运算, 以获得运动目 标的局部轮廓;
局部轮廓分割模块, 用于对所述运动目标的局部轮廓作形态学滤波后进行 轮廓分割, 以获得运动目标的局部轮廓中心点;
逻辑与模块, 用于将所述运动目标的局部轮廓中心点与所述真实存在的运 动目标假想框做逻辑与运算, 以获得所述真实存在的运动目标假想框中的所述 运动目标的局部轮廓中心点归属的运动目标假想框, 作为待调整的运动目标假 想框。
10、 根据权利要求 6~9任一项所述的视频图像处理系统, 其特征在于, 所述 假想框调整单元包括: 角点光流跟踪模块, 用于从所述当前视频图像中提取出角点, 以及采用基 于角点的光流去追踪提取出的角点中与前一帧视频图像相匹配的角点, 作为追 踪角点;
角点假想框归属模块, 用于确定所述追踪角点归属的待调整的运动目标假 想框;
调整模块, 用于利用反正切函数计算所述追踪角点归属的待调整的运动目 标假想框相对于所述前一帧视频图像的运动方向; 以及在所述运动方向为水平 方向的情况下, 保持所述待调整的运动目标假想框的高度不变, 并按照所述运 动目标的高与宽的实际比例值调整所述待调整的运动目标假想框的宽度, 以实 现运动目标的完整分割; 或者, 在所述运动方向为非水平方向的情况下, 沿所 述运动方向的反方向对所述待调整的运动目标假想框做三维延伸, 以实现运动 目标的完整分割。
11、 一种视频图像处理系统, 其特征在于, 包括发射机、 接收机、 存储器 以及分别与所述发射机、 所述接收机和所述存储器连接的处理器;
其中, 所述存储器中存储一组程序代码, 且所述处理器用于调用所述存储 器中存储的程序代码, 用于执行以下操作:
提取当前视频图像中的运动目标的阴影, 以所述阴影的上边作为底边向上 取正方形, 以获得运动目标假想框;
根据运动目标假想框之间的位置关系, 对运动目标假想框进行位置滤波, 以获得真实存在的运动目标假想框; 从所述当前视频图像中分割出运动目标的 局部轮廓, 并获得运动目标的局部轮廓中心点; 从所述真实存在的运动目标假 想框中确定出所述运动目标的局部轮廓中心点归属的运动目标假想框, 作为待 调整的运动目标假想框;
采用基于角点的光流跟踪所述待调整的运动目标假想框的运动方向, 并根 据所述运动方向对所述待调整的运动目标^ 想框进行调整, 以实现运动目标的 完整分割。
12、 根据权利要求 11所述的视频图像处理系统, 其特征在于, 所述处理器 提取当前视频图像中的运动目标的阴影, 以所述阴影的上边作为底边向上取正 方形, 以获得运动目标假想框, 具体为:
对当前视频图像进行直方图均衡; 对所述直方图均衡获得的视频图像进行二值化;
对所述二值化获得的视频图像进行形态学滤波, 获得视频图像中的运动目 标阴影;
水平方向搜索运动目标阴影的黑色像素起点和终点, 并根据运动目标阴影 的黑色像素起点和终点确定运动目标阴影的宽度, 以及标记出宽度大于宽度阈 值的运动目标阴影;
对标记出的所述宽度大于宽度阈值的运动目标阴影进行 Canny边缘检测, 以 获得阴影边缘信息;
根据所述阴影边缘信息对所述宽度大于宽度阈值的运动目标阴影进行轮廓 分割, 以获得矩形状阴影;
以所述矩形状阴影的上边作为底边向上取正方形, 以获得运动目标假想框。
13、 根据权利要求 11所述的视频图像处理系统, 其特征在于, 所述处理器 根据运动目标假想框之间的位置关系, 对运动目标假想框进行位置滤波, 以获 得真实存在的运动目标假想框, 具体为:
若运动目标假想框之间的位置关系互为外切和 /或外离, 则将互为外切和 /或 外离的运动目标假想框作为真实存在的运动目标假想框;
和 /或, 若运动目标假想框之间的位置关系互为内含和 /或内切, 则将互为内 含和 /或内切的外围运动目标假想框作为真实存在的运动目标假想框;
和 /或, 若运动目标假想框之间的位置关系互为相交, 并且相交面积大于等 于阈值, 则将包含所述互为相交并且相交面积大于等于阈值的运动目标假想框 的外围假想框作为真实存在的运动目标假想框; 其中, 所述作为真实存在的运 动目标假想框的外围假想框的对角线长度等于所述互为相交并且相交面积大于 等于阈值的运动目标假想框之间的互为最远的对角连接线长度;
和 /或, 若运动目标假想框之间的位置关系互为相交, 并且相交面积小于阈 值, 则将相互相交并且相交面积小于等于阈值的运动目标假想框作为真是存在 的运动目标^ ϋ框。
14、 根据权利要求 13所述的视频图像处理系统, 其特征在于, 所述处理器 从所述当前视频图像中分割出运动目标的局部轮廓, 并获得运动目标的局部轮 廓中心点, 具体为:
对所述当前视频图像作帧间差分运算, 以获得运动目标的局部轮廓; 对运动目标的局部轮廓作形态学滤波后进行轮廓分割 , 以获得运动目标的 局部轮廓中心点;
所述从所述真实存在的运动目标假想框中确定出所述运动目标的局部轮廓 中心点归属的运动目标假想框, 作为待调整的运动目标假想框, 包括:
将所述运动目标的局部轮廓中心点与所述真实存在的运动目标假想框做逻 辑与运算, 以获得所述真实存在的运动目标假想框中的所述运动目标的局部轮 廓中心点归属的运动目标假想框, 作为待调整的运动目标假想框。
15、 根据权利要求 11~14任一项所述的视频图像处理系统, 其特征在于, 所 述处理器采用基于角点的光流跟踪所述待调整的运动目标假想框的运动方向, 具体为:
从所述当前视频图像中提取出角点;
采用基于角点的光流去追踪提取出的角点中与前一帧视频图像相匹配的角 点, 作为追踪角点;
确定所述追踪角点归属的待调整的运动目标假想框;
利用反正切函数计算所述追踪角点归属的待调整的运动目标假想框相对于 所述前一帧视频图像的运动方向;
所述处理器根据所述运动方向对所述待调整的运动目标假想框进行调整, 以实现运动目标的完整分割, 具体为:
若所述运动方向为水平方向, 则保持所述待调整的运动目标假想框的高度 不变, 并按照所述运动目标的高与宽的实际比例值调整所述待调整的运动目标 假想框的宽度, 以实现运动目标的完整分割;
或者, 若所述运动方向为非水平方向, 则沿所述运动方向的反方向对所述 待调整的运动目标假想框做三维延伸, 以实现运动目标的完整分割。
PCT/CN2012/085258 2012-11-26 2012-11-26 一种视频图像处理方法及系统 WO2014079058A1 (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/CN2012/085258 WO2014079058A1 (zh) 2012-11-26 2012-11-26 一种视频图像处理方法及系统
ES12876081.6T ES2569386T3 (es) 2012-11-26 2012-11-26 Método y sistema para procesar una imagen de vídeo
EP12876081.6A EP2813973B1 (en) 2012-11-26 2012-11-26 Method and system for processing video image
CN201280005320.5A CN104662560B (zh) 2012-11-26 2012-11-26 一种视频图像处理方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2012/085258 WO2014079058A1 (zh) 2012-11-26 2012-11-26 一种视频图像处理方法及系统

Publications (1)

Publication Number Publication Date
WO2014079058A1 true WO2014079058A1 (zh) 2014-05-30

Family

ID=50775424

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2012/085258 WO2014079058A1 (zh) 2012-11-26 2012-11-26 一种视频图像处理方法及系统

Country Status (4)

Country Link
EP (1) EP2813973B1 (zh)
CN (1) CN104662560B (zh)
ES (1) ES2569386T3 (zh)
WO (1) WO2014079058A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020062279A1 (en) * 2018-09-30 2020-04-02 Zte Corporation Method of imaging object
US10643076B2 (en) 2016-07-01 2020-05-05 International Business Machines Corporation Counterfeit detection
CN111429338A (zh) * 2020-03-18 2020-07-17 百度在线网络技术(北京)有限公司 用于处理视频的方法、装置、设备和计算机可读存储介质
WO2021160184A1 (en) * 2020-02-14 2021-08-19 Huawei Technologies Co., Ltd. Target detection method, training method, electronic device, and computer-readable medium
CN114511504A (zh) * 2022-01-04 2022-05-17 电子科技大学 一种视频sar动目标阴影检测方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6597588B2 (ja) * 2016-12-20 2019-10-30 トヨタ自動車株式会社 画像表示装置
CN111277745B (zh) * 2018-12-04 2023-12-05 北京奇虎科技有限公司 目标人员的追踪方法、装置、电子设备及可读存储介质
CN116688494B (zh) * 2023-08-04 2023-10-20 荣耀终端有限公司 生成游戏预测帧的方法和电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101231694A (zh) * 2008-02-21 2008-07-30 南京中兴特种软件有限责任公司 基于多个高斯分布的运动目标分割方法
CN101888479A (zh) * 2009-05-14 2010-11-17 汉王科技股份有限公司 检测和跟踪目标图像的方法及装置
CN102521842A (zh) * 2011-11-28 2012-06-27 杭州海康威视数字技术股份有限公司 一种实现快速移动检测的方法和装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009038364A1 (de) * 2009-08-23 2011-02-24 Friedrich-Alexander-Universität Erlangen-Nürnberg Verfahren und System zur automatischen Objekterkennung und anschließenden Objektverfolgung nach Maßgabe der Objektform

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101231694A (zh) * 2008-02-21 2008-07-30 南京中兴特种软件有限责任公司 基于多个高斯分布的运动目标分割方法
CN101888479A (zh) * 2009-05-14 2010-11-17 汉王科技股份有限公司 检测和跟踪目标图像的方法及装置
CN102521842A (zh) * 2011-11-28 2012-06-27 杭州海康威视数字技术股份有限公司 一种实现快速移动检测的方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WANG, KUN ET AL.: "Detection and tracking algorithm for head of UAV Based on local contour features", OPTICAL TECHNIQUE, vol. 37, no. 2, 31 March 2011 (2011-03-31), pages 178 - 181, XP008171286 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10643076B2 (en) 2016-07-01 2020-05-05 International Business Machines Corporation Counterfeit detection
WO2020062279A1 (en) * 2018-09-30 2020-04-02 Zte Corporation Method of imaging object
WO2021160184A1 (en) * 2020-02-14 2021-08-19 Huawei Technologies Co., Ltd. Target detection method, training method, electronic device, and computer-readable medium
US11132780B2 (en) 2020-02-14 2021-09-28 Huawei Technologies Co., Ltd. Target detection method, training method, electronic device, and computer-readable medium
CN111429338A (zh) * 2020-03-18 2020-07-17 百度在线网络技术(北京)有限公司 用于处理视频的方法、装置、设备和计算机可读存储介质
CN111429338B (zh) * 2020-03-18 2023-08-01 百度在线网络技术(北京)有限公司 用于处理视频的方法、装置、设备和计算机可读存储介质
CN114511504A (zh) * 2022-01-04 2022-05-17 电子科技大学 一种视频sar动目标阴影检测方法
CN114511504B (zh) * 2022-01-04 2023-11-10 电子科技大学 一种视频sar动目标阴影检测方法

Also Published As

Publication number Publication date
ES2569386T3 (es) 2016-05-10
EP2813973B1 (en) 2016-02-03
CN104662560B (zh) 2017-12-22
EP2813973A4 (en) 2014-12-17
EP2813973A1 (en) 2014-12-17
CN104662560A (zh) 2015-05-27

Similar Documents

Publication Publication Date Title
WO2014079058A1 (zh) 一种视频图像处理方法及系统
Greenhalgh et al. Recognizing text-based traffic signs
Kuo et al. Vision-based vehicle detection for a driver assistance system
Yuan et al. Robust lane detection for complicated road environment based on normal map
JP4822766B2 (ja) 路面標示認識装置及びシステム
CN104036262B (zh) 一种lpr车牌筛选识别的方法和系统
Alonso et al. Robust vehicle detection through multidimensional classification for on board video based systems
CN107886034B (zh) 行车提醒方法、装置及车辆
JP6226368B2 (ja) 車両監視装置、および車両監視方法
JP2008242571A (ja) 物体検出装置
CN112149511A (zh) 基于神经网络的驾驶员违规行为检测方法、终端、装置
CN102902957A (zh) 一种基于视频流的自动车牌识别方法
WO2018215861A1 (en) System and method for pedestrian detection
CN103577832B (zh) 一种基于时空上下文的人流量统计方法
Deng et al. Detection and recognition of traffic planar objects using colorized laser scan and perspective distortion rectification
CN111832388B (zh) 一种车辆行驶中交通标志检测与识别方法及系统
Chen et al. Real-time vision-based multiple vehicle detection and tracking for nighttime traffic surveillance
Chen et al. Embedded on-road nighttime vehicle detection and tracking system for driver assistance
Sharma et al. Automatic vehicle detection using spatial time frame and object based classification
Lim et al. Vision-based recognition of road regulation for intelligent vehicle
CN103996028A (zh) 一种车辆行为识别方法
WO2018110377A1 (ja) 映像監視装置
JP4849262B2 (ja) ナンバープレート抽出システム、ナンバープレート抽出装置、ナンバープレート抽出方法及びプログラム
CN104077566B (zh) 基于颜色差分的卡口图片人脸检测方法
Ma et al. Pedestrian detection using a single-monochrome camera

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2012876081

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12876081

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE