KR20180082739A - Moving Object Detection Method and System with Single Camera - Google Patents

Moving Object Detection Method and System with Single Camera Download PDF

Info

Publication number
KR20180082739A
KR20180082739A KR1020170003980A KR20170003980A KR20180082739A KR 20180082739 A KR20180082739 A KR 20180082739A KR 1020170003980 A KR1020170003980 A KR 1020170003980A KR 20170003980 A KR20170003980 A KR 20170003980A KR 20180082739 A KR20180082739 A KR 20180082739A
Authority
KR
South Korea
Prior art keywords
divided
image
regions
region
divided regions
Prior art date
Application number
KR1020170003980A
Other languages
Korean (ko)
Other versions
KR102336284B1 (en
Inventor
김정호
최병호
황영배
장성준
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020170003980A priority Critical patent/KR102336284B1/en
Priority to PCT/KR2017/000359 priority patent/WO2018131729A1/en
Publication of KR20180082739A publication Critical patent/KR20180082739A/en
Application granted granted Critical
Publication of KR102336284B1 publication Critical patent/KR102336284B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N5/225

Abstract

Provided are a method and a system for detecting a moving object in an image using a single camera. According to an embodiment of the present invention, a method for detecting an object generates an optical flow image from an input image sequence, extracts division regions from the optical flow image, and generates a movement region from the extracted division regions. Therefore, object detection performance can be improved, and the present invention can be applied to a situation recognition technique such as an intelligence unmanned vehicle.

Description

단일 카메라를 이용한 영상에서 움직이는 객체 검출 방법 및 시스템{Moving Object Detection Method and System with Single Camera}[0001] Moving Object Detection Method and System with Single Camera [

본 발명은 객체 검출 방법에 관한 것으로, 더욱 상세하게는 단일 카메라로 획득한 영상 시퀀스로부터 움직이는 물체를 결정하고 검출하는 방법 및 시스템에 관한 것이다.The present invention relates to an object detection method, and more particularly, to a method and system for determining and detecting a moving object from an image sequence acquired by a single camera.

움직이는 객체를 검출하기 위해, 스테레오 카메라를 사용하거나 단일 카메라를 이용할 수 있으며, 카메라의 움직임을 계산하고 이로부터 검출을 수행하게 된다.To detect moving objects, you can use a stereo camera or a single camera, calculate the motion of the camera and perform detection from it.

가격 경쟁력을 확보하기 위해서는, 단일 카메라 기반의 방법을 이용하는데, 카메라의 움직임을 추정하는 기술은 움직이는 객체가 많이 존재할 경우 정확도가 저하되는 문제가 있다.In order to secure price competitiveness, a single camera-based method is used. However, there are problems in that the accuracy of the camera motion estimation technique deteriorates when there are many moving objects.

이에, 단일 카메라를 이용하는 경우, 카메라의 움직임 추정 없이 움직이는 객체를 검출 방안의 모색이 요청된다.Therefore, when a single camera is used, it is required to search for a moving object detection method without motion estimation of a camera.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 단일 카메라 기반으로 움직이는 객체를 검출함에 있어, 정확도를 향상시킬 수 있는 객체 검출 방법 및 시스템을 제공함에 있다.It is an object of the present invention to provide an object detection method and system capable of improving accuracy in detecting an object moving on the basis of a single camera.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 객체 검출 방법은, 입력 영상 시퀀스로부터 광류(Optical Flow) 영상을 생성하는 단계; 광류 영상에서 분할 영역들을 추출하는 단계; 및 추출한 분할 영역들로부터 움직임 영역을 생성하는 단계;를 포함한다.According to an aspect of the present invention, there is provided an object detection method including: generating an optical flow image from an input image sequence; Extracting divided regions from an optical image; And generating a moving region from the extracted divided regions.

움직임 영역 생성단계는, 분할 영역과 이웃하는 분할 영역의 색상 비교를 통해, 분할 영역들을 통합 또는 유지하여, 움직임 영역을 생성할 수 있다.The moving area creating step may create the moving area by integrating or maintaining the divided areas through color comparison between the divided area and neighboring divided areas.

움직임 영역 생성단계는, 분할 영역들 간의 색상 차이 값과 경계선에서의 차이 값을 비교하여, 분할 영역들을 통합 또는 유지할 수 있다.The motion area generation step may integrate or maintain the divided areas by comparing the color difference value between the divided areas with the difference value at the boundary line.

움직임 영역 생성단계는, 분할 영역의 크기가 작을수록 통합될 가능성을 높게 적용하고, 분할 영역의 크기가 클수록 통합될 가능성을 낮게 적용할 수 있다.In the motion region generation step, the smaller the size of the divided region is, the higher the possibility of integration is, and the larger the size of the divided region is, the lower the possibility of being integrated.

움직임 영역 생성단계는, 광류 영상에서 분할 영역의 크기와 위치를 기초로, 분할 영역을 유지 또는 제거하여, 움직임 영역을 생성할 수 있다.The moving area generating step may generate or delete the moving area by maintaining or removing the divided area based on the size and position of the divided area in the optical image.

분할 영역의 크기는, 분할 영역의 높이이고, 분할 영역의 위치는, 분할 영역의 최하단의 y 좌표일 수 있다.The size of the divided area is the height of the divided area, and the position of the divided area may be the y coordinate of the lowermost end of the divided area.

입력 영상 시퀀스는, 단일 카메라를 이용하여 생성할 수 있다.The input video sequence can be generated using a single camera.

한편, 본 발명의 다른 실시예에 따른, 객체 검출 시스템은, 입력 영상 시퀀스를 생성하는 카메라; 및 카메라에서 생성된 입력 영상 시퀀스로부터 광류(Optical Flow) 영상을 생성하며, 광류 영상에서 분할 영역들을 추출하고, 추출한 분할 영역들로부터 움직임 영역을 생성하는 프로세서;를 포함한다.According to another aspect of the present invention, there is provided an object detection system including: a camera for generating an input image sequence; And a processor for generating an optical flow image from the input image sequence generated by the camera, extracting the divided regions from the optical image, and generating a moving region from the extracted divided regions.

이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 단일 카메라를 이용하여 광류(Optical Flow) 영상, 영상 분할 기법 및 움직이는 객체의 대략적인 크기를 이용한 객체 검출을 통해, 객체 검출 성능을 향상시킬 수 있게 된다.As described above, according to embodiments of the present invention, it is possible to improve the object detection performance by using an optical flow image, an image segmentation technique, and an object detection using an approximate size of a moving object using a single camera .

또한, 본 발명의 실시예들은 지능형 무인 자동차에 적용 가능하며, 이와 같은 상황을 인지할 수 있는 기술에 적용 가능하다.Further, the embodiments of the present invention are applicable to an intelligent unmanned vehicle, and applicable to a technique capable of recognizing such a situation.

도 1은 본 발명의 일 실시예에 따른 객체 검출 방법의 설명에 제공되는 흐름도,
도 2는 입력 영상을 예시한 도면,
도 3은, 도 2에 대한 광류 영상을 예시한 도면,
도 4는 광류 영상에서 분할 영역들을 추출한 결과를 예시한 도면,
도 5 내지 도 8은, 움직임 영역들에 대한 후처리 과정의 부연 설명에 제공되는 도면들,
도 9 내지 도 12는, 본 발명의 실시예에 따른 방법으로 단일 카메라 영상으로부터 움직이는 객체를 검출한 결과들을 예시한 도면들, 그리고,
도 13은 본 발명의 다른 실시예에 따른 객체 검출 시스템의 블럭도이다.
FIG. 1 is a flowchart provided in the description of an object detection method according to an embodiment of the present invention;
2 is a diagram illustrating an input image,
FIG. 3 is a diagram illustrating an optical stream image of FIG. 2,
4 is a diagram illustrating a result of extracting divided regions in an optical image,
5 to 8 are diagrams provided in a supplementary description of a post-processing process for motion regions,
FIGS. 9 to 12 illustrate the results of detecting moving objects from a single camera image in a method according to an embodiment of the present invention,
13 is a block diagram of an object detection system according to another embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 객체 검출 방법의 설명에 제공되는 흐름도이다. 본 발명의 실시예에 따른 객체 검출 방법은, 단일 카메라를 이용하여 생성한 영상 시퀀스에서 움직이는 객체를 정확하게 검출한다.1 is a flow chart provided in the description of an object detection method according to an embodiment of the present invention. The object detection method according to an embodiment of the present invention accurately detects a moving object in an image sequence generated using a single camera.

이를 위해, 본 발명의 실시예에 따른 객체 검출 방법은, 단일 카메라로 획득한 영상 시퀀스를 이용하여 픽셀들의 이동량을 광류(Optical Flow)로 계산하고, Flow의 크기와 방향을 통해서 영상을 분할하여 움직이는 객체를 검출하며, 움직이는 객체의 대략적인 크기를 통해 객체 검출의 성능을 향상시킨다.To this end, an object detection method according to an embodiment of the present invention calculates an amount of movement of pixels using an image sequence obtained by a single camera, calculates an optical flow, divides the image through the size and direction of the flow, Detects the object, and improves the performance of object detection through the approximate size of the moving object.

구체적으로, 본 발명의 실시예에 따른 객체 검출 방법은, 도 1에 도시된 바와 같이, 단일 카메라를 이용하여 생성한 영상 시퀀스에서 입력 영상(현재 영상)과 이전 영상을 비교하여, 광류(Optical Flow) 영상을 생성한다(S110).Specifically, an object detection method according to an exemplary embodiment of the present invention includes comparing an input image (current image) with a previous image in an image sequence generated using a single camera, as shown in FIG. 1, ) Image (S110).

S110단계에서 생성된 광류 영상에는, 모든 픽셀의 이동방향과 이동량에 대한 정보가 색상으로 나타난다. 도 2에는 입력 영상을 예시하였고, 도 3에는 도 2에 대한 광류 영상을 예시하였다.In the optical image generated in step S110, information on the movement direction and the movement amount of all the pixels appears in color. FIG. 2 illustrates an input image, and FIG. 3 illustrates an optical image of FIG.

다음, S110단계에서 생성된 광류 영상에서 움직임이 발생한 것으로 판단되는 동일 색상들을 갖는 인접한 픽셀들을 구분하여 분할 영역들을 추출한다(S120). 도 4에는 광류 영상에서 분할 영역들을 추출한 결과를 예시하였다.Next, in step S120, the neighboring pixels having the same hue that are determined to have motion in the optical image generated in step S110 are separated to extract the divided areas. FIG. 4 illustrates a result of extracting divided regions from an optical image.

이후, S120단계에서 얻어진 분할 영역들로부터 움직임 영역들을 생성한다(S130). S130단계에서의 움직임 영역 생성은, S120단계에서 얻어진 분할 영역들을 합쳐 그룹핑하거나 일부를 제거/배제하는 과정을 통해 이루어진다.Thereafter, motion regions are created from the divided regions obtained in step S120 (S130). The movement area generation in step S130 is performed by grouping the divided areas obtained in step S120 or eliminating / excluding part of the divided areas.

움직임 영역의 생성에는 효과적인 그래프 기반의 영상 분할 기술이 이용된다. 구체적으로, 각 분할 영역을 그래프에서 노드(node)로 구성하고, 이웃하는 분할 영역들을 에지(edge)로 연결하여 색상의 비교를 통해서 두 분할 영역을 통합할지 아니면 분리된 분할 영역들로 남겨둘지를 결정한다.A graph-based image segmentation technique is used to generate motion regions. Specifically, each divided region is configured as a node in the graph, and neighboring divided regions are connected to each other by an edge, thereby allowing integration of the two divided regions or leaving them as separate divided regions by color comparison .

이를 위해서 먼저 분할 영역 내에서 최대 색상 값을 아래의 수학식 1로 계산한다.For this purpose, the maximum color value in the divided area is calculated by the following equation (1).

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

그리고 이웃하는 두 분할 영역 사이의 경계선에서 최소 색상 차이 값을 아래의 수학식 2로 계산한다.And the minimum color difference value at the boundary line between two neighboring divided regions is calculated by the following equation (2).

[수학식 2]&Quot; (2) "

Figure pat00002
Figure pat00002

그리고 아래의 수학식 3에 따라, 두 분할 영역 내부의 최대 색상 값 간의 차이 값인 최대 색상 차이 값이 경계선에서의 최소 색상 차이 값 보다 작으면 두 분할 영역은 분할된 상태로 그대로 유지하고, 그와 반대일 경우 두 분할 영역을 합쳐서 하나의 분할 영역으로 그룹핑 한다.According to Equation (3), if the maximum color difference value, which is the difference between the maximum color values in the two divided regions, is smaller than the minimum color difference value at the boundary, the two divided regions are maintained in a divided state, The two divided regions are grouped into one divided region.

[수학식 3]&Quot; (3) "

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

Figure pat00005
Figure pat00005

여기서, k는 상수값을 나타내며, τ는 분할 영역에 소속된 픽셀의 개수를 나타낸다.Here, k represents a constant value, and t represents the number of pixels belonging to the divided area.

이에 따라, 분할 영역의 크기가 작을수록 값이 커서 분할 영역이 합쳐질 확률은 높아지게 된다. 반면, 분할 영역의 크기가 클수록 분할 영역이 합쳐질 확률이 낮아지게 된다.Accordingly, the smaller the size of the divided area, the higher the probability that the values are large and the divided areas are combined. On the other hand, the larger the size of the divided area, the lower the probability that the divided areas will be combined.

다음, 움직임 영역들에 대한 후처리 과정으로써, 움직임 영역들의 크기가 실제 움직이는 객체들의 크기에 상응하는지 추론하여 실제 움직이는 객체가 아니라고 판단되는 움직임 영역들을 제거한다.Next, as a post-processing process for the motion regions, motion regions determined to be not the actual moving objects are removed by deducing whether the size of the motion regions corresponds to the size of the actual moving objects.

이를 위해 먼저 검출하고자 하는 실제 움직이는 객체의 크기 범위를 정의/설정하여야 한다. 이를 테면, 1m로부터 3m까지의 높이값을 가지는 객체를 검출하기 위해, 도 5에 도시된 바와 같이 해당 높이의 가상 물체를 영상에 투영하여 영상에서의 객체 높이 h와 최하단의 y 좌표를 계산하여, 상관관계를 모델링한다.To do this, the size range of the actual moving object to be detected must be defined / set. For example, in order to detect an object having a height value from 1 m to 3 m, a virtual object of a corresponding height is projected onto an image to calculate an object height h and an y-coordinate at the bottom of the image, Model the correlation.

y 좌표와 h 간의 상관관계는 아래의 수학식 4에 제시된 선형적인 관계식으로부터 계산한다. 이때 실제 높이 1m에서 3m까지 약 10cm를 간격으로 영상으로 투영하여(도 6 참조) 선형 함수를 계산할 수 있으며, 아래와 같이 행렬 A를 계산하고 SVD(Singular Value Decomposition)으로부터 eigenvector와 eigenvalue값 들을 계산하고, eigenvalue의 크기가 가장 큰 eigenvector가 구하고자 하는 선형식의 파라미터 a와 b가 된다.The correlation between the y coordinate and h is calculated from the linear relationship shown in Equation (4) below. In this case, the linear function can be calculated by projecting an image with an interval of about 10 cm from the actual height 1m to 3m (see FIG. 6). The matrix A is computed as follows and eigenvector and eigenvalue values are calculated from SVD (Singular Value Decomposition) The eigenvector of the largest eigenvalue is the line type parameters a and b to be sought.

[수학식 4]&Quot; (4) "

Figure pat00006
Figure pat00006

이에 따르면 도 7에 도시된 바와 같이 y 좌표에 해당하는 hmin과 hmax를 계산할 수 있고, 분할 영역의 높이 값인 h가 이 범위에 포함되는지 확인하여, 만약 높이 h가 이 범위 내에 존재하지 않을 경우 분할 영역은 실제 움직이는 객체가 아닌 것으로 판단하여 제거한다.According to this, as shown in FIG. 7, h min and h max corresponding to the y coordinate can be calculated, and it is confirmed whether the height h of the divided area is included in the range. If the height h does not exist within this range The partition is judged to be a non-moving object and removed.

이와 같은 방법에 따라 도 4에 제시된 움직임 영역들 중 실제 움직이는 객체에 해당하지 않는 영역들을 제거한 결과를 도 8에 제시하였다.FIG. 8 shows a result obtained by removing regions not corresponding to an actual moving object among the motion regions shown in FIG. 4 according to the above-described method.

지금까지, 단일 카메라로 획득한 영상에 대해 광류 영상을 생성하여 움직이는 객체를 검출하고, 실제 움직이는 객체의 크기 검증을 통해 객체 검출의 성능을 향상시키는 방법에 대해, 바람직한 실시예를 들어 상세히 설명하였다.Up to now, a preferred embodiment has been described in detail with respect to a method of generating an optical image for an image acquired by a single camera to detect a moving object and improving the performance of object detection by verifying the size of an actual moving object.

도 9 내지 도 12에는 본 발명의 실시예에 따른 방법으로 단일 카메라 영상으로부터 움직이는 객체를 검출한 결과들을 예시하였다. 단일 카메라의 한계점인 거리정보 없이 움직임을 추정해야 하는 한계를 극복하고 강인하게 움직이는 물체를 검출할 수 있음을 확인할 수 있다.9 to 12 illustrate the results of detecting moving objects from a single camera image in a method according to an embodiment of the present invention. It can be confirmed that robustly moving objects can be detected by overcoming the limitation of estimating motion without distance information which is a limitation point of a single camera.

도 13은 본 발명의 다른 실시예에 따른 객체 검출 시스템의 블럭도이다. 본 발명의 실시예에 따른 객체 검출 시스템은, 도 13에 도시된 바와 같이, 카메라(110), 영상 프로세서(120) 및 출력부(130)를 포함한다.13 is a block diagram of an object detection system according to another embodiment of the present invention. An object detection system according to an embodiment of the present invention includes a camera 110, an image processor 120, and an output unit 130, as shown in FIG.

카메라(110)는 단일 카메라 시스템으로 영상 시퀀스를 생성하고, 영상 프로세서(120)는 도 1에 제시된 알고리즘을 통해 단일 카메라 영상으로부터 움직이는 객체를 검출한다.The camera 110 generates an image sequence with a single camera system, and the image processor 120 detects an object moving from a single camera image through the algorithm shown in Fig.

출력부(130)는 움직이는 객체의 검출 결과 출력/저장하는 다양한 수단, 이를 테면, 디스플레이, 인터페이스, 메모리 등이다.The output unit 130 may include various means for outputting / storing the detection result of the moving object, such as a display, an interface, a memory, and the like.

한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.It goes without saying that the technical idea of the present invention can also be applied to a computer-readable recording medium having a computer program for performing the functions of the apparatus and method according to the present embodiment. In addition, the technical idea according to various embodiments of the present invention may be embodied in computer-readable code form recorded on a computer-readable recording medium. The computer-readable recording medium is any data storage device that can be read by a computer and can store data. For example, the computer-readable recording medium may be a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical disk, a hard disk drive, or the like. In addition, the computer readable code or program stored in the computer readable recording medium may be transmitted through a network connected between the computers.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

110 : 카메라
120 : 영상 프로세서
130 : 출력부
110: camera
120: image processor
130:

Claims (8)

입력 영상 시퀀스로부터 광류(Optical Flow) 영상을 생성하는 단계;
광류 영상에서 분할 영역들을 추출하는 단계; 및
추출한 분할 영역들로부터 움직임 영역을 생성하는 단계;를 포함하는 것을 특징으로 하는 객체 검출 방법.
Generating an optical flow image from an input image sequence;
Extracting divided regions from an optical image; And
And generating a moving region from the extracted divided regions.
청구항 1에 있어서,
움직임 영역 생성단계는,
분할 영역과 이웃하는 분할 영역의 색상 비교를 통해, 분할 영역들을 통합 또는 유지하여, 움직임 영역을 생성하는 것을 특징으로 하는 객체 검출 방법.
The method according to claim 1,
In the movement area generation step,
Wherein the moving region is generated by integrating or maintaining the divided regions through color comparison between the divided region and neighboring divided regions.
청구항 2에 있어서,
움직임 영역 생성단계는,
분할 영역들 간의 색상 차이 값과 경계선에서의 차이 값을 비교하여, 분할 영역들을 통합 또는 유지하는 것을 특징으로 하는 객체 검출 방법.
The method of claim 2,
In the movement area generation step,
Comparing the color difference value between the divided regions with the difference value at the boundary, and integrating or maintaining the divided regions.
청구항 3에 있어서,
움직임 영역 생성단계는,
분할 영역의 크기가 작을수록 통합될 가능성을 높게 적용하고, 분할 영역의 크기가 클수록 통합될 가능성을 낮게 적용하는 것을 특징으로 하는 객체 검출 방법.
The method of claim 3,
In the movement area generation step,
Wherein the possibility of integration is increased as the size of the divided region is smaller and the possibility of integration as the size of the divided region is increased is applied.
청구항 1에 있어서,
움직임 영역 생성단계는,
광류 영상에서 분할 영역의 크기와 위치를 기초로, 분할 영역을 유지 또는 제거하여, 움직임 영역을 생성하는 것을 특징으로 하는 객체 검출 방법.
The method according to claim 1,
In the movement area generation step,
Wherein the moving region is generated by maintaining or removing the divided region based on the size and position of the divided region in the optical image.
청구항 5에 있어서,
분할 영역의 크기는, 분할 영역의 높이이고,
분할 영역의 위치는, 분할 영역의 최하단의 y 좌표인 것을 특징으로 하는 객체 검출 방법.
The method of claim 5,
The size of the divided area is the height of the divided area,
And the position of the divided area is the y coordinate of the lowermost end of the divided area.
청구항 1에 있어서,
입력 영상 시퀀스는,
단일 카메라를 이용하여 생성하는 것을 특징으로 하는 객체 검출 방법.
The method according to claim 1,
The input video sequence,
Wherein the object is generated using a single camera.
입력 영상 시퀀스를 생성하는 카메라;
카메라에서 생성된 입력 영상 시퀀스로부터 광류(Optical Flow) 영상을 생성하며, 광류 영상에서 분할 영역들을 추출하고, 추출한 분할 영역들로부터 움직임 영역을 생성하는 프로세서;를 포함하는 것을 특징으로 하는 객체 검출 시스템.
A camera for generating an input video sequence;
And a processor for generating an optical flow image from the input image sequence generated by the camera, extracting the divided regions from the optical image, and generating a moving region from the extracted divided regions.
KR1020170003980A 2017-01-11 2017-01-11 Moving Object Detection Method and System with Single Camera KR102336284B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170003980A KR102336284B1 (en) 2017-01-11 2017-01-11 Moving Object Detection Method and System with Single Camera
PCT/KR2017/000359 WO2018131729A1 (en) 2017-01-11 2017-01-11 Method and system for detection of moving object in image using single camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170003980A KR102336284B1 (en) 2017-01-11 2017-01-11 Moving Object Detection Method and System with Single Camera

Publications (2)

Publication Number Publication Date
KR20180082739A true KR20180082739A (en) 2018-07-19
KR102336284B1 KR102336284B1 (en) 2021-12-08

Family

ID=62840539

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170003980A KR102336284B1 (en) 2017-01-11 2017-01-11 Moving Object Detection Method and System with Single Camera

Country Status (2)

Country Link
KR (1) KR102336284B1 (en)
WO (1) WO2018131729A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110007107A (en) * 2019-04-02 2019-07-12 上海交通大学 A kind of light stream sensor of integrated different focal length camera
WO2020242179A1 (en) * 2019-05-29 2020-12-03 (주) 애니펜 Method, system and non-transitory computer-readable recording medium for providing content

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004088599A (en) * 2002-08-28 2004-03-18 Toshiba Corp Image monitoring apparatus and method therefor
JP2008226261A (en) * 2008-04-07 2008-09-25 Toshiba Corp Object detection method
KR20110118376A (en) * 2010-04-23 2011-10-31 동명대학교산학협력단 Crime preventing car detection system using optical flow
KR101141936B1 (en) * 2010-10-29 2012-05-07 동명대학교산학협력단 Method of tracking the region of a hand based on the optical flow field and recognizing gesture by the tracking method
KR20130075636A (en) * 2011-12-27 2013-07-05 중앙대학교 산학협력단 Apparatus and method for automatic object segmentation for background composition

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2601782A4 (en) * 2010-08-02 2016-09-28 Univ Beijing Representative motion flow extraction for effective video classification and retrieval
KR102234376B1 (en) * 2014-01-28 2021-03-31 엘지이노텍 주식회사 Camera system, calibration device and calibration method
KR20150113751A (en) * 2014-03-31 2015-10-08 (주)트라이큐빅스 Method and apparatus for acquiring three-dimensional face model using portable camera

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004088599A (en) * 2002-08-28 2004-03-18 Toshiba Corp Image monitoring apparatus and method therefor
JP2008226261A (en) * 2008-04-07 2008-09-25 Toshiba Corp Object detection method
KR20110118376A (en) * 2010-04-23 2011-10-31 동명대학교산학협력단 Crime preventing car detection system using optical flow
KR101141936B1 (en) * 2010-10-29 2012-05-07 동명대학교산학협력단 Method of tracking the region of a hand based on the optical flow field and recognizing gesture by the tracking method
KR20130075636A (en) * 2011-12-27 2013-07-05 중앙대학교 산학협력단 Apparatus and method for automatic object segmentation for background composition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110007107A (en) * 2019-04-02 2019-07-12 上海交通大学 A kind of light stream sensor of integrated different focal length camera
WO2020242179A1 (en) * 2019-05-29 2020-12-03 (주) 애니펜 Method, system and non-transitory computer-readable recording medium for providing content

Also Published As

Publication number Publication date
WO2018131729A1 (en) 2018-07-19
KR102336284B1 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
JP6972757B2 (en) Control programs, control methods, and information processing equipment
JP6972756B2 (en) Control programs, control methods, and information processing equipment
CN111693972B (en) Vehicle position and speed estimation method based on binocular sequence images
US9626766B2 (en) Depth sensing using an RGB camera
JP5554984B2 (en) Pattern recognition method and pattern recognition apparatus
US9142011B2 (en) Shadow detection method and device
US9672634B2 (en) System and a method for tracking objects
US9165211B2 (en) Image processing apparatus and method
KR102455632B1 (en) Mehtod and apparatus for stereo matching
US9443137B2 (en) Apparatus and method for detecting body parts
KR100953076B1 (en) Multi-view matching method and device using foreground/background separation
KR20150046718A (en) Apparatus and method of face tracking
KR101868903B1 (en) Apparatus and method for tracking human hand by using color features
KR20130121202A (en) Method and apparatus for tracking object in image data, and storage medium storing the same
KR20110074107A (en) Method for detecting object using camera
CN111382637A (en) Pedestrian detection tracking method, device, terminal equipment and medium
US20140233848A1 (en) Apparatus and method for recognizing object using depth image
KR20110021500A (en) Method for real-time moving object tracking and distance measurement and apparatus thereof
KR101282742B1 (en) Apparatus and method for detecting object using 3d image
KR20180082739A (en) Moving Object Detection Method and System with Single Camera
KR101656618B1 (en) Method and Device for Providing Augmented Reality to Physical Object
JP2015011526A (en) Action recognition system, method, and program, and recognizer construction system
KR101506812B1 (en) Head pose estimation method using random forests and binary pattern run length matrix
JP4559375B2 (en) Object position tracking method, apparatus, and program
KR101350387B1 (en) Method for detecting hand using depth information and apparatus thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right