KR100631082B1 - Method for acquiring three-dimensional image information using single camera and video traffic monitoring method using the same - Google Patents

Method for acquiring three-dimensional image information using single camera and video traffic monitoring method using the same Download PDF

Info

Publication number
KR100631082B1
KR100631082B1 KR1020040083641A KR20040083641A KR100631082B1 KR 100631082 B1 KR100631082 B1 KR 100631082B1 KR 1020040083641 A KR1020040083641 A KR 1020040083641A KR 20040083641 A KR20040083641 A KR 20040083641A KR 100631082 B1 KR100631082 B1 KR 100631082B1
Authority
KR
South Korea
Prior art keywords
image
moving object
camera
moving
information
Prior art date
Application number
KR1020040083641A
Other languages
Korean (ko)
Other versions
KR20060034497A (en
Inventor
한승준
Original Assignee
주식회사 세인시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 세인시스템 filed Critical 주식회사 세인시스템
Priority to KR1020040083641A priority Critical patent/KR100631082B1/en
Publication of KR20060034497A publication Critical patent/KR20060034497A/en
Application granted granted Critical
Publication of KR100631082B1 publication Critical patent/KR100631082B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

하나의 카메라만을 사용하여 획득한 2차원 영상으로부터 3차원 정보를 획득하는 방법 및 이 방법을 이용하여 교통량 등의 교통정보를 획득하기 위한 방법이 제공된다. 본 발명에서는, 하나의 카메라로 촬영한 연속되는 프레임의 영상에서 이동체를 추출하여, 연속되는 두 프레임의 영상 사이에서 상기 이동체가 이동한 거리를 계산한다. 그리고, 연속되는 두 프레임의 영상에서 첫번째 영상을 제1카메라에서 촬영한 영상으로 가정하고, 두번째 영상을 이동체가 움직인 거리에 해당하는 만큼 제1카메라로부터 이동체의 이동방향과 반대방향으로 이격되어 있는 가상의 제2카메라에서 첫번째 영상과 동시에 촬영한 영상으로 가정하여, 이 두 영상을 사용하여 이동체의 삼차원 정보를 추출한다. 그리고, 이 3차원 정보를 사용하여 위에서 계산한 이동체의 이동한 거리를 보정하고, 보정된 거리로부터 이동체의 이동속도를 계산함으로써 보다 정확한 교통량 및 주행속도를 계산할 수 있다.Provided are a method for acquiring three-dimensional information from a two-dimensional image obtained using only one camera, and a method for acquiring traffic information such as traffic volume using the method. In the present invention, a moving object is extracted from an image of consecutive frames photographed by one camera, and the distance the moving object is moved between the images of two consecutive frames is calculated. In addition, assuming that the first image is taken by the first camera in two consecutive frames of images, the second image is spaced apart from the first camera in a direction opposite to the moving direction of the moving object by the distance corresponding to the moving distance of the moving object. Assuming that the image is taken at the same time as the first image by the virtual second camera, three-dimensional information of the moving object is extracted using these two images. The three-dimensional information is used to correct the traveled distance of the moving body calculated above, and the moving speed of the moving body can be calculated from the corrected distance to calculate more accurate traffic volume and traveling speed.

영상검지, 교통량, 주행속도, 차량, 이동체, 카메라, 3차원, 높이Image detection, traffic volume, speed, vehicle, moving object, camera, 3d, height

Description

단일 카메라를 사용한 3차원 영상정보 획득방법 및 이를 이용한 영상검지방법 {Method for acquiring three-dimensional image information using single camera and video traffic monitoring method using the same}Method for acquiring three-dimensional image information using single camera and video traffic monitoring method using the same}

도 1a는 일반적인 영상검지시스템에서 카메라가 설치된 모습을 보여주는 도면이고, 도 1b는 영상검지시스템에서 촬영된 영상의 예이며, 도 1c는 2차원 영상에 의한 속도측정의 문제점을 설명하기 위한 도면이다.FIG. 1A is a view showing a camera installed in a general image detection system, FIG. 1B is an example of an image captured by an image detection system, and FIG. 1C is a view for explaining a problem of speed measurement using a 2D image.

도 2는 일반적인 영상검지시스템의 구성을 보여주는 블록도이다.2 is a block diagram showing the configuration of a general image detection system.

도 3은 본 발명의 방법에 따른 영상검지방법을 보여주는 흐름도이다.3 is a flowchart showing an image detection method according to the method of the present invention.

도 4는 촬영된 영상의 예이다.4 is an example of a captured image.

도 5는 도 4의 영상에서 추출된 특징점을 보여주는 도면이다.5 is a diagram illustrating feature points extracted from the image of FIG. 4.

도 6은 본 발명의 3차원 영상정보 획득 방법의 원리를 설명하기 위한 도면이다.6 is a view for explaining the principle of the three-dimensional image information acquisition method of the present invention.

본 발명은 단일 카메라를 사용한 3차원 영상정보 획득방법 및 이를 이용한 영상검지방법에 관한 것으로서, 특히 하나의 카메라만을 사용하여 획득한 2차원 영 상으로부터 3차원 정보를 획득하는 방법 및 이 방법을 이용하여 교통량 등의 교통정보를 획득하기 위한 방법에 관한 것이다.The present invention relates to a three-dimensional image information acquisition method using a single camera and an image detection method using the same, in particular, a method for acquiring three-dimensional information from a two-dimensional image obtained using only one camera and using this method It relates to a method for obtaining traffic information such as traffic volume.

도로상의 교통량을 판단하기 위하여 도 1a에 보인 것처럼 비디오 카메라(10)를 도로변의 높은 위치에 설치하여, 도 1b와 같은 도로의 영상을 촬영하고 각 차량의 속도를 측정하는 영상검지장치가 알려져 있다. In order to determine the amount of traffic on the road, as shown in FIG. 1A, a video camera 10 is installed at a high position on the road side, and an image detection device for capturing an image of the road as shown in FIG. 1B and measuring the speed of each vehicle is known.

도 2에 이러한 영상검지장치의 구성예가 도시되어 있다. 일반적으로 영상검지장치는, 도로변의 높은 위치에 설치된 카메라(10)를 사용하여 획득한 영상을 A/D 변환기(20)를 사용하여 디지털 데이터로 변환한 다음에, 이를 메모리(40)에 저장하여 두고 디지털 신호처리기(Digial Signal Processor, DSP)(30)를 사용하여 영상에 대한 신호처리를 하여 원하는 정보를 추출하게 된다. 한편, 추출된 정보는 모뎀(50) 등의 통신수단을 이용하여 교통관제센터 등으로 전송하게 된다.2 shows an example of the configuration of such an image detecting apparatus. In general, the image detecting apparatus converts an image obtained by using the camera 10 installed at a high position on the roadside into digital data using the A / D converter 20, and then stores the image in the memory 40. By using a digital signal processor (Digital Signal Processor, DSP) (30) to perform the signal processing on the image to extract the desired information. Meanwhile, the extracted information is transmitted to a traffic control center using a communication means such as a modem 50.

이러한 영상검지장치의 예로서는 대한민국특허공개 제1998-079232호, 제1999-0047365호, 제2002-078653호 등이 있다.Examples of such image detection apparatus include Korean Patent Publication Nos. 1998-079232, 1999-0047365, 2002-078653, and the like.

대한민국특허공개 제1998-079232호 및 제1999-0047365호는 모두 하나의 카메라로 도로의 영상을 촬영한 2차원 영상을 사용하여 차량을 검지하고 있다. 그런데, 하나의 카메라를 사용하여 촬영한 2차원 영상을 기초로 차량의 속도를 측정하는 경우에는 차량의 높이 정보를 알 수 없으므로 속도 측정에 오차가 발생할 수 있다. 예를 들어, 차량의 바닥을 기준으로 해서 속도를 측정하는 경우와 차량의 윗부분을 기준으로 해서 속도를 측정하는 경우에는 차량의 이동에 따른 카메라의 각도에 차이가 발생하므로 속도 측정의 오차가 발생한다. Korean Patent Laid-Open Publication No. 1998-079232 and 1999-0047365 both detect a vehicle using a two-dimensional image obtained by photographing a road image with a single camera. However, when measuring the speed of the vehicle based on a two-dimensional image taken using one camera, the height information of the vehicle may not be known, and thus an error may occur in the speed measurement. For example, when measuring the speed based on the floor of the vehicle and when measuring the speed based on the upper part of the vehicle, an error in the speed measurement occurs because a difference occurs in the angle of the camera according to the movement of the vehicle. .

이를 도 1c를 참조하여 설명한다. 도 1c와 같이 차량이 이동한 경우에 차량의 이동전의 위치에서는 차량의 윗부분과 바닥부분 사이의 카메라 각도는 θ1에 해당하지만, 차량의 이동후의 위치에서는 차량의 윗부분과 바닥부분 사이의 카메라 각도는 θ2에 해당하게 된다. 한편, 차량의 윗부분을 기준으로 하였을 때의 차량의 이동에 따른 카메라 각도 상의 이동각은 α에 해당하고, 차량의 바닥부분을 기준으로 하였을 때는 β가 된다. 그런데, 도면에서 확인할 수 있는 것처럼 θ1 > θ2 이므로, α > β가 된다. This will be described with reference to FIG. 1C. When the vehicle moves as shown in FIG. 1C, the camera angle between the upper portion and the bottom portion of the vehicle corresponds to θ1 at the position before the movement of the vehicle, but the camera angle between the upper portion and the bottom portion of the vehicle is θ2 at the position after the movement of the vehicle. Will correspond to On the other hand, the movement angle on the camera angle according to the movement of the vehicle when the upper portion of the vehicle is referred to corresponds to α, and becomes β when the reference is to the bottom portion of the vehicle. By the way, as can be seen from the figure, since θ1> θ2, α> β is obtained.

이를 촬영된 영상상에서의 거리로 환산하자면, 차량이 시간 t 동안에 바닥부분이 100픽셀에 해당하는 거리만큼 이동하였다고 가정하면, 차량의 윗부분은 그보다 적은, 예를 들면 90픽셀에 해당하는 거리만큼 이동하게 되는 것이다. In terms of the distance on the captured image, assuming that the vehicle moved the distance of 100 pixels at the bottom during time t, the upper portion of the vehicle would move by less than, for example, 90 pixels. Will be.

한편, 촬영된 영상상에서의 이동거리로부터 실제 이동거리를 측정하기 위하여 도로면을 기준으로 해서 화면상에서의 부분에서의 픽셀거리가 실제 거리로 얼마나 되는지를 환산하는 환경정보를 사용하는 것이 일반적이다. 즉, 도로면을 기준으로 해서 환경정보를 생성하기 때문에, 차량의 바닥부분이 아닌 차량의 윗부분이나 중간 부분을 특징부로 잡아서 이동거리를 측정하게 되면 필연적으로 오차가 발생하게 된다. On the other hand, in order to measure the actual moving distance from the moving distance on the captured image, it is common to use environmental information that converts how much the pixel distance in the portion on the screen is the actual distance based on the road surface. That is, since the environment information is generated based on the road surface, an error is inevitably generated when the moving distance is measured by catching the upper part or the middle part of the vehicle as a feature rather than the bottom part of the vehicle.

이러한 점을 감안하여 차량의 높이 정보 등을 포함하는 3D 정보를 얻기 위하여 두개의 카메라를 사용하는 방법을 생각할 수 있다. 그런데, 두대의 카메라를 사용하는 경우에는 설치비용, 장치의 원가 등이 상승하고, 두대의 카메라의 각도차에 따른 환경정보의 설정 등이 매우 번거롭다고 하는 문제점이 있다.In view of this, a method of using two cameras to obtain 3D information including height information of a vehicle can be considered. However, in the case of using two cameras, there is a problem that the installation cost, the cost of the device is increased, and setting of environmental information according to the angle difference between the two cameras is very troublesome.

이러한 문제점을 해결하기 위하여 대한민국공개특허 제2002-78653호에는 하나의 카메라를 사용하여 획득한 2차원 영상을 3차원으로 변환하는 방법에 제안되어 있다. 이 방법에서는 그 크기에 관한 정보를 알고 있는 기준 물체를 도로의 특정 위치에 설치하여 두고, 촬영된 영상에서의 촬영된 상기 기준 물체의 형상으로부터 3차원 모델링을 위한 정보를 추출하고 있다. 그런데, 이 방법을 사용하기 위해서는 도로의 특정 위치에 기준물체를 설치하여야 하므로 설치비가 많이 들고, 또한 기준물체를 설치하기가 곤란한 도로에서는 적용하기가 어렵다고 하는 문제가 있다.In order to solve this problem, Korean Patent Laid-Open Publication No. 2002-78653 proposes a method of converting a two-dimensional image obtained by using one camera to three-dimensional. In this method, a reference object knowing information about the size is installed at a specific position on the road, and information for three-dimensional modeling is extracted from the shape of the reference object photographed in the captured image. However, in order to use this method, since a reference object must be installed at a specific position of the road, there is a problem that the installation cost is high and it is difficult to apply on the road where it is difficult to install the reference object.

본 발명은 이러한 점을 감안하여 이루어진 것으로서, 하나의 카메라만을 사용하여 획득한 2차원 영상으로부터 3차원 정보를 획득하는 방법을 제공하는 것을 목적으로 한다. SUMMARY OF THE INVENTION The present invention has been made in view of this point, and an object thereof is to provide a method for acquiring three-dimensional information from a two-dimensional image obtained using only one camera.

본 발명의 다른 목적은 위 방법에 의해 획득한 3차원 정보를 사용하여 실시간으로 교통량을 측정할 수 있는 영상검지방법을 제공하는 것이다.Another object of the present invention is to provide an image detection method capable of measuring the traffic volume in real time using the three-dimensional information obtained by the above method.

이러한 목적을 달성하기 위한 본 발명은, 하나의 카메라로 촬영한 연속되는 프레임의 영상에서 이동체를 추출하는 제1단계와, 연속되는 두 프레임의 영상 사이에서 상기 이동체가 이동한 거리를 계산하는 제2단계와, 연속되는 두 프레임의 영상에서 첫번째 영상을 제1카메라에서 촬영한 영상으로 가정하고, 두번째 영상을 이동체가 움직인 거리에 해당하는 만큼 제1카메라로부터 이동체의 이동방향과 반대방향으로 이격되어 있는 가상의 제2카메라에서 첫번째 영상과 동시에 촬영한 영상으 로 가정하는 제3단계와, 상기 제1카메라에서 촬영한 영상과 상기 가상의 제2카메라에서 촬영한 영상을 사용하여 이동체의 삼차원 정보를 추출하는 제4단계를 구비한다. The present invention for achieving this object, the first step of extracting the moving object from the image of the continuous frame photographed by one camera, and the second step of calculating the distance traveled by the moving object between the image of two consecutive frames And assuming that the first image is taken by the first camera in two consecutive frames of images, the second image is spaced apart from the first camera in a direction opposite to the moving direction of the moving object by the distance corresponding to the moving distance of the moving object. A third step of assuming that the image is taken simultaneously with the first image in the virtual second camera, and using the image photographed by the first camera and the image photographed by the virtual second camera, And a fourth step of extraction.

제1단계는, 연속되는 프레임의 영상으로부터 배경영상을 추출하는 단계와, 연속되는 프레임의 영상과 배경영상을 비교하여 이동체를 추출하는 단계를 포함하여 구현될 수 있다. The first step may be implemented by extracting a background image from an image of a continuous frame, and extracting a moving object by comparing the image of the continuous frame with the background image.

제2단계는, 추출된 이동체의 특징점을 추출하는 단계와, 각 이동체에 대해서, 해당 이동체의 특정 프레임의 영상에서의 특징점에 관한 정보와 일정 기준 이상 일치하는 특징점에 관한 정보를 갖는 이동체를 연속되는 다음 프레임의 영상에서 검색하는 단계와, 상기 특정 프레임의 영상에서의 이동체의 위치와, 연속하는 다음 프레임의 영상에서의 검색된 이동체의 위치로부터 이동거리를 계산하는 단계를 포함하여 구현될 수 있다. The second step includes extracting the feature points of the extracted moving object, and for each moving object, the moving object having information about the characteristic point in the image of a specific frame of the moving object and information on the characteristic point that matches a predetermined criterion or more is successively performed. And searching for an image of a next frame, and calculating a moving distance from the position of the moving object in the image of the specific frame and the position of the searched moving object in the image of the subsequent next frame.

또한, 제1단계는, 현재 프레임의 영상에서 이전 프레임의 영상을 뺀 차영상을 구하는 단계와, 상기 차영상을 이진화하여 영상 SN을 구하는 단계와, 영상 SN과 영상 SN-1 사이의 논리적 곱(AND) 연산을 하는 단계와, 상기 곱연산을 한 영상으로부터 외곽선 추출을 하는 단계를 포함하여 구현될 수도 있다. Also, the step, and obtaining a difference image by subtracting the image of the previous frame from the image of the current frame, one among the difference in binary image comprises: obtaining an image S N and the image S N and the image S N-1 And performing an AND operation and extracting an outline from the image of the multiplication operation.

이 경우에, 제2단계는, 상기 외곽선이 추출된 이동체에 대해서 특징점을 추출하는 단계와, 각 이동체에 대해서, 해당 이동체의 특정 프레임의 영상에서의 특징점에 관한 정보와 일정 기준 이상 일치하는 특징점에 관한 정보를 갖는 이동체를 연속되는 다음 프레임의 영상에서 검색하는 단계와, 상기 특정 프레임의 영상에서의 이동체의 위치와, 연속하는 다음 프레임의 영상에서의 검색된 이동체의 위치로부터 이동거리를 계산하는 단계를 포함할 수 있다. In this case, the second step may include extracting feature points for the moving object from which the outline is extracted, and for each moving object, to a feature point that matches at least a predetermined criterion with information about the characteristic point in the image of a specific frame of the moving object. Retrieving a moving object having information on the next frame of successive images, and calculating a moving distance from the position of the moving object in the image of the specific frame and the position of the retrieved moving object in the image of the subsequent frame; It may include.

특징점을 구하는 방법으로는, 이동체의 외곽선을 직선으로 근사화하고, 이들 직선중에서 소정의 길이 이상인 직선들을 추출하여 3개 이상의 직선이 만나는 점과, 2개의 직선이 소정의 각도 이내로 만나는 점을 특징점으로 정하는 방법을 사용할 수 있다. 특징점에 관한 정보에는 특징점의 위치와, 특징점들 사이의 연결관계가 포함된다. As a method of obtaining a feature point, the outline of the moving object is approximated by a straight line, and the straight line having a predetermined length or more is extracted from these straight lines to determine the point where three or more straight lines meet and the point where two straight lines meet within a predetermined angle. Method can be used. The information about the feature point includes the location of the feature point and a connection relationship between the feature points.

위와 같이 하나로 카메라로 촬영한 연속되는 2차원 영상으로부터 3차원 정보를 추출한 다음에는, 이 3차원 정보를 사용하여 위에서 계산한 이동체의 이동한 거리를 보정하고, 보정된 거리로부터 이동체의 이동속도를 계산함으로써 보다 정확한 교통량 및 주행속도를 계산할 수 있다.After extracting three-dimensional information from successive two-dimensional images taken by a camera as described above, the three-dimensional information is used to correct the moving distance of the moving object calculated above, and the moving speed of the moving object is calculated from the corrected distance. By doing so, it is possible to calculate more accurate traffic volume and speed.

이하, 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 도 3은 본 발명의 방법에 따른 영상검지방법을 보여주는 흐름도이다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. 3 is a flowchart showing an image detection method according to the method of the present invention.

먼저 카메라를 사용하여 도로상의 영상을 촬영한다(단계 S310). 영상은 연속되는 프레임으로 이루어져서 입력되게 된다. 입력되는 연속 프레임의 영상은 메모리에 저장되어 이하의 절차에서 사용된다. 또한, 입력되는 영상은 압축되어 모뎀을 통해 실시간으로 교통관제센터로 전송될 수도 있다.First, an image on a road is photographed using a camera (step S310). The image is input by being composed of consecutive frames. An image of an input continuous frame is stored in a memory and used in the following procedure. In addition, the input image may be compressed and transmitted to a traffic control center in real time through a modem.

메모리에 저장된 영상 프레임으로부터 이동물체를 추출한다(S320). 영상에서 이동체를 분리하는 방법으로는 촬영된 영상을 배경영상과 비교하는 방법이 일반적으로 사용된다. The moving object is extracted from the image frame stored in the memory (S320). As a method of separating a moving object from an image, a method of comparing a photographed image with a background image is generally used.

본 발명에서도 이러한 종래의 이동체 분리방법을 사용할 수 있다. 그런데, 종래의 방법에 따르면, 차량의 정체나 카메라의 이동 등이 발생할 경우에는 잘못된 배경으로 인해 차량 분리에 실패할 수 있다. In the present invention, such a conventional moving object separation method can be used. However, according to the conventional method, when the vehicle is congested or the movement of the camera occurs, separation of the vehicle may fail due to an incorrect background.

본 발명에서는 바람직하게는 다음과 같은 방법에 의해 이동물체를 추출한다. 즉, 카메라부터 순차적으로 들어 오는 영상 중에서, 현재 입력 영상이 IN에서 이전 프레임의 입력 영상 IN-1을 뺀 차영상(difference image)을 이진화하여 구한 영상을 SN이라고 하자. 이때, 차영상에서 각 픽셀의 값이 소정 값 이상인 것만 취하도록 하는 것도 가능하다. 즉, 이전 영상과 현재 영상에서의 각 픽셀간의 차이값이 소정의 문턱치를 넘지 않는 픽셀은 두 영상 사이에 차이가 없는 것으로 간주하는 것이다.In the present invention, the moving object is preferably extracted by the following method. That is, S N is an image obtained by binarizing a difference image obtained by subtracting the input image I N-1 of the previous frame from I N from the image sequentially coming from the camera. At this time, it is also possible to take only the value of each pixel in the difference image more than a predetermined value. That is, a pixel in which a difference value between each pixel in the previous image and the current image does not exceed a predetermined threshold is regarded as no difference between the two images.

종래에는 이 같은 SN 영상을 통해 이동하는 물체의 영역을 구하였으나, 이 경우 이동물체의 움직임을 알 수 있으나 물체의 정확한 외곽을 얻을 수 없다. 본 발명에서는 이전 입력으로부터 구한 SN-1(즉, IN-1에서 IN-2를 뺀 차영상을 이진화한 영상)과 SN 사이의 논리적 곱(logical AND) 연산을 통해 IN-1영상에서의 이동체의 외곽선을 구함으로써 이동체를 추출하게 된다. 이와 같이 구한 영상을 ON-1이라고 하면, 이들 관계는 다음과 같은 수학식에 의해 표현 가능하다. Conventionally, although the area of the moving object is obtained through the S N image, in this case, the movement of the moving object can be known, but the exact outline of the object cannot be obtained. According to the present invention obtained from the previous input S N-1 (that is, a binarizing a difference image obtained by subtracting the I N-2 at I N-1 image), and the logical product between the S N (logical AND) by the operation I N-1 The moving object is extracted by obtaining the outline of the moving object in the image. If the obtained image is O N-1 , these relations can be expressed by the following equation.

Figure 112004047513312-pat00001
Figure 112004047513312-pat00001

* TH: 문턱치* TH: Threshold

또한, 이때 구해진 물체의 외곽들 중에서 근접해 있으며 형태적으로 차량이라 판단되는 것들만을 취할 수도 있다. 또한, 차량이라고 판단된 이동체의 요철부분(convex hull)을 채움으로써 완전한 이동물체의 영역을 얻을 수도 있다.In addition, it is also possible to take only those that are close to the shape of the object obtained and determined to be a vehicle. In addition, by filling the convex hull of the moving object determined to be a vehicle, it is possible to obtain the area of the complete moving object.

한편, 배경영상은 차량이 없을 때 미리 촬영하여 둘 수도 있고, 연속되는 다수의 프레임, 예를 들면 100개의 프레임에 대해서 평균을 취함으로써 구할 수도 있고, 그외에도 종래의 다양한 배경영상 추출방법을 사용할 수 있으며, 본 발명은 특정 배경영상 추출방법에 한정되지 않는다.On the other hand, the background image may be taken in advance when there is no vehicle, or may be obtained by taking an average of a plurality of consecutive frames, for example, 100 frames, and may use various conventional background image extraction methods. The present invention is not limited to a specific background image extraction method.

이와 같이 추출된 이동물체의 영역으로부터 그 영역 내 존재하는 물체의 특징점을 추출하고 연속되는 프레임의 영상 사이에서 동일 물체를 매칭시킨다(단계 S330).The feature points of the objects present in the region are extracted from the extracted region of the moving object and the same objects are matched between the images of consecutive frames (step S330).

종래에는 영상 전체에 대해서 특징점을 구하였으나, 영상 전체에 대해 특징점들을 구할 경우 연산량의 증가로 실시간 구현에 어려움이 따른다. 따라서, 본 발명에서는 단계 S320에서 구해진 이동물체에 대해서만 특징점을 구함으로써 고정된 배경의 특징은 제거되고 이동하는 차량에 대한 특징만을 구할 수 있으므로 연산량을 대폭 감소시킬 수 있다. Conventionally, the feature points are obtained for the entire image, but when the feature points are obtained for the entire image, it is difficult to implement the real time due to the increase in the amount of computation. Therefore, in the present invention, the feature of the fixed background is eliminated by obtaining the feature point only for the moving object obtained in step S320, and only the feature of the moving vehicle can be obtained, thereby greatly reducing the amount of computation.

특징점을 추출하는 방법으로는 종래의 다양한 방법이 사용될 수 있으며, 또는 다음과 같은 방법을 사용할 수도 있다. 먼저, 이동물체에 대해서만 에지를 구하고 이를 직선으로 근사화한다. 이들 직선중에서 일정 길이 이상의 직선들만을 골라내고, 이 중에서 3개 이상의 선분이 만나는 점과 2개의 선분이 일정한 범위 내의 각도로 만나는 경우를 특징점으로 정의한다. As a method of extracting feature points, various conventional methods may be used, or the following method may be used. First, the edge is obtained only for the moving object and approximated by a straight line. Among these straight lines, only the straight lines having a predetermined length or more are selected, and the point where three or more line segments meet and the two line segments meet at an angle within a certain range are defined as feature points.

본 발명에서는 특징점의 위치와 특징점들 사이의 연결관계를 포함하는 특징점에 관한 정보를 사용하여 연속되는 프레임의 영상들에서 동일한 이동체를 매칭시킨다. 즉, 이전 프레임의 영상에서 발견된 한 이동체의 특징점에 관한 정보를, 다음 프레임의 영상에서 발견된 이동체들의 특징점에 관한 정보와 비교하여 가장 매칭이 잘되는 특징점을 가진 이동체를 동일한 이동체라고 판단한다. 이때, 이동체의 이동에 따라 이동체가 화면상에서 사라질 수도 있으므로, 특징점에 관한 정보의 매칭 정도가 소정의 문턱치를 넘는 이동체가 다음 프레임의 영상에 존재하지 않으면 해당 물체가 다음 프레임의 영상에서 사라진 것으로 판단한다. 또한, 이동체의 일부분이 다른 이동체에 의해 가려질 수가 있으므로, 각 이동체의 전체 특징점에 대해서 비교를 하기보다는 각 부분 부분의 특징점에 대한 비교를 하여, 특정 부분만이 매칭이 되지 않는 것은 무시하도록 하는 것이 바람직하다. 또한, 이동체의 이동방향을 알고 있는 경우에는 이동체의 이동방향에 있는 물체에 대해서만 비교하도록 하는 것도 가능하다. 도 4는 촬영된 영상의 예이며, 도 5에 도 4의 영상에서 추출 된 특징점이 표시된 예가 도시되어 있다. In the present invention, the same moving object is matched in images of consecutive frames using information about the feature point including the position of the feature point and the connection relationship between the feature points. That is, the moving object having the best matching feature point is determined to be the same moving object by comparing the information about the feature point of the moving object found in the image of the previous frame with the information about the feature point of the moving objects found in the image of the next frame. In this case, since the moving object may disappear on the screen according to the movement of the moving object, it is determined that the object disappears from the image of the next frame if the moving object having a matching degree of information about a feature point does not exist in the image of the next frame. . In addition, since a part of the moving body may be covered by another moving object, rather than comparing the entire feature points of each moving object, the comparison of the characteristic points of each part part is ignored so that only a specific part is not matched. desirable. In addition, when the moving direction of the moving object is known, it is also possible to compare only the object in the moving direction of the moving object. FIG. 4 is an example of a captured image, and FIG. 5 shows an example in which feature points extracted from the image of FIG. 4 are displayed.

이와 같이 특정 이동체가 각 프레임의 영상에서 어떤 위치에 있는지가 판정되고 나서는, 이동체의 각 프레임 영상에서의 이미지로부터 해당 이동체의 3차원 정보를 추출한다(단계 S340). In this way, after it is determined in which position the specific moving object is located in the image of each frame, three-dimensional information of the moving object is extracted from the image in each frame image of the moving object (step S340).

이 방법의 원리를 도 6을 참조하여 설명한다. 도 6은 본 발명의 3차원 영상정보 획득 방법의 원리를 설명하기 위한 도면이다.The principle of this method is explained with reference to FIG. 6 is a view for explaining the principle of the three-dimensional image information acquisition method of the present invention.

실제 물질 좌표상의 한 점이 t N 순간과 다음 순간 t N+1 사이에 Δ P N 만큼 이동하였다면, 이때 실제의 카메라 C2에서는 t N 순간에 P N , t N+1 시점에는 P N+1 으로 투영된다. 한편, 카메라 C2가 가상적으로 -Δ P N 만큼 이동한 가상의 카메라 C1에서 t N 순간에 동일한 물체를 투영한 P' N 영상은, 카메라 C2에서 t N+1 시점에 투영된 P N+1 과 동일하다. 따라서 이동이 있는 물체에 대해서는 실제 카메라 C2와 가상의 카메라 C1을 통해 같은 시점에 취득한 영상의 효과를 얻을 수 있다. 또한, 차량의 운동 특성상 짧은 시간의 물체 회전은 무시할 수 있으므로 카메라의 좌표계는 회전 없이 이동만 하였다고 근사할 수 있다. 이와 같이 두대의 카메라를 사용하여 촬영한 영상으로부터 3차원 정보를 획득하는 방법은 널리 알려져 있으므로, 하나의 카메라로 촬영한 두 시점에서의 영상에 대해서 이러한 종래의 방법을 적용함으로써 이동체의 3차원 정보를 얻을 수 있다.If t N moment the point on the actual material coordinates and moves between the next instant t N + 1 Δ P N, this time in an actual camera C2 point to t N moment P N, t N + 1 is projected onto P N + 1 do. On the other hand, the camera C2 is virtually - Δ P N which project the same object to t N moment in the virtual camera C1 to move by P 'N image, and the P N + 1 projected on t N + 1 time the camera C2 same. Therefore, the moving object can obtain the effect of the image acquired at the same time through the real camera C2 and the virtual camera C1. In addition, since the object rotation of the short time can be ignored due to the movement characteristics of the vehicle, it can be approximated that the coordinate system of the camera has only moved without rotation. Since a method of acquiring three-dimensional information from an image photographed using two cameras is widely known, the conventional method is applied to an image at two viewpoints photographed by one camera to obtain three-dimensional information of a moving object. You can get it.

즉, 연속되는 두 프레임의 영상에서 첫번째 영상을 제1카메라에서 촬영한 영 상으로 가정하고, 두번째 영상을 이동체가 움직인 거리에 해당하는 만큼 제1카메라로부터 이동체의 이동방향과 반대방향으로 이격되어 있는 가상의 제2카메라에서 첫번째 영상과 동시에 촬영한 영상으로 가정하여, 상기 제1카메라에서 촬영한 영상과 상기 가상의 제2카메라에서 촬영한 영상을 사용하여 이동체의 3차원 정보를 추출할 수 있다.That is, assuming that the first image is taken by the first camera in two consecutive frames of images, the second image is spaced apart from the first camera in a direction opposite to the moving direction of the moving object by the distance corresponding to the moving distance of the moving object. Assuming that the image is taken at the same time as the first image from the virtual second camera, the 3D information of the moving object may be extracted using the image photographed by the first camera and the image photographed by the virtual second camera. .

한편, 이동체의 3차원 정보를 추출할 때는 이동체의 특징점들간의 구조적 특징으로부터 물체의 3차원 구조를 추론하도록 하는 것이 가능하다. 또한, 신뢰성 있는 결과를 위해서는 차량의 이동벡터 Δ P N 를 정확히 구하는 것이 중요하다. 이는 차량의 바닥 그림자 등의 이동 벡터가 같으므로 그림자로 판명되는 특징점의 이동벡터를 찾는 것이 바람직하며, 그림자가 없을 때는 본넷이나 범퍼, 번호판 등의 이동으로 추정할 수 있다. On the other hand, when extracting the three-dimensional information of the moving object it is possible to infer the three-dimensional structure of the object from the structural features between the feature points of the moving object. In addition, it is important to accurately determine the vehicle's motion vector Δ P N for reliable results. Since the motion vector of the floor shadow of the vehicle is the same, it is preferable to find the motion vector of the feature point that is found to be a shadow. When there is no shadow, it can be estimated by the movement of a bonnet, a bumper, a license plate, and the like.

한편, 이와 같이 추출된 차량의 높이 등의 3차원 정보를 사용하여 먼저 계산된 이동체의 이동한 거리를 보정할 수 있다. 즉, 도 1c를 참조하여 설명한 것처럼, 차량의 높이에 따른 이동체의 픽셀간의 이동거리에서 차이가 발생하는데, 이러한 차이는 차량의 높이를 알면 보정이 가능하다. 따라서, 산출된 3차원 정보를 사용하여 이동체의 이동 거리를 보정할 수 있는 것이다. 이와 같이, 보정된 거리로부터 이동체의 이동속도를 계산함으로써 보다 정확한 교통량 및 주행속도를 계산할 수 있다.On the other hand, using the three-dimensional information, such as the height of the vehicle extracted in this way it is possible to correct the moved distance of the previously calculated moving object. That is, as described with reference to FIG. 1C, a difference occurs in the moving distance between pixels of the moving body according to the height of the vehicle. This difference can be corrected by knowing the height of the vehicle. Therefore, the moving distance of the moving object can be corrected using the calculated three-dimensional information. In this way, by calculating the moving speed of the moving object from the corrected distance, it is possible to calculate a more accurate traffic volume and running speed.

이상, 본 발명을 실시 예를 사용하여 설명하였으나 이들 실시 예는 예시적인 것이며 한정적인 것이 아니다. 본 발명이 속하는 기술 분야에서 통상의 지식을 지닌 자라면 본 발명의 사상에서 벗어나지 않으면서 다양한 수정과 변경을 가할 수 있음을 이해할 수 있을 것이다.As mentioned above, although this invention was demonstrated using the Example, these Example is an illustration and is not limited. Those skilled in the art will appreciate that various modifications and changes can be made without departing from the spirit of the invention.

본 발명에 따르면, 하나의 카메라만을 사용하여 획득한 2차원 영상으로부터 3차원 정보를 획득할 수 있으므로, 상대적으로 저렴한 비용으로 정확한 교통량 정보를 획득할 수 있다고 하는 효과가 있다.According to the present invention, since three-dimensional information can be obtained from a two-dimensional image obtained using only one camera, accurate traffic volume information can be obtained at a relatively low cost.

또한, 이동체를 판별할 때 이동체의 특징점만을 사용하여 판별하므로 연산시간이 대폭 감축되어 실시간으로 3차원 정보를 활용한 정확한 교통량 정보를 얻을 수 있다고 하는 효과가 있다.In addition, since only the feature points of the moving object are used to determine the moving object, the computation time is greatly reduced, thereby obtaining accurate traffic information using 3D information in real time.

Claims (14)

하나의 카메라로 촬영한 연속되는 프레임의 영상에서 이동체를 추출하는 제1단계와,A first step of extracting a moving object from images of consecutive frames photographed by one camera, 연속되는 두 프레임의 영상 사이에서 상기 이동체가 이동한 거리를 계산하는 제2단계와,Calculating a distance traveled by the moving object between two consecutive frames of image; 연속되는 두 프레임의 영상에서 첫번째 영상을 제1카메라에서 촬영한 영상으로 가정하고, 두번째 영상을 이동체가 움직인 거리에 해당하는 만큼 제1카메라로부터 이동체의 이동방향과 반대방향으로 이격되어 있는 가상의 제2카메라에서 첫번째 영상과 동시에 촬영한 영상으로 가정하는 제3단계와,Assuming that the first image is taken by the first camera in two consecutive frames of images, the second image is spaced apart from the first camera in the opposite direction to the moving direction of the moving object by the distance corresponding to the moving distance of the moving object. A third step of assuming that the image photographed simultaneously with the first image in the second camera; 상기 제1카메라에서 촬영한 영상과 상기 가상의 제2카메라에서 촬영한 영상을 사용하여 이동체의 삼차원 정보를 추출하는 제4단계A fourth step of extracting three-dimensional information of the moving object by using the image photographed by the first camera and the image photographed by the virtual second camera 를 구비하는 단일 카메라를 사용한 3차원 영상정보 획득방법.3D image information acquisition method using a single camera having a. 제1항에 있어서, 제1단계는The method of claim 1, wherein the first step is 연속되는 프레임의 영상으로부터 배경영상을 추출하는 단계와,Extracting a background image from an image of a continuous frame; 연속되는 프레임의 영상과 배경영상을 비교하여 이동체를 추출하는 단계Extracting a moving object by comparing the image of the continuous frame and the background image 를 포함하는 것을 특징으로 하는 단일 카메라를 사용한 3차원 영상정보 획득방법.3D image information acquisition method using a single camera, characterized in that it comprises a. 제1항에 있어서, 제2단계는The method of claim 1, wherein the second step is 추출된 이동체의 특징점을 추출하는 단계와,Extracting feature points of the extracted moving object; 각 이동체에 대해서, 해당 이동체의 특정 프레임의 영상에서의 특징점에 관한 정보와 일정 기준 이상 일치하는 특징점에 관한 정보를 갖는 이동체를 연속되는 다음 프레임의 영상에서 검색하는 단계와,Retrieving, in each moving object, a moving object having information about a feature point in an image of a specific frame of the moving object and information on a feature point that matches a predetermined criterion or more in an image of a subsequent frame; 상기 특정 프레임의 영상에서의 이동체의 위치와, 연속하는 다음 프레임의 영상에서의 검색된 이동체의 위치로부터 이동거리를 계산하는 단계Calculating a moving distance from the position of the moving object in the image of the specific frame and the position of the retrieved moving object in the image of the next subsequent frame. 를 포함하는 것을 특징으로 하는 단일 카메라를 사용한 3차원 영상정보 획득방법.3D image information acquisition method using a single camera, characterized in that it comprises a. 제1항에 있어서, 제1단계는The method of claim 1, wherein the first step is 현재 프레임의 영상에서 이전 프레임의 영상을 뺀 차영상을 구하는 단계와,Obtaining a difference image obtained by subtracting an image of a previous frame from an image of a current frame; 상기 차영상을 이진화하여 영상 SN을 구하는 단계와,Binarizing the difference image to obtain an image S N ; 영상 SN과 영상 SN-1 사이의 논리적 곱(AND) 연산을 하는 단계와,Performing a logical AND operation between the image S N and the image S N-1 ; 상기 곱연산을 한 영상으로부터 외곽선 추출을 하는 단계Extracting an outline from the multiplicative image 를 포함하는 것을 특징으로 하는 단일 카메라를 사용한 3차원 영상정보 획득방법.3D image information acquisition method using a single camera, characterized in that it comprises a. 제4항에 있어서, 제2단계는The method of claim 4, wherein the second step is 상기 외곽선이 추출된 이동체에 대해서 특징점을 추출하는 단계와,Extracting feature points of the moving object from which the outline is extracted; 각 이동체에 대해서, 해당 이동체의 특정 프레임의 영상에서의 특징점에 관한 정보와 일정 기준 이상 일치하는 특징점에 관한 정보를 갖는 이동체를 연속되는 다음 프레임의 영상에서 검색하는 단계와,Retrieving, in each moving object, a moving object having information about a feature point in an image of a specific frame of the moving object and information on a feature point that matches a predetermined criterion or more in an image of a subsequent frame; 상기 특정 프레임의 영상에서의 이동체의 위치와, 연속하는 다음 프레임의 영상에서의 검색된 이동체의 위치로부터 이동거리를 계산하는 단계Calculating a moving distance from the position of the moving object in the image of the specific frame and the position of the retrieved moving object in the image of the next subsequent frame. 를 포함하는 것을 특징으로 하는 단일 카메라를 사용한 3차원 영상정보 획득방법.3D image information acquisition method using a single camera, characterized in that it comprises a. 제5항에 있어서, 상기 특징점은The method of claim 5, wherein the feature point 상기 이동체의 외곽선을 직선으로 근사화하는 단계와,Approximating the outline of the moving body with a straight line; 상기 직선들중에서 소정의 길이 이상인 직선들을 추출하는 단계와,Extracting straight lines having a predetermined length or more from the straight lines; 상기 추출된 직선중에서 3개 이상의 직선이 만나는 점과, 2개의 직선이 소정의 각도 이내로 만나는 점을 특징점으로 정하는 단계Determining a point where at least three straight lines meet and two straight lines meet within a predetermined angle among the extracted straight lines 를 거쳐서 추출하는 것을 특징으로 하는 단일 카메라를 사용한 3차원 영상정보 획득방법.3D image information acquisition method using a single camera, characterized in that the extraction through. 제6항에 있어서,The method of claim 6, 상기 특징점에 관한 정보에는 특징점의 위치와, 특징점들 사이의 연결관계가 포함되는 것을 특징으로 하는 단일 카메라를 사용한 3차원 영상정보 획득방법.The information regarding the feature point is a method of obtaining 3D image information using a single camera, characterized in that the position of the feature point and the connection between the feature points. 하나의 카메라로 연속되는 프레임의 영상을 촬영하는 제1단계와,A first step of shooting an image of a continuous frame with one camera; 상기 연속되는 프레임의 영상에서 이동체를 추출하는 제2단계와,Extracting a moving object from the image of the continuous frame; 연속되는 두 프레임의 영상 사이에서 상기 이동체가 이동한 거리를 계산하는 제3단계와,A third step of calculating a distance traveled by the moving object between two consecutive frames of image; 연속되는 두 프레임의 영상에서 첫번째 영상을 제1카메라에서 촬영한 영상으로 가정하고, 두번째 영상을 이동체가 움직인 거리에 해당하는 만큼 제1카메라로부터 이동체의 이동방향과 반대방향으로 이격되어 있는 가상의 제2카메라에서 첫번째 영상과 동시에 촬영한 영상으로 가정하는 제4단계와,Assuming that the first image is taken by the first camera in two consecutive frames of images, the second image is spaced apart from the first camera in the opposite direction to the moving direction of the moving object by the distance corresponding to the moving distance of the moving object. A fourth step in which the second camera assumes an image captured simultaneously with the first image, 상기 제1카메라에서 촬영한 영상과 상기 가상의 제2카메라에서 촬영한 영상을 사용하여 이동체의 삼차원 정보를 추출하는 제5단계와,A fifth step of extracting three-dimensional information of the moving object by using the image photographed by the first camera and the image photographed by the virtual second camera; 제5단계에서 추출한 이동체의 삼차원 정보를 사용하여 제3단계에서 계산한 상기 이동체의 이동한 거리를 보정하는 제6단계와,A sixth step of correcting the moved distance of the moving object calculated in the third step by using three-dimensional information of the moving object extracted in the fifth step; 보정된 거리로부터 상기 이동체의 이동속도를 계산하는 제7단계A seventh step of calculating the moving speed of the moving object from the corrected distance; 를 구비하는 영상검지방법.Image detection method comprising a. 제8항에 있어서, 제2단계는The method of claim 8, wherein the second step is 연속되는 프레임의 영상으로부터 배경영상을 추출하는 단계와,Extracting a background image from an image of a continuous frame; 연속되는 프레임의 영상과 배경영상을 비교하여 이동체를 추출하는 단계Extracting a moving object by comparing the image of the continuous frame and the background image 를 포함하는 것을 특징으로 하는 영상검지방법.Image detection method comprising a. 제8항에 있어서, 제3단계는The method of claim 8, wherein the third step is 추출된 이동체의 특징점을 추출하는 단계와,Extracting feature points of the extracted moving object; 각 이동체에 대해서, 해당 이동체의 특정 프레임의 영상에서의 특징점에 관한 정보와 일정 기준 이상 일치하는 특징점에 관한 정보를 갖는 이동체를 연속되는 다음 프레임의 영상에서 검색하는 단계와,For each moving object, retrieving a moving object having information about a feature point in an image of a specific frame of the moving object and information on a feature point that matches a predetermined criterion or more in an image of a subsequent frame; 상기 특정 프레임의 영상에서의 이동체의 위치와, 연속하는 다음 프레임의 영상에서의 검색된 이동체의 위치로부터 이동거리를 계산하는 단계Calculating a moving distance from the position of the moving object in the image of the specific frame and the position of the retrieved moving object in the image of the next subsequent frame. 를 포함하는 것을 특징으로 하는 영상검지방법.Image detection method comprising a. 제8항에 있어서, 제2단계는The method of claim 8, wherein the second step is 현재 프레임의 영상에서 이전 프레임의 영상을 뺀 차영상을 구하는 단계와,Obtaining a difference image obtained by subtracting an image of a previous frame from an image of a current frame; 상기 차영상을 이진화하여 영상 SN을 구하는 단계와,Binarizing the difference image to obtain an image S N ; 영상 SN과 영상 SN-1 사이의 논리적 곱(AND) 연산을 하는 단계와,Performing a logical AND operation between the image S N and the image S N-1 ; 상기 곱연산을 한 영상으로부터 외곽선 추출을 하는 단계Extracting an outline from the multiplicative image 를 포함하는 것을 특징으로 하는 영상검지방법.Image detection method comprising a. 제11항에 있어서, 제3단계는The method of claim 11, wherein the third step is 상기 외곽선이 추출된 이동체에 대해서 특징점을 추출하는 단계와,Extracting feature points of the moving object from which the outline is extracted; 각 이동체에 대해서, 해당 이동체의 특정 프레임의 영상에서의 특징점에 관한 정보와 일정 기준 이상 일치하는 특징점에 관한 정보를 갖는 이동체를 연속되는 다음 프레임의 영상에서 검색하는 단계와,Retrieving, in each moving object, a moving object having information about a feature point in an image of a specific frame of the moving object and information on a feature point that matches a predetermined criterion or more in an image of a subsequent frame; 상기 특정 프레임의 영상에서의 이동체의 위치와, 연속하는 다음 프레임의 영상에서의 검색된 이동체의 위치로부터 이동거리를 계산하는 단계Calculating a moving distance from the position of the moving object in the image of the specific frame and the position of the retrieved moving object in the image of the next subsequent frame. 를 포함하는 것을 특징으로 하는 영상검지방법.Image detection method comprising a. 제12항에 있어서, 상기 특징점은The method of claim 12, wherein the feature point 상기 이동체의 외곽선을 직선으로 근사화하는 단계와,Approximating the outline of the moving body with a straight line; 상기 직선들중에서 소정의 길이 이상인 직선들을 추출하는 단계와,Extracting straight lines having a predetermined length or more from the straight lines; 상기 추출된 직선중에서 3개 이상의 직선이 만나는 점과, 2개의 직선이 소정의 각도 이내로 만나는 점을 특징점으로 정하는 단계Determining a point where at least three straight lines meet and two straight lines meet within a predetermined angle among the extracted straight lines 를 거쳐서 추출하는 것을 특징으로 하는 영상검지방법.Image detection method characterized in that the extraction through. 제13항에 있어서,The method of claim 13, 상기 특징점에 관한 정보에는 특징점의 위치와, 특징점들 사이의 연결관계가 포함되는 것을 특징으로 하는 영상검지방법.And the information about the feature point includes a location of the feature point and a connection relationship between the feature points.
KR1020040083641A 2004-10-19 2004-10-19 Method for acquiring three-dimensional image information using single camera and video traffic monitoring method using the same KR100631082B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040083641A KR100631082B1 (en) 2004-10-19 2004-10-19 Method for acquiring three-dimensional image information using single camera and video traffic monitoring method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040083641A KR100631082B1 (en) 2004-10-19 2004-10-19 Method for acquiring three-dimensional image information using single camera and video traffic monitoring method using the same

Publications (2)

Publication Number Publication Date
KR20060034497A KR20060034497A (en) 2006-04-24
KR100631082B1 true KR100631082B1 (en) 2006-10-02

Family

ID=37143287

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040083641A KR100631082B1 (en) 2004-10-19 2004-10-19 Method for acquiring three-dimensional image information using single camera and video traffic monitoring method using the same

Country Status (1)

Country Link
KR (1) KR100631082B1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101154110B1 (en) * 2010-07-05 2012-06-15 성균관대학교산학협력단 Apparatus and method for measuring velocity of moving vehicle using image processing method
KR101776702B1 (en) 2011-03-25 2017-09-08 한화테크윈 주식회사 Monitoring camera for generating 3 dimensional scene and method thereof
KR102001659B1 (en) * 2012-11-19 2019-07-19 한국전자통신연구원 Method and apparatus for providing camera calibration for vehicles
KR101895131B1 (en) * 2016-12-28 2018-10-18 경북대학교 산학협력단 Method of measuring a diameter of ingot in crystal growth furnace
KR102010823B1 (en) * 2017-02-27 2019-08-14 주식회사 에스원 Method and apparatus for measuring speed of vehicle by using fixed single camera
KR102275695B1 (en) * 2018-03-28 2021-07-09 현대모비스 주식회사 Method And Apparatus for Real-Time Update of Three-Dimensional Distance Information for Use in 3D Map Building
KR102508960B1 (en) * 2018-03-28 2023-03-14 현대모비스 주식회사 Real time 3d map building apparatus and method
US11453337B2 (en) 2019-11-19 2022-09-27 Samsung Electronics Co., Ltd. Method and apparatus with three-dimensional object display
CN114279410B (en) * 2021-12-02 2024-02-02 合肥晟泰克汽车电子股份有限公司 Camera ranging method

Also Published As

Publication number Publication date
KR20060034497A (en) 2006-04-24

Similar Documents

Publication Publication Date Title
US7769227B2 (en) Object detector
KR101647370B1 (en) road traffic information management system for g using camera and radar
EP2426642B1 (en) Method, device and system for motion detection
US7899211B2 (en) Object detecting system and object detecting method
KR101411668B1 (en) A calibration apparatus, a distance measurement system, a calibration method, and a computer readable medium recording a calibration program
JP4002919B2 (en) Moving body height discrimination device
KR920001616B1 (en) Method and apparatus for detecting objects
JP4341564B2 (en) Object judgment device
JP4429298B2 (en) Object number detection device and object number detection method
JP4363295B2 (en) Plane estimation method using stereo images
JP4943034B2 (en) Stereo image processing device
JPH11252587A (en) Object tracking device
JP3710548B2 (en) Vehicle detection device
KR100631082B1 (en) Method for acquiring three-dimensional image information using single camera and video traffic monitoring method using the same
JP6617150B2 (en) Object detection method and object detection apparatus
JP5109074B2 (en) Vehicle speed determination device and vehicle speed determination method
KR102065337B1 (en) Apparatus and method for measuring movement information of an object using a cross-ratio
JP2002367077A (en) Device and method for deciding traffic congestion
JP5903901B2 (en) Vehicle position calculation device
JP7134780B2 (en) stereo camera device
JP3810755B2 (en) POSITION JUDGING DEVICE, MOVING ROUTE CALCULATION DEVICE, POSITION JUDGING METHOD AND PROGRAM
KR101890482B1 (en) Appartus for distinction of stop and movement using radar spectrum and method thereof
JP4697761B2 (en) Queue detection method and queue detection apparatus
JPH1096607A (en) Object detector and plane estimation method
KR102597896B1 (en) Vehicle Center Point Prediction Method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120926

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20130926

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140925

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150918

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160926

Year of fee payment: 11

LAPS Lapse due to unpaid annual fee