KR20080054094A - Method for object recognizing and distance measuring - Google Patents

Method for object recognizing and distance measuring Download PDF

Info

Publication number
KR20080054094A
KR20080054094A KR1020060126242A KR20060126242A KR20080054094A KR 20080054094 A KR20080054094 A KR 20080054094A KR 1020060126242 A KR1020060126242 A KR 1020060126242A KR 20060126242 A KR20060126242 A KR 20060126242A KR 20080054094 A KR20080054094 A KR 20080054094A
Authority
KR
South Korea
Prior art keywords
image
distance
images
correction
parallax
Prior art date
Application number
KR1020060126242A
Other languages
Korean (ko)
Other versions
KR100844640B1 (en
Inventor
나오키 오카모토
Original Assignee
현대자동차주식회사
현대자동차일본기술연구소
기아자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 현대자동차일본기술연구소, 기아자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020060126242A priority Critical patent/KR100844640B1/en
Publication of KR20080054094A publication Critical patent/KR20080054094A/en
Application granted granted Critical
Publication of KR100844640B1 publication Critical patent/KR100844640B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Abstract

A method for object recognition and distance measurement is provided to discriminate a solid body and a plane and to prevent erroneous responses to characters or patterns on a road surface by using a plurality of cameras. A method for object recognition and distance measurement includes the steps of: photographing an object by using a plurality of photographing devices(3) installed in a vehicle(1); performing homography transformation by performing projective transformation on the images through a homography matrix and position matching between the images; performing stereo processing by extracting a solid candidate and calculating the corresponding positions of the images to the extracted solid candidate; and determining a position of an intersection point after discriminating whether the photographed object is a planar or solid body.

Description

물체 인식 및 거리 계측 방법 {Method for object recognizing and distance measuring}Method for object recognizing and distance measuring}

도 1은 본 발명에 따른 거리 계측 장치의 구성 및 각 구성부의 설치상태를 나타낸 도면,1 is a view showing the configuration of the distance measuring device according to the present invention and the installation state of each component;

도 2는 본 발명에서 제1교정을 설명하기 위한 도면,2 is a view for explaining a first calibration in the present invention,

도 3은 본 발명에서 제2교정을 설명하기 위한 도면,3 is a view for explaining a second calibration in the present invention,

도 4는 본 발명에서 복수의 찰상장치로 찰상된 원화상을 나타낸 도면,4 is a view showing an original image scratched with a plurality of scratch apparatus in the present invention,

도 5a와 도 5b는 본 발명에서 교정을 행한 화상의 예를 나타낸 도면,5A and 5B are diagrams showing examples of images corrected in the present invention;

도 6는 본 발명에서 높이 정보 추출을 설명하기 위한 도면,6 is a view for explaining the extraction of height information in the present invention,

도 7은 본 발명에서 입체물 검출을 설명하기 위한 도면,7 is a view for explaining three-dimensional object detection in the present invention,

도 8은 본 발명에서 교차점 검출을 설명하기 위한 도면,8 is a view for explaining intersection detection in the present invention,

도 9은 시계열 화상을 설명하기 위한 도면.9 is a diagram for explaining a time series image.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for main parts of the drawings>

1 : 차량 2 : 계측 장치1: vehicle 2: measuring device

3 : 촬상장치 4 : 물체인식/거리계측 유니트3: Image pickup device 4: Object recognition / distance measurement unit

5 : 통보제어 유니트 6 : 조명장치5: Notification control unit 6: Lighting device

본 발명은 물체 인식 및 거리 계측 방법에 관한 것으로서, 더욱 상세하게는 자동차 등에서 차량 운전 지원이나 자동 제어 등에 사용할 수 있는 물체 인식 및 거리 계측 방법에 관한 것이다.The present invention relates to a method for object recognition and distance measurement, and more particularly, to an object recognition and distance measurement method that can be used for vehicle driving assistance or automatic control in an automobile or the like.

오늘날, 공업용 기계 장치나 오락용 완구 등에서의 환경 인식(예, 환경 맵의 작성, 진로 예측, 이동 제어) 또는 자동차 등의 차량 운전 지원이나 자동 제어(예, 장애물이나 보행자 감지, 프리-크래쉬 세이프티(Pre-Crash Safety) 등)를 위하여, 물체 인식 및 거리 계측을 정확히 수행할 수 있는 장치나 방법에 대해 많은 연구가 이루어지고 있다.Today, environmental awareness (e.g., environmental maps, course prediction, movement control) in industrial machinery, recreational toys, etc. or vehicle driving assistance or automatic control (e.g. obstacles, pedestrian detection, pre-crash safety) For pre-crash safety, etc.), a lot of research is being conducted on devices or methods that can accurately perform object recognition and distance measurement.

특히, 최근의 자동차 분야에서는 전방의 물체를 인식하고 차량의 속도를 제어하거나 위험 회피를 수행하는 시스템 등이 실용화되고 있으며, 이러한 시스템의 구성 및 운용에 있어서 무엇보다 중요하게 선결되어야 할 것이 정확하고 신속한 대상 물체 인식 및 거리 계측이라 할 수 있다.In particular, in recent automobile fields, a system for recognizing an object in front of the vehicle, controlling the speed of the vehicle, or performing a hazard avoidance has been put into practical use, and the most important thing in the construction and operation of such a system is precise and rapid. It can be called object recognition and distance measurement.

이러한 물체 인식 및 거리 계측을 위해서는 특정 방향을 감시하는 센서를 이용하게 된다.For object recognition and distance measurement, sensors that monitor specific directions are used.

그러나, 상기의 센서를 이용한다고 해도 그늘 등으로부터 물체가 갑자기 튀어나오거나 낙하물이 상공으로부터 갑자기 낙하하는 경우 등에 대해서는 대상 물체 에 대응하기 위한 제어 수행까지 시간이 촉박하고, 주어진 시간 내에 위험을 회피하는 등의 제어를 수행 및 완료하는 데에는 많은 어려움이 있는 것이 사실이다.However, even when the sensor is used, in case of an object popping out suddenly from a shade or the like and a falling object falls suddenly from the air, the time is limited until the control is performed to respond to the target object, and the risk is avoided within a given time. It is true that there are many difficulties in carrying out and completing the control of.

또한 화상 인식 기술을 이용한 시스템의 경우에도 도로의 노면상에 그려진 노표 등을 장애물로 오인식하는 경우가 많고, 아직까지 모든 화상에 대하여 장애물을 식별할 수 있는 시스템이 개발되어 있지 않은 것이 현실이다.In addition, even in the case of a system using image recognition technology, a road marking drawn on a road surface is often mistaken as an obstacle, and in reality, a system capable of identifying an obstacle for all images has not been developed.

정확한 물체 인식을 위해서는 화상의 농담(濃淡) 정보로부터 물체를 식별하는 기술이 필요하다.For accurate object recognition, a technique for identifying an object from the shaded information of the image is required.

따라서, 본 발명은 상기와 같은 문제점을 해결하기 위하여 발명한 것으로서, 자동차에서 주행 중에 전방을 감시하는 센서의 정보를 이용하여 물체가 갑자기 튀어나올 가능성이 있는 장소(교차점 등)를 감지한 뒤 운전자에게 주의를 환기시키거나 기계 제어의 경우에서 속도의 제어 및 위험 회피 등의 자동 제어를 수행할 수 있게 하여 사고를 미연에 방지할 수 있게 하기 위한 물체 인식 및 거리 계측 방법을 제공하는데 그 목적이 있다.Accordingly, the present invention has been invented to solve the above problems, by using the information of the sensor to monitor the front while driving in the vehicle to detect the place where the object may suddenly pop out (intersection, etc.) to the driver It is an object of the present invention to provide a method of object recognition and distance measurement to call attention or to perform automatic control such as speed control and danger avoidance in the case of mechanical control so that accidents can be prevented in advance.

또한 본 발명은 복수의 카메라를 이용하여 입체물과 평면을 식별하고 노면에 그려진 노표 등의 문자나 무늬 등에 오반응하는 것을 억제하고, 이를 통해 정확한 물체 식별 및 보다 많은 유연성을 가지는 시스템을 구축할 수 있는 물체 인식 및 거리 계측 방법을 제공하는데 그 목적이 있다.In addition, the present invention by using a plurality of cameras to identify three-dimensional objects and planes, and to prevent incorrect reaction to letters or patterns, such as road signs drawn on the road surface, through which a system having accurate object identification and more flexibility can be built The object is to provide a method for object recognition and distance measurement.

이하, 첨부한 도면을 참조하여 본 발명에 대해 상세히 설명하면 다음과 같다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

첨부한 도 1은 본 발명에 따른 거리 계측 장치의 구성 및 각 구성부의 설치상태를 나타낸 도면으로, 차량에 탑재되는 거리 계측 장치의 실시예를 도시한 도면이다. 1 is a view showing a configuration of a distance measuring device according to the present invention and an installation state of each component, and showing an embodiment of a distance measuring device mounted on a vehicle.

도시된 바와 같이, 차량(1)에 탑재되는 본 발명의 계측 장치(2)는 복수의 촬상장치(3), 물체인식/거리계측 유니트(4), 통보제어 유니트(5), 조명장치(6)를 포함하여 구성된다.As shown in the drawing, the measuring device 2 of the present invention mounted on the vehicle 1 includes a plurality of imaging devices 3, an object recognition / distance measuring unit 4, a notification control unit 5, and an illumination device 6 It is configured to include).

상기 촬상장치(3)는 소정 화상각을 가지는 렌즈를 구비하는 것으로, 복수의 촬상장치가 차량의 특정 방향을 향해 설치되는 바, 도시한 예에서는 복수의 촬상장치(3)들이 차량 전방의 화상을 촬상할 수 있도록 설치되고 있다.The imaging device 3 includes a lens having a predetermined image angle, and a plurality of imaging devices are installed toward a specific direction of the vehicle. In the illustrated example, the plurality of imaging devices 3 display an image in front of the vehicle. It is installed so that it can image.

상기 촬상장치(3)는 일정 주기, 예를 들면 초당 30 프레임의 속도로 전방의 화상을 촬상하고, 시계열 화상, 즉 동화상을 촬상하고 촬상된 동화상을 출력하게 된다.The image pickup device 3 picks up a front image at a predetermined period, for example, at a rate of 30 frames per second, picks up a time-series image, that is, a moving image, and outputs the picked-up moving image.

상기 촬상장치(3)로는 촬상 소자의 방식을 한정하지 않고 CMOS, CCD, 진공관 방식 등의 소자를 사용한 카메라들이 사용될 수 있고, 화상을 생성할 수 있는 소자가 사용된 것이라면 종류에 관계없이 사용 가능하다. As the imaging device 3, cameras using devices such as CMOS, CCD, and tube systems can be used without limiting the method of the imaging device, and any device capable of generating an image can be used regardless of the type. .

다만, 실외 환경에서 사용할 수 있고 차량에 탑재할 수 있는 것이면서 CMOS, CCD 등의 반도체 소자가 사용된 것이 바람직하다.However, it is preferable that semiconductor devices such as CMOS and CCD can be used while being usable in an outdoor environment and mounted in a vehicle.

또한 촬상장치(3)는 일정 주기로 전방의 화상을 촬상할 수 있고(일정 주기가 바람직하지만 일정 주기가 아니라도 상관 없음), 시계열적인 순서가 바뀌지 않은 동화상을 출력할 수 있는 것이면 좋다.In addition, the imaging device 3 may be capable of capturing an image of the front side at a constant period (a constant period is preferable but may be a non-stationary period), and outputs a moving image having no change in time series.

다음으로, 상기 물체인식/거리계측 유니트(4)는 촬상장치(3)에 의해 촬상되어 그로부터 출력되는 시계열의 화상을 차례로 수신받고, 차량 전방에 존재하는 물체의 거리를 계측하여 계측 결과에 따른 신호를 출력하는 구성부이다.Next, the object recognition / distance measuring unit 4 sequentially receives images of the time series captured by the imaging device 3 and outputted therefrom, measures the distance of an object existing in front of the vehicle, and then generates a signal according to the measurement result. This is the component that outputs.

그리고, 상기 물체인식/거리계측 유니트(4)가 출력하는 계측 신호는 통보제어 유니트(5)로 전송되는데, 상기 통보제어 유니트(5)는 전송받은 계측 결과를 차량 내 운전자 또는 승원에게 통보하거나 자동으로 차량의 주행상태를 제어하는 구성부이다. In addition, the measurement signal output by the object recognition / distance measurement unit 4 is transmitted to the notification control unit 5, which notifies the driver or the crew in the vehicle of the received measurement result or automatically. It is a component for controlling the running state of the vehicle.

또한 상기 조명장치(6)는 촬상장치(3)의 시야에 근적외선 등을 포함하는 빛을 전방으로 조사하여 조명하는 장치로서, 촬상장치(3)가 사물을 촬영하는 방향, 예컨대 차량의 전방을 향해 빛을 조사할 수 있는 위치라면 어느 부위에 장착되어도 무방하며, 헤드 램프 혹은 안개등을 사용하거나 그와 유사한 별도의 조명장치를 구비한다. In addition, the illumination device 6 is a device that illuminates the field of view of the imaging device 3 by irradiating light including near infrared rays to the front, and the imaging device 3 photographs an object, for example, toward the front of the vehicle. If the position can be irradiated with light, it may be mounted on any part, and a separate lighting device using a head lamp or a fog lamp or the like is provided.

본 발명에서, 거리 계측이란 인간이 시각계를 통하여 외계에 존재하는 물체까지의 거리(높이 포함)를 인식하는 행위, 즉 미지의 입력 패턴을 양쪽 눈에서 인식한 경우에 물체의 종별로부터 미리 기억시킨 표준 패턴과의 유사성을 평가하고 가장 높은 유사성의 표준 패턴과 양쪽 눈의 시차를 고려하여 입력 패턴과의 거리를 인식하는 일련의 행위를 컴퓨터에 대행시키는 것을 말한다.In the present invention, distance measurement refers to the action of a human being recognizing the distance (including height) to an object existing in the outer world through a visual system, that is, when the unknown input pattern is recognized by both eyes. Refers to a computer performing a series of acts of evaluating the similarity with the standard pattern and recognizing the distance between the input pattern by considering the standard pattern of the highest similarity and the parallax of both eyes.

일반적으로 촬상장치는 매 초당 수십 프레임(NTSC에서는 30프레임/초)의 정지 화상의 열(비디오)을 생성 및 출력하고, 또 처리 장치는 상기 정지 화상의 열을 1장씩 차례차례 화상 처리해 가는 것이기 때문에, 이 화상을 수록(녹화)할 필요는 없고, 처리에 필요한 시간만 과거의 화상을 참조할 수 있는 기억 구역(링 버퍼 등)을 가지면 좋다.In general, the imaging device generates and outputs a sequence (video) of still images of several tens of frames per second (30 frames per second in NTSC), and the processing apparatus processes the images of the still images one by one. It is not necessary to record (record) this image, and it is sufficient to have a storage area (ring buffer or the like) in which only the time required for processing can refer to the past image.

다만, 상기 촬상장치에 대해서는 피사체를 실시간으로 촬상하는 것이어도 괜찮지만, 이것으로 한정하지는 않는다.However, the imaging device may be a real-time imaging of a subject, but is not limited thereto.

예를 들면, 비디오 카메라(녹화기)와 같이 사전에 촬영 혹은 녹화해 둔 피사체를 재생, 출력하는 것이어도 괜찮지만 복수의 촬상장치 사이의 촬영 시각이 완전히 일치해야 정밀도가 높아진다.For example, a video camera (recorder) may reproduce and output a subject previously photographed or recorded, but the accuracy is increased when the photographing times of the plurality of imaging devices are completely coincident with each other.

이것은 촬상되는 화상에 시간적인 어긋남이 있는 경우 대상 물체가 이동한 것인지 그렇지 않으면 시차가 존재한 것인지를 판별할 수 없게 되기 때문이다.This is because when there is a temporal shift in the image to be imaged, it is impossible to determine whether the object has moved or if there is a parallax.

여기서,“시계열”이란 일정한 주기, 예를 들면 NTSC(30프레임/초)와 같이 일정 간격으로 정지 화상이 시간축 위에 올바르게 연속하고 있는 의미로 해석된다.Here, "time series" is interpreted to mean that a still image is correctly continuous on the time axis at a fixed interval, for example, NTSC (30 frames / second).

이하, 전술한 거리 계측 장치를 이용하는 본 발명의 물체 인식 및 거리 계측 과정에 대해 상술하기로 한다.Hereinafter, the object recognition and the distance measuring process of the present invention using the above-described distance measuring device will be described in detail.

1. 호모그래피(Homography) 변환1. Homography Transform

차량(1) 상단에 전방을 향해 장착된 복수의 촬상장치(3)가 전방의 피사체를 포함하는 화상을 일정 또는 부정 주기로 촬상하여 시계열적인 화상, 즉 동화상을 출력한다. A plurality of imaging devices 3 mounted forward on the top of the vehicle 1 pick up an image including the subject in front of the vehicle at a constant or irregular period and output a time series image, that is, a moving image.

그리고, 물체인식/거리계측 유니트(4)가 촬상장치로부터 출력되는 시계열적인 화상을 차례로 수신받고, 물체인식/거리계측 유니트 내 시점 변환 수단이 촬상장치 간의 위치 관계를 바탕으로 상기 화상에 대해 시점 변환을 수행한다. Then, the object recognition / distance measuring unit 4 receives the time series images output from the imaging device in turn, and the viewpoint conversion means in the object recognition / distance measurement unit converts the viewpoint to the image based on the positional relationship between the imaging apparatuses. Do this.

시점 변환 과정에서, 교정 패턴을 촬상한 화상을 이용하고, 복수의 촬상장치, 즉 복수의 카메라 간의 공간적 위치 관계를 대응시키는 호모그래피 행렬을 작성하여 상기 호모그래피 행렬을 이용해 화상에 대해 사영 변환을 수행하며, 촬상된 화상 간의 위치 관계를 대응시킨다.In the viewpoint transformation process, a homography matrix is formed by using an image obtained by capturing a correction pattern, and a spatial position relationship between a plurality of imaging apparatuses, that is, a plurality of cameras, is used to perform projective transformation on an image using the homography matrix. The positional relationship between the picked-up images is matched.

여기서, 교정 패턴에 대해 설명하면, 카메라의 광학적인 렌즈 왜곡이나 촬상 위치의 차이 등의 교정에 이용하는 정방 격자 모양의 패턴이며, 육안 보정하는 경우나 화상 처리로 반 자동적으로 교정하는 경우도 있고, 체스 보드 패턴이나 QR 코드와 같이 방향성을 가진 것을 이용하기도 한다.Here, the correction pattern will be described as a square lattice pattern used for correction of optical lens distortion of the camera, difference in image pickup position, etc., and may be corrected semi-automatically by visual correction or image processing. Some people use directionality such as board patterns or QR codes.

또한 사영 변환에 대해 설명하면, 이는 화상 처리에 있어서 기하 변환의 일종인데, 픽셀의 좌표변화를 행하는 이론이고, 어느 점으로부터 투영한 화상을 원하는 출력 평면에서 차단하는 변환을 픽셀의 재배치에 의해서 행한다.In addition, when the projection transformation is explained, this is a kind of geometric transformation in image processing, which is the theory of changing the coordinates of pixels, and performing the transformation by blocking the image projected from a point at a desired output plane by rearranging the pixels.

그리고, 입체물 후보 추출 수단이 상기 화상에 포함되는 입체물 후보를 추출하고, 대응 위치 인식 수단이 추출된 입체물 후보에 대해 복수 화상의 대응 위치를 산출한다.Then, the three-dimensional object candidate extracting means extracts the three-dimensional object candidate included in the image, and the corresponding position recognition means calculates the corresponding positions of the plurality of images with respect to the extracted three-dimensional object candidate.

상기 대응 위치 인식 수단은 시점 변환 수단에 의해 위치 관계가 대응된 화상 간부터 거리에 따른 시차를 바탕으로 촬영된 물체까지의 거리를 산출하는 스테레오 처리를 블록매칭(BlockMatching)에 의해서 수행한다.The corresponding position recognizing means performs stereo processing by block matching to calculate the distance from the image corresponding to the positional relationship by the viewpoint conversion means to the photographed object based on the parallax according to the distance.

그리고, 평면 인식 수단은 대응 위치 인식 후보로부터 입체물을 확정하게 되는데, 상기 대응 위치 인식 수단에 의해 출력되는 거리 화상을 이용하여 촬상된 물체가 평면에 속하는 물체인지 그렇지 않으면 평면으로부터 입체적으로 존재하는 물체인지를 식별하게 된다.Then, the plane recognition means determines the three-dimensional object from the corresponding position recognition candidate, and whether the object photographed using the distance image output by the corresponding position recognition means is an object belonging to the plane or an object three-dimensionally present from the plane. Will be identified.

그리고, 출력 수단은 상기 입체물 확정 결과로부터 교차점 위치를 확정해 출력하며, 평면으로 인식한 물체와 입체물로 인식한 물체를 종합해 인식하고, 교차점이라고 판단되는 영역을 출력하게 된다.Then, the output means determines and outputs the intersection position from the three-dimensional object determination result, aggregates and recognizes the object recognized as the plane and the object recognized as the three-dimensional object, and outputs the area determined as the intersection point.

상기 촬상장치로서 차량에 복수의 카메라를 설치하는 경우에 있어서, 좌우의 카메라 간에 미소한 위치 이탈이 발생할 수 있으며, 그 미소한 위치 이탈을 화상상에서 보정하고 또한 좌우의 카메라 간의 시차가 0이 되도록 호모그래피(Homography) 행렬을 이용하여 변환을 실시한다.In the case where a plurality of cameras are provided in a vehicle as the imaging device, a slight deviation may occur between the left and right cameras, and the homogeneous deviation is corrected on the image and the parallax between the left and right cameras becomes zero. The transformation is performed using a Homography matrix.

상기 호모그래피 행렬은 복수의 카메라를 이용하여 화상을 찍는 경우에 각 카메라 간의 위치나 자세를 산출하기 위한 행렬이고, 이러한 호모그래피 행렬을 이용하여 카메라 간의 위치 관계를 동등하게 하는 변환을 호모그래피 변환이라 부른다.The homography matrix is a matrix for calculating positions or postures between cameras when an image is taken using a plurality of cameras, and a transformation for equalizing a positional relationship between cameras using the homography matrix is called a homography transformation. Call.

이러한 호모그래피 변환을 실시하는 것에 의하여 카메라의 엄격한 설치 조건이 완화될 수 있고, 또한 카메라 간의 좌표를 공통화할 수 있기 때문에 시차만을 추출할 수 있게 된다.By performing such a homography conversion, strict installation conditions of the camera can be alleviated, and since the coordinates between the cameras can be common, only parallax can be extracted.

상기 호모그래피 행렬은 좌우 카메라의 위치 관계를 정의하는 것이고, 카메라가 고정되면 값은 일정하게 정해진다. The homography matrix defines the positional relationship of the left and right cameras, and the value is fixed when the camera is fixed.

따라서, 카메라의 배치, 간격, 고정 방법을 변경했을 경우에 교정(Calibration)을 행하여야 한다.Therefore, calibration should be performed when the arrangement, spacing, and fixing method of the camera are changed.

1-1. 제1교정(Calibration 1)1-1. Calibration 1

제1교정으로서, 인간의 시각 특성과 마찬가지로 거리에 따라 좌우의 시차가 발생하도록 교정을 실시한다.As the first calibration, correction is performed so that left and right disparities occur in accordance with the distance, similarly to the human visual characteristics.

첨부한 도 2에 나타낸 바와 같이, 호모그래피 변환을, 전방이 있는 거리에 설치한 평면에 대해서, 카메라 쌍이 수직이 되도록 교정을 실시한다.As shown in FIG. 2, the homography conversion is corrected so that the pair of cameras is perpendicular to the plane provided at a distance in front of the camera.

이는 호모그래피 행렬을 이용하는 것으로, 좌우의 시차가 카메라로부터 물체까지의 거리와 대응한다.This uses a homography matrix, where the parallax of the left and right correspond to the distance from the camera to the object.

1-2. 제2교정(Calibration 2)1-2. Calibration 2

상기 제1교정에서와 마찬가지로 차량이 존재하는 평면(여기에서는 지면)을 이용하여 동일하게 교정을 실시한다.As in the first calibration, the same calibration is performed using the plane where the vehicle exists (here, ground).

여기서는 제1교정에서 행한 평면을 90°전방으로 변화시킨 노면(수평인 평면)을 이용해 행하는 것으로, 첨부한 도 3에 나타낸 바와 같이 좌우 카메라 간의 시차가 깊이 거리 방향과 높이 방향을 포함한 것이 되어, 지면 영역에 대해서 시차가 0이 되는 화상을 얻을 수 있다.In this case, it is performed using a road surface (horizontal plane) in which the plane performed by the first calibration is changed by 90 ° forward. As shown in FIG. 3, the parallax between the left and right cameras includes a depth distance direction and a height direction. An image in which parallax becomes zero with respect to the area can be obtained.

물체의 높이를 계측하는 경우, 카메라를 천정 등에 설치해서 전방으로 멀리 부감(俯瞰)하는 형태로 설치한 뒤 높이를 거리로서 계측하는 것이 일반적인 방법이지만, 노면에서 교정한 호모그래피 행렬을 이용하여 좌우 카메라 화상 간의 시차를 산출하는 것으로, 물체의 높이와 물체까지의 거리를 모두 포함한“거리 + 높이”의 합성 거리를 의사적으로 산출할 수 있다.In the case of measuring the height of an object, it is a common method to install the camera in a ceiling or the like, and to measure the height as a distance after installing the camera in the shape of a distance from the front, but using the homography matrix corrected on the road surface, the left and right cameras By calculating the parallax between images, the composite distance of "distance + height" including both the height of the object and the distance to the object can be calculated pseudo-wise.

1-3. 스테레오(Stereo) 처리1-3. Stereo Processing

촬상된 물체까지의 거리를 계측하기 위해서, 상기 교정 과정을 통해 구한 시차 화상으로부터 화상 간의 대응점을 검출하는 블록매칭(BlockMatching) 처리를 이용하여 거리를 산출한다.In order to measure the distance to the picked-up object, the distance is calculated using a BlockMatching process which detects a corresponding point between the images from the parallax image obtained through the calibration process.

여기서, 시차가 있는 2장의 화상은 거리 정보를 농담으로 표현한 거리 화상으로 변환된다.Here, two images with parallax are converted into distance images in which the distance information is expressed in shades of light.

이상의 순서로 구한 거리 화상은 각각의 교정 수법에 따라서 첨부한 도 5a 및 도 5b의 두 화상이 된다.The distance images obtained in the above procedure become the two images of FIGS. 5A and 5B attached according to the respective calibration methods.

이와 같이 카메라 쌍 정면으로 교정을 행한 도 5a에서는 전방의 거리에 따른 화상이 출력되고, 또 노면으로 교정을 행한 도 5b에서는 노면이 아닌 부분(높이가 있는 입체물)만이 출력되고 있음을 알 수 있다.As shown in FIG. 5A in which the front of the camera pair is calibrated in this manner, an image according to the distance in front of the camera is output, and in FIG. 5B in which the road surface is corrected, only a portion (three-dimensional object having a height) is output.

이처럼 차량이 존재하는 평면(여기에서는 노면)과는 다른 높이에 존재하는 입체물을 검출할 수 있는 것으로, 차량의 자동 제어나 장애물 회피에 응용이 가능하다.In this way, it is possible to detect three-dimensional objects existing at a different height from the plane where the vehicle exists (here, the road surface), and thus it is possible to apply the vehicle to automatic control or obstacle avoidance.

1-4. 입체물 검출 처리1-4. Stereoscopic object detection processing

상기 두 종류의 교정을 이용한 스테레오(Stereo) 거리 화상을 조합시키는 것으로, 화상 내에 존재하는 물체의 높이와 거리를 각각 따로 추출할 수 있다.By combining stereo distance images using the two types of correction, the height and distance of an object existing in the image can be extracted separately.

결국, 하기 식(1)과 도 6에 나타낸 바와 같이, 깊이 거리를 가지는 제1교정의 화상과, 높이와 깊이를 포함한 제2교정의 화상 차이를 구하는 것으로, 높이 정 보만을 추출한다. As a result, as shown in the following equation (1) and FIG. 6, only the height information is extracted by obtaining the difference between the image of the first correction having a depth distance and the image of the second correction including the height and the depth.

이것은 스테레오 처리로 산출된 거리 화상의 차분과 같다.This is equal to the difference of the distance image calculated by the stereo processing.

Figure 112006091916332-PAT00001
(1)
Figure 112006091916332-PAT00001
(One)

이상의 수법을 이용하는 것으로, 종래의 깊이 거리에 그 물체의 높이를 더한 상세한 판별이 가능해지고, 노면 등에 표시되어 있는 노표나 백선 등 높이를 가지지 않는 물체가 검출되지 않도록 할 수 있어, 높이를 가지는 입체 구조물만 감지하는 시스템의 구축이 가능해진다.By using the above technique, it is possible to make a detailed determination by adding the height of the object to the conventional depth distance, and to prevent the object not having a height, such as a road mark or a white line, displayed on a road surface, to be detected, and having a three-dimensional structure having a height. It is possible to build a system that only detects.

1-5. 교차점 검출 처리1-5. Intersection detection processing

교차점 감지에는 복수의 촬상장치 사이의 위치 관계를 이용하고, 촬상장치 정면에서 시차가 0이 되도록 한 화상(도 5a)과, 지면 영역에 대해서 시차가 0이 되게 한 화상(도 5b) 2장을 이용한다.For the detection of the intersection points, the positional relationship between the plurality of imaging devices is used, and two images (Fig. 5A) in which the parallax is zero at the front of the imaging device and two images (Fig. 5B) in which the parallax is zero for the ground area are shown. I use it.

교차점이란, 자신의 차 진로와 동일 평면상에 존재하지만, 건물 등의 건축물에 의해 사각이 되는 영역(전망이 나쁜 영역)에서, 차 진로 방향과 교차하는 방향으로 보행자, 차량 등이 존재하는 평면과의 교점을 가리킨다.An intersection point is a plane that exists on the same plane as its own car path, but where a pedestrian, vehicle, etc. exist in a direction intersecting the car path direction in an area that is blinded by a building such as a building. Point to the intersection of.

우선, 입체물 검출 처리를 이용해 화상 중에 존재하는 노면과는 높이가 다른 영역을 검출한다. First, a three-dimensional object detection process is used to detect an area different in height from the road surface existing in the image.

이것은 도 5b의 높이 정보만을 꺼내는 것과 같고, 노면과는 높이가 다른 입체물을 검출하는 것이 된다(첨부한 도 7 참조).This is equivalent to taking out only the height information in FIG. 5B, and detecting a three-dimensional object having a different height from the road surface (see FIG. 7 attached).

또한 바로 앞 전방에서 무한 원점(선이 수렴하는 점. 일반적으로 도로상에서는 백선의 수렴하는 점을 가리킨다)을 향하는 방사 직선상을 전방으로부터 탐색하고, 건축물 등의 입체 구조물보다도 먼 곳에 노면 영역이 존재하는 경우는 입체 구조물의 배후에 도로 영역이 존재(옆길, T자로, 교차점)하는 것으로 판단하며, 그 위치를 교차점 가능 영역이라 한다(첨부한 도 8 참조).In addition, it searches for a radial straight line from the front to the infinite origin (the point where the line converges. In general, the point of convergence of the white line on the road) from the front, and the road area exists farther than the three-dimensional structure such as a building. In this case, it is determined that the road area exists behind the three-dimensional structure (side road, T-shape, intersection point), and the position is called an intersection point possible area (see FIG. 8 attached).

이 교차점 가능 영역의 존재하는 거리를 깊이 거리 화상에 의해 판별하여 통보제어 유니트(5)가 운전자에게 경고, 통지 또는 제어하는 것으로, 돌발적인 사고 등을 미연에 회피할 수 있게 된다.By determining the distance existing in the intersection possible area by the depth distance image, the notification control unit 5 warns, notifies, or controls the driver, so that an accident or the like can be avoided in advance.

이상에서 설명한 바와 같이, 본 발명에서는 시계열적으로 연속하는 피사체를 포함하는 복수의 화상 중에서 소정의 조건을 만족하는 보행자 위치 후보를 인식하여, 정지 물체와 사람을 판별한다. 차량 간 자동제어장치 등과 병용하여 적용하는 경우에 위험 회피나 피해 저감, 운전 지원, 주의 환기 등을 행할 수 있다. 또한 기존의 시스템과 달리, 거리 화상과 농담 화상의 양면으로부터 대상을 판별하는 시스템이므로, 환경 인식 기술을 실용화하는데 있어서 해결 과제가 되어왔던 감지해도 제어가 늦은 경우 등의 문제점이 해결될 수 있고, 다양한 시스템에 응용이 가능하다.As described above, in the present invention, a pedestrian position candidate that satisfies a predetermined condition is recognized from a plurality of images including time-series consecutive subjects, and a still object and a person are discriminated. When applied in combination with an automatic control device between vehicles, it is possible to avoid danger, reduce damage, support driving, and call attention. In addition, unlike the existing system, since it is a system for discriminating an object from both sides of a street image and a shaded image, problems such as the case of late control may be solved even if the detection has been a problem in the practical application of environmental recognition technology. Application to the system is possible.

Claims (4)

차량에 장착된 복수의 촬상장치를 이용해 피사체를 포함하는 화상을 촬상하는 단계와;Imaging an image including a subject using a plurality of imaging devices mounted on the vehicle; 교정 패턴을 촬상한 화상을 이용해 복수의 촬상장치 간의 공간적 위치 관계를 대응시키도록 작성된 호모그래피 행렬을 이용하여 상기 복수의 촬상장치로부터 촬상된 화상에 대해 사영 변환을 수행하고 촬상된 화상 간의 위치 관계를 대응시키는 호모그래피 변환을 수행하는 단계와;Projection transformation is performed on the images picked up from the plurality of imaging devices using a homography matrix created to correspond to the spatial positional relationship between the plurality of imaging devices using the image picked up the calibration pattern, and the positional relationship between the picked up images is obtained. Performing a corresponding homography transform; 상기 화상에 포함되는 입체물 후보를 추출하고, 추출된 입체물 후보에 대해 복수 화상의 대응 위치를 산출하되, 위치 관계가 대응된 화상 간부터 거리에 따른 시차를 바탕으로 촬영된 물체까지의 거리를 산출하는 스테레오 처리를 수행하는 단계와;Extracting the three-dimensional object candidate included in the image and calculating the corresponding positions of the plurality of images with respect to the extracted three-dimensional object candidate, and calculating the distance from the image corresponding to the position relation to the photographed object based on the parallax according to the distance. Performing stereo processing; 대응 위치 인식 후보로부터 입체물을 확정하되, 상기 스테레오 처리된 거리 화상을 이용해 촬상된 물체가 평면에 속하는 물체(노면 영역)인지 또는 입체적으로 존재하는 입체물인지를 식별한 뒤 교차점 위치를 판별하는 단계;Determining a three-dimensional object from a corresponding position recognition candidate, and identifying an intersection point after identifying whether the photographed object is an object (a road surface area) or a three-dimensional solid object by using the stereo processed distance image; 를 포함하는 물체 인식 및 거리 계측 방법.Object recognition and distance measurement method comprising a. 청구항 1에 있어서,The method according to claim 1, 상기 호모그래피 변환을 수행하는 단계는, 상기 호모그래피 행렬을 이용하여 상기 복수의 촬상장치로부터 촬상된 화상에 대해 거리에 따라 좌우의 시차가 발생하도록 하면서 촬상된 전방 평면에 대해 수직 평면이 되도록 교정을 실시하는 제1교정 단계와, 상기 호모그래피 행렬을 이용하여 상기 제1교정 단계에서 행한 평면을 90° 전방으로 변화시킨 노면에 대해 교정을 실시하여 지면 영역에 대해서는 시차가 0이 되는 화상을 얻는 제2교정단계를 포함하고,The performing of the homography transformation may be performed by using the homography matrix to correct the image to be perpendicular to the photographed front plane while generating parallax between left and right according to distance with respect to the images photographed from the plurality of imaging devices. A first correction step for performing the correction and a road surface in which the plane made in the first correction step is changed by 90 ° by using the homography matrix to obtain an image having zero parallax for the ground area; 2 calibration steps, 상기 스테레오 처리는, 상기 교정 과정을 통해 구한 시차 화상으로부터 화상 간의 대응점을 검출하는 블록매칭 처리를 이용하여 거리 정보를 농담으로 표현한 거리 화상을 구하는 것을 특징으로 하는 것을 특징으로 하는 물체 인식 및 거리 계측 방법.In the stereo processing, the object recognition and the distance measuring method are characterized by obtaining a distance image in which the distance information is expressed using a block matching process for detecting a corresponding point between the images from the parallax image obtained through the correction process. . 청구항 2에 있어서,The method according to claim 2, 상기 스테레오 처리된 거리 화상을 이용해 촬상된 물체가 평면에 속하는 물체인지 입체적으로 존재하는 입체물인지를 식별하는 과정은,The process of identifying whether the photographed object is an object belonging to a plane or a three-dimensional object existing in three dimensions by using the stereo processed distance image, 상기 제1교정의 화상으로부터 처리된 거리 정보를 가지는 화상과, 상기 제2교정의 화상으로부터 처리된 높이와 거리 정보를 가지는 화상의 화상 차이를 구하여 노면으로부터 높이를 가지는 입체물을 식별하는 것을 특징으로 하는 물체 인식 및 거리 계측 방법.Characterized in that the image difference between the image having the distance information processed from the image of the first correction and the image having the height and distance information processed from the image of the second correction is obtained to identify the three-dimensional object having the height from the road surface. Object recognition and distance measurement method. 청구항 1에 있어서,The method according to claim 1, 상기 교차점 위치를 판별하는 단계는,The determining of the intersection point location, 전방의 무한 원점을 향하는 방사 직선상을 바로 앞 전방으로부터 탐색하고, 노면 영역과는 높이가 다른 식별된 입체물보다 먼 곳에 노면 영역이 존재하는 경우에 입체물의 배후에 도로 영역이 존재하는 교차점 위치로 판단하는 것을 특징으로 하는 물체 인식 및 거리 계측 방법.A radial straight line directed toward the infinite origin in front is searched from the front in front, and when the road area exists farther than the identified solid object different from the road area, it is determined as the intersection position where the road area exists behind the three-dimensional object. Object recognition and distance measuring method characterized in that.
KR1020060126242A 2006-12-12 2006-12-12 Method for object recognizing and distance measuring KR100844640B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060126242A KR100844640B1 (en) 2006-12-12 2006-12-12 Method for object recognizing and distance measuring

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060126242A KR100844640B1 (en) 2006-12-12 2006-12-12 Method for object recognizing and distance measuring

Publications (2)

Publication Number Publication Date
KR20080054094A true KR20080054094A (en) 2008-06-17
KR100844640B1 KR100844640B1 (en) 2008-07-07

Family

ID=39801167

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060126242A KR100844640B1 (en) 2006-12-12 2006-12-12 Method for object recognizing and distance measuring

Country Status (1)

Country Link
KR (1) KR100844640B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100938194B1 (en) * 2008-07-28 2010-01-21 재단법인대구경북과학기술원 Method for detecting an object and apparatus for the same
KR101275823B1 (en) * 2011-04-28 2013-06-18 (주) 에투시스템 Device for detecting 3d object using plural camera and method therefor
KR20130068243A (en) * 2011-12-15 2013-06-26 한국전자통신연구원 Image registration device and method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE519884C2 (en) 2001-02-02 2003-04-22 Scalado Ab Method for zooming and producing a zoomable image
JP2005004487A (en) 2003-06-12 2005-01-06 Sony Corp Apparatus and method for processing surround image photographed on capture path
US7742634B2 (en) * 2005-03-15 2010-06-22 Omron Corporation Image processing method, three-dimensional position measuring method and image processing apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100938194B1 (en) * 2008-07-28 2010-01-21 재단법인대구경북과학기술원 Method for detecting an object and apparatus for the same
KR101275823B1 (en) * 2011-04-28 2013-06-18 (주) 에투시스템 Device for detecting 3d object using plural camera and method therefor
KR20130068243A (en) * 2011-12-15 2013-06-26 한국전자통신연구원 Image registration device and method thereof
US8755624B2 (en) 2011-12-15 2014-06-17 Electronics & Telecommunications Research Institute Image registration device and method thereof

Also Published As

Publication number Publication date
KR100844640B1 (en) 2008-07-07

Similar Documents

Publication Publication Date Title
CN107738612B (en) Automatic parking space detection and identification system based on panoramic vision auxiliary system
EP3057063B1 (en) Object detection device and vehicle using same
US7321386B2 (en) Robust stereo-driven video-based surveillance
JP4612635B2 (en) Moving object detection using computer vision adaptable to low illumination depth
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP4173902B2 (en) Vehicle periphery monitoring device
US20150348416A1 (en) Obstacle detection device and electric-powered vehicle provided therewith
US7957556B2 (en) Vehicle surroundings monitoring apparatus, vehicle, vehicle surroundings monitoring method, and vehicle surroundings monitoring program
JP2003083742A (en) Distance correction apparatus and method of monitoring system
KR20160062880A (en) road traffic information management system for g using camera and radar
JP2012075060A (en) Image processing device, and imaging device using the same
JP2009064410A (en) Method for detecting moving objects in blind spot of vehicle and blind spot detection device
JP4528283B2 (en) Vehicle periphery monitoring device
US10672141B2 (en) Device, method, system and computer-readable medium for determining collision target object rejection
WO2020086698A1 (en) Methods and systems used to measure tire treads
Akamatsu et al. Development of a person counting system using a 3D laser scanner
KR20120108256A (en) Robot fish localization system using artificial markers and method of the same
JPH11257931A (en) Object recognizing device
JP4123138B2 (en) Vehicle detection method and vehicle detection device
KR100844640B1 (en) Method for object recognizing and distance measuring
JP2018073275A (en) Image recognition device
KR20200068045A (en) Around view monitoring system and method for detecting parking line with deep learning
JP2008165595A (en) Obstacle detection method, obstacle detection device, and obstacle detection system
Naser et al. Infrastructure-free NLoS obstacle detection for autonomous cars
JP2011103058A (en) Erroneous recognition prevention device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130627

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140630

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee