KR20080054094A - Method for object recognizing and distance measuring - Google Patents
Method for object recognizing and distance measuring Download PDFInfo
- Publication number
- KR20080054094A KR20080054094A KR1020060126242A KR20060126242A KR20080054094A KR 20080054094 A KR20080054094 A KR 20080054094A KR 1020060126242 A KR1020060126242 A KR 1020060126242A KR 20060126242 A KR20060126242 A KR 20060126242A KR 20080054094 A KR20080054094 A KR 20080054094A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- distance
- images
- correction
- parallax
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 239000011159 matrix material Substances 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims abstract description 12
- 230000009466 transformation Effects 0.000 claims abstract description 12
- 239000007787 solid Substances 0.000 claims abstract 6
- 238000003384 imaging method Methods 0.000 claims description 26
- 238000012937 correction Methods 0.000 claims description 14
- 238000000691 measurement method Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 abstract description 15
- 238000001514 detection method Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 206010027339 Menstruation irregular Diseases 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
Abstract
Description
도 1은 본 발명에 따른 거리 계측 장치의 구성 및 각 구성부의 설치상태를 나타낸 도면,1 is a view showing the configuration of the distance measuring device according to the present invention and the installation state of each component;
도 2는 본 발명에서 제1교정을 설명하기 위한 도면,2 is a view for explaining a first calibration in the present invention,
도 3은 본 발명에서 제2교정을 설명하기 위한 도면,3 is a view for explaining a second calibration in the present invention,
도 4는 본 발명에서 복수의 찰상장치로 찰상된 원화상을 나타낸 도면,4 is a view showing an original image scratched with a plurality of scratch apparatus in the present invention,
도 5a와 도 5b는 본 발명에서 교정을 행한 화상의 예를 나타낸 도면,5A and 5B are diagrams showing examples of images corrected in the present invention;
도 6는 본 발명에서 높이 정보 추출을 설명하기 위한 도면,6 is a view for explaining the extraction of height information in the present invention,
도 7은 본 발명에서 입체물 검출을 설명하기 위한 도면,7 is a view for explaining three-dimensional object detection in the present invention,
도 8은 본 발명에서 교차점 검출을 설명하기 위한 도면,8 is a view for explaining intersection detection in the present invention,
도 9은 시계열 화상을 설명하기 위한 도면.9 is a diagram for explaining a time series image.
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for main parts of the drawings>
1 : 차량 2 : 계측 장치1: vehicle 2: measuring device
3 : 촬상장치 4 : 물체인식/거리계측 유니트3: Image pickup device 4: Object recognition / distance measurement unit
5 : 통보제어 유니트 6 : 조명장치5: Notification control unit 6: Lighting device
본 발명은 물체 인식 및 거리 계측 방법에 관한 것으로서, 더욱 상세하게는 자동차 등에서 차량 운전 지원이나 자동 제어 등에 사용할 수 있는 물체 인식 및 거리 계측 방법에 관한 것이다.The present invention relates to a method for object recognition and distance measurement, and more particularly, to an object recognition and distance measurement method that can be used for vehicle driving assistance or automatic control in an automobile or the like.
오늘날, 공업용 기계 장치나 오락용 완구 등에서의 환경 인식(예, 환경 맵의 작성, 진로 예측, 이동 제어) 또는 자동차 등의 차량 운전 지원이나 자동 제어(예, 장애물이나 보행자 감지, 프리-크래쉬 세이프티(Pre-Crash Safety) 등)를 위하여, 물체 인식 및 거리 계측을 정확히 수행할 수 있는 장치나 방법에 대해 많은 연구가 이루어지고 있다.Today, environmental awareness (e.g., environmental maps, course prediction, movement control) in industrial machinery, recreational toys, etc. or vehicle driving assistance or automatic control (e.g. obstacles, pedestrian detection, pre-crash safety) For pre-crash safety, etc.), a lot of research is being conducted on devices or methods that can accurately perform object recognition and distance measurement.
특히, 최근의 자동차 분야에서는 전방의 물체를 인식하고 차량의 속도를 제어하거나 위험 회피를 수행하는 시스템 등이 실용화되고 있으며, 이러한 시스템의 구성 및 운용에 있어서 무엇보다 중요하게 선결되어야 할 것이 정확하고 신속한 대상 물체 인식 및 거리 계측이라 할 수 있다.In particular, in recent automobile fields, a system for recognizing an object in front of the vehicle, controlling the speed of the vehicle, or performing a hazard avoidance has been put into practical use, and the most important thing in the construction and operation of such a system is precise and rapid. It can be called object recognition and distance measurement.
이러한 물체 인식 및 거리 계측을 위해서는 특정 방향을 감시하는 센서를 이용하게 된다.For object recognition and distance measurement, sensors that monitor specific directions are used.
그러나, 상기의 센서를 이용한다고 해도 그늘 등으로부터 물체가 갑자기 튀어나오거나 낙하물이 상공으로부터 갑자기 낙하하는 경우 등에 대해서는 대상 물체 에 대응하기 위한 제어 수행까지 시간이 촉박하고, 주어진 시간 내에 위험을 회피하는 등의 제어를 수행 및 완료하는 데에는 많은 어려움이 있는 것이 사실이다.However, even when the sensor is used, in case of an object popping out suddenly from a shade or the like and a falling object falls suddenly from the air, the time is limited until the control is performed to respond to the target object, and the risk is avoided within a given time. It is true that there are many difficulties in carrying out and completing the control of.
또한 화상 인식 기술을 이용한 시스템의 경우에도 도로의 노면상에 그려진 노표 등을 장애물로 오인식하는 경우가 많고, 아직까지 모든 화상에 대하여 장애물을 식별할 수 있는 시스템이 개발되어 있지 않은 것이 현실이다.In addition, even in the case of a system using image recognition technology, a road marking drawn on a road surface is often mistaken as an obstacle, and in reality, a system capable of identifying an obstacle for all images has not been developed.
정확한 물체 인식을 위해서는 화상의 농담(濃淡) 정보로부터 물체를 식별하는 기술이 필요하다.For accurate object recognition, a technique for identifying an object from the shaded information of the image is required.
따라서, 본 발명은 상기와 같은 문제점을 해결하기 위하여 발명한 것으로서, 자동차에서 주행 중에 전방을 감시하는 센서의 정보를 이용하여 물체가 갑자기 튀어나올 가능성이 있는 장소(교차점 등)를 감지한 뒤 운전자에게 주의를 환기시키거나 기계 제어의 경우에서 속도의 제어 및 위험 회피 등의 자동 제어를 수행할 수 있게 하여 사고를 미연에 방지할 수 있게 하기 위한 물체 인식 및 거리 계측 방법을 제공하는데 그 목적이 있다.Accordingly, the present invention has been invented to solve the above problems, by using the information of the sensor to monitor the front while driving in the vehicle to detect the place where the object may suddenly pop out (intersection, etc.) to the driver It is an object of the present invention to provide a method of object recognition and distance measurement to call attention or to perform automatic control such as speed control and danger avoidance in the case of mechanical control so that accidents can be prevented in advance.
또한 본 발명은 복수의 카메라를 이용하여 입체물과 평면을 식별하고 노면에 그려진 노표 등의 문자나 무늬 등에 오반응하는 것을 억제하고, 이를 통해 정확한 물체 식별 및 보다 많은 유연성을 가지는 시스템을 구축할 수 있는 물체 인식 및 거리 계측 방법을 제공하는데 그 목적이 있다.In addition, the present invention by using a plurality of cameras to identify three-dimensional objects and planes, and to prevent incorrect reaction to letters or patterns, such as road signs drawn on the road surface, through which a system having accurate object identification and more flexibility can be built The object is to provide a method for object recognition and distance measurement.
이하, 첨부한 도면을 참조하여 본 발명에 대해 상세히 설명하면 다음과 같다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
첨부한 도 1은 본 발명에 따른 거리 계측 장치의 구성 및 각 구성부의 설치상태를 나타낸 도면으로, 차량에 탑재되는 거리 계측 장치의 실시예를 도시한 도면이다. 1 is a view showing a configuration of a distance measuring device according to the present invention and an installation state of each component, and showing an embodiment of a distance measuring device mounted on a vehicle.
도시된 바와 같이, 차량(1)에 탑재되는 본 발명의 계측 장치(2)는 복수의 촬상장치(3), 물체인식/거리계측 유니트(4), 통보제어 유니트(5), 조명장치(6)를 포함하여 구성된다.As shown in the drawing, the
상기 촬상장치(3)는 소정 화상각을 가지는 렌즈를 구비하는 것으로, 복수의 촬상장치가 차량의 특정 방향을 향해 설치되는 바, 도시한 예에서는 복수의 촬상장치(3)들이 차량 전방의 화상을 촬상할 수 있도록 설치되고 있다.The
상기 촬상장치(3)는 일정 주기, 예를 들면 초당 30 프레임의 속도로 전방의 화상을 촬상하고, 시계열 화상, 즉 동화상을 촬상하고 촬상된 동화상을 출력하게 된다.The
상기 촬상장치(3)로는 촬상 소자의 방식을 한정하지 않고 CMOS, CCD, 진공관 방식 등의 소자를 사용한 카메라들이 사용될 수 있고, 화상을 생성할 수 있는 소자가 사용된 것이라면 종류에 관계없이 사용 가능하다. As the
다만, 실외 환경에서 사용할 수 있고 차량에 탑재할 수 있는 것이면서 CMOS, CCD 등의 반도체 소자가 사용된 것이 바람직하다.However, it is preferable that semiconductor devices such as CMOS and CCD can be used while being usable in an outdoor environment and mounted in a vehicle.
또한 촬상장치(3)는 일정 주기로 전방의 화상을 촬상할 수 있고(일정 주기가 바람직하지만 일정 주기가 아니라도 상관 없음), 시계열적인 순서가 바뀌지 않은 동화상을 출력할 수 있는 것이면 좋다.In addition, the
다음으로, 상기 물체인식/거리계측 유니트(4)는 촬상장치(3)에 의해 촬상되어 그로부터 출력되는 시계열의 화상을 차례로 수신받고, 차량 전방에 존재하는 물체의 거리를 계측하여 계측 결과에 따른 신호를 출력하는 구성부이다.Next, the object recognition /
그리고, 상기 물체인식/거리계측 유니트(4)가 출력하는 계측 신호는 통보제어 유니트(5)로 전송되는데, 상기 통보제어 유니트(5)는 전송받은 계측 결과를 차량 내 운전자 또는 승원에게 통보하거나 자동으로 차량의 주행상태를 제어하는 구성부이다. In addition, the measurement signal output by the object recognition /
또한 상기 조명장치(6)는 촬상장치(3)의 시야에 근적외선 등을 포함하는 빛을 전방으로 조사하여 조명하는 장치로서, 촬상장치(3)가 사물을 촬영하는 방향, 예컨대 차량의 전방을 향해 빛을 조사할 수 있는 위치라면 어느 부위에 장착되어도 무방하며, 헤드 램프 혹은 안개등을 사용하거나 그와 유사한 별도의 조명장치를 구비한다. In addition, the
본 발명에서, 거리 계측이란 인간이 시각계를 통하여 외계에 존재하는 물체까지의 거리(높이 포함)를 인식하는 행위, 즉 미지의 입력 패턴을 양쪽 눈에서 인식한 경우에 물체의 종별로부터 미리 기억시킨 표준 패턴과의 유사성을 평가하고 가장 높은 유사성의 표준 패턴과 양쪽 눈의 시차를 고려하여 입력 패턴과의 거리를 인식하는 일련의 행위를 컴퓨터에 대행시키는 것을 말한다.In the present invention, distance measurement refers to the action of a human being recognizing the distance (including height) to an object existing in the outer world through a visual system, that is, when the unknown input pattern is recognized by both eyes. Refers to a computer performing a series of acts of evaluating the similarity with the standard pattern and recognizing the distance between the input pattern by considering the standard pattern of the highest similarity and the parallax of both eyes.
일반적으로 촬상장치는 매 초당 수십 프레임(NTSC에서는 30프레임/초)의 정지 화상의 열(비디오)을 생성 및 출력하고, 또 처리 장치는 상기 정지 화상의 열을 1장씩 차례차례 화상 처리해 가는 것이기 때문에, 이 화상을 수록(녹화)할 필요는 없고, 처리에 필요한 시간만 과거의 화상을 참조할 수 있는 기억 구역(링 버퍼 등)을 가지면 좋다.In general, the imaging device generates and outputs a sequence (video) of still images of several tens of frames per second (30 frames per second in NTSC), and the processing apparatus processes the images of the still images one by one. It is not necessary to record (record) this image, and it is sufficient to have a storage area (ring buffer or the like) in which only the time required for processing can refer to the past image.
다만, 상기 촬상장치에 대해서는 피사체를 실시간으로 촬상하는 것이어도 괜찮지만, 이것으로 한정하지는 않는다.However, the imaging device may be a real-time imaging of a subject, but is not limited thereto.
예를 들면, 비디오 카메라(녹화기)와 같이 사전에 촬영 혹은 녹화해 둔 피사체를 재생, 출력하는 것이어도 괜찮지만 복수의 촬상장치 사이의 촬영 시각이 완전히 일치해야 정밀도가 높아진다.For example, a video camera (recorder) may reproduce and output a subject previously photographed or recorded, but the accuracy is increased when the photographing times of the plurality of imaging devices are completely coincident with each other.
이것은 촬상되는 화상에 시간적인 어긋남이 있는 경우 대상 물체가 이동한 것인지 그렇지 않으면 시차가 존재한 것인지를 판별할 수 없게 되기 때문이다.This is because when there is a temporal shift in the image to be imaged, it is impossible to determine whether the object has moved or if there is a parallax.
여기서,“시계열”이란 일정한 주기, 예를 들면 NTSC(30프레임/초)와 같이 일정 간격으로 정지 화상이 시간축 위에 올바르게 연속하고 있는 의미로 해석된다.Here, "time series" is interpreted to mean that a still image is correctly continuous on the time axis at a fixed interval, for example, NTSC (30 frames / second).
이하, 전술한 거리 계측 장치를 이용하는 본 발명의 물체 인식 및 거리 계측 과정에 대해 상술하기로 한다.Hereinafter, the object recognition and the distance measuring process of the present invention using the above-described distance measuring device will be described in detail.
1. 호모그래피(Homography) 변환1. Homography Transform
차량(1) 상단에 전방을 향해 장착된 복수의 촬상장치(3)가 전방의 피사체를 포함하는 화상을 일정 또는 부정 주기로 촬상하여 시계열적인 화상, 즉 동화상을 출력한다. A plurality of
그리고, 물체인식/거리계측 유니트(4)가 촬상장치로부터 출력되는 시계열적인 화상을 차례로 수신받고, 물체인식/거리계측 유니트 내 시점 변환 수단이 촬상장치 간의 위치 관계를 바탕으로 상기 화상에 대해 시점 변환을 수행한다. Then, the object recognition /
시점 변환 과정에서, 교정 패턴을 촬상한 화상을 이용하고, 복수의 촬상장치, 즉 복수의 카메라 간의 공간적 위치 관계를 대응시키는 호모그래피 행렬을 작성하여 상기 호모그래피 행렬을 이용해 화상에 대해 사영 변환을 수행하며, 촬상된 화상 간의 위치 관계를 대응시킨다.In the viewpoint transformation process, a homography matrix is formed by using an image obtained by capturing a correction pattern, and a spatial position relationship between a plurality of imaging apparatuses, that is, a plurality of cameras, is used to perform projective transformation on an image using the homography matrix. The positional relationship between the picked-up images is matched.
여기서, 교정 패턴에 대해 설명하면, 카메라의 광학적인 렌즈 왜곡이나 촬상 위치의 차이 등의 교정에 이용하는 정방 격자 모양의 패턴이며, 육안 보정하는 경우나 화상 처리로 반 자동적으로 교정하는 경우도 있고, 체스 보드 패턴이나 QR 코드와 같이 방향성을 가진 것을 이용하기도 한다.Here, the correction pattern will be described as a square lattice pattern used for correction of optical lens distortion of the camera, difference in image pickup position, etc., and may be corrected semi-automatically by visual correction or image processing. Some people use directionality such as board patterns or QR codes.
또한 사영 변환에 대해 설명하면, 이는 화상 처리에 있어서 기하 변환의 일종인데, 픽셀의 좌표변화를 행하는 이론이고, 어느 점으로부터 투영한 화상을 원하는 출력 평면에서 차단하는 변환을 픽셀의 재배치에 의해서 행한다.In addition, when the projection transformation is explained, this is a kind of geometric transformation in image processing, which is the theory of changing the coordinates of pixels, and performing the transformation by blocking the image projected from a point at a desired output plane by rearranging the pixels.
그리고, 입체물 후보 추출 수단이 상기 화상에 포함되는 입체물 후보를 추출하고, 대응 위치 인식 수단이 추출된 입체물 후보에 대해 복수 화상의 대응 위치를 산출한다.Then, the three-dimensional object candidate extracting means extracts the three-dimensional object candidate included in the image, and the corresponding position recognition means calculates the corresponding positions of the plurality of images with respect to the extracted three-dimensional object candidate.
상기 대응 위치 인식 수단은 시점 변환 수단에 의해 위치 관계가 대응된 화상 간부터 거리에 따른 시차를 바탕으로 촬영된 물체까지의 거리를 산출하는 스테레오 처리를 블록매칭(BlockMatching)에 의해서 수행한다.The corresponding position recognizing means performs stereo processing by block matching to calculate the distance from the image corresponding to the positional relationship by the viewpoint conversion means to the photographed object based on the parallax according to the distance.
그리고, 평면 인식 수단은 대응 위치 인식 후보로부터 입체물을 확정하게 되는데, 상기 대응 위치 인식 수단에 의해 출력되는 거리 화상을 이용하여 촬상된 물체가 평면에 속하는 물체인지 그렇지 않으면 평면으로부터 입체적으로 존재하는 물체인지를 식별하게 된다.Then, the plane recognition means determines the three-dimensional object from the corresponding position recognition candidate, and whether the object photographed using the distance image output by the corresponding position recognition means is an object belonging to the plane or an object three-dimensionally present from the plane. Will be identified.
그리고, 출력 수단은 상기 입체물 확정 결과로부터 교차점 위치를 확정해 출력하며, 평면으로 인식한 물체와 입체물로 인식한 물체를 종합해 인식하고, 교차점이라고 판단되는 영역을 출력하게 된다.Then, the output means determines and outputs the intersection position from the three-dimensional object determination result, aggregates and recognizes the object recognized as the plane and the object recognized as the three-dimensional object, and outputs the area determined as the intersection point.
상기 촬상장치로서 차량에 복수의 카메라를 설치하는 경우에 있어서, 좌우의 카메라 간에 미소한 위치 이탈이 발생할 수 있으며, 그 미소한 위치 이탈을 화상상에서 보정하고 또한 좌우의 카메라 간의 시차가 0이 되도록 호모그래피(Homography) 행렬을 이용하여 변환을 실시한다.In the case where a plurality of cameras are provided in a vehicle as the imaging device, a slight deviation may occur between the left and right cameras, and the homogeneous deviation is corrected on the image and the parallax between the left and right cameras becomes zero. The transformation is performed using a Homography matrix.
상기 호모그래피 행렬은 복수의 카메라를 이용하여 화상을 찍는 경우에 각 카메라 간의 위치나 자세를 산출하기 위한 행렬이고, 이러한 호모그래피 행렬을 이용하여 카메라 간의 위치 관계를 동등하게 하는 변환을 호모그래피 변환이라 부른다.The homography matrix is a matrix for calculating positions or postures between cameras when an image is taken using a plurality of cameras, and a transformation for equalizing a positional relationship between cameras using the homography matrix is called a homography transformation. Call.
이러한 호모그래피 변환을 실시하는 것에 의하여 카메라의 엄격한 설치 조건이 완화될 수 있고, 또한 카메라 간의 좌표를 공통화할 수 있기 때문에 시차만을 추출할 수 있게 된다.By performing such a homography conversion, strict installation conditions of the camera can be alleviated, and since the coordinates between the cameras can be common, only parallax can be extracted.
상기 호모그래피 행렬은 좌우 카메라의 위치 관계를 정의하는 것이고, 카메라가 고정되면 값은 일정하게 정해진다. The homography matrix defines the positional relationship of the left and right cameras, and the value is fixed when the camera is fixed.
따라서, 카메라의 배치, 간격, 고정 방법을 변경했을 경우에 교정(Calibration)을 행하여야 한다.Therefore, calibration should be performed when the arrangement, spacing, and fixing method of the camera are changed.
1-1. 제1교정(Calibration 1)1-1.
제1교정으로서, 인간의 시각 특성과 마찬가지로 거리에 따라 좌우의 시차가 발생하도록 교정을 실시한다.As the first calibration, correction is performed so that left and right disparities occur in accordance with the distance, similarly to the human visual characteristics.
첨부한 도 2에 나타낸 바와 같이, 호모그래피 변환을, 전방이 있는 거리에 설치한 평면에 대해서, 카메라 쌍이 수직이 되도록 교정을 실시한다.As shown in FIG. 2, the homography conversion is corrected so that the pair of cameras is perpendicular to the plane provided at a distance in front of the camera.
이는 호모그래피 행렬을 이용하는 것으로, 좌우의 시차가 카메라로부터 물체까지의 거리와 대응한다.This uses a homography matrix, where the parallax of the left and right correspond to the distance from the camera to the object.
1-2. 제2교정(Calibration 2)1-2.
상기 제1교정에서와 마찬가지로 차량이 존재하는 평면(여기에서는 지면)을 이용하여 동일하게 교정을 실시한다.As in the first calibration, the same calibration is performed using the plane where the vehicle exists (here, ground).
여기서는 제1교정에서 행한 평면을 90°전방으로 변화시킨 노면(수평인 평면)을 이용해 행하는 것으로, 첨부한 도 3에 나타낸 바와 같이 좌우 카메라 간의 시차가 깊이 거리 방향과 높이 방향을 포함한 것이 되어, 지면 영역에 대해서 시차가 0이 되는 화상을 얻을 수 있다.In this case, it is performed using a road surface (horizontal plane) in which the plane performed by the first calibration is changed by 90 ° forward. As shown in FIG. 3, the parallax between the left and right cameras includes a depth distance direction and a height direction. An image in which parallax becomes zero with respect to the area can be obtained.
물체의 높이를 계측하는 경우, 카메라를 천정 등에 설치해서 전방으로 멀리 부감(俯瞰)하는 형태로 설치한 뒤 높이를 거리로서 계측하는 것이 일반적인 방법이지만, 노면에서 교정한 호모그래피 행렬을 이용하여 좌우 카메라 화상 간의 시차를 산출하는 것으로, 물체의 높이와 물체까지의 거리를 모두 포함한“거리 + 높이”의 합성 거리를 의사적으로 산출할 수 있다.In the case of measuring the height of an object, it is a common method to install the camera in a ceiling or the like, and to measure the height as a distance after installing the camera in the shape of a distance from the front, but using the homography matrix corrected on the road surface, the left and right cameras By calculating the parallax between images, the composite distance of "distance + height" including both the height of the object and the distance to the object can be calculated pseudo-wise.
1-3. 스테레오(Stereo) 처리1-3. Stereo Processing
촬상된 물체까지의 거리를 계측하기 위해서, 상기 교정 과정을 통해 구한 시차 화상으로부터 화상 간의 대응점을 검출하는 블록매칭(BlockMatching) 처리를 이용하여 거리를 산출한다.In order to measure the distance to the picked-up object, the distance is calculated using a BlockMatching process which detects a corresponding point between the images from the parallax image obtained through the calibration process.
여기서, 시차가 있는 2장의 화상은 거리 정보를 농담으로 표현한 거리 화상으로 변환된다.Here, two images with parallax are converted into distance images in which the distance information is expressed in shades of light.
이상의 순서로 구한 거리 화상은 각각의 교정 수법에 따라서 첨부한 도 5a 및 도 5b의 두 화상이 된다.The distance images obtained in the above procedure become the two images of FIGS. 5A and 5B attached according to the respective calibration methods.
이와 같이 카메라 쌍 정면으로 교정을 행한 도 5a에서는 전방의 거리에 따른 화상이 출력되고, 또 노면으로 교정을 행한 도 5b에서는 노면이 아닌 부분(높이가 있는 입체물)만이 출력되고 있음을 알 수 있다.As shown in FIG. 5A in which the front of the camera pair is calibrated in this manner, an image according to the distance in front of the camera is output, and in FIG. 5B in which the road surface is corrected, only a portion (three-dimensional object having a height) is output.
이처럼 차량이 존재하는 평면(여기에서는 노면)과는 다른 높이에 존재하는 입체물을 검출할 수 있는 것으로, 차량의 자동 제어나 장애물 회피에 응용이 가능하다.In this way, it is possible to detect three-dimensional objects existing at a different height from the plane where the vehicle exists (here, the road surface), and thus it is possible to apply the vehicle to automatic control or obstacle avoidance.
1-4. 입체물 검출 처리1-4. Stereoscopic object detection processing
상기 두 종류의 교정을 이용한 스테레오(Stereo) 거리 화상을 조합시키는 것으로, 화상 내에 존재하는 물체의 높이와 거리를 각각 따로 추출할 수 있다.By combining stereo distance images using the two types of correction, the height and distance of an object existing in the image can be extracted separately.
결국, 하기 식(1)과 도 6에 나타낸 바와 같이, 깊이 거리를 가지는 제1교정의 화상과, 높이와 깊이를 포함한 제2교정의 화상 차이를 구하는 것으로, 높이 정 보만을 추출한다. As a result, as shown in the following equation (1) and FIG. 6, only the height information is extracted by obtaining the difference between the image of the first correction having a depth distance and the image of the second correction including the height and the depth.
이것은 스테레오 처리로 산출된 거리 화상의 차분과 같다.This is equal to the difference of the distance image calculated by the stereo processing.
(1) (One)
이상의 수법을 이용하는 것으로, 종래의 깊이 거리에 그 물체의 높이를 더한 상세한 판별이 가능해지고, 노면 등에 표시되어 있는 노표나 백선 등 높이를 가지지 않는 물체가 검출되지 않도록 할 수 있어, 높이를 가지는 입체 구조물만 감지하는 시스템의 구축이 가능해진다.By using the above technique, it is possible to make a detailed determination by adding the height of the object to the conventional depth distance, and to prevent the object not having a height, such as a road mark or a white line, displayed on a road surface, to be detected, and having a three-dimensional structure having a height. It is possible to build a system that only detects.
1-5. 교차점 검출 처리1-5. Intersection detection processing
교차점 감지에는 복수의 촬상장치 사이의 위치 관계를 이용하고, 촬상장치 정면에서 시차가 0이 되도록 한 화상(도 5a)과, 지면 영역에 대해서 시차가 0이 되게 한 화상(도 5b) 2장을 이용한다.For the detection of the intersection points, the positional relationship between the plurality of imaging devices is used, and two images (Fig. 5A) in which the parallax is zero at the front of the imaging device and two images (Fig. 5B) in which the parallax is zero for the ground area are shown. I use it.
교차점이란, 자신의 차 진로와 동일 평면상에 존재하지만, 건물 등의 건축물에 의해 사각이 되는 영역(전망이 나쁜 영역)에서, 차 진로 방향과 교차하는 방향으로 보행자, 차량 등이 존재하는 평면과의 교점을 가리킨다.An intersection point is a plane that exists on the same plane as its own car path, but where a pedestrian, vehicle, etc. exist in a direction intersecting the car path direction in an area that is blinded by a building such as a building. Point to the intersection of.
우선, 입체물 검출 처리를 이용해 화상 중에 존재하는 노면과는 높이가 다른 영역을 검출한다. First, a three-dimensional object detection process is used to detect an area different in height from the road surface existing in the image.
이것은 도 5b의 높이 정보만을 꺼내는 것과 같고, 노면과는 높이가 다른 입체물을 검출하는 것이 된다(첨부한 도 7 참조).This is equivalent to taking out only the height information in FIG. 5B, and detecting a three-dimensional object having a different height from the road surface (see FIG. 7 attached).
또한 바로 앞 전방에서 무한 원점(선이 수렴하는 점. 일반적으로 도로상에서는 백선의 수렴하는 점을 가리킨다)을 향하는 방사 직선상을 전방으로부터 탐색하고, 건축물 등의 입체 구조물보다도 먼 곳에 노면 영역이 존재하는 경우는 입체 구조물의 배후에 도로 영역이 존재(옆길, T자로, 교차점)하는 것으로 판단하며, 그 위치를 교차점 가능 영역이라 한다(첨부한 도 8 참조).In addition, it searches for a radial straight line from the front to the infinite origin (the point where the line converges. In general, the point of convergence of the white line on the road) from the front, and the road area exists farther than the three-dimensional structure such as a building. In this case, it is determined that the road area exists behind the three-dimensional structure (side road, T-shape, intersection point), and the position is called an intersection point possible area (see FIG. 8 attached).
이 교차점 가능 영역의 존재하는 거리를 깊이 거리 화상에 의해 판별하여 통보제어 유니트(5)가 운전자에게 경고, 통지 또는 제어하는 것으로, 돌발적인 사고 등을 미연에 회피할 수 있게 된다.By determining the distance existing in the intersection possible area by the depth distance image, the
이상에서 설명한 바와 같이, 본 발명에서는 시계열적으로 연속하는 피사체를 포함하는 복수의 화상 중에서 소정의 조건을 만족하는 보행자 위치 후보를 인식하여, 정지 물체와 사람을 판별한다. 차량 간 자동제어장치 등과 병용하여 적용하는 경우에 위험 회피나 피해 저감, 운전 지원, 주의 환기 등을 행할 수 있다. 또한 기존의 시스템과 달리, 거리 화상과 농담 화상의 양면으로부터 대상을 판별하는 시스템이므로, 환경 인식 기술을 실용화하는데 있어서 해결 과제가 되어왔던 감지해도 제어가 늦은 경우 등의 문제점이 해결될 수 있고, 다양한 시스템에 응용이 가능하다.As described above, in the present invention, a pedestrian position candidate that satisfies a predetermined condition is recognized from a plurality of images including time-series consecutive subjects, and a still object and a person are discriminated. When applied in combination with an automatic control device between vehicles, it is possible to avoid danger, reduce damage, support driving, and call attention. In addition, unlike the existing system, since it is a system for discriminating an object from both sides of a street image and a shaded image, problems such as the case of late control may be solved even if the detection has been a problem in the practical application of environmental recognition technology. Application to the system is possible.
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060126242A KR100844640B1 (en) | 2006-12-12 | 2006-12-12 | Method for object recognizing and distance measuring |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060126242A KR100844640B1 (en) | 2006-12-12 | 2006-12-12 | Method for object recognizing and distance measuring |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080054094A true KR20080054094A (en) | 2008-06-17 |
KR100844640B1 KR100844640B1 (en) | 2008-07-07 |
Family
ID=39801167
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060126242A KR100844640B1 (en) | 2006-12-12 | 2006-12-12 | Method for object recognizing and distance measuring |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100844640B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100938194B1 (en) * | 2008-07-28 | 2010-01-21 | 재단법인대구경북과학기술원 | Method for detecting an object and apparatus for the same |
KR101275823B1 (en) * | 2011-04-28 | 2013-06-18 | (주) 에투시스템 | Device for detecting 3d object using plural camera and method therefor |
KR20130068243A (en) * | 2011-12-15 | 2013-06-26 | 한국전자통신연구원 | Image registration device and method thereof |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE519884C2 (en) | 2001-02-02 | 2003-04-22 | Scalado Ab | Method for zooming and producing a zoomable image |
JP2005004487A (en) | 2003-06-12 | 2005-01-06 | Sony Corp | Apparatus and method for processing surround image photographed on capture path |
US7742634B2 (en) * | 2005-03-15 | 2010-06-22 | Omron Corporation | Image processing method, three-dimensional position measuring method and image processing apparatus |
-
2006
- 2006-12-12 KR KR1020060126242A patent/KR100844640B1/en not_active IP Right Cessation
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100938194B1 (en) * | 2008-07-28 | 2010-01-21 | 재단법인대구경북과학기술원 | Method for detecting an object and apparatus for the same |
KR101275823B1 (en) * | 2011-04-28 | 2013-06-18 | (주) 에투시스템 | Device for detecting 3d object using plural camera and method therefor |
KR20130068243A (en) * | 2011-12-15 | 2013-06-26 | 한국전자통신연구원 | Image registration device and method thereof |
US8755624B2 (en) | 2011-12-15 | 2014-06-17 | Electronics & Telecommunications Research Institute | Image registration device and method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR100844640B1 (en) | 2008-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107738612B (en) | Automatic parking space detection and identification system based on panoramic vision auxiliary system | |
EP3057063B1 (en) | Object detection device and vehicle using same | |
US7321386B2 (en) | Robust stereo-driven video-based surveillance | |
JP4612635B2 (en) | Moving object detection using computer vision adaptable to low illumination depth | |
US8810653B2 (en) | Vehicle surroundings monitoring apparatus | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
US20150348416A1 (en) | Obstacle detection device and electric-powered vehicle provided therewith | |
US7957556B2 (en) | Vehicle surroundings monitoring apparatus, vehicle, vehicle surroundings monitoring method, and vehicle surroundings monitoring program | |
JP2003083742A (en) | Distance correction apparatus and method of monitoring system | |
KR20160062880A (en) | road traffic information management system for g using camera and radar | |
JP2012075060A (en) | Image processing device, and imaging device using the same | |
JP2009064410A (en) | Method for detecting moving objects in blind spot of vehicle and blind spot detection device | |
JP4528283B2 (en) | Vehicle periphery monitoring device | |
US10672141B2 (en) | Device, method, system and computer-readable medium for determining collision target object rejection | |
WO2020086698A1 (en) | Methods and systems used to measure tire treads | |
Akamatsu et al. | Development of a person counting system using a 3D laser scanner | |
KR20120108256A (en) | Robot fish localization system using artificial markers and method of the same | |
JPH11257931A (en) | Object recognizing device | |
JP4123138B2 (en) | Vehicle detection method and vehicle detection device | |
KR100844640B1 (en) | Method for object recognizing and distance measuring | |
JP2018073275A (en) | Image recognition device | |
KR20200068045A (en) | Around view monitoring system and method for detecting parking line with deep learning | |
JP2008165595A (en) | Obstacle detection method, obstacle detection device, and obstacle detection system | |
Naser et al. | Infrastructure-free NLoS obstacle detection for autonomous cars | |
JP2011103058A (en) | Erroneous recognition prevention device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130627 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20140630 Year of fee payment: 7 |
|
LAPS | Lapse due to unpaid annual fee |