KR102371588B1 - System and method for recognizing obstacle based on image - Google Patents

System and method for recognizing obstacle based on image Download PDF

Info

Publication number
KR102371588B1
KR102371588B1 KR1020160054052A KR20160054052A KR102371588B1 KR 102371588 B1 KR102371588 B1 KR 102371588B1 KR 1020160054052 A KR1020160054052 A KR 1020160054052A KR 20160054052 A KR20160054052 A KR 20160054052A KR 102371588 B1 KR102371588 B1 KR 102371588B1
Authority
KR
South Korea
Prior art keywords
image
vehicle
speed
obstacle
frame
Prior art date
Application number
KR1020160054052A
Other languages
Korean (ko)
Other versions
KR20170124310A (en
Inventor
권구도
윤성원
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020160054052A priority Critical patent/KR102371588B1/en
Publication of KR20170124310A publication Critical patent/KR20170124310A/en
Application granted granted Critical
Publication of KR102371588B1 publication Critical patent/KR102371588B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • H04N5/217
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Abstract

본 발명의 일예와 관련된 장애물 인식 시스템은 차량에 장착된 카메라로부터 상기 차량 외부의 영상을 획득하는 영상 획득부, 상기 차량의 속도를 획득하는 차량 속도 획득부, 상기 차량의 속도가 기 설정된 속도 이하인 경우, 상기 영상의 현재 프레임과 복수의 이전 프레임 각각 간의 차분값으로 구성된 복수의 차분 프레임을 생성하고, 상기 복수의 차분 프레임을 겹쳐서 겹침 프레임을 생성하며, 상기 겹침 프레임으로부터 장애물을 인식하는 제어부를 포함할 수 있다.An obstacle recognition system related to an embodiment of the present invention includes an image acquisition unit that acquires an image of the exterior of the vehicle from a camera mounted on the vehicle, a vehicle speed acquisition unit that acquires the speed of the vehicle, and when the speed of the vehicle is less than or equal to a preset speed , a control unit for generating a plurality of difference frames composed of difference values between the current frame and each of a plurality of previous frames of the image, generating an overlapping frame by overlapping the plurality of difference frames, and recognizing an obstacle from the overlapping frame can

Description

영상기반 장애물 인식 시스템 및 방법{System and method for recognizing obstacle based on image}Image-based obstacle recognition system and method {System and method for recognizing obstacle based on image}

본 발명은 영상기반 장애물 인식 시스템 및 방법에 관한 것이다.The present invention relates to an image-based obstacle recognition system and method.

차량 주변에는 다양한 형태의 장애물이 존재하며 이와 같은 잠재적인 충돌 가능성을 가진 위험 요소로부터 보호 받기 위하여 장애물을 인식하는 여러 가지 방법이 제시되어 왔다.Various types of obstacles exist around a vehicle, and various methods for recognizing obstacles have been proposed in order to be protected from such a potential collision risk factor.

장애물을 인식하기 위해 영상, 초음파, 레이저 등을 이용하는 방법이 있지만 운전자가 장애물을 직접 확인하기 위한 방법으로는 영상을 이용하는 방법이 바람직하다.Although there is a method of using an image, ultrasound, laser, etc. to recognize an obstacle, a method using an image is preferable as a method for a driver to directly identify an obstacle.

영상을 이용하여 장애물을 인식하는 방법 중에는 광각의 어안 카메라를 이용하여 연속되는 영상의 변화에 차량의 거동 정보를 적용하고 차량의 거동과 다른 변화가 발생한 영역에 장애물이 존재를 추정하는 것이 있다.Among the methods of recognizing obstacles using images, there is a method of applying vehicle behavior information to continuous image changes using a wide-angle fisheye camera and estimating the existence of obstacles in areas where changes occur that are different from the vehicle behavior.

이러한 방식은 차량의 거동, 즉 차량의 진행 속도를 고려하여 영상내 변화 중 일부를 제거하고 나머지 부분을 장애물로 인식하는 하는 것으로서, 장애물을 인식하기 위해 옵티컬 플로우(Optical flow), IPM(Inverse Perspective Mapping)등의 연산을 수행하여야 한다.This method removes some of the changes in the image in consideration of the vehicle's behavior, that is, the speed of the vehicle, and recognizes the remaining parts as obstacles. ) and so on.

그러나 기존의 방식은 실시간성이 보장되지 않을 정도로 많은 연산 과정을 거쳐야 하며 판단의 기준이 되는 차량의 속도가 느릴 경우 영상내 변화가 미비하여 장애물을 인식하는 성능이 나쁘다는 문제가 있다.However, the existing method has a problem in that the performance of recognizing obstacles is poor because there is insufficient change in the image when the speed of the vehicle, which is the standard for judgment, is slow, and requires a lot of calculation processes to not guarantee real-time performance.

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 영상기반의 장애물 인식 방법에서 장애물 인식 성능은 향상시키고 불필요한 연산을 줄이는 데 그 목적이 있다. The present invention has been devised to solve the problems of the prior art, and has an object to improve obstacle recognition performance and reduce unnecessary operations in an image-based obstacle recognition method.

한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned are clearly to those of ordinary skill in the art to which the present invention belongs from the description below. can be understood

상술한 과제를 실현하기 위한 본 발명의 일예와 관련된 장애물 인식 시스템은 차량에 장착된 카메라로부터 상기 차량 외부의 영상을 획득하는 영상 획득부, 상기 차량의 속도를 획득하는 차량 속도 획득부, 상기 차량의 속도가 기 설정된 속도 이하인 경우, 상기 영상의 현재 프레임과 복수의 이전 프레임 각각 간의 차분값으로 구성된 복수의 차분 프레임을 생성하고, 상기 복수의 차분 프레임을 겹쳐서 겹침 프레임을 생성하며, 상기 겹침 프레임으로부터 장애물을 인식하는 제어부를 포함할 수 있다.An obstacle recognition system related to an example of the present invention for realizing the above-described problem includes an image acquisition unit for acquiring an image outside the vehicle from a camera mounted on the vehicle, a vehicle speed acquisition unit for acquiring the speed of the vehicle, and When the speed is less than or equal to a preset speed, a plurality of difference frames composed of difference values between the current frame of the image and each of a plurality of previous frames are generated, and an overlapping frame is generated by overlapping the plurality of difference frames, and an obstacle from the overlapping frame is generated. It may include a control unit for recognizing

또한, 상기 제어부는 상기 차량의 속도를 이용하여 상기 복수의 이전 프레임의 공간적 위치를 보정하고, 상기 보정된 복수의 이전 프레임을 이용하여 상기 차분 프레임을 생성할 수 있다.Also, the controller may correct spatial positions of the plurality of previous frames using the vehicle speed, and generate the difference frame using the corrected plurality of previous frames.

또한, 상기 차량의 속도가 0인 경우 또는 상기 차량의 속도가 상기 기 설정된 속도 초과인 경우, 상기 제어부는 상기 겹침 프레임을 생성하지 않고 상기 현재 프레임과 상기 복수의 이전 프레임 중 적어도 하나를 비교하여 상기 장애물을 인식할 수 있다.In addition, when the speed of the vehicle is 0 or when the speed of the vehicle exceeds the preset speed, the controller compares the current frame with at least one of the plurality of previous frames without generating the overlapping frame. obstacles can be recognized.

또한, 상기 카메라가 어안렌즈 카메라인 경우, 상기 제어부는 상기 어안렌즈 카메라의 왜곡률을 이용하여 상기 영상의 왜곡을 보정할 수 있다.Also, when the camera is a fisheye lens camera, the controller may correct distortion of the image by using a distortion rate of the fisheye lens camera.

또한, 상기 차량의 속도가 0인 경우, 상기 제어부는 상기 영상의 왜곡을 보정하지 않을 수 있다.Also, when the vehicle speed is 0, the controller may not correct the distortion of the image.

본 발명의 실시예들은 영상기반의 장애물 인식 방법에서 장애물 인식 성능은 향상시키고 불필요한 연산을 줄일 수 있다.Embodiments of the present invention can improve obstacle recognition performance and reduce unnecessary computation in an image-based obstacle recognition method.

또한, 본 발명의 실시예를 적용하여 저성능의 제어기를 사용하여도 장애물을 실시간으로 인식할 수 있다.In addition, by applying an embodiment of the present invention, an obstacle can be recognized in real time even using a low-performance controller.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be able

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 일 실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술적 사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석 되어서는 아니 된다.
도 1은 본 발명의 일 실시예에 따른 장애물 인식 시스템의 블록도이다.
도 2a는 본 발명의 일 실시예에 따른 어안 렌즈 카메라로 촬영한 이미지이고, 도 2b는 본 발명의 일 실시예에 따른 어안 렌즈 카메라로 촬영한 이미지의 왜곡을 보정한 이미지이다.
도 3a는 본 발명의 일 실시예에 따라 차량의 속도가 5km/h일 때의 차분 프레임을 나타내고, 도 3b는 본 발명의 일 실시예에 따라 차량의 속도가 1km/h 일 때의 차분 프레임을 나타낸다.
도 4a는 본 발명의 일 실시예에 따른 영상의 현재 프레임이고 도 4b 내지 도 4d는 본 발명의 일 실시예에 따른 시간의 역순으로 배열된 영상의 이전 프레임이다.
도 5a는 본 발명의 일 실시예에 따른 영상의 현재 프레임이고 도 4b 내지 도 5d는 본 발명의 일 실시예에 따른 시간의 역순으로 배열된 공간적 위치가 보정된 영상의 이전 프레임이다.
도 6a 내지 도 6c는 본 발명의 일 실시예에 따른 영상의 현재 프레임과 이전 프레임 각각으로부터 도출된 차분 프레임이다.
도 7은 본 발명의 일 실시예에 따른 겹침 프레임이다.
도 8은 본 발명의 일 실시예에 따른 장애물 인식 방법을 나타내는 순서도이다.
도 9는 본 발명의 일 실시예에 따른 장애물 인식 방법을 실행하는 컴퓨팅 시스템을 보여주는 블록도이다.
The following drawings attached to the present specification illustrate a preferred embodiment of the present invention, and serve to further understand the technical idea of the present invention together with the detailed description of the present invention, so the present invention is limited to the matters described in those drawings It should not be construed as being limited.
1 is a block diagram of an obstacle recognition system according to an embodiment of the present invention.
FIG. 2A is an image captured by a fisheye lens camera according to an embodiment of the present invention, and FIG. 2B is an image in which distortion of an image captured by a fisheye lens camera according to an embodiment of the present invention is corrected.
3A shows a difference frame when the vehicle speed is 5 km/h according to an embodiment of the present invention, and FIG. 3B shows a difference frame when the vehicle speed is 1 km/h according to an embodiment of the present invention. indicates.
4A is a current frame of an image according to an embodiment of the present invention, and FIGS. 4B to 4D are previous frames of an image arranged in reverse chronological order according to an embodiment of the present invention.
5A is a current frame of an image according to an embodiment of the present invention, and FIGS. 4B to 5D are previous frames of an image whose spatial positions are corrected and arranged in reverse chronological order according to an embodiment of the present invention.
6A to 6C are differential frames derived from each of a current frame and a previous frame of an image according to an embodiment of the present invention.
7 is an overlapping frame according to an embodiment of the present invention.
8 is a flowchart illustrating an obstacle recognition method according to an embodiment of the present invention.
9 is a block diagram illustrating a computing system executing an obstacle recognition method according to an embodiment of the present invention.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the embodiment of the present invention, if it is determined that a detailed description of a related known configuration or function interferes with the understanding of the embodiment of the present invention, the detailed description thereof will be omitted.

본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the component from other components, and the essence, order, or order of the component is not limited by the term. In addition, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

도 1은 본 발명의 일 실시예에 따른 장애물 인식 시스템의 블록도이다.1 is a block diagram of an obstacle recognition system according to an embodiment of the present invention.

도 2a는 본 발명의 일 실시예에 따른 어안 렌즈 카메라로 촬영한 이미지이고, 도 2b는 본 발명의 일 실시예에 따른 어안 렌즈 카메라로 촬영한 이미지의 왜곡을 보정한 이미지이다.FIG. 2A is an image captured by a fisheye lens camera according to an embodiment of the present invention, and FIG. 2B is an image obtained by correcting distortion of an image captured by a fisheye lens camera according to an embodiment of the present invention.

도 3a는 본 발명의 일 실시예에 따라 차량의 속도가 5km/h일 때의 차분 프레임을 나타내고, 도 3b는 본 발명의 일 실시예에 따라 차량의 속도가 1km/h 일 때의 차분 프레임을 나타낸다.3A shows a difference frame when the vehicle speed is 5 km/h according to an embodiment of the present invention, and FIG. 3B shows a difference frame when the vehicle speed is 1 km/h according to an embodiment of the present invention. indicates.

도 4a는 본 발명의 일 실시예에 따른 영상의 현재 프레임이고 도 4b 내지 도 4d는 본 발명의 일 실시예에 따른 시간의 역순으로 배열된 영상의 이전 프레임이다.4A is a current frame of an image according to an embodiment of the present invention, and FIGS. 4B to 4D are previous frames of an image arranged in reverse chronological order according to an embodiment of the present invention.

도 5a는 본 발명의 일 실시예에 따른 영상의 현재 프레임이고 도 4b 내지 도 5d는 본 발명의 일 실시예에 따른 시간의 역순으로 배열된 공간적 위치가 보정된 영상의 이전 프레임이다.5A is a current frame of an image according to an embodiment of the present invention, and FIGS. 4B to 5D are previous frames of an image whose spatial positions are corrected and arranged in reverse chronological order according to an embodiment of the present invention.

도 6a 내지 도 6c는 본 발명의 일 실시예에 따른 영상의 현재 프레임과 이전 프레임 각각으로부터 도출된 차분 프레임이다.6A to 6C are differential frames derived from each of a current frame and a previous frame of an image according to an embodiment of the present invention.

도 7은 본 발명의 일 실시예에 따른 겹침 프레임이다.7 is an overlapping frame according to an embodiment of the present invention.

먼저, 도 1을 참조하면, 본 발명에 따른 장애물 인식 시스템은 영상 획득부(100), 차량 속도 획득부(200) 및 제어부(300) 등을 포함할 수 있다.First, referring to FIG. 1 , the obstacle recognition system according to the present invention may include an image acquiring unit 100 , a vehicle speed acquiring unit 200 , and a controller 300 .

다만, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 장애물 인식 시스템이 구현될 수도 있다.However, since the components shown in FIG. 1 are not essential, an obstacle recognition system having more or fewer components may be implemented.

영상 획득부(100)는 차량 외부의 영상을 획득하는 구성이다.The image acquisition unit 100 is configured to acquire an image outside the vehicle.

영상 획득부(100)는 차량 외부를 촬영하는 카메라일 수 있고, 차량 외부를 촬영하는 카메라로부터 영상을 획득하는 영상 수신부일 수도 있다.The image acquisition unit 100 may be a camera for photographing the exterior of the vehicle, or may be an image receiving unit for acquiring an image from a camera photographing the exterior of the vehicle.

또한, 상기 카메라는 전방위 영상을 촬영하는 어안 렌즈 카메라일 수 있으며, 어안 렌즈 카메라로부터 획득되는 영상은 하나의 렌즈로 얻어지는 광각 영상이므로 왜곡된 영상일 수 있다.In addition, the camera may be a fisheye lens camera for capturing an omnidirectional image, and the image obtained from the fisheye lens camera may be a distorted image because it is a wide-angle image obtained with one lens.

차량 속도 획득부(200)는 차량의 속도를 획득하는 구성으로서, 차량의 속력뿐만 아니라, 차량이 움직이는 방향에 대한 정보 또한 획득할 수 있다. 예들 들어, 차량 속도 획득부(200)는 OBD(On-Board Diagnostics)일 수 있다.The vehicle speed obtaining unit 200 is a component for obtaining the speed of the vehicle, and may obtain information about the direction in which the vehicle moves as well as the speed of the vehicle. For example, the vehicle speed obtaining unit 200 may be an On-Board Diagnostics (OBD).

제어부(300)는 영상 획득부(100)가 획득한 영상으로부터 장애물을 인식하는 구성으로서, 차량의 속도에 따라 다른 연산을 하여 영상의 복수의 프레임으로부터 장애물을 인식할 수 있다.The control unit 300 is a configuration for recognizing an obstacle from the image obtained by the image acquisition unit 100, and may recognize the obstacle from a plurality of frames of the image by performing different calculations according to the speed of the vehicle.

이하에서는 도 2a 내지 도 7을 참조하여 제어부(300)가 장애물을 인식하는 방법에 대해 구체적으로 설명한다.Hereinafter, a method for the controller 300 to recognize an obstacle will be described in detail with reference to FIGS. 2A to 7 .

획득되는 영상이 어안 렌즈 카메라에 의해 획득된 영상인 경우, 제어부(300)는 어안렌즈 카메라의 왜곡률을 이용하여 영상의 왜곡을 보정할 수 있다. 연속적으로 입력되는 영상의 변화에서 차량의 거동 정보를 적용하기 위해서 IPM(Inverse Perspective Mapping)과 같이 주변의 실제 거리 정보와 영상 정보를 일치시키는 것이다.When the obtained image is an image obtained by a fisheye lens camera, the controller 300 may correct distortion of the image by using a distortion rate of the fisheye lens camera. In order to apply the vehicle behavior information to the continuously inputted image change, the actual distance information and the image information are matched, such as IPM (Inverse Perspective Mapping).

즉, 도 2a와 같이 어안 렌즈 카메라에 의해 획득된 영상은 실제 영상에 비해서 왜곡되어 표현된다. 제어부(300)는 이와 같이 왜곡된 영상을 IPM 등의 연산 방법을 수행하여 도 2b와 같이 보정된 영상을 도출할 수 있다.That is, as shown in FIG. 2A , the image acquired by the fisheye lens camera is distorted compared to the actual image. The controller 300 may derive a corrected image as shown in FIG. 2B by performing a calculation method such as IPM on the distorted image.

다만, 획득되는 영상이 왜곡되지 않은 영상인 경우에는 별도로 보정을 하는 연산을 할 필요가 없다.However, when the obtained image is an undistorted image, there is no need to perform a separate correction operation.

또한, 차량의 속도가 0인 경우에도 영상의 왜곡을 보정하지 않아도 된다. 차량이 정지한 상태에서는 차량 거동 정보를 영상에 적용하는 연산을 수행할 필요가 없고, 영상의 복수의 프레임 간 비교를 통해 움직이는 장애물에 대해서만 인식하면 되기 때문이다.Also, even when the vehicle speed is 0, it is not necessary to correct image distortion. This is because, when the vehicle is stopped, it is not necessary to perform an operation for applying vehicle behavior information to the image, and only the moving obstacle needs to be recognized through comparison between a plurality of frames of the image.

제어부(300)는 차량의 속도가 기 설정된 속도(Vth)보다 느린지 여부를 판단하여 차량의 속도가 기 설정된 속도 이하인 경우, 장애물의 특징을 강화하는 연산을 수행할 수 있다.The controller 300 may determine whether the speed of the vehicle is slower than the preset speed Vth and, when the speed of the vehicle is less than or equal to the preset speed, may perform an operation for strengthening the characteristics of the obstacle.

도 3a와 같이 시속 5km/h로 움직이는 차량에서 획득된 영상의 프레임을 이용하여 도출한 차분 프레임에서는 장애물의 특징이 명확히 드러나지만, 도 3b와 같이 시속 5km/h로 움직이는 차량에서 획득된 영상의 프레임을 이용하여 도출한 차분 프레임에서는 장애물의 특징이 명확히 드러나지 않기 때문이다.Although the characteristics of the obstacle are clearly revealed in the differential frame derived using the frame of the image obtained from the vehicle moving at 5 km/h as shown in FIG. 3A, the frame of the image obtained from the vehicle moving at 5 km/h as shown in FIG. 3B This is because the characteristics of obstacles are not clearly revealed in the difference frame derived using .

즉, 차량의 속도가 빠를 때에는 영상의 인접 프레임 간 장애물의 크기 또는 위치변화가 두드러지지만, 차량의 속도가 느릴 때에는 인접 프레임에서 표현되는 장애물의 움직임 변화가 미미하다는 것이다.That is, when the speed of the vehicle is fast, the size or position change of the obstacle between adjacent frames of the image is noticeable, but when the speed of the vehicle is slow, the change in the movement of the obstacle expressed in the adjacent frame is insignificant.

먼저, 제어부(300)는 장애물의 특징을 강화하는 연산을 수행하기 위해 영상에서 현재 프레임과 복수의 이전 프레임을 추출할 수 있다.First, the controller 300 may extract a current frame and a plurality of previous frames from an image in order to perform an operation for reinforcing the characteristics of the obstacle.

도 4a는 영상에서 현재 프레임을 나타낸 것이고, 도 4b 내지 도 4d는 현재 프레임에 대하여 시간적으로 이전에 촬영된 프레임이다.4A shows a current frame in an image, and FIGS. 4B to 4D are frames captured temporally with respect to the current frame.

차량이 느리게 움직이지만 속도가 0이 아니므로, 고정되어 있는 장애물의 위치는 영상에서 차량의 이동거리만큼 변한다.Since the vehicle moves slowly but the speed is not 0, the position of the fixed obstacle changes as much as the moving distance of the vehicle in the image.

도 4a 내지 도 4d를 참조하면, 도 4a에서 도 4d로 갈수록 붉은 선을 기준으로 장애물의 위치가 점점 위로 올라간다. 도 4a 내지 도 4d 중 도 4d가 시간적으로 가장 먼저 촬영된 프레임이므로 차량이 장애물에 접근하는 것이다.Referring to FIGS. 4A to 4D , the position of the obstacle gradually rises with reference to the red line from FIG. 4A to FIG. 4D . Since FIG. 4D of FIGS. 4A to 4D is the first frame taken temporally, the vehicle approaches the obstacle.

제어부(300)는 현재 프레임과 복수의 이전 프레임을 추출한 후, 현재 프레임과 복수의 이전 프레임 각각 간의 차분 프레임을 생성하기 전, 본 발명의 일 실시예에 따라 차량의 속도를 이용하여 복수의 이전 프레임의 공간적 위치를 보정할 수 있다.After extracting the current frame and the plurality of previous frames, the control unit 300 extracts the current frame and the plurality of previous frames, and before generating a differential frame between each of the plurality of previous frames, according to an embodiment of the present invention, a plurality of previous frames using the vehicle speed can correct the spatial position of

즉, 차량의 거동정보를 적용하여 복수의 이전 프레임을 보정하는 것이며, 복수의 이전 프레임 각각에 존재하는 장애물의 위치가 현재 프레임에 존재하는 장애물의 위치와 동일하도록 보정하는 것이다.That is, the plurality of previous frames is corrected by applying the vehicle behavior information, and the positions of the obstacles present in each of the plurality of previous frames are corrected to be the same as the positions of the obstacles present in the current frame.

도 5b 내지 도 5d는 본 발명의 일 실시예에 따라 복수의 이전 프레임의 공간적 위치가 보정된 프레임을 나타내는 것이며, 복수의 프레임에 나타난 장애물의 위치가 붉은 선을 기준으로 동일하다.5B to 5D show frames in which spatial positions of a plurality of previous frames are corrected according to an embodiment of the present invention, and the positions of obstacles appearing in the plurality of frames are the same based on a red line.

제어부(300)는 공간적 위치가 보정된 복수의 이전 프레임 각각과 현재 프레임 간의 차분값으로 구성된 복수의 차분 프레임을 생성할 수 있다.The controller 300 may generate a plurality of difference frames including a difference value between each of a plurality of previous frames whose spatial position is corrected and a current frame.

즉, 현재 프레임과 이전 프레임 각각 간의 차이가 있는 부분만 나타나는 프레임이 생성되는 것이다.That is, a frame in which only a portion having a difference between each of the current frame and the previous frame is generated is generated.

도 6a는 도 5a와 도 5b로부터 도출된 차분 프레임이고, 도 6b는 도 5a와 도 5c로부터 도출된 차분 프레임이며, 도 6c는 도 5a와 도 5d로부터 도출된 차분 프레임이다.6A is a differential frame derived from FIGS. 5A and 5B, FIG. 6B is a differential frame derived from FIGS. 5A and 5C, and FIG. 6C is a differential frame derived from FIGS. 5A and 5D.

도 6a 내지 도 6c를 참조하면, 시간적으로 더 멀리 떨어진 도 5a와 도 5d로부터 도출된 차분 프레임인 도 6c에서 장애물이 더 명확히 나타난다는 것을 확인할 수 있다.Referring to FIGS. 6A to 6C , it can be seen that the obstacle appears more clearly in FIG. 6C , which is a difference frame derived from FIGS. 5A and 5D that is further away in time.

만약, 상술한 공간적 위치가 보정되지 않는 경우, 차분 프레임은 도 4a와 도 4b로부터 도출되고, 도 4a와 도 4c로부터 도출되고, 도 4a와 도 4d로부터 도출될 수 있다.If the above-described spatial position is not corrected, the differential frame may be derived from FIGS. 4A and 4B, from FIGS. 4A and 4C, and from FIGS. 4A and 4D.

제어부(300)는 도출한 도 6a 내지 도 6c를 겹쳐서 도 7와 같은 겹침 프레임을 생성할 수 있다.The controller 300 may create an overlapping frame as shown in FIG. 7 by overlapping the derived FIGS. 6A to 6C .

시간적으로 더 멀리 떨어진 도 5a와 도 5d로부터 도출된 차분 프레임인 도 6c에서도 장애물을 인식할 수 있지만, 차량 주변에 고정 장애물만이 있는 것이 아니라 이동하는 장애물이 존재할 수 있으므로 하나의 차분 프레임으로부터 장애물을 인식한다면 빠르게 이동하는 장애물을 인식할 수 없다.Although obstacles can be recognized in FIG. 6C, which is a difference frame derived from FIGS. 5A and 5D that is farther away in time, there may be moving obstacles instead of only fixed obstacles around the vehicle, so obstacles are removed from one difference frame. If it does, it cannot recognize fast-moving obstacles.

따라서 복수의 차분 프레임을 겹치면 시간적 해상도가 높은 겹침 프레임이 도출되어, 빠르게 움직이는 장애물 또한 겹침 프레임에 나타날 수 있다.Therefore, when a plurality of difference frames are overlapped, an overlapping frame with high temporal resolution is derived, and a fast moving obstacle may also appear in the overlapping frame.

제어부(300)는 이러한 겹침 프레임으로부터 장애물을 인식할 수 있다.The controller 300 may recognize an obstacle from the overlapping frame.

한편, 차량의 속도가 기 설정된 속도 초과인 경우, 도 3a에 나타난 것처럼 영상의 인접 프레임 간 장애물의 크기 또는 위치변화가 두드러진다.On the other hand, when the speed of the vehicle exceeds the preset speed, as shown in FIG. 3A , a change in size or position of an obstacle between adjacent frames of an image is conspicuous.

따라서 제어부(300)는 도 4a 내지 도 7을 참조하여 설명한 장애물 특징 강화 연산을 수행하지 않고, 영상의 인접 프레임 간의 차분 프레임으로부터 장애물을 인식할 수 있다. 또한, 제어부(300)는 차량의 속도가 0인 경우에도 장애물 특징 강화 연산을 수행하지 않고, 영상의 인접 프레임 간의 차분 프레임으로부터 장애물을 인식할 수 있다.Accordingly, the controller 300 may recognize an obstacle from a difference frame between adjacent frames of an image without performing the obstacle feature enhancement operation described with reference to FIGS. 4A to 7 . Also, even when the vehicle speed is 0, the controller 300 may recognize an obstacle from a difference frame between adjacent frames of an image without performing an obstacle feature enhancement operation.

이하에서는 도 8을 참조하여 전술한 구성들을 기초로 장애물 인식 방법에 대해 구체적으로 설명한다.Hereinafter, an obstacle recognition method will be described in detail based on the above-described configurations with reference to FIG. 8 .

도 8은 본 발명의 일 실시예에 따른 장애물 인식 방법을 나타내는 순서도이다.8 is a flowchart illustrating an obstacle recognition method according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시예에 따른 장애물 인식 방법은 영상을 획득하는 단계(S100), 차량의 속도가 0 초과인지 여부를 판단하는 단계(S200), 영상의 왜곡을 보정하는 단계(S300), 차량의 속도가 기 설정된 속도(Vth)이하인지 여부를 판단하는 단계(S400), 겹침 프레임을 생성하는 단계(S510), 차분 프레임을 생성하는 단계(S520) 및 장애물을 인식하는 단계(S600)를 포함할 수 있다.8 , the obstacle recognition method according to an embodiment of the present invention includes acquiring an image (S100), determining whether the vehicle speed is greater than zero (S200), and correcting image distortion (S300), determining whether the vehicle speed is less than or equal to a preset speed (Vth) (S400), generating an overlapping frame (S510), generating a difference frame (S520), and recognizing an obstacle (S600) may be included.

이하에서 상술한 S100 단계 내지 S600 단계를 도 1 내지 도 7을 참조하여 구체적으로 설명한다.Hereinafter, steps S100 to S600 described above will be described in detail with reference to FIGS. 1 to 7 .

S100 단계에서, 영상 획득부(100)는 차량 외부의 영상을 획득할 수 있다. 영상 획득부(100)는 카메라로서 차량 외부를 촬영할 수 있고, 차량 외부를 촬영하는 카메라로부터 영상을 획득할 수 있다.In step S100 , the image acquisition unit 100 may acquire an image outside the vehicle. The image acquisition unit 100 may photograph the exterior of the vehicle as a camera, and may acquire an image from a camera photographing the exterior of the vehicle.

또한, 획득되는 영상은 어안 렌즈 카메라로 촬영된 전방위 영상일 수 있으며, 어안 렌즈 카메라로 촬영된 영상은 광각 영상이므로 왜곡된 영상일 수 있다.Also, the obtained image may be an omnidirectional image photographed with a fisheye lens camera, and an image photographed with a fisheye lens camera may be a distorted image because it is a wide-angle image.

S200 단계에서, 제어부(300)는 차량의 속도가 0 초과인지 여부를 판단할 수 있다.In step S200 , the controller 300 may determine whether the vehicle speed is greater than zero.

상술한 바와 같이 차량의 속도가 0인 경우, 즉 차량이 정지해 있는 경우 제어부(300)는 장애물 특징 강화 연산을 하지 않고, 후술할 영상의 인접 프레임으로부터 차분 프레임을 생성하는 단계를 수행할 수 있다.As described above, when the vehicle speed is 0, that is, when the vehicle is stationary, the control unit 300 may perform the step of generating a difference frame from adjacent frames of an image, which will be described later, without performing an obstacle feature enhancement operation. .

차량의 속도가 0 초과인 경우, S300 단계에서, 제어부(300)는 영상의 왜곡을 보정할 수 있다.When the vehicle speed is greater than 0, in step S300 , the controller 300 may correct the distortion of the image.

S300 단계는 S100 단계에서 획득된 영상이 어안 렌즈 카메라 등에 의해 획득된 영상으로서 왜곡된 영상인 경우, 연속적으로 입력되는 상의 변화에서 차량의 거동 정보를 적용하기 위해서 IPM(Inverse Perspective Mapping)과 같이 주변의 실제 거리 정보와 영상 정보를 일치시키는 단계이다. 즉, 도 2a와 같은 영상을 도 2b와 같이 보정하는 것이다.In step S300, when the image obtained in step S100 is a distorted image as an image obtained by a fisheye lens camera, etc., in order to apply vehicle behavior information from continuously input phase changes, This is a step in which the actual distance information and the image information are matched. That is, the image shown in FIG. 2A is corrected as shown in FIG. 2B.

이 때 제어부(300)는 영상을 촬영한 카메라의 왜곡률을 이용하여 영상의 왜곡을 보정할 수 있다.In this case, the controller 300 may correct the distortion of the image by using the distortion rate of the camera that captured the image.

S400 단계에서, 제어부(300)는 차량의 속도가 기 설정된 속도(Vth)보다 느린지 여부를 판단할 수 있다.In step S400 , the controller 300 may determine whether the vehicle speed is slower than a preset speed Vth.

차량의 속도가 기 설정된 속도보다 느린 경우, 제어부(300)는 도 4a 내지 도 7을 참조하여 설명한 것과 같이 장애물 특징 강화 연산을 하여 겹침 프레임을 생성할 수 있다(S510).When the speed of the vehicle is slower than the preset speed, the controller 300 may generate an overlapping frame by performing an obstacle feature reinforcement operation as described with reference to FIGS. 4A to 7 ( S510 ).

차량의 속도가 기 설정된 속도보다 빠른 경우, 도 3a와 같이 차분 프레임에서 장애물의 특징이 명확하게 드러나므로 별도의 장애물 특징 강화 연산을 하지 않고, 제어부(300)는 영상의 인접한 프레임으로부터 각 프레임 간의 차분값으로 구성된 차분 프레임을 생성할 수 있다(S520).When the speed of the vehicle is faster than the preset speed, as shown in FIG. 3A , the characteristic of the obstacle is clearly revealed in the difference frame, so a separate obstacle feature reinforcement operation is not performed, and the controller 300 controls the difference between each frame from the adjacent frame of the image. A difference frame composed of values may be generated (S520).

S600 단계에서, 제어부(300)는 겹침 프레임 또는 차분 프레임으로부터 장애물을 인식할 수 있다.In step S600 , the controller 300 may recognize an obstacle from the overlapping frame or the difference frame.

도 9는 본 발명의 일 실시예에 따른 장애물 인식 방법을 실행하는 컴퓨팅 시스템을 보여주는 블록도이다. 9 is a block diagram illustrating a computing system executing an obstacle recognition method according to an embodiment of the present invention.

도 8을 참조하면, 컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다. Referring to FIG. 8 , the computing system 1000 includes at least one processor 1100 , a memory 1300 , a user interface input device 1400 , a user interface output device 1500 , and storage connected through a bus 1200 . 1600 , and a network interface 1700 .

프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다. The processor 1100 may be a central processing unit (CPU) or a semiconductor device that processes instructions stored in the memory 1300 and/or the storage 1600 . The memory 1300 and the storage 1600 may include various types of volatile or nonvolatile storage media. For example, the memory 1300 may include read only memory (ROM) and random access memory (RAM).

따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.Accordingly, the steps of a method or algorithm described in connection with the embodiments disclosed herein may be directly implemented in hardware, a software module executed by the processor 1100 , or a combination of the two. A software module resides in a storage medium (ie, memory 1300 and/or storage 1600 ) such as RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disk, a removable disk, a CD-ROM. You may. An exemplary storage medium is coupled to the processor 1100 , the processor 1100 capable of reading information from, and writing information to, the storage medium. Alternatively, the storage medium may be integrated with the processor 1100 . The processor and storage medium may reside within an application specific integrated circuit (ASIC). The ASIC may reside within the user terminal. Alternatively, the processor and storage medium may reside as separate components within the user terminal.

상기와 같이 설명된 장애물 인식 시스템 및 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.In the obstacle recognition system and method described above, the configuration and method of the above-described embodiments are not limitedly applicable, but all or part of each embodiment is selectively combined so that various modifications can be made. may be configured.

100 : 영상 획득부
200 : 차량 속도 획득부
300 : 제어부
1000: 컴퓨팅 시스템
1100: 프로세서
1200: 시스템 버스
1300: 메모리
1310: ROM
1320: RAM
1400: 사용자 인터페이스
100: image acquisition unit
200: vehicle speed acquisition unit
300: control unit
1000: computing system
1100: Processor
1200: system bus
1300: memory
1310: ROM
1320: RAM
1400: user interface

Claims (5)

차량에 장착된 카메라로부터 상기 차량 외부의 영상을 획득하는 영상 획득부;
상기 차량의 속도를 획득하는 차량 속도 획득부;
상기 차량의 속도가 기 설정된 속도 이하인 경우,
상기 차량의 속도를 이용하여 상기 영상의 복수의 이전 프레임의 공간적 위치를 보정하고, 상기 영상의 현재 프레임과 상기 보정된 복수의 이전 프레임 각각 간의 차분값으로 구성된 복수의 차분 프레임을 생성하고, 상기 복수의 차분 프레임을 겹쳐서 겹침 프레임을 생성하며, 상기 겹침 프레임으로부터 장애물을 인식하는 제어부;를 포함하는 장애물 인식 시스템.
an image acquisition unit for acquiring an image outside the vehicle from a camera mounted on the vehicle;
a vehicle speed obtaining unit which obtains the speed of the vehicle;
When the speed of the vehicle is less than a preset speed,
correcting the spatial position of a plurality of previous frames of the image by using the vehicle speed, generating a plurality of difference frames composed of difference values between the current frame of the image and each of the corrected plurality of previous frames, and Obstacle recognition system comprising a; a control unit for generating an overlapping frame by overlapping the difference frames of , and recognizing an obstacle from the overlapping frame.
삭제delete 제 1 항에 있어서,
상기 차량의 속도가 0인 경우 또는 상기 차량의 속도가 상기 기 설정된 속도 초과인 경우,
상기 제어부는 상기 겹침 프레임을 생성하지 않고 상기 현재 프레임과 상기 복수의 이전 프레임 중 적어도 하나를 비교하여 상기 장애물을 인식하는 것을 특징으로 하는 장애물 인식 시스템.
The method of claim 1,
When the speed of the vehicle is 0 or when the speed of the vehicle exceeds the preset speed,
The control unit recognizes the obstacle by comparing the current frame with at least one of the plurality of previous frames without generating the overlapping frame.
제 1 항에 있어서,
상기 카메라가 어안렌즈 카메라인 경우,
상기 제어부는 상기 어안렌즈 카메라의 왜곡률을 이용하여 상기 영상의 왜곡을 보정하는 것을 특징으로 하는 장애물 인식 시스템.
The method of claim 1,
When the camera is a fisheye lens camera,
The control unit is an obstacle recognition system, characterized in that for correcting the distortion of the image by using the distortion rate of the fisheye lens camera.
제 4 항에 있어서,
상기 차량의 속도가 0인 경우,
상기 제어부는 상기 영상의 왜곡을 보정하지 않는 것을 특징으로 하는 장애물 인식 시스템.
5. The method of claim 4,
When the vehicle speed is 0,
The obstacle recognition system, characterized in that the control unit does not correct the distortion of the image.
KR1020160054052A 2016-05-02 2016-05-02 System and method for recognizing obstacle based on image KR102371588B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160054052A KR102371588B1 (en) 2016-05-02 2016-05-02 System and method for recognizing obstacle based on image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160054052A KR102371588B1 (en) 2016-05-02 2016-05-02 System and method for recognizing obstacle based on image

Publications (2)

Publication Number Publication Date
KR20170124310A KR20170124310A (en) 2017-11-10
KR102371588B1 true KR102371588B1 (en) 2022-03-07

Family

ID=60386495

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160054052A KR102371588B1 (en) 2016-05-02 2016-05-02 System and method for recognizing obstacle based on image

Country Status (1)

Country Link
KR (1) KR102371588B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102395296B1 (en) 2017-09-26 2022-05-09 현대자동차주식회사 Thermoelectric material and method for manufacturing the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007064804A (en) * 2005-08-31 2007-03-15 Clarion Co Ltd Obstacle detecting device for vehicle
JP2008219063A (en) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
US20090080702A1 (en) 2007-09-24 2009-03-26 Guanglin Ma Method for the recognition of obstacles
JP2015119225A (en) * 2013-12-16 2015-06-25 ソニー株式会社 Image processor, image processing method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007064804A (en) * 2005-08-31 2007-03-15 Clarion Co Ltd Obstacle detecting device for vehicle
JP2008219063A (en) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
US20090080702A1 (en) 2007-09-24 2009-03-26 Guanglin Ma Method for the recognition of obstacles
JP2015119225A (en) * 2013-12-16 2015-06-25 ソニー株式会社 Image processor, image processing method and program

Also Published As

Publication number Publication date
KR20170124310A (en) 2017-11-10

Similar Documents

Publication Publication Date Title
CN109902637B (en) Lane line detection method, lane line detection device, computer device, and storage medium
US20220004784A1 (en) Vehicle feature acquisition method and device
WO2017138245A1 (en) Image processing device, object recognition device, device control system, and image processing method and program
US10821897B2 (en) Method and device for adjusting driver assistance apparatus automatically for personalization and calibration according to driver's status
WO2020248910A1 (en) Target detection method and device
US20170259830A1 (en) Moving amount derivation apparatus
KR20210009458A (en) Method and apparatus of detecting object
JP6617150B2 (en) Object detection method and object detection apparatus
JP5082955B2 (en) Vehicle detection apparatus and method, and program
KR102371588B1 (en) System and method for recognizing obstacle based on image
KR102029335B1 (en) Apparatus and method for correcting distored image
KR101877741B1 (en) Apparatus for detecting edge with image blur
Yang Estimation of vehicle's lateral position via the Lucas-Kanade optical flow method
KR20190134303A (en) Apparatus and method for image recognition
JP2016173795A (en) Image processing apparatus, image processing method, and program
JP6577595B2 (en) Vehicle external recognition device
CN114037977B (en) Road vanishing point detection method, device, equipment and storage medium
KR101904480B1 (en) Object recognition system and method considering camera distortion
US20230069608A1 (en) Object Tracking Apparatus and Method
KR102235127B1 (en) Adaptive fusion method of multimodal images and apparatus
KR102522609B1 (en) Around view monitoring system and operating method thereof
KR20220008613A (en) Appratus and method for detecting object
KR102371594B1 (en) Apparatus for automatic calibration of stereo camera image, system having the same and method thereof
US10824884B2 (en) Device for providing improved obstacle identification
KR102112784B1 (en) Apparatus and method for correcting distored image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant