KR20170124310A - System and method for recognizing obstacle based on image - Google Patents

System and method for recognizing obstacle based on image Download PDF

Info

Publication number
KR20170124310A
KR20170124310A KR1020160054052A KR20160054052A KR20170124310A KR 20170124310 A KR20170124310 A KR 20170124310A KR 1020160054052 A KR1020160054052 A KR 1020160054052A KR 20160054052 A KR20160054052 A KR 20160054052A KR 20170124310 A KR20170124310 A KR 20170124310A
Authority
KR
South Korea
Prior art keywords
image
vehicle
speed
obstacle
frame
Prior art date
Application number
KR1020160054052A
Other languages
Korean (ko)
Other versions
KR102371588B1 (en
Inventor
권구도
윤성원
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020160054052A priority Critical patent/KR102371588B1/en
Publication of KR20170124310A publication Critical patent/KR20170124310A/en
Application granted granted Critical
Publication of KR102371588B1 publication Critical patent/KR102371588B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • H04N5/217
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2550/10
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

According to an embodiment of the present invention, a system for recognizing an obstacle can comprise: an image acquisition unit acquiring an image outside a vehicle from a camera mounted in the vehicle; a vehicle speed acquisition unit acquiring the speed of the vehicle; and a control unit generating a plurality of difference frames composed of a difference value between a current frame of the image and each of a plurality of previous frames, generating an overlapped frame by enabling the difference frames to be overlapped, and recognizing an obstacle from the overlapped frame when the vehicle speed is lower than or equal to a predetermined speed.

Description

영상기반 장애물 인식 시스템 및 방법{System and method for recognizing obstacle based on image}Technical Field [0001] The present invention relates to an image-based obstacle recognition system,

본 발명은 영상기반 장애물 인식 시스템 및 방법에 관한 것이다.The present invention relates to an image-based obstacle recognition system and method.

차량 주변에는 다양한 형태의 장애물이 존재하며 이와 같은 잠재적인 충돌 가능성을 가진 위험 요소로부터 보호 받기 위하여 장애물을 인식하는 여러 가지 방법이 제시되어 왔다.There are various types of obstacles around the vehicle, and various ways of recognizing the obstacles have been proposed to be protected from the risk of such potential collision.

장애물을 인식하기 위해 영상, 초음파, 레이저 등을 이용하는 방법이 있지만 운전자가 장애물을 직접 확인하기 위한 방법으로는 영상을 이용하는 방법이 바람직하다.Although there is a method of using an image, an ultrasonic wave, a laser or the like to recognize an obstacle, a method of using an image is preferable as a method for a driver to directly identify an obstacle.

영상을 이용하여 장애물을 인식하는 방법 중에는 광각의 어안 카메라를 이용하여 연속되는 영상의 변화에 차량의 거동 정보를 적용하고 차량의 거동과 다른 변화가 발생한 영역에 장애물이 존재를 추정하는 것이 있다.Among the methods of recognizing obstacles using the image, there is a method of applying the behavior information of the vehicle to the continuous change of the image by using the wide angle fisheye camera and estimating the presence of the obstacle in the area where the change and the other changes occur.

이러한 방식은 차량의 거동, 즉 차량의 진행 속도를 고려하여 영상내 변화 중 일부를 제거하고 나머지 부분을 장애물로 인식하는 하는 것으로서, 장애물을 인식하기 위해 옵티컬 플로우(Optical flow), IPM(Inverse Perspective Mapping)등의 연산을 수행하여야 한다.This method removes some of the changes in the image in consideration of the vehicle behavior, that is, the traveling speed of the vehicle, and recognizes the remaining portions as obstacles. In order to recognize the obstacles, the optical flow, the inverse perspective mapping ) Must be performed.

그러나 기존의 방식은 실시간성이 보장되지 않을 정도로 많은 연산 과정을 거쳐야 하며 판단의 기준이 되는 차량의 속도가 느릴 경우 영상내 변화가 미비하여 장애물을 인식하는 성능이 나쁘다는 문제가 있다.However, the conventional method requires a lot of computation steps to insure that the real time property is not guaranteed. When the speed of the vehicle, which is a judgment criterion, is slow, there is a problem that the change in the image is insufficient and the performance of recognizing the obstacle is poor.

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로서, 영상기반의 장애물 인식 방법에서 장애물 인식 성능은 향상시키고 불필요한 연산을 줄이는 데 그 목적이 있다. SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to improve the obstacle recognition performance and reduce unnecessary operations in an image-based obstacle recognition method.

한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are not intended to limit the invention to the precise form disclosed. It can be understood.

상술한 과제를 실현하기 위한 본 발명의 일예와 관련된 장애물 인식 시스템은 차량에 장착된 카메라로부터 상기 차량 외부의 영상을 획득하는 영상 획득부, 상기 차량의 속도를 획득하는 차량 속도 획득부, 상기 차량의 속도가 기 설정된 속도 이하인 경우, 상기 영상의 현재 프레임과 복수의 이전 프레임 각각 간의 차분값으로 구성된 복수의 차분 프레임을 생성하고, 상기 복수의 차분 프레임을 겹쳐서 겹침 프레임을 생성하며, 상기 겹침 프레임으로부터 장애물을 인식하는 제어부를 포함할 수 있다.An obstacle recognition system related to an example of the present invention for realizing the above-mentioned object includes an image acquisition unit for acquiring an image of the outside of the vehicle from a camera mounted on the vehicle, a vehicle speed acquiring unit for acquiring the speed of the vehicle, Generating a plurality of differential frames constituted by differential values between a current frame of the image and each of a plurality of previous frames and generating an overlapping frame by overlapping the plurality of differential frames, And a control unit for recognizing the image.

또한, 상기 제어부는 상기 차량의 속도를 이용하여 상기 복수의 이전 프레임의 공간적 위치를 보정하고, 상기 보정된 복수의 이전 프레임을 이용하여 상기 차분 프레임을 생성할 수 있다.The control unit may correct the spatial position of the plurality of previous frames using the speed of the vehicle, and may generate the difference frame using the corrected plurality of previous frames.

또한, 상기 차량의 속도가 0인 경우 또는 상기 차량의 속도가 상기 기 설정된 속도 초과인 경우, 상기 제어부는 상기 겹침 프레임을 생성하지 않고 상기 현재 프레임과 상기 복수의 이전 프레임 중 적어도 하나를 비교하여 상기 장애물을 인식할 수 있다.When the speed of the vehicle is zero or the speed of the vehicle is higher than the predetermined speed, the control unit compares the current frame with at least one of the plurality of previous frames without generating the overlapping frame, The obstacle can be recognized.

또한, 상기 카메라가 어안렌즈 카메라인 경우, 상기 제어부는 상기 어안렌즈 카메라의 왜곡률을 이용하여 상기 영상의 왜곡을 보정할 수 있다.In addition, when the camera is a fisheye lens camera, the controller can correct the distortion of the image using the distortion rate of the fisheye lens camera.

또한, 상기 차량의 속도가 0인 경우, 상기 제어부는 상기 영상의 왜곡을 보정하지 않을 수 있다.In addition, when the speed of the vehicle is 0, the control unit may not correct the distortion of the image.

본 발명의 실시예들은 영상기반의 장애물 인식 방법에서 장애물 인식 성능은 향상시키고 불필요한 연산을 줄일 수 있다.Embodiments of the present invention can improve the obstacle recognition performance and reduce unnecessary operations in an image-based obstacle recognition method.

또한, 본 발명의 실시예를 적용하여 저성능의 제어기를 사용하여도 장애물을 실시간으로 인식할 수 있다.Also, the obstacle can be recognized in real time by using the low performance controller by applying the embodiment of the present invention.

한편, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It should be understood, however, that the effects obtained by the present invention are not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those skilled in the art to which the present invention belongs It will be possible.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 일 실시예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술적 사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석 되어서는 아니 된다.
도 1은 본 발명의 일 실시예에 따른 장애물 인식 시스템의 블록도이다.
도 2a는 본 발명의 일 실시예에 따른 어안 렌즈 카메라로 촬영한 이미지이고, 도 2b는 본 발명의 일 실시예에 따른 어안 렌즈 카메라로 촬영한 이미지의 왜곡을 보정한 이미지이다.
도 3a는 본 발명의 일 실시예에 따라 차량의 속도가 5km/h일 때의 차분 프레임을 나타내고, 도 3b는 본 발명의 일 실시예에 따라 차량의 속도가 1km/h 일 때의 차분 프레임을 나타낸다.
도 4a는 본 발명의 일 실시예에 따른 영상의 현재 프레임이고 도 4b 내지 도 4d는 본 발명의 일 실시예에 따른 시간의 역순으로 배열된 영상의 이전 프레임이다.
도 5a는 본 발명의 일 실시예에 따른 영상의 현재 프레임이고 도 4b 내지 도 5d는 본 발명의 일 실시예에 따른 시간의 역순으로 배열된 공간적 위치가 보정된 영상의 이전 프레임이다.
도 6a 내지 도 6c는 본 발명의 일 실시예에 따른 영상의 현재 프레임과 이전 프레임 각각으로부터 도출된 차분 프레임이다.
도 7은 본 발명의 일 실시예에 따른 겹침 프레임이다.
도 8은 본 발명의 일 실시예에 따른 장애물 인식 방법을 나타내는 순서도이다.
도 9는 본 발명의 일 실시예에 따른 장애물 인식 방법을 실행하는 컴퓨팅 시스템을 보여주는 블록도이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate preferred embodiments of the invention and, together with the description, serve to further the understanding of the technical idea of the invention, It should not be construed as limited.
1 is a block diagram of an obstacle recognition system according to an embodiment of the present invention.
FIG. 2A is an image taken by a fisheye lens camera according to an embodiment of the present invention, and FIG. 2B is an image obtained by correcting distortion of an image taken by a fisheye lens camera according to an embodiment of the present invention.
FIG. 3A shows a differential frame when the vehicle speed is 5 km / h according to an embodiment of the present invention, FIG. 3B shows a differential frame when the vehicle speed is 1 km / h according to an embodiment of the present invention .
FIG. 4A is a current frame of an image according to an embodiment of the present invention, and FIGS. 4B to 4D are previous frames of an image arranged in a reverse order of time according to an embodiment of the present invention.
FIG. 5A is a current frame of an image according to an embodiment of the present invention, and FIGS. 4B to 5D are previous frames of an image in which spatial positions are corrected in a reverse order of time according to an embodiment of the present invention.
6A to 6C are differential frames derived from the current frame and the previous frame of the image, respectively, according to an embodiment of the present invention.
7 is an overlapping frame according to an embodiment of the present invention.
8 is a flowchart illustrating an obstacle recognition method according to an embodiment of the present invention.
9 is a block diagram illustrating a computing system that implements an obstacle recognition method in accordance with an embodiment of the present invention.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. It should be noted that, in adding reference numerals to the constituent elements of the drawings, the same constituent elements are denoted by the same reference numerals whenever possible, even if they are shown in different drawings. In the following description of the embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the difference that the embodiments of the present invention are not conclusive.

본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. Also, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted in an ideal or overly formal sense unless explicitly defined in the present application Do not.

도 1은 본 발명의 일 실시예에 따른 장애물 인식 시스템의 블록도이다.1 is a block diagram of an obstacle recognition system according to an embodiment of the present invention.

도 2a는 본 발명의 일 실시예에 따른 어안 렌즈 카메라로 촬영한 이미지이고, 도 2b는 본 발명의 일 실시예에 따른 어안 렌즈 카메라로 촬영한 이미지의 왜곡을 보정한 이미지이다.FIG. 2A is an image taken by a fisheye lens camera according to an embodiment of the present invention, and FIG. 2B is an image obtained by correcting distortion of an image taken by a fisheye lens camera according to an embodiment of the present invention.

도 3a는 본 발명의 일 실시예에 따라 차량의 속도가 5km/h일 때의 차분 프레임을 나타내고, 도 3b는 본 발명의 일 실시예에 따라 차량의 속도가 1km/h 일 때의 차분 프레임을 나타낸다.FIG. 3A shows a differential frame when the vehicle speed is 5 km / h according to an embodiment of the present invention, FIG. 3B shows a differential frame when the vehicle speed is 1 km / h according to an embodiment of the present invention .

도 4a는 본 발명의 일 실시예에 따른 영상의 현재 프레임이고 도 4b 내지 도 4d는 본 발명의 일 실시예에 따른 시간의 역순으로 배열된 영상의 이전 프레임이다.FIG. 4A is a current frame of an image according to an embodiment of the present invention, and FIGS. 4B to 4D are previous frames of an image arranged in a reverse order of time according to an embodiment of the present invention.

도 5a는 본 발명의 일 실시예에 따른 영상의 현재 프레임이고 도 4b 내지 도 5d는 본 발명의 일 실시예에 따른 시간의 역순으로 배열된 공간적 위치가 보정된 영상의 이전 프레임이다.FIG. 5A is a current frame of an image according to an embodiment of the present invention, and FIGS. 4B to 5D are previous frames of an image in which spatial positions are corrected in a reverse order of time according to an embodiment of the present invention.

도 6a 내지 도 6c는 본 발명의 일 실시예에 따른 영상의 현재 프레임과 이전 프레임 각각으로부터 도출된 차분 프레임이다.6A to 6C are differential frames derived from the current frame and the previous frame of the image, respectively, according to an embodiment of the present invention.

도 7은 본 발명의 일 실시예에 따른 겹침 프레임이다.7 is an overlapping frame according to an embodiment of the present invention.

먼저, 도 1을 참조하면, 본 발명에 따른 장애물 인식 시스템은 영상 획득부(100), 차량 속도 획득부(200) 및 제어부(300) 등을 포함할 수 있다.Referring to FIG. 1, the obstacle recognition system according to the present invention may include an image acquisition unit 100, a vehicle speed acquisition unit 200, and a control unit 300.

다만, 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 장애물 인식 시스템이 구현될 수도 있다.However, the components shown in Fig. 1 are not essential, and an obstacle recognition system having components having more or fewer components may be implemented.

영상 획득부(100)는 차량 외부의 영상을 획득하는 구성이다.The image acquiring unit 100 acquires an image outside the vehicle.

영상 획득부(100)는 차량 외부를 촬영하는 카메라일 수 있고, 차량 외부를 촬영하는 카메라로부터 영상을 획득하는 영상 수신부일 수도 있다.The image acquiring unit 100 may be a camera for photographing the outside of the vehicle or an image receiving unit for acquiring an image from a camera for photographing the outside of the vehicle.

또한, 상기 카메라는 전방위 영상을 촬영하는 어안 렌즈 카메라일 수 있으며, 어안 렌즈 카메라로부터 획득되는 영상은 하나의 렌즈로 얻어지는 광각 영상이므로 왜곡된 영상일 수 있다.Also, the camera may be a fisheye lens camera for photographing the omnidirectional image, and the image obtained from the fisheye lens camera may be a distorted image since it is a wide-angle image obtained with one lens.

차량 속도 획득부(200)는 차량의 속도를 획득하는 구성으로서, 차량의 속력뿐만 아니라, 차량이 움직이는 방향에 대한 정보 또한 획득할 수 있다. 예들 들어, 차량 속도 획득부(200)는 OBD(On-Board Diagnostics)일 수 있다.The vehicle speed acquiring section 200 is a configuration for acquiring the speed of the vehicle, and can acquire not only the speed of the vehicle but also information on the direction in which the vehicle is moving. For example, the vehicle speed obtaining section 200 may be OBD (On-Board Diagnostics).

제어부(300)는 영상 획득부(100)가 획득한 영상으로부터 장애물을 인식하는 구성으로서, 차량의 속도에 따라 다른 연산을 하여 영상의 복수의 프레임으로부터 장애물을 인식할 수 있다.The control unit 300 recognizes an obstacle from the image acquired by the image acquiring unit 100 and can perform an operation according to the speed of the vehicle to recognize an obstacle from a plurality of frames of the image.

이하에서는 도 2a 내지 도 7을 참조하여 제어부(300)가 장애물을 인식하는 방법에 대해 구체적으로 설명한다.Hereinafter, a method by which the controller 300 recognizes an obstacle will be described in detail with reference to FIGS. 2A to 7. FIG.

획득되는 영상이 어안 렌즈 카메라에 의해 획득된 영상인 경우, 제어부(300)는 어안렌즈 카메라의 왜곡률을 이용하여 영상의 왜곡을 보정할 수 있다. 연속적으로 입력되는 영상의 변화에서 차량의 거동 정보를 적용하기 위해서 IPM(Inverse Perspective Mapping)과 같이 주변의 실제 거리 정보와 영상 정보를 일치시키는 것이다.If the acquired image is an image acquired by a fisheye lens camera, the controller 300 can correct the image distortion using the fisheye ratio of the fisheye lens camera. In order to apply the vehicle behavior information to the continuous input image change, it is necessary to match the actual distance information with the image information such as IPM (Inverse Perspective Mapping).

즉, 도 2a와 같이 어안 렌즈 카메라에 의해 획득된 영상은 실제 영상에 비해서 왜곡되어 표현된다. 제어부(300)는 이와 같이 왜곡된 영상을 IPM 등의 연산 방법을 수행하여 도 2b와 같이 보정된 영상을 도출할 수 있다.That is, as shown in FIG. 2A, the image obtained by the fisheye lens camera is distorted as compared with the actual image. The control unit 300 can derive the corrected image as shown in FIG. 2B by performing an operation method such as IPM on the distorted image.

다만, 획득되는 영상이 왜곡되지 않은 영상인 경우에는 별도로 보정을 하는 연산을 할 필요가 없다.However, if the acquired image is a non-distorted image, there is no need to perform an operation to perform correction separately.

또한, 차량의 속도가 0인 경우에도 영상의 왜곡을 보정하지 않아도 된다. 차량이 정지한 상태에서는 차량 거동 정보를 영상에 적용하는 연산을 수행할 필요가 없고, 영상의 복수의 프레임 간 비교를 통해 움직이는 장애물에 대해서만 인식하면 되기 때문이다.In addition, even when the vehicle speed is zero, the distortion of the image may not be corrected. This is because it is not necessary to perform an operation of applying the vehicle behavior information to the image when the vehicle is stopped and only the obstacle moving through the comparison of the plurality of frames of the image is recognized.

제어부(300)는 차량의 속도가 기 설정된 속도(Vth)보다 느린지 여부를 판단하여 차량의 속도가 기 설정된 속도 이하인 경우, 장애물의 특징을 강화하는 연산을 수행할 수 있다.The control unit 300 may determine whether the vehicle speed is slower than the predetermined speed Vth, and may perform an operation of enhancing the characteristics of the obstacle when the speed of the vehicle is equal to or lower than a predetermined speed.

도 3a와 같이 시속 5km/h로 움직이는 차량에서 획득된 영상의 프레임을 이용하여 도출한 차분 프레임에서는 장애물의 특징이 명확히 드러나지만, 도 3b와 같이 시속 5km/h로 움직이는 차량에서 획득된 영상의 프레임을 이용하여 도출한 차분 프레임에서는 장애물의 특징이 명확히 드러나지 않기 때문이다.As shown in FIG. 3A, in the differential frame derived from the image frame obtained from the vehicle moving at the speed of 5 km / h, the characteristics of the obstacle are clearly revealed. However, as shown in FIG. 3B, The feature of the obstacle is not clearly revealed in the differential frame derived by using the difference frame.

즉, 차량의 속도가 빠를 때에는 영상의 인접 프레임 간 장애물의 크기 또는 위치변화가 두드러지지만, 차량의 속도가 느릴 때에는 인접 프레임에서 표현되는 장애물의 움직임 변화가 미미하다는 것이다.That is, when the speed of the vehicle is high, the size or position change of the obstacle between adjacent frames of the image becomes conspicuous, but when the vehicle speed is slow, the motion change of the obstacle represented in the adjacent frame is insignificant.

먼저, 제어부(300)는 장애물의 특징을 강화하는 연산을 수행하기 위해 영상에서 현재 프레임과 복수의 이전 프레임을 추출할 수 있다.First, the controller 300 may extract a current frame and a plurality of previous frames from an image to perform an operation for enhancing a feature of the obstacle.

도 4a는 영상에서 현재 프레임을 나타낸 것이고, 도 4b 내지 도 4d는 현재 프레임에 대하여 시간적으로 이전에 촬영된 프레임이다.FIG. 4A shows the current frame in the image, and FIGS. 4B to 4D are frames previously taken temporally with respect to the current frame.

차량이 느리게 움직이지만 속도가 0이 아니므로, 고정되어 있는 장애물의 위치는 영상에서 차량의 이동거리만큼 변한다.Since the vehicle moves slowly but the speed is not zero, the position of the fixed obstacle changes by the moving distance of the vehicle in the image.

도 4a 내지 도 4d를 참조하면, 도 4a에서 도 4d로 갈수록 붉은 선을 기준으로 장애물의 위치가 점점 위로 올라간다. 도 4a 내지 도 4d 중 도 4d가 시간적으로 가장 먼저 촬영된 프레임이므로 차량이 장애물에 접근하는 것이다.Referring to FIGS. 4A to 4D, the position of the obstacle rises gradually with respect to the red line from FIG. 4A to FIG. 4D. 4A to 4D, the vehicle approaches the obstacle since FIG. 4D is the frame that is photographed first in time.

제어부(300)는 현재 프레임과 복수의 이전 프레임을 추출한 후, 현재 프레임과 복수의 이전 프레임 각각 간의 차분 프레임을 생성하기 전, 본 발명의 일 실시예에 따라 차량의 속도를 이용하여 복수의 이전 프레임의 공간적 위치를 보정할 수 있다.The control unit 300 extracts a current frame and a plurality of previous frames and then generates a difference frame between the current frame and each of the plurality of previous frames using a speed of the vehicle according to an embodiment of the present invention, Can be corrected.

즉, 차량의 거동정보를 적용하여 복수의 이전 프레임을 보정하는 것이며, 복수의 이전 프레임 각각에 존재하는 장애물의 위치가 현재 프레임에 존재하는 장애물의 위치와 동일하도록 보정하는 것이다.That is, a plurality of previous frames are corrected by applying the behavior information of the vehicle, and the position of the obstacle present in each of the plurality of previous frames is corrected to be the same as the position of the obstacle present in the current frame.

도 5b 내지 도 5d는 본 발명의 일 실시예에 따라 복수의 이전 프레임의 공간적 위치가 보정된 프레임을 나타내는 것이며, 복수의 프레임에 나타난 장애물의 위치가 붉은 선을 기준으로 동일하다.FIGS. 5B to 5D illustrate a frame in which the spatial positions of a plurality of previous frames are corrected according to an embodiment of the present invention, and the positions of the obstacles indicated in the plurality of frames are the same with respect to the red line.

제어부(300)는 공간적 위치가 보정된 복수의 이전 프레임 각각과 현재 프레임 간의 차분값으로 구성된 복수의 차분 프레임을 생성할 수 있다.The control unit 300 can generate a plurality of differential frames each composed of a difference value between each of a plurality of previous frames whose spatial positions are corrected and a current frame.

즉, 현재 프레임과 이전 프레임 각각 간의 차이가 있는 부분만 나타나는 프레임이 생성되는 것이다.That is, a frame in which only the difference between the current frame and the previous frame is shown is generated.

도 6a는 도 5a와 도 5b로부터 도출된 차분 프레임이고, 도 6b는 도 5a와 도 5c로부터 도출된 차분 프레임이며, 도 6c는 도 5a와 도 5d로부터 도출된 차분 프레임이다.6A is a differential frame derived from FIGS. 5A and 5B, FIG. 6B is a differential frame derived from FIGS. 5A and 5C, and FIG. 6C is a differential frame derived from FIGS. 5A and 5D.

도 6a 내지 도 6c를 참조하면, 시간적으로 더 멀리 떨어진 도 5a와 도 5d로부터 도출된 차분 프레임인 도 6c에서 장애물이 더 명확히 나타난다는 것을 확인할 수 있다.Referring to FIGS. 6A to 6C, it can be seen that the obstacle appears more clearly in FIG. 6C, which is a difference frame derived from FIG. 5A and FIG. 5D which are temporally further apart.

만약, 상술한 공간적 위치가 보정되지 않는 경우, 차분 프레임은 도 4a와 도 4b로부터 도출되고, 도 4a와 도 4c로부터 도출되고, 도 4a와 도 4d로부터 도출될 수 있다.If the above spatial position is not corrected, the difference frame is derived from Figs. 4A and 4B, derived from Figs. 4A and 4C, and can be derived from Figs. 4A and 4D.

제어부(300)는 도출한 도 6a 내지 도 6c를 겹쳐서 도 7와 같은 겹침 프레임을 생성할 수 있다.The control unit 300 can overlap the derived FIGs. 6A to 6C to generate the overlapping frame as shown in FIG.

시간적으로 더 멀리 떨어진 도 5a와 도 5d로부터 도출된 차분 프레임인 도 6c에서도 장애물을 인식할 수 있지만, 차량 주변에 고정 장애물만이 있는 것이 아니라 이동하는 장애물이 존재할 수 있으므로 하나의 차분 프레임으로부터 장애물을 인식한다면 빠르게 이동하는 장애물을 인식할 수 없다.Although the obstacle can be recognized in FIG. 6C, which is a difference frame derived from FIG. 5A and FIG. 5D which are further distant from each other in time, there may be a moving obstacle instead of a fixed obstacle in the vicinity of the vehicle. If they do, they will not be able to recognize fast-moving obstacles.

따라서 복수의 차분 프레임을 겹치면 시간적 해상도가 높은 겹침 프레임이 도출되어, 빠르게 움직이는 장애물 또한 겹침 프레임에 나타날 수 있다.Therefore, when a plurality of differential frames are overlapped, an overlapping frame having a high temporal resolution is derived, and a fast moving obstacle can also appear in the overlapping frame.

제어부(300)는 이러한 겹침 프레임으로부터 장애물을 인식할 수 있다.The control unit 300 can recognize the obstacle from this overlapping frame.

한편, 차량의 속도가 기 설정된 속도 초과인 경우, 도 3a에 나타난 것처럼 영상의 인접 프레임 간 장애물의 크기 또는 위치변화가 두드러진다.On the other hand, when the speed of the vehicle exceeds the predetermined speed, the size or positional change of the obstacle between adjacent frames of the image is conspicuous as shown in FIG. 3A.

따라서 제어부(300)는 도 4a 내지 도 7을 참조하여 설명한 장애물 특징 강화 연산을 수행하지 않고, 영상의 인접 프레임 간의 차분 프레임으로부터 장애물을 인식할 수 있다. 또한, 제어부(300)는 차량의 속도가 0인 경우에도 장애물 특징 강화 연산을 수행하지 않고, 영상의 인접 프레임 간의 차분 프레임으로부터 장애물을 인식할 수 있다.Therefore, the controller 300 can recognize an obstacle from a differential frame between adjacent frames of the image without performing the obstacle feature enhancing operation described with reference to FIG. 4A to FIG. Also, even when the vehicle speed is zero, the controller 300 can recognize an obstacle from a differential frame between neighboring frames of the image without performing the obstacle feature enhancing operation.

이하에서는 도 8을 참조하여 전술한 구성들을 기초로 장애물 인식 방법에 대해 구체적으로 설명한다.Hereinafter, a method for recognizing an obstacle will be described in detail based on the above-described configurations with reference to FIG.

도 8은 본 발명의 일 실시예에 따른 장애물 인식 방법을 나타내는 순서도이다.8 is a flowchart illustrating an obstacle recognition method according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시예에 따른 장애물 인식 방법은 영상을 획득하는 단계(S100), 차량의 속도가 0 초과인지 여부를 판단하는 단계(S200), 영상의 왜곡을 보정하는 단계(S300), 차량의 속도가 기 설정된 속도(Vth)이하인지 여부를 판단하는 단계(S400), 겹침 프레임을 생성하는 단계(S510), 차분 프레임을 생성하는 단계(S520) 및 장애물을 인식하는 단계(S600)를 포함할 수 있다.Referring to FIG. 8, an obstacle recognizing method according to an embodiment of the present invention includes an image acquiring step S100, a step S200 of determining whether the speed of the vehicle is greater than 0, A step S510 of generating an overlapping frame, a step S520 of generating a difference frame S520, and a step S520 of recognizing an obstacle, (S600).

이하에서 상술한 S100 단계 내지 S600 단계를 도 1 내지 도 7을 참조하여 구체적으로 설명한다.Hereinafter, steps S100 to S600 will be described in detail with reference to FIGS. 1 to 7. FIG.

S100 단계에서, 영상 획득부(100)는 차량 외부의 영상을 획득할 수 있다. 영상 획득부(100)는 카메라로서 차량 외부를 촬영할 수 있고, 차량 외부를 촬영하는 카메라로부터 영상을 획득할 수 있다.In step S100, the image obtaining unit 100 can obtain an image outside the vehicle. The image obtaining unit 100 can photograph the outside of the vehicle as a camera, and can acquire an image from a camera that photographs the outside of the vehicle.

또한, 획득되는 영상은 어안 렌즈 카메라로 촬영된 전방위 영상일 수 있으며, 어안 렌즈 카메라로 촬영된 영상은 광각 영상이므로 왜곡된 영상일 수 있다.Also, the obtained image may be an omnidirectional image captured by a fisheye lens camera, and the image captured by a fisheye lens camera may be a distorted image because it is a wide-angle image.

S200 단계에서, 제어부(300)는 차량의 속도가 0 초과인지 여부를 판단할 수 있다.In step S200, the control unit 300 may determine whether the vehicle speed is greater than zero.

상술한 바와 같이 차량의 속도가 0인 경우, 즉 차량이 정지해 있는 경우 제어부(300)는 장애물 특징 강화 연산을 하지 않고, 후술할 영상의 인접 프레임으로부터 차분 프레임을 생성하는 단계를 수행할 수 있다.As described above, when the vehicle speed is 0, that is, when the vehicle is stopped, the control unit 300 can perform a step of generating a difference frame from an adjacent frame of an image to be described later, without performing an obstacle feature enhancing calculation .

차량의 속도가 0 초과인 경우, S300 단계에서, 제어부(300)는 영상의 왜곡을 보정할 수 있다.If the vehicle speed is greater than zero, the control unit 300 can correct the image distortion in step S300.

S300 단계는 S100 단계에서 획득된 영상이 어안 렌즈 카메라 등에 의해 획득된 영상으로서 왜곡된 영상인 경우, 연속적으로 입력되는 상의 변화에서 차량의 거동 정보를 적용하기 위해서 IPM(Inverse Perspective Mapping)과 같이 주변의 실제 거리 정보와 영상 정보를 일치시키는 단계이다. 즉, 도 2a와 같은 영상을 도 2b와 같이 보정하는 것이다.In step S300, when the image obtained in step S100 is a distorted image obtained by a fisheye lens camera or the like, in order to apply the behavior information of the vehicle from the continuously input image change, And matching the actual distance information with the image information. That is, the image shown in FIG. 2A is corrected as shown in FIG. 2B.

이 때 제어부(300)는 영상을 촬영한 카메라의 왜곡률을 이용하여 영상의 왜곡을 보정할 수 있다.At this time, the control unit 300 can correct the distortion of the image using the distortion rate of the camera that imaged the image.

S400 단계에서, 제어부(300)는 차량의 속도가 기 설정된 속도(Vth)보다 느린지 여부를 판단할 수 있다.In step S400, the control unit 300 may determine whether the vehicle speed is slower than the predetermined speed Vth.

차량의 속도가 기 설정된 속도보다 느린 경우, 제어부(300)는 도 4a 내지 도 7을 참조하여 설명한 것과 같이 장애물 특징 강화 연산을 하여 겹침 프레임을 생성할 수 있다(S510).If the vehicle speed is slower than the predetermined speed, the controller 300 may generate an overlapping frame by performing an obstacle feature enhancing operation as described with reference to FIGS. 4A to 7 (S510).

차량의 속도가 기 설정된 속도보다 빠른 경우, 도 3a와 같이 차분 프레임에서 장애물의 특징이 명확하게 드러나므로 별도의 장애물 특징 강화 연산을 하지 않고, 제어부(300)는 영상의 인접한 프레임으로부터 각 프레임 간의 차분값으로 구성된 차분 프레임을 생성할 수 있다(S520).When the speed of the vehicle is faster than the preset speed, the characteristic of the obstacle is clearly revealed in the difference frame as shown in FIG. 3A, so that the control unit 300 does not perform any additional obstacle feature enhancing calculation, (S520). ≪ / RTI >

S600 단계에서, 제어부(300)는 겹침 프레임 또는 차분 프레임으로부터 장애물을 인식할 수 있다.In step S600, the control unit 300 can recognize the obstacle from the overlapping frame or the difference frame.

도 9는 본 발명의 일 실시예에 따른 장애물 인식 방법을 실행하는 컴퓨팅 시스템을 보여주는 블록도이다. 9 is a block diagram illustrating a computing system that implements an obstacle recognition method in accordance with an embodiment of the present invention.

도 8을 참조하면, 컴퓨팅 시스템(1000)은 버스(1200)를 통해 연결되는 적어도 하나의 프로세서(1100), 메모리(1300), 사용자 인터페이스 입력 장치(1400), 사용자 인터페이스 출력 장치(1500), 스토리지(1600), 및 네트워크 인터페이스(1700)를 포함할 수 있다. 8, a computing system 1000 includes at least one processor 1100, a memory 1300, a user interface input device 1400, a user interface output device 1500, (1600), and a network interface (1700).

프로세서(1100)는 중앙 처리 장치(CPU) 또는 메모리(1300) 및/또는 스토리지(1600)에 저장된 명령어들에 대한 처리를 실행하는 반도체 장치일 수 있다. 메모리(1300) 및 스토리지(1600)는 다양한 종류의 휘발성 또는 불휘발성 저장 매체를 포함할 수 있다. 예를 들어, 메모리(1300)는 ROM(Read Only Memory) 및 RAM(Random Access Memory)을 포함할 수 있다. The processor 1100 may be a central processing unit (CPU) or a memory device 1300 and / or a semiconductor device that performs processing for instructions stored in the storage 1600. Memory 1300 and storage 1600 may include various types of volatile or non-volatile storage media. For example, the memory 1300 may include a ROM (Read Only Memory) and a RAM (Random Access Memory).

따라서, 본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서(1100)에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리(1300) 및/또는 스토리지(1600))에 상주할 수도 있다. 예시적인 저장 매체는 프로세서(1100)에 커플링되며, 그 프로세서(1100)는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서(1100)와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.Thus, the steps of a method or algorithm described in connection with the embodiments disclosed herein may be embodied directly in hardware, in a software module executed by processor 1100, or in a combination of the two. The software module may reside in a storage medium (i.e., memory 1300 and / or storage 1600) such as a RAM memory, a flash memory, a ROM memory, an EPROM memory, an EEPROM memory, a register, a hard disk, a removable disk, You may. An exemplary storage medium is coupled to the processor 1100, which can read information from, and write information to, the storage medium. Alternatively, the storage medium may be integral to the processor 1100. [ The processor and the storage medium may reside within an application specific integrated circuit (ASIC). The ASIC may reside within the user terminal. Alternatively, the processor and the storage medium may reside as discrete components in a user terminal.

상기와 같이 설명된 장애물 인식 시스템 및 방법은 상기 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.The above-described obstacle recognition system and method are not limited to the configuration and method of the embodiments described above, but the embodiments may be modified such that all or some of the embodiments are selectively combined .

100 : 영상 획득부
200 : 차량 속도 획득부
300 : 제어부
1000: 컴퓨팅 시스템
1100: 프로세서
1200: 시스템 버스
1300: 메모리
1310: ROM
1320: RAM
1400: 사용자 인터페이스
100:
200: vehicle speed obtaining section
300:
1000: Computing System
1100: Processor
1200: System bus
1300: Memory
1310: ROM
1320: RAM
1400: User interface

Claims (5)

차량에 장착된 카메라로부터 상기 차량 외부의 영상을 획득하는 영상 획득부;
상기 차량의 속도를 획득하는 차량 속도 획득부;
상기 차량의 속도가 기 설정된 속도 이하인 경우,
상기 영상의 현재 프레임과 복수의 이전 프레임 각각 간의 차분값으로 구성된 복수의 차분 프레임을 생성하고, 상기 복수의 차분 프레임을 겹쳐서 겹침 프레임을 생성하며, 상기 겹침 프레임으로부터 장애물을 인식하는 제어부;를 포함하는 장애물 인식 시스템.
An image acquiring unit acquiring an image of the outside of the vehicle from a camera mounted on the vehicle;
A vehicle speed obtaining section for obtaining a speed of the vehicle;
When the speed of the vehicle is not more than a predetermined speed,
And a controller for generating a plurality of differential frames each composed of a difference value between a current frame of the image and each of a plurality of previous frames, generating an overlapping frame by overlapping the plurality of difference frames, and recognizing an obstacle from the overlapping frame Obstacle recognition system.
제 1 항에 있어서,
상기 제어부는 상기 차량의 속도를 이용하여 상기 복수의 이전 프레임의 공간적 위치를 보정하고, 상기 보정된 복수의 이전 프레임을 이용하여 상기 차분 프레임을 생성하는 것을 특징으로 하는 장애물 인식 시스템.
The method according to claim 1,
Wherein the controller corrects the spatial position of the plurality of previous frames using the velocity of the vehicle and generates the difference frame using the corrected plurality of previous frames.
제 1 항에 있어서,
상기 차량의 속도가 0인 경우 또는 상기 차량의 속도가 상기 기 설정된 속도 초과인 경우,
상기 제어부는 상기 겹침 프레임을 생성하지 않고 상기 현재 프레임과 상기 복수의 이전 프레임 중 적어도 하나를 비교하여 상기 장애물을 인식하는 것을 특징으로 하는 장애물 인식 시스템.
The method according to claim 1,
When the speed of the vehicle is zero or when the speed of the vehicle is higher than the predetermined speed,
Wherein the control unit recognizes the obstacle by comparing at least one of the current frame and the plurality of previous frames without generating the overlapping frame.
제 1 항에 있어서,
상기 카메라가 어안렌즈 카메라인 경우,
상기 제어부는 상기 어안렌즈 카메라의 왜곡률을 이용하여 상기 영상의 왜곡을 보정하는 것을 특징으로 하는 장애물 인식 시스템.
The method according to claim 1,
When the camera is a fisheye lens camera,
Wherein the control unit corrects the distortion of the image using the distortion rate of the fisheye lens camera.
제 4 항에 있어서,
상기 차량의 속도가 0인 경우,
상기 제어부는 상기 영상의 왜곡을 보정하지 않는 것을 특징으로 하는 장애물 인식 시스템.
5. The method of claim 4,
If the speed of the vehicle is zero,
Wherein the control unit does not correct the distortion of the image.
KR1020160054052A 2016-05-02 2016-05-02 System and method for recognizing obstacle based on image KR102371588B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160054052A KR102371588B1 (en) 2016-05-02 2016-05-02 System and method for recognizing obstacle based on image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160054052A KR102371588B1 (en) 2016-05-02 2016-05-02 System and method for recognizing obstacle based on image

Publications (2)

Publication Number Publication Date
KR20170124310A true KR20170124310A (en) 2017-11-10
KR102371588B1 KR102371588B1 (en) 2022-03-07

Family

ID=60386495

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160054052A KR102371588B1 (en) 2016-05-02 2016-05-02 System and method for recognizing obstacle based on image

Country Status (1)

Country Link
KR (1) KR102371588B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017221209A1 (en) 2017-09-26 2019-03-28 Hyundai Motor Company THERMOELECTRIC MATERIAL AND METHOD FOR THE PRODUCTION THEREOF

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007064804A (en) * 2005-08-31 2007-03-15 Clarion Co Ltd Obstacle detecting device for vehicle
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
US20090080702A1 (en) * 2007-09-24 2009-03-26 Guanglin Ma Method for the recognition of obstacles
JP2015119225A (en) * 2013-12-16 2015-06-25 ソニー株式会社 Image processor, image processing method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007064804A (en) * 2005-08-31 2007-03-15 Clarion Co Ltd Obstacle detecting device for vehicle
JP2008219063A (en) * 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
US20090080702A1 (en) * 2007-09-24 2009-03-26 Guanglin Ma Method for the recognition of obstacles
JP2015119225A (en) * 2013-12-16 2015-06-25 ソニー株式会社 Image processor, image processing method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017221209A1 (en) 2017-09-26 2019-03-28 Hyundai Motor Company THERMOELECTRIC MATERIAL AND METHOD FOR THE PRODUCTION THEREOF

Also Published As

Publication number Publication date
KR102371588B1 (en) 2022-03-07

Similar Documents

Publication Publication Date Title
WO2020248910A1 (en) Target detection method and device
JP6303090B2 (en) Image processing apparatus and image processing program
JP6938055B2 (en) A method and device that automatically adjusts the driver assistance device for specialized calibration according to the driver's condition.
US20110001826A1 (en) Image processing device and method, driving support system, and vehicle
EP3438872A1 (en) Method, apparatus and computer program for a vehicle
US20200262350A1 (en) Multicamera system for autonamous driving vehicles
WO2017138245A1 (en) Image processing device, object recognition device, device control system, and image processing method and program
US11521395B2 (en) Image processing device, image processing method, and program
US10769760B2 (en) Image processing apparatus and imaging apparatus that performs a distortion correction process
US9813694B2 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value deriving method
KR102029335B1 (en) Apparatus and method for correcting distored image
KR20170124310A (en) System and method for recognizing obstacle based on image
Yang Estimation of vehicle's lateral position via the Lucas-Kanade optical flow method
KR102177878B1 (en) Apparatus and method for processing image
KR102540918B1 (en) Apparatus and method for processing user image of vehicle
Bangadkar et al. Mapping matrix for perspective correction from fish eye distorted images
JP6174884B2 (en) Outside environment recognition device and outside environment recognition method
Vaudrey et al. Integrating disparity images by incorporating disparity rate
US10824884B2 (en) Device for providing improved obstacle identification
CN110796084A (en) Lane line recognition method, lane line recognition device, lane line recognition equipment and computer-readable storage medium
CN114998849B (en) Traffic flow element sensing and positioning method based on road-side monocular camera and application thereof
JP2015125695A (en) Traffic lane identification device and traffic lane identification method
KR20180068022A (en) Apparatus for automatic calibration of stereo camera image, system having the same and method thereof
US11669992B2 (en) Data processing
KR102497488B1 (en) Image recognition apparatus for adjusting recognition range according to driving speed of autonomous vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant