KR101949961B1 - Apparatus and method for supporting driving of vehicle - Google Patents

Apparatus and method for supporting driving of vehicle Download PDF

Info

Publication number
KR101949961B1
KR101949961B1 KR1020160151870A KR20160151870A KR101949961B1 KR 101949961 B1 KR101949961 B1 KR 101949961B1 KR 1020160151870 A KR1020160151870 A KR 1020160151870A KR 20160151870 A KR20160151870 A KR 20160151870A KR 101949961 B1 KR101949961 B1 KR 101949961B1
Authority
KR
South Korea
Prior art keywords
bird
eye view
view image
vehicle
splitter
Prior art date
Application number
KR1020160151870A
Other languages
Korean (ko)
Other versions
KR20180054212A (en
Inventor
이정표
박재홍
Original Assignee
주식회사 와이즈오토모티브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 와이즈오토모티브 filed Critical 주식회사 와이즈오토모티브
Priority to KR1020160151870A priority Critical patent/KR101949961B1/en
Publication of KR20180054212A publication Critical patent/KR20180054212A/en
Application granted granted Critical
Publication of KR101949961B1 publication Critical patent/KR101949961B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K20/00Arrangement or mounting of change-speed gearing control devices in vehicles
    • B60K20/02Arrangement or mounting of change-speed gearing control devices in vehicles of initiating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/10Conjoint control of vehicle sub-units of different type or different function including control of change-speed gearings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 운전 보조 장치에 관한 것이다. 이를 위한 본 발명의 제 1 카메라 및 제 2 카메라가 장착된 차량에 적용되어, 차량의 운전을 보조하는 장치는 제 1 카메라를 통해 촬영된 제 1 카메라 이미지와, 제 2 카메라를 통해 촬영된 제 2 카메라 이미지를 저장하는 저장부; 및 제 1 카메라 이미지를 근거로 생성된 제 1 합성 조감도 이미지가 포함되는 제 1 조감도 영상 영역과 제 2 카메라 이미지를 근거로 생성된 제 2 합성 조감도 이미지가 포함되는 제 2 조감도 영상 영역을 포함하는 조감도 영상 영역을 포함하는 출력 화면을 생성하는 화면 생성부를 포함하고, 출력 화면에 제 1 조감도 영상 영역과 제 2 조감도 영상 영역을 분리하는 스플리터를 설정하는 스플리터 조정부를 더 포함하는 것을 특징으로 한다.The present invention relates to a driving assistance device. The apparatus for assisting the driving of a vehicle includes a first camera image photographed through a first camera and a second camera image photographed through a second camera, A storage unit for storing a camera image; And a second bird's-eye view image area including a first bird's-eye view image area including a first synthesized bird's-eye view image generated based on the first camera image and a second synthesized bird's-eye view image generated based on the second camera image, And a splitter adjusting unit for setting a splitter for separating the first bird's-eye view image region and the second bird's-foot view image region from the output screen.

Description

운전 보조 장치 및 방법{APPARATUS AND METHOD FOR SUPPORTING DRIVING OF VEHICLE}[0001] APPARATUS AND METHOD FOR SUPPORTING DRIVING OF VEHICLE [0002]

본 발명은 운전 보조 장치에 관한 것이고, 보다 상세하게 2개의 카메라를 통해 촬영되어 처리된 2개의 조감도 이미지들을 하나의 조감도 영상으로 운전자에게 제공할 때, 2개의 조감도 이미지들이 겹치는 부분에서 발생하는 이질감을 없앨 수 있는 운전 보조 장치 및 방법에 관한 것이다.More particularly, the present invention relates to a driver assistance apparatus, and more particularly, to provide a driver with two bird's-eye images captured and processed through two cameras to provide a driver with a sense of heterogeneity And more particularly, to a driving assist device and method capable of eliminating a driving force.

일반적으로, 차량은 차체에 장비한 엔진 등의 원동기를 동력원으로 하여 도로 등을 주행하며 사람이나 화물을 운반하거나 각종 작업을 수행하는 장치이고, 차량의 운전자는 주행 방향을 주시하면서 차량을 안전하게 운전한다.2. Description of the Related Art Generally, a vehicle is a device that drives a motor vehicle such as an engine installed in a vehicle body to drive a road or the like and carries a person or a freight or perform various operations. A driver of the vehicle safely drives the vehicle while observing the driving direction .

하지만, 차량이 주차를 하는 등 후진하는 경우에 있어서는, 차량의 운전자는 차량의 후방인 주행 방향을 주시하기가 어렵다. 또한, 운전자가 전방 방향으로 운전하는 상황에서도 주변에 장애물이 많은 경우, 장애물과 차량 간의 거리를 직관적으로 판단하기 어려워 사고가 발생할 수 있는 가능성이 높다. 따라서, 차량의 주변을 디스플레이 하기 위한 장치로서, 차량의 후방 또는 전방에 설치된 카메라로부터의 이미지를 모니터에 그대로 출력하거나, 상기 이미지를 변환하여 차량 주변에 대한 조감도 영상을 출력하는 디스플레이 장치가 알려져 있다.However, when the vehicle is parked, the driver of the vehicle is hard to watch the running direction, which is the rear of the vehicle. In addition, even when the driver is driving in the forward direction, if there are many obstacles in the vicinity, there is a high possibility that an accident may occur because it is difficult to intuitively determine the distance between the obstacle and the vehicle. Accordingly, there is known a display device for displaying the periphery of a vehicle, which outputs an image from a camera installed behind or in front of the vehicle to the monitor as it is, or converts the image to output a bird's-eye image for the surroundings of the vehicle.

여기서, 조감도 영상을 출력하는 기술로서, 차량에 하나의 카메라를 장착하고, 단일 카메라에서 촬영된 영상들을 합성함으로써, 차량 주변의 조감도 영상을 생성하는 기술이 존재한다. 또한, 이러한 조감도 생성 기술을 응용하여, 차량에 2개의 카메라들을 장착하고(예를 들어, 차량의 전방 및 후방), 각 단일 카메라에서 촬영된 2개의 이미지들을 합성함으로써 하나의 조감도 영상을 생성하는 기술이 연구되었다.Here, as a technology for outputting a bird's-eye view image, there is a technique of generating a bird's-eye view image around a vehicle by installing one camera on a vehicle and synthesizing images taken by a single camera. Further, by applying such a bird's-eye view generation technique, two cameras are mounted on a vehicle (for example, front and rear of a vehicle), and a single bird's-eye image is generated by synthesizing two images taken by each single camera Was studied.

구체적으로, 이러한 조감도 영상 생성 기술은 2개의 카메라를 통해 촬영된 카메라 이미지를 근거로 2개의 합성 조감도 이미지(s_bi1, s_bi2)를 생성하고, 도 1에 도시된 것처럼 2개의 합성 조감도 이미지(s_bi1, s_bi2)를 하나의 조감도 영상으로 출력하는 기술을 나타낸다. 다만, 이러한 기술의 경우 운전자에게 디스플레이되는 조감도 영상은 2개의 합성 조감도 이미지(s_bi1, s_bi2)가 중첩되는 영역 즉, 중첩 영역(o_bi1)이 발생하게 된다. 여기서, 중첩 영역(o_bi1)에는 2개의 합성 조감도 이미지의 불일치에 의한 오차와 색상차가 존재하고, 이로 인해 운전자에게 이질감이 주는 문제가 존재한다. 이에 따라, 2개의 다른 카메라를 통해 촬영되어 생성된 합성 조감도 이미지가 중첩되는 지점에 대한 처리가 요구된다. Specifically, such a bird's-eye view image generating technique generates two synthesized bird's-eye view images (s_bi 1 , s_bi 2 ) based on camera images photographed by two cameras, and generates two synthesized bird's-eye views (s_bi 1 , s_bi 2 ) as a bird's eye view image. However, in the case of this technique, the bird's-eye image displayed to the driver is generated in a region where the two combined bird's-eye view images (s_bi 1 , s_bi 2 ) overlap, that is, the overlap region (o_bi 1 ). Here, in the overlap area (o_bi 1 ), there exist errors and color differences due to mismatching of the two images of the bird's-eye view images, and there is a problem that there is a sense of heterogeneity to the driver. Accordingly, it is required to process a point at which a composite bird's-eye view image generated by two different cameras is superposed.

한국등록특허 제2015-0116116호(명칭: 차량 주변 이미지 생성 장치 및 방법)Korean Registered Patent No. 2015-0116116 (Name: Apparatus and method for generating a peripheral image of a vehicle)

본 발명은 2개의 카메라를 통해 촬영되어 생성된 2개의 합성 조감도 이미지를 운전자에게 제공할 때, 상술한 중첩 영역에서 야기되는 이질감을 줄일 수 있는 운전 보조 장치 및 방법을 제공하는데 그 목적이 있다.An object of the present invention is to provide a driver assistance apparatus and method that can reduce the sense of heterogeneity caused in the overlap area when providing two synthesized bird's-eye view images generated through two cameras and generated to the driver.

상기와 같은 과제를 해결하기 위한 본 발명의 제 1 카메라 및 제 2 카메라가 장착된 차량에 적용되어, 차량의 운전을 보조하는 장치는 제 1 카메라를 통해 촬영된 제 1 카메라 이미지와, 제 2 카메라를 통해 촬영된 제 2 카메라 이미지를 저장하는 저장부; 및 제 1 카메라 이미지를 근거로 생성된 제 1 합성 조감도 이미지가 포함되는 제 1 조감도 영상 영역과 제 2 카메라 이미지를 근거로 생성된 제 2 합성 조감도 이미지가 포함되는 제 2 조감도 영상 영역을 포함하는 조감도 영상 영역을 포함하는 출력 화면을 생성하는 화면 생성부를 포함하고, 출력 화면에 제 1 조감도 영상 영역과 제 2 조감도 영상 영역을 분리하는 스플리터를 설정하는 스플리터 조정부를 더 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an apparatus for assisting driving of a vehicle, including a first camera image captured through a first camera and a second camera image captured by a second camera, A storage unit for storing a second camera image photographed through the first camera; And a second bird's-eye view image area including a first bird's-eye view image area including a first synthesized bird's-eye view image generated based on the first camera image and a second synthesized bird's-eye view image generated based on the second camera image, And a splitter adjusting unit for setting a splitter for separating the first bird's-eye view image region and the second bird's-foot view image region from the output screen.

또한, 스플리터 조정부는 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지 간 중첩되는 부분에 스플리터를 추가할 수 있다.Further, the splitter adjusting section may add a splitter to a portion where the first synthesized bird's-eye view image and the second synthesized bird's-eye view image are overlapped.

또한, 스플리터는 두께가 있는 선의 형상을 갖고, 스플리터의 양 측은 조감도 영상 영역을 이루는 변들 중 서로 대향하는 2개의 변들에 연결될 수 있다.Further, the splitter has a shape of a thick line, and both sides of the splitter can be connected to two opposite sides of the sides constituting the bird's-eye view image region.

또한, 제 1 조감도 영상 영역의 크기와 제 2 조감도 영상 영역의 크기는 조감도 영상 영역 내에서 스플리터의 위치에 따라 달라질 수 있다.Also, the size of the first bird's-eye view image area and the size of the second bird's-eye view image area may vary depending on the position of the splitter in the bird's-eye view image area.

또한, 본 발명의 일 실시예에 따른 운전 보조 장치는 변속 레버의 위치 정보를 획득하는 조작 정보 수집부를 더 포함할 수 있다.Further, the driving assistance device according to an embodiment of the present invention may further include an operation information collecting unit for acquiring position information of the shift lever.

또한, 본 발명의 일 실시예에 따른 운전 보조 장치는 차량의 이동 거리를 산출하는 이동 거리 산출부를 더 포함하고, 스플리터 조정부는 차량의 변속 레버의 위치 정보 및 이동 거리에 따라 스플리터의 위치를 실시간으로 조정할 수 있다.Further, the driving assistance device according to an embodiment of the present invention further includes a movement distance calculating unit for calculating a movement distance of the vehicle, and the splitter adjusting unit adjusts the position of the splitter in real time according to the position information and the moving distance of the shift lever of the vehicle Can be adjusted.

또한, 스플리터 조정부는 변속 레버의 위치 정보에 따라 스플리터의 위치를 결정할 수 있다.Further, the splitter adjusting section can determine the position of the splitter in accordance with the positional information of the shift lever.

또한, 스플리터 조정부는 변속 레버가 후진 기어에 위치할 때, 스플리터를 조감도 영상 영역내의 상부에 위치시킬 수 있다.Further, when the shift lever is located in the reverse gear, the splitter adjusting section can place the splitter in the upper part in the bird's-eye view image area.

또한, 화면 생성부는 변속 레버가 주행 기어에 위치할 때, 스플리터를 조감도 영상 영역 내의 하부에 위치시킬 수 있다.Further, when the shift lever is located in the traveling gear, the screen generator can place the splitter in the lower portion of the bird's-eye view image area.

또한, 스플리터 조정부는 조감도 영상 영역의 중앙에 스플리터를 위치시킬 수 있다.Further, the splitter adjusting section can position the splitter at the center of the bird's-eye view image area.

또한, 본 발명의 일 실시예에 따른 운전 보조 장치는 tn 시점의 제 1 카메라 이미지를 시점 변환함으로써 tn 시점의 제 1 조감도 이미지를 생성하는 조감도 이미지 생성부; 및 차량의 이동 정보를 획득하고, 차량의 이동 정보에 따라 과거 시점에 생성된 제 1 합성 조감도 이미지에 tn 시점의 제 1 조감도 이미지를 합성함으로써 tn 시점의 제 1 합성 조감도 이미지를 생성하는 합성 조감도 이미지 생성부를 더 포함할 수 있다.In addition, the driving support apparatus according to an embodiment of the invention is a bird's eye view image generation unit for generating a first bird's-eye view image of a point in time t n, by transforming a first image of camera time point t n; And synthesis of acquiring movement information of the vehicle, generating a first synthesized bird's-eye view image of a t n time point by synthesizing the first synthesis the first bird's-eye view image of a t n time of the bird's eye view image generated in the past time according to the movement information of the vehicle And a bird's-eye view image generating unit.

또한, 조감도 이미지 생성부는 tn 시점의 제 2 카메라 이미지를 시점 변환함으로써 tn 시점의 제 2 조감도 이미지를 더 생성하고, 합성 조감도 이미지 생성부는 차량의 이동 정보에 따라 과거 시점에 생성된 제 2 합성 조감도 이미지에 tn 시점의 제 2 조감도 이미지를 합성함으로써 tn 시점의 제 2 합성 조감도 이미지를 더 생성할 수 있다.In addition, the bird's eye view image generating unit t n second camera images further generating a second bird's-eye view image of a t n time by converting time and the resulting composite bird's eye view image portion in accordance with the movement information of the vehicle generated in the past time the second synthesis of time by synthesizing the bird's eye image of the second point in time t n in a bird's eye view image t n it may further produce a second synthesized bird's-eye view image at the time.

또한, 합성 조감도 이미지 생성부는 차량이 후진 상태일 때 tn 시점의 제 1 합성 조감도 이미지를 생성하고, 화면 생성부는 차량이 후진 상태일 때 제 1 조감도 영상 영역에 tn 시점의 제 1 합성 조감도 이미지를 포함시키되, 제 2 조감도 영상 영역에는 과거 시점에 생성된 제 2 합성 조감도 이미지를 포함시킬 수 있다.Also, the synthesized bird's-eye-view image generating unit generates a first synthesized bird's-eye view image at time t n when the vehicle is in a reverse state, and the screen generating unit generates a first synthesized bird's-eye view image at time t n in the first bird's- The second bird's-eye view image region may include the second synthesized bird's-eye view image generated at the past time point.

또한, 합성 조감도 이미지 생성부는 차량이 전진 상태일 때 tn 시점의 제 2 합성 조감도 이미지를 생성하고, 화면 생성부는 차량이 전진 상태일 때 제 2 조감도 영상 영역에 tn 시점의 제 2 합성 조감도 이미지를 포함시키되, 제 1 조감도 영상 영역에는 과거 시점에 생성된 제 1 합성 조감도 이미지를 포함시킬 수 있다.Also, the synthesized bird's-eye-view image generating unit generates a second synthesized bird's-eye view image at time t n when the vehicle is in a forward state, and the screen generating unit generates a second synthesized bird's-eye view image at the time t n The first bird's-eye view image region may include the first synthesized bird's-eye view image generated at the past time point.

또한, 차량이 후진 상태일 때 합성 조감도 이미지 생성부는 tn 시점의 제 1 합성 조감도 이미지를 생성하고, 조감도 이미지 생성부는 tn 시점의 제 2 합성 조감도 이미지를 생성하며, 화면 생성부는 차량이 후진 상태일 때 제 1 조감도 영상 영역에 tn 시점의 제 1 합성 조감도 이미지를 포함시키되, 제 2 조감도 영상 영역에는 tn 시점의 제 2 조감도 이미지를 포함시킬 수 있다.In addition, the first synthesized bird's-eye view generating an image, generating a second synthesized bird's-eye view image of a bird's eye view image generating unit t n time, the screen generation unit vehicle is retracted in the synthesis bird's eye view image generating unit t n the time when the vehicle is retracted , It is possible to include the first synthesized bird's-eye view image at the time point t n in the first bird's-eye view image region and the second bird's-eye view image at the time point t n in the second bird's-eye view image region.

또한, 차량이 전진 상태일 때 합성 조감도 이미지 생성부는 tn 시점의 제 2 합성 조감도 이미지를 생성하고, 조감도 이미지 생성부는 tn 시점의 제 1 합성 조감도 이미지를 생성하며, 화면 생성부는 차량이 전진 상태일 때 제 2 조감도 영상 영역에 tn 시점의 제 2 합성 조감도 이미지를 포함시키되, 제 1 조감도 영상 영역에는 tn 시점의 제 1 조감도 이미지를 포함시킬 수 있다.In addition, the vehicle and generating a second synthesized first synthesized bird's-eye view image for generating a bird's eye view image, the bird's eye view image generating unit t n the time of synthesizing bird's eye view image generating unit t n the time when the forward state, the screen generation unit vehicle is advancing state , A second synthesized bird's-eye view image at the time point t n is included in the second bird's-eye view image area, and the first bird's-eye view image at the time t n can be included in the first bird's-eye view image area.

상기와 같은 과제를 해결하기 위한 본 발명의 제 1 카메라 및 제 2 카메라가 장착된 차량에 적용되어, 차량의 운전을 보조하는 방법은 화면 생성부에 의해, 제 1 카메라 이미지를 근거로 생성된 제 1 합성 조감도 이미지가 포함되는 제 1 조감도 영상 영역과 제 2 카메라 이미지를 근거로 생성된 제 2 합성 조감도 이미지가 포함되는 제 2 조감도 영상 영역을 포함하는 조감도 영상 영역을 포함하는 출력 화면을 생성하는 단계를 포함하고, 스플리터 조정부에 의해, 출력 화면에 제 1 조감도 영상 영역과 제 2 조감도 영상 영역을 분리하는 스플리터를 설정하는 단계를 더 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of assisting a vehicle with a first camera and a second camera, including the steps of: generating a first camera image based on a first camera image, Generating an output screen including a bird's-eye view image area including a first bird's-eye view image area including a first bird's-eye view image and a second bird's-eye view image area including a second synthesized bird's-eye view image generated based on a second camera image And setting a splitter for separating the first bird's-figure view image area and the second bird's-eye view image area from the output screen by the splitter adjusting part.

또한, 스플리터를 설정하는 단계는 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지 간 중첩되는 부분에서 이루어질 수 있다.Further, the step of setting the splitter may be performed at a portion where the first synthesized bird's-eye view image and the second synthesized bird's-eye view image overlap each other.

또한, 스플리터를 설정하는 단계는 조감도 영상 영역의 중앙에서 이루어질 수 있다.Further, the step of setting the splitter may be performed at the center of the bird's-eye view image region.

또한, 제 1 조감도 영상 영역의 크기와 제 2 조감도 영상 영역의 크기는 조감도 영상 영역 내에서 스플리터의 위치에 따라 달라질 수 있다.Also, the size of the first bird's-eye view image area and the size of the second bird's-eye view image area may vary depending on the position of the splitter in the bird's-eye view image area.

또한, 본 발명의 일 실시예에 따른 운전 보조 방법은 조작 정보 수집부에 의해, 변속 레버의 위치 정보를 획득하는 단계를 더 포함할 수 있다.Further, the driving assistance method according to an embodiment of the present invention may further include acquiring position information of the shift lever by the operation information collecting unit.

또한, 본 발명의 일 실시예에 따른 운전 보조 방법은 이동 거리 산출부에 의해, 차량의 이동 거리를 산출하는 단계; 및 스플리터 조정부에 의해, 차량의 변속 레버의 위치 정보 및 이동 거리에 따라 스플리터의 위치를 실시간으로 조정하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, there is provided a driving assistance method including: calculating a moving distance of a vehicle by a moving distance calculating unit; And adjusting the position of the splitter in real time according to the position information and the moving distance of the shift lever of the vehicle by the splitter adjusting unit.

또한, 본 발명의 일 실시예에 따른 운전 보조 방법은 스플리터 조정부에 의해, 변속 레버의 위치 정보에 따라 스플리터의 위치를 결정하는 단계를 더 포함할 수 있다.The driving assistance method according to an embodiment of the present invention may further include a step of determining a position of the splitter according to position information of the shift lever by a splitter adjusting unit.

본 발명의 운전 보조 장치 및 방법에 따르면 2개의 카메라를 통해 촬영되어 생성된 2개의 합성 조감도 이미지를 운전자에게 제공할 때, 스플리터를 통해 2개의 합성 조감도 이미지를 구분함으로써, 중첩 영역에서 발생하는 위치 오차와 색상차 등에 의해 야기되는 이질감을 줄일 수 있는 장점이 있다.According to the driving assistant apparatus and method of the present invention, when two synthesized bird's-eye view images generated by two cameras are provided to the driver, the two synthesized bird's-eye view images are divided by the splitter, And the difference in color caused by color difference can be reduced.

도 1은 운전자에게 제공되는 출력 화면의 일 예시를 나타내는 개념도이다.
도 2는 본 발명의 일 실시예에 따른 운전 보조 장치에 대한 개념도이다.
도 3은 본 발명의 일 실시예에 따른 운전 보조 장치에 대한 블록도이다.
도 4는 본 발명의 일 실시예에 따른 운전 보조 장치를 통해 조감도 이미지를 생성하는 방법을 설명하기 위한 개념도이다.
도 5a 내지 도 5c는 본 발명의 일 실시예에 따른 운전 보조 장치를 통해 합성 조감도 이미지를 생성하는 방법을 설명하기 위한 개념도이다.
도 6은 본 발명의 일 실시예에 따른 운전 보조 장치를 통해 합성 조감도 이미지를 생성하는 방법을 설명하기 위한 개념도이다.
도 7a 및 도 7b는 본 발명의 일 실시예에 따른 운전 보조 장치를 통해 생성된 조감도 영상 영역의 제 1 예시를 나타내는 개념도이다.
도 8a 및 도 8b는 본 발명의 일 실시예에 따른 운전 보조 장치를 통해 생성된 조감도 영상 영역의 제 2 예시를 나타내는 개념도이다.
도 9a 및 도 9b는 본 발명의 일 실시예에 따른 운전 보조 장치를 통해 생성된 조감도 영상 영역의 제 3 예시를 나타내는 개념도이다.
도 10 내지 도 12는 본 발명의 일 실시예에 따른 운전 보조 방법에 대한 흐름도이다.
1 is a conceptual diagram showing an example of an output screen provided to a driver.
2 is a conceptual diagram of a driving assistance device according to an embodiment of the present invention.
3 is a block diagram of a driving assistance device according to an embodiment of the present invention.
4 is a conceptual diagram for explaining a method of generating a bird's-eye image through a driving assistance device according to an embodiment of the present invention.
5A to 5C are conceptual diagrams illustrating a method of generating a composite bird's-eye view image through a driving assistance device according to an embodiment of the present invention.
6 is a conceptual diagram for explaining a method of generating a composite bird's-eye view image through the driving assistance device according to an embodiment of the present invention.
7A and 7B are conceptual diagrams illustrating a first example of a bird's-eye view image region generated through a driving assistance device according to an embodiment of the present invention.
8A and 8B are conceptual diagrams illustrating a second example of a bird's-eye view image region generated through a driving assistance device according to an embodiment of the present invention.
9A and 9B are conceptual diagrams illustrating a third example of a bird's-eye view image region generated through a driving assistance device according to an embodiment of the present invention.
10 to 12 are flowcharts of a driving assistance method according to an embodiment of the present invention.

본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will now be described in detail with reference to the accompanying drawings. Hereinafter, a repeated description, a known function that may obscure the gist of the present invention, and a detailed description of the configuration will be omitted. Embodiments of the present invention are provided to more fully describe the present invention to those skilled in the art. Accordingly, the shapes and sizes of the elements in the drawings and the like can be exaggerated for clarity.

이하, 본 발명의 실시예에 따른 운전 보조 장치 및 방법에 대하여 설명하도록 한다. Hereinafter, a driving assistance apparatus and method according to an embodiment of the present invention will be described.

도 2는 본 발명의 일 실시예에 따른 운전 보조 장치(100)에 대한 개념도이다. 도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 2개의 카메라(11, 13)에 장착된 차량에 적용되어, 차량 주변의 조감도 영상을 포함하는 출력화면을 운전자에게 제공하는 기능을 한다. 또한, 위에서 설명된 바와 같이 2개의 합성 조감도 이미지들을 근거로 하나의 조감도 영상을 생성할 경우, 2개의 합성 조감도 이미지들이 겹치는 영역에서 시각적인 이질감이 발생하게 된다. 이에 따라, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 2개의 합성 조감도 이미지들이 겹치는 영역에 스플리터(sp)를 설정하는 방식을 채택한다. 2 is a conceptual diagram of a driving assistance device 100 according to an embodiment of the present invention. 2, the driving assistance device 100 according to an exemplary embodiment of the present invention is applied to a vehicle mounted on two cameras 11 and 13, and displays an output screen including a bird's- Provide functions to the driver. In addition, when one bird's-eye view image is generated based on two synthesized bird's-eye view images as described above, visual sense of heterogeneity occurs in the overlapping images of the two composite bird's-eye images. Accordingly, the driving assistance device 100 according to an embodiment of the present invention adopts a scheme of setting a splitter (sp) in a region where two composite bird's-eye view images overlap.

구체적으로, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 제 1 카메라(11)를 통해 촬영된 제 1 카메라 이미지를 이용하여 제 1 합성 조감도 이미지를 생성하고, 제 2 카메라(12)를 통해 촬영된 제 2 카메라 이미지를 이용하여 제 2 합성 조감도 이미지를 생성할 수 있다. 여기서, 제 1 합성 조감도 이미지는 제 1 카메라 이미지를 시점 변환함으로써 생성된 제 1 조감도 이미지와 과거 시점에 생성된 제 1 조감도 이미지 또는 과거 시점에 생성된 제 1 합성 조감도 이미지를 합성함으로써 생성될 수 있다. 즉, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 tn 시점의 제 1 카메라 이미지를 시점 변환함으로써 생성된 tn 시점의 제 1 조감도 이미지를, 이전 시점에 생성된 제 1 조감도 이미지 또는 제 1 합성 조감도 이미지에 합성함으로써 tn 시점의 제 1 합성 조감도 이미지를 생성할 수 있다. Specifically, the driving assistance device 100 according to an embodiment of the present invention generates a first synthesized bird's-eye view image using the first camera image photographed through the first camera 11, A second synthesized bird's-eye view image can be generated using the second camera image photographed through the second synthesized image. Here, the first synthesized bird's-eye view image can be generated by synthesizing the first bird's-eye view image generated by the viewpoint conversion of the first camera image and the first bird's-eye view image generated at the past time point or the first synthesized bird's-eye view image generated at the past time point . That is, the first bird's-eye view image generated for the first camera image of the driving support device 100 according to one embodiment of the present invention is t n time of the first bird's-eye view image of the t n time generated by converting the time, the earlier time Or the first synthesized bird's-eye view image, the first synthesized bird's-eye view image at the time point t n can be generated.

이는, 현재 및 과거 시점의 조감도 이미지들을 합성하여 하나의 합성 조감도 이미지를 생성하는 방식으로서, 차량에 하나의 카메라만 장착되더라도 차량 주변의 조감도 이미지를 운전자에게 제공할 수 있게 된다. 마찬가지로, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 tn 시점의 제 2 카메라 이미지를 시점 변환함으로써 생성된 tn 시점의 제 2 조감도 이미지에, 이전 시점에 생성된 제 2 조감도 이미지 또는 제 2 합성 조감도 이미지를 합성함으로써 제 2 합성 조감도 이미지를 생성할 수 있다.This is a method of generating a single composite bird's-eye view image by combining the bird's-eye view images of current and past viewpoints, so that even if only one camera is mounted on the vehicle, the bird's-eye view image around the vehicle can be provided to the driver. Similarly, the second camera image to the second bird's-eye view image of the t n time generated by converting the time, the second bird's-eye view image created before the time of the driving support device 100 according to one embodiment of the invention is t n time Or the second synthesized bird's-eye view image by synthesizing the second synthesized bird's-eye view image.

합성 조감도 이미지의 생성 방법에 기인하여, 차량의 주차 과정에서 또는 변속 레버를 조작하고 차량을 이동시킬 경우, 조감도 영상에는 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지 간에 중첩 영역이 발생하게 된다. 2개의 합성 조감도 이미지들의 경우, 각 합성 조감도 이미지의 생성 시점, 카메라의 성능 및 모델, 카메라의 위치에 따른 주변 광 등의 차이에 기인하여, 2개의 합성 조감도 이미지들의 불일치에 의한 오차와 색상차가 발생하고, 이로 인해 운전자에게 이질감이 발생하게 된다.Due to the method of generating the synthesized bird's-eye view image, when the vehicle is parked or when the shift lever is operated and the vehicle is moved, the overlapping area occurs between the first synthesized bird's-eye view image and the second synthesized bird's-eye view image in the bird's-eye view image. In the case of two synthesized bird's-eye images, due to differences in the generation time of each synthesized bird's-eye view image, camera performance and model, and ambient light depending on the camera's position, This causes a sense of heterogeneity in the driver.

이에 따라, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 출력 화면에 포함된 조감도 영상 영역 내에서 2개의 합성 조감도 이미지들을 함께 출력하되, 운전자가 2개의 합성 조감도 이미지들을 각각 구분하여 파악할 수 있도록 스플리터(sp)를 추가한 것을 특징으로 한다. 이제, 도 3을 참조로 본 발명의 일 실시예에 따른 운전 보조 장치(100)에 대한 설명이 더 이루어진다. 또한, 아래의 설명에서는 출력 화면에 포함되는 조감도 영상 영역을 중심으로 그 설명이 이루어진다. 다만, 출력 화면은 도 2에서 영역(da2)으로 나타난 바와 같이 실시간 영상 영역을 더 포함할 수 있고, 실시간 영상 영역에는 제 1 카메라와 제 2 카메라 중 적어도 하나의 카메라를 통해 촬영되는 카메라 이미지가 포함될 수 있다.Accordingly, the driving assistance device 100 according to an embodiment of the present invention outputs two composite bird's-eye view images together in the bird's-eye view image area included in the output screen, and the driver can distinguish the two composite bird's- And a splitter (sp) is added thereto. Now, with reference to FIG. 3, a driving assistance device 100 according to an embodiment of the present invention is further described. In the following description, description will be made centering on the bird's-eye view image area included in the output screen. However, the output screen may further include a real-time image area as shown by an area da2 in FIG. 2, and a camera image captured through at least one camera of the first camera and the second camera may be included in the real- .

도 3은 본 발명의 일 실시예에 따른 운전 보조 장치(100)에 대한 블록도이다. 도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 저장부(110), 이미지 획득부(120), 조감도 이미지 생성부(130), 합성 조감도 이미지 생성부(140), 화면 생성부(150), 조작 정보 수집부(160), 스플리터 조정부(170) 및 이동 거리 산출부(180)를 포함하여 구성될 수 있다.3 is a block diagram of a driving assistance device 100 according to an embodiment of the present invention. 3, the driving assistance apparatus 100 according to an embodiment of the present invention includes a storage unit 110, an image obtaining unit 120, a bird's-eye view image generating unit 130, a synthesized bird's-eye view image generating unit 140, a screen generating unit 150, an operation information collecting unit 160, a splitter adjusting unit 170, and a moving distance calculating unit 180.

저장부(110)는 차량에 장착된 제 1 카메라(11) 및 제 2 카메라(13)를 통해 촬영된 카메라 이미지(즉, 제 1 카메라 이미지 및 제 2 카메라 이미지)가 저장될 수 있다. 여기서, 제 1 카메라(11)는 차량의 후방에 설치되고, 제 2 카메라(13)는 차량의 전방에 설치되는 것으로 설명되나, 카메라의 개수, 설치 위치 및 방향은 다양하게 적용될 수 있으므로, 본 발명에서는 이를 특정한 것으로 제한하지 않는다. 또한, 저장부(110)는 제 1 및 제 2 카메라 이미지에 대한 시점 정보가 함께 저장될 수 있다.The storage unit 110 may store camera images (i.e., a first camera image and a second camera image) captured through the first camera 11 and the second camera 13 mounted on the vehicle. Here, the first camera 11 is installed at the rear of the vehicle, and the second camera 13 is installed at the front of the vehicle. However, since the number, the installation position and the direction of the cameras can be variously applied, But does not limit it to a specific one. In addition, the storage unit 110 may store the viewpoints of the first and second camera images together.

이미지 획득부(120)는 차량에 장착된 제 1 카메라(11)를 통해 촬영되고, 저장부(110)에 저장된 tn 시점의 제 1 카메라 이미지를 획득하는 기능을 한다. 마찬가지로, 이미지 획득부(120)는 차량에 장착된 제 2 카메라(13)를 통해 촬영되고, 저장부(110)에 저장된 tn 시점의 제 2 카메라 이미지를 더 획득할 수 있다. The image acquiring unit 120 acquires a first camera image taken at a time point t n stored in the storage unit 110 through the first camera 11 mounted on the vehicle. Likewise, the image acquiring unit 120 may acquire a second camera image taken at a time point t n stored in the storage unit 110 via the second camera 13 mounted on the vehicle.

조감도 이미지 생성부(130)는 이미지 획득부(120)를 통해 획득한 제 1 카메라 이미지 즉, tn 시점의 제 1 카메라 이미지를 이용하여 제 1 조감도 이미지 즉, tn 시점의 제 1 조감도 이미지를 생성하는 기능을 한다. 또한, 조감도 이미지 생성부(130)는 이미지 획득부(120)를 통해 획득한 tn 시점의 제 2 카메라 이미지를 이용하여 tn 시점의 제 2 조감도 이미지를 더 생성할 수 있다. 여기서, 조감도 이미지는 저장부(110)에 저장된 룩업 테이블을 근거로 투시 변환을 이용하여 생성될 수 있다. 구체적으로, 조감도 이미지 생성부(130)는 지면상의 이미지의 위치 데이터가 카메라의 위치(R)로부터 초점 거리(f)를 갖는 스크린 평면(T)상으로 투영되는 방식으로 투시 변환을 실행할 수 있다. The bird's eye view image generation unit 130 using the first camera image of the first camera image that is, t n time acquired by the image acquisition unit 120, a first first bird's-eye view image of a bird's eye view image that is, t n time Function. Also, the bird's-eye view image generating unit 130 may further generate a second bird's-eye view image at time t n using the second camera image at time t n obtained through the image obtaining unit 120. Here, the bird's-eye view image may be generated using the perspective transformation based on the lookup table stored in the storage unit 110. Specifically, the bird's-eye image generating section 130 can perform the perspective transformation in such a manner that the position data of the image on the ground is projected from the position R of the camera onto the screen plane T having the focal length f.

보다 상세하게 설명하면, 카메라(11)가 Z-축상의 포인트(R)(0,0,H)에 위치되어, 내려다보는 각도(

Figure 112016111387136-pat00001
)로 지면(x-y 좌표 평면)상에 이미지를 모니터링한다고 가정한다. 여기서, 아래의 수학식 1에 나타난 바와 같이, 스크린 평면(T)상에 2-차원 좌표(α, β)가 지면 평면상의 좌표(조감도 좌표)로 변환(역투시 변환)될 수 있다.More specifically, the camera 11 is located at the point R (0, 0, H) on the Z-axis,
Figure 112016111387136-pat00001
) To monitor the image on the ground (xy coordinate plane). Here, the two-dimensional coordinates (?,?) On the screen plane (T) can be transformed into coordinates (bird's-eye degree coordinate) on the ground plane (inverse transformation) as shown in the following equation (1).

Figure 112016111387136-pat00002
Figure 112016111387136-pat00002

즉, 상기 수학식 1을 이용함으로써, 투영된 영상을(조감도 이미지를 보여주는) 근거로 조감도 이미지를 생성할 수 있다. 다만, 조감도 이미지를 생성하는 방법은 상기 방식 외에 다른 다양한 방법으로 구현될 수 있고, 본 발명의 일 실시예에 따른 조감도 이미지 생성부(130)를 통해 이루어지는 조감도 이미지 생성 방법은 상기 방식으로 제한되지 않는다. 또한, 조감도 이미지 생성부(130)를 통해 생성된 조감도 이미지 즉, 제 1 조감도 이미지와 제 2 조감도 이미지 중 적어도 하나는 다시 저장부(110)로 전달되어, 저장부(110)내에 저장될 수 있다.That is, by using Equation (1), the bird's-eye image can be generated based on the projected image (showing the bird's-eye view image). However, the method of generating the bird's-eye image may be implemented by various methods other than the above method, and the bird's-eye image generating method through the bird's-eye image generating unit 130 according to the embodiment of the present invention is not limited to the above method . At least one of the bird's-eye images generated through the bird's-eye image generating unit 130, that is, the first bird's-eye view image and the second bird's-eye view image may be transmitted to the storage unit 110 and stored in the storage unit 110 .

본 발명의 일 실시예에 따른 운전 보조 장치(100)를 통해 조감도 이미지를 생성하는 방법에 대한 예시는 도 4에 도시된다. 도 4는 차량이 후진을 통해 주차를 하는 상황에서 생성된 제 1 조감도 이미지의 예시를 나타낸다.An example of a method of generating a bird's-eye image through the driving assistance device 100 according to one embodiment of the present invention is shown in FIG. 4 shows an example of a first bird's-eye image generated in a situation where the vehicle is parked through a reverse.

본 발명의 일 실시예에 따른 운전 보조 장치(100)는 저장부(110)에 저장된 제 1 카메라 이미지들을 획득하고, 이를 제 1 조감도 이미지로 변환할 수 있다. 도 4의 상부는 카메라를 통해 각 시점에 촬영된 제 1 카메라 이미지에 대한 예시를 나타내고, 도 4의 하부는 각 시점 별로 변환된 제 1 조감도 이미지에 대한 예시를 나타낸다.The driving assistance device 100 according to an embodiment of the present invention may acquire first camera images stored in the storage unit 110 and convert the first camera images into a first bird's-eye view image. The upper part of FIG. 4 shows an example of the first camera image taken at each view point through the camera, and the lower part of FIG. 4 shows an example of the first bird's-eye view image converted at each view point.

구체적으로, 조감도 이미지 생성부(130)는 도 4에 도시된 바와 같이, t1 시점에 촬영된 제 1 카메라 이미지(ci11)를 제 1 조감도 이미지(bi11)로 변환하는 과정을 수행한다. 이때, t1 시점의 제 1 조감도 이미지(bi11)를 살펴보면, 차량(10)에 장착된 카메라의 광각 성능에 따라, 제 1 조감도 이미지(bi11)에는 카메라를 통해 표현되는 영역(ca11)과, 표현되지 않는 영역(nsa11)이 존재하게 된다. 이는 제 1 조감도 이미지(bi11)가 제 1 카메라 이미지(ci11)를 시점 변환함으로써 생성된 이미지이기 때문이다.Specifically, the bird's-eye-view image generating unit 130 performs a process of converting the first camera image ci 11 captured at time t 1 into a first bird's-eye-view image bi 11 , as shown in FIG. In the first bird's-eye view image bi 11 at time t 1 , the area ca 11 represented by the camera is displayed on the first bird's-eye view image bi 11 according to the wide angle performance of the camera mounted on the vehicle 10. and this does not represent regions (nsa 11) are present. This is because the first bird's-eye view image bi 11 is an image generated by the viewpoint conversion of the first camera image ci 11 .

또한, 조감도 이미지 생성부(130)는 t2 시점에 촬영된 제 1 카메라 이미지(ci12)를 t2 시점의 제 1 조감도 이미지(bi12)로 변환할 수 있다. 이 경우, t1 시점의 조감도 이미지(bi11)와 마찬가지로, t2 시점의 제 1 조감도 이미지(bi12)는 영역(ca12)에 해당하는 부분이 표현될 수 있고, 차량(10)에 장착된 카메라의 광각 성능에 따라, 표현되지 않는 영역(nsa12)이 존재하게 된다. 뿐만 아니라, 제 1 조감도 이미지(bi12)에는 상술한 카메라(10)의 성능에 따라 그리고, 진행 중인 차량(10)의 위치에 기인하여 전체 주차선(pl11) 중 전체가 아닌 일부 주차선 만이 나타날 수 있다.In addition, it can be converted into a bird's-eye view image generation unit 130 includes a first camera, the first bird's-eye view image (bi 12) of the image point t 2 (ci 12) up to the time point t 2. In this case, like the bird's-eye view image bi 11 at the time t 1 , the first bird's-eye view image bi 12 at the time t 2 can express a portion corresponding to the region ca 12 , Depending on the wide-angle capability of the camera, there is an area (nsa 12 ) which is not represented. In addition, the first bird's-eye view image (bi 12), depending on the performance of the above-described camera 10 and, only some parking lines, but not all, of the total parking line (pl 11) due to the position of the vehicle 10 is in progress .

또한, 조감도 이미지 생성부(130)는 t3 시점에 촬영된 제 1 카메라 이미지(ci13)를 t3 시점의 제 1 조감도 이미지(bi13)로 변환할 수 있다. 이 경우, t1 시점 및 t2 시점의 제 1 조감도 이미지(bi11, bi12)와 마찬가지로, t3 시점의 제 1 조감도 이미지(bi13)는 영역(ca13)에 해당하는 부분이 표현될 수 있고, 차량(10)에 장착된 카메라의 광각 성능에 따라, 표현되지 않는 영역(nsa13)이 존재하게 된다. 뿐만 아니라, t3 시점의 제 1 조감도 이미지(bi13)에는 상술한 카메라(10)의 성능에 따라 그리고, 진행 중인 차량(10)의 위치에 기인하여 전체 주차선(pl11) 중 전체가 아닌 일부 주차선 만이 나타날 수 있다.In addition, it can be converted into a bird's-eye view image generation unit 130 includes a first camera image of the first bird's-eye view image (bi 13) of the point in time t 3 (ci 13) up to the time point t 3. In this case, like the first bird's-eye view image (bi 11 , bi 12 ) at the time t 1 and the time t 2 , the first bird's-eye view image bi 13 at the time t 3 is expressed by the portion corresponding to the region ca 13 And depending on the wide angle capability of the camera mounted on the vehicle 10, there is an unexpressed area nsa 13 . In addition, the first bird's-eye view image (bi 13 ) at the time t 3 is not entirely the entire parking line pl 11 due to the performance of the camera 10 described above and the position of the vehicle 10 in progress Only some parking lines may appear.

조감도 이미지 생성부(130)는 상술한 방법과 동일한 방식으로 제 2 카메라 이미지를 시점 변환함으로써 각 시점에 대한 제 2 조감도 이미지를 생성할 수 있다. The bird's-eye view image generating unit 130 may generate a second bird's-eye view image for each viewpoint by performing viewpoint conversion of the second camera image in the same manner as the above-described method.

다시 도 3을 참조하면, 합성 조감도 이미지 생성부(140)는 조감도 이미지 생성부(130)를 통해 생성된 tn 시점의 조감도 이미지와, 이전 시점에 생성된 조감도 이미지를 합성함으로써 합성 조감도 이미지를 생성하는 기능을 한다. 즉, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 이전 시점에 생성된 조감도 이미지와 현재 시점에 생성된 조감도 이미지를 합성함으로써, 전체 주차선이 디스플레이부(12)상에 표시되게 할 수 있다. 다시 말해, 합성 조감도 이미지 생성부(140)는 과거 시점의 조감도 이미지를 이후 시점의 조감도 이미지에 합성함으로써, 합성 조감도 이미지를 생성하는 방식을 이용할 수 있다. Referring back to FIG. 3, the composite bird's-eye-view image generating unit 140 generates a bird's-eye view image by combining the bird's-eye view image generated at the time point t n generated by the bird's-eye view image generating unit 130 with the bird's- . That is, the driving assistance device 100 according to an embodiment of the present invention synthesizes the bird's-eye image generated at the previous time and the bird's-eye image generated at the current time so that the entire parking line is displayed on the display unit 12 . In other words, the composite bird's-eye-view image generating unit 140 may use a method of generating a composite bird's-eye view image by combining the bird's-eye view image of the past viewpoint with the bird's-eye view image of the future viewpoint.

예를 들어, 조감도 이미지 생성부(130)를 통해 tn 시점의 제 1 카메라 이미지를 시점 변환함으로써 tn 시점의 제 1 조감도 이미지를 생성된 상황을 가정한다. 이때, 합성 조감도 이미지 생성부(140)는 이동 거리 산출부(180)를 통해 차량의 이동 정보를 획득하고, 차량의 이동 정보에 따라 과거 시점에 생성된 제 1 조감도 이미지 또는 제 1 합성 조감도 이미지에, tn 시점의 제 1 조감도 이미지를 합성함으로써 tn 시점의 제 1 합성 조감도 이미지를 생성할 수 있다. 마찬가지로, 합성 조감도 이미지 생성부(140)는 tn 시점의 제 2 조감도 이미지를 이용하여 tn 시점의 제 2 합성 조감도 이미지를 더 생성할 수 있다.For example, it is assumed that a first bird's-eye view image at time t n is generated by performing a viewpoint conversion of a first camera image at a time t n through a bird's-eye view image generating unit 130. At this time, the synthesized bird's-eye-view image generation unit 140 acquires the movement information of the vehicle through the movement-distance calculation unit 180, and generates the first bird's-eye view image or the first composite bird's- , t n may generate a first synthesized bird's-eye view image of the time t n by synthesizing the bird's eye view image of the first point. Similarly, the composite bird's eye view image generation unit 140 is t n may further produce a second synthesized bird's-eye view image of a point in time t n using a second bird's-eye view image at the time.

즉, 본 발명의 일 실시예에 따른 합성 조감도 이미지 생성부(140)는 도 5a 내지 도 5c에 도시된 것처럼, 과거 시점 즉, 이전 시점들에 생성된 조감도 이미지를 현재 조감도 이미지에 합성함으로써, 합성 조감도 이미지를 생성할 수 있다. 여기서, 도 5a, 도 5b 및 도 5c에서 좌측의 그림은 차량이 주차 중일 때, 각각 t1, t2 및 t3 시점에서의 제 1 카메라 이미지를 나타내고, 도 1a, 도 1b 및 도 1c에서 우측 그림은 t1, t2 및 t3 시점에서 촬영된 제 1 카메라 이미지를 근거로 생성된 제 1 합성 조감도 이미지를 나타낸다.That is, as shown in FIGS. 5A to 5C, the synthesized bird's-eye-view image generating unit 140 according to the embodiment of the present invention synthesizes the bird's-eye view images generated at the past time points, A bird's-eye image can be generated. 5A, 5B and 5C show the first camera image at the time points t 1 , t 2 and t 3 when the vehicle is parked, respectively, and FIGS. 1A, 1B and 1C show the first camera image at the time t 1 , The figure shows the first synthesized bird's-eye view image generated based on the first camera image taken at time t 1 , t 2 and t 3 .

본 발명의 일 실시예에 따른 운전 보조 장치(100)를 통한 제 1 조감도 이미지의 생성 방법을 살펴보면, 먼저, 도 5a에 도시된 것처럼 t1 시점에 촬영된 제 1 카메라 이미지(ci11)를 조감도 이미지(bi11)로 변환하는 과정이 수행된다. 이때, 도 1의 우측 그림에 도시된 것처럼, 차량(10)에 장착된 카메라의 광각 성능에 따라, 조감도 이미지(bi11)에는 카메라를 통해 표현되는 영역(ca11)과, 표현되지 않는 영역(nsa11)이 존재하게 된다. 이는 조감도 이미지(bi11)가 제 1 카메라 이미지(ci11)를 시점 변환함으로써 생성된 이미지이기 때문이다.Referring to FIG. 5A, a first camera image ci 11 photographed at a time t 1 is displayed on a bird's-eye view image An image (bi 11 ) is converted. 1, according to the wide angle capability of the camera mounted on the vehicle 10, the bird's-eye image bi 11 includes a region ca 11 represented by a camera and a region ca 11 represented by a camera nsa 11 ) is present. This is because the bird's-eye image bi 11 is an image generated by the viewpoint conversion of the first camera image ci 11 .

그 후, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 도 5b에 도시된 것처럼, t2 시점에 촬영된 제 1 카메라 이미지(ci12)를 조감도 이미지(bi12)로 변환하는 과정을 수행한다. 이 경우, 도 5a를 참조로 설명된 것과 마찬가지로, 기본적으로 생성되는 조감도 이미지는 도 5b의 우측 그림에서 영역(ca12)에 해당하는 부분이 나타날 수 있다. 이는, 도 5b의 제 1 카메라 이미지(ci12)의 경우, 진행 중인 차량(10)의 위치에 기인하여 전체 주차선(pl11) 중 전체가 아닌 일부만이 나타나기 때문이다. 따라서, 전체 주차선(pl11)이 표현된 도 5a의 조감도 이미지(bi11)를 추가적으로 합성하는 과정을 거치고, 이에 따라 원래의 제 1 카메라 이미지(ci12)만으로는 표현될 수 없었던 영역(nsa12)에 대한 표현 즉, 전체 주차선(ppl11)에 대한 표현이 가능해진다.Thereafter, the driving assistance device 100 according to an embodiment of the present invention performs a process of converting the first camera image ci 12 photographed at the time t 2 to the bird's-eye view image bi 12 as shown in FIG. 5B . In this case, similarly to the case described with reference to FIG. 5A, the bird's-eye image generated basically may have a portion corresponding to the region ca 12 in the right side of FIG. 5B. This is because, in the case of the first camera image ci 12 of FIG. 5B, only a part of the entire parking line pl 11 is displayed due to the position of the vehicle 10 in progress. Thus, the overall parking line (pl 11) going through the process of further synthesized bird's-eye view image (bi 11) of the Figure 5a expression and therefore the area that could not be represented only by the original of the first camera image (ci 12) (nsa 12 representation of a), that is, it is possible to represent for the entire parking line (11 ppl).

마찬가지로, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 도 5c에 도시된 것처럼, t3 시점에 촬영된 제 1 카메라 이미지(ci13)를 조감도 이미지(bi13)로 변환하는 과정을 더 수행한다. 이 경우, 도 1a 및 도 1b를 참조로 설명된 것과 마찬가지로, 기본적으로 생성되는 제 1 조감도 이미지는 도 5c의 우측 그림에서 영역(ca13)에 해당하는 부분만이 나타날 수 있다. 이는 도 5c의 제 1 카메라 이미지(ci13)의 경우, 주차가 완료된 차량(10)의 위치에 기인하여 주차선들 중 전체가 아닌 일부만이 나타나기 때문이다. 따라서, 본 발명의 경우, 앞서 언급된 것과 마찬가지로 전체 주차선(pl11)이 표현된 도 5a와, 도 5c에 비해 많은 주차선이 표현된 도 5b의 조감도 이미지(bi11 및 bi12)를 추가적으로 합성하는 과정을 수행한다. 이에 따라, 종래 기술에 따른 차량 운전 보조 장치는 원래의 제 1 카메라 이미지(ci13)만으로는 표현될 수 없었던 영역(nsa11) 및 영역(nsa12)에 대한 표현 즉, 주차선(ppl11, ppl12)에 대한 표현이 가능해진다.Similarly, the driving assistance device 100 according to an embodiment of the present invention converts the first camera image ci 13 captured at time t 3 into the bird's-eye view image bi 13 as shown in FIG. 5C . In this case, the first bird's-eye image, which is basically generated as described with reference to FIGS. 1A and 1B, may be displayed only in the portion corresponding to the region ca 13 in the right side of FIG. 5C. This is the case of the first camera image (13 ci) of Figure 5c, because due to the position of the vehicle (10) parking is complete, appears only a part, but not all, of the parking lines. Therefore, in the case of the present invention, the bird's-eye images bi 11 and bi 12 of FIG. 5B, in which a total parking line pl 11 is expressed and a lot of parking lines are expressed in comparison with FIG. Synthesizing process. Accordingly, the vehicle driving assist system according to the related art can display the areas nsa 11 and nsa 12 that can not be expressed only by the original first camera image ci 13 , that is, the parking lines ppl 11 , ppl 12 ) can be expressed.

정리하면, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 도 6에 도시된 것처럼, tn 시점의 제 1 카메라 이미지를 근거로 tn 시점의 제 1 조감도 이미지를 생성할 수 있고, tn 시점의 제 1 조감도 이미지와, 과거 시점의 제 1 조감도 이미지 또는 제 1 합성 조감도 이미지를 근거로 tn 시점의 제 1 합성 조감도 이미지를 생성할 수 있다.In summary, the driving assistance device 100 according to an embodiment of the present invention can generate a first bird's-eye view image at time t n based on a first camera image at time t n as shown in FIG. 6, it is possible to generate the first synthesized bird's-eye view image at the time t n based on the first bird's-eye view image at the time point t n and the first bird's-eye view image or the first synthesized bird's-eye view image at the past time point.

물론, 본 발명의 일 실시예에 따른 합성 조감도 이미지 생성부(140)는 제 2 카메라 이미지에 대해서도 상술한 과정을 동일하게 적용함으로써 제 2 합성 카메라 이미지를 생성하는 것도 가능하다.Of course, the composite bird's-eye-view image generating unit 140 according to an embodiment of the present invention may also generate the second composite camera image by applying the same process to the second camera image.

화면 생성부(150)는 제 1 카메라 이미지를 근거로 생성된 제 1 합성 조감도 이미지가 포함되는 제 1 조감도 영상 영역과 제 2 카메라 이미지를 근거로 생성된 제 2 합성 조감도 이미지가 포함되는 제 2 조감도 영상 영역을 포함하는 조감도 영상 영역을 포함하는 출력 화면을 생성하는 기능을 한다. 또한, 앞서 설명한 바와 같이 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 운전자에게 제공되는 출력 화면에 스플리터를 설정함으로써, 제 1 조감도 영상 영역과 제 2 조감도 영상 영역을 구분한 것을 특징으로 한다. 이를 위해, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 스플리터 조정부(170)를 통해 조감도 영상 영역에 스플리터를 설정하고, 스플리터를 통해 구분된 제 1 조감도 영상 영역에 제 1 조감도 이미지 또는 제 1 합성 조감도 이미지를 포함시킬 수 있다. 물론, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 스플리터를 통해 구분된 제 2 조감도 영상 영역에 제 2 조감도 이미지 또는 제 2 합성 조감도 이미지를 포함시키는 것도 가능하다.The screen generating unit 150 generates a second bird's-eye view image including a first bird's-eye view image region including the first synthesized bird's-eye view image generated based on the first camera image and a second synthesized bird's-eye view image generated based on the second camera image, And generates an output screen including a bird's-eye view image area including an image area. As described above, the driving assist system 100 according to an embodiment of the present invention divides a first bird's-eye view image area and a second bird's-eye view image area by setting a splitter on an output screen provided to a driver do. For this, the driving assistant apparatus 100 according to an embodiment of the present invention sets a splitter on the bird's-eye view image region through the splitter adjusting unit 170, and sets the first bird's-eye view image or the first bird's- A first synthesized bird's-eye view image can be included. Of course, the driving assistance device 100 according to an embodiment of the present invention may include a second bird's-eye view image or a second composite bird's-eye view image in the second bird's-eye view image region divided through the splitter.

여기서, 스플리터는 스플리터 조정부(170)에 의해 생성될 수 있고, 상황에 따라 스플리터의 위치는 조감도 영상 영역의 중앙, 상부 또는 하부에 고정되거나, 또는 차량의 이동 방향 및 이동 거리에 따라 실시간, 그리고 슬라이딩 방식으로 움직이는 것도 가능하다. 즉, 스플리터 조정부(170)는 설정에 따라 스플리터의 위치를 특정 위치에 고정시키거나, 또는 슬라이딩 방식으로 변경시킬 수 있다. 이를 위해, 스플리터 조정부(170)는 조작 정보 수집부(160)를 통해 판단된 변속 레버의 위치 정보(즉, 이동 방향 정보)와, 이동 거리 산출부(180)를 통해 산출된 차량의 이동 거리 정보를 근거로 스플리터를 설정할 수 있다.Here, the splitter may be generated by the splitter adjusting unit 170, and the position of the splitter may be fixed to the center, upper or lower portion of the bird's-eye view image region, or may be fixed in real time, It is also possible to move in the way. That is, the splitter adjusting unit 170 may fix the position of the splitter to a specific position or change to a sliding mode according to the setting. To this end, the splitter adjuster 170 adjusts the position information of the shift lever determined through the operation information collecting unit 160 (that is, the travel direction information) and the travel distance information of the vehicle calculated through the travel distance calculating unit 180 To set the splitter.

또한, 위의 설명에서 스플리터는 조감도 영상 영역 내에 미리 설정되는 것으로 설명되었으나 이는 예시일 뿐이고, 특정 조건(예를 들어, 차량의 변속 레버의 위치가 변경되고 차량이 이동되어, 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지 간 중첩 영역이 발생할 때)이 충족될 때 생성되는 것도 생각해볼 수 있다.In the above description, the splitter has been described as being set in advance in the bird's-eye view image area, but this is merely an example, and a specific condition (for example, the position of the shift lever of the vehicle is changed and the vehicle is moved, When the overlapping area between the second synthesized bird's-eye view images is generated) is satisfied.

이제, 도 7 내지 도 9를 참조로 본 발명의 일 실시예에 따른 운전 보조 장치(100)를 통해 스플리터를 설정하는 방법에 대한 설명이 이루어진다. 여기서, 도 7a 및 도 7b는 본 발명의 일 실시예에 따른 운전 보조 장치(100)를 통해 조감도 영상 영역의 중앙에 스플리터가 설정된 예시로서, 각각 t1 내지 t8 시점의 조감도 영상 영역을 나타낸다. 또한, t1 내지 t3 시점은 차량이 후진하는 상황을 가정하고, t4 시점은 변속 레버의 위치를 변경한 상황, 그리고 t5 시점 내지 t8 시점은 차량이 전진하는 상황을 가정한다. 그리고, 도 7a는 차량에 장착된 제 1 카메라와 제 2 카메라가 차량의 변속 레버의 위치에 따라 선택적으로 동작되는 예시를 나타내고, 도 7b는 차량에 장착된 제 1 카메라와 제 2 카메라 모두가 동작되는 예시를 나타낸다.A method of setting a splitter through the driving assistance device 100 according to an embodiment of the present invention will now be described with reference to FIGS. 7A and 7B illustrate a bird's-eye view image area at time t 1 to t 8 as an example where a splitter is set at the center of the bird's-eye view image area through the driving assistance device 100 according to an embodiment of the present invention. Further, it is assumed that the vehicle moves backward at the time t 5 to t 8 , and the situation where the vehicle is backward at the time t 1 to t 3 , the position of the shift lever is changed at the time t 4 . 7A shows an example in which the first camera and the second camera mounted on the vehicle are selectively operated according to the position of the shift lever of the vehicle, and Fig. 7B shows an example in which both the first camera and the second camera mounted on the vehicle are operated Lt; / RTI >

또한, 도 7a 및 도 7b에 도시된 예시의 경우 스플리터가 조감도 영상 영역의 중앙에 고정된 것을 특징으로 한다. 이에 따라, 조감도 영상 영역의 하부에는 제 1 카메라를 이용하여 생성된 제 1 합성 조감도 이미지가 출력될 수 있고, 조감도 영상 영역의 상부에는 제 2 카메라를 이용하여 생성된 제 2 합성 조감도 이미지가 출력될 수 있다. In the example shown in FIGS. 7A and 7B, the splitter is fixed at the center of the bird's-eye view image region. Accordingly, a first synthesized bird's-eye view image generated using the first camera can be output below the bird's-eye view image area, and a second synthesized bird's-eye view image generated using the second camera is output to the top of the bird's-eye view image area .

먼저, 도 7a에 도시된 예시의 경우 변속 레버의 위치에 따라 카메라가 선택적으로 동작되므로, t1 시점 내지 t3 시점에는 제 1 카메라가 동작되는 반면, t4 시점 내지 t8 시점에는 제 2 카메라가 동작된다. 이에 따라, t1 시점의 경우 차량의 제 1 카메라로 촬영된 제 1 주차선(pl11) 중 일부가 영역(b12)에 나타나되, 나머지 영역(a11, a12, b11)은 미표현 영역으로 존재한다.First, FIG so for the example shown in 7a in accordance with the position of the shift lever camera is selectively operated, t 1, the time to t 3 point, while the first camera is operating, t 4 time to t 8 point, the second camera Is operated. Accordingly, in the case of t 1, the time portion of the first camera of the first parking line (pl 11) taken by the vehicle is being shown in the area (b 12), the rest area (a 11, a 12, b 11) are non- Lt; / RTI >

t2 시점의 경우 차량이 후방 방향으로 일정 거리만큼 이동되어, 영역(b21, b22)에는 주차선 중 일부가 나타난다. 앞서 설명된 바와 같이, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 과거 시점에 생성된 제 1 조감도 이미지 또는 제 1 합성 조감도 이미지를 이용하므로, 영역(b21)에는 t1 시점에 생성된 제 1 합성 조감도 이미지 즉, 영역(b12)에 해당하는 이미지가 포함된다.If the time t 2 the vehicle is moved by a predetermined distance in the backward direction, the area (b 21, b 22) has shown that some of the parking line. To, at the time t 1, the driving support device 100 according to one embodiment of the invention, because use of the first bird's-eye view image or the first synthesized bird's-eye view image created in the previous point, the area (b 21) as previously described The generated first synthesized bird's-eye view image, that is, the image corresponding to the area b 12 is included.

t3 시점의 경우 차량이 후방 방향으로 일정 거리만큼 이동되어, 영역(b31, b32)에는 주차선 중 일부가 나타난다. 또한, 영역(b31)에는 t2 시점에 생성된 제 1 합성 조감도 이미지 즉, 영역(b22)에 해당하는 이미지가 포함되고, 영역(b32)에는 t3 시점에 생성된 제 1 조감도 이미지가 포함될 수 있다. 여기서, t3 시점의 합성 조감도 영상을 살펴보면, 스플리터(sp3)를 기준으로 상부는 제 2 카메라를 이용하여 생성된 제 2 합성 조감도 이미지가 포함되나, 본 예시의 경우 제 2 카메라가 작동되지 않기에 영역(a31, a32)은 미표현 영역으로 존재하게 된다.If the time t 3 the vehicle is moved by a predetermined distance in the backward direction, the area (b 31, b 32) has shown that some of the parking line. In addition, the region (b 31) has a first synthesized bird's-eye view image that is, containing the image for the area (b 22), regions (b 32) has a first bird's-eye view image created in the t 3 time generated in t 2 time May be included. Here, t Looking at the composite bird's eye view image of the third point in time, since relative to the splitter (sp 3) the upper part, including, a second synthesized bird's-eye view image generated by using the second camera, in the case of this example the second camera is not operating The regions a 31 and a 32 exist as unexpressed regions.

이제, t4 시점에 변속 레버의 위치가 변경된 상황을 가정한다. 이 때, 차량에 장착된 제 1 카메라 대신 제 2 카메라가 동작되게 되고, 이에 따라, 영역(a41)에는 제 2 카메라를 이용하여 생성된 제 2 조감도 이미지가 나타난다. 다만, 영역(a42)은 현재 제 2 카메라를 통해 촬영될 수 없고, 과거에 촬영된 영역이 아니므로 미표현 영역으로 존재하게 된다. 또한, 제 1 조감도 영상 영역을 나타내는 영역(b41, b42)에는 t1 시점 내지 t3 시점에 생성된 제 1 합성 조감도 이미지가 출력되어, 출력 상태를 유지할 수 있다. 이제, t5 내지 t8 시점에 차량이 전진하는 상황을 가정한다.Now, it is assumed the situation where the shift lever position t 4 to the time has been changed. At this time, and so the second camera is operating instead of the first camera mounted on a vehicle, whereby the region (41 a) is shown a second bird's-eye view image generated by using the second camera. However, the area a 42 can not be photographed through the second camera at present, and is not an area photographed in the past, and thus exists as an unexpressed area. Also, the first synthesized bird's-eye view image generated at the time t 1 to the time t 3 is output to the area (b 41 , b 42 ) representing the first bird's-view image area, and the output state can be maintained. Now, it is assumed that the vehicle advances from time t 5 to time t 8 .

t5 시점의 경우, 차량이 전방 방향으로 일정 거리만큼 이동되어, 제 2 조감도 영상 영역을 나타내는 영역(a51, a52) 모두에 대해 미표현 영역이 사라지게 된다. 또한, 차량이 전방 방향으로 이동하더라도, 과거 시점에 동일한 위치에서 생성된 제 1 합성 조감도 이미지(즉, t2 시점에 생성된 제 1 합성 조감도 이미지)가 존재하기에, 영역(b51, b52)에도 별도의 미표현 영역 없이 주차선(pl11)에 대한 표현이 가능하다.At time t 5 , the vehicle is moved by a certain distance in the forward direction, and the unrepresented area disappears for all the areas a 51 and a 52 representing the second bird's-view image area. In addition, even if the vehicle is moving in the forward direction, to the first composite bird's eye view image generated from the same position in the past time point (i.e., t a first composite bird's eye view image generated in the second time point) is present, the area (b 51, b 52 , It is possible to express the parking line pl 11 without a separate unexpressed area.

t6 시점의 경우 차량이 전방 방향으로 일정 거리만큼 이동되어, 영역(a61)에는 제 2 주차선(pl12) 중 일부가 나타난다. 또한, 영역(a62)에는 t5 시점에 생성된 제 2 합성 조감도 이미지 즉, 영역(a51)에 해당하는 이미지가 포함되고, 영역(a61)에는 t6 시점에 생성된 제 2 조감도 이미지가 포함될 수 있다. 다만, 제 1 조감도 영상 영역의 경우, 영역(b62)에는 t1 시점에 생성된 제 1 조감도 이미지가 나타날 수 있으나, 영역(b61)에는 과거에 해당 영역에 대한 촬영 정보가 없기에 미표현 영역으로 존재하게 된다. 이에 따라, 차량이 전방 방향으로 더 진행하게 되면, t7 시점 및 t8 시점의 조감도 영상 영역으로 도시된 바와 같이, 제 1 조감도 영상 영역에 대한 부분은 모두 미표현 영역으로 존재하게 된다. 6 at the time t when the vehicle is moved by a predetermined distance in the forward direction, the area (a 61) is a part of the second parking line (12 pl) is displayed. Further, the area (a 62) is a second composite bird's eye view image that is, the area containing the image that corresponds to (a 51), the area (a 61), the second bird's-eye view image generated for t 6 time generated in t 5 the time May be included. However, the first case of a bird's eye image region, a region (b 62) include non-expressed region eopgie the recording information for the area in the past, may receive the first bird's-eye view image generated for t 1 time, but the region (b 61) . Accordingly, when the vehicle further advances in the forward direction, as shown by the bird's-eye view image area at the time t 7 and at the time t 8 , all the portions for the first bird's-sideview image region exist as unexpressed regions.

또한, 위의 설명에서 조감도 영상 영역은 2개의 카메라들 중 하나의 카메라만을 선택적으로 동작시킴으로써 나타나는 것으로 설명되었다. 즉, 위의 설명에서 조감도 영상 영역은 2개의 카메라들 중 하나의 카메라만이 선택적으로 동작되어, 동작되는 카메라에 따라 제 1 합성 조감도 이미지 또는 제 2 합성 조감도 이미지가 선택적으로 생성되는 것으로 설명되었다. 다만 이는 예시일 뿐이고, 도 7b에 도시된 것처럼 2개의 카메라들 모두 동작되는 상황에서도 조감도 영상 영역을 나타내는 것이 가능하다. Also, in the above description, it has been described that the bird's-eye view image region appears by selectively operating only one of the two cameras. That is, in the above description, it is explained that only one of the two cameras is selectively operated in the bird's-eye view image region, and a first synthesized bird's-eye view image or a second synthesized bird's-eye view image is selectively generated according to the operated camera. However, this is merely an example, and it is possible to display a bird's-eye view image area even in a situation where both cameras are operated as shown in FIG. 7B.

예를 들어, 도 7b에 도시된 것처럼 2개의 카메라 모두가 동작되는 경우, t1 시점에는 차량의 제 1 카메라로 촬영된 제 1 주차선(pl11) 중 일부가 영역(b12)에 나타나고, 제 2 카메라로 촬영된 제 2 주차선(pl12) 중 일부가 영역(a11)에 나타날 수 있다. 물론, 카메라의 촬영 범위를 벗어나는 영역(a12, b11)은 미표현 영역으로 존재한다. For example, when all two cameras are operated as shown in FIG. 7B, at a time t 1 , a part of the first parking line pl 11 photographed by the first camera of the vehicle appears in the area b 12 , some of the second camera, a second parking line (12 pl) is taken as may appear in the area (a 11). Of course, the areas (a 12 , b 11 ) out of the shooting range of the camera exist in the unexpressed area.

t2 시점의 경우 차량이 후방 방향으로 일정 거리만큼 이동되어, 영역(b21, b22)에는 주차선 중 일부가 나타난다. 또한, 제 2 카메라가 동작되므로, 영역(a21)도 표현이 될 수 있다. 앞서 설명된 바와 같이, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 과거 시점에 생성된 제 1 조감도 이미지 또는 제 1 합성 조감도 이미지를 이용하므로, 영역(b21)에는 t1 시점에 생성된 제 1 합성 조감도 이미지 즉, 영역(b12)에 해당하는 이미지가 포함된다.If the time t 2 the vehicle is moved by a predetermined distance in the backward direction, the area (b 21, b 22) has shown that some of the parking line. In addition, since the second camera is activated, the area (a 21) may also be represented. To, at the time t 1, the driving support device 100 according to one embodiment of the invention, because use of the first bird's-eye view image or the first synthesized bird's-eye view image created in the previous point, the area (b 21) as previously described The generated first synthesized bird's-eye view image, that is, the image corresponding to the area b 12 is included.

t3 시점의 경우 차량이 후방 방향으로 일정 거리만큼 이동되어, 영역(b31, b32)에는 주차선 중 일부가 나타난다. 또한, 제 2 카메라의 동작에 의해, 영역(a31)도 표현이 될 수 있다. 또한, 도 7a의 예시와 마찬가지로, 영역(b31)에는 t2 시점에 생성된 제 1 합성 조감도 이미지 즉, 영역(b22)에 해당하는 이미지가 포함되고, 영역(b32)에는 t3 시점에 생성된 제 1 조감도 이미지가 포함될 수 있다. If the time t 3 the vehicle is moved by a predetermined distance in the backward direction, the area (b 31, b 32) has shown that some of the parking line. Further, by operation of the second camera, the area (a 31) may also be represented. Further, in the t 3 time as in the example of Figure 7a, the region (b 31) will contain images for one of the first synthesized bird's-eye view image that is, the area (b 22) create a t 2 time, the area (b 32) The first bird's-eye image generated in the first bird's-eye view can be included.

이제, t4 시점에 변속 레버의 위치가 변경되어 차량이 전방 방향으로 이동될 때의 상황을 가정한다.Now, the shift lever position of the point in time t 4 has been changed is assumed the situation when the vehicle is moving in the forward direction.

t5 및 t6시점의 경우, 차량이 전방 방향으로 일정 거리만큼 이동되어, 도 7a의 예시와 동일한 조감도 영상 영역이 도출된다. 그리고, t7 시점 및 t8 시점의 경우, 도 7a의 예시에서 제 1 카메라가 미동작으로 인해 영역(b71, b72) 및 영역(b81, b82)이 미표현 영역으로 처리되었던 것과는 달리, 도 7b의 예시에서는 제 1 카메라가 동작되므로, 영역(b72) 및 영역(b82)은 표현이 가능해진다.At the time points t 5 and t 6 , the vehicle is moved by a certain distance in the forward direction, and the same bird's-eye view image area as the example of FIG. 7A is derived. In the example of FIG. 7A, the regions b 71 and b 72 and the regions b 81 and b 82 are processed as undefined regions due to the first camera not operating in the case of t 7 and t 8 Otherwise, in the example of Fig. 7B, since the first camera is operated, the area b 72 and the area b 82 become expressible.

이렇게, 도 7a 및 도 7b에 도시된 예시와 같이, 운전자는 2개의 합성 조감도 이미지를 하나의 조감도 영상으로 볼 수 있다. 또한, 본 예시의 경우, 조감도 영상 영역의 가운데에 고정되어 설정된 스플리터에 의해, 운전자는 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지의 구분을 명확하게 할 수 있고, 이로 인해, 종래 기술의 문제점으로 언급된 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지의 중첩 영역에서 발생하는 이질감을 줄일 수 있다.7A and 7B, the driver can view the two combined bird's-eye view images as one bird's-eye view image. In the case of this example, the operator can clearly distinguish between the first synthesized bird's-eye view image and the second synthesized bird's-eye view image by means of the splitter fixed and set in the center of the bird's-eye view image area, It is possible to reduce the sense of heterogeneity occurring in the overlapping region of the first synthesized bird's-eye view image and the second synthesized bird's-eye view image.

또한, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 상술한 스플리터의 위치를 조감도 영상 영역의 중앙이 아닌 조감도 영상 영역의 상부 또는 하부에 설정하는 것도 가능하다. 예를 들어, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 변속 레버가 주행 기어에 위치할 때 스플리터의 위치를 조감도 영상 영역의 하부에 위치시킬 수 있고, 변속 레버가 후진 기어에 위치할 때, 스플리터의 위치를 조감도 영상 영역의 상부에 위치시킬 수 있다. 이제, 도 8a 및 도 8b를 참조로 변속 레버의 위치에 따라 스플리터의 위치가 변경되는 예시에 대해 설명된다. 여기서, 도 8a는 변속 레버의 위치에 따라 2개의 카메라들 중 하나의 카메라만 동작되는 예시를 나타내고, 도 8b는 2개의 카메라들 모두가 동작되는 예시를 나타낸다.In addition, the driving assistance device 100 according to an embodiment of the present invention can set the position of the above-described splitter on the upper or lower portion of the bird's-eye view image area, not the center of the bird's-eye view image area. For example, the driving assistance device 100 according to an embodiment of the present invention can position the position of the splitter below the bird's-eye view image area when the shift lever is positioned in the traveling gear, The position of the splitter can be positioned above the image area of the bird's eye view. Now, an example in which the position of the splitter is changed according to the position of the shift lever will be described with reference to Figs. 8A and 8B. Here, FIG. 8A shows an example in which only one of the two cameras is operated according to the position of the shift lever, and FIG. 8B shows an example in which both of the two cameras are operated.

앞선 예시와 마찬가지로, t1 시점 내지 t3 시점에는 차량이 후방 방향으로 진행하고, t4 시점에는 차량의 변속 레버의 위치가 변경되며, t5 시점 t8 시점에는 차량이 전방 방향으로 진행하는 것으로 가정한다. 즉, 도 8a에 도시된 예시의 경우 변속 레버의 위치에 따라 카메라가 선택적으로 동작되므로, t1 시점 내지 t3 시점에는 제 1 카메라가 동작되는 반면, t4 시점 내지 t8 시점에는 제 2 카메라가 동작된다. 또한, t1 시점 내지 t3 시점에는 스플리터가 조감도 영상 영역의 상부에 설정되는 반면, t4 시점 내지 t8 시점에는 스플리터가 조감도 영상 영역의 하부에 설정된다.Like the previous example, t 1 time to t 3 point, the vehicle takes place in the backward direction, t 4 to change the time, the position of the shift lever of the vehicle, t 5 the time t 8 point, the vehicle is found to proceed in the forward direction I suppose. That is, since the case of the example shown in 8a according to the position of the shift lever camera is selectively operated, t 1 while the first camera operation time to t 3 the time is, t 4, the second camera viewpoint to t 8 point Is operated. In addition, a splitter is set at the top of the bird's-eye view image area at t 1 to t 3 , while a splitter is set at the bottom of the bird's-eye view image area at t 4 to t 8 .

t1 시점의 경우 차량의 제 1 카메라로 촬영된 제 1 주차선(pl11) 중 일부가 영역(b13)에 나타나되, 나머지 영역(a11, b11, b12)은 미표현 영역으로 존재한다. 앞서 언급한 것처럼, 본 예시의 경우 스플리터가 조감도 영상 영역의 중앙이 아닌 상부 또는 하부에 위치하므로, 제 1 조감도 영상 영역과 제 2 조감도 영상 영역의 크기도 상이하다. 본 예시에서, 제 1 조감도 영상 영역은 하나의 영역으로 나타나고, 제 2 조감도 영상 영역은 3개의 영역으로 나타나는 것으로 도시되었으나 이는 예시일 뿐이고, 각 조감도 영상 영역에는 다양한 크기 및 개수의 영역이 포함될 수 있다.For t 1, the time portion of the first camera of the first parking line (pl 11) taken by the vehicle is being shown in the area (b 13), the rest area (a 11, b 11, b 12) is a non-expressed region exist. As described above, in the present example, since the splitter is located at the upper or lower portion of the bird's-eye view image region, not the center of the bird's-eye view image region, the sizes of the first bird's-eye view image region and the second bird's-eye view image region are also different. In this example, the first bird's-eye view image region is shown as one region and the second bird's-eye view image region is shown as three regions, but this is merely an example, and each bird's-eye view image region may include various sizes and numbers of regions .

t2 시점의 경우 차량이 후방 방향으로 일정 거리만큼 이동되어, 영역(b22, b23)에는 주차선 중 일부가 나타난다. 앞서 설명된 바와 같이, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 과거 시점에 생성된 제 1 조감도 이미지 또는 제 1 합성 조감도 이미지를 이용하므로, 영역(b22)에는 t1 시점에 생성된 제 1 합성 조감도 이미지 즉, 영역(b13)에 해당하는 이미지가 포함된다. 또한, 영역(b21)은 과거에 촬영된 촬영 정보가 없기에, 미표현 영역으로 존재하게 된다.If the time t 2 the vehicle is moved by a predetermined distance in the backward direction, the area (b 22, b 23) has shown that some of the parking line. To, in the t 1 time driving support apparatus 100 according to an embodiment of the present invention is therefore use of the first bird's-eye view image or the first synthesized bird's-eye view image created in the previous point, the area (b 22) as previously described The generated first composite bird's-eye view image, that is, the image corresponding to the area b 13 , is included. In addition, the region (21 b) is eopgie the shooting information recorded in the past, is present in a non-expressed areas.

t3 시점의 경우 차량이 후방 방향으로 일정 거리만큼 이동되어, 제 1 조감도 영상 영역(b31, b32, b33) 모두에는 주차선 중 일부가 나타난다. 또한, 영역(b31)에는 t2 시점에 생성된 제 1 합성 조감도 이미지 즉, 영역(b22)에 해당하는 이미지가 포함되고, 영역(b32)에는 t2 시점에 생성된 제 1 합성 조감도 이미지 즉, 영역(b23)에 해당하는 이미지가 포함되며, 영역(b33)에는 t3 시점에 생성된 제 1 조감도 이미지가 포함될 수 있다. If the time t 3 the vehicle is moved by a predetermined distance in the backward direction, both of the first bird's-eye view image area (b 31, b 32, b 33) has shown that some of the parking line. In addition, the region (b 31) will contain images for one of the first synthesized bird's-eye view image that is, the area (b 22) create a t 2 time, the area (b 32), the first synthesis resulting in t 2 time bird's eye view An image corresponding to the area b 23 may be included and a first bird's-eye image generated at the time t 3 may be included in the area b 33 .

이제, t4 시점에 변속 레버의 위치가 변경된 상황을 가정한다. 이 때, 차량에 장착된 제 1 카메라 대신 제 2 카메라가 동작되게 되고, 이에 따라, 영역(a41)에는 제 2 카메라를 이용하여 생성된 제 2 조감도 이미지가 나타난다. 다만, 영역(a42, a43)은 현재 제 2 카메라를 통해 촬영될 수 없고, 과거에 촬영된 영역이 아니므로 미표현 영역으로 존재하게 된다. 또한, 제 1 조감도 영상 영역을 나타내는 영역(b41)에는 t1 시점 내지 t3 시점에 생성된 제 1 합성 조감도 이미지가 출력되어, 출력 상태를 유지할 수 있다. 이제, t5 시점 내지 t8 시점에 차량이 전진하는 상황을 가정한다.Now, it is assumed the situation where the shift lever position t 4 to the time has been changed. At this time, and so the second camera is operating instead of the first camera mounted on a vehicle, whereby the region (41 a) is shown a second bird's-eye view image generated by using the second camera. However, the areas a 42 , a 43 can not be photographed through the second camera at present and are not photographed regions in the past, and thus exist as unexpressed regions. In addition, the first synthesized bird's-eye view image generated at time t 1 to time t 3 is output to the area (b 41 ) representing the first bird's-view image area, and the output state can be maintained. Now, it is assumed that the vehicle advances from time t 5 to time t 8 .

t5 시점의 경우, 차량이 전방 방향으로 일정 거리만큼 이동되어, 제 2 조감도 영상 영역을 나타내는 영역들 중 영역(a51, a52)에 대해 미표현 영역이 사라진다. 물론, 영역(a53)의 경우, 과거 촬영 정보가 존재하지 않기에 미표현 영역으로 나타난다. 또한, 차량이 전방 방향으로 이동하더라도, 과거 시점에 동일한 위치에서 생성된 제 1 합성 조감도 이미지가 존재하기에, 영역(b51)에도 별도의 미표현 영역 없이 주차선(pl11)에 대한 표현이 가능하다.At time t 5 , the vehicle is moved by a certain distance in the forward direction, and the unrepresented area disappears for the areas a 51 and a 52 among the areas representing the second bird's-view image area. Of course, in the case of the area a 53 , since there is no photographing information in the past, it appears as an unexpressed area. Even if the vehicle moves in the forward direction, since there is a first synthesized bird's-eye view image generated at the same position at the past time point, the expression for the parking line pl 11 without an additional unrefreshed area in the area b 51 It is possible.

t6 시점의 경우 차량이 전방 방향으로 일정 거리만큼 이동되어, 영역(a61)에는 제 2 주차선(pl12) 중 일부가 나타난다. 또한, 영역(a63)에는 t5 시점에 생성된 제 2 합성 조감도 이미지 즉, 영역(a52)에 해당하는 이미지가 포함되고, 영역(a62)에는 t5 시점에 생성된 제 2 합성 조감도 이미지 즉, 영역(a51)에 해당하는 이미지가 포함되며, 영역(a61)에는 t6 시점에 생성된 제 2 조감도 이미지가 포함될 수 있다. 또한, 차량이 전방 방향으로 이동하더라도, 과거 시점에 동일한 위치에서 생성된 제 1 합성 조감도 이미지가 존재하기에, 영역(b61)에도 별도의 미표현 영역 없이 주차선(pl11)에 대한 표현이 가능하다. 6 at the time t when the vehicle is moved by a predetermined distance in the forward direction, the area (a 61) is a part of the second parking line (12 pl) is displayed. Further, the area (a 63) is t, and includes a second image corresponding to the synthesized bird's-eye view image that is, the area (a 52) produced a 5-point, the area (a 62) is a second composite produced in t 5 the time bird's eye view An image corresponding to the area a 51 may be included and a second bird's-eye image generated at the time t 6 may be included in the area a 61 . Even if the vehicle moves in the forward direction, since there is the first synthesized bird's-eye view image generated at the same position at the past time point, the expression for the parking line pl 11 without an additional unrefreshed area in the area b 61 It is possible.

t7 및 t8 시점의 경우, 제 2 조감도 영상 영역을 나타내는 영역(a71, a72, a73) 및 영역(a81, a82, a83)은 위에서 설명한 합성 과정을 통해 각 시점의 제 2 합성 조감도 이미지를 생성할 수 있다. 다만, 제 1 조감도 영상 영역의 경우, 영역(b71) 및 영역(b81)에는 과거에 해당 영역에 대한 촬영 정보가 없기에 미표현 영역으로 존재하게 된다. the area (a 71 , a 72 , a 73 ) and the area (a 81 , a 82 , a 83 ) representing the second bird's-view image area at the time of t 7 and t 8 are obtained through the above- 2 Composite bird's-eye images can be generated. However, in the case of the first bird's-view image region, the region b 71 and the region b 81 exist in the unexpressed region because there is no photographing information for the region in the past.

또한, 본 예시의 경우, 도 7a 및 도 7b의 예시와 마찬가지로, 2개의 카메라들 중 하나의 카메라만 선택적으로 동작시키는 것이 아닌, 2개의 카메라들 모두를 이용하여 조감도 영상 영역을 운전자에게 제공하는 것도 가능하다. 이렇게, 2개의 카메라들 모두가 동작하는 상황에서, 스플리터의 위치를 조감도 영상 영역의 상부 또는 하부에 설정하는 방법에 대한 예시는 도 8b에 도시된다. Also, in this example, as in the case of Figs. 7A and 7B, it is also possible to provide the driver with a bird's-eye view image area using all of the two cameras, instead of selectively operating only one of the two cameras It is possible. An example of a method of setting the position of the splitter at the upper portion or the lower portion of the image area in the situation where both cameras are operated in this manner is shown in Fig. 8B.

도 8b에 도시된 것처럼 2개의 카메라 모두가 동작되는 경우, t1 시점에는 차량의 제 1 카메라로 촬영된 제 1 주차선(pl11) 중 일부가 영역(b13)에 나타나고, 제 2 카메라로 촬영된 제 2 주차선(pl12) 중 일부가 영역(a11)에 나타날 수 있다. 물론, 카메라의 촬영 범위를 벗어나는 영역(b11, b12)은 미표현 영역으로 존재한다. When all of the two cameras are operated as shown in FIG. 8B, a part of the first parking line pl 11 photographed by the first camera of the vehicle at time t 1 appears in the area b 13 , some of the recorded second parking line (12 pl) can appear in the area (a 11). Of course, the areas (b 11 , b 12 ) outside the photographing range of the camera exist as unexpressed areas.

t2 시점의 경우 차량이 후방 방향으로 일정 거리만큼 이동되어, 영역(b22, b23)에는 주차선 중 일부가 나타난다. 또한, 제 2 카메라가 동작되므로, 영역(a21)도 표현이 될 수 있다. 앞서 설명된 바와 같이, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 과거 시점에 생성된 제 1 조감도 이미지 또는 제 1 합성 조감도 이미지를 이용하므로, 영역(b22)에는 t1 시점에 생성된 제 1 합성 조감도 이미지 즉, 영역(b13)에 해당하는 이미지가 포함된다. 물론, 영역(b21)의 경우, 과거 촬영 정보가 없기에, 미표현 영역으로 존재한다.If the time t 2 the vehicle is moved by a predetermined distance in the backward direction, the area (b 22, b 23) has shown that some of the parking line. In addition, since the second camera is activated, the area (a 21) may also be represented. To, in the t 1 time driving support apparatus 100 according to an embodiment of the present invention is therefore use of the first bird's-eye view image or the first synthesized bird's-eye view image created in the previous point, the area (b 22) as previously described The generated first composite bird's-eye view image, that is, the image corresponding to the area b 13 , is included. Of course, in the case of the region (21 b), present in the past eopgie recording information, it represented US region.

t3 시점의 경우 차량이 후방 방향으로 일정 거리만큼 이동되어, 영역(b31, b32, b33)에는 주차선 중 일부가 나타난다. 또한, 제 2 카메라의 동작에 의해, 영역(a31)도 표현이 될 수 있다. 또한, 도 8a의 예시와 마찬가지로, 영역(b31, b32)에는 t2 시점에 생성된 제 1 합성 조감도 이미지 즉, 영역(b21, b22)에 해당하는 이미지가 포함되고, 영역(b33)에는 t3 시점에 생성된 제 1 조감도 이미지가 포함될 수 있다. If the time t 3 the vehicle is moved by a predetermined distance in the backward direction, there appears a portion of the parking area line (b 31, b 32, b 33). Further, by operation of the second camera, the area (a 31) may also be represented. 8A, the first synthesized bird's-eye view image generated at the time t 2 , that is, the image corresponding to the region (b 21 , b 22 ) is included in the region (b 31 , b 32 ) 33 ) may include the first bird's-eye image generated at time t 3 .

이제, t4 시점에 변속 레버의 위치가 변경되어 차량이 전방 방향으로 이동될 때의 상황을 가정한다. 이 경우, 영역(a41, b41)은 각 카메라를 이용하여 생성된 제 2 조감도 이미지와 제 1 조감도 이미지를 각각 포함할 수 있다. 다만, 영역(a42, a43)의 경우, 과거 촬영 정보가 존재하지 않기에, 도 8b에 도시된 것처럼 미표현 영역으로 존재하게 된다.Now, the shift lever position of the point in time t 4 has been changed is assumed the situation when the vehicle is moving in the forward direction. In this case, the areas a 41 and b 41 may include a second bird's-eye view image generated using each camera and a first bird's-eye view image, respectively. However, in the case of the areas a 42 and a 43 , because there is no photographing information in the past, it exists as a non-representation area as shown in FIG. 8B.

t5 및 t6시점의 경우, 차량이 전방 방향으로 일정 거리만큼 이동되어, 도 8a의 예시와 동일한 조감도 영상 영역이 도출된다. 그리고, t7 시점 및 t8 시점의 경우, 도 8a의 예시에서 제 1 카메라가 미동작으로 인해 영역(b71) 및 영역(b81)이 미표현 영역으로 처리되었던 것과는 달리, 도 8b의 예시에서는 제 1 카메라가 동작되므로, 영역(b71) 및 영역(b81)도 표현이 가능해진다.At time points t 5 and t 6 , the vehicle is moved by a certain distance in the forward direction, and the same bird's-eye view image area as the example of FIG. 8A is derived. In the example of FIG. 8A, the region b 71 and the region b 81 are processed as undefined regions due to the non-operation of the first camera in the case of t 7 and t 8 , The region b 71 and the region b 81 can be expressed because the first camera is operated.

또한, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 상술한 스플리터의 위치를 특정 위치에 고정하는 것이 아닌, 차량의 이동 방향 및 거리를 고려하여 실시간으로, 그리고 슬라이딩 방식으로 조정하는 것도 가능하다. 구체적으로, 본 발명의 일 실시예에 따른 운전 보조 장치(100)는 차량의 이동 방향에 따라 스플리터의 이동 방향을 결정할 수 있고, 차량의 이동 거리에 따라 스플리터를 움직일 수 있다. In addition, the driving assistance device 100 according to an embodiment of the present invention is not limited to fixing the position of the above-described splitter to a specific position, but may be adjusted in real time and in a sliding manner in consideration of the moving direction and distance of the vehicle It is possible. Specifically, the driving assistance device 100 according to an embodiment of the present invention can determine the moving direction of the splitter according to the moving direction of the vehicle, and can move the splitter according to the moving distance of the vehicle.

이제, 도 9a 및 도 9b를 참조로 변속 레버의 위치(즉, 차량의 이동 방향) 및 차량의 이동 거리에 따라 스플리터의 위치를 조정하는 예시에 대해 설명된다. 앞선 예시들과 마찬가지로 도 9a는 변속 레버의 위치에 따라 2개의 카메라들 중 하나의 카메라만 동작되는 예시를 나타내고, 도 9b는 2개의 카메라들 모두가 동작되는 예시를 나타낸다.Now, an example of adjusting the position of the splitter according to the position of the shift lever (that is, the moving direction of the vehicle) and the moving distance of the vehicle will be described with reference to Figs. 9A and 9B. 9A shows an example in which only one of the two cameras is operated according to the position of the shift lever, and FIG. 9B shows an example in which both of the two cameras are operated.

앞선 예시와 마찬가지로, t1 시점 내지 t3 시점에는 차량이 후방 방향으로 진행하고, t4 시점에는 차량의 변속 레버의 위치가 변경되며, t5 시점 t8 시점에는 차량이 전방 방향으로 진행하는 것으로 가정한다. 즉, 도 9a에 도시된 예시의 경우 변속 레버의 위치에 따라 카메라가 선택적으로 동작되므로, t1 시점 내지 t3 시점에는 제 1 카메라가 동작되는 반면, t4 시점 내지 t8 시점에는 제 2 카메라가 동작된다. 또한, t1 시점 내지 t3 시점의 경우 차량이 후방 방향으로 이동하므로 스플리터는 조감도 영상 영역의 상부 방향으로 움직이는 반면, t4 시점 내지 t8 시점의 경우, 차량이 전방 방향으로 이동하므로 스플리터가 조감도 영상 영역의 하부 방향으로 이동한다.Like the previous example, t 1 time to t 3 point, the vehicle takes place in the backward direction, t 4 to change the time, the position of the shift lever of the vehicle, t 5 the time t 8 point, the vehicle is found to proceed in the forward direction I suppose. That is, since the case of the example shown in 9a in accordance with the position of the shift lever camera is selectively operated, t 1 while the first camera operation time to t 3 the time is, t 4, the second camera viewpoint to t 8 point Is operated. Since the vehicle moves in the backward direction from the time t 1 to the time t 3, the splitter moves upward in the bird's-eye view image area, while in the case of the time t 4 to t 8 , the vehicle moves in the forward direction, And moves in the downward direction of the image area.

먼저, t1 시점의 경우 차량의 제 1 카메라로 촬영된 제 1 주차선(pl11) 중 일부가 영역(b14)에 나타나되, 나머지 영역(b11, b12, b13)은 미표현 영역으로 존재한다. First, at the time t 1 , a part of the first parking line pl 11 photographed by the first camera of the vehicle is displayed in the area b 14 , and the remaining areas b 11 , b 12 and b 13 are not represented Lt; / RTI >

t2 시점의 경우 차량이 후방 방향으로 일정 거리만큼 이동되어, 영역(b23, b24)에는 주차선 중 일부가 나타나고, t3 시점의 경우 차량이 후방 방향으로 일정 거리만큼 이동되어, 영역(b32, b33, b34)에 주차선 중 일부가 나타난다. the vehicle is moved backward by a certain distance in the case of the time t 2 and a part of the parking lines appears in the area b 23 and b 24 and the vehicle is moved by a certain distance in the backward direction at the time t 3 , b 32 , b 33 , b 34 ).

이제, t4 시점에서 변속 레버의 위치가 변경된 상황을 가정한다. 도 7a, 도 7b, 도 8a 및 도 8b의 예시의 경우 스플리터가 미리 특정 위치에 고정되어 설정되거나, 또는 변속 레버의 위치에 따라 2개의 위치 중 하나의 위치에 고정되어 설정되는 것으로 설명되었다. 이에 따라, 도 7a, 도 7b, 도 8a 및 도 8b의 예시는 하나의 조감도 이미지만 존재하는 t1 내지 t3 시점에도 스플리터가 설정된 것으로 설명되었다. 반면, 본 예시의 경우 변속 레버의 위치가 변경될 때, 제 1 조감도 이미지 영역과 제 2 조감도 이미지 영역이 겹치는 부분에 스플리터가 설정되는 것을 특징으로 한다. 또한, 이러한 스플리터의 설정 시점은 변속 레버의 위치가 변경될 때, 제 1 조감도 이미지 영역과 제 2 조감도 이미지 영역이 겹치지 않는다면, 바로 적용되는 것이 아닌 차량의 움직임에 따라 제 1 조감도 이미지 영역과 제 2 조감도 이미지 영역이 겹칠 때 설정되는 것도 가능하다.Now, it is assumed the situation where the shift lever position at the time t 4 has been changed. In the case of Figs. 7A, 7B, 8A and 8B, it has been described that the splitter is fixedly set at a specific position in advance, or fixed at one of two positions depending on the position of the shift lever. Accordingly, the examples of Figs. 7A, 7B, 8A, and 8B have been described that the splitter is set at t 1 to t 3 when only one bird's-eye image exists. On the other hand, in the present embodiment, when the position of the shift lever is changed, a splitter is set in a portion where the first bird's-eye view image region and the second bird's-eye view image region overlap. If the first bird's-tooth view image area and the second bird's-foot view image area do not overlap when the position of the shift lever is changed, the setting time of the splitter is not directly applied, It is also possible that the bird's-eye view image area is set when overlapping.

물론, 도 8a 및 도 8b를 참조로 설명한 것처럼 변속 레버가 후진 기어에 위치할 때, t1 내지 t3 시점의 조감도 영상 영역과 마찬가지로 스플리터의 위치를 조감도 영상 영역의 상부에 위치시키는 방법도 생각해볼 수 있다. 다만, 스플리터가 미리 설정될 경우, 차량이 동일한 방향으로 지속적으로 움직일 때, 최상부 또는 최하부 영역에 있어서 미표현 영역이 존재할 수 밖에 없다. 반면, 스플리터를 변속 레버의 위치를 변경할 때, 또는 제 1 조감도 영상 영역과 제 2 조감도 영상 영역이 겹치는 시점에 설정할 경우, 특정 시점 이후부터는 미표현 영역 없이 하나의 카메라를 근거로 생성된 합성 조감도 이미지를 운전자에게 제공할 수 있는 장점이 있다. 또한, 이러한 스플리터의 설정 시점은 앞선 예시들에서도 동일하게 적용될 수 있다.Of course, the shift lever, as described in FIG. 8a and FIG. 8b a try, thinking a method of locating the position of the splitter, like a bird's eye view image region of t 1 to t 3 the point in the upper portion of the bird's eye view image region when positioned in the reverse gear . However, when the splitter is set in advance, when the vehicle continuously moves in the same direction, there is an unexpressed region in the uppermost or lowermost region. On the other hand, when the position of the shift lever is changed or when the first bird's-tooth view image region and the second bird's-foot view image region are overlapped with each other, the split bird's eye view image generated based on one camera To the driver. In addition, the setting time of such a splitter can be similarly applied to the foregoing examples.

본 예시의 경우 변속 레버의 변경 시점에 제 1 조감도 영상 영역과 제 2 조감도 영상 영역에 중복되는 부분이 존재하기에, t4 시점의 조감도 영상 영역에는 스플리터(sp4)가 설정될 수 있다. 또한, t5 시점 및 t6 시점의 경우, 차량이 전방 방향으로 이동하기에, 스플리터의 위치는 점차 하부 방향으로 이동될 수 있다. 또한, 본 예시에서 t7 시점 및 t8 시점의 경우, 제 1 조감도 이미지 영역에 과거 촬영 정보가 없는 점에 기인하여, 미표현 영역(b71, b81)이 발생함을 알 수 있다. 이렇게 미표현 영역이 발생할 때, 스플리터를 없앤다면, 이전 시점에 생성된 합성 조감도 이미지를 이용하여 이러한 미표현 영역도 함께 제거할 수 있을 것이다. 물론, 도 9b에 도시된 것처럼 2개의 카메라들 모두를 이용한다면, 본 예시에서 t4 시점 이후로 미표현 영역은 발생하지 않을 수 있다.In the case of this example for the first bird's-eye view image area and a second overlap region in a bird's eye view image to the change point of the transmission lever exists, a bird's eye view image region of the time t 4, it can be set the splitter (sp 4). Further, in the case of t 5 and t 6 , since the vehicle moves in the forward direction, the position of the splitter can be gradually moved downward. In the case of the time point t 7 and the time point t 8 In this example, the first due to a point there is no history recording information on a bird's eye view image area, it can be seen that the non-expressed region (b 71, b 81) occurs. When the unexpressed area is generated and the splitter is removed, the unexpressed area can be removed together with the composite image generated at the previous time. Of course, as shown in 9b, if using all of the two cameras, US expression region since the time point t 4 in this example can not occur.

또한, 위의 설명에서 스플리터는 횡방향으로만 존재하는 것으로 설명되었다. 다만, 이는 상기 예시들이 차량이 전방 및 후방 방향으로 움직이는 상황을 가정한 것이기에 그러하고, 조향휠의 조향 각도에 따라 스플리터를 사선 방향으로 설정하는 것도 생각해볼 수 있다. 즉, 운전자의 조작에 따라 조향휠이 왼쪽 방향으로 움직인다면, 스플리터의 일측은 조감도 영상 영역의 중앙을 기준으로 하부 방향으로 이동되되, 스플리터의 타측은 조감도 영상 영역의 중앙을 기준으로 상부 방향으로 이동될 수 있다. 마찬가지로, 운전자의 조작에 따라 조향휠이 오른쪽 방향으로 움직인다면, 스플리터의 일측은 조감도 영상 영역의 중앙을 기준으로 상부 방향으로 이동되되, 스플리터의 타측은 조감도 영상 영역의 중앙을 기준으로 하부 방향으로 이동될 수 있다.Also, in the above description, the splitter has been described to exist only in the transverse direction. However, it is also possible to set the splitter in the oblique direction according to the steering angle of the steering wheel, as the above examples assume that the vehicle moves in the forward and backward directions. That is, when the steering wheel is moved in the left direction according to the driver's operation, one side of the splitter is moved downward with respect to the center of the bird's-eye view image region, while the other side of the splitter is moved upward . Similarly, when the steering wheel is moved in the right direction according to the operation of the driver, one side of the splitter is moved upward in relation to the center of the bird's-eye view image area, while the other side of the splitter is moved downward .

다시 말해, 본 발명의 일 실시예에 따른 스플리터는 일측이 조감도 영상 영역의 일 변에 위치하고, 타측이 조감도 영상 영역의 다른 변에 위치하는 것이라면, 다양한 형태로 변경 가능하다. 이처럼, 동작 카메라의 설정, 스플리터의 유지 여부, 그리고 설정 또는 제거 시점 등에 따라 다양한 조감도 영상 영역에 대한 결과가 도출될 수 있을 것이다. 또한, 스플리터의 존재에 기인하여 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지 간 겹치는 영역에 의한 이질감이 줄어들 수 있다.In other words, the splitter according to the embodiment of the present invention can be changed into various forms if one side is located at one side of the bird's-eye view image area and the other side is located at the other side of the bird's-eye view image area. As described above, results for various bird's-eye image areas can be derived according to the setting of the operation camera, whether or not the splitter is maintained, and the setting or removal time. Also, the sense of heterogeneity due to the overlapping region between the first synthesized bird's-eye view image and the second synthesized bird's-eye view image due to the presence of the splitter can be reduced.

또한, 위에서 언급되진 않았으나 본 발명의 일 실시예에 따른 운전 보조 장치는 스플리터를 중심으로 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지가 겹치는 영역을 블랜딩 처리함으로써 조감도 영상 영역을 운전자에게 제공하는 것도 가능하다. 이는 위에서 언급된 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지 간 겹치는 영역에 의한 이질감을 보다 감소시키기 위함이다. 물론, 이러한 블랜딩 처리 외에도, 본 발명의 일 실시예에 따른 운전 보조 장치는 스플리터를 중심으로 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지 간 겹치는 영역에 미리 설정된 색상 톤(예를 들어, 적색, 청색 또는 녹색 등)을 적용시킴으로써, 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지 간 겹치는 영역에 의한 이질감을 줄이는 방법도 생각해 볼 수 있다.Also, although not mentioned above, the driving assistance device according to an embodiment of the present invention may provide a driver with a bird's-eye view image area by blending an area where the first synthesized bird's-eye view image and the second synthesized bird's-eye view image overlap with each other around the splitter Do. This is to further reduce the sense of heterogeneity due to the overlapping area between the first synthesized bird's-eye view image and the second synthesized bird's-eye view image described above. Of course, in addition to such a blending process, the driving assistance device according to an embodiment of the present invention may include a color tone (for example, red, blue, and blue) preset in an area overlapping the first synthesized bird's- Or green), it is possible to consider a method of reducing the sense of heterogeneity due to the overlapping region between the first synthesized bird's-eye view image and the second synthesized bird's-eye view image.

위에서는 차량이 후진, 기어 변경 및 전진의 순서로 동작되는 것으로 설명되었다. 다만 이는 예시일 뿐이고 본 발명의 일 실시예에 따른 운전 보조 장치는 차량이 다른 순서로 동작되더라도 동일한 기술 사상이 적용될 수 있다. 이에 따라, 차량의 다른 동작 시나리오로 움직일 때에 대한 추가적인 설명은 생략한다.It has been described above that the vehicle is operated in the order of reverse, gear change, and forward. However, the driving assistance device according to an embodiment of the present invention can apply the same technical idea even if the vehicle is operated in a different order. Accordingly, further explanation on the case of moving to another operation scenario of the vehicle is omitted.

도 10 내지 도 12는 본 발명의 일 실시예에 따른 운전 보조 방법에 대한 흐름도이다. 여기서, 도 10은 스플리터가 조감도 영상의 중앙에 횡방향으로 설정될 때에 대한 흐름도를 나타내고, 도 11은 스플리터가 변속 레버의 위치에 따라 상부 또는 하부에 설정될 때에 대한 흐름도를 나타내며, 도 12는 차량의 이동 방향 및 이동 거리에 따라 스플리터가 슬라이딩 방식으로 이동될 때에 대한 흐름도를 나타낸다. 또한 위에서 설명된 것처럼 본 발명의 일 실시예에 따른 운전 보조 방법은 설정에 따라 차량에 장착된 2개의 카메라들 중 변속 레버의 위치에 따라 하나의 카메라만 선택적으로 동작시키거나, 또는 2개의 카메라들 모두를 동작시키는 것도 가능하다. 아래에서는 먼저, 변속 레버의 위치에 따라 2개의 카메라들 중 하나의 카메라만 선택적으로 동작하는 예시에 대해 설명된다. 또한, 아래에서는 차량이 차량의 후방 방향으로 이동하다가, 변속 레버의 위치가 변경되어 전방 방향으로 이동하는 상황을 가정하여 설명된다.10 to 12 are flowcharts of a driving assistance method according to an embodiment of the present invention. Fig. 10 shows a flow chart when the splitter is set in the lateral direction at the center of the bird's-eye view image, Fig. 11 shows a flow chart when the splitter is set at the upper portion or the lower portion according to the position of the shift lever, In which the splitter is moved in a sliding manner in accordance with the moving direction and the moving distance of the splitter. Also, as described above, the driving assist method according to one embodiment of the present invention may selectively operate only one camera according to the position of the shift lever among two cameras mounted on the vehicle according to the setting, It is also possible to operate all of them. First, an example in which only one of the two cameras is selectively operated according to the position of the shift lever will be described below. In the following description, it is assumed that the vehicle is moving in the rearward direction of the vehicle, and the position of the shift lever is changed to move in the forward direction.

S110 단계는 이미지 획득부에 의해, 제 1 카메라를 통해 촬영된 제 1 카메라 이미지를 획득하는 단계이다.Step S110 is a step of acquiring a first camera image photographed by the first camera by the image obtaining unit.

S120 단계는 조감도 이미지 생성부에 의해, tn 시점의 제 1 카메라 이미지를 시점 변환함으로써 tn 시점의 제 1 조감도 이미지를 생성하는 단계이다.S120 is a step for generating a first bird's-eye view image of a point in time t n, by transforming a first image of the camera, the time t n by the bird's eye view image generating unit time.

S130 단계는 이동 거리 산출부에 의해, 차량의 이동 거리를 산출하는 단계이다. S130 단계를 통해 산출된 이동 거리는 아래의 설명에서 언급되는 합성 조감도 이미지 생성에 이용될 수 있다.Step S130 is a step of calculating the moving distance of the vehicle by the moving distance calculating unit. The calculated moving distance through step S130 may be used to generate the composite bird's-eye image described in the following description.

S140 단계는 합성 조감도 이미지 생성부에 의해, tn 시점의 제 1 합성 조감도 이미지를 생성하는 단계이다. 구체적으로, S140 단계는 tn 시점의 제 1 조감도 이미지와 과거 시점의 제 1 조감도 이미지 또는 제 1 합성 조감도 이미지를 합성함으로써, tn 시점의 제 1 합성 조감도 이미지를 생성할 수 있다. 여기서, t1 시점의 경우, 차량이 이동하기 전 상황을 나타내므로, S140 단계를 통해 생성되는 제 1 합성 조감도 이미지는 S120 단계를 통해 생성된 제 1 조감도 이미지와 동일할 수 있다.S140 is a step for generating a first synthesized bird's-eye view image of a, t n time by the composite bird's eye view image generating unit. More specifically, step S140 may be synthesized by a first bird's-eye view image and the bird's eye view image of the first synthesized bird's-eye view or the first image of a past point in time t n, generating a first synthesized bird's-eye view image of a point in time t n. Here, in the case of the time t 1 , the first synthesized bird's-eye view image generated through step S140 may be the same as the first bird's-eye view image generated through step S120 since it represents the situation before the vehicle moves.

S150 단계는 화면 생성부에 의해, 출력 화면을 생성하고 생성한 출력 화면을 디스플레이 하는 단계이다. 여기서, 출력 화면은 조감도 영상 영역을 포함할 수 있다. 또한, 위에서 설명한 바와 같이, 출력 화면에는 스플리터 조정부에 의해 생성된 스플리터가 조감도 영상 영역의 중앙에 형성될 수 있다. 이에 따라, S140 단계를 통해 생성된 제 1 합성 조감도 이미지는 스플리터에 의해 구분된 제 1 조감도 영상 영역에 포함될 수 있다.In operation S150, the screen generating unit generates an output screen and displays the generated output screen. Here, the output screen may include a bird's-eye view image area. Further, as described above, the splitter generated by the splitter adjusting unit can be formed at the center of the bird's-eye view image area on the output screen. Accordingly, the first synthesized bird's-eye view image generated through step S140 may be included in the first bird's-eye view image area separated by the splitter.

S160 단계는 조작 정보 수집부에 의해, 변속 레버의 위치 정보를 수집하는 단계이다. 앞서 설명한 것처럼, 스플리터가 조감도 영상 영역의 중앙에 고정되고, 2개의 카메라 중 하나의 카메라만 이용될 경우, 변속 레버의 위치가 변경되기 전까지는 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지 중 하나의 합성 조감도 이미지만이 생성된다. 예를 들어, 도 7a의 예시와 같이 t1 내지 t3 시점까지는 차량의 변속 레버가 후진 기어에 위치하고, t4 시점에 변속 레버의 위치가 변경된다고 가정할 때, t1 내지 t3 시점까지는 S110 단계 내지 S130 단계의 반복 수행을 통해 제 1 조감도 영상 영역을 통해 제 1 합성 조감도 이미지가 출력될 것이다. 그리고 S160 단계를 통해 변속 레버의 위치가 변경된 것이 확인되면, 앞서 설명한 S110 단계 내지 S150 단계를 통해, 변속 레버의 위치가 변경되거나 또는 별도의 종료 요청이 있을 때까지 제 2 카메라를 통해 촬영된 제 2 카메라 이미지를 근거로, tn 시점의 제 2 조감도 이미지 및 제 2 합성 조감도 이미지를 생성하고, 생성한 tn 시점의 제 2 합성 조감도 이미지를 제 2 조감도 영상 영역을 통해 출력할 수 있다. 물론, 변속 레버의 위치가 다시 후진 기어에 위치하게 되면, 상술한 제 1 카메라 이미지를 이용한 제 1 합성 조감도 이미지의 생성 과정이 수행될 수 있다.Step S160 is a step of collecting position information of the shift lever by the operation information collecting unit. As described above, when the splitter is fixed to the center of the bird's-eye view image area and only one of the two cameras is used, the first synthesized bird's-eye view image and the second synthesized bird's-eye view image Only the composite bird's-eye view image is generated. For example, as in the example of Figure 7a t 1 to t 3 time until within the shift lever of the vehicle in reverse gear, assuming that the position of the shift lever changes to t 4 the time, t 1 to t to 3 point S110 The first synthesized bird's-eye view image will be output through the first bird's-eye view image region through the repetition of the steps S 130 to S 130. If it is confirmed in step S160 that the position of the shift lever has been changed, it is determined in step S110 through step S150 that the position of the shift lever is changed or the second It is possible to generate the second bird's-eye view image and the second synthesized bird's-eye view image at the time point t n based on the camera image, and output the second synthesized bird's-eye view image at the generated t n time point through the second bird's-eye view image area. Of course, when the position of the shift lever is again located in the reverse gear, a process of generating the first synthesized bird's-eye view image using the first camera image can be performed.

앞서 설명한 바와 같이, 본 발명의 일 실시예에 따른 운전 보조 방법은 2개의 카메라에서 촬영된 제 1 카메라 이미지 및 제 2 카메라 이미지를 동시에 고려하여 상술한 조감도 영상 영역을 생성하는 것도 가능하다. 이 경우, S110 단계는 tn 시점의 제 1 카메라 이미지와 제 2 카메라 이미지를 획득하는 과정을 수행하고, S120 단계는 tn 시점의 제 1 조감도 이미지와 제 2 조감도 이미지를 생성하는 단계를 수행하며, S140 단계는 차량의 이동 거리를 고려하여, 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지를 생성하는 과정을 수행할 수 있다. 이러한 단계들의 수행을 통해, 본 발명의 일 실시예에 따른 운전 보조 방법은 도 7b에 도시된 것처럼 2개의 카메라들 모두를 이용하여 조감도 영상 영역을 운전자에게 제공하는 것이 가능하다.As described above, the driving assistance method according to an embodiment of the present invention can simultaneously generate the bird's-eye view image region by simultaneously considering the first camera image and the second camera image captured by two cameras. In this case, step S110 is carried out the step of obtaining a first camera image and second camera image of a t n time, and step S120 is performed for generating a first bird's-eye view image and the second bird's-eye view image of a t n time, and , Step S140 may be performed to generate the first synthesized bird's-eye view image and the second synthesized bird's-eye view image in consideration of the moving distance of the vehicle. Through the execution of these steps, the driver assistance method according to an embodiment of the present invention can provide the driver with the bird's-eye view image region using all of the two cameras as shown in FIG. 7B.

이제, 도 11을 참조로 본 발명의 일 실시예에 따른 운전 보조 방법을 통해, 변속 레버의 위치에 따라 스플리터의 위치를 변경하는 방법에 대한 설명이 이루어진다. 도 10을 참조로 설명된 것처럼 본 발명의 일 실시예에 따른 운전 보조 방법은 설정에 따라 차량에 장착된 2개의 카메라들 중 변속 레버의 위치에 따라 하나의 카메라만 선택적으로 동작시키거나, 또는 2개의 카메라들 모두를 동작시키는 것도 가능하다. 아래에서는 먼저, 변속 레버의 위치에 따라 2개의 카메라들 중 하나의 카메라만 선택적으로 동작하는 예시에 대해 설명된다. 또한, 아래에서는 차량이 차량의 후방 방향으로 이동하다가, 변속 레버의 위치가 변경되어 전방 방향으로 이동하는 상황을 가정하여 설명된다.A method of changing the position of the splitter according to the position of the shift lever will now be described with reference to FIG. 11 through a driving assistance method according to an embodiment of the present invention. As described with reference to FIG. 10, the driving assistance method according to an embodiment of the present invention selectively operates only one camera according to the position of the shift lever among two cameras mounted on the vehicle according to the setting, It is also possible to operate all of the cameras. First, an example in which only one of the two cameras is selectively operated according to the position of the shift lever will be described below. In the following description, it is assumed that the vehicle is moving in the rearward direction of the vehicle, and the position of the shift lever is changed to move in the forward direction.

여기서, S210 단계 내지 S240 단계는 도 10에 도시된 S110 단계 내지 S140 단계와 실질적으로 동일한 과정이 수행되므로, 이에 대한 설명은 생략한다.Here, steps S210 to S240 are substantially the same as steps S110 to S140 shown in FIG. 10, so that a description thereof will be omitted.

S250 단계는 출력 화면을 생성하고, 이를 차량에 장착된 디스플레이부를 통해 디스플레이 하는 단계이다. 앞서 언급한 것처럼, S240 단계를 통해 tn 시점의 제 1 합성 조감도 이미지가 생성되고, 생성된 tn 시점의 제 1 합성 조감도 이미지는 조감도 영상 영역에 포함되어 운전자에게 제공될 수 있다. 여기서, 조감도 영상 영역은 앞서 설명된 바와 같이 스플리터 조정부에 의해 생성된 스플리터에 의해 제 1 조감도 영상 영역과 제 2 조감도 영상 영역이 구분될 수 있고, S240 단계를 통해 생성된 tn 시점의 제 1 합성 조감도 이미지는 제 1 조감도 영상 영역에 포함되어, 운전자에게 출력 화면이 제공될 수 있다. 또한, 스플리터의 위치는 차량의 변속 레버가 후진 기어에 위치하는 경우 조감도 영상 영역의 상부에 위치하고, 반대로 차량의 변속 레버가 주행 기어에 위치하는 경우, 스플리터의 위치는 조감도 영상 영역의 하부에 위치할 수 있다. 이러한 스플리터의 위치에 따라 각 조감도 영상 영역 즉, 제 1 조감도 영상 영역과 제 2 조감도 영상 영역은 서로 다른 크기를 갖게 된다. 즉, 동작되는 카메라를 통해 생성되는 합성 조감도 이미지가 출력되는 조감도 영상 영역이 다른 조감도 영상 영역에 비해 더 클 수 있다.In operation S250, an output screen is generated and displayed on a display unit mounted on the vehicle. As mentioned earlier, to be a first synthesized bird's-eye view image of a time point t n generated by the step S240, the first synthesized bird's-eye view image of the resulting n the time t is included in the bird's-eye view image area can be provided to the driver. Here, the bird's eye view image region may be a first bird's-eye view image region and the second bird's-eye view image region separated by the splitter, produced by the splitter adjuster, as previously described, the first synthesis of the resultant t n time through the S240 step The bird's-eye image is included in the first bird's-illustration image area, and an output screen can be provided to the driver. The position of the splitter is located above the bird's-eye view image area when the shift lever of the vehicle is located in the reverse gear. On the other hand, when the shift lever of the vehicle is located on the drive gear, the position of the splitter is located at the bottom of the bird's- . Each of the bird's-eye view image areas, that is, the first bird's-eye view image area and the second bird's-foot view image area have different sizes according to the position of the splitter. That is, the bird's-eye view image area in which the synthesized bird's-eye view image generated through the operated camera is output may be larger than other bird's-eye view image areas.

그 후, S260 단계 내지 S280 단계를 거쳐 변속 레버의 위치가 변경되었는지의 여부가 판단된다. S280 단계를 통한 판단 결과, 별도의 종료 요청이 존재하지 않고 변속 레버의 위치가 변경되지 않은 경우, S210 단계 내지 S250 단계를 통해 각 시점의 제 1 합성 조감도 이미지의 생성이 이루어지고, 생성된 제 1 합성 조감도 이미지를 제 1 조감도 영상 영역을 통해 운전자에게 제공할 수 있다(도 8a의 t1 내지 t3 시점 참조). 또한, S280 단계를 통한 판단 결과, 별도의 종료 요청이 존재하지 않고 변속 레버의 위치가 변경된 경우, 제어는 S290 단계로 전달된다. Thereafter, it is determined whether or not the position of the shift lever is changed through steps S260 to S280. As a result of the determination in step S280, if there is no separate termination request and the position of the shift lever is not changed, a first synthesized bird's-eye view image is generated at each time point through steps S210 to S250, The synthesized bird's-eye view image can be provided to the driver through the first bird's-eye view image area (see the point of time t 1 to t 3 in FIG. 8A). As a result of the determination in step S280, if there is no separate termination request and the position of the shift lever is changed, control is transferred to step S290.

S290 단계는 스플리터 조정부에 의해, 스플리터의 위치를 변경하는 단계이다. 즉, 스플리터의 위치가 조감도 영상 영역 중 상부에 위치한 상황이라면, S290 단계를 통해 스플리터의 위치는 조감도 영상 영역의 하부로 변경된다(도 8a의 t4 시점 참조). Step S290 is a step of changing the position of the splitter by the splitter adjusting unit. That is, if the position of the splitter is in the upper part of the bird's-eye view image area, the position of the splitter is changed to the lower part of the bird's-eye view image area through step S290 (see time point t 4 in FIG.

이 경우 제어는 다시 S210 단계로 전달되어 S210 단계 내지 S250 단계를 통해 제 2 카메라 이미지를 근거로 제 2 합성 조감도 이미지가 생성되고, 생성된 제 2 합성 조감도 이미지는 제 2 조감도 영상 영역을 통해 운전자에게 제공될 수 있다(도 8a의 t4 내지 t8 시점 참조).In this case, control is transferred again to step S210, and a second synthesized bird's-eye view image is generated based on the second camera image through steps S210 and S250, and the generated synthesized bird's-eye view image is transmitted to the driver through the second bird's- (See the time point t 4 to t 8 in FIG. 8A).

또한, 본 발명의 일 실시예에 따른 운전 보조 방법은 2개의 카메라에서 촬영된 제 1 카메라 이미지 및 제 2 카메라 이미지를 동시에 고려하여 상술한 조감도 영상 영역을 생성하는 것도 가능하다. 이 경우, S210 단계는 tn 시점의 제 1 카메라 이미지와 제 2 카메라 이미지를 획득하는 과정을 수행하고, S220 단계는 tn 시점의 제 1 조감도 이미지와 제 2 조감도 이미지를 생성하는 단계를 수행하며, S240 단계는 차량의 이동 거리를 고려하여, 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지를 생성하는 과정을 수행할 수 있다. 이러한 단계들의 수행을 통해, 본 발명의 일 실시예에 따른 운전 보조 방법은 도 8b에 도시된 것처럼 2개의 카메라들 모두를 이용하여 조감도 영상 영역을 운전자에게 제공하는 것이 가능하다. 또한, 1개의 카메라만 동작할 때와 마찬가지로, 스플리터의 위치는 변속 레버의 위치에 따라 결정될 수 있다.In addition, the driving assistance method according to an embodiment of the present invention can simultaneously generate the bird's-eye view image region by simultaneously considering the first camera image and the second camera image captured by two cameras. In this case, step S210 is carried out the step of obtaining a first camera image and second camera image of a t n time, and step S220 is performed for generating a first bird's-eye view image and the second bird's-eye view image of a t n time, and , Step S240 may be performed to generate the first synthesized bird's-eye view image and the second synthesized bird's-eye view image in consideration of the moving distance of the vehicle. Through the execution of these steps, it is possible to provide the driver with the bird's-eye view image region using all of the two cameras as shown in FIG. 8B, according to an embodiment of the present invention. Further, as in the case where only one camera is operated, the position of the splitter can be determined according to the position of the shift lever.

이제, 도 12를 참조로 본 발명의 일 실시예에 따른 운전 보조 방법을 통해, 변속 레버의 위치 즉, 차량의 이동 방향과 이동 거리에 따라 스플리터의 위치를 조정하는 방법에 대한 설명이 이루어진다. 도 10 및 도 11을 참조로 설명한 것과 마찬가지로, 본 발명의 일 실시예에 따른 운전 보조 방법은 설정에 따라 차량에 장착된 2개의 카메라들 중 변속 레버의 위치에 따라 하나의 카메라만 선택적으로 동작시키거나, 또는 2개의 카메라들 모두를 동작시키는 것도 가능하다. 아래에서는 먼저, 변속 레버의 위치에 따라 2개의 카메라들 중 하나의 카메라만 선택적으로 동작하는 예시에 대해 설명된다. 또한, 아래에서는 차량이 차량의 후방 방향으로 이동하고(t1 내지 t3 시점), 변속 레버의 위치가 변경되며(t4 시점), 그 이후에는 전방 방향으로 이동하는 상황(t5 시점 내지 t8 시점)을 가정하여 설명된다. Now, with reference to FIG. 12, a method of adjusting the position of the shift lever according to the position of the shift lever, that is, the moving direction and the moving distance of the vehicle, through the driving assistance method according to an embodiment of the present invention will be described. 10 and 11, according to the driving assistance method of the present invention, only one camera is selectively operated according to the position of the shift lever among the two cameras mounted on the vehicle according to the setting Or it is also possible to operate both cameras. First, an example in which only one of the two cameras is selectively operated according to the position of the shift lever will be described below. In the following the vehicle is moved to the rear direction of the vehicle (t 1 to t 3 time), the shift lever is positioned is changed (t 4 time), after which the situation (t 5 to move in the forward direction of time to t 8 time point).

S310 단계는 조작 정보 수집부에 의해, 변속 레버의 위치 정보를 수집하고, 이미지 획득부에 의해, 카메라 이미지를 획득하는 단계이다. 본 예시의 경우, 차량이 후진하는 상황을 가정하므로, S310 단계를 통해서는 제 1 카메라를 통해 촬영된 tn 시점의 제 1 카메라 이미지가 획득된다.Step S310 is a step of acquiring the position information of the shift lever by the operation information collecting unit and acquiring the camera image by the image obtaining unit. In the case of this example, it is assumed that the vehicle is moving backward, so that the first camera image at time point t n photographed through the first camera is obtained through step S310.

S320 단계는 조감도 이미지 생성부에 의해, 카메라 이미지를 시점 변환함으로써 조감도 이미지를 생성하는 단계이다. 본 예시의 경우, tn 시점의 제 1 카메라 이미지를 시점 변환함으로써 tn 시점의 제 1 조감도 이미지를 획득할 수 있다.In step S320, the bird's-eye view image generating unit generates a bird's-eye view image by performing a viewpoint conversion of the camera image. For this example, the first camera image of a point in time t n may obtain a first bird's-eye view image of the time t n by translating the point.

S330 단계는 이동 거리 산출부에 의해, 차량의 이동 거리를 산출하는 단계이다. S330 단계를 통해 산출된 이동 거리는 아래의 설명에서 언급되는 합성 조감도 이미지 생성에 이용될 수 있다.Step S330 is a step of calculating the moving distance of the vehicle by the moving distance calculating unit. The calculated moving distance through step S330 may be used to generate the composite bird's-eye image described in the following description.

S340 단계는 합성 조감도 이미지 생성부에 의해, tn 시점의 합성 조감도 이미지를 생성하는 단계이다. 구체적으로, S340 단계는 tn 시점의 1 조감도 이미지와 과거 시점의 조감도 이미지 또는 합성 조감도 이미지를 합성함으로써, tn 시점의 합성 조감도 이미지를 생성할 수 있다. 본 예시의 경우, 차량이 후진하는 상황을 가정하므로, S340 단계는 tn 시점의 제 1 조감도 이미지를 과거 시점의 제 1 조감도 이미지 또는 제 1 합성 조감도 이미지에 합성함으로써, tn 시점의 제 1 합성 조감도 이미지를 생성할 수 있다.Step S340 is a step of generating a composite bird's eye view image of a, t n time by the composite bird's eye view image generating unit. More specifically, step S340 is a bird's eye view image and the bird's eye view by synthesizing the first image or the synthesized bird's-eye view image of a past point in time t n, it is possible to produce a composite bird's eye view image of a point in time t n. So assuming a situation in which the case of this example, the vehicle backward, S340 step by synthesizing the first bird's-eye view image of a t n time of the first bird's-eye view image or the first synthesized bird's-eye view image of a past time, the first synthesis of the t n time A bird's-eye image can be generated.

S350 단계는 S330 단계를 통해 산출된 차량의 이동 거리와 S310 단계를 통해 획득된 차량의 이동 방향 정보를 근거로 아래에서 설명되는 출력 화면 내에 스플리터를 설정하는 단계이다. 도 11을 참조로 설명된 것과 유사하게, 스플리터의 위치는 차량이 후진하는 상황의 경우 조감도 영상 영역의 상부에 설정될 수 있다. 반대로, 차량이 전진하는 상황의 경우, 스플리터의 위치는 조감도 영상 영역의 하부에 설정될 수 있다. 본 예시의 경우, 차량이 후진하는 상황을 가정하므로, 스플리터는 조감도 영상 영역의 상부에 설정될 수 있다. Step S350 is a step of setting a splitter in the output screen described below based on the moving distance of the vehicle calculated in step S330 and the moving direction information of the vehicle obtained in step S310. Similar to that described with reference to Fig. 11, the position of the splitter can be set at the top of the bird's-eye view image area in a situation where the vehicle is moving backward. Conversely, in a situation where the vehicle advances, the position of the splitter can be set below the bird's-eye view image area. In this example, since the vehicle is assumed to be backward, the splitter can be set on top of the bird's-eye view image area.

S360 단계는 출력 화면 생성부에 의해, 출력 화면을 생성하고 출력 화면을 디스플레이부를 통해 출력하는 단계이다. S310 단계 내지 S360 단계는 사용자로부터 종료 요청이 존재할 때까지 반복적으로 수행되어 조감도 영상 영역을 운전자에게 제공할 수 있다.Step S360 is a step of generating an output screen by the output screen generating unit and outputting the output screen through the display unit. Steps S310 to S360 may be repeatedly performed until a termination request is received from the user to provide the bird's-eye view image region to the driver.

이제, 운전자가 변속 레버의 위치를 주행 기어로 변경한 상황을 가정한다(t4 시점). 이 경우, S310 단계에서는 변속 레버의 위치가 변경되었음을 확인하고, 제 1 카메라 이미지 대신, tn 시점의 제 2 카메라 이미지를 획득한다. 마찬가지로, S320 단계는 tn 시점의 제 2 조감도 이미지를 생성하며, S340 단계는 tn 시점의 제 2 합성 조감도 이미지를 생성한다. Now, it is assumed that the driver changes the position of the shift lever to a driving gear condition (the time t 4). In this case, in step S310 confirms that the position changes of the shift lever, the first image instead of the camera, and acquiring a second image of camera time t n. Similarly, step S320 generates a bird's eye view image of the second point in time t n, step S340 generates a second synthesized bird's-eye view image of a point in time t n.

S350 단계는 차량의 이동 거리와 이동 방향을 근거로 스플리터의 위치를 조정한다. 여기서, t4 시점의 경우, 차량의 이동 방향은 변경되었으나, 아직 차량이 이동된 상황은 아니므로 스플리터의 위치는 t3 시점과 동일하게 유지된다. 또한, t4 시점의 경우, 새롭게 제 2 합성 조감도 이미지가 생성되고, 제 1 합성 조감도 이미지는 t1 시점 내지 t3 시점에 생성된 이미지가 존재하므로, S360 단계를 통해 운전자에게 제공되는 조감도 영상 영역에는 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지가 함께 운전자에게 제공될 수 있다.In step S350, the position of the splitter is adjusted based on the moving distance and the moving direction of the vehicle. Here, in the case of the time t 4 , the moving direction of the vehicle is changed, but the position of the splitter is maintained at the same time as the time t 3 since the vehicle is not yet moved. In the case of the t4 time, a new second synthesized bird's-eye view image is generated, the first composite bird's eye view image is t 1, the time to t so 3 that the image generated at the time of presence, a bird's eye view image region that is provided to the driver through the S360 step, The first synthesized bird's-eye view image and the second synthesized bird's-eye view image can be provided together to the driver.

또한, t4 이후부터는 차량이 이동하면서, 차량의 이동 거리가 계산될 수 있다. 이에 따라, S350 단계를 통해 설정되는 스플리터의 위치는 차량의 움직임에 따라 하부 방향으로 이동되면서 설정될 수 있다.In addition,, the moving distance of the vehicle can be calculated as t 4 the vehicle is moving thereafter. Accordingly, the position of the splitter set through step S350 can be set while moving in the downward direction according to the movement of the vehicle.

또한, 본 발명의 일 실시예에 따른 운전 보조 방법은 2개의 카메라에서 촬영된 제 1 카메라 이미지 및 제 2 카메라 이미지를 동시에 고려하여 상술한 조감도 영상 영역을 생성하는 것도 가능하다. 이 경우, S310 단계는 tn 시점의 제 1 카메라 이미지와 제 2 카메라 이미지를 획득하는 과정을 수행하고, S320 단계는 tn 시점의 제 1 조감도 이미지와 제 2 조감도 이미지를 생성하는 단계를 수행하며, S340 단계는 차량의 이동 거리를 고려하여, 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지를 생성하는 과정을 수행할 수 있다. 그 외 나머지 부분에 대한 설명은 앞서 설명된 부분과 그 내용이 동일하므로, 중복되는 설명은 생략한다.In addition, the driving assistance method according to an embodiment of the present invention can simultaneously generate the bird's-eye view image region by simultaneously considering the first camera image and the second camera image captured by two cameras. In this case, step S310 is carried out the step of obtaining a first camera image and second camera image of a t n time point, S320 step is performed the step of generating a first bird's-eye view image and the second bird's-eye view image of a t n time, and , Step S340 may be performed to generate the first synthesized bird's-eye view image and the second synthesized bird's-eye view image in consideration of the moving distance of the vehicle. The other parts are the same as those described above, so duplicate explanations are omitted.

위의 설명에서 본 발명의 일 실시예에 따른 운전 보조 방법은 조감도 영상 영역 내에 미리 스플리터를 설정하고, 스플리터를 통해 구분된 조감도 영상 영역에 각각 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지 중 적어도 하나를 포함시키는 것으로 설명되었다. 다만, 이러한 방식의 경우, 2개의 카메라들 중 하나의 카메라만이 선택적으로 동작할 때, 조감도 영상 영역 중 최상부 또는 최하부 영역이 미표현 영역으로 출력되는 문제가 존재한다. 이에 따라, 본 발명의 일 실시예에 따른 운전 보조 방법은 위에서 도 9a 및 도 9b를 참조로 설명한 것처럼 차량의 이동 방향이 변경되고(즉, 변속 기어의 위치가 변경되고), 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지 간 중첩 영역이 발생할 때, 해당 중첩 영역에 스플리터를 설정하는 것도 가능하다. 이에 대한 설명은 도 9a 및 도 9b를 참조로 상세히 언급하였으므로, 중복되는 설명은 생략한다. In the driving assistance method according to an embodiment of the present invention, a splitter is set in advance in the bird's-eye view image region, and at least one of the first synthesized bird's-eye view image and the second synthesized bird's eye view image is divided into the bird's- . However, in this method, when only one of the two cameras operates selectively, the uppermost or lowermost region of the bird's-eye view image region is output to the unexpressed region. Accordingly, the driving assisting method according to an embodiment of the present invention is a driving assisting method according to the first embodiment of the present invention, in which the moving direction of the vehicle is changed (that is, the position of the shift gear is changed) as described above with reference to FIGS. 9A and 9B, And the second synthesized bird's-eye view image occurs, it is also possible to set the splitter in the overlap area. 9A and 9B, detailed description thereof will be omitted.

또한, 앞서 언급한 바와 같이 본 발명의 일 실시예에 따른 운전 보조 방법은 스플리터를 중심으로 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지가 겹치는 영역을 블랜딩 처리하는 단계를 더 포함할 수 있다. 이는 위에서 언급된 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지 간 겹치는 영역에 의한 이질감을 보다 감소시키기 위함이다. 물론, 이러한 블랜딩 처리 외에도, 본 발명의 일 실시예에 따른 운전 보조 방법은 스플리터를 중심으로 제 1 합성 조감도 이미지와 제 2 합성 조감도 이미지 간 겹치는 영역에 미리 설정된 색상 톤을 적용시키는 단계를 더 포함하는 것도 가능하다.In addition, as described above, the driving assistance method according to an embodiment of the present invention may further include blending an area where the first synthesized bird's-eye view image and the second synthesized bird's-eye view image overlap with each other with the splitter as the center. This is to further reduce the sense of heterogeneity due to the overlapping area between the first synthesized bird's-eye view image and the second synthesized bird's-eye view image described above. Of course, in addition to the blending process, the driving assistance method according to an embodiment of the present invention further includes applying a preset color tone to an overlapping area between the first synthesized bird's-eye view image and the second synthesized bird's-eye view image, It is also possible.

이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, an optimal embodiment has been disclosed in the drawings and specification. Although specific terms have been employed herein, they are used for purposes of illustration only and are not intended to limit the scope of the invention as defined in the claims or the claims. Therefore, those skilled in the art will appreciate that various modifications and equivalent embodiments are possible without departing from the scope of the present invention. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

100 : 운전 보조 장치 110 : 저장부
120 : 이미지 획득부 130 : 조감도 이미지 생성부
140 : 합성 조감도 이미지 생성부
150 : 화면 생성부 160 : 조작 정보 수집부
170 : 스플리터 조정부 180 : 이동 거리 산출부
100: driving assist device 110:
120: image obtaining unit 130: bird's-eye view image generating unit
140: Composite bird's-eye view image generating unit
150: Screen generating unit 160: Operation information collecting unit
170: splitter adjusting unit 180: moving distance calculating unit

Claims (23)

제 1 카메라 및 제 2 카메라가 장착된 차량에 적용되어, 차량의 운전을 보조하는 장치로서,
상기 제 1 카메라를 통해 촬영된 제 1 카메라 이미지와, 상기 제 2 카메라를 통해 촬영된 제 2 카메라 이미지를 저장하는 저장부; 및
제 1 카메라 이미지를 근거로 생성된 제 1 합성 조감도 이미지가 포함되는 제 1 조감도 영상 영역과 제 2 카메라 이미지를 근거로 생성된 제 2 합성 조감도 이미지가 포함되는 제 2 조감도 영상 영역을 포함하는 조감도 영상 영역을 포함하는 출력 화면을 생성하는 화면 생성부를 포함하고,
상기 출력 화면에 상기 제 1 조감도 영상 영역과 상기 제 2 조감도 영상 영역을 분리하는 스플리터를 설정하는 스플리터 조정부를 더 포함하고,
상기 스플리터 조정부는 상기 차량의 변속 레버의 위치 정보 및 이동 거리에 따라 상기 스플리터의 위치를 실시간으로 조정하는 것을 특징으로 하는 운전 보조 장치.
An apparatus for assisting the driving of a vehicle, the apparatus being applied to a vehicle equipped with a first camera and a second camera,
A storage unit for storing a first camera image captured through the first camera and a second camera image captured through the second camera; And
A bird's-eye view image including a first bird's-eye view image area including a first synthesized bird's-eye view image generated based on the first camera image and a second bird's-eye view image area including a second synthesized bird's-eye view image generated based on the second camera image And a screen generation unit for generating an output screen including the area,
Further comprising a splitter adjusting unit for setting a splitter for separating the first bird's-eye view image region and the second bird's-eye view image region from the output screen,
Wherein the splitter adjusting unit adjusts the position of the splitter in real time according to the position information and the moving distance of the shift lever of the vehicle.
제1항에 있어서,
상기 스플리터 조정부는 상기 제 1 합성 조감도 이미지와 상기 제 2 합성 조감도 이미지 간 중첩되는 부분에 상기 스플리터를 추가하는 것을 특징으로 하는 운전 보조 장치.
The method according to claim 1,
Wherein the splitter adjustment unit adds the splitter to a portion where the first composite bird's-eye view image and the second composite bird's-eye view image overlap each other.
제1항에 있어서,
상기 스플리터는 두께가 있는 선의 형상을 갖고, 상기 스플리터의 양 측은 상기 조감도 영상 영역을 이루는 변들 중 서로 대향하는 2개의 변들에 연결되는 것을 특징으로 하는 운전 보조 장치.
The method according to claim 1,
Wherein the splitter has a shape of a thick line and both sides of the splitter are connected to two opposite sides of sides of the bird's-eye view image region.
제1항에 있어서,
상기 제 1 조감도 영상 영역의 크기와 상기 제 2 조감도 영상 영역의 크기는 상기 조감도 영상 영역 내에서 상기 스플리터의 위치에 따라 달라지는 것을 특징으로 하는 운전 보조 장치.
The method according to claim 1,
Wherein the size of the first bird's-eye view image region and the size of the second bird's-eye view image region vary depending on the position of the splitter in the bird's-eye view image region.
제4항에 있어서,
변속 레버의 위치 정보를 획득하는 조작 정보 수집부를 더 포함하는 것을 특징으로 하는 운전 보조 장치.
5. The method of claim 4,
Further comprising an operation information collecting unit for acquiring position information of the shift lever.
제5항에 있어서,
차량의 이동 거리를 산출하는 이동 거리 산출부를 더 포함하는 것을 특징으로 하는 운전 보조 장치.
6. The method of claim 5,
Further comprising a movement distance calculating section for calculating a movement distance of the vehicle.
삭제delete 제1항에 있어서,
상기 스플리터 조정부는 상기 변속 레버가 후진 기어에 위치할 때, 상기 스플리터를 상기 조감도 영상 영역내의 상부에 위치시키는 것을 특징으로 하는 운전 보조 장치.
The method according to claim 1,
Wherein the splitter adjustment unit positions the splitter at an upper portion in the bird's-eye view image area when the shift lever is positioned in the reverse gear.
제8항에 있어서,
상기 스플리터 조정부는 상기 변속 레버가 주행 기어에 위치할 때, 상기 스플리터를 상기 조감도 영상 영역내의 하부에 위치시키는 것을 특징으로 하는 운전 보조 장치.
9. The method of claim 8,
Wherein the splitter adjustment unit positions the splitter at a lower portion in the bird's-eye view image area when the shift lever is positioned in the traveling gear.
제1항에 있어서,
상기 스플리터 조정부는 상기 조감도 영상 영역의 중앙에 상기 스플리터를 위치시키는 것을 특징으로 하는 운전 보조 장치.
The method according to claim 1,
Wherein the splitter adjustment unit positions the splitter at the center of the bird's-eye view image area.
제1항에 있어서,
tn 시점의 제 1 카메라 이미지를 시점 변환함으로써 tn 시점의 제 1 조감도 이미지를 생성하는 조감도 이미지 생성부; 및
차량의 이동 정보를 획득하고, 차량의 이동 정보에 따라 과거 시점에 생성된 제 1 합성 조감도 이미지에 상기 tn 시점의 제 1 조감도 이미지를 합성함으로써 tn 시점의 제 1 합성 조감도 이미지를 생성하는 합성 조감도 이미지 생성부를 더 포함하는 것을 특징으로 하는 운전 보조 장치.
The method according to claim 1,
t n t n the first bird's-eye view image generation unit for generating a first bird's-eye view image at the time of conversion by the camera image point in time; And
Synthesis of acquiring movement information of the vehicle, generating a first synthesized bird's-eye view image of a t n time point according to the movement information of the vehicle by combining the first bird's-eye view image of the t n time in the first synthesis bird's eye view image generated in the past time point And a bird's eye view image generating unit.
제11항에 있어서,
상기 조감도 이미지 생성부는 tn 시점의 제 2 카메라 이미지를 시점 변환함으로써 tn 시점의 제 2 조감도 이미지를 더 생성하고,
상기 합성 조감도 이미지 생성부는 차량의 이동 정보에 따라 과거 시점에 생성된 제 2 합성 조감도 이미지에 상기 tn 시점의 제 2 조감도 이미지를 합성함으로써 tn 시점의 제 2 합성 조감도 이미지를 더 생성하는 것을 특징으로 하는 운전 보조 장치.
12. The method of claim 11,
The bird's eye view image generating unit further generates a second n t bird's eye view image of the second point in time t n by the camera image transformation point in time,
Characterized by further generate a second synthesized bird's-eye view image of a t n time point by synthesizing the bird's eye image of the second synthesized bird's-eye view the t n time of the image generated in the past time according to the movement information of the synthesized bird's-eye view image generation unit vehicle .
제11항에 있어서,
상기 합성 조감도 이미지 생성부는 상기 차량이 후진 상태일 때 tn 시점의 제 1 합성 조감도 이미지를 생성하고,
상기 화면 생성부는 상기 차량이 후진 상태일 때 상기 제 1 조감도 영상 영역에 tn 시점의 제 1 합성 조감도 이미지를 포함시키되, 상기 제 2 조감도 영상 영역에는 과거 시점에 생성된 제 2 합성 조감도 이미지를 포함시키는 것을 특징으로 하는 운전 보조 장치.
12. The method of claim 11,
Wherein the synthesized bird's-eye-view image generating unit generates a first synthesized bird's-eye view image at a time t n when the vehicle is in a reverse state,
Wherein the screen generating unit includes a first synthesized bird's-eye view image at a time point t n in the first bird's-eye view image area when the vehicle is in a reverse state, and a second synthesized bird's-eye view image generated at a time point in the second bird's- Wherein the driving assist device comprises:
제11항에 있어서,
상기 합성 조감도 이미지 생성부는 상기 차량이 전진 상태일 때 tn 시점의 제 2 합성 조감도 이미지를 생성하고,
상기 화면 생성부는 상기 차량이 전진 상태일 때 상기 제 2 조감도 영상 영역에 tn 시점의 제 2 합성 조감도 이미지를 포함시키되, 상기 제 1 조감도 영상 영역에는 과거 시점에 생성된 제 1 합성 조감도 이미지를 포함시키는 것을 특징으로 하는 운전 보조 장치.
12. The method of claim 11,
Wherein the synthesized bird's-eye-view image generating unit generates a second synthesized bird's-eye view image at a time t n when the vehicle is in the advanced state,
Wherein the screen generating unit includes a second synthesized bird's-eye view image at a time point t n in the second bird's-eye view image area when the vehicle is advanced, and the first synthesized bird's-eye view image generated in the past time point is included in the first bird's- Wherein the driving assist device comprises:
제11항에 있어서,
상기 차량이 후진 상태일 때 상기 합성 조감도 이미지 생성부는 tn 시점의 제 1 합성 조감도 이미지를 생성하고, 상기 조감도 이미지 생성부는 tn 시점의 제 2 합성 조감도 이미지를 생성하며,
상기 화면 생성부는 상기 차량이 후진 상태일 때 상기 제 1 조감도 영상 영역에 tn 시점의 제 1 합성 조감도 이미지를 포함시키되, 상기 제 2 조감도 영상 영역에는 tn 시점의 제 2 조감도 이미지를 포함시키는 것을 특징으로 하는 운전 보조 장치.
12. The method of claim 11,
Wherein the vehicle is generating a first synthesized bird's-eye view image of a point in time t n the composite bird's eye view image generating unit when the backward state, and generating a second synthesized bird's-eye view image of the bird's eye view image generating unit time point t n,
Wherein the screen generating unit includes a first synthesized bird's-eye view image at a time point t n in the first bird's-eye view image area when the vehicle is in a reverse state, and includes a second bird's-eye view image at a time t n in the second bird's- Features a driving assistance device.
제11항에 있어서,
상기 차량이 전진 상태일 때 상기 합성 조감도 이미지 생성부는 tn 시점의 제 2 합성 조감도 이미지를 생성하고, 상기 조감도 이미지 생성부는 tn 시점의 제 1 합성 조감도 이미지를 생성하며,
상기 화면 생성부는 상기 차량이 전진 상태일 때 상기 제 2 조감도 영상 영역에 tn 시점의 제 2 합성 조감도 이미지를 포함시키되, 상기 제 1 조감도 영상 영역에는 tn 시점의 제 1 조감도 이미지를 포함시키는 것을 특징으로 하는 운전 보조 장치.
12. The method of claim 11,
Wherein the vehicle is generating a second synthesized bird's-eye view image of the composite bird's eye view image generating unit time t n when the forward state, generating a first synthesized bird's-eye view image of the bird's eye view image generating unit time point t n,
Wherein the screen generating unit includes a second synthesized bird's-eye view image at a time point t n in the second bird's-eye view image area when the vehicle is in a forward state, and includes a first bird's-eye view image at a time t n in the first bird's- Features a driving assistance device.
제 1 카메라 및 제 2 카메라가 장착된 차량에 적용되어, 차량의 운전을 보조하는 방법으로서,
화면 생성부에 의해, 제 1 카메라 이미지를 근거로 생성된 제 1 합성 조감도 이미지가 포함되는 제 1 조감도 영상 영역과 제 2 카메라 이미지를 근거로 생성된 제 2 합성 조감도 이미지가 포함되는 제 2 조감도 영상 영역을 포함하는 조감도 영상 영역을 포함하는 출력 화면을 생성하는 단계를 포함하고,
스플리터 조정부에 의해, 상기 출력 화면에 상기 제 1 조감도 영상 영역과 상기 제 2 조감도 영상 영역을 분리하는 스플리터를 설정하는 단계; 및
상기 스플리터 조정부에 의해, 상기 차량의 변속 레버의 위치 정보 및 이동 거리에 따라 상기 스플리터의 위치를 실시간으로 조정하는 단계를 더 포함하는 것을 특징으로 하는 운전 보조 방법.
A method of assisting the driving of a vehicle, the method being applied to a vehicle equipped with a first camera and a second camera,
The second bird's-eye view image including the first bird's-eye view image area including the first synthesized bird's-eye view image generated based on the first camera image and the second synthesized bird's-eye view image generated based on the second camera image, Generating an output screen including a bird's-eye image area including an area,
Setting a splitter for separating the first bird's-eye view image region and the second bird's-eye-view image region from the output screen by a splitter adjusting unit; And
And adjusting the position of the splitter in real time according to the positional information and the moving distance of the shift lever of the vehicle by the splitter adjusting unit.
제17항에 있어서,
상기 스플리터를 설정하는 단계는 상기 제 1 합성 조감도 이미지와 상기 제 2 합성 조감도 이미지 간 중첩되는 부분에서 이루어지는 것을 특징으로 하는 운전 보조 방법.
18. The method of claim 17,
Wherein the step of setting the splitter comprises a step of overlapping the first composite bird's-eye view image and the second composite bird's-eye view image.
제17항에 있어서,
상기 스플리터를 설정하는 단계는 상기 조감도 영상 영역의 중앙에서 이루어지는 것을 특징으로 하는 운전 보조 방법.
18. The method of claim 17,
Wherein the step of setting the splitter is performed at a center of the bird's-eye view image region.
제17항에 있어서,
상기 제 1 조감도 영상 영역의 크기와 상기 제 2 조감도 영상 영역의 크기는 상기 조감도 영상 영역 내에서 상기 스플리터의 위치에 따라 달라지는 것을 특징으로 하는 운전 보조 방법.
18. The method of claim 17,
Wherein the size of the first bird's-eye view image region and the size of the second bird's-eye view image region vary according to the position of the splitter in the bird's-eye view image region.
제20항에 있어서,
조작 정보 수집부에 의해, 변속 레버의 위치 정보를 획득하는 단계를 더 포함하는 것을 특징으로 하는 운전 보조 방법.
21. The method of claim 20,
Further comprising the step of acquiring positional information of the shift lever by the operation information collecting unit.
제21항에 있어서,
이동 거리 산출부에 의해, 차량의 이동 거리를 산출하는 단계를 더 포함하는 것을 특징으로 하는 운전 보조 방법.
22. The method of claim 21,
Further comprising a step of calculating a moving distance of the vehicle by the moving distance calculating unit.
삭제delete
KR1020160151870A 2016-11-15 2016-11-15 Apparatus and method for supporting driving of vehicle KR101949961B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160151870A KR101949961B1 (en) 2016-11-15 2016-11-15 Apparatus and method for supporting driving of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160151870A KR101949961B1 (en) 2016-11-15 2016-11-15 Apparatus and method for supporting driving of vehicle

Publications (2)

Publication Number Publication Date
KR20180054212A KR20180054212A (en) 2018-05-24
KR101949961B1 true KR101949961B1 (en) 2019-02-21

Family

ID=62299126

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160151870A KR101949961B1 (en) 2016-11-15 2016-11-15 Apparatus and method for supporting driving of vehicle

Country Status (1)

Country Link
KR (1) KR101949961B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013253426A (en) * 2012-06-07 2013-12-19 Hitachi Constr Mach Co Ltd Display device for self-propelled industrial machine

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101393918B1 (en) * 2008-07-08 2014-05-13 현대자동차주식회사 A vehicle around view monitorring system
KR101670847B1 (en) 2014-04-04 2016-11-09 주식회사 와이즈오토모티브 Apparatus and method for peripheral image generation of vehicle
KR101611194B1 (en) * 2014-04-04 2016-04-11 주식회사 와이즈오토모티브 Apparatus and method for peripheral image generation of vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013253426A (en) * 2012-06-07 2013-12-19 Hitachi Constr Mach Co Ltd Display device for self-propelled industrial machine

Also Published As

Publication number Publication date
KR20180054212A (en) 2018-05-24

Similar Documents

Publication Publication Date Title
JP7397262B2 (en) 3D rendering for surround views using predefined viewpoint lookup tables
US7554461B2 (en) Recording medium, parking support apparatus and parking support screen
JP5436086B2 (en) Vehicle periphery image display device and vehicle periphery image display method
WO2018012299A1 (en) Image generation device, image generation method, and program
EP2763407B1 (en) Vehicle surroundings monitoring device
JP4907883B2 (en) Vehicle periphery image display device and vehicle periphery image display method
WO2013175684A1 (en) Vehicle surroundings image display control device, vehicle surroundings image display control method, non-transitory tangible computer-read medium comprising command containing said method, and image processing method effecting top-view conversion and display of image of vehicle surroundings
JP5182042B2 (en) Image processing apparatus, image processing method, and computer program
JP6095985B2 (en) Playback apparatus, playback system, playback method, and program
WO2012172923A1 (en) Vehicle periphery monitoring device
WO2012096058A1 (en) Image generating device
WO2012169355A1 (en) Image generation device
JP5516998B2 (en) Image generation device
JP3663801B2 (en) Vehicle rear view support device
JP5669791B2 (en) Moving object peripheral image display device
JP2006287892A (en) Driving support system
JP5495071B2 (en) Vehicle periphery monitoring device
JP2008236403A (en) Driving support device for vehicle
WO2015133072A1 (en) Vehicle peripheral image display device and method for displaying vehicle peripheral image
KR101861523B1 (en) Apparatus and method for supporting driving of vehicle
JP2011155651A (en) Apparatus and method for displaying vehicle perimeter image
JP2007110177A (en) Image processing apparatus and program
KR101949961B1 (en) Apparatus and method for supporting driving of vehicle
KR101378337B1 (en) Apparatus and method for processing image of camera
JP2007096496A (en) Vehicle periphery display system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right