KR102235951B1 - Imaging Apparatus and method for Automobile - Google Patents

Imaging Apparatus and method for Automobile Download PDF

Info

Publication number
KR102235951B1
KR102235951B1 KR1020190073722A KR20190073722A KR102235951B1 KR 102235951 B1 KR102235951 B1 KR 102235951B1 KR 1020190073722 A KR1020190073722 A KR 1020190073722A KR 20190073722 A KR20190073722 A KR 20190073722A KR 102235951 B1 KR102235951 B1 KR 102235951B1
Authority
KR
South Korea
Prior art keywords
image
vehicle
wide
output
images
Prior art date
Application number
KR1020190073722A
Other languages
Korean (ko)
Other versions
KR20190075034A (en
Inventor
김영근
성민제
이완희
오병윤
김성진
이현제
Original Assignee
주식회사 아이닉스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이닉스 filed Critical 주식회사 아이닉스
Priority to KR1020190073722A priority Critical patent/KR102235951B1/en
Publication of KR20190075034A publication Critical patent/KR20190075034A/en
Application granted granted Critical
Publication of KR102235951B1 publication Critical patent/KR102235951B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • H04N5/2257
    • H04N5/247
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 사용자의 선택, 차량의 주행 상태, 운전자의 운전 상태 등에 따라 차량 주변 및 차량 내부의 영상을 화면에 나타내도록 할 수 있는 차량용 영상 생성 장치 및 방법에 관한 것으로, 본 발명에 따른 차량용 영상 생성 장치는 차량에 부착되는 복수의 광각 카메라를 포함하는 다중 카메라부, 복수의 영상 생성 코어 및 영상합성부를 포함하고, 상기 복수의 영상 생성 코어의 각각은 상기 광각 카메라에서 촬영한 영상들 중의 하나를 입력 영상으로 하고, 설정된 파라미터에 따른 시점을 가지는 가상 카메라를 모델링하고, 상기 입력 영상으로부터 상기 가상 카메라의 시점에서 보여지는 영상을 생성하여 출력하고, 상기 영상합성부는 상기 복수의 영상 생성 코어에서 출력하는 영상을 설정된 화면 구성에 따라 합성하여 출력 영상을 생성하는 영상생성부, 상기 복수의 영상 생성 코어의 각 영상 생성 코어가 영상을 생성하기 위하여 필요한 상기 가상 카메라의 시점을 포함하는 파라미터를 설정하고, 상기 영상합성부에서의 영상 합성을 위한 상기 화면 구성을 설정하는 처리부 및 상기 영상생성부에서 생성한 상기 출력 영상을 출력하는 화면부를 포함할 수 있다.
본 발명에 의하면, 복수의 광각 카메라를 이용하여 차량 주변 및/또는 실내 영상을 촬영하여, 운전자가 안전하게 주행할 수 있도록 하는 다양한 형태의 영상을 생성하여 제공할 수 있고, 또한 차량의 주행 속도나 주행 방향에 맞추어 필요한 영상을 자동으로 생성하여 운전자에게 제공함으로써 운전의 편의성 및 안전성 향상에 도움을 줄 수 있을 것이다.
The present invention relates to a vehicle image generating apparatus and method capable of displaying images around a vehicle and inside a vehicle on a screen according to a user's selection, a driving state of a vehicle, a driver's driving state, etc., and a vehicle image generation according to the present invention The device includes a multi-camera unit including a plurality of wide-angle cameras attached to the vehicle, a plurality of image generating cores, and an image synthesizing unit, and each of the plurality of image generating cores inputs one of images captured by the wide-angle camera. As an image, a virtual camera having a viewpoint according to a set parameter is modeled, an image viewed from the viewpoint of the virtual camera is generated and output from the input image, and the image synthesizing unit is an image output from the plurality of image generating cores. An image generation unit that generates an output image by synthesizing according to a set screen configuration, each image generation core of the plurality of image generation cores sets a parameter including a viewpoint of the virtual camera required to generate an image, and the image It may include a processing unit for setting the screen configuration for image synthesis in the synthesis unit and a screen unit for outputting the output image generated by the image generation unit.
According to the present invention, by using a plurality of wide-angle cameras to capture the surrounding and/or indoor images of the vehicle, it is possible to generate and provide various types of images that enable the driver to safely drive, and also the driving speed or driving of the vehicle. It will be possible to help improve driving convenience and safety by automatically generating necessary images according to the direction and providing them to the driver.

Description

차량용 영상 생성 장치 및 방법 {Imaging Apparatus and method for Automobile}Vehicle image generation apparatus and method {Imaging Apparatus and method for Automobile}

본 발명은 차량용 영상 생성 장치 및 방법에 관한 것으로, 더욱 자세하게는 사용자의 선택, 차량의 주행 상태, 운전자의 운전 상태 등에 따라 차량 주변 및 차량 내부의 영상을 화면에 나타내도록 할 수 있는 차량용 영상 생성 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for generating an image for a vehicle, and more particularly, an apparatus for generating an image for a vehicle capable of displaying images around a vehicle and inside the vehicle according to a user's selection, a driving state of a vehicle, a driver's driving state, etc. And a method.

차량의 안전 운행을 위하여는 운전자가 주변 상황을 인지하고 판단하는 것이 반드시 필요하다. 이를 위하여 차량의 전면은 운전자의 시야를 가능한 한 확보할 수 있도록 설계되고 있으며, 운전자가 바로 볼 수 없는 측방 및 후방의 시야를 확보하기 위하여 사이드미러나 백 미러를 차량의 좌/우 및 실내에 두고 있다. 하지만, 이러한 종래의 거울에 의한 후/측방 인지에는 운전자가 볼 수 없는 상당한 사각지대가 존재하고 있으며 이는 사고를 유발할 수 있는 가능성을 내재하고 있다. For the safe operation of the vehicle, it is necessary for the driver to recognize and judge the surrounding situation. To this end, the front of the vehicle is designed to secure the driver's view as much as possible, and side mirrors or rearview mirrors are placed in the left/right and interior of the vehicle to secure side and rear views that the driver cannot see immediately. have. However, in the conventional rear/side recognition by a mirror, there is a considerable blind spot that the driver cannot see, and this has an inherent possibility of causing an accident.

이러한 문제점을 해결하고, 차량의 미관을 사이드미러를 없애고 카메라를 이용하여 후방이나 측방의 영상을 확보하고 이를 운전자에게 보여주는 특허(한국 등록특허 10-1486670호, 10-1660806호)가 제시되고 있지만 그 적용이 사이드미러의 대체제나 보완제로만 한정되어 있다. Patents (Korean Patent Registration Nos. 10-1486670, 10-1660806) have been proposed to solve these problems, remove the side mirrors, and use a camera to obtain rear or side images and show them to the driver. Its application is limited to a side mirror substitute or supplement.

[1] KR10-1486670, '디지털 카메라 사이드미러,' 등록일: 2015년 1월 20일[1] KR10-1486670,'Digital camera side mirror,' Registration date: January 20, 2015 [2] KR10-1660806, '차량의 측후방 시야 확보를 위한 시스템,' 등록일 2016년 9월 22일[2] KR10-1660806,'System for securing side and rear view of vehicle,' registration date September 22, 2016

본 발명의 목적은 사용자에게 차량 주변 및 내부의 상황을 빠르게 인지시키기 위하여, 사용자의 선택, 차량의 주행 상태, 운전자의 운전 상태 등에 따라 차량 주변 및/또는 내부의 영상을 디스플레이하도록 할 수 있는 주행감응형 차량용 영상 생성 장치 및 방법을 제공함에 있다.It is an object of the present invention to display images around and/or inside the vehicle according to the user's selection, the driving state of the vehicle, the driving state of the driver, etc. in order to quickly recognize the situation around and inside the vehicle to the user. It is to provide an apparatus and method for generating an image for a type vehicle.

전술한 목적을 달성하기 위한 본 발명에 따른 차량용 영상 생성 장치는 차량에 부착되는 복수의 광각 카메라를 포함하는 다중 카메라부, 복수의 영상 생성 코어 및 영상합성부를 포함하고, 상기 복수의 영상 생성 코어의 각각은 상기 광각 카메라에서 촬영한 영상들 중의 하나를 입력 영상으로 하고, 설정된 파라미터에 따른 시점을 가지는 가상 카메라를 모델링하고, 상기 입력 영상으로부터 상기 가상 카메라의 시점에서 보여지는 영상을 생성하여 출력하고, 상기 영상합성부는 상기 복수의 영상 생성 코어에서 출력하는 영상을 설정된 화면 구성에 따라 합성하여 출력 영상을 생성하는 영상생성부, 상기 복수의 영상 생성 코어의 각 영상 생성 코어가 영상을 생성하기 위하여 필요한 상기 가상 카메라의 시점을 포함하는 파라미터를 설정하고, 상기 영상합성부에서의 영상 합성을 위한 상기 화면 구성을 설정하는 처리부 및 상기 영상생성부에서 생성한 상기 출력 영상을 출력하는 화면부를 포함할 수 있다. 이에 더하여 상기 차량의 주행 상태 정보를 획득하는 차량 센서부 및/또는 사용자로부터 상기 출력 영상을 생성하기 위한 설정 정보 및/또는 요구사항을 입력받는 입력부를 더 포함하고, 상기 처리부는 상기 입력부를 통해 입력된 설정 정보, 요구사항 및/또는 상기 차량 센서부에서 획득한 상기 주행 상태 정보를 바탕으로 상기 파리미터 및/또는 상기 화면 구성을 설정할 수 있다.An image generating apparatus for a vehicle according to the present invention for achieving the above object includes a multi-camera unit including a plurality of wide-angle cameras attached to the vehicle, a plurality of image generating cores, and an image synthesizing unit, and the plurality of image generating cores Each takes one of the images captured by the wide-angle camera as an input image, models a virtual camera having a viewpoint according to a set parameter, generates and outputs an image viewed from the viewpoint of the virtual camera from the input image, The image synthesizing unit generates an output image by synthesizing the images output from the plurality of image generation cores according to a set screen configuration, and the image generation cores of the plurality of image generation cores are required to generate an image. A processing unit configured to set a parameter including a viewpoint of a virtual camera, set the screen configuration for image synthesis in the image synthesizing unit, and a screen unit to output the output image generated by the image generating unit. In addition, the vehicle sensor unit for obtaining driving state information of the vehicle and/or an input unit for receiving setting information and/or a request for generating the output image from a user, wherein the processing unit is input through the input unit. The parameters and/or the screen configuration may be set based on the set setting information, requirements, and/or the driving state information obtained from the vehicle sensor unit.

또한, 본 발명에 따른 차량용 영상 생성 장치는 상기 복수의 광각 카메라에서 촬영한 영상 및 상기 영상생성부에서 생성한 출력 영상 중 적어도 하나를 저장하는 저장부를 더 포함하고, 상기 저장부는 상기 복수의 광각 카메라에서 촬영한 영상을 저장하는 경우, 상기 복수의 광각 카메라의 각 광각 카메라가 동일 시간대에 촬영한 영상에 동일한 인덱스를 부여함으로써 상기 복수의 광각 카메라에서 촬영한 영상을 동기화시켜 저장하고, 상기 영상생성부에서 생성한 출력 영상을 저장하는 경우, 상기 출력 영상을 생성하기 위해 설정된 상기 복수의 영상 생성 코어의 상기 가상 카메라의 시점을 포함하는 파라미터 및 상기 화면 구성을 함께 저장할 수 있다.In addition, the image generating apparatus for a vehicle according to the present invention further comprises a storage unit for storing at least one of an image captured by the plurality of wide-angle cameras and an output image generated by the image generating unit, wherein the storage unit In the case of storing the image captured by the plurality of wide-angle cameras, the images captured by the plurality of wide-angle cameras are synchronized and stored by assigning the same index to the image captured by each of the wide-angle cameras in the same time zone, and the image generator When the output image generated in is stored, a parameter including a viewpoint of the virtual camera of the plurality of image generating cores set to generate the output image and the screen configuration may be stored together.

그리고 상기 다중 카메라부의 상기 복수의 광각카메라는 상기 차량의 전방을 촬영하는 전방 카메라, 상기 차량의 후방을 촬영하는 후방 카메라, 상기 차량의 좌, 우 측방을 촬영하는 측방 카메라, 및 실내를 촬영하는 실내 카메라를 포함할 수 있고, 상기 처리부는 상기 전방 카메라의 전방 광각 뷰, 탑(top) 뷰, 버드 아이 뷰, 상기 측방 카메라의 사각지대 뷰, 인접 차선 뷰, 탑 뷰, 상기 후방 카메라의 후방 광각 뷰, 탑 뷰, 도로 영상 뷰, 상기 실내 카메라의 운전석 뷰, 보조석 뷰, 전방 뷰, 전방위 실내 뷰 중의 적어도 하나가 상기 화면부에 출력되도록 상기 화면 구성을 설정할 수 있다.And the plurality of wide-angle cameras of the multi-camera unit include a front camera for photographing the front of the vehicle, a rear camera for photographing the rear of the vehicle, a side camera for photographing left and right sides of the vehicle, and an indoor photographing room. The processing unit may include a camera, and the processing unit is a front wide-angle view of the front camera, a top view, a bird's eye view, a blind spot view of the side camera, an adjacent lane view, a top view, and a rear wide-angle view of the rear camera. , A top view, a road image view, a driver's seat view, an assistant seat view, a front view, and an omnidirectional indoor view of the indoor camera may be set to be output on the screen unit.

또한, 상기 화면부는 상기 차량의 왼쪽 창, 오른쪽 창, 센터페시아, 룸미러(room mirror), 전면 유리, 및 앞좌석 뒤쪽 중의 적어도 하나에 위치할 수 있다.In addition, the screen unit may be positioned on at least one of a left window, a right window, a center fascia, a room mirror, a windshield, and a rear of the front seat of the vehicle.

좀 더 상세히 살펴보면, 상기 처리부는 전처리부, 후처리부, 및 주처리부를 포함하고, 상기 전처리부는 상기 다중 카메라부의 복수의 광각 카메라가 촬영한 영상들을 수신하고, 수신한 영상들 각각에 대하여 불량 픽셀의 값 보정(Defect correction), 잡음 제거(Noise Reduction), 및 광역 보정(Wide Dynamic Range) 중의 적어도 하나를 수행하는 전처리 과정을 통해 전처리 영상들을 생성하고, 상기 전처리 영상들을 상기 후처리부로 전달하고, 상기 후처리부는 상기 전처리부로부터 수신한 상기 전처리 영상들 각각에 대하여 밝기 및 색상 신호 분리, 경계부 개선(Edge Enhancement), 감마 보정(Gamma Correction), 색상 보정(Color Correction), 밝기 개선(Contrast Enhancement) 중의 적어도 하나를 포함하는 후처리 과정을 수행하여 후처리 영상들을 생성하여 상기 영상생성부로 전달하고, 상기 주처리부는 상기 입력부를 통해 입력된 설정 정보, 요구사항, 및 상기 차량 센서부에서 획득한 상기 주행 상태 정보 중 적어도 하나를 바탕으로 상기 복수의 영상 생성 코어의 각 영상 생성 코어가 영상을 생성하기 위하여 필요한 상기 가상 카메라의 시점을 포함하는 파라미터를 설정하고, 상기 영상합성부에서의 영상 합성을 위한 상기 화면 구성을 설정할 수 있다.In more detail, the processing unit includes a pre-processing unit, a post-processing unit, and a main processing unit, and the pre-processing unit receives images captured by a plurality of wide-angle cameras of the multi-camera unit, and Pre-processed images are generated through a pre-processing process that performs at least one of defect correction, noise reduction, and wide dynamic range, and transfers the pre-processed images to the post-processing unit, and the For each of the pre-processed images received from the pre-processing unit, the post-processing unit includes brightness and color signal separation, edge enhancement, gamma correction, color correction, and contrast enhancement. A post-processing process including at least one is performed to generate post-processed images and transfer them to the image generation unit, and the main processing unit includes setting information input through the input unit, requirements, and the driving obtained from the vehicle sensor unit. Based on at least one of the state information, each image generation core of the plurality of image generation cores sets a parameter including a viewpoint of the virtual camera required to generate an image, and the image synthesis unit for image synthesis You can set the screen composition.

또한, 상기 주처리부는 상기 복수의 광각 카메라 중 적어도 하나가 촬영한 영상에 대하여 상기 광역 보정을 수행하도록 설정하고, 촬영한 영상에 대하여 광역 보정을 수행하도록 설정된 적어도 하나의 광각 카메라에 대하여 노출이 적은 저 노출 영상 및 노출이 많은 고 노출 영상을 촬영하여 상기 전처리부로 전달할 수 있도록 파라미터를 설정하고, 상기 전처리부는 각 픽셀에 대하여 상기 저 노출 영상 및 상기 고 노출 영상 중 어느 하나의 대응되는 픽셀 값을 선택하여 값을 결정함으로써 광역 보정을 수행할 수 있다.In addition, the main processing unit is set to perform the wide-angle correction on an image captured by at least one of the plurality of wide-angle cameras, and the exposure is less for at least one wide-angle camera set to perform wide-angle correction on the captured image. A parameter is set so that a low-exposure image and a high-exposure image with high exposure can be captured and transmitted to the preprocessor, and the preprocessor selects a pixel value corresponding to one of the low exposure image and the high exposure image for each pixel. Thus, the wide area correction can be performed by determining the value.

또한, 상기 후처리부는 상기 후처리 영상에서 움직임을 감지하는 움직임 검출기, 상기 후처리 영상에서 차선을 검출하는 차선 검출기 및 상기 후처리 영상에서 물체를 추적하는 물체 추적기 중 적어도 하나를 포함하고 상기 움직임 검출기에서 획득한 움직임 정보, 상기 차선 검출기에서 획득한 차선 정보 및 상기 물체 추적기에 획득한 물체 추적 정보 중 적어도 하나를 생성하고, 상기 주처리부는 상기 입력부를 통해 입력된 설정 정보, 요구사항, 상기 차량 센서부에서 획득한 상기 주행 상태 정보, 상기 후처리부에서 생성한 상기 움직임 정보, 상기 차선 정보 및 상기 물체 추적 정보 중 적어도 하나를 바탕으로 상기 파라미터 및/또는 상기 화면 구성을 설정할 수 있다.In addition, the post-processing unit includes at least one of a motion detector for detecting motion in the post-processed image, a lane detector for detecting a lane in the post-processed image, and an object tracker for tracking an object in the post-processed image, and the motion detector Generates at least one of the motion information obtained from, the lane information obtained from the lane detector, and the object tracking information obtained from the object tracker, and the main processing unit generates setting information, requirements, and the vehicle sensor input through the input unit. The parameter and/or the screen configuration may be set based on at least one of the driving state information obtained by the unit, the motion information generated by the post-processing unit, the lane information, and the object tracking information.

또한, 상기 주처리부는 상기 후처리부에서 생성한 상기 움직임 정보, 상기 차선 정보 및 상기 물체 추적 정보 중 적어도 하나를 바탕으로 차선, 주차선, 및/또는 차량이 증강현실 방식으로 화면에 추가적으로 합성되도록 상기 화면 구성을 설정할 수 있고, 상기 입력부를 통해 입력된 설정 정보, 요구사항, 상기 차량 센서부에서 획득한 상기 주행 상태 정보, 상기 후처리부에서 생성한 상기 움직임 정보, 상기 차선 정보 및 상기 물체 추적 정보 중 적어도 하나를 바탕으로 미리 설정된 시나리오에 따라 영상이 화면부에 출력되도록 상기 파라미터 및/또는 상기 화면 구성을 설정할 수 있다.In addition, the main processing unit is configured to additionally synthesize a lane, a parking line, and/or a vehicle on the screen based on at least one of the motion information, the lane information, and the object tracking information generated by the post processing unit. A screen configuration can be set, and among the setting information input through the input unit, requirements, the driving state information obtained from the vehicle sensor unit, the motion information generated by the post-processing unit, the lane information, and the object tracking information Based on at least one, the parameter and/or the screen configuration may be set so that an image is output to the screen unit according to a preset scenario.

그리고 상기 전처리부는 상기 수신한 영상으로부터 상기 복수의 광각 카메라가 촬영한 각 영상에 대하여 자동 색온도 보정(Auto White Balance), 자동 노출(Auto Exposure), 및 자동 초점(Auto Focus) 중 적어도 하나와 연관된 정보를 추출하여 상기 주처리부로 전달하고, 상기 주처리부는 상기 전처리부로부터 수신한 자동 색온도 보정, 자동 노출, 및 자동 초점 중 적어도 하나와 연관된 정보를 바탕으로 상기 복수의 광각 카메라의 촬영을 위한 파라미터를 설정하는데, 상기 복수의 광각 카메라의 촬영을 위한 파라미터로 셔터 속도(Shutter speed), 색상 이득 값(color gains), 영상해상도, 프레임 레이트(frame rate) 중 적어도 하나를 사용할 수 있다.In addition, the preprocessor includes information related to at least one of auto white balance, auto exposure, and auto focus for each image captured by the plurality of wide-angle cameras from the received image. Is extracted and transmitted to the main processing unit, and the main processing unit sets parameters for photographing of the plurality of wide-angle cameras based on information related to at least one of automatic color temperature correction, automatic exposure, and auto focus received from the preprocessor. For setting, at least one of a shutter speed, color gains, image resolution, and frame rate may be used as a parameter for photographing the plurality of wide-angle cameras.

또한, 상기 전처리부는 상기 수신한 영상으로부터 상기 복수의 광각 카메라가 촬영한 각 영상에 대하여 자동 색 온도 보정(Auto White Balance), 자동 노출(Auto Exposure), 및 자동 초점(Auto Focus) 중 적어도 하나와 연관된 정보를 추출하여 상기 주처리부로 전달하고, 상기 주처리부는 상기 전처리부로부터 수신한 자동 색 온도 보정, 자동 노출, 및 자동 초점 중 적어도 하나와 연관된 정보, 상기 입력부를 통해 입력된 설정 정보, 요구사항, 상기 차량 센서부에서 획득한 상기 주행 상태 정보, 상기 후처리부에서 생성한 상기 움직임 정보, 상기 차선 정보, 및 상기 물체 추적 정보 중 적어도 하나를 바탕으로 상기 복수의 광각 카메라의 촬영을 위한 파라미터를 설정할 수 있다.In addition, the preprocessor includes at least one of auto color temperature correction (Auto White Balance), auto exposure, and auto focus for each image captured by the plurality of wide-angle cameras from the received image. Related information is extracted and transmitted to the main processing unit, and the main processing unit includes information related to at least one of automatic color temperature correction, automatic exposure, and auto focus received from the preprocessor, setting information input through the input unit, and request Information, parameters for photographing the plurality of wide-angle cameras based on at least one of the driving state information acquired by the vehicle sensor unit, the motion information generated by the post-processing unit, the lane information, and the object tracking information Can be set.

그리고 상기 후처리부는 상기 저장부가 있는 경우, 상기 후처리 영상들을 비디오 코덱을 이용하여 압축하여 상기 저장부로 추가적으로 전달할 수 있다.In addition, when the storage unit is present, the post-processing unit may compress the post-processed images using a video codec and additionally transmit the compressed images to the storage unit.

그리고 상기 영상 생성 코어는 상기 처리부에 의해 설정되는 파라미터에 따라 각각의 시점 및 유형을 가지는 하나 이상의 가상 카메라를 모델링하는 가상 카메라 모델부, 상기 하나 이상의 가상 카메라의 각 가상 카메라에 의해 보여지는 영상인 출력 영상과 상기 광각 카메라에 의해 촬영된 영상인 입력 영상 간에 매핑 시 영상 효과를 추가하기 위하여 사용되는 2차 곡면을 제공하는 2차 곡면 모델부 및 상기 입력 영상에 포함되어 있는 왜곡을 제거하면서 각 가상 카메라별 상기 출력 영상과 입력 영상 간의 매핑을 수행하도록 하는 카메라 투영 모델을 제공하는 카메라 투영 모델부를 포함할 수 있고, 여기서 상기 카메라 투영 모델부는 상기 가상 카메라 모델부의 각 가상 카메라의 광축 중심과 출력 영상 상의 한 점을 연결하는 직선인 투영선과 상기 2차 곡면의 교차점을 계산하고, 상기 교차점을 상기 입력 영상에 포함되어 있는 왜곡을 제거하기 위한 왜곡 보정 매핑 함수를 이용하여 상기 입력 영상 상의 한 점으로 매핑함으로써, 상기 각 가상 카메라별 출력 영상과 상기 입력 영상 간의 매핑을 수행할 수 있다.In addition, the image generation core is a virtual camera model unit that models one or more virtual cameras having respective viewpoints and types according to parameters set by the processing unit, and an output that is an image viewed by each virtual camera of the one or more virtual cameras. A second curved surface model unit that provides a second curved surface used to add an image effect when mapping between an image and an input image that is an image captured by the wide-angle camera, and each virtual camera while removing distortion included in the input image And a camera projection model unit that provides a camera projection model for performing mapping between the output image and the input image for each, wherein the camera projection model unit By calculating an intersection point between a projection line connecting points and the second-order curved surface, and mapping the intersection point to a point on the input image using a distortion correction mapping function for removing distortion included in the input image, Mapping between the output image for each virtual camera and the input image may be performed.

전술한 목적을 달성하기 위한 본 발명에 따른 차량용 영상 생성 방법은 복수의 광각 카메라로 복수의 영상을 촬영하는 단계, 출력 화면 구성 및 출력 영상을 설정하는 단계, 상기 출력 화면 구성 및 상기 출력 영상을 생성하기 위하여 가상 카메라의 시점을 포함하는 파라미터를 설정하는 단계, 가상 카메라 기반의 영상생성부 내의 복수의 영상 생성 코어 각각이 상기 복수의 영상 중의 하나를 입력 영상으로 하고, 설정된 상기 가상 카메라의 시점을 포함하는 파라미터에 따라 가상 카메라를 모델링하고, 상기 입력 영상으로부터 상기 가상 카메라의 시점에서 보여지는 영상을 생성하고, 상기 복수의 영상 생성 코어에서 생성한 영상을 설정된 상기 출력 화면 구성에 따라 합성하여 출력 영상을 생성하는 단계 및 상기 출력 영상을 화면에 표시하는 단계를 포함할 수 있다.In order to achieve the above object, the method for generating an image for a vehicle according to the present invention includes: capturing a plurality of images with a plurality of wide-angle cameras, configuring an output screen and setting an output image, configuring the output screen and generating the output image. Setting a parameter including a viewpoint of a virtual camera in order to do so, wherein each of a plurality of image generation cores in a virtual camera-based image generator uses one of the plurality of images as an input image, and includes the set viewpoint of the virtual camera. A virtual camera is modeled according to a parameter to be displayed, an image viewed from the viewpoint of the virtual camera is generated from the input image, and the images generated by the plurality of image generation cores are synthesized according to the set output screen configuration to generate an output image. It may include generating and displaying the output image on a screen.

이에 더하여 상기 차량의 주행 상태 정보를 획득하는 단계, 사용자로부터 상기 출력 화면 구성 및 상기 출력 영상을 생성하기 위한 사용자 설정 정보를 입력받는 단계 중 적어도 하나의 단계를 더 포함하고, 상기 출력 화면 구성 및 출력 영상을 설정하는 단계는 상기 주행 상태 정보 및 상기 사용자 설정 정보 중 적어도 하나를 바탕으로 출력 화면 구성 및 출력 영상을 설정하는 단계를 포함하고, 상기 파라미터를 설정하는 단계는 상기 주행 상태 정보 및 상기 사용자 설정 정보 중 적어도 하나를 바탕으로 파라미터를 설정하는 단계를 포함할 수 있고, 상기 주행 상태 정보 및 상기 사용자 설정 정보 중 적어도 하나를 바탕으로 출력 화면 구성 및 출력 영상을 설정하는 단계는 상기 주행 상태 정보 중 차량 진행 속도에 맞춰 가상 카메라의 줌 및 틸트 파라미터들을 설정하여 상기 가상 카메라의 시점을 설정하는 단계, 또는 상기 주행 상태 정보 중 차량 진행 방향에 맞춰 가상 카메라의 줌 및 팬 파라미터들을 설정하여 상기 가상 카메라의 시점을 설정하는 단계, 또는 상기 사용자 설정 정보에 따라 가상 카메라의 줌, 팬 및 틸트 파라미터들을 설정하여 상기 가상 카메라의 시점을 설정하는 단계를 포함할 수 있다.In addition, at least one of the steps of acquiring driving state information of the vehicle, receiving input of the configuration of the output screen and user setting information for generating the output image from a user, and configuring and outputting the output screen Setting an image includes configuring an output screen and setting an output image based on at least one of the driving state information and the user setting information, and setting the parameter includes the driving state information and the user setting It may include setting a parameter based on at least one of the information, and the step of configuring an output screen and setting an output image based on at least one of the driving state information and the user setting information may include a vehicle among the driving state information. Setting the view point of the virtual camera by setting the zoom and tilt parameters of the virtual camera according to the progress speed, or by setting the zoom and pan parameters of the virtual camera according to the direction of vehicle travel among the driving state information to view the view of the virtual camera And setting a viewpoint of the virtual camera by setting zoom, pan, and tilt parameters of the virtual camera according to the user setting information.

또한, 상기 방법은 상기 복수의 광각 카메라에서 촬영한 영상 및 상기 출력 영상 중 적어도 하나를 저장하는 단계를 더 포함할 수 있는데, 이 단계는 상기 복수의 광각 카메라에서 촬영한 영상을 저장하는 경우, 상기 복수의 광각 카메라의 각 광각 카메라가 동일 시간대에 촬영한 영상에 동일한 인덱스를 부여함으로써 상기 복수의 광각 카메라에서 촬영한 영상을 동기화시켜 저장하는 단계를 포함할 수 있고, 상기 출력 영상을 저장하는 경우, 상기 출력 영상을 생성하기 위해 설정된 상기 가상 카메라의 시점을 포함하는 파라미터를 함께 저장할 수 있다.In addition, the method may further include storing at least one of an image photographed by the plurality of wide-angle cameras and the output image, wherein this step is performed when the image photographed by the plurality of wide-angle cameras is stored, the It may include the step of synchronizing and storing images captured by the plurality of wide-angle cameras by assigning the same index to images captured by each wide-angle camera of the plurality of wide-angle cameras in the same time zone, and storing the output image, A parameter including a viewpoint of the virtual camera set to generate the output image may be stored together.

그리고 상기 출력 화면 구성 및 출력 영상을 설정하는 단계는 전방 카메라의 전방 광각 뷰, 탑(top) 뷰, 버드 아이 뷰, 측방 카메라의 사각지대 뷰, 인접 차선 뷰, 탑 뷰, 후방 카메라의 후방 광각 뷰, 탑 뷰, 도로 영상 뷰, 실내 카메라의 운전석 뷰, 보조석 뷰, 전방 뷰, 전방위 실내 뷰 중의 적어도 하나를 포함하도록 출력 화면 구성 및 출력 영상을 설정하는 단계를 포함할 수 있다.In addition, the step of configuring the output screen and setting the output image includes a front wide-angle view of the front camera, a top view, a bird's eye view, a blind spot view of the lateral camera, an adjacent lane view, a top view, and a rear wide-angle view of the rear camera. , A top view, a road image view, a driver's seat view of an indoor camera, an auxiliary seat view, a front view, and an omnidirectional indoor view.

또한, 상기 출력 영상을 생성하는 단계는 상기 복수의 광각 카메라가 촬영한 복수의 영상들을 수신하고, 수신한 복수의 영상들 각각에 대하여 불량 픽셀의 값 보정(Defect correction), 잡음 제거(Noise Reduction), 및 광역 보정(Wide Dynamic Range) 중의 적어도 하나를 수행하여 전처리 영상들을 생성하는 전처리 단계, 상기 전처리 단계에서 생성된 상기 전처리 영상들 각각에 대하여 밝기 및 색상 신호 분리, 경계부 개선(Edge Enhancement), 감마 보정(Gamma Correction), 색상 보정(Color Correction), 및 밝기 개선(Contrast Enhancement) 중의 적어도 하나를 수행하여 후처리 영상들을 생성하는 후처리 단계, 가상 카메라 기반의 영상생성부 내의 복수의 영상 생성 코어 각각이 상기 후처리 영상들 중의 하나를 입력 영상으로 하고, 설정된 상기 가상 카메라의 시점을 포함하는 파라미터에 따라 가상 카메라를 모델링하고, 상기 입력 영상으로부터 상기 가상 카메라의 시점에서 보여지는 영상을 생성하는 단계 및 상기 복수의 영상 생성 코어에서 생성한 영상들을 설정된 상기 출력 화면 구성에 따라 합성하여 출력 영상을 생성하는 단계를 포함할 수 있다.In addition, the generating of the output image includes receiving a plurality of images photographed by the plurality of wide-angle cameras, and correcting the value of a defective pixel for each of the plurality of received images (Defect correction) and noise reduction (Noise Reduction). , And a pre-processing step of generating pre-processed images by performing at least one of wide dynamic range, separation of brightness and color signals for each of the pre-processed images generated in the pre-processing step, edge enhancement, and gamma A post-processing step of generating post-processed images by performing at least one of Gamma Correction, Color Correction, and Contrast Enhancement, each of a plurality of image generation cores in a virtual camera-based image generation unit Taking one of the post-processed images as an input image, modeling a virtual camera according to a parameter including a set viewpoint of the virtual camera, and generating an image viewed from the viewpoint of the virtual camera from the input image; and And generating an output image by synthesizing the images generated by the plurality of image generating cores according to the set output screen configuration.

또한, 상기 전처리 단계의 광역 보정은 광각 카메라의 셔터 속도를 조절하여 노출이 서로 다른 2장의 광역 보정용 영상을 생성하는 단계, 상기 2장의 광역 보정용 영상을 바탕으로 광역 보정 임계치를 설정하는 단계, 상기 광역 보정 임계치를 바탕으로 영상 내의 각 픽셀의 값에 대하여 노출이 적은 저 노출 영상의 대응하는 픽셀 값을 사용할 것인지 아니면 노출이 많은 고 노출 영상의 대응하는 픽셀 값을 사용할 것인지를 결정하여 노출 영역 정보로 저장하는 단계 및 광역 보정된 전처리 영상을 생성하기 위하여, 광역 보정된 전처리 영상의 각 픽셀 값을 결정하되, 상기 노출 영역 정보에 따라 선택된 상기 광각 카메라에서 입력되는 노출이 서로 다른 2장의 영상 중의 하나의 픽셀 값으로 결정하는 단계를 포함할 수 있다.In addition, the wide-area correction in the pre-processing step includes generating two wide-area correction images with different exposures by adjusting a shutter speed of a wide-angle camera, setting a wide-area correction threshold based on the two wide-area correction images, and Based on the correction threshold, determine whether to use the corresponding pixel value of the low-exposure image of the low-exposure image or the corresponding pixel value of the high-exposure image with high exposure for each pixel value in the image, and save it as exposure area information. And in order to generate a wide-area-corrected pre-processed image, one pixel of two images having different exposures input from the wide-angle camera selected according to the exposure area information is determined, wherein each pixel value of the wide-angle-corrected pre-processed image is determined. It may include the step of determining the value.

또한, 상기 파라미터를 설정하는 단계는 상기 후처리 영상에서 움직임을 감지하여 움직임 정보를 획득하는 단계, 상기 후처리 영상에서 차선을 검출하여 차선 정보를 획득하는 단계, 및 상기 후처리 영상에서 물체를 추적하여 물체 추적 정보를 획득하는 단계 중 적어도 하나를 포함하고, 상기 움직임 정보, 상기 차선 정보, 상기 물체 추적 정보 상기 주행 상태 정보, 및 상기 사용자 설정 정보 중 적어도 하나를 바탕으로 파라미터를 설정하는 단계를 포함할 수 있다.In addition, the step of setting the parameter includes detecting motion in the post-processed image to obtain motion information, detecting a lane in the post-processed image to obtain lane information, and tracking an object in the post-processed image. And at least one of obtaining object tracking information, and setting a parameter based on at least one of the motion information, the lane information, the object tracking information, the driving state information, and the user setting information. can do.

또한, 상기 전처리 단계는 상기 수신한 영상으로부터 상기 복수의 광각 카메라가 촬영한 각 영상에 대하여 자동 색온도 보정(Auto White Balance), 자동 노출(Auto Exposure), 및 자동 초점(Auto Focus) 중 적어도 하나와 연관된 정보를 추출하는 단계를 더 포함하고, 상기 파라미터를 설정하는 단계는 상기 전처리부단계에서 추출한 상기 자동 색온도 보정, 자동 노출, 및 자동 초점 중 적어도 하나와 연관된 정보, 상기 움직임 정보, 상기 차선 정보, 상기 물체 추적 정보 상기 주행 상태 정보, 및 상기 사용자 설정 정보 중 적어도 하나를 바탕으로 상기 복수의 광각 카메라의 촬영을 위한 파라미터를 설정하는 단계를 포함할 수 있다.In addition, the pre-processing step includes at least one of auto color temperature correction (Auto White Balance), auto exposure, and auto focus for each image captured by the plurality of wide-angle cameras from the received image. The step of extracting related information, wherein the step of setting the parameter includes information related to at least one of the automatic color temperature correction, automatic exposure, and auto focus extracted in the preprocessing unit step, the motion information, the lane information, And setting parameters for photographing of the plurality of wide-angle cameras based on at least one of the object tracking information, the driving state information, and the user setting information.

또한, 상기 가상 카메라 기반의 영상생성부 내의 복수의 영상 생성 코어 각각이 상기 후처리 영상들 중의 하나를 입력 영상으로 하고, 설정된 상기 가상 카메라의 시점을 포함하는 파라미터에 따라 가상 카메라를 모델링하고, 상기 입력 영상으로부터 상기 가상 카메라의 시점에서 보여지는 영상을 생성하는 단계는 설정된 상기 파라미터에 따라 가상 카메라를 모델링하는 단계, 상기 가상 카메라에 의해 보여지는 영상과 상기 입력 영상 간에 매핑 시 영상 효과를 추가하기 위하여 사용되는 2차 곡면을 모델링하는 단계, 상기 입력 영상에 포함되어 있는 왜곡을 제거하면서 상기 가상 카메라의 시점에서 보여지는 영상과 입력 영상 간의 매핑을 수행하도록 하는 카메라 투영 모델 생성 단계, 상기 가상 카메라의 광축 중심과 상기 가상 카메라의 시점에서 보여지는 영상상의 한 점을 연결하는 직선인 투영선과 상기 2차 곡면의 교차점을 계산하는 단계 및 상기 교차점을 상기 입력 영상에 포함되어 있는 왜곡을 제거하기 위한 왜곡 보정 매핑 함수를 이용하여 상기 입력 영상 상의 한 점으로 매핑하는 단계를 포함할 수 있다. In addition, each of a plurality of image generation cores in the virtual camera-based image generation unit uses one of the post-processed images as an input image, and models a virtual camera according to a parameter including a set viewpoint of the virtual camera, and the The step of generating an image viewed from the viewpoint of the virtual camera from the input image includes modeling a virtual camera according to the set parameters, in order to add a video effect when mapping between the image viewed by the virtual camera and the input image Modeling a second-order curved surface to be used, generating a camera projection model to perform mapping between the image viewed from the viewpoint of the virtual camera and the input image while removing distortion included in the input image, and the optical axis of the virtual camera Calculating an intersection point of the second-order curved surface and a projection line connecting the center and a point on the image viewed from the viewpoint of the virtual camera, and distortion correction mapping to remove the distortion included in the input image Mapping to a point on the input image using a function may be included.

또한, 컴퓨터 또는 프로세서상에서 실행될 때, 상술한 방법 중 어느 하나에 따른 방법을 실행하는 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램을 포함할 수 있다.Further, it may include a computer program stored in a computer-readable recording medium that executes a method according to any one of the above-described methods when executed on a computer or processor.

본 발명에 의하면, 복수의 광각 카메라를 이용하여 차량 주변 및/또는 실내 영상을 촬영하여, 운전자가 안전하게 주행할 수 있도록 하는 다양한 형태의 영상을 생성하여 제공하는 효과가 있다.According to the present invention, there is an effect of generating and providing various types of images that enable a driver to safely drive by capturing images around and/or inside a vehicle using a plurality of wide-angle cameras.

또한, 본 발명에 의하면, 차량 진행 방향에 따라 자동으로 줌 (zoom) 및 팬 (pan)이 되는 영상, 차량 진행속도에 따라 자동으로 줌 (zoom) 및 틸트 (tilt) 되는 영상, 차량 진행 방향에 따라 자동으로 줌 (zoom) 및 팬 (pan) 이 되는 영상, 운전자의 시야에서 벗어나 보이지 않는 영역의 사각 지대 영상, 차량의 위에서 보는 것과 같은 듯한 탑 뷰(top view) 영상, 차량을 외부에서 조종하는 것과 같은 3인칭 시점 (viewpoint) 의 버드아이(bird-eye) 영상, 또는 인접 차선 차량의 동선 및 진행 속도 등을 확인할 수 있도록 자동으로 추적해서 보여주는 추적 영상 등을 생성하여 제공하는 효과가 있다.In addition, according to the present invention, an image that automatically zooms and pans according to the driving direction of the vehicle, an image that automatically zooms and tilts according to the driving speed of the vehicle, and the driving direction of the vehicle An image that automatically zooms and pans accordingly, an image of a blind spot in an area that cannot be seen outside of the driver's field of view, a top view image that looks as if viewed from the top of a vehicle, and controls the vehicle from the outside. There is an effect of generating and providing a bird-eye image of the same third-person view point, or a tracking image that automatically tracks and shows so that the movement and speed of vehicles in adjacent lanes can be checked.

또한, 본 발명에 의하면, 실내에 여러 대의 카메라를 설치해서 촬영한 것과 같은 다중뷰 영상을 제공하고, 이에 더하여 운전자의 운전상태를 확인할 수 있는 운전석 뷰, 보조석의 상황을 확인할 수 있는 보조석 뷰, 실내 상황을 전체적을 확인할 수 있는 전방위 실내 뷰, 실내 상황을 보여주는 뷰들과 함께 전방 주행상황도 같이 확인할 수 있는 전방 뷰 등을 생성하여 제공하는 효과가 있다.In addition, according to the present invention, it provides a multi-view image, such as that taken by installing several cameras indoors, and in addition to this, a driver's seat view that can check the driver's driving condition, an assistant seat view that can check the condition of the passenger seat, and indoors. There is an effect of creating and providing an all-round interior view that can check the overall situation, a front view that can also check the driving situation in front along with views showing the indoor situation.

또한, 본 발명에 의하면, 전방뷰 생성시 실내와 실외의 심한 조도차를 맞추기 위해 광역 보정 (wide dynamic range) 기술을 적용하며, 유리창과 같은 임의의 보정 윈도우를 자동으로 설정하는 기능을 제공하는 효과가 있다.In addition, according to the present invention, when generating a front view, a wide dynamic range technology is applied to match a severe difference in illuminance between indoors and outdoors, and an effect of providing a function of automatically setting an arbitrary correction window such as a glass window. There is.

또한, 본 발명에 의하면, 차량의 속도에 따라 적절히 영상 센서를 제어하여 영상 해상도 및 프레임 레이트 (frame rate)를 가변하여 촬영하고 저장하는 기능을 제공하여 고속 주행시 혹은 차량 충돌시 프레임 레이트를 높여 초고속 영상을 제공하거나, 저속 주행시에는 프레임 레이트를 낮추면서 해상도를 높여 초고해상도 영상을 제공함으로써, 운전자가 빠르게 상황을 인지할 수 있도록 도와주고, 저장된 영상으로 사고 후처리가 용이하도록 도울 수 있는 효과가 있다.In addition, according to the present invention, by controlling an image sensor appropriately according to the speed of the vehicle, the image resolution and frame rate are varied to provide a function to shoot and store, thereby increasing the frame rate during high-speed driving or vehicle collision. By providing an ultra-high resolution image by increasing the resolution while lowering the frame rate while driving at low speed, it is possible to help the driver to quickly recognize the situation and to facilitate post-processing of an accident with the stored image.

또한, 본 발명에 의하면, 주차후 문열림시, 후방에서 오는 차량 여부들을 확인할 수 있도록 측면 및 후방 카메라에서 후방 차량을 확인하기 편리한 시야각의 영상을 생성하여 미러 혹은 실내 디스플레이 창에 표시하고, 검출 차량의 위치, 차선 변경 가능 여부, 주차선 등의 정보도 함께 표시하는 기능을 포함하여 하차시의 안전을 도모하는 효과가 있다.In addition, according to the present invention, when the door is opened after parking, an image of a convenient viewing angle is generated from the side and rear cameras so that the vehicle coming from the rear can be checked, and displayed on the mirror or the indoor display window, and the detection vehicle It has the effect of promoting safety when getting off by including a function that also displays information such as the location of the vehicle, whether lane change is possible, and parking lanes.

도 1은 본 발명의 일 실시 예에 따른 차량용 영상 생성 장치를 도시한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 차량에 설치된 복수의 광각 카메라들을 이용하여 구성된 다중 카메라부(100)를 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 화면부(800)의 영상 출력 구성을 도시한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 임의 시점의 가상 카메라 기반의 영상생성부(700)의 구성을 도시한 도면이다.
도 5는 본 발명의 일 실시 예에 따른 가상 카메라 모델부(710)의 개략적인 구성을 도시한 도면이다.
도 6은 장면 좌표계(world coordinate)와 비교한 가상 카메라 좌표계 {n}을 도시한다.
도 7은 가상 카메라의 광축 중심을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 2차 곡면 모델부의 개략적인 구성을 도시한 도면이다.
도 9a 및 도 9b는 본 발명의 일 실시 예에 따른 타원체 모델(324), 실린더 모델(325), 및 포물면 모델(326)에 대한 파라미터를 도시한 도면이다.
도 10은 본 발명의 일 실시 예에 따른 카메라 투영 모델부(730)의 개략적인 구성을 도시한 도면이다.
도 11은 2차 곡면 모델과 가상 카메라의 투영선의 교차점(

Figure 112019063512393-pat00001
)의 일 예를 도시한 도면이다.
도 12는 본 발명의 일 실시 예에 따른 장면 좌표계상의 한 점(
Figure 112019063512393-pat00002
)을 왜곡 없는 이상적인 영상 평면(
Figure 112019063512393-pat00003
)의 대응하는 점으로 매핑하는 과정을 도시한다.
도 13은 본 발명의 일 실시 예에 따른 가상 카메라의 투영선과 2차 곡면 모델과의 교차점(
Figure 112019063512393-pat00004
)이 왜곡이 해소된 이상적인 영상 평면상의 좌표(
Figure 112019063512393-pat00005
)에 재투영되는 것을 도시한 도면이다.
도 14는 영상생성부(700)의 영상 생성 코어에 입력되는 입력 영상 및 이에 포함된 왜곡을 보정하여 영상 생성 코어에서 출력하는 영상의 일 예를 도시한 도면이다.
도 15는 본 발명의 일 실시 예에 따른 차량 진행 속도에 따라 자동으로 가상 카메라가 줌 및 틸트되도록 영상 생성 코어를 설정한 결과를 도시한 도면이다.
도 16은 본 발명의 일 실시 예에 따른 차량 진행 방향에 따라 자동으로 가상 카메라가 줌 및 팬이 되도록 영상 생성 코어를 설정한 결과를 도시한 도면이다.
도 17은 측면 광각 카메라(도 2의 C2 또는 C3)가 촬영한 영상(도 17 (a))으로부터 사각 지대 영상, 위에서 보는 듯한 영상, 인접 차선 영상을 생성한 결과를 도시한 도면이다.
도 18은 후방 광각 카메라(도 2의 C4)가 촬영한 영상(도 18 (a))으로부터 주행 시 필요한 광각의 후방 영상, 후진 주차 시 차량과 주차선을 함께 표시한 도로 영상, 정확한 주차선을 보여주기 위한 위에서 보는 듯한 top 뷰 영상 등을 생성한 결과를 도시한 도면이다.
도 19는 실내 광각 카메라(도 2의 C5)가 촬영한 영상(도 19 (a))으로부터 운전자 상황을 확인할 수 있는 운전석 뷰, 보조석 뷰, 전방위 실내 뷰, 전방 주행상황을 동시에 확인할 수 있는 전방 뷰 등을 생성한 결과를 도시한 도면이다.
도 20은 본 발명의 일 실시 예에 따른 주행감응형 차량용 영상 생성 방법을 도시한 도면이다.
도 21은 본 발명의 일 실시 예에 따른 차량용 영상 생성 장치에서 출력 영상을 생성하는 방법을 도시한 도면이다.
도 22는 본 발명의 일 실시 예에 따른 광역 보정 방법을 도시한 도면이다.
도 23은 본 발명의 일 실시 예에 따른 영상 생성 코어에서 영상을 생성하는 방법을 도시한 도면이다.1 is a diagram illustrating an apparatus for generating an image for a vehicle according to an exemplary embodiment of the present invention.
2 is a diagram illustrating a multi-camera unit 100 configured using a plurality of wide-angle cameras installed in a vehicle according to an embodiment of the present invention.
3 is a diagram illustrating an image output configuration of the screen unit 800 according to an embodiment of the present invention.
4 is a diagram illustrating a configuration of a virtual camera-based image generator 700 at an arbitrary point in time according to an embodiment of the present invention.
5 is a diagram showing a schematic configuration of a virtual camera model unit 710 according to an embodiment of the present invention.
6 shows a virtual camera coordinate system {n} compared with a world coordinate system.
7 is a diagram for explaining the center of an optical axis of a virtual camera.
8 is a diagram showing a schematic configuration of a secondary curved model unit according to an embodiment of the present invention.
9A and 9B are diagrams showing parameters for an ellipsoid model 324, a cylinder model 325, and a parabolic model 326 according to an embodiment of the present invention.
10 is a diagram showing a schematic configuration of a camera projection model unit 730 according to an embodiment of the present invention.
11 shows the intersection of the second-order curved model and the projection line of the virtual camera (
Figure 112019063512393-pat00001
) Is a diagram showing an example of.
12 is a point on the scene coordinate system according to an embodiment of the present invention (
Figure 112019063512393-pat00002
) To the ideal image plane without distortion (
Figure 112019063512393-pat00003
) Shows a process of mapping to the corresponding point.
13 is an intersection point of a projection line of a virtual camera and a second-order curved surface model according to an embodiment of the present invention (
Figure 112019063512393-pat00004
) Is the coordinates on the ideal image plane where the distortion is resolved (
Figure 112019063512393-pat00005
) Is a view showing the reprojection.
14 is a diagram illustrating an example of an input image input to the image generation core of the image generation unit 700 and an image output from the image generation core by correcting distortion included therein.
15 is a diagram illustrating a result of setting an image generating core so that a virtual camera automatically zooms and tilts according to a vehicle traveling speed according to an embodiment of the present invention.
16 is a diagram illustrating a result of setting an image generating core so that a virtual camera automatically zooms and pans according to a vehicle traveling direction according to an embodiment of the present invention.
FIG. 17 is a diagram showing a result of generating a blind spot image, a top-view image, and an adjacent lane image from an image captured by a side wide-angle camera (C2 or C3 in FIG. 2) (FIG. 17(a)).
18 is a wide-angle rear image required for driving, a road image showing a vehicle and a parking line when parking backwards, and an accurate parking line from the image taken by the rear wide-angle camera (C4 in FIG. 2) (FIG. 18(a)). This is a drawing showing the result of creating a top view image that looks like you are viewing from above.
FIG. 19 is a driver's seat view, a driver's seat view, an all-around interior view, and a front view that can simultaneously check the driving situation from the image (FIG. 19 (a)) captured by the indoor wide-angle camera (C5 in FIG. 2). It is a diagram showing the result of generating the etc.
20 is a diagram illustrating a method of generating an image for a driving-sensitive vehicle according to an embodiment of the present invention.
21 is a diagram illustrating a method of generating an output image in an image generating apparatus for a vehicle according to an embodiment of the present invention.
22 is a diagram illustrating a wide area correction method according to an embodiment of the present invention.
23 is a diagram illustrating a method of generating an image in an image generating core according to an embodiment of the present invention.

본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다.In order to clearly describe the present invention, parts irrelevant to the description have been omitted, and the same reference numerals are attached to the same or similar components throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is said to be "connected" with another part, this includes not only "directly connected" but also "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, it means that other components may be further included rather than excluding other components unless specifically stated to the contrary.

어느 부분이 다른 부분의 "위에" 있다고 언급하는 경우, 이는 바로 다른 부분의 위에 있을 수 있거나 그 사이에 다른 부분이 수반될 수 있다. 대조적으로 어느 부분이 다른 부분의 "바로 위에" 있다고 언급하는 경우, 그 사이에 다른 부분이 수반되지 않는다.When a part is referred to as being "on" another part, it may be directly on top of another part, or other parts may be involved in between. In contrast, when a part is referred to as being "directly above" another part, no other part is involved in between.

제1, 제2 및 제3 등의 용어들은 다양한 부분, 성분, 영역, 층 및/또는 섹션들을 설명하기 위해 사용되나 이들에 한정되지 않는다. 이들 용어들은 어느 부분, 성분, 영역, 층 또는 섹션을 다른 부분, 성분, 영역, 층 또는 섹션과 구별하기 위해서만 사용된다. 따라서, 이하에서 서술하는 제1부분, 성분, 영역, 층 또는 섹션은 본 발명의 범위를 벗어나지 않는 범위 내에서 제2부분, 성분, 영역, 층 또는 섹션으로 언급될 수 있다.Terms such as first, second and third are used to describe various parts, components, regions, layers and/or sections, but are not limited thereto. These terms are only used to distinguish one part, component, region, layer or section from another part, component, region, layer or section. Accordingly, a first part, component, region, layer or section described below may be referred to as a second part, component, region, layer or section without departing from the scope of the present invention.

여기서 사용되는 전문 용어는 단지 특정 실시 예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is only for referring to specific embodiments and is not intended to limit the present invention. Singular forms as used herein also include plural forms unless the phrases clearly indicate the opposite. As used in the specification, the meaning of "comprising" specifies a specific characteristic, region, integer, step, action, element and/or component, and the presence of another characteristic, region, integer, step, action, element and/or component, or It does not exclude additions.

"아래", "위" 등의 상대적인 공간을 나타내는 용어는 도면에서 도시된 한 부분의 다른 부분에 대한 관계를 보다 쉽게 설명하기 위해 사용될 수 있다. 이러한 용어들은 도면에서 의도한 의미와 함께 사용 중인 장치의 다른 의미나 동작을 포함하도록 의도된다. 예를 들면, 도면 중의 장치를 뒤집으면, 다른 부분들의 "아래"에 있는 것으로 설명된 어느 부분들은 다른 부분들의 "위"에 있는 것으로 설명된다. 따라서 "아래"라는 예시적인 용어는 위와 아래 방향을 전부 포함한다. 장치는 90˚ 회전 또는 다른 각도로 회전할 수 있고, 상대적인 공간을 나타내는 용어도 이에 따라서 해석된다.Terms indicating a relative space such as "below" and "above" may be used to more easily describe the relationship of one part to another part shown in the drawings. These terms are intended to include other meanings or operations of the device in use together with their intended meaning in the drawings. For example, if the device in the drawings is turned over, certain parts described as being "below" other parts are described as being "above" other parts. Thus, the exemplary term “down” includes both up and down directions. The device can be rotated by 90 degrees or other angles, and terms that refer to relative space are interpreted accordingly.

다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련 기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.Although not defined differently, all terms including technical and scientific terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms defined in a commonly used dictionary are additionally interpreted as having a meaning consistent with the related technical literature and the presently disclosed content, and are not interpreted in an ideal or very formal meaning unless defined.

이하, 첨부한 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein.

본 발명에서 제시하는 차량용 영상 생성 장치 및 방법은 복수의 광각 카메라를 이용하여 차량 주변 및/또는 실내 영상을 촬영하여, 운전자가 안전하게 주행할 수 있도록 하는 다양한 형태의 영상을 생성하여 제공할 수 있다. The apparatus and method for generating an image for a vehicle proposed in the present invention may capture images around and/or an interior of a vehicle using a plurality of wide-angle cameras, and generate and provide various types of images that enable a driver to safely drive.

도 1은 본 발명의 일 실시 예에 따른 차량용 영상 생성 장치를 도시한 도면이다. 1 is a diagram illustrating an apparatus for generating an image for a vehicle according to an exemplary embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 차량용 영상 생성 장치는 다중 카메라부(100), 다중 카메라부(100)로부터 오는 영상을 전처리하여 후처리부(400)로 전달하는 전처리부(200), 전처리부(200)에서 오는 현재 영상 또는 저장부(300)로부터 읽어 들이는 과거 영상 내에서 움직임 정보나 물체 추적 정보를 획득하여 주처리부(500)로 전달하는 후처리부(400), 사용자의 요구 사항, 설정 사항 등을 입력 받기 위한 입력부(600), 차량의 현재 속도, 가속도, 각속도 등의 주행 상태 정보를 획득하는 차량 센서부(900), 입력부(600)를 통해 입력되는 사용자의 요구 사항, 차량 센서부(900)를 통해 입력되는 차량의 상태 정보, 및/또는 후처리부(400)로부터 오는 움직임 정보나 물체 추적 정보를 바탕으로 영상생성부(700)를 위한 파라미터들을 설정하는 주처리부(500), 후처리부(400)에서 입력되는 영상 및 주처리부(500)에서 입력되는 설정을 바탕으로 임의 시점의 가상 카메라 모델을 생성하여 다양한 영상을 생성하는 영상생성부(700), 및 영상생성부(700)에서 생성한 영상을 표시하는 화면부(800)를 포함할 수 있다. 영상생성부(700)에서 생성한 영상은 또한 저장부(300)에 저장될 수 있다. 상기 전처리부(200), 후처리부(400), 및 주처리부(500)는 하나의 프로세스로 구현되어 처리부를 구성할 수 있다. Referring to FIG. 1, in the apparatus for generating an image for a vehicle according to an embodiment of the present invention, a preprocessor 200 for preprocessing an image coming from the multi-camera unit 100 and the multi-camera unit 100 and transmitting the preprocessor to the post-processor 400. ), a post-processing unit 400 that acquires motion information or object tracking information from the current image coming from the pre-processing unit 200 or the past image read from the storage unit 300 and delivers it to the main processing unit 500, Input unit 600 for receiving requirements, setting information, etc., vehicle sensor unit 900 for acquiring driving state information such as current speed, acceleration, angular speed of the vehicle, and user requirements input through the input unit 600 , The main processing unit for setting parameters for the image generating unit 700 based on the state information of the vehicle input through the vehicle sensor unit 900, and/or motion information or object tracking information from the post-processing unit 400 ( 500), an image generation unit 700 for generating various images by generating a virtual camera model at an arbitrary point of view based on the image input from the post-processing unit 400 and the settings input from the main processing unit 500, and an image generation unit It may include a screen unit 800 that displays the image generated in 700. The image generated by the image generating unit 700 may also be stored in the storage unit 300. The pre-processing unit 200, the post-processing unit 400, and the main processing unit 500 may be implemented as a single process to constitute a processing unit.

이하 각 부를 좀 더 상세히 살펴본다.Hereinafter, each part will be examined in more detail.

도 2는 본 발명의 일 실시 예에 따른 차량에 설치된 복수의 광각 카메라들을 이용하여 구성된 다중 카메라부(100)를 도시한 도면이다.2 is a diagram illustrating a multi-camera unit 100 configured using a plurality of wide-angle cameras installed in a vehicle according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시 예에 따라 차량에는 C1부터 C5까지의 5개의 광각 카메라가 각각 전방, 좌측면, 우측면, 후방 및 실내에 구비될 수 있다. 각 광각 카메라의 위치는 십자 (cross) 마크 ('+')로 표시하였으며, 이들이 볼 수 있는 화각 (field of view)은 부채꼴 형태 또는 원형의 회색 영역으로 표현될 수 있다. 전방 광각 카메라(C1)는 차량의 앞 단에 위치할 수 있으며, 운전자 시야보다 앞선 전방 상황을 촬영할 수 있다. 주차장 등에서 후진 주차 시, 좌우에 위치한 차들에 의해 운전자의 시야가 가려질 수 있고, 이에 따라 운전자는 측면에서 다가오는 차량을 확인하기 어려워 사고 가능성이 커진다. 이러한 경우 앞 단에 위치한 전방 광각 카메라(C1)의 영상은 운전자로 하여금 전방 상황을 쉽게 확인할 수 있도록 도와줄 수 있다. 좌측, 우측 측면 광각 카메라(C2, C3)는 운전자의 시점과 비슷한 시점으로 넓은 범위의 측면 영상을 얻을 수 있도록 하기 위하여 종래 사이드미러 근처에 위치할 수 있다. 후방 광각 카메라(C4)는 후방 상황을 먼저 확인할 수 있도록 트렁크 손잡이 근처 혹은 트렁크 상단에 위치할 수 있으며, 실내 광각 카메라(C5)는 운전석, 보조석, 뒷열 좌석 및 전방 유리창 등 차량의 실내를 모두 포함할 수 있도록 전방 유리 상단 혹은 룸 미러 근처에 위치할 수 있다. Referring to FIG. 2, according to an exemplary embodiment of the present invention, five wide-angle cameras from C1 to C5 may be provided in a vehicle in front, left, right, rear, and interior, respectively. The position of each wide-angle camera is marked with a cross mark ('+'), and the field of view they can see can be expressed in a sector shape or a circular gray area. The front wide-angle camera C1 may be located at the front end of the vehicle, and may photograph a situation ahead of the driver's field of view. During reverse parking in a parking lot, the driver's view may be obscured by cars located on the left and right, and accordingly, it is difficult for the driver to check the approaching vehicle from the side, thereby increasing the possibility of an accident. In this case, the image of the front wide-angle camera C1 located at the front end may help the driver to easily check the situation ahead. The left and right side wide-angle cameras C2 and C3 may be positioned near the conventional side mirror in order to obtain a wide range of side images with a view similar to that of the driver. The rear wide-angle camera (C4) can be located near the trunk handle or at the top of the trunk so that the rear situation can be checked first, and the indoor wide-angle camera (C5) includes all the interior of the vehicle, such as the driver's seat, assistant seat, rear row seat and front windshield. It can be placed on top of the front windshield or near the room mirror.

도 2의 일 실시 예에서는 5개의 광각 카메라가 차량에 구비된 것을 설명하였지만 1개의 옴니(omni) 카메라 또는 2개의 광각 카메라가 차량의 지붕에 구비되어 차량의 주변을 촬영하고, 1개의 카메라가 차량의 실내를 촬영하는 형태의 2개 또는 3개의 카메라로 다중 카메라부(100)를 구성할 수 있다. In the exemplary embodiment of FIG. 2, it has been described that five wide-angle cameras are provided in the vehicle, but one omni camera or two wide-angle cameras are provided on the roof of the vehicle to photograph the surroundings of the vehicle. The multi-camera unit 100 may be configured with two or three cameras for photographing indoors.

도 2의 일 실시 예에 도시된 것처럼 다중 카메라부(100)는 복수의 광각 카메라를 구비하고 있고, 각각의 광각 카메라는 광각 렌즈가 장착되어 있으며, 직렬 디지털 인터페이스 (Serial Digital Interface; SDI) 혹은 병렬 디지털 인터페이스 (Parallel Digital Interface; PDI) 방식을 이용하여 촬영한 영상을 전처리부(200)로 전달할 수 있고, 각 광각 카메라를 제어하기 위한 해상도 및 프레임 레이트(frame rate) 등을 포함하는 제어 파라미터를 주처리부(500)로부터 받을 수 있다. As shown in the exemplary embodiment of FIG. 2, the multi-camera unit 100 includes a plurality of wide-angle cameras, each wide-angle camera is equipped with a wide-angle lens, and a serial digital interface (SDI) or parallel. The image captured using a parallel digital interface (PDI) method can be transferred to the preprocessor 200, and control parameters including resolution and frame rate for controlling each wide-angle camera are given. It can be received from the processing unit 500.

도 3은 본 발명의 일 실시 예에 따른 화면부(800)의 영상 출력 구성을 도시한 도면이다. 3 is a diagram illustrating an image output configuration of the screen unit 800 according to an embodiment of the present invention.

영상생성부(700)에서 생성된 영상은 화면부(800)에 표시될 수 있는데, 화면부(800)의 화면은 차량의 왼쪽 창 및 오른쪽 창에 위치할 수 있고, 특히 종래의 사이드미러와 운전자의 시야 사이의 왼쪽 창 및 오른쪽 창에 위치할 수 있다. 또는, 대시 보드(Dash board)의 센터페시아(Center fascia), 룸미러(room mirror), 차량의 전면 유리 등에 위치할 수도 있으며, 차량의 앞좌석 뒤쪽에 위치하여 탑승자에게 영상을 제공할 수도 있다. 화면부(800)는 사용자 입력에 따라 PIP(Picture in Picture) 기능을 포함한 다양한 조합으로 영상생성부(700)에서 생성한 영상들을 표시할 수 있다. The image generated by the image generating unit 700 may be displayed on the screen unit 800, and the screen of the screen unit 800 may be located in the left window and the right window of the vehicle. It can be located between the left window and the right window of the field of view. Alternatively, it may be located on a center fascia of a dash board, a room mirror, or a windshield of a vehicle, and may be located behind a front seat of a vehicle to provide an image to the occupant. The screen unit 800 may display images generated by the image generator 700 in various combinations including a picture in picture (PIP) function according to a user input.

도 3을 참조하면, 도 3의 (a)는 화면부(800) 전체에 도 2의 5개의 광각 카메라 영상 중 하나를 선택하여 표시하는 화면부(800)의 구성을 도시하고 있고, (b)는 화면부(800)를 4 분할하여 C1 내지 C4의 광각 카메라로 촬영한 영상을 각 분할된 화면에 보여주는 화면부(800)의 구성을 도시하고 있고, (c) 및 (d)는 화면부(800)를 임의 크기로 4 분할하고 C1 내지 C4의 광각 카메라로 촬영한 영상을 각 분할된 화면에 보여주는 화면부(800)의 구성을 도시하고 있고, (e)는 화면부(800)를 임의 크기로 5 분할하고 C1 내지 C5의 광각 카메라로 촬영한 영상을 각 분할된 화면에 보여주는 화면부(800)의 구성을 도시하고 있다. 특히 각 화면부(800)의 구성에 있어서 각 광각 카메라가 표시되는 분할 화면의 위치는 각 광각 카메라의 차량의 위치에 맞추어 주는 것이 바람직할 것이다. 이외에도 사용자 설정에 따라 다양한 조합으로 화면부(800)를 구성할 수 있다.Referring to FIG. 3, (a) of FIG. 3 shows a configuration of a screen unit 800 that selects and displays one of the five wide-angle camera images of FIG. 2 on the entire screen unit 800, and (b) Shows the configuration of the screen unit 800 that divides the screen unit 800 into four and displays images captured by the wide-angle cameras of C1 to C4 on each divided screen, and (c) and (d) are the screen units ( 800) is divided into four to an arbitrary size, and an image captured by a wide-angle camera of C1 to C4 is shown on each divided screen, and (e) shows the configuration of the screen unit 800 to an arbitrary size. It shows the configuration of the screen unit 800, which is divided into 5 and displays an image captured by the wide-angle cameras of C1 to C5 on each divided screen. In particular, in the configuration of each screen unit 800, it is preferable that the position of the split screen on which each wide-angle camera is displayed is matched to the position of the vehicle of each wide-angle camera. In addition, the screen unit 800 may be configured in various combinations according to user settings.

그리고 화면부(800)의 전체 화면이 분할되어 몇 개의 화면을 구성하는 경우 각 화면의 크기는 차량 주행 상황에 따라 실시간으로 변경될 수 있다. 일 예로서, 차량이 좌회전하고자 하는 경우 왼쪽 측방 카메라 및 전방 카메라에 의해 촬영된 영상을 출력하는 화면은 커지고, 후방 카메라 및 오른쪽 측방 카메라에 의해 촬영된 영상을 출력하는 화면은 작아질 수 있다. 그리고 다시 직진을 하게 되면 원래 설정된 화면 크기로 돌아올 수 있다. 또 다른 일 예로서, 차량이 직진하고 있을 때 왼쪽 추월 차선에서 다른 차량이 자신의 차량을 추월하고 있는 경우 후방 카메라에 의해 촬영된 영상을 출력하는 화면이 커졌다가 다음으로 왼쪽 카메라에 의해 촬영된 영상을 출력하는 화면을 키우면서 추월하는 다른 차량을 추적하면서 보여줄 수 있다.In addition, when the entire screen of the screen unit 800 is divided to form several screens, the size of each screen may be changed in real time according to the driving situation of the vehicle. As an example, when a vehicle intends to turn left, a screen outputting images captured by a left side camera and a front camera may be enlarged, and a screen outputting an image captured by a rear camera and a right side camera may become smaller. And if you go straight again, you can return to the original screen size. As another example, if another vehicle is passing your vehicle in the left passing lane while the vehicle is going straight, the screen that outputs the image captured by the rear camera is enlarged, and then the image taken by the left camera. It can be displayed while tracking other vehicles passing by while growing the screen that outputs.

다시 도 1을 참조하면, 전처리부(200)는 다중 카메라부(100)로부터 입력되는 영상을 수신하여 입력되는 영상으로부터 자동 색온도 보정(Auto White Balance; AWB), 자동 노출(Auto Exposure; AE), 자동 초점(Auto Focus; AF) 등의 광각 카메라를 제어하는데 필요한 정보를 추출하여 주처리부(500)로 전달하고, 불량 픽셀의 값 보정(Defect correction), 잡음 제거(Noise Reduction; NR) 및 광역 보정(Wide Dynamic Range; WDR)의 과정을 수행한 전처리 영상을 생성하고, 전처리 영상을 후처리부(400)로 전달할 수 있다. 이러한 전처리는 다중 카메라부(100)의 각 카메라에서 촬영한 각 영상에 대하여 별도로 수행될 수도 있거나 통합하여 함께 수행될 수도 있다.Referring back to FIG. 1, the preprocessor 200 receives an image input from the multi-camera unit 100 and performs automatic color temperature correction (Auto White Balance; AWB), an automatic exposure (AE), Information necessary to control a wide-angle camera such as Auto Focus (AF) is extracted and transmitted to the main processing unit 500, and defective pixel value correction (Defect correction), noise reduction (NR) and wide area correction are performed. A pre-processed image obtained by performing the process of (Wide Dynamic Range; WDR) may be generated, and the pre-processed image may be transmitted to the post-processing unit 400. This pre-processing may be performed separately for each image captured by each camera of the multi-camera unit 100 or may be performed in combination.

이 중 전처리부(200)의 광역 보정 기능은 차량 실내외 조도차를 제거하여 선명한 영상을 생성하기 위하여 수행할 수 있다. 도 2의 C5 광각 카메라처럼 실내에 설치된 카메라의 경우, 차량의 실내와 실외를 모두 촬영할 수 있다. 그런데 실내와 실외의 조도차가 크기 때문에, 하나의 카메라를 이용하여 실내와 실외 영상을 모두 촬영하기 위해서는 광역 보정 기술이 절대적으로 요구된다. 하지만, 종래의 광역 보정 기술은 하나의 화면에 대하여 셔터(Shutter) 속도를 달리하여 저 노출 영상과 고 노출 영상을 촬영하고, 픽셀별로 저 노출 영상 및 고 노출 영상의 대응하는 픽셀 값을 조합하여 최종 픽셀 값을 정하는 방식을 일반적으로 사용한다. 여기서, 저 노출 영상은 카메라의 노출을 작게 하였기 때문에 밝은 부분도 어둡게 표현되는 영상이고, 고 노출 영상은 카메라의 노출을 크게 하였기 때문에 어두운 부분도 밝게 표현되는 영상이다. 그러나 이러한 종래의 광역 보정 기술은 한 영상 내에 고조도 영상과 저조도 영상이 구분되어 포함되어 있는 차량용 카메라 영상에는 적합하지 않다. 이러한 차량용 카메라 영상의 경우에는 픽셀별로 고 노출 영상 또는 저 노출 영상 중의 하나만을 선택하는 것이 더 적합할 수 있다. 즉, 조도가 높아 밝은 부분에 해당하는 픽셀은 저 노출 영상의 대응하는 픽셀 값을, 조도가 낮아 어두운 부분에 해당하는 픽셀은 고 노출 영상의 대응하는 픽셀 값을 그 값으로 할 수 있다. Among them, the wide area correction function of the preprocessor 200 may be performed in order to generate a clear image by removing a difference in illuminance inside and outside the vehicle. In the case of a camera installed indoors, such as the C5 wide-angle camera of FIG. 2, both indoors and outdoors of the vehicle can be photographed. However, since the difference in illuminance between indoor and outdoor is large, wide area correction technology is absolutely required in order to capture both indoor and outdoor images using a single camera. However, the conventional wide area correction technique takes a low-exposure image and a high-exposure image by varying the shutter speed for one screen, and combines the corresponding pixel values of the low-exposure image and the high-exposure image for each pixel. The method of determining the pixel value is generally used. Here, the low-exposure image is an image in which bright portions are also expressed dark because the exposure of the camera is reduced, and the high-exposure image is an image in which dark portions are also expressed brightly because the exposure of the camera is increased. However, such a conventional wide area correction technique is not suitable for a vehicle camera image in which a high-illuminance image and a low-illuminance image are divided and included in one image. In the case of such a vehicle camera image, it may be more suitable to select only one of a high-exposure image or a low-exposure image for each pixel. That is, a pixel corresponding to a bright portion with high illuminance may have a corresponding pixel value of a low-exposure image, and a pixel corresponding to a dark portion with low illuminance may have a corresponding pixel value of a high exposure image.

본원 발명에서 제시하는 광역 보정 기술은 광각 카메라가 차량에 고정되어 부착되어 있는 것이 일반적이고, 따라서 광각 카메라로 촬영한 한 영상 내에서 고조도 영상(밝은 부분의 영상; 주로 차량 실외)과 저조도 영상(어두운 부분의 영상; 주로 차량 실내)이 위치하는 곳이 항상 일정할 것이다. 이를 바탕으로 초기 설정 모드에서 픽셀별로 고 노출 영상을 사용할 것인지 저 노출 영상을 사용할 것인지를 결정하여 노출 영역 정보로 설정하여 놓고, 이후 실제 운용 시에는 설정한 노출 영역 정보에 따라 각 픽셀의 값을 고 노출로 촬영한 영상의 것을 사용하거나 또는 저 노출로 촬영한 영상의 것을 사용함으로써 차량 실내외 조도차를 제거한 선명한 영상을 생성할 수 있다.In the wide-angle correction technology presented in the present invention, it is common that a wide-angle camera is fixed and attached to a vehicle, and therefore, a high-illumination image (image of a bright part; mainly outside the vehicle) and a low-light image ( The location of the dark part of the image (usually the interior of the vehicle) will always be constant. Based on this, in the initial setting mode, determine whether to use a high-exposure image or a low-exposure image for each pixel and set it as the exposure area information. By using an image shot with exposure or an image shot with low exposure, it is possible to create a clear image by removing the difference in illuminance inside and outside the vehicle.

본원 발명에서 제시하는 광역 보정 기술의 초기 설정 모드 동작을 보면, 먼저 광각 카메라의 셔터 속도를 조절하여, 두 가지의 노출 값을 적용한 두 장의 광역 보정용 영상, 즉 저 노출 영상 및 고 노출 영상(I1 및 I2)을 입력받는다. 이때 광각 카메라의 프레임 레이트는 60 fps(frame per second)일 수 있다. 일반적으로 영상은 30 fps로 생성되고, 광역 보정 기술은 한 화면에 대하여 저 노출 영상과 고 노출 영상 2개를 사용하여야 하므로 광각 카메라는 60 fps 속도로 영상을 생성하여야 한다. 전처리부(200)의 광대역 영상 보정 기능은 입력된 광역 보정용 영상 I1 및 I2를 바탕으로 광역 보정 임계치를 설정하고, 이 광역 보정 임계치를 바탕으로 영상 내의 각 픽셀에 대하여 저 노출 영상의 대응하는 픽셀 값을 사용할 것인지 아니면 고 노출 영상의 대응하는 픽셀 값을 사용할 것인지를 결정하고, 노출 영역 정보를 생성한다. 이렇게 생성된 노출 영역 정보는 저장부(300)에 저장될 수 있고, 추후 실제 운용 중에 광역 보정을 위하여 사용될 수 있다.Looking at the initial setting mode operation of the wide-angle correction technology proposed in the present invention, first, the shutter speed of the wide-angle camera is adjusted, and two wide-area correction images are applied, that is, a low-exposure image and a high-exposure image (I 1 And I 2 ) are inputted. In this case, the frame rate of the wide-angle camera may be 60 frames per second (fps). In general, an image is generated at 30 fps, and a wide-angle camera needs to generate an image at a speed of 60 fps because the wide-angle correction technique requires using two low-exposure images and high-exposure images for one screen. The wide-band image correction function of the preprocessor 200 sets a wide-area correction threshold based on the input wide-area correction images I 1 and I 2, and based on the wide-area correction threshold, the corresponding low-exposure image for each pixel in the image. It determines whether to use a pixel value or a corresponding pixel value of a high-exposure image, and generates exposure area information. The exposed area information generated in this way may be stored in the storage unit 300 and may be used for wide area correction during actual operation later.

일반 운용 모드에서도 광각 카메라는 셔터 속도를 조절하여 저 노출 영상과 고 노출 영상을 촬영하여 전처리부(200)로 전송한다. 전처리부(200)의 광대역 영상 보정 모듈은 초기 설정 모드에서 결정한 노출 영역 정보를 바탕으로 픽셀별로 저 노출 영상의 픽셀 값을 가져오거나 또는 고 노출 영상의 픽셀 값을 가져와서 새로운 영상을 생성하여 후처리부(400)로 전달할 수 있다. 상술한 방법을 통해 실내, 실외에 해당하는 영역을 영상에서 자동으로 판별하여 노출 영역 정보를 설정함으로써 실내, 실외의 조도차를 제거할 수 있다.Even in the general operation mode, the wide-angle camera captures a low-exposure image and a high-exposure image by adjusting the shutter speed, and transmits it to the preprocessor 200. The broadband image correction module of the preprocessor 200 obtains a pixel value of a low-exposure image for each pixel based on the exposure area information determined in the initial setting mode or a pixel value of a high-exposure image to generate a new image, and the post-processing unit You can pass it to 400. Through the above-described method, a difference in illuminance between indoor and outdoor can be eliminated by automatically determining an area corresponding to indoor or outdoor from an image and setting exposure area information.

이와 같은 전처리부(200)의 광대역 영상 보정 기능은 차량에 구비된 모든 광각 카메라의 영상에 적용될 수도 있지만 조도차가 확연히 나타나는 실내와 실외를 동시에 촬영할 수 있는 광각 카메라(도 2의 예에서는 C5)의 영상에만 적용할 수 있다. 따라서 주처리부(500)는 다중 카메라부(100)의 복수의 광각 카메라로부터 입력되는 영상 중 광역 보정 기술을 적용할 영상을 생성할 광각 카메라에 대하여는 60fps로 프레임 레이트를 설정할 수 있고, 또한 저 노출 영상을 위한 셔터 속도 및 고 노출 영상을 위한 셔터 속도를 설정할 수 있다. 반면에 광역 보정 기술을 적용하지 않는 광각 카메라에 대하여는 30 fps로 프레임 레이트를 설정할 수 있고, 셔터 속도 또한 하나의 값으로 설정할 수 있다. The broadband image correction function of the preprocessor 200 may be applied to images of all wide-angle cameras provided in the vehicle, but the image of a wide-angle camera (C5 in the example of FIG. 2) capable of simultaneously photographing indoors and outdoors where a difference in illuminance is evident. Applicable only to Accordingly, the main processing unit 500 may set the frame rate to 60 fps for a wide-angle camera that will generate an image to which the wide-area correction technology is applied among images input from a plurality of wide-angle cameras of the multi-camera unit 100, and also, a low-exposure image. You can set the shutter speed for high-exposure images and shutter speed for high-exposure images. On the other hand, for a wide-angle camera to which the wide-angle correction technology is not applied, the frame rate can be set at 30 fps, and the shutter speed can also be set to one value.

후처리부(400)는 전처리부(200)를 통해 다중 카메라부(100)에서 촬영한 영상들을 전처리한 영상들을 입력받거나 또는 저장부(300)로부터 과거에 촬영하여 저장해 놓았던 과거 영상들을 입력받을 수 있다. 후처리부(400)는 전처리 영상들에 대하여는 밝기 및 색상 신호 분리, 경계부 개선(Edge Enhancement), 감마 보정(Gamma Correction), 색상 보정(Color Correction), 밝기 개선(Contrast Enhancement) 등의 후처리 과정을 수행한 후처리 영상을 생성하고, 후처리 영상을 비디오 코덱을 이용하여 압축하여 저장부(300)에 전달함으로써 저장부에서 메모리 등에 저장하도록 할 수 있다. 또한 후처리부(400)는 움직임 검출기(Motion Detector), 차선 검출기(Lane Detector), 및/또는 물체 추적기(Object Tracker) 등을 이용하여 후처리 영상 또는 저장부(300)로부터 받은 과거 영상으로부터 움직임 검출 정보나 차선 검출 정보, 물체 추적 정보 등을 획득하여 주처리부(500)로 전달할 수 있다. 또한, 후처리부(400)는 후처리 영상 또는 저장부(300)로부터 받은 과거 영상을 영상생성부(700)로 전달할 수 있다.The post-processing unit 400 may receive pre-processed images of images captured by the multi-camera unit 100 through the pre-processing unit 200 or may receive past images captured and stored in the past from the storage unit 300. . The post-processing unit 400 performs post-processing processes such as separation of brightness and color signals, edge enhancement, gamma correction, color correction, and contrast enhancement for pre-processed images. The performed post-processed image is generated, and the post-processed image is compressed using a video codec and transmitted to the storage unit 300 to be stored in a memory or the like in the storage unit. In addition, the post-processing unit 400 detects motion from a post-processed image or a past image received from the storage unit 300 using a motion detector, a lane detector, and/or an object tracker. Information, lane detection information, object tracking information, etc. may be acquired and transmitted to the main processing unit 500. In addition, the post-processing unit 400 may transmit a post-processed image or a past image received from the storage unit 300 to the image generating unit 700.

주처리부(500)는 후처리부(400)로부터 오는 정보, 입력부(600)로부터 오는 사용자 입력 정보, 및/또는 차량 센서부(900)로부터 오는 속도, 가속도, 각가속도 등의 차량 상태 정보를 바탕으로 영상생성부(700)에 필요한 설정 정보를 생성하여 영상생성부(700)로 전달할 수 있고, 또한 다중 카메라부(100)에 구비된 복수의 광각 카메라의 촬영을 위한 파라미터를 설정할 수 있다.The main processing unit 500 is an image based on information from the post processing unit 400, user input information from the input unit 600, and/or vehicle state information such as speed, acceleration, and angular acceleration from the vehicle sensor unit 900. Setting information necessary for the generation unit 700 may be generated and transmitted to the image generation unit 700, and parameters for photographing a plurality of wide-angle cameras provided in the multi-camera unit 100 may be set.

일 실시 예로서 주처리부(500)는 차량 속도에 따라 다중 카메라부(100)에 구비된 복수의 광각 카메라의 각각에 대한 영상 해상도, 셔터 속도 및 프레임 레이트(frame rate)를 변경할 수 있다. 예를 들면, 주처리부(500)는 차량이 고속 주행 시 혹은 차량 충돌 시 등에서는 광각 카메라의 프레임 레이트를 높이도록 제어하여 광각 카메라가 초고속 영상을 생성할 수 있도록 하고, 저속 주행 시에는 프레임 레이트를 낮추고 해상도를 높이도록 제어하여 주변 상황에 대한 초고해상도 영상을 생성하도록 제어할 수 있다. 또한, 상술한 바처럼 광대역 보정 기술을 적용할 것인지에 따라 프레임 레이트를 다르게 할 수 있다.As an embodiment, the main processing unit 500 may change the image resolution, shutter speed, and frame rate for each of a plurality of wide-angle cameras provided in the multi-camera unit 100 according to the vehicle speed. For example, the main processing unit 500 controls to increase the frame rate of the wide-angle camera when the vehicle is driving at high speed or when a vehicle crashes, so that the wide-angle camera can generate a super-high-speed image, and when driving at a low speed, the frame rate is adjusted. It can be controlled to lower and increase the resolution to generate an ultra-high resolution image of the surrounding situation. Also, as described above, the frame rate may be different depending on whether or not to apply the broadband correction technique.

이러한 주처리부(500)에 의한 다중 카메라부(100)의 광각 카메라들을 위한 설정은 입력부(600)에서의 사용자 입력, 후처리부(400)에서의 움직임 검출 정보, 차선 검출 정보, 물체 추적 정보, 차량 센서부(900)로부터의 차량 주행 정보 및/또는 전처리부(200)로부터 오는 자동 색온도 보정(Auto White Balance; AWB), 자동 노출(Auto Exposure; AE), 자동 초점(Auto Focus; AF)을 포함하는 영상 정보 등을 바탕으로 수행될 수 있으며, 각 조합된 조건에 따라 타당한 해상도 및 프레임 레이트로 설정할 수 있을 것이다. The settings for the wide-angle cameras of the multi-camera unit 100 by the main processing unit 500 include user input at the input unit 600, motion detection information at the post processing unit 400, lane detection information, object tracking information, and vehicle. Includes vehicle driving information from the sensor unit 900 and/or automatic color temperature correction from the preprocessor 200 (Auto White Balance; AWB), Auto Exposure (AE), and Auto Focus (AF). It may be performed based on the image information and the like, and may be set to a reasonable resolution and frame rate according to each combined condition.

또한 주처리부(500)는 영상생성부(700)에 필요한 설정 정보를 생성하여 영상생성부(700)가 요구되는 영상을 생성하도록 제어할 수 있는데 이에 대한 상세한 설명은 영상생성부(700)에 대한 설명이후 계속한다. In addition, the main processing unit 500 may generate setting information necessary for the image generation unit 700 and control the image generation unit 700 to generate the required image. Continue after explanation.

영상생성부(700)는 광각 카메라를 이용하여 넓은 범위를 촬영한 영상을 바탕으로 사용자의 설정에 의한 특정 시점에서 보여지는 영상을 생성할 수 있다. 즉 영상생성부(700)는 복수의 영상 생성 코어 및 영상합성부를 포함하고 있고, 각각의 영상 생성 코어는 다중 카메라부(100)에 있는 복수의 광각 카메라가 촬영한 영상들 중의 하나를 입력 영상으로 하고, 상술한 처리부에 의해 설정된 파라미터에 따른 시점을 가지는 가상 카메라를 모델링하고, 입력 영상으로부터 가상 카메라의 시점에서 보여지는 영상을 생성하여 출력한다. 그리고 영상합성부는 각 영상 생성 코어의 출력 영상을 처리부가 설정한 화면 구성에 따라 합성하여 최종 출력 영상을 생성할 수 있다. The image generator 700 may generate an image displayed at a specific point in time according to a user's setting based on an image photographed in a wide range using a wide-angle camera. That is, the image generation unit 700 includes a plurality of image generation cores and an image synthesis unit, and each image generation core receives one of the images captured by a plurality of wide-angle cameras in the multi-camera unit 100 as an input image. Then, a virtual camera having a viewpoint according to a parameter set by the above-described processing unit is modeled, and an image viewed from the viewpoint of the virtual camera is generated from the input image and output. In addition, the image synthesizing unit may generate a final output image by synthesizing the output images of each image generating core according to a screen configuration set by the processing unit.

도 4는 본 발명의 일 실시 예에 따른 임의 시점의 가상 카메라 기반의 영상생성부(700)의 구성을 도시한 도면이다.4 is a diagram illustrating a configuration of a virtual camera-based image generator 700 at an arbitrary point in time according to an embodiment of the present invention.

도 4에 도시된 것처럼 영상생성부(700)는 차량에 구비된 복수의 광각 카메라 각각에 대응하여 입력되는 설정에 따라 영상을 생성할 수 있는 영상 생성 코어(701, 702, 703)를 포함하고 있고, 각 영상 생성 코어(701, 702, 703)에서 생성된 영상들은 영상 합성부(740)에서 화면부(800)의 구성에 맞추어서 출력 영상으로 합성이 될 수 있다. 그리고 이렇게 합성된 출력 영상은 화면부(800)로 출력되거나 저장부(300)에 저장될 수 있다. As shown in FIG. 4, the image generation unit 700 includes image generation cores 701, 702, and 703 capable of generating an image according to a setting input corresponding to each of a plurality of wide-angle cameras provided in the vehicle. , Images generated by each of the image generation cores 701, 702, and 703 may be synthesized into an output image in accordance with the configuration of the screen unit 800 by the image synthesis unit 740. In addition, the synthesized output image may be output to the screen unit 800 or may be stored in the storage unit 300.

영상생성부(700)의 각 영상 생성 코어(701, 702, 703)에 필요한 설정 입력은 주처리부(500)에서 제공하고, 각 영상 입력은 후처리부(400)를 통해 입력될 수 있다. Setting inputs required for each image generation core 701, 702, 703 of the image generation unit 700 are provided by the main processing unit 500, and each image input may be input through the post processing unit 400.

이하 하나의 영상 생성 코어의 기능을 설명한다. Hereinafter, the function of one image generating core will be described.

도 4를 참조하면, 본 발명의 일 실시 예에 따른 영상생성부(700)의 각 영상 생성 코어(701, 702, 703)는 가상 카메라 모델부(710), 2차 곡면 모델부(720), 및 카메라 투영 모델부(730)를 포함할 수 있다. 4, each image generating core 701, 702, 703 of the image generating unit 700 according to an embodiment of the present invention includes a virtual camera model unit 710, a second curved surface model unit 720, and And a camera projection model unit 730.

가상 카메라 모델부(710)는 각 영상 생성 코어에서 생성하는 영상이 임의 시점에서 보는 것처럼 표시되도록 하기 위하여, 설정된 임의의 위치에 가상 카메라가 있는 것처럼 모델링을 할 수 있다. 또한, 가상 카메라 모델부(710)는 디지털 PTZ(Pan, Tilt, Zoom) 기능 및 특수 렌즈 효과를 생성할 수 있는데 이를 위하여 일반적인 원근 효과를 갖는 원근 투영 카메라(perspective projection camera), 원근 효과가 제거된 렌즈를 모방할 수 있는 직각 투영 카메라(orthographic projection camera), 극좌표(polar coordinate) 영상 모델을 사용하여 파노라마 영상을 생성하는 파노라마 카메라 모델 등으로 가상 카메라를 모델링 할 수 있다. 이 경우 하나의 입력 영상에 대하여 복수 개의 영상을 출력하기 위하여 하나 이상의 가상 카메라가 모델링될 수도 있다. 2차 곡면 모델부(720)는 가상 카메라 모델부(710)에서 모델링된 가상 카메라에 의해 보여지는 영상인 영상 생성 코어(701, 702, 703)의 출력 영상과 입력 영상 매핑(mapping)시 다양한 영상 효과를 추가하기 위하여 사용할 수 있는 거울 기능을 하는 2차 곡면을 제공하고, 카메라 투영 모델부(730)는 입력 영상에 포함되어 있는 왜곡을 제거하면서 가상 카메라에 의해 보여지는 영상의 한 점을 입력 영상의 한 점으로 매핑시킬 수 있다. The virtual camera model unit 710 may perform modeling as if there is a virtual camera at a set arbitrary position in order to display an image generated by each image generating core as if viewed from an arbitrary viewpoint. In addition, the virtual camera model unit 710 can generate a digital PTZ (Pan, Tilt, Zoom) function and a special lens effect. To this end, a perspective projection camera having a general perspective effect and a perspective effect are removed. Virtual cameras can be modeled with an orthographic projection camera that can imitate a lens, or a panorama camera model that generates a panoramic image using a polar coordinate image model. In this case, one or more virtual cameras may be modeled to output a plurality of images for one input image. The second curved surface model unit 720 is an image displayed by a virtual camera modeled in the virtual camera model unit 710, which is an image generated by the image generation cores 701, 702, 703, and various images during mapping. A second-order curved surface that functions as a mirror that can be used to add effects is provided, and the camera projection model unit 730 removes distortion included in the input image and selects a point of the image displayed by the virtual camera as an input image. It can be mapped to a point of.

각 부를 좀 더 자세히 살펴보기 전에 먼저 본 발명에서 사용되는 몇 가지 좌표계를 설명한다. 본 발명에서는 가상 카메라에 의해서 보여지는 영상의 한 점 또는 픽셀을 나타내기 위한 가상 카메라 좌표계 {n}, 2차 곡면의 중심을 영점으로 하여 좌표를 나타내는 2차 곡면 좌표계 {q}, 실제 주변을 촬영한 광각 카메라에 의해 찍힌 각 영상 내의 좌표를 나타내기 위한 카메라 좌표계 {c}를 사용한다. 그리고 이러한 좌표계에 의해 표시되는 좌표는 기준 좌표계인 장면 좌표계(Worldwide Coordinate) {0}상의 좌표로 변환될 수 있다.Before looking at each part in more detail, some coordinate systems used in the present invention will be described first. In the present invention, a virtual camera coordinate system {n} to indicate a point or pixel of an image viewed by a virtual camera, a second curved coordinate system {q} indicating coordinates with the center of the second curved surface as a zero point, and the actual surroundings are photographed. A camera coordinate system {c} is used to indicate the coordinates in each image taken by a wide-angle camera. In addition, the coordinates displayed by this coordinate system may be converted into coordinates on the scene coordinate system {0}, which is a reference coordinate system.

가상 카메라 모델부(710)는 기계적인 구동부 및 전동 줌 렌즈를 사용하여 팬(pan), 틸트(tilt), 및 줌(zoom) 기능을 갖는 PTZ(pan, tilt, zoom) 카메라와 유사하게 가상 카메라(virtual camera)가 임의의 시점에서 보는 것과 같은 영상을 생성할 수 있도록 가상 카메라의 위치 및 자세를 모델링하고, 그에 따른 가상 카메라의 시점에서 보여지는 영상(J)의 점(픽셀)을 모델링할 수 있다. 이때 가상 카메라 좌표계가 사용될 수 있다.The virtual camera model unit 710 is a virtual camera similar to a PTZ (pan, tilt, zoom) camera having pan, tilt, and zoom functions using a mechanical driving unit and an electric zoom lens. The position and posture of the virtual camera can be modeled so that the (virtual camera) can create the same image as seen from an arbitrary point of view, and the point (pixel) of the image (J) seen from the virtual camera's point of view can be modeled accordingly. have. In this case, a virtual camera coordinate system may be used.

도 5는 본 발명의 일 실시 예에 따른 가상 카메라 모델부(710)의 개략적인 구성을 도시한 도면이다.5 is a diagram showing a schematic configuration of a virtual camera model unit 710 according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시 예에 따른 가상 카메라 모델부(710)는 직각좌표 표시모듈(311), 극좌표 표시모듈(312), 크기 조정 모듈(313), 위치설정 모듈(314), 변환 모듈(315), 및 광축중심 설정모듈(316)을 포함할 수 있다. 5, a virtual camera model unit 710 according to an embodiment of the present invention includes a rectangular coordinate display module 311, a polar coordinate display module 312, a size adjustment module 313, and a position setting module 314. , A conversion module 315, and an optical axis center setting module 316.

직각좌표 표시모듈(311)은 가상 카메라의 시점에서 보여지는 영상(J)의 한 점의 좌표(u)를 직각 좌표 형식으로 표시할 수 있다. 직각좌표 표시모듈(311)은 좌표(u)를 가상 카메라의 시점에서 보여지는 영상(J)의 중심에 대한 상대 좌표로 나타낼 수 있다. 따라서 직각좌표 표시모듈(311)은

Figure 112019063512393-pat00006
에 의해서 구해지는
Figure 112019063512393-pat00007
의 직각 좌표 형식으로 좌표(u)를 표시할 수 있다. 여기서
Figure 112019063512393-pat00008
는 가상 카메라의 시점에서 보여지는 영상(J)의 중심을 직각 좌표 형식으로 나타낸 것이고, 설정 가능한 파라미터이다. 이처럼 영상 좌표를 직각 좌표 형식을 이용하여 표시하는 영상은 원근 투영 카메라 또는 직각 투영 카메라에서 사용될 수 있다.The rectangular coordinate display module 311 may display the coordinate u of a point of the image J viewed from the viewpoint of the virtual camera in a rectangular coordinate format. The rectangular coordinate display module 311 may represent the coordinate u as a relative coordinate with respect to the center of the image J viewed from the viewpoint of the virtual camera. Therefore, the rectangular coordinate display module 311
Figure 112019063512393-pat00006
Obtained by
Figure 112019063512393-pat00007
You can display the coordinates (u ) in a rectangular coordinate format of. here
Figure 112019063512393-pat00008
Denotes the center of the image (J) viewed from the viewpoint of the virtual camera in a rectangular coordinate format, and is a parameter that can be set. As such, an image displaying image coordinates using a rectangular coordinate format may be used in a perspective projection camera or a rectangular projection camera.

극좌표 표시모듈(312)은 가상 카메라의 시점에서 보여지는 영상(J)의 한 점의 좌표(u)를 극좌표 형식으로 표시할 수 있다. 이때 사용되는 파라미터로는 극좌표 형식에서 사용할 반지름의 최소값(

Figure 112019063512393-pat00009
)과 최대값(
Figure 112019063512393-pat00010
), 반지름 방향 픽셀 수(
Figure 112019063512393-pat00011
), 각도의 최소값(
Figure 112019063512393-pat00012
) 과 최대값(
Figure 112019063512393-pat00013
), 그리고 가상 카메라상에서의 극좌표 변환을 위한 극좌표 형식에서의 중심 (
Figure 112019063512393-pat00014
)을 포함하며, 설정가능한 파라미터들이다. 그러면 좌표(u)를 나타내는 극좌표 (r, θ)는 다음과 같이 표현될 수 있다.The polar coordinate display module 312 may display the coordinate u of a point of the image J viewed from the viewpoint of the virtual camera in a polar coordinate format. The parameter used at this time is the minimum value of the radius to be used in the polar coordinate format (
Figure 112019063512393-pat00009
) And the maximum value (
Figure 112019063512393-pat00010
), the number of radial pixels (
Figure 112019063512393-pat00011
), the minimum value of the angle (
Figure 112019063512393-pat00012
) And the maximum value (
Figure 112019063512393-pat00013
), and the center in polar coordinate format for polar coordinate conversion on the virtual camera (
Figure 112019063512393-pat00014
) And are configurable parameters. Then, the polar coordinates (r, θ) representing the coordinates u can be expressed as follows.

Figure 112019063512393-pat00015
Figure 112019063512393-pat00015

여기서,

Figure 112019063512393-pat00016
이다. 그리고 극좌표 형식으로 표시되는 영상 좌표
Figure 112019063512393-pat00017
는 다음과 같이 표현될 수 있다.here,
Figure 112019063512393-pat00016
to be. And image coordinates displayed in polar coordinate format
Figure 112019063512393-pat00017
Can be expressed as

Figure 112019063512393-pat00018
Figure 112019063512393-pat00018

즉, 극좌표 표시모듈(312)은

Figure 112019063512393-pat00019
의 극좌표 형식으로 좌표(u)를 표시할 수 있다. 이러한 극 좌표 형식의 표시는 파노라마 영상을 생성하는데 이용될 수 있다.That is, the polar coordinate display module 312 is
Figure 112019063512393-pat00019
You can display the coordinates (u ) in the form of polar coordinates of. This polar coordinate format display can be used to create a panoramic image.

가상 카메라 모델은 가상 카메라의 시점에서 보여지는 영상(J)의 한 점의 좌표(u)를 직각 좌표 형식 또는 극좌표 형식으로 표현할 수 있으며, 사용자의 선택(

Figure 112019063512393-pat00020
)에 의하여 어떤 표현 방식을 사용할 것인지를 결정할 수 있다. The virtual camera model can express the coordinates (u ) of a point in the image (J ) viewed from the viewpoint of the virtual camera in a rectangular coordinate format or a polar coordinate format, and the user's choice (
Figure 112019063512393-pat00020
), you can decide which expression method to use.

크기 조정 모듈(313)은 사용자가 보기 편리한 형태로 가상 카메라 영상의 크기 보상을 수행하는 과정으로, 영상의 가로축과 세로축으로의 크기 비율을 조정할 수 있다. 이러한 크기 비율은 상술한 다양한 화면의 구성 방식에 따라 변화될 수 있고, 각 영상 생성 코어 별로 다르게 설정될 수 있다. 그리고 이에 따라 가상 카메라의 시점에서 보여지는 영상(J)의 한 점의 좌표(u)를 조정할 수 있다. 즉, 크기 조정 모듈(313)은 가상 카메라에서 생성된 영상과 사용자의 눈에 보이는 실제 공간과의 이질감이 발생하면, 사용자는 그 영상을 보면서 어지러움 등을 느낄 수 있고, 거리감이 없어져 공간적인 감각이 떨어진다. 이러한 이질감을 최소화하기 위하여 크기 조정 모듈(313)을 사용할 수 있다. 즉, 크기 조정 모듈(313)은 사용자의 선택(

Figure 112019063512393-pat00021
)에 의해 직각 좌표 형식 또는 극좌표 형식으로 표현되는 가상 카메라 영상의 한 점의 좌표 (u')를 크기 보상 행렬과 초점거리를 이용하여 가상 카메라 좌표계 상의 좌표 (
Figure 112019063512393-pat00022
)로 표현할 수 있다. 이때의 좌표(
Figure 112019063512393-pat00023
)는 다음 식을 이용하여 구할 수 있다.The size adjustment module 313 is a process of compensating the size of a virtual camera image in a form convenient for a user to view, and may adjust a size ratio of the image to a horizontal axis and a vertical axis. This size ratio may be changed according to the above-described various screen configuration methods, and may be set differently for each image generating core. And accordingly, it is possible to adjust the coordinates u of one point of the image J viewed from the viewpoint of the virtual camera. That is, when the size adjustment module 313 has a feeling of disparity between the image generated by the virtual camera and the real space visible to the user's eyes, the user can feel dizziness while viewing the image, and the sense of distance disappears, resulting in a spatial sense. Falls. In order to minimize this sense of heterogeneity, a size adjustment module 313 may be used. That is, the resizing module 313 is selected by the user (
Figure 112019063512393-pat00021
) By using the coordinates (u' ) of a point in the virtual camera image expressed in a rectangular coordinate format or a polar coordinate format by using the size compensation matrix and the focal length in the virtual camera coordinate system (
Figure 112019063512393-pat00022
) Can be expressed. The coordinates at this time (
Figure 112019063512393-pat00023
) Can be obtained using the following equation.

Figure 112019063512393-pat00024
Figure 112019063512393-pat00024

여기서,

Figure 112019063512393-pat00025
은 가로축과 세로축 크기 보상값들로 구성된 대각행렬(diagonal matrix)이고,
Figure 112019063512393-pat00026
은 가상카메라의 초점 거리(focal length)다.here,
Figure 112019063512393-pat00025
Is a diagonal matrix composed of size compensation values on the horizontal and vertical axes,
Figure 112019063512393-pat00026
Is the focal length of the virtual camera.

위치 설정 모듈(314)은 가상 카메라의 위치와 자세를 설정한다.The position setting module 314 sets the position and posture of the virtual camera.

가상 카메라 모델은 기계적인 구동부 및 전동 줌 렌즈를 사용하여 팬(pan), 틸트(tilt), 및 줌(zoom) 기능을 갖는 PTZ(pan, tilt, zoom) 카메라와 유사하게 가상 카메라(virtual camera)가 임의의 시점에서 보는 것과 같은 영상을 생성할 수 있도록 가상 카메라의 위치 및 자세를 모델링할 수 있다. 이때 가상 카메라의 위치와 자세 설정을 위하여 가상 카메라 좌표계가 사용될 수 있다.The virtual camera model is a virtual camera similar to a PTZ (pan, tilt, zoom) camera with pan, tilt, and zoom functions using a mechanical driving unit and an electric zoom lens. It is possible to model the position and posture of the virtual camera so that it can generate the same image as seen from an arbitrary viewpoint. In this case, a virtual camera coordinate system may be used to set the position and posture of the virtual camera.

도 6은 장면 좌표계(world coordinate)와 비교한 가상 카메라 좌표계 {n}을 도시한다.6 shows a virtual camera coordinate system {n} compared with a world coordinate system.

가상 카메라 좌표계 {n}는 팬, 틸트 기능을 위해 장면 좌표계의 중심(10)을 기준으로 상하좌우 회전이 가능하고, 줌 기능을 위해 시점의 위치를 zn 방향으로 이동할 수 있다. 도 5를 참조하면, φn, θn을 각각 가상 카메라의 장면 좌표계의 z축(11)에 대한 수평 회전각(azimuth) 및 수직 회전각(elevation)으로 둘 수 있고,

Figure 112019063512393-pat00027
을 장면 좌표계 {0} 상에서의 가상 카메라의 위치,
Figure 112019063512393-pat00028
를 장면 좌표계 {0} 상에서의 2차 곡면모델의 중심 위치이며 가상 카메라의 팬, 틸트 회전의 중심으로 두면, 장면 좌표계 {0} 상에서 2차 곡면모델로 매핑되는 가상 카메라 좌표계 {n}를 표현한 변환 행렬(
Figure 112019063512393-pat00029
)은 다음과 같이 표현할 수 있다.The virtual camera coordinate system {n} can be rotated vertically and horizontally based on the center 10 of the scene coordinate system for pan and tilt functions, and the position of the viewpoint can be moved in the z n direction for the zoom function. Referring to FIG. 5, φ n and θ n may be set as a horizontal rotation angle (azimuth) and a vertical rotation angle (elevation) with respect to the z-axis 11 of the scene coordinate system of the virtual camera, respectively,
Figure 112019063512393-pat00027
The position of the virtual camera in the scene coordinate system {0},
Figure 112019063512393-pat00028
Is the center position of the second-order surface model on the scene coordinate system {0} and is the center of the virtual camera's pan and tilt rotation, the transformation representing the virtual camera coordinate system {n} that is mapped to the second-order surface model on the scene coordinate system {0} procession(
Figure 112019063512393-pat00029
) Can be expressed as follows.

Figure 112019063512393-pat00030
Figure 112019063512393-pat00030

여기서, trans(·)는 3차원 공간상의 이동 행렬(3-D translational matrix)을 나타내고, rotz(·)와 rotx(·)는 각각 z축과 x축을 회전축으로 하는 회전 행렬들(3-D rotational matrices)이다. 그리고 상기 변환 행렬(

Figure 112019063512393-pat00031
)은
Figure 112019063512393-pat00032
의 단위 벡터 형태로 표현될 수 있다. 여기서,
Figure 112019063512393-pat00033
,
Figure 112019063512393-pat00034
, 및
Figure 112019063512393-pat00035
은 각각 가상 카메라 좌표계 {n} 상에서의 각 단위 벡터({1,0,0}, {0,1,0}, 및 {0,0,1})를 장면 좌표계 {0} 상의 좌표로 변환했을 때의 단위 벡터 표현이고,
Figure 112019063512393-pat00036
은 가상 카메라 좌표계 {n} 상에서의 원점({0,0,0})을 장면 좌표계 {0} 상의 좌표로 변환했을 때의 단위 벡터 표현이다. 상술한 것과 같이 수평 회전각과 수직 회전각을 사용한 가상 좌표계의 표현은 상하가 뒤집히지 않고, 어떤 중심을 기준으로 하여도 회전이 가능하며, 줌 기능을 효과적으로 표현할 수 있으므로 기계적인 구동부를 사용한 PTZ 기능을 거의 흡사하게 동작시킬 수 있는 장점이 있다. 이러한 가상 좌표계의 표현 이외에도 사용자의 설정에 따라 임의 방식으로 가상 좌표계를 표현하는 것도 가능하다.Here, trans(·) denotes a 3-D translational matrix in 3D space, and rot z (·) and rot x (·) denote rotation matrices with the z-axis and the x-axis as rotation axes (3- D rotational matrices). And the transformation matrix (
Figure 112019063512393-pat00031
)silver
Figure 112019063512393-pat00032
It can be expressed in the form of a unit vector of. here,
Figure 112019063512393-pat00033
,
Figure 112019063512393-pat00034
, And
Figure 112019063512393-pat00035
Transforms each unit vector ({1,0,0}, {0,1,0}, and {0,0,1}) on the virtual camera coordinate system {n} into coordinates on the scene coordinate system {0}. Is the unit vector representation of time,
Figure 112019063512393-pat00036
Is a unit vector expression when the origin ({0,0,0}) on the virtual camera coordinate system {n} is converted into coordinates on the scene coordinate system {0}. As described above, the expression of the virtual coordinate system using the horizontal and vertical rotation angles is not upside down, can be rotated based on any center, and can effectively express the zoom function. It has the advantage of being able to operate almost similarly. In addition to the expression of the virtual coordinate system, it is also possible to express the virtual coordinate system in an arbitrary manner according to the user's settings.

즉, 위치 설정 모듈(314)은 장면 좌표계상에서의 2차 곡면 모델의 중심(

Figure 112019063512393-pat00037
), 장면 좌표계상에서의 가상 카메라의 위치(
Figure 112019063512393-pat00038
), 및 가상 카메라의 장면 좌표계의 z축(11)에 대한 수평 회전각(φn) 및 수직 회전각(θn)을 파라미터로 입력받아 장면 좌표계 상에서 가상 좌표계를 표현한 변환 행렬(
Figure 112019063512393-pat00039
)을 계산한다. 이 변환 행렬에 의하여 가상 카메라의 시점에서 보여지는 영상(J)의 한 점의 좌표(u)를 장면 좌표계의 한 좌표(
Figure 112019063512393-pat00040
)로 변환할 수 있다.That is, the position setting module 314 is the center of the second-order curved surface model on the scene coordinate system (
Figure 112019063512393-pat00037
), the position of the virtual camera in the scene coordinate system (
Figure 112019063512393-pat00038
), and a transformation matrix representing the virtual coordinate system in the scene coordinate system by receiving the horizontal rotation angle (φ n ) and the vertical rotation angle (θ n ) with respect to the z-axis 11 of the scene coordinate system of the virtual camera as parameters (
Figure 112019063512393-pat00039
) Is calculated. By this transformation matrix, the coordinates (u ) of one point of the image (J ) viewed from the viewpoint of the virtual camera are converted into one coordinate (
Figure 112019063512393-pat00040
) Can be converted.

변환 모듈(315)은 위치 설정 모듈(314)에서 계산한 변환 행렬(

Figure 112019063512393-pat00041
)을 이용하여 가상 카메라의 시점에서 보여지는 영상(J)의 한 점의 좌표(u)에 대응되는 장면 좌표계의 한 좌표(
Figure 112019063512393-pat00042
)를 계산한다.The transformation module 315 is a transformation matrix calculated by the position setting module 314 (
Figure 112019063512393-pat00041
) Using the coordinates of the scene coordinate system corresponding to the coordinates (u ) of a point in the image (J ) viewed from the viewpoint of the virtual camera (
Figure 112019063512393-pat00042
) Is calculated.

광축중심 설정모듈(316)은 가상 카메라의 광축 중심을 설정하기 위한 것이다.The optical axis center setting module 316 is for setting the optical axis center of the virtual camera.

도 7은 가상 카메라의 광축 중심을 설명하기 위한 도면이다.7 is a diagram for explaining the center of an optical axis of a virtual camera.

도 7을 참조하면, 원근 투영 카메라와 직각 투영 카메라는 투영선(projection ray)이 광축 중심점(optical center)으로 모이는지에 따라 달라질 수 있다. 원근 투영 카메라에서는 도 7의 (a)에 도시되어 있는 것처럼 모든 투영선이 하나의 중심점으로 모이고, 직각 투영 카메라에서는 도 7의 (b)에 도시되어 있는 것처럼 모든 투영선이 광축(principal axis)과 평행하게 된다. 따라서 광축 중심(

Figure 112019063512393-pat00043
)은 다음과 같이 표현될 수 있다. 여기서
Figure 112019063512393-pat00044
의 왼쪽 위에 있는 '0'은 좌표계를 나타내는 것으로 {0}은 장면 좌표계상의 좌표로 표시됨을 나타낸다.Referring to FIG. 7, the perspective projection camera and the orthogonal projection camera may vary depending on whether a projection ray converges to an optical center. In the perspective projection camera, as shown in Fig. 7(a), all the projection lines are gathered at one center point, and in the orthogonal projection camera, as shown in Fig. 7(b), all the projection lines are parallel to the optical axis. do. Therefore, the center of the optical axis (
Figure 112019063512393-pat00043
) Can be expressed as here
Figure 112019063512393-pat00044
'0' at the top left of '0' indicates the coordinate system, and {0} indicates that it is displayed as coordinates on the scene coordinate system.

Figure 112019063512393-pat00045
Figure 112019063512393-pat00045

여기서,

Figure 112019063512393-pat00046
은 초점 거리(focal length)이고,
Figure 112019063512393-pat00047
는 상술한 바와 같이 가상 카메라의 시점에서 보여지는 영상(J)의 한 점의 좌표(u)에 대응되는 장면 좌표계의 좌표이고,
Figure 112019063512393-pat00048
Figure 112019063512393-pat00049
은 상술한 것처럼 변환 행렬(
Figure 112019063512393-pat00050
)을 단위 벡터 형태인
Figure 112019063512393-pat00051
으로 표현할 때의 단위 벡터들이다. here,
Figure 112019063512393-pat00046
Is the focal length,
Figure 112019063512393-pat00047
Is the coordinates of the scene coordinate system corresponding to the coordinates (u ) of one point of the image (J ) viewed from the viewpoint of the virtual camera as described above,
Figure 112019063512393-pat00048
And
Figure 112019063512393-pat00049
Is the transformation matrix (
Figure 112019063512393-pat00050
) As the unit vector
Figure 112019063512393-pat00051
These are unit vectors when expressed as.

상술한 바와 같이 가상 카메라 모델은 가상 카메라의 위치, 직각 좌표 형식을 사용할 것인지 아니면 극좌표 형식을 사용할 것인지에 관한 파라미터를 입력받아 가상 카메라의 시점에서 보여지는 영상(J)의 한 점의 좌표(u)에 대응되는 장면 좌표계의 좌표(

Figure 112019063512393-pat00052
) 및 가상 카메라의 광축(
Figure 112019063512393-pat00053
) 중심에 대한 정보를 계산하여 출력할 수 있다.As described above, the virtual camera model receives parameters regarding the location of the virtual camera, whether to use a rectangular coordinate format or a polar coordinate format, and is assigned to the coordinates (u ) of a point in the image (J) viewed from the viewpoint of the virtual camera. The coordinates of the corresponding scene coordinate system (
Figure 112019063512393-pat00052
) And the optical axis of the virtual camera (
Figure 112019063512393-pat00053
) Information about the center can be calculated and printed.

다시 도 4를 참조하면, 2차 곡면 모델부(720)에서 생성하는 2차 곡면 모델은 가상 카메라의 시점에서 보여지는 영상(J)의 한 점을 왜곡을 포함하는 입력 영상의 대응하는 점(픽셀)으로 매핑하는 거울과 같은 기능을 수행할 수 있다. 이때 원하는 효과에 따라 다양한 2차 곡면을 모델링하는 2차 곡면 모델이 사용될 수 있다. 일 예로서, 타원체(Ellipsoid) 모델은 구 형태의 거울 모양으로 표현되어 가상 카메라의 PTZ 효과를 얻기 위해 주로 사용될 수 있고, 실린더(Cylinder) 모델은 실린더 기둥 모양의 거울 형태로 표현되어 광각의 영상 생성시 주로 사용될 수 있으며, 포물면(Paraboloid) 모델은 반구 형태의 거울 모양으로 표현되어 영상의 일정 부분만을 매핑한 효과 생성시 사용될 수 있다. Referring back to FIG. 4, the second curved model generated by the second curved model unit 720 is a corresponding point (pixel) of the input image including the distortion of one point of the image J viewed from the viewpoint of the virtual camera. ) Can perform the same function as a mirror mapping. In this case, a second-order surface model for modeling various second-order surfaces may be used according to a desired effect. As an example, the ellipsoid model is expressed in a spherical mirror shape and can be mainly used to obtain the PTZ effect of a virtual camera, and the cylinder model is expressed in a cylinder column shape mirror to create a wide-angle image. It can be used mainly in time, and the Paraboloid model is expressed in the shape of a mirror in the shape of a hemisphere, and can be used when creating an effect that maps only a certain part of the image.

도 8은 본 발명의 일 실시 예에 따른 2차 곡면 모델부의 개략적인 구성을 도시한 도면이다.8 is a diagram showing a schematic configuration of a secondary curved model unit according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 일 실시 예에 따른 2차 곡면 모델부(720)는 2차 곡면 모델 선정 모듈(321), 좌표 설정 모듈(322) 및 변환 모듈(323)을 포함할 수 있다. Referring to FIG. 8, the second curved surface model unit 720 according to an embodiment of the present invention may include a second curved surface model selection module 321, a coordinate setting module 322, and a conversion module 323. .

2차 곡면 모델 선정 모듈(321)은 사용자가 원하는 효과를 얻기 위하여 복수 개의 2차 곡면 모델 중에서 하나를 선정하게 할 수 있다. 즉, 도 7에 도시되어 있는 바와 같이 파라미터 qsel을 이용하여 타원체 모델(324), 실린더 모델(325), 포물면 모델(326), 및 사용자 설정 2차 곡면 모델(327) 중의 하나를 선택할 수 있다. The second curved model selection module 321 may allow a user to select one of a plurality of second curved models in order to obtain a desired effect. That is, as shown in FIG. 7, one of an ellipsoid model 324, a cylinder model 325, a parabolic model 326, and a user-set secondary curved surface model 327 may be selected using the parameter q sel. .

3차원 공간상에서의 상술한 2차 곡면 모델들은 다음과 같은 공통된 행렬 형태로 표현할 수 있다.The above-described second-order curved surface models in 3D space can be expressed in the form of a common matrix as follows.

Figure 112019063512393-pat00054
Figure 112019063512393-pat00054

여기서,

Figure 112019063512393-pat00055
Figure 112019063512393-pat00056
로 모델링되는 2차 곡면상의 한점이고, 2차 곡면 모델(
Figure 112019063512393-pat00057
)은 다음과 같이 4x4 대칭 행렬로 표현될 수 있다.here,
Figure 112019063512393-pat00055
Is
Figure 112019063512393-pat00056
It is a point on the quadratic surface modeled as, and the quadratic surface model (
Figure 112019063512393-pat00057
) Can be expressed as a 4x4 symmetric matrix as follows.

Figure 112019063512393-pat00058
Figure 112019063512393-pat00058

이때, 2차 곡면 모델(

Figure 112019063512393-pat00059
) 행렬 내의 각 값은 2차 곡면별로 다를 수 있는데, 도 9a 및 도 9b는 본 발명의 일 실시 예에 따른 타원체 모델(324), 실린더 모델(325), 및 포물면 모델(326)에 대한 파라미터를 도시하고 있다. 여기서 도 9a 및 도 9b의 xc, yc, zc는 장면 좌표계 {0} 상에서의 각 모델의 중심 위치를 나타낸다.At this time, the second-order surface model (
Figure 112019063512393-pat00059
) Each value in the matrix may be different for each quadratic surface, and FIGS. 9A and 9B illustrate parameters for an ellipsoid model 324, a cylinder model 325, and a parabolic surface model 326 according to an embodiment of the present invention. Is shown. Here, x c , y c , and z c of FIGS. 9A and 9B represent the center positions of each model on the scene coordinate system {0}.

좌표 설정 모듈(322)은 2차 곡면을 장면 좌표계 {0} 상에서 정의하기 위해 사용되고, 가상 카메라의 위치 설정과 마찬가지로 사용자 설정이 용이한 수평회전각(φq) 및 수직회전각(θq)을 이용하여 표현할 수 있다. 즉, 좌표 설정 모듈(322)은 2차 곡면상의 점들을 대응하는 장면 좌표계 상의 점들로 변환하기 위한 변환행렬(

Figure 112019063512393-pat00060
)을 생성할 수 있고, 이때의 변환행렬(
Figure 112019063512393-pat00061
)은 다음 식을 이용하여 구할 수 있다. The coordinate setting module 322 is used to define the secondary curved surface on the scene coordinate system {0}, and, like the position setting of the virtual camera, the horizontal rotation angle (φ q ) and the vertical rotation angle (θ q ), which are easy to set by the user, are set. It can be expressed using. That is, the coordinate setting module 322 is a transformation matrix for converting points on a secondary curved surface into points on a corresponding scene coordinate system (
Figure 112019063512393-pat00060
) Can be created, and the transformation matrix (
Figure 112019063512393-pat00061
) Can be obtained using the following equation.

Figure 112019063512393-pat00062
Figure 112019063512393-pat00062

변환 모듈(323)은 타원체 모델(324), 실린더 모델(325), 포물면 모델(326), 또는 사용자 설정 2차 곡면 모델(327)에 의하여 생성되는 2차 곡면을 표현하는 행렬(

Figure 112019063512393-pat00063
)을 장면 좌표계 상에서의 선택된 2차 곡면 모델을 표현하는 행렬(
Figure 112019063512393-pat00064
)로 변환할 수 있다. 장면 좌표계에서의 2차 곡면 모델을 표현하는 행렬 (
Figure 112019063512393-pat00065
)는 다음 식을 이용하여 구할 수 있다.The transformation module 323 is a matrix representing a quadratic surface generated by an ellipsoid model 324, a cylinder model 325, a parabolic surface model 326, or a user-set secondary surface model 327 (
Figure 112019063512393-pat00063
) As a matrix representing the selected quadratic surface model in the scene coordinate system (
Figure 112019063512393-pat00064
) Can be converted. Matrix representing the quadratic surface model in the scene coordinate system (
Figure 112019063512393-pat00065
) Can be obtained using the following equation.

Figure 112019063512393-pat00066
Figure 112019063512393-pat00066

카메라 투영 모델부(730)는 가상 카메라에서 2차 곡면 모델에 매핑 후 영상 왜곡을 포함하는 입력 영상으로 재투영하는 것으로, 영상 왜곡을 보정하는 카메라 캘리브레이션(calibration)과 카메라 투영 모델을 포함할 수 있다.The camera projection model unit 730 reprojects an input image including image distortion after mapping to a secondary curved model in a virtual camera, and may include a camera calibration and a camera projection model for correcting image distortion. .

도 10은 본 발명의 일 실시 예에 따른 카메라 투영 모델부(730)의 개략적인 구성을 도시한 도면이다.10 is a diagram showing a schematic configuration of a camera projection model unit 730 according to an embodiment of the present invention.

도 10을 참조하면, 본 발명의 일 실시 예에 따른 카메라 투영 모델부(730)는 교차점 모듈(331), 변환 모듈(332), 좌표 계산 모듈(333), 보간 모듈(334), 및 메모리(335)를 포함할 수 있다.10, the camera projection model unit 730 according to an embodiment of the present invention includes an intersection module 331, a transformation module 332, a coordinate calculation module 333, an interpolation module 334, and a memory ( 335).

교차점 모듈(331)은 2차 곡면 모델부(720)에서 선정한 2차 곡면 모델과 가상 카메라 모델부(710)에서 모델링된 가상 카메라의 투영선의 교차점을 계산할 수 있다.The intersection module 331 may calculate an intersection of the second curved model selected by the second curved model unit 720 and the projection line of the virtual camera modeled by the virtual camera model unit 710.

도 11은 2차 곡면 모델과 가상 카메라의 투영선의 교차점(

Figure 112019063512393-pat00067
)의 일 예를 도시한 도면이다.11 shows the intersection of the second-order curved model and the projection line of the virtual camera (
Figure 112019063512393-pat00067
) Is a diagram showing an example of.

도 11을 참조하면, 가상 카메라의 광축 중심(

Figure 112019063512393-pat00068
)과 가상 카메라의 시점에서 보여지는 영상(J)의 한 점(
Figure 112019063512393-pat00069
)을 잇는 직선인 투영선(910)이 2차 곡면 모델과 만나기 위하여는 다음 식을 만족하여야 한다.11, the center of the optical axis of the virtual camera (
Figure 112019063512393-pat00068
) And a point of the image ( J ) viewed from the viewpoint of the virtual camera (
Figure 112019063512393-pat00069
In order for the projection line 910, which is a straight line connecting ), to meet the second-order curved surface model, the following equation must be satisfied.

Figure 112019063512393-pat00070
Figure 112019063512393-pat00070

여기서,

Figure 112019063512393-pat00071
은 가상 카메라의 광축 중심이고,
Figure 112019063512393-pat00072
으로 표현되는데
Figure 112019063512393-pat00073
는 가상 카메라의 시점에서 보여지는 영상(J)의 한 점이다. 그리고 점
Figure 112019063512393-pat00074
는 투영선(910) 상에 존재하는 점이면서, 2차 곡면 모델 상에 존재하는 교차점이 된다. 이 교차점의 위치는
Figure 112019063512393-pat00075
에 의해서 결정되는데,
Figure 112019063512393-pat00076
는 다음과 같이 계산될 수 있다.here,
Figure 112019063512393-pat00071
Is the center of the optical axis of the virtual camera,
Figure 112019063512393-pat00072
It is expressed as
Figure 112019063512393-pat00073
Is a point in the image (J ) viewed from the viewpoint of the virtual camera. And point
Figure 112019063512393-pat00074
Is a point that exists on the projection line 910 and an intersection point that exists on the quadratic curved surface model. The location of this intersection is
Figure 112019063512393-pat00075
Is determined by
Figure 112019063512393-pat00076
Can be calculated as follows.

Figure 112019063512393-pat00077
Figure 112019063512393-pat00077

여기서,

Figure 112019063512393-pat00078
이고,
Figure 112019063512393-pat00079
이다.here,
Figure 112019063512393-pat00078
ego,
Figure 112019063512393-pat00079
to be.

즉, 교차점 모듈(331)은 상술한 식을 바탕으로 가상 카메라의 시점에서 보여지는 영상(J)의 한 점(

Figure 112019063512393-pat00080
)의 투영선(910)과 교차하는 2차 곡면상의 한 점(
Figure 112019063512393-pat00081
)을 계산하여 출력할 수 있다.That is, the intersection module 331 is based on the above-described equation, based on the point of the image ( J ) viewed from the viewpoint of the virtual camera (
Figure 112019063512393-pat00080
A point on the quadratic surface that intersects the projection line 910 of (
Figure 112019063512393-pat00081
) Can be calculated and printed.

그리고 상술한 2차 곡면상의 한 점(

Figure 112019063512393-pat00082
)은 전방향 카메라 모델(336)에 의하여 입력 영상의 한 점으로 투영될 수 있다.And one point (
Figure 112019063512393-pat00082
) May be projected to a point of the input image by the omnidirectional camera model 336.

도 12는 본 발명의 일 실시 예에 따른 장면 좌표계상의 한 점(

Figure 112019063512393-pat00083
)을 왜곡 없는 이상적인 영상 평면(
Figure 112019063512393-pat00084
)의 대응하는 점으로 매핑하는 과정을 도시한다.12 is a point on the scene coordinate system according to an embodiment of the present invention (
Figure 112019063512393-pat00083
) To the ideal image plane without distortion (
Figure 112019063512393-pat00084
) Shows a process of mapping to the corresponding point.

도 12를 참조하면, 장면 좌표계상의 한 점

Figure 112019063512393-pat00085
에서 광각 카메라의 광축 중심으로의 투영선(1010) 상에 벡터
Figure 112019063512393-pat00086
가 존재하고, 이는 일반적인 원근 투영 기하를 따르고 다음 식의 관계가 성립된다.12, a point on the scene coordinate system
Figure 112019063512393-pat00085
On the projection line (1010) to the center of the optical axis of the wide-angle camera at
Figure 112019063512393-pat00086
Is present, which follows the general perspective projection geometry, and the relationship of the following equation is established.

Figure 112019063512393-pat00087
Figure 112019063512393-pat00087

여기서

Figure 112019063512393-pat00088
는 회전 행렬
Figure 112019063512393-pat00089
과 이동 벡터
Figure 112019063512393-pat00090
로 구성된 카메라 투영 행렬(projection matrix)이며,
Figure 112019063512393-pat00091
는 장면 좌표계상의 한 점
Figure 112019063512393-pat00092
의 동차 표현(homogenous representation)이다. here
Figure 112019063512393-pat00088
Is the rotation matrix
Figure 112019063512393-pat00089
And move vector
Figure 112019063512393-pat00090
Is a camera projection matrix consisting of,
Figure 112019063512393-pat00091
Is a point in the scene coordinate system
Figure 112019063512393-pat00092
It is a homogenous representation of.

벡터

Figure 112019063512393-pat00093
Figure 112019063512393-pat00094
는 장면 좌표계 상의 한 점
Figure 112019063512393-pat00095
를 이상적인 영상 평면(
Figure 112019063512393-pat00096
) 상의 한 점(
Figure 112019063512393-pat00097
)으로 매핑하는 왜곡보정 매핑함수이며, 광각 카메라의 왜곡 현상을 이론적으로 분석한 모델(analytic model) 또는 수치적으로 근사한 모델(approximation model) 등을 사용하여 표현할 수 있다. 이에 의하여 이상적인 영상 평면(
Figure 112019063512393-pat00098
)은 왜곡이 없는 영상 평면을 의미할 수 있다. 일 실시 예로서 Scaramuzza가 제안한 것과 같은 테일러 확장(Taylor expansion series) 기반의 근사 모델을 사용하여 표현할 수 있다.vector
Figure 112019063512393-pat00093
of
Figure 112019063512393-pat00094
Is a point in the scene coordinate system
Figure 112019063512393-pat00095
Is the ideal image plane (
Figure 112019063512393-pat00096
) On one point (
Figure 112019063512393-pat00097
), and can be expressed using a model that theoretically analyzes the distortion phenomenon of a wide-angle camera or a numerical approximation model. Thereby, the ideal image plane (
Figure 112019063512393-pat00098
) May mean an image plane without distortion. As an embodiment, it may be expressed using an approximate model based on a Taylor expansion series as suggested by Scaramuzza.

Figure 112019063512393-pat00099
Figure 112019063512393-pat00099

그리고 벡터

Figure 112019063512393-pat00100
을 입력 영상(I)에서의 실제 픽셀 좌표라고 가정하면, 입력 영상(I)과 이상적인 영상 평면(
Figure 112019063512393-pat00101
)의 관계는 어파인(affine) 변환 행렬로 다음과 같이 표현될 수 있다.And vector
Figure 112019063512393-pat00100
Assuming that the actual coordinates of the pixel in the input image (I), the input image (I) and the ideal image plane (
Figure 112019063512393-pat00101
The relationship of) can be expressed as an affine transformation matrix as follows.

Figure 112019063512393-pat00102
Figure 112019063512393-pat00102

여기에서

Figure 112019063512393-pat00103
는 어파인 변환 행렬이고,
Figure 112019063512393-pat00104
는 이동 벡터를 나타낸다. From here
Figure 112019063512393-pat00103
Is the affine transformation matrix,
Figure 112019063512393-pat00104
Denotes a motion vector.

상술한 바와 같이 장면 좌표계 상의 한 점

Figure 112019063512393-pat00105
는 입력 영상(I)에서 픽셀 좌표
Figure 112019063512393-pat00106
으로 매핑되므로, 만약 이식들이 역변환 관계가 존재한다면, 입력 영상(I)에서 원래 장면 좌표계 상의 한 점
Figure 112019063512393-pat00107
의 픽셀 값을 구할 수 있다. One point on the scene coordinate system as described above
Figure 112019063512393-pat00105
Is the pixel coordinates in the input image ( I)
Figure 112019063512393-pat00106
Is mapped to, so if there is an inverse transformation relationship between the implants, a point on the original scene coordinate system in the input image (I)
Figure 112019063512393-pat00107
You can get the pixel value of.

장면 좌표계 {0} 상의 한 점

Figure 112019063512393-pat00108
를 카메라 좌표계 {c} 상의 한 점
Figure 112019063512393-pat00109
로 왜곡 보정을 하면서 매핑시키기 위하여서는 상술한 바처럼 광각 카메라의 위치와 자세 및 왜곡보정 매핑함수(
Figure 112019063512393-pat00110
)의 계수들을 미리 알아야만 한다. A point on the scene coordinate system {0}
Figure 112019063512393-pat00108
A point on the camera coordinate system {c}
Figure 112019063512393-pat00109
In order to map while performing distortion correction, as described above, the position and posture of the wide-angle camera and the distortion correction mapping function (
Figure 112019063512393-pat00110
You must know the coefficients of) in advance.

이를 위하여 가로, 세로의 격자 크기가 미리 알려진 보정용 차트(calibration chart)를 이용하여 영상 센서의 위치, 자세, 및 촬영한 영상에 포함되어 있는 왜곡을 인지할 수 있다. 일 예로 보정용 차트의 가로, 세로 크기를 20cm x 20cm로 설정할 수 있고, 광각 카메라에 의해 촬영된 보정용 차트 영상에서의 각 격자의 기울기 및 외곽 쪽에서의 격자의 크기 등을 측정함으로써 촬영된 영상에 포함되어 있는 왜곡을 측정할 수 있다. 그리고 이렇게 측정된 왜곡을 바탕으로 상술한 회전 행렬

Figure 112019063512393-pat00111
과 이동 벡터
Figure 112019063512393-pat00112
왜곡보정 매핑함수(
Figure 112019063512393-pat00113
)의 계수, 및 어파인 변환 행렬(
Figure 112019063512393-pat00114
)를 획득할 수 있다.To this end, the position and posture of the image sensor, and distortion included in the captured image may be recognized using a calibration chart in which the horizontal and vertical grid sizes are known in advance. As an example, the horizontal and vertical size of the correction chart can be set to 20cm x 20cm, and it is included in the photographed image by measuring the slope of each grid and the size of the grid on the outer side of the correction chart image taken by a wide-angle camera. Distortion can be measured. And based on the measured distortion, the above-described rotation matrix
Figure 112019063512393-pat00111
And move vector
Figure 112019063512393-pat00112
Distortion correction mapping function (
Figure 112019063512393-pat00113
) Of the coefficients, and the affine transformation matrix (
Figure 112019063512393-pat00114
) Can be obtained.

도 13은 본 발명의 일 실시 예에 따른 가상 카메라의 투영선과 2차 곡면 모델과의 교차점(

Figure 112019063512393-pat00115
)이 왜곡이 해소된 이상적인 영상 평면상의 좌표(
Figure 112019063512393-pat00116
)에 재투영되는 것을 도시한 도면이다.13 is an intersection point of a projection line of a virtual camera and a second-order curved surface model according to an embodiment of the present invention (
Figure 112019063512393-pat00115
) Is the coordinates on the ideal image plane where the distortion is resolved (
Figure 112019063512393-pat00116
) Is a view showing the reprojection.

도 13을 참조하면, 2차 곡면은 가상 카메라의 투영선(1110)을 광각 카메라의 투영선(1120)으로 반사하는 거울과 같은 역할을 수행할 수 있다. 여기서 광각 카메라의 투영선(1120)은 광각 카메라의 광축 중심과 교차점(

Figure 112019063512393-pat00117
)을 연결하는 선이 된다.Referring to FIG. 13, the secondary curved surface may serve as a mirror reflecting the projection line 1110 of the virtual camera to the projection line 1120 of the wide-angle camera. Here, the projection line 1120 of the wide-angle camera is the intersection with the center of the optical axis of the wide-angle camera (
Figure 112019063512393-pat00117
).

가상 카메라의 투영선(1110)과 2차 곡면이 만나는 점이 교차점(

Figure 112019063512393-pat00118
)가 되고,The point where the projection line (1110) of the virtual camera and the quadratic surface meet is the intersection (
Figure 112019063512393-pat00118
) Becomes,

교차점(

Figure 112019063512393-pat00119
)은 다음 식을 이용하여 카메라 좌표계의 좌표(
Figure 112019063512393-pat00120
)로 변환될 수 있다. crossing(
Figure 112019063512393-pat00119
) Is the coordinates of the camera coordinate system (
Figure 112019063512393-pat00120
) Can be converted.

Figure 112019063512393-pat00121
Figure 112019063512393-pat00121

여기서

Figure 112019063512393-pat00122
는 장면 좌표계상에서 표현된 광각 카메라의 위치와 자세를 나타내는 변환 행렬로써 카메라 투영행렬(
Figure 112019063512393-pat00123
)의
Figure 112019063512393-pat00124
Figure 112019063512393-pat00125
로 구성될 수 있다. here
Figure 112019063512393-pat00122
Is a transformation matrix representing the position and posture of the wide-angle camera expressed in the scene coordinate system.
Figure 112019063512393-pat00123
)of
Figure 112019063512393-pat00124
and
Figure 112019063512393-pat00125
It can be composed of.

가상 카메라의 투영선(1110)과 2차 곡면과의 교차점(

Figure 112019063512393-pat00126
)은 도 12에 도시된 한 점(
Figure 112019063512393-pat00127
)과 마찬가지로 광각 카메라 광축 중심으로의 투영선(1120) 상에 존재할 수 있고, 이 투영선(1120)은 광각 카메라의 광축을 중심으로 방사형으로 대칭이므로 이상적인 영상 평면(
Figure 112019063512393-pat00128
)과 교차점(
Figure 112019063512393-pat00129
)과의 각도로 표현할 수 있다. 즉,
Figure 112019063512393-pat00130
의 관계식을 얻을 수 있는데 여기서,
Figure 112019063512393-pat00131
는 이상적인 영상 평면(
Figure 112019063512393-pat00132
)과 교차점(
Figure 112019063512393-pat00133
)와의 각도로서,
Figure 112019063512393-pat00134
로 표현된다.The intersection of the projection line (1110) of the virtual camera and the quadratic surface (
Figure 112019063512393-pat00126
) Is a point shown in FIG. 12 (
Figure 112019063512393-pat00127
) Can exist on the projection line 1120 about the optical axis of the wide-angle camera, and this projection line 1120 is radially symmetrical about the optical axis of the wide-angle camera, so the ideal image plane (
Figure 112019063512393-pat00128
) And intersection (
Figure 112019063512393-pat00129
It can be expressed as an angle with ). In other words,
Figure 112019063512393-pat00130
You can get the relational expression of where,
Figure 112019063512393-pat00131
Is the ideal image plane (
Figure 112019063512393-pat00132
) And intersection (
Figure 112019063512393-pat00133
) As an angle,
Figure 112019063512393-pat00134
It is expressed as

그리고 광각 카메라의 광축 중심으로의 투영선(1120)과 왜곡 보정 매핑 함수(

Figure 112019063512393-pat00135
)는 상술한 바처럼 모두
Figure 112019063512393-pat00136
의 함수이므로, 이들의 해를 구하면 이상적인 영상 평면상의 좌표(
Figure 112019063512393-pat00137
)를 구할 수 있고, 어파인 변환 행렬을 이용하여 입력 영상(I)에서의 픽셀값(
Figure 112019063512393-pat00138
)을 구할 수 있다. 따라서, 가상 카메라의 시점에서 보여지는 영상(J) 내의 한 점(
Figure 112019063512393-pat00139
)의 픽셀값은 광각 카메라에서 촬영한 왜곡이 포함된 원본 영상(I)으로부터 얻어지고, 가상 카메라의 시점에서 보여지는 영상(J) 내의 각 점에 대하여 상술한 기능을 수행하면 각 영상 생성 코어의 최종 결과 영상인 가상 카메라의 시점에서 보여지는 영상(J)을 획득할 수 있고, 이 영상은 임의 시점에서 생성한 렌즈 왜곡이 제거된 영상이 된다. And the projection line 1120 to the center of the optical axis of the wide-angle camera and the distortion correction mapping function (
Figure 112019063512393-pat00135
) Are all
Figure 112019063512393-pat00136
Since it is a function of, solving for these coordinates on the ideal image plane (
Figure 112019063512393-pat00137
) A can be obtained, the pixel values in using the affine transformation matrix input image (I) (
Figure 112019063512393-pat00138
) Can be obtained. Therefore, a point in the image ( J ) viewed from the viewpoint of the virtual camera (
Figure 112019063512393-pat00139
The pixel value of) is obtained from the original image (I ) including the distortion captured by the wide-angle camera, and if the above-described function is performed for each point in the image (J ) viewed from the viewpoint of the virtual camera, each image generating core An image J viewed from the viewpoint of the virtual camera, which is the final result image, can be obtained, and this image becomes an image from which lens distortion generated at an arbitrary viewpoint has been removed.

다시 도 10을 참조하면, 상술한 작업을 수행하기 위하여 카메라 투영 모델부(730)의 변환 모듈(332)은 장면 좌표계상에서 표현된 광각 카메라의 위치와 자세를 나타내는 변환 행렬(

Figure 112019063512393-pat00140
)를 이용하여 교차점(
Figure 112019063512393-pat00141
)을 카메라 좌표계의 좌표(
Figure 112019063512393-pat00142
)로 변환한다. Referring back to FIG. 10, in order to perform the above-described operation, the transformation module 332 of the camera projection model unit 730 is a transformation matrix representing the position and posture of the wide-angle camera expressed in the scene coordinate system (
Figure 112019063512393-pat00140
) Using the intersection (
Figure 112019063512393-pat00141
) To the coordinates of the camera coordinate system (
Figure 112019063512393-pat00142
).

그리고 좌표 계산 모듈(333)은 어파인 변환 행렬(

Figure 112019063512393-pat00143
), 이동 벡터(
Figure 112019063512393-pat00144
), 장면 좌표계상의 한 점
Figure 112019063512393-pat00145
를 이상적인 영상 평면(
Figure 112019063512393-pat00146
) 상의 한 점(
Figure 112019063512393-pat00147
)으로 매핑하는 역할을 수행하는 테일러 확장 기반의 근사 모델의 계수들을 파라미터로 입력받아 가상 카메라의 투영선과 2차 곡면 모델과의 교차점(
Figure 112019063512393-pat00148
)으로부터 왜곡이 포함된 입력 영상(I)에서의 실제 픽셀 좌표를 나타내는 벡터(
Figure 112019063512393-pat00149
)를 획득한다. 좌표 계산 모듈(333)에서 사용하는 상술한 테일러 확장 기반의 근사 모델은 광각 렌즈의 왜곡 현상을 이론적으로 분석하고, 이를 해소하기 위하여 수치적으로 근사화한 것으로 이에 의하여 원본 영상에 존재하는 왜곡 현상을 제거할 수 있다. 도 14는 입력 영상 (a)로부터 왜곡이 보정된 영상 (b), (c)를 생성한 일 예를 보여준다.And the coordinate calculation module 333 is an affine transformation matrix (
Figure 112019063512393-pat00143
), motion vector (
Figure 112019063512393-pat00144
), a point in the scene coordinate system
Figure 112019063512393-pat00145
Is the ideal image plane (
Figure 112019063512393-pat00146
) On one point (
Figure 112019063512393-pat00147
), the coefficients of the Taylor extension-based approximation model, which play a role of mapping, are input as parameters, and the intersection of the projection line of the virtual camera and the second-order curved surface model (
Figure 112019063512393-pat00148
) From the vector representing the actual pixel coordinates in the input image (I) containing distortion (
Figure 112019063512393-pat00149
). The Taylor extension-based approximation model used in the coordinate calculation module 333 theoretically analyzes the distortion phenomenon of the wide-angle lens, and is numerically approximated to solve the distortion phenomenon, thereby removing the distortion phenomenon existing in the original image. can do. 14 shows an example of generating images (b) and (c) whose distortion is corrected from an input image (a).

그리고 보간 모듈(334)은 실제 픽셀 좌표를 나타내는 벡터

Figure 112019063512393-pat00150
를 이용하여 입력 영상(I)에서 해당 좌표의 주변 픽셀값을 읽어 들이고 양선형 보간 (bilinear interpolation) 등의 방법 등으로 해당 좌표의 값을 계산 하여 출력할 수 있다.And the interpolation module 334 is a vector representing the actual pixel coordinates
Figure 112019063512393-pat00150
By using, the value of the surrounding pixel of the corresponding coordinate is read from the input image (I ), and the value of the corresponding coordinate can be calculated and output using a method such as bilinear interpolation.

상술한 영상생성부(700)를 이용함으로써 본원 발명은 하나 이상의 임의 시점에서 보여지는 영상을 생성할 수 있으며, 각각의 영상에 대하여 왜곡이 없도록 영상을 보정함으로써 사용자가 보기에 편안한 영상을 생성할 수 있다.By using the image generating unit 700 described above, the present invention can generate an image that is viewed at one or more arbitrary viewpoints, and corrects the image so that there is no distortion for each image, thereby creating an image that is comfortable for the user to see. have.

도 14는 영상생성부(700)의 영상 생성 코어에 입력되는 입력 영상 및 이에 포함된 왜곡을 보정하여 영상 생성 코어에서 출력하는 영상의 일 예를 도시한 도면이다.14 is a diagram illustrating an example of an input image input to the image generation core of the image generation unit 700 and an image output from the image generation core by correcting distortion included therein.

도 14를 참조하면, (a)는 피쉬아이 렌즈를 사용하여 획득한 왜곡을 포함한 광각 카메라 영상이고, (b)는 일반적인 방법으로 왜곡이 보정된 영상을 나타낸다. (b)처럼 왜곡 보정된 영상에는 영상의 끝쪽으로 갈수록 실제 크기 및 거리감의 차이가 크게 발생한다. 그 이유는 카메라의 왜곡된 영상의 한 점으로 들어오는 투영선 상에는 공간상의 수많은 점들이 존재할 수 있고, 공간 복원(structure reconstruction)을 위해서는 두 개 이상의 투영선이 존재해야 이 점의 실제 공간상의 위치를 알 수 있게 되기 때문이다. 하지만, 본 출원에서 제안하는 방식을 이용하고, 필요한 파라미터들을 적절하게 설정하면 (c)에서 보는 것과 같이 사용자가 보기에 편안한 영상을 생성할 수 있다.Referring to FIG. 14, (a) shows a wide-angle camera image including distortion obtained using a fisheye lens, and (b) shows an image whose distortion is corrected by a general method. In the distortion-corrected image as shown in (b), the difference between the actual size and the sense of distance occurs as it goes toward the end of the image. The reason is that there can be numerous points in space on the projection line that comes as a point of the distorted image of the camera, and for structure reconstruction, two or more projection lines must exist so that the actual position of this point in space can be known. Because it becomes. However, if the method proposed in the present application is used and necessary parameters are appropriately set, an image that is comfortable for the user to see can be generated as shown in (c).

상술한 바처럼 영상생성부(700)의 각 영상 생성 코어(701, 702, 703)는 필요한 파라미터들을 적절히 설정하면 왜곡을 제거하면서 임의 시점에서 보여지는 영상을 생성할 수 있다. 이때 영상생성부(700)의 각 영상 생성 코어(701, 702, 703)에서 필요로 하는 파라미터들을 정리하면 가상 카메라 모델부(710)의 각 가상 카메라 모델에 필요한 파라미터로, 가상 카메라의 시점에서 보여지는 영상(J)의 각 점을 직각좌표 형식으로 표시할 것인지 아니면 극좌표 형식으로 표시할 것인지를 설정하는 파라미터(

Figure 112019063512393-pat00151
), 가상 카메라의 시점에서 보여지는 영상(J)의 직각 좌표 형식의 중심(
Figure 112019063512393-pat00152
), 극좌표 형식에서 사용할 반지름의 최소값(
Figure 112019063512393-pat00153
)과 최대값(
Figure 112019063512393-pat00154
), 반지름 방향 픽셀 수(
Figure 112019063512393-pat00155
), 각도의 최소값(
Figure 112019063512393-pat00156
) 과 최대값(
Figure 112019063512393-pat00157
), 그리고 가상 카메라상에서의 극좌표 변환을 위한 극좌표 형식에서의 중심 (
Figure 112019063512393-pat00158
), 크기 보상을 위한 파라미터
Figure 112019063512393-pat00159
, 가상카메라의 초점 거리(focal length)
Figure 112019063512393-pat00160
, 가상 카메라의 장면 좌표계의 z축(11)에 대한 수평 회전각(azimuth) φn 및 수직 회전각(elevation) θn, 장면 좌표계 {0} 상에서의 가상 카메라의 위치
Figure 112019063512393-pat00161
, 장면 좌표계 {0} 상에서의 2차 곡면모델의 중심 위치이며 가상 카메라의 팬, 틸트 회전의 중심
Figure 112019063512393-pat00162
, 광축 중심 선택 파라미터 (Vpsel)등을 설정할 필요가 있다. As described above, each image generation core 701, 702, 703 of the image generation unit 700 may generate an image viewed at an arbitrary viewpoint while removing distortion if necessary parameters are appropriately set. At this time, if the parameters required by the image generation cores 701, 702, 703 of the image generation unit 700 are summarized, parameters required for each virtual camera model of the virtual camera model unit 710 are displayed from the viewpoint of the virtual camera. A parameter to set whether to display each point of the losing image ( J) in rectangular coordinate format or polar coordinate format (
Figure 112019063512393-pat00151
), the center of the rectangular coordinate format of the image (J ) displayed from the viewpoint of the virtual camera (
Figure 112019063512393-pat00152
), the minimum value of the radius to be used in polar coordinate format (
Figure 112019063512393-pat00153
) And the maximum value (
Figure 112019063512393-pat00154
), the number of radial pixels (
Figure 112019063512393-pat00155
), the minimum value of the angle (
Figure 112019063512393-pat00156
) And the maximum value (
Figure 112019063512393-pat00157
), and the center in polar coordinate format for polar coordinate conversion on the virtual camera (
Figure 112019063512393-pat00158
), parameters for size compensation
Figure 112019063512393-pat00159
, The focal length of the virtual camera
Figure 112019063512393-pat00160
, The horizontal rotation angle (azimuth) φ n and the vertical rotation angle (elevation) θ n about the z-axis (11) of the scene coordinate system of the virtual camera, and the position of the virtual camera on the scene coordinate system {0}
Figure 112019063512393-pat00161
, The center position of the second-order surface model on the scene coordinate system {0}, and the center of the pan and tilt rotation of the virtual camera.
Figure 112019063512393-pat00162
, It is necessary to set the optical axis center selection parameter (V psel ).

그리고 2차 곡면 모델부를 위한 파라미터로 어떤 2차 곡면 모델을 사용할 것인지를 나타내는 파라미터 qsel, 각 2차 곡면 모델의 특징을 설정하기 위한 복수의 파라미터들, 2차 곡면을 장면 좌표계 {0} 상에서 정의하기 위한 파리미터들인 수평회전각(φq) 및 수직회전각(θq)이 있을 수 있다. In addition, the parameter q sel indicating which secondary surface model is to be used as a parameter for the secondary surface model unit, a plurality of parameters for setting the characteristics of each secondary surface model, and the secondary surface are defined in the scene coordinate system {0}. There may be a horizontal rotation angle (φ q ) and a vertical rotation angle (θ q ), which are parameters for doing so.

그리고 카메라 투영 모델부(730)를 위한 파라미터들로 입력 영상에 포함되어 있는 왜곡을 보정하기 위한 왜곡보정 매핑함수의 각 계수들, 어파인 변환 행렬

Figure 112019063512393-pat00163
, 장면 좌표계상에서 표현된 광각 카메라의 위치와 자세를 나타내는 변환 행렬
Figure 112019063512393-pat00164
등이 있을 수 있다.In addition, as parameters for the camera projection model unit 730, each coefficient of the distortion correction mapping function for correcting distortion included in the input image, and an affine transformation matrix
Figure 112019063512393-pat00163
, Transformation matrix representing the position and posture of the wide-angle camera expressed in the scene coordinate system
Figure 112019063512393-pat00164
There may be a back.

이러한 영상생성부(700)의 각 영상 생성 코어에서 필요한 파라미터들은 주처리부(500)에 의해서 설정될 수 있다. 즉, 주처리부(500)는 차량 센서부(900)에서 제공하는 차량 진행 속도 및 방향을 포함하는 차량 주행 정보, 후처리부(400)에서 제공하는 움직임 정보, 물체 추적 정보, 및 차선 정보, 그리고 입력부(600)를 통해 입력되는 사용자의 설정 정보 등을 바탕으로 영상생성부(700)의 각 영상 생성 코어에서 필요한 파라미터들을 설정할 수 있다. 이러한 파라미터들은 매 영상 프레임마다 변경되어 사용자가 원하는 영상 또는 차량 및 운전자의 안전을 확보할 수 있도록 하는 영상이 화면부(800)에 출력되도록 할 수 있다. Parameters necessary for each image generation core of the image generation unit 700 may be set by the main processing unit 500. That is, the main processing unit 500 includes vehicle driving information including the vehicle traveling speed and direction provided by the vehicle sensor unit 900, motion information provided by the post processing unit 400, object tracking information, and lane information, and an input unit. Based on the user's setting information input through 600, parameters necessary for each image generation core of the image generation unit 700 may be set. These parameters may be changed every image frame so that an image desired by a user or an image that enables the safety of the vehicle and the driver to be secured may be output on the screen unit 800.

일 실시 예로서 주처리부(500)는 차량 진행속도에 따라, 즉 차량의 진행 속도를 빠름, 보통, 및 느림으로 구분하여 설정할 수 있고 이에 따라 자동으로 가상카메라가 줌, 팬 및 틸트되도록 영상 생성 코어를 설정할 수 있고, 차량 진행 방향, 즉 좌회전, 우회전, 및 후진에 따라 자동으로 가상카메라가 줌 및 팬이 되도록 영상 생성 코어를 설정할 수도 있다.As an embodiment, the main processing unit 500 may set the driving speed of the vehicle by dividing it into fast, normal, and slow according to the driving speed of the vehicle, and accordingly, the image generating core automatically zooms, pans, and tilts the virtual camera. May be set, and the image generation core may be set so that the virtual camera automatically zooms and pans according to the vehicle traveling direction, that is, left turn, right turn, and reverse direction.

도 15는 본 발명의 일 실시 예에 따른 차량 진행 속도에 따라 자동으로 가상 카메라가 줌 및 틸트되도록 영상 생성 코어를 설정한 결과를 도시한 도면이다. 15 is a diagram illustrating a result of setting an image generating core so that a virtual camera automatically zooms and tilts according to a vehicle traveling speed according to an embodiment of the present invention.

도 15를 참조하면, 도면의 상단에는 차량의 속도에 따라 화면부(800)에 표시되는 영상의 상대적 관계가 도시되어 있고, 중간에는 입력 영상(1512, 1522, 1532)이 그리고 하단에는 화면부(800)에 표시되는 출력 영상(1514, 1524, 1534)이 도시되어 있다. 도면의 상단에 도시되어 있는 것처럼 차량의 속도에 따라, 저속에서는 가까운 곳을 넓게 보여주도록(1511) 가상 카메라의 줌 및 틸트 파라미터를 설정하고, 고속에서는 멀리 있는 곳을 확대해서 보여주도록(1531) 가상 카메라의 줌 및 틸트 파라미터들을 설정할 수 있다. 따라서, 고속 주행시 확대된 출력 영상(1534)에서는 중앙의 멀리 있는 차량을 운전자가 영상을 통해 식별할 수 있게 된다. 입력 영상(1512, 1522, 1532)의 중앙에 표시된 격자(1513, 1523, 1533)들은 출력 영상(1514, 1524, 1534)을 생성하기 위해 입력 영상에 매핑된 영역을 나타내고, 이 격자 영역들의 매핑 모양에 따라 다양한 형태의 영상들이 생성될 수 있다. Referring to FIG. 15, the relative relationship between the images displayed on the screen 800 according to the speed of the vehicle is shown in the upper part of the drawing, the input images 1512, 1522 and 1532 in the middle, and the screen part ( Output images 1514, 1524, and 1534 displayed on 800 are shown. As shown at the top of the drawing, according to the speed of the vehicle, the zoom and tilt parameters of the virtual camera are set to show a wider area at low speed (1511), and at high speed, the zoom and tilt parameters of the virtual camera are set to enlarge and show the far area (1531). You can set the camera's zoom and tilt parameters. Accordingly, in the enlarged output image 1534 during high-speed driving, the driver can identify a vehicle far from the center through the image. The grids 1513, 1523, 1533 displayed in the center of the input images 1512, 1522, 1532 represent the regions mapped to the input image to generate the output images 1514, 1524, 1534, and the mapping shape of these grid regions. According to this, various types of images may be generated.

도 16은 본 발명의 일 실시 예에 따른 차량 진행 방향에 따라 자동으로 가상 카메라가 줌 및 팬이 되도록 영상 생성 코어를 설정한 결과를 도시한 도면이다. 16 is a diagram illustrating a result of setting an image generating core so that a virtual camera automatically zooms and pans according to a vehicle traveling direction according to an embodiment of the present invention.

도 16을 참조하면, 도면의 상단에는 차량의 진행 방향에 따라 화면부(800)에 표시되는 영상의 상대적 관계가 도시되어 있고, 중간에는 입력 영상(1612, 1622, 1632)이 그리고 하단에는 화면부(800)에 표시되는 출력 영상(1614, 1624,1634)이 도시되어 있다. Referring to FIG. 16, the relative relationship between the images displayed on the screen 800 according to the traveling direction of the vehicle is shown at the top of the drawing, and the input images 1612, 1622, 1632 are shown in the middle, and the screen unit is shown at the bottom. Output images 1614, 1624, and 1634 displayed on 800 are shown.

도면의 상단에는 차량에서 획득한 차량 진향 방향 정보 혹은 핸들의 회전 정도에 따라, 우회전 정도가 적은 경우에는 중앙 부분(1611)을 보여주도록 가상 카메라의 줌 및 팬 파라미터들을 설정하고, 우회전 정도가 심한 경우에는 우측 부분(1631)을 보여주도록 가상 카메라의 줌 및 팬 파라미터들을 설정할 수 있다. 따라서, 주행 방향 변경시, 아직 운전자 시야에 들어오지 않은 부분들을 출력 영상(1614, 1624,1634)을 통해 보여줌으로써, 운전자가 영상을 통해 도로 상황을 미리 파악할 수 있게 된다. 입력 영상(1612, 1622, 1632)의 중앙에 표시된 격자(1613, 1623, 1633)들은 출력 영상(1614, 1624, 1634)을 생성하기 위해 입력 영상에 매핑된 영역을 나타내고, 이 격자 영역들의 매핑 모양에 따라 다양한 형태의 영상들을 생성할 수 있다.At the top of the drawing, according to the vehicle heading direction information acquired from the vehicle or the degree of rotation of the steering wheel, if the right turn degree is low, the zoom and pan parameters of the virtual camera are set to show the center part 1611, and if the right turn degree is severe At, zoom and pan parameters of the virtual camera may be set to show the right part 1631. Accordingly, when the driving direction is changed, portions that have not yet entered the driver's field of view are displayed through the output images 1614, 1624, and 1634, so that the driver can grasp the road situation in advance through the image. The grids 1613, 1623, 1633 displayed in the center of the input images 1612, 1622, 1632 represent the regions mapped to the input image to generate the output images 1614, 1624, 1634, and the mapping shape of these grid regions. According to this, various types of images can be generated.

상술한 바처럼 차량 진행속도에 따라 또는 차량 진행 방향에 따라 자동으로 가상 카메라가 줌, 팬, 및/또는 틸트가 되도록 영상 생성 코어를 설정할 수도 있는 것 이외에, 주처리부(500)는 또 다른 일 실시 예로서 운전자의 시야에서 벗어나 보이지 않는 영역인 사각지대 영상, 차량의 위에서 보는 것과 같은 탑 뷰 영상, 차량을 외부에서 조종하는 것과 같은 3인칭 시점의 버드-아이 영상, 물체 추적기를 이용하여 인접 차선의 차량을 자동으로 추적하여 보여주는 추적 영상 등이 화면부(800)에 출력되도록 영상 생성 코어를 설정할 수 있다. 또한, 주행 시 넓은 시야를 제공하는 광각의 후방 영상, 후진 주차 시 후방 차량과 주차선을 동시에 표시되는 도로 영상, 주차상황을 정확히 확인할 수 있도록 주차선을 위에서 보여주는 탑 뷰 영상이 화면부(800)에 출력되도록 영상 생성 코어를 설정할 수 있다. 또한, 실내에 여러 대의 카메라를 설치해서 촬영한 것과 같은 다중 뷰 영상, 운전자의 운전상태를 확인할 수 있는 운전석 뷰, 보조석의 상황을 확인할 수 있는 보조석 뷰, 실내 상황을 전체적으로 확인할 수 있는 전방위 실내 뷰, 실내 상황을 보여주는 뷰들과 함께 전방 주행상황도 같이 확인할 수 있는 전방 뷰 영상 등을 생성할 수 있도록 영상 생성 코어를 설정할 수 있다. 특히 전방뷰 생성시 실내와 실외의 심한 조도차를 맞추기 위해 상술한 광역 보정 기술을 적용할 수 있으며 이를 위하여 영상 생성 코어를 설정하는 것과 함께 다중 카메라부(100)의 광각 카메라의 제어 신호를 설정할 수도 있다. 또는 사용자 설정 입력에 따라 영상이 화면부(800)에 출력되도록 적절히 가상 카메라를 제어할 수도 있다. As described above, in addition to being able to set the image generation core so that the virtual camera automatically zooms, pans, and/or tilts according to the vehicle traveling speed or the vehicle traveling direction, the main processing unit 500 performs another task. For example, an image of a blind spot that is not visible outside of the driver's field of view, a top view image such as viewed from above, a bird-eye image from a third-person view such as controlling the vehicle from the outside, and an object tracker in adjacent lanes. An image generation core may be set so that a tracking image, etc., which is automatically tracked and displayed, is output on the screen unit 800. In addition, a wide-angle rear image that provides a wide field of view when driving, a road image that simultaneously displays the rear vehicle and the parking line when parking in reverse, and a top view image showing the parking line from above to accurately check the parking situation are displayed on the screen 800. You can set the image generation core to be output to. In addition, a multi-view image, such as the one shot by installing multiple cameras indoors, a driver's seat view that can check the driver's driving status, an assistant seat view that can check the situation of the passenger seat, an all-around indoor view that can check the indoor situation as a whole, An image generation core can be set to generate a front view image that can also check the driving situation in the front along with views showing the indoor situation. In particular, when generating the front view, the above-described wide-area correction technique can be applied to match the severe difference in illumination between indoor and outdoor. For this purpose, the control signal of the wide-angle camera of the multi-camera unit 100 can be set together with setting the image generation core. have. Alternatively, the virtual camera may be appropriately controlled so that an image is output on the screen unit 800 according to a user setting input.

도 17 내지 도 19는 본 발명의 일 실시 예에 따라 광각 카메라에서 촬영한 입력 영상 및 화면부(800)에 출력되는 출력 영상들을 도시한 도면이다.17 to 19 are diagrams illustrating input images captured by a wide-angle camera and output images output to the screen unit 800 according to an embodiment of the present invention.

도 17 내지 도 19를 참조하면, 화면부(800)에 출력되는 출력 영상은 하나의 광각 카메라에서 촬영한 입력 영상에 대하여 여러 개의 시점에서 동시에 보는 것과 같은 영상을 보여줄 수 있다. 즉, 다양한 위치와 각도에 카메라들이 존재하는 것과 같은 효과를 갖도록 영상생성부(700)의 파라미터들을 설정할 수 있다. 이러한 영상은 복수 개의 영상 생성 코어에 대하여 동일한 입력 영상(가령 도 2의 C1 광각 카메라에서 촬영한 영상)을 제공하고 각 영상 생성 코어의 가상 카메라 모델링부가 모델링하는 가상 카메라의 시점을 서로 다르게 설정함으로써 획득될 수 있다. 또 다른 방법으로는 하나의 영상 생성 코어의 가상 카메라 모델링부에서 모델링하는 가상 카메라를 복수 개 두고 각 가상 카메라의 시점을 서로 다르게 설정함으로써 획득될 수도 있다.Referring to FIGS. 17 to 19, an output image output to the screen unit 800 may show an image that is viewed simultaneously from multiple viewpoints with respect to an input image captured by a single wide-angle camera. That is, parameters of the image generator 700 may be set to have the same effect as the presence of cameras at various positions and angles. These images are obtained by providing the same input image (for example, an image captured by the C1 wide-angle camera in Fig. 2) to a plurality of image generating cores and setting different viewpoints of the virtual cameras modeled by the virtual camera modeling unit of each image generating core. Can be. Alternatively, it may be obtained by placing a plurality of virtual cameras modeled by the virtual camera modeling unit of one image generating core and setting different viewpoints of each virtual camera.

도 17은 측면 광각 카메라(도 2의 C2 또는 C3)가 촬영한 영상(도 17 (a))으로부터 사각지대 영상, 위에서 보는 듯한 영상, 인접 차선 영상을 생성한 결과를 도시한 도면이다. 도 17 (a)의 격자들은 출력 영상을 생성하기 위해 입력 영상에 매핑된 영역을 나타내고, 이 격자 영역들의 매핑 모양에 따라 다양한 형태의 영상들을 생성할 수 있다. FIG. 17 is a diagram showing a result of generating a blind spot image, a top-view image, and an adjacent lane image from an image captured by a side wide-angle camera (C2 or C3 in FIG. 2) (FIG. 17(a)). The grids of FIG. 17A represent regions mapped to an input image to generate an output image, and various types of images may be generated according to the mapping shape of the grid regions.

도 18은 후방 광각 카메라(도 2의 C4)가 촬영한 영상(도 18 (a))으로부터 주행 시 필요한 광각의 후방 영상, 후진 주차 시 차량과 주차선을 함께 표시한 도로 영상, 정확한 주차선을 보여주기 위한 위에서 보는 듯한 top 뷰 영상 등을 생성한 결과를 도시한 도면이다. 18 is a wide-angle rear image required for driving, a road image showing a vehicle and a parking line when parking backwards, and an accurate parking line from the image taken by the rear wide-angle camera (C4 in FIG. 2) (FIG. 18(a)). This is a drawing showing the result of creating a top view image that looks like you are viewing from above.

도 19는 실내 광각 카메라(도 2의 C5)가 촬영한 영상(도 19 (a))으로부터 운전자 상황을 확인할 수 있는 운전석 뷰, 보조석 뷰, 전방위 실내 뷰, 전방 주행상황을 동시에 확인할 수 있는 전방 뷰 등을 생성한 결과를 도시한 도면이다. FIG. 19 is a driver's seat view, a driver's seat view, an all-around interior view, and a front view that can simultaneously check the driving situation from the image (FIG. 19 (a)) captured by the indoor wide-angle camera (C5 in FIG. 2). It is a diagram showing the result of generating the etc.

사용자는 입력부(600)를 이용하여 주행 상황에 따라 적합한 카메라 및 뷰를 선택하여 화면부(800)에 원하는 영상이 출력되도록 설정할 수 있다. 여기서 카메라는 전방, 후방, 좌우 측면, 실내 카메라들이 해당될 수 있고, 전방 카메라의 뷰로는 전방 광각 뷰, 탑 뷰, 버드아이 뷰 등이 있고, 측방 카메라의 경우에는 사각지대 뷰, 인접 차선 뷰, 탑 뷰 등이 있고, 후방 카메라의 경우에는 후방 광각 뷰, 탑 뷰, 도로 영상 뷰 등이 있을 수 있으며, 실내 카메라의 경우에는 운전석 뷰, 보조석 뷰, 전방 뷰, 전방위 실내 뷰 등이 있을 수 있다. 특히 측방 카메라의 경우에는 종래의 사이드미러와 동일한 뷰가 영상으로 출력되도록 설정할 수 있다. 각각의 뷰들은 주행상황에 따라 줌, 팬, 틸트 및 시점 변환이 자동 혹은 사용자 설정에 따라 주처리부(500)에 의해 조절이 될 수 있다. 상술한 종래의 사이드미러와 동일한 뷰를 출력하는 경우에는 사용자는 종래의 사이드미러 조절용 스위치를 그대로 사용하여 출력되는 영상의 설정을 변경할 수도 있다.The user may select an appropriate camera and view according to the driving situation using the input unit 600 and set a desired image to be displayed on the screen unit 800. Here, the camera may include front, rear, left and right side, and indoor cameras, and the views of the front camera include a front wide-angle view, a top view, and a bird's eye view, and in the case of a side camera, a blind spot view, an adjacent lane view, and There may be a top view, and in the case of a rear camera, there may be a rear wide-angle view, a top view, and a road image view, and in the case of an indoor camera, there may be a driver's seat view, an assistant seat view, a front view, and an all-around indoor view. In particular, in the case of the side camera, the same view as the conventional side mirror can be set to be output as an image. For each view, zoom, pan, tilt, and viewpoint conversion may be automatically adjusted according to a driving situation or by the main processing unit 500 according to a user setting. In the case of outputting the same view as the conventional side mirror described above, the user may change the setting of the output image by using the conventional side mirror adjustment switch as it is.

이에 더하여 화면부(800)에 차선, 주차선, 차량 등 영상에서 인식한 정보를 증강현실(augmented reality) 방식으로 추가적으로 합성하여 표시할 수도 있다. In addition, information recognized from an image, such as a lane, a parking line, and a vehicle, may be additionally synthesized and displayed in an augmented reality method on the screen unit 800.

가능한 화면부(800)의 출력 장치의 위치로는 차량의 왼쪽 창 및 오른쪽 창, 특히 종래의 사이드미러와 운전자의 시야 사이의 왼쪽 창 및 오른쪽 창, 대시 보드(Dash board)의 센터페시아(Center fascia), 룸미러(room mirror), 차량의 전면 유리, 또는 차량의 앞좌석 뒤쪽일 수 있다. Possible positions of the output device of the screen unit 800 include the left and right windows of the vehicle, in particular, the left and right windows between the conventional side mirror and the driver's view, and the center fascia of the dash board. ), a room mirror, the windshield of the vehicle, or the rear of the front seat of the vehicle.

또한 주처리부(500)는 차량의 주행 상태를 기반으로 미리 설정된 시나리오에 따라 영상을 생성하도록 영상생성부(700)를 설정할 수 있다.In addition, the main processing unit 500 may set the image generation unit 700 to generate an image according to a preset scenario based on the driving state of the vehicle.

가능한 시나리오들의 일 실시 예로서, 주행 시에는 화면부(800)를 도 3의 (d)처럼 구성하도록 설정하고, 전방 카메라의 전방 광각 뷰, 좌우 측방 카메라의 사각지대 뷰 또는 인접 차선뷰 또는 추적뷰, 및 후방 카메라의 광각 뷰가 화면부(800)로 출력되어 운전자가 가능한 넓은 범위의 시야를 확보하도록 도울 수 있다. 이 경우 영상생성부(700)의 각 영상 생성 코어는 전방 카메라의 촬영 영상, 좌우 측방 카메라의 촬영 영상, 및 후방 카메라의 촬영 영상을 입력 영상으로 하고, 주처리부(500)의 설정에 따라 전방 광각 뷰, 좌우 사각지대 뷰 또는 인접 차선뷰 또는 추적뷰, 및 후방 광각 뷰를 생성하고, 영상 합성부(740)는 영상 생성 코어가 생성한 각 뷰가 화면부(800)의 설정된 위치에 오도록 합성하여 최종 출력 영상을 생성하여 화면부(800)로 출력할 수 있다.As an example of possible scenarios, when driving, the screen 800 is configured to be configured as shown in Fig. 3(d), and a front wide-angle view of the front camera, a blind spot view of the left and right side cameras, or an adjacent lane view or tracking view. , And a wide-angle view of the rear camera may be output to the screen unit 800 to help the driver secure a view of a wide range possible. In this case, each image generating core of the image generating unit 700 takes a photographed image of the front camera, a photographed image of the left and right side cameras, and a photographed image of the rear camera as input images, and according to the setting of the main processing unit 500, the front wide angle A view, a left and right blind spot view or an adjacent lane view or a tracking view, and a rear wide-angle view are generated, and the image synthesizing unit 740 synthesizes each view generated by the image generation core to come to a set position of the screen unit 800. The final output image may be generated and output to the screen unit 800.

가능한 시나리오들의 또 다른 일 실시 예로서, T자 전진 주차시에는 측면 광각 카메라가 촬영한 영상을 주로 사용하여 인접 차선 뷰, 버드아이 뷰, 탑 뷰 등을 선택하여 화면부(800)에 출력하도록 할 수 있고, T자 후진 주차시에는 후방 카메라가 촬영한 영상을 주로 사용하여, 도 17에 도시된 것과 같은 후방 광각 뷰, 탑 뷰, 도로 영상 뷰 등을 선택하여 화면부(800)에 출력하도록 할 수 있으며, 평행 주차시에는 측면과 후방 광각 카메라가 촬영한 영상들을 적절히 혼합하여 영상을 제공하도록 함으로서 사용자의 원활한 주차를 도모할 수 있다. As another example of possible scenarios, when T-shape forward parking is performed, an image captured by a side wide-angle camera is mainly used to select an adjacent lane view, a bird's eye view, a top view, etc., and output them to the screen unit 800. In the case of T-shape reverse parking, the image captured by the rear camera is mainly used, and the rear wide-angle view, the top view, the road image view, etc., as shown in FIG. 17 are selected to be output to the screen unit 800. In the case of parallel parking, images taken by the side and rear wide-angle cameras are properly mixed to provide an image, thereby promoting smooth parking for the user.

가능한 시나리오들의 또 다른 일 실시 예로서, 정차 후 열리는 문에 따라 적절히 카메라를 선정하여 영상을 제공하도록 설정하여, 내리는 사람이 후방에서 오는 차량 여부를 쉽게 확인할 수 있도록 할 수 있다. 좌측 문 열림의 경우에는 좌측 카메라, 우측 문 열림의 경우에는 우측 카메라를 선택하여 접근 차량 확인이 편리한 시야각의 영상을 생성할 수 있고, 동시에 후방 카메라에서도 후방 차량을 확인하기 편리한 시야각의 영상을 생성하여 화면부(800)에 출력하도록 할 수 있다. 이때 영상 출력과 함께, 검출 차량의 위치, 거리 등의 정보를 함께 표시할 수 있고, 소리를 이용하여 탑승자에게 알람을 줄 수 있는 기능을 추가할 수도 있다.As another embodiment of possible scenarios, a camera may be appropriately selected according to a door that opens after stopping and set to provide an image, so that a person getting off may easily check whether a vehicle is coming from the rear. By selecting the left camera for the left door open and the right camera for the right door open, you can create an image with a convenient viewing angle for checking the approaching vehicle.At the same time, the rear camera also creates an image with a convenient viewing angle to check the vehicle behind you. It may be output on the screen unit 800. In this case, information such as the location and distance of the detected vehicle may be displayed together with the image output, and a function of giving an alarm to the occupant using sound may be added.

본 발명에서 제시하는 주행감응형 차량용 영상 생성 장치의 각 카메라에서 촬영한 영상 및 영상생성부에서 생성된 영상들은 화면부(800)에 바로 출력될 수 있지만 동시에 저장장치에 저장될 수 있다. 특히, 다중 카메라부(100)의 각 광각 카메라에서 촬영한 영상들은 보존 및 사고 후처리 등의 목적으로 다시 보기 위해 저장장치에 저장될 수 있으며, 이 경우 복수 개의 원본 영상은 하나의 파일에 동기화되어 저장될 수 있다. 각 광각 카메라에서 촬영한 영상들을 동기화하여 저장하기 위하여 장치에 내장되어 있는 타이머를 기준으로 기준 시간(일 예로서, 30fps가 기본 프레임 레이트라면 33.3ms)이내에 각 광각 카메라에서 촬영한 영상에 동일한 인덱스(index)를 부여하고, 동일한 인덱스를 가진 영상은 같은 시간에 촬영된 영상으로 판단함으로서 각 광각 카메라에서 촬영한 영상들을 동기화할 수 있다.Images captured by each camera of the driving-sensitive vehicle image generating apparatus proposed in the present invention and images generated by the image generating unit may be directly output to the screen unit 800, but may be simultaneously stored in a storage device. In particular, images captured by each wide-angle camera of the multi-camera unit 100 may be stored in a storage device for re-viewing purposes such as preservation and post-accident processing, and in this case, a plurality of original images are synchronized to one file. Can be saved. In order to synchronize and store the images taken by each wide-angle camera, the same index (for example, 33.3ms if 30fps is the default frame rate) to the images taken by each wide-angle camera based on a timer built into the device. index), and an image with the same index is determined as an image captured at the same time, so that images captured by each wide-angle camera can be synchronized.

이때, 일반적인 녹화장치에 원본 영상을 저장시, 데이터 크기가 커서 저장장치의 저장 공간 크기가 문제될 수 있으므로, 저장장치의 성능과 저장 공간을 고려하여 비디오 코덱을 통해 압축된 영상 데이터를 저장할 수 있다. 저장된 파일에는 각종 음성정보, 자동차 상태정보, 가속도 정보, 및/또는 GPS 정보들이 같이 저장될 수 있다. At this time, when the original image is stored in a general recording device, the size of the storage space of the storage device may be a problem because the data size is large, so the image data compressed through the video codec can be stored in consideration of the performance and storage space of the storage device. . Various voice information, vehicle status information, acceleration information, and/or GPS information may be stored in the stored file.

사용자의 입력부(600)를 이용한 설정에 따라 기존에 생성하여 저장해 놓은 영상 또는 저장되어 있는 원본 영상을 화면부(800)에서 재생할 수 있다. 또한, 기존에 저장되어 있는 원본 영상을 바탕으로 새로운 설정으로 영상생성부(700)에서 생성한 영상을 화면부(800)로 출력할 수도 있다. 새로 생성한 영상 또는 기존에 저장되어 있던 영상은 다른 디스플레이 장치로 전송할 수 있으며, 실시간으로 사용자 입력을 받아서 가상 카메라의 위치 및 자세 등을 변경함으로써 임의 시점의 영상을 실시간으로 보여줄 수 있다. 파일 저장 형식으로는 AVI, MP4 등을 예로 들 수 있고, 저장장치로는 Micro SD card 등이 해당하며, 사용 가능한 비디오 코덱으로는 H.264/MPEG-4 AVC 혹은 H.265 등을 사용할 수 있다.According to a setting using the input unit 600 of the user, an image previously generated and stored or an original stored image may be reproduced on the screen unit 800. In addition, the image generated by the image generator 700 may be output to the screen unit 800 with a new setting based on the previously stored original image. A newly created image or a previously stored image may be transmitted to another display device, and an image at a random viewpoint may be displayed in real time by receiving a user input in real time and changing the position and posture of the virtual camera. Examples of file storage formats include AVI, MP4, and the like, Micro SD card, etc. as a storage device, and H.264/MPEG-4 AVC or H.265 can be used as a video codec that can be used. .

입력부(600)는 상술한 바와 같이 사용자로부터 요구 사항, 설정 정보 등을 입력받을 수 있다. 즉, 화면부(800)에 표시될 화면 구성 정보, 다중 카메라부(100)의 복수의 광각 카메라의 설치 위치에 대한 정보, 시나리오 정보 및 저장된 영상을 사용할지 아니면 현재 촬영된 영상을 사용할지에 대한 정보 등을 사용자가 입력부(600)를 통해 입력할 수 있다.As described above, the input unit 600 may receive requirements, setting information, and the like from a user. That is, screen configuration information to be displayed on the screen unit 800, information on installation locations of a plurality of wide-angle cameras of the multi-camera unit 100, scenario information, and information on whether to use a stored image or a currently captured image. The user may input such as through the input unit 600.

도 20은 본 발명의 일 실시 예에 따른 주행감응형 차량용 영상 생성 방법을 도시한 도면이다.20 is a diagram illustrating a method of generating an image for a driving-sensitive vehicle according to an embodiment of the present invention.

도 20을 참조하면, 본 발명의 일 실시 예에 따른 주행감응형 차량용 영상 생성 방법은 차량에 부착된 복수의 광각 카메라를 이용하여 차량 주변 및/또는 차량 실내를 포함하는 복수의 영상을 촬영(S100)할 수 있다. 이때 어안 렌즈와 같은 광각 카메라에 의해 촬영하는 것이기에 촬영되는 영상에는 상당한 왜곡이 포함되어 있다.Referring to FIG. 20, in a method for generating an image for a driving-sensitive vehicle according to an embodiment of the present invention, a plurality of images including a vehicle surrounding and/or a vehicle interior are captured using a plurality of wide-angle cameras attached to the vehicle (S100). )can do. At this time, since it is photographed by a wide-angle camera such as a fisheye lens, the captured image contains considerable distortion.

그리고 사용자의 입력에 따라 수동으로 또는 물체 추적 정보, 움직임 검지 정보, 또는 차량 주행 정보 등에 따라 자동으로 출력 화면 구성 및 출력될 영상을 설정(S200)할 수 있다. 또는 사용자의 입력에 따라 자동으로 장치가 필요한 출력 화면 구성 및 출력될 영상을 설정할 수도 있다. In addition, an output screen may be configured and an image to be output may be set manually or automatically according to object tracking information, motion detection information, or vehicle driving information according to a user's input (S200). Alternatively, the device may automatically configure the required output screen and set the image to be output according to the user's input.

출력 화면 구성에는 도 3의 예에서 도시된 것처럼 전체 화면에 하나의 영상을 출력하도록 구성할 수도 있고, 또는 전체 화면을 2 분할, 4 분할, 또는 5 분할하여 각각의 분할된 화면에 서로 다른 영상을 출력하도록 구성할 수 있다. 또는 PIP(Picture in Picture) 형태로 전체 화면에 영상을 출력하면서도 그 일부에는 다른 영상을 출력하도록 구성할 수도 있다.In the configuration of the output screen, as shown in the example of FIG. 3, it may be configured to output one image on the entire screen, or by dividing the entire screen into two, four, or five, different images are displayed on each divided screen. Can be configured to output. Alternatively, it may be configured to output an image on the entire screen in the form of a picture in picture (PIP) while outputting another image on a part of the image.

그리고 출력 화면에 대한 구성에 맞추어서 분할된 각 화면 또는 전체 화면으로 출력될 영상을 설정할 수 있다. In addition, an image to be displayed on each divided screen or a full screen may be set according to the configuration of the output screen.

일 실시 예로 전방 카메라의 촬영 영상을 바탕으로 전방 광각 영상, 하늘에서 보는 것과 같은 영상, 버드아이 뷰 등이 화면에 출력되도록 설정할 수 있고, 또는 측방 카메라의 촬영 영상을 바탕으로 사각지대 영상, 인접 차선 영상, 인접 차량 추적 영상, 하늘에서 보는 것과 같은 영상 등이 화면에 출력되도록 설정할 수 있고, 후방 카메라의 촬영 영상을 바탕으로 후방 광각 영상, 하늘에서 보는 것과 같은 영상, 도로 영상 등이 출력되도록 설정할 수 있고, 실내 카메라의 촬영 영상을 바탕으로 운전석 영상, 보조석 영상, 전방 영상, 전방위 실내 영상 등이 화면에 출력되도록 설정할 수 있다.As an example, a front wide-angle image, an image as seen from the sky, and a bird's eye view may be set to be output on the screen based on the image captured by the front camera, or a blind spot image or an adjacent lane based on the image captured by the side camera. You can set the screen to display a video, an adjacent vehicle tracking video, and a video like seen from the sky, and the rear wide-angle video, a video like seen from the sky, and a road video can be set to be output based on the video taken from the rear camera. Also, a driver's seat image, an assistant seat image, a front image, and an all-around indoor image may be set to be output on the screen based on the image captured by the indoor camera.

출력화면 구성 및 출력 영상 설정의 일 실시 예로서, 사용자의 선택에 의하여 전체 화면에 상술한 영상 중의 하나가 출력되도록 설정할 수 있으며, 또 다른 일 실시 예로서 사용자의 선택에 의하여 전체 화면을 3 분할하고, 왼쪽 위 화면에는 왼쪽 사각지대 영상이, 오른쪽 위 화면에는 오른쪽 사각지대 영상이, 아래 화면에는 후방 광각 영상이 출력되도록 설정할 수 있다. As an example of configuring the output screen and setting the output image, it is possible to set one of the above-described images to be displayed on the entire screen according to the user's selection, and as another embodiment, the entire screen is divided into three according to the user's selection. , The left blind spot image is displayed on the upper left screen, the right blind spot image is displayed on the upper right screen, and the rear wide-angle image is displayed on the lower screen.

또 다른 일 실시 예로서, 차량이 주행중임을 인식하고, 자동으로 전체 화면을 도 3의 (d)처럼 구성하도록 설정하고, 전방 광각 영상, 좌/우 사각지대 영상, 후방 광각 영상이 출력되도록 설정할 수 있다.As another embodiment, it is possible to set to recognize that the vehicle is driving and to automatically configure the entire screen as shown in Fig. 3(d), and to output a front wide-angle image, a left/right blind spot image, and a rear wide-angle image. have.

또 다른 일 실시 예로서, T자 전진 주차 중임을 인식하고, 자동으로 전체 화면을 4 분할하고, 인접 차선 영상, 버드아이 영상, 하늘에서 보는 것과 같은 영상 및 후방 광각 영상이 출력되도록 설정할 수도 있다. In another embodiment, it is possible to recognize that a T-shape forward parking is in progress, automatically divide the entire screen into four, and set to output an adjacent lane image, a bird's eye image, an image as seen from the sky, and a rear wide-angle image.

그리고 이렇게 설정된 출력 화면 구성 및 출력 영상을 생성하기 위하여 가상 카메라의 시점을 포함하는 영상생성부에서 영상 생성을 위한 파라미터를 설정(S300)할 수 있다.In addition, in order to generate an output screen configuration and an output image set as described above, a parameter for image generation may be set (S300) in the image generator including the viewpoint of the virtual camera.

그리고 단계(S300)에서 설정한 파라미터를 바탕으로 가상 카메라 기반 영상생성부에서 설정된 출력 영상을 생성(S400)한다. 즉, 상술한 바와 같이 본 발명에서 제시하는 차량용 영상 생성 장치의 영상생성부(700)는 복수 개의 영상 생성 코어를 포함하고 있고, 각 영상 생성 코어를 위한 파라미터를 적절히 설정해 줌으로써 각 영상 생성 코어가 상기 단계(S100)에서 복수의 광각 카메라에서 촬영한 영상들 중의 하나를 입력 영상으로 하고, 단계(S300)에서 설정된 파라미터에 따라 가상 카메라를 모델링하고, 상기 입력 영상으로부터 상기 가상 카메라의 시점에서 보여지는 영상을 생성하고, 상기 복수의 영상 생성 코어에서 생성한 영상을 상기 설정된 출력 화면 구성에 따라 합성하여 출력 영상을 생성할 수 있다.Then, the output image set by the virtual camera-based image generator is generated based on the parameter set in step S300 (S400). That is, as described above, the image generation unit 700 of the vehicle image generation apparatus proposed in the present invention includes a plurality of image generation cores, and by appropriately setting parameters for each image generation core, each image generation core is One of the images captured by a plurality of wide-angle cameras in step S100 is used as an input image, a virtual camera is modeled according to a parameter set in step S300, and an image displayed from the viewpoint of the virtual camera from the input image May be generated, and an output image may be generated by synthesizing the images generated by the plurality of image generating cores according to the set output screen configuration.

단계(S400)에서 생성된 영상은 화면부에 표시(S500)될 수 있다.The image generated in step S400 may be displayed on the screen (S500).

이에 더하여 차량용 영상 생성 장치는 차량의 주행 상태 정보를 획득하거나 또는 사용자로부터 출력 화면 구성 및 출력 영상을 생성하기 위한 사용자 설정 정보를 입력받아 이를 바탕으로 출력 화면 구성 및 출력 영상을 설정하고, 그리고 가상 카메라 기반 영상생성부의 파라미터를 설정할 수 있다. In addition, the vehicle image generating apparatus acquires driving state information of the vehicle or receives user setting information for generating an output screen configuration and an output image from a user, and sets an output screen configuration and an output image based on this, and the virtual camera The parameters of the base image generator can be set.

이에 더하여 추가적으로 복수의 광각 카메라를 제어할 수 있다. 단계(S200)에서 설정된 출력 영상에 따라 광각 카메라의 프레임 레이트 및 해상도 설정을 자동으로 변경할 수 있다. 일 실시 예로 고속 주행시 혹은 차량 충돌시에는 자동으로 광각 카메라의 프레임 레이트를 높여 초고속 영상을 제공하거나, 저속 주행시에는 프레임 레이트를 낮추면서 해상도를 높여 초고해상도 영상을 제공할 수 있다. In addition, it is possible to additionally control a plurality of wide-angle cameras. The frame rate and resolution settings of the wide-angle camera may be automatically changed according to the output image set in step S200. For example, when driving at a high speed or when a vehicle crashes, a frame rate of a wide-angle camera may be automatically increased to provide a super-high-speed image, or when driving at a low speed, a frame rate may be lowered and resolution may be increased to provide a super-resolution image.

그리고 복수의 광각 카메라에서 촬영된 영상들 및/또는 단계(S400)에서 출력되는 영상은 저장장치에 저장될 수 있다. 특히 복수의 광각 카메라에서 촬영된 영상들은 서로 동기시켜 저장할 수 있다. 좀 더 상세히 보면, 동일한 시간에 촬영된 영상들은 동일한 인덱스를 가지도록 하여 저장할 수 있다.In addition, images captured by a plurality of wide-angle cameras and/or images output in step S400 may be stored in a storage device. In particular, images captured by a plurality of wide-angle cameras may be stored in synchronization with each other. In more detail, images captured at the same time can be stored with the same index.

그리고 상술한 생성 방법은 실시간으로 수동 또는 자동으로 출력 화면 구성의 설정을 변경하거나, 출력될 영상을 변경할 수 있어 운전자가 안전하게 운전할 수 있도록 도울 수 있는 다양한 영상을 상황에 맞게 생성하여 제공할 수 있다. In addition, the above-described generation method can manually or automatically change the setting of the output screen configuration or change the image to be output in real time, so that various images that can help the driver to drive safely can be generated and provided according to the situation.

도 21은 본 발명의 일 실시 예에 따른 차량용 영상 생성 장치에서 출력 영상을 생성하는 방법을 도시한 도면이다.21 is a diagram illustrating a method of generating an output image in an image generating apparatus for a vehicle according to an embodiment of the present invention.

도 21을 참조하면, 본 발명의 일 실시 예에 따른 차량용 영상 생성 장치는 출력 영상을 생성하기 위하여 먼저 복수의 광각 카메라에서 촬영한 복수의 영상에 대하여 불량 픽셀의 값 보정(Defect correction), 잡음 제거(Noise Reduction; NR) 및 광역 보정(Wide Dynamic Range; WDR)의 과정을 수행하여 전처리 영상을 생성(S410)한다. Referring to FIG. 21, in order to generate an output image, an image generating apparatus for a vehicle according to an embodiment of the present invention first corrects the values of defective pixels and removes noise with respect to a plurality of images captured by a plurality of wide-angle cameras. (Noise Reduction; NR) and wide dynamic range (WDR) are performed to generate a pre-processed image (S410).

특히 광역 보정 기능은 차량 실내외 조도차를 제거하여 선명한 영상을 생성하기 위하여 수행할 수 있다.In particular, the wide area correction function may be performed to generate a clear image by removing a difference in illuminance inside and outside the vehicle.

도 22는 본 발명의 일 실시 예에 따른 광역 보정 방법을 도시한 도면이다.22 is a diagram illustrating a wide area correction method according to an embodiment of the present invention.

도 22를 참조하면, 광역 보정을 위하여 초기 설정 모드와 운용 모드가 있을 수 있다. 초기 설정 모드는 저 노출 영상과 고 노출 영상 중에서 어느 것을 사용할 것인지를 결정하여 그 결과를 포함하는 노출 영역 정보를 설정한다. 그리고 운용 모드에서는 운용 중에 실시간으로 초기 설정 모드에서 설정한 노출 영역 정보를 바탕으로 광역 보정된 전처리 영상을 생성한다. 이를 위하여 초기 설정 모드에서는 먼저 광역 카메라의 셔터 속도를 달리함으로써 노출이 서로 다른 2장의 광역 보정용 영상을 생성(S510)한다. 그리고 노출이 서로 다른 2장의 광역 보정용 영상 중 저 노출 영상에서의 픽셀값이 매우 낮은 부분과 고 노출 영상에서의 픽셀값이 매우 높은 부분을 서로 비교하여, 두 영상 간의 겹치는 영역이 최소화되도록 광역 보정 임계치를 설정(S520)한다. 그리고 광역 보정된 전처리 영상의 각 픽셀의 값으로 노출이 적은 저 노출 영상의 픽셀 값을 사용할 것인지 아니면 노출이 많은 고 노출 영상의 픽셀 값을 사용할 것인지를 광역 보정 임계치를 바탕으로 선택하여, 픽셀별로 해당 픽셀이 저 노출 영역 혹은 고 노출 영역에 해당하는지의 노출 영역 정보를 영상 형태로 저장(S530)한다. 그리고 실제 운용 모드에서는 매 프레임별로 광각카메라에서 입력되는 노출이 서로 다른 2장의 영상(저 노출 영상과 고 노출 영상)의 대응하는 픽셀 값 중에서 하나를, 이미 저장된 각 픽셀의 노출 영역 정보에 따라 선택하여 광역 보정된 전처리 영상의 픽셀 값으로 결정(S540)한다. Referring to FIG. 22, there may be an initial setting mode and an operation mode for wide area correction. The initial setting mode determines which of a low-exposure image and a high-exposure image is to be used, and sets exposure area information including the result. In the operation mode, a preprocessed image corrected for a wide area is generated based on the exposure area information set in the initial setting mode in real time during operation. To this end, in the initial setting mode, two images for wide area correction having different exposures are first generated by varying the shutter speed of the wide area camera (S510). And, of the two images for wide area correction with different exposures, the area with very low pixel values in the low exposure image and the portion with very high pixel values in the high exposure image are compared with each other, so that the overlapping area between the two images is minimized. Is set (S520). In addition, as the value of each pixel of the preprocessed image corrected for wide area, whether to use the pixel value of the low-exposure image with low exposure or the pixel value of the high-exposure image with high exposure is selected based on the wide area correction threshold, corresponding to each pixel Exposure area information indicating whether a pixel corresponds to a low exposure area or a high exposure area is stored in the form of an image (S530). In the actual operation mode, one of the corresponding pixel values of two images (low-exposure image and high-exposure image) with different exposures input from the wide-angle camera for each frame is selected according to the exposure area information of each pixel already stored. It is determined as the pixel value of the pre-processed image corrected for wide area (S540).

이처럼 광역 보정은 저 노출 영상과 고 노출 영상을 합성하여 1개의 광역 보정된 영상을 생성하는 것이므로 매 프레임별로 노출이 다른 2장의 영상이 광각 카메라에서 촬영되어 입력되어야 한다. 따라서 광역 보정이 필요 없는 카메라에 비하여 프레임 레이트가 2배로 크게 설정될 필요가 있다. In this way, since the wide-area correction is to create one wide-area corrected image by synthesizing a low-exposure image and a high-exposure image, two images with different exposures for each frame must be photographed and input by a wide-angle camera. Therefore, it is necessary to set the frame rate to be twice as large as that of a camera that does not require wide area correction.

다시 도 21을 참고하면, 전처리 영상은 후처리 단계를 거치게 되는데 후처리 단계는 전처리 단계(S410)에서 생성된 전처리 영상들 각각에 대하여 밝기 및 색상 신호 분리, 경계부 개선(Edge Enhancement), 감마 보정(Gamma Correction), 색상 보정(Color Correction), 및 밝기 개선(Contrast Enhancement) 중의 적어도 하나를 수행하여 후처리 영상들을 생성(S420)할 수 있다. Referring to FIG. 21 again, the pre-processed image undergoes a post-processing step. In the post-processing step, separation of brightness and color signals, edge enhancement, and gamma correction for each of the pre-processed images generated in the pre-processing step (S410). Post-processed images may be generated (S420) by performing at least one of Gamma Correction, Color Correction, and Contrast Enhancement.

그리고 가상 카메라 기반의 영상생성부 내의 복수의 영상 생성 코어 각각은 후처리 영상들 중의 하나를 입력 영상으로 하고, 설정된 파라미터에 따라 가상 카메라를 모델링하고, 입력 영상으로부터 가상 카메라의 시점에서 보여지는 영상을 생성(S430)할 수 있다.In addition, each of the plurality of image generation cores in the virtual camera-based image generation unit takes one of the post-processed images as an input image, models a virtual camera according to the set parameters, and generates an image viewed from the viewpoint of the virtual camera from the input image. It can be generated (S430).

영상 생성 코어는 도 21에 도시된 방법에 따라 입력 영상으로부터 가상 카메라의 시점에서 보여지는 영상을 생성할 수 있다.The image generation core may generate an image viewed from the viewpoint of the virtual camera from the input image according to the method illustrated in FIG. 21.

도 23은 본 발명의 일 실시 예에 따른 영상 생성 코어에서 영상을 생성하는 방법을 도시한 도면이다.23 is a diagram illustrating a method of generating an image in an image generating core according to an embodiment of the present invention.

도 23을 참조하면, 본 발명의 일 실시 예에 따른 각 영상 생성 코어는 설정된 파라미터에 따라 가상 카메라 모델을 생성(S610)한다. 이때 하나의 입력 영상으로부터 하나 이상의 영상을 생성하고자 하는 경우에는 하나 이상의 가상 카메라 모델을 생성할 수 있다. 즉, 주처리부(500)에서 가상 카메라의 수 및 각 가상 카메라의 위치 및 자세를 파라미터로 설정할 수 있다. 여기서 설정된 위치 및 자세는 기계식 카메라의 디지털 팬, 틸트, 줌 기능을 에뮬레이션하게 된다. 그리고 특수 렌즈 효과를 가지도록 하는 가상 카메라의 유형 및 각 유형별 파라미터들이 설정된다. 가상 카메라의 유형, 위치, 및 자세에 대한 설정이 완료되면 이를 바탕으로 가상 카메라의 시점에서 보여지는 영상(J)의 한 점에 대한 장면 좌표계의 좌표(

Figure 112019063512393-pat00165
) 및 광축 중심(
Figure 112019063512393-pat00166
)을 계산할 수 있다. Referring to FIG. 23, each image generating core according to an embodiment of the present invention generates a virtual camera model according to a set parameter (S610). In this case, when one or more images are to be generated from one input image, one or more virtual camera models may be generated. That is, the main processing unit 500 may set the number of virtual cameras and the position and posture of each virtual camera as parameters. The position and posture set here emulate the digital pan, tilt, and zoom functions of a mechanical camera. In addition, the types of virtual cameras to have a special lens effect and parameters for each type are set. When the settings for the type, position, and posture of the virtual camera are completed, based on this, the coordinates of the scene coordinate system for a point in the image (J) displayed from the viewpoint of the virtual camera (
Figure 112019063512393-pat00165
) And the center of the optical axis (
Figure 112019063512393-pat00166
) Can be calculated.

그리고 2차 곡면 모델을 생성(S620)할 수 있다. 2차 곡면 모델은 얻고자 하는 효과에 따라 복수 개의 모델 중에서 하나를 선택할 수 있다. 복수 개의 모델에는 가상 카메라의 팬, 틸트, 줌 효과를 얻기 위해 사용될 수 있는 타원체(Ellipsoid) 모델, 광각 영상 생성을 위한 실린더(Cylinder) 모델, 영상의 일정 부부만을 매핑한 효과를 얻기 위한 포물면 모델, 그리고 사용자가 임의로 설정할 수 있는 사용자 2차 곡면 모델을 포함할 수 있다. 2차 곡면 모델 선택 시에는 각 모델에 적합한 파라미터를 같이 설정할 수 있다. 설정된 2차 곡면 모델은 4x4 행렬(

Figure 112019063512393-pat00167
)로 표현될 수 있고, 설정된 자세 및 위치에 따라 장면 좌표계상의 2차 곡면 모델(
Figure 112019063512393-pat00168
)로 변환될 수 있다. In addition, a second curved surface model may be generated (S620). The second-order surface model can be selected from a plurality of models according to the desired effect. The multiple models include an ellipsoid model that can be used to obtain the pan, tilt, and zoom effects of a virtual camera, a cylinder model for creating a wide-angle image, and a parabolic model to obtain the effect of mapping only a certain couple of images. In addition, a user secondary curved surface model that can be arbitrarily set by the user may be included. When selecting a second-order curved model, parameters suitable for each model can be set together. The set quadratic surface model is a 4x4 matrix (
Figure 112019063512393-pat00167
), and according to the set posture and position, a second-order surface model on the scene coordinate system (
Figure 112019063512393-pat00168
) Can be converted.

다음으로, 광각 카메라로 촬영한 영상에 포함되어 있는 왜곡을 제거하기 위한 카메라 투영 모델을 생성(S630)할 수 있다. 영상에 포함되어 있는 왜곡을 제거하기 위하여 카메라 투영 모델은 이론적으로 분석한 모델과 수치적으로 근사한 모델 등에 의하여 구해진 왜곡 보정 매핑 함수를 사용할 수 있는데, 바람직하게는 테일러 확장(Taylor expansion series) 기반의 근사 모델을 사용할 수 있다. 이와 같은 왜곡 보정 매핑 함수를 이용하여 왜곡을 제거할 수 있는 입력 영상의 한 점으로 매핑할 수 있다.Next, a camera projection model for removing distortion included in an image captured by a wide-angle camera may be generated (S630). In order to remove the distortion contained in the image, the camera projection model can use a distortion correction mapping function obtained by a model that is theoretically analyzed and a numerically approximate model, and is preferably an approximation based on a Taylor expansion series. You can use the model. The distortion correction mapping function can be used to map a point of an input image capable of removing distortion.

그리고 상술한 바처럼 설정된 파라미터에 따라 생성된 모델을 바탕으로 가상 카메라 모델의 투영선과 2차 곡면 모델의 교차점을 계산(S640)한다. 여기서 투영선은 가상 카메라의 광축 중심과 가상 카메라의 시점에서 보여지는 영상의 한 점을 잇는 직선이다. 즉, 가상 카메라에서 보여지는 영상을 생성하기 위하여 가상 카메라에서 보여지는 영상의 한 점(픽셀)에 입력 영상의 어느 한 점(픽셀)을 매핑시켜야 하는데 그 1 단계 작업으로서 투영선과 2차 곡면 모델의 교차점을 계산하는 것이다. 그리고 상기 교차점을 다시 왜곡 보정 매핑 함수를 포함하는 카메라 투영 모델을 이용하여 입력 영상의 한 점으로 매핑하여 가상 카메라에서 보여지는 최종 영상을 생성(S650)한다. 이때의 입력 영상의 한 점은 입력 영상에 포함되어 있는 왜곡을 제거할 수 있는 점이다. Then, based on the model generated according to the set parameters as described above, the intersection point of the projection line of the virtual camera model and the second-order curved surface model is calculated (S640). Here, the projection line is a straight line connecting the center of the optical axis of the virtual camera and a point of the image viewed from the viewpoint of the virtual camera. In other words, in order to create an image displayed by a virtual camera, a point (pixel) of the input image must be mapped to a point (pixel) of the image viewed by the virtual camera. It is to calculate the intersection point. Then, the intersection point is mapped back to one point of the input image using a camera projection model including a distortion correction mapping function to generate a final image viewed from the virtual camera (S650). One point of the input image at this time is that distortion included in the input image can be removed.

상술한 방법을 이용하여 복수의 영상 생성 코어 각각은 하나 이상의 영상을 생성할 수 있으며, 다시 도 19를 참조하면, 복수의 영상 생성 코어에서 생성된 복수의 영상들을 설정된 출력 화면 구성에 따라 합성하여 출력 영상을 생성(S440)할 수 있다. 이렇게 생성된 출력 영상은 화면에 표시될 수 있다. Each of the plurality of image generation cores may generate one or more images using the method described above. Referring to FIG. 19 again, a plurality of images generated by the plurality of image generation cores are synthesized and output according to a set output screen configuration. An image may be generated (S440). The output image generated in this way may be displayed on the screen.

상술한 것처럼 본 발명에서 제시하는 차량용 영상 생성 장치 및 방법에 의하면 차량에 부착되어 있는 복수의 광각 카메라로 촬영한 영상을 바탕으로 운전자가 안전하게 운전할 수 있도록 도와줄 수 있는 다양한 영상을 운전자에게 제공할 수 있을 것이다. 특히 차량의 주행 속도나 주행 방향에 맞추어 필요한 영상을 자동으로 생성하여 운전자에게 제공함으로써 운전의 편의성 및 안전성 향상에 도움을 줄 수 있을 것이다. As described above, according to the vehicle image generating apparatus and method presented in the present invention, various images that can help the driver to drive safely can be provided to the driver based on images captured by a plurality of wide-angle cameras attached to the vehicle. There will be. In particular, it is possible to help improve driving convenience and safety by automatically generating necessary images according to the driving speed or driving direction of the vehicle and providing them to the driver.

본 발명이 속하는 기술 분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art to which the present invention pertains, since the present invention may be implemented in other specific forms without changing the technical spirit or essential features thereof, the embodiments described above are illustrative in all respects and should be understood as non-limiting. Only do it. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. .

100: 다중 카메라부
200: 전처리부
300: 저장부
400: 후처리부
500: 주처리부
600: 입력부
700: 영상생성부
701, 702, 703: 영상 생성 코어
710: 가상 카메라 모델부
720: 2차곡면 모델부
730: 카메라 투영 모델부
800: 화면부
900: 차량 센서부
100: multiple camera unit
200: pretreatment unit
300: storage
400: post-processing unit
500: main processing unit
600: input
700: image generation unit
701, 702, 703: image generation core
710: virtual camera model unit
720: quadratic surface model part
730: camera projection model unit
800: screen portion
900: vehicle sensor unit

Claims (29)

차량용 영상 생성 장치로서,
차량에 부착되는 복수의 광각 카메라를 포함하는 다중 카메라부; 상기 차량의 주행 상태 정보를 획득하는 차량 센서부; 상기 차량 센서부를 통해 획득한 상기 주행 상태 정보에 대응하는 시나리오를 결정하고, 상기 시나리오에 기초하여 복수의 분할 화면들의 위치와 크기를 포함하는 출력 화면 구성 및 상기 복수의 분할 화면의 각각에 출력할 출력 영상들을 설정하는 처리부; 상기 출력 영상들을 생성하는 가상 카메라 기반의 복수의 영상 생성 코어 및 상기 복수의 영상 생성 코어에서 생성한 출력 영상들을 설정된 상기 출력 화면 구성에 따라 상기 복수의 분할 화면들에 표시되도록 합성하여 최종 출력 영상을 생성하는 영상합성부를 포함하는 영상생성부; 상기 영상생성부에서 생성한 상기 최종 출력 영상을 출력하는 화면부; 및 상기 복수의 광각 카메라에서 촬영한 영상 및 상기 영상생성부에서 생성한 상기 최종 출력 영상 중 적어도 하나를 저장하는 저장부;를 포함하고,
상기 처리부는, 상기 복수의 영상 생성 코어의 각각이 생성하여야 하는 출력 영상에 기초하여 상기 복수의 영상 생성 코어 각각의 가상 카메라 시점을 포함하는 파라미터를 설정하고, 상기 복수의 영상 생성 코어의 각각이 생성하여야 하는 출력 영상에 기초하여 상기 복수의 영상 생성 코어 각각에 대해 상기 복수의 광각 카메라가 촬영한 입력 영상들 중에서 하나를 입력 영상으로 설정하고,
상기 복수의 영상 생성 코어 각각은, 상기 처리부에 의해 설정된 입력 영상을 입력으로 하고, 상기 처리부에 의해 설정된 파라미터에 따라 가상 카메라를 모델링하고, 상기 설정된 입력 영상에서 상기 모델링된 가상 카메라의 시점에 따라 보여지는 영상을 생성하여 출력 영상으로 출력하고,
상기 화면부는, 하나의 광각 카메라에서 촬영한 하나의 입력 영상에 대하여 여러 개의 시점에서 동시에 보는 것과 같은 복수의 출력 영상을, 복수의 분할 화면들에 출력할 수 있고,
상기 처리부는, 차량의 속도에 따라 상기 복수의 광각 카메라의 프레임 레이트를 변경할 수 있는,
차량용 영상 생성 장치.
As an image generating device for a vehicle,
A multi-camera unit including a plurality of wide-angle cameras attached to the vehicle; A vehicle sensor unit for acquiring driving state information of the vehicle; A scenario corresponding to the driving state information acquired through the vehicle sensor unit is determined, and an output screen configuration including the positions and sizes of a plurality of divided screens based on the scenario, and an output to be output to each of the plurality of divided screens A processing unit for setting images; A final output image is synthesized so as to be displayed on the plurality of divided screens according to the set output screen configuration according to the set output screen configuration and a plurality of image generation cores based on a virtual camera that generates the output images and output images generated by the plurality of image generation cores. An image generating unit including an image synthesizing unit to generate; A screen unit for outputting the final output image generated by the image generating unit; And a storage unit for storing at least one of an image photographed by the plurality of wide-angle cameras and the final output image generated by the image generation unit,
The processing unit sets a parameter including a virtual camera viewpoint of each of the plurality of image generation cores based on an output image to be generated by each of the plurality of image generation cores, and each of the plurality of image generation cores is generated. Based on the output image to be performed, one of the input images captured by the plurality of wide-angle cameras for each of the plurality of image generating cores is set as an input image,
Each of the plurality of image generation cores receives an input image set by the processing unit as an input, models a virtual camera according to a parameter set by the processing unit, and displays a view of the modeled virtual camera in the set input image. Create a losing image and output it as an output image,
The screen unit may output a plurality of output images, which are viewed simultaneously from multiple viewpoints with respect to one input image captured by one wide-angle camera, on a plurality of split screens,
The processing unit may change the frame rate of the plurality of wide-angle cameras according to the speed of the vehicle,
Vehicle image generating device.
제1항에 있어서,
상기 시나리오는 상기 차량이 주행 중인 시나리오, 상기 차량의 좌회전 또는 우회전하는 시나리오, 상기 차량이 T자 전진 주차시인 시나리오, 상기 차량이 T자 후진 주차시인 시나리오, 상기 차량이 평행 주차시인 시나리오 및 상기 차량이 정차 후 문이 열리는 시나리오 중 적어도 하나인,
차량용 영상 생성 장치.
The method of claim 1,
The scenario includes a scenario in which the vehicle is running, a scenario in which the vehicle is turning left or right, a scenario in which the vehicle is parked in a forward T-shape, a scenario in which the vehicle is parked in a T-shaped reverse direction, a scenario in which the vehicle is parked in parallel, and the vehicle is At least one of the scenarios where the door opens after stopping,
Vehicle image generating device.
삭제delete 제1항에 있어서, 상기 저장부는,
상기 영상생성부에서 생성한 상기 최종 출력 영상을 저장하는 경우,
상기 최종 출력 영상을 생성하기 위해 설정된 상기 복수의 영상 생성 코어의 상기 가상 카메라의 시점을 포함하는 파라미터 및 상기 출력 화면 구성을 함께 저장하는,
차량용 영상 생성 장치.
The method of claim 1, wherein the storage unit,
When storing the final output image generated by the image generator,
To store together a parameter including a viewpoint of the virtual camera of the plurality of image generation cores set to generate the final output image and the output screen configuration,
Vehicle image generating device.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 처리부는 전처리부, 후처리부 및 주처리부를 포함하고,
상기 전처리부는 상기 다중 카메라부의 복수의 광각 카메라가 촬영한 영상들을 수신하고, 수신한 영상들 각각에 대하여 불량 픽셀의 값 보정(Defect correction), 잡음 제거(Noise Reduction), 및 광역 보정(Wide Dynamic Range) 중의 적어도 하나를 수행하는 전처리 과정을 통해 전처리 영상들을 생성하고, 상기 전처리 영상들을 상기 후처리부로 전달하고,
상기 후처리부는 상기 전처리부로부터 수신한 상기 전처리 영상들 각각에 대하여 밝기 및 색상 신호 분리, 경계부 개선(Edge Enhancement), 감마 보정(Gamma Correction), 색상 보정(Color Correction), 밝기 개선(Contrast Enhancement) 중의 적어도 하나를 포함하는 후처리 과정을 수행하여 후처리 영상들을 생성하여 상기 영상생성부로 전달하고,
상기 주처리부는 상기 차량 센서부를 통해 획득한 상기 주행 상태 정보에 대응하는 시나리오를 결정하고, 상기 시나리오에 기초하여 복수의 분할 화면들의 위치와 크기를 포함하는 출력 화면 구성 및 상기 복수의 분할 화면의 각각에 출력할 출력 영상들을 설정하는,
차량용 영상 생성 장치.
The method of claim 1,
The processing unit includes a pre-processing unit, a post-processing unit, and a main processing unit,
The preprocessor receives images captured by a plurality of wide-angle cameras of the multi-camera unit, and corrects the value of defective pixels for each of the received images (Defect correction), noise reduction, and wide dynamic range. ) Through a pre-processing process that performs at least one of), and transfers the pre-processed images to the post-processing unit,
The post-processing unit separates brightness and color signals, edge enhancement, gamma correction, color correction, and contrast enhancement for each of the preprocessed images received from the preprocessor. Performing a post-processing process including at least one of the post-processed images is generated and transmitted to the image generating unit,
The main processing unit determines a scenario corresponding to the driving state information acquired through the vehicle sensor unit, and an output screen configuration including positions and sizes of a plurality of divided screens based on the scenario, and each of the plurality of divided screens To set the output images to be output to,
Vehicle image generating device.
제8항에 있어서,
상기 주처리부는,
상기 복수의 광각 카메라 중 적어도 하나가 촬영한 영상에 대하여 상기 광역 보정을 수행하도록 설정하고, 촬영한 영상에 대하여 광역 보정을 수행하도록 설정된 적어도 하나의 광각 카메라에 대하여 노출이 서로 다른 두 개의 영상을 촬영하여 상기 전처리부로 전달할 수 있도록 파라미터를 설정하고,
상기 전처리부는,
각 픽셀에 대하여 상기 노출이 서로 다른 두 개의 영상 중 어느 하나의 대응되는 픽셀 값을 선택하여 값을 결정함으로써 광역 보정을 수행하는,
차량용 영상 생성 장치.
The method of claim 8,
The main processing unit,
Two images with different exposures are captured for at least one wide-angle camera set to perform the wide-angle correction on an image captured by at least one of the plurality of wide-angle cameras and perform wide-angle correction on the captured image To set the parameters so that they can be transferred to the preprocessor,
The pretreatment unit,
For each pixel, performing wide area correction by selecting a corresponding pixel value of one of two images having different exposures and determining a value,
Vehicle image generating device.
삭제delete 제8항에 있어서,
상기 전처리부는,
상기 수신한 영상으로부터 상기 복수의 광각 카메라가 촬영한 각 영상에 대하여 자동 색온도 보정(Auto White Balance), 자동 노출(Auto Exposure), 및 자동 초점(Auto Focus) 중 적어도 하나와 연관된 정보를 추출하여 상기 주처리부로 전달하고,
상기 주처리부는,
상기 전처리부로부터 수신한 자동 색온도 보정, 자동 노출, 및 자동 초점 중 적어도 하나와 연관된 정보를 바탕으로 상기 복수의 광각 카메라의 촬영을 위한 파라미터를 설정하는,
차량용 영상 생성 장치.
The method of claim 8,
The pretreatment unit,
For each image captured by the plurality of wide-angle cameras from the received image, information associated with at least one of Auto White Balance, Auto Exposure, and Auto Focus is extracted, and the To the main processing unit,
The main processing unit,
Setting parameters for photographing of the plurality of wide-angle cameras based on information related to at least one of automatic color temperature correction, automatic exposure, and auto focus received from the preprocessor,
Vehicle image generating device.
삭제delete 삭제delete 삭제delete 제1항에 있어서, 상기 영상 생성 코어 각각은,
상기 처리부에 의해 설정된 파라미터에 따라 시점 및 유형을 가지는 가상 카메라를 모델링하는 가상 카메라 모델부;
상기 모델링된 가상 카메라에 의해 보여지는 영상인 출력 영상과 상기 광각 카메라에 의해 촬영된 영상인 입력 영상 간에 매핑 시 영상 효과를 추가하기 위하여 사용되는 2차 곡면을 제공하는 2차 곡면 모델부; 및
상기 입력 영상에 포함되어 있는 왜곡을 제거하면서 상기 모델링된 가상 카메라의 출력 영상과 상기 입력 영상 간의 매핑을 수행하도록 하는 카메라 투영 모델을 제공하는 카메라 투영 모델부;를 포함하는,
차량용 영상 생성 장치.
The method of claim 1, wherein each of the image generation cores,
A virtual camera model unit for modeling a virtual camera having a viewpoint and a type according to a parameter set by the processing unit;
A second curved surface model unit that provides a second curved surface used to add an image effect when mapping between an output image that is an image viewed by the modeled virtual camera and an input image that is an image captured by the wide-angle camera; And
Including; a camera projection model unit for providing a camera projection model for performing mapping between the output image of the modeled virtual camera and the input image while removing distortion included in the input image; including,
Vehicle image generating device.
제15항에 있어서,
상기 카메라 투영 모델부는,
상기 가상 카메라 모델부에서 모델링한 가상 카메라의 광축 중심과 출력 영상 상의 한 점을 연결하는 직선인 투영선과 상기 2차 곡면의 교차점을 계산하고,
상기 교차점을 상기 입력 영상에 포함되어 있는 왜곡을 제거하기 위한 왜곡 보정 매핑 함수를 이용하여 상기 입력 영상 상의 한 점으로 매핑함으로써,
상기 모델링된 가상 카메라의 출력 영상과 상기 입력 영상 간의 매핑을 수행하는,
차량용 영상 생성 장치.
The method of claim 15,
The camera projection model unit,
Calculate the intersection of the projection line and the secondary curved surface, which is a straight line connecting the center of the optical axis of the virtual camera modeled by the virtual camera model and a point on the output image
By mapping the intersection point to a point on the input image using a distortion correction mapping function for removing distortion included in the input image,
Performing mapping between the output image of the modeled virtual camera and the input image,
Vehicle image generating device.
차량용 영상 생성 방법에 있어서,
복수의 광각 카메라로 복수의 영상을 촬영하는 단계; 복수의 분할 화면들을 포함하는 출력 화면 구성 및 상기 복수의 분할 화면의 각각에 출력할 출력 영상들을 설정하는 단계; 상기 설정된 출력 영상들을 생성하는 단계; 상기 생성한 출력 영상들을 설정된 상기 출력 화면 구성에 따라 상기 복수의 분할 화면들에 표시되도록 합성하여 최종 출력 영상을 생성하는 단계; 상기 복수의 광각 카메라에서 촬영한 영상 및 상기 최종 출력 영상 중 적어도 하나를 저장하는 단계; 및 상기 최종 출력 영상을 표시하는 단계;를 포함하고,
상기 출력 화면 구성 및 상기 출력 영상들을 설정하는 단계는, 상기 차량의 주행 상태 정보를 획득하는 단계; 상기 주행 상태 정보에 대응하는 시나리오를 결정하는 단계; 및 상기 시나리오에 기초하여 상기 복수의 분할 화면들의 위치와 크기를 포함하는 출력 화면 구성 및 상기 복수의 분할 화면의 각각에 출력할 출력 영상들을 설정하는 단계;를 포함하고,
상기 설정된 출력 영상들을 생성하는 단계는, 가상 카메라 기반의 복수의 영상 생성 코어 각각이 하나의 출력 영상을 생성하는 단계;를 포함하고,
상기 복수의 영상 생성 코어 각각이 하나의 출력 영상을 생성하는 단계는, 생성하여야 하는 출력 영상에 기초하여 각 영상 생성 코어의 가상 카메라의 시점을 포함하는 파라미터를 설정하는 단계; 상기 생성하여야 하는 출력 영상에 기초하여 상기 복수의 영상 중의 하나를 입력 영상으로 선정하는 단계; 설정된 상기 가상 카메라의 시점을 포함하는 파라미터에 따라 가상 카메라를 모델링하는 단계; 및 상기 선정된 입력 영상에서 상기 모델링된 가상 카메라의 시점에 따라 보여지는 영상을 출력 영상으로 생성하는 단계;를 포함하고,
상기 설정에 기초하여 상기 생성된 출력 영상들을 상기 복수의 분할 화면들에 표시하는 단계는, 상기 복수의 영상 생성 코어에서 생성한 출력 영상들을 설정된 상기 출력 화면 구성에 따라 상기 복수의 분할 화면들에 표시되도록 합성하는 단계;를 포함하고,
하나의 광각 카메라에서 촬영한 하나의 입력 영상에 대하여 여러 개의 시점에서 동시에 보는 것과 같은 복수의 출력 영상을, 복수의 분할 화면들에 출력할 수 있고,
차량의 속도에 따라 상기 복수의 광각 카메라의 프레임 레이트를 변경할 수 있는,
차량용 영상 생성 방법.
In the vehicle image generation method,
Capturing a plurality of images with a plurality of wide-angle cameras; Configuring an output screen including a plurality of divided screens and setting output images to be output to each of the plurality of divided screens; Generating the set output images; Synthesizing the generated output images to be displayed on the plurality of split screens according to the set output screen configuration to generate a final output image; Storing at least one of an image captured by the plurality of wide-angle cameras and the final output image; And displaying the final output image; Including,
The configuring of the output screen and setting the output images may include: acquiring driving state information of the vehicle; Determining a scenario corresponding to the driving state information; And setting an output screen configuration including positions and sizes of the plurality of divided screens and output images to be output to each of the plurality of divided screens based on the scenario; Including,
The generating of the set output images may include generating one output image by each of a plurality of image generation cores based on a virtual camera,
The step of generating one output image by each of the plurality of image generating cores may include: setting a parameter including a viewpoint of a virtual camera of each image generating core based on the output image to be generated; Selecting one of the plurality of images as an input image based on the output image to be generated; Modeling a virtual camera according to a parameter including a set point of view of the virtual camera; And generating an image displayed according to the viewpoint of the modeled virtual camera from the selected input image as an output image; Including,
Displaying the generated output images on the plurality of divided screens based on the setting includes displaying the output images generated by the plurality of image generating cores on the plurality of divided screens according to the set output screen configuration. Including;
It is possible to output a plurality of output images, such as viewed from multiple viewpoints at the same time, on a plurality of split screens with respect to one input image captured by a single wide-angle camera,
It is possible to change the frame rate of the plurality of wide-angle cameras according to the speed of the vehicle,
How to create an image for a vehicle.
제17항에 있어서,
상기 시나리오는 상기 차량이 주행 중인 시나리오, 상기 차량의 좌회전 또는 우회전하는 시나리오, 상기 차량이 T자 전진 주차시인 시나리오, 상기 차량이 T자 후진 주차시인 시나리오, 상기 차량이 평행 주차시인 시나리오 및 상기 차량이 정차 후 문이 열리는 시나리오 중 적어도 하나인,
차량용 영상 생성 방법.
The method of claim 17,
The scenario includes a scenario in which the vehicle is running, a scenario in which the vehicle is turning left or right, a scenario in which the vehicle is parked in a forward T-shape, a scenario in which the vehicle is parked in a T-shaped reverse direction, a scenario in which the vehicle is parked in parallel, and the vehicle is At least one of the scenarios where the door opens after stopping,
How to create an image for a vehicle.
제17항에 있어서,
상기 출력 화면 구성 및 출력 영상을 설정하는 단계는,
상기 주행 상태 정보 중 차량 진행 속도에 맞춰 가상 카메라의 줌 및 틸트 파라미터들을 설정하여 상기 가상 카메라의 시점을 설정하는 단계;
또는 상기 주행 상태 정보 중 차량 진행 방향에 맞춰 가상 카메라의 줌 및 팬 파라미터들을 설정하여 상기 가상 카메라의 시점을 설정하는 단계;
또는 상기 설정 정보에 따라 가상 카메라의 줌, 팬 및 틸트 파라미터들을 설정하여 상기 가상 카메라의 시점을 설정하는 단계;를 포함하는,
차량용 영상 생성 방법.
The method of claim 17,
The step of configuring the output screen and setting the output image,
Setting a viewpoint of the virtual camera by setting zoom and tilt parameters of a virtual camera according to a vehicle progress speed among the driving state information;
Or setting a viewpoint of the virtual camera by setting zoom and pan parameters of the virtual camera according to the vehicle traveling direction of the driving state information;
Or setting zoom, pan, and tilt parameters of the virtual camera according to the setting information to set the viewpoint of the virtual camera; including,
How to create an image for a vehicle.
삭제delete 삭제delete 제17항에 있어서,
상기 복수의 광각 카메라에서 촬영한 영상 및 상기 최종 출력 영상 중 적어도 하나를 저장하는 단계는, 상기 최종 출력 영상을 저장하는 경우,
상기 최종 출력 영상을 생성하기 위해 설정된 상기 복수의 영상 생성 코어의 상기 가상 카메라의 시점을 포함하는 파라미터 및 상기 출력 화면 구성을 함께 저장하는 단계;를 포함하는,
차량용 영상 생성 방법.
The method of claim 17,
The storing of at least one of an image photographed by the plurality of wide-angle cameras and the final output image may include storing the final output image,
Including, storing parameters including viewpoints of the virtual cameras of the plurality of image generation cores set to generate the final output image and the output screen configuration; including,
How to create an image for a vehicle.
삭제delete 제17항에 있어서,
상기 설정된 출력 영상을 생성하는 단계는,
상기 복수의 광각 카메라가 촬영한 상기 복수의 영상들을 수신하고, 수신한 상기 복수의 영상들 각각에 대하여 불량 픽셀의 값 보정(Defect correction), 잡음 제거(Noise Reduction), 및 광역 보정(Wide Dynamic Range) 중의 적어도 하나를 수행하여 전처리 영상들을 생성하는 전처리 단계; 및
상기 전처리 단계에서 생성된 상기 전처리 영상들 각각에 대하여 밝기 및 색상 신호 분리, 경계부 개선(Edge Enhancement), 감마 보정(Gamma Correction), 색상 보정(Color Correction), 및 밝기 개선(Contrast Enhancement) 중의 적어도 하나를 수행하여 후처리 영상들을 생성하는 후처리 단계;를 더 포함하고,
상기 생성하여야 하는 출력 영상에 기초하여 상기 복수의 영상 중의 하나를 입력 영상으로 선정하는 단계는,
상기 생성하여야 하는 출력 영상에 기초하여 상기 후처리 영상 중의 하나를 입력 영상으로 선정하는 단계인,
차량용 영상 생성 방법.
The method of claim 17,
Generating the set output image,
The plurality of images captured by the plurality of wide-angle cameras are received, and values of defective pixels are corrected for each of the plurality of received images (Defect correction), noise reduction, and wide dynamic range. A pre-processing step of generating pre-processed images by performing at least one of); And
At least one of brightness and color signal separation, edge enhancement, gamma correction, color correction, and contrast enhancement for each of the preprocessed images generated in the preprocessing step A post-processing step of generating post-processed images by performing; further comprising,
Selecting one of the plurality of images as an input image based on the output image to be generated,
In the step of selecting one of the post-processed images as an input image based on the output image to be generated,
How to create an image for a vehicle.
제24항에 있어서,
상기 전처리 단계의 광역 보정은,
광각 카메라의 셔터 속도를 조절하여 노출이 서로 다른 2장의 광역 보정용 영상을 생성하는 단계;
상기 2장의 광역 보정용 영상을 바탕으로 광역 보정 임계치를 설정하는 단계;
상기 광역 보정 임계치를 바탕으로 영상 내의 각 픽셀의 값에 대하여 노출이 서로 다른 2장의 광역 보정용 영상 중 픽셀 값을 사용할 영상을 결정하여 노출 영역 정보로 저장하는 단계; 및
광역 보정된 전처리 영상을 생성하기 위하여, 광역 보정된 전처리 영상의 각 픽셀 값을 결정하되, 상기 노출 영역 정보에 따라 선택된 상기 광각 카메라에서 입력되는 노출이 서로 다른 2장의 영상 중의 선택된 하나의 영상의 픽셀 값으로 결정하는 단계;를 포함하는,
차량용 영상 생성 방법.
The method of claim 24,
The wide area correction of the pre-processing step,
Generating two wide-area correction images having different exposures by adjusting a shutter speed of a wide-angle camera;
Setting a wide area correction threshold based on the two wide area correction images;
Determining an image in which a pixel value is to be used among two images for wide area correction having different exposures for each pixel value in the image based on the wide area correction threshold value, and storing the image as exposure area information; And
In order to generate a wide-area-corrected pre-processed image, a pixel value of each pixel of a wide-area-corrected pre-processed image is determined, and a pixel of one selected image among two images having different exposures input from the wide-angle camera selected according to the exposure area information Including; determining as a value
How to create an image for a vehicle.
삭제delete 제24항에 있어서,
상기 전처리 단계는,
상기 수신한 복수의 영상 각각에 대하여 자동 색 온도 보정(Auto White Balance), 자동 노출(Auto Exposure), 및 자동 초점(Auto Focus) 중 적어도 하나와 연관된 정보를 추출하는 단계;를 더 포함하고,
상기 파라미터를 설정하는 단계는
상기 전처리 단계로부터 수신한 자동 색온도 보정, 자동 노출, 및 자동 초점 중 적어도 하나와 연관된 정보를 추가적으로 기초하여 상기 복수의 광각 카메라의 촬영을 위한 파라미터를 설정하는 단계;를 포함하는,
차량용 영상 생성 방법.
The method of claim 24,
The pretreatment step,
Extracting information associated with at least one of auto color temperature correction, auto exposure, and auto focus for each of the plurality of received images; further comprising,
Setting the parameter is
Including, additionally based on information related to at least one of automatic color temperature correction, automatic exposure, and auto focus received from the pre-processing step, and setting parameters for photographing of the plurality of wide-angle cameras; including,
How to create an image for a vehicle.
제17항에 있어서,
상기 선정된 입력 영상에서 상기 모델링된 가상 카메라의 시점에 따라 보여지는 영상을 출력 영상으로 생성하는 단계는,
상기 모델링된 가상 카메라에 의해 보여지는 영상과 상기 입력 영상 간에 매핑 시 영상 효과를 추가하기 위하여 사용되는 2차 곡면을 모델링하는 단계;
상기 입력 영상에 포함되어 있는 왜곡을 제거하면서 상기 가상 카메라의 시점에서 보여지는 영상과 입력 영상 간의 매핑을 수행하도록 하는 카메라 투영 모델 생성 단계;
상기 가상 카메라의 광축 중심과 상기 가상 카메라의 시점에서 보여지는 영상 상의 한 점을 연결하는 직선인 투영선과 상기 2차 곡면의 교차점을 계산하는 단계; 및
상기 교차점을 상기 입력 영상에 포함되어 있는 왜곡을 제거하기 위한 왜곡 보정 매핑 함수를 이용하여 상기 입력 영상 상의 한 점으로 매핑하는 단계;를 포함하는,
차량용 영상 생성 방법.
The method of claim 17,
The step of generating an image displayed according to the viewpoint of the modeled virtual camera from the selected input image as an output image,
Modeling a second-order curved surface used to add an image effect when mapping between the image displayed by the modeled virtual camera and the input image;
Generating a camera projection model to perform mapping between an image viewed from a viewpoint of the virtual camera and an input image while removing distortion included in the input image;
Calculating an intersection point of the second curved surface and a projection line that is a straight line connecting a point on the image viewed from the viewpoint of the virtual camera and the center of the optical axis of the virtual camera; And
Mapping the intersection point to a point on the input image using a distortion correction mapping function for removing distortion included in the input image; including,
How to create an image for a vehicle.
컴퓨터 또는 프로세서상에서 실행될 때, 제17항에 따른 방법을 실행하는 컴퓨터 판독 가능 기록매체에 저장된 컴퓨터 프로그램.
A computer program stored on a computer-readable recording medium for executing the method according to claim 17 when executed on a computer or processor.
KR1020190073722A 2019-06-20 2019-06-20 Imaging Apparatus and method for Automobile KR102235951B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190073722A KR102235951B1 (en) 2019-06-20 2019-06-20 Imaging Apparatus and method for Automobile

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190073722A KR102235951B1 (en) 2019-06-20 2019-06-20 Imaging Apparatus and method for Automobile

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170113515A Division KR20190026507A (en) 2017-09-05 2017-09-05 Imaging Apparatus and method for Automobile

Publications (2)

Publication Number Publication Date
KR20190075034A KR20190075034A (en) 2019-06-28
KR102235951B1 true KR102235951B1 (en) 2021-04-05

Family

ID=67066271

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190073722A KR102235951B1 (en) 2019-06-20 2019-06-20 Imaging Apparatus and method for Automobile

Country Status (1)

Country Link
KR (1) KR102235951B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210132624A (en) * 2020-12-30 2021-11-04 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디. Method of acquiring 3d perceptual information based on external parameters of roadside camera and roadside equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102622709B1 (en) * 2022-06-13 2024-01-08 태나다 주식회사 Method and Apparatus for generating 360 degree image including 3-dimensional virtual object based on 2-dimensional image

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065520A (en) 2009-09-18 2011-03-31 Mitsubishi Motors Corp Driving support device
US20130054086A1 (en) * 2011-08-31 2013-02-28 Autorad Tech Co., Ltd Adjusting Method and System of Intelligent Vehicle Imaging Device
KR101265711B1 (en) * 2011-11-30 2013-05-20 주식회사 이미지넥스트 3d vehicle around view generating method and apparatus
JP2015165628A (en) 2014-03-03 2015-09-17 Smk株式会社 image processing system
KR101592412B1 (en) 2014-08-22 2016-02-05 넥시스 주식회사 Black-box for vehicle
KR101672923B1 (en) 2015-12-23 2016-11-04 에스엘 주식회사 The Apparatus And Method For Around View Monitoring
KR101697229B1 (en) 2015-08-27 2017-01-18 ㈜베이다스 Automatic calibration apparatus based on lane information for the vehicle image registration and the method thereof

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06276523A (en) * 1993-03-17 1994-09-30 Mitsubishi Electric Corp Surrounding confirming equipment
KR100544762B1 (en) * 2002-04-01 2006-01-24 스마텍(주) All-side viewing system for vehicle
KR100617781B1 (en) * 2004-06-29 2006-08-28 삼성전자주식회사 Apparatus and method for improving image quality in a image sensor
KR20100060140A (en) * 2008-11-27 2010-06-07 삼성전자주식회사 Apparatus and method for acquiring wide dynamic range video image in image processing apparatus
KR20140118115A (en) * 2013-03-28 2014-10-08 삼성전기주식회사 System and method for calibrating around view of vehicle
KR101486670B1 (en) 2013-11-18 2015-01-29 임정민 Side-view mirror of digital cameras
KR101587147B1 (en) * 2014-06-10 2016-01-20 엘지전자 주식회사 apparatus for providing around view and Vehicle including the same
KR101660806B1 (en) 2015-01-07 2016-09-28 두산중공업 주식회사 System for securing side and rear view of vehicle
KR101752362B1 (en) * 2015-11-12 2017-07-03 주식회사 코난테크놀로지 Apparatus and Method for real-time integrating high quality multi-view images based on asynchronous multi threading

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011065520A (en) 2009-09-18 2011-03-31 Mitsubishi Motors Corp Driving support device
US20130054086A1 (en) * 2011-08-31 2013-02-28 Autorad Tech Co., Ltd Adjusting Method and System of Intelligent Vehicle Imaging Device
KR101265711B1 (en) * 2011-11-30 2013-05-20 주식회사 이미지넥스트 3d vehicle around view generating method and apparatus
JP2015165628A (en) 2014-03-03 2015-09-17 Smk株式会社 image processing system
US20160198089A1 (en) 2014-03-03 2016-07-07 Smk Corporation Image processing system
KR101592412B1 (en) 2014-08-22 2016-02-05 넥시스 주식회사 Black-box for vehicle
KR101697229B1 (en) 2015-08-27 2017-01-18 ㈜베이다스 Automatic calibration apparatus based on lane information for the vehicle image registration and the method thereof
KR101672923B1 (en) 2015-12-23 2016-11-04 에스엘 주식회사 The Apparatus And Method For Around View Monitoring

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210132624A (en) * 2020-12-30 2021-11-04 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디. Method of acquiring 3d perceptual information based on external parameters of roadside camera and roadside equipment
KR102571066B1 (en) 2020-12-30 2023-08-25 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디. Method of acquiring 3d perceptual information based on external parameters of roadside camera and roadside equipment
US11893884B2 (en) 2020-12-30 2024-02-06 Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. Method for acquiring three-dimensional perception information based on external parameters of roadside camera, and roadside device

Also Published As

Publication number Publication date
KR20190075034A (en) 2019-06-28

Similar Documents

Publication Publication Date Title
US10137836B2 (en) Vehicle vision system
US11303806B2 (en) Three dimensional rendering for surround view using predetermined viewpoint lookup tables
US9858639B2 (en) Imaging surface modeling for camera modeling and virtual view synthesis
CN104442567B (en) Object Highlighting And Sensing In Vehicle Image Display Systems
US7161616B1 (en) Image processing device and monitoring system
US8144033B2 (en) Vehicle periphery monitoring apparatus and image displaying method
JP4543147B2 (en) Panorama vision system and method
TWI287402B (en) Panoramic vision system and method
CN106101635B (en) Vehicle surrounding image processing method and device
JP3300334B2 (en) Image processing device and monitoring system
US7429997B2 (en) System and method for spherical stereoscopic photographing
JP4257356B2 (en) Image generating apparatus and image generating method
CN104851076A (en) Panoramic 360-degree-view parking auxiliary system for commercial vehicle and pick-up head installation method
KR101915729B1 (en) Apparatus and Method for Generating 360 degree omni-directional view
JP2009151524A (en) Image display method and image display apparatus
US10699376B1 (en) eMirror with 3-in-1 stitching by non-rectilinear warping of camera views
CA2788956A1 (en) Method and system for sequential viewing of two video streams
KR102235951B1 (en) Imaging Apparatus and method for Automobile
KR101916419B1 (en) Apparatus and method for generating multi-view image from wide angle camera
JP2006515128A (en) Stereo panoramic image capturing device
KR20190026507A (en) Imaging Apparatus and method for Automobile
JPWO2020090512A1 (en) Imaging device, control method, and program
JP7484722B2 (en) Image processing device, image processing method, and image processing system
EP4156127A1 (en) Image processing system, mobile object, image processing method, and storage medium
JP7467402B2 (en) IMAGE PROCESSING SYSTEM, MOBILE DEVICE, IMAGE PROCESSING METHOD, AND COMPUTER PROGRAM

Legal Events

Date Code Title Description
A107 Divisional application of patent
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
GRNT Written decision to grant
X701 Decision to grant (after re-examination)