KR20240025323A - Device and Method for Creating a Rear Panoramic View - Google Patents

Device and Method for Creating a Rear Panoramic View Download PDF

Info

Publication number
KR20240025323A
KR20240025323A KR1020220103395A KR20220103395A KR20240025323A KR 20240025323 A KR20240025323 A KR 20240025323A KR 1020220103395 A KR1020220103395 A KR 1020220103395A KR 20220103395 A KR20220103395 A KR 20220103395A KR 20240025323 A KR20240025323 A KR 20240025323A
Authority
KR
South Korea
Prior art keywords
image
vehicle
images
panoramic view
cameras
Prior art date
Application number
KR1020220103395A
Other languages
Korean (ko)
Other versions
KR102656128B1 (en
Inventor
이정준
전도영
오충재
Original Assignee
주식회사 켐트로닉스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 켐트로닉스 filed Critical 주식회사 켐트로닉스
Priority to KR1020220103395A priority Critical patent/KR102656128B1/en
Publication of KR20240025323A publication Critical patent/KR20240025323A/en
Application granted granted Critical
Publication of KR102656128B1 publication Critical patent/KR102656128B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

본 발명에 따르면, 차량에 부착되어 상기 차량의 주변에 대한 제1 사이드미러 영상 및 제2 사이드미러 영상을 촬영하는 복수의 사이드미러 카메라 및 후방 영상을 촬영하는 후방 카메라를 포함하는 복수의 카메라; 상기 제1 사이드미러 영상, 상기 제2 사이드미러 영상 및 상기 후방 영상을 포함하는 복수의 영상으로부터 자세 추정 데이터를 획득하고, 상기 자세 추정 데이터를 기반으로 상기 복수의 카메라의 자세를 추정하여 상기 복수의 영상에 대한 LUT를 생성하는 영상 분석부; 및 상기 LUT를 상기 복수의 영상에 적용하여 후방 파노라마 뷰 영상을 생성하는 영상 합성부를 포함하고, 상기 영상 분석부는 기 설정된 기준점 보다 크게 상기 LUT를 생성하는 후방 파노라마 뷰 생성 장치이다.According to the present invention, a plurality of cameras are attached to a vehicle and include a plurality of side mirror cameras that capture first and second side mirror images of the surroundings of the vehicle and a rear camera that captures a rear image; Obtain posture estimation data from a plurality of images including the first side mirror image, the second side mirror image, and the rear image, and estimate the posture of the plurality of cameras based on the posture estimation data to determine the posture of the plurality of cameras. An image analysis unit that generates a LUT for the image; and an image synthesis unit that generates a rear panoramic view image by applying the LUT to the plurality of images, and the image analysis unit is a rear panoramic view generating device that generates the LUT larger than a preset reference point.

Description

후방 파노라마 뷰 생성 장치 및 방법{Device and Method for Creating a Rear Panoramic View}Device and Method for Creating a Rear Panoramic View}

본 발명은 후방 파노라마 뷰 생성 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for generating a rear panoramic view.

일반적으로 차량의 디자인과 공기저항계수를 줄이기 위해 후방 카메라는 차량 후면에 설치한다. 그러나 설치된 카메라는 화각의 한계가 있어 영상으로 볼 수 없는 사각지대가 생기게 된다.In general, rear cameras are installed at the rear of a vehicle to reduce the vehicle design and air resistance coefficient. However, the installed camera has a limited field of view, resulting in blind spots that cannot be seen in the video.

한편, 차량 편의기능과 운전자 보조기능의 수요 증가로 사이드미러 카메라의 공급이 증가하고 있다. 사이드미러 카메라는 운전자에게 왜곡 없이 넓은 화각을 제공한다. 또한, 공기저항계수를 크게 감소할 수 있어 운전자와 생산자에게 관심을 받고 있다.Meanwhile, the supply of side mirror cameras is increasing due to increased demand for vehicle convenience functions and driver assistance functions. Side mirror cameras provide drivers with a wide angle of view without distortion. In addition, it is attracting attention from drivers and producers as it can significantly reduce the air resistance coefficient.

이러한 편의기능과 보조기능에도 불구하고 차량 후측방의 사각지대는 여전히 존재하고 있다. 후방 카메라와 사이드미러 카메라로 차량의 리어범퍼와 후미등 방향의 장애물탐지 및 다른 차량의 위치, 차량의 예상 진로 등을 탐지하지 못해 운전자의 감각과 경험에 의존하고 있으나, 초보 운전자에게는 감각과 경험이 부족하여 장애물과 충돌 가능성이 매우 높다.Despite these convenience and auxiliary functions, blind spots at the rear of the vehicle still exist. The rear camera and side mirror camera cannot detect obstacles in the direction of the vehicle's rear bumper and tail lights, the location of other vehicles, or the vehicle's expected path, so it relies on the driver's senses and experience. However, novice drivers lack sense and experience. Therefore, the possibility of collision with obstacles is very high.

또한, 각각의 카메라 위치와 출력 장치가 상이하여 운전자의 시선 분산을 야기하여 운전의 집중을 방해하는 요소가 될 수 있다. 또한, 주행정보를 고려하지 않고 고정된 화면만 표출하여 후진 시 공간을 표현하기에 부족함이 있다.In addition, the positions of each camera and output device are different, which can cause the driver's gaze to be dispersed and become a factor that interferes with driving concentration. In addition, it is insufficient to express space when reversing because only a fixed screen is displayed without considering driving information.

대한민국 공개특허 제10-2021-0097078호Republic of Korea Patent Publication No. 10-2021-0097078 대한민국 공개특허 제10-2020-0000953호Republic of Korea Patent Publication No. 10-2020-0000953

본 발명은 상술한 과제를 해결하기 위한 것으로서, 본 발명의 목적은 차량 후방 카메라의 부족한 화각과 영상의 공간표현을 개선하며, 운전자의 시선의 분산을 집중시켜 운전의 편의성과 안전성을 향상시킬 수 있는 후방 파노라마 뷰 영상을 제공하는데 있다.The present invention is intended to solve the above-mentioned problems. The purpose of the present invention is to improve the insufficient angle of view of the vehicle rear camera and the spatial expression of the image, and to improve the convenience and safety of driving by concentrating the driver's gaze. It provides a rear panoramic view image.

본 발명은 후방 파노라마 뷰 생성 장치로서, 차량에 부착되어 상기 차량의 주변에 대한 제1 사이드미러 영상 및 제2 사이드미러 영상을 촬영하는 복수의 사이드미러 카메라 및 후방 영상을 촬영하는 후방 카메라를 포함하는 복수의 카메라; 상기 제1 사이드미러 영상, 상기 제2 사이드미러 영상 및 상기 후방 영상을 포함하는 복수의 영상으로부터 자세 추정 데이터를 획득하고, 상기 자세 추정 데이터를 기반으로 상기 복수의 카메라의 자세를 추정하여 상기 복수의 영상에 대한 LUT를 생성하는 영상 분석부; 및 상기 LUT를 상기 복수의 영상에 적용하여 후방 파노라마 뷰 영상을 생성하는 영상 합성부를 포함하고, 상기 영상 분석부는 기 설정된 기준점 보다 크게 상기 LUT를 생성한다.The present invention is a rear panoramic view generating device, which is attached to a vehicle and includes a plurality of side mirror cameras that capture first and second side mirror images of the surroundings of the vehicle and a rear camera that captures a rear image. multiple cameras; Obtain posture estimation data from a plurality of images including the first side mirror image, the second side mirror image, and the rear image, and estimate the posture of the plurality of cameras based on the posture estimation data to determine the posture of the plurality of cameras. An image analysis unit that generates a LUT for the image; and an image synthesis unit that generates a rear panoramic view image by applying the LUT to the plurality of images, and the image analysis unit generates the LUT larger than a preset reference point.

본 발명의 일 실시 예에 있어서, 상기 영상 분석부는 상기 복수의 영상에 대하여 기 정의된 왜곡 파라미터 및 상기 복수의 영상에 대하여 정의된 영상 패턴에 기초하여 자세 추정 데이터를 도출할 수 있다. In one embodiment of the present invention, the image analysis unit may derive posture estimation data based on distortion parameters predefined for the plurality of images and image patterns defined for the plurality of images.

본 발명의 일 실시 예에 있어서, 상기 영상 합성부는 상기 후방 파노라마 뷰 영상에서 중첩 영역의 조도 및 잡음 중 적어도 하나를 보정한다.In one embodiment of the present invention, the image synthesis unit corrects at least one of illuminance and noise of an overlapping area in the rear panoramic view image.

본 발명의 일 실시 예에 있어서, 상기 후방 파노라마 뷰 영상은 상기 차량의 직진 시야 관점에서 정의되는 제1 영상, 상기 차량의 우측 시야 관점에서 정의되는 제2 영상 및 상기 차량의 좌측 시야 관점에서 정의되는 제3 영상을 포함한다.In one embodiment of the present invention, the rear panoramic view image includes a first image defined from a straight-line viewing perspective of the vehicle, a second image defined from a right viewing perspective of the vehicle, and a left viewing perspective of the vehicle. Includes third video.

본 발명의 일 실시 예에 있어서, 차량 정보를 기반으로 상기 후방 파노라마 뷰 영상을 선택적으로 출력하는 영상 출력부를 더 포함하고, 상기 영상 출력부는, 상기 차량 정보에 포함된 상기 차량의 속도, 요, 스티어링 정보 및 기어 정보 중 적어도 하나를 수신하는 통신 모듈; 및 상기 차량 정보에 기초하여 상기 제1 영상 내지 상기 제3 영상 중 어느 하나를 출력하는 영상 선택부를 더 포함한다.In one embodiment of the present invention, it further includes an image output unit that selectively outputs the rear panoramic view image based on vehicle information, wherein the image output unit includes speed, yaw, and steering of the vehicle included in the vehicle information. a communication module that receives at least one of information and gear information; and an image selection unit that outputs one of the first to third images based on the vehicle information.

본 발명의 일 실시 예에 있어서, 상기 기 설정된 기준점은 상기 제1 영상 내지 상기 제3 영상 각각에 대하여 정의한다. In one embodiment of the present invention, the preset reference point is defined for each of the first to third images.

상기 복수의 영상으로부터 전체 통합된 LUT를 포함한다.It includes a fully integrated LUT from the plurality of images.

본 발명의 일 실시 예에 있어서, 후방 파노라마 뷰 영상 생성 장치에 의해 수행되는 방법으로서, 차량에 부착된 복수의 사이드미러 카메라 및 후방 카메라를 포함하는 복수의 카메라로부터 상기 차량의 주변에 대한 제1 사이드미러 영상 및 제2 사이드미러 영상을 촬영하는 복수의 사이드미러 카메라 및 후방 영상을 촬영하는 단계; 상기 제1 사이드미러 영상, 상기 제2 사이드미러 영상 및 상기 후방 영상을 포함하는 복수의 영상으로부터 자세 추정 데이터를 획득하고, 상기 자세 추정 데이터를 기반으로 상기 복수의 카메라의 자세를 추정하여 상기 복수의 영상에 대한 LUT를 생성하는 단계; 및 상기 LUT를 상기 복수의 영상에 적용하여 후방 파노라마 뷰 영상을 생성하는 단계를 포함하고, 상기 영상 분석 단계는 기 설정된 기준점 보다 크게 상기 LUT를 생성한다.In one embodiment of the present invention, a method performed by a rear panoramic view image generating device, wherein a first side view of the surroundings of the vehicle is obtained from a plurality of cameras including a plurality of side mirror cameras and a rear camera attached to the vehicle. A plurality of side mirror cameras for capturing a mirror image and a second side mirror image and capturing a rear image; Obtain posture estimation data from a plurality of images including the first side mirror image, the second side mirror image, and the rear image, and estimate the posture of the plurality of cameras based on the posture estimation data to determine the plurality of cameras. Generating a LUT for an image; and applying the LUT to the plurality of images to generate a rear panoramic view image, wherein the image analysis step generates the LUT larger than a preset reference point.

본 발명의 일 실시 예에 있어서, 상기 영상 분석 단계는 상기 복수의 영상에 대하여 기 정의된 왜곡 파라미터 및 상기 복수의 영상에 대하여 정의된 영상 패턴에 기초하여 자세 추정 데이터를 도출한다. In one embodiment of the present invention, the image analysis step derives posture estimation data based on distortion parameters predefined for the plurality of images and image patterns defined for the plurality of images.

본 발명의 일 실시 예에 있어서, 상기 영상 합성 단계는 상기 후방 파노라마 뷰 영상에서 중첩 영역의 조도 및 잡음 중 적어도 하나를 보정하는 단계를 더 포함한다.In one embodiment of the present invention, the image synthesizing step further includes correcting at least one of illuminance and noise of an overlapping area in the rear panoramic view image.

본 발명의 일 실시 예에 있어서, 상기 후방 파노라마 뷰 영상은 상기 차량의 직진 시야 관점에서 정의되는 제1 영상, 상기 차량 우측 제2 영상 및 상기 차량 좌측 제2 영상을 포함한다.In one embodiment of the present invention, the rear panoramic view image includes a first image defined from a straight view perspective of the vehicle, a second image on the right side of the vehicle, and a second image on the left side of the vehicle.

본 발명의 일 실시 예에 있어서, 차량 정보를 기반으로 상기 후방 파노라마 뷰 영상을 선택적으로 출력하는 영상 출력 단계를 더 포함하고, 상기 영상 출력 단계는, 상기 차량 정보에 포함된 상기 차량의 속도, 요, 스티어링 정보 및 기어 정보 중 적어도 하나를 포함하는 차량 정보를 수신하는 통신 방법; 및 상기 차량 정보에 기초하여 상기 제1 영상 내지 상기 제3 영상 중 어느 하나를 출력하는 영상 선택 단계를 포함한다.In one embodiment of the present invention, it further includes an image output step of selectively outputting the rear panoramic view image based on vehicle information, wherein the image output step includes the speed and yaw of the vehicle included in the vehicle information. , a communication method for receiving vehicle information including at least one of steering information and gear information; and an image selection step of outputting one of the first to third images based on the vehicle information.

본 발명의 일 실시 예에 있어서, 상기 기 설정된 기준점은 상기 제1 영상 내지 상기 제3 영상 각각에 대하여 정의한다.In one embodiment of the present invention, the preset reference point is defined for each of the first to third images.

본 발명에 의하면, 후방 파노라마 뷰 생성 방법 및 이를 지원하는 장치는 복수의 카메라 영상을 보정하고 합성하여 차량의 사각지대를 줄이고 정보를 집중하여 제공함으로써 차량 운행에 편의와 안전에 기여할 수 있다.According to the present invention, a rear panoramic view generation method and a device supporting the same can contribute to the convenience and safety of vehicle operation by correcting and combining multiple camera images to reduce blind spots of a vehicle and provide concentrated information.

또한, 차량의 운행정보를 기반으로 유의미한 공간표현을 생성하여 제공할 수 있다.In addition, meaningful spatial expressions can be created and provided based on vehicle operation information.

또한, 기존에 설치된 카메라를 이용하므로, 별도의 카메라 설치가 필요 없어 비용을 절감할 수 있다.Additionally, because it uses an existing camera, costs can be reduced as there is no need to install a separate camera.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.The effects according to the present invention are not limited to the contents exemplified above, and further various effects are included in the present specification.

도 1은 본 발명의 일 실시예에 따른 후방 파노라마 뷰 생성 장치 및 방법의 블럭도이다.
도 2는 본 발명의 일 실시예에 따른 후방 파노라마 뷰 영상을 예시한다.
도 3은 본 발명의 다른 일 실시예에 따른 후방 파노라마 뷰 생성 장치 및 방법의 블럭도이다.
도 4a는 본 발명의 일 실시예에 따른 조향각 차이에 따라 변화하는 후방 파노라마 뷰 영상을 예시한다.
도 4b는 본 발명의 일 실시예에 따른 차량 주행시 조향각 차이에 따라 변화하는 후방 파노라마 뷰 영상을 설명하는 도면이다.
도 5는 본 발명의 일 실시예에 따른 후방 파노라마 뷰 영상을 생성하는 순서도이다.
도 6은 본 발명의 일 실시예에 따른 영상 분석부의 순서도이다.
도 7은 본 발명의 일 실시예에 따른 카메라 자세 추정 방법의 순서도이다.
도 8은 본 발명의 일 실시예에 따른 영상 출력부의 순서도이다.
1 is a block diagram of an apparatus and method for generating a rear panoramic view according to an embodiment of the present invention.
Figure 2 illustrates a rear panoramic view image according to an embodiment of the present invention.
Figure 3 is a block diagram of an apparatus and method for generating a rear panoramic view according to another embodiment of the present invention.
Figure 4a illustrates a rear panoramic view image that changes depending on the steering angle difference according to an embodiment of the present invention.
FIG. 4B is a diagram illustrating a rear panoramic view image that changes depending on the difference in steering angle when driving a vehicle according to an embodiment of the present invention.
Figure 5 is a flow chart for generating a rear panoramic view image according to an embodiment of the present invention.
Figure 6 is a flowchart of an image analysis unit according to an embodiment of the present invention.
Figure 7 is a flowchart of a camera pose estimation method according to an embodiment of the present invention.
Figure 8 is a flowchart of an image output unit according to an embodiment of the present invention.

이하에서, 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로, 본 발명의 실시 예들이 명확하고 상세하게 기재될 것이다.Hereinafter, embodiments of the present invention will be described clearly and in detail so that a person skilled in the art can easily practice the present invention.

도 1은 본 출원의 실시 예에 따른 후방 파노라마 뷰 생성 장치 블록도이다.1 is a block diagram of a rear panoramic view generating device according to an embodiment of the present application.

도 1을 참조하면, 후방 파노라마 뷰 생성 장치는 복수의 카메라(100) 및 영상 생성부(200)를 포함한다.Referring to FIG. 1, the rear panoramic view generating device includes a plurality of cameras 100 and an image generating unit 200.

복수의 카메라(100)은 제1의 후방 카메라(130)와 제2-1의 좌측 사이드미러 카메라(110) 및 제2-2의 우측 사이드미러 카메라(120)를 포함한다.The plurality of cameras 100 include a first rear camera 130, a 2-1 left side mirror camera 110, and a 2-2 right side mirror camera 120.

복수의 카메라(100)는 차량의 좌측과 우측 사이드미러 영상과 후방 영상을 촬영한다. 이러한 복수의 카메라(100)는 일반적으로 큰 화각을 갖는 광각렌즈가 주로 사용되며, 180° 이상의 화각을 갖는 초광각 렌즈인 어안 렌즈(Fisheys Lens)가 사용될 수 있으나, 이에 한정되는 것은 아니고 그 밖에 다양한 렌즈들이 사용될 수 있다.The plurality of cameras 100 capture left and right side mirror images and rear images of the vehicle. The plurality of cameras 100 generally use a wide-angle lens with a large angle of view, and a fisheye lens, which is an ultra-wide-angle lens with a view angle of 180° or more, may be used, but is not limited to this and various other lenses. can be used.

영상 생성부(200)는 복수의 카메라(100)에서 수신한 영상으로 적응형 후방 파노라마 뷰 영상을 만들기 위해 영상을 분석 및 합성할 수 있다.The image generator 200 may analyze and synthesize images received from the plurality of cameras 100 to create an adaptive rear panoramic view image.

영상 생성부(200)는 상술한 동작을 위하여, 영상 분석부(210), 영상 합성부(220)를 포함한다.The image generator 200 includes an image analysis unit 210 and an image synthesis unit 220 for the above-described operations.

영상 분석부(210)는 복수의 카메라(100)로부터 좌측과 우측 사이드미러 영상과 후방 영상을 수신하며, 영상 합성부(220)에서 영상 합성을 위한 LUT(Look Up Table)를 생성한다. The image analysis unit 210 receives left and right side mirror images and rear images from the plurality of cameras 100, and the image synthesis unit 220 generates a look up table (LUT) for image synthesis.

이를 위하여, 영상 분석부(210)는 복수의 카메라(100)로부터 수신한 복수의 영상에 대하여 기 정의된 왜곡 파라미터 및 상기 복수의 영상에 대하여 정의된 영상 패턴에 기초하여 상기 자세 추정 데이터를 도출할 수 있다.To this end, the image analysis unit 210 derives the posture estimation data based on distortion parameters predefined for a plurality of images received from a plurality of cameras 100 and image patterns defined for the plurality of images. You can.

일 실시예로, 영상 분석부(210)는 공차보정 패턴을 포함한 좌, 우 및 후방 영상을 분석하기 위해 카메라 캘리브레이션(Camera Calibration)방법을 사용할 수 있다. 카메라 캘리브레이션은 3차원 점들이 영상에 투영된 위치를 구하거나 반대로 영상좌표로부터 3차원 공간좌표를 복원할 때 사용하는 방법으로서, 카메라의 자세를 추정을 하기 위해 동작한다.In one embodiment, the image analysis unit 210 may use a camera calibration method to analyze left, right, and rear images including tolerance correction patterns. Camera calibration is a method used to obtain the positions where 3D points are projected onto an image or, conversely, to restore 3D spatial coordinates from image coordinates, and operates to estimate the pose of the camera.

카메라 캘리브레이션의 방법으로는 캘리브레이션 패턴(Calibration), 기하학적 단서(Geometric Clues) 및 딥 러닝 기반(Deep Learning Based)등이 있으며, 이하 본 발명에서는 편의상 캘리브레이션 패턴을 예로 설명하나 이에 제한되는 것은 아닐 것이다. 또한, 카메라 캘리브레이션은 OpenCV나 SolvePnP 등의 알고리즘을 사용될 수 있으나 이에 한정되는 것은 아니다.Camera calibration methods include calibration patterns, geometric clues, and deep learning based methods. Hereinafter, the present invention will explain the calibration pattern as an example for convenience, but will not be limited thereto. Additionally, camera calibration may use algorithms such as OpenCV or SolvePnP, but is not limited to these.

캘리브레이션 패턴은 체커보드(Checkerboard) 기반 방식으로 흑백 패턴에 대한 교점을 이용한다. 체커보드는 이미지나 영상을 통한 3차원 정보 획득에 있어 사용되는 방법이다. 체커보드는 카메라의 촬영 거리와 화각 등을 고려하여 다양한 크기와 형태로 제작될 수 있다.The calibration pattern is a checkerboard-based method that uses the intersection of the black and white pattern. Checkerboard is a method used to obtain 3D information through images or videos. Checkerboards can be produced in various sizes and shapes, taking into account the camera's shooting distance and angle of view.

영상 분석부(210)는 카메라 캘리브레이션을 이용하여 카메라 자세를 추정하기 위해 카메라의 내부 요인인 카메라 내부 파라미터와 카메라 외부 파라미터를 도출할 수 있다. 카메라 내부 파라미터는 초점거리(Focal Length), 주점(Principal Point), 비대칭 계수(Skew coefficient)가 있다. 카메라 외부 파라미터는 카메라 좌표계와 월드 좌표계 사이의 변환 관계를 설명하는 요소이다.The image analysis unit 210 may derive camera internal parameters and camera external parameters, which are internal factors of the camera, in order to estimate the camera posture using camera calibration. Camera internal parameters include focal length, principal point, and skew coefficient. Camera external parameters are elements that describe the transformation relationship between the camera coordinate system and the world coordinate system.

영상 분석부(210)는 내부 파라미터를 산출하기 위하여, 우선 하기 수학식 1로 정의되는 렌즈 왜곡 좌표를 계산할 수 있다.In order to calculate internal parameters, the image analysis unit 210 may first calculate lens distortion coordinates defined by Equation 1 below.

[수학식 1][Equation 1]

= (1+++) , = + = (1+ + + ) , = +

여기서, 공간상의 한점은 렌즈를 통해 이미지 상의 한점(, )으로 투영되며, 영상 분석부(210)는 중심까지의 거리 , 방사왜곡 계수 k를 이용하여 렌즈의 왜곡이 반영된 좌표(, )를 구할 수 있다.Here, a point in space is a point on the image through the lens ( , ), and the image analysis unit 210 measures the distance to the center. , coordinates reflecting the distortion of the lens using the radial distortion coefficient k ( , ) can be obtained.

다음으로, 영상 분석부(210)는 하기 수학식 2에 기초하여 내부 파라미터를 산출할 수 있다.Next, the image analysis unit 210 may calculate internal parameters based on Equation 2 below.

[수학식 2][Equation 2]

= =

여기서 내부 파라미터의 요소는 초점거리(, ), 주점( , ), 비대칭계수()이며 영상 분석부(210)는 왜곡이 반영된 좌표(, ) 및 실제 영상 픽셀 좌표인 (, )를 통하여 내부 파라미터를 얻을 수 있다. Here, the elements of the internal parameters are the focal length ( , ), Pub( , ), asymmetry coefficient ( ), and the image analysis unit 210 is the coordinates in which the distortion is reflected ( , ) and the actual image pixel coordinates ( , ), you can obtain internal parameters.

영상 분석부(210)는 도출한 내부 파라미터를 미리 알고 있는 카메라 영상 샘플의 3차원 월드 좌표와 2차원 영상 좌표 매칭하여 외부 파라미터를 구하고, 왜곡 파라미터를 구할 수 있다.The image analysis unit 210 may obtain external parameters and obtain distortion parameters by matching the 3D world coordinates and 2D image coordinates of a camera image sample for which the derived internal parameters are known in advance.

영상 분석부(210)는 카메라 자세 추정을 위해 기 정의된 패턴을 렌즈를 통해 촬영된 기준 이미지 또는 영상을 획득한다. 이후, 영상 분석부는 기준 이미지 또는 영상과 다른 이미지 또는 영상 내에서 검출된 패턴을 상술한 동작에 기초하여 도출한 외부 파라미터를 기반으로 왜곡을 보정 및 예상 패턴을 도출하여 기준 이미지 또는 영상의 패턴과 동일한 정보(크기, 길이, 모양 등)와 동일하게 계산될 때까지 카메라 자세를 추정한다. 영상 분석부는 만약 패턴의 정보가 동일하지 않으면 예상 패턴과 기존 이미지 또는 영상의 패턴의 정보 편차를 최소화하기 위해 반복 수행할 수 있다.The image analysis unit 210 acquires a reference image or video captured through a lens with a predefined pattern in order to estimate the camera posture. Afterwards, the image analysis unit corrects the distortion based on the external parameters derived based on the above-described operation of the pattern detected in the image or video that is different from the reference image or video and derives an expected pattern that is the same as the pattern of the reference image or video. Estimate the camera pose until it calculates the same information (size, length, shape, etc.). If the pattern information is not the same, the image analysis unit may perform repetitions to minimize the information deviation between the expected pattern and the pattern of the existing image or video.

카메라 자세가 추정되면, 영상 분석부(210)는 3차원 공간에 영상의 픽셀 위치를 매핑하여 영상의 LUT를 생성할 수 있다.Once the camera pose is estimated, the image analysis unit 210 can generate an LUT of the image by mapping the pixel positions of the image in three-dimensional space.

구체적으로, 영상 분석부(210)는 예상 패턴과 영상의 패턴 정보 편차를 최소화하여 얻은 카메라 자세 추정의 데이터를 수신하고 3차원의 공간 매핑을 수행한다.Specifically, the image analysis unit 210 receives camera pose estimation data obtained by minimizing the difference between the expected pattern and the pattern information of the image and performs three-dimensional spatial mapping.

3차원의 공간 매핑을 수행하기 위하여, 영상 분석부(210)는 3차원 공간에 임의의 원형통 매쉬를 설정하고, 추정한 카메라 자세를 이용하여 영상 각 픽셀의 정보가 카메라의 중심으로 연결되는 직선을 계산한다. 이후, 영상 분석부(210)는 투영되는 직선과 설정된 메쉬의 교점을 계산하고 교점의 위치와 투영된 직전의 영상 좌표를 매칭하여 LUT를 생성할 수 있다. 또한, 본 발명의 일 실시예로 원통형 매쉬를 기반으로 설명하였지만 이에 한정되는 것은 아니다.In order to perform 3D spatial mapping, the image analysis unit 210 sets a random circular cylinder mesh in 3D space, and uses the estimated camera posture to form a straight line connecting the information of each pixel of the image to the center of the camera. Calculate . Afterwards, the image analysis unit 210 may calculate the intersection point between the projected straight line and the set mesh, and match the location of the intersection point with the coordinates of the image just before the projection to generate an LUT. In addition, although the present invention has been described based on a cylindrical mesh as an embodiment, it is not limited thereto.

영상 분석부(210)에서의 LUT를 생성하는 이유로는 주어진 연산에 대한 미리 계산된 결과들의 집합을 나타내는 것으로, 주어진 연산에 대한 결과를 빠르게 계산할 수 있다.The reason for generating the LUT in the image analysis unit 210 is that it represents a set of pre-calculated results for a given operation, and the result for the given operation can be quickly calculated.

본 발명의 실시예에 따르면, 후방 파노라마 뷰 영상은 조향각에 따라 시점이 변화하며 실시간성과 연속성을 갖춰야 하기 때문에, 기 설정된 기준점은 상기 제1 영상 내지 상기 제3 영상 각각에 대하여 정의된다. 다시 말해서, 복수의 영상의 각 기준점별로 별개의 LUT가 아닌 기준점보다 큰 통합된 영상의 LUT를 생성하여 데이터의 계산량을 감소하여 개선된 영상을 생성할 수 있다.According to an embodiment of the present invention, since the viewpoint of the rear panoramic view image changes depending on the steering angle and must have real-time and continuity, preset reference points are defined for each of the first to third images. In other words, by generating an LUT of an integrated image larger than the reference point rather than a separate LUT for each reference point of a plurality of images, the amount of data calculation can be reduced and an improved image can be generated.

영상 합성부(220)는 영상 분석부(210)로부터 생성된 통합 LUT를 기반으로 영상을 합성하고 감소된 데이터 계산량으로 실시간성을 갖춘 후방 파노라마 뷰 영상을 생성한다.The image synthesis unit 220 synthesizes images based on the integrated LUT generated by the image analysis unit 210 and generates a real-time rear panoramic view image with a reduced data calculation amount.

일 실시예에 따른 영상 합성부(220)는 후방 파노라마 뷰 영상에서 중첩 영역의 조도 및 잡음 중 적어도 하나를 보정할 수 있다. 다시 말해서, 영상 합성부(220)는 후방 파노라마 뷰 영상 합성에 사용되는 복수의 영상들에서 중첩된 영역에 대한 보정을 수행할 수 있는 영상 합성부(220)를 포함한다. 예를 들어, 영상 합성부(220)는 합성된 영상의 보정을 위해 모든 픽셀의 세기(Intensity)에 모두 같은 값을 더하거나 빼서 밝기값이 다른 픽셀의 세기를 조절하여 영상의 밝기값을 동일하게 맞출 수 있다. 또한, 영상 합성부(220)에서 영상의 중첩된 영역 일부에 불투명도를 개선하여 후방 파노라마 뷰 영상을 생성할 수 있다.The image synthesis unit 220 according to an embodiment may correct at least one of the illuminance and noise of the overlapping area in the rear panoramic view image. In other words, the image synthesis unit 220 includes an image synthesis unit 220 that can perform correction for overlapping areas in a plurality of images used for rear panoramic view image synthesis. For example, in order to correct the synthesized image, the image synthesis unit 220 adjusts the intensity of pixels with different brightness values by adding or subtracting the same value from the intensity of all pixels to make the brightness value of the image the same. You can. Additionally, the image synthesis unit 220 may generate a rear panoramic view image by improving the opacity of a portion of the overlapping area of the image.

도 1의 실시예에 따라 생성된 후방 파노라마 뷰 영상은 기존의 후방 카메라 영상보다 넓은 화각을 가지며, 영상의 중첩된 영역이 처리되고 보정되어 자연스러운 영상을 생성할 수 있다. 또한, 개별의 영상의 LUT가 아닌 통합된 영상의 LUT를 기반으로 하기에 데이터의 계산량이 향상되어 영상을 실시간으로 제공할 수 있다.The rear panoramic view image generated according to the embodiment of FIG. 1 has a wider angle of view than the existing rear camera image, and the overlapping area of the image can be processed and corrected to generate a natural image. In addition, since it is based on the LUT of integrated images rather than the LUT of individual images, the amount of data calculation is improved, allowing images to be provided in real time.

도 2는 본 발명의 일 실시예에 따른 영상 합성부에 따라 생성된 후방 파노라마 뷰 영상을 도시한 것이다.Figure 2 shows a rear panoramic view image generated by the image synthesis unit according to an embodiment of the present invention.

도 2에 도시된 바와 같이 본 발명은 우측 사이드미러 영상(501), 후방 카메라 영상(502) 및 좌측 사이드미러 영상(503)을 합성하여 중첩된 영역을 처리 및 보정하여 기존의 후방 카메라 영상(502)보다 넓은 후측방의 시각적인 정보를 제공할 수 있는 후방 파노라마 뷰 영상(500)을 생성할 수 있다.As shown in Figure 2, the present invention synthesizes the right side mirror image 501, the rear camera image 502, and the left side mirror image 503, processes and corrects the overlapping area, and replaces the existing rear camera image 502 with the existing rear camera image 502. ) can generate a rear panoramic view image 500 that can provide visual information of a wider posterior area.

도 3은 본 발명의 다른 일 실시예에 따른 후방 파노라마 뷰 생성 장치의 블록도이다. 이하에서는, 앞서 설명한 부분과 중복되는 부분에 대한 상세한 설명은 생략한다.Figure 3 is a block diagram of a rear panoramic view generating device according to another embodiment of the present invention. Hereinafter, detailed description of parts that overlap with the parts described above will be omitted.

도 3을 참조하면, 다른 일 실시예에 따른 후방 파노라마 뷰 생성 장치는 복수의 카메라(100)과 영상 생성부(200)에 더하여, 영상 출력부(300)를 추가로 포함할 수 있다.Referring to FIG. 3, a rear panoramic view generating apparatus according to another embodiment may further include an image output unit 300 in addition to a plurality of cameras 100 and an image generator 200.

복수의 카메라(100)는 좌측 및 우측의 사이드미러 영상과 후방 영상을 촬영하고, 영상 생성부(200)에서 영상을 수신하여 카메라의 자세 추정 및 LUT를 생성하고 LUT를 기반으로 영상을 합성하여 후방 파노라마 뷰 영상(500)을 생성한다.The plurality of cameras 100 capture left and right side mirror images and rear images, receive the images from the image generator 200, estimate the pose of the camera and generate a LUT, and synthesize the images based on the LUT to create a rear view mirror image. A panoramic view image 500 is generated.

영상 출력부(300)는 차량의 정보를 기반으로 후방 파노라마 뷰 영상(500)을 선택적으로 출력할 수 있으며, 이를 위하여 통신 모듈(310) 및 영상 선택부(320)를 포함한다.The image output unit 300 can selectively output a rear panoramic view image 500 based on vehicle information, and includes a communication module 310 and an image selection unit 320 for this purpose.

통신 모듈(310)은 예를 들어 CAN BUS(Controller Area Network Bus)로서 차량 내에서 호스트 컴퓨터 없이 장치들이 서로 통신할 수 있다. 통신 모듈(310)을 통해 송수신되는 차량의 정보는 예를 들어 상기 차량의 속도, 요, 스티어링 정보 및 기어 정보 중 적어도 하나를 수신할 수 있다.The communication module 310 is, for example, a CAN BUS (Controller Area Network Bus), which allows devices to communicate with each other in a vehicle without a host computer. Vehicle information transmitted and received through the communication module 310 may include, for example, at least one of the vehicle's speed, yaw, steering information, and gear information.

영상 선택부(320)는 차량의 속도, 요, 스티어링 정보 및 기어 정보에 기초하여 상기 제1 영상 내지 상기 제3 영상 중 어느 하나의 출력 영상 시점을 선택할 수 있다. 예를 들어, 차량의 조향각의 정보를 기반으로 얻은 차량의 방향과 동일한 방향으로 영상의 시점이 변경되는 작업을 수행할 수 있다.The image selection unit 320 may select an output image point of any one of the first to third images based on vehicle speed, yaw, steering information, and gear information. For example, the viewpoint of the image can be changed to the same direction as the direction of the vehicle obtained based on information about the vehicle's steering angle.

도 4a 및 도 4b는 본 발명의 일 실시예에 따른 차량 정보에 기초하여 영상을 선택적으로 출력하는 영상 선택부의 동작을 설명하기 위한 것이다.FIGS. 4A and 4B are for explaining the operation of an image selection unit that selectively outputs images based on vehicle information according to an embodiment of the present invention.

도 4a 및 도 4b를 참조하면, 영상 출력부(300)는 차량의 자세 및 방향의 데이터를 기반으로 차량의 조향각의 차이에 따라 직진 혹은 후진 방향의 후방 파노라마 뷰 영상(500), 우측으로 조향각이 적은 합성 영상(511) 및 우측으로 조향각이 많은 합성 영상(512)을 출력할 수 있다. 여기서, 상기 차량의 직진 시야 관점에서 정의되는 제1 영상, 상기 차량의 우측 시야 관점에서 정의되는 제2 영상 및 상기 차량의 좌측 시야 관점에서 정의되는 제3 영상으로 칭할 수 있다. 이에 따라, 차량의 후측방 사각지대를 최대한 줄일 수 있으며, 차량 방향에 따라 차선 진입 시 차량 방향과 동일하게 화각을 변경하여 근접한 차량의 위치와 예상 진로 등의 정보를 사용자에게 제공할 수 있다.Referring to FIGS. 4A and 4B, the image output unit 300 displays a rear panoramic view image 500 in the straight or backward direction according to the difference in the steering angle of the vehicle based on the data on the vehicle's posture and direction, and the steering angle to the right. A composite image 511 with a small steering angle and a composite image 512 with a large steering angle to the right can be output. Here, it may be referred to as a first image defined from the vehicle's straight viewing perspective, a second image defined from the vehicle's right viewing perspective, and a third image defined from the vehicle's left viewing perspective. Accordingly, the rear and side blind spots of the vehicle can be reduced as much as possible, and the angle of view can be changed to match the direction of the vehicle when entering a lane depending on the direction of the vehicle, providing the user with information such as the location and expected path of nearby vehicles.

도 5는 후방 파노라마 뷰 영상 생성 방법을 수행하기 위한 흐름도이다.Figure 5 is a flowchart for performing a method for generating a rear panoramic view image.

상술한 본 발명의 다양한 실시예들에 따른 후방 파노라마 뷰 영상 생성 장치의 동작 방법에 대한 자세한 설명을, 이하 도 5를 참조하여 함께 설명한다.A detailed description of the operation method of the rear panoramic view image generating device according to various embodiments of the present invention described above will be described below with reference to FIG. 5.

도 5에 도시된 바와 같이, 후방 파노라마 뷰 생성 장치는 복수의 카메라(100)를 이용하여 영상 수집(S100)한다. 영상 생성부(200)는 수집된 영상을 바탕으로 차량의 진행 방향 및 기어 정보 등의 차량 정보 분석(S200)을 수행한다. 영상 분석부(210)는 차량의 정보를 기반으로 영상을 분석하여 카메라 자세 추정과 영상의 포괄적인 LUT를 생성하는 영상 분석 및 LUT생성(S300)을 수행한다. 영상 합성부(220)는 LUT가 생성된 영상을 합성(S400)하여 중첩영역 처리 및 보정(S500)을 하고, 보정된 후방 파노라마 뷰 영상을 출력(S600)한다.As shown in FIG. 5, the rear panoramic view generating device collects images using a plurality of cameras 100 (S100). The image generator 200 performs vehicle information analysis (S200), such as the vehicle's direction of travel and gear information, based on the collected images. The image analysis unit 210 analyzes the image based on vehicle information and performs image analysis and LUT generation (S300) to estimate the camera pose and generate a comprehensive LUT of the image. The image synthesis unit 220 synthesizes the images from which the LUT is generated (S400), processes and corrects the overlapping area (S500), and outputs the corrected rear panoramic view image (S600).

도 6은 영상 분석 및 LUT 생성 방법을 수행하기 위한 흐름도이다.Figure 6 is a flowchart for performing an image analysis and LUT generation method.

도 6에 도시된 바와 같이, 영상 분석부(210)는 공차보정 패턴을 포함한 좌, 우 사이드미러 카메라 영상과 후방 카메라 영상을 취득(S310)하여, 각각의 카메라 자세를 추정(S320)한다. 영상 분석부(210)는 카메라 자세가 추정된 영상을 기반으로 3차원 공간 매핑(S330)하여 적응형 파노라마 뷰 영상용 LUT를 생성(S340)한다.As shown in FIG. 6, the image analysis unit 210 acquires left and right side mirror camera images and rear camera images including tolerance correction patterns (S310) and estimates each camera posture (S320). The image analysis unit 210 generates a LUT for an adaptive panoramic view image (S340) by performing 3D spatial mapping (S330) based on the image from which the camera pose is estimated.

도 7은 카메라 자세 추정 방법을 수행하기 위한 흐름도이다.Figure 7 is a flowchart for performing a camera pose estimation method.

도 7에 도시된 바와 같이, 영상 분석부(210)는 복수의 카메라(100)에서 복수의 영상을 수집(S321)하며, 영상 내에 규격이 정해진 형태의 패턴을 검출(S322)한다. 영상 분석부(210)는 검출된 패턴을 카메라 캘리브레이션을 이용하여 도출한 왜곡 파라미터를 이용하여 검출된 패턴을 왜곡 보정(S323)하고 예상 패턴을 추정(S324)한다. 영상 분석부(210)는 예상 패턴과 기 입력된 실제 패턴의 정보(크기, 길이, 모양 등)가 동일 여부를 판단(S325)한다. 동일하지 않으면 반복적으로 검출된 패턴을 왜곡 보정(S323) 및 예상패턴 추정(S324)를 진행하여 예상 패턴과 실제 패턴의 정보의 동일할 때까지 최적화를 진행한다. 최적화 진행 후 정보가 동일하면 카메라 자세를 추정(S326)하여 종료한다.As shown in FIG. 7, the image analysis unit 210 collects a plurality of images from the plurality of cameras 100 (S321) and detects a pattern in a standard form within the images (S322). The image analysis unit 210 corrects distortion of the detected pattern using distortion parameters derived using camera calibration (S323) and estimates the expected pattern (S324). The image analysis unit 210 determines whether the information (size, length, shape, etc.) of the expected pattern and the already input actual pattern is the same (S325). If they are not identical, the repeatedly detected pattern is subjected to distortion correction (S323) and expected pattern estimation (S324), and optimization is performed until the information of the expected pattern and the actual pattern are identical. If the information is the same after optimization, the camera posture is estimated (S326) and the process ends.

도 8은 영상 출력을 수행하기 위한 흐름도이다.Figure 8 is a flowchart for performing video output.

도 8에 도시된 바와 같이, 영상 출력부(300)는 통신 모듈을 통해 차량 정보를 수신(S601)하고, 차량 조향각을 분석(S602)한다. 영상 출력부(300)는 차량 조향각을 기반으로 차량 방향과 동일한 방향의 영상을 선택(S603)하여 영상을 출력(S604)한다.As shown in FIG. 8, the image output unit 300 receives vehicle information through a communication module (S601) and analyzes the vehicle steering angle (S602). The image output unit 300 selects an image in the same direction as the vehicle direction based on the vehicle steering angle (S603) and outputs the image (S604).

상술한 내용은 본 발명을 실시하기 위한 구체적인 실시 예들이다. 본 발명은 상술한 실시 예들 이외에도, 단순하게 설계 변경되거나 용이하게 변경할 수 있는 실시 예들도 포함될 것이다. 또한, 본 발명은 실시 예들을 이용하여 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다. 따라서, 본 발명의 범위는 상술한 실시 예들에 국한되어 정해져서는 안되며, 후술하는 특허청구범위뿐만 아니라 이 발명의 특허청구범위와 균등한 것들에 의해 정해져야 할 것이다.The above-described details are specific embodiments for carrying out the present invention. In addition to the above-described embodiments, the present invention will also include embodiments that can be simply changed or easily changed in design. In addition, the present invention will also include technologies that can be easily modified and implemented using the embodiments. Therefore, the scope of the present invention should not be limited to the above-described embodiments, but should be determined by the claims and equivalents of the present invention as well as the claims described later.

100 : 복수의 카메라 320 : 영상 선택부
110 : 좌측 사이드미러 카메라 500 : 파노라마 뷰 영상
120 : 우측 사이드미러 카메라 501 : 우측 사이드미러 영상
130 : 후방 카메라 502 : 후방 영상
200 : 영상 생성부 503 : 좌측 사이드미러 영상
210 : 영상 분석부 510 : 조향각에 따른 합성 영상
220 : 영상 합성부 511 : 직진 혹은 후진 합성 영상
300 : 영상 출력부 512 : 우측으로 조향각이 적은 합성 영상
310 : 통신 모듈 513 : 우측으로 조향각이 많은 합성 영상
100: plural cameras 320: video selection unit
110: Left side mirror camera 500: Panoramic view video
120: Right side mirror camera 501: Right side mirror video
130: rear camera 502: rear image
200: Image generator 503: Left side mirror image
210: Image analysis unit 510: Composite image according to steering angle
220: Image synthesis unit 511: Forward or backward synthesis image
300: Video output unit 512: Composite image with a small steering angle to the right
310: Communication module 513: Composite image with a large steering angle to the right

Claims (12)

차량에 부착되어 상기 차량의 주변에 대한 제1 사이드미러 영상 및 제2 사이드미러 영상을 촬영하는 복수의 사이드미러 카메라 및 후방 영상을 촬영하는 후방 카메라를 포함하는 복수의 카메라;
상기 제1 사이드미러 영상, 상기 제2 사이드미러 영상 및 상기 후방 영상을 포함하는 복수의 영상으로부터 자세 추정 데이터를 획득하고, 상기 자세 추정 데이터를 기반으로 상기 복수의 카메라의 자세를 추정하여 상기 복수의 영상에 대한 LUT를 생성하는 영상 분석부; 및
상기 LUT를 상기 복수의 영상에 적용하여 후방 파노라마 뷰 영상을 생성하는 영상 합성부를 포함하고,
상기 영상 분석부는 기 설정된 기준점 보다 크게 상기 LUT를 생성하는 후방 파노라마 뷰 생성 장치.
A plurality of cameras attached to the vehicle including a plurality of side mirror cameras that capture first and second side mirror images of the surroundings of the vehicle and a rear camera that captures a rear image;
Obtain posture estimation data from a plurality of images including the first side mirror image, the second side mirror image, and the rear image, and estimate the posture of the plurality of cameras based on the posture estimation data to determine the posture of the plurality of cameras. An image analysis unit that generates a LUT for the image; and
An image synthesis unit that generates a rear panoramic view image by applying the LUT to the plurality of images,
The image analysis unit is a rear panoramic view generating device that generates the LUT larger than a preset reference point.
제1항에 있어서,
상기 영상 분석부는 상기 복수의 영상에 대하여 기 정의된 왜곡 파라미터 및 상기 복수의 영상에 대하여 정의된 영상 패턴에 기초하여 상기 자세 추정 데이터를 도출하는, 후방 파노라마 뷰 생성 장치.
According to paragraph 1,
The image analysis unit derives the posture estimation data based on distortion parameters predefined for the plurality of images and image patterns defined for the plurality of images.
제1항에 있어서,
상기 영상 합성부는 상기 후방 파노라마 뷰 영상에서 중첩 영역의 조도 및 잡음 중 적어도 하나를 보정하는, 후방 파노라마 뷰 생성 장치.
According to paragraph 1,
The image synthesis unit corrects at least one of illuminance and noise of an overlapping area in the rear panoramic view image.
제1항에 있어서,
상기 후방 파노라마 뷰 영상은 상기 차량의 직진 시야 관점에서 정의되는 제1 영상, 상기 차량의 우측 시야 관점에서 정의되는 제2 영상 및 상기 차량의 좌측 시야 관점에서 정의되는 제3 영상을 포함하는, 후방 파노라마 뷰 생성 장치.
According to paragraph 1,
The rear panoramic view image includes a first image defined from a straight viewing perspective of the vehicle, a second image defined from a right viewing perspective of the vehicle, and a third image defined from a left viewing perspective of the vehicle. View creation device.
제4항에 있어서,
차량 정보를 기반으로 상기 후방 파노라마 뷰 영상을 선택적으로 출력하는 영상 출력부를 더 포함하고,
상기 영상 출력부는,
상기 차량 정보에 포함된 차량의 속도, 요, 스티어링 정보 및 기어 정보 중 적어도 하나를 수신하는 통신 모듈; 및
상기 차량 정보에 기초하여 상기 제1 영상 내지 상기 제3 영상 중 어느 하나를 출력하는 영상 선택부를 더 포함하는, 후방 파노라마 뷰 생성 장치.
According to paragraph 4,
It further includes an image output unit that selectively outputs the rear panoramic view image based on vehicle information,
The video output unit,
a communication module that receives at least one of vehicle speed, yaw, steering information, and gear information included in the vehicle information; and
A rear panoramic view generating device further comprising an image selection unit that outputs one of the first to third images based on the vehicle information.
제4항에 있어서,
상기 기 설정된 기준점은 상기 제1영상 내지 상기 제3 영상 각각에 대하여 정의되는, 후방 파노라마 뷰 생성 장치.
According to paragraph 4,
The preset reference point is defined for each of the first to third images.
후방 파노라마 뷰 영상 생성 장치에 의해 수행되는 후방 파노라마 뷰 생성 방법으로서,
차량에 부착된 복수의 사이드미러 카메라 및 후방 카메라를 포함하는 복수의 카메라로부터 상기 차량의 주변에 대한 제1 사이드미러 영상 및 제2 사이드미러 영상을 촬영하는 복수의 사이드미러 카메라 및 후방 영상을 촬영하는 단계;
상기 제1 사이드미러 영상, 상기 제2 사이드미러 영상 및 상기 후방 영상을 포함하는 복수의 영상으로부터 자세 추정 데이터를 획득하고, 상기 자세 추정 데이터를 기반으로 상기 복수의 카메라의 자세를 추정하여 상기 복수의 영상에 대한 LUT를 생성하는 단계; 및
상기 LUT를 상기 복수의 영상에 적용하여 후방 파노라마 뷰 영상을 생성하는 단계를 포함하고,
상기 LUT를 생성하는 단계는 기 설정된 기준점 보다 크게 상기 LUT를 생성하는 후방 파노라마 뷰 생성 방법.
A rear panoramic view generation method performed by a rear panoramic view image generating device, comprising:
A plurality of side mirror cameras that capture a first side mirror image and a second side mirror image of the surroundings of the vehicle from a plurality of cameras including a plurality of side mirror cameras and a rear camera attached to the vehicle and a rear image. step;
Obtain posture estimation data from a plurality of images including the first side mirror image, the second side mirror image, and the rear image, and estimate the posture of the plurality of cameras based on the posture estimation data to determine the plurality of cameras. Generating a LUT for an image; and
Generating a rear panoramic view image by applying the LUT to the plurality of images,
A method of generating a rear panoramic view in which the step of generating the LUT generates the LUT larger than a preset reference point.
제7항에 있어서,
상기 LUT를 생성하는 단계는 상기 복수의 영상에 대하여 기 정의된 왜곡 파라미터 및 상기 복수의 영상에 대하여 정의된 영상 패턴에 기초하여 상기 자세 추정 데이터를 도출하는, 후방 파노라마 뷰 생성 방법.
In clause 7,
In the step of generating the LUT, the posture estimation data is derived based on a distortion parameter predefined for the plurality of images and an image pattern defined for the plurality of images.
제7항에 있어서,
상기 영상을 생성하는 단계는 상기 후방 파노라마 뷰 영상에서 중첩 영역의 조도 및 잡음 중 적어도 하나를 보정하는 단계를 더 포함하는, 후방 파노라마 뷰 생성 방법.
In clause 7,
The step of generating the image further includes correcting at least one of illuminance and noise of an overlapping area in the rear panoramic view image.
제7항에 있어서,
상기 후방 파노라마 뷰 영상은 상기 차량의 직진 시야 관점에서 정의되는 제1 영상, 상기 차량의 우측 시야 관점에서 정의되는 제2 영상 및 상기 차량의 좌측 시야 관점에서 정의되는 제3 영상을 포함하는, 후방 파노라마 뷰 생성 방법.
In clause 7,
The rear panoramic view image includes a first image defined from a straight viewing perspective of the vehicle, a second image defined from a right viewing perspective of the vehicle, and a third image defined from a left viewing perspective of the vehicle. How to create a view.
제10항에 있어서,
차량 정보를 기반으로 상기 후방 파노라마 뷰 영상을 선택적으로 출력하는 단계를 더 포함하고,
상기 후방 파노라마 뷰 영상을 선택적으로 출력하는 단계는:
상기 차량 정보에 포함된 상기 차량의 속도, 요, 스티어링 정보 및 기어 정보 중 적어도 하나를 수신하는 단계; 및
상기 차량 정보에 기초하여 상기 제1 영상 내지 상기 제3 영상 중 어느 하나를 출력하는 영상 선택 단계를 더 포함하는, 후방 파노라마 뷰 생성 방법.
According to clause 10,
Further comprising selectively outputting the rear panoramic view image based on vehicle information,
The step of selectively outputting the rear panoramic view image is:
Receiving at least one of speed, yaw, steering information, and gear information of the vehicle included in the vehicle information; and
A rear panoramic view generation method further comprising an image selection step of outputting one of the first to third images based on the vehicle information.
제10항에 있어서,
상기 기 설정된 기준점은 상기 제1 영상 내지 상기 제3 영상 각각에 대하여 정의되는, 후방 파노라마 뷰 생성 방법.
According to clause 10,
The preset reference point is defined for each of the first to third images.
KR1020220103395A 2022-08-18 2022-08-18 Device and Method for Creating a Rear Panoramic View KR102656128B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220103395A KR102656128B1 (en) 2022-08-18 2022-08-18 Device and Method for Creating a Rear Panoramic View

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220103395A KR102656128B1 (en) 2022-08-18 2022-08-18 Device and Method for Creating a Rear Panoramic View

Publications (2)

Publication Number Publication Date
KR20240025323A true KR20240025323A (en) 2024-02-27
KR102656128B1 KR102656128B1 (en) 2024-04-09

Family

ID=90058878

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220103395A KR102656128B1 (en) 2022-08-18 2022-08-18 Device and Method for Creating a Rear Panoramic View

Country Status (1)

Country Link
KR (1) KR102656128B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180019350A (en) * 2016-08-16 2018-02-26 현대모비스 주식회사 Around view monitoring system and operating method thereof
KR20200000953A (en) 2018-06-26 2020-01-06 주식회사 수올리나 Around view monitoring system and calibration method for around view cameras
JP2020507837A (en) * 2017-01-04 2020-03-12 日本テキサス・インスツルメンツ合同会社 Rear stitched view panorama for rear view visualization
KR102140526B1 (en) * 2019-04-26 2020-08-04 주식회사 켐트로닉스 Device for around view
KR102164702B1 (en) * 2019-04-26 2020-10-14 주식회사 켐트로닉스 Automatic parking device and automatic parking method
KR20210097078A (en) 2014-12-18 2021-08-06 현대모비스 주식회사 vehicle and control method thereof
KR20210130688A (en) * 2016-12-08 2021-11-01 현대모비스 주식회사 Apparatus for generating top-view image and method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210097078A (en) 2014-12-18 2021-08-06 현대모비스 주식회사 vehicle and control method thereof
KR20180019350A (en) * 2016-08-16 2018-02-26 현대모비스 주식회사 Around view monitoring system and operating method thereof
KR20210130688A (en) * 2016-12-08 2021-11-01 현대모비스 주식회사 Apparatus for generating top-view image and method thereof
JP2020507837A (en) * 2017-01-04 2020-03-12 日本テキサス・インスツルメンツ合同会社 Rear stitched view panorama for rear view visualization
KR20200000953A (en) 2018-06-26 2020-01-06 주식회사 수올리나 Around view monitoring system and calibration method for around view cameras
KR102140526B1 (en) * 2019-04-26 2020-08-04 주식회사 켐트로닉스 Device for around view
KR102164702B1 (en) * 2019-04-26 2020-10-14 주식회사 켐트로닉스 Automatic parking device and automatic parking method

Also Published As

Publication number Publication date
KR102656128B1 (en) 2024-04-09

Similar Documents

Publication Publication Date Title
JP7054293B2 (en) Rear-stitched view panorama for rear-view visualization
JP4257356B2 (en) Image generating apparatus and image generating method
US9729858B2 (en) Stereo auto-calibration from structure-from-motion
JP5108605B2 (en) Driving support system and vehicle
US10523865B2 (en) Three dimensional rendering for surround view using predetermined viewpoint lookup tables
JP6310652B2 (en) Video display system, video composition device, and video composition method
WO2012096058A1 (en) Image generating device
EP2437494B1 (en) Device for monitoring area around vehicle
JP4874280B2 (en) Image processing apparatus and method, driving support system, and vehicle
US10007853B2 (en) Image generation device for monitoring surroundings of vehicle
JP4681432B2 (en) In-vehicle peripheral image display device
US20080136912A1 (en) Image generating apparatus and image generating method
JP2004021307A (en) Driving support device
JP5516998B2 (en) Image generation device
JP2017536717A (en) Object visualization in bowl-type imaging system
US11521395B2 (en) Image processing device, image processing method, and program
JP2010239596A (en) Video processing apparatus
JP2010081245A (en) Display device for vehicle, and display method
EP3098777B1 (en) Drawing apparatus, drawing method, and drawing program
JP5861871B2 (en) Overhead image presentation device
KR102656128B1 (en) Device and Method for Creating a Rear Panoramic View
JP6293089B2 (en) Rear monitor
KR20160107529A (en) Apparatus and method for parking assist animated a car image
WO2018016274A1 (en) Image processing device
JP6967013B2 (en) Methods and devices for determining the transition between two display images, as well as a vehicle.

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant