KR101378337B1 - Apparatus and method for processing image of camera - Google Patents

Apparatus and method for processing image of camera Download PDF

Info

Publication number
KR101378337B1
KR101378337B1 KR1020120121536A KR20120121536A KR101378337B1 KR 101378337 B1 KR101378337 B1 KR 101378337B1 KR 1020120121536 A KR1020120121536 A KR 1020120121536A KR 20120121536 A KR20120121536 A KR 20120121536A KR 101378337 B1 KR101378337 B1 KR 101378337B1
Authority
KR
South Korea
Prior art keywords
camera
image
camera image
vehicle
previous
Prior art date
Application number
KR1020120121536A
Other languages
Korean (ko)
Inventor
한영인
김동균
Original Assignee
주식회사 이미지넥스트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이미지넥스트 filed Critical 주식회사 이미지넥스트
Priority to KR1020120121536A priority Critical patent/KR101378337B1/en
Application granted granted Critical
Publication of KR101378337B1 publication Critical patent/KR101378337B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an image processing apparatus of a camera and a method of the same comprising the steps of: generating a camera image taken at a random point in time with at least one camera installed in a vehicle; affine transforming a previous camera image taken before the random point in time using a mobility model of the vehicle; and synthesizing the camera image and the previous camera image. According to the present invention, the dead zone around the vehicle can be eliminated and drivers can accurately recognize the surrounding situations of the vehicle. [Reference numerals] (AA) Start; (BB) End; (S710) Generating a camera image taken at a random point in time with at least one camera installed in a vehicle; (S720) Affine transformating a previous camera image taken before the random point in time using a mobility model of the vehicle; (S730) Synthesizing the camera image and the previous camera image; (S740) Outputting by synthesizing the synthesized camera image with a vehicle image

Description

카메라의 영상 처리 장치 및 방법{Apparatus and Method for Processing Image of Camera}Apparatus and Method for Processing Image of Camera

본 발명은 카메라의 영상 처리 장치 및 방법에 관한 것으로, 보다 자세하게는 자동차에 설치된 카메라를 통해 자동차 주변 환경의 영상을 촬영하여 표시할 수 있는 카메라의 영상 처리 장치 및 방법에 관한 것이다.The present invention relates to an image processing apparatus and method of a camera, and more particularly, to an image processing apparatus and method of a camera capable of capturing and displaying an image of the surrounding environment of a vehicle through a camera installed in a vehicle.

일반적으로 운전자의 편의를 위하여 자동차의 주변 환경을 촬영하여 표시함으로써 운전자가 자동차의 주변 환경을 육안을 통해 편리하게 확인할 수 있는 카메라 영상 시스템이 보편적으로 사용되고 있다.In general, a camera imaging system that allows the driver to conveniently check the surrounding environment of the vehicle by visually photographing and displaying the surrounding environment of the vehicle for the convenience of the driver is commonly used.

이러한 카메라 영상 시스템은 자동차의 전방, 후방, 좌우측에 각각 설치된 카메라를 통해 주변 환경을 촬영하고, 촬영된 주변 환경의 영상을 합성하여 표시함으로써 운전자가 자동차의 주변 상황을 정확하게 인식할 수 있도록 하고, 사이드 미러(side mirror)나 백 미러(back mirror)를 보지 않고도 편리하게 주차할 수 있도록 한다.The camera imaging system photographs the surrounding environment through cameras installed at the front, rear, left and right sides of the car, and displays the synthesized image of the surrounding environment so that the driver can accurately recognize the surrounding situation of the car. Allows convenient parking without looking at the side mirrors or back mirrors.

그러나, 자동차의 구조, 카메라가 설치된 위치나 자세에 따라 장애물이 보이지 않게 되는 사각 지대가 존재하기 때문에 종래의 카메라 영상 시스템은 사각 지대에 위치한 장애물에 대해서는 운전자에게 제공하지 못하는 문제점이 있었다.However, since there are blind spots in which obstacles are not visible depending on the structure of the vehicle, the position or posture at which the camera is installed, the conventional camera imaging system has a problem in that it cannot provide the driver with the obstacles located in the blind spots.

이에 따라, 자동차를 주차하고자 하는 운전자의 경우, 주변에 있는 장애물을 발견하지 못하여 장애물과 충돌할 수 있는 사고의 위험성이 있으며, 운전에 익숙한 운전자라 할지라도 운전자가 고개를 들어 주변 환경을 직접 살피면서 장애물을 피하여야 주차할 수 있지만 부분적인 시야 확보만 가능하기 때문에 주차에 어려움이 발생하는 문제점이 있었다. Accordingly, a driver who wants to park a car has a risk of an accident that may not be able to find an obstacle around him and collide with the obstacle, and even a driver who is used to driving raises his head and looks directly at the surrounding environment. Parking can be done by avoiding obstacles, but there is a problem of difficulty in parking because only partial visibility can be obtained.

한국공개특허 제1997-0038091호(공개일: 1997. 07. 24)Korean Patent Publication No. 1997-0038091 (Published: 1997. 07. 24)

본 발명이 해결하고자 하는 과제는 카메라가 각기 다른 시간에 촬영한 복수개의 카메라 이미지를 실시간으로 합성하여 운전자에게 제공함으로써 자동차 주변의 사각 지대를 없애고 운전자가 자동차 주변 상황을 정확하게 인식하게 할 수 있는 카메라의 영상 처리 장치 및 방법을 제공함에 있다.The problem to be solved by the present invention is to provide a driver by synthesizing a plurality of camera images taken at different times in real time to the driver to eliminate blind spots around the car and to accurately recognize the situation around the car An image processing apparatus and method are provided.

이러한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 카메라의 영상 처리 방법은 자동차에 설치된 적어도 하나의 카메라가 임의의 시점에서 촬영한 카메라 이미지를 생성하는 단계; 상기 자동차의 이동성 모델을 이용하여 상기 카메라가 임의의 시점 전에 촬영한 이전 카메라 이미지를 어파인(affine) 변환하는 단계; 상기 카메라 이미지와 상기 이전 카메라 이미지를 합성하는 단계를 포함한다.The image processing method of the camera according to an embodiment of the present invention for solving this problem comprises the steps of generating a camera image photographed at any time by at least one camera installed in the vehicle; Affine converting a previous camera image captured by the camera before an arbitrary time point using a mobility model of the vehicle; Compositing the camera image with the previous camera image.

상기 카메라 이미지 합성 단계 이후에, 상기 합성된 카메라 이미지에 자동차 이미지를 합성하여 출력하는 단계를 더 포함할 수 있다.After the synthesizing of the camera image, the method may further include synthesizing and outputting a car image to the synthesized camera image.

상기 카메라 이미지 생성 단계는 상기 카메라가 임의의 시점에서 촬영한 원 영상 이미지를 입력받는 단계; 상기 원 영상 이미지를 뷰(view) 모드로 변환하여 상기 카메라 이미지를 생성하는 단계를 포함할 수 있다.The camera image generating step may include receiving an original image image captured by the camera at an arbitrary time point; The method may include converting the original image image into a view mode to generate the camera image.

상기 카메라가 임의의 시점 전에 촬영한 이전 카메라 이미지를 어파인(affine) 변환하는 단계는 상기 자동차의 이동량에 기초한 상기 자동차의 이동성 모델을 이용하여 상기 카메라 이미지에 대응한 상기 이전 카메라 이미지의 어파인 변환을 수행할 수 있다.Affine converting a previous camera image photographed before a certain point of time by the camera may include affine conversion of the previous camera image corresponding to the camera image using a mobility model of the vehicle based on the amount of movement of the vehicle. Can be performed.

상기 자동차의 이동량은 상기 자동차의 속도 정보 및 조향각 정보를 포함할 수 있다.The movement amount of the vehicle may include speed information and steering angle information of the vehicle.

상기 카메라 이미지와 상기 이전 카메라 이미지를 합성하는 단계는 상기 카메라 이미지와 상기 이전 카메라 이미지를 스티칭(stitching) 방식으로 합성할 수 있다.The synthesizing of the camera image and the previous camera image may be performed by stitching the camera image and the previous camera image.

상기 자동차 이미지는 윤곽선 또는 반투명으로 출력될 수 있다.The vehicle image may be output in outline or translucent.

한편, 본 발명의 일 실시예에 따른 카메라의 영상 처리 장치는 자동차에 설치된 적어도 하나의 카메라가 임의의 시점에서 촬영한 카메라 이미지를 생성하는 생성부; 상기 자동차의 이동성 모델을 이용하여 상기 카메라가 임의의 시점 전에 촬영한 이전 카메라 이미지를 어파인(affine) 변환하는 변환부; 상기 카메라 이미지와 상기 이전 카메라 이미지를 합성하는 합성부를 포함한다.On the other hand, the image processing apparatus of the camera according to an embodiment of the present invention includes a generation unit for generating a camera image photographed at any point of time at least one camera installed in the vehicle; A converting unit for affine converting a previous camera image photographed before a certain point in time by using the mobility model of the vehicle; And a synthesizer configured to synthesize the camera image and the previous camera image.

상기 합성부는 상기 합성된 카메라 이미지에 자동차 이미지를 합성하여 출력할 수 있다.The synthesizing unit may output a car image by synthesizing the synthesized camera image.

상기 생성부는 상기 카메라가 임의의 시점에서 촬영한 원 영상 이미지를 입력받고, 상기 원 영상 이미지를 뷰(view) 모드로 변환하여 상기 카메라 이미지를 생성할 수 있다.The generation unit may receive the original image photographed by the camera at an arbitrary time point, and convert the original image image into a view mode to generate the camera image.

상기 변환부는 상기 자동차의 이동량에 기초한 상기 자동차의 이동성 모델을 이용하여 상기 카메라 이미지에 대응한 상기 이전 카메라 이미지의 어파인 변환을 수행할 수 있다.The converting unit may perform an affine transformation of the previous camera image corresponding to the camera image by using the mobility model of the vehicle based on the movement amount of the vehicle.

상기 합성부는 상기 카메라 이미지와 상기 이전 카메라 이미지를 스티칭(stitching) 방식으로 합성할 수 있다.The synthesizing unit may synthesize the camera image and the previous camera image by stitching.

상기 자동차 이미지는 윤곽선 또는 반투명으로 출력될 수 있다.The vehicle image may be output in outline or translucent.

이와 같이 본 발명의 실시예에 따른 카메라의 영상 처리 장치 및 방법에 따르면, 카메라가 각기 다른 시간에 촬영한 복수의 카메라 이미지를 실시간으로 합성하여 운전자에게 제공함으로써 자동차 주변의 사각 지대를 없애고 운전자가 자동차 주변 상황을 정확하게 인식하게 할 수 있는 장점이 있다.As described above, according to the image processing apparatus and method of the camera according to an embodiment of the present invention, the camera synthesizes a plurality of camera images taken at different times in real time to the driver to eliminate blind spots around the car and the driver There is an advantage to be able to accurately recognize the surrounding situation.

보다 구체적으로는, 현재 시점에서 촬영한 카메라 이미지와 과거 시점에서 촬영한 카메라 이미지를 합성하여 출력함으로써 사각 지대에 위치한 장애물에 대한 정보를 운전자에게 보다 용이하게 제공할 수 있는 장점이 있다.More specifically, by synthesizing and outputting the camera image photographed at the present point in time and the camera image photographed at the past point of view, there is an advantage that it is easier to provide the driver with information about obstacles located in the blind spot.

또한, 자동차의 속도 및 조향각을 통한 자동차의 이동성 모델을 이용하여 과거 시점에서 촬영한 카메라 이미지를 어파인 변환함으로써 현재 시점에서 촬영한 카메라 이미지와 과거 시점에서 촬영한 카메라 이미지를 보다 자연스럽게 합성할 수 있는 장점이 있다.In addition, by affine-converting camera images taken in the past using the vehicle's mobility model through the speed and steering angle of the car, it is possible to more naturally synthesize camera images taken in the past and cameras taken in the past. There is an advantage.

그리고, 카메라 이미지와 자동차 이미지를 합성할 경우, 자동차 이미지를 윤곽선 또는 반투명으로 표시함으로써 자동차의 하부에 위치한 장애물과 방향 안내 정보를 운전자가 보다 용이하게 인식하게 할 수 있는 장점이 있다.In addition, when synthesizing the camera image and the car image, there is an advantage that the driver can recognize the obstacle and the direction guidance information located on the lower part of the car by displaying the car image in outline or translucent.

이에 따라, 운전자의 시야 확보가 어려운 사각 지대를 보다 용이하게 확인할 수 있어서 운전자의 안전한 주행 환경 제공과 안전한 주차 환경을 제공할 수 있는 장점이 있다.Accordingly, it is possible to more easily confirm a blind spot where a driver can hardly obtain a view, thereby providing a safe driving environment for the driver and a safe parking environment.

도 1은 본 발명의 일 실시예에 따른 카메라의 영상 처리 장치의 구성도이다.
도 2는 복수 개의 카메라에서 각각 촬영된 원 영상 이미지의 예시도들이다.
도 3은 도 2에 도시한 원 영상 이미지를 뷰 모드로 변환한 카메라 이미지의 예시도이다.
도 4는 본 발명의 일 실시예에 따른 자동차의 이동성 모델을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 과거 시점의 카메라 이미지(A1), 변환된 과거 시점의 카메라 이미지(A1') 및 현재 시점의 카메라 이미지(B1)와, 이들을 합성한 카메라 이미지(D1)의 예시도이다.
도 6은 본 발명의 다른 실시예에 따른 과거 시점의 제1 및 제2 카메라 이미지(A2)(A3), 현재 시점의 제1 및 제2 카메라 이미지(B2)(B3) 및 현재 시점의 제1 및 제2 후방 영상 이미지(E2)(E3)의 예시도이다.
도 7은 본 발명의 일 실시예에 따른 카메라의 영상 처리 과정을 보여주는 동작 흐름도이다.
1 is a block diagram of an image processing apparatus of a camera according to an embodiment of the present invention.
2 is an exemplary diagram of an original image image photographed by each of a plurality of cameras.
FIG. 3 is an exemplary diagram of a camera image obtained by converting the original image image shown in FIG. 2 into a view mode.
4 is a view for explaining a mobility model of a vehicle according to an embodiment of the present invention.
5 is a camera image A1 of a past view, a converted camera image A1 'and a camera image B1 of a current view, and a camera image D1 synthesized thereof according to an embodiment of the present invention. An illustration of the.
6 illustrates a first and a second camera image A2 and A3 of a past viewpoint, a first and a second camera image B2 of a current viewpoint, and a first view of a current viewpoint according to another embodiment of the present invention. And an example of the second rearward image E2 and E3.
7 is a flowchart illustrating an image processing process of a camera according to an embodiment of the present invention.

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.The terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms and the inventor may appropriately define the concept of the term in order to best describe its invention It should be construed as meaning and concept consistent with the technical idea of the present invention.

따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiments of the present invention and do not represent all of the technical idea of the present invention, various equivalents that may be substituted for them at the time of the present application It should be understood that there may be water and variations.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 카메라의 영상 처리 장치의 구성도를 나타낸다.1 is a block diagram of an image processing apparatus of a camera according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 카메라의 영상 처리 장치(100)는 카메라(110), 생성부(120), 저장부(130), 변환부(140), 합성부(150) 및 출력부(160)를 포함하여 구성된다.As shown in FIG. 1, an image processing apparatus 100 of a camera includes a camera 110, a generation unit 120, a storage unit 130, a conversion unit 140, a synthesis unit 150, and an output unit 160. It is configured to include).

카메라(110)는 적어도 하나로 구성되며, 렌즈를 통해 3차원의 피사체를 2차원의 영상으로 촬영하는 기능을 수행한다. 만약, 카메라가 2개일 경우, 자동차의 전방 및 후방(또는 좌측 및 우측)에 각각 설치될 수 있으며, 카메라가 4개일 경우, 자동차의 전방, 후방, 좌측 및 우측에 각각 설치될 수 있다. The camera 110 is configured of at least one, and performs a function of capturing a three-dimensional object as a two-dimensional image through a lens. If there are two cameras, the cameras may be installed at the front and rear (or left and right) of the vehicle, respectively. If the cameras are four, the cameras may be installed at the front, rear, left and right of the vehicle.

상기와 같은 카메라(110)가 설치되는 위치에 대하여 보다 상세하게 설명하면, 전방에 설치된 카메라는 자동차의 본넷 중심에 설치되고, 좌측 및 우측에 설치된 카메라는 각각 자동차의 양 사이드 미러의 가장 자리 또는 아래 쪽에 위치하도록 설치될 수 있다. 또한, 후방에 설치된 카메라는 후방 범퍼 위쪽의 중앙에 설치될 수 있으며, 전방 및 후방에 설치된 카메라는 지면 방향의 수직선을 기준으로 170도 이상이 촬영되도록 설치될 수 있다.Referring to the position where the camera 110 is installed in more detail, the front camera is installed in the center of the bonnet of the car, the cameras installed on the left and right are the edges or the bottom of both side mirrors of the car, respectively It can be installed to be located on the side. In addition, the camera installed in the rear may be installed in the center of the rear bumper, the cameras installed in the front and rear may be installed so that 170 degrees or more based on the vertical line in the ground direction.

또한, 카메라(110)에는 광각 렌즈(wide angle lens)나 어안 렌즈(fish eye lens) 등과 같이 화각이 큰 렌즈가 구비될 수 있으며, CMOS(Complementary Metal-Oxide Semiconductor) 타입의 영상 센서나 CCD(Charge Coupled Device) 타입의 영상 센서 등으로 구성될 수 있다.In addition, the camera 110 may include a lens having a large angle of view, such as a wide angle lens or a fish eye lens, and may be a CMOS (Complementary Metal-Oxide Semiconductor) type image sensor or a CCD (Charge). Coupled Device) type image sensor or the like.

도 2는 복수 개의 카메라에서 각각 촬영된 원 영상 이미지의 예시도들이고, 도 3은 도 2에 도시한 원 영상 이미지를 뷰 모드로 변환한 카메라 이미지의 예시도를 나타낸다.2 is an exemplary diagram of an original image image photographed by each of a plurality of cameras, and FIG. 3 is an exemplary diagram of a camera image obtained by converting the original image image illustrated in FIG. 2 to a view mode.

생성부(120)는 도 2에 도시한 바와 같이, 카메라(110)가 임의의 시점(이하, 현재 시점이라고 함)에서 촬영한 원 영상 이미지를 입력받을 수 있는데, 카메라가 4대로 구성된 경우, 생성부(120)는 4대의 카메라(110a, 110b, 110c, 110d)에서 각각 촬영된 4개의 원 영상 이미지(D1, D2, D3, D4)를 각각의 채널을 통해 입력받을 수 있다.As shown in FIG. 2, the generation unit 120 may receive the original image captured by the camera 110 at an arbitrary point in time (hereinafter, referred to as the present point of view). The unit 120 may receive four original image images D1, D2, D3, and D4 photographed by four cameras 110a, 110b, 110c, and 110d through respective channels.

또한, 생성부(120)는 입력된 원 영상 이미지를 뷰(view) 모드로 변환하여 카메라 이미지를 생성할 수 있다. 보다 구체적으로 설명하면, 생성부(120)는 도 3에 도시한 바와 같이, 4개의 원 영상 이미지를 어라운드 뷰 모니터(Around View Monitor: AVM) 모드, 탑 뷰(Top View) 모드나 특정한 뷰 모드로 변환하여 4개의 원 영상 이미지가 조합된 카메라 이미지(D11)를 생성할 수 있다. 이때, 뷰 모드는 사용자에 의해 설정되거나 미리 설정되어 저장될 수 있다. In addition, the generation unit 120 may generate a camera image by converting the input original image image into a view mode. In more detail, as illustrated in FIG. 3, the generation unit 120 may display four original image images in an around view monitor (AVM) mode, a top view mode, or a specific view mode. By converting, the camera image D11 in which the four original image images are combined may be generated. In this case, the view mode may be set or stored in advance by the user.

한편, 본 발명의 일 실시예에서는 자동차의 전방, 후방, 좌측 및 우측의 이미지를 촬영하는 4대의 카메라를 예로 들어 설명하고 있으나, 차량의 전방 및 후방(또는 좌측 및 우측)의 이미지를 촬영하는 2대의 카메라의 경우에도 본 발명의 기술적 특징은 동일하게 적용될 수 있다. Meanwhile, in the exemplary embodiment of the present invention, four cameras for capturing images of the front, rear, left, and right sides of the vehicle are described as an example, but two images for photographing the front and rear (or left and right) images of the vehicle are illustrated. Even in the case of a large camera, the technical features of the present invention may be equally applied.

저장부(130)는 생성부(120)에서 생성된 카메라 이미지가 저장되며, 카메라(110)를 통해 일정한 시간 간격(예를 들어, 1초)으로 촬영된 복수 개의 카메라 이미지가 저장될 수 있다.The storage unit 130 may store a camera image generated by the generation unit 120, and may store a plurality of camera images photographed at a predetermined time interval (for example, 1 second) through the camera 110.

예를 들어, 카메라(110)가 오전 11시 07분 00초에 촬영한 제1 카메라 이미지, 카메라(110)가 오전 11시 07분 01초에 촬영한 제2 카메라 이미지 및 카메라(110)가 오전 11시 07분 02초에 촬영한 제3 카메라 이미지 등이 순차적으로 생성되어 저장부(130)에 저장될 수 있다.For example, the first camera image captured by the camera 110 at 11:07:00 AM, the second camera image captured by the camera 110 at 11:07:01 AM, and the camera 110 may be displayed in the morning. The third camera image photographed at 11:07:02 may be sequentially generated and stored in the storage 130.

변환부(140)는 자동차의 이동성 모델(Kinematic vehicle model)을 이용하여 카메라(110)가 임의의 시점 전(이하, 과거 시점이라고 함)에 촬영한 이전 카메라 이미지를 어파인 변환(affine transformation)할 수 있다.The transform unit 140 performs affine transformation on the previous camera image photographed by the camera 110 before an arbitrary viewpoint (hereinafter, referred to as a past viewpoint) by using a kinematic vehicle model. Can be.

보다 구체적으로 설명하면, 변환부(140)는 자동차의 이동성 모델을 이용하여 과거 시점에 촬영한 이전 카메라 이미지가 현재 시점에서 촬영한 카메라 이미지(이하, 현재 카메라 이미지라고 함)에 대응하도록 즉, 이전 카메라 이미지를 현재 카메라 이미지의 공간 상으로 대응시키는 어파인 변환을 수행할 수 있다.In more detail, the conversion unit 140 may use the mobility model of the vehicle so that the previous camera image photographed at a past point in time corresponds to a camera image captured at the present point in time (hereinafter, referred to as a current camera image). An affine transformation can be performed that maps the camera image onto the space of the current camera image.

여기서, 자동차의 이동성 모델이란 자동차의 속도 및 조향각을 포함한 자동차의 이동량에 근거하여 자동차가 이동하는 양상을 예측하는 모델이며, 어파인 변환이란 한 벡터 공간을 다른 벡터 공간으로 대응시키는 변환으로, 선형 변환과 평행 이동 변환의 합성으로 이루어질 수 있다.Here, the mobility model of the vehicle is a model for predicting the movement of the vehicle based on the amount of movement of the vehicle, including the speed and steering angle of the vehicle, and the affine transformation is a transformation that corresponds one vector space to another vector space, and is a linear transformation. And parallel translation transformation.

도 4는 본 발명의 일 실시예에 따른 자동차의 이동성 모델을 설명하기 위한 도면으로서, 도 4를 참조하면, 변환부(140)에서 어파인 변환을 수행하기 위해서는 자동차의 이동성 모델을 이용하여 이전 카메라 이미지가 현재 카메라 이미지에 대응하도록 이전 카메라 이미지를 단위 픽셀 수만큼 이동시켜줘야 한다. 이를 위해 자동차의 속도 센서(172) 및 조향각 센서(174)에서 감지한 자동차의 속도(υ) 및 조향각(δ)과, 자동차의 길이(b)를 하기의 (수식 1)에 대입하여 이전 카메라 이미지의 이동량(x, y, ψ(틀어짐))을 연산할 수 있고, 이러한 연산 과정을 통해 어파인 변환을 수행할 수 있다.4 is a view for explaining a mobility model of a vehicle according to an embodiment of the present invention. Referring to FIG. 4, in order to perform an affine transformation in the conversion unit 140, a previous camera is performed using a mobility model of the vehicle. You must move the previous camera image by the number of pixels so that the image corresponds to the current camera image. To this end, the vehicle's speed (υ) and steering angle (δ) detected by the speed sensor 172 and the steering angle sensor 174 of the vehicle, and the length of the vehicle (b) are substituted into Equation 1 below to display the previous camera image. The amount of movement (x, y, ψ (twisted)) can be calculated, and affine transformation can be performed through this calculation process.

(수식 1)(Equation 1)

Figure 112012088979008-pat00001
Figure 112012088979008-pat00001

만약, 과거 시점에서 촬영한 이전 카메라 이미지가 각기 다른 과거 시점에서 촬영한 복수 개의 이전 카메라 이미지로 구성된 경우, 변환부(140)는 복수 개의 이전 카메라 이미지를 현재 시점의 카메라 이미지에 대응하도록 각각 어파인 변환을 수행할 수 있다. If the previous camera image taken from the past viewpoint is composed of a plurality of previous camera images taken from different past viewpoints, the conversion unit 140 affines each of the plurality of previous camera images to correspond to the camera image of the current viewpoint. You can perform the conversion.

합성부(150)는 현재 카메라 이미지와 이전 카메라 이미지를 합성할 수 있으며, 보다 구체적으로는 스티칭(stitching) 방식을 통해 카메라 이미지와 이전 카메라 이미지의 크기 등을 조절하여 합성할 수 있다.The combining unit 150 may synthesize the current camera image and the previous camera image, and more specifically, may adjust and synthesize the size of the camera image and the previous camera image through a stitching method.

또한, 합성부(150)는 과거 시점에서 촬영한 이전 카메라 이미지가 각기 다른 과거 시점에서 촬영한 복수 개의 이전 카메라 이미지로 구성된 경우, 복수 개의 이전 카메라 이미지와 현재 시점의 카메라 이미지를 한 개의 카메라 이미지로 합성할 수 있다.In addition, when the previous camera image captured from the past viewpoint consists of a plurality of previous camera images taken from different past viewpoints, the synthesis unit 150 converts the plurality of previous camera images and the current camera image into one camera image. Can be synthesized.

그리고, 합성부(150)는 카메라 이미지를 합성할 때, 픽셀 값에 대한 가중치를 다르게 적용할 수 있다. 예컨대, 이전 카메라 이미지의 밝기는 4로 적용하고, 현재 시점의 카메라 이미지의 밝기는 5로 적용하여 카메라 이미지가 합성되었을 때 운전자가 현재 시점과 과거 시점을 구분하여 인식하게 할 수 있다.The synthesizer 150 may apply different weights to pixel values when synthesizing the camera image. For example, the brightness of the previous camera image is applied at 4 and the brightness of the camera image at the current view is 5, so that the driver can recognize the current view and the past view when the camera images are synthesized.

도 5는 본 발명의 일 실시예에 따른 과거 시점의 카메라 이미지(A1), 변환된 과거 시점의 카메라 이미지(A1') 및 현재 시점의 카메라 이미지(B1)와, 이들을 합성한 카메라 이미지(D1)의 예시도를 나타낸다.5 is a camera image A1 of a past view, a converted camera image A1 'and a camera image B1 of a current view, and a camera image D1 synthesized thereof according to an embodiment of the present invention. An illustration of the is shown.

도 5를 참조하여 예를 들어 설명하면, 카메라가 과거 시점에서 촬영한 카메라 이미지(A1) 상에 있는 장애물(a)은 현재 시점의 카메라 이미지(B1) 상에서는 b1에서와 같이, 사각 지대에 존재하여 카메라 이미지 상에 표시되지 않기 때문에 본 발명의 일 실시예에서는 현재 시점의 카메라 이미지에 대응하도록 과거 시점의 카메라 이미지(A1)를 어파인 변환을 수행하여 변환된 과거 시점의 카메라 이미지(A1')를 생성하고, 변환된 과거 시점의 카메라 이미지(A1')와 현재 카메라 이미지(B1)를 합성하여 장애물(a)이 합성된 카메라 이미지(D1)를 생성할 수 있다.For example, referring to FIG. 5, the obstacle a on the camera image A1 captured by the camera at a past viewpoint is present in a blind spot, as in b1 on the camera image B1 at the current viewpoint. Since the image is not displayed on the camera image, the exemplary embodiment of the present invention performs an affine transformation on the camera image A1 of the past view to correspond to the camera image of the current view, thereby converting the camera image A1 'of the past view. The camera image D1 may be generated by combining the converted camera image A1 ′ with the current camera image B1 and the obstacle a.

또한, 합성부(150)는 합성된 카메라 이미지에 자동차 이미지를 조합하여 출력할 수 있으며, 보다 구체적으로는 합성된 카메라 이미지와 자동차 이미지를 오버레이(overlay) 방식으로 합성하여 출력할 수 있다. 즉, 합성부(150)는 과거 시점에서 촬영한 카메라 이미지와 현재 시점에서 촬영한 카메라 이미지를 합성한 카메라 이미지에 자동차의 현재 위치가 나타나도록 가상의 카메라 이미지를 정합시켜 출력할 수 있다.In addition, the combiner 150 may output the car image by combining the synthesized camera image, and more specifically, may synthesize the synthesized camera image and the car image by overlaying and output the synthesized camera image. That is, the synthesizer 150 may match and output the virtual camera image so that the current position of the car appears in the camera image obtained by synthesizing the camera image photographed at the past and the camera image photographed at the present time.

이와 같이, 합성부(150)에서 합성된 카메라 이미지에 차량의 현재 위치를 표시하는 가상의 자동차 이미지를 정합시켜 출력함으로써 운전자는 현재 과속 방지턱이 설치된 구간을 통과하고 있음을 인식할 수 있게 되고, 자동차 이미지를 중심으로 사각 지대를 용이하게 확인할 수 있다.As such, by matching and outputting the virtual car image indicating the current position of the vehicle to the camera image synthesized by the synthesizing unit 150, the driver can recognize that the vehicle is passing through the section in which the speed bump is installed. The blind spots can be easily identified around the image.

도 6은 본 발명의 다른 실시예에 따른 과거 시점의 제1 및 제2 카메라 이미지(A2)(A3), 현재 시점의 제1 및 제2 카메라 이미지(B2)(B3) 및 현재 시점의 제1 및 제2 후방 영상 이미지(E2)(E3)의 예시도를 나타낸다.6 illustrates a first and a second camera image A2 and A3 of a past viewpoint, a first and a second camera image B2 of a current viewpoint, and a first view of a current viewpoint according to another embodiment of the present invention. And an exemplary view of the second rear image image E2 (E3).

도 6에서 현재 시점의 제1 카메라 이미지(B2)는 자동차의 후방에 설치된 카메라로 촬영한 제1 후방 영상 이미지(E2)를 탑 뷰(Top View) 모드로 변환하여 생성된 이미지이며, 현재 시점의 제2 카메라 이미지(B3)는 제1 후방 영상 이미지(E2)가 촬영된 시점에서 일정 시간이 경과한 후에 촬영한 제2 후방 영상 이미지(E3)를 탑 뷰 모드로 변환하여 생성된 이미지로, 현재 시점의 제1 카메라 이미지(B2) 중에서 P 영역에 해당하는 제1 카메라 이미지는 일정 시간이 경과한 후, R 영역에 해당하는 제2 카메라 이미지로 변환되어 과거 시점의 제1 카메라 이미지(A2)와 합성됨으로써 과거 시점의 제2 카메라 이미지(A3)로 사용될 수 있다.In FIG. 6, the first camera image B2 of the current view is an image generated by converting the first rear view image E2 taken by the camera installed at the rear of the vehicle to the Top View mode. The second camera image B3 is an image generated by converting the second rear image image E3 photographed after a predetermined time elapses from the time when the first rear image image E2 is captured to the top view mode. After a predetermined time has elapsed, the first camera image corresponding to the P area among the first camera images B2 of the viewpoint is converted into a second camera image corresponding to the R region, and the first camera image A2 of the past viewpoint is By being synthesized, it may be used as the second camera image A3 of a past viewpoint.

이와 같이, 임의의 시점(과거 시점)에 해당하는 제2 카메라 이미지(A3)는 임의의 시점 이전에 촬영된 카메라 이미지(R 영역)와 임의의 시점 이전보다 더 이전에 촬영된 카메라 이미지(S 영역)가 조합되어 생성될 수 있다.As such, the second camera image A3 corresponding to an arbitrary viewpoint (past viewpoint) may be a camera image (R region) photographed before an arbitrary viewpoint and a camera image (S region photographed earlier than an arbitrary viewpoint). ) May be generated in combination.

또한, 합성부(150)는 자동차 이미지를 윤곽선 또는 반투명으로 표시하여 자동차에 의해 가려진 사각 지대를 표시할 수 있으며, 자동차에 의해 가려진 사각 지대는 자동차의 하부를 포함할 수 있다. 즉, 합성부(150)는 자동차 이미지를 윤곽선 또는 반투명으로 표시함으로써 자동차의 주변 환경에 위치한 장애물과 방향 안내 정보를 운전자가 인식할 수 있게 된다.In addition, the synthesis unit 150 may display a blind spot covered by the car by displaying the car image as an outline or translucent, and the blind spot covered by the car may include a lower part of the car. That is, the synthesizing unit 150 displays the vehicle image in outline or translucent so that the driver can recognize obstacles and direction guide information located in the surrounding environment of the vehicle.

출력부(160)는 과거 시점의 카메라 이미지, 현재 시점의 카메라 이미지 및 자동차 이미지가 합성된 카메라 이미지를 액정 표시 장치(Liquid Crystal Display, LCD), 유기 전기 발광 다이오드(Organic Light Emitting Diode, OLED) 등의 표시 모듈에 표시한다. The output unit 160 displays a camera image obtained by synthesizing a camera image of a past point in time, a camera image of a present point in time, and a car image, such as a liquid crystal display (LCD), an organic light emitting diode (OLED), and the like. Display on the display module.

지금까지 기술한 내용에 대하여 예를 들어 정리하여 설명하면, 카메라가 장애물이 설치된 곳의 이미지를 촬영하고 이후, 자동차가 계속 주행하여 1초 후 현재 위치에서 카메라가 이미지를 촬영한 경우, 장애물이 설치된 곳은 사각 지대에 위치할 수 있다.For example, if the camera takes an image of where an obstacle is installed and then the vehicle continues to drive and the image is taken by the camera at the current position after 1 second, the obstacle is installed. The place may be located in a blind spot.

이에 본 실시예에 의한 카메라의 영상 처리 장치(100)는 사각 지대에 위치한 장애물에 대한 정보를 운전자가 인식할 수 있도록 현재 시점에서 촬영한 카메라 이미지에 1초 전에 촬영한 과거 시점의 이전 카메라 이미지를 합성하여 장애물이 설치된 곳을 운전자가 인식할 수 있도록 하고, 합성된 카메라 이미지에 자동차 이미지를 합성함으로써 현재 자동차의 위치를 인식할 수 있게 한다.Accordingly, the image processing apparatus 100 of the camera according to the present exemplary embodiment displays a previous camera image of a past view taken one second ago on a camera image taken at a present time so that the driver may recognize information about an obstacle located in a blind spot. By compositing, the driver can recognize where the obstacles are installed, and by composing the car image to the synthesized camera image, the position of the current car can be recognized.

또한, 카메라 이미지와 이전 카메라 이미지를 합성할 때 자동차의 이동성 모델을 이용하여 이전 카메라 이미지를 어파인 변환하여 합성함으로써 보다 자연스럽게 카메라 이미지가 합성되도록 제어한다.In addition, when synthesizing the camera image and the previous camera image by using the mobility model of the car affine conversion and combining the previous camera image to control the camera image is more naturally synthesized.

이하에서는 본 발명의 일 실시예에 따른 카메라의 영상 처리 과정에 대하여 설명하도록 한다.Hereinafter, an image processing process of a camera according to an embodiment of the present invention will be described.

도 7은 본 발명의 일 실시예에 따른 카메라의 영상 처리 과정을 보여주는 동작 흐름도를 나타낸다.7 is an operation flowchart showing an image processing process of a camera according to an embodiment of the present invention.

도 7에 도시한 바와 같이, 자동차에 설치된 적어도 하나의 카메라가 임의의 시점에서 촬영한 카메라 이미지를 생성한다(S710).As illustrated in FIG. 7, at least one camera installed in the vehicle generates a camera image photographed at an arbitrary time point (S710).

보다 구체적으로 설명하면, 카메라 이미지를 생성하기 위해 카메라(110)가 임의의 시점(이하, 현재 시점이라고 함)에서 촬영한 원 영상 이미지를 입력받을 수 있으며, 카메라가 4대로 구성된 경우, 생성부(120)는 4대의 카메라(110a, 110b, 110c, 110d)에서 각각 촬영된 4개의 원 영상 이미지(D1, D2, D3, D4)를 각각의 채널을 통해 입력받을 수 있다.In more detail, in order to generate a camera image, the camera 110 may receive an original image photographed at an arbitrary point in time (hereinafter, referred to as a present point of view). The 120 may receive four original image images D1, D2, D3, and D4 photographed by four cameras 110a, 110b, 110c, and 110d through respective channels.

그런 다음에, 입력된 원 영상 이미지를 뷰(view) 모드로 변환하여 카메라 이미지를 생성할 수 있다. 보다 구체적으로 설명하면, 4개의 원 영상 이미지를 어라운드 뷰 모니터(Around View Monitor: AVM) 모드나 특정한 뷰 모드로 변환하여 4개의 원 영상 이미지가 조합된 카메라 이미지(D11)를 생성할 수 있다.Thereafter, the input original image image may be converted into a view mode to generate a camera image. In more detail, the four original video images may be converted into an around view monitor (AVM) mode or a specific view mode to generate a camera image D11 in which the four original video images are combined.

다음으로, 자동차의 이동성 모델을 이용하여 카메라가 임의의 시점 전에 촬영한 이전 카메라 이미지를 어파인(affine) 변환한다(S720).Next, the camera affine-converts the previous camera image photographed before an arbitrary time point using the mobility model of the vehicle (S720).

보다 구체적으로 설명하면, 자동차의 이동성 모델을 이용하여 과거 시점에 촬영한 이전 카메라 이미지가 현재 시점에 촬영한 카메라 이미지(이하, 현재 카메라 이미지라고 함)에 대응하도록 즉, 이전 카메라 이미지를 현재 카메라 이미지의 공간 상으로 대응시키는 어파인 변환을 수행할 수 있다.In more detail, the previous camera image captured in the past using the mobility model of the vehicle corresponds to the camera image captured in the current viewpoint (hereinafter referred to as the current camera image), that is, the previous camera image is replaced with the current camera image. The affine transformation can be performed to correspond in space.

그 다음, 카메라 이미지와 이전 카메라 이미지를 합성한다(S730). 이때, 합성된 카메라 이미지와 자동차 이미지를 오버레이(overlay) 방식으로 합성하여 출력할 수 있다.Next, the camera image and the previous camera image are synthesized (S730). In this case, the synthesized camera image and the car image may be synthesized and output in an overlay method.

그리고, 합성된 카메라 이미지에 자동차 이미지를 합성하여 출력한다(S740).Then, the vehicle image is synthesized and output to the synthesized camera image (S740).

이와 같이, 합성된 카메라 이미지에 차량의 현재 위치를 표시하는 가상의 자동차 이미지를 정합시켜 출력함으로써 운전자는 현재 과속 방지턱이 설치된 구간을 통과하고 있음을 인식할 수 있게 되고, 자동차 이미지를 중심으로 사각 지대를 용이하게 확인할 수 있다.As such, by matching and outputting a virtual car image indicating the current position of the vehicle to the synthesized camera image, the driver can recognize that the vehicle is passing through the section where the speed bumps are currently installed, and the blind spot centered on the car image. It can be easily confirmed.

또한, 자동차 이미지를 윤곽선 또는 반투명으로 표시하여 자동차에 의해 가려진 사각 지대를 표시할 수 있으며, 자동차에 의해 가려진 사각 지대는 자동차의 하부를 포함할 수 있다. 즉, 합성부(150)는 자동차 이미지를 윤곽선 또는 반투명으로 표시함으로써 자동차의 주변 환경에 위치한 장애물과 방향 안내 정보를 운전자가 인식할 수 있게 한다.In addition, the blind spots covered by the car may be displayed by displaying the car image in outline or translucent, and the blind spots covered by the car may include a lower part of the car. That is, the synthesizing unit 150 displays the vehicle image in outline or translucent so that the driver can recognize obstacles and direction guide information located in the surrounding environment of the vehicle.

본 발명의 일 실시예는 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터로 읽을 수 있는 매체를 포함한다. 이 매체는 앞서 설명한 카메라의 영상 처리 방법을 실행시키기 위한 프로그램을 기록한다. 이 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이러한 매체의 예에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기 매체, CD 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 자기-광 매체, 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다. 또는 이러한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.One embodiment of the present invention includes a computer-readable medium including program instructions for performing various computer-implemented operations. This medium records a program for executing the image processing method of the camera described above. The medium may include program instructions, data files, data structures, etc., alone or in combination. Examples of such media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD and DVD, programmed instructions such as floptical disk and magneto-optical media, ROM, RAM, And a hardware device configured to store and execute the program. Or such medium may be a transmission medium, such as optical or metal lines, waveguides, etc., including a carrier wave that transmits a signal specifying a program command, data structure, or the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

이상의 상세한 설명은 본 발명을 예시하는 것이다. 또한 전술한 내용은 본 발명의 바람직한 실시 형태를 나타내고 설명하는 것에 불과하며, 본 발명은 다양한 다른 조합, 변경 및 환경에서 사용할 수 있다. 즉, 본 명세서에 개시된 발명의 개념의 범위, 저술한 개시 내용과 균등한 범위 및/또는 당업계의 기술 또는 지식의 범위 내에서 변경 또는 수정이 가능하다. 전술한 실시예들은 본 발명을 실시하는데 있어 최선의 상태를 설명하기 위한 것이며, 본 발명과 같은 다른 발명을 이용하는데 당업계에 알려진 다른 상태로의 실시, 그리고 발명의 구체적인 적용 분야 및 용도에서 요구되는 다양한 변경도 가능하다. 따라서, 이상의 발명의 상세한 설명은 개시된 실시 상태로 본 발명을 제한하려는 의도가 아니다. 또한 첨부된 청구범위는 다른 실시 상태도 포함하는 것으로 해석되어야 한다.The foregoing detailed description is illustrative of the present invention. It is also to be understood that the foregoing is illustrative and explanatory of preferred embodiments of the invention only, and that the invention may be used in various other combinations, modifications and environments. That is, it is possible to make changes or modifications within the scope of the concept of the invention disclosed in this specification, the disclosure and the equivalents of the disclosure and / or the scope of the art or knowledge of the present invention. The foregoing embodiments are intended to illustrate the best mode contemplated for carrying out the invention and are not intended to limit the scope of the present invention to other modes of operation known in the art for utilizing other inventions such as the present invention, Various changes are possible. Accordingly, the foregoing description of the invention is not intended to limit the invention to the precise embodiments disclosed. It is also to be understood that the appended claims are intended to cover such other embodiments.

100: 카메라의 영상 처리 장치
110: 카메라 120: 생성부
130: 저장부 140: 변환부
150: 합성부 160: 출력부
100: image processing device of the camera
110: camera 120: generation unit
130: storage unit 140: conversion unit
150: synthesis unit 160: output unit

Claims (13)

자동차에 설치된 적어도 하나의 카메라가 임의의 시점에서 촬영한 카메라 이미지를 생성하는 단계;
상기 자동차의 이동성 모델을 이용하여 상기 카메라가 임의의 시점 전에 촬영한 이전 카메라 이미지를 어파인(affine) 변환하는 단계;
상기 카메라 이미지와 상기 이전 카메라 이미지를 합성하는 단계를 포함하고,
상기 카메라 이미지 생성 단계는,
상기 카메라가 임의의 시점에서 촬영한 원 영상 이미지를 입력받는 단계;
상기 원 영상 이미지를 탑뷰(Top View) 모드로 변환하여 상기 카메라 이미지를 생성하는 단계를 포함하는 카메라의 영상 처리 방법.
Generating at least one camera image photographed at an arbitrary time by at least one camera installed in the vehicle;
Affine converting a previous camera image captured by the camera before an arbitrary time point using a mobility model of the vehicle;
Compositing the camera image with the previous camera image,
The camera image generating step,
Receiving, by the camera, an original image photographed at an arbitrary point in time;
And converting the original image image into a top view mode to generate the camera image.
제 1 항에 있어서,
상기 카메라 이미지 합성 단계 이후에, 상기 합성된 카메라 이미지에 자동차 이미지를 합성하여 출력하는 단계를 더 포함하는 카메라의 영상 처리 방법.
The method of claim 1,
And synthesizing and outputting a car image to the synthesized camera image after the camera image synthesizing.
제 1 항에 있어서,
상기 카메라 이미지와 상기 이전 카메라 이미지의 밝기를 다르게 적용하여 합성하는 카메라의 영상 처리 방법.
The method of claim 1,
The image processing method of the camera synthesized by applying different brightness of the camera image and the previous camera image.
제 1 항에 있어서,
상기 카메라가 임의의 시점 전에 촬영한 이전 카메라 이미지를 어파인(affine) 변환하는 단계는,
상기 자동차의 이동량에 기초한 상기 자동차의 이동성 모델을 이용하여 상기 카메라 이미지에 대응한 상기 이전 카메라 이미지의 어파인 변환을 수행하는 카메라의 영상 처리 방법.
The method of claim 1,
Affine converting a previous camera image photographed before a certain point in time by the camera,
And performing affine transformation of the previous camera image corresponding to the camera image using the mobility model of the vehicle based on the movement amount of the vehicle.
제 4 항에 있어서,
상기 자동차의 이동량은,
상기 자동차의 속도 정보 및 조향각 정보를 포함하는 카메라의 영상 처리 방법.
5. The method of claim 4,
The amount of movement of the car,
An image processing method of a camera comprising speed information and steering angle information of the vehicle.
제 1 항에 있어서,
상기 카메라 이미지와 상기 이전 카메라 이미지를 합성하는 단계는,
상기 카메라 이미지와 상기 이전 카메라 이미지를 스티칭(stitching) 방식으로 합성하는 카메라의 영상 처리 방법.
The method of claim 1,
Comprising the camera image and the previous camera image,
And a stitching method for synthesizing the camera image with the previous camera image.
제 2 항에 있어서,
상기 자동차 이미지는,
윤곽선 또는 반투명으로 출력되는 카메라의 영상 처리 방법.
3. The method of claim 2,
The car image is,
Image processing method of the camera output in the contour or translucent.
자동차에 설치된 적어도 하나의 카메라가 임의의 시점에서 촬영한 카메라 이미지를 생성하는 생성부;
상기 자동차의 이동성 모델을 이용하여 상기 카메라가 임의의 시점 전에 촬영한 이전 카메라 이미지를 어파인(affine) 변환하는 변환부;
상기 카메라 이미지와 상기 이전 카메라 이미지를 합성하는 합성부를 포함하고,
상기 생성부는,
상기 카메라가 임의의 시점에서 촬영한 원 영상 이미지를 입력받고, 상기 원 영상 이미지를 탑뷰(Top View) 모드로 변환하여 상기 카메라 이미지를 생성하는 카메라의 영상 처리 장치.
A generator configured to generate a camera image photographed at an arbitrary time point by at least one camera installed in the vehicle;
A converting unit for affine converting a previous camera image photographed before a certain point in time by using the mobility model of the vehicle;
Comprising a synthesis unit for synthesizing the camera image and the previous camera image,
Wherein the generation unit comprises:
And the camera receives an original image photographed at an arbitrary time point, and converts the original image image into a top view mode to generate the camera image.
제 8 항에 있어서,
상기 합성부는,
상기 합성된 카메라 이미지에 자동차 이미지를 합성하여 출력하는 카메라의 영상 처리 장치.
The method of claim 8,
The synthesizing unit,
An image processing apparatus of a camera for synthesizing and outputting a car image to the synthesized camera image.
제 8 항에 있어서,
상기 합성부는,
상기 카메라 이미지와 상기 이전 카메라 이미지의 밝기를 다르게 적용하여 합성하는 카메라의 영상 처리 장치.
The method of claim 8,
The synthesizing unit,
The image processing apparatus of the camera synthesized by applying different brightness of the camera image and the previous camera image.
제 8 항에 있어서,
상기 변환부는,
상기 자동차의 이동량에 기초한 상기 자동차의 이동성 모델을 이용하여 상기 카메라 이미지에 대응한 상기 이전 카메라 이미지의 어파인 변환을 수행하는 카메라의 영상 처리 장치.
The method of claim 8,
Wherein,
And an affine transformation of the previous camera image corresponding to the camera image using the mobility model of the vehicle based on the amount of movement of the vehicle.
제 8 항에 있어서,
상기 합성부는,
상기 카메라 이미지와 상기 이전 카메라 이미지를 스티칭(stitching) 방식으로 합성하는 카메라의 영상 처리 장치.
The method of claim 8,
The synthesizing unit,
And an image processing apparatus for synthesizing the camera image and the previous camera image by stitching.
제 9 항에 있어서,
상기 자동차 이미지는,
윤곽선 또는 반투명으로 출력되어 상기 자동차에 의해 가려진 사각 지대를 표시하는 카메라의 영상 처리 장치.
The method of claim 9,
The car image is,
An image processing apparatus of a camera, which is output in outline or translucent to display a blind spot covered by the vehicle.
KR1020120121536A 2012-10-30 2012-10-30 Apparatus and method for processing image of camera KR101378337B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120121536A KR101378337B1 (en) 2012-10-30 2012-10-30 Apparatus and method for processing image of camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120121536A KR101378337B1 (en) 2012-10-30 2012-10-30 Apparatus and method for processing image of camera

Publications (1)

Publication Number Publication Date
KR101378337B1 true KR101378337B1 (en) 2014-03-27

Family

ID=50649576

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120121536A KR101378337B1 (en) 2012-10-30 2012-10-30 Apparatus and method for processing image of camera

Country Status (1)

Country Link
KR (1) KR101378337B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018030651A1 (en) * 2016-08-09 2018-02-15 삼성전자 주식회사 Unmanned aerial vehicle having camera, and method for unmanned aerial vehicle to process image
KR101853652B1 (en) 2015-12-29 2018-05-03 전자부품연구원 Around view genegation method and apparatus performing the same
KR101868549B1 (en) * 2015-12-24 2018-06-19 전자부품연구원 Method of generating around view and apparatus performing the same
CN113808013A (en) * 2020-06-17 2021-12-17 威达斯高级驾驶辅助设备有限公司 Method and device for generating aerial view point image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004297808A (en) 2003-03-25 2004-10-21 Aisin Seiki Co Ltd Moving object periphery monitoring device
JP2006123670A (en) 2004-10-28 2006-05-18 Aisin Seiki Co Ltd Mobile unit peripheral monitoring system
KR20090109437A (en) * 2008-04-15 2009-10-20 주식회사 만도 Method and System for Image Matching While Driving Vehicle
KR101097063B1 (en) 2010-12-30 2011-12-22 주식회사 와이즈오토모티브 Apparatus and method for displaying blind spot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004297808A (en) 2003-03-25 2004-10-21 Aisin Seiki Co Ltd Moving object periphery monitoring device
JP2006123670A (en) 2004-10-28 2006-05-18 Aisin Seiki Co Ltd Mobile unit peripheral monitoring system
KR20090109437A (en) * 2008-04-15 2009-10-20 주식회사 만도 Method and System for Image Matching While Driving Vehicle
KR101097063B1 (en) 2010-12-30 2011-12-22 주식회사 와이즈오토모티브 Apparatus and method for displaying blind spot

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101868549B1 (en) * 2015-12-24 2018-06-19 전자부품연구원 Method of generating around view and apparatus performing the same
KR101853652B1 (en) 2015-12-29 2018-05-03 전자부품연구원 Around view genegation method and apparatus performing the same
WO2018030651A1 (en) * 2016-08-09 2018-02-15 삼성전자 주식회사 Unmanned aerial vehicle having camera, and method for unmanned aerial vehicle to process image
KR20180017537A (en) * 2016-08-09 2018-02-21 삼성전자주식회사 Unmanned aerial vehicle having camera
US11254427B2 (en) 2016-08-09 2022-02-22 Samsung Electronics Co., Ltd. Unmanned aerial vehicle having camera, and method for unmanned aerial vehicle to process image
KR102548228B1 (en) * 2016-08-09 2023-06-28 삼성전자주식회사 Unmanned aerial vehicle having camera
CN113808013A (en) * 2020-06-17 2021-12-17 威达斯高级驾驶辅助设备有限公司 Method and device for generating aerial view point image
KR20210156360A (en) * 2020-06-17 2021-12-27 ㈜베이다스 Appratus and method for generating bird viewpoint image
KR102366944B1 (en) * 2020-06-17 2022-02-28 (주)베이다스 Appratus and method for generating bird viewpoint image

Similar Documents

Publication Publication Date Title
JP7342197B2 (en) Imaging device and method of controlling the imaging device
US7554461B2 (en) Recording medium, parking support apparatus and parking support screen
CN108139807B (en) System with Head Mounted Display (HMD) device and method in the system
JP6311020B2 (en) Image composition system, image composition apparatus and image composition method therefor
US20110063444A1 (en) Vehicle surroundings monitoring device and vehicle surroundings monitoring method
US20110175752A1 (en) Methods and Apparatuses for Informing an Occupant of a Vehicle of Surroundings of the Vehicle
JP3663801B2 (en) Vehicle rear view support device
JP2006253872A (en) Apparatus and method for displaying vehicle perimeter image
KR101378337B1 (en) Apparatus and method for processing image of camera
US20220277496A1 (en) Park Assistance System for a Motor Vehicle
KR20160046480A (en) Apparatus and method for controlling outputting external image of vehicle
JP2008048094A (en) Video display device for vehicle, and display method of video images in vicinity of the vehicle
JP2011155651A (en) Apparatus and method for displaying vehicle perimeter image
JPWO2018180856A1 (en) Head up display device
KR20170142363A (en) Apparatus and method for supporting driving of vehicle
KR20220052172A (en) Surround view monitoring system and providing method of the same
JP2017212633A (en) Imaging apparatus, imaging display method and imaging display program
KR20170020666A (en) AVM system and method for compositing image with blind spot
KR101633501B1 (en) AVM system for providing information of side distance and method thereof
JP6861840B2 (en) Display control device and display control method
JP2012004693A (en) Driving support device
JP7301476B2 (en) Image processing device
KR101949961B1 (en) Apparatus and method for supporting driving of vehicle
JP2022029346A (en) Image processing device and image processing program
JP2016131362A (en) Display control device, projection device, display control method, display control program and recording medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170306

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180305

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200303

Year of fee payment: 7