KR20170043104A - AVM system and method for compositing image with blind spot - Google Patents

AVM system and method for compositing image with blind spot Download PDF

Info

Publication number
KR20170043104A
KR20170043104A KR1020170045261A KR20170045261A KR20170043104A KR 20170043104 A KR20170043104 A KR 20170043104A KR 1020170045261 A KR1020170045261 A KR 1020170045261A KR 20170045261 A KR20170045261 A KR 20170045261A KR 20170043104 A KR20170043104 A KR 20170043104A
Authority
KR
South Korea
Prior art keywords
image data
avm
vehicle
pixel
image
Prior art date
Application number
KR1020170045261A
Other languages
Korean (ko)
Other versions
KR101764106B1 (en
Inventor
이재민
전도영
Original Assignee
(주)캠시스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)캠시스 filed Critical (주)캠시스
Priority to KR1020170045261A priority Critical patent/KR101764106B1/en
Publication of KR20170043104A publication Critical patent/KR20170043104A/en
Application granted granted Critical
Publication of KR101764106B1 publication Critical patent/KR101764106B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/08Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors
    • B60R1/081Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors avoiding blind spots, e.g. by using a side-by-side association of mirrors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N5/225
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/202Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/92Driver displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Transportation (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

The present invention provides an around view monitoring (AVM) system and a method for composing an image on a blind spot. The AVM system comprises an image input part, an AVM image generation part, a virtual image generation part and an image composing part. The image input part stores each image signal, which is input by a plurality of cameras positioned in a vehicle in real time, as image data on each camera into a storage part. The AVM image generation part generates an AVM image data including a black masking area by using the image data on each camera. The virtual image generation part recognizes the drive speed and movement direction of a vehicle and generates a virtual image data configured to have pixel information added up by applying a predetermined weighted value to pixel information on at least one reference pixel where a plurality of target pixels corresponding to the black masking area are included in a plurality of reference areas, respectively. The image composing part substitutes the black masking area included in the AVM image data for the virtual image data to be output through a display part.

Description

AVM 시스템 및 사각지대 영상 합성 방법{AVM system and method for compositing image with blind spot}[0001] The present invention relates to an AVM system and a blind spot image synthesis method,

본 발명은 AVM 시스템 및 사각지대 영상 합성 방법에 관한 것이다. The present invention relates to an AVM system and a blind zone image synthesis method.

일반적으로, 차량 내부에 탑승한 운전자의 시계(視界)는 주로 전방을 향하게 되고, 운전자의 좌우측과 후방 시계는 차체에 의하여 상당 부분 가려져 매우 한정된 시계를 가진다. Generally, the driver's vision (view) on the inside of the vehicle is directed mainly toward the front, and the left and right and rear views of the driver are largely obscured by the vehicle body and have a very limited clock.

이러한 문제를 해결하기 위하여, 사이드 미러 등의 시계 보조수단이 차량에 구비되어 사용되고 있으며, 최근에는 차량의 외부 영상을 촬영하여 운전자에게 제공하는 카메라 수단을 포함하는 기술들이 차량에 적용되고 있다.In order to solve such a problem, a clock assistant means such as a side mirror or the like is provided in a vehicle, and in recent years, techniques including camera means for photographing an external image of the vehicle and providing it to the driver have been applied to vehicles.

최근에는 차량 주위에 복수의 카메라를 설치하여 차량 주변의 360˚ 전방향의 영상을 보여주는 어라운드 뷰 모니터링(AVM, Around View Monitoring)(이하, AVM이라 칭함) 시스템도 적용되고 있다. AVM 시스템은 차량 주변을 촬영하는 복수의 카메라를 통하여 촬상된 차량 주변의 영상을 조합하여 운전자가 하늘에서 차량을 바라보는 듯한 탑 뷰(Top View) 이미지(즉, AVM 영상)를 제공함으로써, 운전자가 차량 주변 장애물이 화면상에 확인할 수 있도록 한다.In recent years, Around View Monitoring (AVM) system, in which a plurality of cameras are installed around a vehicle and displays 360 ° omni-directional images around the vehicle, is also applied. The AVM system combines the images of the surroundings of the vehicle captured through a plurality of cameras that photograph the surroundings of the vehicle to provide a top view image (i.e., AVM image) in which the driver looks at the vehicle in the sky, Allows obstacles around the vehicle to be visible on the screen.

도 1에 도시된 바와 같이, 차량(100)의 주변에 대한 AVM 영상(110)에는 자동차의 구조, 카메라의 화각, 설치 위치나 자세에 따라 물리적으로 시야가 가려져 보여지지 않는 부분인 사각지대(120)가 존재하고, 사각지대(120)는 표시될 정보가 없어 검은색으로 마스킹 처리되어 디스플레이부에 표시된다.1, the AVM image 110 of the surroundings of the vehicle 100 has a blind spot 120 (see FIG. 1) which is a part that is physically out of sight due to the structure of the vehicle, the angle of view of the camera, , And the blind spot 120 has no information to be displayed and is masked black and displayed on the display unit.

그러나 검은색으로 마스킹 처리되어 표시되는 사각지대(120)의 존재는 표시된 AVM 영상을 부자연스럽게 느끼게 하는 원인이 된다. However, the presence of the blind spot 120, which is masked and displayed in black, causes the displayed AVM image to feel unnatural.

한국특허공개 제2013-0124762(어라운드뷰 모니터 시스템 및 모니터링 방법)Korean Patent Laid-Open Publication No. 2013-0124762 (surrounding view monitor system and monitoring method)

본 발명은 자동차의 구조, 카메라의 화각, 설치 위치나 자세에 의해 발생되는 사각지대를 검은색으로 마스킹 처리하지 않고, 차량의 주행 속도 및 진행 방향을 고려하여 생성한 가상 이미지로 합성 처리함으로써 운전자에게 보다 자연스러운 AVM 영상을 제공할 수 있는 AVM 시스템 및 사각지대 영상 합성 방법을 제공하기 위한 것이다.The present invention is not limited to masking a blind spot generated by the structure of an automobile, the angle of view of a camera, an installation position or an attitude of a camera, and synthesizing the blurry image into a virtual image generated in consideration of a traveling speed and a traveling direction of the vehicle, And an AVM system and a blind zone image synthesis method capable of providing a more natural AVM image.

본 발명의 이외의 목적들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Other objects of the present invention will become readily apparent from the following description.

본 발명의 일 측면에 따르면, AVM(Around View Monitoring) 시스템에 있어서, 차량에 구비된 복수의 카메라로부터 실시간 각각 입력되는 영상 신호를 각각의 카메라 영상 데이터로 저장부에 저장하는 영상 입력부; 각각의 카메라 영상 데이터를 이용하여 검은색 마스킹 영역이 포함된 AVM 영상 데이터를 생성하는 AVM 영상 생성부; 상기 차량의 주행 속도 및 움직임 방향을 인식하고, 상기 검은색 마스킹 영역에 상응하는 복수의 대상 픽셀 각각이 복수의 참조 영역들 각각에 포함된 하나 이상의 참조 픽셀의 픽셀 정보에 미리 지정된 가중치값을 적용하여 합산된 픽셀 정보를 가지도록 구성된 가상 이미지 데이터를 생성하는 가상 이미지 생성부; 및 상기 AVM 영상 데이터에 포함된 상기 검은색 마스킹 영역을 상기 가상 이미지 데이터로 대체시켜 디스플레이부를 통해 출력하는 영상 합성부를 포함하는 AVM 시스템이 제공된다.According to an aspect of the present invention, there is provided an AVM (Around View Monitoring) system, comprising: an image input unit for storing, in respective camera image data, image signals input in real time from a plurality of cameras provided in a vehicle; An AVM image generating unit for generating AVM image data including a black masking area using each camera image data; Recognizing a running speed and a moving direction of the vehicle and applying a predetermined weight value to pixel information of one or more reference pixels included in each of a plurality of reference areas of each of a plurality of target pixels corresponding to the black masking area A virtual image generation unit for generating virtual image data configured to have summed pixel information; And an image synthesizer for replacing the black masking area included in the AVM image data with the virtual image data and outputting the virtual image data through a display unit.

상기 가상 이미지 생성부는 상기 차량의 스티어링 휠 회전 각도를 센싱하거나 조향각을 센싱하는 센서로부터 움직임 방향에 관한 정보를 제공받거나, 상기 AVM 영상 생성부에 의해 생성된 AVM 영상 데이터에서 추출된 모션 벡터를 이용하여 움직임 방향을 인식할 수 있다.The virtual image generation unit may receive information on the direction of movement from a sensor that senses a steering wheel rotation angle of the vehicle or senses a steering angle or uses a motion vector extracted from the AVM image data generated by the AVM image generation unit The motion direction can be recognized.

상기 가상 이미지 생성부는 AVM 영상 데이터에서 대상 픽셀의 주변 영역을 복수의 영역들로 구획한 복수의 참조 영역들로 구분하고, 미리 저장된 기준 정보를 이용하여 상기 차량의 움직임 방향에 상응하는 각 참조 영역들의 가중치값을 지정할 수 있다.The virtual image generator divides the AVM image data into a plurality of reference areas that divide a peripheral area of a target pixel into a plurality of areas, and generates a plurality of reference areas corresponding to the moving directions of the vehicle, You can specify a weight value.

상기 차량의 움직임 방향에 부합되도록 위치된 참조 영역에 다른 참조 영역들에 비해 상대적으로 큰 가중치값이 지정될 수 있다.A relatively large weight value can be designated in the reference area positioned to match the direction of movement of the vehicle relative to other reference areas.

상기 가상 이미지 생성부는 상기 대상 픽셀의 픽셀 정보를 산출하기 위해 각 참조 영역에서 이용할 참조 픽셀의 수를 수학식 D=(SxP)/F를 이용하여 결정하되, 상기 D는 참조 픽셀의 범위값이고, S는 상기 차량의 초당 주행 거리이며, P는 카메라 영상 데이터의 1픽셀이 AVM 영상에서 표시되는 크기이고, F는 프레임레이트(frame rate)일 수 있다.Wherein the virtual image generation unit determines the number of reference pixels to be used in each reference area to calculate pixel information of the target pixel using a formula D = (SxP) / F, where D is a range value of a reference pixel, S is the traveling distance per second of the vehicle, P is the size at which one pixel of the camera image data is displayed in the AVM image, and F is the frame rate.

복수의 대상 픽셀 각각은 상기 검은색 마스킹 영역의 좌표 범위 내에서 각각 비일치하는 위치 정보를 가지고, 상기 위치 정보에 상응하여 다른 대상 픽셀과 비일치하는 참조 영역들을 가질 수 있다.Each of the plurality of target pixels may have position information that does not coincide with each other within the coordinate range of the black masking area and may have reference areas that do not coincide with other target pixels corresponding to the position information.

본 발명의 다른 측면에 따르면, AVM 시스템에서 수행되는 사각지대 영상 합성 방법에 있어서, (a) 차량에 구비된 복수의 카메라로부터 실시간 각각 입력되는 영상 신호를 각각의 카메라 영상 데이터로 저장부에 저장하는 단계; (b) 각각의 카메라 영상 데이터를 이용하여 사각지대를 표시하는 검은색 마스킹 영역이 포함된 AVM 영상 데이터를 생성하는 단계; (c) 상기 차량의 주행 속도 및 움직임 방향을 인식하고, 상기 검은색 마스킹 영역에 상응하는 복수의 대상 픽셀 각각이 복수의 참조 영역들 각각에 포함된 하나 이상의 참조 픽셀의 픽셀 정보에 미리 지정된 가중치값을 적용하여 합산된 픽셀 정보를 가지도록 구성된 가상 이미지 데이터를 생성하는 단계; 및 (d) 상기 AVM 영상 데이터에 포함된 상기 검은색 마스킹 영역을 상기 가상 이미지 데이터로 대체시켜 디스플레이부를 통해 출력하는 단계를 포함하는 사각지대 영상 합성 방법이 제공될 수 있다.According to another aspect of the present invention, there is provided a blind zone image synthesis method performed in an AVM system, the method comprising: (a) storing image signals input in real time from a plurality of cameras provided in a vehicle, step; (b) generating AVM image data including a black masking area displaying a blind spot using each camera image data; (c) recognizing a running speed and a moving direction of the vehicle, and each of a plurality of target pixels corresponding to the black masking area is assigned a weight value previously assigned to pixel information of one or more reference pixels included in each of the plurality of reference areas Generating virtual image data configured to have the summed pixel information by applying the virtual image data; And (d) replacing the black masking area included in the AVM image data with the virtual image data and outputting the virtual masking data through a display unit.

상기 움직임 방향은, 상기 차량의 스티어링 휠 회전 각도를 센싱하거나 조향각을 센싱하는 센서로부터 움직임 방향에 관한 정보를 제공받거나, 상기 단계 (b)에서 생성된 AVM 영상 데이터에서 추출된 모션 벡터를 이용하여 인식될 수 있다.The movement direction may be detected by sensing a rotation angle of the steering wheel of the vehicle or receiving information on a direction of movement from a sensor that senses a steering angle or by using a motion vector extracted from the AVM image data generated in step (b) .

상기 단계 (c)에서 참조 픽셀을 포함하는 각각의 참조 영역에 지정되는 가중치값은, AVM 영상 데이터에서 대상 픽셀의 주변 영역을 복수의 영역들로 구획한 복수의 참조 영역들로 구분한 후, 미리 저장된 기준 정보를 이용하여 상기 차량의 움직임 방향에 상응하도록 지정될 수 있다.In the step (c), a weight value assigned to each reference area including reference pixels is divided into a plurality of reference areas that divide the peripheral area of the target pixel into a plurality of areas in the AVM image data, And may be designated to correspond to the direction of movement of the vehicle using stored reference information.

상기 차량의 움직임 방향에 부합되도록 위치된 참조 영역에 다른 참조 영역들에 비해 상대적으로 큰 가중치값이 지정될 수 있다.A relatively large weight value can be designated in the reference area positioned to match the direction of movement of the vehicle relative to other reference areas.

상기 단계 (c)에서, 상기 대상 픽셀의 픽셀 정보를 산출하기 위해 각 참조 영역에서 이용할 참조 픽셀의 수를 수학식 D=(SxP)/F를 이용하여 결정하되, 상기 D는 참조 픽셀의 범위값이고, S는 상기 차량의 초당 주행 거리이며, P는 카메라 영상 데이터의 1픽셀이 AVM 영상에서 표시되는 크기이고, F는 프레임레이트(frame rate)일 수 있다.In step (c), the number of reference pixels to be used in each reference area to calculate pixel information of the target pixel is determined using the equation D = (SxP) / F, where D is a range value S is the traveling distance per second of the vehicle, P is the size at which one pixel of the camera image data is displayed in the AVM image, and F is the frame rate.

복수의 대상 픽셀 각각은 상기 검은색 마스킹 영역의 좌표 범위 내에서 각각 비일치하는 위치 정보를 가지고, 상기 위치 정보에 상응하여 다른 대상 픽셀과 비일치하는 참조 영역들을 가질 수 있다.Each of the plurality of target pixels may have position information that does not coincide with each other within the coordinate range of the black masking area and may have reference areas that do not coincide with other target pixels corresponding to the position information.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예에 따르면, 자동차의 구조, 카메라의 화각, 설치 위치나 자세에 의해 발생되는 사각지대를 검은색으로 마스킹 처리하지 않고, 차량의 주행 속도 및 진행 방향을 고려하여 생성한 가상 이미지로 합성 처리함으로써 운전자에게 보다 자연스러운 AVM 영상을 제공할 수 있는 효과가 있다.According to the embodiment of the present invention, a blind spot generated by a structure of an automobile, an angle of view of a camera, an installation position or an attitude is not masked with black, and a virtual image generated in consideration of a traveling speed and a traveling direction of the vehicle Thereby providing a more natural AVM image to the driver.

도 1은 일반적인 AVM(Around View Monitoring) 영상을 나타낸 도면.
도 2는 본 발명의 일 실시예에 따른 AVM 시스템을 구성을 개략적으로 나타낸 도면.
도 3은 본 발명의 일 실시예에 따른 가상 이미지 생성 기법을 설명하기 위한 도면.
도 4는 본 발명의 일 실시예에 따른 사각지대 영상 합성 방법을 나타낸 순서도.
1 is a view showing a general AVM (Around View Monitoring) image.
2 is a block diagram schematically illustrating a configuration of an AVM system according to an embodiment of the present invention.
3 is a diagram for explaining a virtual image generation technique according to an embodiment of the present invention;
4 is a flowchart illustrating a blind zone image synthesis method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 후술될 제1 임계값, 제2 임계값 등의 용어는 실질적으로는 각각 상이하거나 일부는 동일한 값인 임계값들로 미리 지정될 수 있으나, 임계값이라는 동일한 단어로 표현될 때 혼동의 여지가 있으므로 구분의 편의상 제1, 제2 등의 용어를 병기하기로 한다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, terms such as a first threshold value, a second threshold value, and the like which will be described later may be previously designated with threshold values that are substantially different from each other or some of which are the same value, Because there is room, the terms such as the first and the second are to be mentioned for convenience of classification.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

또한, 각 도면을 참조하여 설명하는 실시예의 구성 요소가 해당 실시예에만 제한적으로 적용되는 것은 아니며, 본 발명의 기술적 사상이 유지되는 범위 내에서 다른 실시예에 포함되도록 구현될 수 있으며, 또한 별도의 설명이 생략될지라도 복수의 실시예가 통합된 하나의 실시예로 다시 구현될 수도 있음은 당연하다.It is to be understood that the components of the embodiments described with reference to the drawings are not limited to the embodiments and may be embodied in other embodiments without departing from the spirit of the invention. It is to be understood that although the description is omitted, multiple embodiments may be implemented again in one integrated embodiment.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

도 2는 본 발명의 일 실시예에 따른 AVM 시스템을 구성을 개략적으로 나타낸 도면이고, 도 3은 본 발명의 일 실시예에 따른 가상 이미지 생성 기법을 설명하기 위한 도면이다.FIG. 2 is a block diagram of an AVM system according to an embodiment of the present invention, and FIG. 3 is a diagram for explaining a virtual image generation technique according to an embodiment of the present invention.

도 2를 참조하면, AVM 시스템은 영상 입력부(210), AVM 영상 생성부(220), 가상 이미지 생성부(230), 영상 합성부(240), 디스플레이부(250) 및 저장부(260)을 포함할 수 있다. 도시되지는 않았으나, AVM 시스템에 포함된 하나 이상의 구성 요소의 동작을 제어하기 위한 제어부가 더 포함될 수도 있다. 2, the AVM system includes an image input unit 210, an AVM image generation unit 220, a virtual image generation unit 230, an image synthesis unit 240, a display unit 250, and a storage unit 260 . Although not shown, a controller for controlling the operation of one or more components included in the AVM system may further be included.

영상 입력부(210)는 차량(100)의 복수 개소(예를 들어, 전방, 후방, 좌측 및 우측을 각각 촬영하도록 지정된 위치)에 각각 설치된 카메라로부터 촬상되어 입력되는 각 카메라 영상 신호를 각각의 카메라 영상 데이터로 생성하여 저장부(260)에 저장한다. 여기서, 카메라(110)는 적은 수량으로 차량 주변 환경을 촬상할 수 있도록 하기 위해, 예를 들어 180도 이상의 화각을 가지는 광각 카메라로 구현될 수 있다.The image input unit 210 inputs each camera image signal picked up and input from a camera provided in each of a plurality of places (for example, positions designated to photograph the front, rear, left, and right sides of the vehicle 100) And stores the generated data in the storage unit 260. Here, the camera 110 may be implemented as a wide-angle camera having an angle of view of, for example, 180 degrees or more, in order to capture an environment around the vehicle with a small quantity.

AVM 영상 생성부(220)는 저장부(260)에 실시간 저장된 카메라 영상 데이터들을 이용하여 차량(100)의 주변 환경을 차량(100)의 위쪽에서 내려다보는 듯한 탑뷰(Top View) 이미지인 AVM 영상 데이터로 합성한다. AVM 영상 생성부(220)가 예를 들어 차량의 전후방, 좌우측면에 각각 설치된 카메라들에 의해 지면에 수평 방향으로 촬영된 영상을 지면에 수직 방향인 형태의 영상으로 변환하고, 이를 이용하여 AVM 영상 데이터를 생성하는 과정은 본 발명의 기술적 사상과는 거리가 있고, 또한 당업자에게 자명한 사항이므로 이에 대한 설명은 생략한다.The AVM image generation unit 220 generates AVM image data (a top view image) that looks as if the surrounding environment of the vehicle 100 is viewed from above the vehicle 100, using camera image data stored in real time in the storage unit 260. [ . The AVM image generation unit 220 converts the images captured in the horizontal direction on the ground by the cameras installed on the front and rear sides of the vehicle and the left and right sides of the vehicle into an image of a shape perpendicular to the paper surface, The process of generating the data is different from the technical idea of the present invention and is obvious to those skilled in the art, so that the description thereof will be omitted.

AVM 영상 생성부(220)에 의해 생성된 합성된 AVM 영상 데이터에는 예를 들어 차량(100)의 형상, 카메라의 화각, 설치 위치나 자세 등에 따라 물리적으로 시야가 가려져 보여지지 않는 부분인 사각지대(120)가 포함된다. AVM 영상 생성부(220)는 AVM 영상 데이터에 포함된 사각지대(120) 영역은 해당 영역에 표시될 영상 데이터가 없어 예를 들어 검은색으로 마스킹 처리할 수 있다. The synthesized AVM image data generated by the AVM image generation unit 220 may include a blind spot (e.g., a blind spot) that is physically out of sight due to the shape of the vehicle 100, the angle of view of the camera, 120). The AVM image generating unit 220 may mask the blind spot 120 included in the AVM image data to black, for example, since there is no image data to be displayed in the corresponding area.

여기서, AVM 영상 데이터에 포함되는 사각지대(120)에 해당되는 합성 대상 영역의 픽셀 위치 범위 정보는 저장부(260)에 저장될 것이고, 해당 합성 대상 영역은 후술되는 바에 의한 가상 이미지가 생성되어야 하는 영역에 해당됨은 당연하다.Herein, the pixel position range information of the compositing object area corresponding to the blind spot 120 included in the AVM image data will be stored in the storage unit 260, and the compositing object area should be a virtual image It is natural that it corresponds to the area.

가상 이미지 생성부(230)는 차량의 주행 속도 및 움직임 방향을 인식하고 미리 지정된 기준에 따라 합성 대상 영역(도 3의 (b)의 120 참조)의 주변에 위치된 복수의 참조 영역들(도 3의 (a)의 A, B, C 및 D와 도 3의 (b)의 A1, A2, A3 참조) 각각에 포함된 참조 픽셀(예를 들어 도 3의 (c)의 a1, a2 및 a3)의 픽셀 정보(예를 들어 RGB, YUV 등인 색상값)에 가중치값을 적용하여 합산한 픽셀 정보를 가지는 대상 픽셀(예를 들어, 도 3의 (c)의 DEST 참조)들로 구성된 가상 이미지를 생성하여 저장부(260)에 저장한다. The virtual image generating unit 230 recognizes the traveling speed and the moving direction of the vehicle and generates a plurality of reference areas (refer to FIG. 3B) located around the synthesis subject area (see 120 in FIG. 3B) (For example, a1, a2 and a3 in Fig. 3 (c)) included in each of the pixels A, B, C and D of Fig. 3A and A1, A2 and A3 of Fig. (For example, see DEST in FIG. 3 (c)) having pixel information obtained by applying a weight value to pixel information (e.g., RGB, YUV, etc.) And stores it in the storage unit 260.

참고로, 도 3의 (b)의 차량(100)의 전방 좌측 영역(즉, 도 3의 (a)의 A')를 확대한 것으로서, 이 경우의 참조 영역들은 도 3의 (a)에 도시된 참조 영역 A의 일부 영역일 수 있다. 또한 도 3에는 각각 수직으로 구획된 4개의 외측 구획 영역, 즉 참조 영역들이 예시되었으나, 참조 영역인 외측 구획 영역의 형상이나 수량이 필요에 따라 다양하게 결정될 수 있음은 당연하다.3 (a) in Fig. 3 (a)) of the vehicle 100 shown in Fig. 3 (b) The reference area A may be a part of the reference area A. In addition, although FIG. 3 illustrates four outer dividing regions, that is, reference regions vertically partitioned, it is natural that the shapes and the quantity of the outer dividing regions, which are reference regions, can be variously determined as needed.

이하, 도 3을 참조하여 가상 이미지 생성부(230)가 차량의 주행속도나 움직임 방향에 상응하여 참조 픽셀의 수나 범위에 대한 기준을 설정하고, 가상 이미지를 생성하는 방법에 대해 간략히 설명한다.Hereinafter, with reference to FIG. 3, a method of setting a reference for the number or range of reference pixels corresponding to the traveling speed or the moving direction of a vehicle and generating a virtual image will be briefly described.

우선 대상 픽셀의 픽셀 정보를 합성하기 위한 참조 픽셀은 예를 들어 하기 수학식 1에 의해 결정될 수 있다.First, a reference pixel for synthesizing pixel information of a target pixel can be determined by, for example, the following equation (1).

[수학식 1][Equation 1]

D=(SxP)/F [m]D = (SxP) / F [m]

여기서, D는 참조 픽셀의 범위값이고, S는 차량의 초당 주행 거리이며, P는 1픽셀의 표시 크기이고, F는 프레임레이트(frame rate)이다. Where D is the range value of the reference pixel, S is the vehicle's per-second travel distance, P is the display size of one pixel, and F is the frame rate.

예를 들어 차량의 주행 속도가 5km/h라고 가정하면, 차량의 초당 주행 거리(S)는 1.38m로 산출되고, 프레임레이트는 카메라의 통상적인 프레임레이트인 30으로 산출될 수 있으며, 1픽셀의 표시 크기(P)는 카메라 영상 데이터의 1픽셀이 AVM 영상(110)에서 어느 정도의 크기로 표시되는지에 대한 것으로 만일 1 픽셀이 2cm의 크기로 표시된다고 가정하면, D=(1.38x2)/2=0.023m=2.3cm로 산출된다. 이와 같이, 참조 픽셀의 범위값(D)은 약 2cm로 산출되었고, 이는 앞서의 예와 같이 실제의 1픽셀에 대응되는 것이므로 참조 픽셀의 범위값(D)는 1픽셀로 지정할 수 있다. For example, assuming that the running speed of the vehicle is 5 km / h, the running distance S per second of the vehicle is calculated as 1.38 m, and the frame rate can be calculated as 30, which is the normal frame rate of the camera, The display size P is about how much one pixel of the camera image data is displayed in the AVM image 110. If one pixel is displayed with a size of 2 cm, D = (1.38x2) / 2 = 0.023 m = 2.3 cm. In this way, the range value D of the reference pixel is calculated to be about 2 cm, which corresponds to one actual pixel as in the previous example, so that the range value D of the reference pixel can be designated by one pixel.

이와 같이, 대상 픽셀의 픽셀 정보를 합성하기 위한 참조 픽셀의 범위는 차량(100)의 주행 속도에 의해 결정될 수 있다.As described above, the range of the reference pixel for synthesizing the pixel information of the target pixel can be determined by the running speed of the vehicle 100. [

또한, 지정된 참조 픽셀의 범위값에 의해 지정된 각 참조 영역 내의 각 참조 픽셀들은 후술되는 바와 같이, 대상 픽셀의 픽셀 정보를 생성하기 위해 차량의 움직임 방향에 따라 상이한 가중치가 적용된다. Further, each reference pixel in each reference area specified by the range value of the designated reference pixel is subjected to different weights depending on the direction of movement of the vehicle to generate pixel information of the target pixel, as described later.

이하, 차량(100)의 움직임 방향에 따라 각 방향별 참조 영역에 대한 가중치 결정 방법을 설명한다.Hereinafter, a method of determining a weight for a reference region in each direction according to the movement direction of the vehicle 100 will be described.

차량의 움직임 방향은 차량의 스티어링 휠(steering wheel) 회전 각도를 센싱하거나 차량에 구비된 조향각 센서로부터 제공되는 조향각 정보를 이용하거나, AVM 영상 생성부(220)에 의해 생성되어 저장부(260)에 저장된 AVM 영상 데이터에서 추출된 모션 벡터를 이용하여 결정될 수 있다. The moving direction of the vehicle can be detected by sensing the steering angle of the steering wheel of the vehicle or using the steering angle information provided from the steering angle sensor provided in the vehicle or by generating the AVM image by the AVM image generating unit 220, Can be determined using the motion vector extracted from the stored AVM image data.

예를 들어, 차량(100)의 움직임 방향을 결정하는 차량(100)의 조항각이 정면 직진 주행하는 0도인 상황인 경우, 좌우 최대 조향각으로 회전된 경우 등에 대해 각 참조 영역에 대해 적용할 가중치값이 미리 지정되어 저장부(260)에 저장될 수 있고, 가중치값 변동은 예를 들어 조항각 각도가 1도씩 변경될 때마다 변동되도록 지정할 수 있다. For example, when the article angle of the vehicle 100 that determines the direction of movement of the vehicle 100 is a 0 ° state in which the vehicle runs straight ahead, when the vehicle 100 is rotated at the maximum left or right steering angle, May be previously designated and stored in the storage unit 260, and the weight value fluctuation can be specified to be varied, for example, every time the angle of the clause is changed by 1 degree.

이 경우, 차량(100)의 움직임 방향(즉, 조향각)에 부합되도록 위치하는 참조 영역에 상대적으로 큰 가중치값이 적용되도록 미리 지정되고, 차량의 움직임 방향에 상대적으로 관련성이 적은 방향에 위치한 참조 영역에는 상대적으로 작은 가중치값이 적용되도록 미리 지정될 수 있다. In this case, a relatively large weight value is previously designated so as to be applied to the reference region positioned to coincide with the movement direction (that is, the steering angle) of the vehicle 100, A relatively small weight value may be applied in advance.

그러나 만일 차량이 정차 중인 경우이거나, 시동을 온(On)한 후 아직 진행하지 않은 상황이라면 참조 영역들에 대해 균등한 가중치값이 적용되도록 미리 지정될 수 있을 것이다. However, if the vehicle is stationary, or if it has not yet been started after the start-up has been turned on, then an equal weight value may be pre-specified for the reference areas.

도 3의 (b)를 참조할 때, 예를 들어 차량(100)이 완만한 각도의 좌회전을 위해 45도의 조향각(즉, A2 영역을 가로지르는 대각선 방향)으로 주행하는 경우에는 A2 영역의 참조 픽셀에 상대적으로 큰 가중치값(예를 들어 60%)를 할당하고, 다른 A1과 A3 영역에는 상대적으로 작은 가중치값(예를 들어 각각 20%)을 할당할 수 있을 것이다. 마찬가지로, 차량(100)이 A1 방향의 직진하는 경우라면 상대적으로 A1 영역의 참조 픽셀에 상대적으로 큰 가중치값이 할당될 것이고, 90도 조향각인 최대 각도로 좌회전하는 경우라면 A3 영역에 상대적으로 큰 가중치값이 할당될 것이다. 3 (b), when the vehicle 100 travels at a steering angle of 45 degrees (that is, in a diagonal direction across the area A2) for a left turn at a gentle angle, (E.g., 60%), and assign a relatively small weight value (e.g., 20% each) to the other areas A1 and A3. Likewise, if the vehicle 100 goes straight ahead in the A1 direction, a relatively large weight value will be assigned to the reference pixels of the A1 region, and if the vehicle 100 is turned left at the maximum angle of 90 degrees steering angle, Value will be assigned.

즉, 차량(100)의 움직임 방향을 지정하는 조향각에 부합되도록 대상 픽셀의 픽셀 정보를 합성하기 위한 각 방향별 참조 픽셀에 할당할 가중치값은 미리 지정될 수 있다. 이때, 각 참조 픽셀에 할당될 가중치값의 최대값과 최소값도 미리 지정될 수 있을 것이다. That is, the weight value to be assigned to each reference pixel for synthesizing the pixel information of the target pixel so as to match the steering angle specifying the movement direction of the vehicle 100 may be specified in advance. At this time, the maximum value and the minimum value of the weight value to be assigned to each reference pixel may be specified in advance.

도 3의 (b)와 (c)를 참조할 때, 대상 픽셀(DEST)의 픽셀 정보(예를 들어 색상값)를 합성하기 위해서는 차량(100)의 외측 3방향의 참조 영역(예를 들어, 전방인 A1 영역, 외측 대각선 방향인 A2 영역 및 좌측인 A3 영역)들에 위치한 픽셀들이 참조 픽셀로 고려될 수 있다. 여기서, 참조 영역인 외측 구획 영역은 픽셀 정보가 합성되어야 하는 대상 픽셀을 기준으로 실시간 결정된다. Referring to FIGS. 3B and 3C, in order to synthesize the pixel information (for example, a color value) of the target pixel DEST, a reference area in three outer sides of the vehicle 100 (for example, Pixels located in the front A1 region, the outer diagonal direction A2 region, and the left A3 region) can be considered as reference pixels. Here, the outer dividing region, which is a reference region, is determined in real time based on the target pixel to which the pixel information is to be combined.

이때, 전술한 예와 같이 참조 픽셀의 범위값(D)을 1픽셀로 지정한다면 대상 픽셀(DEST)의 픽셀 정보(예를 들어 색상값)를 합성하기 위한 참조 픽셀은 대상 픽셀에 인접한 상측(즉, 전방)의 1개 픽셀, 좌측의 1개 픽셀 및 좌상측의 1개 픽셀인 a1, a2 및 a3로 지정된다. At this time, if the range value D of the reference pixel is set to 1 pixel as in the above example, the reference pixel for synthesizing the pixel information (for example, the color value) of the target pixel DEST is the upper side , Forward), one pixel on the left, and one pixel on the upper left, a1, a2, and a3.

이때, 만일 차량의 움직임 방향을 고려하여 각 참조 영역들에 대한 가중치가 상측(A1 영역) 50%, 좌측(A3 영역) 30% 및 좌상측(A2 영역) 20%라 산출되었고, 각 참조 픽셀들의 색상값이 a1은 80, a2는 10 및 a3는 10이라면 대상 픽셀(DEST)의 픽셀 정보인 색상값은 80x0.5+10x0.3+10x0.2 = 45로 산출되어 적용될 수 있을 것이다. In this case, the weights for the respective reference areas are calculated to be 50% for the upper side (A1 area), 30% for the left side (A3 area) and 20% for the upper left side (A2 area) If the color value a1 is 80, a2 is 10, and a3 is 10, the color value which is the pixel information of the target pixel DEST can be calculated and applied as 80x0.5 + 10x0.3 + 10x0.2 = 45.

대상 픽셀(DEST)의 우측에 위치하는 다른 대상 픽셀(NEW)의 색상값 산출을 위해서는 해당 대상 픽셀의 상측 픽셀, 좌측에 위치한 DEST 픽셀 및 좌상측 a1 픽셀이 참조 픽셀로 고려될 것이다. 즉, 복수의 대상 픽셀 각각은 합성 대상 영역(즉, 검은색 마스킹 영역)에 해당되는 좌표 범위 내에서 각각 비일치하는 위치 정보를 가지고 있기 때문에, 각 대상 픽셀의 위치 정보에 의해 결정되는 참조 영역들이 각각 상이할 수 있을 것이다.In order to calculate the color value of another target pixel NEW positioned on the right side of the target pixel DEST, the upper pixel, the left DEST pixel and the upper left a1 pixel of the target pixel will be considered as reference pixels. That is, since each of the plurality of target pixels has position information that does not coincide with each other within the coordinate range corresponding to the synthesis target area (i.e., the black masking area), the reference areas determined by the position information of each target pixel Each of which may be different.

전술한 과정들을 반복하여 사각지대(120)에 해당되는 합성 대상 영역의 좌표 범위 정보 내의 각 대상 픽셀들의 픽셀 정보가 생성될 수 있을 것이며, 이들을 이용하여 가상 이미지 생성부(230)는 합성 대상 영역에 대응되는 가상 이미지가 생성될 수 있다.By repeating the above-described processes, the pixel information of each target pixel in the coordinate range information of the compositing target area corresponding to the blind spot 120 can be generated. Using these, the virtual image generating unit 230 generates A corresponding virtual image can be created.

전술한 바와 같이, 차량(100)의 움직임 방향은 조향각 이외에도 AVM 영상 데이터에서 분석된 모션 벡터를 이용하여 결정될 수도 있다. As described above, the direction of movement of the vehicle 100 may be determined using the motion vector analyzed in the AVM image data in addition to the steering angle.

즉, 가상 이미지 생성부(230)는 시간적으로 순차 생성된 AVM 영상 각각을 영역별 분할하여 미리 지정된 수량 이상의 특징점(예를 들어 코너 점)이 분포된 분할 영역을 대상으로 예를 들어 옵티컬 플로우(optical flow) 알고리즘 등을 이용하여 AVM 영상에서의 모션 벡터(motion vector)를 산출할 수 있고, 산출된 모션 벡터를 이용하여 차량(100)의 움직임 방향을 인식할 수 있다. That is, the virtual image generator 230 divides each of the AVM images sequentially generated in time into regions, and divides the divided regions having a predetermined number or more of feature points (e.g., corner points) a motion vector in the AVM image can be calculated using the motion vector, and the motion direction of the vehicle 100 can be recognized using the calculated motion vector.

차량(100)의 움직임 방향은 예를 들어 AVM 영상 전체에 대해 산출된 모션 벡터를 이용하거나, 각 참조 영역들에 대해 개별 산출된 모션 벡터의 평균값을 이용하거나, 현재 픽셀 정보가 합성될 대상 픽셀을 기준하여 고려되어야 하는 참조 영역에 대해 산출된 모션 벡터를 이용하는 등의 방법으로 인식될 수 있다. The motion direction of the vehicle 100 may be determined by using a motion vector calculated for the entire AVM image, using an average value of motion vectors calculated for the respective reference areas, Or using a motion vector calculated for a reference area that should be considered on the basis of the motion vector.

모션 벡터를 이용하여 차량(100)의 움직임 방향이 결정되었다면, 각 참조 영역들에 대한 가중치값을 결정하고, 이를 이용하여 대상 픽셀의 픽셀 정보를 산출하는 과정은 앞서 조향각을 이용하여 대상 픽셀의 픽셀 정보를 산출하는 과정과 동일하게 수행될 수 있다. If the motion direction of the vehicle 100 is determined using the motion vector, the process of calculating the weight value for each reference area and calculating the pixel information of the target pixel using the motion vector is performed by using the steering angle Can be performed in the same manner as the process of calculating the information.

다시 도 2를 참조하면, 영상 합성부(240)는 AVM 영상 생성부(220)에 의해 생성되어 저장부(260)에 저장된 AVM 영상 데이터와, 가상 이미지 생성부(230)에 의해 생성되어 저장부(260)에 저장된 가상 이미지 데이터를 합성하여 검은색 마스킹 영역(즉, 사각지대(120))이 제거된 AVM 영상 데이터를 생성한다. Referring to FIG. 2 again, the image synthesis unit 240 generates AVM image data generated by the AVM image generation unit 220 and stored in the storage unit 260, and AVM image data generated by the virtual image generation unit 230, And synthesizes the virtual image data stored in the memory 260 to generate AVM image data in which the black masking area (i.e., the blind spot 120) is removed.

영상 합성부(240)에 의해 합성된 검은색 마스킹 영역이 제거된 AVM 영상 데이터는 디스플레이부(250)를 통해 출력될 것이다.The AVM image data having the black masking area synthesized by the image synthesizing unit 240 removed will be output through the display unit 250.

저장부(260)에는 예를 들어 AVM 시스템의 운용 프로그램, 영상 입력부(210)에 의해 생성된 카메라 영상 데이터, AVM 영상 생성부(220)에 의해 생성된 AVM 영상 데이터, 가상 이미지 생성부(230)에 의해 이용될 주행 속도별 참조 픽셀 선정 기준 정보와 차량의 움직임 방향 결정/가중치값 지정을 위한 기준 정보, 가상 이미지 생성부(230)에 의해 생성된 가상 이미지 데이터, 영상 합성부(240)에 의해 합성된 검은색 마스킹 영역이 제거된 AVM 영상 데이터 등이 저장될 수 있다.For example, the AVM system operating program, the camera image data generated by the image input unit 210, the AVM image data generated by the AVM image generation unit 220, the virtual image generation unit 230, Reference image selection reference information for each traveling speed to be used by the vehicle, reference information for determining a moving direction of the vehicle, reference information for specifying a weight value, virtual image data generated by the virtual image generating unit 230, AVM image data in which the synthesized black masking area is removed, and the like can be stored.

저장부(260)는 예를 들어 데이터를 영구 저장하는 영구 저장 메모리와 동작시 필요한 데이터를 임시 저장하여 운용하는 임시 저장 메모리로 분리하여 운용될 수 있다. The storage unit 260 can be operated by, for example, a permanent storage memory for permanently storing data and a temporary storage memory for temporarily storing and operating data necessary for operation.

도 4는 본 발명의 일 실시예에 따른 사각지대 영상 합성 방법을 나타낸 순서도이다.4 is a flowchart illustrating a blind zone image synthesis method according to an embodiment of the present invention.

도 4를 참조하면, 단계 410에서 AVM 영상 생성부(220)는 영상 입력부(210)에 의해 생성되어 저장부(260)에 저장된 카메라 영상 데이터들을 이용하여 차량의 주변 환경을 차량의 위쪽에서 내려다보는 듯한 탑뷰(Top View) 이미지인 AVM 영상 데이터로 합성한다. Referring to FIG. 4, in step 410, the AVM image generation unit 220 generates an AVM image using the camera image data generated by the image input unit 210 and stored in the storage unit 260, It is synthesized with AVM image data which is top view image.

단계 420에서 가상 이미지 생성부(230)는 합성 대상 영역에 포함된 각 대상 픽셀에 상응하는 참조 영역 각각에 대한 가중치 값과 대상 픽셀의 픽셀 정보를 합성하기 위한 각 참조 영역에서의 참조 픽셀의 범위를 결정한다.In step 420, the virtual image generation unit 230 generates a virtual image by combining the weight values of the reference areas corresponding to the respective target pixels included in the combining object area with the range of reference pixels in each reference area for synthesizing the pixel information of the target pixel .

단계 430에서 가상 이미지 생성부(230)는 각 대상 픽셀의 픽셀 정보를 합성하기 위해 결정된 각 참조 픽셀의 픽셀 정보에 해당 참조 픽셀이 속한 참조 영역에 대해 결정된 가중치값을 적용하여 해당 대상 픽셀의 픽셀 정보를 산출하고, 각각의 대상 픽셀의 픽셀 정보를 이용하여 합성 대상 영역에 상응하는 가상 이미지를 생성한다.In step 430, the virtual image generation unit 230 applies the weight value determined for the reference area to which the reference pixel belongs to the pixel information of each reference pixel determined to synthesize the pixel information of each target pixel, And generates a virtual image corresponding to the compositing target area by using the pixel information of each target pixel.

단계 440에서 영상 합성부(240)는 AVM 영상 생성부(220)에 의해 생성된 AVM 영상 데이터 내에 포함된 검은색 마스킹 영역을 가상 이미지 생성부(230)에 의해 생성된 가상 이미지로 합성한 후 디스플레이부(250)를 통해 출력한다.In operation 440, the image synthesis unit 240 synthesizes a black masking area included in the AVM image data generated by the AVM image generation unit 220 into a virtual image generated by the virtual image generation unit 230, (250).

상술한 AVM 시스템 및 사각지대 영상 합성 방법은 디지털 처리 장치에 내장되거나 설치된 프로그램 등에 의해 시계열적 순서에 따른 자동화된 절차로 수행될 수도 있음은 당연하다. 상기 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 프로그램은 디지털 처리 장치가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 디지털 처리 장치에 의하여 읽혀지고 실행됨으로써 상기 방법을 구현한다. 상기 정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다.It is a matter of course that the AVM system and the blind zone image synthesis method described above can be performed by an automated procedure according to a time series sequence by a built-in or installed program in the digital processing apparatus. The codes and code segments that make up the program can be easily deduced by a computer programmer in the field. In addition, the program is stored in a computer readable medium readable by the digital processing apparatus, and is read and executed by the digital processing apparatus to implement the method. The information storage medium includes a magnetic recording medium, an optical recording medium, and a carrier wave medium.

상기에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the present invention can be changed.

100 : 차량 110a : AVM 영상
120 : 사각지대 210 : 영상 입력부
220 : AVM 영상 생성부 230 : 가상 이미지 생성부
240 : 영상 합성부 250 : 디스플레이부
260 : 저장부
100: vehicle 110a: AVM video
120: blind spot 210: image input unit
220: AVM image generation unit 230: Virtual image generation unit
240: image synthesizer 250:
260:

Claims (13)

AVM(Around View Monitoring) 시스템에 있어서,
차량에 구비된 복수의 카메라로부터 실시간 각각 입력되는 영상 신호를 각각의 카메라 영상 데이터로 저장부에 저장하는 영상 입력부;
각각의 카메라 영상 데이터를 이용하여 검은색 마스킹 영역이 포함된 AVM 영상 데이터를 생성하는 AVM 영상 생성부;
상기 차량의 주행 속도 및 움직임 방향을 인식하고, 상기 검은색 마스킹 영역에 상응하는 복수의 대상 픽셀 각각이 복수의 참조 영역들 각각에 포함된 하나 이상의 참조 픽셀의 픽셀 정보에 미리 지정된 가중치값을 적용하여 합산된 픽셀 정보를 가지도록 구성된 가상 이미지 데이터를 생성하는 가상 이미지 생성부; 및
상기 AVM 영상 데이터에 포함된 상기 검은색 마스킹 영역을 상기 가상 이미지 데이터로 대체시켜 디스플레이부를 통해 출력하는 영상 합성부를 포함하는 AVM 시스템.
In an AVM (Around View Monitoring) system,
A video input unit for storing video signals inputted respectively in real time from a plurality of cameras provided in a vehicle as respective camera video data in a storage unit;
An AVM image generating unit for generating AVM image data including a black masking area using each camera image data;
Recognizing a running speed and a moving direction of the vehicle and applying a predetermined weight value to pixel information of one or more reference pixels included in each of a plurality of reference areas of each of a plurality of target pixels corresponding to the black masking area A virtual image generation unit for generating virtual image data configured to have summed pixel information; And
And an image synthesizing unit for replacing the black masking area included in the AVM image data with the virtual image data and outputting the virtual masking data through a display unit.
제1항에 있어서,
상기 가상 이미지 생성부는 상기 차량의 스티어링 휠 회전 각도를 센싱하거나 조향각을 센싱하는 센서로부터 움직임 방향에 관한 정보를 제공받거나, 상기 AVM 영상 생성부에 의해 생성된 AVM 영상 데이터에서 추출된 모션 벡터를 이용하여 움직임 방향을 인식하는 것을 특징으로 하는 AVM 시스템.
The method according to claim 1,
The virtual image generation unit may receive information on the direction of movement from a sensor that senses a steering wheel rotation angle of the vehicle or senses a steering angle or uses a motion vector extracted from the AVM image data generated by the AVM image generation unit And recognizes the direction of movement.
제1항에 있어서,
상기 가상 이미지 생성부는 AVM 영상 데이터에서 대상 픽셀의 주변 영역을 복수의 영역들로 구획한 복수의 참조 영역들로 구분하고, 미리 저장된 기준 정보를 이용하여 상기 차량의 움직임 방향에 상응하는 각 참조 영역들의 가중치값을 지정하는 것을 특징으로 하는 AVM 시스템.
The method according to claim 1,
The virtual image generator divides the AVM image data into a plurality of reference areas that divide a peripheral area of a target pixel into a plurality of areas, and generates a plurality of reference areas corresponding to the moving directions of the vehicle, And a weight value.
제3항에 있어서,
상기 차량의 움직임 방향에 부합되도록 위치된 참조 영역에 다른 참조 영역들에 비해 상대적으로 큰 가중치값이 지정되는 것을 특징으로 하는 AVM 시스템.
The method of claim 3,
Wherein a relatively large weight value is designated in a reference area positioned to match the direction of movement of the vehicle relative to other reference areas.
제3항에 있어서,
상기 가상 이미지 생성부는 상기 대상 픽셀의 픽셀 정보를 산출하기 위해 각 참조 영역에서 이용할 참조 픽셀의 수를 수학식 D=(SxP)/F를 이용하여 결정하되,
상기 D는 참조 픽셀의 범위값이고, S는 상기 차량의 초당 주행 거리이며, P는 카메라 영상 데이터의 1픽셀이 AVM 영상에서 표시되는 크기이고, F는 프레임레이트(frame rate)인 것을 특징으로 하는 AVM 시스템.
The method of claim 3,
Wherein the virtual image generation unit determines the number of reference pixels to be used in each reference area to calculate pixel information of the target pixel using the equation D = (SxP) / F,
Wherein D is a range value of a reference pixel, S is a traveling distance per second of the vehicle, P is a size at which one pixel of the camera image data is displayed in the AVM image, and F is a frame rate AVM system.
제1항에 있어서,
복수의 대상 픽셀 각각은 상기 검은색 마스킹 영역의 좌표 범위 내에서 각각 비일치하는 위치 정보를 가지고, 상기 위치 정보에 상응하여 다른 대상 픽셀과 비일치하는 참조 영역들을 가지는 것을 특징으로 하는 AVM 시스템.
The method according to claim 1,
Wherein each of the plurality of target pixels has position information that does not coincide with each other within a coordinate range of the black masking area and reference areas that do not coincide with other target pixels according to the position information.
AVM 시스템에서 수행되는 사각지대 영상 합성 방법에 있어서,
(a) 차량에 구비된 복수의 카메라로부터 실시간 각각 입력되는 영상 신호를 각각의 카메라 영상 데이터로 저장부에 저장하는 단계;
(b) 각각의 카메라 영상 데이터를 이용하여 사각지대를 표시하는 검은색 마스킹 영역이 포함된 AVM 영상 데이터를 생성하는 단계;
(c) 상기 차량의 주행 속도 및 움직임 방향을 인식하고, 상기 검은색 마스킹 영역에 상응하는 복수의 대상 픽셀 각각이 복수의 참조 영역들 각각에 포함된 하나 이상의 참조 픽셀의 픽셀 정보에 미리 지정된 가중치값을 적용하여 합산된 픽셀 정보를 가지도록 구성된 가상 이미지 데이터를 생성하는 단계; 및
(d) 상기 AVM 영상 데이터에 포함된 상기 검은색 마스킹 영역을 상기 가상 이미지 데이터로 대체시켜 디스플레이부를 통해 출력하는 단계를 포함하는 사각지대 영상 합성 방법.
In a blind zone image synthesis method performed in an AVM system,
(a) storing a video signal input from each of a plurality of cameras provided in a vehicle in a storage unit as respective camera image data;
(b) generating AVM image data including a black masking area displaying a blind spot using each camera image data;
(c) recognizing a running speed and a moving direction of the vehicle, and each of a plurality of target pixels corresponding to the black masking area is assigned a weight value previously assigned to pixel information of one or more reference pixels included in each of the plurality of reference areas Generating virtual image data configured to have the summed pixel information by applying the virtual image data; And
(d) replacing the black masking area included in the AVM image data with the virtual image data and outputting the virtual masking data through a display unit.
제7항에 있어서,
상기 움직임 방향은,
상기 차량의 스티어링 휠 회전 각도를 센싱하거나 조향각을 센싱하는 센서로부터 움직임 방향에 관한 정보를 제공받거나, 상기 단계 (b)에서 생성된 AVM 영상 데이터에서 추출된 모션 벡터를 이용하여 인식되는 것을 특징으로 하는 사각지대 영상 합성 방법.
8. The method of claim 7,
The direction of movement,
Wherein the information about the direction of movement is sensed by a sensor for sensing a steering wheel rotation angle of the vehicle or sensing a steering angle or is recognized using a motion vector extracted from the AVM image data generated in the step (b) Blind zone image synthesis method.
제7항에 있어서,
상기 단계 (c)에서 참조 픽셀을 포함하는 각각의 참조 영역에 지정되는 가중치값은, AVM 영상 데이터에서 대상 픽셀의 주변 영역을 복수의 영역들로 구획한 복수의 참조 영역들로 구분한 후, 미리 저장된 기준 정보를 이용하여 상기 차량의 움직임 방향에 상응하도록 지정하는 것을 특징으로 하는 사각지대 영상 합성 방법.
8. The method of claim 7,
In the step (c), a weight value assigned to each reference area including reference pixels is divided into a plurality of reference areas that divide the peripheral area of the target pixel into a plurality of areas in the AVM image data, Wherein the reference image is designated to correspond to the moving direction of the vehicle using the stored reference information.
제9항에 있어서,
상기 차량의 움직임 방향에 부합되도록 위치된 참조 영역에 다른 참조 영역들에 비해 상대적으로 큰 가중치값이 지정되는 것을 특징으로 하는 사각지대 영상 합성 방법.
10. The method of claim 9,
Wherein a relatively large weight value is designated in a reference area positioned to match the direction of movement of the vehicle relative to other reference areas.
제7항에 있어서,
상기 단계 (c)에서, 상기 대상 픽셀의 픽셀 정보를 산출하기 위해 각 참조 영역에서 이용할 참조 픽셀의 수를 수학식 D=(SxP)/F를 이용하여 결정하되,
상기 D는 참조 픽셀의 범위값이고, S는 상기 차량의 초당 주행 거리이며, P는 카메라 영상 데이터의 1픽셀이 AVM 영상에서 표시되는 크기이고, F는 프레임레이트(frame rate)인 것을 특징으로 하는 사각지대 영상 합성 방법.
8. The method of claim 7,
In the step (c), the number of reference pixels to be used in each reference area is calculated using the equation D = (SxP) / F to calculate the pixel information of the target pixel,
Wherein D is a range value of a reference pixel, S is a traveling distance per second of the vehicle, P is a size at which one pixel of the camera image data is displayed in the AVM image, and F is a frame rate Blind zone image synthesis method.
제7항에 있어서,
복수의 대상 픽셀 각각은 상기 검은색 마스킹 영역의 좌표 범위 내에서 각각 비일치하는 위치 정보를 가지고, 상기 위치 정보에 상응하여 다른 대상 픽셀과 비일치하는 참조 영역들을 가지는 것을 특징으로 하는 사각지대 영상 합성 방법.
8. The method of claim 7,
Wherein each of the plurality of target pixels has position information that does not coincide with each other within a coordinate range of the black masking area and has reference areas that do not coincide with other target pixels corresponding to the position information, Way.
제7항 내지 제12항 중 어느 한 항에 기재된 사각지대 영상 합성 방법을 수행하기 위하여 디지털 처리 장치에 의해 판독될 수 있는 프로그램을 기록한 기록매체.A recording medium on which a program that can be read by a digital processing apparatus is recorded for performing the blind zone image synthesis method according to any one of claims 7 to 12.
KR1020170045261A 2017-04-07 2017-04-07 AVM system and method for compositing image with blind spot KR101764106B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170045261A KR101764106B1 (en) 2017-04-07 2017-04-07 AVM system and method for compositing image with blind spot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170045261A KR101764106B1 (en) 2017-04-07 2017-04-07 AVM system and method for compositing image with blind spot

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150114844A Division KR20170020666A (en) 2015-08-13 2015-08-13 AVM system and method for compositing image with blind spot

Publications (2)

Publication Number Publication Date
KR20170043104A true KR20170043104A (en) 2017-04-20
KR101764106B1 KR101764106B1 (en) 2017-08-03

Family

ID=58705871

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170045261A KR101764106B1 (en) 2017-04-07 2017-04-07 AVM system and method for compositing image with blind spot

Country Status (1)

Country Link
KR (1) KR101764106B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190033322A (en) 2017-09-21 2019-03-29 현대자동차주식회사 Image transforming System and Method for transforming Image
US11134233B2 (en) 2019-06-17 2021-09-28 Hyundai Mobis Co., Ltd. Vehicle camera module and control method thereof

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102053099B1 (en) 2018-06-07 2019-12-06 현대오트론 주식회사 Around view monitoring system and operating method thereof
KR20220161611A (en) 2021-05-28 2022-12-07 황성용 AVM system with point-of-view function

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011114536A (en) 2009-11-26 2011-06-09 Alpine Electronics Inc Vehicle periphery image providing device
KR101183480B1 (en) * 2012-05-11 2012-09-20 주식회사 세코닉스 Bird view image generating device for calibrating image distortion

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190033322A (en) 2017-09-21 2019-03-29 현대자동차주식회사 Image transforming System and Method for transforming Image
US11134233B2 (en) 2019-06-17 2021-09-28 Hyundai Mobis Co., Ltd. Vehicle camera module and control method thereof

Also Published As

Publication number Publication date
KR101764106B1 (en) 2017-08-03

Similar Documents

Publication Publication Date Title
KR101764106B1 (en) AVM system and method for compositing image with blind spot
EP1179958B1 (en) Image processing device and monitoring system
JP3300334B2 (en) Image processing device and monitoring system
JP5072576B2 (en) Image display method and image display apparatus
EP2261604B1 (en) Computer arrangement for and method of calculating motion vectors using range sensor data
WO2015194501A1 (en) Image synthesis system, image synthesis device therefor, and image synthesis method
EP1462762A1 (en) Circumstance monitoring device of a vehicle
JP7247173B2 (en) Image processing method and apparatus
US20150042799A1 (en) Object highlighting and sensing in vehicle image display systems
CN103770706A (en) Dynamic rearview mirror display features
CN101487895B (en) Reverse radar system capable of displaying aerial vehicle image
JP2008027138A (en) Vehicle monitoring device
WO2005088970A1 (en) Image generation device, image generation method, and image generation program
JP2015015527A (en) Video display system, video synthesis device and video synthesis method
JP2002019556A (en) Monitoring system
KR20170118077A (en) Method and device for the distortion-free display of an area surrounding a vehicle
KR20180020274A (en) Panel conversion
JP6338930B2 (en) Vehicle surrounding display device
Pan et al. Rear-stitched view panorama: A low-power embedded implementation for smart rear-view mirrors on vehicles
KR20170020666A (en) AVM system and method for compositing image with blind spot
JP2020052671A (en) Display control device, vehicle, and display control method
JP7029350B2 (en) Image processing device and image processing method
US11514617B2 (en) Method and system of providing virtual environment during movement and related non-transitory computer-readable storage medium
US20220222947A1 (en) Method for generating an image of vehicle surroundings, and apparatus for generating an image of vehicle surroundings
KR102300652B1 (en) vehicle and control method thereof

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant