KR20170043104A - AVM system and method for compositing image with blind spot - Google Patents
AVM system and method for compositing image with blind spot Download PDFInfo
- Publication number
- KR20170043104A KR20170043104A KR1020170045261A KR20170045261A KR20170043104A KR 20170043104 A KR20170043104 A KR 20170043104A KR 1020170045261 A KR1020170045261 A KR 1020170045261A KR 20170045261 A KR20170045261 A KR 20170045261A KR 20170043104 A KR20170043104 A KR 20170043104A
- Authority
- KR
- South Korea
- Prior art keywords
- image data
- avm
- vehicle
- pixel
- image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000000873 masking effect Effects 0.000 claims abstract description 28
- 238000012544 monitoring process Methods 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 15
- 238000001308 synthesis method Methods 0.000 claims description 10
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 230000002093 peripheral effect Effects 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/02—Rear-view mirror arrangements
- B60R1/08—Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors
- B60R1/081—Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors avoiding blind spots, e.g. by using a side-by-side association of mirrors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H04N5/225—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
- B60R2300/202—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/92—Driver displays
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Transportation (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 AVM 시스템 및 사각지대 영상 합성 방법에 관한 것이다. The present invention relates to an AVM system and a blind zone image synthesis method.
일반적으로, 차량 내부에 탑승한 운전자의 시계(視界)는 주로 전방을 향하게 되고, 운전자의 좌우측과 후방 시계는 차체에 의하여 상당 부분 가려져 매우 한정된 시계를 가진다. Generally, the driver's vision (view) on the inside of the vehicle is directed mainly toward the front, and the left and right and rear views of the driver are largely obscured by the vehicle body and have a very limited clock.
이러한 문제를 해결하기 위하여, 사이드 미러 등의 시계 보조수단이 차량에 구비되어 사용되고 있으며, 최근에는 차량의 외부 영상을 촬영하여 운전자에게 제공하는 카메라 수단을 포함하는 기술들이 차량에 적용되고 있다.In order to solve such a problem, a clock assistant means such as a side mirror or the like is provided in a vehicle, and in recent years, techniques including camera means for photographing an external image of the vehicle and providing it to the driver have been applied to vehicles.
최근에는 차량 주위에 복수의 카메라를 설치하여 차량 주변의 360˚ 전방향의 영상을 보여주는 어라운드 뷰 모니터링(AVM, Around View Monitoring)(이하, AVM이라 칭함) 시스템도 적용되고 있다. AVM 시스템은 차량 주변을 촬영하는 복수의 카메라를 통하여 촬상된 차량 주변의 영상을 조합하여 운전자가 하늘에서 차량을 바라보는 듯한 탑 뷰(Top View) 이미지(즉, AVM 영상)를 제공함으로써, 운전자가 차량 주변 장애물이 화면상에 확인할 수 있도록 한다.In recent years, Around View Monitoring (AVM) system, in which a plurality of cameras are installed around a vehicle and displays 360 ° omni-directional images around the vehicle, is also applied. The AVM system combines the images of the surroundings of the vehicle captured through a plurality of cameras that photograph the surroundings of the vehicle to provide a top view image (i.e., AVM image) in which the driver looks at the vehicle in the sky, Allows obstacles around the vehicle to be visible on the screen.
도 1에 도시된 바와 같이, 차량(100)의 주변에 대한 AVM 영상(110)에는 자동차의 구조, 카메라의 화각, 설치 위치나 자세에 따라 물리적으로 시야가 가려져 보여지지 않는 부분인 사각지대(120)가 존재하고, 사각지대(120)는 표시될 정보가 없어 검은색으로 마스킹 처리되어 디스플레이부에 표시된다.1, the
그러나 검은색으로 마스킹 처리되어 표시되는 사각지대(120)의 존재는 표시된 AVM 영상을 부자연스럽게 느끼게 하는 원인이 된다. However, the presence of the
본 발명은 자동차의 구조, 카메라의 화각, 설치 위치나 자세에 의해 발생되는 사각지대를 검은색으로 마스킹 처리하지 않고, 차량의 주행 속도 및 진행 방향을 고려하여 생성한 가상 이미지로 합성 처리함으로써 운전자에게 보다 자연스러운 AVM 영상을 제공할 수 있는 AVM 시스템 및 사각지대 영상 합성 방법을 제공하기 위한 것이다.The present invention is not limited to masking a blind spot generated by the structure of an automobile, the angle of view of a camera, an installation position or an attitude of a camera, and synthesizing the blurry image into a virtual image generated in consideration of a traveling speed and a traveling direction of the vehicle, And an AVM system and a blind zone image synthesis method capable of providing a more natural AVM image.
본 발명의 이외의 목적들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Other objects of the present invention will become readily apparent from the following description.
본 발명의 일 측면에 따르면, AVM(Around View Monitoring) 시스템에 있어서, 차량에 구비된 복수의 카메라로부터 실시간 각각 입력되는 영상 신호를 각각의 카메라 영상 데이터로 저장부에 저장하는 영상 입력부; 각각의 카메라 영상 데이터를 이용하여 검은색 마스킹 영역이 포함된 AVM 영상 데이터를 생성하는 AVM 영상 생성부; 상기 차량의 주행 속도 및 움직임 방향을 인식하고, 상기 검은색 마스킹 영역에 상응하는 복수의 대상 픽셀 각각이 복수의 참조 영역들 각각에 포함된 하나 이상의 참조 픽셀의 픽셀 정보에 미리 지정된 가중치값을 적용하여 합산된 픽셀 정보를 가지도록 구성된 가상 이미지 데이터를 생성하는 가상 이미지 생성부; 및 상기 AVM 영상 데이터에 포함된 상기 검은색 마스킹 영역을 상기 가상 이미지 데이터로 대체시켜 디스플레이부를 통해 출력하는 영상 합성부를 포함하는 AVM 시스템이 제공된다.According to an aspect of the present invention, there is provided an AVM (Around View Monitoring) system, comprising: an image input unit for storing, in respective camera image data, image signals input in real time from a plurality of cameras provided in a vehicle; An AVM image generating unit for generating AVM image data including a black masking area using each camera image data; Recognizing a running speed and a moving direction of the vehicle and applying a predetermined weight value to pixel information of one or more reference pixels included in each of a plurality of reference areas of each of a plurality of target pixels corresponding to the black masking area A virtual image generation unit for generating virtual image data configured to have summed pixel information; And an image synthesizer for replacing the black masking area included in the AVM image data with the virtual image data and outputting the virtual image data through a display unit.
상기 가상 이미지 생성부는 상기 차량의 스티어링 휠 회전 각도를 센싱하거나 조향각을 센싱하는 센서로부터 움직임 방향에 관한 정보를 제공받거나, 상기 AVM 영상 생성부에 의해 생성된 AVM 영상 데이터에서 추출된 모션 벡터를 이용하여 움직임 방향을 인식할 수 있다.The virtual image generation unit may receive information on the direction of movement from a sensor that senses a steering wheel rotation angle of the vehicle or senses a steering angle or uses a motion vector extracted from the AVM image data generated by the AVM image generation unit The motion direction can be recognized.
상기 가상 이미지 생성부는 AVM 영상 데이터에서 대상 픽셀의 주변 영역을 복수의 영역들로 구획한 복수의 참조 영역들로 구분하고, 미리 저장된 기준 정보를 이용하여 상기 차량의 움직임 방향에 상응하는 각 참조 영역들의 가중치값을 지정할 수 있다.The virtual image generator divides the AVM image data into a plurality of reference areas that divide a peripheral area of a target pixel into a plurality of areas, and generates a plurality of reference areas corresponding to the moving directions of the vehicle, You can specify a weight value.
상기 차량의 움직임 방향에 부합되도록 위치된 참조 영역에 다른 참조 영역들에 비해 상대적으로 큰 가중치값이 지정될 수 있다.A relatively large weight value can be designated in the reference area positioned to match the direction of movement of the vehicle relative to other reference areas.
상기 가상 이미지 생성부는 상기 대상 픽셀의 픽셀 정보를 산출하기 위해 각 참조 영역에서 이용할 참조 픽셀의 수를 수학식 D=(SxP)/F를 이용하여 결정하되, 상기 D는 참조 픽셀의 범위값이고, S는 상기 차량의 초당 주행 거리이며, P는 카메라 영상 데이터의 1픽셀이 AVM 영상에서 표시되는 크기이고, F는 프레임레이트(frame rate)일 수 있다.Wherein the virtual image generation unit determines the number of reference pixels to be used in each reference area to calculate pixel information of the target pixel using a formula D = (SxP) / F, where D is a range value of a reference pixel, S is the traveling distance per second of the vehicle, P is the size at which one pixel of the camera image data is displayed in the AVM image, and F is the frame rate.
복수의 대상 픽셀 각각은 상기 검은색 마스킹 영역의 좌표 범위 내에서 각각 비일치하는 위치 정보를 가지고, 상기 위치 정보에 상응하여 다른 대상 픽셀과 비일치하는 참조 영역들을 가질 수 있다.Each of the plurality of target pixels may have position information that does not coincide with each other within the coordinate range of the black masking area and may have reference areas that do not coincide with other target pixels corresponding to the position information.
본 발명의 다른 측면에 따르면, AVM 시스템에서 수행되는 사각지대 영상 합성 방법에 있어서, (a) 차량에 구비된 복수의 카메라로부터 실시간 각각 입력되는 영상 신호를 각각의 카메라 영상 데이터로 저장부에 저장하는 단계; (b) 각각의 카메라 영상 데이터를 이용하여 사각지대를 표시하는 검은색 마스킹 영역이 포함된 AVM 영상 데이터를 생성하는 단계; (c) 상기 차량의 주행 속도 및 움직임 방향을 인식하고, 상기 검은색 마스킹 영역에 상응하는 복수의 대상 픽셀 각각이 복수의 참조 영역들 각각에 포함된 하나 이상의 참조 픽셀의 픽셀 정보에 미리 지정된 가중치값을 적용하여 합산된 픽셀 정보를 가지도록 구성된 가상 이미지 데이터를 생성하는 단계; 및 (d) 상기 AVM 영상 데이터에 포함된 상기 검은색 마스킹 영역을 상기 가상 이미지 데이터로 대체시켜 디스플레이부를 통해 출력하는 단계를 포함하는 사각지대 영상 합성 방법이 제공될 수 있다.According to another aspect of the present invention, there is provided a blind zone image synthesis method performed in an AVM system, the method comprising: (a) storing image signals input in real time from a plurality of cameras provided in a vehicle, step; (b) generating AVM image data including a black masking area displaying a blind spot using each camera image data; (c) recognizing a running speed and a moving direction of the vehicle, and each of a plurality of target pixels corresponding to the black masking area is assigned a weight value previously assigned to pixel information of one or more reference pixels included in each of the plurality of reference areas Generating virtual image data configured to have the summed pixel information by applying the virtual image data; And (d) replacing the black masking area included in the AVM image data with the virtual image data and outputting the virtual masking data through a display unit.
상기 움직임 방향은, 상기 차량의 스티어링 휠 회전 각도를 센싱하거나 조향각을 센싱하는 센서로부터 움직임 방향에 관한 정보를 제공받거나, 상기 단계 (b)에서 생성된 AVM 영상 데이터에서 추출된 모션 벡터를 이용하여 인식될 수 있다.The movement direction may be detected by sensing a rotation angle of the steering wheel of the vehicle or receiving information on a direction of movement from a sensor that senses a steering angle or by using a motion vector extracted from the AVM image data generated in step (b) .
상기 단계 (c)에서 참조 픽셀을 포함하는 각각의 참조 영역에 지정되는 가중치값은, AVM 영상 데이터에서 대상 픽셀의 주변 영역을 복수의 영역들로 구획한 복수의 참조 영역들로 구분한 후, 미리 저장된 기준 정보를 이용하여 상기 차량의 움직임 방향에 상응하도록 지정될 수 있다.In the step (c), a weight value assigned to each reference area including reference pixels is divided into a plurality of reference areas that divide the peripheral area of the target pixel into a plurality of areas in the AVM image data, And may be designated to correspond to the direction of movement of the vehicle using stored reference information.
상기 차량의 움직임 방향에 부합되도록 위치된 참조 영역에 다른 참조 영역들에 비해 상대적으로 큰 가중치값이 지정될 수 있다.A relatively large weight value can be designated in the reference area positioned to match the direction of movement of the vehicle relative to other reference areas.
상기 단계 (c)에서, 상기 대상 픽셀의 픽셀 정보를 산출하기 위해 각 참조 영역에서 이용할 참조 픽셀의 수를 수학식 D=(SxP)/F를 이용하여 결정하되, 상기 D는 참조 픽셀의 범위값이고, S는 상기 차량의 초당 주행 거리이며, P는 카메라 영상 데이터의 1픽셀이 AVM 영상에서 표시되는 크기이고, F는 프레임레이트(frame rate)일 수 있다.In step (c), the number of reference pixels to be used in each reference area to calculate pixel information of the target pixel is determined using the equation D = (SxP) / F, where D is a range value S is the traveling distance per second of the vehicle, P is the size at which one pixel of the camera image data is displayed in the AVM image, and F is the frame rate.
복수의 대상 픽셀 각각은 상기 검은색 마스킹 영역의 좌표 범위 내에서 각각 비일치하는 위치 정보를 가지고, 상기 위치 정보에 상응하여 다른 대상 픽셀과 비일치하는 참조 영역들을 가질 수 있다.Each of the plurality of target pixels may have position information that does not coincide with each other within the coordinate range of the black masking area and may have reference areas that do not coincide with other target pixels corresponding to the position information.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.
본 발명의 실시예에 따르면, 자동차의 구조, 카메라의 화각, 설치 위치나 자세에 의해 발생되는 사각지대를 검은색으로 마스킹 처리하지 않고, 차량의 주행 속도 및 진행 방향을 고려하여 생성한 가상 이미지로 합성 처리함으로써 운전자에게 보다 자연스러운 AVM 영상을 제공할 수 있는 효과가 있다.According to the embodiment of the present invention, a blind spot generated by a structure of an automobile, an angle of view of a camera, an installation position or an attitude is not masked with black, and a virtual image generated in consideration of a traveling speed and a traveling direction of the vehicle Thereby providing a more natural AVM image to the driver.
도 1은 일반적인 AVM(Around View Monitoring) 영상을 나타낸 도면.
도 2는 본 발명의 일 실시예에 따른 AVM 시스템을 구성을 개략적으로 나타낸 도면.
도 3은 본 발명의 일 실시예에 따른 가상 이미지 생성 기법을 설명하기 위한 도면.
도 4는 본 발명의 일 실시예에 따른 사각지대 영상 합성 방법을 나타낸 순서도.1 is a view showing a general AVM (Around View Monitoring) image.
2 is a block diagram schematically illustrating a configuration of an AVM system according to an embodiment of the present invention.
3 is a diagram for explaining a virtual image generation technique according to an embodiment of the present invention;
4 is a flowchart illustrating a blind zone image synthesis method according to an embodiment of the present invention.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 후술될 제1 임계값, 제2 임계값 등의 용어는 실질적으로는 각각 상이하거나 일부는 동일한 값인 임계값들로 미리 지정될 수 있으나, 임계값이라는 동일한 단어로 표현될 때 혼동의 여지가 있으므로 구분의 편의상 제1, 제2 등의 용어를 병기하기로 한다. The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, terms such as a first threshold value, a second threshold value, and the like which will be described later may be previously designated with threshold values that are substantially different from each other or some of which are the same value, Because there is room, the terms such as the first and the second are to be mentioned for convenience of classification.
본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
또한, 각 도면을 참조하여 설명하는 실시예의 구성 요소가 해당 실시예에만 제한적으로 적용되는 것은 아니며, 본 발명의 기술적 사상이 유지되는 범위 내에서 다른 실시예에 포함되도록 구현될 수 있으며, 또한 별도의 설명이 생략될지라도 복수의 실시예가 통합된 하나의 실시예로 다시 구현될 수도 있음은 당연하다.It is to be understood that the components of the embodiments described with reference to the drawings are not limited to the embodiments and may be embodied in other embodiments without departing from the spirit of the invention. It is to be understood that although the description is omitted, multiple embodiments may be implemented again in one integrated embodiment.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.
도 2는 본 발명의 일 실시예에 따른 AVM 시스템을 구성을 개략적으로 나타낸 도면이고, 도 3은 본 발명의 일 실시예에 따른 가상 이미지 생성 기법을 설명하기 위한 도면이다.FIG. 2 is a block diagram of an AVM system according to an embodiment of the present invention, and FIG. 3 is a diagram for explaining a virtual image generation technique according to an embodiment of the present invention.
도 2를 참조하면, AVM 시스템은 영상 입력부(210), AVM 영상 생성부(220), 가상 이미지 생성부(230), 영상 합성부(240), 디스플레이부(250) 및 저장부(260)을 포함할 수 있다. 도시되지는 않았으나, AVM 시스템에 포함된 하나 이상의 구성 요소의 동작을 제어하기 위한 제어부가 더 포함될 수도 있다. 2, the AVM system includes an
영상 입력부(210)는 차량(100)의 복수 개소(예를 들어, 전방, 후방, 좌측 및 우측을 각각 촬영하도록 지정된 위치)에 각각 설치된 카메라로부터 촬상되어 입력되는 각 카메라 영상 신호를 각각의 카메라 영상 데이터로 생성하여 저장부(260)에 저장한다. 여기서, 카메라(110)는 적은 수량으로 차량 주변 환경을 촬상할 수 있도록 하기 위해, 예를 들어 180도 이상의 화각을 가지는 광각 카메라로 구현될 수 있다.The
AVM 영상 생성부(220)는 저장부(260)에 실시간 저장된 카메라 영상 데이터들을 이용하여 차량(100)의 주변 환경을 차량(100)의 위쪽에서 내려다보는 듯한 탑뷰(Top View) 이미지인 AVM 영상 데이터로 합성한다. AVM 영상 생성부(220)가 예를 들어 차량의 전후방, 좌우측면에 각각 설치된 카메라들에 의해 지면에 수평 방향으로 촬영된 영상을 지면에 수직 방향인 형태의 영상으로 변환하고, 이를 이용하여 AVM 영상 데이터를 생성하는 과정은 본 발명의 기술적 사상과는 거리가 있고, 또한 당업자에게 자명한 사항이므로 이에 대한 설명은 생략한다.The AVM
AVM 영상 생성부(220)에 의해 생성된 합성된 AVM 영상 데이터에는 예를 들어 차량(100)의 형상, 카메라의 화각, 설치 위치나 자세 등에 따라 물리적으로 시야가 가려져 보여지지 않는 부분인 사각지대(120)가 포함된다. AVM 영상 생성부(220)는 AVM 영상 데이터에 포함된 사각지대(120) 영역은 해당 영역에 표시될 영상 데이터가 없어 예를 들어 검은색으로 마스킹 처리할 수 있다. The synthesized AVM image data generated by the AVM
여기서, AVM 영상 데이터에 포함되는 사각지대(120)에 해당되는 합성 대상 영역의 픽셀 위치 범위 정보는 저장부(260)에 저장될 것이고, 해당 합성 대상 영역은 후술되는 바에 의한 가상 이미지가 생성되어야 하는 영역에 해당됨은 당연하다.Herein, the pixel position range information of the compositing object area corresponding to the
가상 이미지 생성부(230)는 차량의 주행 속도 및 움직임 방향을 인식하고 미리 지정된 기준에 따라 합성 대상 영역(도 3의 (b)의 120 참조)의 주변에 위치된 복수의 참조 영역들(도 3의 (a)의 A, B, C 및 D와 도 3의 (b)의 A1, A2, A3 참조) 각각에 포함된 참조 픽셀(예를 들어 도 3의 (c)의 a1, a2 및 a3)의 픽셀 정보(예를 들어 RGB, YUV 등인 색상값)에 가중치값을 적용하여 합산한 픽셀 정보를 가지는 대상 픽셀(예를 들어, 도 3의 (c)의 DEST 참조)들로 구성된 가상 이미지를 생성하여 저장부(260)에 저장한다. The virtual
참고로, 도 3의 (b)의 차량(100)의 전방 좌측 영역(즉, 도 3의 (a)의 A')를 확대한 것으로서, 이 경우의 참조 영역들은 도 3의 (a)에 도시된 참조 영역 A의 일부 영역일 수 있다. 또한 도 3에는 각각 수직으로 구획된 4개의 외측 구획 영역, 즉 참조 영역들이 예시되었으나, 참조 영역인 외측 구획 영역의 형상이나 수량이 필요에 따라 다양하게 결정될 수 있음은 당연하다.3 (a) in Fig. 3 (a)) of the
이하, 도 3을 참조하여 가상 이미지 생성부(230)가 차량의 주행속도나 움직임 방향에 상응하여 참조 픽셀의 수나 범위에 대한 기준을 설정하고, 가상 이미지를 생성하는 방법에 대해 간략히 설명한다.Hereinafter, with reference to FIG. 3, a method of setting a reference for the number or range of reference pixels corresponding to the traveling speed or the moving direction of a vehicle and generating a virtual image will be briefly described.
우선 대상 픽셀의 픽셀 정보를 합성하기 위한 참조 픽셀은 예를 들어 하기 수학식 1에 의해 결정될 수 있다.First, a reference pixel for synthesizing pixel information of a target pixel can be determined by, for example, the following equation (1).
[수학식 1][Equation 1]
D=(SxP)/F [m]D = (SxP) / F [m]
여기서, D는 참조 픽셀의 범위값이고, S는 차량의 초당 주행 거리이며, P는 1픽셀의 표시 크기이고, F는 프레임레이트(frame rate)이다. Where D is the range value of the reference pixel, S is the vehicle's per-second travel distance, P is the display size of one pixel, and F is the frame rate.
예를 들어 차량의 주행 속도가 5km/h라고 가정하면, 차량의 초당 주행 거리(S)는 1.38m로 산출되고, 프레임레이트는 카메라의 통상적인 프레임레이트인 30으로 산출될 수 있으며, 1픽셀의 표시 크기(P)는 카메라 영상 데이터의 1픽셀이 AVM 영상(110)에서 어느 정도의 크기로 표시되는지에 대한 것으로 만일 1 픽셀이 2cm의 크기로 표시된다고 가정하면, D=(1.38x2)/2=0.023m=2.3cm로 산출된다. 이와 같이, 참조 픽셀의 범위값(D)은 약 2cm로 산출되었고, 이는 앞서의 예와 같이 실제의 1픽셀에 대응되는 것이므로 참조 픽셀의 범위값(D)는 1픽셀로 지정할 수 있다. For example, assuming that the running speed of the vehicle is 5 km / h, the running distance S per second of the vehicle is calculated as 1.38 m, and the frame rate can be calculated as 30, which is the normal frame rate of the camera, The display size P is about how much one pixel of the camera image data is displayed in the
이와 같이, 대상 픽셀의 픽셀 정보를 합성하기 위한 참조 픽셀의 범위는 차량(100)의 주행 속도에 의해 결정될 수 있다.As described above, the range of the reference pixel for synthesizing the pixel information of the target pixel can be determined by the running speed of the
또한, 지정된 참조 픽셀의 범위값에 의해 지정된 각 참조 영역 내의 각 참조 픽셀들은 후술되는 바와 같이, 대상 픽셀의 픽셀 정보를 생성하기 위해 차량의 움직임 방향에 따라 상이한 가중치가 적용된다. Further, each reference pixel in each reference area specified by the range value of the designated reference pixel is subjected to different weights depending on the direction of movement of the vehicle to generate pixel information of the target pixel, as described later.
이하, 차량(100)의 움직임 방향에 따라 각 방향별 참조 영역에 대한 가중치 결정 방법을 설명한다.Hereinafter, a method of determining a weight for a reference region in each direction according to the movement direction of the
차량의 움직임 방향은 차량의 스티어링 휠(steering wheel) 회전 각도를 센싱하거나 차량에 구비된 조향각 센서로부터 제공되는 조향각 정보를 이용하거나, AVM 영상 생성부(220)에 의해 생성되어 저장부(260)에 저장된 AVM 영상 데이터에서 추출된 모션 벡터를 이용하여 결정될 수 있다. The moving direction of the vehicle can be detected by sensing the steering angle of the steering wheel of the vehicle or using the steering angle information provided from the steering angle sensor provided in the vehicle or by generating the AVM image by the AVM
예를 들어, 차량(100)의 움직임 방향을 결정하는 차량(100)의 조항각이 정면 직진 주행하는 0도인 상황인 경우, 좌우 최대 조향각으로 회전된 경우 등에 대해 각 참조 영역에 대해 적용할 가중치값이 미리 지정되어 저장부(260)에 저장될 수 있고, 가중치값 변동은 예를 들어 조항각 각도가 1도씩 변경될 때마다 변동되도록 지정할 수 있다. For example, when the article angle of the
이 경우, 차량(100)의 움직임 방향(즉, 조향각)에 부합되도록 위치하는 참조 영역에 상대적으로 큰 가중치값이 적용되도록 미리 지정되고, 차량의 움직임 방향에 상대적으로 관련성이 적은 방향에 위치한 참조 영역에는 상대적으로 작은 가중치값이 적용되도록 미리 지정될 수 있다. In this case, a relatively large weight value is previously designated so as to be applied to the reference region positioned to coincide with the movement direction (that is, the steering angle) of the
그러나 만일 차량이 정차 중인 경우이거나, 시동을 온(On)한 후 아직 진행하지 않은 상황이라면 참조 영역들에 대해 균등한 가중치값이 적용되도록 미리 지정될 수 있을 것이다. However, if the vehicle is stationary, or if it has not yet been started after the start-up has been turned on, then an equal weight value may be pre-specified for the reference areas.
도 3의 (b)를 참조할 때, 예를 들어 차량(100)이 완만한 각도의 좌회전을 위해 45도의 조향각(즉, A2 영역을 가로지르는 대각선 방향)으로 주행하는 경우에는 A2 영역의 참조 픽셀에 상대적으로 큰 가중치값(예를 들어 60%)를 할당하고, 다른 A1과 A3 영역에는 상대적으로 작은 가중치값(예를 들어 각각 20%)을 할당할 수 있을 것이다. 마찬가지로, 차량(100)이 A1 방향의 직진하는 경우라면 상대적으로 A1 영역의 참조 픽셀에 상대적으로 큰 가중치값이 할당될 것이고, 90도 조향각인 최대 각도로 좌회전하는 경우라면 A3 영역에 상대적으로 큰 가중치값이 할당될 것이다. 3 (b), when the
즉, 차량(100)의 움직임 방향을 지정하는 조향각에 부합되도록 대상 픽셀의 픽셀 정보를 합성하기 위한 각 방향별 참조 픽셀에 할당할 가중치값은 미리 지정될 수 있다. 이때, 각 참조 픽셀에 할당될 가중치값의 최대값과 최소값도 미리 지정될 수 있을 것이다. That is, the weight value to be assigned to each reference pixel for synthesizing the pixel information of the target pixel so as to match the steering angle specifying the movement direction of the
도 3의 (b)와 (c)를 참조할 때, 대상 픽셀(DEST)의 픽셀 정보(예를 들어 색상값)를 합성하기 위해서는 차량(100)의 외측 3방향의 참조 영역(예를 들어, 전방인 A1 영역, 외측 대각선 방향인 A2 영역 및 좌측인 A3 영역)들에 위치한 픽셀들이 참조 픽셀로 고려될 수 있다. 여기서, 참조 영역인 외측 구획 영역은 픽셀 정보가 합성되어야 하는 대상 픽셀을 기준으로 실시간 결정된다. Referring to FIGS. 3B and 3C, in order to synthesize the pixel information (for example, a color value) of the target pixel DEST, a reference area in three outer sides of the vehicle 100 (for example, Pixels located in the front A1 region, the outer diagonal direction A2 region, and the left A3 region) can be considered as reference pixels. Here, the outer dividing region, which is a reference region, is determined in real time based on the target pixel to which the pixel information is to be combined.
이때, 전술한 예와 같이 참조 픽셀의 범위값(D)을 1픽셀로 지정한다면 대상 픽셀(DEST)의 픽셀 정보(예를 들어 색상값)를 합성하기 위한 참조 픽셀은 대상 픽셀에 인접한 상측(즉, 전방)의 1개 픽셀, 좌측의 1개 픽셀 및 좌상측의 1개 픽셀인 a1, a2 및 a3로 지정된다. At this time, if the range value D of the reference pixel is set to 1 pixel as in the above example, the reference pixel for synthesizing the pixel information (for example, the color value) of the target pixel DEST is the upper side , Forward), one pixel on the left, and one pixel on the upper left, a1, a2, and a3.
이때, 만일 차량의 움직임 방향을 고려하여 각 참조 영역들에 대한 가중치가 상측(A1 영역) 50%, 좌측(A3 영역) 30% 및 좌상측(A2 영역) 20%라 산출되었고, 각 참조 픽셀들의 색상값이 a1은 80, a2는 10 및 a3는 10이라면 대상 픽셀(DEST)의 픽셀 정보인 색상값은 80x0.5+10x0.3+10x0.2 = 45로 산출되어 적용될 수 있을 것이다. In this case, the weights for the respective reference areas are calculated to be 50% for the upper side (A1 area), 30% for the left side (A3 area) and 20% for the upper left side (A2 area) If the color value a1 is 80, a2 is 10, and a3 is 10, the color value which is the pixel information of the target pixel DEST can be calculated and applied as 80x0.5 + 10x0.3 + 10x0.2 = 45.
대상 픽셀(DEST)의 우측에 위치하는 다른 대상 픽셀(NEW)의 색상값 산출을 위해서는 해당 대상 픽셀의 상측 픽셀, 좌측에 위치한 DEST 픽셀 및 좌상측 a1 픽셀이 참조 픽셀로 고려될 것이다. 즉, 복수의 대상 픽셀 각각은 합성 대상 영역(즉, 검은색 마스킹 영역)에 해당되는 좌표 범위 내에서 각각 비일치하는 위치 정보를 가지고 있기 때문에, 각 대상 픽셀의 위치 정보에 의해 결정되는 참조 영역들이 각각 상이할 수 있을 것이다.In order to calculate the color value of another target pixel NEW positioned on the right side of the target pixel DEST, the upper pixel, the left DEST pixel and the upper left a1 pixel of the target pixel will be considered as reference pixels. That is, since each of the plurality of target pixels has position information that does not coincide with each other within the coordinate range corresponding to the synthesis target area (i.e., the black masking area), the reference areas determined by the position information of each target pixel Each of which may be different.
전술한 과정들을 반복하여 사각지대(120)에 해당되는 합성 대상 영역의 좌표 범위 정보 내의 각 대상 픽셀들의 픽셀 정보가 생성될 수 있을 것이며, 이들을 이용하여 가상 이미지 생성부(230)는 합성 대상 영역에 대응되는 가상 이미지가 생성될 수 있다.By repeating the above-described processes, the pixel information of each target pixel in the coordinate range information of the compositing target area corresponding to the
전술한 바와 같이, 차량(100)의 움직임 방향은 조향각 이외에도 AVM 영상 데이터에서 분석된 모션 벡터를 이용하여 결정될 수도 있다. As described above, the direction of movement of the
즉, 가상 이미지 생성부(230)는 시간적으로 순차 생성된 AVM 영상 각각을 영역별 분할하여 미리 지정된 수량 이상의 특징점(예를 들어 코너 점)이 분포된 분할 영역을 대상으로 예를 들어 옵티컬 플로우(optical flow) 알고리즘 등을 이용하여 AVM 영상에서의 모션 벡터(motion vector)를 산출할 수 있고, 산출된 모션 벡터를 이용하여 차량(100)의 움직임 방향을 인식할 수 있다. That is, the
차량(100)의 움직임 방향은 예를 들어 AVM 영상 전체에 대해 산출된 모션 벡터를 이용하거나, 각 참조 영역들에 대해 개별 산출된 모션 벡터의 평균값을 이용하거나, 현재 픽셀 정보가 합성될 대상 픽셀을 기준하여 고려되어야 하는 참조 영역에 대해 산출된 모션 벡터를 이용하는 등의 방법으로 인식될 수 있다. The motion direction of the
모션 벡터를 이용하여 차량(100)의 움직임 방향이 결정되었다면, 각 참조 영역들에 대한 가중치값을 결정하고, 이를 이용하여 대상 픽셀의 픽셀 정보를 산출하는 과정은 앞서 조향각을 이용하여 대상 픽셀의 픽셀 정보를 산출하는 과정과 동일하게 수행될 수 있다. If the motion direction of the
다시 도 2를 참조하면, 영상 합성부(240)는 AVM 영상 생성부(220)에 의해 생성되어 저장부(260)에 저장된 AVM 영상 데이터와, 가상 이미지 생성부(230)에 의해 생성되어 저장부(260)에 저장된 가상 이미지 데이터를 합성하여 검은색 마스킹 영역(즉, 사각지대(120))이 제거된 AVM 영상 데이터를 생성한다. Referring to FIG. 2 again, the
영상 합성부(240)에 의해 합성된 검은색 마스킹 영역이 제거된 AVM 영상 데이터는 디스플레이부(250)를 통해 출력될 것이다.The AVM image data having the black masking area synthesized by the
저장부(260)에는 예를 들어 AVM 시스템의 운용 프로그램, 영상 입력부(210)에 의해 생성된 카메라 영상 데이터, AVM 영상 생성부(220)에 의해 생성된 AVM 영상 데이터, 가상 이미지 생성부(230)에 의해 이용될 주행 속도별 참조 픽셀 선정 기준 정보와 차량의 움직임 방향 결정/가중치값 지정을 위한 기준 정보, 가상 이미지 생성부(230)에 의해 생성된 가상 이미지 데이터, 영상 합성부(240)에 의해 합성된 검은색 마스킹 영역이 제거된 AVM 영상 데이터 등이 저장될 수 있다.For example, the AVM system operating program, the camera image data generated by the
저장부(260)는 예를 들어 데이터를 영구 저장하는 영구 저장 메모리와 동작시 필요한 데이터를 임시 저장하여 운용하는 임시 저장 메모리로 분리하여 운용될 수 있다. The
도 4는 본 발명의 일 실시예에 따른 사각지대 영상 합성 방법을 나타낸 순서도이다.4 is a flowchart illustrating a blind zone image synthesis method according to an embodiment of the present invention.
도 4를 참조하면, 단계 410에서 AVM 영상 생성부(220)는 영상 입력부(210)에 의해 생성되어 저장부(260)에 저장된 카메라 영상 데이터들을 이용하여 차량의 주변 환경을 차량의 위쪽에서 내려다보는 듯한 탑뷰(Top View) 이미지인 AVM 영상 데이터로 합성한다. Referring to FIG. 4, in
단계 420에서 가상 이미지 생성부(230)는 합성 대상 영역에 포함된 각 대상 픽셀에 상응하는 참조 영역 각각에 대한 가중치 값과 대상 픽셀의 픽셀 정보를 합성하기 위한 각 참조 영역에서의 참조 픽셀의 범위를 결정한다.In
단계 430에서 가상 이미지 생성부(230)는 각 대상 픽셀의 픽셀 정보를 합성하기 위해 결정된 각 참조 픽셀의 픽셀 정보에 해당 참조 픽셀이 속한 참조 영역에 대해 결정된 가중치값을 적용하여 해당 대상 픽셀의 픽셀 정보를 산출하고, 각각의 대상 픽셀의 픽셀 정보를 이용하여 합성 대상 영역에 상응하는 가상 이미지를 생성한다.In
단계 440에서 영상 합성부(240)는 AVM 영상 생성부(220)에 의해 생성된 AVM 영상 데이터 내에 포함된 검은색 마스킹 영역을 가상 이미지 생성부(230)에 의해 생성된 가상 이미지로 합성한 후 디스플레이부(250)를 통해 출력한다.In
상술한 AVM 시스템 및 사각지대 영상 합성 방법은 디지털 처리 장치에 내장되거나 설치된 프로그램 등에 의해 시계열적 순서에 따른 자동화된 절차로 수행될 수도 있음은 당연하다. 상기 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 프로그램은 디지털 처리 장치가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 디지털 처리 장치에 의하여 읽혀지고 실행됨으로써 상기 방법을 구현한다. 상기 정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다.It is a matter of course that the AVM system and the blind zone image synthesis method described above can be performed by an automated procedure according to a time series sequence by a built-in or installed program in the digital processing apparatus. The codes and code segments that make up the program can be easily deduced by a computer programmer in the field. In addition, the program is stored in a computer readable medium readable by the digital processing apparatus, and is read and executed by the digital processing apparatus to implement the method. The information storage medium includes a magnetic recording medium, an optical recording medium, and a carrier wave medium.
상기에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the present invention can be changed.
100 : 차량
110a : AVM 영상
120 : 사각지대
210 : 영상 입력부
220 : AVM 영상 생성부
230 : 가상 이미지 생성부
240 : 영상 합성부
250 : 디스플레이부
260 : 저장부100: vehicle 110a: AVM video
120: blind spot 210: image input unit
220: AVM image generation unit 230: Virtual image generation unit
240: image synthesizer 250:
260:
Claims (13)
차량에 구비된 복수의 카메라로부터 실시간 각각 입력되는 영상 신호를 각각의 카메라 영상 데이터로 저장부에 저장하는 영상 입력부;
각각의 카메라 영상 데이터를 이용하여 검은색 마스킹 영역이 포함된 AVM 영상 데이터를 생성하는 AVM 영상 생성부;
상기 차량의 주행 속도 및 움직임 방향을 인식하고, 상기 검은색 마스킹 영역에 상응하는 복수의 대상 픽셀 각각이 복수의 참조 영역들 각각에 포함된 하나 이상의 참조 픽셀의 픽셀 정보에 미리 지정된 가중치값을 적용하여 합산된 픽셀 정보를 가지도록 구성된 가상 이미지 데이터를 생성하는 가상 이미지 생성부; 및
상기 AVM 영상 데이터에 포함된 상기 검은색 마스킹 영역을 상기 가상 이미지 데이터로 대체시켜 디스플레이부를 통해 출력하는 영상 합성부를 포함하는 AVM 시스템.
In an AVM (Around View Monitoring) system,
A video input unit for storing video signals inputted respectively in real time from a plurality of cameras provided in a vehicle as respective camera video data in a storage unit;
An AVM image generating unit for generating AVM image data including a black masking area using each camera image data;
Recognizing a running speed and a moving direction of the vehicle and applying a predetermined weight value to pixel information of one or more reference pixels included in each of a plurality of reference areas of each of a plurality of target pixels corresponding to the black masking area A virtual image generation unit for generating virtual image data configured to have summed pixel information; And
And an image synthesizing unit for replacing the black masking area included in the AVM image data with the virtual image data and outputting the virtual masking data through a display unit.
상기 가상 이미지 생성부는 상기 차량의 스티어링 휠 회전 각도를 센싱하거나 조향각을 센싱하는 센서로부터 움직임 방향에 관한 정보를 제공받거나, 상기 AVM 영상 생성부에 의해 생성된 AVM 영상 데이터에서 추출된 모션 벡터를 이용하여 움직임 방향을 인식하는 것을 특징으로 하는 AVM 시스템.
The method according to claim 1,
The virtual image generation unit may receive information on the direction of movement from a sensor that senses a steering wheel rotation angle of the vehicle or senses a steering angle or uses a motion vector extracted from the AVM image data generated by the AVM image generation unit And recognizes the direction of movement.
상기 가상 이미지 생성부는 AVM 영상 데이터에서 대상 픽셀의 주변 영역을 복수의 영역들로 구획한 복수의 참조 영역들로 구분하고, 미리 저장된 기준 정보를 이용하여 상기 차량의 움직임 방향에 상응하는 각 참조 영역들의 가중치값을 지정하는 것을 특징으로 하는 AVM 시스템.
The method according to claim 1,
The virtual image generator divides the AVM image data into a plurality of reference areas that divide a peripheral area of a target pixel into a plurality of areas, and generates a plurality of reference areas corresponding to the moving directions of the vehicle, And a weight value.
상기 차량의 움직임 방향에 부합되도록 위치된 참조 영역에 다른 참조 영역들에 비해 상대적으로 큰 가중치값이 지정되는 것을 특징으로 하는 AVM 시스템.
The method of claim 3,
Wherein a relatively large weight value is designated in a reference area positioned to match the direction of movement of the vehicle relative to other reference areas.
상기 가상 이미지 생성부는 상기 대상 픽셀의 픽셀 정보를 산출하기 위해 각 참조 영역에서 이용할 참조 픽셀의 수를 수학식 D=(SxP)/F를 이용하여 결정하되,
상기 D는 참조 픽셀의 범위값이고, S는 상기 차량의 초당 주행 거리이며, P는 카메라 영상 데이터의 1픽셀이 AVM 영상에서 표시되는 크기이고, F는 프레임레이트(frame rate)인 것을 특징으로 하는 AVM 시스템.
The method of claim 3,
Wherein the virtual image generation unit determines the number of reference pixels to be used in each reference area to calculate pixel information of the target pixel using the equation D = (SxP) / F,
Wherein D is a range value of a reference pixel, S is a traveling distance per second of the vehicle, P is a size at which one pixel of the camera image data is displayed in the AVM image, and F is a frame rate AVM system.
복수의 대상 픽셀 각각은 상기 검은색 마스킹 영역의 좌표 범위 내에서 각각 비일치하는 위치 정보를 가지고, 상기 위치 정보에 상응하여 다른 대상 픽셀과 비일치하는 참조 영역들을 가지는 것을 특징으로 하는 AVM 시스템.
The method according to claim 1,
Wherein each of the plurality of target pixels has position information that does not coincide with each other within a coordinate range of the black masking area and reference areas that do not coincide with other target pixels according to the position information.
(a) 차량에 구비된 복수의 카메라로부터 실시간 각각 입력되는 영상 신호를 각각의 카메라 영상 데이터로 저장부에 저장하는 단계;
(b) 각각의 카메라 영상 데이터를 이용하여 사각지대를 표시하는 검은색 마스킹 영역이 포함된 AVM 영상 데이터를 생성하는 단계;
(c) 상기 차량의 주행 속도 및 움직임 방향을 인식하고, 상기 검은색 마스킹 영역에 상응하는 복수의 대상 픽셀 각각이 복수의 참조 영역들 각각에 포함된 하나 이상의 참조 픽셀의 픽셀 정보에 미리 지정된 가중치값을 적용하여 합산된 픽셀 정보를 가지도록 구성된 가상 이미지 데이터를 생성하는 단계; 및
(d) 상기 AVM 영상 데이터에 포함된 상기 검은색 마스킹 영역을 상기 가상 이미지 데이터로 대체시켜 디스플레이부를 통해 출력하는 단계를 포함하는 사각지대 영상 합성 방법.
In a blind zone image synthesis method performed in an AVM system,
(a) storing a video signal input from each of a plurality of cameras provided in a vehicle in a storage unit as respective camera image data;
(b) generating AVM image data including a black masking area displaying a blind spot using each camera image data;
(c) recognizing a running speed and a moving direction of the vehicle, and each of a plurality of target pixels corresponding to the black masking area is assigned a weight value previously assigned to pixel information of one or more reference pixels included in each of the plurality of reference areas Generating virtual image data configured to have the summed pixel information by applying the virtual image data; And
(d) replacing the black masking area included in the AVM image data with the virtual image data and outputting the virtual masking data through a display unit.
상기 움직임 방향은,
상기 차량의 스티어링 휠 회전 각도를 센싱하거나 조향각을 센싱하는 센서로부터 움직임 방향에 관한 정보를 제공받거나, 상기 단계 (b)에서 생성된 AVM 영상 데이터에서 추출된 모션 벡터를 이용하여 인식되는 것을 특징으로 하는 사각지대 영상 합성 방법.
8. The method of claim 7,
The direction of movement,
Wherein the information about the direction of movement is sensed by a sensor for sensing a steering wheel rotation angle of the vehicle or sensing a steering angle or is recognized using a motion vector extracted from the AVM image data generated in the step (b) Blind zone image synthesis method.
상기 단계 (c)에서 참조 픽셀을 포함하는 각각의 참조 영역에 지정되는 가중치값은, AVM 영상 데이터에서 대상 픽셀의 주변 영역을 복수의 영역들로 구획한 복수의 참조 영역들로 구분한 후, 미리 저장된 기준 정보를 이용하여 상기 차량의 움직임 방향에 상응하도록 지정하는 것을 특징으로 하는 사각지대 영상 합성 방법.
8. The method of claim 7,
In the step (c), a weight value assigned to each reference area including reference pixels is divided into a plurality of reference areas that divide the peripheral area of the target pixel into a plurality of areas in the AVM image data, Wherein the reference image is designated to correspond to the moving direction of the vehicle using the stored reference information.
상기 차량의 움직임 방향에 부합되도록 위치된 참조 영역에 다른 참조 영역들에 비해 상대적으로 큰 가중치값이 지정되는 것을 특징으로 하는 사각지대 영상 합성 방법.
10. The method of claim 9,
Wherein a relatively large weight value is designated in a reference area positioned to match the direction of movement of the vehicle relative to other reference areas.
상기 단계 (c)에서, 상기 대상 픽셀의 픽셀 정보를 산출하기 위해 각 참조 영역에서 이용할 참조 픽셀의 수를 수학식 D=(SxP)/F를 이용하여 결정하되,
상기 D는 참조 픽셀의 범위값이고, S는 상기 차량의 초당 주행 거리이며, P는 카메라 영상 데이터의 1픽셀이 AVM 영상에서 표시되는 크기이고, F는 프레임레이트(frame rate)인 것을 특징으로 하는 사각지대 영상 합성 방법.
8. The method of claim 7,
In the step (c), the number of reference pixels to be used in each reference area is calculated using the equation D = (SxP) / F to calculate the pixel information of the target pixel,
Wherein D is a range value of a reference pixel, S is a traveling distance per second of the vehicle, P is a size at which one pixel of the camera image data is displayed in the AVM image, and F is a frame rate Blind zone image synthesis method.
복수의 대상 픽셀 각각은 상기 검은색 마스킹 영역의 좌표 범위 내에서 각각 비일치하는 위치 정보를 가지고, 상기 위치 정보에 상응하여 다른 대상 픽셀과 비일치하는 참조 영역들을 가지는 것을 특징으로 하는 사각지대 영상 합성 방법.
8. The method of claim 7,
Wherein each of the plurality of target pixels has position information that does not coincide with each other within a coordinate range of the black masking area and has reference areas that do not coincide with other target pixels corresponding to the position information, Way.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170045261A KR101764106B1 (en) | 2017-04-07 | 2017-04-07 | AVM system and method for compositing image with blind spot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170045261A KR101764106B1 (en) | 2017-04-07 | 2017-04-07 | AVM system and method for compositing image with blind spot |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150114844A Division KR20170020666A (en) | 2015-08-13 | 2015-08-13 | AVM system and method for compositing image with blind spot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170043104A true KR20170043104A (en) | 2017-04-20 |
KR101764106B1 KR101764106B1 (en) | 2017-08-03 |
Family
ID=58705871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170045261A KR101764106B1 (en) | 2017-04-07 | 2017-04-07 | AVM system and method for compositing image with blind spot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101764106B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190033322A (en) | 2017-09-21 | 2019-03-29 | 현대자동차주식회사 | Image transforming System and Method for transforming Image |
US11134233B2 (en) | 2019-06-17 | 2021-09-28 | Hyundai Mobis Co., Ltd. | Vehicle camera module and control method thereof |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102053099B1 (en) | 2018-06-07 | 2019-12-06 | 현대오트론 주식회사 | Around view monitoring system and operating method thereof |
KR20220161611A (en) | 2021-05-28 | 2022-12-07 | 황성용 | AVM system with point-of-view function |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011114536A (en) | 2009-11-26 | 2011-06-09 | Alpine Electronics Inc | Vehicle periphery image providing device |
KR101183480B1 (en) * | 2012-05-11 | 2012-09-20 | 주식회사 세코닉스 | Bird view image generating device for calibrating image distortion |
-
2017
- 2017-04-07 KR KR1020170045261A patent/KR101764106B1/en active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190033322A (en) | 2017-09-21 | 2019-03-29 | 현대자동차주식회사 | Image transforming System and Method for transforming Image |
US11134233B2 (en) | 2019-06-17 | 2021-09-28 | Hyundai Mobis Co., Ltd. | Vehicle camera module and control method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR101764106B1 (en) | 2017-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101764106B1 (en) | AVM system and method for compositing image with blind spot | |
EP1179958B1 (en) | Image processing device and monitoring system | |
JP3300334B2 (en) | Image processing device and monitoring system | |
JP5072576B2 (en) | Image display method and image display apparatus | |
EP2261604B1 (en) | Computer arrangement for and method of calculating motion vectors using range sensor data | |
WO2015194501A1 (en) | Image synthesis system, image synthesis device therefor, and image synthesis method | |
EP1462762A1 (en) | Circumstance monitoring device of a vehicle | |
JP7247173B2 (en) | Image processing method and apparatus | |
US20150042799A1 (en) | Object highlighting and sensing in vehicle image display systems | |
CN103770706A (en) | Dynamic rearview mirror display features | |
CN101487895B (en) | Reverse radar system capable of displaying aerial vehicle image | |
JP2008027138A (en) | Vehicle monitoring device | |
WO2005088970A1 (en) | Image generation device, image generation method, and image generation program | |
JP2015015527A (en) | Video display system, video synthesis device and video synthesis method | |
JP2002019556A (en) | Monitoring system | |
KR20170118077A (en) | Method and device for the distortion-free display of an area surrounding a vehicle | |
KR20180020274A (en) | Panel conversion | |
JP6338930B2 (en) | Vehicle surrounding display device | |
Pan et al. | Rear-stitched view panorama: A low-power embedded implementation for smart rear-view mirrors on vehicles | |
KR20170020666A (en) | AVM system and method for compositing image with blind spot | |
JP2020052671A (en) | Display control device, vehicle, and display control method | |
JP7029350B2 (en) | Image processing device and image processing method | |
US11514617B2 (en) | Method and system of providing virtual environment during movement and related non-transitory computer-readable storage medium | |
US20220222947A1 (en) | Method for generating an image of vehicle surroundings, and apparatus for generating an image of vehicle surroundings | |
KR102300652B1 (en) | vehicle and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |