KR20140048539A - Method and apparatus for recognizing object using surrounding image of vehicle - Google Patents
Method and apparatus for recognizing object using surrounding image of vehicle Download PDFInfo
- Publication number
- KR20140048539A KR20140048539A KR1020120114611A KR20120114611A KR20140048539A KR 20140048539 A KR20140048539 A KR 20140048539A KR 1020120114611 A KR1020120114611 A KR 1020120114611A KR 20120114611 A KR20120114611 A KR 20120114611A KR 20140048539 A KR20140048539 A KR 20140048539A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- foreground
- interest
- vehicle
- pixel
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000005855 radiation Effects 0.000 claims abstract description 22
- 238000012937 correction Methods 0.000 claims abstract description 14
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000000926 separation method Methods 0.000 claims abstract description 5
- 239000002131 composite material Substances 0.000 claims description 14
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 230000007613 environmental effect Effects 0.000 claims 1
- 230000015572 biosynthetic process Effects 0.000 abstract 4
- 238000003786 synthesis reaction Methods 0.000 abstract 4
- 238000010586 diagram Methods 0.000 description 8
- 238000012806 monitoring device Methods 0.000 description 6
- 239000000470 constituent Substances 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002054 transplantation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
- B60R2300/607—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
Description
본 실시예는 차량의 주변영상을 이용한 객체 인식장치 및 방법에 관한 것이다. 더욱 상세하게는, 고화질의 광각 카메라를 이용하여 촬영된 촬영영상의 방사 왜곡 및 접합 오차를 보정하여 파노라마 뷰, 코너 뷰 및 탑 뷰 등과 같은 하나의 영상으로 합성하고, 합성된 영상을 전경 및 배경 영상으로 분리하여 관심객체를 인식하는 차량의 주변영상을 이용한 객체 인식장치 및 방법에 관한 것이다.The present embodiment relates to an object recognition apparatus and method using a surrounding image of a vehicle. More specifically, by compensating the radiation distortion and the joint error of the captured image taken by using a high-quality wide-angle camera, synthesized into a single image such as panoramic view, corner view and top view, and synthesized synthesized image in the foreground and background image The present invention relates to an object recognition apparatus and method using a surrounding image of a vehicle that recognizes an object of interest.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section merely provide background information on the present embodiment and do not constitute the prior art.
종래의 차량 주변 영상 시스템은 차량에 설치된 카메라를 통해 촬영된 각각의 영상을 탑 뷰 형태로 보정 처리하고, 복수개의 보정 처리된 영상에 대한 픽셀들의 가중치를 이용하여 오버레이(Overlay) 처리된 영상을 생성하여 디스플레이한다. 또한, 종래의 시스템은 D1급(640x480) 카메라를 이용함으로써 주변 영상을 인식하는 데 있어서 인식거리와 분해능에 한계가 있다는 문제점이 있다. 또한, 종래의 차량 주변 영상 시스템은 영상 정합 및 차선 이식 등과 같은 제한적인 영상처리에만 사용해야 하는 문제점이 있다.Conventional vehicle surrounding image systems correct each image photographed by a camera installed in a vehicle in a top view form, and generate an overlay processed image using weights of pixels for a plurality of corrected images. To display. In addition, the conventional system has a problem in that the recognition distance and resolution are limited in recognizing the surrounding image by using a D1-class (640x480) camera. In addition, the conventional vehicle peripheral imaging system has a problem that should be used only for limited image processing such as image registration and lane transplantation.
따라서, HD급(720p)의 카메라를 사용하여 기존 인식거리 및 분해능의 한계를 뛰어 넘고, 차량 주변의 이동물체들도 동시에 인식하여 주차 시 또는 주행 시 충돌 방지를 자동으로 알려주는 기술을 필요로 한다.Therefore, using the HD (720p) camera to overcome the limitations of the existing recognition distance and resolution, and also to recognize the moving objects around the vehicle at the same time requires a technology that automatically informs the collision avoidance when parking or driving. .
본 실시예는, 고화질의 광각 카메라를 이용하여 촬영된 촬영영상의 방사 왜곡 및 접합 오차를 보정하여 파노라마 뷰, 코너 뷰 및 탑 뷰 등과 같은 하나의 영상으로 합성하고, 합성된 영상을 전경 및 배경 영상으로 분리하여 관심객체를 인식하는 차량의 주변영상을 이용한 객체 인식장치 및 방법을 제공하는 데 주된 목적이 있다.The present embodiment synthesizes a single image such as a panoramic view, a corner view, and a top view by correcting a radiation distortion and a joint error of a captured image photographed using a high-quality wide-angle camera, and synthesizes the synthesized image in the foreground and background images. The main object of the present invention is to provide an apparatus and method for recognizing an object using a surrounding image of a vehicle that recognizes an object of interest.
본 실시예의 일 측면에 의하면, 차량에 기 설치된 복수개의 카메라를 이용하여 차량 주변영상 내의 관심객체를 인식하는 장치에 있어서, 상기 복수개의 카메라를 통해 촬영된 촬영영상을 획득하는 영상 획득부; 조작을 통해 입력된 영상 선택정보에 근거하여 상기 촬영영상에 대한 방사 왜곡 및 접합 오차를 보정하여 보정영상을 생성하는 전처리부; 상기 보정 영상을 상기 영상 선택정보에 대응하는 하나의 합성영상으로 생성하는 영상 합성부; 상기 합성영상 내의 화소 중에서 소정의 기준에 따라 움직임이 없는 배경에 대해 지정된 배경 화소를 이용하여 움직이는 객체에 해당하는 전경 화소를 판별하고, 상기 전경 화소를 포함하는 전경 영상을 생성하는 전경 배경 분리부; 상기 전경영상을 이용하여 상기 관심객체를 추적하는 관심객체 추적부; 및 상기 추적된 관심객체를 포함하는 주변 영상 결과정보를 출력하는 출력부를 포함하는 것을 특징으로 하는 객체 인식장치를 제공한다.According to an aspect of the present embodiment, an apparatus for recognizing an object of interest in a surrounding image of a vehicle by using a plurality of cameras pre-installed in a vehicle, the apparatus comprising: an image acquisition unit configured to acquire a captured image photographed by the plurality of cameras; A preprocessing unit generating a corrected image by correcting a radiation distortion and a bonding error of the photographed image based on the image selection information inputted through the manipulation; An image synthesizer configured to generate the corrected image as one composite image corresponding to the image selection information; A foreground background separator configured to determine a foreground pixel corresponding to a moving object by using a background pixel designated for a background without movement according to a predetermined criterion among the pixels in the composite image, and generate a foreground image including the foreground pixel; An object of interest tracking unit that tracks the object of interest using the foreground image; And an output unit configured to output surrounding image result information including the tracked object of interest.
본 실시예의 다른 측면에 의하면, 차량 주변의 관심객체를 인식하는 방법에 있어서, 상기 차량에 부착된 복수개의 카메라를 통해 촬영된 촬영영상을 획득하는 영상 획득과정; 상기 촬영영상에 대한 방사 왜곡을 보정하고, 기 저장된 접합 기준영상에 근거하여 상기 촬영영상에 대한 접합 오차를 보정하는 전처리 과정; 복수개의 상기 보정된 촬영영상을 파노라마 뷰, 코너 뷰 및 탑 뷰 중 선택된 하나의 영상으로 합성하는 영상 합성과정; 상기 합성영상 내의 화소 중에서 소정의 기준에 따라 지정된 배경 화소를 이용하여 전경 화소를 판별하고, 상기 전경 화소를 포함하는 전경 영상을 생성하는 전경 배경 분리과정; 상기 전경영상을 이용하여 상기 관심객체를 추적하는 관심객체 추적과정; 및 상기 추적된 관심객체를 포함하는 주변 영상 결과정보를 출력하는 출력과정을 포함하는 것을 특징으로 하는 객체 인식방법을 제공한다.According to another aspect of the present embodiment, a method of recognizing an object of interest around a vehicle, the method comprising: an image acquiring process of acquiring a captured image photographed by a plurality of cameras attached to the vehicle; A preprocessing step of correcting a radiation distortion of the photographed image and correcting a junction error of the photographed image based on a previously stored junction reference image; An image synthesizing process of synthesizing a plurality of the corrected captured images into one image selected from a panoramic view, a corner view, and a top view; A foreground background separation process of determining a foreground pixel by using a background pixel designated according to a predetermined criterion among pixels in the synthesized image, and generating a foreground image including the foreground pixel; An object of interest tracking process of tracking the object of interest using the foreground image; And an output process of outputting surrounding image result information including the tracked object of interest.
이상에서 설명한 바와 같이 본 실시예에 의하면, 고화질의 광각 카메라를 이용하여 촬영된 촬영영상의 방사 왜곡 및 접합 오차를 보정하여 파노라마 뷰, 코너 뷰 및 탑 뷰 등과 같은 하나의 영상으로 합성하고, 합성된 영상을 전경 및 배경 영상으로 분리하여 관심객체를 인식함으로써, 주변 영상에 대한 인식거리 및 분해능을 증가시킬 수 있고, 주변 영상과 이동물체(예컨대, 보행자, 차량, 이륜차 및 동물 등)를 동시에 인식하여 충돌 방지에 대해 더 정확한 알람을 제공할 수 있는 효과가 있다.As described above, according to the present exemplary embodiment, the radiation distortion and the bonding error of the photographed image photographed using the high-quality wide-angle camera are corrected and synthesized into a single image such as a panoramic view, a corner view, and a top view. By separating the image into a foreground and background image to recognize the object of interest, the recognition distance and resolution of the surrounding image can be increased, and the surrounding image and moving objects (eg, pedestrians, vehicles, motorcycles, and animals) can be recognized simultaneously. This has the effect of providing more accurate alarms for collision avoidance.
도 1은 본 실시예에 따른 차량의 주변 영상정보를 이용하여 객체를 인식하기 위한 시스템을 개략적으로 나타낸 블록 구성도이다.
도 2는 본 실시예에 따른 객체 인식장치를 개략적으로 나타낸 블록 구성도이다.
도 3은 본 실시예에 따른 차량의 주변 영상정보를 이용하여 객체를 인식하는 방법을 설명하기 위한 순서도이다.
도 4는 본 실시예에 따른 인식 기준영상을 생성하는 동작을 설명하기 위한 예시도이다.
도 5는 본 실시예에 따른 방사 왜곡을 보정하기 위한 기준영상을 생성하는 동작을 설명하기 위한 예시도이다.
도 6은 본 실시예에 따른 차량의 촬영영상을 설명하기 위한 예시도이다.
도 7은 본 실시예에 따른 탑 뷰 영상을 이용하여 객체 인식장치가 객체를 검출하는 방법을 설명하기 위한 예시도이다.1 is a block diagram schematically illustrating a system for recognizing an object by using surrounding image information of a vehicle according to the present embodiment.
2 is a block diagram schematically showing an object recognition apparatus according to the present embodiment.
3 is a flowchart illustrating a method of recognizing an object by using surrounding image information of a vehicle according to the present embodiment.
4 is an exemplary diagram for describing an operation of generating a recognition reference image according to the present embodiment.
5 is an exemplary diagram for describing an operation of generating a reference image for correcting radiation distortion according to the present embodiment.
6 is an exemplary view for explaining a captured image of a vehicle according to the present embodiment.
7 is an exemplary view for explaining a method of detecting an object by the object recognition apparatus using the top view image according to the present embodiment.
이하, 본 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, the present embodiment will be described in detail with reference to the accompanying drawings. It should be noted that, in adding the reference parts to the constituent elements of the respective drawings, the same constituent elements are denoted by the same reference numerals as much as possible even if they are displayed on different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected to or connected to the other component, It should be understood that an element may be "connected," "coupled," or "connected."
도 1은 본 실시예에 따른 차량의 주변 영상정보를 이용하여 객체를 인식하기 위한 시스템을 개략적으로 나타낸 블록 구성도이다.1 is a block diagram schematically illustrating a system for recognizing an object by using surrounding image information of a vehicle according to the present embodiment.
본 실시예에 따른 차량 주변영상 인식시스템은 영상 촬영장치(110), 객체 인식장치(120) 및 모니터링 장치(130)를 포함한다. 여기서, 영상 촬영장치(110)는 제1 카메라(112), 제2 카메라(114), 제3 카메라(116) 및 제4 카메라(118)와 같이 복수개의 카메라를 포함하여 구현되는 것이 바람직하다.The vehicle surrounding image recognition system according to the present exemplary embodiment includes an
영상 촬영장치(110)는 차량 주변에 대한 촬영영상을 촬영하는 장치를 말하며, 본 실시예에 따른 영상 촬영장치(110)는 차량 주변에 움직이는 객체를 인식하여 검출하기 위한 영상을 촬영할 수 있는 차량용 카메라 등으로 구현되는 것이 바람직하다. 여기서, 촬영영상은 복수개의 카메라(112, 114, 116 및 118)에서 촬영된 복수개의 프레임을 포함할 수 있다. 또한, 영상 촬영장치(110)는 HD 화질의 영상을 촬영할 수 있는 광각 카메라로 구성되는 것이 바람직하며 촬영된 영상은 적어도 720p의 해상도 즉, 1280x720의 해상도를 가지는 영상일 수 있다. 여기서, 720p의 해상도는 촬영영상의 세로에 720개의 화소를 갖고, 주사선의 교차없이 한번에 짝수 및 홀수 줄을 초당 60 번씩 동시에 출력하는 촬영영상을 의미한다.The
영상 촬영장치(110)는 차량의 전방, 후방 및 좌우 측방을 촬영하는 제1 카메라(112), 제2 카메라(114), 제3 카메라(116) 및 제4 카메라(118)를 포함하여 구성되고, 각각의 카메라는 차량을 중심으로 서로 다른 방향을 촬영하며, 복수개의 카메라(112, 114, 116 및 118)는 중복하여 촬영되는 영상의 영역이 존재할 수 있다.The
객체 인식장치(120)는 영상 촬영장치(110)에서 촬영된 복수개의 촬영영상을 획득하고, 획득한 각각의 촬영영상에 대한 방사 왜곡 및 접합 오차를 보정하여 하나의 영상으로 합성하는 동작을 수행한다. 여기서, 객체 인식장치(120)는 넓은 시야각을 갖는 광각 카메라의 성능 또는 대기, 태양 등과 같은 외부 환경요소에 의해 촬영영상의 중심으로부터 방사 상으로 영상이 확장되거나 축소되는 방사 왜곡을 보정한다. 또한, 객체 인식장치(120)는 파노라마 뷰, 코너 뷰 및 탑 뷰 중 하나의 영상으로 합성할 때, 각각의 촬영영상의 접합 부분에 대한 오차를 줄여 촬영영상 간에 정확하게 연결되도록 보정을 수행한다. 여기서, 객체 인식장치(120)는 접합 기준영상을 이용하여 복수개의 촬영영상이 접합된 오차가 8cm 미만이 되도록 접합 오차에 대한 보정을 수행하는 것이 바람직하다.The
객체 인식장치(120)는 파노라마 뷰, 코너 뷰 및 탑 뷰 등과 같이 하나로 합성된 영상에서 전경 및 배경을 분리하여 판별된 관심객체를 추적하는 동작을 수행한다. 여기서, 객체 인식장치(120)는 합성영상 내에서 소정의 개수의 가우시안 노드(Gaussian Node)를 포함하는 화소 중 가우시안 노드에 대한 가중치(Weight)가 소정의 기준보다 큰 복수개의 노드를 배경 화소로 지정하고, 지정된 배경 화소를 기준으로 합성영상 내에서 전경 화소를 판별하고, 판별된 전경 화소에 대한 전경 영상을 분리한다. 여기서, 객체 인식장치(120)는 분리된 전경 영상 내에 포함된 복수개의 객체에 대한 컬러 정보, 히스토그램, 객체의 모양(shape) 등 중 적어도 하나 이상을 비교하여 동일한 객체를 판별하고, 판별된 관심객체를 추적한다.The
모니터링 장치(130)는 객체 인식장치(120)에서 인식된 관심객체를 포함하는 주변 영상정보를 출력하는 장치로서, 모니터링을 위한 디스플레이를 구비한다. 여기서, 모니터링 장치(130)는 객체 인식장치(120)와 유선으로 연결되는 것이 바람직하나 반드시 이에 한정되는 것은 아니며, 주변 영상정보를 무선랜 신호 또는 블루투스(Bluetooth), 지그비(Zigbee) 등과 같은 근거리 통신을 이용하여 수신할 수도 있다. 한편, 도 1에서 모니터링 장치(130)는 객체 인식장치(120)와 별도로 구현된 장치인 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며 객체 인식장치(120)에 디스플레이부를 포함하여 하나의 장치로 구현될 수도 있다.The
또한, 모니터링 장치(130)는 주변 영상정보 포함된 관심객체를 사각형, 원 등과 같은 형태로 관심객체가 부각되도록 표시하여 디스플레이할 수도 있다.In addition, the
도 2는 본 실시예에 따른 객체 인식장치를 개략적으로 나타낸 블록 구성도이다.2 is a block diagram schematically showing an object recognition apparatus according to the present embodiment.
본 실시예에 따른 객체 인식장치(120)는 영상 처리부(210) 및 객체 인식부(250)를 포함한다. 여기서, 영상 처리부(210)는 영상 획득부(220), 전처리부(230), 영상 합성부(240)를 포함하고, 객체 인식부(250)는 전경 배경 분리부(260), 관심객체 추적부(270) 및 주변 영상정보 생성부(280)를 포함한다.The
영상 처리부(210)는 촬영영상을 보정하여 하나의 영상으로 합성하는 동작을 수행한다. 여기서, 영상 처리부(210)에 포함된 구성요소를 더 자세히 설명하자면 다음과 같다.The
영상 획득부(220)는 영상 촬영장치(110)에서 차량의 주변이 촬영된 촬영영상을 획득하는 동작을 수행한다. 여기서, 촬영영상은 영상 촬영장치(110)에 포함된 복수개의 카메라를 통해 차량의 전, 후, 좌 및 우측 방향을 촬영된 영상으로서 각각의 카메라에 대한 각각의 영상을 의미한다. 또한, 촬영영상은 캡쳐된 하나의 프레임인 것이 바람직하나 반드시 이에 한정되는 것은 아니며 복수개의 프레임이 결합된 영상일 수도 있다. 예컨대, 영상 획득부(220)는 차량에 기 설치된 제1 카메라(112), 제2 카메라(114), 제3 카메라(116) 및 제4 카메라(118)로부터 차량의 주변이 촬영된 제1 촬영영상(전방), 제2 촬영영상(후방), 제3 촬영영상(좌측방) 및 제4 촬영영상(우측방)을 획득할 수 있다. 여기서, 복수개의 카메라(112, 114, 116 및 118)는 HD 화질의 영상을 촬영할 수 있는 광각 카메라인 것이 바람직하며 촬영된 영상은 적어도 720p의 해상도 즉, 1280x720의 해상도를 가지는 영상일 수 있다.The
전처리부(230)는 영상 획득부(220)에서 획득한 복수개의 촬영영상에 대한 방사 왜곡 및 접합 오차를 보정하는 동작을 수행한다. The
전처리부(230)는 넓은 시야각을 갖는 광각 카메라의 성능 또는 대기, 태양 등과 같은 외부 환경요소에 의해 방사 왜곡이 일어난 촬영영상에 대한 왜곡을 보정한다. 여기서 방사 왜곡이란, 촬영영상의 중심으로부터 방사 상으로 영상이 확장되거나 축소되는 현상을 의미한다. The
전처리부(230)는 통계치 보정, 히스토그램 매칭 보정 및 드랍(Drop) 라인 보정 중 적어도 하나 이상의 방식을 이용하여 방사 왜곡을 보정할 수 있다. 여기서, 통계치 보정은 기 설정된 특정 행 또는 열들에 대한 화소값 평균과 표준편차를 기준으로 특정 행 또는 열을 제외한 나머지 부분을 변환하여 보정하는 방식을 의미하고, 히스토그램 매칭 보정은 영상 간의 대비(Contrast)를 맞춰주는 히스토그램 매칭 기법을 기 설정된 특정 행 또는 열에 적용하여 보정하는 방식을 의미한다. 또한, 드랍(Drop) 라인 보정은 기 설정된 특정 행 또는 열에 인접한 화소 정보의 평균값을 화소 정보가 존재하지 않는 드랍 라인에 적용시켜 보정하는 방식을 의미한다.The
전처리부(230)는 기 생성된 접합 기준영상을 이용하여 촬영영상에 대한 접합 오차(즉, 실제 거리와 영상에서의 거리의 차인 오차거리)를 보정한다. 여기서, 전처리부(230)는 영상 합성부(240)에서 파노라마 뷰, 코너 뷰 및 탑 뷰를 생성할 때 각각의 촬영영상의 접합 부분에 대한 오차를 줄여 촬영영상 간에 정확하게 연결되도록 하는 보정을 수행한다. 여기서, 기 생성된 접합 기준영상은 차량이 위치한 공간의 바닥면에 기 설치된 격자 눈금을 차량에 부착된 복수개의 카메라를 통해 촬영한 영상을 의미하고, 전처리부(230)는 촬영된 영상을 기준으로 차량의 전, 후, 좌 및 우측을 촬영한 촬영영상에 대한 접합 보정을 수행한다. 여기서, 전처리부(230)는 접합 기준영상을 이용하여 영상 합성부(240)에서 복수개의 촬영영상이 접합된 영상에 대한 거리 및 실제 거리에 대한 오차 거리가 8cm 미만이 되도록 접합 오차를 보정하는 것이 바람직하다.The
영상 합성부(240)는 전처리부(230)에서 보정된 복수개의 촬영영상을 하나의 영상으로 합성하는 동작을 수행한다. 본 실시예에 따른 영상 합성부(240)는 방사 왜곡 및 접합 오차를 보정한 복수개의 촬영영상을 파노라마 뷰, 코너 뷰 및 탑 뷰 중 사용자로부터 선택된 적어도 하나 이상의 선택영상으로 합성한다. 여기서, 파노라마 뷰는 차량에 부착된 각각의 카메라를 이용하여 차량의 일부 또는 전체 방향에 대해 촬영된 영상을 접합하여 생성된 영상을 의미하고, 코너 뷰는 사용자에 의해 선택된 차량의 네 모서리 중 적어도 하나의 코너에 대해 촬영된 영상을 접합하여 생성된 영상을 의미하고, 차량에 부착된 각각의 카메라에서 촬영된 영상을 이용하여 차량의 위에서 내려다보는 것과 같이 생성된 영상을 의미한다.The
객체 인식부(250)는 파노라마 뷰, 코너 뷰 및 탑 뷰 등과 같이 하나로 합성된 영상에서 전경 및 배경을 분리하여 판별된 관심객체를 추적하는 동작을 수행한다. 또한, 객체 인식부(250)는 캘리브레이션(Calibration) 차트를 촬영하여 객체를 인식하는 분해능을 측정한 인식 기준영상을 저장하고, 인식 기준영상에 근거하여 소정의 거리 내에 존재하는 객체를 인식할 수 있다.The
객체 인식부(250)에 포함된 구성요소를 더 자세히 설명하자면 다음과 같다.The components included in the
전경 배경 분리부(260)는 파노라마 뷰, 코너 뷰 및 탑 뷰 등과 같은 합성영상을 전경 화소 및 배경 화소로 구분하여 전경 영상을 분리하는 동작을 수행한다. 더 자세히 설명하자면, 전경 배경 분리부(250)는 소정의 개수의 가우시안 노드(Gaussian Node)를 포함하는 화소 중 가우시안 노드에 대한 가중치(Weight)가 소정의 기준보다 큰 복수개의 노드를 배경 화소로 지정하고, 지정된 배경 화소를 기준으로 합성영상 내에서 전경 화소를 판별한다. 여기서, 전경 배경 분리부(260)는 판별된 전경 화소를 이용하여 전경 영상을 분리한다. 예컨대, 전경 배경 분리부(250)는 파노라마 뷰인 합성영상 내에서 사람이 지나가면, 가우시안 노드의 가중치에 따라 배경화소를 지정하고, 지나가는 사람에 대한 화소는 배경 화소에 해당되지 않으므로 전경 화소로 판별하여, 움직이는 사람에 대한 영상를 전경 영상으로 분리할 수 있다.The
관심객체 추적부(270)는 전경 배경 분리부(260)에서 분리된 전경 영상을 이용하여 관심객체를 추적한다. 여기서, 전경 영상은 1의 값으로 표시되고, 배경에 해당하는 영상은 0의 값으로 표시되어 구분될 수 있다.The object-of-
관심객체 추적부(270)는 시계열적으로 생성된 합성영상 내에서 분리된 전경 영상 내에 포함된 복수개의 객체에 대한 컬러 정보, 히스토그램, 객체의 모양(shape) 등 중 적어도 하나 이상을 비교하여 소정의 범위 내에 좌표값이 위치하는 경우 동일한 객체로 판별하고, 판별된 관심객체를 추적한다. 여기서, 관심객체 추적부(270)는 관심객체가 움직이는 궤적좌표값을 저장하여 관심객체를 추적할 수 있다.The object-of-
주변 영상정보 생성부(280)는 추적된 관심객체를 포함하는 주변 영상정보를 생성하여 사용자가 차량 주변을 확인할 수 있도록 출력하기 위해 모니터링 장치에 전송한다. The surrounding image
도 3은 본 실시예에 따른 차량의 주변 영상정보를 이용하여 객체를 인식하는 방법을 설명하기 위한 순서도이다.3 is a flowchart illustrating a method of recognizing an object by using surrounding image information of a vehicle according to the present embodiment.
객체 인식장치(120)는 영상 촬영장치(110)로부터 복수개의 촬영영상을 획득한다(S310). 여기서, 복수개의 촬영영상은 HD 화질의 영상을 촬영할 수 있는 광각 카메라로 촬영되고, 촬영영상은 적어도 720p의 해상도 즉, 1280x720의 해상도를 가지는 영상인 것이 바람직하다.The
객체 인식장치(120)는 기 저장된 기준영상에 근거하여 각각의 촬영영상에 대한 방사 왜곡 및 접합 오차를 보정한다(S320). 여기서, 객체 인식장치(120)는 넓은 시야각을 갖는 광각 카메라의 성능 또는 대기, 태양 등과 같은 외부 환경요소에 의해 방사 왜곡이 일어난 촬영영상에 대한 왜곡을 보정한다. 또한, 객체 인식장치(120)는 기 생성된 접합 기준영상에 근거하여 파노라마 뷰, 코너 뷰 및 탑 뷰 등과 같은 합성영상을 생성할 때 각각의 촬영영상의 접합 부분에 대한 오차를 보정한다. The
객체 인식장치(120)는 단계 S320에서 보정된 복수개의 촬영영상을 파노라마 뷰, 코너 뷰 및 탑 뷰 중 선택된 영상으로 합성한다(S330). 여기서, 파노라마 뷰는 차량에 부착된 각각의 카메라를 이용하여 차량의 일부 또는 전체 방향에 대해 촬영된 영상을 접합하여 생성된 영상을 의미하고, 코너 뷰는 사용자에 의해 선택된 차량의 네 모서리 중 적어도 하나의 코너에 대해 촬영된 영상을 접합하여 생성된 영상을 의미하고, 차량에 부착된 각각의 카메라에서 촬영된 영상을 이용하여 차량의 위에서 내려다보는 것과 같이 합성된 영상을 의미한다.The
객체 인식장치(120)는 합성영상을 전경과 배경으로 분리한다(S340). 객체 인식장치(120)는 합성영상 내에서 소정의 개수의 가우시안 노드를 포함하는 화소 중 가우시안 노드에 대한 가중치가 소정의 기준보다 큰 복수개의 노드를 배경 화소로 지정하고, 지정된 배경 화소를 기준으로 합성영상 내에서 전경 화소를 판별하고, 판별된 전경 화소를 이용하여 전경 영상을 분리한다.The
객체 인식장치(120)는 전경영상을 이용하여 움직이는 관심객체를 추적한다(S350). 객체 인식장치(120)는 단계 S340에서 분리된 전경 영상 내에 복수개의 움직이는 객체에 대한 컬러 정보, 히스토그램, 객체의 모양 등 중 적어도 하나 이상을 비교하여 동일한 객체를 판별하고, 판별된 관심객체를 추적한다.The
객체 인식장치(120)는 추적된 관심객체를 포함하는 주변 영상정보를 모니터링 장치(130)에 전송하여 디스플레이되도록 한다(S360).The
도 3에서는 단계 S310 내지 단계 S360를 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 3에 기재된 순서를 변경하여 실행하거나 단계 S310 내지 단계 S360 중 하나 이상의 단계를 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 3은 시계열적인 순서로 한정되는 것은 아니다.In FIG. 3, steps S310 to S360 are described as being sequentially executed. However, this is merely illustrative of the technical idea of an embodiment of the present invention, and the general knowledge in the technical field to which an embodiment of the present invention belongs. Those having a variety of modifications and variations may be applicable by changing the order described in FIG. 3 or executing one or more steps of steps S310 to S360 in parallel without departing from the essential characteristics of an embodiment of the present invention. 3 is not limited to the time series order.
도 4는 본 실시예에 따른 인식 기준영상을 생성하는 동작을 설명하기 위한 예시도이다.4 is an exemplary diagram for describing an operation of generating a recognition reference image according to the present embodiment.
영상 촬영장치(110)를 이용하여 소정의 거리에 위치한 벽면에 기 설치된 캘리브레이션(Calibration) 차트를 촬영하고, 객체 인식장치(120)는 촬영된 인식 기준영상에 근거하여 소정의 거리 내에 존재하는 객체를 인식한다. 예컨대, 도 4의 (a)에 도시된 바와 같이, 영상 촬영장치(110)를 이용하여 5 m 거리에 위치한 벽면에 (b)와 같은 캘리브레이션 차트를 촬영하고, 객체 인식장치(120)는 촬영된 인식 기준영상에서 5 m 거리 내에 존재하는 객체를 인식할 수 있는지 여부를 측정한다. 여기서, 객체 인식장치(120)는 인식 기준영상에서 유효 화각(예컨대, 60 도)에 해당하는 영상의 화소(Pixel) 개수를 확인하여 분해능을 측정하고, 분해능에 근거하여 소정의 거리 내에서 객체를 인식할 수 있는지 여부를 기준으로 설정할 수도 있다.The calibration chart is pre-installed on a wall located at a predetermined distance using the
도 5는 본 실시예에 따른 방사 왜곡을 보정하기 위한 기준영상을 생성하는 동작을 설명하기 위한 예시도이다.5 is an exemplary diagram for describing an operation of generating a reference image for correcting radiation distortion according to the present embodiment.
도 5에 도시된 바와 같이, 소정의 높이에 설치된 영상 촬영장치(110)를 이용하여 그리드 차트(Grid Chart) 기 설치된 지면을 촬영하여 접합 기준영상을 생성한다. 여기서, 영상 촬영장치(110)는 실체 차량의 높이에 해당하는 1 m 내지 1.2 m 에서 설치되는 것이 바람직하나 반드시 이에 한정되는 것은 아니다. As shown in FIG. 5, a ground reference image is generated by photographing a surface of a grid chart installed using the
한편, 객체 인식장치(120)는 접합 기준영상에 근거하여 촬영영상에 대한 접합 오차를 보정한다. 여기서, 접합 오차에 대한 설명은 도 6에 도시된 복수개의 촬영영상을 이용하여 설명하도록 한다. Meanwhile, the
도 6은 본 실시예에 따른 차량의 촬영영상을 설명하기 위한 예시도이다.6 is an exemplary view for explaining a captured image of a vehicle according to the present embodiment.
도 6에 도시된 바와 같이, 차량의 전, 후, 좌 및 우측에 부착된 4 개의 카메라를 이용하여 그리드 차트가 설치된 지면을 촬영하고, 객체 인식장치(120)는 촬영된 전방영상(610), 후방영상(620), 우측영상(630) 및 좌측영상(640)을 기 저장된 접합 기준영상과 비교하여 접합 오차를 보정한다. 예컨대, 객체 인식장치(120)는 기 저장된 접합 기준영상에 근거하여 전방영상(610)의 좌측영역과 좌측영상(640)의 우측영역, 좌측영상(640)의 좌측영역과 후방영상(620)의 우측영역, 후방영상(620)의 좌측영역과 우측영상(630)의 우측영역, 우측영상(630)의 좌측영역과 전방영상(610)의 우측영역과 같이 두 개 이상의 촬영영상이 접합되는 부분의 접합 오차를 보정할 수 있다. 여기서, 차량에 부착된 카메라는 4 개인 것으로만 기재하고 있으나 반드시 이에 한정되는 것은 아니며 차량을 중심으로 360도를 촬영할 수만 있다면 카메라의 수는 증가 또는 감소되어 구현될 수 있다.As shown in Figure 6, using the four cameras attached to the front, rear, left and right of the vehicle to shoot the ground on which the grid chart is installed, the
도 7은 본 실시예에 따른 탑 뷰 영상을 이용하여 객체 인식장치가 객체를 검출하는 방법을 설명하기 위한 예시도이다.7 is an exemplary view for explaining a method of detecting an object by the object recognition apparatus using the top view image according to the present embodiment.
도 7에 도시된 바와 같이, (a)는 하나의 차량(702)이 존재하고, 제1 객체(710) 및 제2 객체(720)가 차량 주변에 위치한 영상을 의미한다. As illustrated in FIG. 7, (a) refers to an image in which one
(b)는 차량(702)에 부착된 복수개의 카메라를 이용하여 촬영된 촬영영상을 보정하여 탑 뷰 영상으로 합성된 영상을 의미한다. 여기서, 합성영상은 t 시간에 합성된 영상 및 t+1 시간에 대한 합성된 영상 등과 같이 시계열적인 순서대로 합성되는 것이 바람직하다. 여기서, t 시간에 대한 합성영상을 전경 및 배경으로 분리하여 제1 객체(710)를 추적하고, t+1 시간에 대한 합성영상을 전경 및 배경으로 분리하여 제2 객체(720)를 추적한다.(b) refers to an image synthesized into a top view image by correcting a captured image photographed using a plurality of cameras attached to the
(c)는 t 시간에 대한 합성영상과 t+1 시간에 대한 합성영상을 정합하여 차량 주변에 대한 주변 영상정보를 생성한다. 여기서, 주변 영상정보는 시계열적으로 생성된 합성영상을 연속적으로 정합하여 차량의 주변에 움직이는 복수개의 객체를 나타낼 수 있다.(c) generates the surrounding image information about the surroundings of the vehicle by matching the composite image for t time and the composite image for t + 1 time. Here, the surrounding image information may represent a plurality of objects moving around the vehicle by continuously matching the synthesized image generated in time series.
(d)는 차량(702)의 좌측부분에 해당하는 촬영영상에서 객체가 존재하는 것을 알려주고, 좌측에 해당하는 영상을 모니터를 통해 제1 객체(710) 및 제2 객체(720)를 네모 표시로 부각하여 디스플레이한다.(d) notifies that the object exists in the captured image corresponding to the left side of the
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present embodiment, and various modifications and changes may be made to those skilled in the art without departing from the essential characteristics of the embodiments. Therefore, the present embodiments are to be construed as illustrative rather than restrictive, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of the present embodiment should be construed according to the following claims, and all technical ideas within the scope of equivalents thereof should be construed as being included in the scope of the present invention.
이상에서 설명한 바와 같이 본 실시예은 분야에 적용되어, 차량의 주변 영상에 대한 인식거리 및 분해능을 증가시킬 수 있고, 주변 영상과 이동물체(예컨대, 보행자, 차량, 이륜차 및 동물 등)를 동시에 인식하여 충돌 방지에 대해 더 정확한 알람을 제공할 수 있는 효과를 발생하는 유용한 발명이다.As described above, the present embodiment is applied to the field to increase the recognition distance and resolution of the surrounding image of the vehicle, and simultaneously recognizes the surrounding image and the moving object (eg, a pedestrian, a vehicle, a motorcycle, and an animal). It is a useful invention that produces the effect of providing a more accurate alarm on collision avoidance.
110: 영상 촬영장치 120: 객체 인식장치
130: 모니터링 장치 210: 영상 처리부
220: 영상 획득부 230: 전처리부
240: 영상 합성부 250: 객체 인식부
260: 전경 배경 분리부 270: 관심객체 추적부
280: 주변 영상정보 생성부110: image recording device 120: object recognition device
130: monitoring device 210: image processing unit
220: image acquisition unit 230: preprocessor
240: image synthesizer 250: object recognition unit
260: foreground background separator 270: object of interest tracking unit
280: surrounding image information generation unit
Claims (13)
상기 복수개의 카메라를 통해 촬영된 촬영영상을 획득하는 영상 획득부;
조작을 통해 입력된 영상 선택정보에 근거하여 상기 촬영영상에 대한 방사 왜곡 및 접합 오차를 보정하여 보정영상을 생성하는 전처리부;
상기 보정 영상을 상기 영상 선택정보에 대응하는 하나의 합성영상으로 생성하는 영상 합성부;
상기 합성영상 내의 화소 중에서 소정의 기준에 따라 움직임이 없는 배경에 대해 지정된 배경 화소를 이용하여 움직이는 객체에 해당하는 전경 화소를 판별하고, 상기 전경 화소를 포함하는 전경 영상을 생성하는 전경 배경 분리부;
상기 전경영상을 이용하여 상기 관심객체를 추적하는 관심객체 추적부; 및
상기 추적된 관심객체를 포함하는 주변 영상 결과정보를 출력하는 출력부
를 포함하는 것을 특징으로 하는 객체 인식장치.An apparatus for recognizing an object of interest in a surrounding image of a vehicle by using a plurality of cameras installed in a vehicle,
An image acquisition unit for acquiring photographed images captured by the plurality of cameras;
A preprocessing unit generating a corrected image by correcting a radiation distortion and a bonding error of the photographed image based on the image selection information inputted through the manipulation;
An image synthesizer configured to generate the corrected image as one composite image corresponding to the image selection information;
A foreground background separator configured to determine a foreground pixel corresponding to a moving object by using a background pixel designated for a background without movement according to a predetermined criterion among the pixels in the composite image, and generate a foreground image including the foreground pixel;
An object of interest tracking unit that tracks the object of interest using the foreground image; And
Output unit for outputting the surrounding image result information including the tracked object of interest
Object recognition apparatus comprising a.
상기 전처리부는,
파노라마 뷰, 코너 뷰 및 탑 뷰 중 선택된 적어도 하나 이상의 상기 영상 선택정보에 근거하여 상기 방사 왜곡 및 상기 접합 오차를 보정하는 것을 특징으로 하는 객체 인식장치.The method according to claim 1,
The pre-
And correcting the radiation distortion and the joint error based on at least one of the image selection information selected from a panoramic view, a corner view, and a top view.
상기 전처리부는,
넓은 시야각을 갖는 광각 카메라의 성능 또는 대기, 태양 등과 같은 외부 환경요소에 의해 상기 촬영영상의 중심으로부터 방사 상으로 영상이 확장되거나 축소되는 현상이 일어난 상기 촬영영상에 대한 상기 방사 왜곡을 보정하는 것을 특징으로 하는 객체 인식장치.3. The method of claim 2,
The pre-
Correcting the radiation distortion of the photographed image in which the image is expanded or contracted radially from the center of the photographed image by the performance of a wide-angle camera having a wide viewing angle or external environmental factors such as the atmosphere and the sun. Object recognition device.
상기 전처리부는,
상기 촬영영상 내에 기 설정된 특정 행 또는 열에 대한 통계치 보정, 히스토그램 매칭 보정 및 드랍(Drop) 라인 보정 중 적어도 하나 이상의 방식을 이용하여 상기 방사 왜곡을 보정하는 것을 특징으로 하는 객체 인식장치.The method of claim 3, wherein
The pre-
And correcting the radiation distortion using at least one of statistical correction, histogram matching correction, and drop line correction for a predetermined row or column in the photographed image.
상기 전처리부는,
상기 영상 선택정보에 대응하는 기 저장된 접합 기준영상에 근거하여 각각의 상기 촬영영상 간에 정확하게 연결되도록 상기 접합 오차를 보정하는 것을 특징으로 하는 객체 인식장치.3. The method of claim 2,
The pre-
And correcting the splicing error so as to accurately connect the respective captured images based on the previously stored splicing reference image corresponding to the image selection information.
상기 접합 기준영상은,
상기 차량이 위치한 공간의 바닥면에 기 설치된 그리드 차트(Grid Chart)를 촬영하여 생성된 기준 영상인 것을 특징으로 하는 객체 인식장치.6. The method of claim 5,
The junction reference image is,
And a reference image generated by photographing a grid chart pre-installed on the floor of the space where the vehicle is located.
상기 영상 합성부는,
상기 보정 영상을 파노라마 뷰, 코너 뷰 및 탑 뷰 중 하나의 영상으로 합성하는 것을 특징으로 하는 객체 인식장치.The method according to claim 1,
Wherein the image synthesizer comprises:
And reconstructing the corrected image into one of a panoramic view, a corner view, and a top view.
상기 전경 배경 분리부는,
가우시안 모델(Gaussian Model)을 따라 지정된 상기 배경 화소를 이용하여 상기 전경 화소를 분리하되, 상기 화소에 대한 가중치(Weight) 값을 이용하여 상기 전경 화소를 생성하는 것을 특징으로 하는 것을 특징으로 하는 객체 인식장치.The method according to claim 1,
The foreground background separator,
Object recognition, characterized in that the foreground pixel is separated using the background pixel designated according to a Gaussian model, and the foreground pixel is generated using a weight value of the pixel. Device.
상기 관심객체 추적부는,
상기 전경 영상에 해당하는 각각의 좌표값을 이용하여 상기 관심객체에 대한 궤적을 추적하는 것을 특징으로 하는 객체 인식장치.The method according to claim 1,
The object of interest tracking unit,
And tracking the trajectory of the object of interest using respective coordinate values corresponding to the foreground image.
상기 관심객체 추적부는,
상기 전경 영상 내에서 상기 움직이는 객체에 대한 컬러 정보, 히스토그램, 객체의 모양(shape) 중 적어도 하나 이상의 정보를 비교하여 상기 좌표값이 소정의 범위 내에 위치하는 상기 관심객체를 판별하여 상기 관심객체에 대한 상기 좌표값을 추적하는 것을 특징으로 하는 객체 인식장치.The method of claim 9,
The object of interest tracking unit,
Comparing at least one or more of color information, a histogram, and a shape of the object in the foreground image, the object of interest in which the coordinate value is located within a predetermined range may be determined to determine the object of interest. And an object recognition device for tracking the coordinate value.
상기 차량에 부착된 복수개의 카메라를 통해 촬영된 촬영영상을 획득하는 영상 획득과정;
상기 촬영영상에 대한 방사 왜곡을 보정하고, 기 저장된 접합 기준영상에 근거하여 상기 촬영영상에 대한 접합 오차를 보정하는 전처리 과정;
복수개의 상기 보정된 촬영영상을 파노라마 뷰, 코너 뷰 및 탑 뷰 중 선택된 하나의 영상으로 합성하는 영상 합성과정;
상기 합성영상 내의 화소 중에서 소정의 기준에 따라 지정된 배경 화소를 이용하여 전경 화소를 판별하고, 상기 전경 화소를 포함하는 전경 영상을 생성하는 전경 배경 분리과정;
상기 전경영상을 이용하여 상기 관심객체를 추적하는 관심객체 추적과정; 및
상기 추적된 관심객체를 포함하는 주변 영상 결과정보를 출력하는 출력과정
을 포함하는 것을 특징으로 하는 객체 인식방법.In the method of recognizing the object of interest around the vehicle,
An image acquisition process of acquiring a captured image photographed by a plurality of cameras attached to the vehicle;
A preprocessing step of correcting a radiation distortion of the photographed image and correcting a junction error of the photographed image based on a previously stored junction reference image;
An image synthesizing process of synthesizing a plurality of the corrected captured images into one image selected from a panoramic view, a corner view, and a top view;
A foreground background separation process of determining a foreground pixel by using a background pixel designated according to a predetermined criterion among pixels in the synthesized image, and generating a foreground image including the foreground pixel;
An object of interest tracking process of tracking the object of interest using the foreground image; And
An output process of outputting surrounding image result information including the tracked object of interest
Object recognition method comprising a.
상기 전경 배경 분리과정은,
가우시안 모델을 따라 지정된 상기 배경 화소를 이용하여 상기 전경 화소를 분리하되, 상기 화소에 대한 가중치 값을 이용하여 상기 전경 화소를 생성하는 과정을 포함하는 것을 특징으로 하는 객체 인식방법.The method of claim 11,
The foreground background separation process,
And separating the foreground pixel by using the background pixel designated according to a Gaussian model, and generating the foreground pixel by using a weight value of the pixel.
상기 관심객체 추적과정은,
상기 전경 영상 내에서 움직이는 객체에 대한 컬러 정보, 히스토그램, 객체의 모양 중 적어도 하나 이상의 정보를 비교하여 상기 관심객체를 판별하여 추적하는 과정을 포함하는 것을 특징으로 하는 객체 인식방법.The method of claim 11,
The object tracking process of interest,
And identifying and tracking the object of interest by comparing at least one or more information among color information, histogram, and shape of the object moving in the foreground image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120114611A KR20140048539A (en) | 2012-10-16 | 2012-10-16 | Method and apparatus for recognizing object using surrounding image of vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120114611A KR20140048539A (en) | 2012-10-16 | 2012-10-16 | Method and apparatus for recognizing object using surrounding image of vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20140048539A true KR20140048539A (en) | 2014-04-24 |
Family
ID=50654537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120114611A KR20140048539A (en) | 2012-10-16 | 2012-10-16 | Method and apparatus for recognizing object using surrounding image of vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20140048539A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101629577B1 (en) * | 2014-12-10 | 2016-06-13 | 현대오트론 주식회사 | Monitoring method and apparatus using a camera |
KR20170130118A (en) | 2016-05-18 | 2017-11-28 | 네이버 주식회사 | Apparatus and method for providing vehicle air conditioning system based on vision recognition |
US9840197B2 (en) | 2014-06-10 | 2017-12-12 | Lg Electronics Inc. | Apparatus for providing around view and vehicle including the same |
WO2018008871A1 (en) * | 2016-07-08 | 2018-01-11 | 한양대학교 산학협력단 | Compact video generation device and method, and recording medium in which computer program is recorded |
US9984297B2 (en) | 2015-06-02 | 2018-05-29 | SK Hynix Inc. | Moving object detection device and object detection method |
WO2018125483A1 (en) * | 2016-12-29 | 2018-07-05 | Intel Corporation | Detection of traffic dynamics and road changes in autonomous driving |
CN110166710A (en) * | 2019-06-21 | 2019-08-23 | 上海闻泰电子科技有限公司 | Image composition method, device, equipment and medium |
WO2019172645A1 (en) * | 2018-03-08 | 2019-09-12 | 삼성전자 주식회사 | Electronic device and method for vehicle driving assistance |
KR20200109681A (en) * | 2019-03-14 | 2020-09-23 | 경남과학기술대학교 산학협력단 | Data acquisition method for classification of fish species |
KR20200109683A (en) * | 2019-03-14 | 2020-09-23 | 경남과학기술대학교 산학협력단 | Data Application System for Classification of Fish Species |
CN114494008A (en) * | 2020-10-26 | 2022-05-13 | 通用汽车环球科技运作有限责任公司 | Method and system for stitching images into virtual image |
CN117278697A (en) * | 2023-11-21 | 2023-12-22 | 中汽传媒(天津)有限公司 | System and method for collecting panoramic video of automobile collision |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100956858B1 (en) * | 2009-05-19 | 2010-05-11 | 주식회사 이미지넥스트 | Sensing method and apparatus of lane departure using vehicle around image |
JP2010134617A (en) * | 2008-12-03 | 2010-06-17 | Toyama Univ | Panoramic imaging apparatus |
KR101115252B1 (en) * | 2009-07-24 | 2012-02-15 | 정선태 | Method for implementing fixed-point adaptive gaussian mixture modeling |
KR20120077309A (en) * | 2010-12-30 | 2012-07-10 | 주식회사 와이즈오토모티브 | Apparatus and method for displaying rear image of vehicle |
-
2012
- 2012-10-16 KR KR1020120114611A patent/KR20140048539A/en not_active Application Discontinuation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010134617A (en) * | 2008-12-03 | 2010-06-17 | Toyama Univ | Panoramic imaging apparatus |
KR100956858B1 (en) * | 2009-05-19 | 2010-05-11 | 주식회사 이미지넥스트 | Sensing method and apparatus of lane departure using vehicle around image |
KR101115252B1 (en) * | 2009-07-24 | 2012-02-15 | 정선태 | Method for implementing fixed-point adaptive gaussian mixture modeling |
KR20120077309A (en) * | 2010-12-30 | 2012-07-10 | 주식회사 와이즈오토모티브 | Apparatus and method for displaying rear image of vehicle |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9840197B2 (en) | 2014-06-10 | 2017-12-12 | Lg Electronics Inc. | Apparatus for providing around view and vehicle including the same |
KR101629577B1 (en) * | 2014-12-10 | 2016-06-13 | 현대오트론 주식회사 | Monitoring method and apparatus using a camera |
US9818033B2 (en) | 2014-12-10 | 2017-11-14 | Hyundai Autron Co., Ltd. | Monitoring method and apparatus using a camera |
US9984297B2 (en) | 2015-06-02 | 2018-05-29 | SK Hynix Inc. | Moving object detection device and object detection method |
KR20170130118A (en) | 2016-05-18 | 2017-11-28 | 네이버 주식회사 | Apparatus and method for providing vehicle air conditioning system based on vision recognition |
WO2018008871A1 (en) * | 2016-07-08 | 2018-01-11 | 한양대학교 산학협력단 | Compact video generation device and method, and recording medium in which computer program is recorded |
WO2018125483A1 (en) * | 2016-12-29 | 2018-07-05 | Intel Corporation | Detection of traffic dynamics and road changes in autonomous driving |
US10254763B2 (en) | 2016-12-29 | 2019-04-09 | Intel Corporation | Detection of traffic dynamics and road changes in autonomous driving |
US10928829B2 (en) | 2016-12-29 | 2021-02-23 | Intel Corporation | Detection of traffic dynamics and road changes in autonomous driving |
KR20190109663A (en) * | 2018-03-08 | 2019-09-26 | 삼성전자주식회사 | Electronic apparatus and method for assisting driving of a vehicle |
WO2019172645A1 (en) * | 2018-03-08 | 2019-09-12 | 삼성전자 주식회사 | Electronic device and method for vehicle driving assistance |
CN111836747A (en) * | 2018-03-08 | 2020-10-27 | 三星电子株式会社 | Electronic device and method for vehicle driving assistance |
US11508158B2 (en) | 2018-03-08 | 2022-11-22 | Samsung Electronics Co., Ltd. | Electronic device and method for vehicle driving assistance |
CN111836747B (en) * | 2018-03-08 | 2024-06-07 | 三星电子株式会社 | Electronic device and method for vehicle driving assistance |
KR20200109681A (en) * | 2019-03-14 | 2020-09-23 | 경남과학기술대학교 산학협력단 | Data acquisition method for classification of fish species |
KR20200109683A (en) * | 2019-03-14 | 2020-09-23 | 경남과학기술대학교 산학협력단 | Data Application System for Classification of Fish Species |
CN110166710A (en) * | 2019-06-21 | 2019-08-23 | 上海闻泰电子科技有限公司 | Image composition method, device, equipment and medium |
CN114494008A (en) * | 2020-10-26 | 2022-05-13 | 通用汽车环球科技运作有限责任公司 | Method and system for stitching images into virtual image |
CN117278697A (en) * | 2023-11-21 | 2023-12-22 | 中汽传媒(天津)有限公司 | System and method for collecting panoramic video of automobile collision |
CN117278697B (en) * | 2023-11-21 | 2024-03-15 | 中汽传媒(天津)有限公司 | System and method for collecting panoramic video of automobile collision |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20140048539A (en) | Method and apparatus for recognizing object using surrounding image of vehicle | |
US11131753B2 (en) | Method, apparatus and computer program for a vehicle | |
CN113271400B (en) | Imaging device and electronic equipment | |
US8184160B2 (en) | Image processor, driving assistance system, and out-of-position detecting method | |
JP5003395B2 (en) | Vehicle periphery image processing apparatus and vehicle periphery state presentation method | |
US20120242787A1 (en) | Monitoring camera for generating 3-dimensional image and method of generating 3-dimensional image using the same | |
JP2008102620A (en) | Image processing device | |
CN107122770A (en) | Many mesh camera systems, intelligent driving system, automobile, method and storage medium | |
JP5539250B2 (en) | Approaching object detection device and approaching object detection method | |
JP2014183322A (en) | Intersection recognition device and computer-executable program | |
KR101203816B1 (en) | Robot fish localization system using artificial markers and method of the same | |
KR101365557B1 (en) | Apparatus and method for detecting traffic lane | |
Kinzig et al. | Real-time seamless image stitching in autonomous driving | |
JP6561511B2 (en) | Parallax value deriving device, moving body, robot, parallax value production deriving method, parallax value producing method and program | |
JP6860445B2 (en) | Object distance detector | |
KR20150102525A (en) | Image processing apparatus and method, and system for assisting vehicle driving using the same | |
KR102029335B1 (en) | Apparatus and method for correcting distored image | |
JP4696925B2 (en) | Image processing device | |
JP2014155071A5 (en) | ||
US11999374B2 (en) | Spatial aware object detection by LIDAR and camera fusion based super-resolution | |
JP2009077022A (en) | Driving support system and vehicle | |
CN115866418A (en) | Image processing system, moving object, image processing method, and storage medium | |
CN115883985A (en) | Image processing system, moving object, image processing method, and storage medium | |
JP5315104B2 (en) | Traffic flow measuring device | |
JP2018092603A (en) | Information processing device, imaging device, apparatus control system, movable body, information processing method, and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |