KR20140048539A - Method and apparatus for recognizing object using surrounding image of vehicle - Google Patents

Method and apparatus for recognizing object using surrounding image of vehicle Download PDF

Info

Publication number
KR20140048539A
KR20140048539A KR1020120114611A KR20120114611A KR20140048539A KR 20140048539 A KR20140048539 A KR 20140048539A KR 1020120114611 A KR1020120114611 A KR 1020120114611A KR 20120114611 A KR20120114611 A KR 20120114611A KR 20140048539 A KR20140048539 A KR 20140048539A
Authority
KR
South Korea
Prior art keywords
image
foreground
interest
vehicle
pixel
Prior art date
Application number
KR1020120114611A
Other languages
Korean (ko)
Inventor
배경훈
김용성
김기문
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020120114611A priority Critical patent/KR20140048539A/en
Publication of KR20140048539A publication Critical patent/KR20140048539A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

Disclosed are a device and a method for recognizing an object using a surrounding image of a vehicle. The device recognizes an interest object within a surrounding image of a vehicle using a plurality of cameras preinstalled in the vehicle. The device for recognizing an object comprises an image acquisition unit for acquiring a photograph image photographed by a plurality of cameras; a preprocessing unit for correcting a radiation distortion and a junction error for the photographed image based on image selection information inputted by operation and generating a correction image; an image synthesis unit for generating the correction image as a single synthesis image corresponding to the image selection information; a background separation unit for determining a foreground pixel corresponding to a moving object using a background pixel designated for the background having no movement according to a certain standard among the pixels within the synthesis image and generating a foreground image including the foreground pixel; an interest object tracking unit for tracking an interest object using the foreground image; and an output unit for outputting surrounding image result information including the tracked interest object. [Reference numerals] (220) Image acquisition unit; (230) Preprocessing unit; (240) Image synthesis unit; (260) Front view background separation unit; (270) Interest object tracking unit; (280) Surrounding image information generation unit

Description

차량의 주변영상을 이용한 객체 인식장치 및 방법{Method and Apparatus for Recognizing Object Using Surrounding Image of Vehicle}Object recognition apparatus and method using surrounding image of vehicle {Method and Apparatus for Recognizing Object Using Surrounding Image of Vehicle}

본 실시예는 차량의 주변영상을 이용한 객체 인식장치 및 방법에 관한 것이다. 더욱 상세하게는, 고화질의 광각 카메라를 이용하여 촬영된 촬영영상의 방사 왜곡 및 접합 오차를 보정하여 파노라마 뷰, 코너 뷰 및 탑 뷰 등과 같은 하나의 영상으로 합성하고, 합성된 영상을 전경 및 배경 영상으로 분리하여 관심객체를 인식하는 차량의 주변영상을 이용한 객체 인식장치 및 방법에 관한 것이다.The present embodiment relates to an object recognition apparatus and method using a surrounding image of a vehicle. More specifically, by compensating the radiation distortion and the joint error of the captured image taken by using a high-quality wide-angle camera, synthesized into a single image such as panoramic view, corner view and top view, and synthesized synthesized image in the foreground and background image The present invention relates to an object recognition apparatus and method using a surrounding image of a vehicle that recognizes an object of interest.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section merely provide background information on the present embodiment and do not constitute the prior art.

종래의 차량 주변 영상 시스템은 차량에 설치된 카메라를 통해 촬영된 각각의 영상을 탑 뷰 형태로 보정 처리하고, 복수개의 보정 처리된 영상에 대한 픽셀들의 가중치를 이용하여 오버레이(Overlay) 처리된 영상을 생성하여 디스플레이한다. 또한, 종래의 시스템은 D1급(640x480) 카메라를 이용함으로써 주변 영상을 인식하는 데 있어서 인식거리와 분해능에 한계가 있다는 문제점이 있다. 또한, 종래의 차량 주변 영상 시스템은 영상 정합 및 차선 이식 등과 같은 제한적인 영상처리에만 사용해야 하는 문제점이 있다.Conventional vehicle surrounding image systems correct each image photographed by a camera installed in a vehicle in a top view form, and generate an overlay processed image using weights of pixels for a plurality of corrected images. To display. In addition, the conventional system has a problem in that the recognition distance and resolution are limited in recognizing the surrounding image by using a D1-class (640x480) camera. In addition, the conventional vehicle peripheral imaging system has a problem that should be used only for limited image processing such as image registration and lane transplantation.

따라서, HD급(720p)의 카메라를 사용하여 기존 인식거리 및 분해능의 한계를 뛰어 넘고, 차량 주변의 이동물체들도 동시에 인식하여 주차 시 또는 주행 시 충돌 방지를 자동으로 알려주는 기술을 필요로 한다.Therefore, using the HD (720p) camera to overcome the limitations of the existing recognition distance and resolution, and also to recognize the moving objects around the vehicle at the same time requires a technology that automatically informs the collision avoidance when parking or driving. .

본 실시예는, 고화질의 광각 카메라를 이용하여 촬영된 촬영영상의 방사 왜곡 및 접합 오차를 보정하여 파노라마 뷰, 코너 뷰 및 탑 뷰 등과 같은 하나의 영상으로 합성하고, 합성된 영상을 전경 및 배경 영상으로 분리하여 관심객체를 인식하는 차량의 주변영상을 이용한 객체 인식장치 및 방법을 제공하는 데 주된 목적이 있다.The present embodiment synthesizes a single image such as a panoramic view, a corner view, and a top view by correcting a radiation distortion and a joint error of a captured image photographed using a high-quality wide-angle camera, and synthesizes the synthesized image in the foreground and background images. The main object of the present invention is to provide an apparatus and method for recognizing an object using a surrounding image of a vehicle that recognizes an object of interest.

본 실시예의 일 측면에 의하면, 차량에 기 설치된 복수개의 카메라를 이용하여 차량 주변영상 내의 관심객체를 인식하는 장치에 있어서, 상기 복수개의 카메라를 통해 촬영된 촬영영상을 획득하는 영상 획득부; 조작을 통해 입력된 영상 선택정보에 근거하여 상기 촬영영상에 대한 방사 왜곡 및 접합 오차를 보정하여 보정영상을 생성하는 전처리부; 상기 보정 영상을 상기 영상 선택정보에 대응하는 하나의 합성영상으로 생성하는 영상 합성부; 상기 합성영상 내의 화소 중에서 소정의 기준에 따라 움직임이 없는 배경에 대해 지정된 배경 화소를 이용하여 움직이는 객체에 해당하는 전경 화소를 판별하고, 상기 전경 화소를 포함하는 전경 영상을 생성하는 전경 배경 분리부; 상기 전경영상을 이용하여 상기 관심객체를 추적하는 관심객체 추적부; 및 상기 추적된 관심객체를 포함하는 주변 영상 결과정보를 출력하는 출력부를 포함하는 것을 특징으로 하는 객체 인식장치를 제공한다.According to an aspect of the present embodiment, an apparatus for recognizing an object of interest in a surrounding image of a vehicle by using a plurality of cameras pre-installed in a vehicle, the apparatus comprising: an image acquisition unit configured to acquire a captured image photographed by the plurality of cameras; A preprocessing unit generating a corrected image by correcting a radiation distortion and a bonding error of the photographed image based on the image selection information inputted through the manipulation; An image synthesizer configured to generate the corrected image as one composite image corresponding to the image selection information; A foreground background separator configured to determine a foreground pixel corresponding to a moving object by using a background pixel designated for a background without movement according to a predetermined criterion among the pixels in the composite image, and generate a foreground image including the foreground pixel; An object of interest tracking unit that tracks the object of interest using the foreground image; And an output unit configured to output surrounding image result information including the tracked object of interest.

본 실시예의 다른 측면에 의하면, 차량 주변의 관심객체를 인식하는 방법에 있어서, 상기 차량에 부착된 복수개의 카메라를 통해 촬영된 촬영영상을 획득하는 영상 획득과정; 상기 촬영영상에 대한 방사 왜곡을 보정하고, 기 저장된 접합 기준영상에 근거하여 상기 촬영영상에 대한 접합 오차를 보정하는 전처리 과정; 복수개의 상기 보정된 촬영영상을 파노라마 뷰, 코너 뷰 및 탑 뷰 중 선택된 하나의 영상으로 합성하는 영상 합성과정; 상기 합성영상 내의 화소 중에서 소정의 기준에 따라 지정된 배경 화소를 이용하여 전경 화소를 판별하고, 상기 전경 화소를 포함하는 전경 영상을 생성하는 전경 배경 분리과정; 상기 전경영상을 이용하여 상기 관심객체를 추적하는 관심객체 추적과정; 및 상기 추적된 관심객체를 포함하는 주변 영상 결과정보를 출력하는 출력과정을 포함하는 것을 특징으로 하는 객체 인식방법을 제공한다.According to another aspect of the present embodiment, a method of recognizing an object of interest around a vehicle, the method comprising: an image acquiring process of acquiring a captured image photographed by a plurality of cameras attached to the vehicle; A preprocessing step of correcting a radiation distortion of the photographed image and correcting a junction error of the photographed image based on a previously stored junction reference image; An image synthesizing process of synthesizing a plurality of the corrected captured images into one image selected from a panoramic view, a corner view, and a top view; A foreground background separation process of determining a foreground pixel by using a background pixel designated according to a predetermined criterion among pixels in the synthesized image, and generating a foreground image including the foreground pixel; An object of interest tracking process of tracking the object of interest using the foreground image; And an output process of outputting surrounding image result information including the tracked object of interest.

이상에서 설명한 바와 같이 본 실시예에 의하면, 고화질의 광각 카메라를 이용하여 촬영된 촬영영상의 방사 왜곡 및 접합 오차를 보정하여 파노라마 뷰, 코너 뷰 및 탑 뷰 등과 같은 하나의 영상으로 합성하고, 합성된 영상을 전경 및 배경 영상으로 분리하여 관심객체를 인식함으로써, 주변 영상에 대한 인식거리 및 분해능을 증가시킬 수 있고, 주변 영상과 이동물체(예컨대, 보행자, 차량, 이륜차 및 동물 등)를 동시에 인식하여 충돌 방지에 대해 더 정확한 알람을 제공할 수 있는 효과가 있다.As described above, according to the present exemplary embodiment, the radiation distortion and the bonding error of the photographed image photographed using the high-quality wide-angle camera are corrected and synthesized into a single image such as a panoramic view, a corner view, and a top view. By separating the image into a foreground and background image to recognize the object of interest, the recognition distance and resolution of the surrounding image can be increased, and the surrounding image and moving objects (eg, pedestrians, vehicles, motorcycles, and animals) can be recognized simultaneously. This has the effect of providing more accurate alarms for collision avoidance.

도 1은 본 실시예에 따른 차량의 주변 영상정보를 이용하여 객체를 인식하기 위한 시스템을 개략적으로 나타낸 블록 구성도이다.
도 2는 본 실시예에 따른 객체 인식장치를 개략적으로 나타낸 블록 구성도이다.
도 3은 본 실시예에 따른 차량의 주변 영상정보를 이용하여 객체를 인식하는 방법을 설명하기 위한 순서도이다.
도 4는 본 실시예에 따른 인식 기준영상을 생성하는 동작을 설명하기 위한 예시도이다.
도 5는 본 실시예에 따른 방사 왜곡을 보정하기 위한 기준영상을 생성하는 동작을 설명하기 위한 예시도이다.
도 6은 본 실시예에 따른 차량의 촬영영상을 설명하기 위한 예시도이다.
도 7은 본 실시예에 따른 탑 뷰 영상을 이용하여 객체 인식장치가 객체를 검출하는 방법을 설명하기 위한 예시도이다.
1 is a block diagram schematically illustrating a system for recognizing an object by using surrounding image information of a vehicle according to the present embodiment.
2 is a block diagram schematically showing an object recognition apparatus according to the present embodiment.
3 is a flowchart illustrating a method of recognizing an object by using surrounding image information of a vehicle according to the present embodiment.
4 is an exemplary diagram for describing an operation of generating a recognition reference image according to the present embodiment.
5 is an exemplary diagram for describing an operation of generating a reference image for correcting radiation distortion according to the present embodiment.
6 is an exemplary view for explaining a captured image of a vehicle according to the present embodiment.
7 is an exemplary view for explaining a method of detecting an object by the object recognition apparatus using the top view image according to the present embodiment.

이하, 본 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, the present embodiment will be described in detail with reference to the accompanying drawings. It should be noted that, in adding the reference parts to the constituent elements of the respective drawings, the same constituent elements are denoted by the same reference numerals as much as possible even if they are displayed on different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the components of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected to or connected to the other component, It should be understood that an element may be "connected," "coupled," or "connected."

도 1은 본 실시예에 따른 차량의 주변 영상정보를 이용하여 객체를 인식하기 위한 시스템을 개략적으로 나타낸 블록 구성도이다.1 is a block diagram schematically illustrating a system for recognizing an object by using surrounding image information of a vehicle according to the present embodiment.

본 실시예에 따른 차량 주변영상 인식시스템은 영상 촬영장치(110), 객체 인식장치(120) 및 모니터링 장치(130)를 포함한다. 여기서, 영상 촬영장치(110)는 제1 카메라(112), 제2 카메라(114), 제3 카메라(116) 및 제4 카메라(118)와 같이 복수개의 카메라를 포함하여 구현되는 것이 바람직하다.The vehicle surrounding image recognition system according to the present exemplary embodiment includes an image photographing apparatus 110, an object recognition apparatus 120, and a monitoring apparatus 130. Here, the image capturing apparatus 110 may be implemented by including a plurality of cameras such as the first camera 112, the second camera 114, the third camera 116, and the fourth camera 118.

영상 촬영장치(110)는 차량 주변에 대한 촬영영상을 촬영하는 장치를 말하며, 본 실시예에 따른 영상 촬영장치(110)는 차량 주변에 움직이는 객체를 인식하여 검출하기 위한 영상을 촬영할 수 있는 차량용 카메라 등으로 구현되는 것이 바람직하다. 여기서, 촬영영상은 복수개의 카메라(112, 114, 116 및 118)에서 촬영된 복수개의 프레임을 포함할 수 있다. 또한, 영상 촬영장치(110)는 HD 화질의 영상을 촬영할 수 있는 광각 카메라로 구성되는 것이 바람직하며 촬영된 영상은 적어도 720p의 해상도 즉, 1280x720의 해상도를 가지는 영상일 수 있다. 여기서, 720p의 해상도는 촬영영상의 세로에 720개의 화소를 갖고, 주사선의 교차없이 한번에 짝수 및 홀수 줄을 초당 60 번씩 동시에 출력하는 촬영영상을 의미한다.The image capturing apparatus 110 refers to a device for capturing a captured image of a vehicle surroundings. The image capturing apparatus 110 according to the present embodiment may capture an image for recognizing and detecting an object moving around the vehicle. It is preferable to implement such as. Here, the photographed image may include a plurality of frames photographed by the plurality of cameras 112, 114, 116, and 118. Also, the image capturing apparatus 110 may be configured as a wide-angle camera capable of capturing an image of HD quality, and the captured image may be an image having a resolution of at least 720p, that is, a resolution of 1280x720. Here, the 720p resolution refers to a photographed image having 720 pixels vertically in the photographed image and simultaneously outputting even and odd lines 60 times per second without intersecting the scan lines.

영상 촬영장치(110)는 차량의 전방, 후방 및 좌우 측방을 촬영하는 제1 카메라(112), 제2 카메라(114), 제3 카메라(116) 및 제4 카메라(118)를 포함하여 구성되고, 각각의 카메라는 차량을 중심으로 서로 다른 방향을 촬영하며, 복수개의 카메라(112, 114, 116 및 118)는 중복하여 촬영되는 영상의 영역이 존재할 수 있다.The image capturing apparatus 110 includes a first camera 112, a second camera 114, a third camera 116, and a fourth camera 118 for photographing the front, rear, left, and right sides of the vehicle. Each camera photographs a different direction with respect to the vehicle, and a plurality of cameras 112, 114, 116, and 118 may have a region of an image photographed in duplicate.

객체 인식장치(120)는 영상 촬영장치(110)에서 촬영된 복수개의 촬영영상을 획득하고, 획득한 각각의 촬영영상에 대한 방사 왜곡 및 접합 오차를 보정하여 하나의 영상으로 합성하는 동작을 수행한다. 여기서, 객체 인식장치(120)는 넓은 시야각을 갖는 광각 카메라의 성능 또는 대기, 태양 등과 같은 외부 환경요소에 의해 촬영영상의 중심으로부터 방사 상으로 영상이 확장되거나 축소되는 방사 왜곡을 보정한다. 또한, 객체 인식장치(120)는 파노라마 뷰, 코너 뷰 및 탑 뷰 중 하나의 영상으로 합성할 때, 각각의 촬영영상의 접합 부분에 대한 오차를 줄여 촬영영상 간에 정확하게 연결되도록 보정을 수행한다. 여기서, 객체 인식장치(120)는 접합 기준영상을 이용하여 복수개의 촬영영상이 접합된 오차가 8cm 미만이 되도록 접합 오차에 대한 보정을 수행하는 것이 바람직하다.The object recognizing apparatus 120 acquires a plurality of captured images captured by the image capturing apparatus 110, and corrects the radiation distortion and the joint error of each obtained captured image to synthesize the single image. . Here, the object recognizing apparatus 120 corrects a radiation distortion in which the image is expanded or contracted radially from the center of the captured image by the performance of a wide-angle camera having a wide viewing angle or an external environment such as the atmosphere or the sun. In addition, the object recognizing apparatus 120 performs a correction so as to accurately connect between the captured images by reducing the error of the junction portion of each of the captured images when combining the image of one of the panoramic view, corner view and top view. Here, the object recognizing apparatus 120 may correct the splicing error by using the splicing reference image such that the spliced error of the plurality of captured images is less than 8 cm.

객체 인식장치(120)는 파노라마 뷰, 코너 뷰 및 탑 뷰 등과 같이 하나로 합성된 영상에서 전경 및 배경을 분리하여 판별된 관심객체를 추적하는 동작을 수행한다. 여기서, 객체 인식장치(120)는 합성영상 내에서 소정의 개수의 가우시안 노드(Gaussian Node)를 포함하는 화소 중 가우시안 노드에 대한 가중치(Weight)가 소정의 기준보다 큰 복수개의 노드를 배경 화소로 지정하고, 지정된 배경 화소를 기준으로 합성영상 내에서 전경 화소를 판별하고, 판별된 전경 화소에 대한 전경 영상을 분리한다. 여기서, 객체 인식장치(120)는 분리된 전경 영상 내에 포함된 복수개의 객체에 대한 컬러 정보, 히스토그램, 객체의 모양(shape) 등 중 적어도 하나 이상을 비교하여 동일한 객체를 판별하고, 판별된 관심객체를 추적한다.The object recognition apparatus 120 performs an operation of tracking the object of interest determined by separating the foreground and the background from the combined image such as a panoramic view, a corner view, and a top view. Here, the object recognizing apparatus 120 designates a plurality of nodes having a weight greater than a predetermined criterion as a background pixel among pixels including a predetermined number of Gaussian nodes in the composite image. The foreground pixel is determined within the synthesized image based on the designated background pixel, and the foreground image of the determined foreground pixel is separated. Here, the object recognizing apparatus 120 compares at least one or more of color information, histogram, shape of the object, etc. of the plurality of objects included in the separated foreground image to determine the same object, and the determined object of interest. To track.

모니터링 장치(130)는 객체 인식장치(120)에서 인식된 관심객체를 포함하는 주변 영상정보를 출력하는 장치로서, 모니터링을 위한 디스플레이를 구비한다. 여기서, 모니터링 장치(130)는 객체 인식장치(120)와 유선으로 연결되는 것이 바람직하나 반드시 이에 한정되는 것은 아니며, 주변 영상정보를 무선랜 신호 또는 블루투스(Bluetooth), 지그비(Zigbee) 등과 같은 근거리 통신을 이용하여 수신할 수도 있다. 한편, 도 1에서 모니터링 장치(130)는 객체 인식장치(120)와 별도로 구현된 장치인 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며 객체 인식장치(120)에 디스플레이부를 포함하여 하나의 장치로 구현될 수도 있다.The monitoring device 130 outputs surrounding image information including the object of interest recognized by the object recognizing device 120 and includes a display for monitoring. Here, the monitoring device 130 is preferably connected to the object recognition device 120 in a wired manner, but is not necessarily limited thereto, and the surrounding image information may be short-range communication such as a wireless LAN signal or Bluetooth, Zigbee, or the like. Can also be received using. Meanwhile, although the monitoring device 130 is described as being implemented separately from the object recognition device 120 in FIG. 1, the monitoring device 130 is not necessarily limited thereto and may be implemented as one device including a display unit in the object recognition device 120. It may be.

또한, 모니터링 장치(130)는 주변 영상정보 포함된 관심객체를 사각형, 원 등과 같은 형태로 관심객체가 부각되도록 표시하여 디스플레이할 수도 있다.In addition, the monitoring device 130 may display and display the object of interest including the surrounding image information so that the object of interest is highlighted in the form of a rectangle or a circle.

도 2는 본 실시예에 따른 객체 인식장치를 개략적으로 나타낸 블록 구성도이다.2 is a block diagram schematically showing an object recognition apparatus according to the present embodiment.

본 실시예에 따른 객체 인식장치(120)는 영상 처리부(210) 및 객체 인식부(250)를 포함한다. 여기서, 영상 처리부(210)는 영상 획득부(220), 전처리부(230), 영상 합성부(240)를 포함하고, 객체 인식부(250)는 전경 배경 분리부(260), 관심객체 추적부(270) 및 주변 영상정보 생성부(280)를 포함한다.The object recognition apparatus 120 according to the present exemplary embodiment includes an image processor 210 and an object recognizer 250. Here, the image processor 210 includes an image acquirer 220, a preprocessor 230, and an image synthesizer 240, and the object recognizer 250 includes a foreground background separator 260 and an object of interest tracker. 270 and the surrounding image information generator 280.

영상 처리부(210)는 촬영영상을 보정하여 하나의 영상으로 합성하는 동작을 수행한다. 여기서, 영상 처리부(210)에 포함된 구성요소를 더 자세히 설명하자면 다음과 같다.The image processor 210 performs an operation of compensating the captured image and synthesizing it into one image. Here, the components included in the image processor 210 will be described in more detail as follows.

영상 획득부(220)는 영상 촬영장치(110)에서 차량의 주변이 촬영된 촬영영상을 획득하는 동작을 수행한다. 여기서, 촬영영상은 영상 촬영장치(110)에 포함된 복수개의 카메라를 통해 차량의 전, 후, 좌 및 우측 방향을 촬영된 영상으로서 각각의 카메라에 대한 각각의 영상을 의미한다. 또한, 촬영영상은 캡쳐된 하나의 프레임인 것이 바람직하나 반드시 이에 한정되는 것은 아니며 복수개의 프레임이 결합된 영상일 수도 있다. 예컨대, 영상 획득부(220)는 차량에 기 설치된 제1 카메라(112), 제2 카메라(114), 제3 카메라(116) 및 제4 카메라(118)로부터 차량의 주변이 촬영된 제1 촬영영상(전방), 제2 촬영영상(후방), 제3 촬영영상(좌측방) 및 제4 촬영영상(우측방)을 획득할 수 있다. 여기서, 복수개의 카메라(112, 114, 116 및 118)는 HD 화질의 영상을 촬영할 수 있는 광각 카메라인 것이 바람직하며 촬영된 영상은 적어도 720p의 해상도 즉, 1280x720의 해상도를 가지는 영상일 수 있다.The image acquisition unit 220 performs an operation of acquiring a captured image of the surrounding of the vehicle by the image photographing apparatus 110. Here, the photographed image is an image photographed before, after, left and right of the vehicle through a plurality of cameras included in the image capturing apparatus 110, and means a respective image for each camera. In addition, the photographed image is preferably one captured frame, but is not necessarily limited thereto, and may be an image in which a plurality of frames are combined. For example, the image acquisition unit 220 may be a first photographing of the surrounding of the vehicle from the first camera 112, the second camera 114, the third camera 116, and the fourth camera 118 previously installed in the vehicle. An image (front), a second captured image (rear), a third captured image (left side), and a fourth captured image (right side) may be acquired. Here, the plurality of cameras 112, 114, 116, and 118 is preferably a wide-angle camera capable of capturing an image of HD quality, and the photographed image may be an image having a resolution of at least 720p, that is, a resolution of 1280x720.

전처리부(230)는 영상 획득부(220)에서 획득한 복수개의 촬영영상에 대한 방사 왜곡 및 접합 오차를 보정하는 동작을 수행한다. The preprocessor 230 performs an operation of correcting the radiation distortion and the bonding error of the plurality of captured images acquired by the image acquirer 220.

전처리부(230)는 넓은 시야각을 갖는 광각 카메라의 성능 또는 대기, 태양 등과 같은 외부 환경요소에 의해 방사 왜곡이 일어난 촬영영상에 대한 왜곡을 보정한다. 여기서 방사 왜곡이란, 촬영영상의 중심으로부터 방사 상으로 영상이 확장되거나 축소되는 현상을 의미한다. The preprocessor 230 corrects the distortion of the captured image in which the radiation distortion is caused by the performance of the wide-angle camera having a wide viewing angle or an external environment such as the atmosphere or the sun. Radiation distortion refers to a phenomenon in which the image is expanded or contracted radially from the center of the photographed image.

전처리부(230)는 통계치 보정, 히스토그램 매칭 보정 및 드랍(Drop) 라인 보정 중 적어도 하나 이상의 방식을 이용하여 방사 왜곡을 보정할 수 있다. 여기서, 통계치 보정은 기 설정된 특정 행 또는 열들에 대한 화소값 평균과 표준편차를 기준으로 특정 행 또는 열을 제외한 나머지 부분을 변환하여 보정하는 방식을 의미하고, 히스토그램 매칭 보정은 영상 간의 대비(Contrast)를 맞춰주는 히스토그램 매칭 기법을 기 설정된 특정 행 또는 열에 적용하여 보정하는 방식을 의미한다. 또한, 드랍(Drop) 라인 보정은 기 설정된 특정 행 또는 열에 인접한 화소 정보의 평균값을 화소 정보가 존재하지 않는 드랍 라인에 적용시켜 보정하는 방식을 의미한다.The preprocessor 230 may correct the radiation distortion by using at least one of statistical correction, histogram matching correction, and drop line correction. Here, the statistical correction means a method of correcting by converting the remaining portions except for a specific row or column based on the pixel mean and standard deviation of a predetermined specific row or column, and the histogram matching correction is contrast between images. It means a method of correcting the histogram matching technique that fits to a specific row or column. In addition, drop line correction refers to a method of correcting by applying an average value of pixel information adjacent to a specific row or column to a drop line in which pixel information does not exist.

전처리부(230)는 기 생성된 접합 기준영상을 이용하여 촬영영상에 대한 접합 오차(즉, 실제 거리와 영상에서의 거리의 차인 오차거리)를 보정한다. 여기서, 전처리부(230)는 영상 합성부(240)에서 파노라마 뷰, 코너 뷰 및 탑 뷰를 생성할 때 각각의 촬영영상의 접합 부분에 대한 오차를 줄여 촬영영상 간에 정확하게 연결되도록 하는 보정을 수행한다. 여기서, 기 생성된 접합 기준영상은 차량이 위치한 공간의 바닥면에 기 설치된 격자 눈금을 차량에 부착된 복수개의 카메라를 통해 촬영한 영상을 의미하고, 전처리부(230)는 촬영된 영상을 기준으로 차량의 전, 후, 좌 및 우측을 촬영한 촬영영상에 대한 접합 보정을 수행한다. 여기서, 전처리부(230)는 접합 기준영상을 이용하여 영상 합성부(240)에서 복수개의 촬영영상이 접합된 영상에 대한 거리 및 실제 거리에 대한 오차 거리가 8cm 미만이 되도록 접합 오차를 보정하는 것이 바람직하다.The preprocessor 230 corrects a bonding error (that is, an error distance that is a difference between the actual distance and the image) of the captured image by using the previously generated bonding reference image. Here, the preprocessor 230 performs correction to reduce the error of the joint portion of each photographed image so as to accurately connect the photographed images when generating the panorama view, the corner view, and the top view in the image synthesizer 240. . Here, the previously generated bonding reference image refers to an image obtained by photographing a grid grid that is pre-installed on the bottom surface of the space where the vehicle is located, through a plurality of cameras attached to the vehicle, and the preprocessor 230 based on the captured image. Bonding correction is performed on the captured images of the front, rear, left and right sides of the vehicle. Here, the preprocessing unit 230 corrects the bonding error such that the distance between the plurality of photographed images and the actual distance is less than 8 cm using the bonding reference image. desirable.

영상 합성부(240)는 전처리부(230)에서 보정된 복수개의 촬영영상을 하나의 영상으로 합성하는 동작을 수행한다. 본 실시예에 따른 영상 합성부(240)는 방사 왜곡 및 접합 오차를 보정한 복수개의 촬영영상을 파노라마 뷰, 코너 뷰 및 탑 뷰 중 사용자로부터 선택된 적어도 하나 이상의 선택영상으로 합성한다. 여기서, 파노라마 뷰는 차량에 부착된 각각의 카메라를 이용하여 차량의 일부 또는 전체 방향에 대해 촬영된 영상을 접합하여 생성된 영상을 의미하고, 코너 뷰는 사용자에 의해 선택된 차량의 네 모서리 중 적어도 하나의 코너에 대해 촬영된 영상을 접합하여 생성된 영상을 의미하고, 차량에 부착된 각각의 카메라에서 촬영된 영상을 이용하여 차량의 위에서 내려다보는 것과 같이 생성된 영상을 의미한다.The image synthesizer 240 synthesizes the plurality of captured images corrected by the preprocessor 230 into one image. The image synthesizing unit 240 according to the present embodiment synthesizes the plurality of photographed images corrected for the radiation distortion and the joint error into at least one selected image selected from the user among panorama view, corner view, and top view. Here, the panoramic view refers to an image generated by joining an image photographed for a part or all directions of the vehicle by using each camera attached to the vehicle, and the corner view is at least one of four corners of the vehicle selected by the user. Means an image generated by joining the images taken for the corner of the, and means the image generated by looking down from the top of the vehicle using the image taken by each camera attached to the vehicle.

객체 인식부(250)는 파노라마 뷰, 코너 뷰 및 탑 뷰 등과 같이 하나로 합성된 영상에서 전경 및 배경을 분리하여 판별된 관심객체를 추적하는 동작을 수행한다. 또한, 객체 인식부(250)는 캘리브레이션(Calibration) 차트를 촬영하여 객체를 인식하는 분해능을 측정한 인식 기준영상을 저장하고, 인식 기준영상에 근거하여 소정의 거리 내에 존재하는 객체를 인식할 수 있다.The object recognizer 250 performs an operation of tracking an object of interest determined by separating the foreground and the background from the combined image such as a panoramic view, a corner view, and a top view. In addition, the object recognition unit 250 may store a recognition reference image measuring a resolution of recognizing an object by photographing a calibration chart and recognize an object existing within a predetermined distance based on the recognition reference image. .

객체 인식부(250)에 포함된 구성요소를 더 자세히 설명하자면 다음과 같다.The components included in the object recognizer 250 will be described in more detail as follows.

전경 배경 분리부(260)는 파노라마 뷰, 코너 뷰 및 탑 뷰 등과 같은 합성영상을 전경 화소 및 배경 화소로 구분하여 전경 영상을 분리하는 동작을 수행한다. 더 자세히 설명하자면, 전경 배경 분리부(250)는 소정의 개수의 가우시안 노드(Gaussian Node)를 포함하는 화소 중 가우시안 노드에 대한 가중치(Weight)가 소정의 기준보다 큰 복수개의 노드를 배경 화소로 지정하고, 지정된 배경 화소를 기준으로 합성영상 내에서 전경 화소를 판별한다. 여기서, 전경 배경 분리부(260)는 판별된 전경 화소를 이용하여 전경 영상을 분리한다. 예컨대, 전경 배경 분리부(250)는 파노라마 뷰인 합성영상 내에서 사람이 지나가면, 가우시안 노드의 가중치에 따라 배경화소를 지정하고, 지나가는 사람에 대한 화소는 배경 화소에 해당되지 않으므로 전경 화소로 판별하여, 움직이는 사람에 대한 영상를 전경 영상으로 분리할 수 있다.The foreground background separator 260 separates the composite image such as the panoramic view, the corner view, and the top view into a foreground pixel and a background pixel to separate the foreground image. In more detail, the foreground background separator 250 designates a plurality of nodes having a weight greater than a predetermined criterion as a background pixel among pixels including a predetermined number of Gaussian nodes. The foreground pixel is determined in the composite image based on the designated background pixel. Here, the foreground background separator 260 separates the foreground image by using the determined foreground pixel. For example, the foreground background separator 250 designates a background pixel according to a weight of a Gaussian node when a person passes in the composite image, which is a panoramic view, and determines that the foreground pixel is a foreground pixel because the pixel for the passing person does not correspond to the background pixel. In addition, the image of the moving person can be separated into the foreground image.

관심객체 추적부(270)는 전경 배경 분리부(260)에서 분리된 전경 영상을 이용하여 관심객체를 추적한다. 여기서, 전경 영상은 1의 값으로 표시되고, 배경에 해당하는 영상은 0의 값으로 표시되어 구분될 수 있다.The object-of-interest tracking unit 270 tracks the object of interest by using the foreground image separated by the foreground background separator 260. Here, the foreground image may be displayed as a value of 1, and the image corresponding to the background may be displayed as a value of 0 and divided.

관심객체 추적부(270)는 시계열적으로 생성된 합성영상 내에서 분리된 전경 영상 내에 포함된 복수개의 객체에 대한 컬러 정보, 히스토그램, 객체의 모양(shape) 등 중 적어도 하나 이상을 비교하여 소정의 범위 내에 좌표값이 위치하는 경우 동일한 객체로 판별하고, 판별된 관심객체를 추적한다. 여기서, 관심객체 추적부(270)는 관심객체가 움직이는 궤적좌표값을 저장하여 관심객체를 추적할 수 있다.The object-of-interest tracking unit 270 compares at least one or more of color information, histogram, shape of the object, etc. of the plurality of objects included in the separated foreground image in the synthesized time series. If the coordinate value is located within the range, it is determined as the same object and the determined object of interest is tracked. Here, the object-of-interest tracking unit 270 may track the object of interest by storing a trajectory coordinate value at which the object of interest moves.

주변 영상정보 생성부(280)는 추적된 관심객체를 포함하는 주변 영상정보를 생성하여 사용자가 차량 주변을 확인할 수 있도록 출력하기 위해 모니터링 장치에 전송한다. The surrounding image information generation unit 280 generates surrounding image information including the tracked object of interest and transmits the generated peripheral image information to the monitoring apparatus for outputting the surrounding image of the vehicle.

도 3은 본 실시예에 따른 차량의 주변 영상정보를 이용하여 객체를 인식하는 방법을 설명하기 위한 순서도이다.3 is a flowchart illustrating a method of recognizing an object by using surrounding image information of a vehicle according to the present embodiment.

객체 인식장치(120)는 영상 촬영장치(110)로부터 복수개의 촬영영상을 획득한다(S310). 여기서, 복수개의 촬영영상은 HD 화질의 영상을 촬영할 수 있는 광각 카메라로 촬영되고, 촬영영상은 적어도 720p의 해상도 즉, 1280x720의 해상도를 가지는 영상인 것이 바람직하다.The object recognition apparatus 120 obtains a plurality of captured images from the image photographing apparatus 110 (S310). Here, the plurality of captured images are photographed by a wide-angle camera capable of capturing images of HD quality, and the photographed images are images having a resolution of at least 720p, that is, a resolution of 1280x720.

객체 인식장치(120)는 기 저장된 기준영상에 근거하여 각각의 촬영영상에 대한 방사 왜곡 및 접합 오차를 보정한다(S320). 여기서, 객체 인식장치(120)는 넓은 시야각을 갖는 광각 카메라의 성능 또는 대기, 태양 등과 같은 외부 환경요소에 의해 방사 왜곡이 일어난 촬영영상에 대한 왜곡을 보정한다. 또한, 객체 인식장치(120)는 기 생성된 접합 기준영상에 근거하여 파노라마 뷰, 코너 뷰 및 탑 뷰 등과 같은 합성영상을 생성할 때 각각의 촬영영상의 접합 부분에 대한 오차를 보정한다. The object recognizing apparatus 120 corrects the radiation distortion and the bonding error of each captured image based on the stored reference image (S320). Here, the object recognizing apparatus 120 corrects the distortion of the captured image in which the radiation distortion is caused by the performance of the wide-angle camera having a wide viewing angle or an external environment such as the atmosphere or the sun. In addition, the object recognizing apparatus 120 corrects an error of a joint portion of each captured image when generating a composite image such as a panoramic view, a corner view, and a top view, based on the previously generated joint reference image.

객체 인식장치(120)는 단계 S320에서 보정된 복수개의 촬영영상을 파노라마 뷰, 코너 뷰 및 탑 뷰 중 선택된 영상으로 합성한다(S330). 여기서, 파노라마 뷰는 차량에 부착된 각각의 카메라를 이용하여 차량의 일부 또는 전체 방향에 대해 촬영된 영상을 접합하여 생성된 영상을 의미하고, 코너 뷰는 사용자에 의해 선택된 차량의 네 모서리 중 적어도 하나의 코너에 대해 촬영된 영상을 접합하여 생성된 영상을 의미하고, 차량에 부착된 각각의 카메라에서 촬영된 영상을 이용하여 차량의 위에서 내려다보는 것과 같이 합성된 영상을 의미한다.The object recognizing apparatus 120 synthesizes the plurality of captured images corrected in operation S320 into a selected image among a panoramic view, a corner view, and a top view (S330). Here, the panoramic view refers to an image generated by joining an image photographed for a part or all directions of the vehicle by using each camera attached to the vehicle, and the corner view is at least one of four corners of the vehicle selected by the user. It refers to an image generated by joining the image photographed for the corner of, and the synthesized image as seen from the top of the vehicle by using the image taken by each camera attached to the vehicle.

객체 인식장치(120)는 합성영상을 전경과 배경으로 분리한다(S340). 객체 인식장치(120)는 합성영상 내에서 소정의 개수의 가우시안 노드를 포함하는 화소 중 가우시안 노드에 대한 가중치가 소정의 기준보다 큰 복수개의 노드를 배경 화소로 지정하고, 지정된 배경 화소를 기준으로 합성영상 내에서 전경 화소를 판별하고, 판별된 전경 화소를 이용하여 전경 영상을 분리한다.The object recognition apparatus 120 separates the synthesized image into the foreground and the background (S340). The object recognizing apparatus 120 designates a plurality of nodes having a weight greater than a predetermined value as a background pixel among the pixels including a predetermined number of Gaussian nodes in the composite image, and synthesizes them based on the specified background pixel. Foreground pixels are determined in the image, and the foreground image is separated using the determined foreground pixels.

객체 인식장치(120)는 전경영상을 이용하여 움직이는 관심객체를 추적한다(S350). 객체 인식장치(120)는 단계 S340에서 분리된 전경 영상 내에 복수개의 움직이는 객체에 대한 컬러 정보, 히스토그램, 객체의 모양 등 중 적어도 하나 이상을 비교하여 동일한 객체를 판별하고, 판별된 관심객체를 추적한다.The object recognition apparatus 120 tracks a moving object of interest using the foreground image (S350). The object recognizing apparatus 120 compares at least one or more of color information, histogram, and shape of the plurality of moving objects in the foreground image separated in operation S340 to determine the same object, and tracks the determined object of interest. .

객체 인식장치(120)는 추적된 관심객체를 포함하는 주변 영상정보를 모니터링 장치(130)에 전송하여 디스플레이되도록 한다(S360).The object recognition apparatus 120 transmits the surrounding image information including the tracked object of interest to the monitoring apparatus 130 to be displayed (S360).

도 3에서는 단계 S310 내지 단계 S360를 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 3에 기재된 순서를 변경하여 실행하거나 단계 S310 내지 단계 S360 중 하나 이상의 단계를 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 3은 시계열적인 순서로 한정되는 것은 아니다.In FIG. 3, steps S310 to S360 are described as being sequentially executed. However, this is merely illustrative of the technical idea of an embodiment of the present invention, and the general knowledge in the technical field to which an embodiment of the present invention belongs. Those having a variety of modifications and variations may be applicable by changing the order described in FIG. 3 or executing one or more steps of steps S310 to S360 in parallel without departing from the essential characteristics of an embodiment of the present invention. 3 is not limited to the time series order.

도 4는 본 실시예에 따른 인식 기준영상을 생성하는 동작을 설명하기 위한 예시도이다.4 is an exemplary diagram for describing an operation of generating a recognition reference image according to the present embodiment.

영상 촬영장치(110)를 이용하여 소정의 거리에 위치한 벽면에 기 설치된 캘리브레이션(Calibration) 차트를 촬영하고, 객체 인식장치(120)는 촬영된 인식 기준영상에 근거하여 소정의 거리 내에 존재하는 객체를 인식한다. 예컨대, 도 4의 (a)에 도시된 바와 같이, 영상 촬영장치(110)를 이용하여 5 m 거리에 위치한 벽면에 (b)와 같은 캘리브레이션 차트를 촬영하고, 객체 인식장치(120)는 촬영된 인식 기준영상에서 5 m 거리 내에 존재하는 객체를 인식할 수 있는지 여부를 측정한다. 여기서, 객체 인식장치(120)는 인식 기준영상에서 유효 화각(예컨대, 60 도)에 해당하는 영상의 화소(Pixel) 개수를 확인하여 분해능을 측정하고, 분해능에 근거하여 소정의 거리 내에서 객체를 인식할 수 있는지 여부를 기준으로 설정할 수도 있다.The calibration chart is pre-installed on a wall located at a predetermined distance using the image capturing apparatus 110, and the object recognition apparatus 120 captures an object existing within a predetermined distance based on the captured recognition reference image. Recognize. For example, as shown in (a) of FIG. 4, a calibration chart such as (b) is photographed on a wall located at a distance of 5 m using the image photographing apparatus 110, and the object recognition apparatus 120 is photographed. Recognition Measures whether an object existing within a 5 m distance from the reference image can be recognized. Here, the object recognizing apparatus 120 measures the resolution by checking the number of pixels of the image corresponding to the effective angle of view (eg, 60 degrees) in the recognition reference image, and measures the object within a predetermined distance based on the resolution. It can also be set based on whether it can be recognized.

도 5는 본 실시예에 따른 방사 왜곡을 보정하기 위한 기준영상을 생성하는 동작을 설명하기 위한 예시도이다.5 is an exemplary diagram for describing an operation of generating a reference image for correcting radiation distortion according to the present embodiment.

도 5에 도시된 바와 같이, 소정의 높이에 설치된 영상 촬영장치(110)를 이용하여 그리드 차트(Grid Chart) 기 설치된 지면을 촬영하여 접합 기준영상을 생성한다. 여기서, 영상 촬영장치(110)는 실체 차량의 높이에 해당하는 1 m 내지 1.2 m 에서 설치되는 것이 바람직하나 반드시 이에 한정되는 것은 아니다. As shown in FIG. 5, a ground reference image is generated by photographing a surface of a grid chart installed using the image photographing apparatus 110 installed at a predetermined height. Here, the image capturing apparatus 110 is preferably installed at 1 m to 1.2 m corresponding to the height of the actual vehicle, but is not necessarily limited thereto.

한편, 객체 인식장치(120)는 접합 기준영상에 근거하여 촬영영상에 대한 접합 오차를 보정한다. 여기서, 접합 오차에 대한 설명은 도 6에 도시된 복수개의 촬영영상을 이용하여 설명하도록 한다. Meanwhile, the object recognizing apparatus 120 corrects a bonding error of the captured image based on the bonding reference image. Here, the description of the bonding error will be described using the plurality of captured images shown in FIG. 6.

도 6은 본 실시예에 따른 차량의 촬영영상을 설명하기 위한 예시도이다.6 is an exemplary view for explaining a captured image of a vehicle according to the present embodiment.

도 6에 도시된 바와 같이, 차량의 전, 후, 좌 및 우측에 부착된 4 개의 카메라를 이용하여 그리드 차트가 설치된 지면을 촬영하고, 객체 인식장치(120)는 촬영된 전방영상(610), 후방영상(620), 우측영상(630) 및 좌측영상(640)을 기 저장된 접합 기준영상과 비교하여 접합 오차를 보정한다. 예컨대, 객체 인식장치(120)는 기 저장된 접합 기준영상에 근거하여 전방영상(610)의 좌측영역과 좌측영상(640)의 우측영역, 좌측영상(640)의 좌측영역과 후방영상(620)의 우측영역, 후방영상(620)의 좌측영역과 우측영상(630)의 우측영역, 우측영상(630)의 좌측영역과 전방영상(610)의 우측영역과 같이 두 개 이상의 촬영영상이 접합되는 부분의 접합 오차를 보정할 수 있다. 여기서, 차량에 부착된 카메라는 4 개인 것으로만 기재하고 있으나 반드시 이에 한정되는 것은 아니며 차량을 중심으로 360도를 촬영할 수만 있다면 카메라의 수는 증가 또는 감소되어 구현될 수 있다.As shown in Figure 6, using the four cameras attached to the front, rear, left and right of the vehicle to shoot the ground on which the grid chart is installed, the object recognition device 120 is photographed front image 610, The rear image 620, the right image 630, and the left image 640 are compared with previously stored bonding reference images to correct the bonding error. For example, the object recognizing apparatus 120 may include the left region of the front image 610 and the right region of the left image 640, the left region of the left image 640, and the rear image 620 based on the previously stored joint reference image. The right region, the left region of the rear image 620 and the right region of the right image 630, the left region of the right image 630 and the right region of the front image 610, the portion where two or more photographed images are joined The junction error can be corrected. Here, the camera attached to the vehicle is described as only four, but is not necessarily limited thereto, and the number of cameras may be increased or decreased as long as it can record 360 degrees around the vehicle.

도 7은 본 실시예에 따른 탑 뷰 영상을 이용하여 객체 인식장치가 객체를 검출하는 방법을 설명하기 위한 예시도이다.7 is an exemplary view for explaining a method of detecting an object by the object recognition apparatus using the top view image according to the present embodiment.

도 7에 도시된 바와 같이, (a)는 하나의 차량(702)이 존재하고, 제1 객체(710) 및 제2 객체(720)가 차량 주변에 위치한 영상을 의미한다. As illustrated in FIG. 7, (a) refers to an image in which one vehicle 702 exists and the first object 710 and the second object 720 are positioned around the vehicle.

(b)는 차량(702)에 부착된 복수개의 카메라를 이용하여 촬영된 촬영영상을 보정하여 탑 뷰 영상으로 합성된 영상을 의미한다. 여기서, 합성영상은 t 시간에 합성된 영상 및 t+1 시간에 대한 합성된 영상 등과 같이 시계열적인 순서대로 합성되는 것이 바람직하다. 여기서, t 시간에 대한 합성영상을 전경 및 배경으로 분리하여 제1 객체(710)를 추적하고, t+1 시간에 대한 합성영상을 전경 및 배경으로 분리하여 제2 객체(720)를 추적한다.(b) refers to an image synthesized into a top view image by correcting a captured image photographed using a plurality of cameras attached to the vehicle 702. Here, the synthesized image is preferably synthesized in a time series order such as an image synthesized at t time and a synthesized image for t + 1 time. Here, the first object 710 is tracked by separating the composite image for t time into the foreground and the background, and the second object 720 is tracked by separating the composite image for t + 1 into the foreground and the background.

(c)는 t 시간에 대한 합성영상과 t+1 시간에 대한 합성영상을 정합하여 차량 주변에 대한 주변 영상정보를 생성한다. 여기서, 주변 영상정보는 시계열적으로 생성된 합성영상을 연속적으로 정합하여 차량의 주변에 움직이는 복수개의 객체를 나타낼 수 있다.(c) generates the surrounding image information about the surroundings of the vehicle by matching the composite image for t time and the composite image for t + 1 time. Here, the surrounding image information may represent a plurality of objects moving around the vehicle by continuously matching the synthesized image generated in time series.

(d)는 차량(702)의 좌측부분에 해당하는 촬영영상에서 객체가 존재하는 것을 알려주고, 좌측에 해당하는 영상을 모니터를 통해 제1 객체(710) 및 제2 객체(720)를 네모 표시로 부각하여 디스플레이한다.(d) notifies that the object exists in the captured image corresponding to the left side of the vehicle 702, and displays the first object 710 and the second object 720 in a square display on the image corresponding to the left side. Highlight and display.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present embodiment, and various modifications and changes may be made to those skilled in the art without departing from the essential characteristics of the embodiments. Therefore, the present embodiments are to be construed as illustrative rather than restrictive, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of the present embodiment should be construed according to the following claims, and all technical ideas within the scope of equivalents thereof should be construed as being included in the scope of the present invention.

이상에서 설명한 바와 같이 본 실시예은 분야에 적용되어, 차량의 주변 영상에 대한 인식거리 및 분해능을 증가시킬 수 있고, 주변 영상과 이동물체(예컨대, 보행자, 차량, 이륜차 및 동물 등)를 동시에 인식하여 충돌 방지에 대해 더 정확한 알람을 제공할 수 있는 효과를 발생하는 유용한 발명이다.As described above, the present embodiment is applied to the field to increase the recognition distance and resolution of the surrounding image of the vehicle, and simultaneously recognizes the surrounding image and the moving object (eg, a pedestrian, a vehicle, a motorcycle, and an animal). It is a useful invention that produces the effect of providing a more accurate alarm on collision avoidance.

110: 영상 촬영장치 120: 객체 인식장치
130: 모니터링 장치 210: 영상 처리부
220: 영상 획득부 230: 전처리부
240: 영상 합성부 250: 객체 인식부
260: 전경 배경 분리부 270: 관심객체 추적부
280: 주변 영상정보 생성부
110: image recording device 120: object recognition device
130: monitoring device 210: image processing unit
220: image acquisition unit 230: preprocessor
240: image synthesizer 250: object recognition unit
260: foreground background separator 270: object of interest tracking unit
280: surrounding image information generation unit

Claims (13)

차량에 기 설치된 복수개의 카메라를 이용하여 차량 주변영상 내의 관심객체를 인식하는 장치에 있어서,
상기 복수개의 카메라를 통해 촬영된 촬영영상을 획득하는 영상 획득부;
조작을 통해 입력된 영상 선택정보에 근거하여 상기 촬영영상에 대한 방사 왜곡 및 접합 오차를 보정하여 보정영상을 생성하는 전처리부;
상기 보정 영상을 상기 영상 선택정보에 대응하는 하나의 합성영상으로 생성하는 영상 합성부;
상기 합성영상 내의 화소 중에서 소정의 기준에 따라 움직임이 없는 배경에 대해 지정된 배경 화소를 이용하여 움직이는 객체에 해당하는 전경 화소를 판별하고, 상기 전경 화소를 포함하는 전경 영상을 생성하는 전경 배경 분리부;
상기 전경영상을 이용하여 상기 관심객체를 추적하는 관심객체 추적부; 및
상기 추적된 관심객체를 포함하는 주변 영상 결과정보를 출력하는 출력부
를 포함하는 것을 특징으로 하는 객체 인식장치.
An apparatus for recognizing an object of interest in a surrounding image of a vehicle by using a plurality of cameras installed in a vehicle,
An image acquisition unit for acquiring photographed images captured by the plurality of cameras;
A preprocessing unit generating a corrected image by correcting a radiation distortion and a bonding error of the photographed image based on the image selection information inputted through the manipulation;
An image synthesizer configured to generate the corrected image as one composite image corresponding to the image selection information;
A foreground background separator configured to determine a foreground pixel corresponding to a moving object by using a background pixel designated for a background without movement according to a predetermined criterion among the pixels in the composite image, and generate a foreground image including the foreground pixel;
An object of interest tracking unit that tracks the object of interest using the foreground image; And
Output unit for outputting the surrounding image result information including the tracked object of interest
Object recognition apparatus comprising a.
제 1 항에 있어서,
상기 전처리부는,
파노라마 뷰, 코너 뷰 및 탑 뷰 중 선택된 적어도 하나 이상의 상기 영상 선택정보에 근거하여 상기 방사 왜곡 및 상기 접합 오차를 보정하는 것을 특징으로 하는 객체 인식장치.
The method according to claim 1,
The pre-
And correcting the radiation distortion and the joint error based on at least one of the image selection information selected from a panoramic view, a corner view, and a top view.
제 2 항에 있어서,
상기 전처리부는,
넓은 시야각을 갖는 광각 카메라의 성능 또는 대기, 태양 등과 같은 외부 환경요소에 의해 상기 촬영영상의 중심으로부터 방사 상으로 영상이 확장되거나 축소되는 현상이 일어난 상기 촬영영상에 대한 상기 방사 왜곡을 보정하는 것을 특징으로 하는 객체 인식장치.
3. The method of claim 2,
The pre-
Correcting the radiation distortion of the photographed image in which the image is expanded or contracted radially from the center of the photographed image by the performance of a wide-angle camera having a wide viewing angle or external environmental factors such as the atmosphere and the sun. Object recognition device.
제 3 항에 있어서,
상기 전처리부는,
상기 촬영영상 내에 기 설정된 특정 행 또는 열에 대한 통계치 보정, 히스토그램 매칭 보정 및 드랍(Drop) 라인 보정 중 적어도 하나 이상의 방식을 이용하여 상기 방사 왜곡을 보정하는 것을 특징으로 하는 객체 인식장치.
The method of claim 3, wherein
The pre-
And correcting the radiation distortion using at least one of statistical correction, histogram matching correction, and drop line correction for a predetermined row or column in the photographed image.
제 2 항에 있어서,
상기 전처리부는,
상기 영상 선택정보에 대응하는 기 저장된 접합 기준영상에 근거하여 각각의 상기 촬영영상 간에 정확하게 연결되도록 상기 접합 오차를 보정하는 것을 특징으로 하는 객체 인식장치.
3. The method of claim 2,
The pre-
And correcting the splicing error so as to accurately connect the respective captured images based on the previously stored splicing reference image corresponding to the image selection information.
제 5 항에 있어서,
상기 접합 기준영상은,
상기 차량이 위치한 공간의 바닥면에 기 설치된 그리드 차트(Grid Chart)를 촬영하여 생성된 기준 영상인 것을 특징으로 하는 객체 인식장치.
6. The method of claim 5,
The junction reference image is,
And a reference image generated by photographing a grid chart pre-installed on the floor of the space where the vehicle is located.
제 1 항에 있어서,
상기 영상 합성부는,
상기 보정 영상을 파노라마 뷰, 코너 뷰 및 탑 뷰 중 하나의 영상으로 합성하는 것을 특징으로 하는 객체 인식장치.
The method according to claim 1,
Wherein the image synthesizer comprises:
And reconstructing the corrected image into one of a panoramic view, a corner view, and a top view.
제 1 항에 있어서,
상기 전경 배경 분리부는,
가우시안 모델(Gaussian Model)을 따라 지정된 상기 배경 화소를 이용하여 상기 전경 화소를 분리하되, 상기 화소에 대한 가중치(Weight) 값을 이용하여 상기 전경 화소를 생성하는 것을 특징으로 하는 것을 특징으로 하는 객체 인식장치.
The method according to claim 1,
The foreground background separator,
Object recognition, characterized in that the foreground pixel is separated using the background pixel designated according to a Gaussian model, and the foreground pixel is generated using a weight value of the pixel. Device.
제 1 항에 있어서,
상기 관심객체 추적부는,
상기 전경 영상에 해당하는 각각의 좌표값을 이용하여 상기 관심객체에 대한 궤적을 추적하는 것을 특징으로 하는 객체 인식장치.
The method according to claim 1,
The object of interest tracking unit,
And tracking the trajectory of the object of interest using respective coordinate values corresponding to the foreground image.
제 9 항에 있어서,
상기 관심객체 추적부는,
상기 전경 영상 내에서 상기 움직이는 객체에 대한 컬러 정보, 히스토그램, 객체의 모양(shape) 중 적어도 하나 이상의 정보를 비교하여 상기 좌표값이 소정의 범위 내에 위치하는 상기 관심객체를 판별하여 상기 관심객체에 대한 상기 좌표값을 추적하는 것을 특징으로 하는 객체 인식장치.
The method of claim 9,
The object of interest tracking unit,
Comparing at least one or more of color information, a histogram, and a shape of the object in the foreground image, the object of interest in which the coordinate value is located within a predetermined range may be determined to determine the object of interest. And an object recognition device for tracking the coordinate value.
차량 주변의 관심객체를 인식하는 방법에 있어서,
상기 차량에 부착된 복수개의 카메라를 통해 촬영된 촬영영상을 획득하는 영상 획득과정;
상기 촬영영상에 대한 방사 왜곡을 보정하고, 기 저장된 접합 기준영상에 근거하여 상기 촬영영상에 대한 접합 오차를 보정하는 전처리 과정;
복수개의 상기 보정된 촬영영상을 파노라마 뷰, 코너 뷰 및 탑 뷰 중 선택된 하나의 영상으로 합성하는 영상 합성과정;
상기 합성영상 내의 화소 중에서 소정의 기준에 따라 지정된 배경 화소를 이용하여 전경 화소를 판별하고, 상기 전경 화소를 포함하는 전경 영상을 생성하는 전경 배경 분리과정;
상기 전경영상을 이용하여 상기 관심객체를 추적하는 관심객체 추적과정; 및
상기 추적된 관심객체를 포함하는 주변 영상 결과정보를 출력하는 출력과정
을 포함하는 것을 특징으로 하는 객체 인식방법.
In the method of recognizing the object of interest around the vehicle,
An image acquisition process of acquiring a captured image photographed by a plurality of cameras attached to the vehicle;
A preprocessing step of correcting a radiation distortion of the photographed image and correcting a junction error of the photographed image based on a previously stored junction reference image;
An image synthesizing process of synthesizing a plurality of the corrected captured images into one image selected from a panoramic view, a corner view, and a top view;
A foreground background separation process of determining a foreground pixel by using a background pixel designated according to a predetermined criterion among pixels in the synthesized image, and generating a foreground image including the foreground pixel;
An object of interest tracking process of tracking the object of interest using the foreground image; And
An output process of outputting surrounding image result information including the tracked object of interest
Object recognition method comprising a.
제 11 항에 있어서,
상기 전경 배경 분리과정은,
가우시안 모델을 따라 지정된 상기 배경 화소를 이용하여 상기 전경 화소를 분리하되, 상기 화소에 대한 가중치 값을 이용하여 상기 전경 화소를 생성하는 과정을 포함하는 것을 특징으로 하는 객체 인식방법.
The method of claim 11,
The foreground background separation process,
And separating the foreground pixel by using the background pixel designated according to a Gaussian model, and generating the foreground pixel by using a weight value of the pixel.
제 11 항에 있어서,
상기 관심객체 추적과정은,
상기 전경 영상 내에서 움직이는 객체에 대한 컬러 정보, 히스토그램, 객체의 모양 중 적어도 하나 이상의 정보를 비교하여 상기 관심객체를 판별하여 추적하는 과정을 포함하는 것을 특징으로 하는 객체 인식방법.
The method of claim 11,
The object tracking process of interest,
And identifying and tracking the object of interest by comparing at least one or more information among color information, histogram, and shape of the object moving in the foreground image.
KR1020120114611A 2012-10-16 2012-10-16 Method and apparatus for recognizing object using surrounding image of vehicle KR20140048539A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120114611A KR20140048539A (en) 2012-10-16 2012-10-16 Method and apparatus for recognizing object using surrounding image of vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120114611A KR20140048539A (en) 2012-10-16 2012-10-16 Method and apparatus for recognizing object using surrounding image of vehicle

Publications (1)

Publication Number Publication Date
KR20140048539A true KR20140048539A (en) 2014-04-24

Family

ID=50654537

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120114611A KR20140048539A (en) 2012-10-16 2012-10-16 Method and apparatus for recognizing object using surrounding image of vehicle

Country Status (1)

Country Link
KR (1) KR20140048539A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101629577B1 (en) * 2014-12-10 2016-06-13 현대오트론 주식회사 Monitoring method and apparatus using a camera
KR20170130118A (en) 2016-05-18 2017-11-28 네이버 주식회사 Apparatus and method for providing vehicle air conditioning system based on vision recognition
US9840197B2 (en) 2014-06-10 2017-12-12 Lg Electronics Inc. Apparatus for providing around view and vehicle including the same
WO2018008871A1 (en) * 2016-07-08 2018-01-11 한양대학교 산학협력단 Compact video generation device and method, and recording medium in which computer program is recorded
US9984297B2 (en) 2015-06-02 2018-05-29 SK Hynix Inc. Moving object detection device and object detection method
WO2018125483A1 (en) * 2016-12-29 2018-07-05 Intel Corporation Detection of traffic dynamics and road changes in autonomous driving
CN110166710A (en) * 2019-06-21 2019-08-23 上海闻泰电子科技有限公司 Image composition method, device, equipment and medium
WO2019172645A1 (en) * 2018-03-08 2019-09-12 삼성전자 주식회사 Electronic device and method for vehicle driving assistance
KR20200109681A (en) * 2019-03-14 2020-09-23 경남과학기술대학교 산학협력단 Data acquisition method for classification of fish species
KR20200109683A (en) * 2019-03-14 2020-09-23 경남과학기술대학교 산학협력단 Data Application System for Classification of Fish Species
CN114494008A (en) * 2020-10-26 2022-05-13 通用汽车环球科技运作有限责任公司 Method and system for stitching images into virtual image
CN117278697A (en) * 2023-11-21 2023-12-22 中汽传媒(天津)有限公司 System and method for collecting panoramic video of automobile collision

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100956858B1 (en) * 2009-05-19 2010-05-11 주식회사 이미지넥스트 Sensing method and apparatus of lane departure using vehicle around image
JP2010134617A (en) * 2008-12-03 2010-06-17 Toyama Univ Panoramic imaging apparatus
KR101115252B1 (en) * 2009-07-24 2012-02-15 정선태 Method for implementing fixed-point adaptive gaussian mixture modeling
KR20120077309A (en) * 2010-12-30 2012-07-10 주식회사 와이즈오토모티브 Apparatus and method for displaying rear image of vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134617A (en) * 2008-12-03 2010-06-17 Toyama Univ Panoramic imaging apparatus
KR100956858B1 (en) * 2009-05-19 2010-05-11 주식회사 이미지넥스트 Sensing method and apparatus of lane departure using vehicle around image
KR101115252B1 (en) * 2009-07-24 2012-02-15 정선태 Method for implementing fixed-point adaptive gaussian mixture modeling
KR20120077309A (en) * 2010-12-30 2012-07-10 주식회사 와이즈오토모티브 Apparatus and method for displaying rear image of vehicle

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9840197B2 (en) 2014-06-10 2017-12-12 Lg Electronics Inc. Apparatus for providing around view and vehicle including the same
KR101629577B1 (en) * 2014-12-10 2016-06-13 현대오트론 주식회사 Monitoring method and apparatus using a camera
US9818033B2 (en) 2014-12-10 2017-11-14 Hyundai Autron Co., Ltd. Monitoring method and apparatus using a camera
US9984297B2 (en) 2015-06-02 2018-05-29 SK Hynix Inc. Moving object detection device and object detection method
KR20170130118A (en) 2016-05-18 2017-11-28 네이버 주식회사 Apparatus and method for providing vehicle air conditioning system based on vision recognition
WO2018008871A1 (en) * 2016-07-08 2018-01-11 한양대학교 산학협력단 Compact video generation device and method, and recording medium in which computer program is recorded
WO2018125483A1 (en) * 2016-12-29 2018-07-05 Intel Corporation Detection of traffic dynamics and road changes in autonomous driving
US10254763B2 (en) 2016-12-29 2019-04-09 Intel Corporation Detection of traffic dynamics and road changes in autonomous driving
US10928829B2 (en) 2016-12-29 2021-02-23 Intel Corporation Detection of traffic dynamics and road changes in autonomous driving
KR20190109663A (en) * 2018-03-08 2019-09-26 삼성전자주식회사 Electronic apparatus and method for assisting driving of a vehicle
WO2019172645A1 (en) * 2018-03-08 2019-09-12 삼성전자 주식회사 Electronic device and method for vehicle driving assistance
CN111836747A (en) * 2018-03-08 2020-10-27 三星电子株式会社 Electronic device and method for vehicle driving assistance
US11508158B2 (en) 2018-03-08 2022-11-22 Samsung Electronics Co., Ltd. Electronic device and method for vehicle driving assistance
CN111836747B (en) * 2018-03-08 2024-06-07 三星电子株式会社 Electronic device and method for vehicle driving assistance
KR20200109681A (en) * 2019-03-14 2020-09-23 경남과학기술대학교 산학협력단 Data acquisition method for classification of fish species
KR20200109683A (en) * 2019-03-14 2020-09-23 경남과학기술대학교 산학협력단 Data Application System for Classification of Fish Species
CN110166710A (en) * 2019-06-21 2019-08-23 上海闻泰电子科技有限公司 Image composition method, device, equipment and medium
CN114494008A (en) * 2020-10-26 2022-05-13 通用汽车环球科技运作有限责任公司 Method and system for stitching images into virtual image
CN117278697A (en) * 2023-11-21 2023-12-22 中汽传媒(天津)有限公司 System and method for collecting panoramic video of automobile collision
CN117278697B (en) * 2023-11-21 2024-03-15 中汽传媒(天津)有限公司 System and method for collecting panoramic video of automobile collision

Similar Documents

Publication Publication Date Title
KR20140048539A (en) Method and apparatus for recognizing object using surrounding image of vehicle
US11131753B2 (en) Method, apparatus and computer program for a vehicle
CN113271400B (en) Imaging device and electronic equipment
US8184160B2 (en) Image processor, driving assistance system, and out-of-position detecting method
JP5003395B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
US20120242787A1 (en) Monitoring camera for generating 3-dimensional image and method of generating 3-dimensional image using the same
JP2008102620A (en) Image processing device
CN107122770A (en) Many mesh camera systems, intelligent driving system, automobile, method and storage medium
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP2014183322A (en) Intersection recognition device and computer-executable program
KR101203816B1 (en) Robot fish localization system using artificial markers and method of the same
KR101365557B1 (en) Apparatus and method for detecting traffic lane
Kinzig et al. Real-time seamless image stitching in autonomous driving
JP6561511B2 (en) Parallax value deriving device, moving body, robot, parallax value production deriving method, parallax value producing method and program
JP6860445B2 (en) Object distance detector
KR20150102525A (en) Image processing apparatus and method, and system for assisting vehicle driving using the same
KR102029335B1 (en) Apparatus and method for correcting distored image
JP4696925B2 (en) Image processing device
JP2014155071A5 (en)
US11999374B2 (en) Spatial aware object detection by LIDAR and camera fusion based super-resolution
JP2009077022A (en) Driving support system and vehicle
CN115866418A (en) Image processing system, moving object, image processing method, and storage medium
CN115883985A (en) Image processing system, moving object, image processing method, and storage medium
JP5315104B2 (en) Traffic flow measuring device
JP2018092603A (en) Information processing device, imaging device, apparatus control system, movable body, information processing method, and information processing program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application