KR101630596B1 - Photographing apparatus for bottom of car and operating method thereof - Google Patents

Photographing apparatus for bottom of car and operating method thereof Download PDF

Info

Publication number
KR101630596B1
KR101630596B1 KR1020160027489A KR20160027489A KR101630596B1 KR 101630596 B1 KR101630596 B1 KR 101630596B1 KR 1020160027489 A KR1020160027489 A KR 1020160027489A KR 20160027489 A KR20160027489 A KR 20160027489A KR 101630596 B1 KR101630596 B1 KR 101630596B1
Authority
KR
South Korea
Prior art keywords
vehicle
camera
image
images
unit
Prior art date
Application number
KR1020160027489A
Other languages
Korean (ko)
Inventor
이정희
Original Assignee
이정희
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이정희 filed Critical 이정희
Application granted granted Critical
Publication of KR101630596B1 publication Critical patent/KR101630596B1/en
Priority to PCT/KR2017/001434 priority Critical patent/WO2017138754A1/en

Links

Images

Classifications

    • H04N5/23238
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N5/2256
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

The present invention relates to a device for photographing the bottom of a vehicle and to an operating method thereof. The device for photographing the bottom of a vehicle comprises: a camera for photographing the image of the bottom surface of a vehicle; a lighting module for radiating light to the bottom surface of a vehicle to be photographed by the camera; and a correction module for correcting the image of the bottom surface of the vehicle obtained by the camera. The correction module includes: a perspective distortion correcting part for correcting perspective distortion generated by a difference in the distance of the bottom surface of the vehicle from the camera depending on the view angle of the camera; and a matching part for specifying a corresponding point with corresponding RGB values by comparing the RGB values of each pixel of the images corrected by the perspective distortion correcting part, and matching the multiple images into a single image with respect to the corresponding point. The device for photographing the bottom of a vehicle according to the present invention can accurately detect a dangerous object or the like, which can be mounted on the bottom surface of a vehicle, by photographing the bottom surface without perspective distortion.

Description

차량하부 촬영장치 및 이를 운용하는 차량하부 촬영방법{Photographing apparatus for bottom of car and operating method thereof}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a vehicle bottom photographing apparatus,

본 발명은 차량하부 촬영장치 및 이를 운용하는 차량하부 촬영방법에 관한 것으로서, 카메라가 촬영하고자 하는 차량 바닥면과 근접 거리에 위치하여 촬영을 수행함에 따라 발생되는 원근 왜곡을 보정하고 복수 촬영된 이미지들을 선명한 하나의 이미지로 정합하는 차량하부 촬영장치 및 이를 운용하는 차량하부 촬영방법에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle underground photographing apparatus and a vehicle underground photographing method for operating the same, The present invention relates to a vehicle bottom photographing apparatus that matches an image with a clear one and a vehicle bottom photographing method that operates the same.

차량은 간편한 이동 수단이다. 이동 수단을 이용한 테러의 위협이 세계 곳곳에서 끊이질 않고 있는데, 특히 차량 하부의 경우 감시가 쉽지 않아 테러범들에게 잦은 테러의 도구로 사용된다. 차량 바닥면을 감시하기 위해, 반사 거울을 사용하여 차량 하부를 육안으로 확인하는 방법이 대부분이나 이는 차량 바닥면의 가장자리만 훑어 보는 수준에 지나지 않으며, 차량 바닥면의 중심부는 살피기 어렵고 차량 바닥면의 특성상 어두워서 위험물 등의 징후를 확인하기 매우 어렵다.Vehicles are an easy way to travel. Threats of terrorism using mobile means are not being cut off from all parts of the world. Especially in the case of underground vehicles, it is not easy to monitor and is used as a tool of terrorism frequently to terrorists. In order to monitor the floor of the vehicle, it is most common to use the reflection mirror to visually check the bottom of the vehicle. However, this is only the level of the edge of the floor of the vehicle and the center of the floor of the vehicle is difficult to see. Due to its nature, it is very difficult to identify signs of dangerous substances.

대한민국 공개특허공보 10-2011-0043048호는 이동하는 차량의 하부에 조명을 비추는 하부 조명 및 차량이 이동하는 하부에 배치되어 차량의 바닥면을 촬영하는 카메라가 탑재된 하부 검사부로 구성되어 있다. 대한민국 공개특허공보 10-2011-0043148호는 하부 조명을 통해 촬영 시, 차량 바닥면의 어두운 환경은 개선하고 있으나, 차량의 특성상 차량 바닥면과 카메라의 위치가 근접하여 카메라의 화각이 대체적으로 넓고 초점 거리가 짧아진다. 화각이 넓어진 경우, 카메라의 중심과 마주하는 차량 바닥면의 중심은 실물 사이즈 그대로 표시될 수 있으나 차량 바닥면의 외각 부분은 원근 왜곡 현상이 두드러지게 나타난다. 이러한 원근 왜곡 현상이 심한 경우, 차량 바닥면의 이미지가 왜곡되어 탑재된 위험물 등을 탐지하기 어렵다.Korean Patent Laid-Open Publication No. 10-2011-0043048 is composed of a lower illuminator illuminating a lower portion of a moving vehicle and a lower inspector having a camera mounted on a lower portion of the vehicle to photograph a bottom surface of the vehicle. Korean Patent Laid-Open Publication No. 10-2011-0043148 improves the dark environment of the vehicle floor when shooting through the lower lighting. However, due to the nature of the vehicle, the angle of view of the camera is generally wide The distance is shortened. When the angle of view is widened, the center of the vehicle's bottom surface facing the center of the camera can be displayed as the real size, but the outer portion of the vehicle's bottom surface shows a pronounced perspective distortion. When this kind of perspective distortion is severe, it is difficult to detect dangerous objects mounted on the vehicle because the image of the vehicle floor is distorted.

또한, 대한민국 공개특허공보 10-2014-0043148호는 움직이는 차량의 속도를 연산하여 복수의 차량 바닥면의 영상을 촬영한 후, 이들을 하나의 이미지로 형성하는 제어 연산 장치를 개시하고 있다. 이러한 이미지 정합 방식은 차량의 움직임 속도에만 의존한 방법으로 이미지 정합 시, 오류의 발생 정도가 빈번하다. 예를 들면, 차량이 카메라가 배치된 하부 검사부를 지나치는 속도가 항상 일률적이지 않고, 정차 위치에서 가속력에 의해 움직이는 시간 동안의 차량 속도는 평균속도와 차이가 클 수 밖에 없다. 또한, 이동 중인 차량의 속도가 항상 일률적으로 동일한 속도를 유지하기 어렵다. 따라서, 이러한 방식의 복수 이미지의 정합은 정확성이 떨어져 위험물 등의 감지가 제대로 이루어질 수 없다.
Korean Patent Laid-Open Publication No. 10-2014-0043148 discloses a control calculation device that calculates the speed of a moving vehicle, captures images of a plurality of vehicle floor surfaces, and forms them into one image. Such an image matching method is a method that depends only on the moving speed of the vehicle, and the occurrence of errors frequently occurs in image matching. For example, the speed at which the vehicle passes over the lower inspection section where the camera is disposed is not always uniform, and the vehicle speed during the time during which the vehicle is moved by the acceleration force at the stop position has a large difference from the average speed. Also, it is difficult for the speed of the moving vehicle to always keep the same speed uniformly. Therefore, matching of plural images in this manner is not accurate and detection of dangerous substances can not be performed properly.

대한민국 공개특허공보 제10-2014-0043148호(차량 하부 촬영 장치)Korean Patent Laid-Open Publication No. 10-2014-0043148 (vehicle under photographing apparatus)

이에 본 발명자들은 상기 문제를 해소하기 위해 다각적으로 연구를 수행한 결과, 카메라의 화각과 카메라로부터 차량 바닥면의 거리차를 연산하여 촬영된 이미지의 원근 왜곡을 보정하는 원근 왜곡 보정부와 보정된 이미지의 픽셀당 RGB(Red-Green-Blue) 수치가 동일한 대응점을 특정하여 복수 이미지들을 결합하는 이미지 정합부를 포함하는 차량하부 촬영장치를 통하여, 왜곡 없이 선명한 차량 바닥면을 촬영할 수 있음을 밝혀냈다.As a result of various studies to solve the above problem, the inventors of the present invention have found that a distance distortion correction unit that corrects a perspective distortion of a photographed image by calculating a difference between a viewing angle of the camera and a vehicle floor from the camera, It is possible to photograph a clear bottom surface of a vehicle without distortion by means of a vehicle under photographing apparatus including an image matching unit for specifying a corresponding point having a same RGB (Red-Green-Blue)

따라서, 본 발명이 해결하고자 하는 과제는 원근 왜곡이 없고, 정합 상태가 높은 수준으로 선명한 차량 바닥면 이미지를 획득할 수 있는 차량하부 촬영장치 및 이를 운용하는 촬영방법을 제공하는 것을 목적으로 한다.
SUMMARY OF THE INVENTION It is therefore an object of the present invention to provide a vehicle underground photographing apparatus and a photographing method for operating the same, which can acquire a clear bottom image of a vehicle with no distortion of perspective and a high matching state.

상기 목적을 달성하기 위해, 본 발명의 일 실시예에 따른 차량하부 촬영장치는 In order to achieve the above object, a vehicle lower imaging apparatus according to an embodiment of the present invention includes:

차량 바닥면의 이미지를 촬영하는 카메라;A camera for photographing an image of a vehicle floor;

상기 카메라가 촬영하고자 하는 차량 바닥면에 광을 조사하는 조명 모듈; 및An illumination module for illuminating the bottom surface of the vehicle to be photographed by the camera; And

상기 카메라에 의해 획득된 차량 바닥면의 이미지를 보정하는 보정 모듈을 포함하는 차량하부 촬영장치이되,And a correction module for correcting the image of the vehicle floor obtained by the camera,

상기 보정 모듈은 The correction module

상기 카메라의 화각에 따라 상기 카메라로부터 차량 바닥면의 거리차에 의해 발생되는 원근(遠近) 왜곡을 보정하는 원근 왜곡 보정부; 및A perspective distortion correcting unit for correcting a perspective distortion generated by a difference in distance between the camera and a bottom surface of the vehicle according to an angle of view of the camera; And

상기 원근 왜곡 보정부에 의해 보정된 이미지들의 픽셀당 RGB 수치를 비교하여 RGB 수치가 일치하는 대응점을 특정하고, 상기 대응점을 기준으로 복수의 이미지들을 하나의 이미지로 정합하는 이미지 정합부;를 포함한다.
And an image matching unit for comparing the RGB values per pixel of the images corrected by the perspective distortion correcting unit to specify corresponding points where the RGB values coincide with each other and matching the plurality of images to one image based on the corresponding points .

복수의 이미지들이 보다 정밀하게 정합되도록 유도하기 위해서,To induce multiple images to be more precisely matched,

상기 이미지 정합부는 복수의 이미지들의 대응점을 검출하기 위해, 픽셀당 RGB 수치에 투명도(α) 수치를 추가적으로 비교하여 대응점을 특정할 수 있다.
The image matching unit may further determine a corresponding point by additionally comparing transparency (alpha) values to RGB values per pixel to detect corresponding points of the plurality of images.

또한, 투명도(α) 수치가 반영된 정밀한 이미지 정합을 유도하기 위해서,Further, in order to induce precise image registration in which the transparency (alpha) value is reflected,

상기 조명 모듈은 The lighting module

차량 바닥면에 광을 조사하는 광원부;A light source unit for irradiating light on the vehicle floor;

차량 바닥면으로부터 반사된 광을 수광하는 센서부; 및A sensor unit for receiving light reflected from a vehicle floor; And

상기 센서부로부터 수광된 광의 조도를 비교하여 차량 바닥면 전체가 일정한 조도를 갖도록 광원을 제어하는 광원 제어부를 포함할 수 있다.
And a light source control unit for controlling the light source so that the entire bottom surface of the vehicle has a constant illuminance by comparing the illuminance of the light received from the sensor unit.

본 발명에 따른 차량하부 촬영장치 및 이를 운용하는 방법은 차량 바닥면을 촬영 시, 카메라가 차량 바닥면과 가깝게 위치되어 촬영을 진행함에 따라 발생하는 이미지의 원근 왜곡을 보정하고, RGB 수치 및 투명도를 비교하여 복수 이미지들의 대응점을 특정한 후 복수 이미지들을 정합하므로, 왜곡이 없고 선명한 차량 바닥면의 이미지를 제공할 수 있다. 따라서, 본 발명에 따른 차량하부 촬영 장치 및 이를 운용하는 방법은 차량 바닥면에 설치될 수 있는 여러 위험물들을 정확하게 탐지해 낼 수 있다.
The present invention provides a vehicle lower photographing apparatus and a method of operating the same that corrects a perspective distortion of an image generated when a camera is positioned close to a vehicle bottom when photographing a bottom surface of the vehicle, The plurality of images are matched after specifying the corresponding points of the plurality of images by comparison, so that it is possible to provide an image of a clear bottom surface of the vehicle free from distortion. Therefore, the vehicle underground photographing apparatus and the method of operating the same according to the present invention can accurately detect various dangerous materials that can be installed on the floor of the vehicle.

도 1은 본 발명의 일 실시예에 따른 차량하부 촬영장치의 평면도이다.
도 2는 도 1에 도시된 차량하부 촬영장치를 운용하는 보정 모듈의 모식도이다.
도 3은 차량을 근접 촬영 시 발생되는 원근 왜곡 영상과 원근 왜곡을 보정한 이미지이다.
도 4는 도 2에 도시된 이미지 정합부가 복수의 이미지를 정합하는 과정을 설명하기 위한 모식도이다.
도 5는 도 1에 도시된 차량하부 촬영장치가 탑재된 차량하부 촬영시스템의 사시도이다.
1 is a plan view of an under-vehicle photographing apparatus according to an embodiment of the present invention.
Fig. 2 is a schematic diagram of a correction module for operating the vehicle lower imaging apparatus shown in Fig. 1. Fig.
3 is an image obtained by correcting the perspective distortion and the perspective distortion generated when the vehicle is taken close-up.
FIG. 4 is a schematic diagram for explaining a process of matching the plurality of images by the image matching unit shown in FIG. 2. FIG.
5 is a perspective view of the vehicle lower imaging system on which the vehicle lower imaging apparatus shown in Fig. 1 is mounted.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 기술 사상과 범위를 벗어나지 않는 한, 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 사상과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, the specific shapes, structures, and characteristics described in this specification may be modified and changed from one embodiment to another without departing from the spirit and scope of the present invention. It is also to be understood that the position or arrangement of the individual components in each embodiment may be varied without departing from the spirit and scope of the present invention. Therefore, the following detailed description is not to be taken in a limiting sense, and the scope of the present invention should be construed as encompassing the scope of the appended claims and all equivalents thereof. In the drawings, like reference numbers designate the same or similar components throughout the several views.

이하에서는, 본 발명의 차량하부 촬영장치의 다양한 실시예들을 도면을 통해 구체적으로 설명하고자 한다.
Hereinafter, various embodiments of the vehicle lower imaging apparatus of the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 차량하부 촬영장치의 평면도이고, 도 2는 도 1에 도시된 차량하부 촬영장치를 운용하는 보정 모듈의 모식도이다. 도 1 및 도 2를 참고하면, 본 발명의 차량하부 촬영장치(100)는 차량 바닥면의 하부를 이동하면서 차량 바닥면을 촬영한다. 차량하부 촬영장치(100)는 차량 바닥면의 이미지를 촬영하는 카메라(110), 조명 모듈(120) 및 촬영된 이미지를 보정하는 보정 모듈(130)(도 1에서 미도시)을 포함한다.FIG. 1 is a plan view of a vehicle lower imaging apparatus according to an embodiment of the present invention, and FIG. 2 is a schematic diagram of a correction module for operating the vehicle lower imaging apparatus shown in FIG. 1 and 2, the vehicle underground photographing apparatus 100 of the present invention photographs the bottom surface of the vehicle while moving the lower portion of the vehicle bottom surface. The vehicle underground photographing apparatus 100 includes a camera 110 for photographing an image of the vehicle floor, a lighting module 120 and a correction module 130 (not shown in Fig. 1) for correcting the photographed image.

상기 차량하부 촬영장치(100)는 차량 바닥면의 하부를 이동하면서 차량 바닥면을 촬영한다. 상기 카메라(110)는 하나의 카메라가 배치될 수도 있고, 차량 바닥면 보다 더 넓게 확인할 수 있도록 복수의 카메라가 배치될 수 있다. 예를 들면, 상기 카메라(110)는 중심 카메라(111) 및 가장자리 카메라(112, 113)를 포함할 수 있다. 상기 중심 카메라(111)는 차량 바닥면과 평행한 위치에 배치되어 차량 바닥면의 중심부를 촬영할 수 있다. 상기 가장자리 카메라(112, 113)는 차량 바닥면 또는 중심 카메라(111)와 빗각으로 기울어져 배치되고, 차량 바닥면의 가장자리를 촬영할 수 있다. 이와 다른 예로써, 상기 중심 카메라(111) 및 가장자리 카메라(112, 113)는 차량 바닥면과 모두 평행한 위치에서 서로 이격되어 배치될 수 있다.The vehicle lower photographing apparatus 100 photographs the bottom surface of the vehicle while moving the lower portion of the vehicle bottom surface. The camera 110 may have a single camera or a plurality of cameras so that the camera 110 can be wider than the bottom of the vehicle. For example, the camera 110 may include a center camera 111 and an edge camera 112, 113. The center camera 111 may be disposed at a position parallel to the bottom surface of the vehicle so as to photograph the center of the bottom surface of the vehicle. The edge cameras 112 and 113 are disposed obliquely to the vehicle floor or the center camera 111 at an oblique angle, and can photograph the edges of the vehicle floor. As another example, the center camera 111 and the edge cameras 112 and 113 may be spaced apart from each other at positions parallel to the vehicle floor.

중심 카메라(111) 및 가장자리 카메라(112, 113)는 이미지를 획득하기 위해 사용될 수 있는 카메라라면 특별히 한정되지 않으나, 예를 들면 중심 카메라(111) 및 가장자리 카메라(112,113)는 CCD(Charge-coupled device) 카메라를 포함한다. 차량 바닥면을 촬영하는 환경을 고려하면, 도 3-(1)에 도시된 바와 같이 카메라가 탑재된 촬영장치(100)는 차량의 특성상 차량 바닥면의 위치와 가까운 위치에서 촬영을 수행하고, 카메라의 화각이 넓어진 조건에서 차량 바닥면을 촬영하게 된다. 이러한 환경에서 촬영된 차량 바닥면의 이미지는 도 3-(2)와 같은 원근 왜곡이 심하게 발생된다. The center camera 111 and the edge cameras 112 and 113 are not particularly limited as long as the cameras can be used to acquire images. For example, the center camera 111 and the edge cameras 112 and 113 are CCD (Charge-coupled device ) Camera. 3- (1), the photographing apparatus 100 mounted with the camera performs photographing at a position close to the position of the bottom surface of the vehicle due to the characteristics of the vehicle, And the bottom surface of the vehicle is photographed under a condition that the angle of view of the vehicle is widened. The image of the floor of the vehicle photographed in such an environment causes severe distortion of the perspective distortion as shown in Fig. 3- (2).

도 3-(3)은 원근 왜곡 현상을 보정하여 얻어지는 차량하부 바닥면의 이미지이다. 도 3-(3)과 도 3-(2)를 비교하면, 도 3-(2)는 카메라와 마주하는 차량 바닥면의 중심은 원근 왜곡 현상이 없으나 차량의 가장자리로 갈수록 점차 폭이 좁아지는 원근 왜곡 현상이 발생한다. 원근 왜곡 현상은 도 3-(2)에 도시된 바와 같이, 중심 카메라(111)의 렌즈 위치로부터 차량 바닥면의 가장자리까지의 거리(Z)가 중심 카메라(111)의 렌즈 위치로부터 차량 바닥면의 중심까지의 거리(A)보다 길어지게 됨에 따라 원근 왜곡 현상이 발생하게 된다.3- (3) is an image of the bottom surface of the vehicle obtained by correcting the perspective distortion. 3- (3) and Fig. 3- (2), the center of the vehicle floor facing the camera does not have a perspective distortion, but the distance from the edge of the vehicle Distortion occurs. The distance Z from the lens position of the center camera 111 to the edge of the vehicle floor surface is smaller than the distance Z from the lens position of the center camera 111 to the edge of the vehicle floor surface as shown in Figure 3- (2) The distance to the center becomes longer than the distance A, so that a perspective distortion occurs.

원근 왜곡 현상은 차량 바닥면의 가장자리의 폭을 좁게 왜곡 표시함으로써, 차량 바닥면에 설치된 위험물 등의 확인을 부정확하고 어렵게 만든다.The distortion of the perspective distortion narrowly displays the width of the edge of the vehicle floor surface, thereby making it difficult to check the dangerous substances installed on the vehicle floor.

도 1 및 도 2를 다시 참조하면, 상기 보정 모듈(130)은 중심 카메라(111) 및 가장자리 카메라(112, 113)에서 획득된 이미지의 원근 왜곡 형상을 보정하고, 원근 왜곡 현상이 보정된 복수의 이미지들을 정합하여 하나의 이미지로 제공한다. 상기 보정 모듈(130)은 원근 왜곡 보정부(131), 이미지 정합부(132) 및 거리 측정부(133)를 포함할 수 있다.Referring to FIGS. 1 and 2 again, the correction module 130 corrects the perspective distortion shape of the image obtained by the center camera 111 and the edge cameras 112 and 113, The images are matched and provided as one image. The correction module 130 may include a perspective distortion correction unit 131, an image matching unit 132, and a distance measurement unit 133.

상기 원근 왜곡 보정부(131)는 카메라(110)로부터 획득된 원근 왜곡된 이미지를 보정한다. 구체적인 예를 들면, 상기 거리 측정부(133)는 카메라(110)의 위치와 차량 바닥면의 거리를 측정할 수 있다. 거리 측정부(133)는 예를 들면 적외선을 조사하고 차량 바닥면에 반사되어 돌아오는 적외선의 시간을 측정함으로써 카메라(110)로부터 차량 바닥면까지의 거리를 연산할 수 있고, 또한 거리 측정부(133)은 초음파를 발생시켜 차량 바닥면에 반사된 후 되돌아오는 초음파의 시간을 획득하여 카메라(110)로부터 차량 바닥면까지의 거리를 연산할 수 있다. 거리 측정부(133)는 카메라(110)와 차량 바닥면 사이의 거리를 측정하여 거리 정보를 상기 원근 왜곡 보정부(131)에 송출한다. The perspective distortion correction unit 131 corrects the perspective distorted image obtained from the camera 110. [ For example, the distance measuring unit 133 may measure the distance between the position of the camera 110 and the floor of the vehicle. The distance measuring unit 133 can calculate the distance from the camera 110 to the vehicle floor surface by, for example, irradiating infrared rays and measuring the time of the infrared ray reflected on the vehicle floor surface, 133 may generate ultrasonic waves to obtain the time of the ultrasonic waves that are reflected on the floor of the vehicle and then return to calculate the distance from the camera 110 to the floor of the vehicle. The distance measuring unit 133 measures the distance between the camera 110 and the vehicle floor and sends distance information to the perspective distortion correction unit 131.

상기 원근 왜곡 보정부(131)는 거리 측정부(133)로부터 수신한 카메라(110)와 차량 바닥면 사이의 거리[도 3-(2)의 A] 및 카메라의 화각[도 3-(2)의 B]을 사용하여 원근 왜곡된 이미지를 보정한다. 이때, 원근 왜곡 보정부(131)는 카메라(110)로부터 촬영 시 화각의 정보를 획득할 수 있다.The perspective distortion correction unit 131 calculates the distance between the camera 110 and the vehicle bottom surface (A in FIG. 3- (2)) and the angle of view of the camera (FIG. 3- (2) Of B] is used to correct the distorted image. At this time, the perspective distortion correction unit 131 can acquire the information of the angle of view at the time of photographing from the camera 110.

원근 왜곡 보정부(131)가 왜곡된 이미지를 보정하는 방법을 구체적인 예를 들어 설명하면, 원근 왜곡에 의해 폭이 좁아진 이미지를 확대하기 위해 이미지 확대값을 산출한다. 도 3-(2)를 참고하여 설명하면, 중심 카메라(111)는 차량 바닥면과 평행한 위치에 배치되어 차량 바닥면의 중심부를 촬영하고, 가장자리 카메라(112, 113)는 차량 바닥면과 빗각으로 기울어져 배치되어 차량 바닥면의 가장자리를 촬영할 수 있다. 먼저 중심 카메라(111)의 이미지 확대값(G)은 하기 수학식 1을 통해 산출될 수 있다.A method of correcting the distorted image by the perspective distortion correction unit 131 will be described in detail. The image enlargement value is calculated to enlarge the image narrowed by the perspective distortion. 3 (2), the center camera 111 is disposed at a position parallel to the vehicle floor to photograph the center portion of the vehicle floor, and the edge cameras 112 and 113 are disposed at an angle So that the edge of the vehicle floor can be photographed. First, the image enlargement value G of the center camera 111 can be calculated by the following equation (1).

[수학식 1][Equation 1]

G=A*tan(B/2)G = A * tan (B / 2)

[G: 이미지 확대값, A: 중심 카메라와 차량 바닥면과의 거리, B: 화각]
[G: image enlargement value, A: distance between the center camera and the vehicle floor, B: angle of view]

이어서, 원근 왜곡 보정부(131)는 획득된 이미지 확대값(G)을 사용하여 왜곡된 이미지의 폭을 확대한다. 이와 같이 원근 왜곡된 이미지를 확대할 경우, 확대된 픽셀은 RGB 정보가 채워져야 보정된 이미지가 표시될 수 있는데, 이미지 확대값(G)으로 확대되어 RGB 정보가 필요한 픽셀은 그와 인접한 픽셀의 RGB 값과 동일한 정보가 입력되어 색으로써 표시될 수 있다.Then, the perspective distortion correction unit 131 enlarges the width of the distorted image using the obtained image enlargement value G. When the perspective-distorted image is enlarged, the enlarged pixel can not be displayed until the RGB information is filled. A pixel requiring the RGB information enlarged by the image enlargement value (G) The same information as the value can be input and displayed as a color.

한편, 원근 왜곡 보정부(131)는 가장자리 카메라(112, 113)의 이미지 확대값(G1)을 아래와 같은 순서로 산출할 수 있다. 먼저, 가장자리 카메라(112, 113)와 근접한 위치에 배치된 거리 측정부(133)를 통해 가장자리 카메라(112, 113)와 차량 바닥면의 거리(F)를 측정한다. 상기 F 거리 및 상기 수학식 1의 A, G 값을 아래 수학식 2에 대입하여, 원근 왜곡 보정부(131)는 가장자리 카메라(112, 113)의 이미지 확대값(G1)을 산출할 수 있다.On the other hand, the perspective distortion correction unit 131 may calculate the image enlargement value G1 of the edge cameras 112 and 113 in the following order. First, the distance F between the edge cameras 112 and 113 and the vehicle floor is measured through a distance measuring unit 133 disposed at a position close to the edge cameras 112 and 113. The perspective distortion correction unit 131 may calculate the image enlargement value G1 of the edge cameras 112 and 113 by substituting the F distance and the A and G values of Equation 1 into Equation 2 below.

[수학식 2]&Quot; (2) "

G1=F*G/AG1 = F * G / A

[F: 가장자리 카메라와 차량 바닥면의 거리, G: 중심 카메라의 이미지 확대값, A: 중심 카메라와 차량 바닥면과의 거리]
[F: Distance between the edge camera and the vehicle floor, G: Image enlargement value of the center camera, A: Distance between the center camera and the vehicle floor]

상기 수학식 2는 중심 카메라(111)와 차량 바닥면의 거리(A) 대비 가장자리 카메라(112, 113)와 차량 바닥면의 거리(F)의 비율을 사용하여, 가장자리 카메라(112, 113)의 이미지 확대값(G1)을 상대적으로 산출한 것이다. 이어서, 원근 왜곡 보정부(131)는 획득된 이미지 확대값(G1)을 사용하여 가장자리 카메라(112, 113)를 통해 획득된 왜곡된 이미지의 폭을 확대한다. 이미지 확대값(G1)으로 확대되어 RGB 정보가 필요한 픽셀은 그와 인접한 필셀의 RGB 값과 동일한 정보가 입력되어 색으로써 표시될 수 있다.Equation 2 is obtained by using the ratio of the distance A between the center camera 111 and the vehicle floor surface to the distance between the edge cameras 112 and 113 and the vehicle floor surface, The image enlargement value G1 is relatively calculated. Then, the perspective distortion correction unit 131 enlarges the width of the distorted image obtained through the edge cameras 112 and 113 using the obtained image enlargement value G1. Pixels that are enlarged by the image enlargement value G1 and require RGB information can be displayed as colors by inputting the same information as the RGB values of the adjacent pixels.

또한, 도 3-(2)에 도시된 것과 다르게, 가장자리 카메라(112, 113)가 중심 카메라(111)와 동일하게 차량 바닥면과 수평한 평면에서 서로 이격되어 배치될 수 있는데, 이 경우 중심 카메라(111) 및 가장자리 카메라(112, 113)의 이미지 확대값은 모두 앞서 설명한 수학식 1을 통하여 획득할 수 있다.3 (2), the edge cameras 112 and 113 may be disposed apart from each other in a horizontal plane with the vehicle floor, like the center camera 111. In this case, The image enlargement values of the edge camera 111 and the edge cameras 112 and 113 can be obtained through Equation (1) described above.

카메라(110)가 다수에 걸쳐 차량 바닥면을 촬영하고 원근 왜곡된 복수 이미지들을 송출할 경우, 원근 왜곡 보정부(131)는 복수 이미지들을 순차적으로 수회에 걸쳐서 왜곡된 이미지들을 보정할 수 있다. 원근 왜곡 보정부(131)는 보정된 이미지들을 이미지 정합부(132)에 송출한다.
When the camera 110 photographs the bottom surface of a vehicle and sends out a plurality of distantly distorted images, the perspective distortion correction unit 131 can correct the distorted images sequentially over a plurality of images sequentially. The perspective distortion correction unit 131 sends the corrected images to the image matching unit 132. [

상기 이미지 정합부(132)는 원근 왜곡 보정부(131)로부터 수신한 복수 이미지들을 하나의 이미지로 표시되도록 정합한다. 서로 다른 차량 바닥면을 촬영한 복수 이미지들을 정밀하게 정합시키기 위해서, 이미지 정합부(132)는 복수 이미지들의 픽셀당 RGB 수치를 비교하여 RGB 수치가 일치하는 대응점을 특정한 후 대응점을 오버랩하여 복수 이미지들을 정합한다. The image matching unit 132 matches the plurality of images received from the perspective distortion correction unit 131 so as to be displayed as one image. In order to precisely match multiple images taken on different vehicle floor surfaces, the image matching unit 132 compares the RGB values per pixel of the plurality of images to specify corresponding points where the RGB values coincide, and then overlaps the corresponding points, ≪ / RTI >

도 4는 도 2에 도시된 이미지 정합부가 복수의 이미지를 정합하는 과정을 설명하기 위한 모식도이다. 도 2 및 도 4를 참고하면, 이미지 정합부(132)는 복수 이미지들을 정합하기 위해, 이미지들의 동일한 RGB 수치를 갖는 픽셀을 스크리닝할 수 있다. 복수 이미지를 확대하면 수많은 픽셀들이 조합되어 이미지를 이루는데, 각각의 픽셀들은 고유한 RGB 수치(픽셀정보)를 가지고 있다. 도 4에 도시된 바와 같이, 상기 이미지 정합부(132)는 RGB 수치가 일치하는 픽셀을 대응점(Y)으로 특정하고, 대응점(Y)을 기준으로 복수의 이미지들을 오버랩하여 하나의 이미지 데이터로 제공한다.FIG. 4 is a schematic diagram for explaining a process of matching the plurality of images by the image matching unit shown in FIG. 2. FIG. Referring to Figs. 2 and 4, the image matching unit 132 may screen pixels having the same RGB value of images to match a plurality of images. When a plurality of images are enlarged, a large number of pixels are combined to form an image. Each of the pixels has a unique RGB value (pixel information). As shown in FIG. 4, the image matching unit 132 specifies pixels corresponding to RGB values as corresponding points (Y), overlaps a plurality of images based on the corresponding points (Y) and provides them as one image data do.

여기서, 상기 대응점(Y)은 RGB 수치가 일치하는 복수의 픽셀들로 설정할 수 있다. 도 4에 예시된 바와 같이, 이미지 정합부(132)는 이미지상에 연속 배치된 10 이상의 픽셀들이 동일한 RGB 수치를 가진 경우, 이들 10개의 픽셀들을 대응점으로 설정할 수 있다. 도 4에서는 10 개의 픽셀들을 대응점(Y)으로 특정하였으나, 대응점으로 특정될 수 있는 픽셀의 수는 이미지 정합부(132)의 처리속도와 정합의 정밀도를 고려하여 다양하게 변경할 수 있다.Here, the correspondence point (Y) can be set to a plurality of pixels having the same RGB value. As illustrated in Fig. 4, the image matching unit 132 may set these ten pixels as the corresponding points when the ten or more pixels successively arranged on the image have the same RGB value. 4, the number of pixels that can be specified by the corresponding points can be variously changed in consideration of the processing speed of the image matching unit 132 and the accuracy of matching.

바람직하게는 복수 이미지들의 대응점(Y)을 검출하기 위해, 이미지 정합부(132)는 픽셀당 RGB 수치에 투명도(α) 수치를 추가적으로 비교하여 대응점을 특정할 수 있다. 투명도(α)는 밝기를 무시한 색의 성질인 색도(Chromaticity)와 빛의 산란 정도를 광학적으로 측정하여 표시한 탁도(Turbidity)를 담은 정보이다. 이러한 투명도 수치를 RGB 수치에 더하여 복수 이미지들의 대응점을 특정하면 정합의 정밀도를 향상시킬 수 있다.Preferably, in order to detect the corresponding point Y of the plurality of images, the image registration unit 132 may additionally compare the transparency (alpha) value to the RGB value per pixel to specify the corresponding point. Transparency (α) is information about turbidity which is optically measured by chromaticity and scattering degree of light which ignores brightness. By adding the transparency value to the RGB value and specifying the corresponding points of the plurality of images, the accuracy of matching can be improved.

이미지 정합부(132)는 정합된 차량 바닥면의 이미지를 표시장치에 송출하고 검사자가 표시장치를 통해 차량 바닥면을 검사할 수 있다.
The image matching unit 132 can send an image of the matched vehicle floor surface to the display device and the inspector can inspect the vehicle floor surface through the display device.

한편, 이미지 정합부(132)가 RGB 수치 및 투명도를 기준으로 대응점을 특정하므로, 차량 하부를 밝게 비추는 조명의 조도가 일정하게 유지되어야 한다. 조명의 조도가 일정하지 않을 경우, 차량 바닥면의 RGB 수치 및 투명도가 변화되어 이미지 정합부(132)가 대응점을 특정하기 어렵고, 정합이 불가능한 오류가 발생할 수 있다. 특히, 투명도를 대응점을 특정하는 기준으로 삼을 경우, 차량 하부를 비추는 조도의 균일성은 중요한 요소로 작용한다.On the other hand, since the image matching unit 132 specifies the corresponding point based on the RGB values and the transparency, the illuminance of the illumination illuminating the lower portion of the vehicle must be maintained constant. If the illuminance of the illumination is not constant, the RGB value and the transparency of the vehicle floor surface are changed, and it is difficult for the image matching unit 132 to specify the corresponding point, and an error that can not be matched can occur. Especially, when the transparency is used as a criterion for specifying the corresponding point, the uniformity of illuminance illuminating the lower portion of the vehicle is an important factor.

도 1 및 도 2를 참고하면, 상기 조명 모듈은 카메라가 촬영하고자 하는 차량 바닥면에 광을 조사한다. 조명 모듈(120)은 광원부(121), 센서부(122), 광원 제어부(123)를 포함한다.Referring to FIGS. 1 and 2, the lighting module illuminates the bottom surface of a vehicle to be photographed by the camera. The illumination module 120 includes a light source unit 121, a sensor unit 122, and a light source control unit 123.

상기 광원부(121)는 차량 바닥면에 광을 조사하여 차량 하부의 특성상 어두운 촬영 환경을 밝게 비춘다. 광원부(121)는 복수의 LED 칩이 탑재될 수 있으며, LED 칩의 수는 차량하부 촬영장치(100)와 촬영하고자 하는 차량의 크기를 고려하여 다양하게 변경할 수 있다.The light source unit 121 illuminates the bottom surface of the vehicle and brightens the dark shooting environment due to the characteristics of the lower portion of the vehicle. The light source unit 121 may include a plurality of LED chips, and the number of the LED chips may be variously changed in consideration of the size of the vehicle under photographing apparatus 100 and the vehicle to be photographed.

상기 센서부(122)는 광원부(121)로부터 조사된 광이 차량 바닥면에 반사되어 돌아오는 반사광을 수광한다. 센서부(122)는 수광된 반사광의 조도 정보를 센싱하고 조도 정보를 상기 광원 제어부(123)에 송출한다. 도 1에서 센서부(122)는 카메라(110)의 양 측면에 2개 배치된 것을 예시하였으나, 광원부(121)에 탑재된 LED 칩의 수 및 카메라의 수를 고려하여 다양하게 변경할 수 있다.The sensor unit 122 receives reflected light that is reflected by the bottom surface of the vehicle and is emitted from the light source unit 121. The sensor unit 122 senses the illuminance information of the received reflected light and transmits the illuminance information to the light source control unit 123. 1, two sensor units 122 are disposed on both sides of the camera 110. However, the sensor unit 122 may be variously changed in consideration of the number of LED chips mounted on the light source unit 121 and the number of cameras.

상기 광원 제어부(123)는 센서부(122)로부터 수신한 조도 정보를 취합하여, 각각의 조도 정보를 비교한다. 광원 제어부(123)는 취합된 조도 정보 중 조도가 낮게 검출된 센서부(122)가 확인된 경우, 해당 센서부(122)가 위치한 LED 칩에 광 조사량을 높이도록 광원부(121)를 제어할 수 있다.The light source control unit 123 collects illumination information received from the sensor unit 122 and compares the illumination information with each other. The light source control unit 123 may control the light source unit 121 to increase the light irradiation amount on the LED chip in which the sensor unit 122 is located when the sensor unit 122 with low light intensity is identified in the collected lightness information have.

상기 광원 제어부(123)는 외부 환경 또는 차량 바닥면의 형상적 특성에 의해 발생될 수 있는 불균일한 조도를 균일하도록 제어하여, 이미지 정합부(132)가 복수 이미지들의 대응점을 오류 없이 특정할 수 있게 한다.
The light source control unit 123 controls the uneven illuminance that may be generated by the external environment or the shape characteristic of the vehicle floor surface to be uniform so that the image matching unit 132 can identify the corresponding points of the plurality of images without error do.

이하에서는 본 발명의 차량하부 촬영장치가 탑재된 차량하부 촬영시스템을 예시적으로 설명하고자 한다.Hereinafter, a vehicle lower imaging system on which the vehicle lower imaging apparatus of the present invention is mounted will be described as an example.

도 5는 도 1에 도시된 차량하부 촬영장치가 탑재된 차량하부 촬영시스템의 사시도이다. 도 5를 참고하면, 차량하부 촬영시스템(1000)은 차량하부 촬영장치(100), 스테이지(200), 가이드부(300)를 포함한다.5 is a perspective view of the vehicle lower imaging system on which the vehicle lower imaging apparatus shown in Fig. 1 is mounted. 5, the vehicle lower imaging system 1000 includes a vehicle lower imaging apparatus 100, a stage 200, and a guide unit 300. As shown in FIG.

상기 차량하부 촬영장치(100)는 앞서 설명한 바와 동일하므로 자세한 설명은 생략하도록 한다. 상기 스테이지(200)의 상부에는 차량이 위치한다. 스테이지(200)는 차량의 바퀴가 위치하는 부분이 조금 높게 돌출될 수 있다. 전체적으로 스테이지(200)를 바라보았을 때, 스테이지(200)가 일방향으로 경사진 형태를 가질 수 있으며, 이는 빗물이 자연적으로 배수될 수 있게 한다.Since the vehicle lower imaging apparatus 100 is the same as the one described above, a detailed description thereof will be omitted. A vehicle is positioned above the stage 200. The portion of the stage 200 where the wheels of the vehicle are positioned may protrude slightly higher. When viewing the stage 200 as a whole, the stage 200 may have a shape that is inclined in one direction, which allows the rainwater to drain naturally.

차량이 스테이지(200)의 정위치에 정차했는지 여부를 확인할 수 있는 레이저나 적외선 센서가 스테이지(200)에 부착될 수 있다. 또한 스테이지(200)에는 차량번호를 감지하는 감지 카메라(400)라 탑재될 수 있고, 스테이지(200)에 진입하는 차량의 번호를 인식할 수 있다.A laser or an infrared sensor capable of confirming whether or not the vehicle has stopped at a predetermined position of the stage 200 can be attached to the stage 200. [ In addition, the stage 200 can be mounted with a detection camera 400 for detecting the vehicle number, and can recognize the number of the vehicle entering the stage 200.

상기 가이드부(300)는 스테이지(200)의 중심부의 길이 방향을 따라 연장되어 배치되고, 차량하부 촬영장치(100)를 이동시킨다. 따라서, 차량하부 촬영장치(100)는 가이드부(300)를 따라 차량 바닥면을 촬영하며 이동할 수 있다.
The guide unit 300 extends along the longitudinal direction of the center of the stage 200 and moves the vehicle lower imaging apparatus 100. Therefore, the vehicle lower imaging apparatus 100 can move along the guide section 300 by photographing the bottom surface of the vehicle.

이하에서는 본 발명의 차량하부 촬영장치를 운용하는 차량하부 촬영방법을 설명하고자 한다. Hereinafter, a vehicle bottom photographing method for operating the vehicle lower photographing apparatus of the present invention will be described.

본 발명의 차량하부 촬영방법은 (A) 카메라를 사용하여 차량하부의 복수 이미지들을 촬영하는 단계, (B) 상기 카메라의 화각 및 상기 카메라와 차량 바닥면의 거리를 사용하여 촬영된 복수 이미지들의 원근 왜곡 부분을 보정하는 단계 및 (C) 원근 왜곡 부분이 보정된 복수 이미지들의 픽셀당 RGB 수치를 비교하여 RGB 수치가 일치하는 대응점을 기준으로 복수 이미지들을 오버랩(Overlap)하여 하나의 이미지로 정합하는 단계를 포함한다.A method for photographing a lower portion of a vehicle according to the present invention includes the steps of: (A) photographing a plurality of images of a lower portion of a vehicle using a camera; (B) (C) comparing the RGB values per pixel of the plurality of images in which the perspective distortion is corrected, and overlapping the plurality of images on the basis of corresponding points where the RGB values coincide with each other to match the images with one image .

각 단계를 나누어 구체적으로 설명하면, (A) 단계는 먼저 촬영하고자 하는 차량 바닥면에 광원을 사용하여 광을 조사한다(A-1). 이어서, 차량 바닥면에 반사되는 광을 수광하여 차량 바닥면의 조도를 측정하고, 차량 바닥면에 반사되는 광의 조도가 균일하도록 광원의 광 조사량을 조절한다(A-2). 그 후, 상기 카메라가 차량 바닥면을 촬영한다(A-3).In step (A), light is irradiated to the bottom surface of the vehicle to be photographed (A-1). Next, the light reflected from the vehicle floor is received to measure the illuminance of the bottom surface of the vehicle, and the light amount of the light source is adjusted so that the illuminance of the light reflected on the bottom surface of the vehicle is uniform (A-2). Thereafter, the camera photographs the bottom surface of the vehicle (A-3).

그 후 (B) 단계는 카메라와 촬영하고자 하는 차량 바닥면과의 거리를 측정하고(B-1), 이어서 상기 카메라의 화각을 확인하고(B-2), 원근 왜곡된 이미지의 폭을 확대하기 위해 이미지 확대값을 산출하며(B-3), 원근 왜곡된 이미지들의 왜곡 부분을 상기 이미지 확대값으로 확대한다(B-4). 여기서 이미지 확대값을 산출하는 방법은 앞서 설명하였으므로 자세한 내용은 생략하기로 한다. 이어서, 확대된 이미지의 픽셀에 보정전 인접 픽셀의 RGB 값과 동일한 수치로 색을 표시한다(B-5).Thereafter, in step (B), the distance between the camera and the floor of the vehicle to be photographed is measured (B-1), and then the angle of view of the camera is checked (B-2) (B-3), and the distorted part of the perspective distorted images is enlarged to the image enlargement value (B-4). Since the method of calculating the image enlargement value has been described above, the detailed description will be omitted. Then, the pixels of the enlarged image are displayed with the same color as the RGB values of the adjacent pixels before the correction (B-5).

(C) 단계는 보정된 이미지들 간의 픽셀당 RGB 수치를 비교하여, 이미지 상에 연속 배치된 적어도 10 이상의 동일 RGB 수치를 갖는 대응점을 특정하고(C-1), 복수 이미지들을 상기 대응점에 오버랩하여 하나의 이미지로 정합한다(C-2). 상기 대응점은 복수 이미지들의 픽셀당 RGB 수치 및 투명도(α) 수치가 동일한 픽셀을 포함할 수 있다.(C) comparing the RGB values per pixel between the calibrated images to identify corresponding points having at least 10 identical RGB values arranged continuously on the image (C-1), overlapping the plurality of images with the corresponding points Match with one image (C-2). The correspondence point may include pixels having the same RGB value and transparency (alpha) value per pixel of the plurality of images.

이와 같이 본 발명에 따른 차량하부 촬영장치 및 이를 운용하는 방법은 차량 바닥면을 촬영 시, 카메라가 차량 바닥면과 가깝게 위치되어 촬영을 진행함에 따라 발생하는 이미지의 원근 왜곡을 보정하고, RGB 수치 및 투명도를 비교하여 복수 이미지들의 대응점을 특정한 후 복수 이미지들을 정합하므로, 왜곡이 없고 선명한 차량 바닥면의 이미지를 획득할 수 있다. 따라서, 본 발명에 따른 차량하부 촬영 장치 및 이를 운용하는 방법은 차량 바닥면에 설치될 수 있는 위험물 등을 정확하게 탐지해 낼 수 있다.As described above, according to the present invention, when the bottom surface of the vehicle is photographed, the camera corrects the perspective distortion of the image generated as the camera is located close to the bottom surface of the vehicle, Since a plurality of images are matched after specifying the corresponding points of the plurality of images by comparing the transparency, it is possible to acquire an image of a clear bottom surface of the vehicle without distortion. Therefore, the vehicle underground photographing apparatus and the method of operating the same according to the present invention can accurately detect dangerous materials or the like that can be installed on the floor of the vehicle.

1000: 차량하부 촬영시스템
100: 차량하부 촬영장치
110: 카메라 111: 중심 카메라
112, 113: 가장자리 카메라
120: 조명 모듈 121: 광원부
122: 센서부 123: 광원 제어부
130: 보정 모듈 131: 원근 왜곡 보정부
132: 이미지 정합부 133: 거리 측정부
G: 이미지 확대값
200: 스테이지
300: 가이드부
400: 감지 카메라
B: 화각
Y: 대응점
1000: Under Vehicle Shooting System
100: Vehicle bottom photographing apparatus
110: camera 111: center camera
112, 113: edge camera
120: illumination module 121: light source part
122: sensor unit 123: light source control unit
130: Correction module 131: Perspective distortion correction section
132: image matching unit 133: distance measuring unit
G: Image enlargement value
200: stage
300: guide portion
400: Detection camera
B: angle of view
Y: Corresponding point

Claims (13)

차량 바닥면의 이미지를 촬영하는 카메라;
상기 카메라가 촬영하고자 하는 차량 바닥면에 광을 조사하는 조명 모듈; 및
상기 카메라에 의해 획득된 차량 바닥면의 이미지를 보정하는 보정 모듈을 포함하는 차량하부 촬영장치에 있어서,
상기 조명 모듈은
차량 바닥면에 광을 조사하는 광원부;
차량 바닥면에 반사된 광을 수광하는 센서부; 및
상기 센서부로부터 수광된 광의 조도를 비교하여 차량 바닥면이 일정한 조도를 갖도록 광원부를 제어하는 광원 제어부를 포함하고,
상기 보정 모듈은
상기 카메라의 화각에 따라 상기 카메라로부터 차량 바닥면의 거리차에 의해 발생되는 원근(遠近) 왜곡을 보정하는 원근 왜곡 보정부; 및
상기 원근 왜곡 보정부에 의해 보정된 이미지들의 픽셀당 RGB 수치에 투명도(α) 수치를 추가하여 비교함으로써 수치가 일치하는 대응점을 특정하고, 상기 대응점을 기준으로 복수의 이미지들을 하나의 이미지로 정합하는 이미지 정합부;를 포함하는 것을 특징으로 하는 차량하부 촬영장치.
A camera for photographing an image of a vehicle floor;
An illumination module for illuminating the bottom surface of the vehicle to be photographed by the camera; And
And a correction module for correcting an image of a vehicle floor obtained by the camera,
The lighting module
A light source unit for irradiating light on the vehicle floor;
A sensor unit for receiving light reflected on a vehicle floor; And
And a light source control unit for comparing the illuminance of the light received from the sensor unit and controlling the light source unit so that a bottom surface of the vehicle has a constant illuminance,
The correction module
A perspective distortion correcting unit for correcting a perspective distortion generated by a difference in distance between the camera and a bottom surface of the vehicle according to an angle of view of the camera; And
A transparency (alpha) value is added to RGB values per pixel of the images corrected by the perspective distortion correction unit to specify corresponding points whose values coincide with each other, and a plurality of images are matched to one image with reference to the corresponding points And an image registration unit for outputting the image registration information.
삭제delete 제1항에 있어서,
상기 보정 모듈은
상기 카메라와 상기 차량 바닥면과의 거리를 측정하는 거리 측정부를 더 포함하고,
상기 원근 왜곡 보정부는 상기 카메라와 상기 차량 바닥면과의 거리 및 상기 카메라로부터 산출된 화각을 사용하여 원근 왜곡된 이미지를 보정하는 것을 특징으로 하는 차량하부 촬영장치.
The method according to claim 1,
The correction module
Further comprising a distance measuring unit for measuring a distance between the camera and the vehicle floor,
Wherein the trapezoidal distortion correcting unit corrects the perspective distorted image using the distance between the camera and the vehicle floor surface and the angle of view calculated by the camera.
제3항에 있어서,
상기 보정 모듈은 하기 수학식 1로 이미지 확대값(G)을 산출하고,
상기 원근 왜곡 보정부는 상기 이미지 확대값을 기준으로 원근 왜곡된 이미지의 폭을 확대하는 것을 특징으로 하는 차량하부 촬영장치.
[수학식 1]
G=A*tan(B/2)
[G: 이미지 확대값, A: 카메라와 차량 바닥면과의 거리, B: 화각]
The method of claim 3,
The correction module calculates an image enlargement value (G) by the following equation (1)
Wherein the trapezoidal distortion correcting unit enlarges the width of the perspective-distorted image based on the image enlargement value.
[Equation 1]
G = A * tan (B / 2)
[G: image enlargement value, A: distance between the camera and the vehicle floor, B: angle of view]
제4항에 있어서,
상기 원근 왜곡 보정부는
상기 이미지 확대값으로 확대된 이미지의 픽셀에 인접 픽셀의 RGB 값과 동일한 수치로 색을 표현하는 것을 특징으로 하는 차량하부 촬영장치.
5. The method of claim 4,
The perspective distortion correction unit
Wherein the color of the pixel of the image enlarged by the image enlargement value is expressed by the same value as the RGB value of the adjacent pixel.
제1항에 있어서,
상기 이미지 정합부는
이미지 상에 연속 배치된 적어도 10 이상의 픽셀을 대응점으로 특정하고, 복수 이미지들의 대응점이 오버랩 되도록 정합하는 것을 특징으로 하는 차량하부 촬영장치.
The method according to claim 1,
The image matching unit
Wherein at least 10 or more pixels continuously arranged on the image are specified as corresponding points and the corresponding points of the plurality of images are matched to overlap each other.
삭제delete 제1항에 있어서,
상기 카메라는
차량 바닥면과 평행한 위치에 배치되어 차량 바닥면의 중심부를 촬영하는 중심부 카메라; 및
차량 바닥면과 빗각으로 기울어져 배치되고 차량 바닥면의 가장자리를 촬영하는 가장자리 카메라를 포함하는 것을 특징으로 하는 차량하부 촬영장치.
The method according to claim 1,
The camera
A center camera disposed at a position parallel to the vehicle floor and photographing the center of the vehicle floor; And
And an edge camera which is disposed at an oblique angle to the vehicle floor and photographs an edge of the vehicle floor surface.
(A) 카메라를 사용하여 차량하부의 복수 이미지들을 촬영하는 단계;
(B) 상기 카메라의 화각 및 상기 카메라와 차량 바닥면의 거리를 사용하여 촬영된 복수 이미지들의 원근 왜곡 부분을 보정하는 단계; 및
(C) 원근 왜곡 부분이 보정된 복수 이미지들의 픽셀당 RGB 수치를 비교하여 RGB 수치가 일치하는 대응점을 기준으로 복수 이미지들을 오버랩(Overlap)하여 하나의 이미지로 정합하는 단계;를 포함하는 차량하부 촬영방법에 있어서,
상기 (A) 단계는
(A-1) 촬영하고자 하는 차량 바닥면에 광원을 사용하여 광을 조사하는 단계;
(A-2) 차량 바닥면에 반사되는 광을 수광하여 차량 바닥면의 조도를 측정하고, 차량 바닥면에 반사되는 광의 조도가 균일하도록 광원의 광 조사량을 조절하는 단계; 및
(A-3) 상기 카메라가 차량 바닥면을 촬영하는 단계;를 포함하고,
상기 (C) 단계에서 대응점은 복수 이미지들의 픽셀당 RGB 수치 및 투명도(α) 수치가 동일한 픽셀을 가리키는 것을 특징으로 하는 차량하부 촬영방법.
(A) photographing a plurality of images under the vehicle using a camera;
(B) correcting the perspective distortion of the plurality of images photographed using the angle of view of the camera and the distance between the camera and the vehicle floor; And
Vehicle bottom up containing; (C) trapezoidal distortion part compares the RGB value per pixel of the corrected multi-image by overlapping multiple image based on the corresponding points of the RGB value match (Overlap) the step of matching a single image In the method,
The step (A)
(A-1) irradiating light to a bottom surface of a vehicle to be photographed using a light source;
(A-2) receiving light reflected from a bottom surface of the vehicle to measure the illuminance of the bottom surface of the vehicle, and adjusting the light amount of the light source so that the illuminance of the light reflected on the bottom surface of the vehicle is uniform; And
(A-3) photographing the bottom surface of the vehicle by the camera,
Wherein the corresponding point in the step (C) indicates a pixel having the same RGB value and transparency (alpha) value per pixel of the plurality of images.
삭제delete 제9항에 있어서,
상기 (B) 단계는
(B-1) 상기 카메라와 촬영하고자 하는 차량 바닥면과의 거리(A)를 측정하는 단계;
(B-2) 상기 카메라의 화각(B)을 확인하는 단계; 및
(B-3) 하기 수학식1을 사용하여 이미지 확대값을 산출하는 단계;
(B-4) 원근 왜곡된 이미지들의 왜곡 부분을 상기 이미지 확대값으로 확대하는 단계; 및
(B-5) 확대된 이미지의 픽셀에 보정전 인접 픽셀의 RGB 값과 동일한 수치로 색을 표시하는 단계를 포함하는 것을 특징으로 하는 차량하부 촬영방법.
[수학식 1]
G=A*tan(B/2)
[G: 이미지 확대값, A: 카메라와 차량 바닥면과의 거리, B: 화각]
10. The method of claim 9,
The step (B)
(B-1) measuring a distance A between the camera and a bottom surface of a vehicle to be photographed;
(B-2) checking an angle of view B of the camera; And
(B-3) calculating an image enlargement value using the following equation (1);
(B-4) enlarging distorted parts of the perspective distorted images to the image enlargement value; And
(B-5) displaying the color in the pixels of the enlarged image at the same numerical value as the RGB value of the adjacent pixel before the correction.
[Equation 1]
G = A * tan (B / 2)
[G: image enlargement value, A: distance between the camera and the vehicle floor, B: angle of view]
제9항에 있어서,
상기 (C) 단계는
(C-1) 보정된 이미지들 간의 픽셀당 RGB 수치를 비교하여, 이미지 상에 연속 배치된 적어도 10 이상의 동일 RGB 수치를 갖는 대응점을 특정하는 단계; 및
(C-2) 복수 이미지들을 상기 대응점에 오버랩하여 하나의 이미지로 정합하는 단계를 포함하는 것을 특징으로 하는 차량하부 촬영방법.
10. The method of claim 9,
The step (C)
(C-1) comparing the RGB values per pixel between the corrected images to identify corresponding points having at least 10 identical RGB values arranged continuously on the image; And
(C-2) overlapping the plurality of images with the corresponding points to match with one image.
삭제delete
KR1020160027489A 2016-02-12 2016-03-08 Photographing apparatus for bottom of car and operating method thereof KR101630596B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/001434 WO2017138754A1 (en) 2016-02-12 2017-02-10 Under vehicle photographing apparatus and under vehicle photographing method for operating same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160016340 2016-02-12
KR1020160016340 2016-02-12

Publications (1)

Publication Number Publication Date
KR101630596B1 true KR101630596B1 (en) 2016-06-14

Family

ID=56192082

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160027489A KR101630596B1 (en) 2016-02-12 2016-03-08 Photographing apparatus for bottom of car and operating method thereof

Country Status (2)

Country Link
KR (1) KR101630596B1 (en)
WO (1) WO2017138754A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106524952A (en) * 2016-12-22 2017-03-22 桂林施瑞德科技发展有限公司 Monocular camera 3D automobile wheel positioning instrument
KR101910062B1 (en) * 2017-07-06 2018-10-19 (주)잼시큐리티시스템 Photographing system for bottom of vehicle
WO2020206142A1 (en) * 2019-04-02 2020-10-08 ACV Auctions Inc. Vehicle undercarriage imaging system
US10893213B2 (en) 2019-04-02 2021-01-12 ACV Auctions Inc. Vehicle undercarriage imaging system
US11770493B2 (en) 2019-04-02 2023-09-26 ACV Auctions Inc. Vehicle undercarriage imaging system
WO2024075906A1 (en) * 2022-10-04 2024-04-11 현대자동차 주식회사 Image processing device, image processing system, and image processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323635A (en) * 2002-04-26 2003-11-14 National Institute Of Advanced Industrial & Technology Image compositing device and method
JP2009128261A (en) * 2007-11-27 2009-06-11 Takashima Giken Kk Visual inspection method and device
JP2012008020A (en) * 2010-06-25 2012-01-12 Clarion Co Ltd On-vehicle device
KR101164915B1 (en) * 2011-01-21 2012-07-19 (주)옵티스 Distortion correcting apparatus for three-dimensional image camera
KR20140043148A (en) 2011-08-03 2014-04-08 퀄컴 인코포레이티드 Allocating physical hybrid arq indicator channel (phich) resources

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101392382B1 (en) * 2007-07-18 2014-05-07 삼성전자주식회사 Apparatus and method for emboding panorama function of camera in portable terminal
KR101751346B1 (en) * 2011-02-18 2017-06-27 엘지전자 주식회사 Image displaying apparatus and method thereof
JP2013126101A (en) * 2011-12-14 2013-06-24 Samsung Electronics Co Ltd Imaging device and imaging method
KR101450733B1 (en) * 2013-12-19 2014-10-16 인천국제공항공사 Apparatus and method for inspecting lower portion of vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003323635A (en) * 2002-04-26 2003-11-14 National Institute Of Advanced Industrial & Technology Image compositing device and method
JP2009128261A (en) * 2007-11-27 2009-06-11 Takashima Giken Kk Visual inspection method and device
JP2012008020A (en) * 2010-06-25 2012-01-12 Clarion Co Ltd On-vehicle device
KR101164915B1 (en) * 2011-01-21 2012-07-19 (주)옵티스 Distortion correcting apparatus for three-dimensional image camera
KR20140043148A (en) 2011-08-03 2014-04-08 퀄컴 인코포레이티드 Allocating physical hybrid arq indicator channel (phich) resources

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106524952A (en) * 2016-12-22 2017-03-22 桂林施瑞德科技发展有限公司 Monocular camera 3D automobile wheel positioning instrument
KR101910062B1 (en) * 2017-07-06 2018-10-19 (주)잼시큐리티시스템 Photographing system for bottom of vehicle
WO2020206142A1 (en) * 2019-04-02 2020-10-08 ACV Auctions Inc. Vehicle undercarriage imaging system
US10893213B2 (en) 2019-04-02 2021-01-12 ACV Auctions Inc. Vehicle undercarriage imaging system
US11770493B2 (en) 2019-04-02 2023-09-26 ACV Auctions Inc. Vehicle undercarriage imaging system
WO2024075906A1 (en) * 2022-10-04 2024-04-11 현대자동차 주식회사 Image processing device, image processing system, and image processing method

Also Published As

Publication number Publication date
WO2017138754A1 (en) 2017-08-17

Similar Documents

Publication Publication Date Title
KR101630596B1 (en) Photographing apparatus for bottom of car and operating method thereof
KR102178903B1 (en) Visual inspection device and illumination condition setting method of visual inspection device
US7372556B2 (en) Apparatus and methods for inspecting a composite structure for inconsistencies
KR101949257B1 (en) Apparatus for Testing Display device module and Method for Testing the same
US20090177426A1 (en) Light Measurement Method and Apparatus
TWI590725B (en) Detecting device and detecting method of appearance of printed circuit board
JP2009115613A (en) Foreign matter inspecting apparatus
TWI495867B (en) Application of repeated exposure to multiple exposure image blending detection method
JP2008249568A (en) Visual examination device
CN113281343B (en) System and method for detecting defects of multilayer transparent material
CN108986170A (en) A kind of line-scan digital camera method for correcting flat field suitable for field working conditions
JP6913615B2 (en) Railroad vehicle visual inspection equipment and its setting method
KR101198406B1 (en) Pattern inspection device
TWI532985B (en) Optical property measuring device and method thereof
JP2008026147A (en) Inspection device for color filter, and inspection method for the color filter
JP7136064B2 (en) Apparatus for inspecting surface of object to be inspected and method for inspecting surface of object to be inspected
CN114324344A (en) Non-lambert surface inspection system for line scanning
JP3661466B2 (en) Coating unevenness inspection apparatus and method
KR101555685B1 (en) Method and system for inspecting glass quality
US20090190824A1 (en) Inspection apparatus and inspection method
KR102014171B1 (en) Apparatus and method for inspecting color mix defect of OLED
KR20160149883A (en) An apparatus for inspecting a lens defect
TWI396932B (en) Method for measuring modulation transfer function value
WO2020184567A1 (en) Image inspection device and image inspection method
KR101155213B1 (en) Flat-field correction method for two-dimensional optical inspection

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant