KR101484170B1 - Assessment system and method for image projected from head up display - Google Patents

Assessment system and method for image projected from head up display Download PDF

Info

Publication number
KR101484170B1
KR101484170B1 KR20130050893A KR20130050893A KR101484170B1 KR 101484170 B1 KR101484170 B1 KR 101484170B1 KR 20130050893 A KR20130050893 A KR 20130050893A KR 20130050893 A KR20130050893 A KR 20130050893A KR 101484170 B1 KR101484170 B1 KR 101484170B1
Authority
KR
South Korea
Prior art keywords
image
virtual image
roi
double
unit
Prior art date
Application number
KR20130050893A
Other languages
Korean (ko)
Other versions
KR20140131805A (en
Inventor
한영인
임주현
Original Assignee
주식회사 이미지넥스트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이미지넥스트 filed Critical 주식회사 이미지넥스트
Priority to KR20130050893A priority Critical patent/KR101484170B1/en
Publication of KR20140131805A publication Critical patent/KR20140131805A/en
Application granted granted Critical
Publication of KR101484170B1 publication Critical patent/KR101484170B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은, 차량에 장착된 HUD 시스템으로부터 형성된 가상 이미지를 촬영하는 카메라와, 가상 이미지내에 포함된 개별요소인 각 객체에 대한 좌표계를 설정하는 좌표 설정부와, 가상 이미지의 변형 여부를 판단하는 기준이 되는 기준 이미지에 포함된 각 객체에 대한 정보가 저장된 템플릿 저장부와, 각 객체를 스캔하여 각 객체의 모서리의 중복 여부에 따라 이중상을 판단하고, 이중상인 경우 좌표 설정부에서 설정된 좌표계를 이용하여 그 변위정도를 측정하는 이중상 판단부와, 템플릿 저장부로부터 인출된 기준 이미지의 객체와, 가상 이미지의 객체를 비교하여 가상 이미지의 왜곡여부 및 왜곡량을 판단하는 왜곡 판단부를 포함한다. 이에 의해, 평가를 통해 왜곡과 이중상을 방지할 수 있으므로, HUD 시스템으로부터 송출된 이미지에 대해 선명한 가상 이미지를 생성할 수 있어 HUD 시스템의 품질을 향상시킬 수 있을 뿐만 아니라, 사용자의 만족을 도모할 수 있다. A coordinate setting unit for setting a coordinate system for each object, which is an individual element included in the virtual image, and a reference value for determining whether or not the virtual image is deformed, A template storing unit for storing information about each object included in the reference image, and a dual image is determined according to whether the edges of the objects are overlapped with each other by scanning each object. In case of a double image, And a distortion determining unit for determining whether the virtual image is distorted or distorted by comparing the object of the reference image drawn from the template storing unit with the object of the virtual image. As a result, it is possible to prevent distortions and double images through evaluation, so that it is possible to generate a clear virtual image of the image transmitted from the HUD system, thereby improving not only the quality of the HUD system but also the user's satisfaction have.

Figure R1020130050893
Figure R1020130050893

Description

HUD 영상 평가시스템 및 그 평가방법{ASSESSMENT SYSTEM AND METHOD FOR IMAGE PROJECTED FROM HEAD UP DISPLAY} [0001] HUD IMAGE EVALUATION SYSTEM AND METHOD AND APPARATUS FOR MEASURING THE SAME [0002]

본 발명은 HUD 영상 평가시스템 및 그 평가방법에 관한 것으로서, 보다 상세하게는, 정량적 검증 툴을 생성함으로써, 가상 이미지가 변형없이 선명하게 생성되는지를 평가할 수 있도록 하는 HUD 영상 평가시스템 및 그 평가방법에 관한 것이다. The present invention relates to an HUD image evaluation system and an evaluation method thereof, and more particularly, to a HUD image evaluation system and an evaluation method thereof that enable evaluation of whether a virtual image is generated without distortion by generating a quantitative verification tool .

HUD(Head Up Display) 시스템은, 초기에는 비행기에 도입된 시스템으로서, 비행 중의 안전을 위해 비행기의 창문이나 헬멧에 비행정보에 관련된 이미지를 표시하면서 시작되었다. The Head Up Display (HUD) system was originally introduced on airplanes and started by displaying images related to flight information on the windows and helmets of an airplane for safety during flight.

최근에는, 국내 특허공개 1020070049990호 "차량용 운전 조작 보조 장치 및 차량용 운전 조작 보조장치를 구비한 차량"을 비롯한 다수의 특허에서 볼 수 있듯이, 차량에 적용하는 차량용 HUD 시스템이 개발되었고, 실제 차량에 장착되어 사용되고 있다. 차량용 HUD 시스템은 차량의 운전에 관련된 다양한 정보를 차량의 앞유리창에 반사시켜 표시하게 되며, 차량용 HUD 시스템에서 제공하는 정보로는, 차량속도계, 차량 주행속도, 네비게이션, 크루즈컨트롤, 차선이탈 경보장치, 도로정보, 후측방 경고 등을 포함할 수 있다. Recently, a HUD system for a vehicle applied to a vehicle has been developed, as shown in many patents including domestic patent publication No. 1020070049990 "Vehicle Driving Aid Device and Vehicle Having Vehicle Driving Aid Device" Has been used. The vehicle HUD system reflects various information related to the driving of the vehicle on the windshield of the vehicle. The information provided by the vehicle HUD system includes a vehicle speedometer, vehicle speed, navigation, cruise control, Road information, back side warnings, and the like.

차량용 HUD 시스템(100)은, 도 1에 도시된 바와 같이, 차량의 대시보드에 이미지를 송출하는 HUD 본체(101)가 설치되고, HUD 본체(101)에서 송출되는 이미지는 반사경(102)을 통해 앞유리창으로 반사된다. 실제 이미지는 앞유리창에 맺히게 되나, 운전자는 이미지가 앞유리창으로부터 일정 거리 전방에 떠있는 것으로 보이게 되고, 이를 가상 이미지라 한다. 앞유리창에는 반사율이 유리와 다른 산화물 코팅(TiO2/SiO2 복합층)을 하거나 쐐기 형태의 PVB 필름을 삽입함으로써, 가상 이미지가 선명하게 표시되도록 한다. 1, the HUD system 100 for a vehicle includes an HUD main body 101 for transmitting an image to a dashboard of a vehicle, and an image transmitted from the HUD main body 101 is transmitted through a reflector 102 It is reflected by the windshield window. The actual image is formed on the windshield window, but the driver appears to have the image floating a certain distance from the windshield window and is called a virtual image. For windshields, the virtual image is clearly displayed by inserting an oxide coating (TiO2 / SiO2 composite layer) or a wedge-shaped PVB film with a reflectance different from that of glass.

이러한 HUD 시스템(100)에서는 앞유리의 두께 및 굴절율에 따라 운전자측 초점이 정해지며, 운전자측 초점에 운전자의 눈이 위치하고 있을 때, 이미지의 초점이 맞아 정확한 가상 이미지를 볼 수 있다. 이때, 운전자측 초점은 운전자의 좌석을 이동시킬 수 있는 일정한 범위내에서 형성되어야 하므로, 반사경(102)을 이동시켜 가상 이미지가 표시되는 상거리와 위치를 조정함으로써, 초점을 맞출 수 있다.In this HUD system 100, the driver's side focus is determined according to the thickness and refractive index of the windshield, and when the driver's eyes are positioned at the driver's side, the image is focused and an accurate virtual image can be seen. At this time, since the driver's side focus must be formed within a certain range that allows the driver's seat to move, the focus can be adjusted by moving the reflector 102 and adjusting the vertical distance and position at which the virtual image is displayed.

HUD 시스템(100)에서는 앞유리에 이미지가 반사된 후, 차량의 전방으로부터 일정 거리에 가상 이미지가 생성되기 때문에, 이미지의 반사를 위한 하드웨어, 이미지를 생성하는 소프트웨어 중 어느 쪽에 사소한 문제가 생겨도 가상 이미지가 변형될 수 있다. 또한, 차량이 정지하고 있을 때와 주행 중, 차량속도, 떨림, 하드웨어 또는 소프트웨어 오작동 등에 의해 가상 이미지의 변형이 일어날 수 있다. 이렇게 변형된 이미지가 차량의 전방에 디스플레이되면, 운전자는 명확하지 못한 가상 이미지 때문에 운전에 도움을 받기는커녕 운전자에게 거슬릴 수 있다. In the HUD system 100, since the virtual image is generated at a certain distance from the front of the vehicle after the image is reflected on the windshield, even if the hardware for reflecting the image and the software for generating the image have a minor problem, Can be deformed. In addition, deformation of the virtual image may occur due to vehicle speed, vibration, hardware or software malfunction, etc. when the vehicle is stationary and while driving. When the deformed image is displayed in front of the vehicle, the driver may be disturbed by the driver, rather than being assisted by the driver due to an unclear virtual image.

이에 따라, HUD 시스템(100)에서 생성된 가상 이미지가 변형없이 선명하게 생성되는지를 평가할 필요가 있다. HUD 시스템(100)에서 생성된 가상 이미지를 평가함으로써, HUD 시스템(100)의 차량 정지 및 주행시 품질을 검사할 수 있으며, HUD 시스템(100)의 하드웨어 및 소프트웨어 개발을 제안할 수도 있다. Accordingly, it is necessary to evaluate whether or not the virtual image generated in the HUD system 100 is clearly generated without deformation. By evaluating the virtual image generated in the HUD system 100, it is possible to check the quality of the HUD system 100 when the vehicle is stopped and running, and suggest the hardware and software development of the HUD system 100.

본 발명의 목적은, 정량적 검증 툴을 생성함으로써, 가상 이미지가 변형없이 선명하게 생성되는지를 평가할 수 있는 HUD 영상 평가시스템 및 그 평가방법을 제공하는 것이다. It is an object of the present invention to provide a HUD image evaluation system and an evaluation method thereof, which can evaluate whether a virtual image is clearly generated without deformation by generating a quantitative verification tool.

본 발명의 다른 목적은, 가상 이미지의 왜곡, 이중상, 회전을 해소할 수 있는 카메라의 위치를 제안함으로써, 선명한 이미지를 공급할 수 있게 되어 사용자의 만족을 도모할 수 있는 HUD 영상 평가시스템 및 그 평가방법을 제공하는 것이다. It is another object of the present invention to provide a HUD image evaluation system and a method of evaluating the HUD image that can provide a clear image by proposing a position of a camera capable of eliminating distortion, .

상기 목적은, 차량에 장착된 HUD 시스템으로부터 형성된 가상 이미지를 촬영하는 카메라; 상기 가상 이미지내에 포함된 개별요소인 각 객체에 대한 좌표계를 설정하는 좌표 설정부; 상기 가상 이미지의 변형 여부를 판단하는 기준이 되는 기준 이미지에 포함된 각 객체에 대한 정보가 저장된 템플릿 저장부; 상기 각 객체를 스캔하여 상기 각 객체의 모서리의 중복 여부에 따라 이중상을 판단하고, 이중상인 경우 상기 좌표 설정부에서 설정된 좌표계를 이용하여 그 변위정도를 측정하는 이중상 판단부; 및 상기 템플릿 저장부로부터 인출된 상기 기준 이미지의 객체와, 상기 가상 이미지의 객체를 비교하여 상기 가상 이미지의 왜곡여부 및 왜곡량을 판단하는 왜곡 판단부;를 포함하는 것을 특징으로 하는 HUD 영상 평가시스템에 의해 달성될 수 있다.The object is achieved by a camera for photographing a virtual image formed from a HUD system mounted on a vehicle; A coordinate setting unit for setting a coordinate system for each object that is an individual element included in the virtual image; A template storage unit for storing information on each object included in a reference image that is a reference for determining whether the virtual image is deformed; A dual phase determiner for determining a double phase according to whether the edges of the objects are overlapped or not by scanning each of the objects and for measuring the degree of displacement using the coordinate system set by the coordinate setting unit when the double phase is detected; And a distortion determination unit for determining whether the virtual image is distorted or distorted by comparing an object of the reference image drawn from the template storage unit with an object of the virtual image, Lt; / RTI >

상기 목적은, 차량에 장착된 HUD 시스템으로부터 형성된 가상 이미지를 입력받는 단계; 상기 가상 이미지내에 포함된 개별요소인 각 객체에 대한 좌표계를 설정하는 좌표 설정 단계; 상기 각 객체를 스캔하여 상기 각 객체의 모서리의 중복 여부에 따라 상기 가상 이미지의 이중상을 판단하는 이중상 판단 단계; 판단 결과, 상기 가상 이미지가 이중상인 경우 상기 좌표계를 이용하여 그 변위정도를 측정하는 변위 측정 단계; 및, 상기 가상 이미지의 변형 여부를 판단하는 기준이 되는 기준 이미지에 포함된 각 객체와, 상기 가상 이미지의 객체를 비교하여 상기 가상 이미지의 왜곡여부 및 왜곡량을 판단하는 왜곡 판단 단계;를 포함하는 것을 특징으로 하는 HUD 영상 평가방법에 의해서도 달성될 수 있다. The above object may be achieved by a method comprising: receiving a virtual image formed from a HUD system mounted on a vehicle; A coordinate setting step of setting a coordinate system for each object that is an individual element included in the virtual image; A dual image determining step of scanning each of the objects and determining a double image of the virtual image according to whether the edges of the objects overlap each other; A displacement measuring step of measuring a degree of displacement of the virtual image using the coordinate system when the virtual image is a double phase; And a distortion judging step of judging whether the virtual image is distorted or distorted by comparing each object included in the reference image, which is a reference for judging whether or not the virtual image is deformed, with the object of the virtual image, The HUD image evaluation method according to the present invention can be also achieved by the HUD image evaluation method.

본 발명에 따르면, HUD 시스템으로부터 송출되는 이미지의 왜곡, 이중상, 회전 여부 및 그 변위량을 측정할 수 있는 툴을 제공함으로써, 왜곡과 이중상을 방지할 수 있는 카메라의 위치를 설정할 수 있다. 뿐만 아니라, 회전 여부에 대한 결과를 외부로 표시함에 따라, 운영자가 가상 이미지의 변형을 제거할 수 있는 다양한 방법을 모색할 기회를 줄 수 있다. 따라서, HUD 시스템으로부터 송출된 이미지에 대해 선명한 가상 이미지를 생성할 수 있으므로, HUD 시스템의 품질을 향상시키고, 이로 인해, 사용자의 만족을 도모할 수 있다.According to the present invention, it is possible to set a position of a camera that can prevent distortion and a double image by providing a tool for measuring the distortion, the double phase, the rotation, and the displacement amount of an image transmitted from the HUD system. In addition, by displaying the results of the rotations externally, the operator can give an opportunity to explore various ways to eliminate the deformation of the virtual image. Therefore, a clear virtual image can be generated for the image transmitted from the HUD system, so that the quality of the HUD system can be improved and the user can be satisfied thereby.

도 1은 차량용 HUD 시스템의 개략적 구성도,
도 2는 본 발명에 따른 HUD 영상 평가시스템의 구성블럭도,
도 3(a) 및 도 3(b)는 ROI가 형성된 가상 이미지의 예시도,
도 4(a)는 왜곡 판단을 위한 기준 이미지의 객체의 예시도,
도 4(b)는 왜곡 판단을 위한 평가대상 이미지의 객체의 예시도,
도 4(c)는 도 4(a)의 객체와 도 4(b)의 객체가 오버랩 상태의 예시도,
도 5는 이중상 판단을 위한 평가대상 이미지의 예시도,
도 6은 본 발명의 HUD 영상 평가시스템에서 템플릿을 생성하는 과정을 보인 흐름도,
도 7은 본 발명의 HUD 영상 평가시스템에서 왜곡과 이중상을 판단하여 상거리를 산출하는 과정을 보인 흐름도이다.
BRIEF DESCRIPTION OF DRAWINGS FIG. 1 is a schematic block diagram of a vehicular HUD system;
FIG. 2 is a block diagram of a system for evaluating an HUD image according to the present invention.
3 (a) and 3 (b) are diagrams showing an example of a virtual image in which an ROI is formed,
4 (a) is an illustration of an object of a reference image for distortion determination,
4 (b) is an illustration of an object of an evaluation target image for distortion determination,
Fig. 4 (c) is an example of an overlapping state between the object of Fig. 4 (a) and the object of Fig. 4 (b)
5 is an illustration of an evaluation target image for double-phase determination,
6 is a flowchart illustrating a process of generating a template in the HUD image evaluation system of the present invention.
FIG. 7 is a flowchart illustrating a process of calculating distances by determining distortions and dual images in the HUD image evaluation system of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예들에 따른 에 대하여 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명에 따른 HUD 영상 평가시스템의 구성블럭도이다. 2 is a block diagram of a system for evaluating an HUD image according to the present invention.

본 발명에 따른 HUD 영상 평가시스템(1)은, HUD 시스템에서 송출되어 차량의 앞유리창에 반사된 후 생성되는 가상 이미지가 변형되었는지 여부를 판단할 수 있다. HUD 영상 평가시스템(1)은 카메라(10), ROI 설정부(15), 좌표 설정부(30), 바이너리 영상 처리부(20), 컬러 영상 처리부(25), 회전 판단부(35), 객체 검출부(40), 왜곡 판단부(55), 이중상 판단부(45), 좌표 변환부(50), 상거리 산출부(60), 템플릿 저장부(65)를 포함할 수 있다. The HUD image evaluation system 1 according to the present invention can determine whether a virtual image generated after being transmitted from the HUD system and reflected on the windshield of the vehicle has been transformed. The HUD image evaluation system 1 includes a camera 10, an ROI setting unit 15, a coordinate setting unit 30, a binary image processing unit 20, a color image processing unit 25, a rotation determination unit 35, A distortion determining unit 55, a dual image determining unit 45, a coordinate transforming unit 50, a distance calculating unit 60, and a template storing unit 65.

카메라(10)는, HUD 시스템에서 송출되어 형성된 가상 이미지를 촬영하며, 촬영된 이미지를 좌표 설정부(30)로 전달할 수 있다. 카메라(10)는 가상 이미지가 운전자의 눈에 보이는 대로 촬영하기 위해 운전자의 눈에 해당하는 위치에 설치되어야 한다. 예를 들어, 카메라(10)는 천장에 운전자의 머리를 향해 돌출한 상태로 설치되거나, 카메라(10)를 운전자 좌석의 헤드레스트로부터 전방으로 돌출되도록 설치될 수도 있다. The camera 10 photographs a virtual image formed by being transmitted from the HUD system, and can transmit the photographed image to the coordinate setting unit 30. [ The camera 10 should be installed in a position corresponding to the eyes of the driver to photograph the virtual image as seen by the driver. For example, the camera 10 may be installed on the ceiling so as to protrude toward the driver's head, or may be installed so that the camera 10 protrudes forward from the headrest of the driver's seat.

ROI 설정부(15)는, 카메라(10)로부터 촬영된 가상 이미지 또는 HUD 시스템으로부터 직접 이미지를 제공받을 수 있으며, 이미지내에 포함된 복수의 객체에 대한 ROI(Region of Interest)를 형성할 수 있다.The ROI setting unit 15 can receive a virtual image photographed from the camera 10 or an image directly from the HUD system and can form a region of interest (ROI) for a plurality of objects included in the image.

여기서, 객체는, HUD 시스템에서 송출한 영상에 포함된 형상, 문자, 숫자 등 HUD 영상을 구성하는 요소로서, HUD 영상의 변형을 판단하기 위해 사용될 수 있다. 객체로는, 차량속도계, 차량 주행속도, 네비게이션, 크루즈컨트롤, 차선이탈 경보장치, 도로정보, 후측방 경고 등을 포함할 수 있다. ROI는 각각의 객체를 둘러싸는 사각 테두리 형상으로 형성되며, HUD 영상의 변형을 판단하기 위해 필요한 좌표축 및 중심좌표를 형성하기 위한 기준이 된다.Here, an object is an element constituting a HUD image such as a shape, a character, and a number included in an image transmitted from the HUD system, and can be used to judge deformation of the HUD image. The object may include a vehicle speedometer, vehicle speed, navigation, cruise control, lane departure warning, road information, backward warning, and the like. The ROI is formed in a rectangular frame shape surrounding each object and is a reference for forming coordinate axes and center coordinates necessary for judging deformation of the HUD image.

ROI 설정부(15)에서는 두 가지 종류의 이미지에 대해 ROI를 설정할 수 있다.The ROI setting unit 15 can set an ROI for two types of images.

하나는 HUD 시스템의 가상 이미지의 변형을 측정할 수 있도록 비교대상이 되는 기준 정보로서, 변형되지 않은 기준 이미지에 대한 ROI를 설정할 수 있다. 기준 이미지에 포함된 각 객체에 대한 정보, ROI의 좌표축 및 중심좌표 등이 템플릿 정보로서 템플릿 저장부(65)에 저장된다. 이때, 템플릿을 형성하기 위해서는 변형되지 않은 가상 이미지가 필요하며, 이 가상 이미지는 HUD 시스템으로부터 송출된 이미지 중 변형되지 않은 가상 이미지를 카메라(10)로 촬영하여 사용할 수도 있고, HUD 시스템으로부터 직접 이미지를 제공받아 사용할 수도 있다.One is the reference information to be compared so that the deformation of the virtual image of the HUD system can be measured, and the ROI for the unmodified reference image can be set. Information about each object included in the reference image, the coordinate axis of the ROI, and the center coordinate are stored in the template storage unit 65 as template information. In this case, in order to form a template, an unmodified virtual image is required. The virtual image can be obtained by photographing the virtual unimorphized image of the image transmitted from the HUD system with the camera 10, It can also be used.

다른 하나는 HUD 시스템에서 송출되어 차량의 앞유리창에 형성된 가상 이미지를 촬영한 영상으로서, 변형이 있는지 없는지 여부를 평가하는 대상이 되며, 이하에서는 평가대상 이미지라고 칭한다. The other is an image taken from a HUD system and photographed with a virtual image formed on a windshield of a vehicle, and is evaluated as to whether or not there is deformation. Hereinafter, it is referred to as an evaluation target image.

ROI 설정부(15)는, 기준 이미지와, 평가대상 이미지 각각에 대한 ROI를 형성하며, 기준 이미지의 각 ROI와 평가대상 이미지의 각 ROI는 일대일로 매칭되어 비교됨으로써, 평가대상 이미지의 변형여부를 판단할 수 있다. 즉, 각 ROI는 가상 이미지의 변형여부를 판단하기 위해, 비교되는 영역들이다. The ROI setting unit 15 forms an ROI for each of the reference image and the evaluation target image, and the ROIs of the reference image and the ROIs of the evaluation target image are matched and matched one to one, It can be judged. That is, each ROI is a region to be compared in order to judge whether or not the virtual image is deformed.

도 3(a)에는 기준 이미지가 도시되어 있고, 도 3(b)에는 평가대상 이미지가 도시되어 있으며, 도 3(a)와 도 3(b)를 이용하여 ROI 설정부(15)의 동작을 설명하면 다음과 같다. FIG. 3A shows a reference image, FIG. 3B shows an image to be evaluated, and FIG. 3A and FIG. 3B show an operation of the ROI setting unit 15 The following is an explanation.

ROI 설정부(15)에서는 기준 이미지와 평가대상 이미지의 ROI를 형성하기 위해, 먼저, 각 객체의 형태와 문자 등을 정의할 수 있다. 예를 들어, 도 3(a)에서와 같이, 객체가 원형과 타원형을 연결시킨 형태로 형성된 경우, ROI 설정부(15)는 객체가 원형을 포함한 도형이라는 내용과, 객체의 색상 정보 등을 이용하여 객체를 정의할 수도 있고, 객체의 이미지를 파일로 저장하여 객체를 정의할 수도 있다. 다른 예로서, 객체가 차량속도와 같은 숫자일 때, 좌표 설정부(30)는 객체가 숫자라고 정의할 수 있으며, 이 외에 폰트크기, 폰트타입, 색상 정보 등의 정보를 포함시켜 객체를 정의할 수 있다. 색상 정보는, 빨강, 녹색, 파랑, 색조(Hue), 채도(Saturation), 선명도(Intensity), 색상 값(Value), 광도(Luminance) 등을 포함할 수 있다. 여기서, 컬러 영상에서 빨강, 녹색, 파랑 등의 여러 색상에 대한 정보를 추출하는 이유는, 평가대상 이미지의 각 객체는 서로 상이한 색상을 가질 수 있으므로, 여러 색상에 대한 정보를 추출함으로써, 각 객체를 모두 감지할 수 있도록 하기 위한 것이다. 또한, 각 객체는 다른 색상을 가질 수 있을 뿐만 아니라 다른 채도, 명도, 색조, 광도 등을 가질 수 있으며, 이러한 모든 색상 정보는 추후에 각 ROI를 판단하는데 사용될 수 있다. 기준 이미지의 각 객체를 정의한 내용은 템플릿 저장부(65)에 저장될 수 있다. In order to form the ROI of the reference image and the evaluation target image, the ROI setting unit 15 may first define the shape and character of each object. For example, as shown in FIG. 3A, when the object is formed by connecting a circular shape and an elliptical shape, the ROI setting unit 15 sets the ROI using the shape of the object including the original shape and the color information of the object You can define an object, or you can define an object by saving the image of the object as a file. As another example, when the object is a number having the same speed as the vehicle speed, the coordinate setting unit 30 can define the object as a number. In addition, the object including the font size, font type, color information, . The color information may include red, green, blue, Hue, Saturation, Intensity, Value, Luminance, and the like. Here, the reason for extracting information on various colors such as red, green, and blue in the color image is that each object of the evaluation target image may have a different color from each other. Therefore, by extracting information on various colors, So that all of them can be detected. In addition, each object can have different colors as well as different saturation, brightness, hue, brightness, etc., and all such color information can be used later to determine each ROI. The contents defining the respective objects of the reference image can be stored in the template storage unit 65.

이렇게 객체가 정의되면, ROI 설정부(15)에서는 각 객체에 대해 ROI를 형성할 수 있다. ROI를 형성하기 위해, ROI 설정부(15)는 모서리 감지 알고리즘(Edge Detection Algorithm)을 사용하여 객체를 감지하게 된다. 모서리 감지 알고리즘으로는 Laplacian알고리즘, Differentiation 알고리즘, Prewitt 알고리즘, Sobel 알고리즘 등이 있으며, 이 중 어느 알고리즘을 사용하더라도 무방하다. 모서리 감지 알고리즘은 현재 널리 사용되고 있으며, 당업자라면 별도의 자세한 설명 없이도 구현이 가능하므로, 본 상세한 설명에서는 모서리 감지 알고리즘에 대한 구체적인 설명은 생략하기로 한다. When the object is defined as described above, the ROI setting unit 15 can form an ROI for each object. In order to form an ROI, the ROI setting unit 15 detects an object using an edge detection algorithm. The corner detection algorithms include Laplacian algorithm, Differentiation algorithm, Prewitt algorithm, Sobel algorithm, etc. Any of these algorithms can be used. The edge detection algorithm is currently widely used and can be implemented without a detailed explanation by those skilled in the art. Therefore, a detailed description of the edge detection algorithm will be omitted in the present specification.

모서리 감지 알고리즘에 의해 각 객체의 모서리가 감지되면, ROI 설정부(15)에서는 각 객체의 모서리를 기준으로 객체의 외곽을 둘러싸는 사각 테두리인 ROI를 형성할 수 있다. When the edge of each object is detected by the edge detection algorithm, the ROI setting unit 15 can form an ROI that is a rectangular frame surrounding the outer edge of the object based on the edge of each object.

ROI 설정부(15)에서 ROI가 설정되면, ROI 설정부(15)는 ROI를 포함하는 기준 이미지는 좌표 설정부(30)로 전달하고, 평가대상 이미지는 바이너리 영상 처리부(20)와 컬러 영상 처리부(25)로 전달할 수 있다. When the ROI is set in the ROI setting unit 15, the ROI setting unit 15 transmits the reference image including the ROI to the coordinate setting unit 30, and the evaluation image is stored in the binary image processing unit 20, (25).

바이너리 영상 처리부(20)에서는 평가대상 이미지를 바이너리 영상으로 변환시키기 위해, 먼저, 평가대상 이미지에서 ROI 영역을 선택하고, 각 ROI 영역을 그레이스케일(Gray scale) 이미지로 변환시킨다. 그런 다음, 바이너리 영상 처리부(20)에서는 그레이스케일 이미지의 ROI 영역을 바이너리 이미지로 변환시킨다. 바이너리 영상 처리부(20)에서는, 바이너리 이미지로 변환된 평가대상 이미지를 좌표 설정부(30)로 전달할 수 있다. In order to convert an evaluation target image into a binary image, the binary image processing unit 20 first selects an ROI region in the evaluation target image, and converts each ROI region into a gray scale image. Then, the binary image processing unit 20 converts the ROI region of the gray scale image into a binary image. The binary image processing unit 20 can transmit the evaluation target image converted into the binary image to the coordinate setting unit 30. [

컬러 영상 처리부(25)에서는, 컬러인 평가대상 이미지의 각 객체에 대해 색상 정보를 추출할 수 있다. 컬러 영상 처리부(25)에서 추출하는 정보로는, 빨강, 녹색, 파랑, 색조, 채도, 명도, 색상 값, 광도 등을 포함할 수 있다. 각 객체에 대한 색상 정보가 추출되면, 컬러 영상 처리부(25)는 평가대상 이미지를 좌표 설정부(30)로 전달할 수 있다. In the color image processing unit 25, color information can be extracted for each object of the color evaluation target image. The information extracted by the color image processing unit 25 may include red, green, blue, hue, saturation, brightness, color value, brightness, and the like. When the color information for each object is extracted, the color image processing unit 25 can transmit the evaluation target image to the coordinate setting unit 30. [

좌표 설정부(30)는, 기준 이미지와 평가대상 이미지의 각 객체에 대해 좌표축과 중심좌표를 설정할 수 있다. 좌표 설정부(30)에서 기준 이미지의 객체에 대해 좌표축과 중심좌표를 설정하는 과정과, 평가대상 이미지의 객체에 대해 좌표축과 중심좌표를 설정하는 과정은 동일하므로, 두 과정을 한꺼번에 설명하기로 한다. 다만, 좌표 설정부(30)에서는, 기준 이미지인지 평가대상 이미지 인지에 따라, 각 객체에 대해 설정된 좌표축과 중심좌표에 대한 정보를 다르게 처리한다. The coordinate setting unit 30 can set coordinate axes and center coordinates for each object of the reference image and the evaluation object image. The process of setting the coordinate axis and the center coordinate for the reference image object in the coordinate setting unit 30 and the process of setting the coordinate axis and the center coordinate for the object of the evaluation target image are the same, . However, the coordinate setting unit 30 processes information on coordinate axes and center coordinates set for each object differently depending on whether it is a reference image or an evaluation target image.

먼저, 좌표 설정부(30)에서 기준 이미지와 평가대상 이미지의 각 객체에 대해 좌표축과 중심좌표를 설정하는 과정은 다음과 같다. First, a process of setting coordinate axes and center coordinates for each object of the reference image and the evaluation target image in the coordinate setting unit 30 is as follows.

좌표 설정부(30)에서는 기준 이미지와 평가대상 이미지를 제공받으면, 각 ROI의 세로변과 가로변을 이용하여 좌표계를 형성할 수 있다. 즉, 좌표 설정부(30)는 각 ROI의 세로변과 가로변에 평행한 세로축과 가로축을 갖는 좌표계를 형성할 수 있다. 좌표계를 설정하는 방법은 다양하게 선택될 수 있으며, 그 중 대표 객체를 이용하는 방법과, 기준 이미지 또는 평가대상 이미지 전체에 대한 좌표계를 이용하는 방법을 살펴보면 다음과 같다. When the reference image and the evaluation target image are provided, the coordinate setting unit 30 can form a coordinate system using the longitudinal sides and the lateral sides of each ROI. That is, the coordinate setting unit 30 can form a coordinate system having a vertical axis and a horizontal axis that are parallel to the longitudinal side and the transverse side of each ROI. Methods for setting the coordinate system can be selected in various ways. Among them, a method using a representative object and a method using a reference image or a coordinate system for the entire image to be evaluated will be described.

대표 객체를 사용하는 방법은, 객체 중 하나를 선택하여 대표 객체로 설정하고, 대표 객체에 대해 좌표계를 설정한 후, 다른 객체들의 좌표계는 대표 객체의 좌표계에 대한 상대적인 위치를 이용하여 설정하는 것이다. 기준 이미지 또는 평가대상 이미지 전체에 대한 대표 좌표계를 이용하는 방법은, 전체 이미지에 대한 좌표계를 먼저 설정하고, 해당 좌표계를 대표 좌표계로 하고, 각 객체들은 대표 좌표계에 대해 상대적인 위치를 이용하여 좌표계를 설정하는 것이다. In the method of using the representative object, one of the objects is selected as the representative object, the coordinate system is set for the representative object, and the coordinate system of the other objects is set by using the position relative to the coordinate system of the representative object. In the method of using the representative coordinate system for the reference image or the whole image to be evaluated, a coordinate system for the entire image is set first, a coordinate system is set as a representative coordinate system, and each object is set to a coordinate system using a position relative to the representative coordinate system will be.

어떠한 방법으로 각 객체들의 좌표계를 설정하든, 각 좌표계의 중심을 중심좌표로 설정할 수 있다. 이에 따라, 각 객체는 중심좌표를 갖는 고유의 좌표계를 가질 수 있다.Whichever way you set the coordinate system of each object, you can set the center of each coordinate system as the center coordinate. Thus, each object may have its own coordinate system with center coordinates.

좌표 설정부(30)에서는 기준 이미지에 대한 각 객체의 좌표계 및 중심좌표가 형성되면, 해당 정보를 템플릿 저장부(65)로 전달하여 각 객체의 정의와 함께 저장되도록 한다. 템플릿 저장부(65)에 저장된 각 객체의 좌표계 및 중심좌표는 기준 좌표계와 기준 중심좌표로서, 평가대상 이미지의 각 객체의 좌표계 및 중심좌표와 비교됨으로써, 평가대상 이미지의 변형 여부를 평가할 수 있도록 한다. When the coordinate system and the center coordinates of each object for the reference image are formed, the coordinate setting unit 30 transmits the information to the template storage unit 65 and stores the information together with the definition of each object. The coordinate system and the center coordinate of each object stored in the template storage unit 65 are compared with the coordinate system and the center coordinate of each object of the evaluation target image as the reference coordinate system and the reference center coordinate so as to evaluate whether or not the evaluation target image is transformed .

반면, 좌표 설정부(30)에서는 평가대상 이미지에 대한 각 객체의 좌표계 및 중심좌표가 형성되면, 각 객체의 좌표계 및 중심좌표에 대한 정보를 회전 판단부(35) 또는 객체 검출부(40)로 전달하게 된다. 평가대상 이미지는 컬러 이미지와 바이너리 이미지를 포함하며, 좌표 설정부(30)는, 바이너리 영상 처리부(20)로부터의 바이너리 이미지에 대한 각 객체의 좌표계 및 중심좌표는 바이너리 이미지와 함께 회전 판단부(35)로 전달하고, 컬러 영상 처리부(25)로부터의 컬러 이미지에 대한 각 객체의 좌표계 및 중심좌표는 컬러 이미지와 함께 객체 검출부(40)로 전달한다. On the other hand, when the coordinate system and the center coordinates of each object are formed with respect to the evaluation target image, the coordinate setting unit 30 transmits information about the coordinate system and the center coordinates of each object to the rotation determination unit 35 or the object detection unit 40 . The coordinate target of the evaluation object image includes a color image and a binary image. The coordinate setting unit 30 sets the coordinate system and the center coordinate of each object with respect to the binary image from the binary image processing unit 20, together with the binary image, The coordinate system and the center coordinates of each object with respect to the color image from the color image processing unit 25 are transmitted to the object detection unit 40 together with the color image.

템플릿 저장부(65)에는 ROI 설정부(15)에서 설정된 기준 이미지의 각 객체에 대한 이미지 및 각 객체의 정의와, 좌표 설정부(30)에서 설정된 각 객체의 좌표계 및 중심좌표에 대한 정보가 템플릿 정보로서 저장된다. In the template storage unit 65, the image and the definition of each object for each object of the reference image set by the ROI setting unit 15, and the information about the coordinate system and the coordinates of each object set by the coordinate setting unit 30, And is stored as information.

회전 판단부(35)에서는 좌표 설정부(30)로부터 평가대상 이미지인 바이너리 이미지의 각 객체의 좌표계 및 중심좌표를 제공받는다. 회전 판단부(35)는 제공받은 각 객체의 좌표계 및 중심좌표를 이용하여 각 객체의 회전여부를 판단할 수 있다. 이를 위해, 회전 판단부(35)는 템플릿 저장부(65)로부터 기본 이미지에 대한 각 객체의 좌표계 및/또는 중심좌표를 인출하고, 기본 이미지의 각 객체의 좌표계 및/또는 중심좌표와 바이너리 이미지의 각 객체의 좌표계 및 중심좌표를 비교한다. 이때, 회전 판단부(35)는 기본 이미지와 바이너리 이미지의 각 객체에 대해 세로축과 가로축을 비교할 수도 있고, 기본 이미지와 바이너리 이미지의 각 객체에 대해 중심좌표를 비교할 수도 있다. 세로축과 가로축을 비교하든, 중심좌표를 비교하든, 회전 판단부(35)는 바이너리 이미지의 회전각도를 구할 수 있다. The rotation determination unit 35 receives the coordinate system and the coordinates of the center of each object of the binary image as the evaluation target image from the coordinate setting unit 30. [ The rotation determination unit 35 can determine whether each object is rotated using the coordinate system and the center coordinates of each object. For this, the rotation determination unit 35 extracts the coordinate system and / or the center coordinate of each object with respect to the basic image from the template storage unit 65, and calculates the coordinate system and / or the center coordinate of each object of the basic image, Compare the coordinate system and center coordinates of each object. At this time, the rotation determining unit 35 may compare the vertical axis and the horizontal axis for each object of the basic image and the binary image, or may compare the center coordinates of each object of the basic image and the binary image. Whether the vertical axis and the horizontal axis are compared or the center coordinates are compared, the rotation determination unit 35 can obtain the rotation angle of the binary image.

예를 들어, 도 3(a)에 도시된 기본 이미지의 객체의 경우에는 회전되어 있지 않지만, 도 3(b)에 도시된 평가대상 이미지의 객체는 일측으로 회전되어 있다. 회전 판단부(35)는 기본 이미지와 바이너리 이미지의 각 객체에 대해 좌표계 또는 중심좌표를 비교함으로써, 용이하게 바이너리 이미지의 회전여부를 판단할 수 있다. For example, in the case of the object of the basic image shown in Fig. 3A, the object of the evaluation object image shown in Fig. 3B is not rotated but the object of the evaluation object is rotated to one side. The rotation determination unit 35 can easily determine whether the binary image is rotated by comparing the coordinate system or the center coordinate of each object of the basic image and the binary image.

한편, 도 3(a)와 도 3(b)를 비교해보면, 평가대상 이미지의 객체가 회전만 한 것이 아니라, 기본 이미지의 객체에 대해 평가대상 이미지가 일측으로 이동하였음을 알 수 있다. 이는 평가대상 이미지가 해당 객체를 중심으로 회전한 것이 아니라, 다른 회전축을 중심으로 회전하였기 때문이다. 이 경우, 회전 판단부(35)는 평가대상 이미지의 객체에 매칭되는 기본 이미지의 객체를 찾아내야 한다. 이를 위해, 회전 판단부(35)는, 템플릿 저장부(65)로부터 평가대상 이미지의 객체 정의와 동일하거나 매우 유사한 객체 정의를 갖는 기본 이미지의 객체를 검색하여 인출한다. 그런 다음, 회전 판단부(35)는 인출된 기본 이미지의 객체의 좌표계 또는 중심좌표와, 평가대상 이미지의 객체의 좌표계 또는 중심좌표를 비교함으로써, 평가대상 이미지의 회전각도를 구할 수 있다. 회전 판단부(35)에서 구해진 평가대상 이미지의 각 객체에 대한 회전각도는 상거리 산출부(60)로 제공된다. 3 (a) and FIG. 3 (b), it can be seen that the object to be evaluated has moved to one side with respect to the object of the basic image, not just with the object of the evaluation object rotated. This is because the image to be evaluated is not rotated about the object but rotated around another axis of rotation. In this case, the rotation determining unit 35 must find an object of the basic image matching the object of the evaluation target image. To this end, the rotation determination unit 35 retrieves and retrieves an object of the basic image having the same or very similar object definition as the object definition of the evaluation target image from the template storage unit 65. [ Then, the rotation determination unit 35 can obtain the rotation angle of the evaluation object image by comparing the coordinate system or the center coordinate of the object of the extracted basic image with the coordinate system or the center coordinate of the object of the evaluation object image. The rotation angle for each object of the evaluation object image obtained by the rotation determination unit 35 is provided to the distance calculation unit 60. [

객체 검출부(40)는, 좌표 설정부(30)로부터 컬러인 평가대상 이미지를 제공받으며, 객체 감지 알고리즘(Object Detection Algorithm)을 이용하여 각 ROI의 객체를 검출하고, 검출된 결과를 각각 이중상 판단부(45)와 왜곡 판단부(55)로 제공한다. The object detection unit 40 receives a color evaluation target image from the coordinate setting unit 30, detects an object of each ROI using an object detection algorithm (algorithm), and outputs the detected result to a dual- (45) and the distortion determining unit (55).

객체 감지 알고리즘의 처리과정을 보면, 먼저, 이미지 윤곽처리 알고리즘(Image Smoothing Algorithm)을 이용하여 이미지의 노이즈를 제거함으로써, 영상 처리가 용이하도록 한다. 이미지 윤곽처리 알고리즘으로는 저역 필터(Low pass), Local Average, 가우시안(Gaussian), 미디안(Median) 등을 사용할 수 있다. 그런 다음, 위에서도 언급한 바 있는 모서리 감지 알고리즘을 이용하여 각 객체의 모서리를 감지하여 객체를 파악할 수 있다. In the process of the object detection algorithm, image processing is facilitated by first removing an image noise using an image contour processing algorithm (Image Smoothing Algorithm). As an image contour processing algorithm, a low pass filter, a local average filter, a Gaussian filter, a Median filter, or the like can be used. Then, by using the edge detection algorithm mentioned above, it is possible to grasp the object by detecting the edge of each object.

한편, 객체 검출부(40)에서는 컬러 분할 알고리즘(Color Segmentation Algorithm)을 사용할 수도 있다. 컬러 분할 알고리즘은 평가대상 이미지에서 특정 색상만을 검출하는 알고리즘으로서, 객체 검출부(40)는 컬러 분할 알고리즘을 이용하여 평가대상 이미지의 각 객체에 대해 각 색상 정보에 대한 임계치를 설정하고, 각 객체의 색상을 검출한다. 이때, 여러 색상을 검출하는 이유는, 다양한 색상을 가지는 각 객체들의 검출확률을 높이기 위한 것이다. 객체 검출부(40)는, 컬러 영상 처리부(25)에서 검출된 각 객체의 색상 정보와, 템플릿 저장부(65)에 저장된 기본 이미지의 각 객체의 색상 정보를 비교하여, 동일한 색상과 동일하거나 유사한 정도의 조도, 채도, 명도 등을 갖는 객체를 검출할 수 있다. Meanwhile, the object detecting unit 40 may use a color segmentation algorithm (Color Segmentation Algorithm). The color separation algorithm is an algorithm for detecting only a specific color in an evaluation target image. The object detection unit 40 sets a threshold value for each color information for each object of the evaluation target image using a color separation algorithm, . At this time, the reason for detecting multiple colors is to increase the detection probability of each object having various colors. The object detection unit 40 compares the color information of each object detected by the color image processing unit 25 with the color information of each object of the basic image stored in the template storage unit 65, Such as illuminance, saturation, lightness, etc., of the object.

이렇게 각 객체가 파악되면, 왜곡 판단부(55)는 객체 검출부(40)에서 검출된 해당 객체를 기본 이미지의 객체와 비교함으로써, 평가대상 이미지의 왜곡을 판단할 수 있다. When each object is identified, the distortion determining unit 55 can determine the distortion of the image to be evaluated by comparing the object detected by the object detecting unit 40 with an object of the basic image.

왜곡 판단부(55)는 모서리 기반 기하학적 패턴 매칭(Geometric Pattern Matching) 알고리즘을 이용하여 기본 이미지의 객체 이미지와, 평가대상 이미지의 객체 이미지를 비교하여 평가대상 이미지의 왜곡 및 왜곡량을 파악할 수 있다.The distortion determining unit 55 can determine the amount of distortion and distortion of the evaluation target image by comparing the object image of the basic image with the object image of the evaluation target image by using an edge-based geometric pattern matching algorithm (Geometric Pattern Matching) algorithm.

도 4(a)에는 템플릿 저장부(65)에 저장된 기본 이미지의 객체가 도시되어 있고, 도 4(b)에는 평가대상 이미지의 객체가 도시되어 있다. 왜곡 판단부(55)에서는 도 4(b)의 평가대상 이미지의 객체를 기본 이미지의 객체와 비교하거나 오버랩시킨다. FIG. 4A shows an object of the basic image stored in the template storage unit 65, and FIG. 4B shows an object of the image to be evaluated. The distortion determining unit 55 compares or overlaps the object of the evaluation target image of FIG. 4B with the object of the basic image.

이때, 평가대상 이미지의 객체가 왜곡된 경우, 도 4(c)에 도시된 바와 같이, 기본 이미지의 객체와 평가대상 이미지의 객체가 일치하지 아니한다. 도 4(c)에서 회색 부분은 기본 이미지의 객체와 평가대상 이미지의 객체가 일치하는 부분이고, 초록색 부분은 기본 이미지의 객체만 남은 부분이고, 빨간색 부분은 평가대상 이미지의 객체만 남은 부분이다. 도 4(c)의 도면을 보면 평가대상 이미지의 객체가 왜곡되었음을 알 수 있다. 즉, 평가대상 이미지가 왜곡되었음을 알 수 있다. 왜곡 판단부(55)는 초록색 부분과 빨간색 부분의 면적 또는 폭 등을 이용하여 왜곡량을 산출할 수 있다. At this time, when the object of the evaluation target image is distorted, the object of the basic image and the object of the evaluation target image do not match as shown in Fig. 4 (c). In Figure 4 (c), the gray part is the part where the object of the base image matches the object of the evaluation object, the green part is the remaining part of the basic image, and the red part is the remaining part of the object to be evaluated. 4 (c), it can be seen that the object of the evaluation target image is distorted. That is, it can be seen that the evaluation target image is distorted. The distortion determining unit 55 can calculate the amount of distortion using the area or width of the green portion and the red portion.

이중상 판단부(45)는, 객체 검출부(40)에서 검출된 각 객체의 가로 모서리 및 세로 모서리, 원형 모서리 및 동심원 모서리를 이용하여 이중상 여부를 판단하고 변위정도를 산출할 수 있다. The double phase determination unit 45 can determine the double phase and calculate the degree of displacement by using the horizontal corner, vertical corner, circular corner, and concentric corner of each object detected by the object detection unit 40.

먼저, 도 5의 상부에 도시된 객체와 같이, 각 객체가 삼각형, 사각형 등의 다각형인 경우, 이중상 판단부(45)는 각 객체의 가로 모서리와 세로 모서리에 각각 선을 그어 가로선(502)과 세로선(501)을 형성한다. 그런 다음, 이중상 판단부(45)는, 객체의 중심으로부터 가로선(502)을 기준으로 수직방향으로 스캔하여 모서리가 검출되면 해당 위치의 좌표를 기록하게 된다. 이때, 이중상이 형성된 경우, 두 번의 모서리가 검출되며, 이중상 판단부(45)는 두번째 검출되는 모서리의 좌표도 기록하게 된다. 이와 같이, 모서리가 두 번 검출됨에 따라, 이중상 판단부(45)는, 수직방향으로 이중상이 형성되었다고 판단하며, 좌표의 차이값을 이용하여 수직방향으로 이중상이 발생한 정도를 측정할 수 있다. 5, when each object is a polygon such as a triangle, a rectangle, etc., the double-top determination unit 45 draws a line on the horizontal edge and the vertical edge of each object, And a vertical line 501 is formed. Then, the double phase determination unit 45 scans the object in the vertical direction with respect to the horizontal line 502 from the center of the object, and when the edge is detected, the coordinates of the corresponding position are recorded. At this time, when the double phase is formed, two edges are detected, and the double phase determination unit 45 also records the coordinates of the second detected edge. As the edge is detected twice, the double phase determination unit 45 determines that the double phase is formed in the vertical direction, and the degree of the double phase in the vertical direction can be measured using the difference value of the coordinates.

마찬가지로, 이중상 판단부(45)는, 객체의 중심으로부터 세로선(501)을 기준으로 수평방향으로 스캔하여 모서리가 검출되면 해당 위치의 좌표를 기록하게 된다. 모서리가 두 번 검출되면, 이중상 판단부(45)는 수평방향으로 이중상이 형성되었다고 판단할 수 있다. 또한, 이중상 판단부(45)는, 두 세로 모서리의 좌표값의 차이를 이용하여 수평방향으로 이중상이 발생한 정도를 측정할 수 있다. Likewise, the double-phase determination unit 45 scans the center of the object in the horizontal direction with respect to the vertical line 501 as a reference, and records coordinates of the corresponding position when an edge is detected. When the corner is detected twice, the double phase determination unit 45 can determine that the double phase is formed in the horizontal direction. Further, the double phase determination unit 45 can measure the degree of occurrence of the double phase in the horizontal direction by using the difference between the coordinate values of the two vertical edges.

이중상 판단부(45)는, 가로방향과 세로방향으로 모두 스캔하므로, 이중상이 한 방향으로만 형성되었는지 가로방향과 세로방향 모두에 형성되었는지 판단할 수 있다. Since the dual phase determination unit 45 scans both the horizontal direction and the vertical direction, it can be determined whether the dual phase is formed in only one direction or both the horizontal direction and the vertical direction.

또한, 이중상 판단부(45)는, 도 5의 좌측 하부에 도시된 객체와 같이, 원형이나 동심원 형태의 객체에 대해서는 원형 모서리 및/또는 동심원 모서리(503)를 감지하고, 원형의 중심과 동심원의 중심에 대해 외부로 진행하는 방향을 따라 스캔하여 원형 또는 동심원 모서리(503)를 감지하도록 하고 감지되는 모서리의 좌표를 기록한다. 이때, 원형의 경우에는 두 개 이상의 원형 모서리가 감지되는 경우, 동심원의 경우에는 동심원의 개수보다 많은 수의 원형 모서리가 감지되는 경우, 이중상 판단부(45)는 이중상이 형성되었다고 판단할 수 있다. 한편, 원형이나 동심원의 경우, 원주방향을 따라 일정 간격을 두고 복수의 위치의 좌표를 기록한다. 이는 원형이나 동심원의 경우, 이중상에 의해 형성된 원형 모서리와, 객체의 본래 원형 모서리와의 거리가 원주방향을 따라 상이하기 때문이다. 5, the double phase determination unit 45 detects a circular edge and / or a concentric circle edge 503 with respect to a circular or concentric object, Scan along the direction going outwards with respect to the center to sense the circular or concentric corners 503 and record the coordinates of the detected corners. In this case, when two or more circular edges are detected in the case of a circular shape, and a circular edge is detected in a number larger than the number of concentric circles in the case of a concentric circle, the double phase determination unit 45 may determine that a double phase has been formed. On the other hand, in the case of circular or concentric circles, coordinates of a plurality of positions are recorded at regular intervals along the circumferential direction. This is because, in the case of a circle or a concentric circle, the distance between the circular edge formed by the double phase and the original circular edge of the object is different along the circumferential direction.

이중상 판단부(45)는, 객체의 본래 원형 모서리와 이중상의 원형 모서리와의 좌표를 이용하여 그 거리를 구하고, 이를 이용하여 이중상의 변위가 수직방향 또는 수평방향으로 형성되었는지, 수직방향과 수평방향 양측으로 형성되었는지를 판단할 수 있다. The double phase determination unit 45 determines the distance by using the coordinates of the original circular edge of the object and the circular edge of the double phase, and determines whether the displacement of the double phase is formed in the vertical direction or the horizontal direction, It is possible to judge whether or not they are formed on both sides.

한편, 이중상 판단부(45)에서 모서리의 스캔에 의해 기록된 좌표는 픽셀 좌표이며, 좌표 변환부(50)는 이중상 판단부(45)로부터 픽셀 좌표를 제공받아 일반 좌표계로 변환하고, 변환된 일반 좌표계를 다시 이중상 판단부(45)로 제공함으로써, 이중상 판단부(45)에서 좌표값 간의 차이를 산출할 수 있도록 한다. On the other hand, the coordinates recorded by the scan of the corners in the double-phase determination unit 45 are pixel coordinates. The coordinate conversion unit 50 receives the pixel coordinates from the double-phase determination unit 45 and converts them into a general coordinate system. And provides the coordinate system to the double-phase determination unit 45 so that the double-phase determination unit 45 can calculate the difference between the coordinate values.

상거리 산출부(60)는, 평가대상 이미지의 왜곡 정도와 이중상의 변위 정도를 이용하여 카메라(10)의 위치를 결정하고, 카메라(10)의 위치에 따른 가상 이미지의 위치를 추정할 수 있다. The distance calculating unit 60 may determine the position of the camera 10 using the degree of distortion of the image to be evaluated and the degree of displacement of the double images and estimate the position of the virtual image according to the position of the camera 10. [

상거리 산출부(60)는 카메라(10)에서 가상 이미지까지의 거리를 임의의 거리인 d로 정의하고, 앞유리창에서 카메라(10)까지의 거리는 s라고 정의한다. 그리고, 상거리 산출부(60)는 기준 이미지의 카메라(10)의 위치는 d+x라고 정의한다. 이렇게 정의된 상태에서 이미지의 왜곡정도를 w라 하고, 이중상의 변위차를 t라고 하면, 상거리 산출부(60)는 카메라(10)의 위치 변위량(x)과 이미지의 왜곡량( w)이 비례하고, 카메라(10)의 위치 변위량(x)와 이중상의 변위량(t)이 각각 비례한다는 전제하에 카메라(10)의 위치 변위량(x)를 산출할 수 있다. 즉, 상거리 산출부(60)는 카메라(10)와 앞유리창 사이의 거리(d+x)를 확정할 수 있으며, 이에 따라, 카메라(10)와 가상 이미지까지의 거리도 추정할 수 있다. The distance calculation unit 60 defines the distance from the camera 10 to the virtual image as an arbitrary distance d and defines the distance from the windshield to the camera 10 as s. The normal distance calculation unit 60 defines the position of the camera 10 of the reference image as d + x. If the degree of distortion of the image is defined as w and the displacement of the double image is defined as t, the distance calculation unit 60 calculates the distance displacement x of the camera 10 and the amount of distortion w of the image to be proportional to each other , And the positional displacement amount x of the camera 10 can be calculated on the assumption that the positional displacement amount x of the camera 10 and the double-phase displacement amount t are proportional to each other. That is, the distance calculation unit 60 can determine the distance (d + x) between the camera 10 and the windshield, thereby estimating the distance from the camera 10 to the virtual image.

이러한 구성에 의한 HUD 영상 평가 시스템에서 평가대상 이미지를 평가하기 위한 기준인 기준 이미지에서 템플릿을 형성하는 과정을 도 6을 참조하여 설명하면 다음과 같다. A process of forming a template from a reference image, which is a criterion for evaluating an evaluation target image in the HUD image evaluation system according to such a configuration, will be described with reference to FIG.

카메라(10) 또는 HUD 시스템으로부터 왜곡이나 이중상 등의 변형이 없는 기준 이미지가 입력되면(S600), ROI 설정부(15)에서는 각 객체의 형태와 문자 등을 이용하여 객체를 정의하고(S610), 모서리 감지 알고리즘을 이용하여 기준 이미지 내의 각 객체를 감지한다. 그리고 각 객체의 모서리를 감지하면, 각 객체의 외곽을 둘러싸는 ROI를 생성한다(S620). 그러면 좌표 설정부(30)에서는 각 객체의 ROI에 대해 좌표축을 형성함으로써, 각 객체에 대한 XY좌표계와 중심좌표를 형성할 수 있다(S630). 이때, 기본 이미지의 전체 화면에 대한 수직축과 수평축을 기준으로 객체의 좌표계가 기울어져 있다면 좌표 설정부(30)에서는 객체의 회전각도를 이용하여 각좌표계(Angle Coordinate)를 형성할 수 있다. If a reference image having no distortion such as distortion or dual phase is input from the camera 10 or the HUD system in step S600, the ROI setting unit 15 defines an object using the shape and characters of each object in step S610, An edge detection algorithm is used to detect each object in the reference image. When the edge of each object is sensed, an ROI that surrounds each object is generated (S620). In step S630, the coordinate setting unit 30 forms a coordinate axis for the ROI of each object, thereby forming an XY coordinate system and a center coordinate for each object. At this time, if the coordinate system of the object is inclined with respect to the vertical axis and the horizontal axis of the entire screen of the basic image, the coordinate setting unit 30 can form each coordinate system using the rotation angle of the object.

이러한 과정에 의해 설정된 각 객체의 정의, 각 객체에 대한 ROI 및 그 좌표계에 대한 정보는 템플릿 저장부(65)에 저장된다(S640). The definition of each object set by this process, the ROI for each object, and information about the coordinate system are stored in the template storage unit 65 (S640).

이렇게 HUD 영상 평가를 위한 템플릿이 마련되면, HUD 영상 평가시스템(1)에서는 도 7에 도시된 바와 같이, 평가대상 이미지를 평가하여 이미지의 왜곡과 이중상을 방지할 수 있는 카메라(10)의 위치를 확정하게 된다. 이 과정을 상세히 설명하면 다음과 같다. When the template for HUD image evaluation is prepared, the HUD image evaluation system 1 evaluates the evaluation target image to determine the position of the camera 10 which can prevent the image distortion and the double image, as shown in FIG. 7 . This process will be described in detail as follows.

먼저, 평가대상 이미지가 카메라(10)를 통해 입력되면(S700), ROI 설정부(15)에서는 모서리 감지 알고리즘을 이용하여 평가대상 이미지내의 각 객체들을 검출해내고(S705), 각 객체의 외곽영역을 둘러싸는 ROI를 형성한다(S710). First, when the evaluation target image is input through the camera 10 (S700), the ROI setting unit 15 detects each object in the evaluation target image using the edge detection algorithm (S705) (Step S710).

ROI가 형성된 평가대상 이미지는 각각 바이너리 영상 처리부(20), 컬러 영상 처리부(25), 좌표 설정부(30)로 전달된다. The evaluation object image having the ROI is transmitted to the binary image processing unit 20, the color image processing unit 25, and the coordinate setting unit 30, respectively.

바이너리 영상 처리부(20)에서는 전달된 평가대상 이미지의 각 ROI 영역을 그레이스케일 이미지로 변환시키고(S715), 그레이스케일 이미지를 다시 바이너리 이미지로 변환시킨다(S720). 그런 다음, 바이너리 영상 처리부(20)에서는 바이너리 이미지를 좌표 설정부(30)로 제공한다. 좌표 설정부(30)에서는 바이너리 이미지의 각 ROI에 대해 세로 및 가로 좌표축을 설정함으로써, 좌표계 및 중심좌표를 형성한다(S725). 이때, 좌표 설정부(30)에서 설정되는 좌표계는 픽셀 좌표계이다. In step S715, the binary image processing unit 20 converts each ROI area of the evaluated object image into a gray scale image, and converts the gray scale image into a binary image again in step S720. Then, the binary image processing unit 20 provides the binary image to the coordinate setting unit 30. [ The coordinate setting unit 30 forms the coordinate system and the center coordinate by setting the vertical and horizontal coordinate axes for each ROI of the binary image (S725). At this time, the coordinate system set by the coordinate setting unit 30 is a pixel coordinate system.

좌표 설정부(30)는 바이너리 이미지의 각 객체에 대한 좌표계와 중심좌표 등의 정보를 회전 판단부(35)로 제공한다. 회전 판단부(35)는 템플릿 저장부(65)로부터 기본 이미지에 대한 각 객체의 좌표계 및/또는 중심좌표를 인출하고, 기본 이미지의 각 객체의 좌표계 및/또는 중심좌표와, 바이너리 이미지의 각 객체의 좌표계 및/또는 중심좌표를 비교하여 회전각도를 산출한다(S730). 회전 판단부(35)에서 측정된 각 객체의 회전각도는 평가대상 이미지의 회전각도가 되며, 이 정보는 외부로 표시되어 본 HUD 영상 평가시스템(1)의 운영자가 인지할 수 있도록 한다. The coordinate setting unit 30 provides the rotation determination unit 35 with information such as a coordinate system and a center coordinate for each object of the binary image. The rotation determination unit 35 extracts the coordinate system and / or the center coordinates of each object with respect to the base image from the template storage unit 65 and acquires the coordinate system and / or the center coordinate of each object of the base image and each object of the binary image (Step S730). The rotation angle is calculated by comparing the coordinate system and / The rotation angle of each object measured by the rotation determination unit 35 is a rotation angle of the evaluation target image, and this information is displayed externally so that the operator of the present HUD image evaluation system 1 can recognize the rotation angle.

컬러 영상 처리부(25)에서는 평가대상 이미지의 각 ROI에 대해 색상 정보를 획득한다(S735). 색상 정보는, 빨강, 녹색, 파랑, 색조, 채도, 명도, 색상 값, 광도 등을 포함할 수 있으며, 컬러 영상 처리부(25)는 각 ROI에 대한 색상 정보를 왜곡 판단부(55)와 이중상 판단부(45)로 전달한다. The color image processing unit 25 acquires color information for each ROI of the evaluation target image (S735). The color information processing unit 25 may include color information for each ROI from the distortion determining unit 55 and the color information for each ROI, (45).

좌표 설정부(30)는, 컬러인 평가대상 이미지의 각 객체에 대해 좌표축과 중심좌표를 설정하며(S740), 각 객체에 대한 좌표축과 중심좌표에 대한 정보를 객체 검출부(40)로 전달한다. The coordinate setting unit 30 sets a coordinate axis and a center coordinate for each object of the color evaluation target image (S740), and transmits information about the coordinate axes and the center coordinates of each object to the object detection unit 40. [

객체 검출부(40)에서는 객체 감지 알고리즘을 이용하여 평가대상 이미지의 각 ROI에 대한 객체를 검출하고, 해당 객체에 대한 정보를 템플릿 저장부(65)로부터 인출한다(S745). 그러면, 왜곡 판단부(55)는 기하학적 패턴 매칭 알고리즘을 이용하여 기본 이미지의 객체와 평가대상 이미지의 객체를 비교 또는 오버레이시켜 평가대상 이미지가 왜곡되었는지 여부를 판단할 수 있을 뿐만 아니라, 평가대상 이미지의 왜곡량을 파악할 수 있다(S750). 왜곡량은 상거리 산출부(60)로 제공된다. The object detection unit 40 detects an object for each ROI of the evaluation object image using the object detection algorithm, and extracts information about the object from the template storage unit 65 (S745). Then, the distortion determining unit 55 not only can determine whether the evaluation target image is distorted by comparing or overlaying the object of the basic image with the object of the evaluation target image by using the geometric pattern matching algorithm, The amount of distortion can be grasped (S750). The distortion amount is provided to the normal distance calculation unit 60.

이중상 판단부(45)는, 평가대상 이미지의 각 ROI내의 객체를 가로방향, 세로방향 및/또는 동심원 방향을 따라 스캔함으로써, 이중상 여부와 변위 정도를 판단할 수 있다(S755). 예를 들어, 객체가 다각형인 경우, 이중상 판단부(45)는 ROI의 중심으로부터 세로축을 기준으로 수평방향으로 스캔하고, ROI의 중심으로부터 가로축을 기준으로 수직방향으로 스캔하여 각각 모서리가 검출되면 해당 위치의 좌표를 기록한다. 모서리가 두 번 이상 검출되면, 이중상 판단부(45)는 이중상이 발생하였다고 판단한다. 이중상 판단부(45)에서는 각 모서리의 좌표를 좌표 변환부(50)로 전달하고, 좌표 변환부(50)에서는 픽셀 좌표를 일반 좌표로 변환하여 이중상 판단부(45)로 다시 제공한다. 이중상 판단부(45)에서는 일반 좌표계의 좌표값 차이를 계산하여 이중상의 변위정도를 측정할 수 있다. 이중상 판단부(45)에서 측정된 이중상 변위값은 상거리 산출부(60)로 제공된다. The double-phase determination unit 45 can determine the double-phase state and the degree of displacement by scanning the object in each ROI of the evaluation object image in the horizontal direction, the vertical direction, and / or the concentric direction (S755). For example, when the object is a polygon, the double-phase determination unit 45 scans the ROI in the horizontal direction from the center of the ROI, scans the ROI in the vertical direction with respect to the horizontal axis, Record the coordinates of the location. If the edge is detected more than once, the double phase determination unit 45 determines that a double phase has occurred. The double phase determination unit 45 transfers the coordinates of the respective corners to the coordinate transformation unit 50, and the coordinate transformation unit 50 converts the pixel coordinates into general coordinates and provides them to the double phase determination unit 45 again. In the double phase determination unit 45, the degree of displacement of the double phase can be measured by calculating the coordinate difference value of the general coordinate system. The dual-phase displacement value measured by the double-phase determination unit 45 is provided to the distance calculation unit 60.

상거리 산출부(60)에서는 왜곡량과 이중상 변위값은 카메라(10)와 앞유리창 간의 거리의 변화량과 비례한다고 판단하며, 이를 이용하여 카메라(10)와 앞유리창 간의 실제거리를 산출한다(S760). 이에 따라, 카메라(10)의 설치 위치를 확정할 수 있다. The actual distance between the camera 10 and the windshield is calculated using the distortion amount and the dual-phase displacement value, which is determined by the average distance calculating unit 60, to be proportional to the amount of change in the distance between the camera 10 and the windshield window (S760) . Thus, the installation position of the camera 10 can be determined.

이와 같이, 본 발명에서는 HUD 시스템으로부터 송출되는 영상의 왜곡, 이중상, 회전 여부 및 그 변위량을 측정할 수 있으므로, 왜곡과 이중상을 방지할 수 있는 카메라(10)의 위치를 설정할 수 있다. 그리고 회전 여부에 대한 결과는 외부로 표시함으로써, 왜곡과 이중상 뿐만 아니라, 회전을 방지하기 위한 대책을 운영자가 모색할 수 있는 기회를 제공할 수 있다. 따라서, HUD 시스템으로부터 송출된 이미지에 대해 선명한 가상 이미지를 생성할 수 있으므로, HUD 시스템의 품질을 향상시킬 수 있을 뿐만 아니라, 이로 인해, 사용자의 만족을 도모할 수 있다.As described above, since the distortion, the double phase, the rotation, and the displacement amount of the image transmitted from the HUD system can be measured, it is possible to set the position of the camera 10 which can prevent the distortion and the double image. The result of the rotation is displayed outside, thereby providing an opportunity for the operator to search for countermeasures to prevent rotation as well as distortion and double phase. Therefore, a clear virtual image can be generated for the image transmitted from the HUD system, so that not only the quality of the HUD system can be improved, but also the satisfaction of the user can be achieved.

이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, Of the right.

1 : HUD 영상 평가시스템 10 : 카메라
15 : ROI 설정부 20 : 바이너리 영상 처리부
25 : 컬러 영상 처리부 30 : 좌표 설정부
35 : 회전 판단부 40 : 객체 검출부
45 : 이중상 판단부 50 : 왜곡 판단부
60 : 상거리 산출부 65 : 템플릿 저장부
1: HUD image evaluation system 10: camera
15: ROI setting unit 20: Binary image processing unit
25: Color image processing unit 30: Coordinate setting unit
35: rotation determination unit 40: object detection unit
45: double phase judging unit 50: distortion judging unit
60: Normal distance calculating unit 65: Template storing unit

Claims (24)

차량에 장착된 HUD 시스템으로부터 형성된 가상 이미지를 촬영하는 카메라;
상기 가상 이미지 내에 포함된 개별요소인 각 객체에 대한 좌표계를 설정하는 좌표 설정부;
상기 가상 이미지의 변형 여부를 판단하는 기준이 되는 기준 이미지에 포함된 각 객체에 대한 정보가 저장된 템플릿 저장부;
상기 각 객체를 스캔하여 상기 각 객체의 모서리의 중복 여부에 따라 이중상을 판단하고, 이중상인 경우 상기 좌표 설정부에서 설정된 좌표계를 이용하여 그 변위정도를 측정하는 이중상 판단부; 및
상기 템플릿 저장부로부터 인출된 상기 기준 이미지의 객체와, 상기 가상 이미지의 객체를 비교하여 상기 가상 이미지의 왜곡여부 및 왜곡량을 판단하는 왜곡 판단부;를 포함하는 것을 특징으로 하는 HUD 영상 평가시스템.
A camera for photographing a virtual image formed from a HUD system mounted on a vehicle;
A coordinate setting unit for setting a coordinate system for each object that is an individual element included in the virtual image;
A template storage unit for storing information on each object included in a reference image that is a reference for determining whether the virtual image is deformed;
A dual phase determiner for determining a double phase according to whether the edges of the objects are overlapped or not by scanning each of the objects and for measuring the degree of displacement using the coordinate system set by the coordinate setting unit when the double phase is detected; And
And a distortion determination unit for determining whether the virtual image is distorted or distorted by comparing an object of the reference image drawn from the template storage unit with an object of the virtual image.
제 1 항에 있어서,
상기 기준 이미지와 가상 이미지를 입력받아 모서리 감지 알고리즘을 이용하여 상기 각 객체를 감지하고, 상기 각 객체의 외곽을 둘러싸는 사각 테두리인 ROI(Region of Interest)를 설정하는 ROI 설정부를 더 포함하는 것을 특징으로 하는 HUD 영상 평가시스템.
The method according to claim 1,
And an ROI setting unit that receives the reference image and the virtual image, detects each of the objects using a corner detection algorithm, and sets a ROI (Region of Interest), which is a rectangular frame surrounding the outline of each object HUD image evaluation system.
제 2 항에 있어서,
상기 ROI 설정부는, 상기 각 객체의 종류, 형상, 색상 중 적어도 하나를 포함하는 정보를 이용하여 상기 각 객체를 정의하는 것을 특징으로 하는 HUD 영상 평가시스템.
3. The method of claim 2,
Wherein the ROI setting unit defines each object using information including at least one of a type, a shape and a color of each object.
제 2 항에 있어서,
상기 ROI가 설정된 가상 이미지를 제공받아 그레이스케일 이미지로 변환하고, 상기 그레이스케일 이미지를 바이너리 이미지로 변환하는 바이너리 영상 처리부를 더 포함하는 것을 특징으로 하는 HUD 영상 평가시스템.
3. The method of claim 2,
Further comprising a binary image processing unit for converting the gray image into a binary image by receiving the virtual image in which the ROI is set and converting the gray image into a gray image.
제 2 항에 있어서,
상기 ROI가 설정된 가상 이미지를 제공받아 색상과 함께 색조, 조도, 명도, 채도, 광도 중 적어도 하나를 포함하는 색상 정보를 추출하는 컬러 영상 처리부를 더 포함하는 것을 특징으로 하는 HUD 영상 평가시스템.
3. The method of claim 2,
Further comprising a color image processing unit for receiving the virtual image in which the ROI is set and extracting color information including at least one of a hue, illuminance, brightness, saturation, and brightness along with the color.
제 4 항에 있어서,
상기 좌표 설정부는, 상기 바이너리 영상 처리부로부터 제공받은 상기 바이너리 이미지에 포함된 각 객체에 대해 좌표계를 설정하는 것을 특징으로 하는 HUD 영상 평가시스템.
5. The method of claim 4,
Wherein the coordinate setting unit sets a coordinate system for each object included in the binary image provided from the binary image processing unit.
제 6 항에 있어서,
상기 각 바이너리 이미지의 각 객체의 좌표계와 상기 템플릿 저장부에 저장된 해당 객체의 좌표계를 비교하여 상기 각 객체의 회전여부 및 회전각도를 판단하는 회전 판단부를 더 포함하는 것을 특징으로 하는 HUD 영상 평가시스템.
The method according to claim 6,
Further comprising a rotation determination unit for determining a rotation state and a rotation angle of each object by comparing a coordinate system of each object of each of the binary images with a coordinate system of a corresponding object stored in the template storage unit.
제 2 항에 있어서,
상기 ROI가 설정된 가상 이미지에 객체 감지 알고리즘을 적용하여 상기 각 ROI내의 객체를 감지하는 객체 검출부를 더 포함하는 것을 특징으로 하는 HUD 영상 평가시스템.
3. The method of claim 2,
Further comprising an object detection unit for detecting an object in each ROI by applying an object detection algorithm to the virtual image in which the ROI is set.
제 8 항에 있어서,
상기 왜곡 판단부는, 상기 객체 검출부에서 검출된 객체에 대응되는 상기 기본 이미지의 객체와, 상기 가상 이미지의 객체를 모서리 기반 기하학적 패턴 매칭(Geometric Pattern Matching) 알고리즘으로 비교하여 상기 가상 이미지의 왜곡 및 왜곡량을 파악하는 것을 특징으로 하는 HUD 영상 평가 시스템.
9. The method of claim 8,
Wherein the distortion judging unit compares an object of the basic image corresponding to the object detected by the object detecting unit with an object of the virtual image using an edge based geometric pattern matching algorithm to calculate a distortion and a distortion amount And the HUD image evaluation system.
제 1 항에 있어서,
상기 이중상 판단부는, 상기 각 객체의 세로 모서리, 가로 모서리, 원형 모서리, 동심원 모서리에 직교하는 방향을 따라 상기 각 객체를 스캔하여 감지되는 모서리마다 좌표를 기록하고, 상기 각 객체가 다각형 또는 원형인 경우 감지된 모서리가 두개 이상이면 이중상으로 판단하며, 상기 각 객체가 동심원인 경우 감지된 모서리가 동심원의 개수보다 많은 경우 이중상으로 판단하는 것을 특징으로 하는 HUD 영상 평가시스템.
The method according to claim 1,
Wherein the double phase determination unit scans each object along a direction orthogonal to a vertical edge, a horizontal edge, a circular edge, and a concentric corner of each object to record coordinates for each detected edge, and when each object is a polygon or a circle If the number of detected edges is two or more, it is determined to be a dual phase, and when each of the objects is a concentric circle, if the detected edge is greater than the number of concentric circles, the dual image is determined.
제 10 항에 있어서,
상기 이중상 판단부에서 감지된 모서리에 대해 기록된 픽셀 좌표를 일반 좌표로 변환하는 좌표 변환부를 더 포함하는 것을 특징으로 하는 HUD 영상 평가시스템.
11. The method of claim 10,
And a coordinate converter for converting the pixel coordinates recorded for the edges detected by the double-phase determination unit into general coordinates.
제 11 항에 있어서,
상기 이중상 판단부는, 일반 좌표계에서의 상기 모서리 간의 좌표값 차이를 산출하여 이중상의 변위값을 산출하는 것을 특징으로 하는 HUD 영상 평가시스템.
12. The method of claim 11,
Wherein the double-phase determination unit calculates a dual-phase displacement value by calculating a difference between coordinate values of the corners in the general coordinate system.
제 1 항에 있어서,
상기 이중상 판단부에서 산출된 이중상의 변위값과, 상기 왜곡 판단부에서 측정된 왜곡량을 제공받아, 상기 이중상과 왜곡을 해소할 수 있는 상기 카메라와 상기 차량의 앞유리창 사이의 상거리를 산출하는 상거리 산출부를 더 포함하는 것을 특징으로 하는 HUD 영상 평가 시스템.
The method according to claim 1,
And a controller for receiving the double-phase displacement value calculated by the double-phase determination unit and the distortion amount measured by the distortion determination unit to calculate a distance between the camera and the windshield of the vehicle, Wherein the HUD image evaluation system further comprises a calculation unit.
차량에 장착된 HUD 시스템으로부터 형성된 가상 이미지를 입력받는 단계;
상기 가상 이미지내에 포함된 개별요소인 각 객체에 대한 좌표계를 설정하는 좌표 설정 단계;
상기 각 객체를 스캔하여 상기 각 객체의 모서리의 중복 여부에 따라 상기 가상 이미지의 이중상을 판단하는 이중상 판단 단계;
판단 결과, 상기 가상 이미지가 이중상인 경우 상기 좌표계를 이용하여 그 변위정도를 측정하는 변위 측정 단계; 및,
상기 가상 이미지의 변형 여부를 판단하는 기준이 되는 기준 이미지에 포함된 각 객체와, 상기 가상 이미지의 객체를 비교하여 상기 가상 이미지의 왜곡여부 및 왜곡량을 판단하는 왜곡 판단 단계;를 포함하는 것을 특징으로 하는 HUD 영상 평가방법.
Receiving a virtual image formed from a HUD system mounted on a vehicle;
A coordinate setting step of setting a coordinate system for each object that is an individual element included in the virtual image;
A dual image determining step of scanning each of the objects and determining a double image of the virtual image according to whether the edges of the objects overlap each other;
A displacement measuring step of measuring a degree of displacement of the virtual image using the coordinate system when the virtual image is a double phase; And
And a distortion judging step of judging whether the virtual image is distorted or distorted by comparing each object included in the reference image, which is a reference for judging whether or not the virtual image is deformed, with the object of the virtual image, To evaluate the HUD image.
제 14 항에 있어서,
상기 기준 이미지 또는 상기 가상 이미지가 입력되면,
모서리 감지 알고리즘을 이용하여 상기 각 객체를 감지하는 단계와,
상기 각 객체의 외곽을 둘러싸는 사각 테두리인 ROI(Region of Interest)를 설정하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법.
15. The method of claim 14,
When the reference image or the virtual image is input,
Sensing each object using an edge detection algorithm;
Further comprising setting a region of interest (ROI) that is a rectangular frame surrounding the perimeter of each object.
제 14 항에 있어서,
상기 기준 이미지 또는 상기 가상 이미지가 입력되면,
상기 각 객체의 종류, 형상, 색상 중 적어도 하나를 포함하는 정보를 이용하여 상기 각 객체를 정의하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법.
15. The method of claim 14,
When the reference image or the virtual image is input,
Further comprising defining each of the objects using information including at least one of a type, a shape, and a color of each of the objects.
제 15 항에 있어서,
상기 가상 이미지에 상기 ROI가 설정되면, 상기 ROI가 설정된 가상 이미지를 그레이스케일 이미지로 변환하는 단계와, 상기 그레이스케일 이미지를 바이너리 이미지로 변환하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법.
16. The method of claim 15,
Further comprising the step of converting the virtual image having the ROI set to a gray scale image if the ROI is set in the virtual image, and converting the gray scale image into a binary image.
제 15 항에 있어서,
상기 ROI가 설정된 가상 이미지를 제공받아 색상과 함께 색조, 조도, 명도, 채도, 광도 중 적어도 하나를 포함하는 색상 정보를 추출하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법.
16. The method of claim 15,
Further comprising extracting color information including at least one of hue, illuminance, lightness, saturation, and brightness with the color by receiving the virtual image in which the ROI is set.
제 17 항에 있어서,
상기 바이너리 이미지에 포함된 각 객체에 대해 좌표계를 설정하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법.
18. The method of claim 17,
And setting a coordinate system for each object included in the binary image.
제 19 항에 있어서,
상기 바이너리 이미지의 각 객체의 좌표계와, 상기 기준 이미지의 각 객체의 좌표계를 비교하여 상기 각 객체의 회전여부 및 회전각도를 판단하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법.
20. The method of claim 19,
Further comprising the step of comparing the coordinate system of each object of the binary image with the coordinate system of each object of the reference image to determine the rotation and the rotation angle of each object.
제 15 항에 있어서,
상기 ROI가 설정된 가상 이미지에 객체 감지 알고리즘을 적용하여 상기 각 ROI내의 객체를 감지하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법.
16. The method of claim 15,
Further comprising detecting an object in each ROI by applying an object detection algorithm to the virtual image in which the ROI is set.
제 14 항에 있어서,
상기 이중상 판단 단계는,
상기 각 객체의 세로 모서리, 가로 모서리, 원형 모서리, 동심원 모서리에 직교하는 방향을 따라 상기 각 객체를 스캔하여 감지되는 모서리마다 좌표를 기록하는 단계와,
상기 각 객체가 다각형 또는 원형인 경우 감지된 모서리가 두개 이상이면 이중상으로 판단하며, 상기 각 객체가 동심원인 경우 감지된 모서리가 동심원의 개수보다 많은 경우 이중상으로 판단하는 단계를 포함하는 것을 특징으로 하는 HUD 영상 평가방법.
15. The method of claim 14,
The double-
Scanning each of the objects along a direction perpendicular to a vertical edge, a horizontal edge, a circular edge, and a concentric corner of each of the objects to record coordinates for each detected edge;
If the detected object is a polygon or a circle, it is determined that the object is a double-face if there are two or more sensed edges, and if the object is a concentric circle, if the sensed edge is greater than the number of concentric circles, HUD image evaluation method.
제 15 항에 있어서,
상기 이중상 판단 단계는,
상기 모서리의 좌표를 픽셀 좌표에서 일반 좌표로 변환하는 단계와,
일반 좌표계에서의 상기 모서리 간의 좌표값 차이를 산출하여 이중상의 변위값을 산출하는 단계를 포함하는 것을 특징으로 하는 HUD 영상 평가방법.
16. The method of claim 15,
The double-
Converting the coordinates of the edge from pixel coordinates to general coordinates,
And calculating a difference value of coordinates between the corners in the general coordinate system to calculate a displacement value of the double-phase image.
제 14 항에 있어서,
상기 이중상의 변위값과, 상기 왜곡량을 이용하여, 상기 이중상과 왜곡을 해소할 수 있는 카메라와 차량의 앞유리창 사이의 상거리를 산출하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법.
15. The method of claim 14,
Further comprising the step of calculating a distance between the camera and the windshield of the vehicle capable of eliminating the double phase and the distortion by using the double-phase displacement value and the distortion amount.
KR20130050893A 2013-05-06 2013-05-06 Assessment system and method for image projected from head up display KR101484170B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130050893A KR101484170B1 (en) 2013-05-06 2013-05-06 Assessment system and method for image projected from head up display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130050893A KR101484170B1 (en) 2013-05-06 2013-05-06 Assessment system and method for image projected from head up display

Publications (2)

Publication Number Publication Date
KR20140131805A KR20140131805A (en) 2014-11-14
KR101484170B1 true KR101484170B1 (en) 2015-01-21

Family

ID=52453060

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130050893A KR101484170B1 (en) 2013-05-06 2013-05-06 Assessment system and method for image projected from head up display

Country Status (1)

Country Link
KR (1) KR101484170B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101968689B1 (en) * 2017-04-18 2019-04-16 자동차부품연구원 Measurement system and method for ghost images on head-up display
KR102201134B1 (en) 2020-07-30 2021-01-08 서정현 Functional pyrogenic patch for skin improvement
WO2022088103A1 (en) * 2020-10-30 2022-05-05 华为技术有限公司 Image calibration method and apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003287707A (en) 2002-03-27 2003-10-10 Denso Corp Image conversion method, image processor, headup display and program
JP2005024438A (en) 2003-07-04 2005-01-27 Murakami Corp Method of inspecting mirror surface precision for curved surface mirror, inspection device for mirror surface precision for for curved surface mirror, preparation method for mirror surface precision inspecting pattern for curved surface mirror, and mirror surface precision inspecting pattern for curved surface mirror
JP2008102518A (en) 2006-10-17 2008-05-01 Seiko Epson Corp Heads up display, vehicle having heads up display system and digital heads up display system capable of providing non-distorted image to non-planar surface
US20090278765A1 (en) 2008-05-09 2009-11-12 Gm Global Technology Operations, Inc. Image adjustment and processing for a head up display of a vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003287707A (en) 2002-03-27 2003-10-10 Denso Corp Image conversion method, image processor, headup display and program
JP2005024438A (en) 2003-07-04 2005-01-27 Murakami Corp Method of inspecting mirror surface precision for curved surface mirror, inspection device for mirror surface precision for for curved surface mirror, preparation method for mirror surface precision inspecting pattern for curved surface mirror, and mirror surface precision inspecting pattern for curved surface mirror
JP2008102518A (en) 2006-10-17 2008-05-01 Seiko Epson Corp Heads up display, vehicle having heads up display system and digital heads up display system capable of providing non-distorted image to non-planar surface
US20090278765A1 (en) 2008-05-09 2009-11-12 Gm Global Technology Operations, Inc. Image adjustment and processing for a head up display of a vehicle

Also Published As

Publication number Publication date
KR20140131805A (en) 2014-11-14

Similar Documents

Publication Publication Date Title
KR101811157B1 (en) Bowl-shaped imaging system
US11482013B2 (en) Object tracking method, object tracking apparatus, vehicle having the same, and computer-program product
JP5339124B2 (en) Car camera calibration system
US8055016B2 (en) Apparatus and method for normalizing face image used for detecting drowsy driving
US7684590B2 (en) Method of recognizing and/or tracking objects
JP5442164B2 (en) Moving object peripheral image correction device
US20180292201A1 (en) Calibration apparatus, calibration method, and calibration program
JP4263737B2 (en) Pedestrian detection device
JP4832321B2 (en) Camera posture estimation apparatus, vehicle, and camera posture estimation method
JP5454737B2 (en) Wrinkle detection device, wrinkle detection method and program
EP2293588A1 (en) Method for using a stereovision camera arrangement
CN102774325A (en) Rearview reversing auxiliary system and method for forming rearview obstacle images
JP2003098424A (en) Range finder based on image processing
JP5737401B2 (en) 瞼 Detection device
JP7448484B2 (en) Online evaluation of camera internal parameters
KR101484170B1 (en) Assessment system and method for image projected from head up display
US7599546B2 (en) Image information processing system, image information processing method, image information processing program, and automobile
US20220148200A1 (en) Estimating the movement of an image position
KR101276073B1 (en) System and method for detecting distance between forward vehicle using image in navigation for vehicle
CN114467111B (en) Object recognition method and object recognition device
WO2022004495A1 (en) Obstacle detection device and obstacle detection method
JP4106163B2 (en) Obstacle detection apparatus and method
KR20220145080A (en) Apparatus and method for determining position of dual camera for vehicle
JP4765363B2 (en) Occupant detection device and occupant detection method
JP6429101B2 (en) Image determination apparatus, image processing apparatus, image determination program, image determination method, moving object

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180104

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190103

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200103

Year of fee payment: 6