KR101934345B1 - Field analysis system for improving recognition rate of car number reading at night living crime prevention - Google Patents

Field analysis system for improving recognition rate of car number reading at night living crime prevention Download PDF

Info

Publication number
KR101934345B1
KR101934345B1 KR1020170102536A KR20170102536A KR101934345B1 KR 101934345 B1 KR101934345 B1 KR 101934345B1 KR 1020170102536 A KR1020170102536 A KR 1020170102536A KR 20170102536 A KR20170102536 A KR 20170102536A KR 101934345 B1 KR101934345 B1 KR 101934345B1
Authority
KR
South Korea
Prior art keywords
information
camera
recognition rate
dimensional
analysis system
Prior art date
Application number
KR1020170102536A
Other languages
Korean (ko)
Inventor
이선미
정상천
Original Assignee
(주)벨류데이터
주식회사 동평기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)벨류데이터, 주식회사 동평기술 filed Critical (주)벨류데이터
Priority to KR1020170102536A priority Critical patent/KR101934345B1/en
Application granted granted Critical
Publication of KR101934345B1 publication Critical patent/KR101934345B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06K2209/15
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a field analysis system for improving a recognition rate of reading a license plate number at night and reading a specific image on daily crime prevention. To this end, the field analysis system comprises: a field facility in which a camera for recognizing a license plate number of an entering vehicle and a predefined object is provided; a geographic information server for providing three-dimensional geographic information around the field facility; and an integrated control server for reflecting moonlight information for each date to reflect onto the three-dimensional geographic information around the field facility received from the geographic information server so as to provide parallax light amount distribution around the field facility as a three-dimensional image form and reflecting direct lighting information directly incident to the field facility by a surrounding lighting device and the light amount of the surrounding lighting device onto the three-dimensional geographic information so as to provide indirect lighting information indirectly incident to the field facility as a three-dimensional image form.

Description

야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템{Field analysis system for improving recognition rate of car number reading at night living crime prevention}BACKGROUND OF THE INVENTION Field of the Invention The present invention relates to a field analysis system,

본 발명은 야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템에 관한 것으로서, 더 상세하게는 CCTV 야간영상의 품질을 개선하기 위해서 현장의 환경을 어떻게 구성하고 만들어야 하는지에 대한 것을 구체적으로 자동 분석하고 그 결과 값을 이용자에게 알려줄 수 있는 시스템에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an on-site analysis system for improving a nighttime car number and a specific image reading recognition rate on a life crime scene, and more particularly, And informs the user of the resultant value.

차량번호인식 시스템은 도로방범용 차량번호판독 카메라에서 촬영된 영상을 이용하여 차량 번호를 인식하는 시스템이다. 이러한 차량번호인식 시스템에서 사용되는 카메라는 주로 비인터레이스(Non Interlace) 방식인 프로그래시브 스캔의 카메라를 사용한다.The car number recognition system is a system for recognizing the car number by using the image taken by the car number reading camera for road security. The camera used in the car number recognition system mainly uses a non-interlaced progressive scan camera.

생활방범용 카메라는 차량번호판독 인식용이 아니라 넓은 화각의 교차로, 골목길 등에 설치되는 카메라로 주로 고해상도, 초저조도 특성을 가지고 있는 카메라를 사용한다.The life security camera is a camera installed in an intersection or an alleyway of a wide angle of view, not a car number readout recognition, and mainly uses a camera having high resolution and super low lightness characteristics.

또한, 높은 인식률을 갖기 위해서는 카메라로부터 입력된 영상 데이터가 일정 수준 이상의 밝기가 필요하다. 그러나 영상의 밝기는 시간에 따라 다르며, 같은 시간이라도 맑은 날과 흐린 날에 따라서 다른 값을 가진다. Also, in order to have a high recognition rate, the image data input from the camera needs a certain level of brightness or more. However, the brightness of the image varies with time, and even at the same time, it has different values depending on the sunny and cloudy days.

특히, 주행식 차량번호인식 시스템은 건물이나 나무 사이에 있는 차량의 차량번호를 인식할 때 순간적으로 밝기가 변하기 때문에 차량번호를 인식하지 못하는 경우가 있다.Particularly, the driving type car number recognition system sometimes does not recognize the car number because the brightness changes instantaneously when recognizing the car number of the car between buildings or trees.

또한, 햇빛이 강한 때에는 영상 포화(Saturation)현상이 발생하여 번호판 영상 전체가 흰색으로 나타나 번호판 인식이 불가능하게 된다.Also, when the sunlight is strong, the image saturation phenomenon occurs, and the image of the license plate is displayed as white as a whole.

그러므로 번호판 인식에 적합한 영상 밝기를 얻기 위해서는 카메라의 두 가지 중요한 파라미터 전자셔터 속도(Shutter speed)와 이득(Gain)을 적절하게 조절해 주어야 한다.Therefore, in order to obtain the image brightness suitable for license plate recognition, two important parameters of the camera are to adjust the electronic shutter speed and gain appropriately.

셔터 속도는 카메라에 입력되는 빛의 양을 조절하는 기능을 하며, 이득은 입력된 아날로그 데이터를 디지털 데이터로 변환할 때 필요한 이득을 결정한다. 일반적으로 밝은 영상을 얻기 위해서는 셔터 속도와 이득 값을 최대로 하여 사용하면 되지만, 그와 동시에 노이즈도 최대가 되어 화질이 떨어지는 효과를 가져온다.The shutter speed controls the amount of light input to the camera, and the gain determines the gain required to convert the input analog data into digital data. Generally, in order to obtain a bright image, a shutter speed and a gain value may be set to the maximum value, but at the same time, the noise is also maximized and the image quality is deteriorated.

특히 야간에 조명장치에 사용할 경우 셔터 속도를 최대로 하면 반사되는 빛에 의해 영상데이터가 손상되는 결과를 가져온다. 반면에 너무 낮은 값을 사용하면 영상의 밝기가 너무 어두워서 차량 번호를 인식하지 못하는 결과를 초래한다는 문제점이 있었다.Especially when the camera is used in a nighttime lighting system, when the shutter speed is maximized, the reflected light causes image data to be damaged. On the other hand, if the value is too low, the brightness of the image is too dark, resulting in a failure to recognize the vehicle number.

상기한 문제점을 해결하기 위해, 밝기가 다른 다양한 환경에서 영상레벨값을 적절하게 제어할 수 있는 차량번호인식을 위한 카메라 제어방법이 제안되었다.In order to solve the above problem, a camera control method for vehicle number recognition capable of appropriately controlling the image level value in various environments with different brightness has been proposed.

하지만, 종래의 차량번호인식을 위한 카메라 제어방법은, 카메라가 설치되는 현장의 환경을 전혀 고려하지 않고, 일단 카메라를 설치한 후에 차량번호 인식률을 향상시키는 방법이다.However, the conventional camera control method for car number recognition is a method of improving the car number recognition rate after installing the camera once without considering the environment of the site where the camera is installed.

KRKR 10-2009-006723010-2009-0067230 AA

본 발명은 상기와 같은 기술적 과제를 해결하기 위해 제안된 것으로, 카메라가 구비된 현장 시설물의 환경조건을 고려하여 카메라의 차량번호 및 생활벙범상의 특정 이미지 인식률을 시뮬레이션할 수 있는 야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템을 제공한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned technical problems, and it is an object of the present invention to provide a nighttime vehicle number and a life time which can simulate a specific image recognition rate on a car number and a life style of a camera, Provides a site analysis system for improving the recognition rate of a specific image reading out of a crime scene.

본 발명의 일 실시예에 따르면, 진입하는 차량의 차량번호 및 미리 정의된 물체를 인식하는 카메라가 구비된 현장 시설물; 상기 현장 시설물 주변의 3차원 지리정보를 제공하는 지리정보서버; 및 상기 지리정보서버로부터 제공받은 상기 현장 시설물 주변의 3차원 지리정보에 날짜별 월광정보를 반영하여 상기 현장 시설물 주변의 시차적 광량분포를 3차원 영상형태로 제공하고, 주변의 조명장치에 의해 상기 현장 시설물에 직접 입사되는 직접 조명정보와, 상기 3차원 지리정보에 주변의 조명장치의 광량을 반영하여 상기 현장 시설물에 간접적으로 입사되는 간접 조명정보를 3차원 영상형태로 제공하는 통합관제서버;를 포함하는 야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템이 제공된다.According to an embodiment of the present invention, an on-site facility equipped with a camera for recognizing a vehicle number of an entering vehicle and a predefined object; A geographical information server for providing three-dimensional geographical information around the on-site facilities; And providing a three-dimensional image form of a temporal light amount distribution around the on-site facility by reflecting moonlight information by date on three-dimensional geographical information provided from the geographical information server, An integrated control server for providing indirect lighting information indirectly incident on the on-site facility in a form of a three-dimensional image reflecting direct light information directly inputted to the on-site facility and reflecting the light amount of the surrounding lighting apparatus to the three-dimensional geographical information; And an on-site analysis system for improving the recognition rate of a specific image of the life crime scene is provided.

또한, 상기 통합관제서버는, 상기 카메라의 촬영성능정보에 상기 시차적 광량분포, 상기 직접 조명정보 및 상기 간접 조명정보 중 적어도 하나 이상을 적용하여 상기 카메라의 차량번호 인식률 및 상기 물체 인식률을 시뮬레이션 하는 것을 특징으로 한다.Also, the integrated control server may simulate the vehicle number recognition rate and the object recognition rate of the camera by applying at least one of the temporal light amount distribution, the direct illumination information, and the indirect illumination information to the photographing performance information of the camera .

또한, 상기 통합관제서버는, 상기 카메라의 촬영성능정보에 상기 시차적 광량분포, 상기 직접 조명정보, 상기 간접 조명정보 및 진입하는 차량 전조등의 광량정보 중 적어도 하나 이상을 적용하여 상기 카메라의 차량번호 인식률 및 상기 물체 인식률을 시뮬레이션 하는 것을 특징으로 한다.Further, the integrated control server applies at least one or more of the above-described time-varying light amount distribution, the direct lighting information, the indirect lighting information, and the light amount information of the entering vehicle headlight to the photographing performance information of the camera, The recognition rate and the object recognition rate are simulated.

또한, 상기 통합관제서버는, 상기 카메라의 촬영방향, 수평위치 및 수직위치를 추가적으로 각각 반영하여 상기 카메라의 차량번호 인식률 및 상기 물체 인식률을 시뮬레이션 하는 것을 특징으로 한다.In addition, the integrated control server may further reflect the photographing direction, the horizontal position, and the vertical position of the camera to simulate the vehicle number recognition rate and the object recognition rate of the camera.

또한, 상기 통합관제서버는, 상기 현장 시설물 주변의 3차원 지리정보를 이용하여 특정 위치에 적어도 하나 이상의 보조조명을 가상으로 추가 반영한 후, 상기 카메라의 차량번호 인식률 및 상기 물체 인식률을 시뮬레이션 하는 것을 특징으로 한다.The integrated control server further simulates the vehicle number recognition rate and the object recognition rate of the camera after additionally reflecting at least one auxiliary illumination at a specific location using the three-dimensional geographical information around the on-site facilities .

또한, 상기 현장 시설물은, 진입하는 차량의 전조등 위치를 감지하는 감지센서;를 더 포함하며, 상기 감지센서에서 감지한 상기 전조등 위치를 토대로 상기 카메라의 촬영방향, 수평위치 및 수직위치 중 적어도 하나 이상을 자동조절하는 것을 특징으로 한다.In addition, the on-site facility may further include a detection sensor for detecting a position of a headlight of an entering vehicle, and may detect at least one of a photographing direction, a horizontal position, and a vertical position of the camera based on the headlight position sensed by the sensing sensor Is automatically adjusted.

또한, 상기 현장 시설물은, 사람, 오토바이, 자전거, 우마차, 수레 및 경운기 중 미리 정의된 적어도 어느 하나 이상의 물체의 위치 및 거리를 감지하는 위치감지센서;를 더 포함하며, 상기 위치감지센서에서 감지한 상기 물체의 위치를 토대로 상기 카메라의 촬영방향, 수평위치 및 수직위치 중 적어도 하나 이상을 자동조절 하는 것을 특징으로 한다.In addition, the on-site facility may further include a position sensor for sensing a position and a distance of at least one predetermined object among a person, a motorcycle, a bicycle, a cart, a wagon, and a cultivator, And at least one of a photographing direction, a horizontal position, and a vertical position of the camera is automatically adjusted based on the position of the object.

본 발명의 실시예에 따른 야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템은, 카메라가 구비된 현장 시설물의 환경조건을 고려하여 카메라의 차량번호 인식률 및 상기 물체 인식률을 미리 시뮬레이션 할 수 있다. 따라서 시뮬레이션 결과를 고려하여 카메라와, 카메라의 설치위치를 용이하게 선정할 수 있다.The field analysis system for improving the recognition rate of reading a specific image and the nightcar number according to the embodiment of the present invention may be implemented by simulating the vehicle number recognition rate of the camera and the object recognition rate in advance in consideration of the environmental conditions of the on- can do. Therefore, it is possible to easily select the installation position of the camera and the camera in consideration of the simulation result.

특히 생활방범용 카메라를 사용하여 차량번호 판독을 하기 위해서는 주변환경의 광량 변화치를 정확히 인식해야하고 현장 분석이 명료하게 작성이 되었다면 이에 맞는 카메라를 선정하거나 추가 신설할 경우 보조 투광기 또는 보조 장치를 같이 제안하여 설치함으로써 야간 차량번호 판독 시스템 인식율 향상에 도움을 줄 수 있다.Especially, in order to read the vehicle number using the life security camera, it is necessary to accurately recognize the change in the light amount of the surrounding environment. If the field analysis is clearly made, if a camera corresponding to the camera is selected or a new addition is made, It is possible to improve the recognition rate of the nightcar number reading system.

도 1은 본 발명의 실시예에 따른 야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템(1)의 구성도.
도 2는 진입하는 차량의 차량번호 및 생활 방범상의 특정이미지를 인식하는 카메라(110)가 구비된 현장 시설물(100)의 구성도.
도 3 내지 도 3b는 지리정보서버(200)가 제공하는 현장 시설물(100) 주변의 3차원 지리정보를 나타낸 도면.
도 4는 통합관제서버(300)가 제공하는 현장 시설물(100) 주변의 조명정보를 나타낸 도면.
도 5는 생활 방범상의 특정이미지를 인식하는 과정을 도시한 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a site analysis system 1 for improving a nighttime car number and a specific image reading recognition rate on a life insurance policy according to an embodiment of the present invention. FIG.
2 is a block diagram of a field facility 100 equipped with a camera 110 for recognizing a car number of an entering vehicle and a specific image of a life crime scene.
FIGS. 3 to 3B are views showing three-dimensional geographical information around the on-site facility 100 provided by the geographical information server 200. FIG.
4 is a diagram showing illumination information around the on-site facility 100 provided by the integrated control server 300;
5 is a diagram illustrating a process of recognizing a specific image of a life crime scene.

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 실시예를 첨부한 도면을 참조하여 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, in order to facilitate a person skilled in the art to easily carry out the technical idea of the present invention.

도 1은 본 발명의 실시예에 따른 야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템(1)의 구성도이고, 도 2는 진입하는 차량의 차량번호 및 생활 방범상의 특정이미지를 인식하는 카메라(110)가 구비된 현장 시설물(100)의 구성도이다.FIG. 1 is a block diagram of an on-site analysis system 1 for improving a nighttime car number and a specific image reading recognition rate of a life crime prevention image according to an embodiment of the present invention. And a camera 110 for recognizing the location of the on-site facility 100. FIG.

본 실시예에 따른 야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템(1)은, 제안하고자 하는 기술적인 사상을 명확하게 설명하기 위한 간략한 구성만을 포함하고 있다.The field analysis system 1 for improving the nighttime car number and the image reading and recognizing rate of a specific image on the life crime scene according to the present embodiment includes only a simple structure for clearly explaining the technical idea to be proposed.

도 1을 참조하면, 야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템(1)은 현장 시설물(100)과, 지리정보서버(200)와, 통합관제서버(300)를 포함한다.1, a site analysis system 1 for improving nighttime car number and a specific image reading recognition rate on a life crime scene includes an on-site facility 100, a geographic information server 200 and an integrated control server 300 do.

상기와 같이 구성되는 야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템(1)의 세부구성과 주요동작을 살펴보면 다음과 같다.The detailed configuration and main operation of the field analysis system 1 for improving the nighttime car number and the image reading and recognition rate of a specific image on the life insurance policy will be described as follows.

현장 시설물(100)은 진입하는 차량의 차량번호 및 미리 정의된 물체를 인식하는 카메라(110)가 구비되어 있다. 카메라(110)는 적어도 하나 이상이 구비될 수 있으며, 주간 뿐만 아니라 야간에도 차량번호 및 미리 정의된 물체를 식별할 수 있도록 복수의 발광 다이오드가 내장되어 있다.The on-site facility 100 is equipped with a camera 110 that recognizes the vehicle number of the entering vehicle and predefined objects. At least one camera 110 may be provided, and a plurality of light emitting diodes may be incorporated to identify a vehicle number and a predefined object at night as well as during a day.

여기에서 미리 정의된 물체는, 생활 방범상의 특정이미지로써 사람, 오토바이, 자전거, 우마차, 수레 및 경운기 등으로 정의된다.Predefined objects are defined as people, motorcycles, bicycles, carts, wagons, tillage machines and the like as specific images of life crime scenes.

즉, 현장 시설물(100)은 카메라(110)와, 수직 지지대(120)와, 지지암(130)을 포함하여 구성된다.That is, the field facility 100 includes a camera 110, a vertical support 120, and a support arm 130.

수직 지지대(120)는 원통형태 또는 육면체 형태로 지면에 지지되어 상부방향으로 길게 형성된다. 수직 지지대(120)는 지면에 고정 설치될 수도 있고, 시뮬레이션 정보를 얻기 위해 이동식 형태로 배치될 수도 있다.The vertical support 120 is supported in the form of a cylinder or a hexahedron so as to be elongated in the upward direction. The vertical supports 120 may be fixedly mounted on the ground or may be arranged in a mobile form to obtain simulation information.

지지암(130)은 수직 지지대(120)의 일측에 부착되어 카메라(110)를 지지한다.The support arm 130 is attached to one side of the vertical support 120 to support the camera 110.

지지암(130)과 수직 지지대(120)의 접촉영역에는 이동부 - 미도시됨 - 가 배치될 수 있으며 이동부는 모터, 실린더 등으로 구성될 수 있다.A moving part (not shown) may be disposed in a contact area between the supporting arm 130 and the vertical supporting part 120, and the moving part may be composed of a motor, a cylinder, or the like.

지지암(130)은 이동부를 통해 수직 지지대(120)를 따라 상하방향으로 이동하도록 구성된다.The support arm 130 is configured to move up and down along the vertical support 120 through the moving part.

또한, 지지암(130)과 카메라(110)의 접촉영역에는 회전부 - 미도시됨 - 가 배치될 수 있으며, 회전부는 카메라(110)를 360도 방향으로 회전시킬 수 있도록 구성될 수 있다.In addition, a rotation part (not shown) may be disposed in the contact area between the support arm 130 and the camera 110, and the rotation part may be configured to rotate the camera 110 in the 360 degree direction.

또한, 지지암(130)에는 수평레일 - 미도시됨 - 이 구비되어 카메라(110)가 수평레일을 따라 수평방향으로 이동할 수 있도록 구성된다.Also, the support arm 130 is provided with a horizontal rail (not shown) so that the camera 110 can move horizontally along the horizontal rail.

또한, 수직 지지대(120)에는 보조조명(140)이 배치될 수 있다. 본 실시예에서 보조조명(140)은 차량번호판을 촬영할 때 카메라(110)에 보조적인 조명을 제공하기 위해 배치되는 것이므로, 실시예에 따라 지지암(130)에 배치될 수도 있고, 현장 시설물(100)의 다양한 위치에 적어도 하나 이상이 배치될 수 있을 것이다.Further, auxiliary light 140 may be disposed on vertical support 120. In this embodiment, the auxiliary illumination 140 is disposed to provide auxiliary illumination to the camera 110 when photographing the license plate, and thus may be disposed on the support arm 130 according to an embodiment, At least one of which may be disposed at various positions.

또한, 현장 시설물(100)은 진입하는 차량의 전조등 위치를 감지하는 감지센서 - 미도시됨 - 를 더 포함하여 구성될 수 있다.In addition, the field facility 100 may further comprise a sensing sensor (not shown) for sensing the position of the headlight of an incoming vehicle.

이때, 감지센서에서 감지한 전조등 위치를 토대로 카메라(110)의 촬영방향이 자동으로 조절될 수 있다 즉, 차량의 종류에 따라 번호판의 수직위치 및 수평위치가 서로 다를 수 있다. 따라서 야간에는 차량의 전조등 위치를 기준으로 번호판의 위치를 예측하여 카메라(110)의 촬영방향이 자동조절됨으로써 차량번호 인식률을 향상시킬 수 있다.At this time, the photographing direction of the camera 110 can be automatically adjusted based on the position of the headlight detected by the detection sensor. That is, the vertical position and the horizontal position of the license plate may be different depending on the type of the vehicle. Accordingly, at the nighttime, the position of the license plate is predicted based on the position of the headlamp of the vehicle, and the photographing direction of the camera 110 is automatically adjusted, thereby improving the vehicle number recognition rate.

예를 들면 차량판독의 경우 차량의 전면에는 두 개의 전조등이 구비되는데, 감지센서는 각 전조등의 불빛을 감지하여 그 수직높이를 예측하고, 두 개의 전조등 불빛의 중간지점을 감지하여 그 수평위치를 예측할 수 있을 것이다.For example, in the case of a vehicle reading, two headlights are provided on the front of the vehicle. The sensor senses the light of each headlight, predicts the vertical height, senses the midpoint between the two headlights, It will be possible.

또한, 현장 시설물(100)은, 사람, 오토바이, 자전거, 우마차, 수레 및 경운기 중 미리 정의된 적어도 어느 하나 이상의 물체의 위치 및 거리를 감지하는 위치감지센서를 더 포함하여 구성될 수 있다.The on-site facility 100 may further include a position detection sensor for detecting a position and a distance of at least one predefined object among a person, a motorcycle, a bicycle, a cart, a wagon, and a cultivator.

이때, 위치감지센서에서 감지한 물체의 위치를 토대로 카메라(110)의 촬영방향, 수평위치 및 수직위치 중 적어도 하나 이상이 자동으로 조절될 수 있다. At this time, at least one of the photographing direction, the horizontal position, and the vertical position of the camera 110 can be automatically adjusted based on the position of the object sensed by the position sensing sensor.

위치감지센서는 사람, 오토바이, 자전거, 우마차, 수레 및 경운기의 형태, 움직임 정보, 움직임 속도, 위치 및 거리를 감지할 수 있는 센서이므로, 특정 이미지 종류에 따라 이미지 위치를 예측하여 카메라(110)의 촬영방향이 자동조절됨으로써 특정이미지 인식률을 향상시킬 수 있다. 즉, 위치감지센서에 감지한 물체의 형태, 움직임 정보, 움직임 속도, 위치 및 거리를 토대로 카메라(110)의 촬영방향이 자동조절될 수 있다.Since the position detection sensor is a sensor that can detect the shape, motion information, movement speed, position, and distance of a person, a motorcycle, a bicycle, a wagon, a cart and a cultivator, The photographing direction is automatically adjusted to improve the specific image recognition rate. That is, the photographing direction of the camera 110 can be automatically adjusted based on the type, motion information, motion speed, position, and distance of the object sensed by the position sensing sensor.

도 3 내지 도 3b는 지리정보서버(200)가 제공하는 현장 시설물(100) 주변의 3차원 지리정보를 나타낸 도면이다.FIGS. 3 to 3B are views showing three-dimensional geographical information around the on-site facility 100 provided by the geographical information server 200. FIG.

도 3을 참조하면, 지리정보서버(200)는 현장 시설물(100) 주변의 3차원 지리정보를 제공한다. 여기에서 3차원 지리정보는 현장 시설물(100)을 중심으로 소정의 반경에 해당하는 건물의 높이, 도로정보(너비, 고도차, 회전반경), 가로등 위치 등을 포함할 수 있다.Referring to FIG. 3, the geospatial information server 200 provides three-dimensional geographical information around the on-site facilities 100. Here, the three-dimensional geographical information may include the height of the building, the road information (width, altitude difference, turning radius), street lamp position, and the like corresponding to the predetermined radius around the site facility 100.

한편, 통합관제서버(300)는 지리정보서버(200)로부터 제공받은 현장 시설물(100) 주변의 3차원 지리정보에 날짜별 월광정보를 반영하여 현장 시설물(100) 주변의 시차적 광량분포를 3차원 영상형태로 제공한다. 시차적 광량분포는 지리정보에 투영되어 3차원 영상형태로 표시될 수 있다.On the other hand, the integrated control server 300 reflects the moonlight information by date on the three-dimensional geographical information around the on-site facility 100 provided from the geographical information server 200, Dimensional image format. The temporal light intensity distribution can be projected in geographic information and displayed in the form of a three-dimensional image.

또한, 통합관제서버(300)는 주변의 조명장치에 의해 현장 시설물(100)에 직접 입사되는 직접 조명정보와, 3차원 지리정보에 주변의 조명장치의 광량을 반영하여 현장 시설물(100)에 간접적으로 입사되는 간접 조명정보를 3차원 영상형태로 제공한다. In addition, the integrated control server 300 may directly reflect the direct illumination information directly incident on the on-site facility 100 by the surrounding lighting apparatus and the indirect illumination information on the on-site facilities 100 And provides indirect illumination information as a three-dimensional image.

직접 조명정보와 간접 조명정보에 의한 광량분포는 지리정보에 투영되어 3차원 영상형태로 표시될 수 있다. 또한, 직접 조명정보와 간접 조명정보는 각각 개별적으로 선택되어 표시될 수도 있고, 서로 중복되어 통합적인 광량분포로써 표시될 수도 있다.The light amount distribution by the direct illumination information and the indirect illumination information can be projected in the geographical information and displayed in the form of a three-dimensional image. In addition, the direct illumination information and the indirect illumination information may be individually selected and displayed, or may be displayed as an integrated light amount distribution overlapping each other.

여기에서 주변의 조명장치는 가로등과, 간판 등과 같은 야간에 일정 수준 이상의 광량을 출사하는 장치로 정의될 수 있다.Here, the surrounding lighting device can be defined as a device that emits light of a certain level or more at night such as a streetlight, a signboard, and the like.

참고적으로, 주변의 조명장치에 대한 정보는, 실제 복수의 조광센서를 배치하여 획득될 수도 있고, 가로등 및 간판 정보(위치, 밝기, 광출사 형태) 등의 정보를 제공받아 통합관제서버(300)에서 가상으로 직접 조명정보/간접 조명정보를 파악할 수도 있다.For reference, the information on the surrounding lighting apparatus may be obtained by arranging a plurality of actual light control sensors, receiving information such as streetlight and signboard information (position, brightness, light output form) ), It is possible to grasp the direct lighting information / indirect lighting information virtually.

또한, 도 3a를 참조하면, 지리정보서버(200)는 현장 시설물(100) 주변의 3차원 지리정보를 제공하며, 위성사진 또는 항공사진이 적용된 화면을 표시할 수 있다. 여기에서 3차원 지리정보는 현장 시설물(100)을 중심으로 소정의 반경에 해당하는 건물의 높이, 도로정보(너비, 고도차, 회전반경), 가로등 위치 등을 포함할 수 있다. 이때, 현장 시설물(100)을 선택할 경우, 현장의 사진이 확대되어 표시될 수 있다.3A, the geographical information server 200 provides three-dimensional geographical information around the on-site facilities 100, and can display a satellite image or a screen to which an aerial photograph is applied. Here, the three-dimensional geographical information may include the height of the building, the road information (width, altitude difference, turning radius), street lamp position, and the like corresponding to the predetermined radius around the site facility 100. At this time, when the field facility 100 is selected, a photograph of the site can be enlarged and displayed.

또한, 도 3b를 참조하면, 지리정보서버(200)는 선택된 현장 시설물(100) 주변의 2D/3D 영상을 정합 투영하여 표시할 수 있다.3B, the geographical information server 200 may display the 2D / 3D images around the selected site facility 100 by matching projection.

도 4는 통합관제서버(300)가 제공하는 현장 시설물(100) 주변의 조명정보를 나타낸 도면이다.4 is a diagram showing illumination information around the on-site facility 100 provided by the integrated control server 300. FIG.

상술한 바와 같이, 통합관제서버(300)는 직접 조명정보와 간접 조명정보에 의한 광량분포를 지리정보에 투영하여 3차원 영상형태로 표시할 수 있다.As described above, the integrated control server 300 can display the light amount distribution by direct lighting information and indirect lighting information on the geographical information and display it in the form of a three-dimensional image.

이때, 통합관제서버(300)는 현장 시설물(100)의 카메라(110)의 관점에서 광량분포를 표시할 수 있다.At this time, the integrated control server 300 can display the light amount distribution from the viewpoint of the camera 110 of the field facility 100.

도 4는 카메라(110)의 촬영 시점에서 광량분포가 표시된 것인데, 좌표(0,0) ~ (2,2) 범위는 카메라의 촬영범위에 해당하고, 각 좌표별 광량분포가 표시된다. 도 4는 카메라의 시점에서 표시된 것으로 2차원적인 광량분포가 도시되었으나, 시점전환에 따라 광량분포가 3차원적으로 표시될 수 도 있다. 즉, 공간적인 광량분포가 표시될 수 있다.4 shows the light amount distribution at the photographing time point of the camera 110. The range of coordinates (0,0) to (2,2) corresponds to the photographing range of the camera, and the light amount distribution for each coordinate is displayed. FIG. 4 shows a two-dimensional light amount distribution displayed at the viewpoint of the camera, but the light amount distribution may be three-dimensionally displayed according to the viewpoint change. That is, a spatial light amount distribution can be displayed.

또한, 통합관제서버(300)에서 카메라의 촬영범위를 벗어난 공간을 선택할 경우, 도 4에 선택된 영역(SEL1, SEL2)과 같이 해당 지역의 광량분포가 3차원적으로 표시될 수도 있다. 또한, 카메라(110)의 사각지역이 발생할 경우, 해당 사각지역이 표시될 수 있다.In addition, when the integrated control server 300 selects a space outside the photographing range of the camera, the light amount distribution of the area may be three-dimensionally displayed as in the selected areas SEL1 and SEL2 in FIG. In addition, when a rectangular area of the camera 110 occurs, the rectangular area can be displayed.

즉, 통합관제서버(300)는 카메라(110)의 촬영성능정보에 시차적 광량분포, 직접 조명정보 및 간접 조명정보 중 적어도 하나 이상을 적용하여 카메라(110)의 관점에서 광량분포를 3차원적으로 표시할 수 있고, 이러한 광량분포를 토대로 카메라(110)의 차량번호 인식률 및 물체 인식률을 시뮬레이션 할 수 있다.That is, the integrated control server 300 applies at least one or more of the time-lapse light amount distribution, the direct illumination information, and the indirect illumination information to the photographing performance information of the camera 110, , And it is possible to simulate the vehicle number recognition rate and the object recognition rate of the camera 110 based on the light amount distribution.

여기에서 카메라(110)의 촬영성능정보는 유효 화소수, 필터, 촬영 해상도, 압축률, 렌즈, 렌즈밝기, 초점거리, 초점조절방식, 촬영범위 등을 포함할 수 있다.Here, the photographing performance information of the camera 110 may include the number of effective pixels, a filter, a photographing resolution, a compression ratio, a lens, a lens brightness, a focal length, a focus adjustment method,

또한, 통합관제서버(300)는 카메라(110)의 촬영성능정보에 파악된 광량분포를 적용하며, 3차원 지리정보를 이용하여 가상의 차량이 이동하는 것으로 가정하고 카메라(110)의 차량번호 인식률 및 물체 인식률을 시뮬레이션 한다. 이때, 통합관제서버(300)는 가상의 차량이 카메라(110)가 배치된 방향으로 접근할 때, 거리별 차량번호 인식률을 제공할 수도 있다.In addition, the integrated control server 300 applies the light amount distribution determined in the photographing performance information of the camera 110, assumes that the virtual vehicle is moved using the three-dimensional geographical information, And object recognition rate. At this time, the integrated control server 300 may provide the vehicle number recognition rate per distance when the virtual vehicle approaches in the direction in which the camera 110 is disposed.

한편, 통합관제서버(300)는 야간의 기준환경(표준환경)에서 테스트 차량이 실제로 운행될 때, 카메라(110)가 실제로 획득한 기준촬영정보를 기준으로 이용할 수 있다. 즉, 이러한 기준촬영정보에 시차적 광량분포, 직접 조명정보, 간접 조명정보 및 진입하는 차량 전조등의 광량정보 중 적어도 하나 이상을 적용하여 카메라(110)의 차량번호 인식률 및 물체 인식률을 시뮬레이션 할 수도 있다.On the other hand, the integrated control server 300 can use the reference photographing information actually obtained by the camera 110 as a reference when the test vehicle is actually operated in a nightly reference environment (standard environment). That is, it is possible to simulate the vehicle number recognition rate and the object recognition rate of the camera 110 by applying at least one of the temporal light amount distribution, the direct illumination information, the indirect illumination information, and the light amount information of the entering vehicle headlight to the reference photographing information .

이와 같이, 통합관제서버(300)는 카메라(110)의 촬영성능정보에 시차적 광량분포, 직접 조명정보, 간접 조명정보 및 진입하는 가상 또는 테스트 차량 전조등의 광량정보 중 적어도 하나 이상을 적용하여 카메라(110)의 관점에서 광량분포를 3차원적으로 표시할 수 있고, 이러한 광량분포를 토대로 카메라(110)의 차량번호 인식률 및 물체 인식률을 시뮬레이션 할 수 있다.As described above, the integrated control server 300 applies at least one or more of the time-lapse light amount distribution, the direct lighting information, the indirect lighting information, and the light amount information of the entering virtual or test vehicle headlight to the photographing performance information of the camera 110, The light amount distribution can be displayed three-dimensionally from the viewpoint of the light source 110, and the vehicle number recognition rate and the object recognition rate of the camera 110 can be simulated based on the light amount distribution.

여기에서 카메라(110)의 촬영성능정보는 유효 화소수, 필터, 촬영 해상도, 압축률, 렌즈, 렌즈밝기, 초점거리, 초점조절방식, 촬영범위 등을 포함할 수 있다.Here, the photographing performance information of the camera 110 may include the number of effective pixels, a filter, a photographing resolution, a compression ratio, a lens, a lens brightness, a focal length, a focus adjustment method,

이때, 통합관제서버(300)는 카메라(110)의 촬영방향, 수평위치 및 수직위치를 추가적으로 각각 반영하여 카메라(110)의 차량번호 인식률 및 물체 인식률을 시뮬레이션 할 수도 있다.At this time, the integrated control server 300 may additionally reflect the photographing direction, the horizontal position, and the vertical position of the camera 110 to simulate the vehicle number recognition rate and the object recognition rate of the camera 110. [

또한, 통합관제서버(300)는, 현장 시설물(100) 주변의 3차원 지리정보를 이용하여 특정 위치에 적어도 하나 이상의 보조조명(140)을 가상으로 추가 반영한 후, 카메라(110)의 차량번호 인식률 및 물체 인식률을 시뮬레이션 할 수도 있다.In addition, the integrated control server 300 may additionally reflect at least one auxiliary illumination 140 at a specific position by virtually using the three-dimensional geographical information around the on-site facility 100, And object recognition rate.

도 2에 도시된 바와 같이, 보조조명(140)이 실제 설치되었을 경우, 보조조명(140)을 실제로 가동한 후 그 광량을 반영하여 카메라(110)의 차량번호 인식률 및 물체 인식률을 시뮬레이션 할 수도 있으며, 3차원 지리정보 상에서 보조조명을 가상으로 추가하여 카메라(110)의 차량번호 인식률 및 물체 인식률을 시뮬레이션 할 수도 있다.As shown in FIG. 2, when the auxiliary illumination 140 is actually installed, the auxiliary illumination 140 may be actually operated and then the reflected light amount may be reflected to simulate the vehicle number recognition rate and the object recognition rate of the camera 110 , It is possible to simulate the vehicle number recognition rate and the object recognition rate of the camera 110 by virtually adding the auxiliary illumination on the three-dimensional geographical information.

한편, 3차원 지리정보에 건물표면정보가 추가될 경우, 그 건물표면의 재질정보(콘크리트, 유리, 금속, 페인트 색상 등등)까지 고려한 후 날짜별 월광정보를 반영하여 현장 시설물(100) 주변의 시차적 광량분포를 3차원 영상형태로 제공할 수도 있을 것이다.When the building surface information is added to the three-dimensional geographical information, consideration is given to the material information (concrete, glass, metal, paint color, etc.) of the building surface, It is possible to provide the red light amount distribution in the form of a three-dimensional image.

이러한 건물표면정보는 미리 확보한 건물 데이터베이스로부터 제공받을 수도 있고, 통합관제서버(300)가 별도의 지도서버에 접속하여 현장 시설물(100) 주변의 로드뷰(ROAD VIEW) 또는 스트리트뷰(Street View)에 표시되는 건물의 재질을 객체인식하여 건물표면정보가 획득될 수도 있을 것이다.Such a building surface information may be provided from a previously secured building database or the integrated control server 300 may be connected to a separate map server to display a ROAD VIEW or a STREET VIEW, The building surface information may be obtained by recognizing the material of the building displayed on the screen.

또한, 통합관제서버(300)는 지리정보서버(200)로부터 제공받은 현장 시설물(100) 주변의 3차원 지리정보에 가상의 구름정보와, 날짜별 월광정보를 반영하여 현장 시설물(100) 주변의 시차적 광량분포를 3차원 영상형태로 제공할 수도 있다.The integrated control server 300 reflects virtual cloud information and moonlight information by date on the three-dimensional geographical information around the on-site facility 100 provided from the geographical information server 200, A temporal light amount distribution may be provided in the form of a three-dimensional image.

또한, 통합관제서버(300)는 지리정보서버(200)로부터 제공받은 현장 시설물(100) 주변의 3차원 지리정보를 이용하여, 카메라(110)로 접근하는 가상 또는 테스트 차량 주변을 이동하는 다른 차량의 전조등 정보를 가상으로 추가하여 현장 시설물(100) 주변의 시차적 광량분포를 3차원 영상형태로 제공할 수도 있다.In addition, the integrated control server 300 may use the three-dimensional geographical information around the on-site facilities 100 provided from the geographical information server 200, It is possible to provide the three-dimensional image form of the temporal light quantity distribution around the on-site facility 100 by virtually adding the headlight information of the headlight of the on-

또한, 통합관제서버(300)는 카메라(110)의 촬영성능정보에 시차적 광량분포, 직접 조명정보 및 간접 조명정보 중 적어도 하나 이상을 적용하여 카메라의 차량번호 인식률 및 물체 인식률을 시뮬레이션한 후, 카메라(110)의 촬영성능정보가 각각 변경되었을 때의 인식률 변화까지 제공함으로써, 목표된 인식률을 달성할 수 있는 카메라(110)를 용이하게 선정할 수 있다.In addition, the integrated control server 300 may simulate the vehicle number recognition rate and the object recognition rate of the camera by applying at least one of the temporal light amount distribution, the direct illumination information, and the indirect illumination information to the photographing performance information of the camera 110, It is possible to easily select the camera 110 capable of achieving the target recognition rate by providing the recognition rate change when the photographing performance information of the camera 110 is changed.

도 5는 생활 방범상의 특정이미지를 인식하는 과정을 도시한 도면이다.5 is a diagram illustrating a process of recognizing a specific image of a life crime scene.

도 5를 참조하면, 현장 시설물(100)에 구비된 위치감지센서는, 사람, 오토바이, 자전거, 우마차, 수레 및 경운기 중 미리 정의된 적어도 어느 하나 이상의 물체의 위치 및 거리를 감지할 수 있다.Referring to FIG. 5, the position sensor provided in the field facility 100 may detect the position and distance of at least one of a predetermined object, such as a person, a motorcycle, a bicycle, a cart, a wagon, and a cultivator.

제1 도면(51)은 위치감지센서에서 사람의 형태를 인식하는 동작을 도시한 것이며, 복수의 사람을 감지할 수 있도록 동작한다.The first figure 51 shows an operation of recognizing the shape of a person in the position detection sensor and operates to detect a plurality of persons.

제2 도면(52)은 자전거의 형태를 인식하는 동작을 도시한 것이며, 자전거의 형태 뿐만 아니라 자전거에 탑승한 사람까지 감지할 수 있도록 동작한다.The second figure 52 shows the operation of recognizing the shape of the bicycle, and operates not only in the form of a bicycle but also in a person who is on the bicycle.

제3 도면(53)은 경운기의 형태를 인식하는 동작을 도시한 것이며, 경운기의 형태 뿐만 아니라 경운기에 탑승한 복수의 사람까지 감지할 수 있도록 동작한다.The third figure 53 shows the operation of recognizing the shape of the cultivator, and it operates to detect not only the shape of the cultivator but also a plurality of persons aboard the cultivator.

제4 도면(54)은 우마차의 형태를 인식하는 동작을 도시한 것이며, 우마차의 형태 뿐만 아니라 우마차를 움직이는 동물까지 감지할 수 있도록 동작한다. 또한, 우마차에 실린 물체의 모양까지 감지할 수 있도록 동작한다.The fourth figure 54 illustrates the operation of recognizing the shape of the headwheel and operates to detect not only the shape of the headwheel but also the animal that moves the headwheel. In addition, it operates to detect the shape of the object mounted on the car.

제5 도면(55)은 오토바이를 인식하는 동작을 도시한 것이며, 오토바이 형태 뿐만 아니라 오토바이에 탑승한 복수의 사람까지 감지할 수 있도록 동작한다.FIG. 5 shows an operation for recognizing a motorcycle and operates to detect not only a motorcycle type but also a plurality of people aboard the motorcycle.

이때, 위치감지센서에서 감지한 물체의 위치를 토대로 카메라(110)의 촬영방향, 수평위치 및 수직위치 중 적어도 하나 이상이 자동으로 조절될 수 있다. At this time, at least one of the photographing direction, the horizontal position, and the vertical position of the camera 110 can be automatically adjusted based on the position of the object sensed by the position sensing sensor.

위치감지센서는 사람, 오토바이, 자전거, 우마차, 수레 및 경운기의 형태, 움직임 정보, 움직임 속도, 위치 및 거리를 감지할 수 있는 센서이므로, 특정 이미지 종류에 따라 이미지 위치를 예측하여 카메라(110)의 촬영방향이 자동조절됨으로써 특정이미지 인식률을 향상시킬 수 있다. 즉, 위치감지센서에 감지한 물체의 형태, 움직임 정보, 움직임 속도, 위치 및 거리를 토대로 카메라(110)의 촬영방향이 자동조절될 수 있다.Since the position detection sensor is a sensor that can detect the shape, motion information, movement speed, position, and distance of a person, a motorcycle, a bicycle, a wagon, a cart and a cultivator, The photographing direction is automatically adjusted to improve the specific image recognition rate. That is, the photographing direction of the camera 110 can be automatically adjusted based on the type, motion information, motion speed, position, and distance of the object sensed by the position sensing sensor.

본 발명의 실시예에 따른 야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템(1)은, 카메라가 구비된 현장 시설물의 환경조건을 고려하여 카메라의 차량번호 인식률 및 물체 인식률을 미리 시뮬레이션 할 수 있다. 따라서 시뮬레이션 결과를 고려하여 카메라와, 카메라의 설치위치, 보조조명의 위치를 용이하게 선정할 수 있다.The field analysis system (1) for improving the recognition rate of the nighttime car number and the life image of the life crime according to the embodiment of the present invention detects the car number recognition rate and the object recognition rate of the camera in consideration of the environmental conditions of the on- Can be simulated in advance. Therefore, considering the simulation results, it is possible to easily select the position of the camera, the installation position of the camera, and the position of the auxiliary illumination.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the embodiments described above are to be considered in all respects only as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

100 : 현장 시설물
110 : 카메라
120 : 수직 지지대
130 : 지지암
140 : 보조조명
200 : 지리정보서버
300 : 통합관제서버
100: On-site facilities
110: camera
120: vertical support
130: Support arm
140: auxiliary lighting
200: Geographic Information Server
300: Integrated control server

Claims (7)

진입하는 차량의 차량번호 및 미리 정의된 물체를 인식하는 카메라가 구비된 현장 시설물;
상기 현장 시설물 주변의 3차원 지리정보를 제공하는 지리정보서버; 및
상기 지리정보서버로부터 제공받은 상기 현장 시설물 주변의 3차원 지리정보에 날짜별 월광정보 및 가상의 구름정보를 반영하여 상기 현장 시설물 주변의 시차적 광량분포를 3차원 영상형태로 제공하고, 주변의 조명장치에 의해 상기 현장 시설물에 직접 입사되는 직접 조명정보와, 상기 3차원 지리정보에 주변의 조명장치의 광량을 반영하여 상기 현장 시설물에 간접적으로 입사되는 간접 조명정보를 3차원 영상형태로 제공하는 통합관제서버;를 포함하고,
상기 통합관제서버는, 상기 카메라의 촬영성능정보에 상기 시차적 광량분포, 상기 직접 조명정보, 상기 간접 조명정보 및 진입하는 차량 전조등의 광량정보 중 적어도 하나 이상을 적용하여 상기 카메라의 차량번호 인식률 및 물체 인식률을 시뮬레이션함에 있어서, 상기 3차원 지리정보에 건물표면정보가 포함될 경우, 건물표면의 재질정보를 추가로 고려하여 상기 시차적 광량분포를 산출하고, 상기 카메라로 접근하는 가상의 차량 주변의 차량 전조등 정보를 가상으로 추가하여 상기 시차적 광량분포를 산출하고, 상기 가상의 차량이 상기 카메라가 배치된 방향으로 접근할 때 거리별 차량번호 인식률을 제공하는 것을 특징으로 하는 야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템.
An on-site facility equipped with a camera for recognizing a vehicle number of an entering vehicle and a predefined object;
A geographical information server for providing three-dimensional geographical information around the on-site facilities; And
Dimensional light image distribution around the on-site facilities by reflecting the moonlight information and the virtual cloud information by date on the three-dimensional geographical information provided from the geographical information server and providing the three- Dimensional image data, indirect lighting information indirectly incident on the on-site facility by reflecting the amount of light of the surrounding lighting apparatus to the three-dimensional geographical information, A control server,
Wherein the integrated control server applies at least one of the temporal light amount distribution, the direct lighting information, the indirect lighting information, and the light amount information of the entering vehicle headlamp to the photographing performance information of the camera, In simulating the object recognition rate, when the building surface information is included in the three-dimensional geographical information, the temporal light amount distribution is further calculated by taking the material information of the building surface into consideration, Wherein the virtual vehicle identification information is virtually added to the headlight information to calculate the temporal light amount distribution and provides the vehicle number recognition rate for each distance when the virtual vehicle approaches the direction in which the camera is disposed. Field analysis system for improving recognition rate of specific image reading.
삭제delete 삭제delete 제1항에 있어서,
상기 통합관제서버는,
상기 카메라의 촬영방향, 수평위치 및 수직위치를 추가적으로 각각 반영하여 상기 카메라의 차량번호 인식률 및 상기 물체 인식률을 시뮬레이션 하는 것을 특징으로 하는 야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템.
The method according to claim 1,
The integrated control server,
The vehicle identification number and the object recognition rate of the camera are further reflected by respectively reflecting the photographing direction, the horizontal position, and the vertical position of the camera, so as to simulate the nightcar number and the object recognition rate. .
제1항에 있어서,
상기 통합관제서버는,
상기 현장 시설물 주변의 3차원 지리정보를 이용하여 특정 위치에 적어도 하나 이상의 보조조명을 가상으로 추가 반영한 후, 상기 카메라의 차량번호 인식률 및 상기 물체 인식률을 시뮬레이션 하는 것을 특징으로 하는 야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템.
The method according to claim 1,
The integrated control server,
Characterized in simulating the vehicle number recognition rate and the object recognition rate of the camera after additionally reflecting at least one or more auxiliary lights to a specific location using the three-dimensional geographical information around the on-site facility A Field Analysis System for Improving the Recognition Rate of a Specific Image.
제1항에 있어서,
상기 현장 시설물은,
진입하는 차량의 전조등 위치를 감지하는 감지센서;를 더 포함하며,
상기 감지센서에서 감지한 상기 전조등 위치를 토대로 상기 카메라의 촬영방향, 수평위치 및 수직위치 중 적어도 하나 이상을 자동조절하는 것을 특징으로 하는 야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템.
The method according to claim 1,
The on-
And a detection sensor for detecting the position of the headlamp of the entering vehicle,
A horizontal position and a vertical position of the camera on the basis of the headlight position detected by the detection sensor, and a field analysis system.
제6항에 있어서,
상기 현장 시설물은,
사람, 오토바이, 자전거, 우마차, 수레 및 경운기 중 미리 정의된 적어도 어느 하나 이상의 물체의 위치 및 거리를 감지하는 위치감지센서;를 더 포함하며,
상기 위치감지센서에서 감지한 상기 물체의 위치를 토대로 상기 카메라의 촬영방향, 수평위치 및 수직위치 중 적어도 하나 이상을 자동조절하는 것을 특징으로 하는 야간 차량번호 및 생활 방범상의 특정이미지 판독 인식률 향상을 위한 현장분석 시스템.
The method according to claim 6,
The on-
Further comprising: a position sensing sensor for sensing a position and a distance of at least one or more predefined objects among a person, a motorcycle, a bicycle, a wagon, a wagon, and a cultivator,
A horizontal position and a vertical position of the camera on the basis of the position of the object detected by the position detecting sensor. Field analysis system.
KR1020170102536A 2017-08-11 2017-08-11 Field analysis system for improving recognition rate of car number reading at night living crime prevention KR101934345B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170102536A KR101934345B1 (en) 2017-08-11 2017-08-11 Field analysis system for improving recognition rate of car number reading at night living crime prevention

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170102536A KR101934345B1 (en) 2017-08-11 2017-08-11 Field analysis system for improving recognition rate of car number reading at night living crime prevention

Publications (1)

Publication Number Publication Date
KR101934345B1 true KR101934345B1 (en) 2019-03-25

Family

ID=65907819

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170102536A KR101934345B1 (en) 2017-08-11 2017-08-11 Field analysis system for improving recognition rate of car number reading at night living crime prevention

Country Status (1)

Country Link
KR (1) KR101934345B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023022267A1 (en) * 2021-08-20 2023-02-23 주식회사 카탈로닉스 Nighttime luminosity data correcting method and utilizing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100735676B1 (en) * 2006-02-24 2007-07-06 조현덕 Operating system for model house with virtual reality and method thereof
KR20090067230A (en) 2007-12-21 2009-06-25 손승남 Camera control method for vehicle number plate recognition
KR20120027815A (en) * 2010-09-13 2012-03-22 엘지전자 주식회사 Apparatus for displaying image and method for operating the same
JP2013196392A (en) * 2012-03-19 2013-09-30 Fujitsu Ltd Vehicle image recognizing apparatus and vehicle image recognizing method
KR20160090464A (en) * 2015-01-21 2016-08-01 주식회사 히타치엘지 데이터 스토리지 코리아 Method for generating depth map in TOF camera
KR101720528B1 (en) * 2015-06-04 2017-03-28 렉스젠(주) System for enforcing illegal parking/stop vehicle and method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100735676B1 (en) * 2006-02-24 2007-07-06 조현덕 Operating system for model house with virtual reality and method thereof
KR20090067230A (en) 2007-12-21 2009-06-25 손승남 Camera control method for vehicle number plate recognition
KR20120027815A (en) * 2010-09-13 2012-03-22 엘지전자 주식회사 Apparatus for displaying image and method for operating the same
JP2013196392A (en) * 2012-03-19 2013-09-30 Fujitsu Ltd Vehicle image recognizing apparatus and vehicle image recognizing method
KR20160090464A (en) * 2015-01-21 2016-08-01 주식회사 히타치엘지 데이터 스토리지 코리아 Method for generating depth map in TOF camera
KR101720528B1 (en) * 2015-06-04 2017-03-28 렉스젠(주) System for enforcing illegal parking/stop vehicle and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023022267A1 (en) * 2021-08-20 2023-02-23 주식회사 카탈로닉스 Nighttime luminosity data correcting method and utilizing method

Similar Documents

Publication Publication Date Title
US11676254B2 (en) Systems and methods for positioning vehicles under poor lighting conditions
CN103770708B (en) The dynamic reversing mirror self adaptation dimming estimated by scene brightness is covered
US20060238617A1 (en) Systems and methods for night time surveillance
JP4970516B2 (en) Surrounding confirmation support device
JP6416085B2 (en) Gated imaging using applicable depth of field
CN100419813C (en) Omnibearing visual sensor based road monitoring apparatus
US8068154B2 (en) Digital camera with non-uniform image resolution
JP5357902B2 (en) Imaging device orientation detection device and moving body including the device
US20100329513A1 (en) Apparatus, method and computer program for determining a position on the basis of a camera image from a camera
CN110651301A (en) Method and system for automatically coloring night vision images
CN108197523A (en) Vehicle detection at night method and system based on image conversion and profile neighborhood difference
EP4396802A1 (en) Vehicle occupancy detection system
KR102445556B1 (en) Method of generating virtual data and device of generating thereof
EP3058508A1 (en) Method and system for determining a reflection property of a scene
JP2011209896A (en) Obstacle detecting apparatus, obstacle detecting method, and obstacle detecting program
KR101934345B1 (en) Field analysis system for improving recognition rate of car number reading at night living crime prevention
KR20220074283A (en) Field analysis system for improving recognition rate of car number reading at night living crime prevention
JP2016127312A (en) Imaging information processing unit and imaging information processing system
KR102435281B1 (en) Road accident detection system and method using a lamppost-type structure
CN107665332B (en) Intersection occupancy and vehicle flow calculation method and device
KR20240010115A (en) Vision System and Method for Detecting Black Ice and Learning Method for it
KR102612658B1 (en) Method of matching radar and camera coordinates
Tan et al. Thermal Infrared Technology-Based Traffic Target Detection in Inclement Weather
CN215117795U (en) Visibility determination device under low light level condition
CN118842987A (en) Target snapshot method, target quality evaluation method and related equipment