KR101502505B1 - Method for evaluating safety performance of target space and apparatus thereof - Google Patents

Method for evaluating safety performance of target space and apparatus thereof Download PDF

Info

Publication number
KR101502505B1
KR101502505B1 KR20130142119A KR20130142119A KR101502505B1 KR 101502505 B1 KR101502505 B1 KR 101502505B1 KR 20130142119 A KR20130142119 A KR 20130142119A KR 20130142119 A KR20130142119 A KR 20130142119A KR 101502505 B1 KR101502505 B1 KR 101502505B1
Authority
KR
South Korea
Prior art keywords
virtual
security
degree
space
region
Prior art date
Application number
KR20130142119A
Other languages
Korean (ko)
Inventor
김성모
이임평
박성용
Original Assignee
(주)코아텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)코아텍 filed Critical (주)코아텍
Priority to KR20130142119A priority Critical patent/KR101502505B1/en
Application granted granted Critical
Publication of KR101502505B1 publication Critical patent/KR101502505B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Remote Sensing (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Alarm Systems (AREA)

Abstract

The present invention relates to a method and a device thereof to evaluate a security safety grade for a target space. According to the present invention, provided are a method to evaluate a security safety grade for a target space, which includes s a step of modeling a 3D virtual space in which multiple virtual cameras are placed in response to the target space; a step of setting a moving path for a virtual object having a set size in the 3D virtual space; a step of separately obtaining photographing images from the virtual cameras while moving the virtual object along the moving path at set intervals; a step of calculating scores for each of the virtual cameras corresponding to a recognition degree of the virtual object in the photographing images, and adding up the scores; and a step of evaluating a security safety grade for the moving path or monitoring utilization degree for each of the virtual cameras by using the added scores calculated for each of the virtual cameras, and a method to evaluate a monitoring safety grade for sub areas made by dividing the target space at regular intervals. According to the method and the device thereof to evaluate a security safety grade, the monitoring safety grade for the target space in which security cameras are installed is evaluated in a 3D virtual space through simulation and thus, the utilization of a CCTV is improved and a more reliable and safer security environment is built.

Description

대상 공간에 대한 보안 안전도 평가방법 및 그 장치{Method for evaluating safety performance of target space and apparatus thereof}FIELD OF THE INVENTION [0001] The present invention relates to a method,

본 발명은 대상 공간에 대한 보안 안전도 평가방법 및 그 장치에 관한 것으로서, 보다 상세하게는 보안 카메라가 설치되는 대상 공간에 대한 보안 안전도를 평가할 수 있는 대상 공간에 대한 보안 안전도 평가방법 및 그 장치에 관한 것이다.The present invention relates to a method and an apparatus for evaluating security safety of a target space, and more particularly, to a method and system for evaluating security safety of a target space, .

국내에 CCTV가 도입된 이후 정보통신기술의 발달에 힘입어 현재의 CCTV는 인간을 포함한 동식물의 움직임을 감지하는 훌륭한 수단으로 활용되고 있다. 최근 범죄에 노출되는 환경이 증가하고, 성범죄, 특수범죄 등 부녀자들 및 사회적 약자들이 불안해하는 사회적 분위기가 확산되면서 CCTV 카메라의 활용과 배치가 증가하고 있다. 특히 인구 밀집 지역에서의 CCTV는 범죄의 예방 및 수사 분야로 활용 범위가 확대되면서 범죄 예방 효과로 인한 주민들의 심리적 안정을 가져오고 있다. Since the introduction of CCTV in Korea, CCTV has been used as an excellent means of detecting movements of animals and plants including human beings due to the development of information and communication technology. Recently, the use of CCTV cameras has been increasing due to the increase of the environment exposed to crime, the social atmosphere in which women and socially weak people such as sexual crimes and special crimes are anxious. In particular, the CCTV in the dense area has brought the psychological stability of the residents due to the crime prevention effect as the scope of application for crime prevention and investigation is expanded.

건설사업자들도 입주민들의 안전한 일상 생활을 돕도록 공공주택단지 내외에 CCTV를 설치하여 운영하고 있지만 입주민이 느끼는 안전에 대한 체감도는 부족한 실정이다. 범죄가 발생할 경우 일반적인 대응방안은 CCTV의 설치대수를 늘리거나 카메라 화소수를 증가시키는 등 하드웨어의 수량증가나 성능향상을 우선 추진하고 있으며, CCTV를 배치할 경우에는 실내외를 막론하고 평면도를 기반으로 CCTV의 초점방향과 화각을 표시하여 정하는 것에 치우치고 있는 실정이다. 따라서, 하드웨어적인 투자뿐만 아니라 소프트웨어적인 접근을 통해 감시 효율성 및 안전성 측면에도 관심을 가져야 할 시점이다. Construction companies are also installing CCTV in and out of public housing complexes to help the residents to live their daily lives safely, but the feeling of safety felt by residents is insufficient. In case of crime, the general countermeasures are to increase the number of CCTV installations or to increase the number of pixels of the camera. In case of CCTV, The focus direction and the angle of view are displayed. Therefore, it is time to pay attention not only to the hardware investment but also to the monitoring efficiency and safety through software approach.

일반적으로 건물 또는 장소의 소유자들은 공동주택 단지 내의 지상 및 지하 CCTV를 자체 기준에 따라 설치하고 있으나 설계자의 재량에 의존하고 있으며, CCTV카메라 별 효율성에 대한 검증과 CCTV가 탐지하지 못하는 영역에 대한 고려가 전혀 이루어지지 않고 있어 이에 대한 정량적인 접근이 필요하다. 즉, 현재까지는 배치된 CCTV의 설치 위치나 각도에 따른 감시 효율성에 대한 평가는 이루어지지 않고 있다. 공간정보적인 관점에서 보면, 최근 지하공간의 활용도가 커지면서 지하주차장의 규모나 통로의 방향 등이 복잡해지고 있어 보다 정량적인 접근이 필요한 상황이 도래하였다. 이에 소프트웨어적인 접근을 통해 CCTV의 활용도를 증가시킬 수 있다면 동일한 예산으로 국민들의 안전 향상에 더욱 기여할 수 있을 것이다.Generally, the owner of the building or place installs the ground and underground CCTV in the apartment complex according to their own standards, but relies on the designer's discretion. The verification of efficiency by CCTV cameras and the consideration of areas that CCTV can not detect This is not done at all and a quantitative approach is needed. That is, up to now, there has been no evaluation on the monitoring efficiency depending on the installation location or angle of the CCTVs deployed. From the viewpoint of spatial information, as the utilization of underground space has recently increased, the scale of the underground parking lot and the direction of the passageway have become complicated, so that a more quantitative approach is required. If we can increase the utilization of CCTV through a software approach, we can contribute to the safety improvement of the people with the same budget.

본 발명의 배경이 되는 기술은 한국등록특허 제1310238호(2013.09.12 등록)에 개시되어 있다.The technology to be a background of the present invention is disclosed in Korean Registered Patent No. 1310238 (registered on Sep. 13, 2013).

본 발명은, 보안 카메라들이 설치되는 대상 공간에 대한 감시 안전도를 시뮬레이션을 통해 평가할 수 있는 대상 공간에 대한 보안 안전도 평가방법 및 그 장치를 제공하는데 목적이 있다.An object of the present invention is to provide a security security evaluation method and apparatus for a target space in which security surveillance about a target space in which security cameras are installed can be evaluated through simulation.

본 발명은, 대상 공간에 대응하여 복수의 가상 카메라가 배치된 3차원 가상 공간을 모델링하는 단계와, 상기 3차원 가상 공간 내에서 기 설정된 크기를 갖는 가상 물체에 대한 이동 경로를 설정하는 단계와, 상기 가상 물체를 상기 이동 경로를 따라 설정 간격으로 이동시키면서 상기 복수의 가상 카메라로부터 촬상 영상을 각각 획득하는 단계와, 상기 가상 카메라별로, 상기 촬상 영상 내에서의 상기 가상 물체의 인식 정도에 대응하는 점수를 상기 설정 간격마다 연산하여 합산하는 단계, 및 상기 가상 카메라별로 연산된 상기 합산된 점수를 이용하여 각각의 가상 카메라에 대한 감시 활용도 또는 상기 이동 경로에 대한 보안 안전도를 평가하는 단계를 포함하는 대상 공간에 대한 보안 안전도 평가방법을 제공한다.The present invention relates to a method for designing a virtual space, the method comprising the steps of: modeling a three-dimensional virtual space in which a plurality of virtual cameras are arranged corresponding to a target space; setting a movement path for a virtual object having a predetermined size in the three- A step of acquiring a captured image from each of the plurality of virtual cameras while moving the virtual object at a set interval along the movement path; and a step of acquiring a score corresponding to the degree of recognition of the virtual object in the captured image Calculating a surveillance degree for each virtual camera using the summed score calculated for each virtual camera or a security security degree for the moving route; To provide a method for evaluating the security safety of the system.

여기서, 상기 보안 안전도는 상기 합산된 점수에 비례하며, 상기 가상 물체의 인식 정도는, 상기 가상 물체에 대해 기 설정된 관심 부위의 인식 정도에 해당할 수 있다.Here, the security degree of security is proportional to the summed score, and the degree of recognition of the virtual object may correspond to the degree of recognition of the region of interest predetermined for the virtual object.

또한, 상기 가상 물체가 아바타인 경우 상기 관심 부위는 머리 부위이고, 상기 가상 물체가 차량인 경우 상기 관심 부위는 번호판 부위일 수 있다.Also, if the virtual object is an avatar, the region of interest is a head region, and if the virtual object is a vehicle, the region of interest may be a license plate region.

또한, 상기 가상 물체의 인식 정도는, 상기 촬상 영상 내에서 인식된 상기 관심 부위에 대한 픽셀 단위의 촬상 크기에 해당할 수 있다.In addition, the degree of recognition of the virtual object may correspond to the imaging size of the pixel of interest pertaining to the region of interest recognized in the captured image.

또한, 상기 인식 정도에 대응하는 점수는, 상기 관심 부위에 대해 기 알고 있는 픽셀 단위의 기준 크기와 대비한 상기 촬상 크기의 비에 대응하는 점수일 수 있다.In addition, the score corresponding to the recognition degree may be a score corresponding to the ratio of the imaging size to the reference size in units of pixels known to the interested region.

여기서, 상기 복수의 가상 카메라는, 상기 대상 공간에 설치된 복수의 보안 카메라의 위치 및 각도에 대응하여 상기 3차원 가상 공간상에 각각 모델링되어 있으며, 상기 인식 정도에 대응하는 점수는, 상기 촬상 영상 내에서 인식된 상기 관심 부위에 대해 인식된 픽셀 단위의 가로 크기에 대응하는 점수 및 세로 크기에 대응하는 점수의 평균 또는 곱이되, 상기 인식된 가로 크기를 상기 가상 카메라의 시선과 상기 가상 물체의 이동 방향을 각각 지표면에 투영하여 얻은 사이 각도를 통해 보정한 값과, 상기 인식된 세로 크기를 상기 가상 카메라의 시선과 상기 가상 물체의 이동 방향을 각각 상기 지표면과 수직인 평면에 투영하여 얻은 사이 각도를 통해 보정한 값을 점수 환산에 사용할 수 있다.Here, the plurality of virtual cameras are respectively modeled on the three-dimensional virtual space in correspondence with the positions and angles of the plurality of security cameras installed in the target space, and the score corresponding to the recognition degree is the Is a mean or a product of a score corresponding to a horizontal size recognized per pixel unit recognized for the region of interest and a score corresponding to the vertical size, and the recognized horizontal size is calculated as a direction of movement of the virtual camera Obtained by projecting the image of the virtual object on the surface of the virtual object, and a value obtained by projecting the recognized vertical size on a plane perpendicular to the ground surface, The corrected value can be used to convert the score.

그리고, 본 발명은, 대상 공간에 대응하여 복수의 가상 카메라가 배치된 3차원 가상 공간을 모델링하는 단계와, 상기 3차원 가상 공간을 복수의 서브 구역으로 분할하는 단계와, 상기 서브 구역마다 기 설정된 크기를 갖는 가상 물체를 배치하여 상기 복수의 가상 카메라로부터 촬상 영상을 각각 획득하는 단계와, 상기 서브 구역 각각에 대하여, 상기 복수의 카메라에 대한 상기 촬상 영상 내에서의 상기 가상 물체의 인식 정도에 대응하는 점수를 연산하여 상기 복수의 가상 카메라별로 합산하는 단계, 및 상기 서브 구역별로 연산된 상기 합산된 점수를 이용하여 각각의 서브 구역에 대한 보안 안전도를 평가하는 단계를 포함하는 대상 공간에 대한 보안 안전도 평가방법을 제공한다.The present invention also provides a method of designing a virtual space, comprising the steps of: modeling a three-dimensional virtual space in which a plurality of virtual cameras are arranged corresponding to a target space; dividing the three-dimensional virtual space into a plurality of sub- A step of acquiring a captured image from each of the plurality of virtual cameras by arranging a virtual object having a size corresponding to the degree of recognition of the virtual object in the captured image with respect to each of the plurality of sub- And summing the scores for each of the plurality of virtual cameras; and evaluating security security for each subarea using the summed scores calculated for each subarea. And provides a method for evaluating the degree of the road.

여기서, 상기 보안 안전도는 상기 합산된 점수에 비례하며, 상기 대상 공간에 대한 보안 안전도 평가방법은, 상기 각각의 서브 구역을 상기 평가된 보안 안전도에 대응하는 색상으로 표시하는 단계를 더 포함할 수 있다.Here, the security security degree is proportional to the summed score, and the security security degree evaluation method for the target space may further include displaying each of the sub zones with a color corresponding to the evaluated security degree of safety have.

또한, 상기 가상 물체는 아바타 또는 차량이며, 상기 가상 물체의 인식 정도는, 상기 가상 물체에 대해 기 설정된 관심 부위인 상기 아바타의 머리 부위 또는 상기 차량의 번호판 부위의 인식 정도에 해당하며, 상기 인식 정도에 대응하는 점수는, 상기 촬상 영상 내에서 인식된 상기 관심 부위를 구성하는 픽셀 개수에 대응하는 점수일 수 있다.The virtual object is an avatar or a vehicle, and the degree of recognition of the virtual object corresponds to a degree of recognition of a head part of the avatar or a license plate part, which is a predetermined interested area with respect to the virtual object, May be a score corresponding to the number of pixels constituting the region of interest recognized in the captured image.

또한, 상기 대상 공간에 대한 보안 안전도 평가방법은, 상기 가상 공간을 구성하는 바닥면 또는 상기 바닥면과 수직인 가상의 면을 각각의 서브 구역마다 상기 가상 물체로 설정하여, 각각의 서브 구역에 대한 상기 바닥면의 보안 안전도를 더 평가할 수 있다.Also, the security security evaluation method for the object space may include setting a virtual surface on the bottom surface or the virtual surface perpendicular to the bottom surface constituting the virtual space to the virtual object in each subarea, It is possible to further evaluate the security security degree of the bottom surface.

그리고, 본 발명은 대상 공간에 대응하여 복수의 가상 카메라가 배치된 3차원 가상 공간을 모델링하는 3차원 모델링부와, 상기 3차원 가상 공간 내에서 기 설정된 크기를 갖는 가상 물체에 대한 이동 경로를 설정하는 경로 설정부와, 상기 가상 물체를 상기 이동 경로를 따라 설정 간격으로 이동시키면서 상기 복수의 가상 카메라로부터 촬상 영상을 각각 획득하는 영상 획득부와, 상기 가상 카메라별로, 상기 촬상 영상 내에서의 상기 가상 물체의 인식 정도에 대응하는 점수를 상기 설정 간격마다 연산하여 합산하는 점수 환산부, 및 상기 가상 카메라별로 연산된 상기 합산된 점수를 이용하여 각각의 가상 카메라에 대한 감시 활용도 또는 상기 이동 경로에 대한 보안 안전도를 평가하는 안전도 평가부를 포함하는 대상 공간에 대한 보안 안전도 평가장치를 제공한다.The three-dimensional modeling unit includes a three-dimensional modeling unit for modeling a three-dimensional virtual space in which a plurality of virtual cameras are arranged in correspondence with the object space, a moving path setting unit for setting a moving path for a virtual object having a predetermined size in the three- An image acquiring unit for acquiring a captured image from each of the plurality of virtual cameras while moving the virtual object along a moving path at a set interval; A point conversion unit for calculating and adding a score corresponding to the degree of recognition of an object for each of the setting intervals; and a monitoring utilization for each virtual camera or a security for the moving route using the summed scores calculated for each virtual camera A security safety evaluation device for a target space including a safety evaluation part for evaluating safety Provided.

그리고, 본 발명은, 대상 공간에 대응하여 복수의 가상 카메라가 배치된 3차원 가상 공간을 모델링하는 3차원 모델링부와, 상기 3차원 가상 공간을 복수의 서브 구역으로 분할하는 구역 분할부와, 상기 서브 구역마다 기 설정된 크기를 갖는 가상 물체를 배치하여 상기 복수의 가상 카메라로부터 촬상 영상을 각각 획득하는 영상 획득부와, 상기 서브 구역 각각에 대하여, 상기 복수의 카메라에 대한 상기 촬상 영상 내에서의 상기 가상 물체의 인식 정도에 대응하는 점수를 연산하여 상기 복수의 가상 카메라별로 합산하는 점수 환산부, 및 상기 서브 구역별로 연산된 상기 합산된 점수를 이용하여 각각의 서브 구역에 대한 보안 안전도를 평가하는 안전도 평가부를 포함하는 대상 공간에 대한 보안 안전도 평가장치를 제공한다.The three-dimensional modeling unit includes: a three-dimensional modeling unit for modeling a three-dimensional virtual space in which a plurality of virtual cameras are arranged in correspondence with the object space; a zone dividing unit for dividing the three-dimensional virtual space into a plurality of sub- An image acquiring unit for arranging a virtual object having a predetermined size in each of the subareas to acquire a captured image from each of the plurality of virtual cameras; and an image acquiring unit for acquiring, for each of the subareas, A score conversion unit for calculating a score corresponding to the degree of recognition of a virtual object and summing the score corresponding to the plurality of virtual cameras; and a safety evaluation unit for evaluating a security security degree for each subarea using the summed scores calculated for each subarea And an evaluation unit for evaluating the security of the object space.

여기서, 상기 보안 안전도는 상기 합산된 점수에 비례하며, 상기 안전도 평가부는, 상기 각각의 서브 구역을 상기 평가된 보안 안전도에 대응하는 색상으로 표시할 수 있다.Here, the security degree of safety is proportional to the sum of the scores, and the safety degree evaluation unit may display each of the sub-zones in a color corresponding to the evaluated security degree of security.

본 발명에 따른 대상 공간에 대한 보안 안전도 평가방법 및 그 장치에 따르면, 보안 카메라들이 설치되는 대상 공간에 대한 감시 안전도를 3D 가상 공간상에서 시뮬레이션을 통해 평가할 수 있다. 즉, 본 발명은, CCTV의 설치 위치나 각도에 따른 감시 효율성을 소프트웨어적인 접근을 통하여 효과적으로 평가할 수 있으며 CCTV의 활용도를 높일 수 있다. 나아가, 대상 공간에 대하여 가장 효과적인 CCTV의 배치 또는 재배치를 유도할 수 있으며 보다 안전하고 신뢰감 있는 보안 환경을 구축할 수 있는 이점이 있다.According to the method and apparatus for evaluating security security of a target space according to the present invention, monitoring safety of a target space in which security cameras are installed can be evaluated through simulation in a 3D virtual space. That is, the present invention can effectively evaluate the monitoring efficiency according to the installation location and angle of CCTV through a software approach, and can increase the utilization of CCTV. Furthermore, it is possible to induce the most effective CCTV placement or relocation to the target space, and there is an advantage that a more secure and reliable security environment can be established.

도 1은 본 발명의 제1 실시예에 따른 대상 공간에 대한 보안 안전도 평가장치의 구성도이다.
도 2는 도 1을 이용한 보안 안전도 평가방법의 흐름도이다.
도 3은 도 2의 방법에 따라 지하 주차장을 3차원 모델링한 예시도이다.
도 4는 도 3의 일부 확대도이다.
도 5는 도 3에 대해 주요 이동 경로를 설정한 예시도이다.
도 6은 도 2의 방법에 사용된 아바타를 정의한 예시도이다.
도 7은 도 2의 방법에서 가상 카메라에 의한 아바타의 촬영 예를 나타낸다.
도 8은 본 발명의 제2 실시예에 따른 대상 공간에 대한 보안 안전도 평가장치의 구성도이다.
도 9는 도 8을 이용한 보안 안전도 평가방법의 흐름도이다.
도 10은 도 8의 방법을 통해 분석 가능한 각 구역(바닥)의 감시 안전도를 색상 범례로 구분한 것이다.
도 11은 도 8의 방법을 이용하여 바닥 자체의 보안 안전도를 평가한 결과를 나타낸다.
도 12는 도 8의 방법에서 자동차 번호판을 촬영하는 개념도를 나타낸다.
도 13은 도 8의 방법을 이용하여 자동차 번호판을 대상으로 각 구역별 보안 안전도를 평가한 결과를 나타낸다.
도 14는 도 8의 방법에서 아바타를 촬영하는 개념도를 나타낸다.
도 15는 도 8의 방법을 이용하여 아바타를 대상으로 각 구역별 보안 안전도를 평가한 결과를 나타낸다.
도 16은 도 11, 도 13, 도 15의 결과를 통합하여 나타낸 것이다.
FIG. 1 is a block diagram of an apparatus for evaluating security security of a target space according to a first embodiment of the present invention.
FIG. 2 is a flowchart of a security security evaluation method using FIG. 1. FIG.
FIG. 3 is an example of a three-dimensional modeling of an underground parking lot according to the method of FIG.
4 is a partially enlarged view of Fig.
Fig. 5 is an example of setting a main movement route for Fig. 3. Fig.
FIG. 6 is an exemplary view illustrating an avatar used in the method of FIG. 2; FIG.
Fig. 7 shows an example of photographing of an avatar by a virtual camera in the method of Fig.
FIG. 8 is a block diagram of an apparatus for evaluating security security of a target space according to a second embodiment of the present invention.
FIG. 9 is a flowchart of a security security evaluation method using FIG. 8. FIG.
FIG. 10 is a diagram illustrating the monitoring safety degree of each area (floor) analyzed through the method of FIG. 8 by color legend.
FIG. 11 shows a result of evaluating security security of the floor by using the method of FIG. 8. FIG.
Fig. 12 shows a conceptual diagram of photographing license plates in the method of Fig. 8. Fig.
FIG. 13 shows the result of evaluating the security degree of security for each license plate by using the method of FIG.
Fig. 14 shows a conceptual diagram for photographing an avatar in the method of Fig. 8. Fig.
FIG. 15 shows a result of evaluating the security security degree of each zone for the avatar using the method of FIG.
Fig. 16 shows the results of Figs. 11, 13, and 15 in an integrated fashion.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention.

본 발명은 대상 공간에 대한 보안 안전도 평가를 위한 것으로서, 대상 공간에 배치되는 보안 카메라(ex, CCTV)의 감시 효율성을 3D 모델링에 기반한 시뮬레이션을 통하여 소프트웨어적으로 판단할 수 있고 이를 통해 보다 안전하고 신뢰성 있는 보안 환경을 구축할 수 있다.The present invention is for evaluating the safety and security of a target space. It is possible to determine the monitoring efficiency of a security camera (ex. CCTV) disposed in a target space through software simulation using 3D modeling, A reliable security environment can be established.

일반적으로 대상 공간(ex, 지하 주차장)에는 여러 대의 CCTV(이하, 보안 카메라)가 해당 위치에 설정 각도로 설치된다. 기존의 경우 대상 공간에 대한 설계 평면도를 기반으로 보안 카메라의 위치 및 각도를 임의로 결정하고 있다. 그러나 이는 보안 카메라의 감시 효율을 직접 반영한 것이 아니므로 보안 카메라가 탐지하지 못하는 영역이 발생할 수 있으며 보안 안전도가 떨어지는 문제가 있다.Generally, a plurality of CCTVs (hereinafter referred to as security cameras) are installed in the target space (ex, underground parking lot) at a predetermined angle. In the conventional case, the position and angle of the security camera are arbitrarily determined based on the design plan of the target space. However, this does not directly reflect the surveillance efficiency of the security camera, which may cause an area that the security camera can not detect, and there is a problem in that the security security is lowered.

본 실시예의 경우 대상 공간에 설치 예정인 또는 기 설치되어 있는 보안 카메라들의 설치 위치 및 각도에 따른 보안 안전도를 소프트웨어적인 접근을 통하여 효과적으로 평가할 수 있다.In the case of this embodiment, it is possible to effectively evaluate the security security degree according to the installation position and angle of the security cameras to be installed or installed in the target space through a software approach.

이하의 본 실시예에서는 상기 대상 공간이 지하 주차장과 같은 실내 공간인 것을 예시로 하나 본 발명이 반드시 이에 한정되지 않는다. 즉, 상기 대상 공간은 보안 카메라가 배치될 수 있는 실내 또는 실외의 어떠한 장소라도 무관하다. 이하에서는 본 발명의 실시예에 따른 대상 공간에 대한 보안 안전도 평가 장치 및 방법에 관하여 상세히 설명한다. In the following embodiment, the target space is an indoor space such as an underground parking lot, but the present invention is not necessarily limited thereto. That is, the object space is indoors or outdoors where the security camera can be placed. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an apparatus and method for evaluating security security of a target space according to an embodiment of the present invention will be described in detail.

도 1은 본 발명의 제1 실시예에 따른 대상 공간에 대한 보안 안전도 평가장치의 구성도이고, 도 2는 도 1을 이용한 보안 안전도 평가방법의 흐름도이다. 도 1 및 도 2를 참조하면, 본 발명의 제1 실시예에 따른 보안 안전도 평가장치(100)는 3차원 모델링부(110), 경로 설정부(120), 영상 획득부(130), 점수 환산부(140), 안전도 평가부(150)를 포함한다.FIG. 1 is a block diagram of an apparatus for evaluating security and safety of a target space according to a first embodiment of the present invention, and FIG. 2 is a flowchart of a method for evaluating security and security using FIG. 1 and 2, the apparatus 100 for evaluating security of safety according to the first embodiment of the present invention includes a three-dimensional modeling unit 110, a path setting unit 120, an image obtaining unit 130, A conversion unit 140, and a safety evaluation unit 150.

먼저, 상기 3차원 모델링부(110)는 대상 공간에 대응하여 복수의 가상 카메라가 배치된 3차원 가상 공간을 모델링한다(S210). 이러한 S210 단계는 대상 공간에 기 설치된 또는 설치 예정인 복수의 보안 카메라의 설치 위치 및 각도에 대응하도록, 3차원 가상 공간 상에 복수의 가상 카메라를 각각 모델링하는 과정이다.First, the three-dimensional modeling unit 110 models a three-dimensional virtual space in which a plurality of virtual cameras are arranged corresponding to a target space (S210). The step S210 is a process of modeling a plurality of virtual cameras on the three-dimensional virtual space, respectively, corresponding to the installation positions and angles of the plurality of security cameras installed in the target space or expected to be installed.

일반적으로 실내 공간은 많은 요소들로 구성된다. 본 실시예의 경우 실내 공간에 배치된 보안 카메라의 감시 성능을 공간적으로 분석하는 것이므로 모든 실내 공간 요소들을 고려할 필요는 없다. 또한 일반적으로 보안 카메라는 시야각 확보를 위해 천정에 부착되는 구조물(각종 배관, VMS 등) 중 제일 하단에 배치되는 경향이 있다. 따라서, 본 실시예에서 실내 공간 정보는 바닥, 기둥, 벽체, 주차면, 진출입구를 구성 요소로 정의한다. 바닥, 벽체, 진출입구, 주차면은 면 정보로, 기둥은 단면 및 높이 정보로 입력한다. 천정의 경우는 타 구성 요소의 조회에 지장을 줄 수 있기 때문에 실내 공간 정보의 모델링 구성요소에 포함하지 않는다. 이상과 같은 3D 모델링에 필요한 정보들은 지하주차장 평면도, 지하주차장 단면도(종횡단면도), 주차장 출입구 상세도 등을 통해 취득할 수 있다.In general, indoor space is composed of many elements. In the present embodiment, since the surveillance performance of the security camera disposed in the indoor space is spatially analyzed, it is not necessary to consider all indoor space factors. Also, in general, a security camera tends to be disposed at the bottom of a structure (various piping, VMS, etc.) attached to a ceiling for securing a viewing angle. Accordingly, in the present embodiment, the indoor space information defines the floor, the pillar, the wall, the parking surface, and the entry entrance as constituent elements. Floor, wall, entry entrance, and parking surface are entered as surface information, and columns are entered as section and height information. In case of ceiling, it is not included in the modeling component of indoor spatial information because it may interfere with inquiry of other components. The information necessary for 3D modeling can be obtained through the floor plan of underground parking lot, the sectional view of the underground parking lot (vertical and horizontal sectional view), and the details of the parking lot entrance and exit.

도 3은 도 2의 방법에 따라 지하 주차장을 3차원 모델링한 예시도이다. 이러한 도 3은 임의의 지하 주차장에 대한 실내 공간 정보를 3D 모델링 한 것이다. 실내 공간 정보의 구성 요소는 벽체, 기둥, 바닥, 주차면, 진출입구로 하였고 공동주택 단지 내의 각 구성 요소는 개별 색상으로 정의하고 있다. 바닥은 회색, 기둥은 파란색, 벽체는 연두색, 진출입구는 검은색, 주차면은 갈색으로 표현되어 있다. 물론 이러한 구성요소별 색상은 하나의 실시예에 해당되며 언제든지 변경 가능하다.FIG. 3 is an example of a three-dimensional modeling of an underground parking lot according to the method of FIG. FIG. 3 is a 3D model of indoor space information for an arbitrary underground parking lot. The components of the indoor spatial information are wall, pillar, floor, parking surface, entrance entrance, and each component in the apartment complex is defined as individual color. The floor is gray, the pillars are blue, the walls are green, the entrance is black, and the parking side is brown. Of course, the color of each component corresponds to one embodiment and can be changed at any time.

도 4는 도 3의 일부 확대도이다. 도 3 및 도 4를 참조하면, 3차원 공간상에 복수의 가상 카메라가 개별 위치에 배치된 것을 확인할 수 있다. 또한 각 가상 카메라의 시선(방향 벡터) 및 화각 정보는 그에 대응되는 적색 및 연두색 실선으로 도시되어 있다4 is a partially enlarged view of Fig. Referring to FIG. 3 and FIG. 4, it can be seen that a plurality of virtual cameras are arranged at individual positions on the three-dimensional space. In addition, the line of sight (direction vector) and the angle of view information of each virtual camera are shown by corresponding red and green solid lines

상기 S210 단계 시에 각각의 가상 카메라의 위치, 방향 벡터, 화각 등은 현장 또는 설계도에서 조사된 바에 따라 배치된다. 설계도에서 조사된 바를 활용할 때는 보안 카메라의 문서화된 사양 및 2D 배치 결과물을 토대로 가상 카메라가 3D 모델링된다. 현장조사 결과를 반영할 때는 표식을 실공간에 배치하고 가상공간과 실공간을 매핑시키는 방법, 및 실공간의 표식이 촬상부에 맺히는 픽셀수를 계산함으로써 카메라의 초점거리, 화소, 촬상부 유효크기 등 카메라 사양을 측정하는 방법을 사용할 수 있다.In step S210, the position, the direction vector, the angle of view, and the like of each virtual camera are arranged according to the field or the design scheme. When exploiting the design diagrams, the virtual camera is 3D modeled on the basis of the documented specifications of the security camera and the resulting 2D layout. In order to reflect the results of the field survey, a method of arranging the markers in the real space and mapping the virtual space and the real space, and a method of calculating the number of pixels of the real space markings on the image pickup unit, A method of measuring the camera specifications can be used.

참고로, 10m 거리에서 1.7m 키의 사람을 1/3인치 CCD 카메라를 이용하여 화면 가득히 촬영할 경우, 렌즈의 초점 거리 'f = (피사체와의 거리 × CCD의 유효 세로 높이) / 피사체 크기' 식에 의하여, f = (10000mm × 3.6mm) / 1700mm = 21.17mm가 된다. 이 식에 의하여 렌즈의 치수는 25mm 이상인 것이 적절함을 알 수 있다.For reference, if a person with a height of 1.7 m is photographed with a 1/3 inch CCD camera at a distance of 10 m, the focal length of the lens 'f = (distance from the subject x effective vertical height of the CCD) / subject size' F = (10000 mm x 3.6 mm) / 1700 mm = 21.17 mm. It can be seen from this equation that the size of the lens is preferably 25 mm or more.

이와 관련하여 표 1은 CCD 호칭별 가로 및 세로 치수 환산표를 나타낸다.Table 1 shows the horizontal and vertical dimension conversion tables for each CCD type.

크기 호칭=inch/mmSize nominal = inch / mm 계산상의 치수(mm)Calculation Dimensions (mm) 유효화면 치수(mm)Effective screen size (mm) 대각선(지름D)Diagonal (diameter D) 가로 WHorizontal W 세로 HVertical H 가로 wHorizontal w 세로 hHeight h 1" / 25.41 "/ 25.4 20.320.3 15.215.2 12.812.8 9.69.6 2/3" / 17.02/3 "/ 17.0 13.613.6 10.310.3 8.88.8 6.66.6 1/2" / 12.71/2 "/ 12.7 10.210.2 7.67.6 6.46.4 4.84.8 1/3" / 8.451/3 "/ 8.45 6.76.7 5.05.0 4.84.8 3.63.6 1/4" / 6.351/4 "/ 6.35 5.15.1 3.83.8 3.63.6 2.72.7

이상과 같이 3차원 가상 공간이 모델링된 이후에는, 경로 설정부(120)는 상기 3차원 가상 공간 내에서 기 설정된 크기를 갖는 가상 물체에 대한 이동 경로를 설정한다(S220). After the 3D virtual space is modeled as described above, the path setting unit 120 sets a movement path for a virtual object having a predetermined size in the 3D virtual space (S220).

본 실시예에서는 가상 카메라의 3D 모델링 이후 가상 물체(ex, 아바타)의 동선(이동 경로)을 정의한다. 이 동선을 통하여 아바타를 이동시키면서 기 배치된 가상 카메라들이 이 아바타를 어느 정도로 감시할 수 있는지를 평가하고, 이를 점수로 정량화한다. 물론, 이동 경로 설정 시에는 대상 공간에 종속된 적어도 하나의 입출구의 위치를 감안하도록 한다. 가상 물체의 크기에 관한 설명은 후술할 것이다.In the present embodiment, a moving line (moving path) of a virtual object (ex, avatar) is defined after 3D modeling of the virtual camera. As the avatar is moved through this line, it is evaluated how much the virtual cameras can monitor the avatar and the number of points is quantified. Of course, at the time of setting the moving route, the position of at least one I / O port dependent on the target space is taken into consideration. A description of the size of the virtual object will be given later.

상기 S220 단계는 우선 실내 공간에 대한 보행자의 주 이동 경로를 추정한다. 이때 적절한 경로 개수 선정이 필요하며, 출입구를 감안하여 주 이동 경로를 설정한다. 여기서 이동 경로는 차량 동선과 겹치지 않게 주차 공간 사이의 길 중앙에서 주차 공간 쪽으로 다소 치우치게 설정할 수 있다. 아파트 지하주차장의 경우 동별 거주자의 주차 구역이 일반적으로 해당 동 출입구 인근으로 정해져 있으므로 각 동 출입구 당 3~4개의 표준 이동 경로를 설정할 수 있다.In step S220, the main moving path of the pedestrian to the indoor space is estimated. In this case, it is necessary to select an appropriate number of routes, and set the main route considering the entrance. Here, the movement route can be set to be slightly offset toward the parking space from the center of the road between the parking spaces so as not to overlap with the vehicle motion line. In the case of the underground parking lot of the apartment, since the parking area of the residents by the east is generally set near the same entrance, three to four standard travel routes can be set for each entrance.

도 5는 도 3에 대해 주요 이동 경로를 설정한 예시도로서, 이동 경로는 점선으로 나타내고 있다. 현장 내에는 3개의 계단실이 있다(A, B, C). 각 계단실을 이용하는 입주민들은 보통 그에 가까운 곳에서 주차를 하게 된다. 각 계단실 별로 3~4개의 대표 경로를 추정하였다. 그 경로의 이름은 각각 A-1, A-2, A-3, A-4, B-1, B-2, B-3, B-4, C-1, C-2, C-3으로 한다. 이와 같이 아파트 각 동 입출입구별로 수개 정도의 이동경로를 추정하여 시뮬레이션을 수행한다. 물론, 시뮬레이션에 사용할 경로는 반드시 도 5의 예로 한정되지 않으며, 도시하지 않은 다양한 경로를 시뮬레이션 대상으로 설정할 수 있음은 물론이다. 이러한 경로 설정은 3D 모델링된 각 구성요소의 속성 및 위치를 고려하여 시스템에서 자동으로 수행할 수도 있고 사용자로부터 직접 입력받아 수행할 수도 있다.Fig. 5 is an example in which a main movement route is set with respect to Fig. 3, and the movement route is indicated by a dotted line. There are three stairwells in the site (A, B, C). Residents using each staircase usually park close to it. Three to four representative routes were estimated for each staircase. The names of the routes are A-1, A-2, A-3, A-4, B-1, B-2, B-3, B-4, C-1, C-2 and C-3 do. In this way, simulations are performed by estimating several travel routes for each apartment. Of course, the path to be used for the simulation is not necessarily limited to the example shown in FIG. 5, and various paths (not shown) may be set as a simulation target. This path setting can be performed automatically by the system in consideration of the attributes and position of each component of the 3D modeling, or can be directly input from the user.

이후, 영상 획득부(130)는 상기 가상 물체를 상기 이동 경로를 따라 설정 간격(ex, 1m 간격)으로 이동시키면서 상기 복수의 가상 카메라로부터 촬상 영상을 각각 획득한다(S230). 이러한 영상 획득의 과정 또한 가상 공간에서 수행되는 시뮬레이션의 한 과정에 해당된다.Thereafter, the image obtaining unit 130 obtains the captured images from the plurality of virtual cameras while moving the virtual object along the moving path at a set interval (ex, interval of 1 m) (S230). This image acquisition process is also a process of simulation performed in virtual space.

가상 물체는 아바타 또는 차량에 해당될 수 있다. 구체적으로는 아바타의 경우 머리 부위에 대한 촬영 인식 정도를, 차량의 경우 번호판 부위에 대한 촬영 인식 정도를 안전도 평가에 반영할 수 있다. 이러한 각 부위는 범죄 검거에 활용되기 용이한 부위에 해당되므로 다른 부위보다 관심 있게 감시될 필요성이 있다.The virtual object may correspond to an avatar or a vehicle. Specifically, it is possible to reflect the recognition degree of the head part in the case of the avatar and the degree of the photographing recognition in the case of the license plate in the safety degree evaluation in the case of the vehicle. Each of these areas is a part that is easy to use for crime arrest, so it needs to be watched more carefully than other parts.

본 실시예의 경우 대상 공간에 대한 보안 및 안전과 관련하여 범죄자를 모사한 아바타를 사용한다. 도 6은 도 2의 방법에 사용된 아바타를 정의한 예시도이다. 아바타는 머리 부위와 몸통 부위로 간단히 정의된다. 산업통상자원부 기술표준원의 인체치수자료를 활용하여, 범죄자는 30~34세의 남성으로 가정하였고, 그에 따른 평균 키는 1724.43mm 이며, 머리수직길이 평균은 213.09mm, 머리너비 평균은 153.06mm이다. 도 6의 아바타의 크기는 이러한 내용을 반영한 것이다.In the case of this embodiment, an avatar simulating a criminal is used in relation to security and safety of the target space. FIG. 6 is an exemplary view illustrating an avatar used in the method of FIG. 2; FIG. The avatar is simply defined as the head and torso. Using the body dimension data of the Ministry of Commerce, Industry and Energy, the criminals were assumed to be men aged 30 to 34, with an average height of 1724.43 mm, an average head vertical length of 213.09 mm and an average head width of 153.06 mm. The size of the avatar of FIG. 6 reflects this.

다음, 점수 환산부(140)는 상기 가상 카메라별로, 상기 촬상 영상 내에서의 상기 가상 물체의 인식 정도에 대응하는 점수를 상기 설정 간격마다 연산하여 합산한다(S240). 이후, 안전도 평가부(150)는 상기 가상 카메라별로 연산된 상기 합산된 점수를 이용하여 각각의 가상 카메라에 대한 감시 활용도 또는 상기 이동 경로에 대한 보안 안전도를 평가한다(S250).Next, the score conversion unit 140 calculates a score corresponding to the degree of recognition of the virtual object in the captured image for each virtual camera for each setting interval, and adds the calculated score (S240). Thereafter, the safety evaluation unit 150 evaluates security utilization degree for each virtual camera or security security degree for the movement route using the summed scores calculated for each virtual camera (S250).

여기서, 상기 가상 물체의 인식 정도란, 상기 가상 물체에 대해 기 설정된 관심 부위의 인식 정도에 해당할 수 있다. 즉, 가상 물체가 아바타인 경우 그 관심 부위는 머리 부위이고, 가상 물체가 차량인 경우 그 관심 부위는 번호판 부위에 해당할 수 있다. Here, the degree of recognition of the virtual object may correspond to the degree of recognition of the region of interest predetermined for the virtual object. That is, if the virtual object is an avatar, the region of interest is the head region, and if the virtual object is a vehicle, the region of interest may correspond to the license plate region.

본 실시예에서는 가상 물체의 대상 변경이 가능하다. 이에 따르면 가상 물체의 대상별로 카메라의 효율을 개별 판단할 수 있다. 카메라의 감시 효율은 그 인식 대상 부위의 위치(높이, 크기 등)에 따라 상이하게 나타날 수 있다. 사람의 머리 부위는 일반적으로 자동차 번호판 부위보다 상대적으로 높은 위치에 있다. 즉, 해당 공간에서 카메라의 시선 및 화각이 어떻게 설정되어 있는지에 따라, 사람의 머리 부위 및 차량 번호판 부위를 모두 효과적으로 인식할 수 있거나, 어느 하나만 효과적으로 인식할 수도 있으며, 혹은 모두 제대로 인식하지 못할 수 있다.In this embodiment, the object of the virtual object can be changed. According to this, the efficiency of the camera can be determined individually for each object of the virtual object. The monitoring efficiency of the camera may vary depending on the position (height, size, etc.) of the recognition target site. The human head is generally located at a relatively higher position than the license plate area. That is, depending on how the line of sight and the angle of view of the camera are set in the space, the head portion and the license plate portion of the person can be recognized effectively, or only one of them can be recognized effectively, .

이하에서는 설명의 편의를 위하여 가상 물체가 아바타인 경우를 예시하여 설명한다. 본 실시예에서는 상기 이동 경로에 따라 아바타를 특정 간격(ex, 1m)으로 이동시키면서 해당 아바타에 대한 가상 카메라별 인식 정도를 점수화한다. Hereinafter, for convenience of explanation, a case in which a virtual object is an avatar will be exemplified. In this embodiment, the avatar is moved to a specific interval (ex, 1m) according to the movement route, and the degree of recognition of the avatar by the virtual camera is scored.

1m1m 2m2m 3m3m 4m4m 5m5m 합계Sum 가상카메라1Virtual Camera 1 30점30 points 40점40 points 50점50 points 30점30 points 20점20 points 170점170 points 가상카메라2Virtual camera 2 -- 10점10 points 20점20 points 10점10 points -- 40점40 points 가상카메라3Virtual Camera 3 10점10 points 30점30 points 10점10 points -- -- 50점50 points

이러한 표 2는 하나의 임의 이동 경로에 대하여 아바타를 1m 간격으로 이동시키면서 주변의 가상 카메라 1~3으로부터 아바타의 이동 위치마다 그 인식 정도에 대응하는 점수를 획득한 결과이다. 이동 간격에 따른 합산 결과를 보면, 가상 카메라 1이 가장 점수가 높은 것을 알 수 있다. 여기서, 각각의 카메라의 감시 활용도는 상기 합산된 점수에 비례한다. 즉, 상기 임의 이동 경로에 대한 감시 활용도는 가상 카메라 1이 가장 높으며, 가상 카메라 2,3은 감시 활용도가 상대적으로 낮은 것을 알 수 있다. 이러한 결과로부터, 가상 카메라 2,3에 대응하는 두 보안 카메라의 경우 그 설치 위치, 방향 또는 각도의 재설정을 유도할 수 있다.Table 2 shows the results obtained by moving the avatar at intervals of 1 m for one arbitrary moving route while obtaining scores corresponding to the recognition degree for each moving position of the avatar from the surrounding virtual cameras 1 to 3. The result of summation according to the movement interval shows that the virtual camera 1 has the highest score. Here, the surveillance utilization of each camera is proportional to the summed score. That is, the virtual camera 1 has the highest monitoring utilization for the random movement path, and the virtual cameras 2 and 3 have relatively low monitoring utilization. From these results, in the case of two security cameras corresponding to the virtual cameras 2 and 3, it is possible to induce resetting of the installation position, direction or angle.

앞서 표 2의 예는 설명의 편의를 위하여 하나의 이동 경로에 대하여 그 주변의 가상 카메라의 감시 활용도를 평가한 것이다. 물론, 설정된 모든 이동 경로에 대하여 이와 동일한 방법으로 가상 카메라의 감시 활용도를 평가할 수 있다. 또한 상기 이동 경로 상의 가상 카메라 1,2,3의 인식점수의 총 합계는 해당 이동 경로에 대한 보안 안전도를 나타내므로, 타 이동 경로 상의 보안 안전도와 상대적인 비교를 통한 카메라 재배치, 보완, 감소에 대한 의사결정을 수행할 수 있다.In the example of Table 2, for the sake of convenience of explanation, the monitoring utilization of the virtual camera in the vicinity of one moving route is evaluated. Of course, the monitoring utilization of the virtual camera can be evaluated in the same manner for all the set travel paths. Further, since the total sum of the recognition scores of the virtual cameras 1, 2, and 3 on the movement path indicates the security degree of security for the movement route, the doctor for relocation, supplementation, and reduction A determination can be made.

이하에서는 도 2의 S240 단계에 의한 가상 물체의 인식 내지 점수 환산 과정을 상세히 설명한다. 본 발명의 실시예에서 가상 물체의 인식 정도란, 촬상 영상 내에서 인식된 관심 부위에 대한 픽셀 단위의 촬상 크기에 해당한다. 즉, 아바타의 인식 정도는 가상 카메라에 인식된 머리 부위에 대한 픽셀 단위의 촬상 크기에 해당한다. 이때, 머리 부위의 가로 크기, 세로 크기 중 적어도 하나를 활용할 수 있다.Hereinafter, the process of recognizing or scoring a virtual object in step S240 of FIG. 2 will be described in detail. In the embodiment of the present invention, the degree of recognition of a virtual object corresponds to the imaging size in units of pixels for the region of interest recognized in the captured image. That is, the recognition degree of the avatar corresponds to the imaging size per pixel for the head part recognized by the virtual camera. At this time, at least one of the horizontal size and the vertical size of the head part can be utilized.

도 7은 도 2의 방법에서 가상 카메라에 의한 아바타의 촬영 예를 나타낸다. 이 가상 카메라에 대응하는 보안 카메라의 CCD 크기, CCD 화소, 초점 거리는 이미 알고 있다. 또한, 3차원 모델링 환경에서 가상 카메라의 감시방향선 벡터a와 아바타 얼굴 정면벡터 b 사이의 각도를 계산할 수 있으며, 렌즈의 중심으로부터 얼굴(머리)의 중심까지의 거리 c를 계산할 수 있다. 그리고, 일반적으로 모르는 사람의 식별을 위해서는 1ft에 80 픽셀이 필요하다고 알려져 있으므로, 1cm에는 2.625 픽셀이 필요하다. 지하주차장의 경우 통상 3.6~8mm 의 초점렌즈를 가지는 카메라를 많이 사용한다. Fig. 7 shows an example of photographing of an avatar by a virtual camera in the method of Fig. The CCD size, CCD pixel, and focal length of the security camera corresponding to this virtual camera are already known. Also, in the three-dimensional modeling environment, the angle between the surveillance direction line vector a of the virtual camera and the avatar face front surface vector b can be calculated, and the distance c from the center of the lens to the center of the face (head) can be calculated. And, since it is generally known to require 80 pixels per foot to identify a stranger, 2.625 pixels per centimeter is required. In the case of underground car parks, a lot of cameras with a focus lens of 3.6 ~ 8mm are often used.

도 7의 예에서, 초점거리 8mm, 세로 픽셀수 1,080개의 1/3″CCD 카메라를 통하여 10m 떨어져 있는 범죄행위자 아바타의 머리를 관찰한다고 할 경우, 'CCD상의 얼굴 높이 = (초점거리 × 실제 얼굴 높이) / 거리 c' = (8mm × 213.09mm) / 10000mm = 0.17 mm가 된다. In the example of FIG. 7, when the head of the criminal actor's avatar 10 m away is observed through a 1/3 "CCD camera having a focal length of 8 mm and 1,080 vertical pixels, the height of the face on the CCD = (focal distance x actual face height ) / Distance c '= (8 mm x 213.09 mm) / 10000 mm = 0.17 mm.

여기서, CCD의 세로 높이는 계산상 5.0mm 이므로, 5mm 내의 세로 픽셀 개수는 1,080일 때, 0.17mm 내의 세로 픽셀 개수는 (1,080픽셀 × 0.17mm) / 5mm = 약 36 픽셀이 된다. 즉, 픽셀 단위의 세로 크기는 36으로 환산된다. 물론, 이와 비슷한 방법으로 얼굴의 너비(가로 길이) 또한 픽셀 단위로 환산할 수 있다.Here, since the vertical height of the CCD is 5.0 mm in calculation, when the number of vertical pixels within 5 mm is 1,080, the number of vertical pixels within 0.17 mm is (1,080 pixels x 0.17 mm) / 5 mm = about 36 pixels. That is, the vertical size in pixel units is converted to 36. Of course, the width of the face (width) can also be converted in pixels in a similar way.

그런데, 얼굴의 가로 크기는 가상 카메라의 시선(방향 벡터a)과 아바타의 이동 방향(벡터b)을 각각 지표면에 투영하여 얻은 사이 각도에 영향을 받으며, 얼굴의 세로 크기는 가상 카메라의 시선(방향 벡터a)과 아바타의 이동 방향(벡터b)을 각각 상기 지표면과 수직인 평면에 투영하여 얻은 사이 각도에 영향을 받을 수 있다. The horizontal size of the face is influenced by the angle between the gaze of the virtual camera (direction vector a) and the direction of movement of the avatar (vector b) on the ground surface, and the vertical size of the face is the gaze direction of the virtual camera The vector a) and the direction of movement of the avatar (vector b), respectively, on a plane perpendicular to the above-mentioned ground surface.

따라서, 앞서 픽셀 단위의 세로 크기는 36 픽셀로 환산되었으나 상기 기울임 각도가 45°로 관측되면 cos45°=1/2을 36 픽셀에 반영하여, 세로 크기를 18 픽셀로 보정한다. 만약, 픽셀의 가로 크기는 30 픽셀로 환산되었으며 벡터 a,b 간의 각도가 45°로 관측되면 동일한 방법을 사용하여 가로 크기를 15 픽셀로 보정한다.Accordingly, the vertical size of the pixel unit is converted into 36 pixels. If the tilt angle is 45 degrees, cos45 = 1/2 is reflected in 36 pixels, and the vertical size is corrected to 18 pixels. If the horizontal size of the pixel is converted to 30 pixels and the angle between the vectors a and b is observed at 45 degrees, the horizontal size is corrected to 15 pixels using the same method.

여기서 본 발명의 실시예에서는 아바타의 머리 부위에 대한 인식 정도에 대응하는 점수를 연산할 수 있는데, 이 점수는 머리 부위에 대해 기 알고 있는 픽셀 단위의 기준 크기와 대비한 상기 촬상 크기의 비에 대응하여 구해진다. 이외에도 별도의 점수 환산 없이 픽셀 단위의 크기 자체(상기 보정된 가로 크기 및 보정된 세로 크기의 곱)를 감시 안전도 평가에 이용할 수도 있다.Here, in the embodiment of the present invention, a score corresponding to the degree of recognition of the head portion of the avatar can be calculated, which corresponds to the ratio of the imaging size to the reference size of the pixel unit, . In addition, the pixel size itself (the corrected horizontal size and the corrected vertical size product) may be used for monitoring safety evaluation without additional conversion of the score.

가로 크기 및 세로 크기에 대한 점수 환산은 사람 식별을 위하여 실제 1cm당 2.625 픽셀(1cm당 적정 픽셀수)이 필요하다는 점을 이용한다. The score conversion for horizontal size and vertical size utilizes the fact that 2.625 pixels per 1cm (number of pixels per 1cm) is required for human identification.

아바타 머리의 세로 크기는 21.309cm이며 이를 인식하기 위해서는 21.309×2.625 = 총 56 픽셀을 필요로 한다. 그런데, 도 7에서 실제 인식된 세로 크기는 18 픽셀이므로, 56 픽셀을 100점으로 하면 18 픽셀은 32점(=(18/52)×100)이 된다. 이와 동일한 원리로, 아바타 머리의 가로 크기 또한 실제 가로 크기인 15.306cm를 이용하여 그에 대응하는 점수로 환산하면 된다.The vertical size of the avatar head is 21.309 cm, and it requires 21.309 × 2.625 = 56 pixels in total to recognize it. However, since the vertical size actually recognized in Fig. 7 is 18 pixels, if 56 pixels are 100 points, 18 pixels become 32 points (= (18/52) x 100). With this same principle, the horizontal size of the avatar head is also converted to the corresponding score using the actual horizontal size of 15.306 cm.

본 발명의 실시예에서는 아바타를 촬영하여 얻은 가로 크기의 점수 및 세로 크기의 점수의 평균 값(또는 곱한 값)을 감시 안전도 평가에 사용할 수 있다. 앞서, 표 2의 경우 아바타를 1m 간격으로 이동시키면서 주변의 가상 카메라 1~3으로부터 머리 부위의 인식 정도에 대응하는 점수를 획득한 결과로서, 각 셀의 점수는 해당 카메라에서 각각의 아바타 이동 위치마다 인식된 머리 부위의 가로 크기의 점수 및 세로 크기의 점수를 평균한 값에 해당된다. 예를 들어, 표 2에서 아바타가 1m 이동 시 가상 카메라 1로부터 얻어진 아바타의 인식 점수인 30점은 가로 크기의 점수 28점과 세로 크기의 점수 32점의 평균 값에 해당될 수 있다.In the embodiment of the present invention, the average value (or the multiplied value) of the score of the horizontal size and the score of the vertical size obtained by photographing the avatar can be used for the monitoring safety evaluation. In the case of Table 2, as a result of acquiring the score corresponding to the degree of recognition of the head part from the surrounding virtual cameras 1 to 3 while moving the avatar at intervals of 1 m, the score of each cell is calculated for each avatar moving position It corresponds to the average of the horizontal size and the vertical size of the recognized head part. For example, in Table 2, 30 points of the avatar obtained from the virtual camera 1 when the avatar moves 1m may be an average value of 28 points of the horizontal size and 32 points of the vertical size.

물론, 본 발명의 실시예의 경우 이와 같은 점수의 환산 없이, 가로 크기의 픽셀 개수 및 세로 크기의 픽셀 개수의 곱을 감시 안전도 평가에 직접 사용할 수도 있다.Of course, in the embodiment of the present invention, the multiplication of the number of pixels of the horizontal size and the number of the pixels of the vertical size can directly be used for the monitoring safety evaluation without converting the scores.

이하에서는 제1 실시예와는 달리 대상 공간을 형성하는 바닥의 감시 안전도를 평가하는 방법을 설명한다. 이는 실내 공간에 대한 바닥 단위면적별로 감시 안전도를 평가하는 방법에 해당된다.Hereinafter, a method for evaluating the monitoring safety degree of the floor forming the object space will be described, unlike the first embodiment. This is a method of evaluating the monitoring safety by the floor unit area of the indoor space.

도 8은 본 발명의 제2 실시예에 따른 대상 공간에 대한 보안 안전도 평가장치의 구성도이고, 도 9는 도 8을 이용한 보안 안전도 평가방법의 흐름도이다. 도 8 및 도 9를 참조하면, 본 발명의 제2 실시예에 따른 보안 안전도 평가장치(200)는 3차원 모델링부(210), 구역 분할부(220), 영상 획득부(230), 점수 환산부(240), 안전도 평가부(250)를 포함한다.FIG. 8 is a block diagram of an apparatus for evaluating security security of a target space according to a second embodiment of the present invention, and FIG. 9 is a flowchart of a method of evaluating security security using FIG. 8 and 9, an apparatus 200 for assessing security of safety according to a second embodiment of the present invention includes a three-dimensional modeling unit 210, a region dividing unit 220, an image obtaining unit 230, A conversion unit 240, and a safety evaluation unit 250.

먼저, 3차원 모델링부(210)는 대상 공간에 대응하여 복수의 가상 카메라가 배치된 3차원 가상 공간을 모델링한다(S910). 이러한 S210 단계는 앞서 제1 실시예의 3차원 모델링 과정을 참조한다.First, the three-dimensional modeling unit 210 models a three-dimensional virtual space in which a plurality of virtual cameras are arranged corresponding to the object space (S910). The step S210 refers to the three-dimensional modeling process of the first embodiment.

다음, 구역 분할부(220)는 상기 3차원 가상 공간을 복수의 서브 구역으로 분할한다(S920). 이는 대상 공간에 대응하는 3차원 가상 공간을 복수의 서브 구역으로 분할하는 과정으로서, 보다 상세하게는 실내 공간을 구성하는 전체 바닥을 단위 면적별로 그리드 형태로 분할하는 과정에 해당될 수 있다. 예를 들어, 전체 바닥을 1.5m×1.5m 크기의 복수의 정방향 그리드로 분할할 수 있다.Next, the area dividing unit 220 divides the 3D virtual space into a plurality of sub-areas (S920). This is a process of dividing a three-dimensional virtual space corresponding to a target space into a plurality of sub-zones, and more particularly, dividing the entire bottoms constituting the indoor space into grid shapes by unit area. For example, the entire floor can be divided into a plurality of forward grids of 1.5 m by 1.5 m in size.

영상 획득부(230)에는 상기 서브 구역마다 가상 물체를 배치하여 상기 복수의 가상 카메라로부터 촬상 영상을 각각 획득한다(S930). 여기서, 서브 구역에 배치되는 가상 물체는 기 설정된 크기를 가지며, 그 종류는 아바타, 차량(or 번호판), 또는 가상의 면(바닥면 자체 또는 상기 바닥면과 수직인 가상의 면)에 해당될 수 있다. 가상 물체를 어떤 물체로 사용하느냐에 따라 각 서브 구역에 대한 사람, 번호판, 바닥의 감시 안전도를 분석할 수 있다.The image acquiring unit 230 arranges virtual objects in the subareas and acquires the captured images from the plurality of virtual cameras, respectively (S930). Here, the virtual object disposed in the sub-zone has a predetermined size, and its type may correspond to an avatar, a vehicle (or license plate), or a virtual surface (virtual surface that is perpendicular to the bottom surface or the bottom surface) have. You can analyze the monitoring safety of people, license plates, and floors for each sub-zone depending on which object the virtual object is used for.

이후, 점수 환산부(240)는 상기 서브 구역 각각에 대하여, 상기 복수의 카메라에 대한 상기 촬상 영상 내에서의 상기 가상 물체의 인식 정도에 대응하는 점수를 연산하여 상기 복수의 가상 카메라별로 합산한다(S940).Thereafter, the score conversion unit 240 calculates a score corresponding to the degree of recognition of the virtual object in the sensed image with respect to each of the plurality of cameras, for each of the sub-zones, and sums each of the plurality of virtual cameras S940).

여기서, 가상 물체의 인식 정도란, 가상 물체에 대해 기 설정된 관심 부위인 아바타의 머리 부위, 또는 차량의 번호판 부위의 인식 정도에 각각 해당한다. 물론, 가상의 면을 가상 물체로 사용한 경우, 이 가상의 면 자체에 대한 카메라의 인식 정도를 의미한다.  Here, the degree of recognition of the virtual object corresponds to the degree of recognition of the head portion of the avatar, which is the predetermined region of interest, with respect to the virtual object, or the license plate portion of the vehicle, respectively. Of course, when a virtual surface is used as a virtual object, it means the degree of recognition of the camera with respect to the virtual surface itself.

상기 S940 단계는, 예를 들면, 제1 서브 구역에 아바타를 배치한 다음, 주변의 모든 가상 카메라에서의 아바타의 인식 정도를 판단하여 그 결과를 합산한다. 제2 서브 구역 또한 상기 아바타를 배치한 다음, 동일한 방법으로 주변의 모든 가상 카메라로부터 아바타의 인식 정도를 판단하고 그 결과를 합산한다. In step S940, for example, the avatars are arranged in the first sub-zone, and then the degree of recognition of the avatars in all surrounding virtual cameras is determined and the results are summed. After arranging the avatars in the second sub-zone, the degree of awareness of the avatars is determined from all surrounding virtual cameras in the same manner, and the results are summed.

여기서, 상기 인식 정도에 대응하는 점수는 상기 촬상 영상 내에서 인식된 상기 관심 부위를 구성하는 픽셀 개수에 대응하는 점수에 해당할 수 있다. 즉, 앞서 제1 실시예와 유사한 방법으로, 상기 관심 부위에 대해 기 알고 있는 기준 픽셀 개수를 100점으로 하여 이와 대비한 각각의 가상 카메라의 인식된 픽셀 개수의 비를 이용하여 점수를 환산하고 이를 카메라 별로 합산할 수 있다. 물론, 점수를 환산하는 방법 이외에 픽셀 개수 자체를 점수로 사용할 수도 있다. Here, the score corresponding to the recognition degree may correspond to a score corresponding to the number of pixels constituting the region of interest recognized in the captured image. That is, similar to the first embodiment, the number of reference pixels known to the region of interest is set to 100 points, and the score is converted using the ratio of the number of recognized pixels of each virtual camera It can be added by camera. Of course, you can also use the number of pixels itself as a score in addition to converting the score.

또한, 이러한 제2 실시예의 경우 아바타의 머리 형태는 제1 실시예와 달리 구의 형태를 가진 구면체를 사용할 수 있다. 만약 구면체가 아닌 제1 실시예와 같은 형태인 경우 아바타를 8개 방향으로 회전시키면서 카메라별 촬영 영상을 획득하여 감시 성능을 평가할 수도 있다. In the second embodiment, the head shape of the avatar may be a spherical shape having a spherical shape, unlike the first embodiment. If the avatar is not a spherical body but has the same shape as that of the first embodiment, the avatar may be rotated in eight directions to acquire a camera-specific shot image to evaluate the surveillance performance.

이후, 안전도 평가부(250)는 상기 서브 구역별로 연산된 상기 합산된 점수를 이용하여 각각의 서브 구역에 대한 보안 안전도를 평가한다(S950). 제2 실시예 또한 보안 안전도는 상기 합산된 점수에 비례한다. Thereafter, the safety evaluation unit 250 evaluates the security security degree for each subarea using the summed scores calculated for each subarea (S950). SECOND EMBODIMENT The security degree of security is also proportional to the sum of the above scores.

일부 서브 구역의 경우 인식 정도가 매우 낮거나 0에 가까울 수 있으며, 또 다른 서브 구역의 경우 카메라의 인식 정도가 다른 구역에 비해 월등히 높을 수 있다. 보안 안전도가 낮은 구역으로 판단된 경우, 카메라의 각도를 변경하거나 카메라의 추가 배치를 유도할 수 있다.In some sub-zones, recognition may be very low or close to zero, and in other sub-zones the camera may be much more aware than other areas. If it is judged that the security safety degree is low, it is possible to change the angle of the camera or induce additional placement of the camera.

그리고, 안전도 평가부(250)는 상기 각각의 서브 구역을 상기 평가된 보안 안전도에 대응하는 색상으로 표시할 수 있다. 즉, 실내 공간 내에서 보안 카메라와 바닥 면적 간의 공간 상관관계를 3D로 분석하여 감시 안전도를 점수화한 이후, 바닥 구간별로 점수에 따라 색상을 달리 표현할 수 있다.The safety evaluation unit 250 may display each of the sub-zones in a color corresponding to the evaluated security degree of security. That is, spatial correlation between the security camera and the floor area in the indoor space is analyzed in 3D to score the safety degree of safety, and then the color can be expressed differently according to the score according to the floor section.

도 10은 도 8의 방법을 통해 분석 가능한 각 구역(바닥)의 감시 안전도를 색상 범례로 구분한 것이다. 상기 합산된 점수에 따른 감시 안전도는 0점부터 100점 이내의 값으로 정량화될 수 있으며, 정량화된 안전도 구간별로 색상이 점진적으로 변하는 것을 알 수 있다. 도 10에서 첫 번째 열은 각각의 서브 구역에 객체가 아닌 가상의 면을 배치한 경우, 두 번째 열은 서브 구역에 번호판을 배치한 경우, 세 번째 열은 아바타를 배치한 경우의 보안 안전도 평가 결과에 대응하는 색상 범례를 나타낸다. 이러한 세 가지 경우 각각에 대한 보안 안전도의 평가 결과에 대한 색상 표시의 예는 추후 설명할 것이다.FIG. 10 is a diagram illustrating the monitoring safety degree of each area (floor) analyzed through the method of FIG. 8 by color legend. The monitoring safety score according to the summed score can be quantified to a value within the range of 0 to 100, and the color gradually changes according to the quantified safety range. In FIG. 10, the first column shows the case where a virtual plane is placed in each sub-zone, not the object, the second column indicates a case where a license plate is arranged in a sub-zone, and the third column indicates a security safety evaluation Represents a color legend corresponding to the result. In each of these three cases, an example of the color indication for the evaluation result of security safety for each will be described later.

이상과 같은 제2 실시예를 보다 상세히 설명하면 다음과 같다. 먼저, 바닥 자체의 보안 안전도의 분석 결과를 설명한다. 바닥 자체의 감시 안전도는 상기 가상 공간을 구성하는 바닥면 자체 또는 상기 바닥면과 수직인 가상의 면을 각각의 서브 구역마다 가상 물체로 설정하여, 각각의 서브 구역에 대한 상기 바닥면의 보안 안전도를 평가한 것이다. 다시 말해서, 바닥 자체의 감시 안전도는 바닥에 특별한 오브젝트를 배치하지 않고, 바닥면 자체가 수직으로 향하고 있다고 가정할 때 해당 바닥면에 대한 감시 안전도를 나타낸다.The second embodiment will be described in more detail as follows. First, the analysis result of security security of the floor itself is explained. The monitoring safety degree of the floor itself is determined by setting the floor surface itself constituting the virtual space or a virtual surface perpendicular to the floor surface as a virtual object for each subarea so that the security degree of security of the floor for each subarea . In other words, the monitoring safety of the floor itself does not place any special objects on the floor, but rather the monitoring safety of the floor, assuming that the floor itself is facing vertically.

도 11은 도 8의 방법을 이용하여 바닥 자체의 보안 안전도를 평가한 결과를 나타낸다. 바닥 자체의 안전도의 색상은 도 10의 제1 열의 색상 범례를 참조한다. 색상이 표시되지 않은 구역들의 경우 카메라의 감시가 수행될 수 없는 음영 구역에 해당된다. 이러한 바닥 자체의 안전도 평가 결과, 카메라의 수직 각도(지면에 대한 카메라의 기울임 각도)에 따라 바닥의 감시 안전도에 차이가 발생하는 것을 확인할 수 있었으며, 특히 수직 각도가 23°를 넘는 카메라들의 경우 바닥 감시안전도가 상대적으로 낮은 것을 확인할 수 있었다.FIG. 11 shows a result of evaluating security security of the floor by using the method of FIG. 8. FIG. The color of the safety of the floor itself refers to the color legend of the first column of Fig. For areas where the color is not displayed, it corresponds to a shaded area where camera monitoring can not be performed. As a result of evaluating the safety of the floor itself, it was confirmed that there is a difference in the monitoring safety of the floor according to the vertical angle of the camera (tilting angle of the camera to the ground). Especially, And the monitoring safety was relatively low.

도 12는 도 8의 방법에서 자동차 번호판을 촬영하는 개념도를 나타낸다. 자동차 번호판의 사이즈는 가로 335mm, 세로 155mm로 하며, 바닥에서 번호판 중심까지의 길이는 650mm로 하였다. 매 서브 구역마다 자동차 번호판 객체가 놓여지고 이 번호판 객체를 주변 카메라가 관찰하는 점수의 합계를 해당 서브 구역의 보안 안전도 점수로 계산한다.Fig. 12 shows a conceptual diagram of photographing license plates in the method of Fig. 8. Fig. The size of the license plate is 335 mm in width and 155 mm in length, and the length from the bottom to the center of the license plate is 650 mm. The license plate object is placed in each subarea, and the sum of the points that the surrounding camera observes is calculated as the security security score of that subarea.

도 13은 도 8의 방법을 이용하여 자동차 번호판을 대상으로 각 구역별 보안 안전도를 평가한 결과를 나타낸다. 자동차 번호판에 대한 구역별 안전도의 색상은 도 10의 제2 열의 색상 범례를 참조한다. 도 13의 결과는 앞서 도 12의 바닥면 자체를 객체로 하여 분석했던 결과와 비교적 유사한 형태의 결과를 나타냄을 알 수 있다.FIG. 13 shows the result of evaluating the security degree of security for each license plate by using the method of FIG. Refer to the color legend in the second column of FIG. 10 for the color of the zone safety for the license plate. The result of FIG. 13 shows a result comparable to the result of analyzing the bottom surface itself of FIG. 12 as an object.

도 14는 도 8의 방법에서 아바타를 촬영하는 개념도를 나타낸다. 아바타는 키 1724.43mm, 머리 수직 길이 213.09mm, 머리 너비 153.06mm로 적용하였다. 아바타를 서브 구역에 놓고 주변 카메라들의 관찰 점수의 합을 산출하고 이를 해당 서브 구역의 바닥 감시안전도로 한다. Fig. 14 shows a conceptual diagram for photographing an avatar in the method of Fig. 8. Fig. The avatar has a height of 1724.43mm, a head vertical length of 213.09mm, and a head width of 153.06mm. Place the avatar in the sub-zone and calculate the sum of the observation points of the surrounding cameras and make it the floor surveillance safety of the corresponding sub-zone.

도 15는 도 8의 방법을 이용하여 아바타를 대상으로 각 구역별 보안 안전도를 평가한 결과를 나타낸다. 이러한 사람 감시에 의한 보안 안전도 분석결과를 보면, 사람을 인식할 수 있는 범위의 서브 구역은 매우 한정되어 있는 것을 알 수 있다. 이는 카메라의 바로 앞을 피해서 다닐 경우 사람의 얼굴 인식 매우 힘들다는 것을 나타낸다. FIG. 15 shows a result of evaluating the security security degree of each zone for the avatar using the method of FIG. As a result of the security safety analysis by these person surveillance, it can be seen that the subareas for recognizing persons are very limited. This indicates that human face recognition is very difficult if it is avoided in front of the camera.

도 16은 도 11, 도 13, 도 15의 결과를 통합하여 나타낸 것이다. 본 실시예에서는 도 16과 같이 바닥, 번호판, 아바타에 의한 보안 안전도를 상호 통합하여 볼 수 있다. 여기서 바닥 자체와 번호판에 의한 감시 안전도는 서로 유사하므로 번호판과 아바타에 의한 보안 안전도만 통합하여 볼 수도 있다.Fig. 16 shows the results of Figs. 11, 13, and 15 in an integrated fashion. In this embodiment, as shown in FIG. 16, security security degrees by floor, license plate, and avatar can be integrated. Since the floor security itself and the license plate security are similar to each other, only the license plate and avatar security security can be integrated.

이상과 같은 본 발명에 따른 대상 공간에 대한 보안 안전도 평가방법 및 그 장치에 따르면, 보안 카메라들이 설치되는 대상 공간에 대한 감시 안전도를 3D 가상 공간상에서 시뮬레이션을 통해 평가할 수 있다. 이러한 본 발명은 공간정보와 융복합한 CCTV 카메라 배치에 대한 시뮬레이션을 통하여 탐지 영역의 사각지역을 최소화할 수 있다. According to the security security evaluation method and apparatus for the target space according to the present invention, the monitoring security degree of the target space in which the security cameras are installed can be evaluated through simulation in the 3D virtual space. The present invention minimizes the rectangular area of the detection area through the simulation of the arrangement of the CCTV camera fused with the spatial information.

또한, 본 발명은 CCTV 카메라의 설치 위치나 각도에 따른 감시 효율성을 소프트웨어적인 접근을 통하여 효과적으로 평가할 수 있으며 CCTV 카메라의 활용도를 높일 수 있다. 나아가, 대상 공간에 대하여 가장 효과적인 CCTV 카메라의 배치 또는 재배치를 유도할 수 있으며 보다 안전하고 신뢰감 있는 보안 환경을 구축할 수 있는 이점이 있다.In addition, the present invention can effectively evaluate the monitoring efficiency according to the installation position and angle of the CCTV camera through a software approach, and can increase the utilization of the CCTV camera. Furthermore, there is an advantage that it is possible to induce the most effective CCTV camera placement or relocation to the target space, and to establish a more secure and reliable security environment.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

100,200: 대상 공간에 대한 보안 안전도 평가장치
110,210: 3차원 모델링부 120: 경로 설정부
130,230: 영상 획득부 140,240: 점수 환산부
150,250: 안전도 평가부 220: 구역 분할부
100,200: security safety evaluation device for the target space
110, 210: Three-dimensional modeling unit 120: Path setting unit
130, 230: Image acquisition unit 140, 240: Score conversion unit
150, 250: Safety evaluation part 220:

Claims (16)

대상 공간에 대응하여 복수의 가상 카메라가 배치된 3차원 가상 공간을 모델링하는 단계;
상기 3차원 가상 공간 내에서 기 설정된 크기를 갖는 가상 물체에 대한 이동 경로를 설정하는 단계;
상기 가상 물체를 상기 이동 경로를 따라 설정 간격으로 이동시키면서 상기 복수의 가상 카메라로부터 촬상 영상을 각각 획득하는 단계;
상기 가상 카메라별로, 상기 촬상 영상 내에서의 상기 가상 물체에 대해 기 설정된 관심 부위의 인식 정도에 대응하는 점수를 상기 설정 간격마다 연산하여 합산하는 단계; 및
상기 가상 카메라별로 연산된 상기 합산된 점수를 이용하여 각각의 가상 카메라에 대한 감시 활용도 또는 상기 이동 경로에 대한 보안 안전도를 평가하는 단계를 포함하며,
상기 관심 부위의 인식 정도는,
상기 촬상 영상 내에서 인식된 상기 관심 부위에 대한 픽셀 단위의 촬상 크기에 대응하는 대상 공간에 대한 보안 안전도 평가방법.
Modeling a three-dimensional virtual space in which a plurality of virtual cameras are arranged corresponding to a target space;
Setting a movement path for a virtual object having a predetermined size in the three-dimensional virtual space;
Acquiring a captured image from the plurality of virtual cameras while moving the virtual object along a moving path at a set interval;
Calculating and adding a score corresponding to a degree of recognition of a predetermined region of interest for the virtual object in the captured image for each virtual camera for each virtual camera for each virtual camera; And
And evaluating the security utilization degree for each virtual camera or the security security degree for the movement route by using the summed scores calculated for each virtual camera,
The degree of recognition of the region of interest,
Corresponding to an image pickup size in units of pixels for the region of interest recognized in the captured image.
청구항 1에 있어서,
상기 보안 안전도는 상기 합산된 점수에 비례하는 대상 공간에 대한 보안 안전도 평가방법.
The method according to claim 1,
Wherein the security security degree is proportional to the summed score.
청구항 2에 있어서,
상기 가상 물체가 아바타인 경우 상기 관심 부위는 머리 부위이고, 상기 가상 물체가 차량인 경우 상기 관심 부위는 번호판 부위인 대상 공간에 대한 보안 안전도 평가방법.
The method of claim 2,
Wherein if the virtual object is an avatar, the region of interest is a head region, and if the virtual object is a vehicle, the region of interest is a license plate region.
삭제delete 청구항 1에 있어서,
상기 인식 정도에 대응하는 점수는,
상기 관심 부위에 대해 기 알고 있는 픽셀 단위의 기준 크기와 대비한 상기 촬상 크기의 비에 대응하는 점수인 대상 공간에 대한 보안 안전도 평가방법.
The method according to claim 1,
The score corresponding to the recognition degree may be,
Wherein the score is a score corresponding to a ratio of the imaging size to a reference size of a pixel unit known to the region of interest.
청구항 5에 있어서,
상기 복수의 가상 카메라는,
상기 대상 공간에 설치된 복수의 보안 카메라의 위치 및 각도에 대응하여 상기 3차원 가상 공간상에 각각 모델링되어 있으며,
상기 인식 정도에 대응하는 점수는,
상기 촬상 영상 내에서 인식된 상기 관심 부위에 대해 인식된 픽셀 단위의 가로 크기에 대응하는 점수 및 세로 크기에 대응하는 점수의 평균 또는 곱이되, 상기 인식된 가로 크기를 상기 가상 카메라의 시선과 상기 가상 물체의 이동 방향을 각각 지표면에 투영하여 얻은 사이 각도를 통해 보정한 값과, 상기 인식된 세로 크기를 상기 가상 카메라의 시선과 상기 가상 물체의 이동 방향을 각각 상기 지표면과 수직인 평면에 투영하여 얻은 사이 각도를 통해 보정한 값을 점수 환산에 사용하는 대상 공간에 대한 보안 안전도 평가방법.
The method of claim 5,
Wherein the plurality of virtual cameras include:
Dimensional virtual space corresponding to positions and angles of a plurality of security cameras installed in the object space,
The score corresponding to the recognition degree may be,
Wherein the virtual camera is an average or product of a score corresponding to a horizontal size and a vertical size corresponding to a perceived pixel size of the region of interest recognized in the captured image, A value obtained by correcting the recognized vertical size on the plane of the virtual camera and the moving direction of the virtual object on a plane perpendicular to the surface of the ground, A method for evaluating security safety of a space in which the value corrected through the angle is used for conversion of points.
대상 공간에 대응하여 복수의 가상 카메라가 배치된 3차원 가상 공간을 모델링하는 단계;
상기 3차원 가상 공간을 복수의 서브 구역으로 분할하는 단계;
상기 서브 구역마다 기 설정된 크기를 갖는 가상 물체를 배치하여 상기 복수의 가상 카메라로부터 촬상 영상을 각각 획득하는 단계;
상기 서브 구역 각각에 대하여, 상기 복수의 카메라에 대한 상기 촬상 영상 내에서의 상기 가상 물체에 대해 기 설정된 관심 부위의 인식 정도에 대응하는 점수를 연산하여 상기 복수의 가상 카메라별로 합산하는 단계; 및
상기 서브 구역별로 연산된 상기 합산된 점수를 이용하여 각각의 서브 구역에 대한 보안 안전도를 평가하는 단계를 포함하며,
상기 인식 정도에 대응하는 점수는,
상기 촬상 영상 내에서 인식된 상기 관심 부위를 구성하는 픽셀 개수에 대응하는 점수인 대상 공간에 대한 보안 안전도 평가방법.
Modeling a three-dimensional virtual space in which a plurality of virtual cameras are arranged corresponding to a target space;
Dividing the three-dimensional virtual space into a plurality of sub-zones;
Arranging a virtual object having a predetermined size in each of the subareas to acquire a captured image from each of the plurality of virtual cameras;
Calculating a score corresponding to a degree of recognition of a predetermined region of interest with respect to the virtual object in the sensed image for each of the plurality of cameras and summing the scores for each of the plurality of virtual cameras; And
And evaluating security security for each subarea using the summed scores calculated for each subarea,
The score corresponding to the recognition degree may be,
Wherein the score is a score corresponding to the number of pixels constituting the region of interest recognized in the captured image.
청구항 7에 있어서,
상기 보안 안전도는 상기 합산된 점수에 비례하며,
상기 각각의 서브 구역을 상기 평가된 보안 안전도에 대응하는 색상으로 표시하는 단계를 더 포함하는 대상 공간에 대한 보안 안전도 평가방법.
The method of claim 7,
The security security degree is proportional to the summed score,
And displaying each of the sub-zones in a color corresponding to the evaluated security security degree.
청구항 7 또는 청구항 8에 있어서,
상기 가상 물체는 아바타 또는 차량이며,
상기 가상 물체의 인식 정도는,
상기 가상 물체에 대해 기 설정된 관심 부위인 상기 아바타의 머리 부위 또는 상기 차량의 번호판 부위의 인식 정도에 해당하는 대상 공간에 대한 보안 안전도 평가방법.
The method according to claim 7 or 8,
The virtual object is an avatar or a vehicle,
The degree of recognition of the virtual object may be,
Wherein the avatar's head part or the license plate part of the vehicle, which is a pre-set interest area for the virtual object, is recognized.
청구항 9에 있어서,
상기 가상 공간을 구성하는 바닥면 또는 상기 바닥면과 수직인 가상의 면을 각각의 서브 구역마다 상기 가상 물체로 설정하여, 각각의 서브 구역에 대한 상기 바닥면의 보안 안전도를 더 평가하는 대상 공간에 대한 보안 안전도 평가방법.
The method of claim 9,
A floor surface constituting the virtual space or a virtual surface perpendicular to the floor surface is set as the virtual object in each subarea and a virtual space is formed in a target space for further evaluating security security degree of the floor surface for each subarea Security Assessment Methods for.
대상 공간에 대응하여 복수의 가상 카메라가 배치된 3차원 가상 공간을 모델링하는 3차원 모델링부;
상기 3차원 가상 공간 내에서 기 설정된 크기를 갖는 가상 물체에 대한 이동 경로를 설정하는 경로 설정부;
상기 가상 물체를 상기 이동 경로를 따라 설정 간격으로 이동시키면서 상기 복수의 가상 카메라로부터 촬상 영상을 각각 획득하는 영상 획득부;
상기 가상 카메라별로, 상기 촬상 영상 내에서의 상기 가상 물체에 대해 기 설정된 관심 부위의 인식 정도에 대응하는 점수를 상기 설정 간격마다 연산하여 합산하는 점수 환산부; 및
상기 가상 카메라별로 연산된 상기 합산된 점수를 이용하여 각각의 가상 카메라에 대한 감시 활용도 또는 상기 이동 경로에 대한 보안 안전도를 평가하는 안전도 평가부를 포함하며,
상기 관심 부위의 인식 정도는,
상기 촬상 영상 내에서 인식된 상기 관심 부위에 대한 픽셀 단위의 촬상 크기에 대응하는 대상 공간에 대한 보안 안전도 평가장치.
A three-dimensional modeling unit for modeling a three-dimensional virtual space in which a plurality of virtual cameras are arranged corresponding to a target space;
A path setting unit for setting a movement path for a virtual object having a predetermined size in the three-dimensional virtual space;
An image acquiring unit for acquiring a captured image from each of the plurality of virtual cameras while moving the virtual object along a moving path at a set interval;
A point conversion unit for calculating and adding a score corresponding to a degree of recognition of a predetermined region of interest for the virtual object in the captured image for each virtual camera for each virtual camera for each virtual camera; And
And a safety evaluation unit for evaluating surveillance utilization for each virtual camera or security security for the movement route using the summed scores calculated for each virtual camera,
The degree of recognition of the region of interest,
Corresponding to an imaging size of a pixel unit for the region of interest recognized in the captured image.
청구항 11에 있어서,
상기 보안 안전도는 상기 합산된 점수에 비례하며,
상기 가상 물체가 아바타인 경우 상기 관심 부위는 머리 부위이고, 상기 가상 물체가 차량인 경우 상기 관심 부위는 번호판 부위인 대상 공간에 대한 보안 안전도 평가장치.
The method of claim 11,
The security security degree is proportional to the summed score,
Wherein if the virtual object is an avatar, the region of interest is a head region, and if the virtual object is a vehicle, the region of interest is a license plate region.
청구항 12에 있어서,
상기 인식 정도에 대응하는 점수는,
상기 관심 부위에 대해 기 알고 있는 픽셀 단위의 기준 크기와 대비한 상기 촬상 크기의 비에 대응하는 점수인 대상 공간에 대한 보안 안전도 평가장치.
The method of claim 12,
The score corresponding to the recognition degree may be,
Wherein the score is a score corresponding to a ratio of the imaging size to a reference size of a pixel unit known to the region of interest.
청구항 13에 있어서,
상기 복수의 가상 카메라는,
상기 대상 공간에 설치된 복수의 보안 카메라의 위치 및 각도에 대응하여 상기 3차원 가상 공간상에 각각 모델링되어 있으며,
상기 인식 정도에 대응하는 점수는,
상기 촬상 영상 내에서 인식된 상기 관심 부위에 대해 인식된 픽셀 단위의 가로 크기에 대응하는 점수 및 세로 크기에 대응하는 점수의 평균 또는 곱이되, 상기 인식된 가로 크기를 상기 가상 카메라의 시선과 상기 가상 물체의 이동 방향을 각각 지표면에 투영하여 얻은 사이 각도를 통해 보정한 값과, 상기 인식된 세로 크기를 상기 가상 카메라의 시선과 상기 가상 물체의 이동 방향을 각각 상기 지표면과 수직인 평면에 투영하여 얻은 사이 각도를 통해 보정한 값을 점수 환산에 사용하는 대상 공간에 대한 보안 안전도 평가장치.
14. The method of claim 13,
Wherein the plurality of virtual cameras include:
Dimensional virtual space corresponding to positions and angles of a plurality of security cameras installed in the object space,
The score corresponding to the recognition degree may be,
Wherein the virtual camera is an average or product of a score corresponding to a horizontal size and a vertical size corresponding to a perceived pixel size of the region of interest recognized in the captured image, A value obtained by correcting the recognized vertical size on the plane of the virtual camera and the moving direction of the virtual object on a plane perpendicular to the surface of the ground, A security safety evaluation system for a space in which a value corrected through an angle is used for score conversion.
대상 공간에 대응하여 복수의 가상 카메라가 배치된 3차원 가상 공간을 모델링하는 3차원 모델링부;
상기 3차원 가상 공간을 복수의 서브 구역으로 분할하는 구역 분할부;
상기 서브 구역마다 기 설정된 크기를 갖는 가상 물체를 배치하여 상기 복수의 가상 카메라로부터 촬상 영상을 각각 획득하는 영상 획득부;
상기 서브 구역 각각에 대하여, 상기 복수의 카메라에 대한 상기 촬상 영상 내에서의 상기 가상 물체에 대해 기 설정된 관심 부위의 인식 정도에 대응하는 점수를 연산하여 상기 복수의 가상 카메라별로 합산하는 점수 환산부; 및
상기 서브 구역별로 연산된 상기 합산된 점수를 이용하여 각각의 서브 구역에 대한 보안 안전도를 평가하는 안전도 평가부를 포함하며,
상기 인식 정도에 대응하는 점수는,
상기 촬상 영상 내에서 인식된 상기 관심 부위를 구성하는 픽셀 개수에 대응하는 점수인 대상 공간에 대한 보안 안전도 평가장치.
A three-dimensional modeling unit for modeling a three-dimensional virtual space in which a plurality of virtual cameras are arranged corresponding to a target space;
A region dividing unit dividing the three-dimensional virtual space into a plurality of sub-regions;
An image acquiring unit for arranging a virtual object having a predetermined size in each of the subareas to acquire a captured image from the plurality of virtual cameras;
For each of the sub-zones, a score corresponding to a degree of recognition of a predetermined region of interest of the virtual object in the captured image with respect to the plurality of cameras, and sums each of the plurality of cameras with respect to each of the plurality of virtual cameras; And
And a safety evaluation unit for evaluating a security security degree for each subarea using the summed scores calculated for each subarea,
The score corresponding to the recognition degree may be,
Wherein the score is a score corresponding to the number of pixels constituting the region of interest recognized in the captured image.
청구항 15에 있어서,
상기 보안 안전도는 상기 합산된 점수에 비례하며,
상기 안전도 평가부는,
상기 각각의 서브 구역을 상기 평가된 보안 안전도에 대응하는 색상으로 표시하는 대상 공간에 대한 보안 안전도 평가장치.
16. The method of claim 15,
The security security degree is proportional to the summed score,
The safety evaluation unit includes:
And displays each of the sub-zones in a color corresponding to the evaluated security degree of safety.
KR20130142119A 2013-11-21 2013-11-21 Method for evaluating safety performance of target space and apparatus thereof KR101502505B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130142119A KR101502505B1 (en) 2013-11-21 2013-11-21 Method for evaluating safety performance of target space and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130142119A KR101502505B1 (en) 2013-11-21 2013-11-21 Method for evaluating safety performance of target space and apparatus thereof

Publications (1)

Publication Number Publication Date
KR101502505B1 true KR101502505B1 (en) 2015-03-13

Family

ID=53027547

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130142119A KR101502505B1 (en) 2013-11-21 2013-11-21 Method for evaluating safety performance of target space and apparatus thereof

Country Status (1)

Country Link
KR (1) KR101502505B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107316131A (en) * 2017-06-09 2017-11-03 国网重庆市电力公司电力科学研究院 A kind of electric power meter mounting process quality detecting system based on image recognition

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100106775A (en) * 2009-03-24 2010-10-04 아주대학교산학협력단 Apparatus and Method for Vision Sensor Automatic Placement

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100106775A (en) * 2009-03-24 2010-10-04 아주대학교산학협력단 Apparatus and Method for Vision Sensor Automatic Placement

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107316131A (en) * 2017-06-09 2017-11-03 国网重庆市电力公司电力科学研究院 A kind of electric power meter mounting process quality detecting system based on image recognition

Similar Documents

Publication Publication Date Title
JP6286805B2 (en) Modeling device, three-dimensional model generation device, modeling method, program, layout simulator
US10580205B2 (en) 3D model generating system, 3D model generating method, and program
TWI696906B (en) Method for processing a floor
JP2022022434A (en) Image processing device, image processing method, and program
CN104361603B (en) Gun camera image target designating method and system
CN107396037B (en) Video monitoring method and device
WO2017203710A1 (en) Three-dimensional model generation system, three-dimensional model generation method, and program
KR101759798B1 (en) Method, device and system for generating an indoor two dimensional plan view image
TWI551137B (en) Field display system, field display method, and computer-readable recording medium in which field display program is recorded
US20180089972A1 (en) System and method for surveilling a scene comprising an allowed region and a restricted region
JP5525495B2 (en) Image monitoring apparatus, image monitoring method and program
CN110704914B (en) Sight line analysis method, device, computer equipment and storage medium
JP6671852B2 (en) Information setting system and simulation system
JP7355974B2 (en) Distance estimation device and method
TW201928913A (en) Apparatus for generating feature height-specific colored image, and program for generating feature height-specific colored image
JP6749498B2 (en) Imaging target tracking device and imaging target tracking method
KR101502505B1 (en) Method for evaluating safety performance of target space and apparatus thereof
JP5213883B2 (en) Composite display device
CN116778094B (en) Building deformation monitoring method and device based on optimal viewing angle shooting
US9305401B1 (en) Real-time 3-D video-security
Tanhashi et al. Acquisition of three-dimensional information in a real environment by using the stereo omni-directional system (SOS)
CN108234932A (en) Personnel's form extracting method and device in video monitoring image
KR101586026B1 (en) device and method of calculating coverage of camera in video surveillance system
WO2020113273A1 (en) Mixed reality visualisation system
CN110390715A (en) Method that is a kind of while detecting building roof, building masonry wall and ground area shading

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180102

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200217

Year of fee payment: 6