KR100986918B1 - Apparatus and method for vision sensor automatic placement - Google Patents

Apparatus and method for vision sensor automatic placement Download PDF

Info

Publication number
KR100986918B1
KR100986918B1 KR1020090024946A KR20090024946A KR100986918B1 KR 100986918 B1 KR100986918 B1 KR 100986918B1 KR 1020090024946 A KR1020090024946 A KR 1020090024946A KR 20090024946 A KR20090024946 A KR 20090024946A KR 100986918 B1 KR100986918 B1 KR 100986918B1
Authority
KR
South Korea
Prior art keywords
vision sensor
area
space
grid
algorithm
Prior art date
Application number
KR1020090024946A
Other languages
Korean (ko)
Other versions
KR20100106775A (en
Inventor
남윤영
변유인
조위덕
Original Assignee
아주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교산학협력단 filed Critical 아주대학교산학협력단
Priority to KR1020090024946A priority Critical patent/KR100986918B1/en
Publication of KR20100106775A publication Critical patent/KR20100106775A/en
Application granted granted Critical
Publication of KR100986918B1 publication Critical patent/KR100986918B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T17/205Re-meshing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: An apparatus and a method for automatically placing a vision sensor are provided to supply an intelligent video monitoring system to a vision algorithm and a vision device by providing the basis for a service-centered theorized camera arrangement location decision. CONSTITUTION: A space modeling unit(110) models a predetermined space in two-dimensional map, and a core space extractor(120) indicates each grip space importance degree on a grid map. A fitness level calculator(130) extracts the fitness of the vision sensor based on the performance and the cost of a vision sensor as well as the sum of spatial importance metric of an FOW(Field-Of-View) internal grind. An arrange location selector(140) obtains vision sensor agreement number, and selects vision sensor arrangement location.

Description

비전센서 자동 배치장치 및 방법{Apparatus and Method for Vision Sensor Automatic Placement}Apparatus and Method for Vision Sensor Automatic Placement

본 발명은 비전센서 자동 배치장치 및 방법에 관한 것으로서, 보다 상세하게는 정적인 공간정보를 다각도로 분류하고 사용자의 이동패턴을 모델링 한 에이전트를 통해 공간중요도를 도출하고 주어진 공간을 효과적으로 커버할 수 있는 방법을 제시하고 또한 특정공간 내에 다양한 성능을 지닌 카메라를 적절하게 설치하기 위해 카메라 배치 방법과 설치비용 대비 적합한 카메라 수를 구하기 위한 비전센서 자동 배치장치 및 방법에 관한 것이다.The present invention relates to a device and method for automatically arranging a vision sensor, and more particularly, to classify static spatial information into various angles and to derive spatial importance and effectively cover a given space through an agent modeling a user's movement pattern. The present invention also relates to a camera arrangement method and method for automatically arranging a vision sensor for a suitable number of cameras for installation cost in order to properly install a camera having various performances in a specific space.

유비쿼터스 (Ubiquitous)는 1993년 마크 와이저(Mark Weiser)에 의해 최초로 그 개념이 발표된 이래 수많은 형태의 기술, 문화적 키워드로써 모습을 달리하여 소개되었다.Ubiquitous has been introduced in various forms as a technical and cultural keyword since its concept was first published in 1993 by Mark Weiser.

정보화 시대 이후 급속도로 성장한 IT기술은 시공간의 제약을 초월하여 사용자에게 네트워킹 서비스를 지원해 줄 수 있는 유비쿼터스 시대를 도래하게 만들었다. 유비쿼터스 환경에서의 서비스는 사용자의 요구, 주변의 환경을 스스로 판단하여 사용자의 개입 없이 사용자의 생각에 부합하는 서비스를 적시에 자율적으로 제 공할 수 있어야 한다.The rapid growth of IT technology since the information age has brought the ubiquitous era that can provide networking services to users beyond time and space constraints. Services in the ubiquitous environment should be able to provide timely and autonomous service that meets the user's ideas without user intervention by judging the user's needs and surrounding environment by themselves.

환경과 사물에 컴퓨팅 기능을 도입하고 네트워크로 서로 연결한 컴퓨팅 시스템은 유비쿼터스 서비스를 구축하기 위한 필수적인 인프라 환경이다.Computing systems that introduce computing functions into the environment and things and connect with each other through a network are essential infrastructure environments for building ubiquitous services.

공간 제약을 해결하여 공간에 유비쿼터스 인프라 환경을 구축하기 위해 지능공간이라는 형태의 블록화된 공간들을 개별적으로 구축하는 방법을 사용하였다.In order to solve the space constraints and build a ubiquitous infrastructure environment in the space, we used the method of individually building blocky spaces called intelligent spaces.

지능공간들은 네트워크 상에서는 통합된 유비쿼터스 서비스를 구축하기 위해 긴밀하고 광대한 통신체계를 구축하고 있지만, 지능공간을 구성하는 여러 가지 요소들은 개개의 지능공간에만 특화된 독립적인 형태로 이루어져 있다.Intelligent spaces are building a close and vast communication system to build an integrated ubiquitous service on the network, but the various elements that make up the intelligent space are composed of independent forms specific to individual intelligent spaces.

이는 모든 지능공간이 일원화된 규칙하에 디자인 되는 것이 아니며, 또한 지능공간에 도입된 인프라, 디바이스 등이 다양한 표준과 다른 수준의 기술력에 의해 개발되어지기 때문이다.This is because not all intelligent spaces are designed under unified rules, and infrastructure and devices introduced in intelligent spaces are developed by various standards and different levels of technology.

프로젝트 기획자들은 지능공간 구축에 앞서 기획이란 과정을 통해 치밀한 프로젝트의 진행과정과 목표결과물을 설계하지만, 앞서 말한 지능공간의 특성으로 인해 지능공간의 구축원리는 목적과 규모, 비용에 따라 달라지게 되고 그에 따라 요구조건의 변경은 필연적으로 발생하게 된다.Project planners design the detailed project progress and target outcomes through the planning process before constructing the intelligent space.However, due to the characteristics of the intelligent space, the construction principle of the intelligent space depends on the purpose, size, and cost. As a result, changes in requirements inevitably occur.

다양한 단계의 기술이 집약된 지능공간에 배치될 지능형 오브젝트의 개발에 관련한 지식과, 공간디자인의 설계원리, 지능공간 서비스의 구축과 같은 여러 분야에서 전문지식을 갖추기는 매우 힘들고, 또한 목적과 서비스를 중시한 지능공간 디자인의 관점에서 보았을 때 이러한 인프라 구축에 관한 기술적인 지식을 기획자가 반드시 알아야 할 필요는 없기 때문이기도 하다.It is very difficult to have expertise in various fields, such as knowledge about the development of intelligent objects to be deployed in intelligent spaces with various levels of technology, design principles of space design, and construction of intelligent space services. It is also because the planner does not necessarily have to know the technical knowledge about the infrastructure construction from the point of view of the importance of designing the intelligent space.

기능공간의 설계 측면에서 추적, 감시 등의 보안서비스에 관련된 비전 알고리즘은 기존의 그 어떤 서비스 기술보다 디바이스, 공간에 대한 의존이 많기 때문에 공간디자인과 서비스, 디바이스 개발자 간의 독립적인 분업을 보장해 줄 수 없는 개발구조를 가지게 된다.In terms of designing functional spaces, vision algorithms related to security services such as tracking and monitoring are more dependent on devices and space than any other service technology. Therefore, they cannot guarantee independent division of labor between space design, services, and device developers. It will have a development structure.

지능공간 개발의 측면에서는 이런 불필요한 연결구조가 개발의 효율성을 떨어뜨리는 주요요인으로 지적되었고, 그렇기 때문에 이러한 비전 기술과 센서구조 배치에 관련된 연구도 비전알고리즘의 측면에서 기술개발자나 대부분 근시안적으로 진행할 뿐 공간 디자이너나 프로젝트 기획자의 측면에서 연구되지 못한 것이 사실이다.In terms of intelligent space development, this unnecessary connection structure has been pointed out as a major factor to reduce the efficiency of development. Therefore, the research related to the deployment of vision technology and sensor structure is mostly carried out by technology developers or nearsightedness in terms of vision algorithm. It is true that it has not been studied in terms of designers or project planners.

또한 영상 감시시스템에서 영상처리에 대한 연구는 안정성 있고 효율적인 성능의 하드웨어 개발이나 모션, 오브젝트 추적 알고리즘 등에 대한 연구가 대부분이었다.Also, most of the researches on image processing in video surveillance system were the development of stable and efficient hardware, motion and object tracking algorithms.

그러나, 카메라 배치는 하드웨어, 알고리즘 각각의 성능보다 각 카메라간의 전체적인 커버리지 측정을 협업과 그 연결고리 내에서 유기적으로 제공되는 사용자들의 서비스가 실질적으로 시스템의 디자인할 때에 더욱 고려되어야할 요소이고, 이러한 서비스를 구축하는 것은 단순한 알고리즘 성능평가 같은 제한된 환경에서의 실험만으로는 검증할 수 없는 문제점이 있다.However, camera placement is a factor that should be taken into consideration when designing the system, in fact, the service of users who are organically provided within the collaboration and its linkages, rather than the performance of hardware and algorithms. There is a problem that can not be verified by experimentation in limited environment such as simple algorithm performance evaluation.

본 발명이 이루고자 하는 기술적 과제는 비전센서 배치에 대한 기존 문제점을 해결하기 위하여 공간상에서 카메라의 FOV(Field-Of-View)를 설계하였으며 가상 에이전트들의 행동패턴을 모델링하고 이를 통해 구해낸 공간중요도 (Space Priority)를 바탕으로 공간의 커버리지를 최소비용으로 보완할 수 있는 비전센서 배치 장치 및 방법을 제공하고자 한다.The technical problem to be achieved by the present invention is to design a field-of-view (FOV) of the camera in the space in order to solve the existing problems of the vision sensor arrangement, modeling the behavior patterns of the virtual agents and obtained through the space priority (Space Priority) Based on), we will provide a vision sensor arrangement device and method that can complement the coverage of the space at a minimum cost.

상기의 기술적 과제를 해결하기 위한 본 발명에 따른 비전센서 자동 배치장치의 일 실시예는, 소정 공간을 2차원 격자 (2D Grid) 맵으로 모델링하는 공간 모델링부; 상기 격자 맵 상의 제 1 영역을 이용하는 에이전트의 유동량 및 상기 제 1 영역에서 제 2 영역으로 이동할 에이전트의 유동 확률을 기초로 상기 격자 맵 상의 각 격자 공간 중요도를 수치로 나타내는 중요 공간 추출부; 상기 격자 맵 상의 특정 좌표에 있는 비전센서의 인식거리(d),가용각도(a) 및 위치각도(φ)를 기초로 정의되는 삼각형(FOV : Field-of-view) 내부 격자의 공간 중요도 수치의 합, 상기 비전센서의 성능 및 비용을 기초로 상기 비전센서의 적합도를 추출하는 적합도 추출부; 및 비전센서 배치 비용의 최대값 및 상기 소정 공간의 최소 감시영역 비율을 나타내는 최소 충족 커버리지를 기초로 비전센서 배치 개수를 구하고, 상기 비전센서 적합도가 높은 순서대로 비전센서 배치 위치를 선정하는 배치 위치 선정부;를 포함하는 것을 특징으로 한다.One embodiment of the automatic vision sensor arrangement according to the present invention for solving the above technical problem, the space modeling unit for modeling a predetermined space as a 2D grid (2D Grid) map; An important space extraction unit that numerically represents each grid space importance on the grid map based on the flow amount of the agent using the first area on the grid map and the flow probability of the agent to move from the first area to the second area; The spatial importance of the internal grid of a field-of-view (FOV) defined on the basis of the recognition distance (d), the available angle (a) and the position angle (φ) of the vision sensor at a specific coordinate on the grid map. A suitability extracting unit configured to extract a suitability of the vision sensor based on a sum and performance and cost of the vision sensor; And arranging position lines for obtaining the number of vision sensor arrangements based on the maximum value of the vision sensor placement cost and the minimum satisfying coverage representing the minimum surveillance area ratio of the predetermined space, and selecting the vision sensor arrangement positions in order of high suitability of the vision sensors. Government; characterized by including.

상기의 기술적 과제를 해결하기 위한 본 발명에 따른 비전센서 자동 배치방법의 일 실시예는, 소정 공간을 2차원 격자 (2D Grid) 맵으로 모델링하는 공간 모델링 단계; 상기 격자 맵 상의 제 1 영역을 이용하는 에이전트의 유동량 및 상기 제 1 영역에서 제 2 영역으로 이동할 에이전트의 유동 확률을 기초로 상기 격자 맵 상의 각 격자 공간 중요도를 수치로 나타내는 중요 공간 추출 단계; 상기 격자 맵 상의 특정 좌표에 있는 비전센서의 인식거리(d),가용각도(a) 및 위치각도(φ)를 기초로 정의되는 삼각형(FOV : Field-of-view) 내부 격자의 공간 중요도 수치의 합, 상기 비전센서의 성능 및 비용을 기초로 상기 비전센서의 적합도를 추출하는 적합도 추출 단계; 및 비전센서 배치 비용의 최대값 및 상기 소정 공간의 최소 감시영역 비율을 나타내는 최소 충족 커버리지를 기초로 비전센서 배치 개수를 구하고, 상기 비전센서 적합도가 높은 순서대로 비전센서 배치 위치를 선정하는 배치 위치 선정 단계;를 포함하는 것을 특징으로 한다.According to an embodiment of the present invention, there is provided a method of automatically arranging a vision sensor, according to an embodiment of the present invention, comprising: a space modeling step of modeling a predetermined space into a 2D grid map; An important space extraction step of numerically representing each grid space importance on the grid map based on the flow amount of the agent using the first area on the grid map and the flow probability of the agent to move from the first area to the second area; The spatial importance of the internal grid of a field-of-view (FOV) defined on the basis of the recognition distance (d), the available angle (a) and the position angle (φ) of the vision sensor at a specific coordinate on the grid map. A suitability extracting step of extracting a goodness of fit of the vision sensor based on a sum and performance and cost of the vision sensor; And arranging the number of vision sensor arrangements based on the maximum value of the vision sensor placement cost and the minimum satisfying coverage representing the minimum surveillance area ratio of the predetermined space, and selecting the placement of the vision sensors in order of high suitability of the vision sensor. It characterized in that it comprises a step.

본 발명에 따른 비전센서 자동 배치장치 및 방법에 의하면, 기존의 유비쿼터스 지능형 영상 감시 시스템의 구축에 있어 영상센서의 성능과 사용 알고리즘에 국한된 객관성 없는 공간설계에서 벗어난 서비스 중심의 이론화된 카메라 배치위치 결정에 대한 근거를 제공함으로써 비전 디바이스와 비전 알고리즘에 독립적인 지능형 영상감시 시스템을 제공하는 효과가 있다.According to the present invention, the automatic arrangement and method of the vision sensor according to the present invention is to establish a service-oriented theoretical camera positioning that deviates from the spatial design without objectivity limited to the performance and use algorithm of the image sensor in the construction of the existing ubiquitous intelligent video surveillance system. By providing evidence for this, it is effective to provide an intelligent video surveillance system that is independent of vision devices and vision algorithms.

본 발명의 비전센서 자동 배치장치 및 방법은 설치비용을 고려한 적합한 카메라 수와 배치 위치를 구할 수 효율적인 방법을 제공한다.Vision sensor automatic placement apparatus and method of the present invention provides an efficient method for obtaining a suitable number of cameras and placement position in consideration of the installation cost.

이하, 첨부된 도면을 참조하여 바람직한 실시예에 따른 본 발명을 상세히 설명하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 비전센서 자동 배치장치의 구성을 보여주는 도면이다.1 is a view showing the configuration of the automatic vision sensor arrangement according to the invention.

본 발명에 따른 비전센서 자동 배치장치(100)는 신도시 개발 지역이나 카메라와 같은 비전 센서의 설치가 요구되는 지역에서의 자동 배치 위치 선정을 위한 것이다.The automatic vision sensor arrangement 100 according to the present invention is for automatic placement position selection in a new town development area or an area requiring installation of a vision sensor such as a camera.

본 발명에 따른 비전센서 배치장치는 공간모델링부(110), 중요 공간 추출부(120), 적합도 추출부(130) 및 배치위치 선정부(140)을 포함하여 구성된다.Vision sensor arrangement apparatus according to the present invention comprises a space modeling unit 110, the critical space extraction unit 120, a goodness of fit extraction unit 130 and the arrangement position selection unit 140.

공간모델링부(110)는 비전센서 배치할 공간을 2차원 격자 (2D Grid) 맵으로 모델링한다.The space modeling unit 110 models a space for arranging the vision sensor as a 2D grid map.

중요 공간 추출부(120)는 2차원 격자 (2D Grid) 맵상의 특정영역을 이용하는 에이전트의 유동량 및 출발지에서 목적지으로 이동할 에이전트의 유동 확률을 기초로 중요 공간 영역을 추출한다.The critical space extracting unit 120 extracts an important spatial region based on the flow rate of the agent using the specific region on the 2D grid map and the probability of the agent moving from the starting point to the destination.

적합도 추출부(130)는 2차원 격자 (2D Grid) 맵상의 특정 위치의 비전센서가 상기 추출된 중요 공간 영역 중 최대 감시할 수 영역(최대 공간 커버리지)을 상기 특정 위치 비전센서의 비용으로 나누어 특정 위치에서의 비전센서 적합도를 추출한다. The goodness-of-fit extraction unit 130 divides the maximum monitorable area (maximum spatial coverage) of the extracted critical spatial areas by the cost of the specific location vision sensor by the vision sensor at a specific location on a 2D grid map. Extract vision sensor fit at position.

배치 위치 선정부(140)는 비전센서 배치 비용의 최대값 및 소정 공간의 최 소 감시영역 비율을 나타내는 최소 충족 커버리지를 기초로 비전센서 배치 개수를 구하고, 상기 비전센서 적합도가 높은 순서대로 비전센서 배치 위치를 선정한다.The placement position selector 140 obtains the number of vision sensor arrangements based on the minimum value of the coverage of the vision sensor placement cost and the minimum coverage area representing the minimum surveillance area ratio of the predetermined space, and arranges the vision sensors in the order of high vision sensor suitability. Select a location.

도 2 는 본 발명에 따른 비전센서 배치장치의 공간모델링부을 구성하는 레이어의 구성을 보여주는 도면이다.2 is a view showing the configuration of the layer constituting the spatial modeling unit of the vision sensor arrangement according to the present invention.

본 발명에 따른 비전센서 배치장치의 공간모델링부(110)는 비전센서가 배치될 공간의 지형을 구분한 벽/공간(Wall/Space) 레이어(a)와 2차원 격자 (2D Grid) 맵상의 특정영역을 이용하는 사용자의 유동량 및 임의의 출발점에서 목적지으로 이동할 사용자의 유동 확률 정보를 포함하는 에어리어(Area) 레이어(b)를 포함한다.The spatial modeling unit 110 of the apparatus for arranging a vision sensor according to the present invention is characterized in that it is specified on a wall / space layer (a) and a two-dimensional grid (2D Grid) map in which the terrain of the space in which the vision sensor is to be arranged is divided. It includes an area layer (b) containing the flow amount of the user using the area and the flow probability information of the user to move from any starting point to the destination.

벽/공간(Wall/Space) 레이어는 영상센서가 배치될 공간 중 보행 가능한 공간과 그렇지 않은 공간을 구분하여 에이전트의 경로 탐색 알고리즘에 적용되기 위한 것이다.The wall / space layer is to be applied to an agent's path search algorithm by distinguishing a walkable space from a space where an image sensor is to be disposed and a space that is not.

에어리어(Area) 레이어는 2차원 격자 (2D Grid) 맵상의 특정영역을 이용하는 사용자의 유동량 및 임의의 출발점에서 목적지로 이동할 사용자의 유동 확률 정보를 포함한다.The area layer includes the flow amount of the user using the specific area on the 2D grid map and the flow probability information of the user to move from the starting point to the destination.

제 1 영역과 제 2영역은 2차원 격자 (2D Grid) 맵상의 특정 위치를 기준으로 반지름 r의 원형으로 표현된다.The first region and the second region are represented by a circle of radius r with respect to a specific position on a 2D grid map.

따라서, 에어리어(Area) 레이어는 중요공간 영역을 추출하기 위한 위치, 범위, 사용자의 유동량, 출발점에서 목적지로 이동할 사용자의 유동 확률 정보등의 속성정보를 포함한다.Therefore, the area layer includes attribute information such as a position, a range for extracting an important spatial area, a flow amount of the user, and flow probability information of the user moving from the starting point to the destination.

유동확률이라 함은 2차원 격자(2D Grid) 맵상의 제1영역(출발점)에서 제 2영 역(목표지점)에 도착했을때 또 다른 목적지를 선택할 확률이다. 총 목적지 수 n에서 자기 자신을 제외한 n-1개의 배열로 이루어진다.The flow probability is the probability of selecting another destination when arriving at the second area (target point) from the first area (starting point) on the 2D grid map. The total number of destinations n consists of n-1 arrays excluding itself.

비전센서 배치장치의 공간모델링부(110)는 중요도(Priority) 레이어(layer)를 더 포함한다.The spatial modeling unit 110 of the vision sensor arrangement further includes a priority layer.

중요도(Priority) 레이어(layer)는 에이전트의 경로 탐색 등을 통해 공간중요도를 수치로 나타낸 데이터베이스(DB)이다. 에이전트이 행동에 따라 중요도를 업데이트 하여 최종적으로 카메라 배치위치결정에 중요한 정보로써 사용된다.Priority layer is a database (DB) that numerically represents the spatial importance through the agent's path search. Agent updates the importance according to the action and finally it is used as important information for camera positioning.

도 3 은 본 발명에 따른 비전센서 자동 배치 장치에서 에이전트의 이동 패턴을 모델링한 결과를 보여주는 도면이다.3 is a view showing a result of modeling the movement pattern of the agent in the automatic vision sensor arrangement according to the present invention.

본 발명은 에이전트를 사용자로 가정하여 시뮬레이션을 수행하는바, 에이전트는 실제 공간을 이용하는 사용자의 가능한 모든 움직임을 가상으로 구현한다.The present invention simulates an agent as a user, and the agent virtually implements all possible movements of the user using the real space.

실제 공간을 이용하는 사용자는 똑같은 출발점과 목표지점으로 이동하더라도 예측하기 어려울 정도로 다양한 경로를 사용한다.Users who use real spaces use various paths that are difficult to predict even if they move to the same starting point and target point.

사용자의 감성, 사전지식, 주변환경 등 다양한 요인에 따라 경로선택의 우선순위가 달라지기 때문이다. This is because the priority of route selection depends on various factors such as user's emotion, prior knowledge, and surrounding environment.

최단거리를 우선순위로 하는 인공지능 기반의 경로탐색 알고리즘으로 구해진 경로는 도3a에서 보이는 것과 같이 일반 사용자의 경로(도 3b)선택과 상당히 큰 차이를 보이는데 그 이유는 통상적으로 사용되는 경로탐색 알고리즘에서는 에이전트의 광역적인 지형정보를 모두 학습한 상태라고 가정하고, 국지적인 시야에 대한 고려를 하지 않았으며, 에이전트의 방향전환등에 대한 비용을 고려하지 않았기 때문 에 이동경로가 장애물, 벽에 최대한 붙은 꺽인선 형태로 나타난다.The path obtained by the AI-based path search algorithm with the shortest priority as shown in FIG. 3A is significantly different from the general user's path selection (FIG. 3B) as shown in FIG. 3A. It is assumed that all the topographical information of the agent has been learned, no consideration is given to the local field of view, and the cost of the agent's turn is not considered. Appears in the form.

본 발명에서는 이러한 실제 사용자의 이동경로와 에이전트의 이동경로 선택의 차이를 최소화하기 위하여 경로 탐색 알고리즘으로 구해진 루트 주변의 가용 경로를 추정하여 다양한 형태의 경로들을 추가로 계산한다.In the present invention, in order to minimize the difference between the actual user's movement path and the agent's movement path selection, various types of paths are further calculated by estimating available paths around the route obtained by the path search algorithm.

사용자가 선택할 수 있는 가능성을 가진 지역은 이런 파생경로에 나타난 다양한 이동경로 상의 좌표 중 하나에 대부분 포함된다.Regions with user-selectable possibilities are mostly included in one of the coordinates on the various movement paths shown in these derived routes.

에이전트는 초기에 모든 목적지에서 이동가능한 모든 영역을 검사하고, 다음과 같은 순서로 추론을 거듭하여 경로탐색 시뮬레이션을 수행한다.The agent initially examines all the regions that can be moved from all the destinations, and performs route search simulation by repeating inference in the following order.

1. 선택되지 않은 목적지가 존재하지 않는다면 시뮬레이션을 끝내고, 그렇지 않다면 현재위치에서 확률분포에 근거하여 목적지를 선택한다.1. If there is no unselected destination, end the simulation, otherwise choose a destination based on the probability distribution at the current location.

2.목적지까지의 경로를 경로탐색 알고리즘을 통해 탐색한다.2. The path to the destination is searched through the path search algorithm.

3.탐색된 알고리즘상의 경로에서 에어리어 속성정보에 따라 경로학장 알고리즘을 사용하여 경로를 확장한다.3. In the path of the searched algorithm, the path is extended by using the path scholar algorithm according to the area attribute information.

4.구해낸 모든 확장 경로상에 존재하는 이동가능한 지역의 공간중요도를 에어리어 확률분포에 따라 중요공간 지역 정보에 업데이트하나다.4. Update the spatial importance of the movable area existing on all the obtained expansion paths to the important spatial area information according to the area probability distribution.

5.목적지를 현재위치로 변경하고, 1번으로 돌아간다.5. Change the destination to your current location and return to step 1.

길을 찾는 것은 출발점에서 목적지가지 가장 효율적인 이동 순서를 탐색해가는 추론의 과정이다. 즉, 경로탐색은 목적지를 찾아가는 물리적인 행위 자체뿐만 아니라 그 행위를 하는 과정에서 나타나는 환경정보를 인지하고 판단하며 검토하는 심리적 과정을 포함한다.Finding a path is the process of reasoning that seeks the most efficient sequence of movements from the starting point to the destination. That is, the path search includes a psychological process of recognizing, judging, and reviewing not only the physical action of finding the destination but also the environmental information appearing in the process of performing the action.

경로탐색에 고려되는 요소는 지형적인 환경요소와 가능한 여러 탐색경로 중 선호되는 가치에 따라 최적의 경로를 선택하게 해주는 목적요소 그리고 그 외에 길을 찾는 주체가 가진 감성적인 요소 역시 크게 작용한다.The factors considered in the path search are the objective factors that allow the selection of the optimal path according to the topographical environmental factors and the preferred values of the various search paths, and the emotional factors of the subject who finds the route.

환경적인 요소를 모델링하여 시뮬레이션에 도입한 예는 기존의 연구에서도 많이 나타나고 있으나, 감성적인 요소를 경로탐색 알로리즘에 도입한 예는 많지 않다. 그 이유는 감성적인 부분은 인간의 학습능력과 추론능력, 지각능력, 자연언어의 이해능력등에 관련된 인공지능의 영역이며, 또 대부분의 연구에서 이런 모호하고 확신이 없는 영역을 시뮬레이션에 도이하는 것을 실효성이 없기 때문이다.There have been many examples of modeling environmental factors into simulations, but few have introduced emotional factors into path search algorithms. The reason is that the emotional part is the area of artificial intelligence related to human's learning ability, reasoning ability, perception ability, natural language comprehension ability, and in most research, it is effective to lead to simulation of this ambiguous and inconclusive area. Because there is no.

본 발명에서 이용한 경로 탐색 알고리즘 중 하나인 A* 알고리즘도 감성적인 부분을 배제한 최단경로, 최단비용이라는 목적만을 가지고 추론을 진행해가는 탐색 알고리즘이다.The A * algorithm, which is one of the path search algorithms used in the present invention, is a search algorithm that proceeds with inference only for the purpose of shortest path and shortest cost excluding the emotional part.

A* 알고리즘은 종래의 휴리스틱 서치(Heuristic Search)와 그래프 서치(Graph Search)알고리즘을 기반으로 하며, 그래프 서치는 기본적으로 탐색의 선택기준에 맞춰 트리구조로 연결된 맵, 또는 선택대응요소를 노드라는 것으로 정의한다.The A * algorithm is based on the conventional heuristic search and graph search algorithms. The graph search is basically a map or selection response element connected in a tree structure according to the search selection criteria. define.

A* 알고리즘은 다음과 같다.The A * algorithm is as follows.

1. 시작노드 A를 리스트 OPEN에 넣는다. A를 최초의 탐색트리 T에 저장한다.1. Put start node A in the list OPEN. Store A in the first search tree T.

2. 빈 리스트 CLOSED를 정의한다.2. Define the empty list CLOSED.

3. OPEN이 비어 있는지 확인해보고 비어있다면 탐색실패를 반환한다.3. Check if OPEN is empty and if it is empty return search failure.

4. OPEN에서 첫 번째 노드를 선택하여 An으로 칭하고 CLOSED에 넣는다.4. Select the first node in OPEN, call it An, and put it in CLOSED.

5. An이 목표 노드이면 A에서 An까지의 경로를 추적하여 반환한다.5. If An is the target node, trace and return the path from A to An.

6. 노드 An에 연결된 모든 노드들을 탐색트리 T에 저장한다.6. Store all nodes connected to node An in search tree T.

7. 연결된 모든 노드들을 OPEN에 넣는다.7. Put all connected nodes into OPEN.

8. 휴리스틱 (Heuristic)과 기타 팩터값에 다라 OPEN 내용을 재정렬한다.8. Rearrange the contents of the OPEN according to heuristics and other factors.

9. 단계 3으로 되돌아간다.9. Return to step 3.

본 발명에서의 A*알고리즘을 기반으로 2D Grid 기반 맵의 방향을 8가지로 나누어 고려하고, 휴리스틱 평가함수를 다음과 같이 정의함으로써 에이전트 경로탐색에 A* 알고리즘을 활용한다.Based on the A * algorithm in the present invention, the direction of the 2D Grid-based map is divided into eight types, and the heuristic evaluation function is defined as follows to utilize the A * algorithm for agent path search.

Figure 112009017703461-pat00001
Figure 112009017703461-pat00001

여기서, G는 시작노드로부터 현재노드가지의 이동비용 총합이며, H는 현재노드로부터 도착노드가지의 장애물을 무시한 이동비용 총합이다.Here, G is the sum of the moving costs of the current node branch from the starting node, and H is the sum of the moving costs ignoring the obstacles of the arriving node branches from the current node.

따라서 G와 H의 합인 F가 A*알고리즘에서 경로탐색에서 우선순위를 정하는 최종 기준이 된다. 이동비용의 경우 상하좌우 방향은 1, 대각선 방향은 1.4의 비용으로 설정하였다.Thus, F, the sum of G and H, is the final criterion for prioritizing path traversal in the A * algorithm. In the case of the moving cost, the up, down, left, and right directions were set at 1, and the diagonal direction was set at 1.4.

H를 구하기 위한 노드간의 이동에 대한 '이동 비용'을 계산하기 위해 맨하탄 기법(Manhattan Method)을 사용하였다.The Manhattan method was used to calculate the 'movement cost' of the movement between nodes to find H.

도 4는 본 발명에 따른 비전센서 자동 배치 장치에서 에이전트의 이동 패턴을 A* 알고리즘으로 모델링한 일 실시예를 보여주는 도면이다.4 is a view showing an embodiment of modeling the movement pattern of the agent in the A * algorithm in the automatic automatic vision sensor arrangement according to the present invention.

상기 언급한대로 A* 알고리즘을 통해 찾아낸 경로와 실제 사용자들의 다양한 경로 사이에는 많은 차이가 있다. 이를 보완하기 위해 본 발명에서는 '경로확장 알고리즘'을 추가적으로 적용하였다.As mentioned above, there are many differences between the paths found through the A * algorithm and the various paths of real users. In order to compensate for this, the path extension algorithm is additionally applied in the present invention.

에이전트 경로탐색 알고리즘에서는 '경로확장 알고리즘'을 통해 A*알고리즘의 경로 주변의 보행가능 공간 중 사용자가 이동할 것으로 예상되는 영역을 추론하여 중요 공간 추출을 위한 정보를 업데이트 한다.The agent path search algorithm updates the information for extracting important spaces by inferring the area where the user is expected to move among the walkable spaces around the path of the A * algorithm through the 'path extension algorithm'.

도 5는 본 발명에 따른 비전센서 자동 배치 장치에서 에이전트의 이동 패턴을 경로 확장 알고리즘으로 모델링한 일 실시예를 보여주는 도면이다.FIG. 5 is a diagram illustrating an embodiment of modeling a movement pattern of an agent using a path extension algorithm in the automatic vision sensor arrangement according to the present invention.

경로확장 알고리즘의 추론 과정을 다음과 같다.The reasoning process of the path extension algorithm is as follows.

1.에어리어 속성 정보에 따른 출발지점, 도착지점의 영역범위 r1, r2을 구한다.1. Obtain the area ranges r1 and r2 of the starting point and the arrival point according to the area attribute information.

2.출발지점의 영역범위 r1의 크기에 따라 확장 출발 지점 개수 n을 구하고, 영역 범위 내에 n개의 확장 출발지점 위치를 정한다.2. According to the size of the area range r1 of the starting point, the number of extended starting points n is determined, and n extended starting point positions are determined within the area range.

3.도착지점의 영역범위 r2의 크기에 따라 확장 출발 지점 개수 m을 구하고, 영역 범위 내에 m개의 확장 출발지점 위치를 정한다.3. The number of extended starting points m is determined according to the size of the area range r2 of the arrival point, and m extended starting point positions are determined within the area range.

4.출발지점을 포함한 확장 출발지점 n+1개, 도착지점을 포함한 확장 도착지점 m+1개에 대해 A* 알고리즘을 적용하여 (n+1)*(m+1)개의 추가 경로를 탐색한다.4.Explore (n + 1) * (m + 1) additional routes by applying the A * algorithm to n + 1 extended departure points including departure points and m + 1 expansion arrival points including arrival points. .

5. 각 경로들의 선에 의해 둘러쌓인 Grid들을 검색하여 확장역역으로 추가한다.5. Search for the grids enclosed by the lines in each path and add them to the extension.

6.추가된 모든 경로에 대한 Grid와 5번에 대한 Grid들을 확장영역으로 리턴 한다.6. Return the Grid for all added paths and Grid for # 5 to the extended area.

카메라와 같은 비전센서 배치위치를 선택하는 알고리즘은 그리디 전략(Greedy Strategy)의 알고리즘으로 설계된다.The algorithm for selecting the position of the vision sensor such as the camera is designed with the algorithm of the Greedy Strategy.

공간 모델부의 에어리어 속성에서 중요도 정보, 그리고 에이전트의 경로탐색 알고리즘으로부터 얻은 경로정보를 바탕으로 중요공간 영역을 도출하고, 배치위치선택은 최종적으로 이 중요공간 영역을 통해 배치위치를 선택하게 된다.Based on the importance information in the area attributes of the spatial model unit and the route information obtained from the agent's path search algorithm, the critical space region is derived. Finally, the placement position selection selects the placement position through this important space region.

현재의 상태정보 만을 가지고 판단을 하는 그리디 전략의 특성에 맞게 배치위치 선택은 공간 모델의 모든 좌표점들을 검사하여 카메라 FOV(Field-Of-View)를 통해 가장 중요도가 높은 지점을 정한다.According to the characteristics of the greedy strategy that makes judgments based on the current state information only, the placement position selection examines all coordinate points of the spatial model and determines the most important points through the camera field-of-view (FOV).

도 6 는 본 발명의 비전센서의 FOV(Field-Of-View)를 모델링한 실시예를 보여주는 도면이다.6 is a view showing an embodiment modeling a field-of-view (FOV) of the vision sensor of the present invention.

카메라 FOV(Field-Of-View)는 도 4에 도시된 바와 같이 비전 시스템과의 연계를 고려하지 않은 최소한의 구조를 가지고 있다. The camera field-of-view (FOV) has a minimal structure without considering the linkage with the vision system as shown in FIG. 4.

카메라의 위치를 기준으로 인식거리와 가용각도를 파라미터로 한 삼각형의 구조를 가진다. It has a triangular structure based on the camera's position as a parameter of recognition distance and available angle.

1개 비전카메라 위치는 2D 기반의 Grid 맵에서 X,Y의 정수좌표로 위치하고 고정된 위치에서 최대 360도의 위치각도 값을 가진다.One vision camera is positioned as an integer coordinate of X and Y in a 2D based grid map and has a maximum position angle of 360 degrees at a fixed position.

그러므로 시뮬레이션 상에서 비전카메라의 FOV를 결정하는 인자는 비전카메라 포지션(Cx, Cy), 위치각도 φ, 인식거리 d, 가용각도 a로 총 4가지가 된다.Therefore, there are four factors that determine the FOV of the vision camera in the simulation: the vision camera position (Cx, Cy), the position angle φ, the recognition distance d, and the available angle a.

최적의 위치는 각 좌표점을 기준으로 조건에 맞는 적합도(Suitability)를 검 사하게 되는데, 이 적합도는 중요공간 영역의 공간 중요도에서 카메라의 비용과 성능 등 다양한 조건에 따라 달라지게 된다.The optimal position is checked for suitability based on each coordinate point. The suitability depends on various conditions such as the cost and performance of the camera in the spatial importance of the critical space area.

모든 좌표점과 카메라 타입에 다른 적합도는 다음과 같은 식으로 계산된다.The goodness of fit for all coordinate points and camera types is calculated as:

Figure 112009017703461-pat00002
Figure 112009017703461-pat00002

적합도는 해당 Grid 좌표에서 모든 방향에 대한 가장 FOV내에 공간 중요도를 포괄할 수 있는 각도에서의 수치를 뜻한다. 즉, 해당 Grid에서 얻을 수 있는 최대 공간 중요도 커버리지이다.Goodness-of-fit refers to a number at an angle that can cover the spatial importance within the most FOV for all directions in the corresponding grid coordinates. In other words, it is the maximum space importance coverage that can be obtained in the Grid.

이 값을 카메라 비용으로 나눈 것을 적합도라고 정의하였다.This value divided by the camera cost was defined as goodness of fit.

시뮬레이터에서 설정한 다양한 타입의 카메라들 중에서 해당 Grid에서 가장 높은 적합도를 갖는 카메라는 가격이 저렴하면서 성능이 우수한 카메라가 될 것이다.Among the various types of cameras set in the simulator, the camera with the highest suitability in the grid will be a low cost and high performance camera.

계산된 적합도 맵의 모든 Grid중에서 가장 높은 적합도를 갖는 Gird의 순서대로 카메라 배치 위치가 선택되고, 선택된 위치를 기준으로 일정범위 내의 적합도 맵은 카메라가 설치됨에 동시에 다시 재구성된다.The camera placement position is selected in the order of Gird having the highest goodness of fit among all the grids of the goodness of fit map, and the goodness of fit within the range is reconstructed at the same time as the camera is installed.

도 7 는 본 발명에 따른 비전 센서 자동 배치 장치의 적합도를 추출한 일 실시예를 보여주는 도면이다.7 is a diagram illustrating an embodiment of extracting a goodness of fit of the automatic vision sensor arrangement according to the present invention.

도 7 는 카메라의 종류에 따른 적합도를 추출한 일 실시예로서 카메라의 종 류를 3가지로 설정한다.FIG. 7 illustrates three types of cameras as one example of extracting a goodness of fit according to the type of camera.

카메라 FOV모델링을 위해 인식거리 d, 가용각도 a, 카메라 비용 c를 변수로 한다.For the camera FOV modeling, the recognition distance d, the available angle a and the camera cost c are variables.

카메라 성능은 아래 표1과 같다.Camera performance is shown in Table 1 below.

인식거리Recognition distance 가용각도Available angle 비용cost 카메라 A Camera A 60 Grid 60 Grid 60˚ 60˚ 80 80 카메라 B Camera B 90 Grid 90 Grid 450˚ 450˚ 120 120 카메라 C Camera C 120 Grid120 Grid 60˚ 60˚ 200 200

그리디 알고리즘을 통한 배치 알고리즘은 맵상의 모든 Grid에서 모든 카메라 타입에 따른 배치비용과 포괄할 수 있는 최대 공간중요도의 합을 고려하여 적합도를 계산한다.The placement algorithm using the greedy algorithm calculates the goodness of fit in consideration of the sum of the placement costs and the maximum spatial importance that can be included for all camera types in all Grids on the map.

카메라의 적합도 맵은 최종적으로 최적인 카메라 배치개수 설정까지 지속적으로 업데이트 된다.The goodness-of-fit map of the camera is continuously updated until the optimal number of camera batches is finally set.

최종적으로 도출된 Grid 상에서의 최초의 카메라 배치적합도 맵은 아래 도 5와 같다.The first camera placement suitability map on the finally derived grid is shown in FIG. 5.

도 7a는 카메라 A의 배치적합도를 보여주는 그래프이고, 도 7b는 카메라 B의 배치적합도를 보여주는 그래프이며 도 7c는 카메라 C의 배치적합도를 보여주는 그래프이다.FIG. 7A is a graph showing a placement suitability of camera A, FIG. 7B is a graph showing a placement suitability of camera B, and FIG. 7C is a graph showing a placement suitability of camera C. FIG.

입력된 공간의 Priority Layer상에 업데이트된 모든 공간중요도를 카메라가 FOV를 통해 커버한다면 배치는 완료되지만, 100%의 공간중요도를 충족하는 것이 초적의 카메라 배치라고 볼 수는 없다.If the camera covers all updated spatial importance on the Priority Layer of the input space through the FOV, the placement is complete, but meeting the 100% spatial importance is not the primary camera placement.

카메라의 최적 배치는 환경, 자원등의 조건에 따라 달라질 수 있는 불확실한 기준이기 때문에 본 발명에서는 카메라의 최적 배치 개수를 위해 (1) 배치비용 한계(비용 한계를 넘지 않는 최대한의 배치개수)와 (2)공간중요도의 설정 최소 커버리지율(설정된 최소 커버리지율을 충족하는 최소한의 배치 개수)을 계산한다.Since the optimal placement of the camera is an uncertain standard that may vary depending on the conditions of the environment, resources, etc., in the present invention, for the optimal number of placement of the camera, (1) placement cost limit (maximum number of placements not exceeding the cost limit) and (2) Calculate the set minimum coverage rate (minimum number of batches that meet the set minimum coverage rate) of spatial importance.

자원에 기준한 배치개수, 혹은 공간의 감시수준에 따른 배치개수를 필요에 따라 산출해낼 수 있다. 카메라 배치 알고리즘을 아래와 같다.The number of batches based on resources or the number of batches according to the level of monitoring of the space can be calculated as needed. The camera placement algorithm is shown below.

1.그리디 전략에 의한 모든 공간 맵에서 카메라 FOV에 의한 커버리지 양과 비용을 고려한 적합도 맵을 구한다.1. Find the goodness-of-fit map considering the amount and cost of coverage by camera FOV in all spatial maps by grid strategy.

2.적합도 맵에서 가장 높은 수치의 Grid 좌표를 선택한다.2. Select the grid coordinate with the highest value in the fitness map.

3.카메라를 배치하고 배치 List에 업데이트한다.3. Place the camera and update it in the batch list.

4.배치수량이 최적이라고 판단되면 배치를 종료한다.4. When the batch quantity is determined to be optimal, terminate the batch.

5.배치된 카메라 위치 주변의 적합도 맵을 초기화 한다.5. Initialize the goodness-of-fit map around the deployed camera position.

6.2번으로 돌아간다.Go back to 6.2.

도 8 는 본 발명에 따른 비전 센서 자동 배치 장치의 배치비용의 한계값을 만족하는 카메라 배치위치의 일 실시예를 보여주는 도면이다.8 is a view showing an embodiment of a camera arrangement position that satisfies the limit value of the placement cost of the automatic vision sensor arrangement device according to the present invention.

도 8a는 카메라 배치비용의 한계값이 500만원 일때의 카메라 배치이고, 도 8b는 카메라 배치비용의 한계값이 1200만원 일때의 카메라 배치이고,도 8c는 카메라 배치비용의 한계값이 1500만원 일때의 카메라 배치의 실시예를 보여준다.8A shows a camera arrangement when the threshold of camera placement cost is 5 million won, FIG. 8B shows a camera arrangement when the threshold value of camera placement cost is 12 million won, and FIG. 8C shows a camera arrangement when the threshold value of camera placement cost is 15 million won. An embodiment of the camera arrangement is shown.

도 9 는 본 발명에 따른 비전 센서 자동 배치 장치의 최소 중요도 커버리지율을 만족하는 카메라 배치위치의 일 실시예를 보여주는 도면이다.9 is a view illustrating an embodiment of a camera arrangement position that satisfies the minimum importance coverage ratio of the automatic vision sensor arrangement according to the present invention.

도 9a는 카메라 최소 중요도 커버리지율이 20%일때의 카메라 배치이고, 도 9b는 카메라 최소 중요도 커버리지율이 60%일때의 카메라 배치이고, 도 9c는 카메라 최소 중요도 커버리지율이 80%일때의 카메라 배치의 실시예를 보여준다.9A is a camera arrangement when the camera minimum importance coverage ratio is 20%, FIG. 9B is a camera arrangement when the camera minimum importance coverage ratio is 60%, and FIG. 9C is a camera arrangement when the camera minimum importance coverage ratio is 80%. An example is shown.

도 10 은 본 발명에 따른 비전 센서 자동 배치 방법의 흐름도를 보여주는 도면이다.10 is a flowchart illustrating a method for automatically arranging a vision sensor according to the present invention.

소정 공간을 2차원 격자 (2D Grid) 맵으로 모델링한다(S1010)The predetermined space is modeled as a 2D grid map (S1010).

2차원 격자 맵 상의 특정 영역을 이용하는 에이전트의 유동량 및 출발점에서 목적지로 이동할 에이전트의 유동 확률을 기초로 2차원 격자 맵 상의 각 격자 공간 중요도를 수치로 표현한다(S1020).Based on the flow amount of the agent using a specific area on the two-dimensional grid map and the flow probability of the agent to move from the starting point to the destination, the importance of each grid space on the two-dimensional grid map is expressed numerically (S1020).

2차원 격자 맵 상의 특정 좌표에 있는 비전센서의 인식거리(d),가용각도(a) 및 위치각도(φ)를 기초로 정의되는 삼각형(FOV : Field-of-view) 내부 격자의 공간 중요도 수치의 합, 상기 비전센서의 성능 및 비용을 기초로 상기 비전센서의 적합도를 추출한다(S1030).Spatial importance figures of the grid inside the field-of-view (FOV) defined based on the recognition distance (d), available angle (a) and position angle (φ) of the vision sensor at specific coordinates on a two-dimensional grid map Sum, the suitability of the vision sensor is extracted based on the performance and cost of the vision sensor (S1030).

비전센서 배치 비용의 최대값 및 상기 소정 공간의 최소 감시영역 비율을 나타내는 최소 충족 커버리지를 기초로 비전센서 배치 개수를 구하고, 상기 비전센서 적합도가 높은 순서대로 비전센서 배치 위치를 선정한다(S1040).The number of vision sensor arrangements is obtained based on the maximum value of the vision sensor placement cost and the minimum satisfied coverage representing the minimum surveillance area ratio of the predetermined space, and the vision sensor arrangement positions are selected in the order of high vision sensor suitability (S1040).

본 발명은 첨부된 도면에 도시된 일 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 수 있을 것이다. Although the present invention has been described with reference to one embodiment shown in the accompanying drawings, it is merely an example, and those skilled in the art may realize various modifications and equivalent other embodiments therefrom. I can understand.

도 1은 본 발명에 따른 비전센서 자동 배치장치의 구성을 보여주는 도면이다.1 is a view showing the configuration of the automatic vision sensor arrangement according to the invention.

도 2 는 본 발명에 따른 비전센서 배치장치의 공간모델링부을 구성하는 레이어의 구성을 보여주는 도면이다.2 is a view showing the configuration of the layer constituting the spatial modeling unit of the vision sensor arrangement according to the present invention.

도 3 은 본 발명에 따른 비전센서 자동 배치 장치에서 에이전트의 이동 패턴을 모델링한 결과를 보여주는 도면이다.3 is a view showing a result of modeling the movement pattern of the agent in the automatic vision sensor arrangement according to the present invention.

도 4는 본 발명에 따른 비전센서 자동 배치 장치에서 에이전트의 이동 패턴을 A* 알고리즘으로 모델링한 일 실시예를 보여주는 도면이다.4 is a view showing an embodiment of modeling the movement pattern of the agent in the A * algorithm in the automatic automatic vision sensor arrangement according to the present invention.

도 5는 본 발명에 따른 비전센서 자동 배치 장치에서 에이전트의 이동 패턴을 경로 확장 알고리즘으로 모델링한 일 실시예를 보여주는 도면이다.FIG. 5 is a diagram illustrating an embodiment of modeling a movement pattern of an agent using a path extension algorithm in the automatic vision sensor arrangement according to the present invention.

도 6 는 본 발명의 비전센서의 FOV(Field-Of-View)를 모델링한 실시예를 보여주는 도면이다.6 is a view showing an embodiment modeling a field-of-view (FOV) of the vision sensor of the present invention.

도 7 는 본 발명에 따른 비전 센서 자동 배치 장치의 적합도를 추출한 일 실시예를 보여주는 도면이다.7 is a diagram illustrating an embodiment of extracting a goodness of fit of the automatic vision sensor arrangement according to the present invention.

도 8 는 본 발명에 따른 비전 센서 자동 배치 장치의 배치비용의 한계값을 만족하는 카메라 배치위치의 일 실시예를 보여주는 도면이다.8 is a view showing an embodiment of a camera arrangement position that satisfies the limit value of the placement cost of the automatic vision sensor arrangement device according to the present invention.

도 9 는 본 발명에 따른 비전 센서 자동 배치 장치의 최소 중요도 커버리지율을 만족하는 카메라 배치위치의 일 실시예를 보여주는 도면이다.9 is a view illustrating an embodiment of a camera arrangement position that satisfies the minimum importance coverage ratio of the automatic vision sensor arrangement according to the present invention.

도 10은 본발명에따른 비전센서자동배치방법의 흐름도를 보여주는 도면이다.10 is a flowchart illustrating a method for automatically arranging a vision sensor according to the present invention.

Claims (10)

소정 공간을 2차원 격자 (2D Grid) 맵으로 모델링하는 공간 모델링부;A space modeling unit for modeling a predetermined space as a 2D grid map; 상기 격자 맵 상의 제 1 영역을 이용하는 에이전트의 유동량 및 상기 제 1 영역에서 제 2 영역으로 이동할 에이전트의 유동 확률을 기초로 상기 격자 맵 상의 각 격자 공간 중요도를 수치로 나타내는 중요 공간 추출부;An important space extraction unit that numerically represents each grid space importance on the grid map based on the flow amount of the agent using the first area on the grid map and the flow probability of the agent to move from the first area to the second area; 상기 격자 맵 상의 특정 좌표에 있는 비전센서의 인식거리(d),가용각도(a) 및 위치각도(φ)를 기초로 정의되는 삼각형(FOV : Field-of-view) 내부 격자의 공간 중요도 수치의 합, 상기 비전센서의 성능 및 비용을 기초로 상기 비전센서의 적합도를 추출하는 적합도 추출부; 및The spatial importance of the internal grid of a field-of-view (FOV) defined on the basis of the recognition distance (d), the available angle (a) and the position angle (φ) of the vision sensor at a specific coordinate on the grid map. A suitability extracting unit configured to extract a suitability of the vision sensor based on a sum and performance and cost of the vision sensor; And 비전센서 배치 비용의 최대값 및 상기 소정 공간의 최소 감시영역 비율을 나타내는 최소 충족 커버리지를 기초로 비전센서 배치 개수를 구하고, 상기 비전센서 적합도가 높은 순서대로 비전센서 배치 위치를 선정하는 배치 위치 선정부;를 포함하는 비전센서 자동 배치장치.Arrangement position selection unit for obtaining the number of vision sensor arrangement based on the maximum value of the vision sensor placement cost and the minimum satisfied coverage representing the minimum surveillance area ratio of the predetermined space, and selects the vision sensor arrangement position in order of high vision sensor suitability Vision sensor automatic placement device comprising; 제 1 항에 있어서,The method of claim 1, 상기 비전 센서는 카메라인 것을 특징으로 하는 비전센서 자동 배치장치.The vision sensor automatic placement device, characterized in that the camera. 제 1 항에 있어서,상기 공간 모델링부는According to claim 1, The spatial modeling unit 상기 소정 공간 중 보행 가능한 공간과 그렇지 않은 공간을 구분하는 벽/공 간(Wall/Space) 레이어(layer);A wall / space layer that separates a walkable space from the predetermined space and a space that is not; 상기 격자 (2D Grid) 맵 상의 제 1 영역을 이용하는 사용자의 유동량, 상기 제 1 영역에서 제 2 영역으로 이동할 사용자의 유동 확률 정보, 상기 제 1 영역와 제 2 영역의 중심 좌표 및 반지름 정보를 포함하는 에어리어(Area) 레이어(layer); 및Area including the flow amount of the user using the first area on the 2D Grid map, the flow probability information of the user to move from the first area to the second area, the center coordinates and radius information of the first area and the second area (Area) layer; And 상기 중요 공간 추출부에서 추출된 격자의 공간 중요도 수치를 상기 격자 맵 상에 나타낸 중요도(Priority) 레이어(layer);를 포함하는 것을 특징으로 하는 비전센서 자동 배치장치.And a priority layer representing a spatial importance value of the grid extracted by the critical space extraction unit on the grid map. 제 1 항에 있어서,The method of claim 1, 상기 에이전트의 상기 제 1 영역에서 상기 제 2 영역으로의 이동은 최단경로 및 최단비용을 기초로한 A* 경로 탐색 알고리즘 및 경로확장 알고리즘을 통하여 모델링되는 것을 특징으로 하는 비전센서 자동 배치장치.And the movement of the agent from the first area to the second area is modeled through an A * path search algorithm and a path extension algorithm based on the shortest path and the shortest cost. 제 4 항에 있어서,The method of claim 4, wherein 상기 A* 경로 탐색 알고리즘은 휴리스틱 서치(Heuristic Search)와 그래프 서치(Graph Search)알고리즘을 기초로 이루어 지는 것을 특징으로 하는 비전센서 자동 배치장치.The A * path search algorithm is based on the heuristic search (Heuristic Search) and graph search (Graph Search) algorithm, characterized in that the automatic arrangement of the vision sensor. 소정 공간을 2차원 격자 (2D Grid) 맵으로 모델링하는 공간 모델링 단계;A space modeling step of modeling a predetermined space as a 2D grid map; 상기 격자 맵 상의 제 1 영역을 이용하는 에이전트의 유동량 및 상기 제 1 영역에서 제 2 영역으로 이동할 에이전트의 유동 확률을 기초로 상기 격자 맵 상의 각 격자 공간 중요도를 수치로 나타내는 중요 공간 추출 단계;An important space extraction step of numerically representing each grid space importance on the grid map based on the flow amount of the agent using the first area on the grid map and the flow probability of the agent to move from the first area to the second area; 상기 격자 맵 상의 특정 좌표에 있는 비전센서의 인식거리(d),가용각도(a) 및 위치각도(φ)를 기초로 정의되는 삼각형(FOV : Field-of-view) 내부 격자의 공간 중요도 수치의 합, 상기 비전센서의 성능 및 비용을 기초로 상기 비전센서의 적합도를 추출하는 적합도 추출 단계; 및The spatial importance of the internal grid of a field-of-view (FOV) defined on the basis of the recognition distance (d), the available angle (a) and the position angle (φ) of the vision sensor at a specific coordinate on the grid map. A suitability extracting step of extracting a goodness of fit of the vision sensor based on a sum and performance and cost of the vision sensor; And 비전센서 배치 비용의 최대값 및 상기 소정 공간의 최소 감시영역 비율을 나타내는 최소 충족 커버리지를 기초로 비전센서 배치 개수를 구하고, 상기 비전센서 적합도가 높은 순서대로 비전센서 배치 위치를 선정하는 배치 위치 선정 단계;를 포함하는 비전센서 자동 배치방법.Arrangement position selection step of obtaining the number of vision sensor arrangement based on the maximum value of the vision sensor placement cost and the minimum satisfied coverage representing the minimum surveillance area ratio of the predetermined space, and selecting the vision sensor arrangement position in order of the high degree of vision sensor suitability Vision sensor automatic placement method comprising; 제 6 항에 있어서,The method of claim 6, 상기 비전 센서는 카메라인 것을 특징으로 하는 비전센서 자동 배치방법.The vision sensor automatic placement method, characterized in that the camera. 제 6 항에 있어서,상기 공간 모델링 단계는The method of claim 6, wherein the spatial modeling step 상기 소정 공간 중 보행 가능한 공간과 그렇지 않은 공간을 구분하는 벽/공간(Wall/Space) 레이어(layer);A wall / space layer that separates a walkable space from the predetermined space and a space that is not; 상기 격자 (2D Grid) 맵 상의 제 1 영역을 이용하는 사용자의 유동량, 상기 제 1 영역에서 제 2 영역으로 이동할 사용자의 유동 확률 정보, 상기 제 1 영역와 제 2 영역의 중심 좌표 및 반지름 정보를 포함하는 에어리어(Area) 레이어(layer); 및Area including the flow amount of the user using the first area on the 2D Grid map, the flow probability information of the user to move from the first area to the second area, the center coordinates and radius information of the first area and the second area (Area) layer; And 상기 추출된 격자의 공간 중요도 수치를 상기 격자 맵 상에 나타낸 중요도(Priority) 레이어(layer);를 포함하는 것을 특징으로 하는 비전센서 자동 배치방법.And a priority layer representing a spatial importance value of the extracted grating on the grating map. 제 6항에 있어서,The method of claim 6, 상기 에이전트의 상기 제 1 영역에서 상기 제 2 영역으로의 이동은 최단경로 및 최단비용을 기초로한 A* 경로 탐색 알고리즘 및 경로확장 알고리즘을 통하여 모델링되는 것을 특징으로 하는 비전센서 자동 배치방법.And the movement of the agent from the first area to the second area is modeled through an A * path search algorithm and a path extension algorithm based on the shortest path and the shortest cost. 제 9 항에 있어서,The method of claim 9, 상기 A* 경로 탐색 알고리즘은 휴리스틱 서치(Heuristic Search)와 그래프 서치(Graph Search)알고리즘을 기초로 이루어 지는 것을 특징으로 하는 비전센서 자동 배치방법.The A * path search algorithm is based on the heuristic search (Heuristic Search) and graph search (Graph Search) algorithm, characterized in that the automatic positioning method of the vision sensor.
KR1020090024946A 2009-03-24 2009-03-24 Apparatus and method for vision sensor automatic placement KR100986918B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090024946A KR100986918B1 (en) 2009-03-24 2009-03-24 Apparatus and method for vision sensor automatic placement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090024946A KR100986918B1 (en) 2009-03-24 2009-03-24 Apparatus and method for vision sensor automatic placement

Publications (2)

Publication Number Publication Date
KR20100106775A KR20100106775A (en) 2010-10-04
KR100986918B1 true KR100986918B1 (en) 2010-10-08

Family

ID=43135294

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090024946A KR100986918B1 (en) 2009-03-24 2009-03-24 Apparatus and method for vision sensor automatic placement

Country Status (1)

Country Link
KR (1) KR100986918B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101473956B1 (en) * 2014-06-25 2014-12-17 (주)그린아이티코리아 Modeling method of 3D spatial information using 2D floor plan and video surveillance system using 3D spatial model
KR102527267B1 (en) * 2022-12-28 2023-05-02 엔이티 주식회사 The method of deriving the optimal structure of a detector configured in a three-dimensional distribution imaging device of radionuclide

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101502505B1 (en) * 2013-11-21 2015-03-13 (주)코아텍 Method for evaluating safety performance of target space and apparatus thereof
KR102129589B1 (en) * 2019-02-12 2020-07-08 서울대학교산학협력단 Method for sensor network development and system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010033919A (en) * 1998-01-06 2001-04-25 피터 엔. 데트킨 Method of determining relative camera orientation position to create 3-d visual images
KR100670816B1 (en) 2005-12-09 2007-01-19 한국전자통신연구원 Apparatus and method for determining establishment position of image acquisition camera using 3 dimension space information
WO2008100604A1 (en) 2007-02-16 2008-08-21 Telcordia Licensing Company, Llc Method for equitable placement of a limited number of sensors for wide area surveillance

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010033919A (en) * 1998-01-06 2001-04-25 피터 엔. 데트킨 Method of determining relative camera orientation position to create 3-d visual images
KR100670816B1 (en) 2005-12-09 2007-01-19 한국전자통신연구원 Apparatus and method for determining establishment position of image acquisition camera using 3 dimension space information
WO2008100604A1 (en) 2007-02-16 2008-08-21 Telcordia Licensing Company, Llc Method for equitable placement of a limited number of sensors for wide area surveillance

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101473956B1 (en) * 2014-06-25 2014-12-17 (주)그린아이티코리아 Modeling method of 3D spatial information using 2D floor plan and video surveillance system using 3D spatial model
KR102527267B1 (en) * 2022-12-28 2023-05-02 엔이티 주식회사 The method of deriving the optimal structure of a detector configured in a three-dimensional distribution imaging device of radionuclide

Also Published As

Publication number Publication date
KR20100106775A (en) 2010-10-04

Similar Documents

Publication Publication Date Title
US8514283B2 (en) Automatic vision sensor placement apparatus and method
Brown et al. Spatial process and data models: Toward integration of agent-based models and GIS
CN112307622B (en) Autonomous planning system and planning method for generating force by computer
Ioannidis et al. Cellular ants: A method to create collision free trajectories for a cooperative robot team
Balampanis et al. Area partition for coastal regions with multiple UAS
CN106054920A (en) Unmanned aerial vehicle flight path planning method and device
Dobrin A review of properties and variations of Voronoi diagrams
KR100986918B1 (en) Apparatus and method for vision sensor automatic placement
CN109506654A (en) Low latitude Route planner and device, aircraft
Kachroo et al. Dynamic programming solution for a class of pursuit evasion problems: the herding problem
CN108985516A (en) Indoor paths planning method based on cellular automata
Xu Graph planning for environmental coverage
Lee et al. A self-configurable large-scale virtual manufacturing environment for collaborative designers
Fedorova GANs for urban design
Legendre et al. Reconsidering microscopic mobility modeling for self-organizing networks
Benton et al. Tactical route planning: new algorithms for decomposing the map
Mou et al. Three-dimensional area coverage with uav swarm based on deep reinforcement learning
Mekni et al. Hierarchical path planning for multi-agent systems situated in informed virtual geographic environments
Escrig et al. Autonomous robot navigation using human spatial concepts
Dalezios et al. Spatio-temporal precipitation modelling in rural watersheds
Haddad et al. A framework to support qualitative reasoning about COAs in a dynamic spatial environment
Alahakoon et al. Mining a growing feature map by data skeleton modelling
KR102671170B1 (en) Apparatus for generating line with distributed generation and method thereof
Stewart et al. A Voronoi diagram based population model for social species of wildlife
Von Mammen et al. An organic computing approach to self-organizing robot ensembles

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131004

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140918

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20151020

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20161004

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20181002

Year of fee payment: 9