KR102128551B1 - Apparatus for modeling of reconnaissance behavior and the method thereof - Google Patents

Apparatus for modeling of reconnaissance behavior and the method thereof Download PDF

Info

Publication number
KR102128551B1
KR102128551B1 KR1020190020075A KR20190020075A KR102128551B1 KR 102128551 B1 KR102128551 B1 KR 102128551B1 KR 1020190020075 A KR1020190020075 A KR 1020190020075A KR 20190020075 A KR20190020075 A KR 20190020075A KR 102128551 B1 KR102128551 B1 KR 102128551B1
Authority
KR
South Korea
Prior art keywords
search
agent
point
unmanned vehicle
driving route
Prior art date
Application number
KR1020190020075A
Other languages
Korean (ko)
Inventor
김주연
한상우
변재정
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020190020075A priority Critical patent/KR102128551B1/en
Application granted granted Critical
Publication of KR102128551B1 publication Critical patent/KR102128551B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Tourism & Hospitality (AREA)
  • Educational Administration (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Educational Technology (AREA)
  • Automation & Control Theory (AREA)
  • Operations Research (AREA)
  • Traffic Control Systems (AREA)

Abstract

A reconnaissance behavior modeling method, according to an embodiment of the present invention, comprises: a first step of generating an environmental agent providing a virtual environment, an unmanned vehicle agent performing a reconnaissance operation in the virtual environment, a manned vehicle agent, and a reconnaissance personnel agent; a second step of allowing the unmanned vehicle agent to select a driving route and to search while moving along the driving route; a third step of allowing the unmanned vehicle agent to select an alighting point on the driving route when an unsearchable area is found while the unmanned vehicle agent is moving, and to transmit the driving route and the alighting point to the manned vehicle agent; a fourth step of allowing the manned vehicle agent to receive the driving route and the alighting point, to move along the driving route, and to make the reconnaissance personnel agent get off at the alighting point; a fifth step of allowing the reconnaissance personnel agent to board the manned vehicle agent after searching the unsearchable area; and a sixth step of storing a simulation result of reconnaissance behaviors according to the second to fifth steps. The second to fifth steps are performed according to a preset rule of conduct.

Description

수색 행위의 모델링 장치 및 그 방법{APPARATUS FOR MODELING OF RECONNAISSANCE BEHAVIOR AND THE METHOD THEREOF}Apparatus for modeling and method of search behavior {APPARATUS FOR MODELING OF RECONNAISSANCE BEHAVIOR AND THE METHOD THEREOF}

본 발명은 에이전트 기반의 수색 행위 모델링 장치 및 그 방법에 관한 것이다.The present invention relates to an agent-based search behavior modeling apparatus and method.

최근 무인화 기술의 발전으로 단순·반복 활동을 단계적으로 무인화하여 작업의 효율성을 증대시키기 위한 노력이 지속되고 있다. 다만 사람이 수행하던 작업(수색·정찰 등)을 무인시스템이 대신하기 위해서는 시뮬레이션 기법을 이용한 과학적 분석을 필요로 한다. With the recent development of unmanned technology, efforts have been made to increase the efficiency of work by unmanning simple and repeat activities step by step. However, in order for the unmanned system to replace the work (search, reconnaissance, etc.) performed by humans, scientific analysis using simulation techniques is required.

최근 군집 드론을 이용하여 실종자 수색 시스템을 제안한 발명 사례가 있으나, 이들의 효율적 운용방안을 분석하기 위한 기법은 고안된 바가 없다. 외국의 경우 시뮬레이션 모델을 이용하여 재난·테러 상황 하에서의 수색 시뮬레이션을 수행한 바는 있으나, 모의 능력의 제한으로 인해 수색장비와 수색인원의 세부적인 행동은 묘사가 곤란하다. Recently, there is an example of an invention that proposed a search system for missing persons using a cluster drone, but no technique has been devised to analyze their effective operation. In foreign countries, simulation simulation models have been used to conduct search simulations in disaster and terror situations, but due to limitations in simulation capabilities, it is difficult to describe the detailed behavior of search equipment and search personnel.

구체적으로 종래기술의 경우, 유·무인 수색장비별 이동·투입경로, 도보·탑승 수색 범위 등은 분석이 제한된다. 종래 기술은 란체스터 방정식 기반의 모델들이어서 시나리오 입력 시 분석가가 수작업으로 세부적 전술행위를 입력해야 하기 때문이다. 따라서 유무인 에이전트의 세부적인 수색행위를 일관되게 모의·분석하는 것에 한계가 있다.Specifically, in the case of the prior art, the analysis of the movement/input path for each manned and unmanned search equipment, the range of walking and boarding search, etc. is limited. This is because the prior art is a model based on the Lanchester equation, and when entering a scenario, the analyst must manually input detailed tactical actions. Therefore, there is a limitation in consistently simulating and analyzing detailed search behaviors of the unmarried agent.

또한 종래기술은 수색을 위한 에이전트 별로 경로상의 정찰 면적, 지형 험준도에 따른 이동 지연 시간 등은 파악하기 어렵다는 제약이 존재한다. In addition, the prior art has limitations in that it is difficult to grasp the reconnaissance area on the route for each agent for search and the movement delay time according to the terrain roughness.

본 발명은 전술한 문제점을 해결하고자 안출된 것으로서 유무인 에이전트의 세부적인 수색행위를 일관되게 모의·분석할 수 있는 수색 행위 모델링 장치 및 그 방법을 제공하는 것에 그 목적이 있다.An object of the present invention is to provide a search behavior modeling apparatus and method capable of consistently simulating and analyzing detailed search behaviors of an unmarried agent as being devised to solve the aforementioned problems.

본 발명의 다른 목적은 에이전트 및 지형의 특성에 따라 수색 행위를 세부적으로 모의하는 것이다.Another object of the present invention is to simulate the search behavior in detail according to the characteristics of the agent and the terrain.

본 발명의 또 다른 목적은 유무인 에이전트를 이용하여 효과적인 수색 계획을 수립할 수 있는 수색 행위 모델링 장치 및 그 방법을 제공하는 것이다.Another object of the present invention is to provide a search behavior modeling apparatus and method capable of establishing an effective search plan using an unattended agent.

전술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 수색 행위 모델링 방법은 가상 환경을 제공하는 환경 에이전트, 상기 가상 환경에서 수색 작업을 수행하는 무인 차량 에이전트, 유인 차량 에이전트 및 수색 인원 에이전트를 생성하는 제1 단계, 상기 무인 차량 에이전트가 주행 경로를 선정하고, 상기 주행 경로를 따라 이동하면서 탐색하는 제2 단계, 상기 무인 차량 에이전트가 이동 중 탐색 불가 지역을 발견한 경우 상기 주행 경로 상에 하차 지점을 선정하고, 상기 주행 경로 및 상기 하차 지점을 상기 유인 차량 에이전트로 전달하는 제3 단계, 상기 유인 차량 에이전트가 상기 주행 경로 및 하차지점을 전달받은 후, 상기 주행 경로를 따라 이동한 후 상기 하차 지점에 상기 수색 인원 에이전트를 하차시키는 제4 단계, 상기 수색 인원 에이전트가 상기 탐색 불가 지역을 탐색한 후 상기 유인 차량 에이전트에 탑승하는 제5 단계 및 상기 제2 단계 내지 제5 단계에 따른 수색 행위의 모의 결과를 저장하는 제6 단계를 포함하고 상기 제2 단계 내지 제5 단계는 기 설정된 행동 규칙에 따라 수행되는 것을 특징으로 한다.The search behavior modeling method according to an embodiment of the present invention for solving the above-described problems generates an environment agent providing a virtual environment, an unmanned vehicle agent performing a search operation in the virtual environment, a manned vehicle agent, and a search personnel agent The first step, the second step of the unmanned vehicle agent selecting a driving route and searching while moving along the driving route, and when the unmanned vehicle agent finds a non-searchable area while moving, get off point on the driving route The third step of selecting, and delivering the driving route and the disembarking point to the manned vehicle agent, after the manned vehicle agent receives the driving route and the disembarking point, after moving along the driving route, the disembarking point Step 4 of unloading the search personnel agent, simulation of the search action according to the fifth step and the second to fifth steps of boarding the manned vehicle agent after the search personnel agent searches for the unsearchable area A sixth step of storing the results is included, and the second to fifth steps are performed according to a predetermined behavior rule.

상기 기 설정된 행동 규칙은 상기 수색 작업을 위한 행동인 이동, 탐색, 경로 선정 및 하차 지점 선정 중에서 적어도 하나의 행동과 관련된 규칙인 것을 특징으로 한다.The preset action rule is characterized in that the action for the search operation is a rule related to at least one action among movement, search, route selection, and drop-off point selection.

상기 제2 단계 내지 제5 단계에서 상기 무인 차량, 유인 차량 및 수색 인원 에이전트는, 기 설정된 각각의 평균 기동 속력을 가지며 상기 기 설정된 행동 규칙에 따라 이동 시 자신의 현재 위치와 다음 위치간의 지형 험준도에 따라 상기 기 설정된 각각의 평균 기동 속력을 보정한 후 이동하는 것을 특징으로 한다.In the second to fifth steps, the unmanned vehicle, manned vehicle, and search personnel agent have a predetermined average maneuvering speed, and when moving according to the preset behavior rule, the terrain roughness between the current location and the next location According to the above, it is characterized in that it moves after correcting each preset average starting speed.

상기 제2 단계 및 제5 단계에서 상기 무인 차량 및 수색 인원 에이전트는 기 설정된 각각의 탐지 범위를 가지며 상기 기 설정된 행동 규칙에 따라 자신의 현재 위치에서 탐색을 할 때 상기 현재 위치에서 수목 지형의 존재 여부에 따라 상기 기 설정된 각각의 탐지 범위를 보정한 후 탐색하는 것을 특징으로 한다.In the second and fifth steps, the driverless vehicle and the search personnel agent each have a preset detection range and whether there is a tree topography at the current location when searching at their current location according to the preset behavior rule. According to the above, each of the preset detection ranges is corrected and then searched.

상기 제2 단계에서 상기 무인 차량 에이전트는 상기 기 설정된 행동 규칙에 따라 탐색 면적이 최대가 되거나 탐색 시간이 최소가 되는 주행 경로를 선정하는 것을 특징으로 한다.In the second step, the driverless vehicle agent selects a driving route in which a search area is maximized or a search time is minimum according to the preset behavior rule.

상기 탐색 불가 지역은 상기 수색 시나리오에 따라 기 설정된 의심 구역을 포함하는 지역이며 상기 제3 단계는 상기 무인 차량 에이전트는 상기 주행 경로를 따라 이동 중에 상기 탐색 불가 지역을 발견한 경우 자신의 현재 위치를 하차 지점 후보지에 추가하면서 이동하는 하차지점 후보지 추가 단계 및 상기 무인 차량 에이전트가 기 추가한 하차 지점 후보지 중에서 상기 의심 구역에 가장 인접한 하차 지점 후보지를 상기 하차 지점으로 선정하는 하차지점 선정 단계를 포함하는 것을 특징으로 한다.The non-discoverable area is an area including a pre-set suspicious area according to the search scenario, and in the third step, the unmanned vehicle agent gets off its current position when it finds the non-discoverable area while moving along the driving route. And a step of adding a drop-off point candidate that moves while being added to the branch candidate and a step of selecting a drop-off point that selects a candidate drop-off point closest to the suspected area from among the drop-off point candidates previously added by the driverless vehicle agent. Should be

상기 수색 행위의 모의 결과는 상기 무인 차량, 유인 차량 및 수색 인원 에이전트 각각이 탐색한 총 탐색 면적, 각 탐색에 소요된 총 탐색 시간, 각각의 이동 경로에 대한 정보 및 상기 환경 에이전트와 관련된 정보 중에서 적어도 하나를 포함하는 것을 특징으로 한다.The simulation result of the search action is at least among the total search area searched by each of the unmanned vehicle, manned vehicle, and search personnel agent, the total search time spent on each search, information on each movement path, and information related to the environment agent. It is characterized by including one.

상기 수색 행위 모델링 방법은 기 설정된 기준에 따라 상기 수색 행위의 모의 결과를 분석하는 제6 단계를 더 포함하고 상기 기 설정된 기준은 탐색 효율, 탐색 소요 시간 및 수색 행위에 대한 상기 무인 차량, 유인 차량 및 수색 인원 에이전트 각각의 기여도 중에서 적어도 하나를 포함하는 것을 특징으로 한다.The search behavior modeling method further includes a sixth step of analyzing a simulation result of the search behavior according to a preset criterion, wherein the preset criterion includes the search efficiency, the time required for the search, and the unmanned vehicle, the manned vehicle, and the search activity. It characterized in that it comprises at least one of the contribution of each search personnel agent.

본 발명의 다른 실시예에 따른 수색 행위 모델링 장치는 기 설정된 수색 시나리오에 따라 수색 행위를 모의하며 상기 가상 환경을 제공하는 환경 에이전트, 상기 가상 환경에서 수색 작업을 수행하는 무인 차량 에이전트, 유인 차량 에이전트 및 수색 인원 에이전트를 생성하는 에이전트 생성부, 무인 차량 에이전트, 유인 차량 에이전트 및 수색 인원 에이전트가 상기 가상 환경에서 기 설정된 행동 규칙에 따라 행동하도록 제어하는 제어부, 상기 환경 에이전트와 관련된 정보 및 무인 차량 에이전트, 유인 차량 에이전트 및 수색 인원 에이전트 중 적어도 하나와 관련된 정보를 무인 차량 에이전트, 유인 차량 에이전트 및 수색 인원 에이전트 각각에 제공하여 상기 수색 행위를 모의하는 모의부 및 상기 수색 행위의 모의 결과를 저장하는 수색 방안 저장부를 포함한다.A search behavior modeling apparatus according to another embodiment of the present invention simulates a search behavior according to a preset search scenario and provides an environment agent providing the virtual environment, an unmanned vehicle agent performing a search operation in the virtual environment, a manned vehicle agent, and Agent generation unit for generating search personnel agent, unmanned vehicle agent, manned vehicle agent, and control unit for controlling search personnel agent to act according to a predetermined action rule in the virtual environment, information related to the environment agent, and unmanned vehicle agent, manned A simulation unit simulating the search behavior by providing information related to at least one of a vehicle agent and a search personnel agent to an unmanned vehicle agent, a manned vehicle agent, and a search personnel agent, and a search plan storage unit storing simulation results of the search activity Includes.

상기 무인 차량 에이전트는 주행 경로를 선정하고, 상기 주행 경로를 따라 이동하면서 탐색하고 이동 중 탐색 불가 지역을 발견한 경우 상기 주행 경로 상에 하차 지점을 선정하고 상기 주행 경로 및 상기 하차 지점을 상기 모의부로 전달하며, 상기 유인 차량 에이전트는 상기 모의부로부터 상기 주행 경로 및 하차지점을 전달받고 상기 주행 경로를 따라 이동한 후 상기 하차 지점에 상기 수색 인원 에이전트를 하차시키며 상기 수색 인원 에이전트는 상기 탐색 불가 지역을 탐색한 후 상기 유인 차량 에이전트에 탑승하는 것을 특징으로 한다.The driverless vehicle agent selects a driving route, searches while moving along the driving route, and selects a disembarking point on the driving route when it finds an unsearchable area while moving, and uses the driving route and the disembarking point as the simulation unit Forward, the manned vehicle agent receives the driving route and the disembarkation point from the simulation unit, moves along the driving route, and unloads the search agent agent at the disembarking point, and the search agent agent detects the unsearchable area. And after searching, boarding the manned vehicle agent.

상기 기 설정된 행동 규칙은 상기 수색 작업을 위한 행동인 이동, 탐색, 경로 선정 및 하차 지점 선정 중에서 적어도 하나의 행동과 관련된 규칙인 것을 특징으로 한다.The preset action rule is characterized in that the action for the search operation is a rule related to at least one action among movement, search, route selection, and drop-off point selection.

본 발명은 행동 규칙에 따라 세부적 수색행위를 각각 수행하는 에이전트를 이용하여 일관되게 수색행위를 모의 및 분석 할 수 있는 바, 분석가의 개입 없이 보다 객관적인 모의 결과를 얻을 수 있다.The present invention can consistently simulate and analyze search behaviors using agents that perform detailed search behaviors according to the behavior rules, so that more objective simulation results can be obtained without analyst intervention.

또한 본 발명의 행동 규칙에 따라 수색 작업을 수행하는 에이전트는 지형의 특성에 따라 이동 속도와 탐지 범위가 달라지는 바, 모의 결과의 정확도가 개선된다.In addition, as the agent performing the search operation according to the behavioral rules of the present invention has a different movement speed and detection range according to the characteristics of the terrain, the accuracy of the simulation result is improved.

또한 본 발명의 행동 규칙에 따라 수색 작업을 수행하는 에이전트는 탐색이 불가능한 지역에 대해서는 하차 지점으로 선정하여 다른 에이전트가 탐색을 수행하는 바, 상호 협력하는 유무인 에이전트를 이용하여 주어진 조건 하에서 적정한 수색 활동 계획을 수립할 수 있을 뿐만 아니라 재난·범죄 대응 계획 모의 등 다른 용도로도 활용될 수 있다.In addition, an agent performing a search operation according to the behavioral rules of the present invention selects a disembarkation point for an area where search is not possible, and other agents perform search, and appropriate search activity is provided under a given condition using a mutually cooperated presence agent. Not only can a plan be made, but it can also be used for other purposes, such as planning a disaster/crime response plan.

도 1은 본 발명의 일 실시예에 따라 수색 행위를 모의하기 위한 에이전트간 상호 작용을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 수색 행위 모델링 장치의 구성을 도시한 도면이다.
도 3은 환경 에이전트가 생성되는 과정을 구체적으로 설명하기 위한 도면이다.
도 4는 무인 차량 에이전트의 동작을 설명하기 위한 흐름도이다.
도 5는 유인 차량 에이전트의 동작을 설명하기 위한 흐름도이다.
도 6은 수색 인원 에이전트의 동작을 설명하기 위한 흐름도이다.
도 7a 및 7b는 행동 규칙에 따른 무인 차량 에이전트의 경로 선정을 구체적으로 설명하기 위한 흐름도이다.
도 8은 행동 규칙에 따른 각 에이전트의 이동을 구체적으로 설명하기 위한 흐름도이다.
도 9a 및 9b는 행동 규칙에 따른 각 에이전트의 탐색을 구체적으로 설명하기 위한 도면이다.
도 10은 행동 규칙에 따라 무인 차량 에이전트의 하차 지점 선정을 구체적으로 설명하기 위한 흐름도이다.
도 11은 수색 행위의 모의 결과를 설명하기 위한 도면이다.
도 12는 본 발명의 다른 실시예에 따른 수색 행위 모델링 방법을 설명하기 위한 흐름도이다.
1 is a diagram for explaining interactions between agents for simulating search behavior according to an embodiment of the present invention.
2 is a diagram showing the configuration of a search behavior modeling apparatus according to an embodiment of the present invention.
3 is a view for specifically describing a process in which an environmental agent is generated.
4 is a flowchart for explaining the operation of the driverless vehicle agent.
5 is a flowchart for explaining the operation of the manned vehicle agent.
6 is a flowchart for explaining the operation of the search personnel agent.
7A and 7B are flowcharts for specifically explaining the route selection of an unmanned vehicle agent according to an action rule.
8 is a flowchart for specifically describing movement of each agent according to an action rule.
9A and 9B are diagrams for specifically explaining the discovery of each agent according to the action rule.
10 is a flowchart for specifically explaining the selection of an unattended vehicle agent's drop-off point according to an action rule.
11 is a view for explaining a simulation result of a search activity.
12 is a flowchart illustrating a search behavior modeling method according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일, 유사한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments disclosed herein will be described in detail with reference to the accompanying drawings, but the same or similar reference numerals are assigned to the same or similar elements, and overlapping descriptions thereof will be omitted. The suffixes "modules" and "parts" for the components used in the following description are given or mixed only considering the ease of writing the specification, and do not have meanings or roles distinguished from each other in themselves. In addition, in describing the embodiments disclosed in this specification, detailed descriptions of related well-known technologies are omitted when it is determined that they may obscure the gist of the embodiments disclosed herein. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed in the specification is not limited by the accompanying drawings, and all modifications included in the spirit and technical scope of the present invention , It should be understood to include equivalents or substitutes.

본 발명의 실시예에 따른 수색 행위 모델링 장치 및 그 방법은 일관되게 수색행위를 모의 및 분석 할 수 있는 바, 분석가의 개입 없이 보다 객관적인 모의 결가를 얻을 수 있다. 또한 본 발명은 수색 작업을 수행하는 에이전트의 이동 속도와 탐지 범위가 지형 특성에 따라 달라지는 바, 모의 결과의 정확도가 개선된다.The search behavior modeling apparatus and method according to an embodiment of the present invention can consistently simulate and analyze the search behavior, so that more objective simulation results can be obtained without the intervention of an analyst. In addition, the present invention improves the accuracy of the simulation result because the moving speed and the detection range of the agent performing the search operation vary depending on the terrain characteristics.

또한 본 발명은 상호 협력하는 유무인 에이전트를 이용하여 주어진 조건 하에서 적정한 수색 활동 계획을 수립할 수 있을 뿐만 아니라 재난·범죄 대응 계획 모의 등 다른 용도로도 활용될 수 있다. 상기 에이전트는 수색 행위를 모의하기 위해 가상 환경에서 수색 작업을 수행하는 개체를 의미한다. 이하 첨부된 도면을 참조하여 설명한다.In addition, the present invention can not only establish an appropriate search activity plan under a given condition by using a mutually exclusive agent, but can also be used for other purposes such as a disaster/crime response plan simulation. The agent refers to an entity performing a search operation in a virtual environment to simulate a search action. It will be described below with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따라 수색 행위를 모의하기 위한 에이전트간 상호 작용을 설명하기 위한 도면이다.1 is a diagram for explaining interactions between agents for simulating search behavior according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따라 수색 행위를 모의하기 위해 수색 행위 모델링 장치는 복수의 에이전트를 생성한다. 상기 복수의 에이전트는 환경 에이전트(H), 무인 차량 에이전트(U), 유인 차량 에이전트(G) 및 수색 인원 에이전트(I)를 포함할 수 있다.Referring to FIG. 1, in order to simulate a search action according to an embodiment of the present invention, the search action modeling device generates a plurality of agents. The plurality of agents may include an environmental agent (H), an unmanned vehicle agent (U), a manned vehicle agent (G), and a search personnel agent (I).

환경 에이전트(H)는 수색 작업을 수행하기 위한 가상 환경을 나머지 에이전트(U, G, I)에 제공한다. 상기 가상 환경은 실제 지도를 수색 행위의 모의에 적합하도록 변환한 것이다. 자세한 사항은 후술한다.The environment agent H provides a virtual environment for performing search operations to the remaining agents U, G, and I. The virtual environment is a conversion of the actual map to be suitable for the simulation of the search activity. Details will be described later.

무인 차량 에이전트(U)는 수색을 위해 기 설정된 행동 규칙에 따라 경로 선정, 이동, 하차 지점 선정 및 탐색을 할 수 있다. The unmanned vehicle agent U may select a route, move, select a drop-off point, and search according to a predetermined behavior rule for search.

유인 차량 에이전트(G)는 수색을 위해 기 설정된 행동 규칙에 따라 이동, 무인차량 추적, 정차 및 대기를 할 수 있다.The manned vehicle agent G may move, track unmanned vehicles, stop, and wait according to a predetermined behavior rule for search.

수색 인원 에이전트(I)는 수색을 위해 이동, 경로 선정, 탐색, 탑승 및 하차를 할 수 있다.The Search Personnel Agent (I) may travel, route, navigate, board and disembark for search.

수색 행위의 모의를 위해 각 에이전트가 상호 작용하는 내용을 중심으로 이하 설명한다.In order to simulate the search behavior, the following description will be mainly focused on the content of each agent interacting.

환경 에이전트(H)는 나머지 에이전트(U, G, I)에 가상 환경을 제공하고 수색 작업을 수행하는 나머지 에이전트(U, G, I)는 상기 가상 환경에서 기 설정된 행동 규칙에 따라 행동하면서 수색 작업을 진행한다. 상기 수색 작업이 진척됨에 따라 환경 에이전트(H)의 상태 변수가 변경되며 상기 상태 변수는 별도로 저장되어 수색 행위 모의 결과에 포함된다.The environment agent H provides a virtual environment to the remaining agents U, G, and I, and the remaining agents U, G, and I performing a search operation act in accordance with a predetermined action rule in the virtual environment while searching. To proceed. As the search operation progresses, the state variable of the environmental agent H is changed, and the state variable is stored separately and included in the search activity simulation result.

무인 차량 에이전트(U)는 주행 경로를 선정한 후 이동하면서 탐색한다. 상기 주행 경로는 유인 차량 에이전트(G)에 전달된다. 무인 차량 에이전트(U)가 이동 중에 탐색 불가 지역을 발견한 경우 하차 지점을 선정하고, 유인 차량 에이전트(G) 및 수색 인원 에이전트(I)에 전달한다. 무인 차량 에이전트(U)는 탐색이 불가능한 지역에 대해서는 하차 지점을 선정하면서 상기 주행 경로의 목적지에 도달할 때까지 이동, 탐색 및 하차 지점 선정을 반복한다.The driverless vehicle agent U selects a driving route and searches while moving. The driving route is transmitted to the manned vehicle agent G. If the unmanned vehicle agent U finds an unsearchable area while on the move, the drop-off point is selected and transmitted to the manned vehicle agent G and the search personnel agent I. The unmanned vehicle agent U repeatedly selects a disembarkation point for an area where searching is impossible, and repeats movement, search, and disembarkation point selection until the destination of the driving route is reached.

유인 차량 에이전트(G)는 전달받은 주행 경로를 이용하여 무인 차량 에이전트(U)를 따라 이동한다. 유인 차량 에이전트(G)는 기 전달받은 하차 지점에 이르렀을 때 수색 인원 에이전트(I)가 하차할 수 있도록 정차한다.The manned vehicle agent G moves along the unmanned vehicle agent U using the received driving route. The manned vehicle agent (G) stops so that the search personnel agent (I) can get off when it reaches the previously received drop-off point.

수색 인원 에이전트(I)는 상기 하차 지점에서 하차하여 기 전달받은 탐색 불가 지역으로 이동하여 탐색한다. 수색 인원 에이전트(I)는 차량 에이전트(U, G)와 달리 도로가 아닌 지형으로도 이동이 가능한 바, 무인 차량 에이전트(U)가 탐색 불가 지역으로 전달한 지역도 탐색이 가능하다. 수색 인원 에이전트(I)는 상기 탐색 불가 지역을 모두 탐색한 후 정차 중인 유인 차량 에이전트(G)로 돌아와서 탑승한다.The search personnel agent (I) gets off at the drop-off point and moves to the previously unsearchable area to search. Unlike the vehicle agents (U, G), the search personnel agent (I) can also move to terrain other than roads, so it is also possible to search the area delivered by the unmanned vehicle agent (U) to an unsearchable area. The search personnel agent (I) returns to the manned vehicle agent (G) stationary after searching all the above unsearchable areas and boards.

유인 차량 에이전트(G)는 수색 인원 에이전트(I)가 모두 탑승하면 그 다음 하차 지점까지 상기 주행 경로를 따라 이동한다.The manned vehicle agent G moves along the driving route to the next drop-off point when the search personnel agent I has all boarded.

각 에이전트(U, G, I)가 기 설정된 행동 규칙에 따라 수색 작업을 위한 행동함에 따라 변경되는 각 에이전트(U, G, I) 상태 변수는 별도로 저장되어 수색 행위의 모의 결과에 포함된다.Each agent (U, G, I) state variable that is changed as each agent (U, G, I) acts for a search operation according to a predetermined action rule is stored separately and included in a simulation result of the search action.

무인 차량 에이전트(U)는 자신이 선정한 주행 경로를 따라 이동하면서 탐색하고 탐색이 불가능한 지역은 유인 차량 에이전트(G)가 하차 지점에 수색 인원 에이전트(I)를 하차시킴으로써 탐색될 수 있다.The unmanned vehicle agent U may be searched while traveling along the driving route selected by the driver, and the unsearchable area may be searched for by the unmanned vehicle agent G disembarking the search personnel agent I at the drop-off point.

상기와 같이 본 발명은 가상 환경에서 상호 협력하는 에이전트(U, G, I)를 이용하여 수색 행위를 모의할 수 있는 바, 적정 수색 활동 계획을 수립할 수 있으며 재난·범죄 대응 계획 수립과 같이 다른 용도로 활용될 수 있다.As described above, the present invention can simulate a search activity using agents (U, G, I) that cooperate with each other in a virtual environment, and thus, an appropriate search activity plan can be established, and other disaster and crime response plans can be established. It can be used for purposes.

상기 내용은 수색 행위의 모의와 관련, 상호 작용하는 각 에이전트(U, G, I)의 동작을 중심으로 서술한 것이다. 이하 수색 행위의 모의를 위한 물리적 구성에 해당하는 수색 행위 모델링 장치를 설명한다.The above is based on the operation of each agent (U, G, I) interacting with the simulation of the search activity. Hereinafter, a search behavior modeling apparatus corresponding to a physical configuration for simulating a search behavior will be described.

도 2는 본 발명의 일 실시예에 따른 수색 행위 모델링 장치의 구성을 도시한 도면이다.2 is a diagram showing the configuration of a search behavior modeling apparatus according to an embodiment of the present invention.

수색 행위 모델링 장치(100)는 가상 환경에서 기 설정된 수색 시나리오에 따라 수색 행위를 모의할 수 있다.The search behavior modeling apparatus 100 may simulate a search behavior according to a preset search scenario in a virtual environment.

상기 기 설정된 수색 시나리오는 가상 환경을 생성하기 위한 정보로서 수색 대상 구역에 대한 정보, 수색 작업의 시작 지점 및 종료 지점에 대한 정보 및 의심 구역에 대한 정보를 포함할 수 있다. 상기 의심 구역은 상기 수색 대상 구역에 포함되는 구역으로서 위협 요소가 존재하는 것으로 예상되어 수색 작업을 수행 시 반드시 탐색되어야 하는 가상의 지역을 의미한다.The preset search scenario may include information on a search target area, information on a start and end point of a search operation, and information on a suspect area as information for creating a virtual environment. The suspicious area is an area included in the search target area and means a virtual area that must be searched when performing a search operation because a threat is expected to exist.

상기 기 설정된 수색 시나리오는 수색 목표에 관한 정보를 더 포함할 수 있다. 상기 수색 목표의 일 예로서 탐색 면적의 최대 또는 탐색 시간의 최소화를 들 수 있다. 다만 이에 한정되는 것이 아니며 상기 수색 목표는 적정한 수색 계획을 수립하기 위해 다양한 조건을 부가하여 구체적으로 설정될 수 있다.The preset search scenario may further include information regarding a search target. An example of the search target is a maximum search area or a minimum search time. However, it is not limited thereto, and the search target may be specifically set by adding various conditions to establish an appropriate search plan.

도 2를 참조하면, 본 발명의 일 실시예에 따른 수색 행위 모델링 장치(100)는 에이전트 생성부(110), 제어부(120), 모의부(130), 수색 방안 저장부(140) 및 수색 방안 분석부(150)를 포함할 수 있다.Referring to FIG. 2, the search behavior modeling apparatus 100 according to an embodiment of the present invention includes an agent generation unit 110, a control unit 120, a mock unit 130, a search method storage unit 140, and a search method The analysis unit 150 may be included.

에이전트 생성부(110)는 수색 작업을 모의하기 위한 유무인 에이전트(H, U, G, I)를 생성한다. 구체적으로 에이전트 생성부(110)는 상기 수색 시나리오에 따라 환경 에이전트(H), 무인 차량 에이전트(U), 유인 차량 에이전트(G) 및 수색 인원 에이전트(I)를 생성한다.The agent generation unit 110 generates a presence or absence agent (H, U, G, I) to simulate the search operation. Specifically, the agent generating unit 110 generates the environment agent H, the unmanned vehicle agent U, the manned vehicle agent G, and the search personnel agent I according to the search scenario.

에이전트 생성부(110)는 상기 수색 시나리오에 따른 수색 대상이 되는 지형을 모델링하여 환경 에이전트(H)를 생성한다. 생성된 환경 에이전트(H)는 나머지 에이전트(U, G, I)와 연동하여 상기 가상 환경을 제공한다.The agent generator 110 creates an environment agent H by modeling the terrain to be searched according to the search scenario. The generated environment agent H provides the virtual environment by interworking with the remaining agents U, G, and I.

일 실시예에 따라 에이전트 생성부(110)는 상기 모델링을 위해 격자방식의 지도 설계 기법을 적용하여, 상기 수색 대상이 되는 지형의 전체 면적을 100x100 크기의 격자로 분할할 수 있다. 상기 가상 환경에 해당하는 격자 지도는 패치(1x1 크기의 격자) 단위를 사용하고, p[i,j] 표기법을 따른다. 각각의 패치는 하기 표 1과 같이 지형유형(도로, 수목, 의심지역), 경위도 좌표 및 고도, 수색구역, 패치크기에 대한 초기값을 가진다. 패치크기를 나타내는 Patch Size 변수는 실제 지형 상에서의 거리를 나타내기 위하여 대권거리계산법을 사용한다.According to an embodiment, the agent generator 110 may divide the entire area of the terrain to be searched into a grid of 100x100 by applying a grid-based map design technique for the modeling. The grid map corresponding to the virtual environment uses a patch (1x1 size grid) unit and follows the p[i,j] notation. Each patch has initial values for terrain type (road, tree, suspect area), latitude and longitude coordinates, altitude, search area, and patch size, as shown in Table 1 below. The Patch Size variable, which represents the patch size, uses the large-scale distance calculation method to indicate the distance on the actual terrain.

변수variable 초기 값Initial value Terrain type
(지형 유형)
Terrain type
(Terrain type)
- - road, forest, ground, ROI(도로, 수목, 토지, 의심지역)road, forest, ground, ROI (road, tree, land, suspicious area)
Geographical Location
(지리적 위치정보)
Geographical Location
(Geographical location information)
- - [Longitude, latitude, altitude](경도, 위도, 고도) [Longitude, latitude, altitude] (longitude, latitude, altitude)
ReconTargetState
(수색 여부)
ReconTargetState
(Search or not)
- - True / False (참/거짓) True / False (True/False)
Patch size
(패치 크기)
Patch size
(Patch size)
PS PS Great-Circle Distance(대권거리 계산 값)Great-Circle Distance

상기 표 1에서 지형 유형은 도로, 수목, 토지 및 의심지역 중 하나에 해당하는 값을 가진다. 지리적 위치 정보에는 경도, 위도 및 고도에 관한 정보가 포함된다. 각 패치는 수색 여부에 따라 참/거짓(True/False)의 값을 가진다. 패치 크기의 경우 단위는 PS이고 대권거리 계산에 따른 값을 가진다.In Table 1, the terrain type has values corresponding to one of roads, trees, land, and suspect areas. Geographic location information includes information about longitude, latitude and altitude. Each patch has a value of True/False depending on whether it is searched or not. In the case of the patch size, the unit is PS and has a value according to the calculation of the large winding distance.

대권거리란 지구상의 2점간을 잇는 최단 거리로서, 상기 2점과 지구의 중심을 통하는 평면이 지구 표면과 만나서 생기는 원주(대권) 상에서 잰 2점간의 거리이며, 하기 수학식 1과 같이 계산한다.The large distance is the shortest distance between two points on the earth, and the distance between the two points and the two points measured on the circumference (the large circle) that occurs when the plane passing through the center of the earth meets the surface of the earth, is calculated as in Equation 1 below.

Figure 112019018175602-pat00001
Figure 112019018175602-pat00001

상기 수학식 1에서

Figure 112019018175602-pat00002
,
Figure 112019018175602-pat00003
Figure 112019018175602-pat00004
,
Figure 112019018175602-pat00005
는 임의의 패치 A와 B의 위도 및 경도를 라디안으로 변환한 값을 나타내며, 산출된
Figure 112019018175602-pat00006
에 평균 지구 반경
Figure 112019018175602-pat00007
을 곱하여 최종 거리를 계산한다. 이를 기반으로 패치크기는 격자지도에서 상하, 좌우, 대각선 방향의 패치간 거리의 평균값으로 설정한다. In Equation 1 above
Figure 112019018175602-pat00002
,
Figure 112019018175602-pat00003
and
Figure 112019018175602-pat00004
,
Figure 112019018175602-pat00005
Denotes the latitude and longitude of arbitrary patches A and B converted to radians, and is calculated.
Figure 112019018175602-pat00006
Average Earth Radius
Figure 112019018175602-pat00007
Multiply by to calculate the final distance. Based on this, the patch size is set as the average value of the distance between the patches in the vertical, horizontal, and diagonal directions on the grid map.

환경 에이전트(H)가 수색 작업을 수행하는 에이전트(U, G, I)에 제공하는 가상 환경은 상기 격자 지도 내에서 각 에이전트(U, G, I)의 위치에 따른 변수 값이다. 구체적으로 환경 에이전트(H)는 각 에이전트(U, G, I)의 위치에 따른 지형 유형, 지리적 위치 정보, 수색 구역 여부 및 패치 크기에 관한 정보를 적어도 하나 전달할 수 있다.The virtual environment that the environment agent H provides to the agents U, G, and I performing a search operation is a variable value according to the position of each agent U, G, I in the grid map. Specifically, the environment agent H may transmit at least one information on the terrain type, the geographic location information, the search area, and the patch size according to the location of each agent U, G, and I.

환경 에이전트(H)는 수색 작업이 이루어지는 격자 지도의 상태 변수를 갖고 있다. 일 실시예에 따른 상태 변수는 하기 표 2와 같다.The environmental agent H has a state variable of a grid map on which a search operation is performed. State variables according to an embodiment are shown in Table 2 below.

지형 유형Terrain type 변수 종류Variable type 변수 값Variable value ALLALL ReconState(수색 여부)ReconState (Search or not) True / FalseTrue / False VisitState(방문 여부)VisitState (visit or not) True / FalseTrue / False VisitAgent(방문 에이전트)VisitAgent U, G, IU, G, I VisitSequence(방문 순서)VisitSequence U0, U1, G0, G1 ,I0, I1...U0, U1, G0, G1 ,I0, I1... RoadRoad dismountHere(승하차지점 여부)dismountHere (Where to get on and off) True / FalseTrue / False ROIROI ROI_ID (의심구역 식별자)ROI_ID (suspect zone identifier) (0, 1, 2...)(0, 1, 2...) ClearState(의심구역 수색완료 여부)ClearState (Completion of search for suspected areas) True / FalseTrue / False

환경 에이전트(H)는 에이전트(U, G, I)의 수색 작업의 현황을 상기 상태 변수를 이용하여 기록한다. 구체적으로 환경 에이전트(H)는 각 에이전트(U, G, I)와 연동하여 상기 격자 지도 내에서 해당 에이전트(U)의 위치를 기준으로 수색 여부(예를 들면 True), 방문 여부(예를 들면 True), 방문한 에이전트(예를 들면 U), 에이전트별 방문순서(예를 들면 U2), 승하차지점 여부(예를 들면 True), 의심구역 수색완료 여부(예를 들면 False)를 지속적으로 업데이트 한다. The environmental agent H records the status of the search operations of the agents U, G, and I using the above state variable. Specifically, the environmental agent (H) is interworked with each agent (U, G, I) based on the location of the agent (U) in the grid map to search for (eg True), whether to visit (eg True), visited agents (for example, U), visit order by agent (for example, U2), check-in and drop-off points (for example, True), and whether to search for suspected areas (for example, False) are continuously updated.

상기 환경 에이전트(H)가 기록하는 상태 변수는 후술하는 수색 방안 저장부(140)에 저장된다.The state variable recorded by the environmental agent H is stored in the search room storage unit 140, which will be described later.

에이전트 생성부(110)는 기 설정된 행동 규칙에 따라 수색 행위를 수행하는 개체를 유무인 에이전트로 모델링하여 생성한다. 구체적으로 에이전트 생성부(110)는 상기 수색 시나리오에 따라 무인 차량 에이전트(U), 유인 차량 에이전트(G) 및 수색 인원 에이전트(I)를 적어도 하나 생성할 수 있다. 상기 수색 시나리오에 따라 각 에이전트(U, G, I)는 복수로 생성될 수 있다. 이하 본 명세서에서는 편의상 각 에이전트(U, G, I)가 하나씩 생성되는 것으로 전제하여 설명한다.The agent generation unit 110 models an object performing a search action according to a predetermined behavior rule as a presence/absence agent and generates it. Specifically, the agent generator 110 may generate at least one unmanned vehicle agent U, a manned vehicle agent G, and a search personnel agent I according to the search scenario. According to the search scenario, each agent (U, G, I) may be generated in plural. Hereinafter, for convenience, each agent (U, G, I) will be described on the assumption that one is generated.

일 실시예에 따라 에이전트 생성부(110)는 하기 표 3에 기재된 초기값을 이용하여 상기 유무인 에이전트를 모델링할 수 있다. According to an embodiment, the agent generator 110 may model the presence or absence agent using the initial values shown in Table 3 below.

변수variable 초기값Initial value 실제real 가상 환경(격자 지도)Virtual environment (lattice map) 초기 위치
(Initial location)
Initial position
(Initial location)

Figure 112019018175602-pat00008
Figure 112019018175602-pat00008
GeodeticGeodetic p[i,j]p[i,j] 평균 기동 속력
(Average speed)
Average maneuvering speed
(Average speed)
Figure 112019018175602-pat00009
Figure 112019018175602-pat00009
70km/h70km/h 70km/h70km/h
Figure 112019018175602-pat00010
Figure 112019018175602-pat00010
60km/h60km/h 60km/h60km/h
Figure 112019018175602-pat00011
Figure 112019018175602-pat00011
4.5km/h4.5km/h 4.5km/h4.5km/h
최대 탐지 거리
(
Figure 112019018175602-pat00012
)
Detection distance
(
Figure 112019018175602-pat00012
)
Figure 112019018175602-pat00013
Figure 112019018175602-pat00013
3km3 km (
Figure 112019018175602-pat00014
) patches
(
Figure 112019018175602-pat00014
) patches
Figure 112019018175602-pat00015
Figure 112019018175602-pat00015
1.5km1.5 km (
Figure 112019018175602-pat00016
) patches
(
Figure 112019018175602-pat00016
) patches
Figure 112019018175602-pat00017
Figure 112019018175602-pat00017
1.5km1.5 km (
Figure 112019018175602-pat00018
) patches
(
Figure 112019018175602-pat00018
) patches
가시 범위
(Field Of View)
Visible range
(Field Of View)
FOVFOV 360 degrees360 degrees 360 degrees360 degrees

상기 표 3에서

Figure 112019018175602-pat00019
는 각 에이전트의 초기 위치에 관한 정보로서 실 지형 환경에서의 경위도 좌표와 가장 가까운 속성을 갖는 격자 지도상 좌표 p[i,j]이다.평균 기동 속력(Average speed)은 수색 작업을 고려하여 가정한 속력이다. 구체적으로 무인 차량, 유인 차량 에이전트(U, G)는 도로 위에서 이동 시의 속력이고, 수색 인원 에이전트(I)는 평지에서 보행 시의 속력이다. 수색 인원 에이전트(I)가 유인 차량 에이전트(G)에 탑승하여 이동하는 경우에는 유인 차량 에이전트(G)의 평균 기동 속력을 따른다.In Table 3 above
Figure 112019018175602-pat00019
Is information about the initial location of each agent, and is the coordinate p[i,j] on the grid map with properties closest to the latitude and longitude coordinates in the real-world environment. The average speed is assumed by considering the search operation. Speed. Specifically, unmanned vehicles, manned vehicle agents U and G are speeds when moving on the road, and search personnel agents I are speeds when walking on flat land. When the search personnel agent I moves on board the manned vehicle agent G, the average maneuvering speed of the manned vehicle agent G is followed.

수색은 차량 에이전트(U, G)에 탑재된 관측 센서와 수색 에이전트(I)의 육안을 통해 이루어지는 것으로 가정한다. 따라서 최대 탐지 거리(

Figure 112019018175602-pat00020
)도 그에 따라 상이하다. 구체적으로 최대 탐지 거리(
Figure 112019018175602-pat00021
)의 단위는 각 에이전트(U, G, I)의 위치에서 직선상 탐지 거리가 확보된 패치의 개수이다. 가시 범위(FOV)는 모든 에이전트가 동일하게 360도이다. 일 실시예에 따라 별도의 관측 센서를 탑재하지 않은 차량 에이전트(G)의 경우 탑승하고 있는 수색 인원 에이전트(I)의 최대 탐지 거리(
Figure 112019018175602-pat00022
)를 적용할 수 있다.It is assumed that the search is performed through the observation sensors mounted on the vehicle agents U and G and the naked eye of the search agent I. Therefore, the maximum detection distance (
Figure 112019018175602-pat00020
) Is different accordingly. Specifically, the maximum detection distance (
Figure 112019018175602-pat00021
The unit of) is the number of patches in which a linear detection distance is secured at the location of each agent (U, G, I). The visible range (FOV) is 360 degrees for all agents equally. In the case of the vehicle agent G without a separate observation sensor according to an embodiment, the maximum detection distance of the search personnel agent I on board (
Figure 112019018175602-pat00022
) Can be applied.

생성된 각 에이전트(U, G, I)는 각각의 상태 변수를 갖는다. 일 실시예에 따른 에이전트(U, G, I)의 상태 변수는 하기 표 4와 같다.Each agent (U, G, I) created has its own state variable. Table 4 shows the state variables of the agents U, G, and I according to an embodiment.

에이전트agent 변수 종류Variable type 변수 값 형태Variable value type ALLALL 현재 속력
(current speed)
Current speed
(current speed)

Figure 112019018175602-pat00023
Figure 112019018175602-pat00023
- km/h-km/h 현재 위치
(current location)
Current location
(current location)
Figure 112019018175602-pat00024
Figure 112019018175602-pat00024
p[i,j]p[i,j]
현재 이동 시간
(current moving time)
Current travel time
(current moving time)
Figure 112019018175602-pat00025
Figure 112019018175602-pat00025
real timereal time
총 수색 시간
(total recon time)
Total search time
(total recon time)
Figure 112019018175602-pat00026
Figure 112019018175602-pat00026
real timereal time
탐지 범위
(detection range)
Detection range
(detection range)
Figure 112019018175602-pat00027
Figure 112019018175602-pat00027
set of patchesset of patches
다음 위치
(next location)
Next location
(next location)
Figure 112019018175602-pat00028
Figure 112019018175602-pat00028
p[i,j]p[i,j]
중간 목적지
(temp destination)
Middle destination
(temp destination)
Figure 112019018175602-pat00029
Figure 112019018175602-pat00029
p[i,j]p[i,j]
최종 목적지
(final destination)
Final destination
(final destination)
Figure 112019018175602-pat00030
Figure 112019018175602-pat00030
p[i,j]p[i,j]
수색 인원(I)Search Personnel (I) 하차 여부
(dismountState)
Get off
(dismountState)
-- dismount/ boardingdismount/ boarding
총 탑승 시간
(total boarding time)
Total boarding time
(total boarding time)
Figure 112019018175602-pat00031
Figure 112019018175602-pat00031
real timereal time
유인 차량(G)Manned Vehicle (G) 총 정차 시간
(total stop time)
Total stop time
(total stop time)
Figure 112019018175602-pat00032
Figure 112019018175602-pat00032
real timereal time

각 에이전트(U, G, I)는 수색 작업을 수행하면서 자신의 상태 변수를 지속적으로 업데이트 한다.수색 인원 에이전트(I)의 경우 유인 차량 에이전트(G)에 탑승하거나 하차할 수 있으므로 이에 관한 상태 변수로 하차 여부와 총 탑승 시간에 관한 상태 변수를 가지고 있다. 구체적으로 수색 인원 에이전트(I)가 탑승 상태(boarding)인 경우에만 상기 총 탑승 시간(total boarding time)이 증가하고 이 시간은 수색 인원 에이전트(I)의 총 수색 시간(total recon time) 산정 시 사용된다.Each agent (U, G, I) continuously updates its status variable while performing a search operation. In the case of the search personnel agent (I), it is possible to board or get off the manned vehicle agent (G). It has status variables related to whether to get off the train and the total boarding time. Specifically, the total boarding time increases only when the search personnel agent (I) is boarding, and this time is used to calculate the total recon time of the search personnel agent (I). do.

유인 차량 에이전트(G)의 경우, 하차 지점에서 수색 인원 에이전트(I)를 하차시키고 수색 인원 에이전트(I)가 탐색을 마치고 탑승할 때까지 정차하여야 한다. 따라서 유인 차량 에이전트(G)가 상기 하차 지점에서 정차한 시점부터 다음 하차 지점을 향해 출발하기 전까지 상기 총 정차 시간(total stop time)이 증가한다.In the case of the manned vehicle agent G, the search personnel agent I should be disembarked at the drop-off point and stopped until the search personnel agent I finished searching and boarding. Therefore, the total stop time increases from the time when the manned vehicle agent G stops at the drop-off point to departs toward the next drop-off point.

각 에이전트(U, G, I)의 상태 변수는 수색 작업을 위한 행 종료된 후 후술하는 수색 방안 저장부(140)에 저장된다.The status variables of each agent U, G, and I are stored in the search method storage unit 140, which will be described later, after the row for the search operation ends.

상기와 같이 에이전트 생성부(110)는 수색 행위와 관련하여 세부적인 상태 변수를 갖는 유무인 에이전트(H, G, U, I)를 모델링하여 생성하는 바, 수색 작업을 수행하는 각 에이전트(U, G, I)의 특성에 따라 수색 행위를 세부적으로 모의할 수 있다.As described above, the agent generation unit 110 models and generates unattended agents (H, G, U, and I) having detailed state variables in connection with the search activity, and each agent (U, which performs the search operation) Search behavior can be simulated in detail according to the characteristics of G and I).

수색을 위한 에이전트(U, G, I)들은 기 설정된 행동 규칙에 따라 상기 가상 환경에서 상기 수색 작업을 위한 행동인 이동, 탐색, 경로 선정, 하차 지점 선정 중 적어도 하나를 수행할 수 있다.Agents (U, G, and I) for search may perform at least one of movement, search, route selection, and drop-off point selection, which are actions for the search operation, in the virtual environment according to a predetermined action rule.

상기 기 설정된 행동 규칙은 각 에이전트(U, G, I)의 행동에 대한 근거가 되며 각 에이전트(U, G, I)가 인지한 환경 조건에 따른 행동 및 상태 변화를 모의하기 위한 일련의 규칙이다. 상기 기 설정된 행동 규칙은 상기 수색 작업을 위한 행동인 이동, 탐색, 경로 선정 및 하차 지점 선정 중에서 적어도 하나의 행동과 관련된 규칙일 수 있다.The preset behavior rules are the basis for the behavior of each agent (U, G, I) and are a set of rules for simulating the behavior and state changes according to the environmental conditions recognized by each agent (U, G, I). . The preset action rule may be a rule related to at least one action among movement, search, route selection, and drop-off point selection, which are actions for the search operation.

제어부(120)는 무인 차량 에이전트(U), 유인 차량 에이전트(G) 및 수색 인원 에이전트(I)가 상기 가상 환경에서 기 설정된 행동 규칙에 따라 행동하도록 제어할 수 있다. 제어부(120)는 각 에이전트(U, G, I)의 행동인 이동, 탐색, 경로 선정 및 하차 지점 선정을 제어할 수 있다.The controller 120 may control the unmanned vehicle agent U, the manned vehicle agent G, and the search personnel agent I to act according to a predetermined behavior rule in the virtual environment. The controller 120 may control movement, navigation, route selection, and drop-off point selection, which are actions of each agent U, G, and I.

제어부(120)는 수색 행위를 위한 이동과 관련하여, 각 에이전트(U, G, I)가 현재 위치(current location)에서 목표 위치(next location)로 이동할 때 각 에이전트(U, G, I)의 각각의 평균 기동 속력에서 지형의 험준도를 고려하여 보정된 현재 속력(current speed)으로 이동하도록 제어한다. In relation to the movement for the search activity, the control unit 120 is configured to control the status of each agent U, G, or I when each agent U, G or I moves from the current location to the target location. Each average maneuvering speed is controlled to move to the corrected current speed considering the terrain roughness.

구체적으로 제어부(120)는 상기 지형의 경사도를 계산하고 경사도에 따른 험준도를 이용하여 각 에이전트(U, G, I)의 평균 기동 속력을 보정하며 보정된 속력을 현재 속력(current speed)으로 각 에이전트(U, G, I)에 전달한다. 이는 경사도가 높을수록 속력이 느려지는 점을 모의하기 위한 것이다.Specifically, the controller 120 calculates the slope of the terrain and corrects the average starting speed of each agent (U, G, I) by using the steepness according to the slope, and adjusts the corrected speed as the current speed. Agent (U, G, I). This is to simulate that the higher the slope, the slower the speed.

제어부(120)는 수색 행위를 위한 탐색과 관련하여, 에이전트(U, G, I)의 현재 위치에서 탐지 범위(

Figure 112019018175602-pat00033
) 내에 수목 지형이 존재하는 경우 상기 탐지 범위(
Figure 112019018175602-pat00034
)가 감쇠되도록 보정하여 해당 에이전트(U, G, I)에 전달한다. 그 후 에이전트(U, G, I)가 해당 영역에 대해 탐색을 수행하고 감쇠된 탐지 범위(
Figure 112019018175602-pat00035
)에 포함된 영역(패치)만이 탐색된다(수색 여부(ReconState)가 True로 변경). 이는 수목 지형에서는 평지와 달리 가시거리가 줄어드는 것을 모의하기 위함이다.The control unit 120 detects the detection range from the current location of the agents U, G, and I in relation to the search for the search activity (
Figure 112019018175602-pat00033
If there is a tree topography within the above detection range (
Figure 112019018175602-pat00034
) Is corrected to be attenuated and transmitted to the corresponding agents (U, G, I). The agent (U, G, I) then performs a search on the area and the attenuated detection range (
Figure 112019018175602-pat00035
), only the area (patch) included is searched (ReconState is changed to True). This is to simulate that the visibility distance is reduced, unlike flat land, in the tree topography.

제어부(120)는 수색 행위를 위한 경로 선정과 관련, 무인 차량 에이전트(G)가 상기 수색 시나리오에 따른 시작 지점에서 종료 지점에 이르기까지 탐색 면적이 최대가 되거나 총 탐색 시간이 최소가 되는 주행 경로를 선정하도록 제어한다. 이는 상기 수색 시나리오의 수색 목표에 따라 수색 행위를 모의하기 위함이다.The control unit 120 relates to a route selection for a search activity, and the unmanned vehicle agent G selects a driving route in which the search area is maximized or the total search time is minimum from the start point to the end point according to the search scenario. Control to select. This is to simulate a search action according to the search target of the search scenario.

제어부(120)는 수색 행위를 위한 하차 지점 선정과 관련하여, 무인 차량 에이전트(U)가 기 추가한 하차 지점 후보지 중에서 탐색 불가 지역과 가장 인접한 지점을 하차 지점으로 선정하도록 제어한다. 상기 탐색 불가 지역은 상기 수색 시나리오에 따른 의심 구역을 포함하는 지역으로서 무인 차량 에이전트(U)의 탐색에도 불구하도 탐색되지 않은 지역을 의미한다.The control unit 120 controls to select a point closest to a non-searchable area from among candidates for alighting points added by an unmanned vehicle agent U in relation to selection of alighting points for a search action. The non-searchable area is an area including a suspected area according to the search scenario and means an area not searched despite the search of the unmanned vehicle agent U.

제어부(120)는 무인 차량 에이전트(U)가 자신이 선정한 주행 경로를 따라 이동 중에 상기 탐색 불가 지역을 발견한 경우 자신의 현재 위치를 하차 지점 후보지에 추가하도록 제어하고, 무인 차량 에이전트(U)가 상기 탐색 불가 지역으로부터 기 설정된 반경을 벗어난 경우 기 추가한 적어도 하나 이상의 하차 지점 후보지 중에서 상기 탐색 불가 지역에 가장 인접한 하차 지점 후보지를 상기 하차 지점으로 선정하도록 제어한다.When the unmanned vehicle agent U finds the unsearchable area while moving along the driving route selected by the unmanned vehicle agent U, the controller 120 controls to add the current location to the candidate point of disembarkation, and the unmanned vehicle agent U If it is outside the preset radius from the non-searchable area, it is controlled to select a candidate drop-off point closest to the non-searchable area as at least one of the at least one drop-off point candidates already added.

일 실시예에 의하면, 제어부(120)는 에이전트(U, G, I)의 행동 규칙과 관련된 명령을 포함하는 메모리 장치로 구현될 수 있다. According to an embodiment, the control unit 120 may be implemented as a memory device including commands related to the action rules of the agents U, G, and I.

제어부(120)는 각 에이전트(U, G, I)가 가상 환경에서 인지한 환경에 따라 자율적으로 판단하며 수색하는 것을 모의하기 위한 구성으로서 제어부(120)의 역할은 에이전트 생성부(110)를 통해 대체될 수 있다.The controller 120 is configured to simulate autonomously determining and searching according to the environment recognized by each agent U, G, and I in the virtual environment, and the role of the controller 120 is through the agent generator 110 Can be replaced.

구체적으로 일 실시예에 의하면, 에이전트 생성부(110)는 에이전트(U, G, I)를 생성 시 각각의 에이전트(U, G, I)의 행동 규칙과 관련된 명령을 포함하여 생성할 수 있다. 이 경우 수색 행위 모델링 장치(100)는 제어부(120)를 포함하지 않으며 각 에이전트(U, G, I)는 자신의 행동 규칙에 따라 단독으로 수색 작업을 위한 행동을 수행한다. 각 에이전트(U, G, I)는 이동 속도의 보정, 탐지 범위 감쇠, 경로 선정 및 하차 지점 선정을 단독으로 수행할 수 있다.Specifically, according to an embodiment, the agent generator 110 may generate an agent (U, G, I) including a command related to the action rule of each agent (U, G, I). In this case, the search behavior modeling apparatus 100 does not include the control unit 120, and each agent U, G, and I performs an action for a search operation solely according to its own action rules. Each agent (U, G, I) can perform calibration of movement speed, attenuation of detection range, route selection and drop-off point selection alone.

상기와 같이 기 설정된 행동 규칙에 따라 수색 작업을 수행하는 에이전트(U, G, I)는 지형의 특성에 따라 이동 속도와 탐지 범위가 달라지는 바, 모의 결과의 정확도가 개선된다. As described above, the agents (U, G, and I) that perform a search operation according to a predetermined action rule have different movement speeds and detection ranges according to the characteristics of the terrain, and thus the accuracy of the simulation results is improved.

또한 본 발명은 탐색 면적 또는 총 탐색 시간을 고려한 경로 선정, 탐색이 불가능한 지점에 대한 하차 지점 선정을 통해 각 에이전트(U, G, I)가 상호 협력하여 수색 작업을 수행하므로 주어진 조건하에서 적정한 수색 활동 계획을 수립할 수있을 뿐만 아니라 재난·범죄 대응 계획 모의 등 다른 용도로도 활용될 수 있다.In addition, according to the present invention, each agent (U, G, I) conducts a search operation in cooperation with each other by selecting a route considering a search area or a total search time, and selecting a disembarkation point for a point where search is impossible. Not only can you make a plan, it can also be used for other purposes, such as planning a disaster/crime response plan.

모의부(130)는 가상 환경에서 에이전트(U, G, I)의 수색 행위를 모의한다.The mock unit 130 simulates the search behavior of the agents U, G, and I in a virtual environment.

구체적으로 모의부(130)는 환경 에이전트(H), 무인 차량 에이전트(U), 유인 차량 에이전트(G) 및 수색 인원 에이전트(I)가 각각 서로 상호 작용할 수 있도록 관련 정보를 전달한다. 이를 위해 모의부(130)는 각 에이전트(H, U, G, I)의 상태 변수 중 적어도 하나를 나머지 에이전트(H, U, G, I)에 각각 제공한다. Specifically, the simulation unit 130 transmits related information so that the environment agent H, the unmanned vehicle agent U, the manned vehicle agent G, and the search personnel agent I can interact with each other. To this end, the simulation unit 130 provides at least one of the state variables of each agent H, U, G, and I to the remaining agents H, U, G, and I, respectively.

일 예로, 모의부(130)는 무인 차량 에이전트(U)가 주행 경로 또는 하차 지점을 선정하면 이를 전달받아서 환경 에이전트(H) 및 유인 차량 에이전트(G)에 제공한다. 본 명세서에서 각 에이전트(U, G, I)가 환경 에이전트(H)가 제공하는 가상 환경을 인식하다고 기재된 것은 모의부(130)가 전달하는 환경 에이전트(H)의 상태 변수를 가져온다는 의미와 동일하다.As an example, the mock unit 130 receives the unmanned vehicle agent U when the driving route or the getting-off point is received and provides it to the environment agent H and the manned vehicle agent G. In this specification, that each agent (U, G, I) is described as recognizing the virtual environment provided by the environment agent H is the same as meaning that it obtains the state variable of the environment agent H delivered by the mock unit 130. Do.

모의부(130)는 상기 가상 환경인 격자 지도에서 상기 수색 시나리오에 따른 시작 지점과 상기 종료 지점 사이에 존재하는 복수의 교차로 지점을 포함하는 도로망 정보를 생성하고 이를 제어부(120) 및 무인 차량 에이전트(U)에 제공할 수 있다.The simulation unit 130 generates road network information including a plurality of intersection points existing between a start point and an end point according to the search scenario in the virtual environment grid map, and controls the controller 120 and the driverless vehicle agent ( U).

제어부(120)는 상기 도로망 정보를 이용하여 상기 시작 지점에서 상기 종료 지점에 이르기까지 각 지점 간의 탐색 면적 또는 탐색 시간에 관련된 정보를 무인 차량 에이전트(U)에 전달하고, 무인 차량 에이전트(U)는 상기 탐색 면적이 최대가 되거나 상기 탐색 시간이 최소가 되는 지점을 다음 위치로 선정한다. 보다 자세한 사항은 후술한다.The control unit 120 transmits information related to a search area or a search time between each point from the start point to the end point using the road network information to the unmanned vehicle agent U, and the unmanned vehicle agent U is The point at which the search area becomes the maximum or the search time becomes the minimum is selected as the next position. More details will be described later.

수색 방안 저장부(140)는 상기 수색 행위의 모의 결과를 저장한다. The search room storage unit 140 stores the simulation result of the search action.

구체적으로 수색 방안 저장부(140)는 각 에이전트(U, G, I)의 수색 작업을 위한 행동이 종료될 때마다, 모든 에이전트(H, U, G, I)의 상태 변수를 전달받아 저장한다. 따라서 상기 수색 행위의 모의 결과에는 격자 지도의 정보, 환경 에이전트(H)의 상태 변수가 포함되고 무인 차량 에이전트(U), 유인 차량 에이전트(G) 및 수색 인원 에이전트(I)의 상태 변수 중에서 적어도 하나의 상태 변수가 포함될 수 있다. Specifically, the search method storage unit 140 receives and stores the state variables of all the agents (H, U, G, I) whenever the action for the search operation of each agent (U, G, I) ends. . Therefore, the simulation result of the search activity includes information of the grid map and the state variable of the environment agent H, and at least one of the state variables of the unmanned vehicle agent U, manned vehicle agent G, and search personnel agent I The state variable of can be included.

일 실시예에 따라, 상기 수색 행위의 모의 결과는 환경 에이전트(H)와 관련된 정보를 포함하고 각 에이전트(U, G, I)의 총 탐색 면적, 총 탐색 시간 및 이동 경로에 관한 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment, the simulation result of the search activity includes information related to the environmental agent H and at least one of the total search area, total search time, and movement path information of each agent U, G, and I. It may include.

일 실시예에 의하면, 수색 방안 저장부(140)는 디스플레이부를 구비할 수 있다. 수색 방안 저장부(140)는 환경 에이전트(H)가 제공하는 격자 지도를 상기 디스플레이부에 표시하고 상기 격자 지도 상에 각 에이전트(U, G, I)의 위치, 이동 경로 등과 같은 수색 행위와 관련된 정보를 실시간으로 표시할 수 있다.According to an embodiment, the search room storage unit 140 may include a display unit. The search method storage unit 140 displays a grid map provided by the environmental agent H on the display unit, and is associated with a search activity such as the location of each agent U, G, I, movement path, etc. on the grid map. Information can be displayed in real time.

수색 방안 분석부(150)는 저장된 수색 행위의 모의 결과를 기 설정된 기준에 따라 분석한다. 상기 기 설정된 기준은 탐색 효율, 탐색 소요 시간 및 수색 행위에 대한 각 에이전트(U, G, I)의 기여도 중 적어도 하나를 포함할 수 있다.The search plan analysis unit 150 analyzes the simulation results of the stored search behavior according to a preset criterion. The preset criteria may include at least one of search efficiency, search time, and contribution of each agent (U, G, I) to search activity.

수색 방안 분석부(150)는 상기 총 탐색 면적과 상기 수색 시나리오에 포함되는 수색 대상 구역에 대한 정보(수색 대상 면적)를 이용하여 하기 수학식 2와 같이 탐색 효율을 계산한다.The search plan analysis unit 150 calculates search efficiency as shown in Equation 2 below using information about the search target area included in the search scenario and the total search area.

Figure 112019018175602-pat00036
Figure 112019018175602-pat00036

상기 수학식 2에서

Figure 112019018175602-pat00037
(Area of Operation)는 상기 수색 대상 면적에 속하는 패치들의 집합이다. In Equation 2 above
Figure 112019018175602-pat00037
(Area of Operation) is a set of patches belonging to the search target area.

Figure 112019018175602-pat00038
(Area of Recon)은 상기 수색 대상면적에서 탐색이 완료된 면적에 속한 패치들의 집합으로서, 각 에이전트(U, G, I)의 총 탐색 면적을 모두 합한 것이다.
Figure 112019018175602-pat00038
(Area of Recon) is a set of patches belonging to the area where the search is completed in the search target area, and is the sum of the total search areas of each agent (U, G, I).

수색 방안 분석부(150)는 각각의 집합에서 수목 지형(forest)과 의심 구역(threat)에 대한 패치들의 집합(

Figure 112019018175602-pat00039
,
Figure 112019018175602-pat00040
,
Figure 112019018175602-pat00041
Figure 112019018175602-pat00042
)을 이용하여 상기 탐색 효율을 계산한다.The search plan analysis unit 150 is a set of patches for forest and suspected areas in each set (
Figure 112019018175602-pat00039
,
Figure 112019018175602-pat00040
,
Figure 112019018175602-pat00041
And
Figure 112019018175602-pat00042
) To calculate the search efficiency.

Figure 112019018175602-pat00043
는 수목 지형 탐색에 대한 가중치이고
Figure 112019018175602-pat00044
는 의심 구역 탐색에 대한 가중치이다. 의심 구역의 탐색은 수목 지형의 탐색보다 중요도가 높으므로
Figure 112019018175602-pat00045
Figure 112019018175602-pat00046
보다 큰 값을 가질 수 있다. 구체적으로 예를 들면,
Figure 112019018175602-pat00047
는 0.4이고
Figure 112019018175602-pat00048
는 0.6일 수 있다. 다만 이에 한정되는 것은 아니며 상기 각 가중치(
Figure 112019018175602-pat00049
,
Figure 112019018175602-pat00050
)는 상기 수색 시나리오에 따른 수색 대상 면적 및 수색 목표를 고려하여 상기 수색 행위의 모의 결과를 분석하기에 적절한 값으로 각각 설정될 수 있다.
Figure 112019018175602-pat00043
Is the weight for exploring tree topography
Figure 112019018175602-pat00044
Is the weight for searching the suspected area. The search for suspected areas is more important than the search for tree topography,
Figure 112019018175602-pat00045
The
Figure 112019018175602-pat00046
It can have a larger value. Specifically, for example,
Figure 112019018175602-pat00047
Is 0.4
Figure 112019018175602-pat00048
May be 0.6. However, the present invention is not limited thereto, and the respective weights (
Figure 112019018175602-pat00049
,
Figure 112019018175602-pat00050
) May be respectively set to a value suitable for analyzing the simulation result of the search action in consideration of the search target area and the search target according to the search scenario.

상기 탐색 소요 시간은 상기 수색 시나리오에 따라 생성된 에이전트(U, G, I)가 수색 작업을 시작한 시점부터 모든 에이전트(U, G, I)의 수색 작업이 종료된 시점까지의 시간을 의미한다. The search time required refers to the time from the time when the agents U, G, and I generated according to the search scenario start the search operation to the time when the search operations of all the agents U, G, and I are finished.

수색 방안 분석부(150)는 무인 차량 에이전트(U)와 수색 인원 에이전트(I)의 총 탐색 시간(

Figure 112019018175602-pat00051
)을 더하여 상기 탐색 소요시간을 계산한다.Search plan analysis unit 150 is the total search time of the unmanned vehicle agent (U) and search personnel agent (I) (
Figure 112019018175602-pat00051
) To calculate the search time.

기여도(Contribution Ratio: CR)는 무인 차량 에이전트(U)와 수색 인원 에이전트(I)가 각각 수색 행위에 기여한 정도를 의미하며, 수색 방안 분석부(150)는 수색 대상 면적에 대해 각 에이전트(U, I)가 탐색한 총 탐색 면적을 기준으로 하기 수학식 3과 같이 계산한다.The contribution ratio (CR) refers to the degree to which the unmanned vehicle agent U and the search personnel agent I each contributed to the search activity, and the search plan analysis unit 150 compares each agent (U, with respect to the search target area). Based on the total search area searched by I), it is calculated as in Equation 3 below.

Figure 112019018175602-pat00052
Figure 112019018175602-pat00052

상기 수학식 3에서 E는 에이전트를 의미하는 것으로 무인 차량 에이전트(U) 또는 수색 인원 에이전트(I)이다.

Figure 112019018175602-pat00053
는 상기 수색 대상 면적 중에서 에이전트(U 또는 I)가 탐색한 수목 지형 면적에 속하는 패치들의 집합이고
Figure 112019018175602-pat00054
는 의심 구역의 면적에 속하는 패치들의 집합이다.In Equation 3, E means an agent and is an unmanned vehicle agent U or a search personnel agent I.
Figure 112019018175602-pat00053
Is a set of patches belonging to the tree terrain area that the agent (U or I) has searched among the search target areas.
Figure 112019018175602-pat00054
Is a set of patches belonging to the area of the suspect area.

상기와 같이 수색 방안 분석부(150)는 기 설정된 기준에 따라 수색 행위의 모의 결과를 분석하는 바, 복수의 모의 결과를 비교 분석하여 보다 적정한 수색 계획을 수립할 수 있다.As described above, the search plan analysis unit 150 analyzes a simulation result of a search activity according to a preset criterion, and can compare and analyze a plurality of simulation results to establish a more appropriate search plan.

이하 환경 에이전트(H, U, G, I)의 생성과 가상 환경에서 각 에이전트(U, G, I)의 동작을 도면을 참조하여 보다 구체적으로 설명한다.Hereinafter, creation of environment agents H, U, G, and I and operations of each agent U, G, I in a virtual environment will be described in more detail with reference to the drawings.

도 3은 환경 에이전트가 생성되는 과정을 구체적으로 설명하기 위한 도면이다.3 is a view for specifically describing a process in which an environmental agent is generated.

에이전트 생성부(110)는 수색 대상의 지도를 모델링하여 환경 에이전트(H)를 생성하고 환경 에이전트(H)가 제공하는 가상 환경(격자 지도)에는 수목 지형(Forest), 도로(Road), 의심 구역(Threat) 및 위도, 경도 등 측지학 상의 정보(Geodetic & Altitude etc)가 포함된다. 도 3(a)는 생성된 환경 에이전트(H)가 제공하는 격자 지도를 나타낸 것이다.The agent generation unit 110 generates an environment agent H by modeling a map of a search target, and a virtual environment (lattice map) provided by the environment agent H includes forest, road, and suspect areas. (Threat) and geodetic information such as latitude and longitude (Geodetic & Altitude etc) are included. 3(a) shows a grid map provided by the generated environmental agent H.

일 실시예에 따라 에이전트 생성부(110)는 환경 에이전트(H)를 생성하기 위한 수색 대상의 지형 데이터로 국방지형정보단에서 제공한 수치고도자료(DTED)와 지형지물자료(FDB)를 사용할 수 있다. 도 3(b)는 에이전트 생성부(110)가 격자형식의 지도표현을 위해 일련의 데이터를 전처리 하는 과정을 나타낸 것이다. According to one embodiment, the agent generating unit 110 may use the digital elevation data (DTED) and the terrain feature data (FDB) provided by the National Intelligence Service as the terrain data of the search target for generating the environmental agent (H). have. 3(b) shows a process in which the agent generator 110 preprocesses a series of data for grid-type map representation.

에이전트 생성부(110)는 수집된 지형데이터의 형식을 래스터 포맷으로 변환 하고, 해상도를 100x100으로 설정한다(1∼3). 변환된 입력 데이터는 GDAL(Geospatial Data Analysis Library) 라이브러리를 사용하여 xyz 포맷으로 출력하면 각 셀의 경도, 위도, 고도 값이 추출된다(4). FDB 데이터에서 출력된 xyz 데이터는 z값을 참조하여 0보다 큰 값을 가지면 해당 지형이 존재하는 것으로 해석한다.The agent generator 110 converts the format of the collected terrain data into a raster format and sets the resolution to 100x100 (1 to 3). When the converted input data is output in xyz format using the Geospatial Data Analysis Library (GDAL) library, the longitude, latitude, and altitude values of each cell are extracted (4). The xyz data output from the FDB data is interpreted as the existence of the terrain if it has a value greater than 0 with reference to the z value.

도 4는 무인 차량 에이전트의 동작을 설명하기 위한 흐름도이다.4 is a flowchart for explaining the operation of the driverless vehicle agent.

도 4를 참조하면, 무인 차량 에이전트(U)는 자신의 상태 변수를 업데이트 한다(S41). 업데이트 되는 무인 차량 에이전트(U)의 상태 변수는 수색 방안 저장부(140)에도 전달된다. 무인 차량 에이전트(U)는 환경 에이전트(H)가 제공하는 가상 환경에서 자신의 현재 위치(current location)에서의 환경을 인식하고(S42), 다음 목표 지점(next location)을 결정한다(S43). 이 때 상기 목표 지점(next location)은 기 설정된 행동 규칙에 따라서 결정된다. 4, the driverless vehicle agent U updates its state variable (S41). The state variable of the driverless vehicle agent U to be updated is also transmitted to the search room storage unit 140. The driverless vehicle agent U recognizes the environment at its current location in the virtual environment provided by the environment agent H (S42), and determines the next target location (S43). At this time, the target location (next location) is determined according to a predetermined action rule.

일 실시예에 의하면 제어부(120)가 전달하는 정보를 이용하여 무인 차량 에이전트(U)가 상기 목표 지점(next location)을 결정할 수 있다. 다른 실시예에 의하면 무인 차량 에이전트(U)는 직접 상기 목표 지점(next location)을 결정할 수 있다.According to an embodiment, the unmanned vehicle agent U may determine the target location using the information transmitted from the controller 120. According to another embodiment, the driverless vehicle agent U may directly determine the next location.

경로 선정과 관련하여 보다 자세한 사항은 도 7에서 후술한다.7 will be described in more detail with reference to route selection.

무인 차량 에이전트(U)는 상기 목표 지점(next location)까지의 속도를 결정한다. The driverless vehicle agent U determines the speed to the target location.

구체적으로 제어부(120)는 무인 차량 에이전트(U)의 현재 위치(current location)와 상기 목표 지점(next location)간 경사도를 계산하고 그에 따른 험준도를 이용하여 무인 차량 에이전트(U)의 평균 기동 속력(Average speed)을 보정한다. 다른 실시예에 의하면, 무인 차량 에이전트(U)는 기 설정된 행동 규칙에 따라 직접 상기 목표 지점(next location)까지 속도를 결정할 수 있다.Specifically, the controller 120 calculates the inclination between the current location of the unmanned vehicle agent U and the target location and uses the roughness accordingly to average the moving speed of the unmanned vehicle agent U Correct (Average speed). According to another embodiment, the driverless vehicle agent U may directly determine the speed up to the target location according to a preset behavior rule.

무인 차량 에이전트(U)는 결정된 속도로 상기 목표 지점(next location)까지 이동한 후, 현재 위치에서의 환경을 인식하여 탐지 범위를 결정한다(S45). 구체적으로 제어부(120)는 수목 지형 존재 여부에 따라 무인 차량 에이전트(U)의 탐지 범위(

Figure 112019018175602-pat00055
)를 감쇠시킨다.The unmanned vehicle agent U moves to the target location at the determined speed, and then recognizes the environment at the current location to determine the detection range (S45). Specifically, the control unit 120 detects the range of the unmanned vehicle agent U according to the presence or absence of tree topography (
Figure 112019018175602-pat00055
) Attenuates.

일 실시예에 의하면, 무인 차량 에이전트(U)는 기 설정된 행동 규칙에 따라 자신의 탐지 범위(

Figure 112019018175602-pat00056
)를 직접 결정할 수 있다.According to an embodiment, the unmanned vehicle agent U may detect its detection range according to a preset behavior rule (
Figure 112019018175602-pat00056
) Directly.

무인 차량 에이전트(U)는 결정된 탐지 범위(

Figure 112019018175602-pat00057
)에 따라 탐색을 한다. 탐지 범위(
Figure 112019018175602-pat00058
)에 포함된 격자 지도상의 패치의 수색 여부(ReconState)의 값은 true로 변경된다.The driverless vehicle agent (U) has a determined detection range (
Figure 112019018175602-pat00057
). Detection range (
Figure 112019018175602-pat00058
The value of whether the patch on the grid map included in) is searched (ReconState) is changed to true.

무인 차량 에이전트(U)는 탐색을 완료한 후 현재 위치(current location)를 하차 지점으로 선정할 것인지 여부를 결정한다(S46). 구체적으로 무인 차량 에이전트(U)는 탐지 거리(

Figure 112019018175602-pat00059
) 내에 의심 구역이 포함되는 것을 파악하였으나, 탐지 범위(
Figure 112019018175602-pat00060
)가 감쇠됨에 따라 탐색이 완료되지 않은 경우 현재 위치(current location)를 하차 지점으로 선정할 수 있다.The driverless vehicle agent U determines whether to select a current location as a drop-off point after completing the search (S46). Specifically, the unmanned vehicle agent (U) has a detection distance (
Figure 112019018175602-pat00059
), but the scope of detection (
Figure 112019018175602-pat00060
If the search is not completed due to attenuation), the current location can be selected as a drop-off point.

일 실시예에 따라 무인 차량 에이전트(U)는 바로 하차 지점을 선정하는 것이 아니라 상기 현재 위치(current location)를 하차 지점 후보지에 포함시키고 제어부(120)가 해당 의심 구역이 무인 차량 에이전트(U)의 탐지 거리(

Figure 112019018175602-pat00061
)를 벗어났을 때 기 추가된 하차 지점 후보지 중에서 상기 해당 의심 구역과 가장 인접한 후보지를 하차 지점으로 선정할 수 있다.According to an embodiment, the unmanned vehicle agent U does not immediately select a disembarkation point, but includes the current location in the disembarkation point candidate and the controller 120 determines that the suspected area is the unmanned vehicle agent U. Detection distance (
Figure 112019018175602-pat00061
), the candidate point closest to the relevant suspect area can be selected as the drop-off point among the candidate points of drop-off point already added.

일 실시예에 따라 무인 차량 에이전트(U)는 단독으로 기 설정된 행동 규칙에 따라 상기 기 추가된 하차 지점 후보지 중에서 상기 하차 지점을 선정할 수 있다.According to an embodiment, the unmanned vehicle agent U may select the disembarkation point from the pre-added disembarkation point candidates according to a preset behavior rule.

무인 차량 에이전트(U)는 하차 지점 선정 여부를 결정하고 계속 이동하기 위해 다시 가상 환경을 인식한다. 무인 차량 에이전트(U)는 상기 수색 시나리오에 따른 종료 지점에 도착할 때까지 S41 내지 S46을 반복한다.The driverless vehicle agent U decides whether to select a drop-off point and recognizes the virtual environment again to continue moving. The unmanned vehicle agent U repeats S41 to S46 until it reaches the end point according to the search scenario.

도 5는 유인 차량 에이전트의 동작을 설명하기 위한 흐름도이다. 무인 차량 에이전트(U)의 동작과 중복되는 부분은 구체적인 설명을 생략한다.5 is a flowchart for explaining the operation of the manned vehicle agent. Details overlapping with the operation of the unmanned vehicle agent U are omitted.

도 5를 참조하면, 유인 차량 에이전트(G)는 자신의 상태 변수를 업데이트 한다(S51). 업데이트 되는 유인 차량 에이전트(G)의 상태 변수는 수색 방안 저장부(140)에도 전달된다.Referring to FIG. 5, the manned vehicle agent G updates its state variable (S51 ). The status variable of the updated manned vehicle agent G is also transmitted to the search room storage 140.

유인 차량 에이전트(G)는 환경 에이전트(H)가 제공하는 가상 환경에서 자신의 현재 위치(current location)에서의 환경을 인식하고 모의부(130)를 통해 무인 차량 에이전트(U)의 주행 경로를 전달 받는다(S52).The manned vehicle agent G recognizes the environment at its current location in the virtual environment provided by the environment agent H and delivers the driving path of the unmanned vehicle agent U through the mock unit 130. Receive (S52).

유인 차량 에이전트(G)는 전달받은 주행 경로를 따라 무인 차량 에이전트(U)를 추적하기 위한 목표 지점을 결정하고(S53), 상기 목표 지점까지의 속도를 결정한 뒤(S54) 결정된 속도에 따라서 상기 목표 지점까지 이동한다. The manned vehicle agent G determines a target point for tracking the unmanned vehicle agent U along the received travel route (S53), determines the speed to the target point (S54), and then determines the target according to the determined speed Move to the point.

유인 차량 에이전트(G)는 상기 목표 지점까지 이동한 후 현재 위치(current location)에서의 환경을 인식하여 탐지 범위(

Figure 112019018175602-pat00062
)를 결정하고(S55), 결정된 탐지 범위(
Figure 112019018175602-pat00063
)에 따라 탐색을 한다. The manned vehicle agent G recognizes the environment at the current location after moving to the target point and detects the detection range (
Figure 112019018175602-pat00062
) (S55), and the determined detection range (
Figure 112019018175602-pat00063
).

수색 대상 구역에 대한 주된 탐색은 무인 차량 에이전트(U) 및 수색 인원 에이전트(I)에 의해 이루어지므로 일 실시예에 따라 유인 차량 에이전트(G)는 상기 S55 단계의 수행 없이 다음 단계의 동작을 수행할 수 있다.Since the main search for the search target area is performed by the unmanned vehicle agent U and the search personnel agent I, the manned vehicle agent G according to an embodiment performs the operation of the next step without performing step S55. Can.

유인 차량 에이전트(G)는 탐색을 완료 한 후, 현재 위치(current location)에서의 환경을 인식하여 현재 위치(current location)가 무인 차량 에이전트(U)로부터 기 전달받은 하차 지점에 해당하는 지 여부를 판단한다(S56).After completing the search, the manned vehicle agent G recognizes the environment at the current location and determines whether the current location corresponds to the drop-off point previously received from the unmanned vehicle agent U. It is judged (S56).

상기 현재 위치(current location)가 상기 하차 지점에 해당하는 경우, 유인 차량 에이전트(G)는 탑승하고 있는 수색 인원 에이전트(I)의 하차를 위해 정차한 후 하차한 수색 인원 에이전트(I)가 탐색을 마치고 다시 탑승할 때까지 대기한다.When the current location corresponds to the disembarkation point, the manned vehicle agent G stops for the disembarkation of the search personnel agent I on board and then the disembarked search personnel agent I searches. Wait until you are finished and board again.

상기 현재 위치(current location)가 상기 하차 지점이 아니거나 수색 인원 에이전트(I)가 탑승을 완료한 경우 유인 차량 에이전트(G)는 계속 이동하기 위해 가상 환경을 인식한다.When the current location is not the drop-off point or the search personnel agent I has finished boarding, the manned vehicle agent G recognizes the virtual environment to continue moving.

유인 차량 에이전트(G)는 무인 차량 에이전트(U)가 마지막으로 선정한 하차 지점에 도달할 때까지 상기 S51 내지 S56을 반복한다.The manned vehicle agent G repeats the above steps S51 to S56 until the unmanned vehicle agent U reaches the last pick-up point.

도 6은 수색 인원 에이전트의 동작을 설명하기 위한 흐름도이다. 무인 차량 및 유인 차량 에이전트(U, G)와 중복되는 부분은 구체적인 설명을 생략한다.6 is a flowchart for explaining the operation of the search personnel agent. Details overlapping with unmanned vehicles and manned vehicle agents U and G are omitted.

도 6을 참조하면, 유인 차량 에이전트(G)가 하차 지점에서 정차하면 수색 인원 에이전트(I)는 유인 차량 에이전트(G)에서 하차하여 자신의 상태 변수를 업데이트 한다(S61). 업데이트 되는 수색 인원 에이전트(I)의 상태 변수는 수색 방안 저장부(140)에도 전달된다.Referring to FIG. 6, when the manned vehicle agent G stops at the drop-off point, the search personnel agent I gets off at the manned vehicle agent G to update its state variable (S61 ). The status variable of the updated search agent agent I is also transmitted to the search room storage 140.

수색 인원 에이전트(I)는 환경 에이전트(H)가 제공하는 가상 환경에서 자신의 현재 위치(current location)에서의 환경을 인식하고(S62), 자신과 인접한 의심 구역(위협 지형)의 위치를 탐색한다(S63).The search personnel agent I recognizes the environment at its current location in the virtual environment provided by the environment agent H (S62), and searches for the location of the suspect area (threatening terrain) adjacent to it. (S63).

수색 인원 에이전트(I)는 발견한 의심 구역(위협 지형)으로 이동하기 위해 목표 위치(next location)를 결정하고(S64), 기 설정된 행동 규칙에 따라 상기 목표 위치(next location)까지의 속도를 결정한다(S65).Search personnel agent (I) determines the target location (next location) in order to move to the suspected area (threatening terrain) found, and determines the speed to the target location (next location) according to a predetermined action rule (S65).

수색 인원 에이전트(I)는 상기 목표 위치까지 이동한 후 현재 위치(current location)에서의 환경을 인식하여 기 설정된 행동 규칙에 따라 자신의 탐지 범위(

Figure 112019018175602-pat00064
)를 결정하고(S66), 결정된 탐지 범위(
Figure 112019018175602-pat00065
)에 따라 탐색을 한다.The search personnel agent (I) recognizes the environment at the current location after moving to the target location, and detects its detection range according to the preset behavior rules (
Figure 112019018175602-pat00064
) (S66), and the determined detection range (
Figure 112019018175602-pat00065
).

수색 인원 에이전트(I)는 탐색을 완료하고 환경을 인식하여 상기 의심 구역(위협 지형)의 탐색이 모두 완료되었는지 여부를 판단한다(S67). 상기 의심 구역(위협 지형)의 탐색이 모두 완료된 경우 수색 인원 에이전트(I)는 대기하고 있는 유인 차량 에이전트(G)로 이동하여 탑승한다.The search personnel agent (I) completes the search and recognizes the environment to determine whether all of the search for the suspected area (threatening terrain) has been completed (S67). When all of the search for the suspected area (threatening terrain) is completed, the search personnel agent I moves to the waiting manned vehicle agent G and boards.

상기 의심 구역(위협 지형)의 탐색이 모두 완료되지 않은 경우, 수색 인원 에이전트(I)는 상기 S64 내지 S67을 반복한다. 이때에도 수색 인원 에이전트(I)는 자신의 상태 변수를 매번 업데이트 한다.When the search of the suspected area (threatening terrain) is not completed, the search personnel agent I repeats S64 to S67. Even at this time, the search agent agent (I) updates his state variable every time.

수색 인원 에이전트(I)는 유인 차량 에이전트(G)가 하차 지점에서 정차할 때마다 상기 S61 내지 S67을 반복한다.The search personnel agent I repeats S61 to S67 each time the manned vehicle agent G stops at the drop-off point.

도 7a 및 7b는 행동 규칙에 따른 무인 차량 에이전트의 경로 선정을 구체적으로 설명하기 위한 흐름도이다.7A and 7B are flowcharts for specifically explaining the route selection of an unmanned vehicle agent according to an action rule.

무인차량 에이전트(U)는 상기 수색 시나리오에 따른 수색 목표를 고려하여 주행 경로를 선정해나간다. 무인차량 에이전트(U)가 종료 지점까지의 경로계획에 도움을 받을 수 있도록 모의부(130)가 생성한 도로망 정보를 이용한다. 상기 도로망 정보는 무인 차량 에이전트(U)의 주요 기동로를 추상화하여 나타낸 것으로, 가상 환경인 격자 지도에서 상기 수색 시나리오에 따른 시작 지점과 상기 종료 지점 사이에 존재하는 복수의 교차로 지점에 관한 정보를 포함하고 있다.The driverless vehicle agent U selects a driving route in consideration of the search target according to the search scenario. The road network information generated by the simulation unit 130 is used so that the unmanned vehicle agent U can receive assistance in planning the route to the end point. The road network information is an abstract representation of the main maneuvering path of the unmanned vehicle agent U, and includes information about a plurality of intersection points existing between the start point and the end point according to the search scenario in a grid map that is a virtual environment. Doing.

도 7a는 상기 도로망 정보(path network)의 일 예를 도시한 것이다.7A shows an example of the path network.

도 7a를 참조하면, 시작 위치(

Figure 112019018175602-pat00066
)인 노드 ①과 종료 위치(
Figure 112019018175602-pat00067
)인 노드 ⑨를 제외한 노드들은 작전지역 내 주요 교차로를 나타내고, 모의부(130)는 각 교차로 사이에 이동 가능한 경로가 존재할 경우 링크(Link)를 생성한다. 이때 상기 링크는 임무계획 수립 시, 우회를 포함한 경로 선정 가능성을 고려하여 양방향으로 생성된다. Referring to Figure 7a, the starting position (
Figure 112019018175602-pat00066
) In node ① and end position (
Figure 112019018175602-pat00067
Nodes except node ⑨,) represent the main intersection in the operation area, and the mock unit 130 creates a link when there is a movable path between each intersection. At this time, the link is created in both directions in consideration of the possibility of route selection including bypass when establishing a mission plan.

무인차량 에이전트(U)는 모의부(130)로부터 전달받은 도로망 정보를 토대로 그리디 알고리즘 기반의 전역경로계획 기법으로 경로를 계획한다. 구체적으로 무인차량 에이전트(U)는 교차로에 도달했을 때 마다 연결된 링크의 비용(w)을 참조하여 다음 이동방향을 결정한다. 링크는 탐색면적과 이동시간에 따른 두 가지 비용 속성을 가진다. 탐색면적 비용은 해당 링크로 이동할 시 탐색 가능 면적을 나타내고, 탐색 시간 비용은 선택된 링크의 반대편 노드까지 이동 시 소요되는 시간을 나타낸다. The unmanned vehicle agent U plans a route using a greedy algorithm-based global route planning method based on the road network information received from the mock unit 130. Specifically, the unmanned vehicle agent U determines the next moving direction by referring to the cost w of the connected link whenever it reaches the intersection. Links have two cost attributes depending on search area and travel time. The search area cost represents the searchable area when moving to the corresponding link, and the search time cost represents the time required to move to the node opposite to the selected link.

도 7b는 상기 도로망 정보(path network)를 이용하여 무인 차량 에이전트(U)가 경로를 선정하는 과정을 구체적으로 설명하기 위한 흐름도이다.7B is a flowchart for specifically explaining a process of selecting a route by an unmanned vehicle agent U using the path network information.

도 7b를 참조하면,

Figure 112019018175602-pat00068
는 무인 차량 에이전트(U)를 의미한다. Referring to Figure 7b,
Figure 112019018175602-pat00068
Means unmanned vehicle agent U.

S700에서 무인 차량 에이전트(U)는 시작 위치(

Figure 112019018175602-pat00069
)에서 자신과 가장 인접한 교차로 노드(intersection node)를 중간 목적지(
Figure 112019018175602-pat00070
)로 업데이트 한다.In S700, the driverless vehicle agent U is the starting position (
Figure 112019018175602-pat00069
), the intersection node closest to itself is the intermediate destination (
Figure 112019018175602-pat00070
).

S701에서 무인 차량 에이전트(U)는 이동 방향(

Figure 112019018175602-pat00071
)이 중간 목적지(
Figure 112019018175602-pat00072
)를 향하도록 업데이트 한다.In S701, the driverless vehicle agent U is moving direction (
Figure 112019018175602-pat00071
) Is an intermediate destination (
Figure 112019018175602-pat00072
).

S702에서 무인 차량 에이전트(U)는 현재 위치로부터 반지름이 1.5(즉, 패치 간격 1.5개)이면서 이동 방향을 바라보는 반원(

Figure 112019018175602-pat00073
=180)내에 포함되는 패치를 인식한다. 구체적으로 예를 들면, 현재 위치에서 무인 차량 에이전트(U)가 북쪽 방향을 바라보고 있는 경우 상기 반원에 포함되어 인식되는 패치는 하기 표 5와 같다.In S702, the driverless vehicle agent U has a radius of 1.5 from the current position (that is, 1.5 patch intervals) and a semicircle facing the direction of movement (
Figure 112019018175602-pat00073
=180). Specifically, for example, when the driverless vehicle agent U in the current position is looking toward the north, patches included in the semicircle and recognized are shown in Table 5 below.

패치2
(포함)
Patch 2
(include)
패치1
(포함)
Patch 1
(include)
패치2
(포함)
Patch 2
(include)
패치1
(포함)
Patch 1
(include)
현재위치
(U)
Current location
(U)
패치1
(포함)
Patch 1
(include)
패치2Patch 2 패치1Patch 1 패치2Patch 2

상기 표 5에서 인식되는 패치는 총 5개이다. 상기 현재 위치로부터 패치 간격 1개의 범위 내에서는 무인 차량 에이전트(U)의 상하좌우에 위치하는 패치1 중에서 3개가 인식되고, 패치 간격 1.5개의 범위 내에서 무인 차량 에이전트(U)의 대각선 방향에 위치한 패치2 중에서 2개가 인식된다.S703에서 무인 차량 에이전트(U)는 인식한 패치 중에서 탐색되지 않은 도로(road) 지형의 패치가 있는 지 체크한다.A total of 5 patches are recognized in Table 5 above. Three patches among the patch 1 located on the top, bottom, left, and right of the unmanned vehicle agent U within the range of one patch interval from the current position are recognized, and the patch located in the diagonal direction of the unmanned vehicle agent U within the patch gap 1.5 range Two of the two are recognized. In S703, the driverless vehicle agent U checks whether there is a patch of a road terrain that has not been searched among the recognized patches.

S704에서 무인 차량 에이전트(U)가 인식한 패치(patch)중에서 도로(road) 지형의 패치(

Figure 112019018175602-pat00074
)가 존재하지 않는 것으로 판단한 경우, 상기 반원의 중심각(
Figure 112019018175602-pat00075
)이 360도 보다 작을 때 S705에서 무인 차량 에이전트(U)는 10도만큼 반원의 중심각(
Figure 112019018175602-pat00076
)을 넓힌 뒤(S706) 도로 지형을 탐색한다(S701-S703). 상기 반원의 중심각(
Figure 112019018175602-pat00077
)이 360도인 경우 현재 위치에서 인접하는 8 방향의 패치가 모두 도로 지형이 아닌 것이므로 무인 차량 에이전트(U)는 이전 위치(
Figure 112019018175602-pat00078
)로 기 설정된 행동 규칙에 따라 이동한다(S707). 이후 해당 위치(
Figure 112019018175602-pat00079
)에서 도로 지형을 탐색한다(S701-S703).The patch of the road terrain among the patches recognized by the driverless vehicle agent U in S704 (
Figure 112019018175602-pat00074
), the center angle of the semicircle (
Figure 112019018175602-pat00075
) Is less than 360 degrees, the unmanned vehicle agent (U) in S705 has a center angle of a semicircle by 10 degrees (
Figure 112019018175602-pat00076
) (S706) and then explore the road topography (S701-S703). Center angle of the semicircle (
Figure 112019018175602-pat00077
) Is 360 degrees, the unattended vehicle agent (U) moves to the previous location (
Figure 112019018175602-pat00078
) Is moved according to a predetermined action rule (S707). After that location (
Figure 112019018175602-pat00079
) To search for the road topography (S701-S703).

S704에서 무인 차량 에이전트(U)가 인식한 패치(patch)중에서 도로(road) 지형의 패치(

Figure 112019018175602-pat00080
)가 존재하는 것으로 판단한 경우, 무인 차량 에이전트(U)는 도로(road) 지형의 패치(
Figure 112019018175602-pat00081
)의 수를 체크한다(S715).The patch of the road terrain among the patches recognized by the driverless vehicle agent U in S704 (
Figure 112019018175602-pat00080
If it is determined that exists, the driverless vehicle agent U is a patch of the road terrain (
Figure 112019018175602-pat00081
) Is checked (S715).

S716에서 하나의 도로 지형 패치(

Figure 112019018175602-pat00082
)만이 존재하는 경우 무인 차량 에이전트(U)는 다음 위치(next location,
Figure 112019018175602-pat00083
)를 해당 도로 지형 패치(
Figure 112019018175602-pat00084
)로 업데이트 한다. S728에서 무인 차량 에이전트(U)는 현재 위치(current location,
Figure 112019018175602-pat00085
)에서 상기 다음 위치(next location,
Figure 112019018175602-pat00086
)로 기 설정된 행동 규칙에 따라 이동한다.One road terrain patch in S716(
Figure 112019018175602-pat00082
If only) is present, the driverless vehicle agent U is next location,
Figure 112019018175602-pat00083
) The corresponding road terrain patch (
Figure 112019018175602-pat00084
). In S728, the driverless vehicle agent U is the current location,
Figure 112019018175602-pat00085
) At the next location (next location,
Figure 112019018175602-pat00086
).

S716에서 무인 차량 에이전트(U)가 하나 이상의 도로 지형 패치(

Figure 112019018175602-pat00087
)가 존재하는 것으로 판단한 경우, 중간 목적지(
Figure 112019018175602-pat00088
)에 가장 인접한 도로 지형 패치(
Figure 112019018175602-pat00089
)를 선택하여(S717) 해당 도로 지형 패치(
Figure 112019018175602-pat00090
)를 다음 위치인
Figure 112019018175602-pat00091
으로 업데이트 한다(S718). 무인 차량 에이전트(U)는 업데이트된
Figure 112019018175602-pat00092
을 기준으로 S728 단계를 수행한다.In S716, the unmanned vehicle agent (U) patches one or more road terrains (
Figure 112019018175602-pat00087
), the intermediate destination (
Figure 112019018175602-pat00088
) The terrain patch that is closest to the road (
Figure 112019018175602-pat00089
) (S717) to patch the corresponding road terrain (
Figure 112019018175602-pat00090
) Next position
Figure 112019018175602-pat00091
Update to (S718). Unmanned Vehicle Agent (U) has been updated
Figure 112019018175602-pat00092
Based on the step S728 is performed.

S729에서 무인 차량 에이전트(U)는 현재 위치인

Figure 112019018175602-pat00093
이 종료 위치(
Figure 112019018175602-pat00094
)인지 여부를 판단하고, S730에서 종료 위치(
Figure 112019018175602-pat00095
)인 경우 무인 차량 에이전트(U)는 수색 작업을 종료한다. S730에서 종료 위치(
Figure 112019018175602-pat00096
)가 아닌 것으로 판단한 경우 무인 차량 에이전트(U)는 S731에서
Figure 112019018175602-pat00097
이 교차로(intersection)에 해당하는 지 체크한다.In S729, the driverless vehicle agent (U) is
Figure 112019018175602-pat00093
This end position (
Figure 112019018175602-pat00094
), and the end position (S730)
Figure 112019018175602-pat00095
), the driverless vehicle agent U ends the search operation. End position at S730(
Figure 112019018175602-pat00096
), the driverless vehicle agent (U) in S731
Figure 112019018175602-pat00097
Check if it corresponds to this intersection.

S732에서

Figure 112019018175602-pat00098
이 교차로(intersection)에 해당하는 것으로 판단한 경우 무인 차량 에이전트(U)는 주행 경로를 결정하기 위해
Figure 112019018175602-pat00099
와 연결되는 교차로(intersection) 중에서 각각의 링크의 비용 속성과 수색 목표에 해당하는 경로 선정 기준(Planning criteria)을 고려하여 탐색 면적이 최대가 되거나 탐색 시간이 최소가 되는 교차로(intersection)를 선택하여 중간 목적지(
Figure 112019018175602-pat00100
)로 업데이트 한다(S733, S734). 이후 무인 차량 에이전트(U)는 종료 지점(
Figure 112019018175602-pat00101
)에 도착할 때까지 S701부터 다시 반복하여 각 단계를 수행한다.From S732
Figure 112019018175602-pat00098
If it is determined that this is an intersection, the driverless vehicle agent U may determine the driving route.
Figure 112019018175602-pat00099
Among the intersections that are connected to the middle, select the intersection that maximizes the search area or minimizes the search time by considering the cost attribute of each link and the planning criteria corresponding to the search target. destination(
Figure 112019018175602-pat00100
) (S733, S734). After that, the driverless vehicle agent U will end
Figure 112019018175602-pat00101
Repeat each step from S701 until it reaches ).

일 실시예에 따라 제어부(120)가 중간 목적지(

Figure 112019018175602-pat00102
)에 해당하는 상기 교차로(intersection)의 정보를 무인 차량 에이전트(U)에 전달함으로써 중간 목적지(
Figure 112019018175602-pat00103
)가 업데이트 될 수 있다.According to an embodiment, the control unit 120 may provide an intermediate destination (
Figure 112019018175602-pat00102
) By passing the information of the intersection corresponding to the unmanned vehicle agent (U) to the intermediate destination (
Figure 112019018175602-pat00103
) Can be updated.

S732에서 무인 차량 에이전트(U)가

Figure 112019018175602-pat00104
이 교차로(intersection)가 아닌 것으로 판단한 경우 종료 지점(
Figure 112019018175602-pat00105
)에 도착할 때까지 S701부터 각 단계를 수행한다.In S732, the driverless vehicle agent (U)
Figure 112019018175602-pat00104
If it is determined that this is not an intersection, the end point (
Figure 112019018175602-pat00105
Each step is performed from S701 until arrival at.

도 8은 행동 규칙에 따른 각 에이전트의 이동을 구체적으로 설명하기 위한 흐름도이다.8 is a flowchart for specifically describing movement of each agent according to an action rule.

도 8을 참조하면, S800에서 각 에이전트 E(U, G, I)는 현재 위치(

Figure 112019018175602-pat00106
)와 다음 위치(
Figure 112019018175602-pat00107
)간의 거리 D를 계산한다.8, in S800, each agent E (U, G, I) is the current location (
Figure 112019018175602-pat00106
) And next position (
Figure 112019018175602-pat00107
Calculate the distance D between ).

S801-S802에서 각 에이전트 E(U, G, I)는 수목 밀도(forest density)와 경사도(slope)를 기반으로 험준도(roughness level)를 결정한다. 각 에이전트 E(U, G, I)는 현재 위치(

Figure 112019018175602-pat00108
)와 다음 위치(
Figure 112019018175602-pat00109
)간의 경사도(slope)를 계산한다. 상기 경사도(slope)는 하기 수학식 4를 이용하여 계산된다.In S801-S802, each agent E (U, G, I) determines the roughness level based on forest density and slope. Each agent E (U, G, I) has its current location (
Figure 112019018175602-pat00108
) And next position (
Figure 112019018175602-pat00109
Calculate the slope between ). The slope is calculated using Equation 4 below.

Figure 112019018175602-pat00110
Figure 112019018175602-pat00110

상기 수학식 4에서 Ht는 현재 위치(

Figure 112019018175602-pat00111
)와 다음 위치(
Figure 112019018175602-pat00112
)간의 표고차를 나타낸다. 각 에이전트 E(U, G, I)는 모의부(130)를 통해 전달 받는 격자 지도의 상태 변수로부터 상기 표고차 Ht를 구할 수 있다.In Equation 4, Ht is the current position (
Figure 112019018175602-pat00111
) And next position (
Figure 112019018175602-pat00112
). Each agent E (U, G, I) may obtain the elevation difference Ht from the state variable of the grid map received through the simulation unit 130.

상기 수목 밀도의 경우 현재 위치(

Figure 112019018175602-pat00113
)와 다음 위치(
Figure 112019018175602-pat00114
)간 수목 지형의 밀집 정도를 나타내는 값이다. 상기 수색 시나리오에 따라 임의의 수목 밀도가 설정되는 것으로 가정한다. 상기 수목 밀도와 상기 경사도에 따른 험준도의 일 예를 하기 표 6에 정리하였다.For tree density above, current location (
Figure 112019018175602-pat00113
) And next position (
Figure 112019018175602-pat00114
) This is a value indicating the degree of denseness of the tree topography. It is assumed that an arbitrary tree density is set according to the search scenario. Table 6 shows an example of the steepness according to the tree density and the slope.

경사도
수목밀도
slope
Tree density
15%이하15% or less 16%이상 45%이하16% or more and 45% or less 46%이상46% or more
30%이하30% or less groundground forest Ⅰforest Ⅰ forest Ⅱ forest Ⅱ 31%이상 60%이하31% or more and 60% or less forest Ⅰforest Ⅰ forest Ⅱforest Ⅱ forest Ⅲforest Ⅲ 61%이상61% or more forest Ⅱforest Ⅱ forest Ⅲforest Ⅲ forest Ⅲforest Ⅲ

상기 표 6에서 ground는 일반 지형의 험준도이고 경사도와 수목 밀도가 높아짐에 따라 험준도는 forest Ⅰ에서 forest Ⅲ까지 증가한다. S802에서 각 에이전트E(U, G, I)는 상기 표 6에 따라 험준도를 결정한다.상기 험준도 수준은 각 에이전트 E(U, G, I)는 이동 속력과 탐지 범위에 영향을 미친다. 영향 인자(Influence factor)의 일 예를 하기 표 7에 정리하였다.In Table 6 above, the ground is the roughness of the general terrain and the steepness increases from forest I to forest III as the slope and tree density increase. In S802, each agent E (U, G, I) determines a roughness level according to Table 6 above. The level of roughness affects each of the agent E (U, G, I) movement speed and detection range. An example of an influence factor is summarized in Table 7 below.

험준도Humjundo

Figure 112019018175602-pat00115
(이동)
Figure 112019018175602-pat00115
(move)
Figure 112019018175602-pat00116
(탐지 범위)
Figure 112019018175602-pat00116
(Detection range)
groundground 1.01.0 1.01.0 forest Ⅰforest Ⅰ 0.80.8 0.80.8 forest Ⅱforest Ⅱ 0.60.6 0.60.6 forest Ⅲforest Ⅲ 0.20.2 0.60.6

상기 표 7을 참조하면, 험준도가 ground인 경우 영향 인자(

Figure 112019018175602-pat00117
,
Figure 112019018175602-pat00118
)가 각각 1이므로 이동 속력과 탐지 범위에는 영향이 없다. 험준도가 높아짐에 따라 영향 인자(
Figure 112019018175602-pat00119
,
Figure 112019018175602-pat00120
)는 낮아지므로 각 에이전트 E의 이동 속력과 탐지 범위는 감소하게 된다. 따라서 각 에이전트 E(U, G, I)의 이동 속력은 각각의 평균 기동 속력(
Figure 112019018175602-pat00121
)에 험준도에 따른 이동 영향 인자
Figure 112019018175602-pat00122
을 곱한 값이다.각 에이전트 E(U, G, I)의 감쇠된 탐지 범위는 각각의 최대 탐지 거리(
Figure 112019018175602-pat00123
)와 탐색 영향 인자
Figure 112019018175602-pat00124
를 이용하여 정해지는 범위이다. 탐지 범위와 관련하여 자세한 사항은 도 9에서 후술한다.Referring to Table 7 above, when the roughness is ground, the influence factor (
Figure 112019018175602-pat00117
,
Figure 112019018175602-pat00118
) Is 1, so movement speed and detection range are not affected. Influence factors (
Figure 112019018175602-pat00119
,
Figure 112019018175602-pat00120
) Decreases, so the moving speed and detection range of each agent E decrease. Therefore, the moving speed of each agent E (U, G, I) is the average starting speed of each (
Figure 112019018175602-pat00121
) Influencing factors according to the roughness
Figure 112019018175602-pat00122
The attenuated detection range of each agent E(U, G, I) is the maximum detection distance of each (
Figure 112019018175602-pat00123
) And search influencing factors
Figure 112019018175602-pat00124
It is a range determined using. Details regarding the detection range will be described later in FIG. 9.

S803에서 각 에이전트 E(U, G, I)는 상기 표 6에 따라 이동 속력의 영향 인자

Figure 112019018175602-pat00125
를 결정하고 S804에서 다음 위치(
Figure 112019018175602-pat00126
)로 가기 위한 현재 속력 V를
Figure 112019018175602-pat00127
으로 업데이트 한다. S805에서 각 에이전트 E(U, G, I)는 기 업데이트 된 속력에 따라 다음 위치(
Figure 112019018175602-pat00128
)로 이동한다. S806에서 각 에이전트 E(U, G, I)는 패치
Figure 112019018175602-pat00129
의 방문 여부(visitState)를 true로 변경하고 방문 순서(visitSequence)는 이전 패치
Figure 112019018175602-pat00130
의 값보다 1 증가시킨 값으로 업데이트 한다.In S803, each agent E (U, G, I) is an influence factor of the moving speed according to Table 6 above.
Figure 112019018175602-pat00125
The next location in S804 (
Figure 112019018175602-pat00126
) To go to the current speed V
Figure 112019018175602-pat00127
Update. In S805, each agent E(U, G, I) is next position according to the updated speed (
Figure 112019018175602-pat00128
). In S806, each agent E (U, G, I) is patched
Figure 112019018175602-pat00129
Change the visit status (visitState) to true and the visit sequence (visitSequence) is the previous patch.
Figure 112019018175602-pat00130
It is updated with the value increased by 1 from the value of.

S801 내지 S806 단계를 수행하는 동안 병렬적으로 각 에이전트 E(U, G, I)는 탐색 시간과 관련된 상태 변수를 업데이트 한다.While performing steps S801 to S806, in parallel, each agent E(U, G, I) updates the state variable related to the search time.

S810에서 각 에이전트 E(U, G, I)는 패치

Figure 112019018175602-pat00131
부터 패치
Figure 112019018175602-pat00132
까지의 이동 시간(
Figure 112019018175602-pat00133
)을 계산한다. 상기 이동 시간(
Figure 112019018175602-pat00134
)은 현재 위치(
Figure 112019018175602-pat00135
)와 다음 위치(
Figure 112019018175602-pat00136
)간의 거리 D를 현재 이동 속력인 V(k+1)로 나눈 값이다.In S810, each agent E (U, G, I) is patched
Figure 112019018175602-pat00131
Patch from
Figure 112019018175602-pat00132
Travel time to
Figure 112019018175602-pat00133
). The travel time (
Figure 112019018175602-pat00134
) Is the current location (
Figure 112019018175602-pat00135
) And next position (
Figure 112019018175602-pat00136
This is the distance between) divided by the current moving speed V(k+1).

S811에서 이동하는 에이전트 E가 무인 차량, 유인 차량 및 수색 인원 에이전트 중 어느 하나인지 여부를 체크한다. 이동한 에이전트 E가 수색 인원 에이전트(I)인 경우, 해당 수색 인원 에이전트(I)는 총 수색 시간(

Figure 112019018175602-pat00137
)을 업데이트하고 상기 해당 수색 인원 에이전트(I)를 수송한 유인 차량 에이전트(G)는 총 정차 시간(
Figure 112019018175602-pat00138
)을 업데이트 한다(S812).It is checked whether the agent E moving in S811 is one of an unmanned vehicle, a manned vehicle, and a search personnel agent. If the moved agent E is the search personnel agent (I), the search personnel agent (I) is the total search time (
Figure 112019018175602-pat00137
), and the manned vehicle agent (G) who transported the relevant search personnel agent (I) has the total stop time (
Figure 112019018175602-pat00138
) Is updated (S812 ).

이동한 에이전트 E가 수색 인원 에이전트(I)가 아닌 경우 S813에서 각 에이전트 E (U 또는 G)는 총 수색 시간(

Figure 112019018175602-pat00139
또는
Figure 112019018175602-pat00140
)을 업데이트 하고, 이동한 에이전트 E가 유인 차량 에이전트(G)인 경우 S814에서 유인 차량 에이전트(G)는 총 탑승 시간(
Figure 112019018175602-pat00141
)을 추가적으로 업데이트 한다.If the moved agent E is not the search personnel agent (I), in S813, each agent E (U or G) has the total search time (
Figure 112019018175602-pat00139
or
Figure 112019018175602-pat00140
), and if the moved agent E is the manned vehicle agent (G), in S814 the manned vehicle agent (G) is the total boarding time (
Figure 112019018175602-pat00141
).

각 에이전트 E (U, G, I)의 총 수색 시간(RT)을 정리하면 하기 수학식 5와 같다.The total search time (RT) of each agent E (U, G, I) is summarized in Equation 5 below.

Figure 112019018175602-pat00142
Figure 112019018175602-pat00142

무인 차량 에이전트(U)는 이전 패치

Figure 112019018175602-pat00143
까지의 총 수색 시간
Figure 112019018175602-pat00144
에 패치
Figure 112019018175602-pat00145
에서
Figure 112019018175602-pat00146
까지 이동하는 데 소요된 시간인 이동 시간
Figure 112019018175602-pat00147
를 더하여 총 수색 시간
Figure 112019018175602-pat00148
를 업데이트 한다. Unmanned Vehicle Agent (U) Patch Previous
Figure 112019018175602-pat00143
Total search time to
Figure 112019018175602-pat00144
Patch on
Figure 112019018175602-pat00145
in
Figure 112019018175602-pat00146
Travel time, which is the time it took to travel to
Figure 112019018175602-pat00147
Plus the total search time
Figure 112019018175602-pat00148
Update it.

유인 차량 에이전트(G)의 경우 이동 시간

Figure 112019018175602-pat00149
외에 추가로 총 정차 시간
Figure 112019018175602-pat00150
을 더하여 총 수색 시간
Figure 112019018175602-pat00151
를 업데이트 한다. Travel time for manned vehicle agent (G)
Figure 112019018175602-pat00149
In addition, the total stop time
Figure 112019018175602-pat00150
Plus the total search time
Figure 112019018175602-pat00151
Update it.

수색 인원 에이전트(I)의 경우 이동 시간

Figure 112019018175602-pat00152
외에 추가로 총 탑승 시간
Figure 112019018175602-pat00153
을 더하여 총 수색 시간
Figure 112019018175602-pat00154
를 업데이트 한다. Travel Time for Search Personnel Agents (I)
Figure 112019018175602-pat00152
In addition, total boarding time
Figure 112019018175602-pat00153
Plus the total search time
Figure 112019018175602-pat00154
Update it.

도 9a 및 9b는 행동 규칙에 따른 각 에이전트의 탐색을 구체적으로 설명하기 위한 도면이다.9A and 9B are diagrams for specifically explaining the discovery of each agent according to the action rule.

도 9a는 행동 규칙에 따른 각 에이전트의 탐색이 이루어지는 과정에 관한 흐름도이다. S900에서 각 에이전트 E(U, G, I)는 현재 위치

Figure 112019018175602-pat00155
에서 기 설정된 중심각
Figure 112019018175602-pat00156
를 이용하여 부채꼴(circular sector) 넓이 내에 존재하는 패치들을 탐색한다.9A is a flowchart illustrating a process of searching for each agent according to an action rule. In S900, each agent E (U, G, I) is in the current position
Figure 112019018175602-pat00155
Center angle
Figure 112019018175602-pat00156
Use to search for patches that exist within the area of a circular sector.

S902에서 해당 범위에 수목지형이 없을 경우에는 현재 부채꼴 넓이 전체가 탐지 범위가 되므로 S907에서 각 에이전트 E(U, G, I)는 현재 부채꼴 넓이에 포함되는 패치들을 탐지 범위(

Figure 112019018175602-pat00157
)에 포함시킨다. In S902, if there is no tree topography in the range, the entire current sector width becomes the detection range. In S907, each agent E(U, G, I) detects the patches included in the current sector width range (
Figure 112019018175602-pat00157
).

S908에서 중심각(

Figure 112019018175602-pat00158
)이 360도인 경우 탐색을 마치고 탐지 범위(
Figure 112019018175602-pat00159
)에 포함된 패치들의 탐색 여부(ReconState)를 true로 변경한다. Center angle at S908(
Figure 112019018175602-pat00158
) Is 360 degrees, the search is finished and the detection range (
Figure 112019018175602-pat00159
Changes whether to search for patches included in (ReconState) to true.

중심각(

Figure 112019018175602-pat00160
)이 360도가 아닌 경우 S909에서 각 에이전트 E(U, G, I)는 상기 중심각의 초기값(theta)만큼 방향(
Figure 112019018175602-pat00161
)을 변경하고 theta만큼 증가된 중심각
Figure 112019018175602-pat00162
을 이용하여 S900 단계부터 이후의 단계를 수행한다. 모든 에이전트(U, G, I)의 가시 범위(FOV)가 360도인 점을 고려하여, 중심각이 360도보다 작을 경우에는 해당 에이전트가 현재 향하고 있는 방향을 theta만큼 이동시키면서 360도 모든 방향에 대해 탐색을 하기 위함이다.Center angle(
Figure 112019018175602-pat00160
) Is not 360 degrees, in S909, each agent E (U, G, I) is directed by the initial value (theta) of the central angle (
Figure 112019018175602-pat00161
) And the center angle increased by theta
Figure 112019018175602-pat00162
The following steps are performed from step S900. Considering that the visible range (FOV) of all agents (U, G, and I) is 360 degrees, if the center angle is less than 360 degrees, the agent will search for all directions in 360 degrees while moving the direction currently facing by theta Is to do.

S902에서 해당 범위에 수목지형이 존재하는 경우 각 에이전트 E(U, G, I)는 탐색 영향인자

Figure 112019018175602-pat00163
를 반영하여 탐지범위를 감쇠한다(S903-S907).In S902, if a tree topography exists in the range, each agent E(U, G, I) is a search influencer
Figure 112019018175602-pat00163
Attenuates the detection range by reflecting (S903-S907).

S903에서 각 에이전트 E(U, G, I)는 현재 위치(

Figure 112019018175602-pat00164
)에서 가장 인접한 수목 지형의 패치(
Figure 112019018175602-pat00165
)를 찾는다. In S903, each agent E (U, G, I) is in the current position (
Figure 112019018175602-pat00164
) The patch of the nearest tree top (
Figure 112019018175602-pat00165
).

S904에서 각 에이전트 E(U, G, I)는 현재 위치(

Figure 112019018175602-pat00166
)와 상기 수목 지형의 패치(
Figure 112019018175602-pat00167
)간 거리 D를 계산하고, 계산된 거리 D를 이용하여 험준도를 결정한다(S905). In S904, each agent E (U, G, I) is the current location (
Figure 112019018175602-pat00166
) And the patch of the tree topography (
Figure 112019018175602-pat00167
The distance D between) is calculated, and the roughness is determined using the calculated distance D (S905).

S906에서 각 에이전트 E(U, G, I)는 결정된 험준도에 따른 탐색 영향 인자

Figure 112019018175602-pat00168
를 결정한다. S907에서 각 에이전트 E(U, G, I)는 기 탐색된 패치들 중에서 상기 탐색 영향 인자
Figure 112019018175602-pat00169
를 고려하여 감쇠된 범위에 포함되는 패치들을 선택하여 탐지 범위(
Figure 112019018175602-pat00170
)에 추가한다. 이후 S908 단계를 동일하게 수행하여 방향을 변경하여 추가적으로 탐색하거나 탐색을 종료한다.In S906, each agent E (U, G, I) is a search influence factor according to the determined roughness
Figure 112019018175602-pat00168
Decide. In S907, each agent E (U, G, I) is the search influence factor among the previously discovered patches.
Figure 112019018175602-pat00169
Selecting the patches included in the attenuated range in consideration of the detection range (
Figure 112019018175602-pat00170
). Subsequently, in step S908, the direction is changed to additionally search or end the search.

도 9b는 행동 규칙에 따라 각 에이전트가 탐색을 하는 경우 지형에 따라 감쇠되는 탐지 범위를 설명하기 위한 도면이다.9B is a diagram for explaining a detection range attenuated according to terrain when each agent searches according to an action rule.

9b를 참조하면, A는 현재 위치

Figure 112019018175602-pat00171
에서 가장 인접한 수목 지형의 패치(
Figure 112019018175602-pat00172
)까지의 거리이고 B는 각 에이전트 E(U, G, I)의 최대 탐지 거리(
Figure 112019018175602-pat00173
)에서 A를 뺀 값이다.Referring to 9b, A is the current position
Figure 112019018175602-pat00171
The patch of the nearest tree terrain in
Figure 112019018175602-pat00172
) And B is the maximum detection distance of each agent E (U, G, I)
Figure 112019018175602-pat00173
) Minus A.

감쇠되기 전의 탐지 범위(

Figure 112019018175602-pat00174
)는 기 설정된 중심각(
Figure 112019018175602-pat00175
)과 최대 탐지 거리(
Figure 112019018175602-pat00176
)에 의한 부채꼴 영역인 반면, 감쇠된 후의 탐지 범위(
Figure 112019018175602-pat00177
)는 상기 중심각(
Figure 112019018175602-pat00178
)과
Figure 112019018175602-pat00179
에 따른 부채꼴 영역이다.Detection range before attenuation (
Figure 112019018175602-pat00174
) Is a preset center angle (
Figure 112019018175602-pat00175
) And maximum detection distance (
Figure 112019018175602-pat00176
), while the detection range after attenuation (
Figure 112019018175602-pat00177
) Is the center angle (
Figure 112019018175602-pat00178
)and
Figure 112019018175602-pat00179
It is a sector of the sector.

상기와 같이 본 발명에 따른 수색 행위 모델링 장치(100)는 지형의 특성에 따라 감쇠된 탐지 범위로 수색 행위를 모의하는 바, 주어진 조건 하에서 보다 적정한 수색 계획을 수립할 수 있다.As described above, the search behavior modeling apparatus 100 according to the present invention simulates the search behavior with the attenuated detection range according to the characteristics of the terrain, so that a more appropriate search plan can be established under given conditions.

도 10은 행동 규칙에 따라 무인 차량 에이전트의 하차 지점 선정을 구체적으로 설명하기 위한 흐름도이다.10 is a flowchart for specifically explaining the selection of an unattended vehicle agent's drop-off point according to an action rule.

무인차량 에이전트(U)는 자신이 커버할 수 없는 수목 내부의 의심구역(위협지형)을 수색 인원 에이전트(I)에게 도보수색으로 요청하기 위하여 적절한 하차지점을 선정한다. 무인 차량 에이전트(U)는 주행 수색경로를 따라 이동하면서 기 설정된 단위 반경 내에서 아직 탐색이 완료되지 않은 의심구역(위협지형)을 탐색한다. The unmanned vehicle agent (U) selects an appropriate drop-off point to request the search personnel agent (I) to search for a suspected area (threatening terrain) inside the tree that he or she cannot cover. The unmanned vehicle agent U searches for a suspected area (threatening terrain) that has not yet been searched within a predetermined unit radius while moving along the driving search path.

도 10을 참조하면, S1000에서 무인 차량 에이전트(U)는 주행 수색경로를 따라 이동하면서 자신을 중심으로 기 설정된 반경(radius r)에 의한 원(

Figure 112019018175602-pat00180
의 circular sector)에 포함되는 패치들을 인식한다. Referring to FIG. 10, in S1000, the unmanned vehicle agent U moves along the driving search path, and a circle due to a predetermined radius (radius r) around itself (
Figure 112019018175602-pat00180
Of circular sectors).

S1001에서 무인 차량 에이전트(U)는 상기 인식한 패치들 중에서 지형의 유형이 의심 구역(threat)인 패치가 존재하는 지 체크한다.In S1001, the unmanned vehicle agent U checks whether a patch having a type of terrain is a threat among the recognized patches.

S1002에서 의심 구역에 해당하는 패치(threat patch)가 존재하는 경우, 무인 차량 에이전트(U)는 해당 패치(threat patches)들과 상기 해당 패치(threat patches)들이 속한 의심 구역의 아이디(threatAreaID)를 가져온 후(S1013), 해당 의심 구역(threatAreaID)의 탐색 여부(clearState)를 체크한다(S1014).When a patch corresponding to the suspected area exists in S1002, the unmanned vehicle agent U obtains the corresponding patches (threat patches) and the ID (threatAreaID) of the suspected area to which the corresponding patches (threat patches) belong. After (S1013), it is checked whether to search for the suspected area (threatAreaID) (clearState) (S1014).

S1015에서 무인 차량 에이전트(U)는 해당 의심 구역(threatAreaID)의 탐색 여부(clearState)가 false인 경우 무인 차량 에이전트(U)의 탐색에도 불구하고 아직 탐색되지 않은 것이므로(즉 상기 의심 구역의 패치는 탐색 불가 지역에 해당), 현재 위치(

Figure 112019018175602-pat00181
)를 하차 지점 후보지(
Figure 112019018175602-pat00182
)에 추가하고(S1016) 다음 위치(
Figure 112019018175602-pat00183
)로 이동한 후 S1000으로 돌아가서 이후 단계를 다시 수행한다.In S1015, the unmanned vehicle agent U has not yet been discovered despite the unmanned vehicle agent U discovery (i.e., the patch of the suspected region is searched if the suspected region (threatAreaID) has been cleared (clearState) is false) Not applicable), current location (
Figure 112019018175602-pat00181
Get off at)
Figure 112019018175602-pat00182
) (S1016) and next location (
Figure 112019018175602-pat00183
) And return to S1000 to perform the subsequent steps again.

S1015에서 무인 차량 에이전트(U)는 해당 의심 구역(threatAreaID)의 탐색 여부(clearState)가 true인 경우 탐색 불가 지역은 없는 것이므로 하차 지점 선정을 종료할 수 있다.In step S1015, the unmanned vehicle agent U may end the selection of the disembarkation point because there is no undiscoverable area when the suspected area (threatAreaID) is cleared (clearState) is true.

S1002에서 의심 구역에 해당하는 패치(threat patch)가 존재하지 않는 경우, 무인 차량 에이전트(U)는 기 추가한 하차 지점 후보지(

Figure 112019018175602-pat00184
)의 수를 체크한다(S1003). S1004에서 하차 지점 후보지(
Figure 112019018175602-pat00185
)가 존재하지 않는 경우 하차 지점 선정을 종료할 수 있다. 하차 지점 후보지(
Figure 112019018175602-pat00186
)가 하나 이상 존재하는 경우 무인 차량 에이전트(U)는 하차 지점 후보지(
Figure 112019018175602-pat00187
) 중에서 상기 의심 구역의 패치(threatAreaID)와 가장 인접한 하차 지점 후보지(
Figure 112019018175602-pat00188
)를 결정한다(S1005).In the case where a patch corresponding to the suspected zone does not exist in S1002, the unmanned vehicle agent U is a candidate for a disembarkation point (
Figure 112019018175602-pat00184
) Is checked (S1003). Get off at S1004
Figure 112019018175602-pat00185
) Does not exist, you can end the selection of the drop-off point. Get off point candidate (
Figure 112019018175602-pat00186
If there is more than one, the unmanned vehicle agent (U) is a candidate
Figure 112019018175602-pat00187
), the candidate for the nearest drop-off point to the patch (threatAreaID) in the suspect area (
Figure 112019018175602-pat00188
) Is determined (S1005).

무인 차량 에이전트(U)는

Figure 112019018175602-pat00189
의 하자 지점 여부와 관련된 상태 변수(dismountHere)를 true로 변경함으로써
Figure 112019018175602-pat00190
를 하차지점으로 선정한다(S1006).Unmanned Vehicle Agent (U)
Figure 112019018175602-pat00189
By changing the state variable (dismountHere) related to the defect point of
Figure 112019018175602-pat00190
Is selected as a drop-off point (S1006).

상기와 같이 무인 차량 에이전트(U)는 자신의 탐색 범위를 벗어나는 의심 구역(threat)에 대해서는 하차 지점을 선정함으로써 수색 인원 에이전트(I)의 수색 협조를 구하는 바, 상호 협력하는 유무인 에이전트를 이용하여 주어진 조건 하에서 적정한 수색 활동 계획을 수립할 수 있다.As described above, the unmanned vehicle agent U seeks search cooperation of the search personnel agent I by selecting a disembarkation point for a suspected area outside the scope of his search, and uses a unmanned agent who cooperates with each other. An appropriate search action plan can be established under the given conditions.

도 11은 수색 행위의 모의 결과를 설명하기 위한 도면이다.11 is a view for explaining a simulation result of a search activity.

일 실시예에 따라 수색 방안 저장부(140)는 실시간 수색 현황을 도 11과 같이 표시할 수 있다. 도 11을 참조하면, 무인 차량 에이전트(U)는 종료 지점에 도착하기까지 3개의 하차 지점을 선정하였고 유인 차량 에이전트(G)는 2번째 하차 지점에 정차하여 수색 인원 에이전트(I)가 수색을 하는 동안 대기하고 있는 상태이다.According to an embodiment, the search plan storage unit 140 may display real-time search status as shown in FIG. 11. Referring to FIG. 11, the unmanned vehicle agent U selects three drop-off points until reaching the end point, and the manned vehicle agent G stops at the second drop-off point and the search personnel agent I searches It is waiting for a while.

도 12는 본 발명의 다른 실시예에 따른 수색 행위 모델링 방법을 설명하기 위한 흐름도이다.12 is a flowchart illustrating a search behavior modeling method according to another embodiment of the present invention.

본 발명의 다른 실시예에 따른 수색 행위 모델링 방법은 기 설정된 수색 시나리오에 따라 수색 행위를 모의한다. 구체적으로 도 12를 참조하면, 수색 행위 모델링 방법은 에이전트 생성 단계(S1200), 주행 경로 선정 단계(S1300), 하차지점 선정 단계(S1400), 수색 인원 에이전트 하차 단계(S1500), 탐색 불가 지역에 대한 탐색 단계(S1600) 및 수색 행위 모의 결과 저장 단계(S1700)를 포함할 수 있다.The search behavior modeling method according to another embodiment of the present invention simulates a search behavior according to a preset search scenario. Specifically, referring to FIG. 12, the search behavior modeling method includes an agent creation step (S1200), a driving route selection step (S1300), a drop-off point selection step (S1400), a search personnel agent drop-off step (S1500), and an unsearchable area. It may include a search step (S1600) and a search action simulation result storage step (S1700).

S1200에서, 환경 에이전트(H), 무인 차량 에이전트(U), 유인 차량 에이전트(G) 및 수색 인원 에이전트(I)가 생성된다. In S1200, an environment agent H, an unmanned vehicle agent U, a manned vehicle agent G, and a search personnel agent I are generated.

구체적으로 에이전트 생성부(110)는 상기 수색 시나리오에 따른 수색 대상이 되는 지형을 모델링하여 환경 에이전트(H)를 생성한다. 환경 에이전트(H)는 수색 행위의 모의를 위한 가상 환경을 제공한다.Specifically, the agent generation unit 110 models the terrain to be searched according to the search scenario to generate an environment agent H. The environmental agent H provides a virtual environment for simulating search activities.

다음으로 에이전트 생성부(110)는 기 설정된 행동 규칙에 따라 수색 행위를 수행하는 개체를 유무인 에이전트로 모델링하여 생성한다. 상기 유무인 에이전트는 상기 가상 환경에서 기 설정된 행동 규칙에 따라 수색 작업을 수행하는 무인 차량 에이전트(U), 유인 차량 에이전트(G) 및 수색 인원 에이전트(I)를 포함한다.Next, the agent generator 110 models and generates an object performing a search action according to a predetermined behavior rule as a presence or absence agent. The unmanned agent includes an unmanned vehicle agent U, a manned vehicle agent G, and a search personnel agent I performing a search operation according to a predetermined behavior rule in the virtual environment.

환경 에이전트(H)를 제외한 나머지 에이전트(U, G, I)의 수는 2이상 존재할 수 있으며 상기 수색 시나리오에 따른 수색 목표를 고려하여 적절한 수로 각각 생성될 수 있다.The number of the remaining agents U, G, and I other than the environment agent H may be two or more, and may be respectively generated in an appropriate number in consideration of the search target according to the search scenario.

상기 기 설정된 행동 규칙은 각 에이전트(U, G, I)의 행동에 대한 근거가 되며 각 에이전트(U, G, I)가 인지한 상기 가상 환경의 조건에 따른 행동 및 상태 변화를 모의하기 위한 일련의 규칙이다. 상기 기 설정된 행동 규칙은 상기 수색 작업을 위한 행동인 이동, 탐색, 경로 선정 및 하차 지점 선정 중에서 적어도 하나의 행동과 관련된 규칙일 수 있다.The preset behavior rules are the basis for the behavior of each agent (U, G, I) and a series of simulations for behavior and state changes according to the conditions of the virtual environment recognized by each agent (U, G, I). Is the rule. The preset action rule may be a rule related to at least one action among movement, search, route selection, and drop-off point selection, which are actions for the search operation.

S1300에서, 무인 차량 에이전트(U)가 주행 경로를 선정하고 상기 주행 경로를 따라 이동하면서 탐색한다. In S1300, the driverless vehicle agent U selects a driving route and searches while moving along the driving route.

구체적으로 무인 차량 에이전트(U)는 상기 기 설정된 행동 규칙에 따라 주행 경로를 선정하기 위해 모의부(130)로부터 전달받은 도로망 정보를 이용한다. 상기 도로망 정보는 무인 차량 에이전트(U)의 주요 기동로를 추상화하여 나타낸 것으로 시작 위치, 종료 위치 및 교차로 위치에 관한 노드의 정보를 포함하고 있다. Specifically, the unmanned vehicle agent U uses the road network information received from the mock unit 130 to select a driving route according to the preset behavior rule. The road network information is an abstract representation of the main maneuvering path of the unmanned vehicle agent U, and includes information of a node regarding a start position, an end position, and an intersection position.

상기 도로망 정보에서 각 노드 사이에 이동 가능한 경로가 존재하는 경우 링크가 생성되며 상기 링크는 탐색면적과 이동시간에 따른 두 가지 비용 속성을 가진다, 탐색면적 비용은 해당 링크로 이동할 시 탐색 가능 면적을 나타내고, 탐색 시간 비용은 선택된 링크의 반대편 노드까지 이동 시 소요되는 시간을 나타낸다. In the road network information, when there is a path that can be moved between each node, a link is created, and the link has two cost attributes according to the search area and the travel time. The search area cost represents the searchable area when moving to the link. , Search time cost represents the time required to move to the node opposite to the selected link.

무인 차량 에이전트(U)는 상기 링크의 비용 속성 및 상기 수색 시나리오의 수색 목표를 고려하여 탐색 면적이 최대가 되거나 탐색 시간이 최소가 되는 교차로(노드)를 중간 목적지로 선정하여 이동한다. 이후 무인 차량 에이전트(U)는 상기 중간 목적지에 도달한 경우 다시 동일한 방식으로 다음 중간 목적지를 선정하여 종료 위치(노드)까지 이동하면서 탐색을 하게 된다. 따라서 상기 주행 경로는 무인 차량 에이전트(U)가 선정한 상기 중간 목적지까지의 경로에 대한 정보이다.The unmanned vehicle agent U moves by selecting an intersection (node) having a maximum search area or a minimum search time as an intermediate destination in consideration of the cost attribute of the link and the search target of the search scenario. Thereafter, when the intermediate vehicle destination U reaches the intermediate destination, the next intermediate destination is again selected in the same manner and moved to the end position (node) to search. Therefore, the driving route is information on the route to the intermediate destination selected by the driverless vehicle agent U.

무인 차량 에이전트(U)는 상기 주행 경로를 따라 이동시 기 설정된 행동 규칙에 따라 자신의 평균 기동 속력을 보정한 후 이동한다. 구체적으로 무인 차량 에이전트(U)는 자신의 현재 위치와 다음 위치간 지형의 험준도를 결정하고 결정된 험준도에 따른 이동 영향 인자

Figure 112019018175602-pat00191
를 이용하여 자신의 평균 기동 속력을 보정한 후 이동한다. 상기 험준도는 현재 위치와 다음 위치간의 수목 밀도 및 경사도에 따라서 결정될 수 있다.When moving along the driving route, the unmanned vehicle agent U moves after correcting its average starting speed according to a predetermined behavior rule. Specifically, the driverless vehicle agent U determines the roughness level of the terrain between its current location and the next location, and the movement influence factor according to the determined roughness level
Figure 112019018175602-pat00191
Use after correcting his average maneuvering speed. The steepness may be determined according to the tree density and slope between the current location and the next location.

무인 차량 에이전트(U)는 상기 주행 경로를 따라 이동시 기 설정된 행동 규칙에 따라 탐색한다. 구체적으로 무인 차량 에이전트(U)는 자신의 현재 위치에서 수목 지형이 존재하는 지 여부에 따라 탐색 영향 인자

Figure 112019018175602-pat00192
를 이용하여 기 설정된 자신의 탐지 범위(
Figure 112019018175602-pat00193
)를 보정한 후 탐색한다. The driverless vehicle agent U searches according to a predetermined behavior rule when moving along the driving route. Specifically, the driverless vehicle agent (U) has a search effect factor depending on whether or not there is a tree topography at his current location.
Figure 112019018175602-pat00192
Use your preset detection range (
Figure 112019018175602-pat00193
) And search.

상기한 기 설정된 행동 규칙에 따른 이동 및 탐색은 후술하는 유인 차량 에이전트(U) 및 수색 인원 에이전트(I)의 이동 및 탐색에도 동일하게 적용된다.The movement and search according to the above-described predetermined action rules are equally applied to the movement and search of the manned vehicle agent U and the search personnel agent I described later.

S1400에서, 무인 차량 에이전트(U)가 이동 중 탐색 불가 지역을 발견한 경우 상기 주행 경로 상에 하차 지점을 선정하고, 상기 주행 경로 및 상기 하차 지점을 상기 유인 차량 에이전트로 전달한다. In S1400, when the unmanned vehicle agent U finds an unsearchable area while moving, a drop-off point is selected on the driving path, and the driving path and the drop-off point are transmitted to the manned vehicle agent.

구체적으로 무인 차량 에이전트(U)가 기 선정한 주행 경로는 유인 차량 에이전트(G)에 전달한다. 각 에이전트(U, G, I) 상호간 정보 전달 및 가상 환경에 대한 인식과 행동으로 인한 상태 변화는 모의부(130)를 통해 이루어진다. Specifically, the driving route selected by the unmanned vehicle agent U is transmitted to the manned vehicle agent G. Each agent (U, G, I) transfers information to each other and changes in state due to recognition and behavior of the virtual environment are made through the simulation unit 130.

무인 차량 에이전트(U)는 기 설정된 행동 규칙에 따라 하차 지점을 선정한다. 무인 차량 에이전트(U)는 자신의 탐색 범위를 벗어나는 탐색 불가 지역을 발견한 경우 현재 위치를 하차 지점 후보지로 추가하면서 이동한다. The unmanned vehicle agent U selects a drop-off point according to a preset behavior rule. When the unmanned vehicle agent U finds an unsearchable area outside the scope of its search, it moves while adding the current location as a drop-off point candidate.

상기 탐색 불가 지역은 상기 수색 시나리오에 따라 기 설정된 의심 구역(위협 지형)이며, 무인 차량 에이전트(U)의 탐색에도 불구하고 아직 탐색이 완료 되지 않은 지역을 의미한다.The non-searchable area is a suspected area (threatening terrain) previously set according to the search scenario, and means an area that has not yet been searched despite the search of the unmanned vehicle agent U.

무인 차량 에이전트(U)는 기 추가된 하차 지점 후보지 중에서 상기 탐색 불가 지역에 가장 인접한 하차 지점 후보지를 하차 지점으로 선정하여 유인 차량 에이전트(G)에 전달한다.The unmanned vehicle agent U selects the candidate point of disembarkation point closest to the non-searchable area from among the previously added drop-off point candidates and delivers it to the manned vehicle agent G.

S1500에서, 유인 차량 에이전트(G)가 상기 주행 경로 및 하차지점을 전달받은 후, 상기 주행 경로를 따라 이동하여 상기 하차 지점에 수색 인원 에이전트(I)를 하차시킨다. 구체적으로 유인 차량 에이전트(G)는 기 설정된 행동 규칙에 따라 무인 차량 에이전트(U)로부터 전달 받은 하차 지점까지 이동한다. 상기 하차 지점에서 유인 차량 에이전트(G)는 정차하고 수색 인원 에이전트(I)가 하차한다. 유인 차량 에이전트(G)는 수색 인원 에이전트(I)가 다시 탑승할 때까지 대기한다.In S1500, after the manned vehicle agent G receives the driving route and the disembarking point, it moves along the driving route to disembark the search personnel agent I to the disembarking point. Specifically, the manned vehicle agent G moves to the disembarkation point received from the unmanned vehicle agent U according to a predetermined behavior rule. At the alighting point, the manned vehicle agent G stops and the search personnel agent I gets off. The manned vehicle agent G waits for the search personnel agent I to board again.

S1600에서, 수색 인원 에이전트(I)가 상기 탐색 불가 지역을 탐색한 후 상기 유인 차량 에이전트에 탑승한다. 구체적으로 수색 인원 에이전트(I)는 상기 하차 지점에서 기 설정된 행동 규칙에 따라 보정된 평균 기동 속력으로 상기 탐색 불가 지역으로 이동한다. 수색 인원 에이전트(I)는 기 설정된 행동 규칙에 따라 보정된 자신의 탐지 범위에 따라 탐색을 한다. 수색 인원 에이전트(I)는 탐색을 완료한 후 정차하고 있는 유인 차량 에이전트(G)로 이동하여 탑승한다.In S1600, the search personnel agent I searches for the unsearchable area and boards the manned vehicle agent. Specifically, the search agent agent (I) moves to the unsearchable area at an average maneuvering speed corrected according to a predetermined behavioral rule at the drop-off point. The search personnel agent (I) searches according to its detection range corrected according to a predetermined behavior rule. After completing the search, the search personnel agent (I) moves to the manned vehicle agent (G) that is stopping and boards.

구체적으로 상기 S1300 내지 S1600은 무인 차량 에이전트(U)가 종료 위치까지 도달하고 모든 의심 구역(위협 지형)이 탐색될 때까지 반복된다.Specifically, the S1300 to S1600 are repeated until the driverless vehicle agent U reaches the end position and all suspected areas (threatening terrain) are searched.

S1700에서, 수색 행위의 모의 결과가 저장된다. 구체적으로 수색 방안 저장부(140)는 상기 S1300 내지 S1600에 따라 수행된 수색 행위의 모의 결과를 저장한다. In S1700, simulation results of the search activity are stored. Specifically, the search plan storage unit 140 stores simulation results of search actions performed according to the S1300 to S1600.

수색 방안 저장부(140)는 각 에이전트(U, G, I)의 수색 작업을 위한 행동이 종료될 때마다, 모든 에이전트(H, U, G, I)의 상태 변수를 전달받아 저장한다. 따라서 상기 수색 행위의 모의 결과에는 격자 지도의 정보, 환경 에이전트(H)의 상태 변수가 포함되고 무인 차량 에이전트(U), 유인 차량 에이전트(G) 및 수색 인원 에이전트(I)의 상태 변수 중에서 적어도 하나의 상태 변수가 포함될 수 있다. The search method storage unit 140 receives and stores the state variables of all agents H, U, G, and I each time an action for a search operation of each agent U, G, I is finished. Therefore, the simulation result of the search activity includes information of the grid map and the state variable of the environment agent H, and at least one of the state variables of the unmanned vehicle agent U, manned vehicle agent G, and search personnel agent I The state variable of can be included.

일 실시예에 따라, 상기 수색 행위의 모의 결과는 환경 에이전트(H)와 관련된 정보를 포함하고 각 에이전트(U, G, I)의 총 탐색 면적, 총 탐색 시간 및 이동 경로에 관한 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment, the simulation result of the search activity includes information related to the environmental agent H and at least one of the total search area, total search time, and movement path information of each agent U, G, and I. It may include.

일 실시예에 따라, 본 발명에 따른 수색 행위 모델링 방법은 기 설정된 기준에 따라 상기 수색 행위의 모의 결과를 분석하는 분석 단계를 더 포함할 수 있다. According to an embodiment, the search behavior modeling method according to the present invention may further include an analysis step of analyzing a simulation result of the search behavior according to a preset criterion.

상기 분석 단계에서, 수색 방안 분석부(150)는 기 설정된 기준에 따라 상기 수색 행위의 모의 결과를 분석한다. 상기 기 설정된 기준은 탐색 효율, 탐색 소요 시간 및 색 행위에 대한 각 에이전트(U, G, I)기여도 중 적어도 하나를 포함할 수 있다.In the analysis step, the search plan analysis unit 150 analyzes the simulation result of the search action according to a preset criterion. The preset criteria may include at least one of search efficiency, search time required, and contribution of each agent (U, G, I) to color behavior.

상기와 같이 본 발명의 다른 실시예에 따른 수색 행위 모델링 방법은 기 설정된 행동 규칙에 따라 세부적 수색행위를 각각 수행하는 에이전트를 이용하여 일관되게 수색행위를 모의 및 분석할 수 있는 바, 분석가의 개입 없이 보다 객관적인 모의 결과를 얻을 수 있다.As described above, the search behavior modeling method according to another embodiment of the present invention can consistently simulate and analyze search behaviors using agents that perform detailed search behaviors according to predetermined behavior rules, without analyst intervention. You can get more objective simulation results.

또한 본 발명의 기 설정된 행동 규칙에 따라 수색 작업을 수행하는 에이전트는 지형의 특성에 따라 이동 속도와 탐지 범위가 달라지는 바, 모의 결과의 정확도가 개선된다.In addition, since the agent performing the search operation according to the preset behavioral rule of the present invention has different movement speed and detection range according to the characteristics of the terrain, the accuracy of the simulation result is improved.

또한 본 발명의 기 설정된 행동 규칙에 따라 수색 작업을 수행하는 에이전트(U)는 탐색이 불가능한 지역에 대해서는 하차 지점으로 선정하여 다른 에이전트(I)가 탐색을 수행하는 바, 상호 협력하는 유무인 에이전트를 이용하여 주어진 조건 하에서 적정한 수색 활동 계획을 수립할 수 있을 뿐만 아니라 재난·범죄 대응 계획 모의 등 다른 용도로도 활용될 수 있다.In addition, the agent (U) performing a search operation according to the preset behavioral rules of the present invention is selected as a drop-off point for an area where the search is impossible, and the other agent (I) performs a search, so that the presence or absence of agents cooperating with each other It can be used not only to establish an appropriate search activity plan under the given conditions, but also to be used for other purposes, such as mock disaster and crime response plans.

또한 본 발명은 기 설정된 기준에 따라 수색 행위의 모의 결과를 분석하는 바, 복수의 모의 결과를 비교 분석하여 보다 적정한 수색 계획을 수립할 수 있다.In addition, the present invention analyzes a simulation result of a search activity according to a preset criterion, and a more appropriate search plan can be established by comparing and analyzing a plurality of simulation results.

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as limiting in all respects, but should be considered illustrative. The scope of the invention should be determined by rational interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention.

100: 수색 행위 모델링 장치
110: 에이전트 생성부
120: 제어부
130: 모의부
140: 수색 방안 저장부
150: 수색 방안 분석부
100: search behavior modeling device
110: agent generation unit
120: control unit
130: mock
140: search room storage
150: search plan analysis unit

Claims (10)

가상 환경에서 기 설정된 수색 시나리오에 따라 수색 행위를 모의하는 수색 행위 모델링 방법에 있어서,
상기 가상 환경을 제공하는 환경 에이전트, 상기 가상 환경에서 수색 작업을 수행하는 무인 차량 에이전트, 유인 차량 에이전트 및 수색 인원 에이전트를 생성하는 제1 단계;
상기 무인 차량 에이전트가 주행 경로를 선정하고, 상기 주행 경로를 따라 이동하면서 탐색하는 제2 단계;
상기 무인 차량 에이전트가 이동 중 탐색 불가 지역을 발견한 경우 상기 주행 경로 상에 하차 지점을 선정하고, 상기 주행 경로 및 상기 하차 지점을 상기 유인 차량 에이전트로 전달하는 제3 단계;
상기 유인 차량 에이전트가 상기 주행 경로 및 하차지점을 전달받은 후, 상기 주행 경로를 따라 이동한 후 상기 하차 지점에 상기 수색 인원 에이전트를 하차시키는 제4 단계;
상기 수색 인원 에이전트가 상기 탐색 불가 지역을 탐색한 후 상기 유인 차량 에이전트에 탑승하는 제5 단계; 및
상기 제2 단계 내지 제5 단계에 따른 수색 행위의 모의 결과를 저장하는 제6 단계를 포함하고
상기 제2 단계 내지 제5 단계는 기 설정된 행동 규칙에 따라 수행되는 것을 특징으로 하는 수색 행위 모델링 방법.
In the search environment modeling method to simulate the search behavior according to a predetermined search scenario in a virtual environment,
A first step of generating an environment agent providing the virtual environment, an unmanned vehicle agent performing a search operation in the virtual environment, a manned vehicle agent, and a search personnel agent;
A second step in which the driverless vehicle agent selects a driving route and searches while moving along the driving route;
A third step of selecting a disembarkation point on the driving route and transferring the driving route and the disembarking point to the manned vehicle agent when the unmanned vehicle agent finds an unsearchable area while moving;
A fourth step of, after the manned vehicle agent receives the driving route and the disembarking point, moves along the driving route and unloads the search personnel agent at the disembarking point;
A fifth step in which the search agent agent boards the manned vehicle agent after searching the unsearchable area; And
And a sixth step of storing a simulation result of the search activity according to the second to fifth steps,
The second to fifth steps are search behavior modeling method characterized in that it is performed according to a predetermined behavior rule.
제1 항에 있어서,
상기 기 설정된 행동 규칙은 상기 수색 작업을 위한 행동인 이동, 탐색, 경로 선정 및 하차 지점 선정 중에서 적어도 하나의 행동과 관련된 규칙인 것을 특징으로 하는 수색 행위 모델링 방법.
According to claim 1,
The preset action rule is a search action modeling method characterized in that the action for the search operation is a rule related to at least one action among movement, search, route selection, and drop-off point selection.
제2 항에 있어서,
상기 제2 단계 내지 제5 단계에서,
상기 무인 차량, 유인 차량 및 수색 인원 에이전트는,
기 설정된 각각의 평균 기동 속력을 가지며
상기 기 설정된 행동 규칙에 따라 이동 시, 자신의 현재 위치와 다음 위치간의 지형 험준도에 따라 상기 기 설정된 각각의 평균 기동 속력을 보정한 후 이동하는 것을 특징으로 하는 수색 행위 모델링 방법.
According to claim 2,
In the second to fifth steps,
The unmanned vehicle, manned vehicle and search personnel agent,
Each preset average maneuvering speed
Searching behavior modeling method, characterized in that, when moving according to the preset behavior rule, the average maneuvering speed is corrected and moved according to the terrain roughness between the current location and the next location.
제2 항에 있어서,
상기 제2 단계 및 제5 단계에서,
상기 무인 차량 및 수색 인원 에이전트는,
기 설정된 각각의 탐지 범위를 가지며
상기 기 설정된 행동 규칙에 따라 자신의 현재 위치에서 탐색을 할 때 상기 현재 위치에서 수목 지형의 존재 여부에 따라 상기 기 설정된 각각의 탐지 범위를 보정한 후 탐색하는 것을 특징으로 하는 수색 행위 모델링 방법.
According to claim 2,
In the second and fifth steps,
The driverless vehicle and search personnel agent,
Each preset detection range has
Searching behavior modeling method, characterized in that, when searching at one's current location according to the preset behavior rule, each of the preset detection range is corrected and then searched according to the presence or absence of tree topography at the current location.
제2 항에 있어서,
상기 제2 단계에서,
상기 무인 차량 에이전트는 상기 기 설정된 행동 규칙에 따라 탐색 면적이 최대가 되거나 탐색 시간이 최소가 되는 주행 경로를 선정하는 것을 특징으로 하는 수색 행위 모델링 방법.
According to claim 2,
In the second step,
The unmanned vehicle agent selects a driving route having a maximum search area or a minimum search time according to the preset behavior rule.
제2 항에 있어서,
상기 제3 단계는,
상기 무인 차량 에이전트는 상기 주행 경로를 따라 이동 중에 상기 탐색 불가 지역을 발견한 경우 자신의 현재 위치를 하차 지점 후보지에 추가하면서 이동하는 하차지점 후보지 추가 단계; 및
상기 무인 차량 에이전트가 기 추가한 하차 지점 후보지 중에서 상기 탐색 불가 지역에 가장 인접한 하차 지점 후보지를 상기 하차 지점으로 선정하는 하차지점 선정 단계를 포함하는 것을 특징으로 하는 수색 행위 모델링 방법.
According to claim 2,
The third step,
The unmanned vehicle agent adding a disembarkation point candidate to move while adding the current location to the disembarkation point candidate when the unsearchable area is found while moving along the driving path; And
And selecting a disembarkation point to select a disembarkation point candidate closest to the unsearchable area as the disembarkation point among the disembarkation point candidates previously added by the driverless vehicle agent.
제1 항에 있어서,
상기 수색 행위의 모의 결과는,
상기 무인 차량, 유인 차량 및 수색 인원 에이전트 각각이 탐색한 총 탐색 면적, 각 탐색에 소요된 총 탐색 시간, 각각의 이동 경로에 대한 정보 및 상기 환경 에이전트와 관련된 정보 중에서 적어도 하나를 포함하는 것을 특징으로 하는 수색 행위 모델링 방법.
According to claim 1,
The simulation result of the search activity,
Characterized in that it includes at least one of the total search area searched by each of the unmanned vehicle, manned vehicle, and search personnel agent, the total search time required for each search, information on each movement path, and information related to the environment agent. Search behavior modeling method.
제7 항에 있어서,
기 설정된 기준에 따라 상기 수색 행위의 모의 결과를 분석하는 제6 단계를 더 포함하고
상기 기 설정된 기준은 탐색 효율, 탐색 소요 시간 및 수색 행위에 대한 상기 무인 차량, 유인 차량 및 수색 인원 에이전트 각각의 기여도 중에서 적어도 하나를 포함하는 것을 특징으로 하는 수색 행위 모델링 방법.
The method of claim 7,
Further comprising a sixth step of analyzing the simulation results of the search activity according to a predetermined standard
The preset criterion includes a search behavior modeling method, characterized in that it includes at least one of the contribution efficiency of each of the unmanned vehicle, manned vehicle, and search personnel agent to search efficiency, search time, and search activity.
가상 환경에서 기 설정된 수색 시나리오에 따라 수색 행위를 모의하는 수색 행위 모델링 장치에 있어서,
상기 가상 환경을 제공하는 환경 에이전트, 상기 가상 환경에서 수색 작업을 수행하는 무인 차량 에이전트, 유인 차량 에이전트 및 수색 인원 에이전트를 생성하는 에이전트 생성부;
무인 차량 에이전트, 유인 차량 에이전트 및 수색 인원 에이전트가 상기 가상 환경에서 기 설정된 행동 규칙에 따라 행동하도록 제어하는 제어부;
상기 환경 에이전트와 관련된 정보 및 무인 차량 에이전트, 유인 차량 에이전트 및 수색 인원 에이전트 중 적어도 하나와 관련된 정보를 무인 차량 에이전트, 유인 차량 에이전트 및 수색 인원 에이전트 각각에 제공하여 상기 수색 행위를 모의하는 모의부; 및
상기 수색 행위의 모의 결과를 저장하는 수색 방안 저장부를 포함하고,
상기 무인 차량 에이전트는 주행 경로를 선정하고, 상기 주행 경로를 따라 이동하면서 탐색하고, 이동 중 탐색 불가 지역을 발견한 경우 상기 주행 경로 상에 하차 지점을 선정하고, 상기 주행 경로 및 상기 하차 지점을 상기 모의부로 전달하고,
상기 유인 차량 에이전트는 상기 모의부로부터 상기 주행 경로 및 하차지점을 전달받고, 상기 주행 경로를 따라 이동한 후 상기 하차 지점에 상기 수색 인원 에이전트를 하차시키고,
상기 수색 인원 에이전트는 상기 탐색 불가 지역을 탐색한 후 상기 유인 차량 에이전트에 탑승하는 것을 특징으로 하는 수색 행위 모델링 장치.
In the search behavior modeling device that simulates a search behavior according to a preset search scenario in a virtual environment,
An agent generating unit that generates an environment agent providing the virtual environment, an unmanned vehicle agent performing a search operation in the virtual environment, a manned vehicle agent, and a search personnel agent;
A control unit for controlling an unmanned vehicle agent, a manned vehicle agent, and a search personnel agent to act according to a predetermined behavior rule in the virtual environment;
A simulation unit that simulates the search behavior by providing information related to the environment agent and at least one of an unmanned vehicle agent, a manned vehicle agent, and a search personnel agent to an unmanned vehicle agent, a manned vehicle agent, and a search personnel agent, respectively; And
And a search room storage unit for storing a simulation result of the search activity,
The driverless vehicle agent selects a driving route, searches while moving along the driving route, selects a drop-off point on the driving route when it finds an unsearchable area while moving, and determines the driving route and the drop-off point. To the mock department,
The manned vehicle agent receives the driving route and the getting-off point from the simulation unit, moves along the driving route, and unloads the search personnel agent at the getting-off point,
And the search agent agent searches for the unsearchable area and then boards the manned vehicle agent.
제9 항에 있어서,
상기 기 설정된 행동 규칙은 상기 수색 작업을 위한 행동인 이동, 탐색, 경로 선정 및 하차 지점 선정 중에서 적어도 하나의 행동과 관련된 규칙인 것을 특징으로 하는 수색 행위 모델링 장치.
The method of claim 9,
The preset action rule is a search action modeling device, characterized in that the action related to at least one action among movement, search, route selection, and drop-off point selection, which are actions for the search operation.
KR1020190020075A 2019-02-20 2019-02-20 Apparatus for modeling of reconnaissance behavior and the method thereof KR102128551B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190020075A KR102128551B1 (en) 2019-02-20 2019-02-20 Apparatus for modeling of reconnaissance behavior and the method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190020075A KR102128551B1 (en) 2019-02-20 2019-02-20 Apparatus for modeling of reconnaissance behavior and the method thereof

Publications (1)

Publication Number Publication Date
KR102128551B1 true KR102128551B1 (en) 2020-06-30

Family

ID=71121101

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190020075A KR102128551B1 (en) 2019-02-20 2019-02-20 Apparatus for modeling of reconnaissance behavior and the method thereof

Country Status (1)

Country Link
KR (1) KR102128551B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140112811A (en) * 2013-03-14 2014-09-24 국방과학연구소 Combat effect analysis system under V-C interoperability, and operation method of the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140112811A (en) * 2013-03-14 2014-09-24 국방과학연구소 Combat effect analysis system under V-C interoperability, and operation method of the same

Similar Documents

Publication Publication Date Title
US11257218B2 (en) Relative atlas for autonomous vehicle and generation thereof
US11526538B2 (en) Autonomous vehicle relative atlas incorporating hypergraph data structure
US20210311475A1 (en) Method, system and apparatus for handling operational constraints for control of unmanned vehicles
WO2022105394A1 (en) Simulation method and system, device, readable storage medium, and platform for autonomous driving
US11256730B2 (en) Use of relative atlas in an autonomous vehicle
JP7330142B2 (en) Method, Apparatus, Device and Medium for Determining Vehicle U-Turn Path
CN104714555B (en) Three-dimensional independent exploration method based on edge
CN109863513A (en) Nerve network system for autonomous vehicle control
RU2691679C1 (en) Method of creating track of movement for autonomous movement of movable object and method of autonomous movement of movable object along path of movement
CN105825719B (en) The generation method and device in unmanned plane inspection course line
CN105843253A (en) Design method and system for unmanned aerial vehicle's travel path
Miller et al. Stronger together: Air-ground robotic collaboration using semantics
CN114440916B (en) Navigation method, device, equipment and storage medium
US20210089772A1 (en) Method of using a heterogeneous position information acquisition mechanism in an operating space and robot and cloud server implementing the same
KR102008520B1 (en) multi-user information share system for using space information platform based on cloud of construction sites cloud
CN113433937B (en) Hierarchical navigation obstacle avoidance system and hierarchical navigation obstacle avoidance method based on heuristic exploration
CN110515390A (en) Aircraft Autonomous landing method and device, electronic equipment, storage medium
US20220289253A1 (en) Method for evaluating autonomous driving system, apparatus and storage medium
CN115617076A (en) Track planning and dynamic obstacle avoidance method for near-field search unmanned aerial vehicle
Pereira et al. Autonomous vehicle global navigation approach associating sensor based control and digital maps
KR102128551B1 (en) Apparatus for modeling of reconnaissance behavior and the method thereof
US12044784B2 (en) Device and method for autonomously locating a mobile vehicle on a railway track
Lebedeva et al. Method for distributed mapping of terrain by a heterogeneous group of robots based on google cartographer
US20220413510A1 (en) Targeted driving for autonomous vehicles
Kou et al. Autonomous Navigation of UAV in Dynamic Unstructured Environments via Hierarchical Reinforcement Learning

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant