KR102654333B1 - 실시간 행위자 상태 연동을 이용한 시뮬레이션 방법 및 시스템 - Google Patents

실시간 행위자 상태 연동을 이용한 시뮬레이션 방법 및 시스템 Download PDF

Info

Publication number
KR102654333B1
KR102654333B1 KR1020220035101A KR20220035101A KR102654333B1 KR 102654333 B1 KR102654333 B1 KR 102654333B1 KR 1020220035101 A KR1020220035101 A KR 1020220035101A KR 20220035101 A KR20220035101 A KR 20220035101A KR 102654333 B1 KR102654333 B1 KR 102654333B1
Authority
KR
South Korea
Prior art keywords
agent
simulator
speed
state
location
Prior art date
Application number
KR1020220035101A
Other languages
English (en)
Other versions
KR20230137566A (ko
Inventor
김남훈
알렉스 스티드 클린트
박수형
박영희
Original Assignee
울산과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산과학기술원 filed Critical 울산과학기술원
Priority to KR1020220035101A priority Critical patent/KR102654333B1/ko
Priority to PCT/KR2022/010047 priority patent/WO2023075083A1/ko
Publication of KR20230137566A publication Critical patent/KR20230137566A/ko
Application granted granted Critical
Publication of KR102654333B1 publication Critical patent/KR102654333B1/ko

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Combined Controls Of Internal Combustion Engines (AREA)

Abstract

본 개시는 제1 에이전트를 포함하는 제1 시뮬레이터 및 제2 에이전트를 포함하는 제2 시뮬레이터를 포함하는 행위자 상태 연동 시뮬레이션 시스템에 있어서, 상기 제1 에이전트가 상기 제1 에이전트의 행동에 대응하는 상태정보를 상기 제2 에이전트에 송신하고, 상기 제2 에이전트는 상기 제1 에이전트의 행동에 대응하는 상태정보에 기초하여 행동하는, 행위자 상태 연동 시뮬레이션 시스템을 개시한다.

Description

실시간 행위자 상태 연동을 이용한 시뮬레이션 방법 및 시스템{A SIMULATION METHOD AND SYSTEM USING A REAL-TIME AGENT STATUS LINKAGE}
본 개시는 가상 현실 시뮬레이션 기술에 관한 것이다. 구체적으로 가상환경내에서 행동하는 행위자의 보행, 주행 및 물체와의 상호작용을 시뮬레이션 하기 위한 것이다.
대한민국의 방사선 사고 비상대응계획은 중앙 정부에서 지자체로 이어지는 큰 틀의 체계로 구성되어 유관 기관들의 신속한 대응이 가능하도록 지침을 마련하고 있다.
상기 사고 비상대응계획을 수립하기 위하여, 사고 환경에 대한 실제 사례가 부족한 원자력 발전소와 같은 장소에서 문제상황에서 소개하는 과정을 시뮬레이션하기 위한 기술이 필요하였다.
현재는 방사선 비상과 유사한 화재, 허리케인과 같은 위험한 상황에서의 인간 행동을 분석한 최근의 연구들이 비약적으로 발전된 가상 현실(Virtual Reality, VR) 기술의 도움을 받아 인간 참여형(Human-in-the-loop, HITL) 실험 시스템을 개발하여 실험 환경의 제약을 극복하고 있는 추세이다.
또한 기존 재난 사례를 통해 수집된 자료 중 주민 개개인에 대한 미시적 수준을 다룬 자료는 미미하며, 방사선 비상 상황은 실제로 구현할 수 없는 실험 환경이기에 실제 환경에서는 인간의 인지적 특성에 따라 이동 경로나 이동 시간이 다른 특성을 반영하기 어렵다는 한계가 존재하였다.
또한 시뮬레이션 환경 구현 시, 단일 시뮬레이터에서 구현할 수 있는 행위자의 물리적 상태 모사에 한계가 분명히 존재하여 실제 환경과 유사한 시뮬레이션 환경을 구현하는데 어려움이 존재하였다.
본 발명은 행위자 기반 시뮬레이션에 인간참여형 실험 시스템을 접목하여 특정 시나리오에 대한 시뮬레이션을 수행하기 위함이다.
본 발명은 행위자 기반의 시뮬레이터에서 행위자의 움직임과 RTE(Real Time Engine)에 실시간으로 연동하기 위함이다.
본 개시의 실시 예에 따르면, 제1 에이전트를 포함하는 제1 시뮬레이터 및 제2 에이전트를 포함하는 제2 시뮬레이터를 포함하는 행위자 상태 연동 시뮬레이션 시스템에 있어서, 상기 제1 에이전트가 상기 제1 에이전트의 행동에 대응하는 상태정보를 상기 제2 에이전트에 송신하고, 상기 제2 에이전트는 상기 제1 에이전트의 행동에 대응하는 상태정보에 기초하여 행동하는, 행위자 상태 연동 시뮬레이션 시스템을 개시한다.
또한, 상기 제1 에이전트에 포함된 복수의 에이전트 각각은 상기 제2 에이전트에 포함된 복수의 에이전트 중 어느 하나에 대응하는, 행위자 상태 연동 시뮬레이션 시스템을 포함할 수 있다.
또한, 상기 제1 시뮬레이터는 행위자 기반의 시뮬레이션 모델링 도구이고, 상기 제2 시뮬레이터는 실시간 엔진 시뮬레이터를 포함할 수 있다.
또한, 상기 제1 시뮬레이터는 애니로직(AnyLogic)이고, 상기 제2 시뮬레이터는 유니티(Unity)엔진일 수 있다.
또한, 상기 제1 에이전트에 포함된 복수의 에이전트 각각은, 상기 제1 에이전트에 포함된 복수의 에이전트 각각에 대응하는 상태정보를 상기 제2 에이전트에 포함된 복수의 에이전트 중 대응하는 에이전트에 송신할 수 있다.
또한, 상기 상태정보는 상기 제1 에이전트의 행동에 대응하는 위치, 방향, 속도, 형태 및 규모 중 적어도 하나를 포함할 수 있다.
또한, 상기 행위자 상태 연동 시뮬레이션 시스템은, 상기 제1 에이전트 및 상기 제2 에이전트의 동기화 발생 오류를 계산하고, 사용자 매개변수를 이용하여 상기 제2 에이전트의 속도를 조정하는 상태 컨트롤러를 더 포함할 수 있다.
또한, 상기 동기화 발생 오류는 상기 제1 에이전트의 위치 및 상기 제2 에이전트의 위치에 기초하여 계산된 값을 포함할 수 있다.
또한, 상기 행위자 상태 연동 시뮬레이션 시스템은, 시뮬레이션을 출력하는 출력장치를 더 포함할 수 있다.
또한, 상기 행위자 상태 연동 시뮬레이션을 관찰하기 위한 VR 장치 및 HMD(Head mounted display)중 적어도 하나를 더 포함할 수 있다.
또한, 제1 에이전트를 포함하는 제1 시뮬레이터 및 제2 에이전트를 포함하는 제2 시뮬레이터를 포함하는 행위자 상태 연동 시뮬레이션 방법에 있어서, 상기 제1 에이전트가 상기 제1 에이전트의 행동에 대응하는 상태정보를 상기 제2 에이전트에 송신하는 단계; 상기 제2 에이전트는 상기 제1 에이전트의 행동에 대응하는 상태정보에 기초하여 행동하는 단계; 및 상기 제1 에이전트 및 상기 제2 에이전트의 동기화 발생 오류를 계산하고, 상기 동기화 발생 오류 및 사용자 매개변수를 이용하여 상기 제2 에이전트의 속도를 조절하는 단계를 포함하는, 행위자 상태 연동 시뮬레이션 방법을 포함할 수 있다.
본 발명은 행위자 기반 시뮬레이션에 인간참여형 실험 시스템을 접목하여 특정 시나리오에 대한 시뮬레이션을 수행함으로써 행위자의 행동 특성이 반영된 재난 시뮬레이션을 제공하기 위함이다.
본 발명은 행위자 기반의 시뮬레이터에서 행위자의 움직임과 RTE(Real Time Engine)에 실시간으로 연동함으로써 실제 상황에서 행위자 행동 특성이 반영된 시뮬레이션을 제공하기 위함이다.
도 1은 본 개시의 실시예에 따른 시뮬레이션 시나리오를 나타낸 것이다.
도 2는 본 개시의 실시 예에 따른 제1 시뮬레이터에 포함된 제1 에이전트 및 제2 시뮬레이터에 포함된 제2 에이전트의 연동 구조를 나타낸 것이다.
도 3은 본 개시의 실시 예에 따른 제1 시뮬레이터가 복수개의 실시간 시뮬레이터와 연결된 예시를 나타낸 것이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 '모듈' 및 '부'는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 개시의 실시 예에 따르면, 원자력 발전소, 태풍, 허리케인 등과 같은 재해 또는 위험한 상황에 서의 인간 행동을 분석한 최근의 연구들이 비약적으로 발전된 가상 현실(Virtual Reality, VR) 기술의 도움을 받아 인간 참여형(Human-in-the-loop, HITL) 실험 시스템이 개발되고 있으며, 시스템 공학적인 관점에서 방사능 재난 소개 시스템을 바라보고, 선진 정보 통신 기술을 이용하여 인간의 물리적-인지적 능력에 따른 소개 거동을 시험하기 위한 기반 시뮬레이션이 등장하고 있다.
이에 따라 광역 비상시 소개자의 개인별 인지적 행동 특성 분석을 위한 인간 참여형 통합 실험 시스템 개발 필요성에 따른 시뮬레이션 방법 및 시스템을 개발하고자 하며, 해당 실시예에서 행위자 기반의 시뮬레이터에서 행위자의 움직임을 RTE(real time engine)에 실시간으로 연동하고자 한다,
본 개시의 실시 예에 따른 가상현실 시뮬레이션은 VR 장치 등과 같은 HMD를 이용한 시뮬레이션 시스템을 개시한다.
본 개시의 시뮬레이션 시스템은 복수개의 시뮬레이터를 포함할 수 있다. 예를 들어, 적어도 하나 이상의 에이전트를 포함하는 제1 시뮬레이터 및 적어도 하나 이상의 에이전트를 포함하는 제2 시뮬레이터를 포함하는 시스템일 수 있다.
예를 들어, 에이전트들은 실제 재난 상황에서 발생할 수 있는 시나리오 및 행동 양식을 기초로 달리기, 방향전환 및 멈춤 등의 즉각적인 행동 양식을 가질 수 있을 것이다.
이때, 에이전트는 자율성을 가진 소프트웨어 엔터티를 의미할 수 있으며, 시뮬레이터에서 행동하는 행위자를 의미할 수 있다. 본 개시는 재난 대피 등의 시뮬레이션 상황을 가정하므로, 에이전트는 복수로 존재하는 것이 바람직할 것이다.
본 개시의 에이전트 각각은 미리 정해진 상태정보에 기초하여 행동할 수 있으며, 상기 상태정보는 에이전트의 행동에 대응하는 위치, 방향, 속도, 형태 및 규모 중 적어도 하나를 포함할 수 있다.
이때, 에이전트의 형태는 단일 엔터티에 포함되는 사람, 객체(차량 등) 및 복수의 단일 엔터티의 집합인 군중(Crowd) 등 시뮬레이션 가능한 다양한 오브젝트를 포함하는 것으로 해석되어야 할 것이다. 또한 상기 에이전트는 시뮬레이터에서의 행위자 위치나 행동을 가상 환경(RTE)에 반영할 수 있을 것이다.
이하 도 1을 참고하여 본 개시의 실시 예에 따른 시뮬레이션 시스템 및 시뮬레이션 방법을 설명한다.
도 1은 본 개시의 실시예에 따른 시뮬레이션 시나리오를 나타낸 것이다.
본 개시의 실시 예에 따른 시뮬레이션 시스템은 제1 시뮬레이터(6), 제2 시뮬레이터(7) 및 시뮬레이션을 관찰하기 위한 헤드 마운티드 디스플레이(12)를 포함할 수 있다.
도 1을 참고하면, 제1 시뮬레이터(6)에 포함된 에이전트(4)는 제2 시뮬레이터(7)에 포함된 에이전트(5)에 대응될 수 있다. 또한 제1 시뮬레이터(6)에 포함된 다른 에이전트(3)는 제2 시뮬레이터(7)에 포함된 또 다른 에이전트(13)에 대응될 수 있다.
이때, 각각의 에이전트는 상태정보를 가지고 있으며, 해당 상태정보에 따라 다른 행동양식을 가질수 있다.
예를 들어, 제2 시뮬레이터(7)의 또 다른 에이전트(13)와 같이 에이전트의 상태정보 중 형태 또는 규모에 대한 상태값이 군중(crowd)인 경우, 해당 에이전트는 복수의 엔터티로 구성된 그룹일 수 있을 것이다.
본 개시의 실시 예에 따르면, 제1 시뮬레이터(6)의 에이전트(4)는 미리 정해진 자신의 행동에 대응하는 상태정보를 상기 제2 시뮬레이터(7)의 에이전트(5)에 송신할 수 있으며, 제1 시뮬레이터(6)의 다른 에이전트(3) 또한 미리 정해진 상태정보를 제2 시뮬레이터(7)의 또 다른 에이전트(13)에 송신할 수 있다.
예를 들어, 제1 시뮬레이터(6)의 에이전트(3,4)와 제2 시뮬레이터(7)에 해당하는 제2 시뮬레이터(7)의 에이전트(5,13)가 각각 통신을 하며, 제1 시뮬레이터(6)의 에이전트(3,4)는 실시간 엔진에 해당하는 제2 시뮬레이터(7)의 에이전트(5,13) 각각에 위치정보, 방향정보, 속도정보 중 적어도 하나의 정보를 전달할 수 있다.
또는 제1 시뮬레이터의 에이전트(3,4)는 제2 시뮬레이터(7)의 에이전트(5,13) 각각의 형태 및 규모정보 중 적어도 하나의 정보를 송신할 수 있다.
도 1에 나타난 바와, 같이 제1 시뮬레이터(6)의 에이전트(3,4)는 제2 시뮬레이터(7)의 에이전트(5,13)의 일정 시간 이후의 위치에 대응되는 것을 알 수 있으므로, 제1 시뮬레이터의 에이전트(3,4)의 상태정보를 수신한 제2 시뮬레이터(7)의 에이전트(5,13)는 수신한 상태정보에 기초하여 위치정보(목적지), 방향정보 및 속도정보에 따라 행동할 수 있을 것이다.
또한, 제2 시뮬레이터(7)의 에이전트의 상태정보 중 형태 및 규모정보에 기초하여 에이전트의 행동이 달라질 수 있다.
예를 들어, 제1 시뮬레이터(6)의 에이전트(3)와 대응되는 제2 시뮬레이터(7)의 에이전트(13)의 상태가 군중(Crowd)에 해당하는 경우, 에이전트(13)의 군중에 포함된 단일 엔터티 각각은 서로 상호작용(서로 멀어지거나, 특정 엔터티끼리 뭉쳐 이동하는 등)하여 움직이는 것도 가능하다.
본 개시의 실시 예에 따르면, 행위자 상태 연동 시뮬레이션 시스템은, 시뮬레이션을 관찰할 수 있는 VR 장치(12)를 더 포함할 수 있다.
VR 장치(12)의 시뮬레이션 관찰자는 제2 시뮬레이터(7) 상 임의의 위치에 배치될 수 있다.
VR 장치(12)는 디스플레이가 구비된 출력장치에 해당하며, 상기 행위자 상태 연동 시뮬레이션을 관찰하기 위한 HMD에 해당할 수 있다.
다만, 이는 실시예에 불가하며 반드시 VR 장치에 한정될 필요는 없으며 일반 디스플레이가 구비된 장치에 해당하는 경우도 포함된다고 할 수 있을 것이다.
이하 도 2에서 시뮬레이션 시스템에 사용되는 시뮬레이터 연동 구조를 구체적으로 설명한다.
도 2는 본 개시의 실시 예에 따른 제1 시뮬레이터(6)에 포함된 제1 에이전트(10) 및 제2 시뮬레이터(7)에 포함된 제2 에이전트(20)의 연동 구조를 나타낸 것이다.
도 2를 참고하면, 제1 시뮬레이터(6)는 행위자 기반의 시뮬레이션 모델링 도구이고, 상기 제2 시뮬레이터(7)는 실시간 엔진 시뮬레이터일 수 있다.
예를 들어, 제1 시뮬레이터(6)는 행위자 기반 모형을 지원하는 소프트웨어인 애니로직(Anylogic)이며, 제2 시뮬레이터(7)는 VR을 연동한 유니티(Unity)일 수 있다.
본 개시의 실시 예에 따르면, 제1 시뮬레이터(6)의 에이전트(10)는 제2 시뮬레이터(7)의 에이전트(20)에 전달하기 위한 연결정보(Connection), 위치정보(SendPos), 포트정보(Port), 좌표정보(InitialX), 움직임정보(Move)를 포함할 수 있다.
구체적으로 연결정보는 제2 에이전트(20)와 연결하기 위한 IP 주소를 의미할 수 있으며, 위치정보는 제2 에이전트(20)에 전송하기 위한 3차원 시뮬레이션 공간의 좌표정보(x,y,z)일 수 있다.
제2 시뮬레이터(7)의 제2 에이전트(20)는 통신부(Communication), 행동부(Movement), 애니메이션부(Animation)를 포함할 수 있다. 본 개시의 실시 예에 따르면, 제1 시뮬레이터의 에이전트는 제2 시뮬레이터의 에이전트와 연동하기 위한 네트워크 정보를 제2 시뮬레이터의 에이전트에 전송할 수 있다.
예를 들어, 제2 에이전트(20)의 위치수신부(PositionListener)는 해당 에이전트의 상태정보를 수신하고 해당 정보를 행동부로 전달할 수 있다. 제2 에이전트는(20) 제1 에이전트(10)에서 수신한 IP 정보 및 위치정보를 이용하여 상태정보를 연동할 수 있다.
이로 인해 제1 에이전트(10)는 제2 에이전트(20) 각각과 직접 통신하게된다. 즉 제1 시뮬레이터와 제2 시뮬레이터의 시스템 단위로 통신이 이루어지지 않는다. 이러한 분산 연결은 시스템에 높은 수준의 유연성을 제공할 수 있다.
본 개시의 실시 예에 따른 제2 에이전트(20)의 행동부는 에이전트가 단일 엔터티로 구성되는 경우 행동을 제어하는 네비게이터(Navigator), 제2 에이전트(20)가 복수개의 엔터티로 구성되는 경우 행동을 제어하는 군중 컨트롤러(CrowdController), 무버(Mover)를 포함할 수 있다.
또한, 제2 에이전트(20)의 애니메이션부는 시뮬레이션 환경을 구현할 수 있는 애니메이터를 포함할 수 있다.
한편, 제1 에이전트(10)와 제2 에이전트(20)가 통신하더라도, 제1 시뮬레이터는 실시간 동작 엔진에 해당하지 않으므로 제1 에이전트(10)와 제2 에이전트(20) 상에는 동기화 오류가 발생할 수 있다.
구체적으로 동기화 오류는 제1 시뮬레이터(6)의 에이전트와 실시간 엔진에 해당하는 제2 시뮬레이터(7)의 에이전트 사이에서 발생하는 상태차이를 의미할 수 있다. 상기 상태차이가 발생하는 경우, 결국 두 시뮬레이터는 동기화되지 않는 오류가 발생한다.
이때, 동기화 발생 오류는 상기 제1 에이전트의 위치 및 상기 제2 에이전트의 위치에 기초하여 계산될 수 있을 것이다.
이를 보완하기 위하여 본 개시의 실시 예에 따른 행위자 상태 연동 시뮬레이션 시스템은, 상기 제1 에이전트 및 상기 제2 에이전트의 동기화 발생 오류를 계산하고, 사용자 매개변수를 이용하여 상기 제2 에이전트의 속도를 조정하는 상태 컨트롤러를 더 포함할 수 있다.
구체적으로 상태 컨트롤러는 동기화 오류를 사용하여 제2 시뮬레이터의 실시간 에이전트의 상태를 결정 및 보정할 수 있다. 상태 컨트롤러는 에이전트의 형태 및 규모에 따라 동기화 발생 오류를 보완하기 위한 사용자 매개변수를 다르게 설정할 수 있다.
예를 들어, 에이전트의 형태 및 규모정보가 사람에 해당하는 보행자, 차량 및 군중 등에 따라 적합한 사용자 매개변수가 할당될 수 있다.
다시 도 1을 예시로 설명한다.
도 1을 참고하면, 본 개시의 실시 예에 따른 상태 컨트롤러는 제1 시뮬레이터(6)의 에이전트(3)의 위치 및 이동 후 제2 시뮬레이터(7)의 에이전트(14)의 위치에 기초하여 동기화 발생 오류를 계산할 수 있다.
상태 컨트롤러는 제1 시뮬레이터(6)의 에이전트(3) 및 이동 후 제2 시뮬레이터(7)의 에이전트(14)의 형태 및 규모정보에 기초하여 사용자 매개변수를 조정할 수 있다.
이후 상태 컨트롤러는 상기 동기화 발생 오류와 상기 사용자 매개변수를 이용하여 이동중인 제2 시뮬레이터(7)의 에이전트(14)의 속도를 조절할 수 있다.
예를 들어, 제2 시뮬레이터(7)의 에이전트(14)는 현재 위치와 에이전트(3)로부터 수신한 위치(목적지)에 대한 거리가 멀수록 속도정보를 빠른 속도로 설정할 수 있다. 마찬가지로 현재위치와 목적지가 가까울수록 느린 속도로 설정 속도정보를 조정할 수 있다.
또한 사용자 매개변수는 속도 변화율에 영향을 미치는 운동량으로 작용하는 감쇠계수를 포함할 수 있다. 또는 목적지의 거리에 기초하여 이득(gain)값이 설정되는 이득 계수를 포함할 수 있다.
위와 같이 다양한 매개변수가 실시간 시뮬레이터의 에이전트의 동작에 영향을 줄 수 있다. 이러한 매개변수는 실시간 시뮬레이터의 에이전트에 유연한 동작을 제공할 수 있을 것이다.
도 3은 본 개시의 실시 예에 따른 제1 시뮬레이터가 복수개의 실시간 시뮬레이터와 연결된 예시를 나타낸 것이다. 앞서 설명한 바와 같이, 제1 시뮬레이터는 애니로직(Anylogic)과 같은 모델링 엔진에 해당하며, 제1 시뮬레이터와 연결되는 다른 시뮬레이터는 실시간 시뮬레이션 엔진일 수 있다.
도 3을 참고하면, 제1 시뮬레이터의 에이전트(31)는 자신의 상태정보를 복수개의 실시간 시뮬레이터의 에이전트(32,33)에게 각각 전송할 수 있다.
복수개의 실시간 시뮬레이터에 포함된 에이전트 각각은 전송받은 상태정보를 이용하여 실시간 행위자 상태 연동 시뮬레이션을 구현할 수 있을 것이다.
전술한 본 발명은, 시뮬레이션 구현 방법으로 알고리즘의 시계열적 구성에 따라 구현 가능하며, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다.

Claims (11)

  1. 제1 에이전트를 포함하는 제1 시뮬레이터 및 제2 에이전트를 포함하는 제2시뮬레이터를 포함하는 행위자 상태 연동 시뮬레이션 시스템에 있어서,
    상기 제1 에이전트가 상기 제1 에이전트의 행동에 대응하는 상태정보를 상기 제2 에이전트에 송신하고,
    상기 제2 에이전트는 상기 제1 에이전트의 행동에 대응하는 상태정보에 기초하여 행동하되,
    상기 상태 정보는 상기 제1 에이전트의 행동에 대응하는 위치, 방향, 속도, 형태 및 규모 중 적어도 하나를 포함하고
    상기 제1 에이전트에 포함된 복수의 에이전트 각각은 상기 제2 에이전에 포함된 복수의 에이전트 각각과 직접 통신하여 상기 제1 에이전트의 상태정보를 상기 제2 에이전트에 직접 전송하고,
    상기 행위자 상태 연동 시뮬레이션 시스템은, 상기 제1 에이전트 및 상기 제2 에이전트의 동기화 발생 오류를 계산하고, 상기 동기화 발생 오류 및 사용자 매개변수를 이용하여 상기 제2 에이전트의 속도를 조정하는 상태 컨트롤러를 더 포함하고,
    상기 동기화 발생 오류는 상기 제2 시뮬레이터는 실시간 엔진에 해당하나 상기 제1 시뮬레이터가 실시간 동작 엔진에 해당하지 않기에 발생하는 오류로서, 상기 제1 에이전트의 위치 및 상기 제2 에이전트의 위치에 기초하여 계산된 값이고,
    상기 사용자 매개변수는 속도 변화율에 영향을 미치는 운동량으로 작용하는 감쇠계수 또는 목적지의 거리에 기초하여 이득(gain)값이 설정되는 이득계수를 포함하고,
    상기 상태 컨트롤러는 상기 제1 에이전트 및 이동 후 상기 제2 에이전트의 형태 및 규모에 기초하여 사용자의 매개변수를 다르게 조절하는 컨트롤러로서, 상기 제2 에이전트의 현재 위치와 상기 제1 에이전트로부터 수신한 위치에 대한 거리가 멀면 상기 제2 에이전트의 속도를 빠른 속도로 설정하고, 상기 제2 에이전트의 현재 위치와 상기 제1 에이전트로부터 수신한 위치에 대한 거리가 가까우면 상기 제2 에이전트의 속도를 느리게 설정하는,
    행위자 상태 연동 시뮬레이션 시스템.
  2. 삭제
  3. 삭제
  4. 제 1항에 있어서,
    상기 제1 시뮬레이터는 애니로직(AnyLogic)이고, 상기 제2 시뮬레이터는 유니티(Unity)엔진인,
    행위자 상태 연동 시뮬레이션 시스템.
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 제 1항에 있어서,
    상기 행위자 상태 연동 시뮬레이션 시스템은,
    시뮬레이션을 출력하는 출력장치를 더 포함하는,
    행위자 상태 연동 시뮬레이션 시스템.
  10. 제 1항에 있어서
    상기 행위자 상태 연동 시뮬레이션을 관찰하기 위한 VR 장치 및 HMD중 적어도 하나를 더 포함하는,
    행위자 상태 연동 시뮬레이션 시스템.
  11. 제1 에이전트를 포함하는 제1 시뮬레이터 및 제2 에이전트를 포함하는 제2 시뮬레이터를 포함하는 행위자 상태 연동 시뮬레이션 방법에 있어서,
    상기 제1 에이전트가 상기 제1 에이전트의 행동에 대응하는 상태정보를 상기 제2 에이전트에 송신하는 단계;
    상기 제2 에이전트는 상기 제1 에이전트의 행동에 대응하는 상태정보에 기초하여 행동하는 단계; 및 상기 제1 에이전트 및 상기 제2 에이전트의 동기화 발생 오류를 계산하고, 상기 동기화 발생 오류 및 사용자 매개변수를 이용하여 상기 제2 에이전트의 속도를 조절하는 단계를 포함하되,
    상기 상태 정보는 상기 제1 에이전트의 행동에 대응하는 위치, 방향, 속도, 형태 및 규모 중 적어도 하나를 포함하고
    상기 제1 에이전트에 포함된 복수의 에이전트 각각은 상기 제2 에이전에 포함된 복수의 에이전트 각각과 직접 통신하여 상기 제1 에이전트의 상태정보를 상기 제2 에이전트에 직접 전송하고,
    상기 동기화 발생 오류는 상기 제2 시뮬레이터는 실시간 엔진에 해당하나 상기 제1 시뮬레이터가 실시간 동작 엔진에 해당하지 않기에 발생하는 오류로서, 상기 제1 에이전트의 위치 및 상기 제2 에이전트의 위치에 기초하여 계산된 값이고,
    상기 사용자 매개변수는 속도 변화율에 영향을 미치는 운동량으로 작용하는 감쇠계수 또는 목적지의 거리에 기초하여 이득(gain)값이 설정되는 이득계수를 포함하고
    상기 제2 에이전트의 속도를 조절하는 것은 상기 제1 에이전트 및 이동 후 상기 제2 에이전트의 형태 및 규모에 기초하여 사용자의 매개변수를 다르게 조절하는 것으로서, 상기 제2 에이전트의 현재 위치와 상기 제1 에이전트로부터 수신한 위치에 대한 거리가 멀면 상기 제2 에이전트의 속도를 빠른 속도로 설정하고, 상기 제2 에이전트의 현재 위치와 상기 제1 에이전트로부터 수신한 위치에 대한 거리가 가까우면 상기 제2 에이전트의 속도를 느리게 설정하는 것인,
    행위자 상태 연동 시뮬레이션 방법.
KR1020220035101A 2021-10-25 2022-03-22 실시간 행위자 상태 연동을 이용한 시뮬레이션 방법 및 시스템 KR102654333B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220035101A KR102654333B1 (ko) 2022-03-22 2022-03-22 실시간 행위자 상태 연동을 이용한 시뮬레이션 방법 및 시스템
PCT/KR2022/010047 WO2023075083A1 (ko) 2021-10-25 2022-07-11 실시간 행위자 상태 연동을 이용한 가상 현실 기반 hitl 실험 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220035101A KR102654333B1 (ko) 2022-03-22 2022-03-22 실시간 행위자 상태 연동을 이용한 시뮬레이션 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20230137566A KR20230137566A (ko) 2023-10-05
KR102654333B1 true KR102654333B1 (ko) 2024-04-03

Family

ID=88294460

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220035101A KR102654333B1 (ko) 2021-10-25 2022-03-22 실시간 행위자 상태 연동을 이용한 시뮬레이션 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102654333B1 (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019193705A (ja) * 2018-05-01 2019-11-07 株式会社カプコン ゲームプログラム及びゲーム装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019193705A (ja) * 2018-05-01 2019-11-07 株式会社カプコン ゲームプログラム及びゲーム装置

Also Published As

Publication number Publication date
KR20230137566A (ko) 2023-10-05

Similar Documents

Publication Publication Date Title
EP3754467A1 (en) Merged reality system and method
RU2495476C2 (ru) Системы и способы для иммерсивного взаимодействия с действительными и/или имитируемыми техническими средствами для управления технологическим процессом, контроля состояния окружающей среды и производственного контроля
CN107844635B (zh) 实现bim信息与交通仿真信息集成系统及其集成方法
Lewis et al. Developing a testbed for studying human-robot interaction in urban search and rescue
Pantelidis Virtual reality and engineering education
CN108681264A (zh) 一种智能车辆数字化仿真测试装置
US9472119B2 (en) Computer-implemented operator training system and method of controlling the system
CN106373453A (zh) 一种沉浸式高铁列车虚拟驾驶行为智能评判方法及仿真系统
That et al. An integrated framework combining a traffic simulator and a driving simulator
Stansfield A distributed virtual reality simulation system for situational training
Wilson et al. A virtual environment for training overhead crane operators: real-time implementation
KR102654333B1 (ko) 실시간 행위자 상태 연동을 이용한 시뮬레이션 방법 및 시스템
Du et al. Industrial robot digital twin system motion simulation and collision detection
Klačková et al. Virtual reality in Industry
CN111814306B (zh) 一种城市异构仿真系统
Dang et al. Real-time control of a force feedback haptic interface via EtherCAT fieldbus
Ressler et al. Applying virtual environments to manufacturing
RU48661U1 (ru) Комплексный тренажер воздушного судна
KR102423745B1 (ko) 3차원 모델 구동 엔진을 기반으로 모션 플랫폼의 순기구학을 구현하기 위한 방법
Dörr et al. Virtual cockpit simulation for pilot training
CN113848750A (zh) 一种双轮机器人仿真系统及机器人系统
Chotikunnan et al. Electric wheelchair simulation from unity 3D for controller test
CN110942700A (zh) 一种基于虚拟现实的动车模拟驾驶系统
RU2802484C1 (ru) Комплекс программно-технических средств взаимодействия реальных и виртуальных объектов (КПТС ВРВО)
Wakefield et al. A" Virtual reality" type simulation system for construction automation system development

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right