KR101624139B1 - 어포던스 확률에 기반하여 인간의 행동을 예측하는 방법 및 이를 이용한 훈련 계획 수립 방법 - Google Patents

어포던스 확률에 기반하여 인간의 행동을 예측하는 방법 및 이를 이용한 훈련 계획 수립 방법 Download PDF

Info

Publication number
KR101624139B1
KR101624139B1 KR1020140078880A KR20140078880A KR101624139B1 KR 101624139 B1 KR101624139 B1 KR 101624139B1 KR 1020140078880 A KR1020140078880 A KR 1020140078880A KR 20140078880 A KR20140078880 A KR 20140078880A KR 101624139 B1 KR101624139 B1 KR 101624139B1
Authority
KR
South Korea
Prior art keywords
human
environment
behavior
level
real
Prior art date
Application number
KR1020140078880A
Other languages
English (en)
Other versions
KR20160001095A (ko
Inventor
김남훈
하상호
부소기 모이스
신동민
류호경
Original Assignee
울산과학기술원
한양대학교 에리카산학협력단
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산과학기술원, 한양대학교 에리카산학협력단, 한양대학교 산학협력단 filed Critical 울산과학기술원
Priority to KR1020140078880A priority Critical patent/KR101624139B1/ko
Publication of KR20160001095A publication Critical patent/KR20160001095A/ko
Application granted granted Critical
Publication of KR101624139B1 publication Critical patent/KR101624139B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 어포던스 확률에 기반하여 인간의 행동을 예측하는 방법 및 이를 이용한 훈련 계획 수립 방법에 관한 것으로, 인간의 행동 예측 방법은, 인간과 환경이 상호작용하는 환경 내에서 인간의 인지적 행동유발인자를 나타내는 어포던스(affordance)와 인간의 행동능력을 나타내는 이펙티비티(effectivity)를 이용하여 인간의 행동을 모델링하고, 인간이 활동하는 환경에 대한 물리적인 법칙에 따른 이벤트와 환경의 상태를 이용하여 환경을 모델링하며, 주어진 목표를 수행하기 위해 물리적이고(physical) 심리적인(psychological) 비용 기반의 필터를 이용하여 복수의 어포던스에 대한 계획 레벨(planning level)의 실행 가능성을 산출하고, 환경 변화에 따른 실시간 인지(real-time perception) 필터를 이용하여 실행 레벨(execution level)의 어포던스에 대한 선호 확률을 산출하며, 산출된 선호 확률에 기초하여 인간이 수행하여야 할 선택적 행동의 실행을 유도한다.

Description

어포던스 확률에 기반하여 인간의 행동을 예측하는 방법 및 이를 이용한 훈련 계획 수립 방법{Method for predicting human behavior based on affordance probability and method for establish training plan using the method thereof}
본 발명은 어포던스 기반 에이전트 모델(affordance-based agent model)을 이용한 인간 행동 시뮬레이션에 관한 것으로, 특히 인간 행위자의 인지 정보에 기반하여 행동을 예측하는 방법 및 이러한 행동 예측에 기반하여 인간 행위자에 대한 훈련 계획을 수립하는 방법에 관한 것이다.
최근 대형 쇼핑몰, 지하 노래방 같은 다중 시설에서의 화재, 아이티(Haiti)나 중국 쓰촨성 지진과 같은 점증하는 재난 상황에서의 자연 재해, 화재, 사고 등의 발생과 같은 대피 상황에서 여러 인간의 움직임 및 반응을 미리 예측하고 준비하여 재해로부터의 피해를 감소시키기 위한 노력들이 최근 많이 이루어지고 있다.
특히, 건축물의 경우 위기상황의 사람들의 행동패턴을 통해 각종 설계나 재난 예방 조치를 적용한다면 재해로부터의 피해를 최소화시킬 수 있을 것이다. 이에 따라, 최근에는 수학자 및 심리학자를 동원하여 화재가 발생하면 불이 어떻게 퍼지는지, 어떻게 건물 관리자들이 대처하는지, 또한 인간의 일상 시, 위기시 행동 패턴을 심리학 연구에 바탕하여 모델링하여 건축 설계에 도입함으로써, 사전에 미리 수리적 컴퓨터 시뮬레이션 모델을 세워서 건물을 디자인하고 있다. 또한 해외에서는 이러한 심리학적 연구가, 관련법, 조례를 만드는 데에 도입되고 있다.
이처럼, 사람들의 행동을 시뮬레이션을 통해 정확하게 예측하고 분석할 필요성이 크게 늘어남으로 인해, 인명피해를 최소화할 수 있는 재난 대비책과 안전 시스템 구축의 필요성이 점점 증가하고 있다. 뿐만 아니라 복잡한 도로 상황에서의 차량의 흐름을 예측하거나 실시간으로 통제하는 교통통제시스템과 무인자동차 제어 등에도 활용될 수 있어서 그 중요성은 크게 증가하고 있다. 이러한 인간 행동을 표현하기 위해 이하에서 제시되는 선행기술문헌에는 인간-환경 시스템(human-environment system)에서의 인간의 행동에 대한 어포던스 이론(affordance theory)을 제안하고 있다.
그러나 현재 건물 및 도시 시설의 방재 설계에 주로 사용되는 피난 시뮬레이션 소프트웨어인, Simulex®, BuildingExodus®, Pathfinder® 등은 주변 환경과 인간의 상호작용에 기반한 인지적 정보를 바탕으로 행동을 결정한다는 가정보다는, 미리 프로그램된 지능적 알고리즘에 입각한 의사결정 모듈을 채용하고 있다. 따라서, 동적으로 변하는 재난 환경에서는 실제 인간과 환경간의 상호작용을 묘사하는 데 한계가 있는 것이 현실이다. 화재, 자연재해, 사고 등 주변 환경이 복잡하고 급박하게 변하는 상황에서의 인간의 행동패턴과는 전혀 다른 행동패턴을 유발할 수 있어, 보다 정확한 인간의 행동패턴을 예측하기 위한 필요성이 증대되고 있다.
나아가, 종래의 인간 행동에 관한 시뮬레이션이 인간 개인의 선호도, 대응 성향 및 위험에 대한 인식 정도 등과 같은 심리적이고 인지적인 요소를 현실적으로 반영하고 있지 못한 관계로 인하여 인간의 특정 위기 상황이나 재난 상황이 발생할 경우 그 행동을 정확하게 예측할 수 없을 뿐만 아니라, 재난 상황에 대한 교육 대상자를 선정하거나 교육의 방향을 설정하는데 객관적인 근거가 부족하다는 한계가 발견되었다. 따라서, 인간의 행동패턴을 예측할 수 있으면서도 개인의 심리적인 성향을 반영한 시뮬레이션 모델링 기법의 개발이 요구되고 있다.
Gibson, J. J. (1979), The Ecological Approach to Visual Perception, Boston : Houghton Mifflin. D. Kahneman, A. Tversky (1973). On the psychology of prediction. Psychological Review, 80, 237-251
본 발명이 해결하고자 하는 기술적 과제는, 위험 상황이나 재난 상황과 같이 실험으로 재현하기 어려운 복잡하고 동적인 인간-환경 시스템에서 물리적인 요소뿐만 아니라 심리적인 요소를 중심으로 인간의 행동을 관찰, 예측, 통제할 수 있는 실질적인 기술 수단이 존재하지 않는 문제점을 해결하고, 이러한 상황 하에서의 인간의 행동을 예측할 수 없음으로 인해 미리 재난 상황에 대한 체계적인 대비책 내지 교육 방침을 수립할 수 없다는 한계를 극복하고자 한다.
상기 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 적어도 하나의 처리기(processor)를 구비한 시뮬레이터가 인간의 행동을 예측하는 방법은, 시뮬레이터가 인간과 환경이 상호작용하는 환경 내에서 상기 인간의 인지적 행동유발인자를 나타내는 어포던스(affordance)와 상기 인간의 행동능력을 나타내는 이펙티비티(effectivity)를 이용하여 인간의 행동을 모델링하고, 상기 인간이 활동하는 환경에 대한 물리적인 법칙에 따른 이벤트와 환경의 상태를 이용하여 상기 환경을 모델링하는 단계; 상기 시뮬레이터가 주어진 목표를 수행하기 위해 물리적이고(physical) 심리적인(psychological) 비용 기반의 필터를 이용하여 복수의 어포던스에 대한 계획 레벨(planning level)의 실행 가능성을 산출하는 단계; 상기 시뮬레이터가 환경 변화에 따른 실시간 인지(real-time perception) 필터를 이용하여 실행 레벨(execution level)의 어포던스에 대한 선호 확률을 산출하는 단계; 및 상기 시뮬레이터가 상기 산출된 선호 확률에 기초하여 상기 인간이 수행하여야 할 선택적 행동의 실행을 유도하는 단계;를 포함하되, 상기 선택적 행동은 인간이 갖는 선호(preference)와 위험에 대한 인지 정도에 따라 개인별로 차별적으로 결정된다.
일 실시예에 따른 상기 인간의 행동을 예측하는 방법에서, 상기 계획 레벨의 실행 가능성을 산출하는 (b) 단계는, 상기 주어진 목표를 수행하기 위해 필요한 행동의 예상 어포던스와 이펙티비티에 기초하여 상기 인간이 수행 불가능한 행동을 필터링하는 단계; 및 주어진 환경에서 상기 주어진 목표를 수행하기 위한 정신적인 난이도와 상기 인간의 주관적인 수용 능력을 고려하여 소요 에너지와 소요 시간에 기반한 실행 계획을 생성하는 단계;를 포함한다. 또한, 상기 비용 기반의 필터는, 상기 주어진 목표를 수행하기 위해 필요한 행동의 예상 어포던스와 이펙티비티에 따른 수행 가능성을 나타내는 이진(binary)의 가능성 지수, 주어진 환경에서 상기 주어진 목표를 수행하기 위한 정신적인 난이도 지수 및 상기 인간의 주관적인 수용 능력 지수의 곱으로 설정될 수 있다. 나아가, 상기 정신적인 난이도는 주어진 환경에서 상기 주어진 목표를 수행하기 위한 행동에 대한 스트레스, 주의 및 복잡도 중 적어도 하나를 정서적 비용으로 나타낸 숫자로 설정되며, 상기 주관적인 수용 능력은 주어진 환경에서 상기 주어진 목표를 수행하고자 하는 인간의 전문 지식, 기술, 위험을 받아들이는 행동 및 주관적인 장단점 중 적어도 하나를 참조 에이전트(referenced agent)와 대비하여 상대적인 수준으로 나타낸 숫자로 설정될 수 있다.
일 실시예에 따른 상기 인간의 행동을 예측하는 방법에서, 상기 선호 확률을 산출하는 (c) 단계는, 상기 주어진 목표를 수행하기 위해 필요한 행동의 어포던스와 이펙티비티에 기초하여 실시간으로 인지된 환경의 변화에 따라 인간이 수행 불가능한 행동을 필터링하는 단계; 및 실시간 어포던스 순위 및 실시간 이펙티비티 순위를 고려하여 상기 계획 레벨의 실행 가능성을 조정함으로써 실행 레벨의 어포던스에 대한 선호 확률을 산출하는 단계;를 포함한다. 또한, 상기 실시간 인지 필터는, 환경 조건 및 인간이 감각으로 인지할 수 있는 범위를 나타내는 인간의 인지 경계(perceivable boundary) 및 물리적 경계(physical boundary)를 설정함으로써, 설정된 상기 인지 경계 내의 어포던스에 기초하여 상기 실행 계획을 생성할 수 있다. 나아가, 상기 실시간 인지 필터는, 상기 계획 레벨에서 예측된 어포던스와 상기 실행 레벨의 실시간 어포던스가 일치하지 않는 경우, 상기 계획 레벨의 실행 가능성을 보정하여 실시간으로 변환하는 환경에 대응하는 행동을 수행하도록 유도할 수 있다.
일 실시예에 따른 상기 인간의 행동을 예측하는 방법에서, 선택적 행동의 실행 결과 주어진 목표가 달성되지 못한 경우, (e) 상기 시뮬레이터가 상기 계획 레벨의 실행 가능성을 산출하는 단계 및 상기 실행 레벨의 선호 확률을 산출하는 단계를 반복하는 단계;를 더 포함할 수 있다.
상기 기술적 과제를 해결하기 위하여, 본 발명의 다른 실시예에 따른 적어도 하나의 처리기(processor)를 구비한 시뮬레이터가 인간의 행동 예측에 기반하여 훈련 계획을 수립하는 방법은, (a) 시뮬레이터가 인간과 환경이 상호작용하는 환경 내에서 상기 인간의 인지적 행동유발인자를 나타내는 어포던스(affordance)와 상기 인간의 행동능력을 나타내는 이펙티비티(effectivity)를 이용하여 인간의 행동을 모델링하고, 상기 인간이 활동하는 환경에 대한 물리적인 법칙에 따른 이벤트와 환경의 상태를 이용하여 상기 환경을 모델링하는 단계; (b) 상기 시뮬레이터가 주어진 목표를 수행하기 위해 물리적이고(physical) 심리적인(psychological) 비용 기반의 필터를 이용하여 복수의 어포던스에 대한 계획 레벨(planning level)의 실행 가능성을 산출하고, 환경 변화에 따른 실시간 인지(real-time perception) 필터를 이용하여 실행 레벨(execution level)의 어포던스에 대한 선호 확률을 산출하는 단계; (c) 상기 시뮬레이터가 상기 산출된 선호 확률에 기초하여 상기 인간이 수행하여야 할 선택적 행동의 실행을 유도하는 단계; (d) 복수의 대상자에 대하여 상기 (a) 내지 (c) 단계를 수행하여 각각 주어진 목표에 대한 개인별 행동을 예측하는 단계; (e) 상기 예측된 개인별 행동 중, 위험 행동으로 분류된 행동을 선택할 것으로 예상되는 대상자를 선별하여 훈련 레벨을 평가하는 단계; 및 (f) 상기 평가된 훈련 레벨이 임계치 이하인 대상자에 대하여 재교육 계획을 생성하는 단계;를 포함한다.
다른 실시예에 따른 상기 인간의 행동 예측에 기반한 훈련 계획 수립 방법에서, 상기 선택적 행동은 인간이 갖는 선호(preference)와 위험에 대한 인지 정도에 따라 개인별로 차별적으로 결정되며, 상기 재교육 계획은 상기 위험 행동을 유발하는 어포던스와 개인의 선호에 변화를 유도하도록 설정될 수 있다.
다른 실시예에 따른 상기 인간의 행동 예측에 기반한 훈련 계획 수립 방법에서, 상기 계획 레벨의 실행 가능성을 산출하는 단계는, 상기 주어진 목표를 수행하기 위해 필요한 행동의 예상 어포던스와 이펙티비티에 기초하여 상기 인간이 수행 불가능한 행동을 필터링하는 단계; 및 주어진 환경에서 상기 주어진 목표를 수행하기 위한 정신적인 난이도와 상기 인간의 주관적인 수용 능력을 고려하여 소요 에너지와 소요 시간에 기반한 실행 계획을 생성하는 단계;를 포함한다.
다른 실시예에 따른 상기 인간의 행동 예측에 기반한 훈련 계획 수립 방법에서, 상기 선호 확률을 산출하는 단계는, 상기 주어진 목표를 수행하기 위해 필요한 행동의 어포던스와 이펙티비티에 기초하여 실시간으로 인지된 환경의 변화에 따라 인간이 수행 불가능한 행동을 필터링하는 단계; 및 실시간 어포던스 순위 및 실시간 이펙티비티 순위를 고려하여 상기 계획 레벨의 실행 가능성을 조정함으로써 실행 레벨의 어포던스에 대한 선호 확률을 산출하는 단계;를 포함한다. 또한, 상기 정신적인 난이도는 주어진 환경에서 상기 주어진 목표를 수행하기 위한 행동에 대한 스트레스, 주의 및 복잡도 중 적어도 하나를 정서적 비용으로 나타낸 숫자로 설정되며, 상기 주관적인 수용 능력은 주어진 환경에서 상기 주어진 목표를 수행하고자 하는 인간의 전문 지식, 기술, 위험을 받아들이는 행동 및 주관적인 장단점 중 적어도 하나를 참조 에이전트(referenced agent)와 대비하여 상대적인 수준으로 나타낸 숫자로 설정될 수 있다. 나아가, 상기 실시간 인지 필터는, 상기 계획 레벨에서 예측된 어포던스와 상기 실행 레벨의 실시간 어포던스가 일치하지 않는 경우, 상기 계획 레벨의 실행 가능성을 보정하여 실시간으로 변환하는 환경에 대응하는 행동을 수행하도록 유도할 수 있다.
한편, 이하에서는 상기 기재된 인간의 행동을 예측하는 방법 및 인간의 행동 예측에 기반한 훈련 계획 수립 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
본 발명의 실시예들은, 자신의 주위 환경에 대한 인지정보를 바탕으로 목표(goal)를 달성하기 위하여 행하는 인간의 적응적인 행동패턴에 대한 모델링과 시뮬레이션을 통하여 재난 상황에 처한 인간-환경시스템에서 인간의 행동을 관찰, 예측, 통제할 수 있는 인간의 인지적 행위유발인자(affordance) 기반의 에이전트 모델을 이용한 인간 행동패턴 인식 방법을 제공할 수 있다.
또한, 인간의 인지적 행위유발인자인 어포던스와 인지적 행동 능력인 이펙티비티를 대피 시뮬레이션에서 고려하되, 물리적인 요소뿐만 아니라 인간의 심리적인 요소 및 인지를 행동 결정에 반영함으로써, 실시간으로 변화하는 재난 환경에서 대피자의 행동을 보다 사실적으로 표현하고 모사할 수 있어, 기존에 사용되는 피난 시뮬레이션 소프트웨어보다 우수한 대피 시뮬레이션 능력을 갖는 인간 행동패턴 인식장치를 제공할 수 있다.
나아가, 본 발명의 실시예들은 다수의 대상자가 포함되는 그룹 내에서 개인별 심리 요소, 선호도, 인지 능력을 차별화함으로써 교육 레벨에 따른 개인 행동의 예측이 가능하므로, 위기 상황 하에서의 인간의 행동을 보다 실제적으로 시뮬레이션할 수 있을 뿐만 아니라, 재난 대비 교육을 실시함에 있어서 체계적인 재교육 계획을 수립하는 것이 가능하다.
도 1은 어포던스 이론에 따라 인간-계단 시스템을 예시한 도면이다.
도 2는 도 1의 인간-계단 시스템의 전이 구조를 오토마타를 기반으로 표현한 도면이다.
도 3은 도 1의 인간-계단 시스템에서 계단이 유실된 상황을 예시한 도면이다.
도 4는 도 3의 계단이 유실된 인간-계단 시스템을 어포던스 기반의 FSA(finite state automata) 모델로 표현한 도면이다.
도 5는 본 발명의 일 실시예에 따른 인간의 행동을 예측하는 방법에서 목표를 수행하기 위한 액션(action)을 선택하는 과정을 개괄적으로 도시한 블록도이다.
도 6은 본 발명의 일 실시예에 따른 어포던스 확률에 기반하여 인간의 행동을 예측하는 방법을 도시한 흐름도이다.
도 7 및 도 8은 각각 본 발명의 일 실시예에 따른 도 6의 인간의 행동 예측 방법에서 계획 레벨의 실행 가능성을 산출하는 과정과 실행 레벨의 어포던스에 대한 선호 확률을 산출하는 과정을 발췌하여 구체적으로 도시한 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 물리적 필터 및 심리적 필터를 이용하여 주어진 목표를 수행하기 위한 어포던스에 대한 확률을 산출하는 과정을 도시한 블록도이다.
도 10은 본 발명의 다른 실시예에 따른 어포던스 확률에 기반하여 인간의 행동 예측에 기반하여 훈련 계획을 수립하는 방법을 도시한 흐름도이다.
본 발명의 실시예들을 설명하기에 앞서, 본 발명의 실시예들이 구현되는 기술 분야에서 활용되는 기술 요소를 개괄적으로 소개한 후, 종래 기술에서 나타난 문제점들을 해소하기 위해 본 발명의 실시예들이 채택하고 있는 기술적 수단을 순차적으로 제시하도록 한다.
본 발명의 실시예들은, 인간 행위자와 주위 환경 요소로 이루어진 인간-환경시스템에서 생태학적 행동이론의 바탕이 되는 어포던스(affordance) 이론에 입각하여 환경의 행동유발인자(affordance)와 인간의 행동가능성(effectivity)의 쌍으로 모델링하고, 복잡하고 동적인 인간-환경시스템(human-environment system)에서 인간의 행동을 행동유발인자와 행동가능성가 동일 시공간에 존재 경우를 계산하여 인간 행동 가능성을 사전에 관찰, 예측, 통제할 수 있는 시스템을 디자인할 수 있게 하는 인간 행동패턴 인식 방법을 제안하고 있다.
어포던스 이론은 1979년 Gibson에 의해 정의된 이후, 수 십년 동안 심리학과 인지공학에서 인간 행동을 설명하는데 사용되어져 왔다. 어포던스를 설명하기 위해서는 시스템을 인간이 포함된 것으로 간주한다. 즉, 시스템(animal- environmental system)은 인간(human/animal)과 환경으로 구성되며, 어포던스는 인간의 행동이(좋은 결과로든, 나쁜 결과로든) 실현될 수 있도록 환경이 인간에게 제공하는 특성이다. 어포던스를 정의하는데는, 반드시 그와 대응되는 특성인 이펙티비티(effectivity)가 정의된다. 이펙티비티란, 인간이 행동을 실현하기 위해 필요한 능력을 의미한다. 어포던스와 이펙티비티는 항상 쌍으로 존재하며, 이 두 가지 속성이 동일한 시간과 공간에서 병치(juxtaposition) 되어야만 실제 인간의 행동으로 실현이 가능하게 된다.
예를 들어, 인간-계단 시스템을 예시한 도면인 도 1을 참조하면, 어떤 사람이 계단을 올라가는(climb) 행동을 한다고 하면, 환경인 계단(stairs)은 인간에게 어포던스인 '걸어 올라 갈 만함(walkon-ability)'이라는 특성을 제공하고, 인간은 '걸어갈 수 있음(capability to walk)'이라는 이펙티비티를 가지고 있어야 한다. 이 두 가지 특성이 동일 시간 동일과 공간에서 존재할 때, 이 사람은 계단을 올라갈 수 있는 것이다.
이와 같이 어포던스와 이펙티비티는 시스템 모델 안에서 선행조건의 개념으로 포함되게 되는데, 시스템 안의 인간이 이 선행조건들을 인지했는지 여부에 따라 인간의 행동이 발현되는지가 결정되게 된다.
인간-환경 시스템 내에서의 특정 시간과 공간에서만 정의되는 어포던스와 이펙티비티는 동적이고 정성적인 특성들이므로 수학적인 모델을 통해 컴퓨터 시뮬레이션 모델 내에서 정량적으로 정의되기 위해서는 별도의 정형 모델링이 필요하다. 이러한 정형 모델링은 "Turvey, M. T. (1992), Affordances and Prospective Control : An Outline of the Ontology, Ecological Psychology, 4, 173-187."을 통해 소개되어 있으며, 여기서는 발명의 본질에 집중하기 위해 그 구체적인 모델링 방법의 기술은 생략하도록 한다.
어포던스, 이펙티비티, 그리고 병치 함수에 대한 이 같은 정형화된 Turvey의 정의는 컴퓨터 공학적으로 해석되어 오토마타 이론(automata theory) 등과 결합됨으로써 인간-환경 시스템에 대한 컴퓨터 제어 시스템으로 구현될 수 있다. 특히, 어포던스 정형모델링 방법론은 Finite State Automata(FSA)에서의 상태전이를 위한 사전 조건으로 맵핑될 수 있어서 어포던스 개념이 소프트웨어 엔지니어링과 시스템 이론과 결합될 수 있는 기반을 제공한다. 예를 들면, 도 1의 인간-계단 복합시스템의 경우, 오토마타를 기반으로 한 시스템 이론적인 접근에서는 저층(lower level)에서 고층(upper level)로 이동하는 2단계 FSA 모델로 표현될 수 있다.
이와 같은 어포던스 기반 정형모델링 방법론은 계층적인 2단계 FSA 모델로 표현되며, 따라서 계층적인 모델링 구조와 인간-환경 시스템의 동적인 성질을 고려하여, 어포던스 기반의 FSA 모델은 6개의 튜플로 구성된 FSA로 정의될 수 있다. 이와 같은 어포던스 FSA 모델에서의 상태전이를 그림으로 표현하면 도 1의 인간-계단 시스템의 전이 구조를 오토마타를 기반으로 표현한 도 2와 같다. 즉, 이 FSA 모델은 외부 상태 전이(external state transition)와 내부 상태전이(internal state transition)의 2단계의 계층구조로 인간-환경 시스템을 표현한다. 외부 상태 전이는 시스템 내에서 인간의 특정한 행동에 의해서 일어나며 시스템의 실제적인 물리적 변화를 가져온다. 이에 반해 내부 상태 전이는 외부 상태 전이를 실행시키기 위해 만족되어야 하는 사전조건(pre-condition)과 관계된다. 내부 상태전이는 특정한 어포던스(pm)와 이펙티비티(qn) 조합으로 구성되는 2개의 상태들을 연결한다. 이 어포던스와 이펙티비티는 시간에 따라 변하는 속성으로서 환경에서의 물리적인 제약과 인간의 실행능력에 의해 결정되며, 얼마만큼의 시간(tint)이 흐른 후 어포던스와 이펙티비티 상태가 인간의 행동을 유발시킬 수 있는 사전조건인 pm과 qn으로 변하고 이때 병치함수는 pm과 qn 조합에 근거하여 가능한 행동들의 집합을 생성한다. 만일, 특정한 행동 조건하에서 가능한 행동들 가운데 하나가 취해지면, 외부상태전이가 일어나고 시스템의 물리적인 상태가 다음 상태로 전이된다.
도 3은 도 1의 인간-계단 시스템에서 계단이 유실된 상황을 예시한 도면으로서, 인간이 계단을 따라 올라갈 수 있는 행동능력, 즉 이펙티비티를 갖고 있고, 계단의 유실되는 상황에 따라 인간의 인지적 행동유발인자인 어포던스가 다양하게 나타날 수 있음을 예시하고 있다. 예를 들어, 최초에 계단의 상태가 정상적인 경우, 어포던스는 '걸어갈 수 있음(walk-on-able)', '뛰어갈 수 있음(run-on-able)', 및 '점프할 수 있음(jump-on-able)'의 유형이 존재할 수 있으며, 환경의 변화에 따라 새로운 속성(3rd property)이 나타날 수 있다.
도 4는 도 3의 계단이 유실된 인간-계단 시스템을 어포던스 기반의 FSA(finite state automata) 모델로 표현한 도면이다. 도 4를 참조하면, 저층(lower level)에서 걷거나, 점프하거나, 달려서 점프하는 등의 행동에 의해 고층(upper level)으로의 상태 전이가 일어날 수 있으며, 그 외의 경우에는 부상을 입거나 제자리에 머무르는 상황을 예시하고 있다.
이제, 인간의 행동을 예측하는 방법을 구현하기 위한 시뮬레이터를 구성하는 세부 수행 모듈과 각각의 모듈이 활용하는 데이터를 설명한 후, 이후 도 5를 통하여 시뮬레이터가 목표를 수행하기 위한 액션 계획을 수립하고 수립된 계획을 실행하는 과정을 설명하도록 한다. 이러한 시뮬레이터는 어포던스 기반 행동 모델, 에이전트 모델(agent model), 인간행동 플래너(human action planner) 및 이벤트 생성기(event generator)와 같은 수행 모듈을 포함하여 구현될 수 있다.
어포던스 기반 행동 모델은 재난 상황에서의 인간의 행동을 분석 및 예측하기 위한 대피 시뮬레이터의 일 구성으로서, 재난 시스템 안에서의 대피자의 행동과 동적인 환경 요소의 변화를 전체적으로 묘사하는 상태지도(state map)로서의 역할을 수행한다. 이 모델은 재난 시스템의 시간적이고 공간적인 상황 변화뿐 아니라 그 안에서 인간 에이전트가 취할 수 있는 가능한 행동들의 전제 조건을 제공한다. 즉, 이 모델은 재난 시스템에서의 물리적인 요소뿐 아니라 인간의 행동 능력에 대한 이펙티비티와 행위의 환경적인 전제조건이 되는 어포던스 같은 인지적 요소를 정형화하여 표현한다. 즉, 어포던스 기반 행동 모델은 인지공학적인 어포던스 이론(affordance theory)과 시스템공학적인 유한 상태(혹은 이벤트) 모델 방법론을 이용하여 인간-환경시스템을 표현하는 모델로서, 시스템 안에서의 인간의 행동을 표현하고 기술하기 위한 환경 및 단위 공간(방향성)의 스키마를 제공할 뿐만 아니라, 시스템의 목표 상태를 포함하여 인간의 행동 및 환경 에이전트의 이벤트에 의해서 전이될 수 있는 시스템의 전체 상태를 정의한다.
에이전트 모델은 인간 에이전트(human agent)와 환경 에이전트(environment agent) 등으로 구성될 수 있다. 예를 들어, 인간 에이전트는 재난 시스템 내에서 활동하는 각각의 대피자를 표현하며, 각 에이전트는 출구까지 무사한 탈출이라는 목표를 가지고 행동한다. 환경 에이전트는 불이나 연기와 같이 사람의 판단에 영향을 미치는 환경요소로서 동적인 환경 속에서 정해진 물리적인 법칙들(예를 들어, 시간에 따른 화재의 전파나 계단의 유실 등이 될 수 있다.)에 근거하여 환경의 변화를 갱신시킨다. 즉, 통제함수(governing equations)를 사용하여 환경변수의 동적인 변화량을 계산함으로써 환경 에이전트의 특성을 시간에 따라 표현한다. 인간 에이전트의 경우는 앞에서 기술한 바와 같이 목표에 기반한 행동을 한다. 예를 들어, '유실된 계단을 따라 저층으로부터 고층으로 이동' 또는 '출구까지의 무사한 탈출'이라는 목표를 이루기 위하여 인지 가능한 행동 기회들을 미리 예측함으로써 자신이 취할 일련의 행동들에 대한 계획을 수립하도록 프로그래밍 된다. 이 과정에서 인간 에이전트는 재난 환경의 구조와 공간 배치 등과 같이 사전에 알 수 있는 정적인 지식을 바탕으로, 환경 에이전트와의 상호작용을 통해 얻은 어포던스와 이펙티비티에 대한 동적인 인지적 정보를 이용하여 현재 위치에서 목표 지점까지 무사히 가기 위한 가능한 행동들의 순서를 계획함으로써 대피 경로를 수립하고 이동해 나간다. 이때, 어포던스와 이펙티비티는 환경 에이전트가 제공하는 정보들(공간, 상태, 시간 등)을 입력으로 한 인간 에이전트의 평가의 결과이고, 두 에이전트 모델은 시뮬레이션 상에서 별개로 동작하지만, 동일 공간과 시간에서의 정보는 공유하게 된다.
인간 행동 플래너는 인간 에이전트에 내재 또는 연결된 수행 모듈로서, 인간의 탈출 경로 분석에 대한 사고 과정을 모사하고, 출구까지의 안전한 탈출을 위한 대피 경로를 생성해주는 역할을 수행한다. 인간의 행동은 인지에 기반한 판단을 바탕으로 이루어진다고 할 때, 이는 인간과 환경의 상호작용의 결과로 나타난다. 이와 같은 인지에 기반한 인간 행동을 대피 시뮬레이션에서 반영하고자 할 때에는 '인지 범위(perceivable boundary)'를 고려하여야 한다. 인간은 재난과 같은 위급한 상황을 만났을 때, 대개 자신의 주위에 있는 인지범위 내의 정보를 바탕으로 가능한 행동 방향을 판단하게 된다. 하지만, 목표지점인 출구가 멀리 떨어져 있는 상황에서는 인지범위 밖의 상황을 인지하기 힘들기 때문에 건물구조 등 자신이 처한 환경에 대한 사전지식을 바탕으로 판단할 수 밖에 없다. 따라서 인간 행동 플래너는 인지 범위 내에 있는 위험이나 장애물과 같은 환경적인 제약 사항에 대한 인지와 인지범위 밖의 환경 구조물에 대한 사전지식을 바탕으로, 대피자의 행동계획을 생성한다. 예를 들어 창고 건물 내에 화재가 발생한 상황을 가정한다면, 창고의 구조에 관한 기하정보 및 출구에 관한 위치정보가 결정이 되면, 각 셀로부터 출구까지의 고정적인 거리를 나타내는 정적 플로어 필드 지표(Static Floor Field Indicator; SFFI)값이 할당될 수 있다. 즉, 출구에 가까울수록 해당 셀의 SFFI 지표값은 작아지게 되고, 이 값은 각 대피자에게 출구로 가는 방향을 알려준다. 즉 대피자는 기본적으로 이 수치가 낮아지는 방향으로 이동을 전개하게 되며, SFFI가 '0'에 수렴하면 대피자는 목표지점에 도달한 것으로 간주되는 것이다. 만일, 해당 셀에 보관품이 적치되어있거나 불이 이미 번져 있을 경우에는 대피자가 그 셀로는 이동할 수 없으므로(즉 해당 셀은 이동 가능성의 어포던스가 존재하지 않게 설정된다.), 그 셀에는 매우 큰 값(예를 들어, '9999'이 될 수 있다.)을 부여하여 이동을 제한할 수 있다.
이벤트 생성부는 시뮬레이션 모델 상에서 인간 에이전트 및 환경 에이전트의 행동을 실행시키는 역할을 한다. 어포던스 기반 행동 모델은 그 자체가 목표 시스템의 기술 모델(descriptive model)이기 때문에 시뮬레이션 상에서 동적으로 전개되는 상황 변화에 따라 상태 공간에서 인간 에이전트와 환경 에이전트의 움직임을 유도하기 위해서는 이벤트 생성부가 필요하다. 이를 위해 이벤트 생성부는 인간 행동 플래너에 의해 미리 만들어진 대피자의 행동계획인 대피 경로를 따라 환경요소의 상태에 대한 인간의 실시간 인지정보를 바탕으로 인간 및 환경 에이전트의 움직임을 유도할 수 있는 이벤트들을 생성한다. 이때 인간의 행동 능력에 대한 인지적인 성질인 이펙티비티와 행동의 환경적인 전제조건이 되는 어포던스는 대피자의 행동을 촉발하는(triggering) 통제 변수로서 역할을 한다.
요약하건대, 상기 이벤트 생성부는 시스템 내 미리 구조화된 데이터를 통해 연산되는 인간의 환경 내 행동가능 상태(어포던스와 이펙티비티가 한 공간에 동시에 존재)에 대한 정보를 기반으로 에이전트 모델에서 예측된 인간의 가능한 행동을 실행시키기 위하여 어포던스 기반 행동 모델에서 제공하는 정형화된 스키마 상에서 이벤트(인간의 행동, 환경의 변화)를 실행시킨다. 이때, 어포던스 기반 스키마는 목표 시스템의 기술 모델(descriptive model)이기 때문에, 예측 모델로 사용하기 위해서는 실행되는 이벤트에 기반하는 동적인 상황에 따라 이벤트를 생성해 주어야 한다.
이러한 시뮬레이터는 적어도 하나 이상의 프로세서(processor)를 구비한 연산 장치를 이용하여 구현될 수 있으며, 상기된 실행 모듈이 수행하는 일련의 연산을 처리할 수 있는 소프트웨어 코드가 부가된다. 따라서, 연산의 처리를 위해 환경 정보나 임시 데이터가 저장될 수 있는 저장장치 또는 메모리가 더 구비될 수 있다.
이하에서는 상기된 어포던스 기반 행동 모델을 이용하여 인간이 주어진 환경에서 동적인 상호 작용을 통해 주어진 목표를 해결하기 위한 행동을 수행하는 과정을 예측하기 위한 어포던스 기반의 시뮬레이터의 동작 방식을 설명한다.
도 5는 본 발명의 일 실시예에 따른 인간의 행동을 예측하는 방법에서 목표를 수행하기 위한 액션(action)을 선택하는 과정을 개괄적으로 도시한 블록도로서, 에이전트(510)에 대한 속성(515) 정보를 입력받아 이로부터 어포던스 기반의 액션 데이터베이스(520)를 생성하고, 생성된 액션에 기반하여 일련의 액션 선택 과정을 제시하고 있다.
속성(515) 정보는 인간 에이전트(510)의 행동을 예측하는데 필요한 각종 정보로 구성될 수 있는데, 예를 들어 신념(belief), 희망(desire), 힘(strength), 약점(weakness), 목표(goal) 및 선호(preference) 등의 정보를 포함할 수 있다. 따라서, 이러한 속성(515) 정보는 개인화된 정보로서 대상자마다 차별적으로 축적될 수 있다.
앞서 기술한 바와 같이 시뮬레이터는 입력된 속성(515) 정보에 기초하여 인간 에이전트(510)에 대해 수행 가능한 액션을 생성하여 액션 데이터 베이스(520) 내에 저장한다.
이제, 시뮬레이터는 2 종류의 필터를 사용하여 실행 계획을 수립하고 실행하는데, 계획 레벨 필터링(535)과 실행 레벨 필터링(545)이 바로 그것이다.
시뮬레이터는 주어진 목표를 달성하기 위해 인간 에이전트(510)가 수행 가능한 액션을 액션 데이터베이스(520)를 참고하여 실행 계획(530)을 생성하되, 계획 레벨 필터링(535)을 활용한다. 이러한 계획 레벨 필터링(535)은 어떤 스케일에서 희망하는 목표를 달성하는데 필요한 행동의 예상 어포던스에 기반한 심리적 필터를 포함한다. 즉, 본 발명의 실시예들은 인간이 단지 물리적으로 실행 가능한 실행 계획만을 생성하는 것이 아니라, 해당 인간의 개인적인 특성을 고려한 심리적인 필터를 함께 적용하여 실행 계획을 생성한다. 이 과정에서 실행 계획의 후보로서 복수 개의 어포던스에 대한 가능성 확률이 산출되게 되며, 그 값은 소요 에너지(energy)와 소요 시간(time)에 기반한 비용에 따라 결정된다. 보다 구체적인 필터의 구성은 이후 도 7을 참조하여 설명하도록 한다.
한편, 시뮬레이터는 실행 계획(530) 생성 과정을 통해 예측된 어포던스를 그대로 채택하여 사용하는 것이 아니라, 실행 레벨 필터링(545)을 통해 실행에 적합하도록 어포던스의 선호 확률을 조정하여 실행(540)한다. 이러한 실행 레벨 필터링(545)을 통해 실시간으로 인지된 결과에 기반하여 예측된 어포던스와의 차이를 보정할 수 있다. 보다 구체적인 필터의 구성은 이후 도 8을 참조하여 설명하도록 한다.
마지막으로, 실행(540) 결과 주어진 목표가 달성되었는지 여부(550)를 판단하여, 만약 목표가 달성되지 못하였다면, 다시 액션 데이터베이스(520)에 해당 어포던스와 결과를 피드백한 후, 새로운 실행 계획(530)을 준비한다.
이상에서 도 5를 통해 간략히 기술한 바와 같이, 이하에서 제시되는 본 발명의 실시예들은 계획 레벨(planning level)에서의 선호 기반의 행동 선택 모듈(preference-based filter)과 실행 레베(execution level)에서의 인지(perception) 기반의 행동 선택 모듈(psychological filter)의 개념이 융합된 에이전트 모델(agent model) 개념에 기초하고 있다. 따라서, 이러한 두 개의 상이한 필터의 사용으로 인해 인간 행동의 선택 가능성이 단지 어포던스가 존재하는지 여부에 따라 결정되는 것이 아니라, 어떤 어포던스가 선택될 가능성이 높은지에 관한 연속적인 확률 값으로 표현되게 된다. 특히, 이러한 어포던스에 대한 확률은 환경의 동적 변화에 따라 실시간으로 변화하게 된다.
요약하건대, 이하에서 기술되는 본 발명의 실시예들은 인간 행동을 모사할 수 있는 시뮬레이션 모델의 개념에 관한 것으로, 동적으로 변화하는 환경 내에서 둘 이상 다수의 행동에 대한 선택 옵션이 존재할 때, 각각의 인간 에이전트가 갖는 선호(preference)와 위험에 대한 인지(perception) 정도에 따른 차별적이고 선택적인 행동 특성을 표현하고자 한다. 이를 통해 본 발명의 실시예들은 인간 개인이 선호하는 행동 선택의 경향을 모델링할 수 있으며, 이를 통해 훈련 레벨(training level)과의 인과성을 밝힘으로써 훈련 계획 수립에 활용하고자 한다.
도 6은 본 발명의 일 실시예에 따른 어포던스 확률에 기반하여 인간의 행동을 예측하는 방법을 도시한 흐름도로서, 적어도 하나의 처리기(processor)를 구비한 시뮬레이터가 다음의 일련의 과정을 수행할 수 있다.
S610 단계에서, 시뮬레이터는 인간과 환경이 상호작용하는 환경 내에서 상기 인간의 인지적 행동유발인자를 나타내는 어포던스(affordance)와 상기 인간의 행동능력을 나타내는 이펙티비티(effectivity)를 이용하여 인간의 행동을 모델링하고, 상기 인간이 활동하는 환경에 대한 물리적인 법칙에 따른 이벤트와 환경의 상태를 이용하여 상기 환경을 모델링한다.
S620 단계에서, 상기 시뮬레이터는 주어진 목표를 수행하기 위해 물리적이고(physical) 심리적인(psychological) 비용 기반의 필터를 이용하여 복수의 어포던스에 대한 계획 레벨(planning level)의 실행 가능성을 산출한다.
앞서 설명한 바와 같이, 물리적 비용 이외에 에이전트의 의사 결정에 영향을 미치는 다른 요인들이 있다. 예를 들어, 에이전트는 더 많은 스트레스 받는 것보다는 적게 스트레스 받는 행동을 선호한다. 특히, 인간의 의사 결정에는 심리적 비용 효과가 참조된다는 연구가 있는데, 이와 마찬가지로 본 발명의 실시예들은 앞서 언급한 물리적 비용 기반 행동 선택과 심리적 비용을 통합하여 실행 계획을 생성하였다. 이를 위해, 물리적 비용을 기반으로 한 다양한 행동들을 평가 후, 시뮬레이터 모델은 인간의 행동 선택 모델이 제시한 틀 안에서 심리적 요인을 필터링하는 비용 기반의 필터를 채택하고 있다. 이 비용 기반의 필터는 계획 수준뿐만 아니라 실행 과정에서 주관적인 인식과 환경의 어포던스와 에이전트의 이펙티비티를 해석하는데 사용된다.
S630 단계에서, 상기 시뮬레이터는 환경 변화에 따른 실시간 인지(real-time perception) 필터를 이용하여 실행 레벨(execution level)의 어포던스에 대한 선호 확률을 산출한다. 인간 에이전트는 반드시 S620의 계획 단계에서 고안된 루트(route)에 따를 필요는 없다. 이에 대신하여 인간 에이전트는 새로 얻은 인지 정보를 기반으로 자신의 결정을 업데이트하여 환경의 변화에 따른 실제 상황에 적용할 수 있도록 할 필요가 있다. 바로 이러한 과정이 S630 과정의 실시간 인지 필터를 통해 이루어지게 된다.
S640 단계에서, 상기 시뮬레이터는 상기 산출된 선호 확률에 기초하여 상기 인간이 수행하여야 할 선택적 행동의 실행을 유도한다. 이때, 상기 선택적 행동은 인간이 갖는 선호(preference)와 위험에 대한 인지 정도에 따라 개인별로 차별적으로 결정된다.
나아가, 선택적 행동의 실행 결과 주어진 목표가 달성되지 못한 경우, 상기 시뮬레이터는 상기 계획 레벨의 실행 가능성을 산출하는 단계(S620) 및 상기 실행 레벨의 선호 확률을 산출하는 단계(S630)를 반복하는 것이 바람직하다.
도 7은 본 발명의 일 실시예에 따른 도 6의 인간의 행동 예측 방법에서 계획 레벨의 실행 가능성을 산출하는 과정만을 발췌하여 구체적으로 도시한 흐름도이다.
앞서 설명한 바와 같이 계획 수준의 필터는 어떤 스케일에서 원하는 목표를 만드는 데 필요한 행동의 예상 어포던스에 기반한 심리적 필터이다. S610 단계에 이어, S621 단계는 예상되는 어포던스와 이펙티비티를 기반으로 한 불가능한 행동을 필터링하는 것부터 시작된다. 행동 데이터베이스의 각 행동을 고려하여, 각 동작들은 어포던스와 이펙티비티 모두에 대해 이진의 점수(binary score)가 주어진다. 예를 들어, 에이전트가 계단 올라가는 상황을 가정하면, 만약 그가 계단 오르는 물리적 능력을 가졌다면 그의 이펙티비티의 이진 점수는 '1'이고, 만약 그가 주어진 환경에 놓여 있는 계단에 오를 수 있다면 어포던스의 점수는 '1'이다. 만약 계단이 파손되어 있는 경우, 이러한 장애 환경은 에이전트로 하여금 계단에 오르는 것을 불가능하게 하기 때문에 어포던스 점수는 '0'이 되어야 한다.
이와 같이 계획 수준에서 다양한 단서와 이전의 경험을 통해 직접 인식하지 않고 어포던스와 이펙티비티 모두를 가상화하고 근사화하는 것을 표현하는 것은 중요하다. 가능한 행동 중에서 어떤 것들은 이 행동들을 수행하는데 있어서 에너지와 시간뿐만 아니라 다른 심적인 측면에서 상대적으로 다른 것들보다 선호도와 선택 가능성이 더 높은 경향을 가질 수 있다. 본 발명의 실시예들에서는 인간이 받은 어떠한 행동에 대한 스트레스, 주의 또는 다른 정신적이고 정서적 비용을 함수화하여 심적인 수준을 정의한다. 예상되는 심적 수준을 이용하여 정의된 비용 기반의 필터
Figure 112014060078987-pat00001
을 사용하여 인간 에이전트가 수행 가능한 행동들을 필터링한다. 필터
Figure 112014060078987-pat00002
은 에이전트와 환경 모두를 고려하여 행동을 추측해내는 수치 필터로서, 계획 수준에서 주어진 행동에 대한 에이전트의 상대적인 성과 및 환경 조건의 두 숫자 분포의 곱으로 표현될 수 있다. 변수
Figure 112014060078987-pat00003
을 주어진 환경에서 특정 작업을 수행하기 위한 복잡성을 나타내기 위한 지표로 설정하자. 그러면, 변수
Figure 112014060078987-pat00004
은 지정된 상태에서 주어진 환경에 주어진 작업을 수행하기가 정신적으로 얼마나 쉬운지 보여준다. 따라서, 변수
Figure 112014060078987-pat00005
는 스트레스 정도가 최고 수위인 '0(extremely stressful)'에서 스트레스가 없는 상태인 '1(stress free)'까지의 연속적인 값 중 어느 하나를 취할 수 있다.
따라서 더 정신적으로 도전적인 작업은 상대적으로 낮은 평가를 얻는다. 구체적으로, 아주 스트레스가 높거나 많은 주의가 필요한 특정한 상황이나 환경에서 작업을 수행할 경우
Figure 112014060078987-pat00006
값에 더 낮은 등급이 주어진다. 스트레스가 낮을수록 p값은 높아진다. 따라서 스트레스 없는 상태는
Figure 112014060078987-pat00007
값이 거의 1에 가까운 값을 의미한다. 환경뿐만 아니라, 인간 에이전트 개인의 성향은 행동 선택에 매우 중요한 역할을 하게 된다. 앞서 설명한 바와 같이 필터
Figure 112014060078987-pat00008
은 다음의 수학식 1과 같이 지정된 행동에 대한 주어진 환경 점수뿐만 아니라 에이전트 점수의 곱으로 표현될 수 있다.
Figure 112014060078987-pat00009
여기서,
Figure 112014060078987-pat00010
는 해당 액션에 대한 어포던스-이펙티비티의 수행 가능 여부에 따라 '1' 또는 '0'의 이진 값이 부여된다. 즉, 수행 가능하다면 '1'이 부여되고, 수행 불가능하다면 '0'이 부여된다. 결과적으로
Figure 112014060078987-pat00011
값은 필터
Figure 112014060078987-pat00012
에 대한 초기 필터링 역할을 수행하게 된다.
Figure 112014060078987-pat00013
는 주어진 상태 내에서 주어진 환경에서 주어진 액션을 수행하기 위해 정신적으로 얼마나 쉬운지 정도(how mentally easy)를 나타내는 난이도 점수이다. 또한,
Figure 112014060078987-pat00014
는 주어진 상태 및 주어진 환경에서 인간 에이전트가 갖는 전문 지식, 기술, 위험을 받아들이는 행동 및 기타 다른 주관적인 장단점의 상대적인 레벨(level)을 나타내는 에이전트 점수이다. 이상에서
Figure 112014060078987-pat00015
Figure 112014060078987-pat00016
은 그 정도에 따라 다음과 같이 각각 '0'에서 '1' 사이의 값을 가지도록 설계될 수 있다.
Figure 112014060078987-pat00017
한편, 이러한
Figure 112014060078987-pat00018
의 값을 결정하기 전에 다른 에이전트를 비교해서 참조 에이전트(referenced agent)를 결정해야 한다. 참조 에이전트는 평균 에이전트의 특성을 가진 대표적인 에이전트이어야 하며,
Figure 112014060078987-pat00019
값은 '0.5'가 되어야 한다. 이러한 의미에서 참조 에이전트보다 더 많은 장점을 갖고 있거나 참조 에이전트와 비교해 주어진 행동에 더 열의를 갖고 있는 일부 에이전트들은
Figure 112014060078987-pat00020
의 값이 '0.5'보다 높을 것이다. 대조적으로 만약 에이전트가 참조 에이전트와 비교하여 단점을 가지고 있으면
Figure 112014060078987-pat00021
의 값은 '0.5'보다 작을 것이다. 장점 또는 편애가 다른 에이전트와 달리 그것은 전문 지식, 체력, 위험 행동들을 얼마나 잘 수행할 수 있는지 등을 기반으로 하고 있다.
이제, 수학식 1과 같이 정의된 필터를 비용 기반의 선택 함수에 적용하여 계획 레벨의 실행 가능성(action probability)을 다음의 수학식 2와 같이 산출할 수 있다.
Figure 112014060078987-pat00022
요약하건대, 계획 레벨의 실행 가능성을 산출하는 과정은, 주어진 목표를 수행하기 위해 필요한 행동의 예상 어포던스와 이펙티비티에 기초하여 상기 인간이 수행 불가능한 행동을 필터링하고, 주어진 환경에서 상기 주어진 목표를 수행하기 위한 정신적인 난이도와 상기 인간의 주관적인 수용 능력을 고려하여 소요 에너지와 소요 시간에 기반한 실행 계획을 생성함으로써 수행된다.
여기서, 상기 비용 기반의 필터는, 상기 주어진 목표를 수행하기 위해 필요한 행동의 예상 어포던스와 이펙티비티에 따른 수행 가능성을 나타내는 이진(binary)의 가능성 지수, 주어진 환경에서 상기 주어진 목표를 수행하기 위한 정신적인 난이도 지수 및 상기 인간의 주관적인 수용 능력 지수의 곱으로 설정될 수 있다. 또한, 상기 정신적인 난이도는 주어진 환경에서 상기 주어진 목표를 수행하기 위한 행동에 대한 스트레스, 주의 및 복잡도 중 적어도 하나를 정서적 비용으로 나타낸 숫자로 설정되며, 상기 주관적인 수용 능력은 주어진 환경에서 상기 주어진 목표를 수행하고자 하는 인간의 전문 지식, 기술, 위험을 받아들이는 행동 및 주관적인 장단점 중 적어도 하나를 참조 에이전트(referenced agent)와 대비하여 상대적인 수준으로 나타낸 숫자로 설정될 수 있다.
도 8은 본 발명의 일 실시예에 따른 도 6의 인간의 행동 예측 방법에서 실행 레벨의 어포던스에 대한 선호 확률을 산출하는 과정만을 발췌하여 구체적으로 도시한 흐름도이다.
앞서 설명한 바와 같이, 에이전트는 반드시 계획 단계에서 고안된 길대로 따를 필요는 없다. 그 대신 에이전트는 새로 얻은 정보를 기반으로 자신의 결정을 업데이트하여 실제 상황에 적용할 수 있도록 한다. 일부 에이전트는 일부 보수적인 행동을 보이거나 계획에 충실하려는 동안 예상되는 환경과는 대조적인 실제 사실과 실제 환경을 고려하는 것이 불가피하다. 계획 수준에서 인간 에이전트들은 가상의 시공 차원에서 목표 상태에 도달하는데 도움이 될 구체적인 행동의 기회를 기대한다. 그러나 어포던스-이펙티비티의 실제 행동 기회는 특정 시간과 공간에서만 가능하다. 예상되는 환경의 상황은 변화할 수 있으며, 그것은 필연적으로 에이전트가 수시로 목표 상태에 도달하기 위해 계획의 변경을 유도한다.
예상되는 환경과 실제 환경 사이의 변화를 설명하기 위해 에이전트는 두 번째 필터
Figure 112014060078987-pat00023
을 채택하였다. 필터
Figure 112014060078987-pat00024
는 에이전트의 계획 수준에서 기대하였던 예상 어포던스와는 대조적인 환경의 어포던스에 대한 실시간 인식을 담당한다. 계획 수준에서 고안된 기대 행동 기회가 실시간 어포던스와 일치하는 경우 에이전트는 계획 수준에서 결정된 것을 지켜야 한다. 따라서
Figure 112014060078987-pat00025
는 어포던스-이펙티비티의 존재가 예상보다 적을 가능성이 높은 모든 작업을 처리해야 한다. 또는
Figure 112014060078987-pat00026
는 어포던스-이펙티비티가 예상보다 많다면 더욱 행동을 촉진해야 한다.
Figure 112014060078987-pat00027
의 점수는 인지 경계뿐만 아니라 물리적 경계 영역을 가진다.
Figure 112014060078987-pat00028
는 실시간으로 실제 에이전트 환경의 상호 작용을 완전히 반영하기 위해
Figure 112014060078987-pat00029
값을 조정하게 된다. 이제
Figure 112014060078987-pat00030
는 다음의 수학식 3과 같이 정의될 수 있다.
Figure 112014060078987-pat00031
여기서,
Figure 112014060078987-pat00032
는 해당 액션에 대한 어포던스-이펙티비티의 수행 가능 여부에 따라 '1' 또는 '0'의 이진 값이 부여된다. 즉, 수행 가능하다면 '1'이 부여되고, 수행 불가능하다면 '0'이 부여된다. 결과적으로
Figure 112014060078987-pat00033
값은 필터
Figure 112014060078987-pat00034
에 대한 초기 필터링 역할을 수행하게 된다.
Figure 112014060078987-pat00035
는 실제 어포던스 점수를 나타내고,
Figure 112014060078987-pat00036
는 실제 이펙티비티 점수를 나타낸다.
Figure 112014060078987-pat00037
가 계획 레벨에서의 주어진 목표를 수행하기 위한 액션의 확률을 나타낸다면, 실행 레벨에서의 어포던스에 대한 선호 확률은 다음의 수학식 4와 같이 정의될 수 있다.
Figure 112014060078987-pat00038
즉, 수학식 4를 참조하면, 계획 레벨에서 생성된 실행 계획을 구성하는 어포던스에 대한 확률을 실행 레벨에서 실시간으로 인지된 환경의 변화를 반영한 어포던스의 확률로 갱신하게 된다.
요약하건대, 실행 레벨의 어포던스에 대한 선호 확률을 산출하는 과정은, 주어진 목표를 수행하기 위해 필요한 행동의 어포던스와 이펙티비티에 기초하여 실시간으로 인지된 환경의 변화에 따라 인간이 수행 불가능한 행동을 필터링하고, 실시간 어포던스 순위 및 실시간 이펙티비티 순위를 고려하여 상기 계획 레벨의 실행 가능성을 조정함으로써 실행 레벨의 어포던스에 대한 선호 확률을 산출함으로써 수행된다.
여기서, 실시간 인지 필터는, 환경 조건 및 인간이 감각으로 인지할 수 있는 범위를 나타내는 인간의 인지 경계(perceivable boundary) 및 물리적 경계(physical boundary)를 설정함으로써, 설정된 상기 인지 경계 내의 어포던스에 기초하여 상기 실행 계획을 생성하게 된다. 또한, 상기 실시간 인지 필터는, 상기 계획 레벨에서 예측된 어포던스와 상기 실행 레벨의 실시간 어포던스가 일치하지 않는 경우, 상기 계획 레벨의 실행 가능성을 보정하여 실시간으로 변환하는 환경에 대응하는 행동을 수행하도록 유도하게 된다.
도 9는 본 발명의 일 실시예에 따른 물리적 필터 및 심리적 필터를 이용하여 주어진 목표를 수행하기 위한 어포던스에 대한 확률을 산출하는 과정을 도시한 블록도이다.
도 9를 참조하면, 먼저 액션 데이터베이스(910)에는 인간 에이전트에 대한 속성 정보로부터 추출된 실행 가능한 어포던스와 이펙티비티가 저장되며, 예상 어포던스(915)와 시간에 의존적인(time-dependent) 이펙티비티(917)를 참고하여, 가능한 액션(920)이 선택된다. 그런 다음, 가능한 액션(920)으로부터 물리적 비용(physical cost)(925)을 고려하여 산출된 비용 기반의 선택이 이루어진 후, 비용 기반 실행 확률(action probability: cost-based)(930)이 획득된다.
이제 심리적 비용(psychological cost)(931), 선호(preference)(932) 및 감정(emotion)(033) 등과 같은 요소를 고려하여 예상 어포던스(935)를 참조한 첫 번째 필터
Figure 112014060078987-pat00039
를 통해 계획 레벨의 실행 확률(940)이 산출된다. 마찬가지로, 심리적 비용(psychological cost)(931), 선호(preference)(932) 및 감정(emotion)(033) 등과 같은 요소를 고려하여 인식 어포던스(945)를 참조한 두 번째 필터
Figure 112014060078987-pat00040
를 통해 실행 레벨의 선호 확률(950)이 산출된다.
이상과 같은 일련의 연산을 통해 본 발명이 실시예들이 구현되는 시뮬레이터는 다음과 같은 효과를 달성할 수 있다.
첫째, 재난, 사고, 교통흐름, 전쟁 등의 재현 실험이 불가능한 상황에서 인간이 어떻게 행동을 취할 것이며, 그 결과로 건물의 구조와 같은 환경의 설계를 어떻게 개선 가능한지에 대한 단초를 제공할 수 있으며, 이에 따라 소방 방재시스템, 건축, 토목, 건설, 교통, 군사 등 여러 분야에서 효과적인 시스템 설계와 운용을 위한 예측과 분석 능력의 향상에 크게 기여할 것이다.
둘째, 생태 심리학자들이 개발한 인지에 기반한 인간행동 의사결정 이론을 이용함으로써 기존의 건물 및 도시 시설의 방재 설계에 주로 사용되는 피난 시뮬레이션 소프트웨어인, Simulex®, BuildingExodus®, Pathfinder® 등에서 고려하지 못하고 있는 동적인 환경 요소의 변화에 따른 인간의 인지적 정보 변화 및 그에 따른 인간 행동 패턴을 대피 시뮬레이션 등에서 실시간 고려할 수 있는 효과가 있다.
셋째, 기존의 상용 시뮬레이션에서는 정적인 구조물 내에서 대피자(에이전트)가 단순한 규칙에 기반하여 미리 생성된 대피경로를 따라 이동하게 되어 있으나, 본 발명은 급박하고 동적으로 변화하는 환경요소를 에이전트화 함으로써, 대피자(인간 에이전트)가 자신의 주위에 있는 환경요소(환경 에이전트)와의 인지적 상호작용을 바탕으로 대피 경로를 설정하기 때문에 훨씬 사실적으로 인간의 행동을 모사할 수 있는 효과가 있다.
넷째, 인간의 인지적 행동유발인자인 어포던스와 행동 능력인 이펙티비티를 대피 시뮬레이션에서 고려함으로써, 동적인 재난 환경에서 대피자의 행동을 보다 사실적으로 표현하고 모사할 수 있으므로, 대피 상황뿐 아니라, 화재진화, 대테러 군사적전 등 복잡하고 급박한 상황 변화에 대처하는 인간의 행동 패턴을 예측, 분석할 필요가 있는 분야에 적용 가능하다.
다섯째, 인간의 행동을 모사함에 있어서, 단지 물리적인 조건뿐만 아니라, 인간 개인의 심리적이고 정서적인 성향을 반영함으로써 개인별로 차별화된 행동 양상을 모델링하는 것이 가능하다.
이하에서는 상기된 인간의 행동을 예측하는 방법을 활용하여 위기/재난 상황을 위한 교육에 활용하는 방법을 제안하도록 한다.
도 10은 본 발명의 다른 실시예에 따른 어포던스 확률에 기반하여 인간의 행동 예측에 기반하여 훈련 계획을 수립하는 방법을 도시한 흐름도로서, 앞서 도 6을 통해 설명한 일련의 인간 행동 예측 방법을 다수의 대상자에 적용하는 상황을 가정한다. 따라서, 여기서는 설명의 중복을 피하기 위해 개인별 행동을 예측하는 과정에 대해서는 약술하되, 이후 훈련 레벨을 평가하고 재교육 계획을 생성하는 과정을 중심으로 각 단계를 설명하도록 한다.
S1010 단계에서, 시뮬레이터는 복수의 대상에 대하여 인간의 행동 예측 방법을 수행하여 각각 주어진 목표에 대하나 개인별 행동을 예측한다. 보다 구체적으로 이러한 인간의 행동 예측 방법은, 인간과 환경이 상호작용하는 환경 내에서 상기 인간의 인지적 행동유발인자를 나타내는 어포던스(affordance)와 상기 인간의 행동능력을 나타내는 이펙티비티(effectivity)를 이용하여 인간의 행동을 모델링하고, 상기 인간이 활동하는 환경에 대한 물리적인 법칙에 따른 이벤트와 환경의 상태를 이용하여 상기 환경을 모델링하며, 주어진 목표를 수행하기 위해 물리적이고(physical) 심리적인(psychological) 비용 기반의 필터를 이용하여 복수의 어포던스에 대한 계획 레벨(planning level)의 실행 가능성을 산출하고, 환경 변화에 따른 실시간 인지(real-time perception) 필터를 이용하여 실행 레벨(execution level)의 어포던스에 대한 선호 확률을 산출하고, 상기 산출된 선호 확률에 기초하여 상기 인간이 수행하여야 할 선택적 행동의 실행을 유도하게 된다.
여기서, 상기 계획 레벨의 실행 가능성은, 상기 주어진 목표를 수행하기 위해 필요한 행동의 예상 어포던스와 이펙티비티에 기초하여 상기 인간이 수행 불가능한 행동을 필터링하고, 주어진 환경에서 상기 주어진 목표를 수행하기 위한 정신적인 난이도와 상기 인간의 주관적인 수용 능력을 고려하여 소요 에너지와 소요 시간에 기반한 실행 계획을 생성함으로써 산출된다.
또한, 상기 선호 확률은, 상기 주어진 목표를 수행하기 위해 필요한 행동의 어포던스와 이펙티비티에 기초하여 실시간으로 인지된 환경의 변화에 따라 인간이 수행 불가능한 행동을 필터링하고, 실시간 어포던스 순위 및 실시간 이펙티비티 순위를 고려하여 상기 계획 레벨의 실행 가능성을 조정함으로써 실행 레벨의 어포던스에 대한 선호 확률을 산출함으로써 획득된다.
나아가, 상기 정신적인 난이도는 주어진 환경에서 상기 주어진 목표를 수행하기 위한 행동에 대한 스트레스, 주의 및 복잡도 중 적어도 하나를 정서적 비용으로 나타낸 숫자로 설정되며, 상기 주관적인 수용 능력은 주어진 환경에서 상기 주어진 목표를 수행하고자 하는 인간의 전문 지식, 기술, 위험을 받아들이는 행동 및 주관적인 장단점 중 적어도 하나를 참조 에이전트(referenced agent)와 대비하여 상대적인 수준으로 나타낸 숫자로 설정될 수 있다.
한편, 상기 실시간 인지 필터는, 상기 계획 레벨에서 예측된 어포던스와 상기 실행 레벨의 실시간 어포던스가 일치하지 않는 경우, 상기 계획 레벨의 실행 가능성을 보정하여 실시간으로 변환하는 환경에 대응하는 행동을 수행하도록 유도하는 역할을 수행한다.
S1020 단계에서, 시뮬레이터는 상기 S1010 단계를 통해 예측된 개인별 행동 중, 위험 행동으로 분류된 행동을 선택할 것으로 예상되는 대상자를 선별하여 훈련 레벨을 평가한다. 이러한 선별은 앞서 S1010 단계를 통해 예측된 개인별 행동이 개인마다 선호하는 행동 선택 특성에 따라 차별적으로 나타났다는데 근거한다. 즉, 예측된 개인별 행동은 인간 에이전트 각각의 훈련 레벨에 따라 달라질 수 있음을 의미한다.
S1030 단계에서, 시뮬레이터는 평가된 훈련 레벨이 미리 설정된 임계치 이하인지 여부를 판단하고, 긍정(TRUE)의 경우에는 S1040 단계로 진행하고, 부정(FALSE)의 경우에는 일련의 절차를 종료한다. 즉, 이 과정을 통해 위기 상황에서 위험 행동을 할 여지가 있는 개인을 예상하여 식별할 수 있게 된다.
S1040 단계에서, 시뮬레이터는 훈련 레벨이 임계치 이하인 대상자에 대하여 재교육 계획을 생성한다. 이러한 재교육을 통해 위험 행동이 예상되는 개인에 대한 효과적인 훈련이 가능하게 된다. 이를 위해, 상기 S1010 단계를 통해 예측된 선택적 행동은 인간이 갖는 선호(preference)와 위험에 대한 인지 정도에 따라 개인별로 차별적으로 결정되며, 상기 S1040 단계의 재교육 계획은 상기 위험 행동을 유발하는 어포던스와 개인의 선호에 변화를 유도하도록 설정되는 것이 바람직하다.
상기된 본 발명의 실시예들에 따르면, 자신의 주위 환경에 대한 인지정보를 바탕으로 목표(goal)를 달성하기 위하여 행하는 인간의 적응적인 행동패턴에 대한 모델링과 시뮬레이션을 통하여 재난 상황에 처한 인간-환경시스템에서 인간의 행동을 관찰, 예측, 통제할 수 있는 인간의 인지적 행위유발인자(affordance) 기반의 에이전트 모델을 이용한 인간 행동패턴 인식 방법을 제공할 수 있다.
또한, 인간의 인지적 행위유발인자인 어포던스와 인지적 행동 능력인 이펙티비티를 대피 시뮬레이션에서 고려함으로써, 동적으로 변화하는 재난 환경에서 대피자의 행동을 보다 사실적으로 표현하고 모사할 수 있어, 기존에 사용되는 피난 시뮬레이션 소프트웨어보다 우수한 대피 시뮬레이션 능력을 갖는 인간 행동패턴 인식장치를 제공할 수 있다.
나아가, 본 발명의 실시예들은 개인의 심리적인 특성을 고려하여 개별적인 인간의 행동의 예측이 가능하므로, 보다 위기 상황 하에서의 인간의 행동을 보다 실제적으로 시뮬레이션할 수 있을 뿐만 아니라, 재난 대비 교육을 실시함에 있어서 체계적인 재교육 일정을 수립하는 것이 가능하다.
한편, 본 발명의 실시예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
이상에서 본 발명에 대하여 그 다양한 실시예들을 중심으로 살펴보았다. 본 발명에 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
510 : 에이전트 515 : 속성
520, 910 : 액션 데이터베이스
530 : 실행 계획 535 : 계획 레벨 필터링
540 : 실행 545 : 실행 레벨 필터링
915, 935, 945 : 어포던스 917 : 이펙티비티
920 : 가능한 액션
925 : 물리적 비용 931 : 심리적 비용
932 : 선호 933 : 감정
930 : 비용 기반 실행 확률
940 : 계획 레벨 실행 확률 950 : 실행 레벨 선호 확률

Claims (14)

  1. 적어도 하나의 처리기(processor)를 구비한 시뮬레이터가 인간의 행동을 예측하는 방법에 있어서,
    (a) 시뮬레이터가 인간과 환경이 상호작용하는 환경 내에서 상기 인간의 인지적 행동유발인자를 나타내는 어포던스(affordance)와 상기 인간의 행동능력을 나타내는 이펙티비티(effectivity)를 이용하여 인간의 행동을 모델링하고, 상기 인간이 활동하는 환경에 대한 물리적인 법칙에 따른 이벤트와 환경의 상태를 이용하여 상기 환경을 모델링하는 단계;
    (b) 상기 시뮬레이터가 주어진 목표를 수행하기 위해 물리적이고(physical) 심리적인(psychological) 비용 기반의 필터를 이용하여 복수의 어포던스에 대한 계획 레벨(planning level)의 실행 가능성을 산출하는 단계;
    (c) 상기 시뮬레이터가 환경 변화에 따른 실시간 인지(real-time perception) 필터를 이용하여 실행 레벨(execution level)의 어포던스에 대한 선호 확률을 산출하는 단계; 및
    (d) 상기 시뮬레이터가 상기 산출된 선호 확률에 기초하여 상기 인간이 수행하여야 할 선택적 행동의 실행을 유도하는 단계;를 포함하되,
    상기 (b) 단계는, 상기 주어진 목표를 수행하기 위해 필요한 행동의 예상 어포던스와 이펙티비티에 기초하여 상기 인간이 수행 불가능한 행동을 필터링하는 단계; 및 주어진 환경에서 상기 주어진 목표를 수행하기 위한 정신적인 난이도와 상기 인간의 주관적인 수용 능력을 고려하여 소요 에너지와 소요 시간에 기반한 실행 계획을 생성하는 단계;를 포함하며,
    상기 선택적 행동은 인간이 갖는 선호(preference)와 위험에 대한 인지 정도에 따라 개인별로 차별적으로 결정되는 것을 특징으로 하는 인간의 행동 예측 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 비용 기반의 필터는,
    상기 주어진 목표를 수행하기 위해 필요한 행동의 예상 어포던스와 이펙티비티에 따른 수행 가능성을 나타내는 이진(binary)의 가능성 지수, 주어진 환경에서 상기 주어진 목표를 수행하기 위한 정신적인 난이도 지수 및 상기 인간의 주관적인 수용 능력 지수의 곱으로 설정되는 것을 특징으로 하는 인간의 행동 예측 방법.
  4. 제 1 항에 있어서,
    상기 정신적인 난이도는 주어진 환경에서 상기 주어진 목표를 수행하기 위한 행동에 대한 스트레스, 주의 및 복잡도 중 적어도 하나를 정서적 비용으로 나타낸 숫자로 설정되며,
    상기 주관적인 수용 능력은 주어진 환경에서 상기 주어진 목표를 수행하고자 하는 인간의 전문 지식, 기술, 위험을 받아들이는 행동 및 주관적인 장단점 중 적어도 하나를 참조 에이전트(referenced agent)와 대비하여 상대적인 수준으로 나타낸 숫자로 설정되는 것을 특징으로 하는 인간의 행동 예측 방법.
  5. 제 1 항에 있어서,
    상기 (c) 단계는,
    상기 주어진 목표를 수행하기 위해 필요한 행동의 어포던스와 이펙티비티에 기초하여 실시간으로 인지된 환경의 변화에 따라 인간이 수행 불가능한 행동을 필터링하는 단계; 및
    실시간 어포던스 순위 및 실시간 이펙티비티 순위를 고려하여 상기 계획 레벨의 실행 가능성을 조정함으로써 실행 레벨의 어포던스에 대한 선호 확률을 산출하는 단계;를 포함하는 인간의 행동 예측 방법.
  6. 제 1 항에 있어서,
    상기 실시간 인지 필터는,
    환경 조건 및 인간이 감각으로 인지할 수 있는 범위를 나타내는 인간의 인지 경계(perceivable boundary) 및 물리적 경계(physical boundary)를 설정함으로써, 설정된 상기 인지 경계 내의 어포던스에 기초하여 상기 실행 계획을 생성하는 것을 특징으로 하는 인간의 행동 예측 방법.
  7. 제 1 항에 있어서,
    상기 실시간 인지 필터는,
    상기 계획 레벨에서 예측된 어포던스와 상기 실행 레벨의 실시간 어포던스가 일치하지 않는 경우, 상기 계획 레벨의 실행 가능성을 보정하여 실시간으로 변환하는 환경에 대응하는 행동을 수행하도록 유도하는 것을 특징으로 하는 인간의 행동 예측 방법.
  8. 제 1 항에 있어서,
    선택적 행동의 실행 결과 주어진 목표가 달성되지 못한 경우,
    (e) 상기 시뮬레이터가 상기 계획 레벨의 실행 가능성을 산출하는 단계 및 상기 실행 레벨의 선호 확률을 산출하는 단계를 반복하는 단계;를 더 포함하는 인간의 행동 예측 방법.
  9. 적어도 하나의 처리기(processor)를 구비한 시뮬레이터가 인간의 행동 예측에 기반하여 훈련 계획을 수립하는 방법에 있어서,
    (a) 시뮬레이터가 인간과 환경이 상호작용하는 환경 내에서 상기 인간의 인지적 행동유발인자를 나타내는 어포던스(affordance)와 상기 인간의 행동능력을 나타내는 이펙티비티(effectivity)를 이용하여 인간의 행동을 모델링하고, 상기 인간이 활동하는 환경에 대한 물리적인 법칙에 따른 이벤트와 환경의 상태를 이용하여 상기 환경을 모델링하는 단계;
    (b) 상기 시뮬레이터가 주어진 목표를 수행하기 위해 물리적이고(physical) 심리적인(psychological) 비용 기반의 필터를 이용하여 복수의 어포던스에 대한 계획 레벨(planning level)의 실행 가능성을 산출하고, 환경 변화에 따른 실시간 인지(real-time perception) 필터를 이용하여 실행 레벨(execution level)의 어포던스에 대한 선호 확률을 산출하는 단계;
    (c) 상기 시뮬레이터가 상기 산출된 선호 확률에 기초하여 상기 인간이 수행하여야 할 선택적 행동의 실행을 유도하는 단계;
    (d) 복수의 대상자에 대하여 상기 (a) 내지 (c) 단계를 수행하여 각각 주어진 목표에 대한 개인별 행동을 예측하는 단계;
    (e) 상기 예측된 개인별 행동 중, 위험 행동으로 분류된 행동을 선택할 것으로 예상되는 대상자를 선별하여 훈련 레벨을 평가하는 단계; 및
    (f) 상기 평가된 훈련 레벨이 임계치 이하인 대상자에 대하여 상기 위험 행동을 유발하는 어포던스와 개인의 선호에 변화를 유도하도록 설정되는 재교육 계획을 생성하는 단계;를 포함하되,
    상기 선택적 행동은 인간이 갖는 선호(preference)와 위험에 대한 인지 정도에 따라 개인별로 차별적으로 결정되는 것을 특징으로 하는 훈련 계획의 수립 방법.
  10. 삭제
  11. 제 9 항에 있어서,
    상기 계획 레벨의 실행 가능성을 산출하는 단계는,
    상기 주어진 목표를 수행하기 위해 필요한 행동의 예상 어포던스와 이펙티비티에 기초하여 상기 인간이 수행 불가능한 행동을 필터링하는 단계; 및
    주어진 환경에서 상기 주어진 목표를 수행하기 위한 정신적인 난이도와 상기 인간의 주관적인 수용 능력을 고려하여 소요 에너지와 소요 시간에 기반한 실행 계획을 생성하는 단계;를 포함하는 훈련 계획의 수립 방법.
  12. 제 9 항에 있어서,
    상기 선호 확률을 산출하는 단계는,
    상기 주어진 목표를 수행하기 위해 필요한 행동의 어포던스와 이펙티비티에 기초하여 실시간으로 인지된 환경의 변화에 따라 인간이 수행 불가능한 행동을 필터링하는 단계; 및
    실시간 어포던스 순위 및 실시간 이펙티비티 순위를 고려하여 상기 계획 레벨의 실행 가능성을 조정함으로써 실행 레벨의 어포던스에 대한 선호 확률을 산출하는 단계;를 포함하는 훈련 계획의 수립 방법.
  13. 제 11 항에 있어서,
    상기 정신적인 난이도는 주어진 환경에서 상기 주어진 목표를 수행하기 위한 행동에 대한 스트레스, 주의 및 복잡도 중 적어도 하나를 정서적 비용으로 나타낸 숫자로 설정되며,
    상기 주관적인 수용 능력은 주어진 환경에서 상기 주어진 목표를 수행하고자 하는 인간의 전문 지식, 기술, 위험을 받아들이는 행동 및 주관적인 장단점 중 적어도 하나를 참조 에이전트(referenced agent)와 대비하여 상대적인 수준으로 나타낸 숫자로 설정되는 것을 특징으로 하는 훈련 계획의 수립 방법.
  14. 제 9 항에 있어서,
    상기 실시간 인지 필터는,
    상기 계획 레벨에서 예측된 어포던스와 상기 실행 레벨의 실시간 어포던스가 일치하지 않는 경우, 상기 계획 레벨의 실행 가능성을 보정하여 실시간으로 변환하는 환경에 대응하는 행동을 수행하도록 유도하는 것을 특징으로 하는 훈련 계획의 수립 방법.
KR1020140078880A 2014-06-26 2014-06-26 어포던스 확률에 기반하여 인간의 행동을 예측하는 방법 및 이를 이용한 훈련 계획 수립 방법 KR101624139B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140078880A KR101624139B1 (ko) 2014-06-26 2014-06-26 어포던스 확률에 기반하여 인간의 행동을 예측하는 방법 및 이를 이용한 훈련 계획 수립 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140078880A KR101624139B1 (ko) 2014-06-26 2014-06-26 어포던스 확률에 기반하여 인간의 행동을 예측하는 방법 및 이를 이용한 훈련 계획 수립 방법

Publications (2)

Publication Number Publication Date
KR20160001095A KR20160001095A (ko) 2016-01-06
KR101624139B1 true KR101624139B1 (ko) 2016-05-25

Family

ID=55165029

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140078880A KR101624139B1 (ko) 2014-06-26 2014-06-26 어포던스 확률에 기반하여 인간의 행동을 예측하는 방법 및 이를 이용한 훈련 계획 수립 방법

Country Status (1)

Country Link
KR (1) KR101624139B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220077390A (ko) * 2020-12-02 2022-06-09 삼성전자주식회사 전자 장치 및 이의 제어 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007128377A (ja) 2005-11-07 2007-05-24 Mitsubishi Heavy Ind Ltd 避難者行動予測装置および避難者行動予測方法
KR101273662B1 (ko) 2011-11-30 2013-06-11 국립대학법인 울산과학기술대학교 산학협력단 어포던스 기반 에이전트 모델을 이용한 인간 행동패턴 인식방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007128377A (ja) 2005-11-07 2007-05-24 Mitsubishi Heavy Ind Ltd 避難者行動予測装置および避難者行動予測方法
KR101273662B1 (ko) 2011-11-30 2013-06-11 국립대학법인 울산과학기술대학교 산학협력단 어포던스 기반 에이전트 모델을 이용한 인간 행동패턴 인식방법

Also Published As

Publication number Publication date
KR20160001095A (ko) 2016-01-06

Similar Documents

Publication Publication Date Title
Joo et al. Agent-based simulation of affordance-based human behaviors in emergency evacuation
Ronchi Developing and validating evacuation models for fire safety engineering
Bourhim et al. Efficacy of virtual reality for studying people's pre-evacuation behavior under fire
CN107330147B (zh) 一种地铁车站人员应急疏散仿真方法及系统
Shendarkar et al. Crowd simulation for emergency response using BDI agents based on immersive virtual reality
Moussaïd et al. Crowd behaviour during high-stress evacuations in an immersive virtual environment
Pelechano et al. Evacuation simulation models: Challenges in modeling high rise building evacuation with cellular automata approaches
Bourgais et al. Emotion modeling in social simulation: a survey
Chen et al. Pedestrian evacuation simulation in indoor emergency situations: Approaches, models and tools
Chu et al. Computational framework incorporating human behaviors for egress simulations
Chu et al. SAFEgress: a flexible platform to study the effect of human and social behaviors on egress performance
US20210343084A1 (en) Systems and methods for augmented-or virtual reality-based decision-making simulation
KR101624139B1 (ko) 어포던스 확률에 기반하여 인간의 행동을 예측하는 방법 및 이를 이용한 훈련 계획 수립 방법
Wang et al. Applied artificial bee colony optimization algorithm in fire evacuation routing system
Du et al. Multi-agent based simulation of elderly egress process and fall accident in senior apartment buildings
Hawe et al. STORMI: An agent-based simulation environment for evaluating responses to major incidents in the UK.
Huyen et al. Navigating emergency crowd evacuation using mas-gig model
Ünal et al. Generating emergency evacuation route directions based on crowd simulations with reinforcement learning
KR101273662B1 (ko) 어포던스 기반 에이전트 모델을 이용한 인간 행동패턴 인식방법
Gao et al. An improved optimization model for crowd evacuation considering individual exit choice preference
KR20150084191A (ko) 기억 감퇴에 기반하여 인간의 행동을 예측하는 방법 및 이를 이용한 훈련 계획 수립 방법
Isenhour Simulating occupant response to emergency situations
Munadi et al. Multiagent based tsunami evacuation simulation: a conceptual model
Tissera et al. Simulating Behaviours to face up an Emergency Evacuation
KR20150003574A (ko) 어포던스 및 bdi 기반 에이전트 모델을 이용한 인간 행동패턴 인식방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190408

Year of fee payment: 4