KR20210106885A - 인공지능 기반의 vr 환경에서의 전후진 움직임 탐지 장치 및 방법 - Google Patents
인공지능 기반의 vr 환경에서의 전후진 움직임 탐지 장치 및 방법 Download PDFInfo
- Publication number
- KR20210106885A KR20210106885A KR1020210005108A KR20210005108A KR20210106885A KR 20210106885 A KR20210106885 A KR 20210106885A KR 1020210005108 A KR1020210005108 A KR 1020210005108A KR 20210005108 A KR20210005108 A KR 20210005108A KR 20210106885 A KR20210106885 A KR 20210106885A
- Authority
- KR
- South Korea
- Prior art keywords
- sensor data
- environment
- movement
- user
- backward
- Prior art date
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 241
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 33
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000001514 detection method Methods 0.000 claims description 58
- 239000013598 vector Substances 0.000 claims description 48
- 210000001624 hip Anatomy 0.000 claims description 25
- 238000012549 training Methods 0.000 claims description 13
- 230000002457 bidirectional effect Effects 0.000 claims description 9
- 238000013145 classification model Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 15
- 230000005021 gait Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 238000003066 decision tree Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000007637 random forest analysis Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 208000002173 dizziness Diseases 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 201000003152 motion sickness Diseases 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G06K9/00335—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G06K9/00711—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Optics & Photonics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Hardware Design (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Computer Graphics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
도 2는 제1센서 데이터와 제2센서 데이터를 획득하기 위해 VR 환경에 표시되는 전후진 움직임 요청을 예시적으로 나타낸 도면이다.
도 3a는 복수의 사용자의 제자리 걸음을 통한 이동 시 소정의 공간 범위 내에서의 다양한 움직임 양상을 나타낸 도면이다.
도 3b는 제1벡터, 제2벡터와 제3벡터와 제1벡터 또는 제2벡터가 이루는 각도 정보를 설명하기 위한 개념도이다.
도 4는 본원의 일 실시예에 따른 양방향 장단기 기억(Bidirectional Long-Short Term Memory, BiLSTM) 네트워크 기반의 움직임 유형 판별 모델의 구조를 예시적으로 나타낸 도면이다.
도 5는 본원의 일 실시예에 따른 판별 모델의 유형 및 학습 데이터의 유형에 따른 성능 평가 결과를 비교하여 나타낸 도표이다.
도 6은 본원의 일 실시예에 따른 인공지능 기반의 VR 환경에서의 전후진 움직임 탐지 기법과 연계된 일 실험예로서, 컨트롤러 기반 움직임 환경, 트레드밀 기반 움직임 환경 및 WIP 기반의 움직임 환경을 나타낸 도면이다.
도 7은 본원의 일 실시예에 따른 인공지능 기반의 VR 환경에서의 전후진 움직임 탐지 기법과 연계된 일 실험예에 활용된 사용자가 후진 움직임을 수행하도록 요청되는 내용을 포함하도록 설계된 VR 콘텐츠 시나리오를 예시적으로 나타낸 도면이다.
도 8a 및 도 8b는 본원의 일 실시예에 따른 인공지능 기반의 VR 환경에서의 전후진 움직임 탐지 기법과 연계된 일 실험예의 사용자 경험 평가 결과를 컨트롤러 기반 움직임 환경 및 트레드밀 기반 움직임 환경과 비교하여 나타낸 그래프이다.
도 9는 본원의 일 실시예에 따른 인공지능 기반의 VR 환경에서의 전후진 움직임 탐지 장치의 개략적인 구성도이다.
도 10은 본원의 일 실시예에 따른 인공지능 기반의 VR 환경에서의 전후진 움직임 탐지 방법에 대한 동작 흐름도이다.
100: 인공지능 기반의 VR 환경에서의 전후진 움직임 탐지 장치
110: 수집부
120: 학습부
130: 분석부
140: 구현부
20: 네트워크
200: 사용자 단말
1: 대상 센서 데이터
2: 움직임 유형
Claims (15)
- 인공지능 기반의 VR 환경에서의 전후진 움직임 탐지 방법에 있어서,
복수의 사용자의 VR 환경에서의 전진 움직임과 연계된 제1센서 데이터 및 상기 VR 환경에서의 후진 움직임과 연계된 제2센서 데이터를 포함하는 학습 데이터를 준비하는 단계;
상기 학습 데이터에 기초하여, 대상 센서 데이터가 수신되면 상기 대상 센서 데이터에 대응하는 움직임 유형을 판단하는 판별 모델을 구축하는 단계;
타겟 사용자에 대한 상기 대상 센서 데이터를 수신하는 단계; 및
상기 판별 모델에 기초하여 상기 대상 센서 데이터에 대응하는 상기 움직임 유형을 판단하는 단계,
를 포함하는, 탐지 방법. - 제1항에 있어서,
상기 VR 환경은,
미리 설정된 공간 범위 내에서 이동이 허용되고, 상기 공간 범위 내에서 제자리 걸음을 통해 상기 전진 움직임 또는 상기 후진 움직임을 수행하도록 구현되는 WIP(Walking-in-Place) 기반의 가상현실 환경인 것을 특징으로 하는, 탐지 방법. - 제2항에 있어서,
상기 제1센서 데이터 및 상기 제2센서 데이터는,
상기 복수의 사용자 각각의 머리, 허리 및 양발 중 적어도 하나에 부착 또는 착용되는 추적 장치에 기초하여 획득되는 상기 복수의 사용자 각각의 머리, 허리 및 양발 중 적어도 하나의 위치 정보를 포함하고,
상기 대상 센서 데이터는,
상기 타겟 사용자의 머리, 허리 및 양발 중 적어도 하나에 부착 또는 착용되는 추적 장치에 기초하여 획득되는 상기 타겟 사용자의 머리, 허리 및 양발 중 적어도 하나의 위치 정보를 포함하는 것인, 탐지 방법. - 제3항에 있어서,
상기 학습 데이터를 준비하는 단계는,
상기 VR 환경에 기초하여 전진 움직임 요청을 표시하고, 상기 전진 움직임 요청 이후에 상기 추적 장치로부터 수신된 상기 위치 정보를 상기 제1센서 데이터로 획득하는 단계; 및
상기 VR 환경에 기초하여 후진 움직임 요청을 표시하고, 상기 후진 움직임 요청 이후에 상기 추적 장치로부터 수신된 상기 위치 정보를 상기 제2센서 데이터로 획득하는 단계,
를 포함하는 것인, 탐지 방법. - 제3항에 있어서,
상기 판별 모델을 구축하는 단계는,
상기 위치 정보를 포함하는 학습 피처에 기초하여 상기 움직임 유형을 전진 또는 후진으로 분류하는 인공 지능 기반의 판별 모델을 구축하는 것인, 탐지 방법. - 제5항에 있어서,
상기 학습 피처는,
상기 공간 범위의 중심에서 사용자의 왼발까지의 제1벡터, 상기 중심에서 사용자의 오른발까지의 제2벡터 및 상기 중심에서 사용자의 머리까지의 제3벡터와 상기 제1벡터 또는 상기 제2벡터가 이루는 각도 정보를 더 포함하는 것인, 탐지 방법. - 제6항에 있어서,
상기 판별 모델은,
양방향 장단기 기억(Bidirectional Long-Short Term Memory, BiLSTM) 네트워크 기반의 분류 모델인 것을 특징으로 하는, 탐지 방법. - 제1항에 있어서,
상기 판단 결과에 기초하여 상기 타겟 사용자의 움직임을 상기 타겟 사용자에게 제공되는 VR 환경에 반영하는 단계,
를 더 포함하는 것인, 탐지 방법. - 인공지능 기반의 VR 환경에서의 전후진 움직임 탐지 장치에 있어서,
복수의 사용자의 VR 환경에서의 전진 움직임과 연계된 제1센서 데이터 및 상기 VR 환경에서의 후진 움직임과 연계된 제2센서 데이터를 포함하는 학습 데이터를 준비하는 수집부;
상기 학습 데이터에 기초하여, 대상 센서 데이터가 수신되면 상기 대상 센서 데이터에 대응하는 움직임 유형을 판단하는 판별 모델을 구축하는 학습부; 및
타겟 사용자에 대한 상기 대상 센서 데이터를 수신하고, 상기 판별 모델에 기초하여 상기 대상 센서 데이터에 대응하는 상기 움직임 유형을 판단하는 분석부,
를 포함하는, 탐지 장치. - 제9항에 있어서,
상기 VR 환경은,
미리 설정된 공간 범위 내에서 이동이 허용되고, 상기 공간 범위 내에서 제자리 걸음을 통해 상기 전진 움직임 또는 상기 후진 움직임을 수행하도록 구현되는 WIP(Walking-in-Place) 기반의 가상현실 환경인 것을 특징으로 하는, 탐지 장치. - 제10항에 있어서,
상기 제1센서 데이터 및 상기 제2센서 데이터는,
상기 복수의 사용자 각각의 머리, 허리 및 양발 중 적어도 하나에 부착 또는 착용되는 추적 장치에 기초하여 획득되는 상기 복수의 사용자 각각의 머리, 허리 및 양발 중 적어도 하나의 위치 정보를 포함하고,
상기 대상 센서 데이터는,
상기 타겟 사용자의 머리, 허리 및 양발 중 적어도 하나에 부착 또는 착용되는 추적 장치에 기초하여 획득되는 상기 타겟 사용자의 머리, 허리 및 양발 중 적어도 하나의 위치 정보를 포함하는 것인, 탐지 장치. - 제11항에 있어서,
상기 수집부는,
상기 VR 환경에 기초하여 전진 움직임 요청을 표시하고, 상기 전진 움직임 요청 이후에 상기 추적 장치로부터 수신된 상기 위치 정보를 상기 제1센서 데이터로 획득하고, 상기 VR 환경에 기초하여 후진 움직임 요청을 표시하고, 상기 후진 움직임 요청 이후에 상기 추적 장치로부터 수신된 상기 위치 정보를 상기 제2센서 데이터로 획득하는 것인, 탐지 장치. - 제11항에 있어서,
상기 학습부는,
상기 위치 정보를 포함하는 학습 피처에 기초하여 상기 움직임 유형을 전진 또는 후진으로 분류하는 양방향 장단기 기억(Bidirectional Long-Short Term Memory, BiLSTM) 네트워크 기반의 판별 모델을 구축하는 것인, 탐지 장치. - 제13항에 있어서,
상기 학습 피처는,
상기 공간 범위의 중심에서 사용자의 왼발까지의 제1벡터, 상기 중심에서 사용자의 오른발까지의 제2벡터 및 상기 중심에서 사용자의 머리까지의 제3벡터와 상기 제1벡터 또는 상기 제2벡터가 이루는 각도 정보를 더 포함하는 것인, 탐지 장치. - 제9항에 있어서,
상기 판단 결과에 기초하여 상기 타겟 사용자의 움직임을 상기 타겟 사용자에게 제공되는 VR 환경에 반영하는 구현부,
를 더 포함하는 것인, 탐지 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210005108A KR102321052B1 (ko) | 2021-01-14 | 2021-01-14 | 인공지능 기반의 vr 환경에서의 전후진 움직임 탐지 장치 및 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210005108A KR102321052B1 (ko) | 2021-01-14 | 2021-01-14 | 인공지능 기반의 vr 환경에서의 전후진 움직임 탐지 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210106885A true KR20210106885A (ko) | 2021-08-31 |
KR102321052B1 KR102321052B1 (ko) | 2021-11-02 |
Family
ID=77489559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210005108A KR102321052B1 (ko) | 2021-01-14 | 2021-01-14 | 인공지능 기반의 vr 환경에서의 전후진 움직임 탐지 장치 및 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102321052B1 (ko) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101821592B1 (ko) * | 2016-11-16 | 2018-01-25 | 그리드스페이스(주) | 가상 현실을 이용한 보행 시뮬레이터 시스템 및 그 보행자 위치 산출 방법 |
KR20180108010A (ko) * | 2017-03-23 | 2018-10-04 | 한림대학교 산학협력단 | 가상현실기반 보행기능 측정 시스템 |
KR20190085974A (ko) * | 2017-01-13 | 2019-07-19 | 프라운호퍼-게젤샤프트 츄어 푀르더룽 데어 안게반텐 포르슝에.파우. | 하나 이상의 관성 센서들로부터 방위 정보를 정정하기 위한 장치 및 방법 |
-
2021
- 2021-01-14 KR KR1020210005108A patent/KR102321052B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101821592B1 (ko) * | 2016-11-16 | 2018-01-25 | 그리드스페이스(주) | 가상 현실을 이용한 보행 시뮬레이터 시스템 및 그 보행자 위치 산출 방법 |
KR20190085974A (ko) * | 2017-01-13 | 2019-07-19 | 프라운호퍼-게젤샤프트 츄어 푀르더룽 데어 안게반텐 포르슝에.파우. | 하나 이상의 관성 센서들로부터 방위 정보를 정정하기 위한 장치 및 방법 |
KR20180108010A (ko) * | 2017-03-23 | 2018-10-04 | 한림대학교 산학협력단 | 가상현실기반 보행기능 측정 시스템 |
Also Published As
Publication number | Publication date |
---|---|
KR102321052B1 (ko) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ding et al. | Task and motion planning with large language models for object rearrangement | |
Naeem et al. | A gentle introduction to reinforcement learning and its application in different fields | |
Robinson et al. | Robotic vision for human-robot interaction and collaboration: A survey and systematic review | |
Tammvee et al. | Human activity recognition-based path planning for autonomous vehicles | |
US20210081754A1 (en) | Error correction in convolutional neural networks | |
Vasquez et al. | Human aware navigation for assistive robotics | |
Bishop et al. | Survey of locomotion systems in virtual reality | |
CN113515131A (zh) | 基于条件变分自动编码器的移动机器人避障方法及系统 | |
KR102321052B1 (ko) | 인공지능 기반의 vr 환경에서의 전후진 움직임 탐지 장치 및 방법 | |
KR20210054349A (ko) | 환자의 상지 동작에 의해 도출되는 특징값을 이용한 임상평가척도 예측 방법 | |
KR101724115B1 (ko) | 피드백을 제공하기 위한 방법, 디바이스, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체 | |
JP5418938B2 (ja) | グループ行動推定装置およびサービス提供システム | |
JP2009300227A (ja) | 位置追跡システム、位置追跡装置、位置追跡方法およびプログラム | |
CN116235208A (zh) | 用于制作动画的方法、系统及非暂时性计算机可读记录介质 | |
JPWO2020003392A1 (ja) | 運転支援装置および運転モード判断モデル生成装置 | |
Ren et al. | Inserting virtual pedestrians into pedestrian groups video with behavior consistency | |
KR102490431B1 (ko) | 사용자의 움직임을 획득할 수 있는 환경을 판단하는 전자 장치의 제어 방법 | |
Yamaguchi et al. | Towards intelligent environments: Human sensing through 3d point cloud | |
US20220358790A1 (en) | System and method for eye-tracking | |
JP5567725B2 (ja) | グループ行動推定装置 | |
Dimiccoli | Computer vision for egocentric (first-person) vision | |
Gokl et al. | Towards urban environment familiarity prediction | |
Guney et al. | A deep neural network based toddler tracking system | |
Haller et al. | Human activity recognition based on multiple kinects | |
Paik et al. | I feel more engaged when i move!: Deep learning-based backward movement detection and its application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20210114 |
|
PA0201 | Request for examination | ||
PA0302 | Request for accelerated examination |
Patent event date: 20210406 Patent event code: PA03022R01D Comment text: Request for Accelerated Examination Patent event date: 20210114 Patent event code: PA03021R01I Comment text: Patent Application |
|
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20210608 Patent event code: PE09021S01D |
|
G15R | Request for early publication | ||
PG1501 | Laying open of application |
Comment text: Request for Early Opening Patent event code: PG15011R01I Patent event date: 20210811 |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20211025 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20211028 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20211028 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |