KR20230050679A - 가상 오브젝트를 이용하여 수집된 사용자의 행동 데이터의 분석 방법 및 장치 - Google Patents

가상 오브젝트를 이용하여 수집된 사용자의 행동 데이터의 분석 방법 및 장치 Download PDF

Info

Publication number
KR20230050679A
KR20230050679A KR1020210133818A KR20210133818A KR20230050679A KR 20230050679 A KR20230050679 A KR 20230050679A KR 1020210133818 A KR1020210133818 A KR 1020210133818A KR 20210133818 A KR20210133818 A KR 20210133818A KR 20230050679 A KR20230050679 A KR 20230050679A
Authority
KR
South Korea
Prior art keywords
user
virtual objects
hand
user data
measured
Prior art date
Application number
KR1020210133818A
Other languages
English (en)
Inventor
김강
김산
Original Assignee
주식회사갤튼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사갤튼 filed Critical 주식회사갤튼
Priority to KR1020210133818A priority Critical patent/KR20230050679A/ko
Publication of KR20230050679A publication Critical patent/KR20230050679A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/162Testing reaction times
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Child & Adolescent Psychology (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Psychiatry (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

가상 오브젝트를 생성하는 장치를 이용한 사용자 데이터 수집에 관한 것으로, 보다 구체적으로, 상기 장치에 의해서 생성된 구 형의 복수 개의 가상 오브젝트들을 이용하여 사용자 데이터를 측정하는 단계; 및 상기 측정된 사용자 데이터를 처리하는 단계를 포함한다.
이때, 상기 복수 개의 가상 오브젝트는 상기 장치를 중심으로 일정거리 떨어진 제1 복수 개의 가상 오브젝트들 및 상기 제1 복수 개의 가상 오브젝트들 형태로 수직 방향으로 위치한 제2 복수 개의 오브젝트들로 구성될 수 있다.

Description

가상 오브젝트를 이용하여 수집된 사용자의 행동 데이터의 분석 방법 및 장치{Method and apparatus for analyzing user's behavior data collected using virtual objects}
가상 오브젝트를 이용하여 수집된 사용자의 행동 데이터의 분석 방법 및 장치 및 장치에 관한 것으로써, 보다 구체적으로 가상 오브젝트를 생성하여 사용자의 움직임을 생성된 가상 오브 젝트를 이용하여 측정하는 방법 및 장치에 관한 것이다.
렌더링 파이프 라인에서 가상 현실 (VR) 장면의 컴퓨터 렌더링은 중앙 처리 유닛 (CPU: central processingunit) 및 그래픽 처리 유닛 (GPU : Graphic processing unit) 자원을 필요로 한다. VR 장면은 넓은 시청 범위에서 렌더링될 수 있지만 해당 시청 범위의 작은 부분만 디스플레이된다. 또한 VR 장면은 전통적인 장면보다 더 복잡할 수 있으며 사용자의 멀미(motion sickness)를 방지하기 위해 이미지 처리에 더 높은 프레임 속도가 필요할 수도 있다.
이러한 가상 현실은 영상을 생성하고, 생성된 가상 현실 영상을 컴퓨터 또는 사용자 단말을 통해서 재생하고 관람하는 기술이 등장하고 있다. 특히, 가상 현실 영상을 이용하여 실제 현실에는 없지만 영상 속에 존재하는 오브젝트를 생성하고, 생성된 오브젝트를 사용자가 조작함으로써 가상 현실 영상을 조작할 수 있는 방법이 제공될 수 있다.
가상 현실(Virtual Reality: VR)이라 함은 실제 현실은 아니지만 사용자가 현실과 같은 환경을 3차원적인 시각(Sight)을 통해 경험할 수 있는 시뮬레이션 기술을 의미하며, 상기 가상현실은 가상의 공간과 사물을기반으로 현실 세계만으로는 얻기 어려운 부가적인 체험이나 정보들을 사용자에게 제공할 수 있는 특징을 가지고 있다.
본 발명은 가상 현실을 이용하여 사용자 데이터를 측정하고 측정한 데이터를 이용하여 사용자의 행동 양태를 분석하는 방법 및 장치를 제공하는 것이다.
또한, 본 발명은 상기 사용자의 행동 양태를 분석하기 위해서 복수 개의 가상 현실 오브젝트를 생성하여 배치하기 위한 방법 및 장치를 제공하는 것에 그 목적이 있다.
본 명세서에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
가상 오브젝트를 생성하는 장치를 이용하여 수집된 사용자 데이터의 분석 방법을 제공한다. 구체적으로, 본 발명의 일 실시예에 따른 방법은 구 형태의 복수 개의 가상 오브젝트들을 이용하여 사용자 데이터를 측정하는 단계; 및 상기 측정된 사용자 데이터를 처리하는 단계를 포함하되, 상기 사용자 데이터는 상기 사용자의 이동 방향, 속도, 상기 사용자의 손의 움직임, 및 상기 사용자의 시선 정보를 포함하고, 상기 사용자의 상기 이동 방향 및 상기 속도는 상기 복수 개의 가상 오브젝트들이 상기 사용자를 기준으로 거리 및 위치가 변경되지 않고 이동한 거리 및 속도에 기초하여 측정되고, 상기 사용자의 상기 손의 움직임은 상기 복수 개의 가상 오브젝트들과 상기 손이 충돌한 횟수이 기초하여 측정되며, 상기 사용자의 상기 시선 정보는 상기 장치로부터 발생된 레이저의 상기 복수 개의 가상 오브젝트들과의 충돌에 기초하여 측정된다.
또한, 본 발명은, 상기 사용자 데이터를 측정하기 위한 센싱부; 및 상기 측정된 사용자 데이터를 처리하기 위한 프로세서를 포함하되, 상기 프로세서는, 구 형태의 복수 개의 가상 오브젝트들을 이용하여 사용자 데이터를 측정하는 단계; 및 상기 측정된 사용자 데이터를 처리하는 단계를 포함하되, 상기 사용자 데이터는 상기 사용자의 이동 방향, 속도, 상기 사용자의 손의 움직임, 및 상기 사용자의 시선 정보를 포함하고, 상기 사용자의 상기 이동 방향 및 상기 속도는 상기 복수 개의 가상 오브젝트들이 상기 사용자를 기준으로 거리 및 위치가 변경되지 않고 이동한 거리 및 속도에 기초하여 측정되고, 상기 사용자의 상기 손의 움직임은 상기 복수 개의 가상 오브젝트들과 상기 손이 충돌한 횟수이 기초하여 측정되며, 상기 사용자의 상기 시선 정보는 상기 장치로부터 발생된 레이저의 상기 복수 개의 가상 오브젝트들과의 충돌에 기초하여 측정되는 장치를 제공한다.
또한, 본 발명은 구 형태의 복수 개의 가상 오브젝트들을 이용하여 사용자 데이터를 측정하는 센싱부, 상기 상기 측정된 사용자 데이터를 처리하는 서버를 포함하되, 상기 장치에 의해서 생성된 구 형의 복수 개의 가상 오브젝트들을 이용하여 사용자 데이터를 측정하는 단계; 및 상기 측정된 사용자 데이터를 처리하는 단계를 포함하되, 상기 사용자 데이터는 상기 사용자의 이동 방향, 속도, 상기 사용자의 손의 움직임, 및 상기 사용자의 시선 정보를 포함하고, 상기 사용자의 상기 이동 방향 및 상기 속도는 상기 복수 개의 가상 오브젝트들이 상기 사용자를 기준으로 거리 및 위치가 변경되지 않고 이동한 거리 및 속도에 기초하여 측정되고, 상기 사용자의 상기 손의 움직임은 상기 복수 개의 가상 오브젝트들과 상기 손이 충돌한 횟수이 기초하여 측정되며, 상기 사용자의 상기 시선 정보는 상기 장치로부터 발생된 레이저의 상기 복수 개의 가상 오브젝트들과의 충돌에 기초하여 측정 시스템을 제공한다.
본 발명은 다음과 같은 우수한 효과를 가진다. 먼저, 본 발명의 가상 오브젝트를 생성하는 장치를 이용한 사용자 데이터 수집 방법 및 장치에 의하면, 사용자의 행동 데이터를 수집하기 위한 가상 오브젝트를 중첩되지 않는 형태로 생성 및 배치함으로써 사용자의 행동 데이터의 에러를 감소시킬 수 있는 효과가 있다.
도한, 본 발명은 각각의 가상 오브젝트의 지름, 반경 및 오브젝트들 간의 간격을 사용자의 신체 데이터를 이용하여 결정함으로써, 사용자 데이터를 측정 및 센싱하기 위한 최적의 오브젝트 형태를 제공할 수 있는 효과가 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는 첨부 도면은 본 발명에 대한 실시 예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시 예에 따른 사용자 데이터를 측정 및 센싱하기 위해 생성된 가상 오브젝트들을 도시한 일 예이다.
도 2는 본 발명의 일 실시 예에 따른 가상 오브젝트들의 배치 방법에 대한 일 예를 나타낸다.
도 3은 본 발명의 일 실시 예에 따른 가상 오브젝트들의 배치 방법에 대한 또 다른 일 예를 나타낸다.
도 4 및 도 5는 본 발명의 일 실시 예에 따른 가상 오브젝트들을 이용하여 사용자의 이동 방향 및 속도를 측정하기 위한 방법의 일 예를 나타낸다.
도 6은 본 발명의 일 실시 예에 따른 가상 오브젝트들을 이용하여 사용자의 손의 움직임 및 시선 정보를 측정하기 위한 방법의 일 예를 나타낸다.
도 7은 본 발명의 일 실시 예에 따른 가상 오브젝트들을 이용하여 사용자의 진동 및/또는 소리 반응을 체크하여 데이터를 획득하기 위한 방법의 일 예를 나타낸다.
도 8은 본 발명의 일 실시 예에 따른 사용자 데이터를 측정 및 센싱하기 위한 방법을 나타내는 순서도이다.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예들을 가질 수 있는 바, 이하에서는 특정 실시 예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 본 발명의 일 실시 예에 따른 사용자 데이터를 측정 및 센싱하기 위해 생성된 가상 오브젝트들을 도시한 일 예이다.
도 1을 참조하면, 본 발명에 의한 사용자 데이터를 측정하기 위한 장치(100)는 사용자의 머리에 착용하는 장치(110) 및 사용자의 손에 부착되어 사용자의 손의 움직임을 측정하는 장치(120)로 구성될 수 있다.
이때, 사용자의 머리에 착용하는 장치(110)는 HMD(Head-Mounded Device)로 호칭될 수 있으며, 사용자가 손에 쥐어 사용자의 손의 움직임을 측정하는 장치(120)는 컨트롤러라 호칭될 수 있다.
HMD(110) 및 컨트롤러(120)로부터 획득된 사용자의 행동 데이터는 서버(미도시) 또는 프로세서(미도시)에 의해서 분석되고 처리될 수 있다. 또한, 서버(미도시) 또는 프로세서(미도시)는 사용자의 행동 데이터를 획득하기 위한 가상 오브젝트들을 생성할 수 있다.
서버(미도시) 또는 프로세서(미도시)는 장치(100)와 분리되어 개별적인 장치 또는 클라우드 형태로 존재하거나, HMD(110)에 제어부(미도시) 또는 프로세서(미도시) 형태로 포함될 수 있다.서버(미도시) 또는 프로세서(미도시)는 사용자의 행동 데이터를 측정 및 센싱하기 위해서 복수 개의 가상 오브젝트들(200)을 생성할 수 있으며, 이러한 복수 개의 가상 오브젝트들은 HMD와 같은 높이에서 수평 방향으로 생성되는 복수 개의 가상 오브젝트들(이하, 제1 복수 개의 가상 오브젝트들, 210)과 HMD와 수직방향으로 제1 복수 개의 가상 오브젝트들과 같은 구성으로 수직 방향으로 생성되는 복수 개의 가상 오브젝트들(이하, 제2 복수 개의 가상 오브젝트들, 220)으로 구성될 수 있다.
구체적으로, 제1 복수 개의 가상 오브젝트들은 HMD와 동일한 높이에서 HMD를 중심으로 동일한 일정 거리에 위치하는 복수 개의 오브젝트들을 의미할 수 있다. 이때, 바람직하게는 제1 복수 개의 가상 오브젝트들이 스피어 형태인 경우, 제1 복수 개의 가상 오브젝트들의 중심과 HMD의 중심이 동일한 평면 상에 위치할 수 있다. 또는, 제1 복수 개의 가상 오브젝트들이 스피어 형태인 경우, 제1 복수 개의 가상 오브젝트들의 중심과 사용자의 머리의 중심 또는 사용자의 눈과 동일한 평면 상에 위치할 수 있다.
제2 복수 개의 가상 오브젝트들은 제1 복수 개의 오브젝트들과 동일한 구성을 가지고 있으며, 일정한 간격으로 복수 개의 층으로 구성될 수 있다.
즉, 제2 복수 개의 가상 오브젝트들은 제1 복수 개의 가상 오브젝트들과 수평적 구조는 동일하고, 높이는 서로 다른 층 구조를 가질 수 있다. 이때, 제2 복수 개의 가상 오브젝트들 및 제1 복수 개의 가상 오브젝트들의 층간 거리(즉, 간격)는 사용자의 손의 움직임을 정확히 측정 및 센싱하기 위해서 사용자의 손의 치수에 기초하여 최소 값과 최대 값 사이에서 결정될 수 있다. 간격을 결정하기 위한 구체적인 방법은 아래에서 살펴보도록 한다.
이러한 복수 개의 가상 오브젝트들은 사용자의 움직임에 따라 그 구성위치 및 형태가 변경되지 않으며, 이에 기초하여 사용자의 움직임을 정밀하게 측정할 수 있다.
예를 들면, 사용자가 이동하는 경우, HMD을 기준으로 복수 개의 가상 오브젝트들은 그 형태, 위치 및 오브젝트들 간의 거리를 유지하며 HMD를 중심으로 함께 이동함으로써, 사용자의 이동 방향 및 시선 방향을 센싱할 수 있으며, 가상 오브젝트들과 사용자의 손에 위치한 장치의 충돌을 감지하여 사용자의 움직임을 센싱할 수 있다. 즉, 복수 개의 오브젝트들은 HMD(또는, 사용자)를 중심으로 일정한 거리를 유지하며 HMD(또는, 사용자)와의 상대적 위치가 유지될 수 있다.
이하, 복수 개의 가상 오브젝트들의 배치 방법 및 복수 개의 가상 오브젝트들을 이용하여 사용자의 행동 데이터를 수집하는 방법에 대해 살펴본다. 이하, 본 발명에서 가상 오브젝트는 가상 현실에서 사용자의 행동 데이터를 수집하기 위한 오브젝트를 의미한다.
이때, 복수 개의 가상 오브젝트들 중 바람직한 실시 형태를 스피어라 호칭한다. 하지만, 이 명칭은 예시일 뿐이며, 다른 명칭으로 호칭될 수 있다. 즉, 복수 개의 가상 오브젝트들은 여러가지 형태로 생성될 수 있으며, 이 중 사용자의 행동 데이터를 효율적으로 획득할 수 있는 바람직한 형태는 구 형일 수 있으며, 이는 스피어로 호칭될 수 있다.
<복수 개의 가상 오브젝트들의 배치 방법>
도 2는 본 발명의 일 실시 예에 따른 가상 오브젝트들의 배치 방법에 대한 일 예를 나타낸다.
도 2를 참조하면, 복수 개의 가상 오브젝트들은 수평 방향으로 HMD를 중심으로 일정 각도 간격으로 위치할 수 있으며, 수직 방향으로 일정한 간격으로 위치하여 층 구조를 가질 수 있다.
구체적으로, 도 2의 (a)에 도시된 바와 같이 사용자가 HMD를 착용하고 있는 경우, 복수 개의 가상 오브젝트들은 HMD를 기준으로 수평 방향으로 일정한 각도로 복수 개가 위치할 수 있다. 예를 들면, 복수 개의 가상 오브젝트들은 HMD를 기준으로 60도 간격으로 총 6개가 수평 방향으로 위치할 수 있다. 이때, 오브젝트 간의 각도는 오브젝트들이 중첩되지 않도록 설정될 수 있다.
도 2의 (a)에 도시된 각 오브젝트들의 점선은 스피어가 6 방향으로 설정되어 있음을 나타낸다.
또한, 도 2의 (b)에 도시된 바와 같이 수직 방향으로 일정한 간격으로 복수 개의 오브젝트들이 위치할 수 있다. 예를 들면, 도 2의 (a)에 도시된 구조가 수직 방향으로 총 6개 위치하여 층 구조를 형성할 수 있으며, 이때, 각 층간의 간격(즉, 각 층간 가상 오브젝트간의 간격)은 오브젝트들이 중첩되지 않게 설정될 수 있다. 따라서, 이 경우, 복수 개의 가상 오브젝트들의 개수는 총 36개일 수 있다.
즉, 도 2의 (b)에 도시된 바와 같이 가상 오브젝트들인 스피어들은 복수 개의 층 구조를 가질 수 있다.
이때, 도 2의 (c)에 도시된 바와 같이 가상 오브젝트의 최대 길이는 'B'라 할 수 있으며, HMD로부터 가상 오브젝트의 중심까지의 거리는 'D'라 할 수 있다. 이러한 가상 오브젝트의 최대 길이 및 가상 오브젝트의 중심까지의 거리는 가상 오브젝트의 지름, 반지름, 스피어의 반경 및 가상 오브젝트들 간의 간격을 계산할 때 이용될 수 있다.
또한, 가상 오브젝트는 사용자의 행동을 측정하면서 가상 오브젝트들간에 중첩되지 않도록 구 형태로 설정될 수 있다. 즉, 모서리가 있거나 각진 형태 또는 타원으로 가상 오브젝트가 생성되는 경우, 사용자의 행동 데이터를 정밀하기 정 및 센싱하기 위해서는 가상 오브젝트들 간에 중첩되는 부분이 발생할 수 있다. 하지만, 이러한 중첩되는 부분에서 측정 및 센싱되는 사용자 데이터는 데이터의 오류가 발생할 수 있으며, 중첩되는 부분의 각 가상 오브젝트에서 측정된 행동 데이터가 서로 다른 경우, 이를 에러 없이 처리하기 위해서는 처리 과정이 복잡하고, 리소스의 사용이 증가될 수 있으며, 처리 시간이 길어질 수 있다. 따라서, 이러한 가상 오브젝트들 간의 중첩되는 공간 없이 사용자의 행동 데이터를 정밀하게 처리하기 위해서 가상 오브젝트들은 구 형태로 설정될 수 있다.
도 3은 본 발명의 일 실시 예에 따른 가상 오브젝트들의 배치 방법에 대한 또 다른 일 예를 나타낸다.
도 3을 참조하면, 가상 오브젝트들 간에 중첩되지 않도록 가상 오브젝트들의 개수가 제한될 수 있으며, 높이에 따른 개수도 데이터의 측정 및 데이터의 수집을 위해서 제한될 수 있다.
구체적으로, 도 3의 (a)에 도시된 바와 같이 도 2의 (a)에서 설명한 각도보다 적은 각도로 HMD를 중심으로 한 가상 오브젝트들의 각도가 설정될 경우, 수평 방향의 가상 오브젝트들의 개수가 증가하고, 이에 따라 가상 오브젝트들의 중첩이 발생하여 사용자의 행동 데이터의 측정 및 센싱에 오류가 발생할 수 있다.
예를 들면, 도 2의 (a)에서 설명한 바와 같이 가상 오브젝트들이 6방향인 경우, 가상 오브젝트들 간에 중첩이 발생하지 않는다. 하지만, 도 3의 (a)에 도시된 바와 같이 가상 오브젝트들이 6방향 이상으로 배치되는 경우(즉, HMD를 기준으로 가상 오브젝트들 간의 각도가 60도보다 작아지는 경우), 가상 오브젝트들 간에 중첩되는 공간이 발생할 수 있으며, 이렇게 발생된 중첩된 공간에서 측정 및 센싱된 사용자의 행동 데이터는 오류가 발생할 수 있으며, 각각의 오브젝트에서 중첩된 공간에서 측정된 사용자 데이터를 처리하는 방식에 따라 서로 다른 값이 계산될 수 있다.
따라서, 가상 오브젝트들의 수평방향 각도는 중첩되는 부분이 발생하지 않도록 개수 및 각도가 제한되도록 설정되어야 한다.
또한, 도 3의 (b)에 도시된 바와 같이 가상 오브젝트들은 수직 방향으로 개수가 제한될 수 있다.
구체적으로, 도 3의 (b)에 도시된 바와 같이 복수 개의 가상 오브젝트들은 HMD와 동일한 위치에 있는 제1 복수 개의 가상 오브젝트들(210)을 기준으로 위쪽으로 제1 개수, 아래쪽으로 제2 개수로 설정될 수 있다. 예를 들면, 위쪽으로 2개의 가상 오브젝트가 설정될 수 있으며, 아래쪽으로 3개의 가상 오브젝트가 설정될 수 있다. 이때, 아래쪽의 가상 오브젝트는 사용자의 발이 지면과 접촉해있는 부분으로부터 2개의 가상 오브젝트의 위치까지 설정될 수 있다. 즉, 제1 복수 개의 가상 오브젝트들(210)을 기준으로 아래쪽으로 지면까지 총 5개의 가상 오브젝트가 배치될 수 있는 경우, 아래쪽의 가상 오브젝트는 총 3개까지만 설정될 수 있다.
제1 복수 개의 가상 오브젝트들(210)을 기준으로 수직 방향의 아래쪽으로 배치되는 가상 오브젝트들의 개수를 제한하는 이유는 컨트롤러(120)를 쥐고 있는 손의 최대 길이에 따른 제한으로, 컨트롤러(120)가 손에서 떨어진 경우 수직 방향의 가상 오브젝트가 위치한 범위를 벗어나게 되기 때문에 이를 감지하기 위해서 수직 방향의 아래쪽에 위치하는 가상 오브젝트의 개수가 제한될 수 있다. 또한, 수직 방향의 아래쪽에 위치하는 가상 오브젝트의 개수를 제한함으로써 불필요한 자원의 낭비를 줄일 수 있다.
또한, 제1 복수 개의 가상 오브젝트들(210)을 기준으로 위쪽에는 최대 2대까지의 오브젝트가 배치될 수 있다. 이는 사용자의 팔 길이에 따른 제한으로 컨트롤러를 쥐고 있는 사용자의 손이 위치할 수 있는 높이의 최대 값에 따른 제한이다. 즉, 컨트롤러를 쥐고 있는 사용자의 팔이 위치할 수 있는 최대 높이 이상으로는 측정의 필요가 없기 때문에 제1 복수 개의 가상 오브젝트들(210)을 기준으로 위쪽에 배치되는 가상 오브젝트들의 개수는 일정 개수 이하로 제한될 수 있다.
사용자의 행동 데이터를 측정 및 센싱하기 위한 가상 오브젝트는 사용자의 인체 수치의 평균 비율에 기초하여 설정될 수 있다. 구체적으로, 가상 오브젝트의 지름, 반지름, 반경 및 오브젝트들 간의 간격은 사용자의 신체 데이터 또는 평균 비율의 인체 수치에 기초하여 결정될 수 있다.
이때, 사용되는 인체 수치 또는 사용자의 신체 데이터는 팔뚝 길이, 신장에서 머리의 반지름을 뺀 높이 A, 어깨 넓이, 및 어깨 폭 등이 사용될 수 있다.
사용자의 신체 데이터 또는 평균 비율의 인체 수치에 기초하여 가상 오브젝트의 지름과 간격이 설정될 수 있다. 이때, 평균 비율의 인체 수치를 이용하는 경우, 가장 효율적이고 유의미한 데이터를 측정할 수 있는 가상 오브젝트의 지름 및 가상 오브젝트들 간의 간격이 계산될 수 있다. 구체적으로, 가상 오브젝트의 반지름은 사용자의 손바닥의 직선 길이(즉, 손바닥과 팔목의 경계 지점부터 중지 끝 부분까지)보다 커야 된다. 따라서, 가상 오브젝트의 지름 B는 손바닥의 직선 길이의 2배 보다 긴 길이가 요구되며, 아래의 수학식 1에 의해서 계산될 수 있다.
[수학식 1]
스피어의 반지름 [B] = 높이[A] * 0.1
이때, 손바닥의 길이는 손목가쪽점 수준의 접힘선에서 손끝점까지의 직선길이를 의미한다.
가상 오브젝트의 지름이 손바닥의 직선 길이의 2배가 요구되는 것은 사용자의 행동 데이터를 측정 및 센싱하기 위해서 자신 사용자의 가상 오브젝트 침범깊이, 그리고 같이 데이터 수집 진행중인 사용자가 자신의 가상 오브젝트 침범 깊이를 파악 할 수 있어야 하기 때문이다.
또한, 가상 오브젝트들 간의 수평 및/또는 수직 간격은 손 너비 보다 작아야 한다. 이때, 손 너비는 손 안쪽점에서 손 가쪽 점까지의 직선 길이이다. 가상 오브젝트들 간의 수평 및/또는 수직 간격은 아래 수학식 2에 의해서 계산될 수 있다.
[수학식 2]
스피어의 간격 [C] = 스피어 반지름[B] * 2.21
가상 오브젝트의 지름은 고정 값이고, 가상 오브젝트의 고정된 지름에 기초하여 가상 오브젝트의 반경 및 가상 오브젝트들의 수직 및/또는 수평 간격이 결정될 수 있다. 이때, 가상 오브젝트들의 수직 및/또는 수평 간격은 아래의 수학식 3에 의해서 결정될 수 있다.
[수학식 3]
스피어의 간격 [C] = 스피어 지름[B] * α
수학식 3에서 α는 상수 값으로, 최대 값과 최소 값 사이의 값으로 설정될 수 있으며, 상수 값에 따라 가상 오브젝트들 간의 수직 및/또는 수평 간격이 최대 값과 최소 값 사이의 값으로 결정될 수 있다. 예를 들면, 상수 값의 최소 값 및 최대 값의 일 예로 최소 값은 '2'일 수 있으며, 최대 값은 '2.31'일 수 있다.
가상 오브젝트가 구 형태인 스피어인 경우, 스피어의 반경은 아래팔 수평길이와 동일할 수 있다. 이때, 아래팔 수평길이는 직각으로 굽힌 팔의 팔 뒤꿈치점에서 손목 아쪽 점까지의 수평거리를 의미한다. 스피어의 반경은 아래 수학식 4에 의해서 계산될 수 있다.
[수학식 4]
반경[D]=높이[A]*β
β값은 상수 값으로, 최대 값과 최소 값 사이의 값으로 설정될 수 있으며, 상수 값에 따라 스피어의 반경이 최대 값과 최소 값 사이의 값으로 결정될 수 있다. 예를 들면, 상수 값은 최소 값과 최대 값 사이에서 결정되어야 한다. 예를 들면, 상수 값의 최소 값은 '4.33', 최대 값은 '4.5'일 수 있다.
<복수 개의 가상 오브젝트들을 이용하여 사용자 데이터를 측정 및/또는 센싱하는 방법>
앞에서 살펴본 바와 같이 복수 개의 가상 오브젝트들은 사용자의 행동 데이터를 측정하기 위해 가장 효율적인 방법들로 배치될 수 있으며, 이렇게 배치된 복수 개의 가상 오브젝트들을 이용하여 사용자의 행동 데이터를 획득할 수 있다.
이때, 사용자의 행동 데이터는 사용자의 이동 방향, 속도, 상기 사용자의 손의 움직임, 및 상기 사용자의 시선 정보를 포함할 수 있다.
이하, 사용자의 행동 데이터 각각을 복수 개의 가상 오브젝트들을 이용하여 측정하는 방법을 구체적으로 살펴본다.
도 4 및 도 5는 본 발명의 일 실시 예에 따른 가상 오브젝트들을 이용하여 사용자의 이동 방향 및 속도를 측정하기 위한 방법의 일 예를 나타낸다.
도 4 및 도 5를 참조하면, 사용자의 이동 방향 및 속도(또는 속력)는 사용자의 정면에 위치하는 복수 개의 가상 오브젝트들의 이동 방향 및 이동 속도(또는 속력)에 기초하여 측정되어 획득될 수 있다.
사용자의 이동 방향 및 속도는 복수 개의 가상 오브젝트들의 이동에 따라 측정되어 획득될 수 있다. 즉, 사용자의 머리에 있는 HMD로부터 수직방향으로 발생된 레이저 방향에 위치하는 2개의 가상 오브젝트들의 이동 방향 및 속도에 기초하여 사용자의 이동 방향 및 속도가 측정되어 획득될 수 있다.
구체적으로, 도 4의 (a) 및 (b)에 도시된 바와 같이 사용자의 머리에 착용된 HMD로부터 수직 방향으로 발생된 레이저의 방향에 위치하는 2개의 오브젝트들이 도착지까지 이동하는 방향 및 오브젝트들의 이동 속도를 이용하여 사용자의 행동 데이터인 이동 방향 및 속도가 측정될 수 있다.
이동 방향 및 이동 속도는 사용자가 움직이는 경우, 레이저(또는, 레이저 방향에 위치하는 가상 오브젝트들)의 방향 및 이동 속도에 기초할 수 있다. 즉, 사용자의 이동 도중 시간 단위(예를 들면, 초 단위 등) 체크 지점으로부터 레이저의 방향이 순방향, 역방향 또는 전방향과 역방향의 사이인지 여부들을 체크하여 사용자의 이동 방향에 대한 정보를 획득할 수 있으며, 레이저(또는, 가상 오브젝트들)의 이동 속도를 측정하여 사용자의 이동 속도와 관련된 데이터를 획득할 수 있다.
이때, 진행 방향으로부터 일정 거리(예를 들면, 15cm) 이상의 이동이 없는 경우, 사용자가 멈춰 있다고 판단하고 이동 속도 및 거리 데이터가 측정되지 않을 수 있다.
예를 들면, 도 5에 도시된 바와 같이 HMD로부터 발생된 레이저가 전방 방향의 파란색 가상 오브젝트에서 체크되는 경우, 사용자는 순방향으로 이동하고 있다고 체크되고, 레이저가 후방의 주황색 가상 오브젝트에서 체크되는 경우, 사용자는 역 방향으로 이동한다고 체크될 수 있다.
도 6은 본 발명의 일 실시 예에 따른 가상 오브젝트들을 이용하여 사용자의 손의 움직임 및 시선 정보를 측정하기 위한 방법의 일 예를 나타낸다.
도 6을 참조하면, 사용자 주변에 위치하는 복수 개의 가상 오브젝트들과 사용자가 손에 쥐고 있는 컨트롤러 간의 충돌을 이용하여 사용자의 행동 데이터인 손의 움직임을 체크할 수 있으며, 사용자의 머리에 착용된 HMD로부터 발생된 레이저와 복수 개의 가상 오브젝트들과의 충돌을 이용하여 사용자의 시선 정보를 획득할 수 있다.
즉, 사용자의 손의 움직임은 손에 위치한 컨트롤러에 기초하여 측정되어 획득될 수 있다. 예를 들면, 도 6의 (a)에 도시된 바와 같이 사용자의 주위로 스피어를 형성하고 있는 복수 개의 가상 오브젝트들과 컨트롤러의 충돌을 이용하여 사용자의 손의 움직임이 측정되어 획득될 수 있다. 이때, 손의 움직임으로 획득되는 데이터는 주변의 가상 오브젝트를 만진 횟수, 상대방을 터치한 횟수, 주변에서 자신을터치한 횟수 및/또는 주변과 부딪힌 횟수 등이 포함될 수 있다.
사용자의 시선 정보는 도 6의 (b)에 도시된 바와 같이 HMD를 착용하고 있는 사용자의 미간으로부터 수직 방향(90도)으로 HMD로부터 발생된 레이저를 이용하여 사용자의 머리의 회전 방향을 체크하여 사용자의 시선 정보를 획득할 수 있다. 이때, 획득되는 데이터는 회전 방향, 회전 횟수, 회전 지속 시간 및/또는 회전 주기일 수 있다.
도 7은 본 발명의 일 실시 예에 따른 가상 오브젝트들을 이용하여 사용자의 진동 및/또는 소리 반응을 체크하여 데이터를 획득하기 위한 방법의 일 예를 나타낸다.
도 7을 참조하면, 도 6의 (b)에서 설명한 사용자의 시선 정보를 획득하는 방법을 이용하여 사용자의 진동 및/또는 소리 반응을 측정하여 이와 관련된 데이터 및 정보를 획득할 수 있다.
구체적으로, 도 6의 (b)에서 설명한 바와 같이 사용자의 머리에 착용된 HMD로부터 미간으로부터 90도 방향으로 발생된 레이저가 복수 개의 오브젝트들과 충돌하는 것을 이용하여 사용자가 소리 및/또는 진동이 발생한 방향으로 시선이 움직였는지 여부를 판단하여 사용자의 진동 및/또는 소리에 대한 반응을 체크하여 이와 관련된 정보를 획득할 수 있다.
이때, 소리 및/또는 진동이 발생한 방향으로 시선이 움직였는지 여부는 도 6에서 설명한 시선 정보를 획득하는 방법과 유사하게 발생된 레이저와 오브젝트가 충돌하는 것을 체크하여 사용자의 시선이 향하는 방향을 체크할 수 있으며, 이때, 회전 방향, 회전 횟수, 회전 지속 시간 및/또는 회전 주기가 측정될 수 있다. 이와 같은 정보를 이용하여 사용자의 시선이 향하는 방향을 알 수 있으며, 사용자의 시선이 향하는 방향이 소리 및/또는 진동이 발생한 방향과 동일한지 아니면 얼마나 차이가 있는지 여부를 판단하여, 사용자의 진송 및/또는 소리의 반응을 체크할 수 있다.
이때, 획득되는 데이터는 회전 방향, 회전 횟수, 회전 지속 시간, 회전 주기, 반응 지연시간, 연속 반응, 및/또는 반응 방향성일 수 있다.
도 8은 본 발명의 일 실시 예에 따른 사용자 데이터를 측정 및 센싱하기 위한 방법을 나타내는 순서도이다.
도 8을 참조하면, 생성된 구 형의 복수 개의 가상 오브젝트들을 이용하여 사용자 데이터를 측정한다(S8010).
이후, 측정된 사용자 데이터를 처리할 수 있다(S8020).
상기 사용자 데이터는 상기 사용자의 이동 방향, 속도, 상기 사용자의 손의 움직임, 및 상기 사용자의 시선 정보를 포함하고, 상기 사용자의 상기 이동 방향 및 상기 속도는 상기 복수 개의 가상 오브젝트들이 상기 사용자를 기준으로 거리 및 위치가 변경되지 않고 이동한 거리 및 속도에 기초하여 측정될 수 있다.
상기 사용자의 상기 손의 움직임은 상기 복수 개의 가상 오브젝트들과 상기 손이 충돌한 횟수이 기초하여 측정되며, 상기 사용자의 상기 시선 정보는 상기 장치로부터 발생된 레이저의 상기 복수 개의 가상 오브젝트들과의 충돌에 기초하여 측정될 수 있다.
이때, 손의 움직임은 상기 손이 충돌한 횟수에 기초하여 상기 복수 개의 가상 오브젝트들을 만진 횟수, 상대방을 터치한 횟수, 주변에서 상기 사용자를 터치한 횟수 및 주변과 부딪힌 횟수로 구성될 수 있다. 시선 정보는 상기 레이저와 상기 복수 개의 가상 오브젝트들과의 충돌에 기초하여, 레이저의 회전 방향, 회전 횟수, 회전 지속 시간 및 회전 주기로 구성될 수 있다. 이동 방향은 상기 레이저의 방향으로 상기 복수 개의 가상 오브젝트들이 이동하는지 여부에 기초하여 순방향, 역방향 또는 반 순방향으로 측정될 수 있다.
사용자 데이터는 진동 및 소리 반응 정보를 더 포함할 수 있으며, 상기 진동 및 소리 반응 정보는 진동 및 소리가 발생하는 방향으로 상기 레이저가 회전하는지 여부에 기초하여 측정될 수 있다.
진동 및 소리 반응 정보는 상기 레이저의 회전 방향, 회전 횟수, 회전 지속 시간, 회전 주기, 반응 지연시간, 연속 반응 및 반응 방향성으로 구성될 수 있다.
복수 개의 가상 오브젝트는 상기 장치를 중심으로 일정거리 떨어진 제1 복수 개의 가상 오브젝트들 및 상기 제1 복수 개의 가상 오브젝트들 형태로 수직 방향으로 위치한 제2 복수 개의 오브젝트들로 구성되며, 상기 제1 복수 개의 오브젝트들 및 상기 제2 복수 개의 오브젝트들은 상기 사용자와의 상대적 위치가 유지될 수 있다.즉, 즉, 복수 개의 오브젝트들은 HMD(또는, 사용자)를 중심으로 일정한 거리를 유지하며 HMD(또는, 사용자)와의 상대적 위치가 유지될 수 있다.
복수 개의 가상 오브젝트들의 반경은 최소 값과 최대 값 사이에서 결정되고, 상기 제1 복수 개의 가상 오브젝트 및 상기 제2 복수 개의 가상 오브젝트들은 상기 사용자의 신체와의 충돌 및 상기 장치로부터 발생된 레이저와의 충돌에 기초하여 상기 사용자 데이터를 측정하기 위해서 이용될 수 있다.
제2 복수 개의 가상 오브젝트들은 상기 제1 가상 오브젝트들로부터 상측으로 2개의 층 및 하측으로 3개의 층으로 구성되고, 상기 복수 개의 가상 오브젝트들은 상기 사용자가 지면과 접촉하고 있는 부분으로부터 가상 오브젝트의 2개 위치까지는 위치하지 않는다.
상기 복수 개의 가상 오브젝트들의 상기 반경은 상기 복수 개의 가상 오브젝트들의 고정된 지름 값에 기초하여 상기 최소 값과 상기 최대 값 사이에서 결정된다.
상기 복수 개의 가상 오브젝트들의 상기 지름 값은 상기 사용자의 손이 상기 복수 개의 가상 오브젝트들과 충돌한 경우, 충돌 깊이를 측정하기 위해서 상기 사용자의 손 직선 길이의 2배이다. 이때, 복수 개의 가상 오브젝트들의 반지름은 상기 사용자의 키에서 상기 사용자의 머리의 반지름을 뺀 값에 0.1을 곱한 값이다.
복수 개의 가상 오브젝트들 간의 간격은 상기 사용자의 손이 상기 복수 개의 가상 오브젝트들 사이를 통과하지 않도록 상기 사용자의 손 바닥의 가로 길이에 기초하여 결정될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100: 장치
110: HMD
120: 컨트롤러

Claims (14)

  1. 가상 오브젝트를 이용하여 수집된 사용자 데이터의 분석 방법에 있어서, 상기 방법은,
    구 형태의 복수 개의 가상 오브젝트들을 이용하여 사용자 데이터를 측정하는 단계; 및
    상기 측정된 사용자 데이터를 처리하는 단계를 포함하되,
    상기 사용자 데이터는 상기 사용자의 이동 방향, 속도, 상기 사용자의 손의 움직임, 및 상기 사용자의 시선 정보를 포함하고,
    상기 사용자의 상기 이동 방향 및 상기 속도는 상기 복수 개의 가상 오브젝트들이 상기 사용자를 기준으로 거리 및 위치가 변경되지 않고 이동한 거리 및 속도에 기초하여 측정되고,
    상기 사용자의 상기 손의 움직임은 상기 복수 개의 가상 오브젝트들과 상기 손이 충돌한 횟수에 기초하여 측정되며,
    상기 사용자의 상기 시선 정보는 상기 장치로부터 발생된 레이저의 상기 복수 개의 가상 오브젝트들과의 충돌에 기초하여 측정되는 방법.
  2. 제1 항에 있어서,
    상기 손의 움직임은 상기 손이 충돌한 횟수에 기초하여 상기 복수 개의 가상 오브젝트들을 만진 횟수, 상대방을 터치한 횟수, 주변에서 상기 사용자를 터치한 횟수 및 주변과 부딪힌 횟수로 구성되는 방법.
  3. 제1 항에 있어서,
    상기 시선 정보는 상기 레이저와 상기 복수 개의 가상 오브젝트들과의 충돌에 기초하여, 레이저의 회전 방향, 회전 횟수, 회전 지속 시간 및 회전 주기 중 적어도 하나를 포함하여 구성되는 방법.
  4. 제1 항에 있어서,
    상기 이동 방향은 상기 레이저의 방향으로 상기 복수 개의 가상 오브젝트들이 이동하는지 여부에 기초하여 순방향, 역방향 또는 반 순방향으로 측정되는 방법.
  5. 제1 항에 있어서,
    상기 사용자 데이터는 진동 및 소리 반응 정보를 더 포함하고,
    상기 진동 및 소리 반응 정보는 진동 및 소리가 발생하는 방향으로 상기 레이저가 회전하는지 여부에 기초하여 측정되는 방법.
  6. 제5 항에 있어서,
    상기 진동 및 소리 반응 정보는 상기 레이저의 회전 방향, 회전 횟수, 회전 지속 시간, 회전 주기, 반응 지연시간, 연속 반응 및 반응 방향성 중 적어도 하나를 포함하여 구성되는 방법.
  7. 제1 항에 있어서,
    상기 복수 개의 가상 오브젝트는 상기 장치를 중심으로 일정거리 떨어진 제1 복수 개의 가상 오브젝트들 및 상기 제1 복수 개의 가상 오브젝트들 형태로 수직 방향으로 위치한 제2 복수 개의 오브젝트들로 구성되며,
    상기 제1 복수 개의 오브젝트들 및 상기 제2 복수 개의 오브젝트들은 상기 사용자와의 상대적 위치가 유지되며,
    상기 복수 개의 가상 오브젝트들의 반경은 최소 값과 최대 값 사이에서 결정되고,
    상기 제1 복수 개의 가상 오브젝트 및 상기 제2 복수 개의 가상 오브젝트들은 상기 사용자의 신체와의 충돌 및 상기 장치로부터 발생된 레이저와의 충돌에 기초하여 상기 사용자 데이터를 측정하기 위해서 이용되는 방법.
  8. 제1 항에 있어서,
    상기 제2 복수 개의 가상 오브젝트들은 상기 제1 가상 오브젝트들로부터 상측으로 2개의 층 및 하측으로 3개의 층으로 구성되고,
    상기 복수 개의 가상 오브젝트들은 상기 사용자가 지면과 접촉하고 있는 부분으로부터 가상 오브젝트의 2개 위치까지는 위치하지 않는 방법.
  9. 제1 항에 있어서,
    상기 복수 개의 가상 오브젝트들의 상기 반경은 상기 복수 개의 가상 오브젝트들의 고정된 지름 값에 기초하여 상기 최소 값과 상기 최대 값 사이에서 결정되는 방법.
  10. 제9 항에 있어서,
    상기 복수 개의 가상 오브젝트들의 상기 지름 값은 상기 사용자의 손이 상기 복수 개의 가상 오브젝트들과 충돌한 경우, 충돌 깊이를 측정하기 위해서 상기 사용자의 손 직선 길이의 2배인 방법.
  11. 제9 항에 있어서,
    상기 복수 개의 가상 오브젝트들의 반지름은 상기 사용자의 키에서 상기 사용자의 머리의 반지름을 뺀 값에 0.1을 곱한 값인 방법.
  12. 제1 항에 있어서,
    상기 복수 개의 가상 오브젝트들 간의 간격은 상기 사용자의 손이 상기 복수 개의 가상 오브젝트들 사이를 통과하지 않도록 상기 사용자의 손 바닥의 가로 길이에 기초하여 결정되는 방법.
  13. 가상 오브젝트를 이용하여 사용자 데이터를 수집하기 위한 장치에 있어서, 상기 장치는,
    상기 사용자 데이터를 측정하기 위한 센싱부; 및
    상기 측정된 사용자 데이터를 처리하기 위한 프로세서를 포함하되,
    상기 프로세서는,
    구 형태의 복수 개의 가상 오브젝트들을 이용하여 사용자 데이터를 측정하는 단계; 및
    상기 측정된 사용자 데이터를 처리하는 단계를 포함하되,
    상기 사용자 데이터는 상기 사용자의 이동 방향, 속도, 상기 사용자의 손의 움직임, 및 상기 사용자의 시선 정보를 포함하고,
    상기 사용자의 상기 이동 방향 및 상기 속도는 상기 복수 개의 가상 오브젝트들이 상기 사용자를 기준으로 거리 및 위치가 변경되지 않고 이동한 거리 및 속도에 기초하여 측정되고,
    상기 사용자의 상기 손의 움직임은 상기 복수 개의 가상 오브젝트들과 상기 손이 충돌한 횟수이 기초하여 측정되며,
    상기 사용자의 상기 시선 정보는 상기 장치로부터 발생된 레이저의 상기 복수 개의 가상 오브젝트들과의 충돌에 기초하여 측정되는 장치.
  14. 가상 오브젝트를 이용하여 사용자 데이터를 수집하기 위한 시스템에 있어서,
    상기 장치에 의해서 생성된 구 형의 복수 개의 가상 오브젝트들을 이용하여 사용자 데이터를 측정하는 센싱부,
    상기 상기 측정된 사용자 데이터를 처리하는 서버를 포함하되,
    구 형태의 복수 개의 가상 오브젝트들을 이용하여 사용자 데이터를 측정하는 단계; 및
    상기 측정된 사용자 데이터를 처리하는 단계를 포함하되,
    상기 사용자 데이터는 상기 사용자의 이동 방향, 속도, 상기 사용자의 손의 움직임, 및 상기 사용자의 시선 정보를 포함하고,
    상기 사용자의 상기 이동 방향 및 상기 속도는 상기 복수 개의 가상 오브젝트들이 상기 사용자를 기준으로 거리 및 위치가 변경되지 않고 이동한 거리 및 속도에 기초하여 측정되고,
    상기 사용자의 상기 손의 움직임은 상기 복수 개의 가상 오브젝트들과 상기 손이 충돌한 횟수이 기초하여 측정되며,
    상기 사용자의 상기 시선 정보는 상기 장치로부터 발생된 레이저의 상기 복수 개의 가상 오브젝트들과의 충돌에 기초하여 측정되는 시스템.
KR1020210133818A 2021-10-08 2021-10-08 가상 오브젝트를 이용하여 수집된 사용자의 행동 데이터의 분석 방법 및 장치 KR20230050679A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210133818A KR20230050679A (ko) 2021-10-08 2021-10-08 가상 오브젝트를 이용하여 수집된 사용자의 행동 데이터의 분석 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210133818A KR20230050679A (ko) 2021-10-08 2021-10-08 가상 오브젝트를 이용하여 수집된 사용자의 행동 데이터의 분석 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20230050679A true KR20230050679A (ko) 2023-04-17

Family

ID=86128222

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210133818A KR20230050679A (ko) 2021-10-08 2021-10-08 가상 오브젝트를 이용하여 수집된 사용자의 행동 데이터의 분석 방법 및 장치

Country Status (1)

Country Link
KR (1) KR20230050679A (ko)

Similar Documents

Publication Publication Date Title
JP6977134B2 (ja) 頭部装着ディスプレイにおける仮想現実(vr)コンテンツの視野(fov)絞り
CN108885492B (zh) 控制虚拟对象放置的方法和头戴式显示设备
US8963963B2 (en) Video-based image control system
JP2019517049A5 (ko)
US20160260256A1 (en) Method and System for Constructing a Virtual Image Anchored onto a Real-World Object
CN106575153A (zh) 虚拟现实环境内基于注视的对象放置
Saputra et al. Indoor human tracking application using multiple depth-cameras
US10488949B2 (en) Visual-field information collection method and system for executing the visual-field information collection method
KR20160096392A (ko) 직관적인 상호작용 장치 및 방법
CN114245908A (zh) 用深度信息快速3d重建
La Scaleia et al. Body orientation contributes to modelling the effects of gravity for target interception in humans
Zhao et al. Comparing hand gestures and a gamepad interface for locomotion in virtual environments
Park et al. Walking-in-place for vr navigation independent of gaze direction using a waist-worn inertial measurement unit
KR20230050679A (ko) 가상 오브젝트를 이용하여 수집된 사용자의 행동 데이터의 분석 방법 및 장치
KR20230050678A (ko) 행동 데이터 수집 방법 및 장치
KR102586470B1 (ko) 가상현실 환경에서의 플레이어의 충돌 사고 방지 장치
Figueiredo et al. Bare hand natural interaction with augmented objects
KR20180026107A (ko) 실감증강용 가상현실 실행 시스템
TWI620100B (zh) 虛擬實境移動畫面顯示方法、虛擬實境裝置及記錄媒體
TWI637287B (zh) 在虛擬實境中快速移動的方法、虛擬實境裝置及記錄媒體
Wu Design and Evaluation of Dynamic Field-of-View Restriction Techniques to Mitigate Cybersickness in Virtual Reality
Nagayama et al. A basic study of human face direction estimation using depth sensor
KR101145454B1 (ko) 적외선 마커를 이용한 컨텐츠 제어 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR101855105B1 (ko) 헤드 마운트 디스플레이에서의 눈의 초점 위치 분석 시스템 및 그 방법
JP6292682B1 (ja) 画像処理システム、画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
E902 Notification of reason for refusal