KR20200086061A - 잡기 모션을 활용한 가상 현실 로코모션 통합 제어 시스템 및 방법 - Google Patents

잡기 모션을 활용한 가상 현실 로코모션 통합 제어 시스템 및 방법 Download PDF

Info

Publication number
KR20200086061A
KR20200086061A KR1020190002214A KR20190002214A KR20200086061A KR 20200086061 A KR20200086061 A KR 20200086061A KR 1020190002214 A KR1020190002214 A KR 1020190002214A KR 20190002214 A KR20190002214 A KR 20190002214A KR 20200086061 A KR20200086061 A KR 20200086061A
Authority
KR
South Korea
Prior art keywords
motion
virtual
virtual reality
user
motion controller
Prior art date
Application number
KR1020190002214A
Other languages
English (en)
Other versions
KR102181226B1 (ko
Inventor
김도한
Original Assignee
주식회사 원이멀스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 원이멀스 filed Critical 주식회사 원이멀스
Priority to KR1020190002214A priority Critical patent/KR102181226B1/ko
Publication of KR20200086061A publication Critical patent/KR20200086061A/ko
Application granted granted Critical
Publication of KR102181226B1 publication Critical patent/KR102181226B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 잡기 모션을 활용한 가상 현실 로코모션 통합 제어 시스템 및 방법에 관한 것으로서, 가상 현실 로코모션 통합 제어 시스템의 모션 컨트롤러에 의해 제어되는 움직임을 가상 현실 단말에 재현함으로써 사용자가 가상 현실의 움직임을 마치 현실처럼 느낄 수 있도록 하는 가상 현실 로코모션 통합 제어 방법에 있어서, 상기 모션 컨트롤러를 통해 사용자의 잡기 모션이 인식되면 상기 가상 현실 단말에 보여지는 가상 환경 내 상기 잡기 모션이 인식된 위치에 가상의 이동 지지점(A, anchor)을 생성하는 단계 및 상기 잡기 모션이 유지된 상태에서 상기 모션 컨트롤러를 통해 전달된 모션 신호가 상기 사용자가 상기 가상 현실 환경 속에 들어가서 수평적으로 뿐만 아니라 수직적으로도 이동하는 듯한 가상 현실감을 제공하는 단계를 포함함으로써, 사용자의 미세하고 정교한 움직임에서부터 빠른 가속, 방향 전환 등까지 그리고 걷기, 달리기뿐만 아니라 등반, 점프까지 모든 동작 변화를 생동적으로 재현할 수 있는 통합 이동 조종 방식의 가상 현실 기술을 제공할 수 있다.

Description

잡기 모션을 활용한 가상 현실 로코모션 통합 제어 시스템 및 방법{VIRTUAL REALITY LOCOMOTION INTEGRATED CONTROL SYSTEM AND METHOD USING GRAB MOTION}
본 발명은 가상 현실 로코모션 통합 제어 시스템 및 방법에 관한 것으로, 더욱 상세하게는 가상 현실 로코모션 컨트롤러를 통한 잡기 모션을 허용하여 가상 현실 영상 내 캐릭터의 움직임을 수평 평면뿐만 아니라 수직적으로도 제어하는 잡기 모션을 활용한 가상 현실 로코모션 통합 제어 시스템 및 방법에 관한 것이다.
4차 산업 혁명 시대 핵심 요소 중 하나로 떠오른 가상 현실(VR, Virtual Reality)이란 컴퓨터로 만들어 놓은 가상의 세계에서 실제와 같은 체험을 할 수 있도록 하는 시뮬레이션 기술로서, 실제 현실은 아니지만 어떤 특정한 환경이나 상황을 현실과 같은 3차원으로 이루어진 가상 환경으로 만들어서 그것을 사용하는 사람이 가상 환경 내에서 가상의 공간과 물체를 기반으로 마치 실제 주변 환경이나 상황과 상호작용을 하고 있는 것처럼 만들어주는 인간-컴퓨터 사이의 인터페이스를 말한다.
위와 같은 특징에 기인하여 가상 현실은 의학 분야에서는 수술 및 해부 연습에 사용되고, 항공·군사 분야에서는 비행 조종 훈련에 이용되는 등 각 분야에 도입되어 활발히 응용되고 있다. 특히 가상 현실 기법이 적용된 게임의 경우에는 입체적으로 구성된 화면 속에서 게임을 하는 사람이 그 게임의 주인공으로 등장해 문제를 풀어나가는 경험을 제공한다.
상기한 가상 현실 기술이 적용된 게임은 VR 체험을 위해 사용자 눈 앞에 디스플레이가 오도록 머리에 쓰는 형태로 외부와 차단한 후 사용자의 시각에 가상 세계를 보여주는 역할을 하는 HMD(Head Mounted Display), 사용자의 모션을 인식하기 위한 모션 컨트롤러 등을 활용해 진행될 수 있다. 그러나 가상 현실 기술이 점차 발전되면서 가상 현실과 사용자 간의 상호작용(interaction) 즉, 가상 현실 입력 방식에 대한 문제점이 대두되고 있다.
종래의 가상 현실 입력 방식은 주로 사용자의 양팔에 가속도계를 부착하고 단순히 팔을 휘두르는 동작에서 측정된 가속도를 그대로 가상 현실 영상 내 캐릭터에 적용하여 캐릭터를 2차원 평면 내 이동시키거나 또는 가속도에 상관없이 가상 현실 영상 내 가상 공간을 끌어당겨 3차원 공간의 움직임을 통해 이동감을 주는 '암 스윙(arm swing)' 입력 방식을 이용하여 왔다.
그러나 이러한 암 스윙 입력 방식을 이용한 종래의 가상 현실 기술은 팔을 휘두르는 속도로 이동을 파악하는 경우 빠른 속도를 요하는 달리기와 같은 동작에 적합하나 동작 제어의 정교함이 떨어지고, 공간을 움직이는 경우 정교함을 요하는 암벽 등반과 같은 동작에는 적합하나 동작 제어의 속도감이 떨어지며, 또한 전후좌우의 2차원 평면 이동과 상하의 3차원 공간 이동을 함께 요하는 장애물 달리기와 같은 동작 제어는 불가능하여 실제감 있는 가상 현실 체험 환경을 조성하지 못하는 문제점이 있었다.
따라서 이러한 가상 현실 체험에서 사용자가 가상 환경을 보다 실감 있게 느낄 수 있도록 하기 위해서는 사용자의 미세하고 정교한 움직임에서부터 빠른 가속, 방향 전환 등까지 그리고 걷기, 달리기뿐만 아니라 등반, 점프까지 모든 동작 변화를 생동적으로 재현할 수 있는 통합 이동 조종 방식의 가상 현실 기술이 요구되고 있다.
대한민국 등록특허공보 제10-1865282호(공고일자 2018. 05. 31.) 대한민국 공개특허공보 제10-2017-0114371호(공개일자 2017. 10. 16.) 대한민국 등록특허공보 제10-1656025호(공고일자 2016. 09. 02.)
따라서, 본 발명은 상기한 종래 기술의 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 가상 현실 로코모션 컨트롤러를 통한 잡기 모션을 허용하여 가상 현실 영상 내 캐릭터의 움직임을 수평 평면뿐만 아니라 수직적으로도 제어하는 가상 현실 로코모션 통합 제어 시스템 및 방법을 제공하는데 있다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시 예에 따른 가상 현실 로코모션 통합 제어 방법은 모션 컨트롤러에 의해 제어되는 움직임을 가상 현실 단말에 재현함으로써 사용자가 가상 현실의 움직임을 마치 현실처럼 느낄 수 있도록 하는 가상 현실 로코모션 통합 제어 방법으로서, 상기 모션 컨트롤러를 통해 사용자의 잡기 모션이 인식되면 상기 가상 현실 단말에 보여지는 가상 환경 내 상기 잡기 모션이 인식된 위치에 가상의 이동 지지점(A, anchor)을 생성하는 단계 및 상기 잡기 모션이 유지된 상태에서 상기 모션 컨트롤러를 통해 전달된 모션 신호가 상기 사용자가 상기 가상 현실 환경 속에 들어가서 수평적으로 뿐만 아니라 수직적으로도 이동하는 듯한 가상 현실감을 제공하는 단계를 포함한다.
상기 가상 현실 로코모션 통합 제어 방법은 상기 잡기 모션이 인식된 위치가 상기 가상 환경 내 가상의 빈 공간인지 또는 고정 물체인지를 판단하는 단계를 더 포함할 수 있다.
상기 가상 현실 로코모션 통합 제어 방법은 상기 잡기 모션이 인식된 위치가 빈 공간이고 상기 잡기의 상태에서 상기 모션 컨트롤러의 이동이 인식되면 상기 모션 컨트롤러의 이동을 2차원 평면으로 투영시켜 상기 이동 지지점으로부터 이동된 상기 모션 컨트롤러의 수평 변위를 상기 가상 현실 영상 내 가상 캐릭터에 수평 방향 이동 모션으로 재현하여 상기 사용자가 수평적으로 이동하는 듯한 가상 현실감을 제공하는 단계를 더 포함할 수 있다.
상기 수평 변위는 상기 2차원 평면에서의 상기 모션 컨트롤러의 위치 변화량을 나타낼 수 있다.
상기 가상 현실 로코모션 통합 제어 방법은 상기 모션 컨트롤러를 통해 상기 사용자의 다른 손의 잡기 모션이 인식되면 상기 이동 지지점을 상기 다른 손의 잡기 모션이 인식된 위치를 기준으로 새롭게 생성하는 단계를 더 포함할 수 있다.
상기 가상 현실 로코모션 통합 제어 방법은 상기 사용자가 상기 모션 컨트롤러를 이용하여 양손을 번갈아가며 상기 빈 공간을 잡고 당기면 상기 가상 캐릭터에 지속적인 수평 방향 이동 모션이 재현되어 상기 사용자가 계속하여 수평적으로 이동하는 듯한 가상 현실감을 제공하는 단계를 더 포함할 수 있다.
상기 가상 현실 로코모션 통합 제어 방법은 상기 잡기 모션이 인식된 위치가 고정 물체라고 판단될 경우 상기 가상 현실 영상 내 가상 캐릭터가 이미 가지고 있는 모든 운동량을 리셋시키는 단계 및 상기 이동 지지점으로부터 이동된 상기 모션 컨트롤러의 3차원 변위를 상기 가상 현실 영상 내 가상 캐릭터에 3차원 이동 모션으로 재현하여 상기 사용자가 3 자유도로 이동하는 듯한 가상 현실감을 제공하는 단계를 더 포함할 수 있다.
상기 가상 현실 로코모션 통합 제어 방법은 상기 모션 컨트롤러를 통해 상기 사용자의 다른 손의 잡기 모션이 인식되면 상기 이동 지지점을 상기 다른 손의 잡기 모션이 인식된 위치를 기준으로 새롭게 생성하는 단계를 더 포함할 수 있다.
상기 가상 현실 로코모션 통합 제어 방법은 상기 사용자가 상기 모션 컨트롤러를 이용하여 양손을 번갈아가며 상기 고정 물체를 잡고 당기면 상기 가상 캐릭터에 지속적인 3차원 이동 모션이 재현되어 상기 사용자가 계속하여 3차원으로 이동하는 듯한 가상 현실감을 제공하는 단계를 더 포함할 수 있다.
상기 잡기 모션은 상기 사용자가 상기 모션 컨트롤러의 특정 버튼을 누르고 있는 것일 수 있다.
상기 가상 현실 로코모션 통합 제어 방법은 상기 모션 컨트롤러를 통해 사용자의 놓기 모션이 인식되면 이동 상태를 계속 유지하려는 관성의 법칙을 적용하여 상기 놓기 모션의 순간 상기 모션 컨트롤러의 이동 속도와 반대 방향의 속도를 상기 가상 캐릭터에 축적시킴으로써 상기 캐릭터가 관성으로 계속 이동하는 듯한 가상 현실감을 제공하는 단계를 더 포함할 수 있다.
상기 가상 현실 로코모션 통합 제어 방법은 상기 사용자가 상기 모션 컨트롤러를 이용하여 양손을 번갈아가며 잡고 당긴 후 놓기를 반복할수록 상기 사용자가 더 빠르게 이동하는 듯한 가상 현실감을 제공하는 단계를 더 포함할 수 있다.
상기 가상 현실 로코모션 통합 제어 방법은 상기 축적된 속도가 중력의 반대 방향으로 소정의 임계치 이상이 되면 중력의 반대 방향으로 점프하는 듯한 가상 현실감을 제공하는 단계를 더 포함할 수 있다.
상기 가상 현실 로코모션 통합 제어 방법은 상기 잡기의 상태에서 상기 모션 컨트롤러의 이동이 인식되지 않으면 상기 가상 캐릭터에 제동력을 적용하는 단계를 더 포함할 수 있다.
상기 가상 캐릭터에 축적되는 속도값은 상기 놓기 모션의 순간 속도값을 저대역 필터링을 통해 안정화시킨 속도값인 것이 바람직하다.
상기 놓기 모션은 상기 사용자가 누르고 있던 상기 모션 컨트롤러의 특정 버튼을 떼는 것일 수 있다.
상기 가상 현실 로코모션 통합 제어 방법은 축적되는 관성에 따라 상기 가상 캐릭터가 계속해서 이동하게 되는 경우 상기 사용자는 시간이 지남에 따라 마찰 혹은 다른 물체와의 충돌에 의해 정지하게 되는 듯한 가상 현실감을 제공하는 단계를 더 포함할 수 있다.
상술한 바와 같이, 본 발명에 의한 가상 현실 로코모션 컨트롤러를 통한 잡기 모션을 허용하여 가상 현실 영상 내 캐릭터의 움직임을 수평 평면뿐만 아니라 수직적으로도 제어하는 가상 현실 로코모션 통합 제어 시스템 및 방법은 다음과 같은 효과를 제공한다.
사용자의 등반과 같이 미세하고 정교한 움직임에서부터 달리기와 같이 빠른 가속, 방향 전환 등까지 우수한 조종 방식의 가상 현실 기술을 제공할 수 있다
그리고 걷기, 달리기와 같은 수평적 움직임뿐만 아니라 등반, 점프와 같은 수직적 움직임까지 거의 대부분의 실제 동작에 대응한 동작 조정이 가능한 이동 조종 방식의 가상 현실 기술을 제공할 수 있다.
패드 등을 통한 움직임이 실제 동작과 가상 이동이 일치하지 않아 어지러움을 유발하는 것과 달리, 팔 동작에 대응해서 가상 이동을 제어하기 때문에 어지러움을 감소시킬 수 있다. 이때 실제 발이 움직이지 않더라도 걷거나 뛸 때 팔이 함께 따라 움직이는 것이 자연스럽기 때문에 팔 동작을 가상 이동과 동기화시킴으로써 어지러움을 크게 감소시킬 수 있다.
도 1은 본 발명의 바람직한 실시 예에 따른 잡기 모션을 활용한 가상 현실 로코모션 통합 제어 시스템이 제공될 수 있는 네트워크 환경을 예시한 블록도이다.
도 2는 본 발명의 바람직한 실시 예에 따른 잡기 모션을 활용한 가상 현실 로코모션 통합 제어 방법의 전체 동작을 나타낸 흐름도이다.
도 3은 본 발명의 일 실시 예에 따라 사용자의 잡기 모션을 기반으로 가상 현실 영상 내 가상 캐릭터의 움직임을 2 자유도로 제어하는 모습의 일례를 나타내기 위한 도면이다.
도 4는 본 발명의 다른 실시 예에 따라 사용자의 잡기 모션을 기반으로 가상 현실 영상 내 가상 캐릭터의 움직임을 3 자유도로 제어하는 모습의 일례를 나타내기 위한 도면이다.
도 5는 본 발명의 또 다른 실시 예에 따라 사용자의 놓기 모션을 기반으로 가상 현실 영상 내 가상 캐릭터의 움직임을 제어하는 모습의 일례를 나타내기 위한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다.
도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한, 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록들 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합일 수 있다.
또한, 어떤 구성요소들을 포함한다는 표현은 개방형의 표현으로서 해당 구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안 된다.
또한, 어떤 구성요소가 다른 구성요소에 연결되어 있다거나 접속되어 있다고 언급될 때에는, 그 다른 구성요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다.
그리고, 본 발명에서 사용되는 '수평적', '수평 방향', '수직적' 또는 '수직 방향'이라 함은 각각, 도 3에 도시된 데카르트 좌표계의 정밀한 '수평(즉, xy 평면) 또는 '수직(즉, z축)' 뿐만 아니라 '다소 수평 방향' 또는 '다소 수직 방향'을 포함하여 지칭한다).
도 1은 본 발명의 바람직한 실시 예에 따른 잡기 모션을 활용한 가상 현실 로코모션 통합 제어 시스템이 제공될 수 있는 네트워크 환경을 예시한 블록도이다.
도 1에 도시된 바와 같이, 본 발명의 바람직한 실시 예에 따른 잡기 모션을 활용한 가상 현실 로코모션 통합 제어 시스템이 제공될 수 있는 네트워크 환경은 가상 현실 체험을 위한 가상 현실 인터페이스 및 디스플레이를 지원하는 가상 현실 단말(100)이 유무선 통신 네트워크(300)를 통해 사용자의 모션을 인식하기 위한 모션 컨트롤러(200)에 연결된 상태에서의 네트워크 시스템을 바탕으로 한다.
다만 이하에서 언급되는 네트워크 환경은 도 1에 도시된 구성요소들 중 적어도 하나를 포함하나, 반드시 이에 한정되는 것은 아니다.
가상 현실 단말(이하, VR 단말)(100)은 가상 현실 체험을 위한 가상 현실 인터페이스 및 디스플레이를 지원하는 장치로서, 사용자의 모션을 인식하기 위한 모션 컨트롤러(MC, Motion Controller)(200)로부터 사용자의 모션 신호를 입력받아 이를 기초로 VR 영상에 가상 캐릭터의 모션을 재현하여 사용자의 시각에 VR 영상을 보여주는 역할을 할 수 있다.
이때 VR 단말(100)에는 통신 네트워크를 통해 적합한 프로그램 또는 어플리케이션으로부터 다운로드되는 실행 가능한 패키지 설치 파일과 같은 하나 이상의 다운로드된 파일로 설치되어 실행되는, 특히 본 발명의 바람직한 실시 예인 잡기 모션을 활용한 가상 현실 로코모션 통합 제어 시스템과 관련된 하나 이상의 프로그램 또는 어플리케이션이 미리 설치되어 있거나 자체적으로 내장되어 있어 이를 통해 VR 영상을 생성 및/또는 재생할 수 있다.
이에 따라 VR 단말(100)은 모션 컨트롤러(200)와 유무선 통신 네트워크(300)를 통해 데이터 또는 신호를 송수신하도록 구성될 수 있는 유무선 통신부(110)를 통해 모션 컨트롤러(200)로부터 사용자의 모션 신호를 입력받는 입력부(120) 및 입력받은 모션 신호를 기초로 VR 영상 내 캐릭터의 모션을 수평 평면뿐만 아니라 수직적으로도 제어하여 거의 대부분의 실제 모션에 대응한 모션 조종이 가능한 제어부(130)를 포함하여 구성될 수 있다.
모션 컨트롤러(200)는 VR 단말(100)에 보여질 VR 영상에 반영될 사용자의 모션 즉, 사용자의 위치(position), 방위(orientation), 각도(angle)의 변화 등을 인식하여 VR 체험을 진행하는 장치로서, 이를 위해 관성 측정 장치(IMU, Inertial Measurement Unit)를 포함하여 이루어질 수 있다.
관성 측정 장치(IMU)는 가속도계와 각속도계, 때로는 지자기계 및 고도계의 조합을 사용하여 이동 객체의 속도와 방향, 중력, 가속도를 측정하여 이동 객체의 움직임 상황을 인식하는 장치이다. 이러한 IMU에는 일반적으로 3축 가속도계와 3축 각속도계가 내장되어 있어 x축, y축 및 y축으로 이루어지는 3차원 공간에서 이동 객체의 동작의 진행 방향, 횡 방향, 높이 방향의 가속도(선형 이동 관성)와 이동 객체의 동작의 정도인 롤(roll), 피치(pitch), 요(yaw) 각속도(회전 관성)의 측정이 가능하고, 지자기계를 통해 방위각 측정이 가능하다. 그리고 IMU로부터 얻어지는 가속도와 각속도를 적분하여 이동 객체의 속도와 자세각의 산출이 가능하다.
즉, 본 발명에서 모션 컨트롤러(200)에 의한 사용자의 모션에 대한 인식은 도면들에 도시된 데카르트 좌표계의 x축, y축 및 y축으로 이루어지는 3차원 공간에서 사용자의 신체를 이용하여 수행되는 동작의 진행 방향, 횡 방향, 높이 방향의 가속도와 동작의 정도인 롤(roll), 피치(pitch), 요(yaw) 각속도 중 적어도 하나 이상을 포함하여 이루어질 수 있으며, 사용자의 신체를 이용하여 수행되고 그에 따라 VR 영상에서 재현될 동작은 수평 평면에서의 2 자유도(DOF, Degree Of Freedom)로부터 수직 축(뿐만 아니라 수직 축으로부터 어떤 각도를 갖는 경사면을 포함함)까지 확장된 3 자유도(DOF, Degree Of Freedom) 회전 또는 이동하는 것을 포함하여 이루어질 수 있다.
유무선 통신 네트워크(300)는 VR 단말(100) 및 모션 컨트롤러(200)가 VR 영상을 생성 및/또는 재생하는 것과 관련된 데이터 및 신호를 송수신하기 위해 이용하는 통신망을 의미하여, 그 종류는 특별히 제한되지 않는다.
이하 본 발명의 잡기 모션을 활용한 가상 현실 로코모션 통합 제어 방법에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
먼저 본 발명의 바람직한 실시 예에 따른 가상 현실 로코모션 통합 제어 방법에서는 이를테면 사용자가 모션 컨트롤러(200)의 특정 버튼을 누르고 있는 것을 잡기 모션으로 인식하여 VR 단말(100)에 보여지는 가상 환경 내 모션 컨트롤러(200)의 위치에 있는 가상의 공간 또는 고정 물체를 잡고, 버튼을 떼면 잡고 있던 공간 또는 고정 물체를 놓는다. 본 발명의 바람직한 실시 예에 따른 가상 현실 로코모션 통합 제어 방법은 이러한 사용자의 잡기 모션이 인식되는 것으로부터 시작된다.
도 2는 본 발명의 일 실시 예에 따른 잡기 모션을 활용한 가상 현실 로코모션 통합 제어 방법의 전체 동작을 나타낸 흐름도이다.
도 2에 도시된 바와 같이, 본 발명의 일 실시 예에 따른 가상 현실 로코모션 통합 제어 방법은 모션 컨트롤러(200)로부터 상기한 바와 같은 사용자의 잡기 모션이 인식되면(S2000), VR 단말의 제어부(130)는 모션 컨트롤러(200)가 잡힌 위치가 가상 환경 내 가상의 빈 공간인지 또는 고정 물체인지를 판단한다(S2100).
단계 S2100에서 잡힌 위치가 빈 공간이라고 판단될 경우 제어부(130)는 단계 S2200으로 진행하여 VR 단말(100)에 보여지는 가상 환경 내 모션 컨트롤러(200)가 잡힌 위치에 가상의 이동 지지점(A, anchor)을 생성한다(S2210). 그리고 모션 컨트롤러(200)로부터 사용자의 이동 모션 신호가 인식되면(S2220의 예), 모션 컨트롤러(200)의 이동을 수평 평면(도 3에 도시된 데카르프 좌표계의 xy 평면)으로 투영시켜 단계 S2210에서 생성된 이동 지지점(A)으로부터 이동된 모션 컨트롤러(200)의 수평 변위를 VR 단말에 재생되는 VR 영상 내 캐릭터에 수평 방향 이동 모션(예를 들어, 수평 방향 걷기 모션)으로 재현한다(즉, 모션 컨트롤러(200)의 이동을 수평 평면에서의 2 자유도로 VR 영상의 캐릭터에 그대로 모사하여 예를 들어, 모션 컨트롤러(200)가 전후좌우로 이동되면 그에 따라 캐릭터도 전후좌우로 걸어가게 되고 모션 컨트롤러(200)가 정지되면 그에 따라 캐릭터도 정지하게 된다)(S2230). 이때 수평 변위는 도 3에 도시된 데카르트 좌표계의 xy 평면(즉, 가상 환경의 지면)과 수평한 방향(이를테면 전후좌우)의 모션 컨트롤러(200)의 위치 변화량을 나타낸다.
예로서, 본 발명의 일 실시 예에 따라 사용자의 잡기 모션을 기반으로 가상 현실 영상 내 캐릭터의 움직임을 2 자유도로 제어하는 모습의 일례를 나타내기 위한 도면인 도 3을 참조하여 단계 S2210에서 생성된 이동 지지점을 A, 단계 S2220에서 이동된 모션 컨트롤러(200)의 위치를 A'이라 하면, 해당 단계에서 제어부(130)는 이동 지지점(A)의 지면에 투영된 위치(Axy)로부터 이동된 모션 컨트롤러(200)의 위치(A')의 지면에 투영된 위치(A'xy)까지의 수평 변위를 캐릭터에 수평 방향 이동 모션으로 적용하여 캐릭터가 가상 환경의 지면을 당기듯 상기 수평 변위 반대로 이동하게 한다.
그리고 다시 모션 컨트롤러(200)로부터 사용자의 다른 손의 잡기 모션이 인식되면(S2240의 예), 단계 S2100으로 되돌아간다. 즉, VR 단말의 제어부(130)는 모션 컨트롤러(200)가 잡힌 위치가 가상 환경 내 가상의 빈 공간인지 또는 고정 물체인지를 판단하여(S2100), 다음 단계(S2200 또는 후술할 S2300)로 진행한다. 다시 말해, 다시 잡힌 위치가 빈 공간이라고 판단될 경우 제어부(130)는 단계 S2200으로 진행하여 VR 단말(100)에 보여지는 가상 환경 내 새롭게 모션 컨트롤러(200)가 잡힌 위치에 새로운 가상의 이동 지지점(A, anchor)을 생성하고(S2210) 다음 단계들을 진행한다. 예를 들어, 사용자가 모션 컨트롤러(200)를 이용하여 양손을 번갈아가며 가상의 빈 공간을 잡고 당기면 가상의 캐릭터에는 그러한 모션 컨트롤러(200)의 이동 모션에 따라 지속적으로 앞으로 걸어가는 모션이 재현될 수 있다.
단계 S2100으로 돌아가 잡힌 위치가 고정 물체라고 판단될 경우 제어부(130)는 단계 S2300으로 진행하여 먼저 캐릭터가 이미 가지고 있는 모든 운동량(또는 속도)을 리셋시킨 후(S2310), VR 단말(100)에 보여지는 가상 환경 내 모션 컨트롤러(200)가 잡힌 위치에 가상의 이동 지지점(A, anchor)을 생성한다(S2320). 그리고 모션 컨트롤러(200)의 이동을 어느 평면으로 투영시키지 않고 단계 S2320에서 생성된 이동 지지점(A)으로부터 이동된 모션 컨트롤러(200)의 360° 전 방위각에 걸친(이하, 전 방향 또는 3차원) 변위를 VR 단말에 재생되는 VR 영상 내 캐릭터에 전 방향 이동 모션(예를 들어, 수평 방향 걷기 모션 또는 수직 방향 오르내리기 모션)으로 재현한다(즉, 모션 컨트롤러(200)의 이동을 수평 평면으로부터 수직 축까지(수직 축으로부터 어떤 각도를 갖는 경사면을 포함함) 확장시켜 3 자유도로 VR 영상의 캐릭터에 그대로 모사하여 예를 들어, 모션 컨트롤러(200)가 전후좌우상하로 이동되면 그에 따라 캐릭터도 전후좌우상하로 걸어가게 되고 모션 컨트롤러(200)가 정지되면 그에 따라 캐릭터도 정지하게 된다)(S2330).
예로서, 본 발명의 다른 실시 예에 따라 사용자의 잡기 모션을 기반으로 가상 현실 영상 내 캐릭터의 움직임을 3 자유도로 제어하는 모습의 일례를 나타내기 위한 도면인 도 4를 참조하여 단계 S2320에서 생성된 이동 지지점을 A, 이동된 모션 컨트롤러(200)의 위치를 A'이라 하면, 해당 단계에서 제어부(130)는 이동 지지점(A)의 위치(Axyz)로부터 이동된 모션 컨트롤러(200)의 위치(A'xyz)까지의 전 방향 변위를 캐릭터에 전 방향 이동 모션으로 적용하여 캐릭터가 가상 환경의 고정 물체 또는 지면을 당기듯 상기 전 방향 변위 반대로 이동하게 한다. 특히, 이때 단계 S2100에서 잡힌 위치가 수평한 지면의 바닥인 경우 마찬가지로 단계 S2310에서 생성된 이동 지지점(A)으로부터 이동된 모션 컨트롤러(200)의 변위를 VR 단말에 재생되는 VR 영상 내 캐릭터에 수직 방향 이동 모션으로 적용할 수 있다. 이때 변위는 수평한 지면에서의 모션 컨트롤러(200)의 위치 변화량을 나타낼 것이다.
그리고 다시 모션 컨트롤러(200)로부터 사용자의 다른 손의 잡기 모션이 인식되면(S2340의 예), 단계 S2100으로 되돌아간다. 즉, VR 단말의 제어부(130)는 모션 컨트롤러(200)가 잡힌 위치가 가상 환경 내 가상의 빈 공간인지 또는 고정 물체인지를 판단하여(S2100), 다음 단계(S2200 또는 S2300)로 진행한다. 다시 말해, 다시 잡힌 위치가 고정 물체라면 제어부(130)는 단계 S2300으로 진행하여 캐릭터가 가지고 있는 모든 운동량(또는 속도)을 리셋시킨 후(S2310), VR 단말(100)에 보여지는 가상 환경 내 새롭게 모션 컨트롤러(200)가 잡힌 위치에 새로운 가상의 이동 지지점(A, anchor)을 생성하고(S2320) 다음 단계들을 진행한다. 예를 들어, 사용자가 모션 컨트롤러(200)를 이용하여 양손을 번갈아가며 가상의 고정 물체를 잡고 당기면 가상의 캐릭터에는 그러한 모션 컨트롤러(200)의 이동 모션에 따라 지속적으로 위로 올라가거나 앞으로 걸어가는 모션이 재현될 수 있다.
단계 S2230 또는 S2330의 상태에서 모션 컨트롤러(200)로부터 상기한 바와 같은 사용자의 놓기 모션이 인식되면(즉, 사용자가 모션 컨트롤러(200)로 고정 물체를 잡아 이동 지지점을 기준으로 이동하는 도중 누르고 있던 모션 컨트롤러(200)의 특정 버튼을 떼면)(S2250 또는 S2350의 예), 이동 상태를 계속 유지하려는 관성에 따라 모션 컨트롤러(200)의 놓기 모션의 순간 이동 속도와 반대 방향의 속도(또는 운동량)를 캐릭터에 축적한다(즉, 사용자의 놓기 모션의 순간 캐릭터가 바로 멈추는 것이 아니고 캐릭터에 축적된 속도를 가지고 모션 컨트롤러의 이동 속도의 반대 방향으로 계속 이동하게 된다)(S2400). 이때 실제로는 놓기 모션의 순간 속도값 그 자체 보다는 적당한 저대역 필터링을 통해 안정된 속도값을 축적시키는 것이 바람직하다.
예로서, 본 발명의 또 다른 실시 예에 따라 사용자의 놓기 모션을 기반으로 가상 현실 영상 내 가상 캐릭터의 움직임을 제어하는 모습의 일례를 나타내기 위한 도면인 도 5를 참조하여 단계 S2250에서 해제된 이동 지지점을 B, 단계 S2250에서 인식된 이동 지지점 해제 순간 모션 컨트롤러(200)의 이동 속도를 Ba라 하면, 해당 단계에서 제어부(130)는 그러한 이동 속도(Ba)와 반대 방향의 속도(또는 운동량)(-Ba)를 가상 캐릭터에 축적함으로써 캐릭터는 계속 이동 속도(Ba)의 반대 방향으로 이동하게 된다.
이에 따라 축적된 속도가 중력의 반대 방향으로 소정의 임계치 이상이 되면(S2410) 캐릭터를 중력의 반대 방향으로 점프하게 된다(이를테면, xy 평면에 대체로 상향으로 축적된 속도가 중력 가속도에 의한 낙하 속도를 극복할 정도의 임계치 이상이 되면 캐릭터는 예를 들어, xy 평면에 대체로 상향으로 뛰어오르게 된다)(S2420).
그 후 다시 모션 컨트롤러(200)로부터 사용자의 잡기 모션이 인식되는지 감지하기 위해 단계 S2000으로 되돌아간다. 이렇게 반복되는 단계들에 의해, 예를 들어, 사용자가 모션 컨트롤러(200)를 이용하여 양손을 번갈아가며 잡고 당긴 후 놓기를 반복한다면 가상의 캐릭터에는 그러한 모션 컨트롤러(200)의 이동 모션에 따른 속도가 계속 축적되어 더 빠르게 이동하는 모션이 재현될 수 있다.
마지막으로 상기한 바에 따라 사용자가 모션 컨트롤러(200)를 놓으면서 모션 컨트롤러(200)를 이동시킬 때 축적되는 관성에 따라 캐릭터가 계속해서 이동하게 되는 경우(단계 S2250 또는 S2350의 경우) 캐릭터는 시간이 지남에 따라 마찰 혹은 다른 물체와의 충돌에 의해 정지하게 될 것이다. 하지만 사용자가 캐릭터의 이동을 임의로 멈추고 싶을 때가 있을 수 있고 이를 위해 사용자는 모션 컨트롤러(200)로 가상의 빈 공간을 이동 없이 잡음으로써(S2220의 아니오) 캐릭터에 제동력이 적용되게 할 수 있다(S2222). 이 경우 제어부(130)는 그러한 잡은 상태의 유지 시간이 경과됨에 따라 축적되는 제동력을 캐릭터가 현재 가지고 있는 추진력과 비교하여(S2224) 제동력이 추진력에 이르기 전까지는 캐릭터의 이동 속도를 감속시킬 수 있으며(S2226) 제동력이 추진력에 이르면 캐릭터를 정지시킬 수 있다(S2228). 또는 사용자는 모션 컨트롤러(200)로 가상의 고정 물체를 잡음으로써(S2300) 캐릭터가 현재 가지고 있는 모든 운동량(또는 속도)을 리셋시킬 수 있다(S2310).
이상에서 몇 가지 실시 예를 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시 예로 국한되는 것은 아니고 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다.
또한, 편의를 위해 본 발명의 실시 예를 첨부한 도면들의 흐름도를 참조하여 구체적으로 설명하였으나, 본 발명의 범위는 그러한 순서로 제한되지 않는다.
100 : 가상 현실 단말
110 : 유무선 통신부
120 : 입력부
130 : 제어부
200 : 모션 컨트롤러
300 : 유무선 통신 네트워크

Claims (17)

  1. 모션 컨트롤러에 의해 제어되는 움직임을 가상 현실 단말에 재현함으로써 사용자가 가상 현실의 움직임을 마치 현실처럼 느낄 수 있도록 하는 가상 현실 로코모션 통합 제어 방법으로서,
    상기 모션 컨트롤러를 통해 사용자의 잡기 모션이 인식되면 상기 가상 현실 단말에 보여지는 가상 환경 내 상기 잡기 모션이 인식된 위치에 가상의 이동 지지점(A, anchor)을 생성하는 단계 및
    상기 잡기 모션이 유지된 상태에서 상기 모션 컨트롤러를 통해 전달된 모션 신호가 상기 사용자가 상기 가상 현실 환경 속에 들어가서 수평적으로 뿐만 아니라 수직적으로도 이동하는 듯한 가상 현실감을 제공하는 단계를 포함하는 가상 현실 로코모션 통합 제어 방법.
  2. 청구항 1에 있어서,
    상기 잡기 모션이 인식된 위치가 상기 가상 환경 내 가상의 빈 공간인지 또는 고정 물체인지를 판단하는 단계를 더 포함하는 가상 현실 로코모션 통합 제어 방법.
  3. 청구항 2에 있어서,
    상기 잡기 모션이 인식된 위치가 빈 공간이고 상기 잡기의 상태에서 상기 모션 컨트롤러의 이동이 인식되면 상기 모션 컨트롤러의 이동을 2차원 평면으로 투영시켜 상기 이동 지지점으로부터 이동된 상기 모션 컨트롤러의 수평 변위를 상기 가상 현실 영상 내 가상 캐릭터에 수평 방향 이동 모션으로 재현하여 상기 사용자가 수평적으로 이동하는 듯한 가상 현실감을 제공하는 단계를 더 포함하는 가상 현실 로코모션 통합 제어 방법.
  4. 청구항 3에 있어서,
    상기 수평 변위는 상기 2차원 평면에서의 상기 모션 컨트롤러의 위치 변화량을 나타내는 가상 현실 로코모션 통합 제어 방법.
  5. 청구항 4 중 어느 한 항에 있어서,
    상기 모션 컨트롤러를 통해 상기 사용자의 다른 손의 잡기 모션이 인식되면 상기 이동 지지점을 상기 다른 손의 잡기 모션이 인식된 위치를 기준으로 새롭게 생성하는 단계를 더 포함하는 가상 현실 로코모션 통합 제어 방법.
  6. 청구항 5에 있어서,
    상기 사용자가 상기 모션 컨트롤러를 이용하여 양손을 번갈아가며 상기 빈 공간을 잡고 당기면 상기 가상 캐릭터에 지속적인 수평 방향 이동 모션이 재현되어 상기 사용자가 계속하여 수평적으로 이동하는 듯한 가상 현실감을 제공하는 단계를 더 포함하는 가상 현실 로코모션 통합 제어 방법.
  7. 청구항 2에 있어서,
    상기 잡기 모션이 인식된 위치가 고정 물체라고 판단될 경우 상기 가상 현실 영상 내 가상 캐릭터가 이미 가지고 있는 모든 운동량을 리셋시키는 단계 및
    상기 이동 지지점으로부터 이동된 상기 모션 컨트롤러의 3차원 변위를 상기 가상 현실 영상 내 가상 캐릭터에 3차원 이동 모션으로 재현하여 상기 사용자가 3 자유도로 이동하는 듯한 가상 현실감을 제공하는 단계를 더 포함하는 가상 현실 로코모션 통합 제어 방법.
  8. 청구항 7에 있어서,
    상기 모션 컨트롤러를 통해 상기 사용자의 다른 손의 잡기 모션이 인식되면 상기 이동 지지점을 상기 다른 손의 잡기 모션이 인식된 위치를 기준으로 새롭게 생성하는 단계를 더 포함하는 가상 현실 로코모션 통합 제어 방법.
  9. 청구항 8에 있어서,
    상기 사용자가 상기 모션 컨트롤러를 이용하여 양손을 번갈아가며 상기 고정 물체를 잡고 당기면 상기 가상 캐릭터에 지속적인 3차원 이동 모션이 재현되어 상기 사용자가 계속하여 3차원으로 이동하는 듯한 가상 현실감을 제공하는 단계를 더 포함하는 가상 현실 로코모션 통합 제어 방법.
  10. 청구항 9에 있어서,
    상기 잡기 모션은 상기 사용자가 상기 모션 컨트롤러의 특정 버튼을 누르고 있는 것일 수 있는 가상 현실 로코모션 통합 제어 방법.
  11. 청구항 1 내지 10 중 어느 한 항에 있어서,
    상기 모션 컨트롤러를 통해 사용자의 놓기 모션이 인식되면 이동 상태를 계속 유지하려는 관성의 법칙을 적용하여 상기 놓기 모션의 순간 상기 모션 컨트롤러의 이동 속도와 반대 방향의 속도를 상기 가상 캐릭터에 축적시킴으로써 상기 캐릭터가 관성으로 계속 이동하는 듯한 가상 현실감을 제공하는 단계를 더 포함하는 가상 현실 로코모션 통합 제어 방법.
  12. 청구항 11에 있어서,
    상기 사용자가 상기 모션 컨트롤러를 이용하여 양손을 번갈아가며 잡고 당긴 후 놓기를 반복할수록 상기 사용자가 더 빠르게 이동하는 듯한 가상 현실감을 제공하는 단계를 더 포함하는 가상 현실 로코모션 통합 제어 방법.
  13. 청구항 11에 있어서,
    상기 축적된 속도가 중력의 반대 방향으로 소정의 임계치 이상이 되면 중력의 반대 반향으로 점프하는 듯한 가상 현실감을 제공하는 단계를 더 포함하는 가상 현실 로코모션 통합 제어 방법.
  14. 청구항 3에 있어서,
    상기 잡기의 상태에서 상기 모션 컨트롤러의 이동이 인식되지 않으면 상기 가상 캐릭터에 제동력을 적용하는 단계를 더 포함하는, 방법.
  15. 청구항 11에 있어서,
    상기 가상 캐릭터에 축적되는 속도값은 상기 놓기 모션의 순간 속도값을 저대역 필터링을 통해 안정화시킨 속도값인 가상 현실 로코모션 통합 제어 방법.
  16. 청구항 11에 있어서,
    상기 놓기 모션은 상기 사용자가 누르고 있던 상기 모션 컨트롤러의 특정 버튼을 떼는 것일 수 있는 가상 현실 로코모션 통합 제어 방법.
  17. 청구항 11에 있어서,
    축적되는 관성에 따라 상기 가상 캐릭터가 계속해서 이동하게 되는 경우 상기 사용자는 시간이 지남에 따라 마찰 혹은 다른 물체와의 충돌에 의해 정지하게 되는 듯한 가상 현실감을 제공하는 단계를 더 포함하는 가상 현실 로코모션 통합 제어 방법.
KR1020190002214A 2019-01-08 2019-01-08 잡기 모션을 활용한 가상 현실 로코모션 통합 제어 시스템 및 방법 KR102181226B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190002214A KR102181226B1 (ko) 2019-01-08 2019-01-08 잡기 모션을 활용한 가상 현실 로코모션 통합 제어 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190002214A KR102181226B1 (ko) 2019-01-08 2019-01-08 잡기 모션을 활용한 가상 현실 로코모션 통합 제어 시스템 및 방법

Publications (2)

Publication Number Publication Date
KR20200086061A true KR20200086061A (ko) 2020-07-16
KR102181226B1 KR102181226B1 (ko) 2020-11-20

Family

ID=71839590

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190002214A KR102181226B1 (ko) 2019-01-08 2019-01-08 잡기 모션을 활용한 가상 현실 로코모션 통합 제어 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102181226B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100121420A (ko) * 2009-05-08 2010-11-17 삼성전자주식회사 가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체
KR101656025B1 (ko) 2016-05-03 2016-09-08 (주) 올림플래닛 사용자의 모션에 대한 인식을 기반으로 가상현실 인터페이스 시스템 내 오브젝트를 제어하는 방법 및 이를 위한 컴퓨터 프로그램
KR20170114371A (ko) 2016-04-04 2017-10-16 삼성물산 주식회사 가상 현실 영상 및 모션 시뮬레이터 제어 장치, 시스템 및 방법
KR101865282B1 (ko) 2017-08-11 2018-06-07 (주)인테크 디자인 가상현실 스켈레톤 시뮬레이터 모션제어 장치 및 통합제어 방법
KR20180113301A (ko) * 2017-04-06 2018-10-16 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100121420A (ko) * 2009-05-08 2010-11-17 삼성전자주식회사 가상 세계에서의 객체를 제어하는 시스템, 방법 및 기록 매체
KR20170114371A (ko) 2016-04-04 2017-10-16 삼성물산 주식회사 가상 현실 영상 및 모션 시뮬레이터 제어 장치, 시스템 및 방법
KR101656025B1 (ko) 2016-05-03 2016-09-08 (주) 올림플래닛 사용자의 모션에 대한 인식을 기반으로 가상현실 인터페이스 시스템 내 오브젝트를 제어하는 방법 및 이를 위한 컴퓨터 프로그램
KR20180113301A (ko) * 2017-04-06 2018-10-16 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어방법
KR101865282B1 (ko) 2017-08-11 2018-06-07 (주)인테크 디자인 가상현실 스켈레톤 시뮬레이터 모션제어 장치 및 통합제어 방법

Also Published As

Publication number Publication date
KR102181226B1 (ko) 2020-11-20

Similar Documents

Publication Publication Date Title
Cheng et al. Turkdeck: Physical virtual reality based on people
JP6781255B2 (ja) 無人航空機の制御方法および装置
US9933851B2 (en) Systems and methods for interacting with virtual objects using sensory feedback
US9152248B1 (en) Method and system for making a selection in 3D virtual environment
JP6340414B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
Oda et al. Developing an augmented reality racing game
US20160250554A1 (en) Method and apparatus for using a common pointing input to control 3d viewpoint and object targeting
JP5116424B2 (ja) ゲームプログラムおよびゲーム装置
US10589176B2 (en) Method of providing a virtual space, medium for causing a computer to execute the method, and system for providing a virtual space
US20160124502A1 (en) Sensory feedback systems and methods for guiding users in virtual reality environments
JP2020519366A (ja) 仮想現実モバイルポッド
BR112012025005B1 (pt) Método para um personagem da realidade aumentada manter e exibir consciência de um observador
US20190204909A1 (en) Apparatus and Method of for natural, anti-motion-sickness interaction towards synchronized Visual Vestibular Proprioception interaction including navigation (movement control) as well as target selection in immersive environments such as VR/AR/simulation/game, and modular multi-use sensing/processing system to satisfy different usage scenarios with different form of combination
US20170371410A1 (en) Dynamic virtual object interactions by variable strength ties
WO2018122600A2 (en) Apparatus and method of for natural, anti-motion-sickness interaction towards synchronized visual vestibular proprioception interaction including navigation (movement control) as well as target selection in immersive environments such as vr/ar/simulation/game, and modular multi-use sensing/processing system to satisfy different usage scenarios with different form of combination
JP6910809B2 (ja) シミュレーションシステム、プログラム及びコントローラ
JP6964302B2 (ja) アニメーション制作方法
JP6227732B1 (ja) 仮想空間において入力を支援するための方法および装置、ならびに当該方法をコンピュータに実行させるプログラム
JP6126273B1 (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
JP2017220224A (ja) 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および仮想空間を提供するためのシステム
CN108700944A (zh) 与在虚拟现实环境中的运动有关的系统和方法
KR101618004B1 (ko) 가상 현실 기반의 인터랙티브 컨텐츠 제공 장치 및 그 방법
KR102181226B1 (ko) 잡기 모션을 활용한 가상 현실 로코모션 통합 제어 시스템 및 방법
JP2022007792A (ja) 航空機のvr訓練システム、航空機のvr訓練方法及び航空機のvr訓練プログラム
WO2020017440A1 (ja) Vr装置、方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant