KR101734520B1 - 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템 - Google Patents

자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템 Download PDF

Info

Publication number
KR101734520B1
KR101734520B1 KR1020160005429A KR20160005429A KR101734520B1 KR 101734520 B1 KR101734520 B1 KR 101734520B1 KR 1020160005429 A KR1020160005429 A KR 1020160005429A KR 20160005429 A KR20160005429 A KR 20160005429A KR 101734520 B1 KR101734520 B1 KR 101734520B1
Authority
KR
South Korea
Prior art keywords
user interface
unit
pattern
processing module
display device
Prior art date
Application number
KR1020160005429A
Other languages
English (en)
Inventor
박홍식
윤태수
채일진
이나영
Original Assignee
동서대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동서대학교 산학협력단 filed Critical 동서대학교 산학협력단
Priority to KR1020160005429A priority Critical patent/KR101734520B1/ko
Application granted granted Critical
Publication of KR101734520B1 publication Critical patent/KR101734520B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality

Abstract

본 발명은, 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템에 관한 것이다. 본 발명은, 입력부를 통한 사용자의 요청에 따라 저장부에 저장된 3D/4D 콘텐츠를 출력부로 출력하는 디스플레이 장치; 및 자이로 센서에 의한 미리 설정된 패턴 입력을 수신하는 경우, 다수의 미리 설정된 패턴 중 입력된 패턴 식별번호를 포함하는 패턴 입력 메시지를 생성한 뒤, 패턴 입력 메시지를 상기 디스플레이 장치로 전송하여, 상기 디스플레이 장치에 의해 패턴 입력 메시지와 매칭되는 3D/4D 콘텐츠 내의 미리 설정된 유저 인터페이스 특수 효과 정보를 저장부로부터 추출하여 상기 출력부에 출력되고 있는 3D/4D 콘텐츠에 반영하여 표시하도록 하는 타겟 입력장치; 를 포함하는 것을 특징으로 하는 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템을 제공함에 있다.
이에 의해, 콘텐츠 출력시 사용자의 동작 패턴을 인식한 뒤, 추출된 특징점을 기반으로 3D/4D 콘텐츠에 적용되는 다수의 기본동작에 해당하는 중요한 유저인터페이스 효과를 처리함으로써, 사용자가 보다 효율적으로 콘텐츠 상에서 동작을 표현할 수 있는 효과를 제공한다.
또한 본 발명은, 4D 모션 체어, HMD와 같은 VR 기기와의 연동을 통해 실감미디어 재현 시스템으로도 작동할 수 있는 효과를 제공한다.

Description

자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템{User Interfacing system based on movement patterns recognition by gyro sensor}
본 발명은 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템에 관한 것으로, 보다 구체적으로는, 기본 동작을 사용자의 동작으로 인식함으로써 3D 콘텐츠 또는 4D 콘텐츠에 대한 출력시, 사용자의 동작의 의미를 고려하여 표시할 수 있어, 보다 자연스러운 가상현실 유저 인터페이스(User Interface) 화면을 구현하도록 하기 위한 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템에 관한 것이다.
개인용 컴퓨터 또는 가정용 게임 콘솔 플랫폼의 게임들이 다양하게 개발되고 있다. 이러한 게임들 가운데에는 단순한 조작방식을 갖는 캐쥬얼 아케이드 게임에서부터 방대한 맵 상에서 자신의 플레이어 캐릭터를 조작하여 이동함으로써 진행되는 RPG(Role Playing Game)까지 다양한 게임이 개발되고 있으며, 이러한 게임 콘텐츠들은 2D 콘텐츠에 대한 요구는 감소되고 있으나, 역으로 가상현실 플랫폼과의 연동을 위한 3D 콘텐츠 또는 4D 콘텐츠에 대한 요구는 증가하고 있는 실정이다. 즉, 게임뿐만 아니라 게임을 활용한 교육 등과 같은 가상 체험에 적용하기 위해 가상현실을 적용하기 위한 3D 또는 4D 콘텐츠들이 다양하게 개발되고 있다.
한편, 가상현실이란 컴퓨터를 이용하여 실제 환경과 유사하게 만들어진 가상공간속에서 인간 감각계(시각, 청각, 촉각)와의 상호작용을 통해 공간적, 물리적 제약에 의해 현실세계에서는 직접 경험하지 못하는 상황을 간접 체험할 수 있도록 하는 기술이다. 사용자가 게임 안에서 움직이는 캐릭터(character)를 가상현실 공간에서 직접 조작한다면 게임에 대한 효과는 커질 것이다.
대한민국 특허등록공보 등록번호 제10-1509245호 "휴대용 단말기에서 패턴 인식을 이용한 사용자 인터페이스장치 및 방법" 대한민국 특허등록공보 등록번호 제10-1272570호 "패턴인식을 이용한 자동차 가감속 정보 추출 장치 및 그 방법" 대한민국 특허공개공보 공개번호 제10-2008-0008455호 "3D 입체 게임 시스템"
본 발명은 게임시 사용자의 동작 패턴을 인식한 뒤, 추출된 특징점을 기반으로 콘텐츠에 적용되는 다수의 기본동작에 해당하는 중요한 유저인터페이스 효과를 처리함으로써, 사용자가 보다 효율적으로 콘텐츠 상에서 동작을 표현하도록 하기 위한 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템을 제공하기 위한 것이다.
또한, 본 발명은 4D 모션 체어, HMD(Head mounted Display)와 같은 VR(Virtual Reality) 기기와의 연동을 통해 실감미디어 재현 시스템으로도 작동되도록 하기 위한 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템을 제공하기 위한 것이다.
그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템은, 입력부를 통한 사용자의 요청에 따라 저장부에 저장된 3D/4D 콘텐츠를 출력부로 출력하는 디스플레이 장치; 및 자이로 센서에 의한 미리 설정된 패턴 입력을 수신하는 경우, 다수의 미리 설정된 패턴 중 입력된 패턴 식별번호를 포함하는 패턴 입력 메시지를 생성한 뒤, 패턴 입력 메시지를 상기 디스플레이 장치로 전송하여, 상기 디스플레이 장치에 의해 패턴 입력 메시지와 매칭되는 3D/4D 콘텐츠 내의 미리 설정된 유저 인터페이스 특수 효과 정보를 저장부로부터 추출하여 상기 출력부에 출력되고 있는 3D/4D 콘텐츠에 반영하여 표시하도록 하는 타겟 입력장치; 를 포함한다.
이때, 상기 유저 인터페이스 특수 효과 정보는, 3D/4D 콘텐츠가 게임 콘텐츠인 경우, 게임 내에서 탄창 교환이나, 또는 총기 교환(다른 화기로 교환) 중 하나인 것이 바람직하다.
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 방법은, 디스플레이 장치가 입력부를 통한 사용자의 요청에 따라 저장부에 저장된 3D/4D 콘텐츠를 출력부로 출력하는 콘텐츠 출력 단계; 타겟 입력장치가 장치에 포함된 자이로 센서에 의한 미리 설정된 패턴 입력을 수신하는 경우, 다수의 미리 설정된 패턴 중 입력된 패턴 식별번호를 포함하는 패턴 입력 메시지를 생성한 뒤, 패턴 입력 메시지를 상기 디스플레이 장치로 전송하는 패턴 인식 단계; 및 상기 디스플레이 장치가 수신된 패턴 입력 메시지와 매칭되는 3D/4D 콘텐츠 내의 미리 설정된 유저 인터페이스 특수 효과 정보를 저장부로부터 추출하여 상기 출력부에 출력되고 있는 3D/4D 콘텐츠에 반영하여 표시하는 특수 효과 표시 단계; 를 포함한다.
이때, 상기 콘텐츠 출력 단 이후, 상기 타겟 입력장치가 외부에 포함된 촬상부에 의해 촬영된 상기 디스플레이 장치를 향하는 제 1 촬영 이미지를 상기 디스플레이 장치로 전송하는 영상 정보 전송 단계; 를 더 포함하는 것이 바람직하다.
또한, 상기 영상 정보 전송 단계 이후, 상기 디스플레이 장치가 패턴 인식 디바이스에 의해 제 1 촬영 이미지 생성 당시에 촬영된 제 2 촬영 이미지와의 3D 입체 좌표 분석을 통해 상기 출력부 상의 기준 포인트(Ref. point)를 연산하는 연산 수행 단계; 및 상기 디스플레이 장치가 상기 출력부로 출력되는 3D/4D 콘텐츠에 대응하여 유저 인터페이스 일반 효과를 표시하는 일반 효과 표시 단계; 를 더 포함하는 것이 바람직하다.
또한, 패턴 인식 단계에서 미리 설정된 패턴은, 상기 디스플레이 장치의 저장부에 저장된 3D/4D 콘텐츠를 이용한 상기 디스플레이 장치의 출력부로 표현되는 유저인터페이스(User Interface) 화면 전개를 위한 내비게이션 역할을 수행하며, 특수 효과 표시 단계에서는 상기 디스플레이 장치의 출력부로 출력되는 3D/4D 콘텐츠 내에서 상기 자이로 센서의 방향 인식에 따른 상기 자이로 센서의 미리 설정된 개수의 축 중 적어도 하나 이상의 축이 지향하는 곳으로의 UI 화면 이동 전개, 상기 자이로 센서의 미리 설정된 개수의 축 중 절대축으로 지정된 것의 각도 센싱에 따라 각도에 비례하게 빠른 또는 느린 UI 화면 전개를 상기 출력부에 출력되고 있는 3D/4D 콘텐츠에 반영하여 표시하는 것이 바람직하다.
본 발명의 실시예에 따른 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템은, 콘텐츠 출력시 사용자의 동작 패턴을 인식한 뒤, 추출된 특징점을 기반으로 콘텐츠에 적용되는 다수의 기본동작에 해당하는 중요한 유저인터페이스 효과를 처리함으로써, 사용자가 보다 효율적으로 콘텐츠 상에서 동작을 표현할 수 있는 효과를 제공한다.
뿐만 아니라, 본 발명의 실시예에 따른 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템은, 4D 모션 체어, HMD와 같은 VR 기기와의 연동을 통해 실감미디어 재현 시스템으로도 작동할 수 있는 효과를 제공한다.
도 1은 본 발명의 실시예에 따른 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템을 나타내는 도면.
도 2는 도 1의 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템 중 타겟 입력장치의 구성을 나타내는 블록도.
도 3은 도 1의 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템 중 디스플레이 장치의 구성을 나타내는 블록도.
도 4는 도 3의 디스플레이 장치 중 제어부의 구성을 나타내는 블록도.
도 5는 본 발명의 실시예에 따른 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 방법을 나타내는 흐름도.
이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.
도 1은 본 발명의 실시예에 따른 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템을 나타내는 도면이다. 도 1을 참조하면, 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템은 타겟 입력장치(10), 디스플레이 장치(20) 및 패턴 인식 디바이스(21)를 포함한다. 또한 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템은 추가로 4D 모션 체어(30), HMD(Head mounted Display; 40)와 같은 VR(Virtual Reality) 기기를 포함함으로써, 움직이는 4D 모션 체어(30)와 HMD(40), 그 밖의 VR(Virtual Reality) 같은 미디어 특성을 갖는 기기와 같이 연동하여 mpeg-v(Media Context and Control-Virtual Worlds) 기반의 실감미디어 재현 시스템으로 작동할 수 있다.
타겟 입력장치(10)는 적외선 입력장치이거나, 타겟 입력장치(10)의 촬상부(11) 및 패턴 인식 디바이스(21)에 의한 영상 인식 방식에 의한 탄착 지점에 해당하는 기준 포인트(Ref. point)를 인식하도록 할 수 있는 것으로, 도 1에 도시된 바와 같이 총 형상으로 제작되거나 그 밖의 다양한 형상으로 제작될 수 있다.
디스플레이 장치(20)는 LCD 디스플레이, OLED 디스플레이 등과 같은 전자디스플레이장치로 형성되는 경우 출력부(22) 상으로 3D 또는 4D 콘텐츠(이하 3D/4D 콘텐츠)를 직접 전송하도록 I/O 인터페이스를 제어하거나, 외부의 빔프로젝터(미도시)에 대한 제어를 통해 빔 투사 방식을 통해 3D/4D 콘텐츠를 표현하도록 I/O 인터페이스를 통해 빔프로젝터로 제어 명령을 전송할 수 있다.
패턴 인식 디바이스(21)는 카메라 및 적외선 인식 디바이스로 형성될 수 있으며, 타겟 입력장치(10)에 의한 기준 포인트(Ref. point)를 인식시 출력부(22) 상의 기준 포인트(Ref. point) 좌표 분석을 위해 사용될 수 있다.
도 2는 도 1의 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템 중 타겟 입력장치(10)의 구성을 나타내는 블록도이다. 도 2를 참조하면, 타겟 입력장치(10)는 촬상부(11), 적외선 출력부(12), 자이로 센서(13), 슈팅 입력부(14), 제 1 통신부(15) 및 MPU(16)를 포함한다.
MPU(16)는 디스플레이 장치(20)의 출력부(22)로 3D/4D 콘텐츠가 출력되면, 타겟 입력장치(10) 상에 총의 방아쇠의 형상으로 제작 가능한 슈팅 입력부(14)로의 사용자 입력에 따라, 촬상부(11)에 의해 촬영된 디스플레이 장치(24)를 향하는 제 1 촬영 이미지를 디스플레이 장치(20)로 전송하도록 제 1 통신부(15)를 제어한다.
한편, MPU(16)는 자이로 센서(13)에 의한 미리 설정된 패턴 입력을 수신하는 경우, 다수의 미리 설정된 패턴 중 하나의 입력된 패턴 식별번호를 포함하는 패턴 입력 메시지를 생성하여 패턴 입력 메시지를 디스플레이 장치(20)로 전송하도록 제 1 통신부(15)를 제어한다.
여기서 미리 설정된 패턴은 디스플레이 장치(20)의 저장부(24)에 저장된 3D/4D 콘텐츠를 이용한 디스플레이 장치(20)의 출력부(22)로 표현되는 유저인터페이스(User Interface) 화면 전개를 위한 내비게이션 역할을 수행할 수 있다.
보다 구체적으로, 3D/4D 콘텐츠 내에서 자이로 센서(13)의 방향 인식에 따른 좌, 우 이동 즉, 자이로 센서(13)의 미리 설정된 개수의 축 중 적어도 하나 이상의 축이 지향하는 곳으로의 UI 화면 이동 전개, 자이로 센서(13)의 미리 설정된 개수의 축 중 절대축으로 지정된 것의 각도 센싱에 따라 각도에 비례하게 빠른 또는 느린 UI 화면 전개 등에 대해서 미리 설정된 패턴과 매칭되어 있는 것이 바람직하다.
이와 같은, 자이로 센서(13)에 의해 인식되는 미리 설정된 패턴과 3D/4D 콘텐츠 간의 매칭은 디스플레이 장치(20)의 저장부(24)에 저장된 3D/4D 콘텐츠 내에 태그 정보로 함께 저장됨으로써, 디스플레이 장치(20)는 미리 설정된 패턴에 대한 반응으로 UI 화면 내에서 이동의 형식을 제공하는 내비게이션 역할을 수행한다.
도 3은 도 1의 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템 중 디스플레이 장치(20)의 구성을 나타내는 블록도이다. 도 3을 참조하면, 디스플레이 장치(20)는 패턴 인식 디바이스(21), 출력부(22), 제어부(23), 저장부(24), 제 2 통신부(25) 및 입력부(26)를 포함한다.
도 4는 도 3의 디스플레이 장치(20) 중 제어부(23)의 구성을 나타내는 블록도이다. 도 4를 참조하면, 제어부(23)는 패턴 인식 분석 모듈(23a), 유저 인터페이스 처리 모듈(23b), VR 기기 처리 모듈(23c)을 포함하며, VR 기기 처리 모듈(23c)은 mpeg-v 처리 모듈(23c-1), 4D 모션 체어 처리 모듈(23c-2) 및 HMD 처리 모듈(23c-3)을 포함할 수 있다.
이하에서는 제어부(23)의 구성을 중심으로, 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템 중 디스플레이 장치(20)에 대해서 구체적으로 살펴보도록 한다.
패턴 인식 분석 모듈(23a)은 입력부(26)를 통한 사용자의 요청에 따라 저장부(24)에 저장된 3D/4D 콘텐츠를 출력부(22)로 출력한다.
패턴 인식 분석 모듈(23a)은 3D/4D 콘텐츠의 출력되는 동안에 타겟 입력장치(10)로부터 제 2 통신부(25)에 의해 제 1 촬영 이미지를 수신한 뒤, 제 1 촬영 이미지의 태그 정보를 추출한 뒤, 태그 정보 상의 촬영된 시각에 패턴 인식부(21)에 의해 인식된 적외선 입력신호와 매칭되어 촬영된 제 2 촬영 이미지를 추출한다.
이에 따라, 패턴 인식 분석 모듈(23a)은 제 1 촬영 이미지와 제 2 촬영 이미지에 대한 3D 입체 좌표 분석을 수행하는데, 타겟 입력장치(10)의 촬상부(11)와 디스플레이 장치(20)의 패턴 인식 디바이스(21) 사이의 공간 정보를 연산한 뒤, 연산된 공간 정보에 따라 타겟 입력장치(10)의 방향 정보 및 각도 정보를 추출한다.
유저 인터페이스 처리 모듈(23b)은 타겟 입력장치(10)의 방향 정보 및 각도 정보에 따라 출력부(22) 상의 기준 포인트(Ref. point)를 연산하여 3D/4D 콘텐츠에 대응하는 '유저 인터페이스 일반 효과 정보'를 저장부(24)에서 추출하여 출력부(22)에 출력되고 있는 3D/4D 콘텐츠 상에 표시한다.
여기서, 타겟 입력장치(10)가 도 1과 같이 총기 입력 장치인 경우 총기 입력 장치 상에서 방아쇠에 해당하는 슈팅 입력부(14)로의 입력에 따라, 유저 인터페이스 처리 모듈(23b)은 유저 인터페이스 일반 효과 정보로 출력부(22) 상에 탄착되는 효과를 3D/4D 콘텐츠 상에 표시할 수 있다.
또한, 패턴 인식 분석 모듈(23a)은 제 2 통신부(25)를 제어하여 타겟 입력장치(10)로부터 패턴 식별번호를 포함하는 패턴 입력 메시지를 수신한 뒤, 수신된 패턴 입력 메시지에 포함된 패턴 식별번호를 추출한다.
이에 따라, 유저 인터페이스 처리 모듈(23b)은 패턴 인식 분석 모듈(23a)에 의해 저장부(24) 상에서 추출된 식별번호와 매칭되는 3D/4D 콘텐츠 내의 미리 설정된 '유저 인터페이스 특수 효과 정보'를 2차로 추출한 뒤, 출력부(22)에 표시되고 있는 3D/4D 콘텐츠에 반영하여 표시한다.
여기서, 타겟 입력장치(10)가 도 1과 같이 총기 입력 장치인 경우 총기 입력 장치를 미리 설정된 패턴으로, 총기 입력 장치를 좌우/상하와 같이 특별한 패턴(제스처)으로 움직이는 경우, 유저 인터페이스 처리 모듈(23b)은 자이로 센서(13)에 의해 인식되는 절대 좌표의 움직임 분석을 통해 3D/4D 콘텐츠가 게임 콘텐츠인 경우, 탄창 교환이나, 총기 교환(다른 화기로 교환 등)과 같은 유저 인터페이스 특수 효과 정보를 3D/4D 콘텐츠 상에 표시할 수 있다.
또한, 여기서 미리 설정된 패턴은 디스플레이 장치(20)의 저장부(24)에 저장된 3D/4D 콘텐츠를 이용한 디스플레이 장치(20)의 출력부(22)로 표현되는 유저인터페이스(User Interface) 화면 전개를 위한 내비게이션 역할을 수행할 수 있다.
보다 구체적으로, 3D/4D 콘텐츠 내에서 자이로 센서(13)의 방향 인식에 따른 좌, 우 이동 즉, 자이로 센서(13)의 미리 설정된 개수의 축 중 적어도 하나 이상의 축이 지향하는 곳으로의 UI 화면 이동 전개, 자이로 센서(13)의 미리 설정된 개수의 축 중 절대축으로 지정된 것의 각도 센싱에 따라 각도에 비례하게 빠른 또는 느린 UI 화면 전개 등에 대해서 미리 설정된 패턴과 매칭되어 있는 것이 바람직하다.
이와 같은, 자이로 센서(13)에 의해 인식되는 미리 설정된 패턴과 3D/4D 콘텐츠 간의 매칭은 디스플레이 장치(20)의 저장부(24)에 저장된 3D/4D 콘텐츠 내에 태그 정보로 함께 저장됨으로써, 디스플레이 장치(20)는 미리 설정된 패턴에 대한 반응으로 UI 화면 내에서 이동의 형식을 제공하는 내비게이션 역할을 수행한다.
VR 기기 처리 모듈(23c) 중 mpeg-v 처리 모듈(23c-1)은 유저 인터페이스 처리 모듈(23b)에 의해 출력부(22)에 표시되고 있는 유저 인터페이스 일반 효과 및 유저 인터페이스 특수 효과를 3D/4D 콘텐츠와 결합시킨, 가상세계 그리고 가상세계와 현실세계간 소통을 위한 인터페이스 규격 데이터를 생성한다.
즉, mpeg-v 처리 모듈(23c-1)은 가상세계에 해당하는 바람, 온도, 진동 등과 같은 실감효과들과, 아바타 및 가상 오브젝트들의 표현 효과, 가상세계와 4D 모션 체어, HMD 등과 같은 VR 기기 연동을 위한 제어 효과 등을 포함시킨 융합형 3D/4D 콘텐츠를 생성하여 저장부(24)에 저장한다.
4D 모션 체어 처리 모듈(23c-2)은 융합형 3D/4D 콘텐츠를 제 2 통신부(25)를 제어하여 4D 모션 체어(30)로 전송함으로써, 4D 모션 체어(30)에 의해 출력부(22)로 출력되는 유저 인터페이스 일반 효과 및 유저 인터페이스 특수 효과와 매칭된 바람, 온도, 진동 등과 같은 실감효과를 4D 모션 체어(30) 상의 특수 디바이스로 표현하도록 하며, 유저 인터페이스 일반 효과 및 유저 인터페이스 특수 효과와 매칭된 4D 모션 체어의 제어 효과를 표현하도록 한다.
HMD 처리 모듈(23c-3)은 융합형 3D/4D 콘텐츠를 제 2 통신부(25)를 제어하여 4D 모션 체어(30)로 전송함으로써, HMD(40)에 의해 출력부(22)로 출력되는 유저 인터페이스 일반 효과 및 유저 인터페이스 특수 효과와 매칭된 가상세계에 해당하는 바람, 온도, 진동 등과 같은 실감효과를 HMD(40) 상의 특수 디바이스로 표현하도록 하며, 유저 인터페이스 일반 효과 및 유저 인터페이스 특수 효과와 매칭된 아바타 및 가상 오브젝트들의 표현 효과를 표현하도록 하며, 유저 인터페이스 일반 효과 및 유저 인터페이스 특수 효과와 매칭된 HMD(40)의 제어 효과를 표현하도록 한다.
도 5는 본 발명의 실시예에 따른 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 방법을 나타내는 흐름도이다. 도 5를 참조하면, 디스플레이 장치(20)는 입력부(26)를 통한 사용자의 요청에 따라 저장부(24)에 저장된 3D/4D 콘텐츠를 출력부(22)로 표시한다(S11).
단계(S11) 이후, 타겟 입력장치(10)는 촬상부(11)에 의해 촬영된 디스플레이 장치(24)를 향하는 제 1 촬영 이미지를 디스플레이 장치(20)로 전송하면, 디스플레이 장치(20)는 패턴 인식 디바이스(21)에 의해 제 1 촬영 이미지 생성 당시에 촬영된 제 2 촬영 이미지와의 3D 입체 좌표 분석을 통해 출력부(22) 상의 기준 포인트(Ref. point)를 연산하여, 출력부(22)로 출력되는 3D/4D 콘텐츠에 대응하여 유저 인터페이스 일반 효과를 표시한다(S12).
단계(S12) 이후, 타겟 입력장치(10)는 자이로 센서(13)에 의한 미리 설정된 패턴 입력을 수신 대기한다(S13).
단계(S13) 이후, 타겟 입력장치(10)는 미리 설정된 패턴 입력 여부를 판단한다(S14).
단계(S14)의 판단 결과 미리 설정된 패턴이 입력되지 않은 경우, 타겟 입력장치(10)는 단계(S13)로 회귀하여 자이로 센서(13)에 의한 미리 설정된 패턴 입력을 수신 대기한다.
반대로, 단계(S14)의 판단 결과 미리 설정된 패턴이 입력된 경우, 타겟 입력장치(10)는 다수의 미리 설정된 패턴이 있는 경우 단계(S14)에서 입력된 패턴 식별번호를 포함하는 패턴 입력 메시지를 생성하여 패턴 입력 메시지를 디스플레이 장치(20)로 전송한다(S15).
단계(S15) 이후, 디스플레이 장치(20)는 단계(S15)에 따라 수신된 패턴 입력 메시지와 매칭되는 3D/4D 콘텐츠 내의 미리 설정된 유저 인터페이스 특수 효과 정보를 저장부(24)로부터 추출하여 출력부(22)에 출력되고 있는 3D/4D 콘텐츠에 반영하여 표시한다(S16). 여기서 단계(S130)의 미리 설정된 패턴은 디스플레이 장치(20)의 저장부(24)에 저장된 3D/4D 콘텐츠를 이용한 디스플레이 장치(20)의 출력부(22)로 표현되는 유저인터페이스(User Interface) 화면 전개를 위한 내비게이션 역할을 수행할 수 있다.
이에 따라 단계(S16)에서는 출력부(22)로 출력되는 3D/4D 콘텐츠 내에서 자이로 센서(13)의 방향 인식에 따른 좌, 우 이동 즉, 자이로 센서(13)의 미리 설정된 개수의 축 중 적어도 하나 이상의 축이 지향하는 곳으로의 UI 화면 이동 전개, 자이로 센서(13)의 미리 설정된 개수의 축 중 절대축으로 지정된 것의 각도 센싱에 따라 각도에 비례하게 빠른 또는 느린 UI 화면 전개 등을 반영하여 표시하는 거이다.
이와 같은, 자이로 센서(13)에 의해 인식되는 미리 설정된 패턴과 3D/4D 콘텐츠 간의 매칭은 디스플레이 장치(20)의 저장부(24)에 저장된 3D/4D 콘텐츠 내에 태그 정보로 함께 저장됨으로써, 디스플레이 장치(20)는 미리 설정된 패턴에 대한 반응으로 UI 화면 내에서 이동의 형식을 제공하는 내비게이션 역할을 수행한다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
10 : 타겟 입력장치 11 : 촬상부
12 : 적외선 출력부 13 : 자이로 센서
14 : 슈팅 입력부 15 : 제 1 통신부
16 : MPU 20 : 디스플레이 장치
21 : 패턴 인식 디바이스 22 : 출력부
23 : 제어부 23a : 패턴 인식 분석 모듈
23b : 유저 인터페이스 처리 모듈 23c : VR 기기 처리 모듈
23c-1 : mpeg-v 처리 모듈 23c-2 : 4D 모션 체어 처리 모듈
23c-3 : HMD 처리 모듈 24 : 저장부
25 : 제 2 통신부 26 : 입력부
30 : 4D 모션 체어 40 : HMD

Claims (6)

  1. 촬상부(11), 적외선 출력부(12), 자이로 센서(13), 슈팅 입력부(14), 제 1 통신부(15) 및 MPU(16)를 포함하는 구성의 적외선 입력장치로 이루어지는 타겟 입력장치(10)와;
    패턴 인식 디바이스(21), 출력부(22), 제어부(23), 저장부(24), 제 2 통신부(25) 및 입력부(26)를 포함하는 구성으로 이루어지되, 제어부(23)는 패턴 인식 분석 모듈(23a), 유저 인터페이스 처리 모듈(23b), VR 기기 처리 모듈(23c)을 포함하고, VR 기기 처리 모듈(23c)은 mpeg-v 처리 모듈(23c-1), 4D 모션 체어 처리 모듈(23c-2) 및 HMD 처리 모듈(23c-3)을 포함하는 디스플레이 장치(20)를 구비하고,
    타겟 입력장치(10)의 MPU(16)는,
    디스플레이 장치(20)의 출력부(22)로 3D/4D 콘텐츠가 출력될 시, 타겟 입력장치(10)의 슈팅 입력부(14)로의 사용자 입력에 따라, 촬상부(11)에 의해 촬영된 디스플레이 장치(24)를 향하는 제 1 촬영 이미지를 디스플레이 장치(20)로 전송하도록 제 1 통신부(15)를 제어하는 한편, 미리 설정된 패턴 입력을 수신할 시, 다수의 미리 설정된 패턴 중 하나의 입력된 패턴 식별번호를 포함하는 패턴 입력 메시지를 생성하여 패턴 입력 메시지를 디스플레이 장치(20)로 전송하도록 제 1 통신부(15)를 제어하되, 미리 설정된 패턴은 디스플레이 장치(20)의 저장부(24)에 저장된 3D/4D 콘텐츠를 이용한 디스플레이 장치(20)의 출력부(22)로 표현되는 유저인터페이스(User Interface) 화면 전개를 위한 내비게이션 역할을 수행하는 것으로, 자이로 센서(13)의 미리 설정된 개수의 축 중 적어도 하나 이상의 축이 지향하는 곳으로의 UI 화면 이동 전개, 자이로 센서(13)의 미리 설정된 개수의 축 중 절대축으로 지정된 것의 각도 센싱에 따라 각도에 비례하게 빠른 또는 느린 UI 화면 전개에 대해서 미리 설정된 패턴과 매칭되어 있는 것이고,
    자이로 센서(13)에 의해 인식되는 미리 설정된 패턴과 3D/4D 콘텐츠 간의 매칭은 디스플레이 장치(20)의 저장부(24)에 저장된 3D/4D 콘텐츠 내에 태그 정보로 함께 저장됨으로써, 디스플레이 장치(20)는 미리 설정된 패턴에 대한 반응으로 UI 화면 내에서 이동의 형식을 제공하는 내비게이션 역할을 수행하게 되며,
    디스플레이 장치(20)를 구성하는 제어부(23)의 패턴 인식 분석 모듈(23a)은, 입력부(26)를 통한 사용자의 요청에 따라 저장부(24)에 저장된 3D/4D 콘텐츠를 출력부(22)로 출력하는 한편, 3D/4D 콘텐츠가 출력되는 동안 타겟 입력장치(10)로부터 제 2 통신부(25)에 의해 제 1 촬영 이미지를 수신한 뒤, 제 1 촬영 이미지의 태그 정보를 추출한 뒤, 태그 정보 상의 촬영된 시각에 패턴 인식부(21)에 의해 인식된 적외선 입력신호와 매칭되어 촬영된 제 2 촬영 이미지를 추출하고, 제 1 촬영 이미지와 제 2 촬영 이미지에 대한 3D 입체 좌표 분석을 수행하되, 타겟 입력장치(10)의 촬상부(11)와 디스플레이 장치(20)의 패턴 인식 디바이스(21) 사이의 공간 정보를 연산한 뒤, 연산된 공간 정보에 따라 타겟 입력장치(10)의 방향 정보 및 각도 정보를 추출하는 것이고,
    디스플레이 장치(20)를 구성하는 제어부(23)의 유저 인터페이스 처리 모듈(23b)은,
    타겟 입력장치(10)의 방향 정보 및 각도 정보에 따라 출력부(22) 상의 기준 포인트(Ref. point)를 연산하여 3D/4D 콘텐츠에 대응하는 '유저 인터페이스 일반 효과 정보'를 저장부(24)에서 추출하여 출력부(22)에 출력되고 있는 3D/4D 콘텐츠 상에 표시하는 한편,패턴 인식 분석 모듈(23a)이 제 2 통신부(25)를 제어하여 타겟 입력장치(10)로부터 패턴 식별번호를 포함하는 패턴 입력 메시지를 수신한 뒤, 수신된 패턴 입력 메시지에 포함된 패턴 식별번호를 추출하는 것에 대응하여, 유저 인터페이스 처리 모듈(23b)은 패턴 인식 분석 모듈(23a)에 의해 저장부(24) 상에서 추출된 식별번호와 매칭되는 3D/4D 콘텐츠 내의 미리 설정된 '유저 인터페이스 특수 효과 정보'를 2차로 추출한 뒤, 출력부(22)에 표시되고 있는 3D/4D 콘텐츠에 반영하여 표시하는 것이고,
    디스플레이 장치(20)를 구성하는 제어부(23)의 VR 기기 처리 모듈(23c) 중 mpeg-v 처리 모듈(23c-1)은,
    유저 인터페이스 처리 모듈(23b)에 의해 출력부(22)에 표시되고 있는 유저 인터페이스 일반 효과 및 유저 인터페이스 특수 효과를 3D/4D 콘텐츠와 결합시킨, 가상세계 그리고 가상세계와 현실세계간 소통을 위한 인터페이스 규격 데이터를 생성하는 것이고,
    디스플레이 장치(20)를 구성하는 제어부(23)의 VR 기기 처리 모듈(23c) 중 4D 모션 체어 처리 모듈(23c-2)은,
    융합형 3D/4D 콘텐츠를 제 2 통신부(25)를 제어하여 4D 모션 체어(30)로 전송함으로써, 4D 모션 체어(30)에 의해 출력부(22)로 출력되는 유저 인터페이스 일반 효과 및 유저 인터페이스 특수 효과와 매칭된 바람, 온도, 진동을 포함하는 실감효과를 4D 모션 체어(30) 상의 특수 디바이스로 표현하도록 하며, 유저 인터페이스 일반 효과 및 유저 인터페이스 특수 효과와 매칭된 4D 모션 체어의 제어 효과를 표현하도록 하는 것이고,
    디스플레이 장치(20)를 구성하는 제어부(23)의 VR 기기 처리 모듈(23c) 중 HMD 처리 모듈(23c-3)은,
    융합형 3D/4D 콘텐츠를 제 2 통신부(25)를 제어하여 4D 모션 체어(30)로 전송함으로써, HMD(40)에 의해 출력부(22)로 출력되는 유저 인터페이스 일반 효과 및 유저 인터페이스 특수 효과와 매칭된 가상세계에 해당하는 바람, 온도, 진동 등과 같은 실감효과를 HMD(40) 상의 특수 디바이스로 표현하도록 하며, 유저 인터페이스 일반 효과 및 유저 인터페이스 특수 효과와 매칭된 아바타 및 가상 오브젝트들의 표현 효과를 표현하도록 하며, 유저 인터페이스 일반 효과 및 유저 인터페이스 특수 효과와 매칭된 HMD(40)의 제어 효과를 표현하도록 하는 것임을 특징으로 하는 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
KR1020160005429A 2016-01-15 2016-01-15 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템 KR101734520B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160005429A KR101734520B1 (ko) 2016-01-15 2016-01-15 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160005429A KR101734520B1 (ko) 2016-01-15 2016-01-15 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템

Publications (1)

Publication Number Publication Date
KR101734520B1 true KR101734520B1 (ko) 2017-05-11

Family

ID=58742152

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160005429A KR101734520B1 (ko) 2016-01-15 2016-01-15 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템

Country Status (1)

Country Link
KR (1) KR101734520B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107239146A (zh) * 2017-07-04 2017-10-10 原国太郎 虚拟现实装置和虚拟会议系统
KR20180131109A (ko) * 2017-05-31 2018-12-10 이병찬 게임 컨트롤러
KR20180131108A (ko) * 2017-05-31 2018-12-10 이병찬 게임 컨트롤러
KR20190119808A (ko) 2018-04-13 2019-10-23 주식회사 엔젤럭스 가상현실 기반 모션플랫폼 시스템
US10674824B2 (en) 2017-07-14 2020-06-09 Electronics And Telecommunications Research Institute Apparatus for controlling motion and method thereof
KR20200101583A (ko) * 2019-02-20 2020-08-28 ㈜브이리얼 Vr 영상 컨텐츠 제작 방법, 장치 및 프로그램
WO2024055905A1 (zh) * 2022-09-16 2024-03-21 北京字跳网络技术有限公司 数据处理方法、装置、设备及介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007061489A (ja) * 2005-09-01 2007-03-15 Nintendo Co Ltd 情報処理システムおよびプログラム
JP2008253561A (ja) * 2007-04-05 2008-10-23 Copcom Co Ltd プログラムおよびコンピュータ
JP2011514232A (ja) * 2008-03-17 2011-05-06 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー インタラクティブアプリケーションのインタフェースとなる一体型カメラを備えたコントローラおよびその方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007061489A (ja) * 2005-09-01 2007-03-15 Nintendo Co Ltd 情報処理システムおよびプログラム
JP2008253561A (ja) * 2007-04-05 2008-10-23 Copcom Co Ltd プログラムおよびコンピュータ
JP2011514232A (ja) * 2008-03-17 2011-05-06 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー インタラクティブアプリケーションのインタフェースとなる一体型カメラを備えたコントローラおよびその方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180131109A (ko) * 2017-05-31 2018-12-10 이병찬 게임 컨트롤러
KR20180131108A (ko) * 2017-05-31 2018-12-10 이병찬 게임 컨트롤러
KR102002452B1 (ko) * 2017-05-31 2019-07-23 이병찬 게임 컨트롤러
KR102012364B1 (ko) * 2017-05-31 2019-08-20 이병찬 게임 컨트롤러
CN107239146A (zh) * 2017-07-04 2017-10-10 原国太郎 虚拟现实装置和虚拟会议系统
US10674824B2 (en) 2017-07-14 2020-06-09 Electronics And Telecommunications Research Institute Apparatus for controlling motion and method thereof
KR20190119808A (ko) 2018-04-13 2019-10-23 주식회사 엔젤럭스 가상현실 기반 모션플랫폼 시스템
KR20200101583A (ko) * 2019-02-20 2020-08-28 ㈜브이리얼 Vr 영상 컨텐츠 제작 방법, 장치 및 프로그램
KR102212405B1 (ko) * 2019-02-20 2021-02-04 ㈜브이리얼 Vr 영상 컨텐츠 제작 방법, 장치 및 프로그램
WO2024055905A1 (zh) * 2022-09-16 2024-03-21 北京字跳网络技术有限公司 数据处理方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
KR101734520B1 (ko) 자이로센서의 움직임 패턴 인식 기반의 유저 인터페이싱 시스템
CN110199325B (zh) 仿真系统、处理方法以及信息存储介质
US9892563B2 (en) System and method for generating a mixed reality environment
JP4425274B2 (ja) トラッキングされている頭部の動作に従って表示中のシーンのビューを調整する方法及び装置
US10972680B2 (en) Theme-based augmentation of photorepresentative view
KR101966040B1 (ko) 댄스 게임 장치 및 이를 이용한 댄스 게임 방법
US20140160162A1 (en) Surface projection device for augmented reality
US10888771B2 (en) Method and device for object pointing in virtual reality (VR) scene, and VR apparatus
CN104380347A (zh) 视频处理设备、视频处理方法和视频处理系统
US20210255328A1 (en) Methods and systems of a handheld spatially aware mixed-reality projection platform
US20180204369A1 (en) Method for communicating via virtual space, program for executing the method on computer, and information processing apparatus for executing the program
EP3109833B1 (en) Information processing device and information processing method
Rompapas et al. Towards large scale high fidelity collaborative augmented reality
JP2018514836A (ja) バーチャル及びオーグメンテッドリアリティ環境におけるコントローラ可視化
KR102057658B1 (ko) 가상 현실 게임 인터페이스 제공 장치 및 방법
KR101076263B1 (ko) 체감형 시뮬레이터 기반의 대규모 인터랙티브 게임 시스템 및 그 방법
TW478943B (en) Game machine, and image processing method for use with the game machine
KR20110136017A (ko) 홀로그램 객체를 표시하는 증강현실 장치
WO2013111119A1 (en) Simulating interaction with a three-dimensional environment
Li Development of immersive and interactive virtual reality environment for two-player table tennis
KR102387352B1 (ko) 자율주행 차량 정보를 이용한 vr 게임 제공 방법 및 시스템
KR102205901B1 (ko) 증강 현실을 제공하는 방법 및 컴퓨팅 디바이스
KR20180085328A (ko) 댄스 게임 장치 및 이를 이용한 댄스 게임 방법
KR101360888B1 (ko) 오프라인 연동형 가상현실을 제공하는 휴대용 통신 단말기 및 이를 이용한 원격 게임방법
CN112558759A (zh) 基于教育的vr交互方法、交互开发平台和存储介质

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant