KR102029906B1 - 이동수단의 가상현실 콘텐츠 제공 장치 및 방법 - Google Patents

이동수단의 가상현실 콘텐츠 제공 장치 및 방법 Download PDF

Info

Publication number
KR102029906B1
KR102029906B1 KR1020170149524A KR20170149524A KR102029906B1 KR 102029906 B1 KR102029906 B1 KR 102029906B1 KR 1020170149524 A KR1020170149524 A KR 1020170149524A KR 20170149524 A KR20170149524 A KR 20170149524A KR 102029906 B1 KR102029906 B1 KR 102029906B1
Authority
KR
South Korea
Prior art keywords
virtual reality
moving means
dynamic motion
unit
content
Prior art date
Application number
KR1020170149524A
Other languages
English (en)
Other versions
KR20190053537A (ko
Inventor
안양근
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020170149524A priority Critical patent/KR102029906B1/ko
Priority to US16/110,453 priority patent/US10810800B2/en
Publication of KR20190053537A publication Critical patent/KR20190053537A/ko
Application granted granted Critical
Publication of KR102029906B1 publication Critical patent/KR102029906B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles

Abstract

본 발명은 이동수단의 가상현실 콘텐츠 제공 장치에 관한 것으로, 복수개의 투명 디스플레이 장치로 이루어지되, 이동수단의 전면 및 측면에 장착되어 가상현실 콘텐츠가 표시되는 복수개의 투명 디스플레이유닛; 이동수단의 3차원 역학 모션을 검출하는 역학 모션 센싱유닛; 및 역학 모션 센싱유닛을 통해 이동수단의 3차원 역학 모션이 검출되면, 검출된 3차원 역학 모션에 대응되는 가상현실 콘텐츠가 투명 디스플레이유닛을 통해 표시될 수 있도록, 기저장된 가상현실 콘텐츠의 재생을 제어하는 제어유닛;을 포함한다.

Description

이동수단의 가상현실 콘텐츠 제공 장치 및 방법{Apparatus and method for providing virtual reality contents of moving means}
본 발명은 이동수단의 가상현실 콘텐츠 제공 장치 및 방법에 관한 것으로, 더욱 상세하게는 이동수단의 3차원 역할 모션을 검출하여 대응되는 가상현실 콘텐츠를 제공하는 가상현실 콘텐츠 제공 장치 및 방법에 관한 것이다.
기존의 고정형 가상현실 시스템은 사용자의 모션을 직접 감지하지 않고, 가상현실 콘텐츠에서 시나리오에 따라 직접 가상현실 콘텐츠 모션을 발생시킨다. 이는 실제 도로나 공간에서 이동하지 않기 때문에 움직임 모션 발생에 제약이 있다.
그리고 종래 고정형 가상현실 시스템은 공개특허공보 제10-2017-0082394호(머리 장착형 전자장치)에서와 같이 사용자가 해당 장치를 머리에 착용해야만 하는 문제점이 있다.
본 발명은 종래 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 자율주행을 통해 이동 가능한 이동수단에 타고 있는 탑승자와 이동수단의 3차원 역할 모션을 검출하고, 대형 투명디스플레이에 보여지는 가상현실 콘텐츠를 제어함으로써, 가상현실을 체험하기 위한 장치 착용의 불편함과 모션 제약 없이 이동수단 공간내에서 가상현실을 구현할 수 있는 이동수단의 가상현실 콘텐츠 제공 장치 및 방법에 관한 것이다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 이동수단의 가상현실 콘텐츠 제공 장치는 복수개의 투명 디스플레이 장치로 이루어지되, 이동수단의 전면 및 측면에 장착되어 가상현실 콘텐츠가 표시되는 복수개의 투명 디스플레이유닛; 상기 이동수단의 3차원 역학 모션을 검출하는 역학 모션 센싱유닛; 및 상기 역학 모션 센싱유닛을 통해 상기 이동수단의 3차원 역학 모션이 검출되면, 검출된 3차원 역학 모션에 대응되는 가상현실 콘텐츠가 상기 투명 디스플레이유닛을 통해 표시될 수 있도록, 기저장된 가상현실 콘텐츠의 재생을 제어하는 제어유닛;을 포함한다.
그리고 본 발명의 일 실시예에 따른 이동수단의 가상현실 콘텐츠 제공 방법은 투명 디스플레이유닛이 이동수단의 창이 위치하는 부분에 장착되고, 역학 모션 센싱유닛을 이용한 이동수단의 가상현실 콘텐츠 제어 방법에 있어서, 역학 모션 센싱유닛이 이동수단의 3차원 역학 모션을 검출하는 단계; 및 제어유닛이 상기 역학 모션 센싱유닛을 통해 검출된 상기 이동수단의 3차원 역학 모션에 대응되도록 상기 투명 디스플레이유닛을 통해 표시되는 가상현실 콘텐츠의 재생을 제어하는 단계;를 포함한다.
본 발명의 일 실시예에 따르면, 종래기술과 달리 이동수단(자동차, 모노레일, 케이블카, 드론 등)을 타고 있는 탑승자 이동수단의 3차원 역학 모션을 검출하고, 대형 투명디스플레이에 보여지는 가상현실 콘텐츠를 제어하여 가상현실 콘텐츠 제공을 위한 장치 착용의 불편함을 해결하는 동시에 모션 제약이 없이 이동수단공간에서 가상현실을 구현할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 이동수단의 가상현실 콘텐츠 제공 장치를 설명하기 위한 기능블럭도.
도 2는 본 발명의 일 실시예에 따른 이동수단의 가상현실 콘텐츠 제공 장치를 설명하기 위한 참고도.
도 3은 본 발명의 일 실시예에 채용된 역학 모션 센싱유닛을 설명하기 위한 기능블럭도.
도 4는 본 발명의 일 실시예에 채용된 탑승자 센싱유닛을 설명하기 위한 기능블럭도.
도 5는 본 발명의 일 실시예에 채용된 조작 검출부를 설명하기 위한 기능블럭도.
도 6은 본 발명의 일 실시예에 따른 이동수단의 가상현실 콘텐츠 제공 방법을 설명하기 위한 순서도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성소자, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성소자, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
도 1은 본 발명의 일 실시예에 따른 이동수단의 가상현실 콘텐츠 제공 장치를 설명하기 위한 기능블럭도이고, 도 2는 본 발명의 일 실시예에 따른 이동수단의 가상현실 콘텐츠 제공 장치를 설명하기 위한 참고도이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 이동수단의 가상현실 콘텐츠 제공 장치는 투명 디스플레이유닛(100), 역학 모션 센싱유닛(200) 및 제어유닛(300)를 포함하여 이루어진다.
투명 디스플레이유닛(100)은 복수개의 투명 디스플레이 장치로 이루어지되, 이동수단의 전면 및 측면에 장착되어 가상현실 콘텐츠의 재생을 제어하는 역할을 한다.
그리고 역학 모션 센싱유닛(200)은 이동수단의 3차원 역학 모션을 검출하는 역할을 한다. 이러한 역학 모션 센싱유닛(200)은 다양한 센서로 이루어질 수 있다. 예를 들어, 3차원 가속도 센서, 속도 센서, 진동 센서 및 충격 감지 센서 등의 센서들이 상호 유기적 또는 독립적으로 이루어질 수 있다.
또한, 제어유닛(300)은 상기 역학 모션 센싱유닛(200)를 통해 상기 이동수단의 3차원 역학 모션이 검출되면, 검출된 3차원 역학 모션에 대응되는 가상현실 콘텐츠가 상기 투명 디스플레이유닛(100)을 통해 표시될 수 있도록, 투명 디스플레이유닛(100)을 제어하는 역할을 한다. 이때, 제어유닛(300)은 가상현실 콘텐츠를 연동된 저장부에 저장 관리하는 것이 바람직하다.
이에, 역학 모션 센싱유닛(200)이 이동수단의 3차원 역학 모션을 검출하면, 제어유닛(300)은 도 2에 도시된 바와 같이 투명 디스플레이유닛(100)에 가상현실 콘텐츠를 표시하게 된다. 이때, 투명 디스플레이유닛(100)에 표시되는 가상현실 콘텐츠는 배경(B)과 객체(O)로 이루어지는 것이 바람직하다.
따라서 본 발명의 일 실시예에 따르면, 탑승자가 타고 있는 자율 주행 이동수단의 3차원 역학 모션을 검출하고 그 검출된 3차원 역학 모션에 대응되는 가상현실 콘텐츠를 이동수단에 장착된 투명 디스플레이유닛을 통해 표시함으로써, 탑승자가 가상현실을 제공함에 있어 장치 착용의 불편함을 감소시키고, 모션 제약 없이 이동수단 공간에서 가상현실을 제공받을 수 있는 효과가 있다.
도 3은 본 발명의 일 실시예에 채용된 역학 모션 센싱유닛을 설명하기 위한 기능블럭도이다.
도 3에 도시된 바와 같이, 본 발명의 일 실시예에 채용된 역학 모션 센싱유닛(200)은 가상현실 콘텐츠의 배경 및 객체 등을 제어할 수 있도록, 이동수단을 센싱하는 것이 바람직하다. 본 발명의 일 실시예에서의 가상현실 콘텐츠의 배경은 이동수단이 주행 경로에 따라 이동하면서 제공될 수 있는 기 저장된 배경 정보인 것이 바람직하다.
이에, 역학 모션 센싱유닛(200)은 상기 가상현실 콘텐츠의 배경을 제어할 수 있도록, 이동수단의 3축 가속도, 속도 및 방향 등의 3차원 역학 모션을 감지하는 모션 감지부(210)를 포함한다.
예를 들어, 이동수단이 이동을 하게 되면, 역학 모션 센싱유닛(200)은 모션 감지부(210)를 통해 이동수단의 속도를 감지하게 된다. 그러면, 제어유닛(300)은 이동수단의 속도에 따라 대응되는 가상현실 콘텐츠를 투명 디스플레이유닛에 표시하게 된다. 만약, 이동수단이 가속을 하게 되면, 역학 모션 센싱유닛(200)은 이동수단의 속도와 가속도를 감지하게 된다. 이에 제어유닛(300)은 이동 수단의 속도와 가속도에 따라 투명 디스플레이유닛(200)를 통해 표시하는 가상현실 콘텐츠의 재생 속도를 빠르게 재생하여 가상현실을 이동수단 내부에서 느낄 수 있도록 할 수 있다.
그리고 역학 모션 센싱유닛(200)은 가상현실 콘텐츠의 콘텐츠 객체를 제어할 수 있도록, 상기 이동수단의 진동, 충격 등의 이벤트성 모션을 감지하는 이벤트 감지부(220)를 포함한다. 예를 들어, 이동수단이 도로의 방지턱 등을 지나갈 때 방지턱에 의해 이동수단에는 진동 및 충격 등이 발생하게 된다. 이에, 역학 모션 센싱유닛(200)의 이벤트 감지부(220)는 이동수단의 진동 및 충격을 감지하고, 제어유닛(300)은 투명 디스플레이유닛(100)에 표시되는 콘텐츠 중 객체를 표시하게 된다.
본 발명의 일 실시예에서 객체는 배경과 독립적으로 제공되는 콘텐츠인 것이 바람직하다.
또한, 상기 역학 모션 센싱유닛(200)은 이동수단의 위치 정보를 감지할 수 있도록, 이동수단의 위도, 경도 및 고도를 감지하는 GPS 장치를 더 포함할 수 있다. 이에, 상기 제어유닛(300)은 상기 GPS 장치를 통해 검출된 이동수단의 위치 정보에 따라 가상현실 콘텐츠의 배경을 제어할 수 있다.
도 4는 본 발명의 일 실시예에 채용된 탑승자 센싱유닛을 설명하기 위한 기능블럭도이다.
본 발명의 다른 실시예에 따르면 도 4에 도시된 바와 같이, 일 실시예의 구성에 더하여 시선 검출부(410)와 조작 검출부(420)로 이루어진 탑승자 센싱유닛(400)을 더 포함할 수 있다.
시선 검출부(410)는 콘텐츠 객체를 타겟팅할 수 있도록, 탑승자의 시선을 검출하는 역할을 한다.
그리고 조작 검출부(420)는 상기 시선 검출부(410)를 통해 타겟팅된 콘텐츠 객체를 제거할 수 있도록, 상기 탑승자의 제스처를 검출하는 역할을 한다.
이에, 상기 제어유닛(300)은 상기 시선 검출부(410)를 통해 콘텐츠 객체를 타겟팅하고, 조작 검출부를 통해 타켓팅된 콘텐츠 객체를 제거하기 위한 제어를 수행한다.
이와 같이, 본 발명의 다른 실시예에 따르면 일 실시에에서의 이동수단의 3차원 역학 모션의 검출뿐만 아니라, 내부 탑승자의 시선과 제스쳐를 검출함으로써, 이동수단 내부에서 투명 디스플레이유닛(100)을 통해 배경 콘텐츠를 제공받으면서, 가상현실 슈팅 게임을 제공할 수 있는 장점이 있다.
도 5는 본 발명의 일 실시예에 채용된 조작 검출부를 설명하기 위한 기능블럭도이다.
본 발명의 일 실시에에 채용된 조작 검출부(420)는 도 5에 도시된 바와 같이, 깊이 카메라(421), 메모리(422) 및 프로세서(423)를 포함할 수 있다.
깊이 카메라(421)는 깊이 영상을 촬영하는 구성으로서, 깊이 영상에는 가상의 공간 터치스크린이 생성되고, 탑승자의 객체도 포함된다. 이때, 탑승자의 객체는 사용자의 손과 같은 신체이거나, 그밖에 사물일 수 있으며 본 발명에서는 특별히 어느 하나로 제한되는 것은 아니다. 한편, 깊이 영상은 깊이 카메라(421) 뿐만 아니라 다시점에서 촬영된 기준 영상간의 스테레오 정합을 통해 생성되는 등 다양한 방법에 의해 촬영 및 생성될 수도 있음은 물론이다.
메모리(422)에는 탑승자의 객체 네비게이션 제스처를 인식하기 위한 프로그램이 저장된다. 이때, 메모리(422)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 휘발성 저장장치를 통칭하는 것이다. 예를 들어, 메모리(422)는 콤팩트 플래시(compact flash; CF) 카드, SD(secure digital) 카드, 메모리 스틱(memory stick), 솔리드 스테이트 드라이브(solid-state drive; SSD) 및 마이크로(micro) SD 카드 등과 같은 낸드 플래시 메모리(NAND flash memory), 하드 디스크 드라이브(hard disk drive; HDD) 등과 같은 마그네틱 컴퓨터 기억 장치 및 CD-ROM, DVD-ROM 등과 같은 광학 디스크 드라이브(optical disc drive) 등을 포함할 수 있다.
한편, 네비게이션 제스처(이하, 제스처라 함)란 상하좌우와 같은 명령으로 콘텐츠내 객체를 제어할 수 있는 동작을 의미한다.
프로세서(423)는 메모리(422)에 저장된 프로그램을 실행시킴에 따라, 깊이 카메라(421)에 의해 촬영된 깊이 영상을 수신하면, 깊이 영상으로부터 가상의 공간 터치스크린을 생성한다.
그리고 깊이 영상에 포함된 탑승자의 객체 제스처의 상기 공간 터치스크린 상에서의 이동 방향을 검출하여, 이동 방향에 따른 제어 명령을 생성한다. 이때, 제어 명령은 슛팅 등과 같이 제어하고자 하는 디바이스의 고유 기능별로 매칭되어 메모리(422)에 저장될 수 있다.
이하에서는 프로세서(423)에 의해 생성되는 가상의 공간 터치스크린 및 공간 터치스크린 상에서 탑승자의 객체 제스처에 대한 이동 방향을 검출하는 내용을 구체적으로 설명하도록 한다.
탑승자의 객체 제스처에 대한 이동방향을 검출하는 내용을 설명하기 위한 도면이다.
프로세서(423)는 깊이 영상으로부터 객체의 물리적 표면을 복수의 3차원 포인트로 구분하고, 복수의 3차원 포인트들이 공간 터치스크린 상에 위치되었는지 여부에 기초하여 제스처의 이동 방향을 검출할 수 있다.
즉, 프로세서(423)는 깊이 영상에 포함된 객체의 제스처에 대한 제 1 지점을 검출하고, 제 1 지점으로부터 이동 방향에 따라 이동된 객체의 제스처에 대한 제 2 지점을 검출한다. 이때 제 1 지점 및 제 2 지점은 하나 이상의 3차원 포인트들로 구성될 수 있다.
그리고 프로세서(423)는 검출된 제 1 지점 및 제 2 지점의 공간 터치스크린 상에서의 위치 정보에 기초하여 제스처의 이동 방향을 검출할 수 있다.
한편, 본 발명의 일 실시예는 공간 터치스크린이 생성되는 범위(A)를 설정할 수 있다.
공간 터치스크린은 깊이 카메라(421)와 객체와의 관계에서 적절한 위치에 생성되어야 한다. 이를 위해 본 발명의 일 실시예는 사용자에 의해 공간 터치스크린이 생성되는 범위(A)가 지정될 수도 있으며, 깊이 카메라(421)의 촬영 범위에 기초하여 지정될 수도 있다.
또는, 객체의 최대 이동거리 및 평균 이동거리 중 하나 이상에 기초하여 공간 터치스크린이 생성되는 범위(A)가 지정될 수 있다. 여기에서 객체의 최대 이동 거리란 객체의 상하 또는 좌우로의 이동할 수 있는 최대 거리를 의미한다. 그리고 평균 이동 거리란 객체의 상하 또는 좌우로의 복수 회의 이동 거리를 평균한 것으로, 평균 이동 거리를 통해 공간 터치스크린이 생성되는 범위(A)를 지정할 경우 사용자의 신체 조건에 최적화된 범위에서의 공간 터치스크린 생성이 가능하여 보다 정확한 인식률을 제공할 수 있다는 장점이 있다.
한편, 본 발명의 일 실시예에서의 공간 터치스크린은 제 1 그룹 영역(n, n+1)과 제 2 그룹 영역(m, m+1)으로 구분되어 생성될 수 있다.
이때, 제 1 그룹 영역 및 제 2 그룹 영역 내에 포함된 복수의 영역들은 각각 평행하게 생성될 수 있으며, 제 2 그룹 영역은 제 1 그룹 영역과 수직 교차되는 방향으로 생성될 수 있다.
이러한 제 1 그룹 영역 및 제 2 그룹 영역은 구체적으로 다음과 같이 생성될 수 있다.
먼저, 프로세서(423)가 깊이 영상에 포함된 객체의 공간 터치스크린 상에서의 이동 시작점을 검출하면, 검출된 이동 시작점을 제 1 그룹 영역에 포함된 어느 하나의 영역으로 생성할 수 있다. 그 다음 프로세서(423)는 상기 생성된 어느 하나의 영역을 기준으로 서로 평행 또는 수직 교차되는 영역들을 생성할 수 있다.
예를 들어, 객체의 제스처의 이동 시작점이 검출되는 지점을 제 1 그룹 영역(n, n+1)의 제 1 영역(n)으로 생성할 수 있다. 그 다음 프로세서(423)는 상술한 공간 터치스크린이 설정되는 영역(A) 내에서 기 설정된 간격에 따라 제 1 그룹 영역(n, n+1)의 제 1 영역(n)과 평행한 제 2 영역(n+1)을 생성하고, 제 2 그룹 영역(m, m+1)의 제 1 영역(m) 및 제 2 영역(m+1)을 동시에 또는 순차적으로 생성할 수 있다.
이에 따라, 본 발명의 일 실시예는 공간 터치스크린이 설정되는 영역(A) 내에서 객체의 제스처의 이동 방향에 상응하는 공간 터치스크린을 구성하는 영역들을 생성할 수 있어, 제스처의 인식률을 보다 향상시킬 수 있다는 효과를 기대할 수 있다.
한편, 제 1 그룹 영역 및 제 2 그룹 영역은 x축 및 y축을 포함하는 2차원 영역만으로 구성될 수도 있으며, z축이 추가된 3차원 영역으로 구성될 수도 있다. 이때, x, y, z축의 범위는 상술한 공간 터치스크린이 생성되는 범위(A)의 조건에 따라 설정될 수 있다.
또한, 본 발명의 일 실시예에서의 공간 터치스크린은 제 1 그룹 영역(n, n+1, n+2,?) 및 제 2 그룹 영역(m, m+1, m+2,?)이 3개 이상의 영역들을 포함할 수 있다.
이에 따라, 프로세서(423)는 서로 평행한 3개 이상의 영역들에 대한 이동 방향뿐만 아니라 이동 거리를 검출하여, 이동 방향 및 이동 거리에 대응하는 제어 명령을 생성할 수 있다.
예를 들어, 객체가 제 1 그룹 영역의 제 1 영역(n=1)을 터치한 후 제 2 영역(n=2)을 터치하는 경우, 이동 방향은 아래 방향이고 2개의 영역을 터치하는 것인바, 프로세서(423)는 디바이스의 볼륨을 1단계만큼 감소되도록 하는 제어 명령을 생성할 수 있다.
이와 달리, 객체가 제 1 영역(n=1)을 터치한 후 기 설정된 시간 내에 제 2 영역(n=2)뿐만 아니라 제 3 영역(n=3)을 터치하는 경우, 동일한 이동 방향이더라도 3개의 영역을 터치하는 것인바, 프로세서(423)는 디바이스의 볼륨을 2단계 또는 그 이상만큼 감소되도록 하는 제어 명령을 생성할 수 있다.
이와 같이, 본 발명의 일 실시예는 가상의 공간 터치스크린 상에서의 이동 방향뿐만 아니라 이동 거리를 반영하여 제어 명령을 생성할 수 있는바, 간단하면서도 보다 다양한 방식으로 디바이스 제어가 가능하게끔 할 수 있다.
상술한 바와 같은 가상의 공간 터치스크린이 생성되고 나면, 프로세서(423)는 깊이 영상에 포함된 객체의 제스처에 대한 제 1 지점을 검출하고, 제 1 지점으로부터 이동 방향에 따라 이동된 객체의 제스처에 대한 제 2 지점을 검출하게 된다. 그리고 검출된 제 1 및 제 2 지점이 제 1 그룹 영역 및 제 2 그룹 영역 중 어느 하나의 그룹 영역 내에 포함된 복수의 영역들에 위치하는지 여부에 기초하여 제스처의 이동 방향을 검출할 수 있다.
예를 들어 프로세서(423)는 깊이 영상으로부터 제 1 및 제 2 지점을 검출한 상태에서, 제 1 지점이 제 1 그룹 영역(n, n+1)의 제 1 영역(n)에 위치하고, 제 2 지점이 제 1 그룹 영역(n, n+1)의 제 2 영역(n+1)에 위치하는 것으로 검출하면 객체의 이동 방향을 아래 방향으로 이동하는 것으로 판단할 수 있다.
이와 마찬가지로, 프로세서(423)가 제 1 지점이 제 1 그룹 영역(n, n+1)의 제 2 영역(n+1)에 위치하고, 제 2 지점이 제 1 그룹 영역(n, n+1)의 제 1 영역(n)에 위치하는 것으로 검출하면 객체의 이동 방향을 위 방향으로 이동하는 것으로 판단할 수 있다.
또한, 프로세서(423)는 제 2 그룹 영역(m, m+1)에 대한 제 1 및 제 2 지점의 위치 검출을 통해서 좌우 방향으로 이동하는 것을 판단할 수도 있다.
이때, 프로세서(423)는 제 2 지점이 제 1 그룹 영역 또는 제 2 그룹 영역에 포함된 복수의 영역들 중 제 1 지점과 동일한 영역에 위치하는 것으로 검출한 경우 상기 검출된 제 1 및 제 2 지점을 초기화시킬 수 있다.
또한, 프로세서(423)는 제 2 지점이 상기 제 1 지점과 동일한 영역에 위치하지는 않으나, 다른 영역에 위치하는 것으로 검출하지 못한 경우에도 상기 검출된 제 1 및 제 2 지점을 초기화시킬 수 있다. 예를 들어, 사용자의 제스처가 너무 작아 제 1 그룹 영역의 제 1 영역과 제 2 영역의 사이에서 제 2 지점이 검출되거나, 또는 공간 터치스크린이 생성되는 범위(A) 외부에서 제 2 지점이 검출되는 경우로서 제스처의 이동 방향 내에 어느 영역도 포함되어 있지 않은 경우일 수 있다.
이와 같이 본 발명의 일 실시예는 단순히 이동 방향을 검출하는 것뿐만 아니라, 잘못된 제스처 동작을 구분할 수 있어, 사용자로 하여금 올바른 제스처 동작을 유도할 수 있게끔 할 수 있다.
참고로, 본 발명의 실시예에 따른 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.
그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.
따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.
이하, 하기에서는 본 발명의 일 실시예에 따른 이동수단의 가상현실 콘텐츠 제공 방법 방법에 대하여 도 6를 참조하여 설명하기로 한다.
본 발명의 일 실시예에 따른 이동수단의 가상현실 콘텐츠 제공 방법은 투명 디스플레이유닛이 이동수단의 창이 위치하는 부분에 장착되고, 역학 모션 센싱유닛(200)이 이동수단에 장착되는 것이 바람직하다.
이에, 역학 모션 센싱유닛(200)이 이동수단의 3차원 역학 모션을 검출한다(S100).
그러면, 제어유닛(300)이 상기 역학 모션 센싱유닛(200)를 통해 상기 이동수단의 3차원 역학 모션을 검출하면, 검출된 3차원 역학 모션에 대응되는 가상현실 콘텐츠가 상기 투명 디스플레이유닛을 통해 표시될 수 있도록, 기저장된 가상현실 콘텐츠의 재생을 제어한다(S200).
본 발명의 일 실시예에 채용된 가상현실 콘텐츠의 재생을 제어하는 단계(S200)에서 검출되는 3차원 역학 모션은 가속도, 속도, 방향 정보인 차량의 이동 정보와 진동, 충격 정보와 같은 이벤트 정보로 이루어진다.
따라서, 상기 가상현실 콘텐츠의 재생을 제어하는 단계는 상기 제어유닛(300)이 가상현실 콘텐츠의 콘텐츠 객체를 제어할 수 있도록, 상기 이동수단의 진동, 충격 등을 감지하는 것이 바람직하다.
한편, 상기 가상현실 콘텐츠의 재생을 제어하는 단계는, 상기 제어유닛(300)이 상기 가상현실 콘텐츠의 배경을 제어할 수 있도록, 이동수단의 3축 가속도, 속도 및 방향 등을 감지한다.
한편, 상기 3차원 역학 모션을 검출하는 단계는, GPS 장치를 통해, 이동수단의 위치 정보를 감지할 수 있도록, 이동수단의 위도, 경도 및 고도를 감지하고, 상기 가상현실 콘텐츠의 재생을 제어하는 단계는, 상기 제어유닛(300)이 상기 GPS 장치를 통해 검출된 이동수단의 위치 정보에 따라 가상현실 콘텐츠의 배경을 제어할 수 있다.
반면에, 시선 검출부(410)가 콘텐츠 객체를 타겟팅할 수 있도록, 탑승자의 시선을 검출하고, 조작 검출부(420)가 상기 시선 검출부(410)를 통해 타겟팅된 콘텐츠 객체를 제거할 수 있도록, 상기 탑승자의 제스처를 검출하면, 상기 제어유닛(300)이 상기 시선 검출부(410)를 통해 콘텐츠 객체를 타겟팅하고, 조작 검출부를 통해 타켓팅된 콘텐츠 객체를 제거하기 위한 제어를 수행한다.
이상, 본 발명의 구성에 대하여 첨부 도면을 참조하여 상세히 설명하였으나, 이는 예시에 불과한 것으로서, 본 발명이 속하는 기술분야에 통상의 지식을 가진자라면 본 발명의 기술적 사상의 범위 내에서 다양한 변형과 변경이 가능함은 물론이다. 따라서 본 발명의 보호 범위는 전술한 실시예에 국한되어서는 아니되며 이하의 특허청구범위의 기재에 의하여 정해져야 할 것이다.
100 : 투명 디스플레이유닛 200 : 역학 모션 센싱유닛
300 : 제어유닛 400 :탑승자 센싱유닛

Claims (12)

  1. 복수개의 투명 디스플레이 장치로 이루어지되, 이동수단의 전면 및 측면에 장착되어 가상현실 콘텐츠가 표시되는 복수개의 투명 디스플레이유닛;
    상기 가상현실 콘텐츠의 배경을 제어할 수 있도록, 이동수단의 3축 가속도, 속도 및 방향 등을 감지하는 모션 감지부와 이동수단의 위치 정보를 감지할 수 있도록, 이동수단의 위도, 경도 및 고도를 감지하는 GPS 장치를 포함하여, 상기 이동수단의 3차원 역학 모션과 이동수단의 진동 및 충격 등을 감지하는 역학 모션 센싱유닛;
    콘텐츠 객체를 타겟팅할 수 있도록, 탑승자의 시선을 검출하는 시선 검출부와 상기 시선 검출부를 통해 타겟팅된 콘텐츠 객체를 제어할 수 있도록, 깊이 영상을 촬영하는 깊이 카메라, 깊이 영상에서 가상의 공간 터치스크린을 생성하는 프로세서 및 탑승자의 객체 네비게이션 제스처를 인식하기 위한 프로그램이 저장된 메모리를 구비하고, 상기 깊이 카메라에 의해 촬영된 깊이 영상으로부터 공간 터치스크린상에서 상기 탑승자의 제스처를 검출하는 조작 검출부로 이루어진 탑승자 센싱유닛; 및
    상기 GPS 장치를 통해 검출된 이동수단의 위치 정보에 따라 가상현실 콘텐츠의 배경을 제어하고, 상기 역학 모션 센싱유닛을 통해 상기 이동수단의 3차원 역학 모션이 검출되면, 검출된 3차원 역학 모션에 대응되는 가상현실 콘텐츠가 상기 투명 디스플레이유닛을 통해 표시될 수 있도록, 기저장된 가상현실 콘텐츠의 재생을 제어하고 이동수단의 진동 및 충격에 따라 가상현실 콘텐츠의 객체를 제어하며, 상기 시선 검출부를 통해 탑승자의 시선이 검출되면 해당 부위에 위치한 콘텐츠 객체를 타겟팅하고, 상기 조작 검출부를 통해 탑승자의 제스처가 검출되면 타켓팅된 콘텐츠 객체를 제어하는 제어유닛;을 포함하되,
    상기 공간 터치스크린은 상기 깊이 카메라와 객체와의 관계에서 생성되되, 상기 깊이 카메라의 촬영 범위에 기초하여 객체의 최대 이동거리와 평균 이동 거리 중 어느 하나를 기초로 지정되는 것인 이동수단의 가상현실 콘텐츠 제공 장치.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 투명 디스플레이유닛이 이동수단의 창이 위치하는 부분에 장착되고, 역학 모션 센싱유닛을 이용한 이동수단의 가상현실 콘텐츠 제어 방법에 있어서,
    역학 모션 센싱유닛이 이동수단의 3축 가속도, 속도 및 방향을 감지하고, GPS 장치를 통해 이동수단의 위도, 경도 및 고도를 감지하여 이동수단의 위치 정보가 포함된 이동수단의 3차원 역학 모션을 검출하고, 이동수단의 진동, 충격 등을 감지하는 단계;
    시선 검출부가 콘텐츠 객체를 타겟팅할 수 있도록, 탑승자의 시선을 검출하는 단계;
    깊이 영상을 촬영하는 깊이 카메라와 상기 깊이 카메라에 의해 촬영된 깊이 영상에서 가상의 공간 터치스크린을 생성하는 프로세서 및 탑승자의 객체 네비게이션 제스처를 인식하기 위한 프로그램이 저장된 메모리에 의해, 상기 깊이 카메라에 의해 촬영된 깊이 영상으로부터 공간 터치스크린상에서 상기 탑승자의 제스처를 검출하는 단계; 및
    제어유닛이 상기 시선 검출부를 통해 콘텐츠 객체를 타겟팅하고, 조작 검출부를 통해 타켓팅된 콘텐츠 객체를 제거하기 위한 탑승자의 제스처를 검출하면 시선 검출부를 통해 타겟팅한 콘텐츠 객체를 제어를 수행하고, 상기 역학 모션 센싱유닛을 통해 검출된 상기 이동수단의 3차원 역학 모션에 대응되도록 상기 투명 디스플레이유닛을 통해 표시되는 가상현실 콘텐츠의 재생을 제어하고, 이동수단의 진동 및 충격에 따라 가상현실 콘텐츠의 객체를 제어하는 단계;를 포함하되,
    상기 공간 터치스크린은 상기 깊이 카메라와 객체와의 관계에서 생성되되, 상기 깊이 카메라의 촬영 범위에 기초하여 객체의 최대 이동거리와 평균 이동 거리 중 어느 하나를 기초로 지정되는 것인 이동수단의 가상현실 콘텐츠 제공 방법.
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
KR1020170149524A 2017-11-10 2017-11-10 이동수단의 가상현실 콘텐츠 제공 장치 및 방법 KR102029906B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170149524A KR102029906B1 (ko) 2017-11-10 2017-11-10 이동수단의 가상현실 콘텐츠 제공 장치 및 방법
US16/110,453 US10810800B2 (en) 2017-11-10 2018-08-23 Apparatus and method for providing virtual reality content of moving means

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170149524A KR102029906B1 (ko) 2017-11-10 2017-11-10 이동수단의 가상현실 콘텐츠 제공 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20190053537A KR20190053537A (ko) 2019-05-20
KR102029906B1 true KR102029906B1 (ko) 2019-11-08

Family

ID=66431351

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170149524A KR102029906B1 (ko) 2017-11-10 2017-11-10 이동수단의 가상현실 콘텐츠 제공 장치 및 방법

Country Status (2)

Country Link
US (1) US10810800B2 (ko)
KR (1) KR102029906B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6796197B2 (ja) * 2017-04-28 2020-12-02 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017034667A1 (en) * 2015-08-26 2017-03-02 Google Inc. Dynamic switching and merging of head, gesture and touch input in virtual reality

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7224326B2 (en) * 2004-03-03 2007-05-29 Volo, Llc Virtual reality system
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US8780014B2 (en) * 2010-08-25 2014-07-15 Eastman Kodak Company Switchable head-mounted display
US20120224060A1 (en) * 2011-02-10 2012-09-06 Integrated Night Vision Systems Inc. Reducing Driver Distraction Using a Heads-Up Display
KR101957943B1 (ko) * 2012-08-31 2019-07-04 삼성전자주식회사 정보 제공 방법 및 이를 위한 정보 제공 차량
US9552673B2 (en) * 2012-10-17 2017-01-24 Microsoft Technology Licensing, Llc Grasping virtual objects in augmented reality
KR101984915B1 (ko) * 2012-12-03 2019-09-03 삼성전자주식회사 증강 현실 컨텐츠 운용 방법 및 이를 지원하는 단말기와 시스템
KR101409846B1 (ko) * 2012-12-18 2014-06-19 전자부품연구원 3차원 증강현실 기반 헤드 업 디스플레이 장치
TW201447375A (zh) * 2013-06-13 2014-12-16 Hsiu-Chi Yeh 擴增實境之頭戴式電子裝置及方法
US9626802B2 (en) * 2014-05-01 2017-04-18 Microsoft Technology Licensing, Llc Determining coordinate frames in a dynamic environment
US9690370B2 (en) * 2014-05-05 2017-06-27 Immersion Corporation Systems and methods for viewport-based augmented reality haptic effects
CN105094310B (zh) * 2014-05-09 2019-08-16 梦工厂动画公司 虚拟现实驾乘系统中减少晕车的方法和系统
DE102014009298A1 (de) * 2014-06-26 2015-12-31 Audi Ag Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
EP3352154A4 (en) * 2015-09-18 2019-08-07 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
EP3629136B1 (en) * 2015-10-08 2024-04-17 InterDigital VC Holdings, Inc. Methods and systems of automatic calibration for dynamic display configurations
JP6313271B2 (ja) * 2015-10-27 2018-04-18 矢崎総業株式会社 車両用運転支援装置
KR102571818B1 (ko) 2016-01-06 2023-08-29 삼성전자주식회사 머리 장착형 전자장치
KR102610120B1 (ko) * 2016-01-20 2023-12-06 삼성전자주식회사 Hmd 디바이스 및 그 제어 방법
KR20170092009A (ko) * 2016-02-02 2017-08-10 신기정 투명디스플레이 차창을 구비한 지상철의 증강현실 시스템
US20170267099A1 (en) * 2016-03-17 2017-09-21 Calay Venture S.à r.l. Vehicles for providing virtual environments
US9924238B2 (en) * 2016-03-21 2018-03-20 Screenovate Technologies Ltd. Method and a system for using a computerized source device within the virtual environment of a head mounted device
EP3436863A4 (en) * 2016-03-31 2019-11-27 Magic Leap, Inc. INTERACTIONS WITH 3D VIRTUAL OBJECTS USING POSES AND MULTI-DOF CONTROLLERS
WO2018026893A1 (en) * 2016-08-03 2018-02-08 Google Llc Methods and systems for determining positional data for three-dimensional interactions inside virtual reality environments
KR20180056867A (ko) * 2016-11-21 2018-05-30 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
CN110249281B (zh) * 2017-02-10 2022-11-22 深圳市大疆创新科技有限公司 位置处理装置、飞行体、及飞行系统
EP3367215B1 (en) * 2017-02-27 2019-09-18 LG Electronics Inc. Electronic device for providing virtual reality content
US10134279B1 (en) * 2017-05-05 2018-11-20 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for visualizing potential risks
US10357715B2 (en) * 2017-07-07 2019-07-23 Buxton Global Enterprises, Inc. Racing simulation
KR102064223B1 (ko) * 2017-07-12 2020-02-11 엘지전자 주식회사 차량용 주행 시스템 및 차량
US10585471B2 (en) * 2017-10-03 2020-03-10 Disney Enterprises, Inc. Systems and methods to provide an interactive space based on predicted events
US10520924B2 (en) * 2017-10-31 2019-12-31 Deere & Company Augmented reality control for machine

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017034667A1 (en) * 2015-08-26 2017-03-02 Google Inc. Dynamic switching and merging of head, gesture and touch input in virtual reality

Also Published As

Publication number Publication date
KR20190053537A (ko) 2019-05-20
US20190147654A1 (en) 2019-05-16
US10810800B2 (en) 2020-10-20

Similar Documents

Publication Publication Date Title
EP2354893B1 (en) Reducing inertial-based motion estimation drift of a game input controller with an image-based motion estimation
JP2019500693A5 (ko)
JP6335556B2 (ja) ポインティングによる情報クエリ
TWI544447B (zh) 擴增實境的方法及系統
KR102459983B1 (ko) 증강 차량 서라운드 뷰의 프레젠테이션 및 제어를 위한 시스템 및 방법
KR101341727B1 (ko) 3d gui 제어 장치 및 방법
US20160282937A1 (en) Gaze tracking for a mobile device
CN105310604A (zh) 机器人清洁系统以及控制机器人清洁器的方法
CN106104203A (zh) 一种移动物体的距离检测方法、装置及飞行器
CN103177470A (zh) 利用机动车的显示器产生增强现实的方法和系统
JP2017159882A (ja) 認識結果提示装置、認識結果提示方法、認識対象提示装置及び認識対象提示方法
JP2016090344A (ja) ナビゲーション装置、及びナビゲーションプログラム
KR20180097917A (ko) 전자 장치 및 그의 제어 방법
WO2019164514A1 (en) Transitioning between map view and augmented reality view
KR102190743B1 (ko) 로봇과 인터랙션하는 증강현실 서비스 제공 장치 및 방법
KR102029906B1 (ko) 이동수단의 가상현실 콘텐츠 제공 장치 및 방법
KR20130082296A (ko) 가상 공간 이동 장치 및 방법
KR102383499B1 (ko) 시각 특징 맵 생성 방법 및 시스템
RU2681346C2 (ru) Способ и система точной локализации слабовидящего или слепого человека
US20220291006A1 (en) Method and apparatus for route guidance using augmented reality view
KR20210100187A (ko) 자율 주행 차량 운전자의 운전자 정보의 출력을 제어하고 운전자 주의력을 유지하기 위한 장치 및 방법
KR101566964B1 (ko) 이동 물체를 추적할 수 있는 어라운드 뷰 모니터링 방법, 이를 수행하는 어라운드 뷰 모니터링 장치 및 이를 저장하는 기록매체
JP2014174880A (ja) 情報提供装置、及び情報提供プログラム
US10936147B2 (en) Tablet computing device with display dock
US10558270B2 (en) Method for determining non-contact gesture and device for the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant