KR20220104976A - 하프미러방식의 가상현실 헤드셋 플랫폼 - Google Patents

하프미러방식의 가상현실 헤드셋 플랫폼 Download PDF

Info

Publication number
KR20220104976A
KR20220104976A KR1020210007442A KR20210007442A KR20220104976A KR 20220104976 A KR20220104976 A KR 20220104976A KR 1020210007442 A KR1020210007442 A KR 1020210007442A KR 20210007442 A KR20210007442 A KR 20210007442A KR 20220104976 A KR20220104976 A KR 20220104976A
Authority
KR
South Korea
Prior art keywords
mirror
headset
mirror type
information
bluetooth
Prior art date
Application number
KR1020210007442A
Other languages
English (en)
Inventor
김권태
Original Assignee
김권태
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김권태 filed Critical 김권태
Priority to KR1020210007442A priority Critical patent/KR20220104976A/ko
Publication of KR20220104976A publication Critical patent/KR20220104976A/ko

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Support Of Aerials (AREA)

Abstract

하프미러방식과 HUB장치가 결합된 가상현실 체험장치가 개시된다. 하프미러방식의 가상현실 헤드셋 플랫폼(Half-mirror virtual reality headset platform)을 이용한 가상현실 솔루션 컨텐츠를 제공하는 장치에 있어서, 일 실시예에 따른 솔루션 컨텐츠 제공 장치는, 하프미러방식의 헤드셋으로부터 상기 솔루션 컨텐츠에 포함된 객체에 대응하는 제1 블루투스 입력장치의 데이터를 수신하고, 상기 하프미러방식의 헤드셋로부터 상기 객체의 개요 정보에 관련된 제2블루투스 데이터 수신하는 수신기와, 하프미러 장치의 영상 출력을 통해 상기 증강현실 데이터 정보를 제공하고, 상기 제2 와 HUD 장치의 영상입력 장치에 응답하여 상기 객체의 위치 정보 및 상기 하프미러방식의 헤드셋의 위치에 기초하여 상기 객체에 대한 상세 정보를 제공하는 프로세서를 포함한다.
Figure pat00001
Figure pat00002

Description

하프미러방식의 가상현실 헤드셋 플랫폼 {Half-mirror virtual reality headset platform}
아래 실시예들은 하프미러방식의 가상현실 헤드셋 플랫폼을 이용한 솔루션 컨텐츠 장치에 관한 것이다.
하프미러방식의 가상현실 헤드셋(Half-mirror virtual reality headset)이란 현실 세계를 바탕으로 각종 디지털 콘텐츠와 정보를 투사시켜 함께 볼 수 있도록 제공하는 웨어러블 기기이다.
하프미러방식의 가상현실 헤드셋은 스마트폰과 같이 사용자가 기기를 손으로 들고 이용하는 것이 아니라, 안경처럼 착용함으로써 하프미러 방식의 렌즈를 통해 시각적인 서비스를 제공할 수 있는 기기이다. 하프미러방식의 가상현실 헤드셋을 이용할 경우 사용자는 두 손을 자유롭게 사용할 수 있어 편리하다. 또한 블루투스 기기를 활용하여, 원격조정, 선택, 움직임등이 가능하여, 원격교육, 게임, 문화, 체험등의 콘텐츠 체험에 도움을 줄수 있다.
가상현실 헤드셋은 스마트폰과 모니터 및 TV와 같은 디스플레이를 대체할 수 있는 차세대 주요 플랫폼으로 부상하고 있으며, 원격 교육, 화상 회의, 스포츠 관람 등 다양한 용도로 주목받고 있다. 하지만 지금까지의 가상현실 헤드셋은 양안시차를 이용한 시각차로 인하여, 두통과 어지러움증, 콘텐츠의 제작의 어려움을 겪고있엇다.
실시예들은 하프미러방식의 가상현실 헤드셋을 이용한 솔루션을 제공할 수 있다. 다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.
하프미러방식의 가상현실 헤드셋(Half-mirror virtual reality headset)을 이용한 솔루션을 제공하는 장치에 있어서, 체험에 따른 컨텐츠 제공 장치는, 하프미러방식의 가상현실 헤드셋으로 부터 상기 컨텐츠에 포함된 객체에 대응하는 제1 스마트기기를 이용한 하프미러 장치를 이용하고, 상기 하프미러방식의 가상현실 헤드셋으로부터 상기 객체의 개요 정보에 관련된 제2 HUD 장치(300)의 입력을 수신하는 수신기와, 상기 제1 하프미러 장치 입력에 응답하여 상기 개요 정보를 제공하고, 상기 제2 HUD 장치(300) 입력에 응답하여 상기 객체의 위치 정보 및 상기 하프미러방식의 가상현실 헤드셋의 위치에 기초하여 상기 객체에 대한 상세 정보를 제공하는 프로세서를 포함한다.
상기 프로세서는, 하프미러방식의 가상현실 헤드셋과 HUD장치의 움직임(motion)에 기초하여 상기 개요 정보를 제공할 수 있다.
상기 프로세서는, 상기 제1 하프미러 장치의 영상 입력에 응답하여 상기 하프미러방식의 가상현실 헤드셋의 디스플레이로 상기 객체의 개요에 관한 이미지 정보를 출력하고, 상기 제1 하프미러 영상에 응답하여 상기 하프미러방식의 가상현실 헤드셋의 블루투스 스피커로 상기 객체의 개요에 관한 음성 정보를 출력할 수 있다.
상기 프로세서는, 상기 디스플레이와 하프미러 객체와 HUD 패널을 이용하여 상기 객체의 개요에 관한 증강 현실 이미지를 출력할 수 있다.
상기 프로세서는, 상기 객체의 위치와 상기 하프미러방식의 가상현실 헤드셋의 위치 사이의 거리를 계산하고, 상기 거리에 기초하여 상기 상세 정보를 제공할 수 있다.
상기 프로세서는, 상기 거리에 기초하여 이동 수단에 따른 이동 시간을 계산하여 제공할 수 있다.
실시예들은 하프미러방식의 가상현실 헤드셋을 이용하여 교육/문화/게임/화상시스템등의 체험 컨텐츠를 제공함으로써 기존의 가상현실 시스템 과정에서 이루어지고 있는 양안시차 방식을 벗어나 하프미러방식의 가상현실 헤드셋을 활용한 실감나는 가상현실 솔루션을 제공할 수 있다
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 “~사이에”와 “바로~사이에” 또는 “~에 직접 이웃하는” 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 명세서에서의 모듈(module)은 본 명세서에서 설명되는 각 명칭에 따른 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능과 동작을 수행할 수 있는 컴퓨터 프로그램 코드를 의미할 수도 있고, 또는 특정 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예를 들어 프로세서 또는 마이크로 프로세서를 의미할 수 있다.
다시 말해, 모듈이란 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및/또는 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일 실시예에 따른 하프미러방식 헤드셋의 개략적인 블록도를 나타낸다.
도 1을 참조하면, 하프미러 장치(300)는 HUD 장치(300)(300)와 더불어 사용자에게 가상세계의 컨텐츠를 제공할 수 있다. 하프미러방식 헤드셋 제공 장치(400)는 하프미러 장치(300)는 HUD 장치(300)(300)를 이용하여 사용자의 나이와 안경착용 유무 및 거동이 불편함과는 상관없이 콘텐츠 및 솔루션을 제공할 수 있다.
하프미러방식 헤드셋(400)란 현실 세계를 바탕으로 다양한 디지털 콘텐츠와 정보를 투사시켜 함께 볼 수 있도록 이미지를 제공하는 웨어러블 기기를 의미할 수 있다.
증강 현실 이미지는 하프미러방식 헤드셋(400)를 통해 보이는 장면과 3D나 2D의 가상의 물체를 합성하여 보여주는 이미지를 의미할 수 있다.
하프미러방식 헤드셋(400)은 아날로그 가상체험 솔루션를 이용하여 증강 현실로 구성된 새로운 솔루션을 제공할 수 있다.
하프미러방식 헤드셋(400)는 기초되는 가상현실 기기와 같은 헤드셋, 하프미러 장치(Half mirror device), HUD(Head Up Display)로 구현될 수 있다. 예를 들어, 가상체험 솔루션 제공 장치(10)는 애플리케이션 프로세서(application processor)로 구현될 수 있다.
또한, 가상체험 솔루션 제공 장치(10)는 PC(personal computer), 데이터 서버, 또는 휴대용 장치 내에 구현될 수 있다.
휴대용 장치는 랩탑(laptop) 컴퓨터, 이동 전화기, 스마트 폰(smart phone), 태블릿(알약) PC, 모바일 인터넷 디바이스(mobile internet device(MID)), PDA(personal digital assistant), EDA(enterprise digital assistant), 디지털 스틸 카메라(digital still camera), 디지털 비디오 카메라(digital video camera), PMP(portable multimedia player), PND(personal navigation device 또는 portable navigation device), 휴대용 게임 콘솔(handheld game console), e-북(e-book), 또는 스마트 디바이스(smart device)로 구현될 수 있다. 스마트 디바이스는 스마트 와치(smart watch), 스마트 밴드(smart band), 또는 스마트 링(smart ring)으로 구현될 수 있다.
하프미러방식 헤드셋(400)는 하프미러방식 장치(300) 및 HUD장치(300)를 포함한다. 하프미러방식 헤드셋(400)는 하프미러방식 장치(300) 및 HUD장치(300)를 더 포함할 수 있다. 예를 들어, 하프미러방식 헤드셋(400)는 하프미러방식 헤드셋(400) 내부 또는 외부에 구현될 수 있다.
하프미러방식 장치(300) 수신 영상 시스템을 포함할 수 있다. 하프미러방식 장치(300)은 하프미러방식 헤드셋(400)으로부터 신호를 수신할 수 있다. 하프미러방식 장치(300)은 하프미러방식 헤드셋(400)로부터 하프미러방식 헤드셋(400)의 GPS(Global Positioning System) 좌표, 수평, 고도등과 함께 일반 2D콘텐츠와 더불어 증강현실 및 가상현실 콘텐츠까지 객체에 대한 공간 데이터 인지값 등을 포함할 수 있다.
하프미러방식 장치(300)는 하프미러방식 헤드셋(400)으로부터 블루투스 입력을 전기 신호의 형태로 수신할 수 있다.
예를 들어, 하프미러방식 장치(300)는 하프미러방식 헤드셋(400)으로부터 증강현실 컨텐츠에 포함된 객체에 대응하는 제1 블루투스 장치의 입력을 수신할 수 있다. 하프미러방식 장치(300)는 하프미러방식 헤드셋(400)으로부터 객체의 개요 정보에 관련된 제2 HUD 장치(300)의 영상을 수신할 수 있다.
하프미러방식 장치(300)는 수신한 신호를 HUD 장치(300)(300)로 출력할 수 있다.
하프미러방식 장치(300)는 제1 블루투스 입력에 응답하여 상기 객체에 대한 개요 정보를 제공할 수 있다. 하프미러방식 장치(300)는 제2 HUD 장치(300)(300)에 응답하여 객체의 위치 정보 및 하프미러방식 헤드셋(400)의 위치에 기초하여 객체에 대한 상세 정보를 제공할 수 있다.
객체는 증강현실 컨텐츠 내에 포함된 콘텐츠 대상을 의미할 수 있다. 예를 들어, 증강현실 컨텐츠가 게임에 관한 것일 경우, 객체는 현실세계의 위치, 사물 또는 오브젝트 등이 될 수 있다.
개요 정보는 객체에 대한 전반적인 정보를 포함할 수 있다. 예를 들어, 객체가 현실세계의 사물일 경우, 현실 세계의 구성, 스마트 기기의 카메라를 통해들어오는 영상 데이터가 사물을 포함된 오브젝트 및 위치기반의 사물, 사물 간의 거리, 깊이감 및 시차정보 등의 값들을 포함할 수 있다.
상세 정보는 하프미러방식 헤드셋(400)와 객체의 상호 작용에 의해 도출되는 정보를 포함할 수 있다. 예를 들어, 상세 정보는 하프미러방식 헤드셋(400)이 위치한 지점과 블루투스에 의해 선택된 지점까지의 거리, 상대적인 시간 차이, 하프미러방식 헤드셋(400)이 위치한 지점과 선택된 지점 간의 환경의 차이, 하프미러방식 헤드셋(400)이 위치한 지점으로부터 선택된 지점까지의 이동 시간 등을 포함할 수 있다.
하프미러방식 장치(300)는 하프미러방식 헤드셋(400)에서 투사된 영상 데이터를 표출할 수 있다. 하프미러방식 장치(300)는 하프미러방식 헤드셋(400)에서 처리된 영상데이터와 블루투스에서 선택된 데이터 값을 연계하여 하프미러방식 장치(300)에 의해 유발된 인스트럭션(instruction)들을 실행할 수 있다.
"하프미러방식 장치(300)"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로가 아닌 하프미러방식 헤드셋(400)에서 처리된 영상 데이테를 HUD(300)장치로 영상을 투영하는 인스트럭션들(instructions)을 포함할 수 있다.
예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.
하프미러방식 장치(300)는 하프미러방식 헤드셋(400)의 움직임(motion)에 기초하여 개요 정보를 제공할 수 있다. 하프미러방식 헤드셋(400)은 하프미러방식 헤드셋(400)의 움직임을 감지할 수 있는 다양한 센서를 포함할 수 있다. 예를 들어, 하프미러방식 헤드셋(400)은 가속도 센서, 중력 센서 또는 자이로 센서를 포함할 수 있다. 하프미러방식 헤드셋(400)에 관해서는 도 2를 참조하여 보다 자세하게 설명한다.
하프미러방식 장치(300)는 하프미러방식 헤드셋(400)로부터 움직임을 감지한 결과를 수신하고, 감지 결과에 기초하여 개요 정보를 제공할 수 있다. 예를 들어, 하프미러방식 장치(300)는 하프미러방식 헤드셋(400)의 움직임에 따라 3 차원으로 구성된 객체의 이미지 중에서 하프미러방식 헤드셋(400)의 시야에 대응되는 객체에 대한 개요 정보만을 제공할 수 있다.
하프미러방식 장치(300)는 제1 블루투스 입력에 응답하여 하프미러방식 헤드셋(400)의 디스플레이로 객체의 개요에 관한 이미지 정보를 받아 출력할 수 있다. 하프미러방식 장치(300)는 디스플레이로 객체의 개요에 관한 증강 현실 이미지를 출력할 수 있다.
하프미러방식 장치(300)는 제1 블루투스 입력에 응답하여 하프미러방식 헤드셋(400)의 스피커 혹은 블루투스 헤드셋으로 객체의 개요에 관한 음성 정보를 출력할 수 있다.
하프미러방식 장치(300)는 객체의 위치와 하프미러방식 헤드셋(400)의 위치 사이의 거리를 계산할 수 있다. 하프미러방식 장치(300)는 객체의 위치와 하프미러방식 헤드셋(400)의 위치 사이의 거리에 기초하여 상세 정보를 제공할 수 있다. 하프미러방식 장치(300)는 거리에 기초하여 이동 수단에 따른 이동 시간을 계산하여 제공할 수 있다.
HUD 장치(300)는 하프미러방식 장치(300)에 의해 실행한 영상 및 이미지를 투영할 수 있다. 예를 들어, 하프미러방식 장치(300)의 영상의 동작 및/또는 프로세서의 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.
HUD 장치(300)는 하프미러방식 장치(300)의 투영장치로 구현될 수 있다.
도 2는 도 1에 도시된 가상현실 컨텐츠 제공 장치의 동작의 일 예를 나타낸다.
솔루션 체험자(250)는 하프미러방식 헤드셋(400)를 통해 가상체험 솔루션을 제공받을 수 있다. 솔루션 체험자(250)는 하프미러방식 헤드셋(400)를 통해, AR(Augmented Reality) 교육을 체험할 수 있다(280).
솔루션 체험자(250)는 하프미러방식 헤드셋(400)를 통해 AR 이미지로 구성된 가상체험 솔루션를 제공받을 수 있다(280).
하프미러방식 헤드셋(400)는 디스플레이, 카메라, 모션 감지 센서, 블루투스 센서, 스피커, 마이크 및 배터리 중 적어도 하나를 포함할 수 있다. 디스플레이는 투명 디스플레이를 포함할 수 있다.
카메라는 제1 카메라 및 제2 카메라를 포함할 수 있다. 제1 카메라는 사용자의 눈의 이미지를 획득할 수 있다. 제2 카메라는 하프미러방식 헤드셋(400)의 전방의 사용자의 눈이 바라보는 방향의 이미지를 획득할 수 있다.
하프미러방식 헤드셋(400)는 블루투스 센서를 포함할 수 있다. 블루투스 센서는 특정 부위에 대한 블루투스에 의하여 가해진 압력 또는 정전 용량 등의 변화를 전기적인 입력 신호로 변환할 수 있다. 블루투스 센서는 블루투스 되는 위치, 면적 및 블루투스 시의 압력을 검출할 수 있다. 예를 들어, 블루투스 센서는 근접 센서 또는 접촉식 센서로 구현될 수 있다.
가상체험 솔루션 제공 장치(10) 또는 하프미러방식 헤드셋(400)는 블루투스 및 WIFI(Wireless Fidelity)로 통신할 수 있다. 하프미러방식 장치(300)는 블루투스 또는 WIFI 통신을 통해 클라우드에 기초하여 가상체험 솔루션를 제공할 수 있다.
또한, 블루투스 센서에서 소정의 방향으로 블루투스를 이동시킴으로써 하프미러방식 헤드셋(400)의 디스플레이가 제공하는 화면에 대한 스크롤(scroll) 기능을 수행할 수 있다.
배터리는 1차 전지 또는 2차 전지를 포함할 수 있다.
하프미러방식 장치(300)는 아날로그 가상체험 솔루션에 기초하여 하프미러방식 헤드셋(400)를 이용한 증강 현실 이미지 및 음성 설명을 제공할 수 있다. 이 때, 하프미러방식 장치(300)는 GPS에 기초하여 증강 현실 이미지를 제공할 수 있다.
하프미러방식 장치(300)는 하프미러방식 헤드셋(400)에 포함된 모션 센서가 감지한 결과에 기초하여 증강 현실 이미지를 제공할 수 있다. 모션 센서는 상술한 것과 같이, 가속도 센서, 중력 센서 및 자이로 센서를 포함할 수 있다.
하프미러방식 장치(300)는 하프미러방식 헤드셋(400)로부터 블루투스 입력을 수신하고, 수신한 블루투스 입력에 기초하여 가상체험 솔루션를 제공할 수 있다. 하프미러방식 장치(300)는 솔루션 체험자(250)의 이해력을 높이기 위해 사운드 또는 음성 설명 서비스를 제공할 수 있다.
하프미러방식 장치(300)는 증강 현실 엔진을 이용하여 솔루션 체험자(250)에게 AR 교육 체험을 가능하게 할 수 있다.
하프미러방식 장치(300)는 가상체험 솔루션를 HUD 장치(300)에 추가할 수 있다(270). 이 때, 하프미러방식 장치(300)는 추가적인 가상체험 솔루션를 탑재하기 위해 경량 엔진을 이용할 수 있다. 하프미러방식 장치(300)는 경량 엔진을 이용하여 하프미러방식 헤드셋(400)의 배터리 수명을 증가시킬 수 있다.
도 3은 도 1에 도시된 가상체험 솔루션 제공 장치의 동작의 다른 예를 나타낸다.
도 3을 참조하면, 가상체험 솔루션 제공 장치(400)는 하프미러방식 헤드셋(400)를 이용하여 가상체험 솔루션를 제공할 수 있다. 이하에서는 도 3의 실시예 통해, 태양계에 관한 가상체험 솔루션를 제공하는 과정에 대하여 설명한다.
가상체험 솔루션 제공 장치(400)는 수평/고도/거리/위치 기반의 증강현실을 통한 시간 및 이동 수단에 따른 이동 시간을 증강 현실 이미지 및 음성을 이용하여 제공할 수 있다.
가상체험 솔루션 제공 장치(380)는 하프미러방식 헤드셋(400)의 블루투스 센서를 이용하여 시작, 이동, 선택 및 중지 등의 동작을 실행함으로써 가상체험 솔루션를 용이하게 제공할 수 있다.
가상체험 솔루션 제공 장치(10)는 하프미러방식 헤드셋(400)의 블루투스를 이용하여 또는 가상체험 솔루션 제공 장치(10) 고유의 부팅 버튼을 통해 전원이 켜질 수 있다(380). 하프미러방식 장치(300)는 제1 블루투스 입력에 응답하여 객체에 대한 개요 정보를 제공할 수 있다. 예를 들어, 하프미러방식 장치(300)는 하프미러방식 헤드셋(400)의 우측 블루투스로부터 입력된 신호를 제1 블루투스 입력으로 수신할 수 있다.
하프미러방식 장치(300)는 객체에 대한 개요 정보의 일 예로 태양계의 소개 정보를 제공할 수 있다(320). 이 때, 블루투스 입력에 응답하여 하프미러방식 장치(300)는 되돌아가기, 정지, 재생 등의 동작을 수행할 수 있다(380).
하프미러방식 장치(300)는 하프미러방식 헤드셋(400)의 디스플레이를 통해 이미지를 제공하고, 스피커를 통해 음성을 제공할 수 있다(322). 예를 들어, 하프미러방식 장치(300)는 하프미러방식의 헤드셋과 연동하는 블루투스 스피커/이어폰을 통해 제공된다. 또한, 하프미러방식 장치(300)는 TTS(Text-To-Speech)를 이용하여 개요 정보를 음성으로 제공할 수 있다(390).
상술한 것과 같이 개요 정보는 행성계의 구성, 행성계에 포함된 행성 및 항성, 각 행성의 위성 및 각 행성 간의 거리, 질량 및 공전 주기 등의 정보를 포함할 수 있다.
하프미러방식 장치(300)는 다음 스테이지 입력에 대응하여 다른 가상체험 솔루션를 제공할 수 있다(330). 이 때, 다음 스테이지 입력은 하프미러방식 헤드셋(400)의 우측 블루투스를 이용하여 이루어질 수 있다(331).
하프미러방식 장치(300)는 하프미러방식 헤드셋(400)의 움직임에 기초하여 가상체험 솔루션를 제공할 수 있다. 예를 들어, 하프미러방식 장치(300)는 하프미러방식 헤드셋(400)의 움직임에 기초하여 태양계 행성을 소개할 수 있다(340). 이 때, 블루투스 입력에 응답하여 하프미러방식 장치(300)는 되돌아가기, 정지, 재생 등의 동작을 수행할 수 있다(341).
하프미러방식 장치(300)는 하프미러방식 헤드셋(400)를 좌/우로 이동하여 증강현실을 통한 사물인식 또는 블루투스 신호를 수신할 수 있다(380). 이 경우, 하프미러방식 장치(300)는 하프미러방식 헤드셋(400)의 시야가 향하는 곳에 위치한 행성에 대한 정보를 확인할 수 있다(380).
하프미러방식 장치(300)는 확인한 정보를 하프미러방식 헤드셋(400)의 좌/우측에 위치한 박스형 정보판을 통해 제공하거나, 음성 서비스를 통해 제공할 수 있다(380).
하프미러방식 장치(300)는 다음 스테이지 입력에 대응하여 다른 가상체험 솔루션를 제공할 수 있다(350). 이 때, 다음 스테이지 입력은 하프미러방식 헤드셋(400)의 우측 블루투스를 이용하여 이루어질 수 있다(351).
하프미러방식 장치(300)는 하프미러방식 헤드셋(400)로부터 개요 정보에 관련된 제2 블루투스 입력을 수신할 수 있다. 예를 들어, 하프미러방식 장치(300)는 하프미러방식 헤드셋(400)에서 디스플레이되는 증강현실의 오브젝트에 대응하는 블루투스 입력을 제2 블루투스 입력으로 수신할 수 있다.
하프미러방식 장치(300)는 하프미러방식 헤드셋(400)의 움직임에 따라 디스플레이되는 행성들 중에서 하나의 행성까지의 여행을 위한 정보를 제공할 수 있다(360). 이 때, 블루투스 입력에 응답하여 하프미러방식 장치(300)는 되돌아가기, 정지, 재생 등의 동작을 수행할 수 있다(361).
하프미러방식 장치(300)는 객체의 위치 정보 및 하프미러방식 헤드셋(400)의 위치에 기초하여 객체에 대한 상세 정보를 제공할 수 있다. 하프미러방식 장치(300)는 객체의 위치와 하프미러방식 헤드셋(400)의 위치 사이의 거리를 계산하고, 계산한 거리에 기초하여 상세 정보를 제공할 수 있다. 구체적으로, 하프미러방식 장치(300)는 거리에 기초하여 이동 수단에 따른 이동 시간을 계산하여 제공할 수 있다.
예를 들어, 하프미러방식 장치(300)는 현재 위치에서 선택한 행성까지 걸어갈 경우의 거리 및 시간 정보를 제공할 수 있다. 이 때, 하프미러방식 장치(300)는 하프미러방식 헤드셋(400)의 스피커를 통해 음성 서비스를 함께 제공할 수 있다(363).
하프미러방식 장치(300)는 뛰어갈 때, 자전거, 자동차, 비행기 및 우주선을 이용하여 선택된 행성까지 이동할 경우의 거리 및 시간을 제공할 수 있다(364). 이 때, 하프미러방식 장치(300)는 하프미러방식 헤드셋(400)의 스피커를 통해 음성 서비스를 함께 제공할 수 있다(365).
하프미러방식 장치(300)는 선택한 행성에서 살아가기 위한 조건 및 살 수 없는 이유를 박스 형태의 알림판으로 제공할 수 있다(380). 살아가기 위한 조건은 공기 온도 물 및 필요 물품에 관한 정보를 포함할 수 있다. 이 때, 하프미러방식 장치(300)는 하프미러방식 헤드셋(400)의 스피커를 통해 음성 서비스를 함께 제공할 수 있다(367).
하프미러방식 장치(300)는 동일 시간대의 지구에서의 나이와 행성에서의 나이가 동일한지 여부를 제공할 수 있다(368). 이 때, 하프미러방식 장치(300)는 하프미러방식 헤드셋(400)의 스피커를 통해 음성 서비스를 함께 제공할 수 있다(390).
도 3는 도 1, 도 2에서 표시된 가상체험 솔루션 제공 장치의 동작의 순서도를 나타낸다.
가상체험 솔루션 제공 장치(10)는 하프미러방식 헤드셋(400)를 이용한 가상체험 솔루션를 제공할 수 있다. 하프미러방식 장치(300)는 하프미러방식 헤드셋(400)로부터 가상체험 솔루션에 포함된 객체에 대응하는 제1 블루투스 입력을 수신할 수 있다(380).
하프미러방식 장치(380)는 제1 블루투스 입력에 응답하여 객체에 대한 개요 정보를 제공할 수 있다(380). 하프미러방식 장치(380)는 하프미러방식 헤드셋(400)의 움직임(motion)에 기초하여 개요 정보를 제공할 수 있다.
하프미러방식 장치(380)는 제1 블루투스 입력에 응답하여 하프미러방식 헤드셋(400)의 디스플레이로 객체의 개요에 관한 이미지 정보를 출력할 수 있다. 하프미러방식 장치(380)는 디스플레이로 객체의 개요에 관한 증강 현실 이미지를 출력할 수 있다.
하프미러방식 장치(380)는 제1 블루투스 입력에 응답하여 하프미러방식 헤드셋(400)의 스피커로 객체의 개요에 관한 음성 정보를 출력할 수 있다.
블루투스 수신기는 하프미러방식 헤드셋(400)로부터 상기 개요 정보에 관련된 제2 블루투스 입력을 수신할 수 있다(380).
하프미러방식 장치(380)는 제2 블루투스 입력에 응답하여 객체의 위치 정보 및 하프미러방식 헤드셋(400)의 위치에 기초하여 객체에 대한 상세 정보를 제공할 수 있다. 하프미러방식 장치(380)는 객체의 위치와 하프미러방식 헤드셋(400)의 위치 사이의 거리를 계산할 수 있다. 하프미러방식 장치(380)는 거리에 기초하여 상세 정보를 제공할 수 있다. 구체적으로, 하프미러방식 장치(380)는 거리에 기초하여 이동 수단에 따른 이동 시간을 계산하여 제공할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (1)

  1. 하프미러방식 헤드셋를 이용한 증강현실 컨텐츠를 제공하는 장치에 있어서,
    하프미러방식의 헤드셋으로부터 상기 증강현실 솔루션 컨텐츠에 포함된 객체에 대응하는 제1 블루투스 데어터를 수신하고, 상기 하프미러방식 헤드셋으로부터 상기 객체의 개요 정보에 관련된 제2 블루투스 데이터를 수신하는 수신기 및
    상기 제1 터치 입력에 응답하여 상기 개요 정보를 제공하고, 상기 하프미러 장치와 HUD 장치에 영상을 투영하여 상기 객체의 위치 정보 및 상기 하프미러방식의 헤드셋의 위치에 기초하여
    상기 객체에 대한 상세 정보를 제공하는 프로세서
    를 포함하는 가상현실 솔루션 제공 장치

KR1020210007442A 2021-01-19 2021-01-19 하프미러방식의 가상현실 헤드셋 플랫폼 KR20220104976A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210007442A KR20220104976A (ko) 2021-01-19 2021-01-19 하프미러방식의 가상현실 헤드셋 플랫폼

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210007442A KR20220104976A (ko) 2021-01-19 2021-01-19 하프미러방식의 가상현실 헤드셋 플랫폼

Publications (1)

Publication Number Publication Date
KR20220104976A true KR20220104976A (ko) 2022-07-26

Family

ID=82609861

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210007442A KR20220104976A (ko) 2021-01-19 2021-01-19 하프미러방식의 가상현실 헤드셋 플랫폼

Country Status (1)

Country Link
KR (1) KR20220104976A (ko)

Similar Documents

Publication Publication Date Title
US10223799B2 (en) Determining coordinate frames in a dynamic environment
US11691079B2 (en) Virtual vehicle control method in virtual scene, computer device, and storage medium
US10321258B2 (en) Emulating spatial perception using virtual echolocation
US9495801B2 (en) Pose tracking an augmented reality device
CA2913650C (en) Virtual object orientation and visualization
EP3172644B1 (en) Multi-user gaze projection using head mounted display devices
US10564915B2 (en) Displaying content based on positional state
CN107771342A (zh) 一种增强现实显示方法及头戴式显示设备
US11100713B2 (en) System and method for aligning virtual objects on peripheral devices in low-cost augmented reality/virtual reality slip-in systems
US10645525B2 (en) Sharing geo-located information
KR20220104976A (ko) 하프미러방식의 가상현실 헤드셋 플랫폼
US11557097B2 (en) Triggering a collaborative augmented reality environment using an ultrasound signal
EP3864628A1 (en) Content event mapping
KR20220075773A (ko) 스마트 글라스를 이용한 교육 컨텐츠 장치
US11841741B2 (en) Composite pose estimate for wearable computing device
US11886245B2 (en) Estimating runtime-frame velocity of wearable device
US20240143259A1 (en) Wearable device displaying visual object using sensor in external electronic device and method thereof
KR20230070308A (ko) 웨어러블 장치를 이용한 제어가능한 장치의 위치 식별
CN117234340A (zh) 头戴式xr设备用户界面显示方法及设备
Runde Head Mounted Displays & Data Glasses

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application