KR20150082843A - 헤드 마운티드 디스플레이 및 그 제어 방법 - Google Patents

헤드 마운티드 디스플레이 및 그 제어 방법 Download PDF

Info

Publication number
KR20150082843A
KR20150082843A KR1020140002293A KR20140002293A KR20150082843A KR 20150082843 A KR20150082843 A KR 20150082843A KR 1020140002293 A KR1020140002293 A KR 1020140002293A KR 20140002293 A KR20140002293 A KR 20140002293A KR 20150082843 A KR20150082843 A KR 20150082843A
Authority
KR
South Korea
Prior art keywords
information image
state
hmd
image
information
Prior art date
Application number
KR1020140002293A
Other languages
English (en)
Other versions
KR102120105B1 (ko
Inventor
이도영
김지환
김종호
조은형
천시내
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140002293A priority Critical patent/KR102120105B1/ko
Priority to US14/190,746 priority patent/US8963807B1/en
Priority to PCT/KR2014/001618 priority patent/WO2015105234A1/en
Publication of KR20150082843A publication Critical patent/KR20150082843A/ko
Application granted granted Critical
Publication of KR102120105B1 publication Critical patent/KR102120105B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; CARE OF BIRDS, FISHES, INSECTS; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K91/00Lines
    • A01K91/03Connecting devices
    • A01K91/04Connecting devices for connecting lines to hooks or lures
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; CARE OF BIRDS, FISHES, INSECTS; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K83/00Fish-hooks
    • A01K83/04Fish-hooks with special gripping arms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

HMD(Head Mounted Display)에 있어서, 이미지를 촬영(capture)하는 카메라 유닛; 정보 이미지를 디스플레이하는 디스플레이 유닛; 상기 카메라 유닛 및 상기 디스플레이 유닛을 제어하는, 프로세서; 를 포함하고, 상기 프로세서는, 상기 카메라 유닛을 이용하여 오브젝트를 디텍트하되, 상기 오브젝트는 상기 HMD를 착용한 착용자(wearer)를 실질적으로(substantially) 응시하는 스테어링 상태(staring status) 및 상기 착용자를 실질적으로 응시하지 않는 언스테어링 상태(unstaring status)를 가지고, 상기 오브젝트를 상기 스테어링 상태로서 디텍트한 경우 제 1 정보 이미지를 디스플레이하고, 상기 오브젝트를 상기 언스테어링 상태로서 디텍트한 경우 제 2 정보 이미지를 디스플레이하는 HMD로서, 상기 제 1 정보 이미지는 디스플레이되는 정보량 및 디스플레이되는 위치 중 적어도 하나가 상기 제 2 정보 이미지와 다른 이미지인, HMD를 제공할 수 있다.

Description

헤드 마운티드 디스플레이 및 그 제어 방법{HEAD MOUNTED DISPLAY AND METHOD FOR CONTROLLING THE SAME}
본 명세서는 헤드 마운티드 디스플레이에 관한 것으로, 특히 오브젝트의 상태에 따라 정보 이미지의 디스플레이를 제어하는 헤드 마운트 디스플레이 및 그 제어 방법에 관한 것이다.
헤드 마운트 디스플레이(Head Mounted Display, 이하 ‘HMD’)는 유저가 안경처럼 착용할 수 있다. HMD 착용자는 HMD로부터 다양한 정보를 제공받을 수 있다. 특히, HMD는 HMD 착용자의 시선에 따라 선택된 정보를 제공하거나 다양한 정보를 적절하게 배치할 수 있다.
다만, 기존의 HMD는 HMD 착용자의 시선에만 기초하여 정보를 제공한다는 한계점이 존재하였다. 따라서, 대화를 하는 경우와 같이 다른 사람과 의사 소통을 하는 경우에도, HMD 착용자를 중심으로 HMD 착용자의 시선에만 기초하여 정보를 제공하였다. 이 경우, 다른 사람과 의사 소통 중이라는 상황에 적절하지 않게 HMD는 HMD 착용자의 시선에만 기초하여 정보를 제공함으로써, HMD 착용자에게 다양한 정보를 효율적으로 제공하지 못한다는 문제점이 있었다. 또한, HMD는 HMD 착용자가 원하지 않는 정보를 원하지 않는 상황에 제공할 수 있다는 문제점이 존재하였다.
따라서, HMD는 상대방의 HMD 착용자에 대한 응시 상태를 디텍트하여 상황에 따른 적절한 정보를 제공할 필요가 있다.
일 실시예에 따르면, 오브젝트의 상태에 따라 정보 이미지의 디스플레이를 제어하는 HMD 및 그 제어 방법을 제공하고자 한다.
또한, 다른 일 실시예에 따르면, 오브젝트의 상태에 따라 서로 다른 정보량을 갖거나 서로 다른 위치에 디스플레이되는 정보 이미지를 디스플레이하는 HMD 및 그 제어 방법을 제공하고자 한다.
또한, 다른 일 실시예에 따르면, 오브젝트에 포함된 얼굴 및/또는 시선의 방향을 디텍트함으로써 오브젝트의 상태를 디텍트하는 HMD 및 그 제어 방법을 제공하고자 한다.
또한, 다른 일 실시예에 따르면, 오브젝트의 수평 회전 정도를 디텍트함으로써 오브젝트의 상태를 디텍트하는 HMD 및 그 제어 방법을 제공하고자 한다.
또한, 다른 일 실시예에 따르면, 오브젝트의 상태가 전환되더라도 일정 시간 동안 정보 이미지의 디스플레이를 유지하는 HMD 및 그 제어 방법을 제공하고자 한다.
상기와 같은 문제를 해결하고자, 일 실시예에 따르면, HMD(Head Mounted Display)에 있어서, 이미지를 촬영(capture)하는 카메라 유닛; 정보 이미지를 디스플레이하는 디스플레이 유닛; 상기 카메라 유닛 및 상기 디스플레이 유닛을 제어하는, 프로세서; 를 포함하고, 상기 프로세서는, 상기 카메라 유닛을 이용하여 오브젝트를 디텍트하되, 상기 오브젝트는 상기 HMD를 착용한 착용자(wearer)를 실질적으로(substantially) 응시하는 스테어링 상태(staring status) 및 상기 착용자를 실질적으로 응시하지 않는 언스테어링 상태(unstaring status)를 가지고, 상기 오브젝트를 상기 스테어링 상태로서 디텍트한 경우 제 1 정보 이미지를 디스플레이하고, 상기 오브젝트를 상기 언스테어링 상태로서 디텍트한 경우 제 2 정보 이미지를 디스플레이하는 HMD로서, 상기 제 1 정보 이미지는 디스플레이되는 정보량 및 디스플레이되는 위치 중 적어도 하나가 상기 제 2 정보 이미지와 다른 이미지인, HMD를 제공할 수 있다.
일 실시예에 따르면, 본 명세서의 HMD는 오브젝트가 HMD 착용자를 응시하는지에 따라 정보 이미지의 디스플레이를 제어하므로, HMD 착용자에게 적절한 상황에 적절한 정보를 제공할 수 있다는 효과가 있다.
또한, 다른 일 실시예에 따르면, 본 명세서의 HMD는 오브젝트에 포함된 얼굴 및/또는 시선의 방향 또는 오브젝트의 수평 회전 정도를 디텍트함으로써 오브젝트의 상태를 디텍트하므로 보다 정확하고 효과적으로 오브젝트의 상태를 디텍트할 수 있다는 효과가 있다.
또한, 다른 일 실시예에 따르면, 본 명세서의 HMD는 정보 이미지 유지 시간을 제공하여 오브젝트의 상태가 전환되더라도 즉시 정보 이미지를 전환하지 않으므로, 잦은 정보 이미지의 전환으로 인해 야기될 수 있는 HMD 착용자의 혼란을 방지할 수 있다는 효과가 있다. 나아가, 본 명세서의 HMD는 정보 이미지 유지 시간 동안 오브젝트의 상태가 회귀되는지 판단하여, 해당 시간 이내에 오브젝트의 상태가 회귀되는 경우 정보 이미지를 그대로 유지함으로써 HMD 착용자에게 정보 제공의 연속성 및 안정성을 보장할 수 있다는 효과가 있다.
보다 구체적인 발명의 효과에 대해서는 이하에서 상세히 후술하기로 한다.
도 1은 오브젝트의 상태에 따라 정보 이미지의 디스플레이를 제어하는 HMD의 일 실시예를 도시한 도면이다.
도 2는 일 실시예에 따른 HMD의 블록도이다.
도 3은 오브젝트의 상태를 디텍트하는 HMD의 일 실시예를 도시한 도면이다.
도 4a 내지 도 4c는 오브젝트의 상태에 따라 제 1 정보 이미지 또는 제 2 정보 이미지를 디스플레이하는 HMD의 실시예들을 도시한 도면이다.
도 5a 및 도 5b는 정보 이미지를 전환하는 경우 정보 이미지 유지 시간이 존재하는 HMD의 실시예들을 도시한 도면이다.
도 6은 HMD의 제어 방법에 관한 순서도를 도시한 도면이다.
본 명세서에서 사용되는 용어는 본 명세서에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도, 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시예의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 아닌 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
더욱이, 이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시예를 상세하게 설명하지만, 실시예들에 의해 제한되거나 한정되는 것은 아니다.
도 1은 오브젝트의 상태에 따라 정보 이미지의 디스플레이를 제어하는 HMD의 일 실시예를 도시한 도면이다.
본 명세서에서 헤드 마운티드 디스플레이(Head Mounted Display, 이하 ‘HMD’)(1010)는 디텍트한 오브젝트(1030)의 상태에 따라 정보 이미지의 디스플레이를 제어할 수 있다. 보다 상세하게는, HMD(1010)는 오브젝트(1030)의 상태를 디텍트하고, 디텍트한 오브젝트(1030)의 상태에 따라 정보 이미지의 디스플레이를 제어할 수 있다. 여기서 오브젝트(1030)는 HMD(1010) 전방에 위치한 사람을 나타내는 것으로서, 보다 상세하게는 HMD(1010)에 구비된 카메라 유닛의 화각 영역 내에 위치하여 카메라 유닛에 의해 디텍트될 수 있는 사람을 나타낼 수 있다. 이러한 오브젝트(1030)는 오브젝트(1030)가 HMD 착용자(wearer)(1020)를 응시하는 스테어링 상태 및 오브젝트(1030)가 HMD 착용자(1020)를 응시하지 않는 언스테어링 상태를 가질 수 있다. 이에 관한 보다 상세한 설명은 도 3과 관련하여 이하에서 후술하기로 한다.
HMD(1010)는 이러한 오브젝트(1030)의 스테어링 상태 및/또는 언스테어링 상태를 디텍트함으로써 각 상태에 대응하는 정보 이미지를 디스플레이할 수 있다. 예를 들어, 오브젝트(1030)의 스테어링 상태를 디텍트한 경우, HMD(1010)는 스테어링 상태에 대응하는 제 1 정보 이미지(1040)를 디스플레이할 수 있다. 반대로, 오브젝트(1030)의 언스테어링 상태를 디텍트한 경우, HMD(1010)는 언스테어링 상태에 대응하는 제 2 정보 이미지(1050)를 디스플레이할 수 있다. 여기서 제 1 정보 이미지(1040)는 제 2 정보 이미지(1050)와 디스플레이되는 정보량 또는 디스플레이되는 위치가 서로 다른 이미지를 나타낼 수 있다. 정보 이미지의 다양한 실시예에 관한 보다 상세한 설명은 도 4a 내지 도 4c와 관련하여 이하에서 후술하기로 한다.
도 2는 일 실시예에 따른 HMD의 블록도이다. 도 2를 참조하면, HMD는 프로세서(2010), 카메라 유닛(2020), 디스플레이 유닛(2030), 스토리지 유닛(2040), 및 커뮤니케이션 유닛(2050)을 포함할 수 있다.
카메라 유닛(2020)은 이미지를 촬영(capture)할 수 있다. 보다 상세하게는, 카메라 유닛(2020)은 HMD에 장착된 적어도 하나의 카메라 센서를 사용하여 이미지를 촬영할 수 있다. 나아가, 카메라 유닛(2020)은 촬영한 결과를 프로세서(2010)에 전달할 수 있다. 프로세서(2010)는 카메라 유닛(2020)으로부터 수신한 촬영 결과를 이용하여 오브젝트의 존재 및 오브젝트의 상태를 디텍트할 수 있는데, 이에 관한 상세한 설명은 이하에서 후술하기로 한다.
디스플레이 유닛(2030)은 정보 이미지를 디스플레이할 수 있다. 여기서 정보 이미지란, 어플리케이션의 실행 화면, 텍스트, 동영상, 사진, 그림 등 시각적으로 인식 가능한 다양한 정보를 나타낼 수 있다. 디스플레이 유닛(2030)은 실시예에 따라 정보 이미지를 가상 이미지 또는 증강 현실 이미지로서 디스플레이할 수 있다. 특히, 본 명세서에서 디스플레이 유닛(2030)은 오브젝트의 상태에 따라 제 1 정보 이미지 및/또는 제 2 정보 이미지를 디스플레이할 수 있는데, 이에 관한 상세한 설명은 도 4a 내지 도 4c와 관련하여 이하에서 후술하기로 한다.
스토리지 유닛(2040)은 다양한 형태의 정보를 임시적 또는 지속적으로 저장할 수 있다. 특히 본 명세서에서 스토리지 유닛(2040)은 오브젝트에 대응하는 인물 정보를 저장할 수 있다. 스토리지 유닛(2040)은 플래시 메모리, RAM(Random Access Memory), SSD(Solid State Drive) 등의 다양한 디지털 데이터 저장 공간을 나타낼 수 있다.
커뮤니케이션 유닛(2050)은 외부 디바이스 및/또는 웹 서버와 다양한 프로토콜을 사용하여 통신을 수행하고, 이를 통해 다양한 정보를 송신 및/또는 수신할 수 있다. 보다 상세하게는, 커뮤니케이션 유닛(2050)은 유선 및/또는 무선으로 네트워크에 접속하여, 다양한 정보를 송신 및/또는 수신할 수 있다. 특히 본 명세서의 커뮤니케이션 유닛(2050)은 통신을 수행하여 다양한 정보 이미지를 송신 및/또는 수신할 수 있다.
한편, 상술한 스토리지 유닛(2040) 및 커뮤니케이션 유닛(2050)은 실시예에 따라 선택적으로 HMD에 구비될 수 있다.
프로세서(2010)는 HMD 내부의 데이터를 프로세싱하여 다양한 어플리케이션을 실행할 수 있다. 또한, 프로세서(2010)는 상술한 각 유닛들을 제어하며, 유닛들간의 데이터 송신 및/또는 수신을 제어할 수도 있다.
특히, 본 명세서의 프로세서(2010)는 상술한 카메라 유닛(2020)을 사용하여 오브젝트를 디텍트할 수 있다. 보다 상세하게는, 프로세서(2010)는 카메라 유닛(2020)을 통해 HMD 전방의 이미지를 획득하고, 획득한 이미지를 프로세싱하여 HMD 전방에 위치한 오브젝트를 디텍트할 수 있다. 나아가, 프로세서(2010)는 획득한 오브젝트의 이미지를 프로세싱하여 오브젝트의 상태도 디텍트할 수 있다. 여기서 오브젝트의 상태는 HMD 착용자(wearer)를 응시하는 스테어링 상태 및 HMD 착용자를 응시하지 않는 언스테어링 상태를 포함할 수 있다.
프로세서(2010)는 일 실시예로서 오브젝트에 포함된 얼굴이 HMD를 중심으로 기설정된 반경 이내의 영역을 향하는지 여부를 디텍트하여 오브젝트의 상태를 디텍트할 수 있다. 또한 프로세서(2010)는 다른 실시예로서 오브젝트에 포함된 시선이 HMD를 중심으로 기설정된 반경 이내의 영역을 응시하는지 여부를 디텍트하여 오브젝트의 상태를 디텍트할 수 있다. 이외에도, 프로세서(2010)는 오브젝트의 얼굴 및/또는 시선의 회전 정도에 따라 오브젝트의 상태를 디텍트할 수 있다. 또한, 프로세서(2010)는 오브젝트의 상태 유지 시간에 따라서도 오브젝트의 상태를 디텍트할 수 있다. 이에 관한 상세한 설명은 도 3, 도 5a 및 도 5b와 관련하여 이하에서 후술하기로 한다.
프로세서(2010)는 오브젝트의 상태를 디텍트한 경우, 상술한 디스플레이 유닛(2030)을 사용하여 각 상태에 대응하는 정보 이미지를 디스플레이할 수 있다. 보다 상세하게는, 오브젝트의 스테어링 상태를 디텍트한 경우, 프로세서(2010)는 제 1 정보 이미지를 디스플레이하도록 디스플레이 유닛(2030)을 제어할 수 있다. 또는, 오브젝트의 언스테어링 상태를 디텍트한 경우, 프로세서(2010)는 제 2 정보 이미지를 디스플레이하도록 디스플레이 유닛(2030)을 제어할 수 있다. 여기서 제 1 정보 이미지는 제 2 정보 이미지와 디스플레이되는 정보량 및/또는 디스플레이되는 위치가 서로 다른 이미지를 나타낼 수 있다. 제 1 정보 이미지 및 제 2 정보 이미지에 관한 상세한 설명은 도 4a 내지 도 4c와 관련하여 이하에서 후술하기로 한다.
이하에서는, HMD에서 수행되는 각 단계나 동작이 유저 입력의 센싱에 의해 시작되거나 진행되는 경우, 센싱된 유저 입력에 따라 신호가 생성되어 수신되는 과정은 중복하여 설명하지 않아도 상술한 과정에 대한 설명이 포함된 것으로 한다. 또한, 유저 입력에 따라 프로세서(2010)가 HMD 또는 HMD에 포함된 적어도 하나의 유닛을 제어한다고 표현할 수 있으며, 프로세서(2010)와 HMD를 동일시하여 설명할 수 있다.
한편, 도 3에 도시된 HMD는 일 실시예에 따른 블록도로서, 분리하여 표시한 블록들은 HMD의 엘리먼트들을 논리적으로 구별하여 도시한 것이다. 따라서, 상술한 HMD의 엘리먼트들은 HMD의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수 있다.
도 3은 오브젝트의 상태를 디텍트하는 HMD의 일 실시예를 도시한 도면이다.
본 명세서의 HMD는 오브젝트가 HMD 착용자(3010)를 응시하는지에 따라 오브젝트(3020)의 상태를 디텍트할 수 있다. 보다 상세하게는, 오브젝트(3020)가 HMD 착용자(3010)를 응시하는 경우, HMD는 오브젝트(3020)의 스테어링 상태를 디텍트할 수 있다. 반대로, 오브젝트(3020)가 HMD 착용자(3010)를 응시하지 않는 경우, HMD는 오브젝트(3020)의 언스테어링 상태를 디텍트할 수 있다. 이때 HMD는 도 2와 관련하여 상술한 바와 같이 HMD에 구비된 카메라 유닛을 이용할 수 있다.
본 명세서에서 오브젝트(3020)가 HMD 착용자(3010)를 응시함은, 해당 오브젝트(3020)가 “실질적으로” HMD 착용자(3010)를 응시함을 나타낼 수 있다. 따라서 본 명세서에서 오브젝트(3020)가 HMD 착용자(3010)를 응시함은 오브젝트(3020)가 정확하게 HMD 착용자(3010)를 응시하고 있는 경우뿐만 아니라, 오브젝트(3020)의 얼굴 및/또는 시선이 HMD 착용자(3010)를 향하고 있는 경우를 포함할 수 있다.
상술한 점에 기초하여, 본 명세서의 HMD는 다양한 실시예로서 오브젝트(3020)의 스테어링 또는 언스테어링 상태를 디텍트할 수 있다.
일 실시예로서, HMD는 오브젝트(3020)에 포함된 얼굴의 방향을 디텍트함으로써 오브젝트(3020)의 상태를 디텍트할 수 있다. 보다 상세하게는, HMD는 오브젝트(3020)에 포함된 얼굴이 HMD 착용자(3010)를 향하는 경우 오브젝트(3020)가 HMD 착용자(3010)를 응시하는 것으로 보아, 오브젝트(3020)의 스테어링 상태를 디텍트할 수 있다. 또는, 오브젝트(3020)의 얼굴이 HMD를 중심으로 기설정된 반경 이내의 영역을 향하는 경우, HMD는 오브젝트(3020)의 스테어링 상태를 디텍트할 수 있다. 반대로 HMD는 오브젝트(3020)에 포함된 얼굴이 HMD 착용자(3010)를 향하지 않는 경우 오브젝트(3020)가 HMD 착용자(3010)를 응시하지 않는 것으로 보아, 오브젝트(3020)의 언스테어링 상태를 디텍트할 수 있다. 또는, 오브젝트(3020)의 얼굴이 HMD를 중심으로 기설정된 반경 이내의 영역을 향하지 않는 경우, HMD는 오브젝트(3020)의 언스테어링 상태를 디텍트할 수 있다.
다른 실시예로서, HMD는 오브젝트(3020)에 포함된 시선의 방향을 디텍트함으로써 오브젝트(3020)의 상태를 디텍트할 수 있다. 보다 상세하게는, HMD는 오브젝트(3020)에 포함된 시선이 HMD 착용자(3010)를 향하는 경우 오브젝트(3020)의 스테어링 상태를 디텍트할 수 있다. 또는, 오브젝트(3020)의 시선이 HMD를 중심으로 기설정된 반경 이내의 영역을 향하는 경우, HMD는 오브젝트(3020)의 스테어링 상태를 디텍트할 수 있다. 반대로 HMD는 오브젝트(3020)에 포함된 시선이 HMD 착용자(3010)를 향하지 않는 경우 오브젝트(3020)의 언스테어링 상태를 디텍트할 수 있다. 또는, 오브젝트(3020)의 시선이 HMD를 중심으로 기설정된 반경 이내의 영역을 향하지 않는 경우, HMD는 오브젝트(3020)의 언스테어링 상태를 디텍트할 수 있다.
상술한 실시예들과 관련하여, 오브젝트(3020)의 스테어링 상태를 디텍트하기 위한 기설정된 영역은 HMD 제조 과정에서 제조사에 의해 설정되거나, 실행 중인 어플리케이션의 종류, HMD의 설계 목적, 디자인, HMD 착용자(3010) 등에 의해 다양한 형태로서 설정될 수 있다.
나아가 HMD는 상술한 실시예들을 조합하여 스테어링 상태 또는 언스테어링 상태를 디텍트할 수 있다. 예를 들어, 오브젝트(3020)에 포함된 얼굴 및 시선이 HMD 착용자(3010)를 향하는 경우, HMD는 오브젝트(3020)의 스테어링 상태를 디텍트할 수 있다. 그러나 반대로 오브젝트(3020)에 포함된 얼굴 및 시선 중 적어도 하나가 HMD 착용자(3010)를 향하지 않는 경우, HMD는 오브젝트(3020)의 언스테어링 상태를 디텍트할 수 있다.
한편, HMD는 오브젝트(3020)의 수평 회전 정도에 따라서도 오브젝트(3020)의 상태 전환을 디텍트할 수 있다. 보다 상세하게는, 도면에 도시한 바와 같이, HMD는 오브젝트(3020)가 HMD 착용자(3010)를 응시하는 방향(3030)을 기준으로 스테어링 범위(θ1) 및 언스테어링 범위(θ2)를 설정하여 오브젝트(3020)의 수평 회전에 따른 상태 전환을 디텍트할 수 있다. 여기서 스테어링 범위(θ1)는 오브젝트(3020)를 스테어링 상태로서 디텍트할 수 있는 수평 회전 각도 범위를 나타낼 수 있다. 또한, 언스테어링 범위(θ2)는 오브젝트(3020)를 언스테어링 상태로서 디텍트할 수 있는 수평 회전 각도 범위를 나타낼 수 있다.
HMD는 오브젝트(3020)의 얼굴 및/또는 시선의 수평 회전 각도가 스테어링 범위(θ1) 이내인 경우 스테어링 상태를 디텍트할 수 있다. 또는, HMD는 오브젝트(3020)의 얼굴 및/또는 시선의 수평 회전 각도가 언스테어링 범위(θ2) 이내인 경우 언스테어링 상태를 디텍트할 수 있다. 나아가, 스테어링 상태에서 오브젝트(3020)의 얼굴 및/또는 시선이 수평 회전하여 스테어링 범위(θ1)를 벗어난 경우, HMD는 오브젝트(3020)의 언스테어링 상태로의 전환을 디텍트할 수 있다. 또는, 언스테어링 상태에서 오브젝트(3020)의 얼굴 및/또는 시선이 수평 회전하여 스테어링 범위(θ1) 이내로 진입한 경우, HMD는 오브젝트(3020)의 스테어링 상태로의 전환을 디텍트할 수 있다. 여기서 스테어링 범위(θ1)는 오브젝트(3020)가 HMD 착용자(3010)를 응시하는 방향(3030)을 기준으로 설정된 수평 회전 각도 범위를 나타낼 수 있다.
이때 HMD는 스테어링 범위(θ1)를 언스테어링 범위(θ2)보다 넓게 설정할 수 있다. 보다 상세하게는, 도면에 도시한 바와 같이, 오브젝트(3020)가 HMD 착용자(3010)를 응시하는 방향(3030)을 기준으로 수직인 곳까지의 각도 범위를 오브젝트(3020)의 상태를 디텍트할 수 있는 최대 각도 범위라고 할 때, 스테어링 범위(θ1)는 언스테어링 범위(θ2)보다 넓게 설정될 수 있다. 이는, 스테어링 범위(θ1)를 넓게 설정함으로써 오브젝트(3020)의 회전에 따라 정보 이미지가 자주 전환되는 것을 방지하기 위함이다. 스테어링 범위(θ1)를 좁게 설정하는 경우, 오브젝트(3020)가 살짝 얼굴을 돌리거나 시선을 돌리더라도 정보 이미지가 전환될 수 있다. 이 경우, HMD 착용자(3010)는 지속적인 정보 이미지 전환으로 정보 제공의 연속성을 보장받을 수 없을 뿐만 아니라, 상대방과 대화 중이었던 경우 대화에 집중 할 수 없기 때문이다. 따라서, HMD는 도면에 도시한 바와 같이, 스테어링 범위(θ1)를 언스테어링 범위(θ2)보다 넓게 설정하여 상술한 문제점들을 해결할 수 있다.
상술한 실시예는 수평 방향으로 오브젝트가 회전하는 경우를 기준으로 설명하였으나, 수직 방향으로 오브젝트가 회전하는 경우에도 상응하여 본 실시예가 적용될 수 있다. 따라서, 오브젝트의 HMD 착용자를 응시하는 방향을 기준으로 수직 회전 방향의 스테어링 범위 및 언스테어링 범위가 설정될 수 있으며, 이 경우에도 스테어링 범위가 언스테어링 범위보다 넓게 설정될 수 있다.
추가적으로, 본 도면에는 도시하지 않았으나, 본 명세서의 HMD는 오브젝트(3020)뿐만 아니라 HMD 착용자(3010)가 오브젝트(3020)를 응시하는 상태 역시 스테어링 상태로서 디텍트할 수 있다. 또는, 본 명세서의 HMD는 오브젝트(3020)뿐만 아니라 HMD 착용자(3010)가 오브젝트(3020)를 응시하지 않는 상태 역시 언스테어링 상태로서 디텍트할 수 있다. 예를 들어, HMD는 오브젝트(3020)가 HMD 착용자(3010)를 응시하고, HMD 착용자(3010)가 오브젝트(3020)를 응시하는 상태를 스테어링 상태로서 디텍트할 수 있다. 또는, HMD는 오브젝트(3020)가 HMD 착용자(3010)를 응시하지 않거나, HMD 착용자(3010)가 오브젝트(3020)를 응시하지 않는 상태를 언스테어링 상태로서 디텍트할 수 있다. 이는, 스테어링 상태에서 디스플레이되는 제 1 정보 이미지가 HMD 착용자(3010)와 상대방의 대화와 관련된 정보 이미지인 경우와 같이 두 사람의 대화 상태를 디텍트할 필요성이 있는 실시예에 적용될 수 있다.
도 4a 내지 도 4c는 오브젝트의 상태에 따라 제 1 정보 이미지 또는 제 2 정보 이미지를 디스플레이하는 HMD의 실시예들을 도시한 도면이다.
본 명세서의 HMD(4010)는 상술한 바와 같이, 오브젝트(4030)의 상태를 디텍트할 수 있다. HMD(4010)는 오브젝트(4030)의 상태를 디텍트하면, 디텍트한 상태에 대응하는 정보 이미지를 디스플레이할 수 있다. 보다 상세하게는, HMD(4010)는 오브젝트(4030)의 스테어링 상태를 디텍트하면, 제 1 정보 이미지를 디스플레이할 수 있다. 또한, HMD(4010)는 오브젝트(4030)의 언스테어링 상태를 디텍트하면, 제 2 정보 이미지를 디스플레이할 수 있다. 이때 제 1 정보 이미지는 제 2 정보 이미지와 디스플레이되는 내용, 정보량, 위치 및/또는 카테고리 등이 서로 다른 정보 이미지를 나타낼 수 있다. 제 1 정보 이미지 및 제 2 정보 이미지의 다양한 실시예에 관한 상세한 설명은 도 4a 내지 도 4c의 각 도면과 관련하여 이하에서 상세히 후술하기로 한다.
도 4a의 실시예에서 제 1 정보 이미지(4040-1) 및 제 2 정보 이미지(4040-2)는 서로 다른 정보를 포함하는 이미지일 수 있다. 이때 제 1 정보 이미지(4040-1) 및 제 2 정보 이미지(4040-2)는 실시예에 따라 상호 독립적인 정보를 포함한 이미지일 수 있다. 다시 말하면 제 1 정보 이미지(4040-1) 및 제 2 정보 이미지(4040-2)는 상호 연관되지 않은 정보를 포함한 이미지일 수 있다. HMD 착용자(4020)는 각 정보 이미지(4040-1, 4040-2)를 통해 제공받고자 하는 정보를 미리 설정함으로써, 원하는 상황에 원하는 정보를 각 정보 이미지를 통해 제공받을 수 있다. 예를 들어, HMD 착용자(4020)는 디텍트한 오브젝트(4030)에 대응하는 인물 정보를 제 1 정보 이미지(4040-1)로서, 가장 최근 검색한 뉴스 정보를 제 2 정보 이미지(4040-2)로서 디스플레이하도록 HMD(4010)를 설정할 수 있다. 이를 통해 HMD 착용자(4020)는 대화하는 동안에는 대화 상대방(4030)과 관련된 인물 정보를 제공받아 대화에 보다 집중할 수 있다. 반대로, HMD 착용자(4020)가 대화를 하지 않는 동안에는 대화 상대방(4030)과 관련되진 않지만 HMD 착용자(4020)가 알고자 하는 정보를 제공 받을 수 있다. 이로써 HMD(4010)는 적절한 상황에 적절한 정보를 HMD 착용자(4020)에게 효율적으로 제공할 수 있다는 효과가 있다.
이외에도 제 1 정보 이미지(4040-1) 및 제 2 정보 이미지(4040-2)는 다양한 정보를 포함한 이미지일 수 있으며, HMD 제조사의 제조 과정에 의해 설정되거나 실행 중인 어플리케이션의 종류, HMD(4010)의 디자인, 설계 목적, HMD 착용자(4020)에 의해 다양하게 설정될 수 있다.
도 4b의 실시예에서 제 1 정보 이미지(4050-1) 및 제 2 정보 이미지(4050-2)는 서로 정보량이 다른 이미지를 나타낼 수 있다. 이때, 제 1 정보 이미지(4050-1)는 제 2 정보 이미지(4050-2)보다 정보량이 적은 이미지를 나타낼 수 있다. 또는, 제 2 정보 이미지(4050-2)는 제 1 정보 이미지(4050-1)보다 정보량이 많은 이미지를 나타낼 수 있다. 이는, 오브젝트(4030)가 언스테어링 상태인 경우, HMD 착용자(4020)와 상대방(4030) 사이의 대화가 단절되었거나 상대방(4030)이 HMD 착용자(4020)가 아닌 다른 것에 집중하고 있음을 의미하므로, HMD 착용자(4020)는 더 이상 상대방(4030) 및/또는 상대방(4030)과의 대화에 집중할 필요가 없기 때문이다. 따라서 HMD(4010)는 이 경우 더 많은 정보량을 포함한 제 2 정보 이미지(4050-2)를 디스플레이함으로써 HMD 착용자(4020)에게 효율적으로 많은 정보를 제공할 수 있다.
따라서, HMD(4010)는 디스플레이되는 정보 이미지의 텍스트 량, 이미지, 카테고리 등을 제어함으로써 제 1 정보 이미지(4050-1) 및 제 2 정보 이미지(4050-2)의 정보량을 제어할 수 있다. 또한 HMD(4010)는 제 1 정보 이미지(4050-1)에 추가적으로 부가 정보 이미지를 디스플레이함으로써 제 2 정보 이미지(4050-2)를 디스플레이할 수 있다. 예를 들어, 제 2 정보 이미지(4050-2)는 제 1 정보 이미지(4050-1) 및 제 1 정보 이미지(4050-1)와 관련된 부가 정보 이미지를 포함한 이미지일 수 있다. 만일, 제 1 정보 이미지(4050-1)가 사진인 경우, 제 2 정보 이미지(4050-2)는 사진인 제 1 정보 이미지(4050-1) 및 해당 사진이 찍힌 날짜, 장소, 사진을 찍은 사람 등에 관한 부가 정보를 포함한 이미지일 수 있다.
한편, 도면에 도시한 바와 같이, 제 1 정보 이미지(4050-1) 및 제 2 정보 이미지(4050-2)는 디텍트된 오브젝트(4030)에 대응하는 인물 정보를 포함할 수 있다. 이 경우, 제 1 정보 이미지(4050-1)는 오브젝트(4030)에 대응하는 개략적 인물 정보(simple personal information), 제 2 정보 이미지(4050-2)는 오브젝트(4030)에 대응하는 세부적 인물 정보(detailed personal information)를 포함할 수 있다. 따라서 제 1 정보 이미지(4050-1)에 포함된 인물 정보는 제 2 정보 이미지(4050-2)에도 포함되어 있을 수 있다. 또한, 제 1 정보 이미지(4050-1)는 제 2 정보 이미지(4050-2)의 인물 정보를 카테고리별 우선 순위를 기준으로 요약한 정보 이미지일 수 있다.
도 4c의 실시예에서 제 1 정보 이미지(4060-1) 및 제 2 정보 이미지(4060-2)는 서로 다른 위치에 디스플레이되는 이미지를 나타낼 수 있다.
우선, 제 1 정보 이미지(4060-1) 및 제 2 정보 이미지(4060-2)는 오브젝트(4030)의 위치에 기초하여 디스플레이되는 위치가 결정될 수 있다. 다시 말하면, HMD(4010)는 오브젝트(4030) 위치에 기초하여 제 1 정보 이미지(4060-1) 및 제 2 정보 이미지(4060-2)의 위치를 결정할 수 있다. 예를 들어, HMD(4010)는 디텍트한 오브젝트(4030)의 위치와 다른 위치에 제 1 정보 이미지(4060-1) 또는 제 2 정보 이미지(4060-2)를 디스플레이할 수 있다. 이를 통해 HMD(4010)는 오브젝트(4030)와 정보 이미지가 오버랩되지 않도록 제어할 수 있다.
나아가, HMD(4010)는 제 1 정보 이미지(4060-1)와 제 2 정보 이미지(4060-2)를 서로 다른 위치에 디스플레이할 수 있다.
일 예로서, HMD(4010)는 제 1 정보 이미지(4060-1)를 오브젝트(4030)로부터 제 1 거리만큼 떨어진 위치에 디스플레이하고, 제 2 정보 이미지(4060-2)를 오브젝트(4030)로부터 제 2 거리만큼 떨어진 위치에 디스플레이할 수 있다(미도시). 이때 제 2 거리는 제 1 거리보다 길 수 있다. 이는 오브젝트(4030)가 HMD 착용자(4020)를 응시하는 스테어링 상태에서는, HMD 착용자(4020) 역시 오브젝트(4030)에 집중해야 할 필요성이 있으므로 제 1 정보 이미지(4060-1)를 오브젝트(4030)에 가까이 디스플레이함으로써 HMD 착용자(4020)의 오브젝트(4030)에 대한 집중도를 높이기 위함이다. 다만, 이는 일 실시예에 불과하며, 상술한 바와 같이 오브젝트(4030)와의 거리를 조절함으로써 정보 이미지의 위치를 조절할 뿐 아니라, 오브젝트(4030)를 중심으로 각도를 조절함으로써 정보 이미지의 위치를 조절할 수 있다.
다른 예로서, 도면에 도시한 바와 같이, HMD(4010)는 제 1 정보 이미지(4060-1)를 복수의 페이지가 겹쳐진 이미지로서, 제 2 정보 이미지(4060-2)를 복수의 페이지가 흩어진 이미지로서 디스플레이하여 제 1 정보 이미지(4060-1) 및 제 2 정보 이미지(4060-2)의 위치를 서로 다르게 제어할 수 있다. 이 경우, 제 1 정보 이미지(4060-1) 및 제 2 정보 이미지(4060-2)가 제공하는 정보량 역시 서로 다를 수 있다.
도 4c를 참조해 보면, 우선 HMD(4010)는 오브젝트(4030)의 스테어링 상태에서 제 1 정보 이미지(4060-1)를 복수의 페이지가 겹쳐진 이미지로서 디스플레이할 수 있다. 이때, 오브젝트(4030)의 스테어링 상태에서 언스테어링 상태로의 전환을 디텍트한 경우, HMD(4010)는 제 1 정보 이미지(4060-1)의 겹쳐진 페이지들을 분산시켜 디스플레이할 수 있다. 즉, 제 2 정보 이미지(4060-2)는 제 1 정보 이미지(4060-1)의 겹쳐진 페이지들이 기설정된 방향으로 분산되거나 흩어진 이미지를 나타낼 수 있다. 오브젝트(4030)의 상태 전환 시, HMD(4010)는 제 1 정보 이미지(4060-1)의 겹쳐진 페이지들을 분산시켜 디스플레이하므로, 제 2 정보 이미지(4060-2)는 제 1 정보 이미지(4060-1)와 디스플레이되는 위치가 다를뿐 아니라, 제공하는 정보량도 다를 수 있다.
이는 상대방이 HMD 착용자(4020)를 응시하는 스테어링 상태의 경우, 복수의 페이지를 한곳으로 겹쳐서 디스플레이함으로써 HMD 착용자(4020)의 상대방에 대한 집중도를 높이기 위함이다. 또한 상대방이 HMD 착용자(4020)를 응시하지 않는 언스테어링 상태의 경우에는, 복수의 페이지를 여러 위치에 분산시켜 디스플레이함으로써 HMD 착용자(4020)에게 다양하고 많은 정보를 제공하기 위함이다. 이때 HMD(4010)는 정보의 중요도에 따라 분산된 페이지들의 크기, 색, 투명도, 명암 등의 이미지 속성을 서로 다르게 디스플레이할 수 있다. 예를 들어, HMD(4010)는 중요도가 높은 정보를 포함하고 있는 페이지일수록 페이지의 크기를 크게하여 디스플레이할 수 있다.
도 5a는 정보 이미지를 전환하는 경우 정보 이미지 유지 시간이 존재하는 HMD의 일 실시예를 도시한 도면이다.
HMD는 스테어링 상태에서 언스테어링 상태로의 전환을 디텍트한 경우, 제 1 정보 이미지를 제 2 정보 이미지로 전환할 수 있다. 또는, HMD는 언스테어링 상태에서 스테어링 상태로의 전환을 디텍트한 경우, 제 2 정보 이미지를 제 1 정보 이미지로 전환할 수 있다. 이때 HMD는 실시예에 따라 상태 전환을 디텍트한 시점으로부터 기설정된 시간 후에 각 정보 이미지를 다른 정보 이미지로 전환할 수 있다. 즉, 본 실시예에서 정보 이미지가 전환되기 전, 일정한 정보 이미지 유지 시간이 존재할 수 있다.
정보 이미지 유지 시간이 존재하지 않으면, 오브젝트(5010)의 상태가 짧은 시간 이내에 빠르게 전환되는 경우 정보 이미지 역시 빠르게 전환되어야 한다. 정보 이미지가 빠르게 전환되면, HMD 착용자(5020)가 정보 이미지를 인식하기에 충분한 시간이 확보될 수 없을 뿐 아니라, 정보 이미지가 수시로 전환되어 HMD 착용자(5020)의 시야를 방해하여 HMD 착용자(5020)에게 혼란을 줄 수 있다.
따라서, 본 실시예의 HMD는 상태 전환을 디텍트한 경우라도 곧바로 정보 이미지를 전환하지 않고, 기설정된 시간 동안 정보 이미지의 디스플레이를 유지하면서 오브젝트(5010)의 상태가 회귀되는지를 판단할 수 있다. 만일, 기설정된 시간 이내에 오브젝트(5010)의 상태가 회귀된 경우 HMD는 디스플레이 중인 정보 이미지를 그대로 유지할 수 있다. 반대로, 기설정된 시간 이내에 오브젝트(5010)의 상태가 회귀되지 않은 경우 HMD는 디스플레이 중인 정보 이미지를 다른 정보 이미지로 전환할 수 있다.
보다 상세하게는, HMD는 스테어링 상태에서 언스테어링 상태로의 전환을 디텍트한 경우, 상태 전환을 디텍트한 시점부터 제 1 시간(T1) 후에 제 1 정보 이미지를 제 2 정보 이미지로 전환할 수 있다. 그러나 만일 제 1 시간(T1) 이내에 오브젝트(5010)가 스테어링 상태로 회귀한 경우에는, HMD는 제 1 정보 이미지의 디스플레이를 그대로 유지할 수 있다. 다시 말하면, 만일 오브젝트(5010)가 제 1 시간(T1) 이내에 스테어링 상태로 재전환된 경우, HMD는 제 1 정보 이미지를 제 2 정보 이미지로 전환하지 않고 그대로 유지할 수 있다. 여기서 제 1 시간(T1)은 기설정된 제 1 정보 이미지 유지 시간으로서 HMD의 제조 과정에서 제조사에 의해 또는, 실행 중인 어플리케이션의 종류, HMD 착용자(5020), 디자인, 설계 목적 등에 따라 다양하게 설정될 수 있다.
같은 맥락으로, HMD는 언스테어링 상태에서 스테어링 상태로의 전환을 디텍트한 경우, 상태 전환을 디텍트한 시점부터 제 2 시간 후에 제 2 정보 이미지를 제 1 정보 이미지로 전환할 수 있다. 그러나 만일 제 2 시간 이내에 오브젝트(5010)가 언스테어링 상태로 회귀한 경우에는 HMD는 제 2 정보 이미지의 디스플레이를 그대로 유지할 수 있다. 다시 말하면, 만일 오브젝트(5010)가 제 2 시간 이내에 언스테어링 상태로 재전환된 경우, HMD는 제 2 정보 이미지를 제 1 정보 이미지로 전환하지 않고 그대로 유지할 수 있다. 여기서 제 2 시간 역시 기설정된 제 2 정보 이미지 유지 시간으로서 HMD의 제조 과정에서 제조사에 의해 또는, 실행 중인 어플리케이션의 종류, HMD 착용자(5020), 디자인, 설계 목적 등에 따라 다양하게 설정될 수 있다.
한편, 본 도면에는 도시하지 않았으나, HMD는 오브젝트(5010)의 상태 전환에 따라 정보 이미지를 디스플레이하는 경우, 각 정보 이미지를 업데이트하여 디스플레이할 수 있다. 보다 상세하게는, HMD가 오브젝트(5010)의 상태 전환으로 인해 제 1 정보 이미지를 다시 디스플레이하는 경우, HMD는 전환 전 제 1 정보 이미지를 업데이트하여 디스플레이할 수 있다. 같은 맥락으로, HMD가 오브젝트(5010)의 상태 전환으로 인해 제 2 정보 이미지를 다시 디스플레이하는 경우, HMD는 전환 전 제 2 정보 이미지를 업데이트하여 디스플레이할 수 있다. 이는, 동일한 정보를 HMD 착용자(5020)에게 중복하여 제공하지 않기 위함이다. 따라서, 본 실시예의 HMD는 정보 이미지를 전환할때마다 실시간으로 정보 이미지가 포함하고 있는 정보를 업데이트하여 HMD 착용자(5020)에게 제공할 수 있다. 한편, 제 1 정보 이미지는 오브젝트(5010)의 스테어링 상태에서 디스플레이되는 이미지, 제 2 정보 이미지는 오브젝트(5010)의 언스테어링 상태에서 디스플레이되는 이미지임은 앞서 상술한 바와 같다.
도 5b는 정보 이미지를 전환하는 경우 정보 이미지 유지 시간이 존재하는 HMD의 일 실시예를 도시한 도면이다. 특히, 본 도면은 제 1 정보 이미지 유지 시간인 제 1 시간(T1)과 제 2 정보 이미지 유지 시간인 제 2 시간(T2)이 서로 다른 HMD의 일 실시예를 도시한 도면이다.
도 5a와 관련하여 상술한 바와 같이, HMD는 실시예에 따라 HMD 착용자(5020)의 혼란을 방지하고 HMD 착용자(5020)에게 효율적으로 정보를 제공하기 위해 정보 이미지 유지 시간을 제공할 수 있다. 보다 상세하게는, HMD는 제 1 정보 이미지 유지 시간인 제 1 시간(T1) 및 제 2 정보 이미지 유지 시간인 제 2 시간(T2)을 제공할 수 있다.
이 경우, 실시예에 따라 제 1 시간(T1)은 제 2 시간(T2)보다 길 수 있다. 이는 HMD 착용자(5020)가 오브젝트(5010) 및/또는 오브젝트(5010)와의 대화에 집중할 수 있도록 하기 위함이다. 보다 상세하게는, 오브젝트(5010)의 스테어링 상태는 오브젝트(5010)가 HMD 착용자(5020)와 대화중인 경우와 같이 오브젝트(5010)의 관심이 HMD 착용자(5020)에게 집중된 상태를 나타낼 수 있다. 이 경우, 스테어링 상태의 오브젝트(5010)가 언스테어링 상태로 전환된다고 하더라도 곧 스테어링 상태로 전환될 확률이 높다. 따라서 HMD는 긴 시간을 제 1 정보 시간으로 제공함으로써 오브젝트(5010)의 스테어링 상태로의 회귀를 미리 대비할 수 있다. 나아가, 잦은 이미지 전환으로 인해 발생할 수 있는 HMD 착용자(5020)의 대화 상대방에 대한 집중력 저하를 미연에 방지할 수 있다. 따라서, 본 실시예의 HMD는 언스테어링 상태로 전환된 후에도 제 1 시간(T1) 동안은 오브젝트(5010)의 스테어링 상태로 보아 제 1 정보 이미지를 유지함으로써 오브젝트(5010)의 스테어링 상태로의 회귀를 대비할 수 있다. 또한, 본 실시예의 HMD는 HMD 착용자(5020)로 하여금 오브젝트(5010) 및/또는 오브젝트(5010)와의 대화에 집중하게 할 수 있다.
반대로, 오브젝트(5010)가 언스테어링 상태에서 스테어링 상태로 전환된 경우에는, 오브젝트(5010)가 다시 언스테어링 상태로 회귀할 확률은 적다. 이 경우 오히려 오브젝트(5010)의 스테어링 상태가 지속될 확률이 높다. 따라서 이 경우 HMD는 상술한 제 1 시간(T1)보다 짧은 시간을 제 2 시간(T2)으로서 제공할 수 있다.
다만 상술한 내용은 실시예에 불과하며, 제 1 시간(T1) 및 제 2 시간(T2)은 HMD 제조사, 실행 중인 어플리케이션의 종류, 장소, 시간, 디바이스의 설계 목적, HMD 착용자(5020) 등에 따라 다양하게 설정될 수 있으며, 상술한 실시예에 한정되는 것은 아니다.
도 6은 HMD의 제어 방법에 관한 순서도를 도시한 도면이다. 본 순서도에서 도 1 내지 도 5b에서 상술한 설명과 유사하거나 중복되는 부분에 관한 상세한 설명은 생략하기로 한다.
우선, HMD는 오브젝트를 디텍트할 수 있다(S6010). 보다 상세하게는, HMD는 HMD에 구비된 카메라 유닛을 이용하여 HMD 전방의 오브젝트를 디텍트할 수 있다. 여기서 오브젝트는 HMD 전방에 위치한 사람을 나타내는 것으로서, 보다 상세하게는 HMD에 구비된 카메라 유닛의 화각 영역 내에 위치하여 카메라 유닛에 의해 디텍트될 수 있는 사람을 나타낼 수 있다. 이에 관한 상세한 설명은 도 2와 관련하여 상술한 바와 같다.
다음으로, HMD는 디텍트한 오브젝트의 상태를 판단할 수 있다(S6020). 여기서 오브젝트의 상태는, 오브젝트가 HMD 착용자 또는 HMD 착용자를 응시하는 스테어링 상태 및 오브젝트가 HMD 착용자 또는 HMD 착용자를 응시하지 않는 언스테어링 상태를 포함할 수 있다. HMD는 실시예로서 오브젝트에 포함된 얼굴 및/또는 시선의 방향 또는 오브젝트의 수평 회전 정도에 기초하여 오브젝트의 상태를 판단할 수 있다. 이에 관한 상세한 설명은 도 3과 관련하여 상술한 바와 같다.
만일, 오브젝트를 스테어링 상태로서 디텍트한 경우, HMD는 제 1 정보 이미지를 디스플레이할 수 있다(S6030). 일 실시예로서, HMD는 오브젝트에 포함된 얼굴 및/또는 시선이 HMD 착용자를 향하는 경우, 오브젝트의 스테어링 상태를 디텍트할 수 있다. 다른 실시예로서, HMD는 오브젝트의 수평 회전 정도가 스테어링 범위 이내엔 경우, 오브젝트의 스테어링 상태를 디텍트할 수 있다. HMD는 이러한 오브젝트의 스테어링 상태를 디텍트한 경우, 스테어링 상태에 대응하는 제 1 정보 이미지를 디스플레이할 수 있다.
반대로, 오브젝트를 언스테어링 상태로서 디텍트한 경우(S6040), HMD는 제 2 정보 이미지를 디스플레이할 수 있다. 일 실시예로서, HMD는 오브젝트에 포함된 얼굴 및/또는 시선이 HMD 착용자를 향하지 않는 경우, 오브젝트의 언스테어링 상태를 디텍트할 수 있다. 다른 실시예로서, HMD는 오브젝트의 수평 회전 정도가 언스테어링 범위 이내인 경우, 오브젝트의 언스테어링 상태를 디텍트할 수 있다. HMD는 이러한 오브젝트의 언스테어링 상태를 디텍트한 경우, 언스테어링 상태에 대응하는 제 2 정보 이미지를 디스플레이할 수 있다.
한편, 여기서 제 1 정보 이미지는 제 2 정보 이미지와 디스플레이되는 정보량 또는 디스플레이되는 위치가 다른 이미지를 나타낼 수 있다. 예를 들어, 제 1 정보 이미지는 포함하고 있는 정보량이 제 2 정보 이미지보다 많은 이미지를 나타낼 수 있다. 또는, 제 1 정보 이미지는 오브젝트로부터 제 1 거리만큼 떨어진 위치에, 제 2 정보 이미지는 오브젝트로부터 제 2 거리만큼 떨어진 위치에 디스플레이된 이미지를 나타낼 수 있다. 여기서 제 1 거리는 제 2 거리보다 짧은 거리를 나타낼 수 있다. 이에 관한 상세한 설명은 도 4a 내지 도 4c와 관련하여 상술한 바와 같다.
또한, 본 순서도에는 도시하지 않았으나, 일 실시예로서 HMD는 오브젝트의 상태 전환에도 불구하고 정보 이미지의 디스플레이를 유지하기 위한 정보 이미지 유지 시간을 제공할 수 있다. 이는, 잦은 이미지 전환으로 인한 HMD 착용자의 혼란을 방지하고 HMD 착용자에게 효율적으로 정보를 제공하기 위함임은 앞서 상술한 바와 같다. 이에 관한 상세한 설명은 도 5a 및 도 5b와 관련하여 상술한 바와 같다.
설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시예들을 병합하여 새로운 실시예를 구현하도록 설계하는 것도 가능하다. 그리고, 당업자의 필요에 따라, 이전에 설명된 실시예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 권리범위에 속한다.
또한, HMD 및 그의 제어 방법은 상술한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상술한 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
또한, 이상에서는 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구 범위에서 청구하는 요지를 벗어남이 없이 당해 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
또한, 본 명세서의 HMD 및 제어 방법은 네트워크 디바이스에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, 자기 테이프, 플로피디스크, 광 데이터 저장 장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 본 명세서에서의 각도, 거리 및 방향은 정확한 값을 의미할 뿐 아니라, 일정 범위의 실질적인 각도, 거리 및 방향을 포함하는 것으로 볼 수 있다. 즉, 본 명세서의 각도, 거리 및 방향은 실질적인 각도, 거리 및 방향을 나타낼 수 있고, 일정 범위의 오차가 존재할 수 있다.
또한, 본 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수 있다.
1010: HMD
1020: HMD 착용자
1030: 오브젝트
1040: 제 1 정보 이미지
1050: 제 2 정보 이미지

Claims (20)

  1. HMD(Head Mounted Display)에 있어서,
    이미지를 촬영(capture)하는 카메라 유닛;
    정보 이미지를 디스플레이하는 디스플레이 유닛; 및
    상기 카메라 유닛 및 상기 디스플레이 유닛을 제어하는, 프로세서; 를 포함하고,
    상기 프로세서는,
    상기 카메라 유닛을 이용하여 오브젝트를 디텍트하되, 상기 오브젝트는 상기 HMD를 착용한 착용자(wearer)를 실질적으로(substantially) 응시하는 스테어링 상태(staring status) 및 상기 착용자를 실질적으로 응시하지 않는 언스테어링 상태(unstaring status)를 가지고,
    상기 오브젝트를 상기 스테어링 상태로서 디텍트한 경우 제 1 정보 이미지를 디스플레이하고,
    상기 오브젝트를 상기 언스테어링 상태로서 디텍트한 경우 제 2 정보 이미지를 디스플레이하되,
    상기 제 1 정보 이미지는 디스플레이되는 정보량 및 디스플레이되는 위치 중 적어도 하나가 상기 제 2 정보 이미지와 다른 이미지인, HMD.
  2. 제 1 항에 있어서,
    상기 오브젝트는 상기 HMD의 전방에 위치한 사람인, HMD.
  3. 제 1 항에 있어서,
    상기 프로세서는,
    상기 오브젝트에 포함된 얼굴 및 시선 중 적어도 하나를 디텍트함으로써 상기 스테어링 상태 또는 상기 언스테어링 상태를 디텍트하는, HMD.
  4. 제 3 항에 있어서,
    상기 프로세서는,
    상기 얼굴이 상기 착용자를 향하는 경우 상기 스테어링 상태를 디텍트하고,
    상기 얼굴이 상기 착용자를 향하지 않는 경우 상기 언스테어링 상태를 디텍트하는, HMD.
  5. 제 4 항에 있어서,
    상기 프로세서는,
    상기 얼굴이 상기 착용자가 착용한 상기 HMD를 중심으로 기설정된 반경 이내의 영역을 향하는 경우 상기 스테어링 상태를 디텍트하고,
    상기 얼굴이 상기 착용자가 착용한 상기 HMD를 중심으로 상기 영역을 향하지 않는 경우 상기 언스테어링 상태를 디텍트하는, HMD.
  6. 제 3 항에 있어서,
    상기 프로세서는,
    상기 시선이 상기 착용자를 향하는 경우 상기 스테어링 상태를 디텍트하고,
    상기 시선이 상기 착용자를 향하지 않는 경우 상기 언스테어링 상태를 디텍트하는, HMD.
  7. 제 6 항에 있어서,
    상기 프로세서는,
    상기 시선이 상기 착용자가 착용한 상기 HMD를 중심으로 기설정된 반경 이내의 영역을 향하는 경우 상기 스테어링 상태를 디텍트하고,
    상기 시선이 상기 착용자가 착용한 상기 HMD를 중심으로 상기 영역을 향하지 않는 경우 상기 언스테어링 상태를 디텍트하는, HMD.
  8. 제 3 항에 있어서,
    상기 프로세서는,
    상기 스테어링 상태에서 상기 얼굴 및 상기 시선 중 적어도 하나가 회전하여 기설정된 각도 범위를 벗어난 경우 상기 언스테어링 상태를 디텍트하고,
    상기 언스테어링 상태에서 상기 얼굴 및 상기 시선 중 적어도 하나가 회전하여 상기 기설정된 각도 범위 이내로 진입한 경우 상기 스테어링 상태를 디텍트하는, HMD.
  9. 제 8 항에 있어서,
    상기 기설정된 각도 범위는 상기 오브젝트가 상기 착용자를 응시하는 방향을 기준으로 결정되는, HMD.
  10. 제 1 항에 있어서,
    상기 프로세서는,
    상기 스테어링 상태에서 상기 언스테어링 상태로의 전환을 디텍트한 경우, 상기 제 1 정보 이미지를 상기 제 2 정보 이미지로 전환하고,
    상기 언스테어링 상태에서 상기 스테어링 상태로의 전환을 디텍트한 경우, 상기 제 2 정보 이미지를 상기 제 1 정보 이미지로 전환하는, HMD.
  11. 제 10 항에 있어서,
    상기 프로세서는,
    상기 스테어링 상태에서 상기 언스테어링 상태로의 전환을 디텍트한 시점부터 제 1 시간 후에 상기 제 1 정보 이미지를 상기 제 2 정보 이미지로 전환하고,
    상기 언스테어링 상태에서 상기 스테어링 상태로의 전환을 디텍트한 시점부터 제 2 시간 후에 상기 제 2 정보 이미지를 상기 제 1 정보 이미지를 전환하는, HMD.
  12. 제 11 항에 있어서,
    상기 제 1 시간은 상기 제 2 시간보다 긴, HMD.
  13. 제 11 항에 있어서,
    상기 프로세서는,
    상기 제 1 시간 이내에 상기 스테어링 상태로의 재전환을 디텍트한 경우 상기 제 1 정보 이미지를 유지하고,
    상기 제 2 시간 이내에 상기 언스테어링 상태로의 재전환을 디텍트한 경우 상기 제 2 정보 이미지를 유지하는, HMD.
  14. 제 10 항에 있어서,
    상기 프로세서는,
    상기 제 1 정보 이미지를 상기 제 2 정보 이미지로 전환한 후 상기 제 1 정보 이미지로 재전환하는 경우, 상기 전환 전 제 1 정보 이미지를 업데이트하여 디스플레이하거나,
    상기 제 2 정보 이미지를 상기 제 1 정보 이미지로 전환한 후 상기 제 2 정보 이미지로 재전환하는 경우, 상기 전환 전 제 2 정보 이미지를 업데이트하여 디스플레이하는, HMD
  15. 제 1 항에 있어서,
    상기 제 2 정보 이미지는 상기 제 1 정보 이미지보다 정보량이 많은 이미지인, HMD.
  16. 제 15 항에 있어서,
    상기 제 2 정보 이미지는 상기 제 1 정보 이미지 및 상기 제 1 정보 이미지와 관련된 부가 정보 이미지를 포함한 이미지인, HMD.
  17. 제 15 항에 있어서,
    상기 제 1 정보 이미지는 상기 오브젝트에 대응하는 개략적 인물 정보(simple personal information), 상기 제 2 정보 이미지는 상기 오브젝트에 대응하는 세부적 인물 정보(detailed personal information)를 포함하는, HMD.
  18. 제 1 항에 있어서,
    상기 제 1 정보 이미지 또는 상기 제 2 정보 이미지는 상기 오브젝트의 위치에 기초하여 디스플레이되는 이미지인, HMD.
  19. 제 18 항에 있어서,
    상기 제 1 정보 이미지는 상기 오브젝트로부터 제 1 거리만큼 떨어진 위치에 디스플레이된 이미지이고, 상기 제 2 정보 이미지는 상기 오브젝트로부터 제 2 거리만큼 떨어진 위치에 디스플레이된 이미지로서,
    상기 제 2 거리는 상기 제 1 거리보다 긴, HMD.
  20. HMD를 제어하는 방법에 있어서,
    오브젝트를 디텍트하는 단계; 로서, 상기 오브젝트는 상기 HMD를 착용한 착용자를 실질적으로 응시하는 스테어링 상태(staring status) 및 상기 착용자를 응시하지 않는 언스테어링 상태(unstaring status)를 가지고, 및
    상기 오브젝트를 상기 스테어링 상태로서 디텍트한 경우 제 1 정보 이미지를 디스플레이하고, 상기 오브젝트를 상기 언스테어링 상태로서 디텍트한 경우 제 2 정보 이미지를 디스플레이하는 단계; 로서, 상기 제 1 정보 이미지는 디스플레이되는 정보량 및 디스플레이되는 위치 중 적어도 하나가 상기 제 2 정보 이미지와 다른 이미지인, HMD의 제어 방법.
KR1020140002293A 2014-01-08 2014-01-08 헤드 마운티드 디스플레이 및 그 제어 방법 KR102120105B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020140002293A KR102120105B1 (ko) 2014-01-08 2014-01-08 헤드 마운티드 디스플레이 및 그 제어 방법
US14/190,746 US8963807B1 (en) 2014-01-08 2014-02-26 Head mounted display and method for controlling the same
PCT/KR2014/001618 WO2015105234A1 (en) 2014-01-08 2014-02-27 Head mounted display and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140002293A KR102120105B1 (ko) 2014-01-08 2014-01-08 헤드 마운티드 디스플레이 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20150082843A true KR20150082843A (ko) 2015-07-16
KR102120105B1 KR102120105B1 (ko) 2020-06-09

Family

ID=52472980

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140002293A KR102120105B1 (ko) 2014-01-08 2014-01-08 헤드 마운티드 디스플레이 및 그 제어 방법

Country Status (3)

Country Link
US (1) US8963807B1 (ko)
KR (1) KR102120105B1 (ko)
WO (1) WO2015105234A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102297514B1 (ko) * 2015-07-02 2021-09-03 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
WO2017003069A1 (ko) * 2015-07-02 2017-01-05 삼성전자 주식회사 디스플레이 장치 및 그 제어 방법
US11172273B2 (en) 2015-08-10 2021-11-09 Delta Energy & Communications, Inc. Transformer monitor, communications and data collection device
US10055869B2 (en) 2015-08-11 2018-08-21 Delta Energy & Communications, Inc. Enhanced reality system for visualizing, evaluating, diagnosing, optimizing and servicing smart grids and incorporated components
WO2017041093A1 (en) 2015-09-03 2017-03-09 Delta Energy & Communications, Inc. System and method for determination and remediation of energy diversion in a smart grid network
CA3000206C (en) 2015-10-02 2023-10-17 Delta Energy & Communications, Inc. Supplemental and alternative digital data delivery and receipt mesh network realized through the placement of enhanced transformer mounted monitoring devices
WO2017070646A1 (en) 2015-10-22 2017-04-27 Delta Energy & Communications, Inc. Data transfer facilitation across a distributed mesh network using light and optical based technology
US9961572B2 (en) 2015-10-22 2018-05-01 Delta Energy & Communications, Inc. Augmentation, expansion and self-healing of a geographically distributed mesh network using unmanned aerial vehicle (UAV) technology
CA3054546C (en) 2016-02-24 2022-10-11 Delta Energy & Communications, Inc. Distributed 802.11s mesh network using transformer module hardware for the capture and transmission of data
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
WO2018035143A1 (en) 2016-08-15 2018-02-22 Delta Energy & Communications, Inc. Integrated solution of internet of things and smart grid network
JP6887198B2 (ja) * 2017-06-28 2021-06-16 株式会社オプティム ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080048357A (ko) * 2006-11-28 2008-06-02 삼성전자주식회사 움직임에 따라 컨텐츠를 디스플레이하는 장치 및 방법
US20090003662A1 (en) * 2007-06-27 2009-01-01 University Of Hawaii Virtual reality overlay
JP2011242591A (ja) * 2010-05-18 2011-12-01 Fujifilm Corp ヘッドマウントディスプレイ装置
US20120026191A1 (en) * 2010-07-05 2012-02-02 Sony Ericsson Mobile Communications Ab Method for displaying augmentation information in an augmented reality system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5355399B2 (ja) 2006-07-28 2013-11-27 コーニンクレッカ フィリップス エヌ ヴェ 注視された商品の情報表示のための注視インタラクション
US8218033B2 (en) * 2007-09-10 2012-07-10 Sanyo Electric Co., Ltd. Sound corrector, sound recording device, sound reproducing device, and sound correcting method
JP2011067277A (ja) 2009-09-24 2011-04-07 Brother Industries Ltd ヘッドマウントディスプレイ
US20110153341A1 (en) 2009-12-17 2011-06-23 General Electric Company Methods and systems for use of augmented reality to improve patient registration in medical practices
US20110169932A1 (en) 2010-01-06 2011-07-14 Clear View Technologies Inc. Wireless Facial Recognition
WO2013028908A1 (en) * 2011-08-24 2013-02-28 Microsoft Corporation Touch and social cues as inputs into a computer
US9310611B2 (en) * 2012-09-18 2016-04-12 Qualcomm Incorporated Methods and systems for making the use of head-mounted displays less obvious to non-users

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080048357A (ko) * 2006-11-28 2008-06-02 삼성전자주식회사 움직임에 따라 컨텐츠를 디스플레이하는 장치 및 방법
US20090003662A1 (en) * 2007-06-27 2009-01-01 University Of Hawaii Virtual reality overlay
JP2011242591A (ja) * 2010-05-18 2011-12-01 Fujifilm Corp ヘッドマウントディスプレイ装置
US20120026191A1 (en) * 2010-07-05 2012-02-02 Sony Ericsson Mobile Communications Ab Method for displaying augmentation information in an augmented reality system

Also Published As

Publication number Publication date
US8963807B1 (en) 2015-02-24
KR102120105B1 (ko) 2020-06-09
WO2015105234A1 (en) 2015-07-16

Similar Documents

Publication Publication Date Title
KR20150082843A (ko) 헤드 마운티드 디스플레이 및 그 제어 방법
KR102004265B1 (ko) 헤드 마운트 디스플레이 및 이를 이용한 영상 통화 방법
US11235871B2 (en) Control method, control system, and smart glasses for first person view unmanned aerial vehicle flight
EP3195595B1 (en) Technologies for adjusting a perspective of a captured image for display
EP3204837B1 (en) Docking system
US10114466B2 (en) Methods and systems for hands-free browsing in a wearable computing device
EP2872945B1 (en) A head mounted dipslay and method of outputting a content using the same
US10115210B2 (en) Display control device, display control method, and program
EP3454184B1 (en) Dual screen head mounted display
US20150123997A1 (en) Information Display System Including Transmission Type HMD, Non-Transitory Computer-Readable Storage Medium and Display Control Method
US10075629B2 (en) Electronic device for capturing images while user looks directly at camera
US9535250B2 (en) Head mounted display device and method for controlling the same
CN110546601B (zh) 信息处理装置、信息处理方法和程序
US9442292B1 (en) Directional array sensing module
US20150317956A1 (en) Head mounted display utilizing compressed imagery in the visual periphery
KR20150096948A (ko) 증강 현실 사진 촬영 가이드를 디스플레이 하는 헤드 마운티드 디스플레이 디바이스 및 그 제어 방법
KR20160015972A (ko) 웨어러블 디바이스 및 그 제어 방법
US20150271457A1 (en) Display device, image display system, and information processing method
JP2018180051A (ja) 電子機器及びその制御方法
US11323495B2 (en) Sharing computer application activities
JPWO2018198499A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
KR20150085587A (ko) 헤드 마운티드 디스플레이 및 그 제어 방법
US11366318B2 (en) Electronic device and control method thereof
US20220365741A1 (en) Information terminal system, method, and storage medium
WO2018186004A1 (ja) 電子機器及びその制御方法

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant