KR20160026467A - 전자 장치, 그 제어 방법 및 기록 매체 - Google Patents

전자 장치, 그 제어 방법 및 기록 매체 Download PDF

Info

Publication number
KR20160026467A
KR20160026467A KR1020140115421A KR20140115421A KR20160026467A KR 20160026467 A KR20160026467 A KR 20160026467A KR 1020140115421 A KR1020140115421 A KR 1020140115421A KR 20140115421 A KR20140115421 A KR 20140115421A KR 20160026467 A KR20160026467 A KR 20160026467A
Authority
KR
South Korea
Prior art keywords
electronic device
screen
user
module
reference screen
Prior art date
Application number
KR1020140115421A
Other languages
English (en)
Other versions
KR102271833B1 (ko
Inventor
조재홍
한지연
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140115421A priority Critical patent/KR102271833B1/ko
Priority to US14/837,476 priority patent/US10114514B2/en
Priority to PCT/KR2015/009099 priority patent/WO2016036074A1/en
Priority to CN201580046936.0A priority patent/CN106716225B/zh
Priority to EP15183338.1A priority patent/EP2990852B1/en
Publication of KR20160026467A publication Critical patent/KR20160026467A/ko
Application granted granted Critical
Publication of KR102271833B1 publication Critical patent/KR102271833B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Abstract

전자 장치, 그 제어 방법 및 기록 매체가 개시된다. 본 발명의 한 실시예에 따른 전자 장치는, 디스플레이 모듈, 상기 디스플레이 모듈과 기능적으로 연결된 저장 모듈 및 상기 디스플레이 모듈에 디스플레이되는 화면에 대한 기준 화면 설정 이벤트를 감지하고, 상기 디스플레이 되고 있는 화면과 연관된 정보를 상기 저장 모듈에 저장하도록 제어하는 프로세서를 포함하며, 상기 프로세서는, 기준 화면에 대한 디스플레이 이벤트가 발생되면, 상기 화면과 연관된 정보를 기초로 상기 기준 화면을 상기 디스플레이 모듈에 디스플레이 하도록 제어할 수 있다.

Description

전자 장치, 그 제어 방법 및 기록 매체{Electronic device, controlling method thereof and recording medium}
본 발명은 전자 장치, 그 제어 방법 및 기록 매체에 관한 것이다.
전자 장치들 중에는 신체에 착용할 수 있는 형태로 제공되는 전자 장치들이 있다. 이러한 전자 장치들은 통상적으로 웨어러블 디바이스(wearable device)라고 할 수 있다. 신체에 착용할 수 있는 전자 장치들의 형태들 중에 HMD(head mounted display)와 같은 헤드 장착형 전자 장치일 수도 있다.
헤드마운트 디스플레이 장치는 사용자의 신체 일부(예를 들면, 사용자의 머리)에 착용되어 상기 사용자에게 가상 현실(Virtual Reality) 환경을 제공할 수 있다. 상기 가상 현실 환경의 제공은 예를 들어, 상기 가상 현실을 구현할 수 있는 화면의 디스플레이 및 상기 가상 현실을 구현할 수 있는 다양한 사용자 인터페이스의 제공 등을 포함할 수 있다.
종래의 기술에 따른 HMD에 따르면, 상기 사용자의 신체 일부에 착용된 HMD가 상기 사용자로부터 분리되어 상기 사용자 또는 다른 사용자에게 재착용되는 경우, 상기 재착용된 사용자의 시선에 따라 상기 분리된 시점에 상기 HMD에 디스플레이 되고 있는 화면과는 상이한 화면이 디스플레이 될 수 있다. 따라서, 상기 HMD를 착용하고 있는 일 사용자가 상기 HMD에 디스플레이 되고 있는 화면을 다른 사용자에게 보여주고자 하는 경우, 상기 일 사용자와 상기 다른 사용자의 시선 방향이 서로 상이하면 상기 일 사용자가 전혀 의도하지 않은 화면을 상기 다른 사용자가 보게 될 수 있다.
본 발명의 다양한 실시예들에 따르면, 상기 헤드 장착용 전자 장치에 대한 기준 화면의 디스플레이 요청을 통하여, 상기 기준 화면을 보기 위하여 상기 사용자의 시선을 이동하지 아니하더라도 지정된 기준 화면으로 용이하게 전환할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치는, 디스플레이 모듈 및 상기 디스플레이 모듈과 기능적으로 연결된 저장 모듈을 포함할 수 있다. 본 발명의 다양한 실시예들에 따른 전자 장치는, 상기 디스플레이 모듈에 디스플레이되는 화면에 대한 기준 화면 설정 이벤트를 감지하고, 상기 디스플레이되고 있는 화면과 연관된 정보를 상기 저장 모듈에 저장하도록 제어하는 프로세서를 포함할 수 있다. 상기 프로세서는, 기준 화면에 대한 디스플레이 이벤트가 발생되면, 상기 화면과 연관된 정보를 기초로 상기 기준 화면을 상기 디스플레이 모듈에 디스플레이 하도록 제어할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법은, 상기 전자 장치에 디스플레이되는 화면에 대한 기준 화면 설정 이벤트를 감지하는 동작을 포함할 수 있다. 본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법은, 상기 감지된 기준 화면 설정 이벤트에 대응하여 상기 전자 장치에 디스플레이되고 있는 화면과 연관된 정보 중 적어도 일부를 저장하는 동작을 포함할 수 있다. 본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법은, 상기 기준 화면에 대한 디스플레이 이벤트를 감지하는 동작 및 상기 기준 화면에 대한 디스플레이 이벤트에 대응하여 상기 정보를 기초로 기준 화면을 상기 전자 장치에 디스플레이하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예들에 따르면, 사용자에게 착용된 헤드(head) 장착용 전자 장치가 상기 사용자로부터 분리되어 상기 사용자 또는 다른 사용자에게 재착용되는 경우, 상기 헤드 장착용 전자 장치가 상기 사용자로부터 분리된 시점에 상기 헤드 장착용 전자 장치에 장착된 전자 장치(예를 들면, 휴대 단말)에 디스플레이 되고 있던 화면을 상기 사용자 또는 상기 다른 사용자에게 제공할 수 있다. 이에 따라, 상기 헤드 장착용 전자 장치를 재착용한 사용자는, 상기 재착용한 사용자의 시선 방향과 무관하게 상기 전자 장치가 상기 사용자로부터 분리된 시점에 상기 전자 장치에 디스플레이되고 있던 화면을 볼 수 있게 되다.
또한, 본 발명의 다양한 실시예들에 따르면, 사용자에게 착용된 헤드(head) 장착용 전자 장치가 상기 사용자로부터 분리되어 상기 사용자 또는 다른 사용자에게 재착용되는 경우, 상기 헤드 장착용 전자 장치가 상기 사용자에게 착용된 시점에 상기 헤드 장착용 전자 장치에 장착된 전자 장치(예를 들면, 휴대 단말)에 디스플레이되고 있던 화면을 상기 사용자 또는 상기 다른 사용자에게 제공할 수 있다. 이에 따라, 상기 헤드 장착용 전자 장치를 재착용한 사용자는, 상기 재착용한 사용자의 시선 방향과 무관하게 상기 전자 장치가 상기 사용자에게 착용된 시점에 상기 전자 장치에 디스플레이되고 있던 화면을 볼 수 있다.
또한, 본 발명의 다양한 실시예들에 따르면, 지정된 기준 화면을 보기 위한 사용자의 요청에 따라, 상기 사용자의 시선을 이동하지 아니하더라도 상기 지정된 기준 화면으로 전환할 수 있다.
본 발명의 효과는 상기 기술된 효과로 제한되지 아니하며, 다양한 효과가 본 명세서 상에 내재되어 있음은 통상의 기술자에게 자명하다.
도 1은 본 발명의 다양한 실시예들에 따른 전자 장치 또는 전자 장치의 제어 방법이 적용될 수 있는 전자 장치를 포함하는 네트워크 환경을 개념적으로 도시한 것이다.
도 2는 본 발명의 다양한 실시예들에 따른 전자 장치(예를 들면, 전자 장치 101)의 VR(Virtual Reality) 관리 모듈의 블록도를 예시적으로 도시한 것이다.
도 3a는 본 발명의 다양한 실시예에 따른 헤드 장착형 전자 장치를 예시적으로 도시한 것이다.
도 3b는 도 3a에 도시된 헤드 장착형 전자 장치와는 다른 실시예로서의 헤드 장착형 전자 장치를 예시적으로 도시한 것이다.
도 3c는 상기 도 3b에 도시된 본 발명의 다른 실시예에 따른 헤드 장착형 전자 장치의 블록도를 예시적으로 도시한 것이다.
도 4a는 본 발명의 다양한 실시예에 따른 제1 전자 장치(예를 들면, 휴대 단말)가 제2 전자 장치(예를 들면, 헤드 장착형 전자 장치)에 장착되는 예를 도시한 것이다.
도 4b는 본 발명의 다양한 실시예에 따라 제1 전자 장치가 장착된 제2 전자 장치를 사용자가 착용한 예를 도시한 것이다.도 5는 본 발명의 다양한 실시예에 따른 제2 전자 장치의 구성 예를 도시한 블록도이다.
도 6a 내지 도 6c는 본 발명의 다양한 실시예들에 따른 제1 전자 장치가 상기 사용자로부터 분리된 후 재착용되는 경우에, 상기 분리되는 시점에 디스플레이 되고 있는 화면이 상기 재착용 후에도 상기 제1 전자 장치에 동일하게 디스플레이하는 동작을 설명하기 위한 예시도이다.
도 7a 및 도 7b는 본 발명의 다양한 실시예들에 따른 제1 전자 장치가 상기 사용자로부터 분리된 후 재착용되는 경우에, 상기 분리되는 시점에 디스플레이 되고 있는 화면을 기준으로 소정의 범위만큼 이동된 화면이 디스플레이되는 동작을 설명하기 위한 예시도이다.
도 8a 내지 도 8d는 본 발명의 다양한 실시예들에 따른 제1 전자 장치가 상기 사용자로부터 분리된 후 재착용되는 경우에, 상기 제1 전자 장치가 분리되기 전에 상기 사용자의 시선에 따라 디스플레이 된 화면을 소정의 가이드와 함께 디스플레이하는 동작을 설명하기 위한 예시도이다.
도 9a 내지 도 9c는 본 발명의 다양한 실시예들에 따른 제1 전자 장치가 상기 사용자로부터 분리된 후 재착용되는 경우에, 상기 제1 전자 장치가 분리되기 전에 상기 사용자의 시선에 따라 디스플레이되는 화면이 제어되는 동작을 설명하기 위한 예시도이다.
도 10a 및 도 10b는 본 발명의 다양한 실시예들에 따른 제1 전자 장치가 상기 사용자로부터 분리된 후 재착용되는 경우에, 상기 분리되는 시점에 디스플레이 되고 있는 화면을 기준으로 확대 또는 축소된 화면이 디스플레이되는 동작을 설명하기 위한 예시도이다.
도 11a 내지 도 11c는 본 발명의 다양한 실시예들에 따른 제1 전자 장치가 상기 사용자로부터 분리된 후 재착용되는 경우에, 화면의 시점(view point)이 객체의 중심으로 이동되어 디스플레이되는 동작을 설명하기 위한 예시도이다.
도 12a 내지 도 12e는 본 발명의 다양한 실시예들에 따른 제1 전자 장치가 상기 사용자에게 착용되는 시점(time point)에 상기 제1 전자 장치에 디스플레이되는 화면을 기초로 상기 기준 화면을 디스플레이하는 동작을 설명하기 위한 예시도이다.
도 13a 내지 도 13c는 본 발명의 다양한 실시예들에 따른 제2 전자 장치에 대한 사용자의 입력을 통하여 상기 기준 화면을 결정하기 위한 화면 정보를 저장하는 동작을 설명하기 위한 예시도이다.
도 14a 내지 도 14d는 본 발명의 다양한 실시예들에 따른 제2 전자 장치에 대한 사용자의 입력을 통하여 상기 기준 화면을 디스플레이하는 동작을 설명하기 위한 예시도이다.
도 15는 본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법을 설명하기 위한 순서도이다.
도 16은 본 발명의 다양한 실시예들에 따른 제1 전자 장치 또는 상기 제1 전자 장치의 제어 방법이 적용될 수 있는 전자 장치의 블록도를 예시적으로 도시한 것이다.
이하, 본 발명의 다양한 실시예들이 첨부된 도면과 연관되어 기재된다. 본 발명의 다양한 실시예들은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명의 다양한 실시예들를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 다양한 실시예들의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 발명의 다양한 실시예들에서 사용될 수 있는 "포함한다" 또는 "포함할 수 있다" 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시예들에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 다양한 실시예들에서 "또는" 또는 "A 또는/및 B 중 적어도 하나" 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, "A 또는 B" 또는 "A 또는/및 B 중 적어도 하나" 각각은, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 발명의 다양한 실시예들에서 사용된 "제 1, " "제2, " "첫째," 또는 "둘째, " 등의 표현들은 다양한 실시예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 발명의 다양한 실시예들의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명의 다양한 실시예들에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 다양한 실시예들를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 다양한 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 다양한 실시예들에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명의 다양한 실시예들에 따른 전자 장치는, 통신 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 워치(smart watch))중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSync™ 애플TV™ 또는 구글 TV™), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시예들에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 발명의 다양한 실시예들에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 본 발명의 다양한 실시예들에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 통상의 기술자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시예들에 따른 전자 장치에 대해서 살펴본다. 다양한 실시예들에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 다양한 실시예들에 따른 전자 장치 또는 전자 장치의 제어 방법이 적용될 수 있는 전자 장치를 포함하는 네트워크 환경을 도시한다.도 1을 참조하면, 상기 전자 장치(101)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(140), 디스플레이(150), 통신 인터페이스(160) 및 VR 관리 모듈(170)을 포함할 수 있다.
상기 버스(110)는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
상기 프로세서(120)는, 예를 들면, 상기 버스(110)를 통해 전술한 다른 구성요소들(예: 상기 메모리(130), 상기 입출력 인터페이스(140), 상기 디스플레이(150), 상기 통신 인터페이스(160), 또는 상기 VR 관리 모듈(170) 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
상기 메모리(130)는, 상기 프로세서(120) 또는 다른 구성요소들(예: 상기 입출력 인터페이스(140), 상기 디스플레이(150), 상기 통신 인터페이스(160), 또는 상기 VR 관리 모듈(170) 등)로부터 수신되거나 상기 프로세서(120) 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 메모리(130)는, 예를 들면, 커널(131), 미들웨어(132), 어플리케이션 프로그래밍 인터페이스(API: application programming interface, 133) 또는 어플리케이션 (134) 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
상기 커널(131)은 나머지 다른 프로그래밍 모듈들, 예를 들면, 상기 미들웨어(132), 상기 API(133) 또는 상기 어플리케이션(134)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 상기 버스(110), 상기 프로세서(120) 또는 상기 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 상기 커널(131)은 상기 미들웨어(132), 상기 API(133) 또는 상기 어플리케이션 (134)에서 상기 전자 장치(101)의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
상기 미들웨어(132)는 상기 API(133) 또는 상기 어플리케이션(134)이 상기 커널(131)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 상기 미들웨어(132)는 상기 어플리케이션(134)로부터 수신된 작업 요청들과 관련하여, 예를 들면, 상기 어플리케이션(134) 중 적어도 하나의 어플리케이션에 상기 전자 장치(101)의 시스템 리소스(예: 상기 버스(110), 상기 프로세서(120) 또는 상기 메모리(130) 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케쥴링 또는 로드 밸런싱)을 수행할 수 있다.
상기 API(133)는 상기 어플리케이션(134)이 상기 커널(131) 또는 상기 미들웨어(132)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 어플리케이션(134)는 SMS/MMS 어플리케이션, 이메일 어플리케이션, 달력 어플리케이션, 알람 어플리케이션, 건강 관리(health care) 어플리케이션(예: 운동량 또는 혈당 등을 측정하는 어플리케이션) 또는 환경 정보 어플리케이션(예: 기압, 습도 또는 온도 정보 등을 제공하는 어플리케이션) 등을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 어플리케이션(134)은 상기 전자 장치(101)와 외부 전자 장치(예: 전자 장치(104)) 사이의 정보 교환과 관련된 어플리케이션일 수 있다. 상기 정보 교환과 관련된 어플리케이션은, 예를 들어, 상기 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 상기 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.
예를 들면, 상기 알림 전달 어플리케이션은 상기 전자 장치(101)의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션 또는 환경 정보 어플리케이션 등)에서 발생한 알림 정보를 외부 전자 장치(예: 전자 장치(104))로 전달하는 기능을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치(예: 전자 장치(104))로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 어플리케이션은, 예를 들면, 상기 전자 장치(101)와 통신하는 외부 전자 장치(예: 전자 장치(104))의 적어도 일부에 대한 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴온/턴오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 어플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제 또는 업데이트)할 수 있다.
다양한 실시예들에 따르면, 상기 어플리케이션(134)은 상기 외부 전자 장치(예: 전자 장치(104))의 속성(예: 전자 장치의 종류)에 따라 지정된 어플리케이션을 포함할 수 있다. 예를 들어, 외부 전자 장치가 MP3 플레이어인 경우, 상기 어플리케이션(134)은 음악 재생과 관련된 어플리케이션을 포함할 수 있다. 유사하게, 외부 전자 장치가 모바일 의료기기인 경우, 상기 어플리케이션 (124)은 건강 관리와 관련된 어플리케이션을 포함할 수 있다. 한 실시예에 따르면, 상기 어플리케이션(134)은 전자 장치(101)에 지정된 어플리케이션 또는 외부 전자 장치(예: 서버(106) 또는 전자 장치(104))로부터 수신된 어플리케이션 중 적어도 하나를 포함할 수 있다.
상기 입출력 인터페이스(140)은, 입출력 장치(예: 센서, 키보드 또는 터치 스크린)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 상기 버스(110)를 통해 상기 프로세서(120), 상기 메모리(130), 상기 통신 인터페이스(160), 또는 상기 VR 관리 모듈(170)에 전달할 수 있다. 예를 들면, 상기 입출력 인터페이스(140)은 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 상기 프로세서(120)로 제공할 수 있다. 또한, 상기 입출력 인터페이스(140)는, 예를 들면, 상기 버스(110)를 통해 상기 프로세서(120), 상기 메모리(130), 상기 통신 인터페이스(160), 또는 상기 VR 관리 모듈 (170)로부터 수신된 명령 또는 데이터를 상기 입출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다. 예를 들면, 상기 입출력 인터페이스(140)은 상기 프로세서(120)를 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다.
상기 디스플레이(150)은 사용자에게 각종 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)을 표시할 수 있다.
상기 통신 인터페이스(160)은 상기 전자 장치 101와 외부 장치(예: 전자 장치 104 또는 서버 106) 간의 통신을 연결할 수 있다. 예를 들면, 상기 통신 인터페이스(160)은 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 상기 외부 장치와 통신할 수 있다. 상기 무선 통신은, 예를 들어, Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 상기 유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 상기 네트워크(162)는 통신 네트워크(telecommunications network)일 수 있다. 상기 통신 네트워크 는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 한 실시예에 따르면, 상기 전자 장치(101)와 외부 장치 간의 통신을 위한 프로토콜(예: transport layer protocol, data link layer protocol 또는 physical layer protocol))은 어플리케이션(134), 어플리케이션 프로그래밍 인터페이스(133), 상기 미들웨어(132), 커널(131) 또는 통신 인터페이스(160) 중 적어도 하나에서 지원될 수 있다.
본 발명의 다양한 실시예들에 따른 상기 VR 관리 모듈(170)은, 예를 들면,
상기 전자 장치에 디스플레이되는 화면에 대한 기준 화면 설정 이벤트를 감지하는 동작, 상기 감지된 기준 화면 설정 이벤트에 대응하여 상기 전자 장치에 디스플레이 되고 있는 화면과 연관된 정보 중 적어도 일부를 저장하는 동작, 상기 기준 화면에 대한 디스플레이 이벤트를 감지하는 동작 및 상기 기준 화면에 대한 디스플레이 이벤트에 대응하여 상기 저장된 정보를 기초로 기준 화면을 상기 전자 장치에 디스플레이하는 동작을 수행할 수 있다.
상기 VR 관리 모듈(170)이 수행하는 기능/기능들 또는 동작/동작들은, 다양한 실시예들에 따라 예를 들어 프로세서(120)에 의하여 수행되도록 설정될 수도 있다. 상기 VR 관리 모듈(170)에 관한 보다 상세한 설명은 후술하기로 한다.
도 2는 본 발명의 다양한 실시예들에 따른 전자 장치(예를 들면, 전자 장치 101)의 VR(Virtual Reality) 관리 모듈(200)의 블록도를 예시적으로 도시한 것이다. 본 발명의 다양한 실시예들에 따른 VR 관리 모듈(200)은, 저장 모듈(210), 결정 모듈(220), 디스플레이 모듈(230), 입력 모듈(240) 및 화면 제어 모듈(250)을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 상기 저장 모듈(210)은, 상기 전자 장치(예를 들면, 전자 장치 101)에 디스플레이되는 화면에 대한 화면 설정 이벤트의 발생이 감지되면, 상기 전자 장치에 디스플레이 되고 있는 화면과 연관된 정보를 저장할 수 있다. 상기 저장 모듈(210)는, 상기 VR 관리 모듈(200)에 포함되는 다양한 구성요소들로부터 수신되거나 상기 프로세서(120) 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다.
본 발명의 다양한 실시예들에 따른 상기 결정 모듈(230)은, 상기 기준 화면 설정 이벤트가 감지된 후, 기준 화면에 대한 디스플레이 이벤트의 발생이 감지되면, 상기 화면과 연관된 정보를 기초로 상기 전자 장치에 디스플레이되는 상기 기준 화면을 결정할 수 있다.
본 발명의 다양한 실시예들에 따른 상기 디스플레이 모듈(230)은, 상기 사용자에게 제공되기 위한 다양한 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)를 디스플레이 할 수 있다. 상기 디스플레이 모듈(230)은, 액정(liquid crystal), 발광 다이오드(light-emitting diode), 유기 발광 다이오드(organic light-emitting diode), 플라즈마 셀(plasma cell), 전자 잉크 어레이(electronic ink array), 전자 종이 디스플레이(electronic paper display), 플렉서블 액정 디스플레이(flexible liquid crystal display), 플렉서블 전기변색 디스플레이(flexible electrochromic display), 플렉서블 전기습윤 디스플레이(flexible electrowetting display) 등 다양한 타입에 따라 제조된 디스플레이 모듈을 포함할 수 있다. 상기 디스플레이 모듈(230)은, 상기 전자 장치에 포함되는 요소(element)/요소들(elements)과 기능적으로 연결될 수 있다. 또한, 상기 디스플레이 모듈(230)은, 상기 전자 장치와 상이한 다른 전자 장치/전자 장치들과 기능적으로 연결될 수 있다. 본 발명의 다양한 실시예들에 따른 상기 입력 모듈(240)은, 예를 들어 히스토리 화면의 속성을 제어하기 위한 입력을 수신할 수 있다. 상기 입력 모듈(240)은, 예를 들어 "상기 기준 화면의 설정"에 대한 입력을 수신할 수 있다. 상기 기준 화면을 설정한다는 용어의 의미는, 상기 기준 화면을 디스플레이 하기 위하여 상기 화면과 연관된 정보를 상기 저장 모듈(210)에 저장하는 동작을 포함할 수 있다. 상기 입력 모듈(240)은, 예를 들어 상기 기준 화면의 디스플레이에 대한 입력을 수신할 수 있다. 상기 화면의 속성은, 예를 들어, 상기 기준 화면의 위치, 상기 기준 화면에 대응되어 출력되는 사운드의 볼륨, 상기 화면의 밝기, 상기 화면의 크기 중 적어도 하나를 포함할 수 있다. 다만, 본 발명의 다양한 실시예들에 따라, 상기 입력 모듈(240)이 상기 제2 전자 장치에 포함되어 실시되는 경우, 상기 입력 모듈은 상기 전자 장치에서 생략되어 실시될 수도 있다.
본 발명의 다양한 실시예들에 따른 상기 화면 제어 모듈(250)은, 상기 입력 모듈(240)을 통하여 입력된 상기 입력에 따라 상기 디스플레이 모듈(230)에 디스플레이되는 화면의 속성을 제어할 수 있다. 예를 들어, 상기 기준 화면의 위치를 변경하기 위한 입력이 수신되면, 상기 화면 제어 모듈(250)은, 후술되는 도 9a 내지 도 9c에 도시된 바와 같이, 상기 디스플레이 모듈(230)에 디스플레이되는 기준 화면의 위치가 이동되어 디스플레이 되도록 제어할 수 있다.
도 3a를 참조하면, 본 발명의 다양한 실시 예에 따른 헤드 장착형 전자 장치(300)는 예를 들어 도 1의 전자 장치(104)일 수 있다. 헤드 장착형 전자 장치(300)는 본체(302), 커버(304)를 포함할 수 있다. 본체(302)는 지지물(306), 2개의 렌즈들(308, 310), 장착부(312), 컨트롤 장치(314)를 포함할 수 있다.
커버(304)는 헤드 장착형 전자 장치(300)에 전자 장치(101)가 장착되는 경우 전자 장치(101)가 장착된 상태를 유지하도록 전자 장치(101)의 후면 가장자리를 덮어 헤드 장착형 전자 장치(300)에 고정할 수 있다. 지지물(306)은 사용자가 헤드 장착형 전자 장치(300)를 머리에 착용하는데 사용될 수 있는 기구물일 수 있다. 렌즈들(308, 310)은 사용자의 양쪽 눈 각각에 대응하는 위치에 설치될 수 있다. 사용자는 렌즈들(308, 310)을 통해 디스플레이(도시하지 않았음)의 화면을 볼 수 있다. 장착부(312)는 헤드 장착형 전자 장치(300)에 예를 들어 도 1의 전자 장치(101)를 착탈 가능하게 장착할 수 있는 기구적 구조일 수 있다.
본 발명의 다양한 실시 예에 따른 컨트롤 장치(314)는 본체(302)의 측면에 설치될 수 있다. 컨트롤 장치(314)는 사용자가 헤드 장착형 전자 장치(300)를 제어하기 위한 입력을 하는데 사용될 수 있다. 예를 들어 컨트롤 장치(314)는 터치 패널, 버튼, 휠 키, 및 터치 패드 등 중에 적어도 하나를 포함할 수 있다. 터치 패널은 사용자의 터치 입력을 수신할 수 있다. 터치 입력은 사용자가 터치 패널을 직접 터치하는 입력 또는 터치 패널에 근접한 호버링(hovering) 입력일 수 있다. 헤드 장착형 전자 장치(300)는 전자 장치(101)와 USB 등의 인터페이스를 통해 연결되어 컨트롤 장치(314)를 통해 수신된 입력을 전자 장치(101)에 전송할 수 있다. 전자 장치(101)는 헤드 장착형 전자 장치(300)의 컨트롤 장치(314)를 통해 수신된 입력에 응답하여 입력에 대응하는 기능을 제어할 수 있다. 예를 들어, 전자 장치(101)는 수신한 입력에 응답하여 음량을 조절하거나 영상 재생을 제어할 수 있다.
도 3b는 본 발명의 다양한 실시예들에 따라 상기 도 3a에 도시된 헤드 장착형 전자 장치와는 다른 실시예로서의 헤드 장착형 전자 장치를 예시적으로 도시한 것이며, 도 3c는 상기 도 3b에 도시된 본 발명의 다른 실시예에 따른 헤드 장착형 전자 장치의 블록도를 예시적으로 도시한 것이다.
도 3b를 참조하면, 본 발명의 다른 실시 예에 따른 헤드 장착형 전자 장치(300a)는 예를 들어 도 1의 전자 장치(101)일 수 있다. 즉, 본 발명의 다른 실시예에 따른 상기 헤드 장착형 전자 장치는 디스플레이 모듈(340)을 포함할 수 있으며, 상기 디스플레이 모듈은 상기 헤드 장착형 전자 장치(300a)를 구성하는 요소/요소들과 기능적으로 연결될 수 있다. 도 3b에 도시된 본 발명의 다른 실시예에 따른 헤드 장착형 전자 장치(300a)는, 상기 헤드 장착형 전자 장치(300a)에 다른 전자 장치(예를 들면, 제1 전자 장치 400)가 장착되는 형태가 아닐 수 있는 바, 상기 장착부(312)를 포함하지 않을 수 있다. 상기 헤드 장착형 전자 장치(300a)는, 예를 들어, 프로세서(320), 센서 모듈(330), 저장 모듈(350), 통신 모듈(360) 및 입력 모듈(460)을 더 포함할 수 있다. 후술되는 본 발명의 다양한 실시예들은, 상기 헤드 장착형 전자 장치(300a)에 있어서도 동일하게 적용될 수 있다. 상기 헤드 장착형 전자 장치(300a)에 포함되는 상기 센서 모듈(330)은, 물리량을 계측하거나 상기 헤드 장착형 전자 장치(300a)의 작동 상태를 감지하여, 상기 계측 또는 상기 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈(330)은, 예를 들면, 가속도 센서, 자이로 센서, 지자계 센서, 마그네틱 센서, 근접 센서, 제스처 센서, 그립 센서, 생체 센서, 접근 센서 중의 적어도 하나를 포함할 수 있다. 상기 센서 모듈(330) 중 적어도 하나를 통하여, 상기 헤드 장착형 전자 장치(300a)가 착용된 사용자의 움직임, 상기 사용자에 대한 상기 헤드 장착형 전자 장치의 착용 여부 또는 상기 사용자에 대한 상기 헤드 장착형 전자 장치(300a)의 분리 여부 등을 판단하기 위한 다양한 정보를 획득할 수 있다. 상기 프로세서(320)는, 예를 들면 상기 프로세서(120)를 포함할 수 있다. 상기 프로세서(320)는, 컨트롤 장치(예를 들면, 상기 컨트롤 장치 314)를 통해 수신된 입력에 대한 응답으로, 상기 수신된 입력에 대응하는 기능/기능들 또는 동작/동작들을 수행하도록 제어할 수 있다. 상기 디스플레이 모듈(340)은, 예를 들면 상기 디스플레이(150)를 포함할 수 있다. 상기 저장 모듈(350)은, 예를 들면 상기 메모리(130)를 포함할 수 있다. 상기 통신 모듈(360)은, 예를 들면 상기 통신 인터페이스(160)를 포함할 수 있다. 상기 입력 모듈(370)은, 상기 입출력 인터페이스(140)를 포함할 수 있다. 이 밖에, 도 3b에 도시된 상기 헤드 장착형 전자 장치(300a)에 관한 설명은 상술된 도 3a에 관한 설명된 내용이 참조될 수 있다.
도 4a는 본 발명의 다양한 실시예에 따른 제1 전자 장치(400)가 제2 전자 장치(402)에 장착되는 예를 도시한 도면이고, 도 4b는 본 발명의 다양한 실시예에 따라 제1 전자 장치(400)가 장착된 제2 전자 장치(402)를 사용자가 착용한 예를 도시한 도면이다.
도 4a 및 도 4b를 참조하면, 제1 전자 장치(400)는 도 1의 전자 장치(101)일 수 있으며, 예를 들어 후면에 설치된 후면 카메라(406)를 포함하는 스마트 폰일 수 있다. 제2 전자 장치(402)는 도 3의 헤드 장착형 전자 장치(300)일 수 있다.
본 발명의 다양한 실시 예에 따르면 사용자는 도 4a처럼 제1 전자 장치(400)를 제1 전자 장치(400)의 디스플레이(미도시)가 설치된 전면이 렌즈들(예를 들어, 도 3의 렌즈들(308, 310))을 향하도록 제2 전자 장치(402)의 장착부(예를 들어 도 3의 장착부(312))에 장착할 수 있다. 사용자는 커버(404)를 덮어 제1 전자 장치(400)를 제2 전자 장치(402)에 고정시킬 수 있다. 사용자는 제1 전자 장치(400)가 장착된 제2 전자 장치(402)를 도 4b처럼 머리에 착용할 수 있다. 도 4b는 제1 전자 장치(400)가 장착된 제2 전자 장치(402)를 사용자(408)가 머리에 착용한 모습을 보인다. 사용자(408)는 제2 전자 장치(402)의 렌즈들(예를 들어 도 3의 렌즈들(308, 310))을 통해 제1 전자 장치(400)의 디스플레이의 화면을 볼 수 있다.
도 5는 본 발명의 다양한 실시예에 따른 제2 전자 장치(500)의 구성 예를 도시한 블록도이다.
도 5를 참조하면, 제2 전자 장치(500)는 도 3의 헤드 장착형 전자 장치(300)일 수 있으며 도 4a 및 도 4b의 제2 전자 장치(402)일 수 있다. 제2 전자 장치(500)는 MCU(micro controller unit)(510), 통신 모듈(520), 센서 모듈(530), 입력 모듈(540), 시선 추적(eye tracking) 모듈(550), 바이브레이터(552), 초점 조절(adjustable optics) 모듈(554), 전력 관리 모듈(560), 배터리(562) 중 적어도 하나를 포함할 수 있다.
MCU(510)는 운영체제 또는 임베디드 소프트웨어 프로그램을 구동하여 다른 구성 요소들(예를 들어, 통신 모듈(520), 센서 모듈(530), 입력 모듈(540), 시선 추적(eye tracking) 모듈(550), 바이브레이터(552), 초점 조절(adjustable optics) 모듈(554), 전력 관리 모듈(560))을 제어할 수 있는 제2 전자 장치(500)의 제어부일 수 있다. MCU(510)는 프로세서 및 메모리를 포함할 수 있다.
통신 모듈(520)은 제1 전자 장치(예를 들면, 상기 제1 전자 장치 400)와 제2 전자 장치(500)를 유선 통신 또는 무선 통신을 이용하여 전기적으로 연결하여 데이터 송수신을 수행할 수 있다. 한 실시예에 따르면, 통신 모듈(520)은 USB 모듈(521), WiFi 모듈(522), BT 모듈(523), NFC 모듈(524), GPS 모듈(525)을 포함할 수 있다. 한 실시예에 따르면, USB 모듈(521), WiFi 모듈(522), BT 모듈(523), NFC 모듈(524), GPS 모듈(525) 중 적어도 3개는 하나의 IC(integrated chip) 또는 IC 패키지 내에 포함될 수 있다.
센서 모듈(530)은 물리량을 계측하거나 제2 전자 장치(500)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 본 발명의 다양한 실시 예에 따른 센서 모듈(530)은, 예를 들면, 가속도 센서(531), 자이로 센서(532), 지자계 센서(533), 마그네틱 센서(534), 근접 센서(535), 제스처 센서(536), 그립 센서(537), 생체 센서(538), 접근 센서(539) 중의 적어도 하나를 포함할 수 있다. 제2 전자 장치(500)는 제2 전자 장치(500)를 착용한 사용자의 머리 움직임을 가속도 센서(531), 자이로 센서(532), 지자계 센서(533) 중 적어도 하나를 이용하여 감지할 수 있다. 제2 전자 장치(500)는 근접 센서(535) 혹은 그립 센서(537)를 이용하여 제2 전자 장치(500)의 착용 여부를 감지할 수 있다. 한 실시예에 따르면 제2 전자 장치(500)는 사용자가 제2 전자 장치(500)를 착용함에 따른 IR(infrared) 인식, 가압 인식, 캐패시턴스(혹은 유전율)의 변화량 중 적어도 하나를 감지하여 사용자의 착용 여부를 감지할 수 있다. 제스처 센서(536)는 사용자의 손 또는 손가락의 움직임을 감지하여 제2 전자 장치(500)의 입력 동작으로 받을 수 있다. 제2 전자 장치(500)는 제2 전자 장치(500)의 사용자에게 물체가 접근하는 것을 접근 센서(539)를 이용하여 감지할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈(530)은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), 홍채 센서, 지문 센서 등의 생체 인식 센서를 포함하고 생체 인식 센서를 이용하여 사용자의 생체 정보를 인식할 수 있다. 센서 모듈(530)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
입력 모듈(540)은 도 3의 컨트롤 장치(314)일 수 있다. 입력 모듈(540)은 사용자로부터 입력을 받아들일 수 있다. 입력 모듈(540)은 터치 패드(541), 버튼(542)을 포함할 수 있다. 터치 패드(541)는, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 터치 패드(541)는 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 터치 패드(541)는 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 터치 패드(541)는 사용자에게 촉각 반응을 제공할 수 있다. 버튼(542)은, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다.
전력관리 모듈(560)은 제2 전자 장치(500)의 전력을 관리할 수 있다. 도시하지는 않았으나, 전력관리 모듈(560)은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 게이지(battery fuel gauge)를 포함할 수 있다.
상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시예에 따르면, 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 정류기 등의 회로가 추가될 수 있다.
배터리 게이지는, 예를 들면, 배터리(562)의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 배터리(562)는 전기를 저장하여 전원을 공급할 수 있다. 배터리(562)는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
시선 추적 모듈(550)은 예를 들면, EOG(Electircal oculography) 센서, 코일 시스템(coil systems), 듀얼 푸르키네 시스템(dual purkinje systems), 브라이트 눈동자 시스템(bright pupil systems), 다크 눈동자 시스템(dark pupil systems) 중 적어도 하나의 방식을 이용하여 사용자의 시선을 추적할 수 있다. 또한, 시선 추적 모듈(550)은 시선추적을 위한 마이크로 카메라를 더 포함할 수도 있다.
초점 조절 모듈(554)은 사용자가 자신의 시력에 적합한 영상을 감상할 수 있도록 사용자의 양안 사이 거리(inter-pupil distance, IPD)를 측정할 수 있다. 제2 전자 장치(500)는 초점 조절 모듈(554)을 통해 측정된 사용자의 양안 사이 거리에 따라 렌즈의 거리를 조정할 수 있다. 제2 전자 장치(500)는 초점 조절 모듈(554)을 통해 측정된 사용자의 양안 사이 거리를 상기 제1 전자 장치로 전송하여 상기 제1 전자 장치의 디스플레이를 통한 화면의 디스플레이 위치를 조정할 수 있다.
MCU(510)는 센서 모듈(530)의 움직임 센서를 통해 감지된 움직임 신호를 상기 제1 전자 장치로 전송할 수 있다. 움직임 센서는 가속도 센서(531), 자이로 센서(532), 지자계 센서(533) 중 적어도 하나일 수 있다.
MCU(510)는 제2 전자 장치(500)의 사용자에게 물체가 접근하는 것을 접근 센서(539)를 통해 감지하고 접근 감지 신호를 상기 제1 전자 장치로 전송할 수 있다. MCU(510)는 제2 전자 장치(500)의 사용자에게 물체가 접근하는 방향을 접근 센서(539)를 통해 측정하여 상기 제1 전자 장치로 전송할 수 있다.
접근 센서(539)로서, IR(infrared) 센서, 초음파 센서, RF(radio frequency) 센서, 레이더 등과 같은 공간 인식 센서가 사용될 수 있다. RF 센서로서는 와이씨(Wisee) 센서, 올씨(Allsee) 센서 등이 사용될 수 있다. 한 실시예에 있어서, 접근 센서(539)로서 무선 통신 모듈이 이용될 수 있다. 무선 통신 모듈은 WiFi 모듈(522), BT 모듈(523), NFC 모듈(524), GPS 모듈(525) 중 적어도 하나일 수 있다. 제2 전자 장치(500)에 물체가 접근하면 무선 통신 모듈에 수신되는 무선 통신 신호의 수신 전계 강도가 접근하는 물체로 인해 약해질 수 있다. 제2 전자 장치(500)의 사용자가 이동하지 않는 중에 수신 전계 강도가 지정된 임계값보다 큰 차이로 급격히 저하되는 경우 MCU(510)는 물체가 접근하는 것으로 감지할 수 있다. 또한 MCU(510)는 수신 전계 강도가 지정된 임계값보다 큰 차이로 급격히 저하되는 방향을 물체가 접근하는 방향인 것으로 감지할 수 있다.
도 6a 내지 도 6c는 본 발명의 다양한 실시예들에 따른 제1 전자 장치가 상기 사용자로부터 분리된 후 재착용되는 경우에, 상기 분리되는 시점에 디스플레이 되고 있는 화면이 상기 재착용 후에도 상기 제1 전자 장치에 동일하게 디스플레이하는 동작을 설명하기 위한 예시도이다.
도 6a를 참조하면, 제1 전자 장치(610)가 장착된 제2 전자 장치(600)는, 제1 사용자(630)의 신체 일부(예를 들면, 사용자의 머리)에 착용된 상태에서 제1 방향(620)을 향하도록 위치될 수 있다.
상기 제1 전자 장치(610)에는 도 6a에 도시된 바와 같이, 상기 제1 전자 장치(610)의 디스플레이 모듈에는 사용자(예를 들면, 제1 사용자 630)에게 가상 현실을 제공하기 위한 화면이 디스플레이 될 수 있다. 상기 제1 사용자(630)는 다른 사용자(예를 들면, 제2 사용자 632)에게 자신이 보고 있던 화면(예를 들면, 도 6a에 도시된 화면)을 보여주기 위하여 도 6b에 도시된 바와 같이 상기 제2 전자 장치(600)를 분리할 수 있다. 여기에서, 상기 제2 전자 장치(600)가 상기 사용자(630)로부터 분리되는 동작을 상기 제1 전자 장치(610)의 프로세서(예를 들면, 프로세서 110)는, 기준 화면 설정 이벤트가 발생된 것으로 판단할 수 있다. 상기 프로세서는 상기 화면 설정 이벤트에 따라 상기 제 2 전자 장치(600)가 분리되는 때에 디스플레이 되고 있는 화면과 연관된 정보를 저장 모듈(예를 들면, 상기 메모리 130)저장할 수 있다. 본 발명의 다양한 실시 예에 따르면 상기 화면과 연관된 정보는, 상기 제1 사용자(630)로부터 분리된 때에 상기 제1 전자 장치(610)에 디스플레이 되고 있는 화면의 내용(contents)과 연관된 정보, 상기 제1 사용자(630)로부터 분리된 때에 상기 제1 전자 장치(610)에 디스플레이 되고 있는 화면의 좌표와 연관된 정보, 상기 제1 사용자(630)로부터 분리된 때에 상기 제1 전자 장치(610)에 디스플레이 되고 있는 화면의 시야각과 연관된 정보, 상기 제1 사용자(630)로부터 분리된 때에 상기 제1 전자 장치(610)에 디스플레이 되고 있는 화면과 연관된 밝기 정보, 상기 제1 사용자(630)로부터 분리된 때에 상기 제1 전자 장치(610)에 디스플레이 되고 있는 화면과 연관된 크기 정보, 상기 화면이 상기 제1 전자 장치(600)의 디스플레이 모듈(예를 들어, 상기 디스플레이 150)에 디스플레이되는 위치와 연관된 정보, 상기 제1 사용자(630)로부터 분리된 때에 상기 제1 전자 장치(610)에 디스플레이 되고 있는 화면과 연관된 사운드 정보, 제1 사용자(630)로부터 분리된 때를 기준으로 상기 사용자(630)로부터 분리되기 이전에 상기 제1 사용자(630)의 시선에 따라 상기 디스플레이 모듈에 디스플레이 되었던 화면의 내용과 연관된 정보 중 적어도 하나를 포함할 수 있다.
도 6c에 도시된 바와 같이, 상기 제2 전자 장치(600)는 제1 사용자(630)의 신체 일부에서 분리되어, 상기 제1 방향(620)과는 다른 제2 방향(630)을 향하도록 제2 사용자(632)에게 착용될 수 있다. 본 발명의 다양한 실시예에 따르면, 기준 화면에 대한 디스플레이 이벤트는, 상기 제2 사용자(632)의 착용을 포함할 수 있다. 상기 기준 화면은, 상기 저장된 화면에 대한 정보를 기초로 상기 제2 사용자(632)에게 제공되는 화면을 의미할 수 있다. 상기 "분리" 또는 상기 "착용" 은, 상기 제2 전자 장치(600)에 포함되는 다양한 센서들 에 의하여 감지될 수 있다. 본 발명의 다양한 실시예들에 따르면, 상기 센서 모듈이 수행하는 기능/기능들 또는 동작/동작들은 예를 들어 제1 전자 장치(610)에 의하여 실시될 수도 있다. 이 경우, 상기 센서 모듈은 상기 제1 전자 장치(610)에 배치될 수 있다.
본 발명의 다양한 실시 예에 따른 상기 프로세서는, 상기 제1 전자 장치(610)가 상기 제2 전자 장치(600)에 장착된 상태에서, 상기 제2 전자 장치(600)가 상기 제2 사용자(632)에게 착용된 경우, 상기 저장된 화면과 연관된 정보를 기초로 기준 화면을 결정하여 상기 제1 전자 장치의 디스플레이 모듈에 표시하도록 제어할 수 있다.
본 발명의 다양한 실시 예에 따른 상기 프로세서는, 상기 제1 사용자(630)의 신체 일부에 대한 분리가 감지되면, 센서(예를 들면, 상기 자이로 센서 432)에 의하여 좌표의 이동이 발생하지 않도록 제어할 수 있다. 즉, 상기 프로세서는, 상기 제1 사용자(630)의 신체 일부에 대한 분리가 감지된 시점에서 상기 디스플레이 모듈에 디스플레이 되고 있는 화면에 대한 좌표 값을 상기 저장 모듈에 저장하도록 제어할 수 있다.
상기 도 6a 내지 도 6c에 도시된 바와 같은 동작을 통하여, 상기 제1 사용자(630)가 상기 제1 전자 장치(610)를 통하여 보고 있던 화면을 상기 시선 방향의 변화에 따른 화면의 이동 없이 상기 제2 사용자(632)가 확인할 수 있다. 도 6a 내지 도 6c에서는, 상기 제1 사용자(630)와는 다른 제2 사용자(632)가 착용하는 경우를 예를 들어 설명하였지만, 이에 한정되는 것은 아니며, 상기 제1 사용자(630)가 재착용하는 경우도 포함할 수 있다. 이는, 다른 도면들에 관한 설명에 있어서도 동일하게 적용될 수 있다. 또한, 기준 화면에 대한 디스플레이 이벤트는, 예를 들어, 상기 제2 사용자(632)가 상기 제2 전자 장치를 착용하는 동작을 포함할 수 있다.
도 7a 및 도 7b는 본 발명의 다양한 실시예들에 따른 제1 전자 장치가 상기 사용자로부터 분리된 후 재착용되는 경우에, 상기 분리되는 시점에 디스플레이 되고 있는 화면을 기준으로 소정의 범위만큼 이동된 화면이 디스플레이되는 동작을 설명하기 위한 예시도이다.
본 발명의 다양한 실시 예에 따른 도 7a 및 도 7b를 참조하면, 상기 제2 전자 장치(700)가 제2 사용자(732)에게 착용된 때에 디스플레이되는 화면은, 상기 제2 전자 장치(700)가 제2 사용자(732)로부터 분리된 때에 상기 제1 전자 장치(710)에 표시되는 화면을 기준으로 지정된 각도에 따라 시야각이 변경된 화면을 포함할 수 있다. 이를 위하여 상기 제1 전자 장치(710)의 프로세서(예를 들면, 프로세서 120)는, 상기 제1 전자 장치(710)에 디스플레이 되고 있는 화면의 내용(contents)과 연관된 정보, 화면의 시야각과 연관된 정보 및/또는 상기 화면의 좌표와 연관된 정보 등 다양한 정보를 저장 모듈(예를 들면, 메모리(130))에 저장하도록 제어할 수 있다. 상기 프로세서는, 상기 저장 모듈에 저장된 상기 다양한 정보들을 기초로 지정된 각도에 따라 상기 화면의 시야각을 변경하여 기준 화면을 디스플레이 하도록 제어할 수 있다.
도 8a 내지 도 8d는 본 발명의 다양한 실시예들에 따른 제1 전자 장치가 상기 사용자로부터 분리된 후 재착용되는 경우에, 상기 제1 전자 장치가 분리되기 전에 상기 사용자의 시선에 따라 디스플레이 된 화면을 소정의 가이드와 함께 디스플레이하는 동작을 설명하기 위한 예시도이다.
도 8a 내지 도 8d를 참조하면, 상기 제1 전자 장치(810)를 통하여 디스플레이되는 화면은, 제1 사용자(예를 들면, 제1 사용자 630)가 상기 제2 전자 장치(800)를 분리한 때를 기준으로, 상기 제1 사용자의 시선 이동에 따라 상기 제1 전자 장치(810)에 디스플레이 되었던 화면을 포함할 수 있다. 이를 위하여 상기 제1 전자 장치(810)의 프로세서(예를 들면, 프로세서 120)는, 상기 제1 사용자(630)로부터 분리된 때를 기준으로 상기 제1 사용자(예를 들어, 상기 제1 사용자 630)로부터 분리되기 이전에 상기 사용자(630)의 시선에 따라 상기 디스플레이 모듈에 디스플레이 되었던 화면의 내용에 관한 정보를 저장 모듈(예를 들면, 메모리(130))에 저장하도록 제어할 수 있다.
도 8a 내지 도 8d에서는, 예를 들어, 상기 제2 사용자에게 제공되는 기준 화면를 기준으로 소정의 시간(예를 들면, 5초 전)동안 상기 제1 사용자의 시선 이동에 따라 디스플레이 되었던 화면(본 명세서에서는 필요에 따라 "히스토리(history) 화면"이라고 언급하기로 한다)을 디스플레이 할 수 있다. 상기 히스토리 화면은, 분할된 정지 영상, 파노라마 뷰(view) 또는 동영상 타입으로 상기 제1 전자 장치(810)에 디스플레이 될 수 있다. 상기 히스토리 화면과 함께, 상기 제1 전자 장치(810)의 디스플레이 모듈(예를 들면, 디스플레이 130)에는 화면 가이드(814)가 디스플레이 될 수 있다. 상기 화면 가이드(814)는, 화면의 진행(또는 이동)방향을 나타낼 수 있다. 이를 통하여 제2 사용자(832)는 상기 히스토리 화면의 진행(또는 이동)방향을 확인할 수 있다. 다만, 도 8a 내지 도 8c에 도시된 상기 화면 가이드(814)는, 본 발명의 설명을 위한 예시적인 것이다. 상기 화면 가이드(814)는, 도 8a 내지 도 8c에 도시된 바와 같은 시각적 인터페이스(예를 들면, 화면에 디스프레이되는 아이콘)뿐만 아니라, 청각적 인터페이스(예를 들면, 출력 모듈을 통하여 출력되는 사운드) 또는 촉각적 인터페이스(예를 들면, 상기 전자 장치의 진동) 등을 통하여 상기 제2 사용자(832)에게 제공될 수 있다. 상기 화면 가이드(814)는, 도 8d에 도시된 바와 같이, 상기 히스토리 화면이 모두 디스플레이 된 경우에는 표시되지 아니할 수 있다. 또한, 상기 프로세서는, 상기 히스토리 화면의 디스플레이 중에, 상기 제2 사용자(832)의 시선 방향이 소정의 각도 이상으로 이동됨을 감지하면, 상기 히스토리 화면의 디스플레이를 종료하고, 상기 이동된 시선에 따른 화면을 디스플레이 하도록 제어할 수 있다.
도 8a 내지 도 8d에 도시된 실시예들은, 상기 히스토리 화면이 "자동적으로" 진행(또는 이동)되어 디스플레이되는 실시예들을 도시한 것이다. 즉, 상기 디스플레이 모듈의 크기 제약으로 인하여 디스플레이 되지 아니한 상기 히스토리 화면의 다른 부분을 보기 위한 사용자의 화면이동 요청 없이 상기 히스토리 화면이 재생되는 것을 의미할 수 있다.
또한, 도 8a 내지 도 8d에서는, 상기 제1 사용자로부터 상기 제2 전자 장치(800)가 분리된 때를 상기 히스토리 화면의 종료 시점(time point)으로 하여 설명하였으나, 이는 예시적인 것이다. 본 발명의 다양한 실시예들에 따르면, 상기 제1 사용자로부터 상기 제2 전자 장치(800)가 분리된 때 보다 이전 시점이 상기 히스토리 화면의 종료 시점(time point)으로 설정될 수 있다. 상기 히스토리 화면의 시작 시점(time point) 또한 상기 제1 사용자로부터 상기 제2 전자 장치(800)가 분리되기 이전의 다양한 시점들 중에서 임의의 시점이 상기 시작 시점으로 설정될 수 있다.
도 9a 내지 도 9c는 본 발명의 다양한 실시예들에 따른 제1 전자 장치가 상기 사용자로부터 분리된 후 재착용되는 경우에, 상기 제1 전자 장치가 분리되기 전에 상기 사용자의 시선에 따라 디스플레이되는 화면이 제어되는 동작을 설명하기 위한 예시도이다.
도 9a 내지 도 9c를 참조하면, 예를 들어, 상기 히스토리 화면을 보기 위하여 제2 사용자(932)로부터 화면 이동 요청을 수신할 수 있다. 예를 들어, 상기 화면 이동 요청은 제2 전자 장치(900)에 포함되는 입력 모듈(예를 들면, 입력 모듈 440)을 통하여 입력될 수 있다. 또는, 본 발명의 다양한 실시예들에 따라 상기 제1 전자 장치(910)를 통하여 입력될 수 있다. 도 8a 내지 도 8d와 관련되어 설명된 바와 같이, 화면 가이드(914)가 제1 전자 장치(910)에 표시될 수 있다. 상기 화면 이동 요청이 수신되면, 도 9b에 도시된 바와 같이, 프로세서(예를 들면, 프로세서 120)는 상기 화면이 이동되는 방향이 상기 화면 가이드(914)를 통하여 표시하도록 제어할 수 있다. 상기 히스토리 화면의 종료 지점에 도달하면, 도 9c에 도시된 바와 같이, 이동 중인 방향에 대한 화면 가이드(914)를 표시하지 않음으로써, 더 이상 이동이 불가능함을 간접적으로 제2 사용자(932)에게 알려줄 수 있다. 다만, 이는 본 발명의 설명을 위한 예시적인 것으로서, 청각 인터페이스 또는 촉각 인터페이스 등을 통하여 히스토리 화면의 이동이 불가능함을 제2 사용자(932)에게 알려줄 수 있다.
도 10a 및 도 10b는 본 발명의 다양한 실시예들에 따른 제1 전자 장치가 상기 사용자로부터 분리된 후 재착용되는 경우에, 상기 분리되는 시점에 디스플레이 되고 있는 화면을 기준으로 지정된 비율에 따라 화면의 크기가 변경된 화면이 디스플레이되는 동작을 설명하기 위한 예시도이다.
도 10a 및 도 10b를 참조하면, 제1 전자 장치(1000)의 프로세서(예를 들면, 프로세서 1200)는, 지정된 비율에 따라 상기 제1 사용자(예를 들면, 제1 사용자(630)로부터 분리되는 시점에 디스플레이 되고 있는 화면을 축소하거나 확대하여, 상기 축소 또는 확대된 화면을 기준 화면으로서 상기 제1 전자 장치(1010)의 디스플레이 모듈(예를 들면, 디스플레이 150)에 디스플레이 하도록 제어할 수 있다.
도 11a 내지 도 11c는 본 발명의 다양한 실시예들에 따른 제1 전자 장치가 상기 사용자로부터 분리된 후 재착용되는 경우에, 화면의 시점(view point)이 객체의 중심으로 이동되어 디스플레이되는 동작을 설명하기 위한 예시도이다.
도 11a 내지 도 11c를 참조하면, 상기 제1 전자 장치(1110)가 상기 제1 사용자(1130)로부터 분리되는 때에 제1 사용자(1130)의 시선은 특정한 객체의 중심을 향하지 아니하여, 상기 특정한 객체가 도 11a에 도시된 바와 같이 디스플레이 될 수 있다. 기준 화면에 대한 디스플레이 이벤트(예를 들면, 제2 사용자(1132)에 제2 전자 장치(1100)가 착용되는 경우 등)의 발생이 감지되면, 상기 제1 전자 장치(1110)의 프로세서(예를 들면, 프로세서 120)는, 상기 객체의 중심을 기준으로 디스플레이 되도록 제어할 수 있다. 이에 따라, 제2 사용자(1132)는, 상기 특정한 객체의 중심을 기준으로 디스플레이되는 화면을 볼 수 있다.
도 12a 내지 도 12e는 본 발명의 다양한 실시예들에 따른 제1 전자 장치가 상기 사용자에게 착용되는 시점(time point)에 상기 제1 전자 장치에 디스플레이되는 화면을 기초로 상기 기준 화면을 디스플레이하는 동작을 설명하기 위한 예시도이다.
본 발명의 다양한 실시예들에 따르면, 도 12a에 도시된 바와 같이 제1 전자 장치의 프로세서(예를 들면, 프로세서 120)는, 상기 제1 사용자(1230)에 대한 착용이 감지된 후 상기 제1 전자 장치(1210)에 디스플레이되는 초기 화면과 연관된 정보를 저장 모듈(예를 들면, 상기 메모리 140)에 저장하도록 제어할 수 있다. 즉, 상술한 실시예들과는 달리, 상기 화면 설정 이벤트는, 상기 헤드 장착형 전자 장치가 상기 사용자에게 착용되는 동작일 수 있다. 도 12c에 도시된 바와 같이, 상기 프로세서는 제1 사용자(1230)의 시선 방향의 변경에 따라 제1 방향(1240)에 대응하는 화면과는 다른 화면을 디스플레이 할 수 있다. 도 12d를 참조하면, 상기 제1 사용자는 제2 전자 장치(1200)를 분리할 수 있으며, 도 12e에 도시된 바와 같이 제2 사용자(1232)는 상기 제2 전자 장치(1200)를 착용할 수 있다. 상기 프로세서는, 상기 제2 사용자(1232)에 제2 전자 장치(1200)가 착용되면, 상기 착용을 기준 화면에 대한 디스플레이 이벤트가 발생한 것으로 판단할 수 있다. 이에 따라, 상기 프로세서는, 도 12e에 도시된 바와 같이 기준 화면으로서 상기 초기 화면과 동일한 화면을 제1 전자 장치(1210)에 디스플레이 하도록 제어할 수 있다.
상술한 도 12a 내지 도 12e와 관련된 실시예들에 있어서도, 기준 화면을 디스플레이하는 경우에 있어서, 도 6a 내지 도 11c에서 설명된 내용이 동일하게 적용될 수 있다.
도 13a 내지 도 13c는 본 발명의 다양한 실시예들에 따른 제2 전자 장치에 대한 사용자의 입력을 통하여 상기 기준 화면을 결정하기 위한 화면 정보를 저장하는 동작을 설명하기 위한 예시도이다.
도 13a를 참조하면, 제1 전자 장치(1310)의 프로세서(예를 들면, 상기 프로세서 120)는 가상 현실의 제공을 위한 화면을 상기 제1 전자 장치(1310)의 디스플레이 모듈(예를 들어, 디스플레이 150)에 디스플레이 하도록 제어할 수 있다.
도 13b를 참조하면, 상기 화면의 디스플레이 중에 사용자 메뉴(1318) 실행을 위한 사용자의 입력을 수신할 수 있다. 상기 프로세서는, 상기 사용자의 입력을 수신하면 사용자 메뉴(1318)를 디스플레이 하도록 제어할 수 있다. 상기 사용자의 입력은 상기 제1 전자 장치(1310) 또는 상기 제2 전자 장치(1300)를 통하여 입력될 수 있다.
도 13c 및 도 13d를 참조하면, 예를 들어, 도 13c에 도시된 바와 같이 화면 설정 이벤트가 발생되면, 상기 프로세서는 저장 모듈(예를 들면, 메모리 150)에 상기 제1 전자 장치에 디스플레이 되고 있는 화면과 관련되는 정보를 디스플레이 하도록 제어할 수 있다.
상술한 도 13a 내지 도 13c와 관련된 실시예들에 있어서도, 기준 화면을 디스플레이하는 경우에 있어서, 도 6a 내지 도 11c에서 설명된 내용이 동일하게 적용될 수 있다.
도 14a 내지 도 14d는 본 발명의 다양한 실시예들에 따른 제2 전자 장치에 대한 사용자의 입력을 통하여 상기 기준 화면을 디스플레이하는 동작을 설명하기 위한 예시도이다.
도 14a를 참조하면, 상기 제1 전자 장치(1410)에는 상기 제1 사용자(1430)의 시선 방향(1450)에 대응하는 화면이 디스플레이 될 수 있다. 도 14b를 참조하면, 상기 프로세서는, 상기 제1 사용자(1430)로부터 사용자 메뉴(1418)의 디스플레이 요청을 수신하면 상기 사용자 메뉴(1418)를 디스플레이 하도록 제어할 수 있다. 도 14c 에 도시된 바와 같이, 상기 기준 화면 디스플레이 이벤트로서, 제1 사용자(1430)의 입력을 수신하면, 상기 프로세서는 상기 디스플레이 모듈에 기준 화면을 디스플레이 하도록 제어할 수 있다.
상술한 도 14a 내지 도 14d와 관련된 실시예들에 있어서도, 기준 화면을 디스플레이하는 경우에 있어서, 도 6a 내지 도 11c에서 설명된 내용이 동일하게 적용될 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치에 의하면,디스플레이 모듈; 상기 디스플레이 모듈과 기능적으로 연결된 저장 모듈; 및 상기 디스플레이 모듈에 디스플레이되는 화면에 대한 기준 화면 설정 이벤트를 감지하고, 상기 디스플레이 되고 있는 화면과 연관된 정보를 상기 저장 모듈에 저장하도록 제어하는 프로세서를 포함하며, 상기 프로세서는, 기준 화면에 대한 디스플레이 이벤트가 발생되면, 상기 화면과 연관된 정보를 기초로 상기 기준 화면을 상기 디스플레이 모듈에 디스플레이 하도록 제어할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치에 의하면, 상기 전자 장치는 헤드 장착형 전자 장치를 통하여 사용자에게 착용될 수 있다.본 발명의 다양한 실시예들에 따른 전자 장치에 의하면, 상기 기준 화면 설정 이벤트는, 상기 사용자로부터 상기 전자 장치가 분리되는 동작, 상기 전자 장치에 착용되는 동작 또는 상기 전자 장치와 연관된 사용자의 입력 중 적어도 하나를 감지하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치에 의하면, 기준 화면에 대한 디스플레이 이벤트는, 상기 전자 장치에 착용되는 동작 또는 상기 전자 장치와 연관된 사용자의 입력 중 적어도 하나를 감지하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치에 의하면, 상기 전자 장치는, 상기 사용자에 대한 상기 전자 장치의 착용 여부 또는 상기 사용자에 대한 상기 전자 장치의 분리 여부를 감지하기 위한 센서 모듈을 더 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치에 의하면, 상기 헤드 장착형 전자 장치는, 상기 사용자에 대한 상기 헤드 장착형 전자 장치의 착용 여부 또는 상기 사용자에 대한 상기 헤드 장착형 전자 장치의 분리 여부를 감지하기 위한 센서 모듈을 더 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치에 의하면, 상기 기준 화면은, 상기 화면 설정 이벤트가 발생된 시점에 상기 전자 장치에 디스플레이 되고 있는 화면과 동일한 화면을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치에 의하면, 상기 기준 화면은, 상기 화면 설정 이벤트가 발생된 시점에 상기 전자 장치에 디스플레이 되고 있는 화면을 기준으로 지정된 시야각만큼 이동된 화면을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치에 의하면, 상기 기준 화면은, 상기 사용자의 시선에 따라 소정의 시간 동안 상기 전자 장치에 디스플레이 된 화면에 대한 히스토리 화면을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치에 의하면, 상기 프로세서는, 상기 기준 화면과 함께 상기 기준 화면에 대한 속성을 나타내는 사용자 인터페이스를 상기 전자 장치에 디스플레이 하도록 제어할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치에 의하면, 상기 전자 장치는, 상기 히스토리 화면의 속성을 제어하기 위한 입력 모듈을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치에 의하면, 상기 프로세서는, 상기 입력 모듈을 통하여 상기 기준 화면의 속성에 대한 제어 요청이 수신되면, 상기 수신된 요청에 따라 상기 기준 화면을 제어할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치에 의하면, 상기 기준 화면은, 상기 화면 설정 이벤트가 발생된 시점에 상기 전자 장치에 디스플레이 되고 있는 화면을 기준으로 지정된 비율에 따라 확대 또는 축소된 화면을 포함할 수 있다.
도 15는 본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법을 설명하기 위한 순서도이다.
도 15를 참조하면, 전자 장치(예를 들면, 전자 장치 610)는 가상 현실 환경을 제공하는 화면을 상기 전자 장치에 디스플레이 할 수 있다(1500). 상기 전자 장치는, 화면 설정 이벤트가 발생하였는지 여부를 감지할 수 있다(1510). 상기 화면 설정 이벤트가 발생된 경우, 상기 전자 장치는, 상기 전자 장치에 디스플레이 되고 있는 화면과 연관된 정보를 저장할 수 있다(1520). 상기 전자 장치는 기준 화면에 대한 디스플레이 이벤트가 발생하였는지 여부를 감지할 수 있다(1530). 상기 기준 화면에 대한 디스플레이 이벤트가 발생된 경우, 상기 저장된 정보를 기초로 상기 기준 화면을 상기 전자 장치에 디스플레이 할 수 있다(1540).
본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법에 따르면, 상기 전자 장치에 디스플레이되는 화면에 대한 기준 화면 설정 이벤트를 감지하는 동작, 상기 감지된 기준 화면 설정 이벤트에 대응하여 상기 전자 장치에 디스플레이 되고 있는 화면과 연관된 정보 중 적어도 일부를 저장하는 동작, 상기 기준 화면에 대한 디스플레이 이벤트를 감지하는 동작 및 상기 기준 화면에 대한 디스플레이 이벤트에 대응하여 상기 저장된 정보를 기초로 기준 화면을 상기 전자 장치에 디스플레이하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법에 의하면, 상기 전자 장치는, 헤드 장착형 전자 장치를 통하여 사용자에게 착용될 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법에 의하면, 상기 기준 화면 설정 이벤트는, 상기 사용자로부터 상기 전자장치가 분리되는 동작, 상기 전자 장치에 착용되는 동작 또는 상기 전자 장치와 연관된 사용자의 입력 중 적어도 하나를 감지하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법에 의하면, 상기 기준 화면에 대한 디스플레이 이벤트는, 상기 전자 장치에 착용되는 동작 또는 상기 전자 장치와 연관된 사용자의 입력 중 적어도 하나를 감지하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법에 의하면, 상기 전자 장치는, 상기 사용자에 대한 상기 전자 장치의 착용 여부 또는 상기 사용자에 대한 상기 전자 장치의 분리 여부를 감지하기 위한 센서 모듈을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법에 의하면, 상기 헤드 장착형 전자 장치는, 상기 사용자에 대한 상기 헤드 장착형 전자 장치의 착용 여부 또는 상기 사용자에 대한 상기 헤드 장착형 전자 장치의 분리 여부를 감지하기 위한 센서 모듈을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법에 의하면, 상기 기준 화면은, 상기 화면 설정 이벤트가 발생된 시점에 상기 전자 장치에 디스플레이 되고 있는 화면과 동일한 화면을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법에 의하면, 상기 기준 화면은, 상기 화면 설정 이벤트가 발생된 시점에 상기 전자 장치에 디스플레이 되고 있는 화면을 기준으로 지정된 시야각만큼 이동된 화면을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법에 의하면, 상기 기준 화면은, 상기 사용자의 시선에 따라 소정의 시간 동안 상기 전자 장치에 디스플레이 된 화면에 대한 히스토리 화면을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법에 의하면, 상기 기준 화면과 함께 상기 기준 화면에 대한 속성을 나타내는 사용자 인터페이스를 상기 전자 장치에 디스플레이하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법에 의하면, 상기 전자 장치는, 상기 히스토리 화면의 속성을 제어하기 위한 입력 모듈을 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법에 의하면, 상기 입력 모듈을 통하여 상기 기준 화면의 속성에 대한 제어 요청이 수신되면, 상기 수신된 요청에 따라 상기 기준 화면을 제어하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치의 제어 방법에 의하면, 상기 기준 화면은, 상기 화면 설정 이벤트가 발생된 시점에 상기 전자 장치에 디스플레이 되고 있는 화면을 기준으로 지정된 비율에 따라 확대 또는 축소된 화면을 포함할 수 있다.
도 16은 본 발명의 다양한 실시예들에 따른 제1 전자 장치 또는 상기 제1 전자 장치의 제어 방법이 적용될 수 있는 전자 장치의 블록도를 예시적으로 도시한 것이다.
상기 전자 장치(1600)는, 예를 들면, 도 1에 도시된 전자 장치(101)의 전체 또는 일부를 구성할 수 있다. 도 16을 참조하면, 상기 전자 장치 (1600)는 하나 이상의 어플리케이션 프로세서(AP: application processor) (1610), 통신 모듈 (1620), SIM(subscriber identification module) 카드(1624), 메모리(1630), 센서 모듈(1640), 입력 장치(1650), 디스플레이(1660), 인터페이스(1670), 오디오 모듈(1680), 카메라 모듈(1691), 전력관리 모듈(1695), 배터리(1696), 인디케이터(1697) 및 모터(1698)를 포함할 수 있다.
상기 AP(1610)는 운영체제 또는 응용 프로그램을 구동하여 상기 AP(1610)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP (1610)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 상기 AP(1610)는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
상기 통신 모듈(1620, 예: 상기 통신 인터페이스 160)은 상기 전자 장치 (1600, 예: 상기 전자 장치 201)와 네트워크를 통해 연결된 다른 전자 장치들(예: 전자 장치 104 또는 서버 106) 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시예에 따르면, 상기 통신 모듈(1620)은 셀룰러 모듈(1621), Wifi 모듈(1623), BT 모듈(1625), GPS 모듈(1627), NFC 모듈(1628) 및 RF(radio frequency) 모듈(1629)을 포함할 수 있다.
상기 셀룰러 모듈(1621)은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 상기 셀룰러 모듈(1621)은, 예를 들면, 가입자 식별 모듈(예: SIM 카드 (1624))을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 상기 셀룰러 모듈(1621)은 상기 AP(1610)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 상기 셀룰러 모듈 (1621)은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
한 실시예에 따르면, 상기 셀룰러 모듈 (1621)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 상기 셀룰러 모듈 (1621)은, 예를 들면, SoC로 구현될 수 있다. 도 16에서는 상기 셀룰러 모듈 (1621, 예: 커뮤니케이션 프로세서), 상기 메모리 (1630) 또는 상기 전력관리 모듈 (1695) 등의 구성요소들이 상기 AP(1610)와 별개의 구성요소로 도시되어 있으나, 한 실시예에 따르면, 상기 AP(1610)가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈 1621)를 포함하도록 구현될 수 있다.
한 실시예에 따르면, 상기 AP(1610) 또는 상기 셀룰러 모듈 (1621, 예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 상기 AP(1610) 또는 상기 셀룰러 모듈(1621)은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
상기 Wifi 모듈(1623), 상기 BT 모듈(1625), 상기 GPS 모듈(1627) 또는 상기 NFC 모듈(1628) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 16에서는 셀룰러 모듈(1621), Wifi 모듈(1623), BT 모듈(1625), GPS 모듈(1627) 또는 NFC 모듈(1628)이 각각 별개의 블록으로 도시되었으나, 한 실시예에 따르면, 셀룰러 모듈(1621), Wifi 모듈(1623), BT 모듈(1625), GPS 모듈(1627) 또는 NFC 모듈(1628) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈(1621), Wifi 모듈(1623), BT 모듈(1625), GPS 모듈(1627) 또는 NFC 모듈(1628) 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈(1621)에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈(1623)에 대응하는 Wifi 프로세서)는 하나의 SoC로 구현될 수 있다.
상기 RF 모듈(1629)는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 상기 RF 모듈(1629)는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈 (1629)는 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 16에서는 셀룰러 모듈 (1621), Wifi 모듈 (1623), BT 모듈 (1625), GPS 모듈 (1627) 및 NFC 모듈 (1628)이 하나의 RF 모듈 (1629)을 서로 공유하는 것으로 도시되어 있으나, 한 실시예에 따르면, 셀룰러 모듈 (1621), Wifi 모듈 (1623), BT 모듈 (1625), GPS 모듈 (1627) 또는 NFC 모듈 (1628) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
상기 SIM 카드 (1624)는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드 (1624)는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
상기 메모리 (1630, 예: 상기 메모리 130)는 내장 메모리(1632) 또는 외장 메모리(1634)를 포함할 수 있다. 상기 내장 메모리(1632)는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 상기 내장 메모리(1632)는 Solid State Drive (SSD)일 수 있다. 상기 외장 메모리(1634)는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 상기 외장 메모리(1634)는 다양한 인터페이스를 통하여 상기 전자 장치(1600)와 기능적으로 연결될 수 있다. 한 실시예에 따르면, 상기 전자 장치(1600)는 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
상기 센서 모듈 (1640)은 물리량을 계측하거나 전자 장치(1600)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈 (1640)은, 예를 들면, 제스처 센서 (1640A), 자이로 센서 (1640B), 기압 센서 (1640C), 마그네틱 센서 (1640D), 가속도 센서 (1640E), 그립 센서 (1640F), 근접 센서 (1640G), color 센서 (1640H, 예: RGB(red, green, blue) 센서), 생체 센서 (1640I), 온/습도 센서 (1640J), 조도 센서 (1640K) 또는 UV(ultra violet) 센서 (1640M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 센서 모듈 (1640)은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 상기 센서 모듈 (1640)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 입력 장치 (1650)은 터치 패널(touch panel) (1652), (디지털) 펜 센서(pen sensor) (1654), 키(key) (1656) 또는 초음파(ultrasonic) 입력 장치 (1658)를 포함할 수 있다. 상기 터치 패널 (1652)은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 상기 터치 패널 (1652)은 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 상기 터치 패널 (1652)은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 상기 터치 패널 (1652)은 사용자에게 촉각 반응을 제공할 수 있다.
상기 (디지털) 펜 센서 (1654)는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 상기 키 (1656)는, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 상기 초음파(ultrasonic) 입력 장치 (1658)는 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치(1600)에서 마이크(예: 마이크 1688)로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시예에 따르면, 상기 전자 장치(1600)는 상기 통신 모듈(1620)을 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
상기 디스플레이 (1660)(예: 상기 디스플레이 150)은 패널 (1662), 홀로그램 장치 (1664) 또는 프로젝터 (1666)을 포함할 수 있다. 상기 패널 (1662)은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널 (1662)은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널 (1662)은 상기 터치 패널 (1652)과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램 장치 (1664)은 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 상기 프로젝터 (1666)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 상기 스크린은, 예를 들면, 상기 전자 장치 801의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 상기 디스플레이 (1660)은 상기 패널 (1662), 상기 홀로그램 장치 (1664), 또는 프로젝터 (1666)를 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 인터페이스 (1670)는, 예를 들면, HDMI(high-definition multimedia interface, 1672), USB(universal serial bus, 1674), 광 인터페이스(optical interface, 1676) 또는 D-sub(D-subminiature, 1678)를 포함할 수 있다. 상기 인터페이스 (1670)는, 예를 들면, 도 1에 도시된 통신 인터페이스 160에 포함될 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스 (1670)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
상기 오디오 모듈 (1680)은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 모듈 (1680)의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스(140)에 포함될 수 있다. 상기 오디오 모듈 (1680)은, 예를 들면, 스피커 (1682), 리시버 (1684), 이어폰 (1686) 또는 마이크 (1688) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
상기 카메라 모듈(1691)은 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬 (flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
상기 전력 관리 모듈(1695)은 상기 전자 장치 1600의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력 관리 모듈(1695)은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다.
상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
상기 배터리 게이지는, 예를 들면, 상기 배터리(1696)의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리(1696)는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 상기 전자 장치 801에 전원을 공급할 수 있다. 상기 배터리(1696)는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
상기 인디케이터(1697)는 상기 전자 장치(1600) 혹은 그 일부(예: 상기 AP 810)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터(1698)는 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 상기 전자 장치(1600)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 발명의 다양한 실시예들에 따른 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시예들에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시예들에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
본 발명의 다양한 실시예들에 사용된 용어 "모듈"은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명의 다양한 실시예들에 따른 "모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시예들에 따르면, 본 발명의 다양한 실시예들에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서 160)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리(160)가 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 프로세서에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트(sets of instructions) 또는 프로세스 등을 포함할 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 다양한 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 발명의 다양한 실시예들에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시예들에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
다양한 실시예들에 따르면, 명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 상기 전자 장치에 디스플레이되는 화면에 대한 기준 화면 설정 이벤트를 감지하는 동작, 상기 감지된 기준 화면 설정 이벤트에 대응하여 상기 전자 장치에 디스플레이 되고 있는 화면과 연관된 정보 중 적어도 일부를 저장하는 동작, 상기 기준 화면에 대한 디스플레이 이벤트를 감지하는 동작 및 상기 기준 화면에 대한 디스플레이 이벤트에 대응하여 상기 정보를 기초로 기준 화면을 상기 전자 장치에 디스플레이하는 동작을 포함할 수 있다.
그리고 본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 실시예에 따른 의 기술 내용을 쉽게 설명하고 본 발명의 실시예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시예들의 범위는 여기에 개시된 실시예들 이외에도 본 발명의 다양한 실시예들의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시예들의 범위에 포함되는 것으로 해석되어야 한다.
101 : 전자 장치
110 : 프로세서
120 : 메모리
130 : 버스
140 : 입출력 인터페이스
150 : 디스플레이
160 : 통신 인터페이스
170 : VR 관리 모듈

Claims (25)

  1. 전자 장치에 있어서,
    디스플레이 모듈;
    상기 디스플레이 모듈과 기능적으로 연결된 저장 모듈; 및
    상기 디스플레이 모듈에 디스플레이되는 화면에 대한 기준 화면 설정 이벤트를 감지하고, 상기 디스플레이 되고 있는 화면과 연관된 정보를 상기 저장 모듈에 저장하도록 제어하는 프로세서를 포함하며,
    상기 프로세서는, 기준 화면에 대한 디스플레이 이벤트가 발생되면, 상기 화면과 연관된 정보를 기초로 상기 기준 화면을 상기 디스플레이 모듈에 디스플레이 하도록 제어하는, 전자 장치.
  2. 제 1항에 있어서,
    상기 전자 장치는, 헤드 장착형 전자 장치를 통하여 사용자에게 착용되는, 전자 장치.
  3. 제1항에 있어서,
    상기 기준 화면 설정 이벤트는, 상기 사용자로부터 상기 전자 장치가 분리되는 동작, 상기 전자 장치에 착용되는 동작 또는 상기 전자 장치와 연관된 사용자의 입력 중 적어도 하나를 감지하는 동작을 포함하는, 전자 장치.
  4. 제1항에 있어서,
    상기 기준 화면에 대한 디스플레이 이벤트는, 상기 전자 장치에 착용되는 동작 또는 상기 전자 장치와 연관된 사용자의 입력 중 적어도 하나를 감지하는 동작을 포함하는, 전자 장치.
  5. 제1항에 있어서,
    상기 사용자에 대한 상기 전자 장치의 착용 여부 또는 상기 사용자에 대한 상기 전자 장치의 분리 여부를 감지하기 위한 센서 모듈을 더 포함하는, 전자 장치.
  6. 제2항에 있어서,
    상기 헤드 장착형 전자 장치는, 상기 사용자에 대한 상기 헤드 장착형 전자 장치의 착용 여부 또는 상기 사용자에 대한 상기 헤드 장착형 전자 장치의 분리 여부를 감지하기 위한 센서 모듈을 더 포함하는, 전자 장치.
  7. 제1항에 있어서,
    상기 기준 화면은, 상기 화면 설정 이벤트가 발생된 시점에 상기 전자 장치에 디스플레이 되고 있는 화면과 동일한 화면을 포함하는, 전자 장치.
  8. 제1항에 있어서,
    상기 기준 화면은, 상기 화면 설정 이벤트가 발생된 시점에 상기 전자 장치에 디스플레이 되고 있는 화면을 기준으로 지정된 시야각만큼 이동된 화면을 포함하는, 전자 장치.
  9. 제1항에 있어서,
    상기 기준 화면은, 상기 사용자의 시선에 따라 소정의 시간 동안 상기 전자 장치에 디스플레이 된 화면에 대한 히스토리 화면을 포함하는, 전자 장치.
  10. 제9항에 있어서,
    상기 프로세서는, 상기 기준 화면과 함께 상기 기준 화면에 대한 속성을 나타내는 사용자 인터페이스를 상기 전자 장치에 디스플레이 하도록 제어하는, 전자 장치.
  11. 제9항에 있어서,
    상기 전자 장치는, 상기 히스토리 화면의 속성을 제어하기 위한 입력 모듈을 포함하고,
    상기 프로세서는, 상기 입력 모듈을 통하여 상기 기준 화면의 속성에 대한 제어 요청이 수신되면, 상기 수신된 요청에 따라 상기 기준 화면을 제어하는, 전자 장치.
  12. 제1항에 있어서,
    상기 기준 화면은, 상기 화면 설정 이벤트가 발생된 시점에 상기 전자 장치에 디스플레이 되고 있는 화면을 기준으로 지정된 비율에 따라 확대 또는 축소된 화면을 포함하는, 전자 장치.
  13. 전자 장치의 제어 방법에 있어서,
    상기 전자 장치에 디스플레이되는 화면에 대한 기준 화면 설정 이벤트를 감지하는 동작;
    상기 감지된 기준 화면 설정 이벤트에 대응하여 상기 전자 장치에 디스플레이 되고 있는 화면과 연관된 정보 중 적어도 일부를 저장하는 동작;
    상기 기준 화면에 대한 디스플레이 이벤트를 감지하는 동작; 및
    상기 기준 화면에 대한 디스플레이 이벤트에 대응하여 상기 저장된 정보를 기초로 기준 화면을 상기 전자 장치에 디스플레이하는 동작을 포함하는 전자 장치의 제어 방법.
  14. 제13항에 있어서,
    상기 전자 장치는, 헤드 장착형 전자 장치를 통하여 사용자에게 착용되는, 전자 장치의 제어 방법
  15. 제13항에 있어서,
    상기 기준 화면 설정 이벤트는, 상기 사용자로부터 상기 전자장치가 분리되는 동작, 상기 전자 장치에 착용되는 동작 또는 상기 전자 장치와 연관된 사용자의 입력 중 적어도 하나를 감지하는 동작을 포함하는, 전자 장치의 제어 방법.
  16. 제13항에 있어서,
    상기 기준 화면에 대한 디스플레이 이벤트는, 상기 전자 장치에 착용되는 동작 또는 상기 전자 장치와 연관된 사용자의 입력 중 적어도 하나를 감지하는 동작을 포함하는, 전자 장치의 제어 방법.
  17. 제13항에 있어서,
    상기 전자 장치는, 상기 사용자에 대한 상기 전자 장치의 착용 여부 또는 상기 사용자에 대한 상기 전자 장치의 분리 여부를 감지하기 위한 센서 모듈을 더 포함하는, 전자 장치의 제어 방법.
  18. 제14항에 있어서,
    상기 헤드 장착형 전자 장치는, 상기 사용자에 대한 상기 헤드 장착형 전자 장치의 착용 여부 또는 상기 사용자에 대한 상기 헤드 장착형 전자 장치의 분리 여부를 감지하기 위한 센서 모듈을 더 포함하는, 전자 장치의 제어 방법.
  19. 제13항에 있어서,
    상기 기준 화면은, 상기 화면 설정 이벤트가 발생된 시점에 상기 전자 장치에 디스플레이 되고 있는 화면과 동일한 화면을 포함하는, 전자 장치의 제어 방법.
  20. 제13항에 있어서,
    상기 기준 화면은, 상기 화면 설정 이벤트가 발생된 시점에 상기 전자 장치에 디스플레이 되고 있는 화면을 기준으로 지정된 시야각만큼 이동된 화면을 포함하는, 전자 장치의 제어 방법.
  21. 제13항에 있어서,
    상기 기준 화면은, 상기 사용자의 시선에 따라 소정의 시간 동안 상기 전자 장치에 디스플레이 된 화면에 대한 히스토리 화면을 포함하는, 전자 장치의 제어 방법.
  22. 제21항에 있어서,
    상기 기준 화면과 함께 상기 기준 화면에 대한 속성을 나타내는 사용자 인터페이스를 상기 전자 장치에 디스플레이하는 동작을 더 포함하는, 전자 장치의 제어 방법.
  23. 제21항에 있어서,
    상기 전자 장치는, 상기 히스토리 화면의 속성을 제어하기 위한 입력 모듈을 포함하고,
    상기 입력 모듈을 통하여 상기 기준 화면의 속성에 대한 제어 요청이 수신되면, 상기 수신된 요청에 따라 상기 기준 화면을 제어하는 동작을 더 포함하는, 전자 장치의 제어 방법.
  24. 제13항에 있어서,
    상기 기준 화면은, 상기 화면 설정 이벤트가 발생된 시점에 상기 전자 장치에 디스플레이 되고 있는 화면을 기준으로 지정된 비율에 따라 확대 또는 축소된 화면을 포함하는, 전자 장치의 제어 방법.
  25. 프로세서에 의하여 적어도 하나의 동작을 수행하도록 설정된 명령들(instructions)이 저장된 컴퓨터 판독 가능한(computer readable) 기록 매체에 있어서,
    상기 적어도 하나의 동작은,
    상기 전자 장치에 디스플레이되는 화면에 대한 기준 화면 설정 이벤트를 감지하는 동작;
    상기 감지된 기준 화면 설정 이벤트에 대응하여 상기 전자 장치에 디스플레이 되고 있는 화면과 연관된 정보 중 적어도 일부를 저장하는 동작;
    상기 기준 화면에 대한 디스플레이 이벤트를 감지하는 동작; 및
    상기 기준 화면에 대한 디스플레이 이벤트에 대응하여 상기 정보를 기초로 기준 화면을 상기 전자 장치에 디스플레이하는 동작을 포함하는, 컴퓨터 판독 가능한 기록 매체.
KR1020140115421A 2014-09-01 2014-09-01 전자 장치, 그 제어 방법 및 기록 매체 KR102271833B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020140115421A KR102271833B1 (ko) 2014-09-01 2014-09-01 전자 장치, 그 제어 방법 및 기록 매체
US14/837,476 US10114514B2 (en) 2014-09-01 2015-08-27 Electronic device, method for controlling the electronic device, and recording medium
PCT/KR2015/009099 WO2016036074A1 (en) 2014-09-01 2015-08-28 Electronic device, method for controlling the electronic device, and recording medium
CN201580046936.0A CN106716225B (zh) 2014-09-01 2015-08-28 电子设备、用于控制该电子设备的方法、和记录介质
EP15183338.1A EP2990852B1 (en) 2014-09-01 2015-09-01 Head-mounted display hosting a smartphone for providing virtual reality environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140115421A KR102271833B1 (ko) 2014-09-01 2014-09-01 전자 장치, 그 제어 방법 및 기록 매체

Publications (2)

Publication Number Publication Date
KR20160026467A true KR20160026467A (ko) 2016-03-09
KR102271833B1 KR102271833B1 (ko) 2021-07-01

Family

ID=54145556

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140115421A KR102271833B1 (ko) 2014-09-01 2014-09-01 전자 장치, 그 제어 방법 및 기록 매체

Country Status (5)

Country Link
US (1) US10114514B2 (ko)
EP (1) EP2990852B1 (ko)
KR (1) KR102271833B1 (ko)
CN (1) CN106716225B (ko)
WO (1) WO2016036074A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200005593A (ko) * 2017-07-17 2020-01-15 구글 엘엘씨 미디어 컨텐츠 미리보기들을 제시하기 위한 방법들, 시스템들 및 매체들

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9420075B2 (en) 2014-07-16 2016-08-16 DODOcase, Inc. Virtual reality viewer and input mechanism
US9942222B1 (en) * 2014-09-02 2018-04-10 Amazon Technologies, Inc. Authentication with wearable device
JP2017183828A (ja) * 2016-03-28 2017-10-05 京セラ株式会社 ヘッドマウントディスプレイ
CN107436490B (zh) * 2016-05-25 2020-11-20 中兴通讯股份有限公司 调节方法、装置及虚拟现实眼镜
US10095311B2 (en) * 2016-06-15 2018-10-09 Immersion Corporation Systems and methods for providing haptic feedback via a case
CN106200947B (zh) * 2016-06-30 2020-05-26 联想(北京)有限公司 一种电子设备以及虚拟环境图像展示方法
CN106019597A (zh) * 2016-07-27 2016-10-12 北京小米移动软件有限公司 虚拟现实眼镜
JP2018037034A (ja) * 2016-09-02 2018-03-08 株式会社タカラトミー 情報処理システム
WO2018142418A1 (en) * 2017-02-02 2018-08-09 Kshitij Marwah An apparatus, method, and system for augmented and mixed reality viewing
CN106873165A (zh) * 2017-04-10 2017-06-20 北京小米移动软件有限公司 虚拟现实眼镜
KR102355149B1 (ko) * 2017-04-25 2022-01-25 삼성전자주식회사 분리형 입력 장치를 포함하는 전자 장치
US10747386B2 (en) 2017-06-01 2020-08-18 Samsung Electronics Co., Ltd. Systems and methods for window control in virtual reality environment
JP2019021996A (ja) * 2017-07-12 2019-02-07 パナソニックIpマネジメント株式会社 ウェアラブルカメラ、ウェアラブルカメラシステム及び情報記録方法
KR102518400B1 (ko) * 2017-11-22 2023-04-06 삼성전자주식회사 진동을 제공하는 방법 및 이를 지원하는 전자 장치
CN109029768B (zh) * 2018-07-27 2021-02-19 Oppo广东移动通信有限公司 电子设备的温度提醒方法、装置、存储介质和电子设备
CN113013506B (zh) * 2019-12-19 2022-07-12 海信视像科技股份有限公司 头戴式显示设备充电方法、装置及设备
CN113360120B (zh) * 2021-07-02 2023-04-07 亿咖通(湖北)技术有限公司 屏幕驱动方法和设备、电子设备、计算机可读存储介质和计算机程序产品
CN115616789A (zh) * 2022-12-20 2023-01-17 丹阳市精通眼镜技术创新服务中心有限公司 一种可自动调节的智能眼镜

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060115130A1 (en) * 2004-11-29 2006-06-01 Douglas Kozlay Eyewear with biometrics to protect displayed data
US20140015736A1 (en) * 2012-07-16 2014-01-16 Lg Electronics Inc. Head mounted display and method of outputting a content using the same in which the same identical content is displayed

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5511185A (en) 1990-11-27 1996-04-23 Mercury Interactive Corporation System for automatic testing of computer software having output synchronization and capable of responding to asynchronous events
JP2945842B2 (ja) 1994-04-13 1999-09-06 株式会社東芝 データ記録方法、データ再生装置及びデータ再生方法
US5577961A (en) * 1994-06-28 1996-11-26 The Walt Disney Company Method and system for restraining a leader object in a virtual reality presentation
TW275590B (en) 1994-12-09 1996-05-11 Sega Enterprises Kk Head mounted display and system for use therefor
JP3988632B2 (ja) * 2002-11-28 2007-10-10 日本電気株式会社 眼鏡型ディスプレイの制御方法
JP4908802B2 (ja) 2004-08-19 2012-04-04 富士通フロンテック株式会社 プログラム
JP3790996B1 (ja) 2005-03-09 2006-06-28 株式会社エヌ・ティ・ティ・データ 暗証コード入力装置及びプログラム
US20080030429A1 (en) 2006-08-07 2008-02-07 International Business Machines Corporation System and method of enhanced virtual reality
JP5262271B2 (ja) 2008-04-24 2013-08-14 株式会社日立製作所 保健指導支援システム及びプログラム
US8957835B2 (en) * 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display
US20100315329A1 (en) 2009-06-12 2010-12-16 Southwest Research Institute Wearable workspace
JP2012120067A (ja) * 2010-12-03 2012-06-21 Brother Ind Ltd シースルー型画像表示装置およびシースルー型画像表示方法
US8184067B1 (en) 2011-07-20 2012-05-22 Google Inc. Nose bridge sensor
JPWO2013054728A1 (ja) 2011-10-11 2015-03-30 ソニー株式会社 ヘッド・マウント・ディスプレイ及び表示制御方法
US8235529B1 (en) * 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
US9389420B2 (en) 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
CN103713387A (zh) 2012-09-29 2014-04-09 联想(北京)有限公司 电子设备和采集方法
KR20140061620A (ko) 2012-11-13 2014-05-22 삼성전자주식회사 증강 현실을 활용한 소셜 네트워크 서비스 제공 시스템 및 방법과, 디바이스
KR101991133B1 (ko) 2012-11-20 2019-06-19 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운트 디스플레이 및 그 제어 방법
US9030495B2 (en) * 2012-11-21 2015-05-12 Microsoft Technology Licensing, Llc Augmented reality help
US9851787B2 (en) * 2012-11-29 2017-12-26 Microsoft Technology Licensing, Llc Display resource management
KR102019124B1 (ko) 2013-01-04 2019-09-06 엘지전자 주식회사 헤드 마운트 디스플레이 및 그 제어 방법
US20140215495A1 (en) 2013-01-25 2014-07-31 Matt Erich Task-specific application monitoring and analysis
US9880615B2 (en) * 2013-02-15 2018-01-30 Seiko Epson Corporation Information processing device and control method for information processing device
KR101878144B1 (ko) 2013-11-06 2018-07-13 엘지전자 주식회사 헤드 마운트 디스플레이를 위한 사용자 인터페이스 제공 장치 및 방법
US9551873B2 (en) 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060115130A1 (en) * 2004-11-29 2006-06-01 Douglas Kozlay Eyewear with biometrics to protect displayed data
US20140015736A1 (en) * 2012-07-16 2014-01-16 Lg Electronics Inc. Head mounted display and method of outputting a content using the same in which the same identical content is displayed

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200005593A (ko) * 2017-07-17 2020-01-15 구글 엘엘씨 미디어 컨텐츠 미리보기들을 제시하기 위한 방법들, 시스템들 및 매체들
US11474661B2 (en) 2017-07-17 2022-10-18 Google Llc Methods, systems, and media for presenting media content previews

Also Published As

Publication number Publication date
WO2016036074A1 (en) 2016-03-10
EP2990852B1 (en) 2020-08-26
US20160062514A1 (en) 2016-03-03
EP2990852A1 (en) 2016-03-02
US10114514B2 (en) 2018-10-30
CN106716225A (zh) 2017-05-24
KR102271833B1 (ko) 2021-07-01
CN106716225B (zh) 2020-11-06

Similar Documents

Publication Publication Date Title
KR102271833B1 (ko) 전자 장치, 그 제어 방법 및 기록 매체
KR102219464B1 (ko) 보안 운용 방법 및 이를 지원하는 전자 장치
US9946393B2 (en) Method of controlling display of electronic device and electronic device
US9965096B2 (en) Method and apparatus for processing input using touch screen
KR102180677B1 (ko) 전자 장치의 배터리 관리 방법 및 이를 수행하는 전자 장치
KR20150127989A (ko) 사용자 인터페이스 제공 방법 및 장치
KR102112353B1 (ko) 안테나 방사 전력 제어 방법 및 이를 지원하는 전자 장치
KR20150125472A (ko) 음성 명령 제공 방법 및 장치
US10127884B2 (en) Method and electronic device for displaying content
KR20160061105A (ko) 전력 소모를 줄이기 위한 전력 제어 방법 및 장치
KR20160011915A (ko) 화면 제어 방법 및 이를 사용하는 전자 장치
KR20150099216A (ko) 저전력 구동 방법과 이를 수행하는 전자 장치
KR20150142282A (ko) 기능 제어 방법 및 그 전자 장치
KR20150098827A (ko) 전자 장치 및 전자 장치의 절전 방법
KR20150106719A (ko) 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치
KR20160059342A (ko) 지문 센서를 구동하는 방법 및 전자 장치
KR20160030732A (ko) 보호 커버의 개폐 상태를 판단하기 위한 방법 및 그 전자 장치
KR20150136864A (ko) 이미지 처리 방법 및 장치
KR20150135911A (ko) Ui 효과 디스플레이 방법 및 전자 장치
KR20180059191A (ko) 전자 장치, 외부 전자 장치 및 전자 장치와 외부 전자 장치를 연결하기 위한 방법
KR20160100674A (ko) 전자 장치의 플립 커버 인식 방법, 전자 장치, 및 플립 커버
KR20150132963A (ko) 디스플레이를 이용한 입력 처리 방법 및 장치
KR20160020102A (ko) 드래그 앤 드롭 처리 방법 및 장치
KR20160135476A (ko) 전자 장치 및 그의 카메라 제어 방법
KR20160031196A (ko) 전자 장치의 디스플레이 제어 방법 및 그 전자 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right