KR20160055026A - 오브젝트를 표시하는 방향 기반 전자 장치 및 방법 - Google Patents

오브젝트를 표시하는 방향 기반 전자 장치 및 방법 Download PDF

Info

Publication number
KR20160055026A
KR20160055026A KR1020140154802A KR20140154802A KR20160055026A KR 20160055026 A KR20160055026 A KR 20160055026A KR 1020140154802 A KR1020140154802 A KR 1020140154802A KR 20140154802 A KR20140154802 A KR 20140154802A KR 20160055026 A KR20160055026 A KR 20160055026A
Authority
KR
South Korea
Prior art keywords
display
electronic device
area
displayed
processor
Prior art date
Application number
KR1020140154802A
Other languages
English (en)
Other versions
KR102309281B1 (ko
Inventor
한우정
홍승환
김소라
윤서영
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020140154802A priority Critical patent/KR102309281B1/ko
Priority to CN201580066541.7A priority patent/CN107003522B/zh
Priority to PCT/KR2015/011894 priority patent/WO2016072785A1/en
Priority to US14/934,819 priority patent/US10642041B2/en
Priority to EP15856240.5A priority patent/EP3215912B1/en
Publication of KR20160055026A publication Critical patent/KR20160055026A/ko
Application granted granted Critical
Publication of KR102309281B1 publication Critical patent/KR102309281B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 다양한 실시 예들은 전자 장치에 관한 것으로, 적어도 하나의 오브젝트를 포함하는 실행 화면 영역을 구현하는 프로세서; 및 상기 구현된 실행 화면 영역의 적어도 일부를 상기 전자 장치의 디스플레이에 표시하는 디스플레이 모듈;을 포함하고, 상기 프로세서는 상기 전자 장치가 향하는 방향 및 상기 적어도 하나의 오브젝트의 속성에 기초하여, 상기 적어도 하나의 오브젝트의 위치를 결정하는 것을 특징으로 할 수 있다. 이 외에도, 명세서를 통해 파악될 수 있는 다른 실시 예들이 가능하다.

Description

오브젝트를 표시하는 방향 기반 전자 장치 및 방법{Direction Based Device for Displaying Object and Method Thereof}
본 발명의 다양한 실시 예는, 오브젝트를 표시하는 방향 기반 전자 장치 및 방법에 관한 것이다.
정보 통신 기술의 발전으로 기지국 등의 네트워크 장치가 전국 각지에 설치되었고, 전자 장치는 다른 전자 장치와 네트워크를 통해 데이터를 송수신함으로써, 사용자로 하여금 전국 어디에서나 자유롭게 네트워크를 사용할 수 있게 하였다.
다양한 종류의 전자 장치는 최근 디지털 컨버전스(convergence)의 추세에 따라 다양한 기능을 제공하게 되었다. 예를 들어, 스마트폰은 전화를 하는 용도 이외에, 상기 네트워크를 이용하여 인터넷 접속 기능을 지원하고, 음악 또는 비디오의 재생 기능, 이미지 센서를 이용한 사진, 동영상 등의 촬영 기능을 지원한다.
일반적으로, 전자 장치는 사용자에 의해 파지된 채로 사용됨에 반해, 최근 사용자가 착용한 채로 사용 가능한 웨어러블(wearable) 디바이스가 등장하였다.
본 발명의 다양한 실시 예는, 전자 장치가 향하는 방향에 적어도 일부 기초하여, 오브젝트의 위치를 결정하는 상기 전자 장치 및 방법을 제공하고자 한다. 다만, 본 발명의 다양한 실시 예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 다양한 실시 예에 따른 전자 장치는 적어도 하나의 오브젝트를 포함하는 실행 화면 영역을 구현하는 프로세서; 및 상기 구현된 실행 화면 영역의 적어도 일부를 상기 전자 장치의 디스플레이에 표시하는 디스플레이 모듈;을 포함하고, 상기 프로세서는 상기 전자 장치가 향하는 방향 및 상기 적어도 하나의 오브젝트의 속성에 기초하여, 상기 적어도 하나의 오브젝트의 위치를 결정하는 것을 특징으로 할 수 있다.
또한, 상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 다양한 실시 예에 따른 전자 장치에서 수행되는 방법은 적어도 하나의 오브젝트를 포함하는 실행 화면 영역을 구현하는 동작; 상기 구현된 실행 화면 영역의 적어도 일부를 상기 전자 장치의 디스플레이에 표시하는 동작; 및 상기 전자 장치가 향하는 방향 및 상기 적어도 하나의 오브젝트의 속성에 기초하여, 상기 적어도 하나의 오브젝트의 위치를 결정하는 동작을 포함하는 것을 특징으로 할 수 있다.
전술한 본 발명의 과제 해결 수단 중 적어도 어느 하나에 의하면, 본 발명의 다양한 실시 예에 따른 상기 전자 장치 및 방법은, 전자 장치가 향하는 방향에 적어도 일부 기초하여, 사용자가 바라보는 방향에 오브젝트가 없는 경우라도, 쉽게 찾을 수 있도록 상기 오브젝트의 위치를 결정할 수 있다.
나아가, 본 발명의 다양한 실시 예에 따른 상기 전자 장치 및 방법은, 복수의 오브젝트를 상기 전자 장치의 디스플레이에 표시되는 영역 내에서 정렬시킴으로써, 사용자가 쉽게 원하는 오브젝트를 찾을 수 있도록 할 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른, 외부 장치, 전자 장치, 및 전자 장치의 블록도를 나타낸 도면이다.
도 2는 본 발명의 다양한 실시 예에 따른, 전자 장치의 디스플레이에 표시된 화면, 및 사용자에게 보이는 디스플레이 영역을 나타낸 도면이다.
도 3은 본 발명의 다른 다양한 실시 예에 따른, 전자 장치의 블록도를 나타낸 도면이다.
도 4a는 본 발명의 다양한 실시 예에 따른, 전자 장치의 디스플레이를 통해 표시되는 영역 및 표시될 수 있는 영역을 나타낸 도면이다.
도 4b는 본 발명의 다양한 실시 예에 따른, 도 4a에 도시된 상기 표시될 수 있는 영역을 펼쳐놓은 모습을 나타낸 도면이다.
도 5a 및 도 5b는 본 발명의 다양한 실시 예에 따른, 전자 장치가 향하는 방향 변화에 기초하여 오브젝트의 위치를 결정하는 동작을 나타내는 도면이다.
도 6은 본 발명의 다양한 실시 예에 따른, 전자 장치의 디스플레이를 통해 표시될 수 있는 영역에 있어서, 새로 생성된 오브젝트가 표시되는 기준선을 나타낸 도면이다.
도 7은 본 발명의 다양한 실시 예에 따른, 전자 장치의 디스플레이에 표시되지 않은 오브젝트의 적어도 일부가 상기 디스플레이에 표시되는 동작을 나타낸 도면이다.
도 8은 본 발명의 다양한 실시 예에 따른, 상기 전자 장치가 향하는 방향 변화에 기초하여 오브젝트의 위치를 나타낸 도면이다.
도 9는 본 발명의 다른 다양한 실시 예에 따른, 상기 전자 장치가 향하는 방향 변화에 기초하여 오브젝트의 위치를 나타낸 도면이다.
도 10은 본 발명의 다른 다양한 실시 예에 따른, 상기 전자 장치가 향하는 방향 변화에 기초하여 오브젝트의 위치를 나타낸 도면이다.
도 11은 본 발명의 다양한 실시 예에 따른, 전자 장치의 디스플레이에 표시된 오브젝트 및 포인터(pointer)를 나타낸 도면이다.
도 12는 본 발명의 다양한 실시 예에 따른, 복수의 오브젝트가 전자 장치의 디스플레이에 정렬되어 표시된 모습을 나타낸 도면이다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", "A 및 B 중 적어도 하나", 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
다양한 실시 예에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)"것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성(또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의된 용어들은 관련 기술의 문맥 상 가지는 의미와 동일 또는 유사한 의미를 가지는 것으로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 발명의 실시 예들을 배제하도록 해석될 수 없다.
본 발명의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC (desktop PC), 랩탑 PC(laptop PC), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라, 또는 웨어러블 장치(wearable device)(예: 스마트 안경, 머리 착용형 장치(head-mounted-device(HMD)), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 스마트 미러, 또는 스마트 와치(smart watch))중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에서, 전자 장치는 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들면, 텔레비전, DVD 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(예: Xbox™, PlayStation™), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시 예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 발명의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
이하, 첨부 도면을 참조하여, 다양한 실시 예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치 (예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른, 외부 장치 10, 전자 장치 100 및 전자 장치 100의 블록도를 나타낸 도면이다. 도 1에 도시된 바와 같이, 전자 장치 100은 외부 장치 10에 결합되어 일체로서 이용될 수 있다. 다만, 상기 '결합'의 의미는 물리적인 결합만을 의미하는 것은 아닐 수 있다. 예를 들어, 전자 장치 100은 무선 통신을 이용하여 외부 장치 10과 연결될 수 있고, 이를 통해 물리적인 결합 없이, 외부 장치 10와 함께 이용될 수 있다.
도 1을 참조하면, 전자 장치 100은 프로세서 110, 디스플레이 모듈 120, 유저 입력 수신 모듈 130, 및 메모리 140을 포함할 수 있다.
프로세서 110은, 중앙처리장치(CPU), AP(application processor), 또는 CP(communication processor) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서 110은, 예를 들면, 전자 장치 100의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
본 발명의 다양한 실시 예에 따르면, 프로세서 110은 적어도 하나의 오브젝트를 포함하는 실행 화면 영역을 구현할 수 있다. 또한, 프로세서 110은 상기 실행 화면 영역의 적어도 일부를 디스플레이 영역으로 결정할 수 있다. 상기 디스플레이 영역은 상기 실행 화면 영역 중 사용자에게 보이게 하려는 영역을 나타내는 것일 수 있다. 프로세서 110은 외부 장치 10의 디스플레이 15를 통해, 사용자에게 상기 결정된 디스플레이 영역이 보일 수 있도록, 상기 디스플레이 영역에 대응하는 화면을 생성할 수 있다. 프로세서 110은 상기 디스플레이 영역에 대응하는 화면을, 디스플레이 모듈 120을 통해, 디스플레이 105에 표시시킬 수 있다.
상기 구현된 실행 화면 영역은 적어도 하나의 오브젝트를 포함할 수 있다. 상기 오브젝트는, 예를 들어, 이미지 컨텐츠, 동영상 컨텐츠, 어플리케이션 실행 화면, 및 어플리케이션에서 발생한 이벤트를 알리는 알림(notification) 등 중 적어도 하나를 포함하는 것일 수 있다.
프로세서 110은 전자 장치 100이 향하는 방향 및 상기 적어도 하나의 오브젝트의 속성에 기초하여, 상기 적어도 하나의 오브젝트의 위치를 결정할 수 있다. 상기 오브젝트의 속성은, 예를 들어, 상기 언급한 오브젝트의 종류(이미지, 동영상, 어플리케이션 실행 화면, 알림 등), 오브젝트의 크기, 개수, 크기 및 배열 방법 중 적어도 하나를 포함하는 것일 수 있다.
본 발명의 다양한 실시 예에 따르면, 유저 입력 수신 모듈 130은 사용자로부터 입력되는 동작을 감지할 수 있다. 예를 들어, 유저 입력 수신 모듈 130은 전자 장치 100이 향하는 방향 또는 상기 향하는 방향의 변화를 유저 입력으로 수신할 수 있다.
유저 입력 수신 모듈 130은 전자 장치 100에 포함된 적어도 하나 이상의 센서(미도시)를 통해 전자 장치 100이 향하는 방향 또는 상기 향하는 방향의 변화를 감지할 수 있다. 상기 센서는, 예를 들어, 자이로 센서, 마그네틱 센서, 및 가속도 센서 중 적어도 하나 이상을 포함할 수 있다.
프로세서 110은 유저 입력 수신 모듈 130에서 수신한 유저 입력, 예를 들어, 전자 장치 100이 향하는 방향의 변화를 이용하여, 상기 실행 화면 영역 중 상기 디스플레이 영역을 변화시킬 수 있다.
본 발명의 다양한 실시 예에 따르면, 메모리 140은 데이터를 저장할 수 있다. 이 때, 메모리 140에 저장되는 전자 장치 100 내부의 각 구성요소들 간에 입력 및 출력되는 데이터를 포함하고, 전자 장치 100과 전자 장치 100 외부의 구성요소들간에 입력 및 출력되는 데이터를 포함한다. 예를 들어, 메모리 140은 프로세서 110에서 구현한 실행 화면 영역을 전자 장치 100이 향하는 방향에 대응시켜 저장할 수 있다. 따라서, 프로세서 110은 메모리 140에 저장된 바에 기초하여, 전자 장치 100이 향하는 방향에 적합한 디스플레이 영역을 결정할 수 있다.
이러한 메모리 140의 일 예에는 전자 장치 100의 내부 또는 외부에 존재하는 HDD(hard disk drive), SSD(solid state drive), ROM(Read Only Memory), RAM(Random Access Memory), 플래쉬메모리 및 메모리카드 등이 포함될 수 있다.
앞서 설명한 바에 따르면, 프로세서 110은 실행 화면 영역을 미리 구현하고, 그 안에서 디스플레이 영역을 결정하는 것처럼 보일 수 있다. 다만, 본 발명의 다른 다양한 실시 예에 따르면, 프로세서 110은 유저 입력 수신 모듈 130에서 수신된 유저 입력, 예를 들어, 전자 장치 100이 향하는 방향의 변화에 기초하여, 실시간으로 필요한 만큼의 실행 화면 영역을 구현할 수 있다.
당업자라면, 프로세서 110, 디스플레이 모듈 120, 유저 입력 수신 모듈 130, 및 메모리 140 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다.
도 2는 본 발명의 다양한 실시 예에 따른, 전자 장치 100의 디스플레이 105에 표시된 화면, 및 사용자에게 보이는 디스플레이 영역 210을 나타낸 도면이다.
도 2의 상단에 도시된 도면을 참조하면, 전자 장치 100의 디스플레이 105에는 외부 장치 10의 디스플레이 15를 통해 표시될 수 있는 화면이 표시되어있을 수 있다. 외부 장치 10는 사용자의 왼쪽 눈과 오른쪽 눈으로 볼 수 있는 각각의 디스플레이 15를 포함할 수 있고, 사용자는 상기 각각의 디스플레이 15를 통해 전자 장치 100의 디스플레이 105를 볼 수 있다.
전자 장치 100은 사용자에게 입체감을 주기 위하여, 외부 장치 10의 왼쪽 디스플레이와 오른쪽 디스플레이 각각에 대응하여 양안차를 고려한 화면을 표시할 수 있다.
도 2의 하단에 도시된 도면은, 외부 장치 10의 디스플레이를 통해 사용자가 볼 수 있는 적어도 일부의 실행 화면 영역 200 및 상기 사용자에게 보이는 디스플레이 영역 210을 나타낼 수 있다.
도 3은 본 발명의 다른 다양한 실시 예에 따른, 전자 장치 300의 블록도를 나타낸 도면이다. 도 1을 참조하면, 외부 장치 10 및 전자 장치 100는 서로 결합됨으로써 본 발명의 다양한 실시 예를 수행하였다. 반면에, 도 3의 전자 장치 300은 프로세서 310, 디스플레이 모듈 320, 유저 입력 수신 모듈 330 및 메모리 340을 포함함으로써, 단독으로 본 발명의 다양한 실시 예를 수행할 수 있다.
전자 장치 300의 프로세서 310, 디스플레이 모듈 320, 유저 입력 수신 모듈 330 및 메모리 340은 도 1에 도시된 전자 장치 100의 프로세서 110, 디스플레이 모듈 120, 유저 입력 수신 모듈 110 및 메모리 140에 각각 대응하므로, 별도의 설명은 생략하겠다.
도 4a는 본 발명의 다양한 실시 예에 따른, 전자 장치 100의 디스플레이 105를 통해 표시되는 디스플레이 영역 410a 및 표시될 수 있는 영역인 실행 화면 영역 400a를 나타낸 도면이다.
본 발명의 다양한 실시 예에 따르면, 프로세서 110은 실행 화면 영역 400a를 구현할 수 있다. 실행 화면 영역 400a은 전자 장치 100의 디스플레이 105를 통해 표시될 수 있는 가상의 영역일 수 있다. 실행 화면 영역 400a에 포함된 디스플레이 영역 410a는 디스플레이 105에 직접 표시되는 영역일 수 있다. 다만, 실행 화면 영역 400a가 도 4a에 도시된 바와 같이 원기둥 형상으로 것으로 한정되는 것은 아닐 수 있다. 예를 들어, 본 발명의 다양한 실시 예에 따르면, 디스플레이 105를 통해 표시될 수 있는 실행 화면 영역 400a는 구(球) 형상 또는 반구 형상 등일 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 전자 장치는 HMD(head mounted display), HMT(head mounted theater) 및 HUD(head up display) 중 적어도 하나를 포함하는 웨어러블 장치 또는, 상기 웨어러블 장치와 결합하는 장치일 수 있다. 도 4a에는 도시되지 않았지만, 상기 전자 장치는 원기둥 형상의 실행 화면 영역 400a의 중앙에 위치하여, 디스플레이 영역 410a를 향하고 있을 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치 100이 향하는 방향에 기초하여, 프로세서 110은 디스플레이 105에 표시될 영역을 결정할 수 있다. 예를 들어, 전자 장치 100을 착용한 사용자가 고개를 돌리는 등으로, 전자 장치 100이 향하는 방향이 디스플레이 영역 410a로부터 다른 영역으로 변하는 경우, 프로세서 110은 디스플레이 모듈 120을 통해 상기 다른 영역을 디스플레이 105에 표시할 수 있다.
유저 입력 수신 모듈 130은 적어도 하나 이상의 센서를 이용하여 전자 장치 100이 향하는 방향이 변하는 입력을 수신할 수 있다. 유저 입력 수신 모듈 130이 이용하는 센서는, 예를 들어, 자이로 센서 또는 가속도 센서 등일 수 있다. 이 경우, 프로세서 110은 유저 입력 수신 모듈 130에서 수신된 상기 입력에 기초하여 실행 화면 영역 400a 내에서 디스플레이 105에 표시될 영역을 결정할 수 있다.
실행 화면 영역 400a에는 적어도 하나의 오브젝트가 위치할 수 있다. 상기 오브젝트는, 예를 들어, 이미지 컨텐츠, 동영상 컨텐츠, 어플리케이션 실행 화면, 및 어플리케이션에서 발생한 이벤트를 알리는 알림(notification) 등을 포함할 수 있다. 도 4a를 참조하면, 실행 화면 영역 400a에는 하나의 풍경 이미지가 오브젝트로서 표시되어 있는 것으로 볼 수 있다. 이 경우, 전자 장치 100에 인스턴트 메시지(IM; instant message)가 수신된 경우, 실행 화면 영역 400a에는 알림 오브젝트가 추가로 구현됨으로써, 총 2개의 오브젝트가 위치한 상태가 될 수 있다. 만일, 프로세서 110에서 이미지/비디오 뷰어(viewer) 어플리케이션이 실행되는 경우, 복수의 썸네일 이미지 각각이 하나의 오브젝트로서, 실행 화면 영역 400a에 복수의 오브젝트가 위치할 수 있다.
이하, 상기 설명에 대한 이해를 돕기 위해, 도 4b를 이용하여 실행 화면 영역 400a에 대한 설명을 추가하겠다.
도 4b는 본 발명의 다양한 실시 예에 따른, 도 4a에 도시된 실행 화면 영역 400a를 펼쳐놓은 모습 400b를 나타낸 도면이다. 도 4b의 도면 부호 400b 및 410b는 각각 도 4a의 도면 부호 400a 및 410a에 대응하는 것일 수 있다.
도 4b를 참조하면, 본 발명의 다양한 실시 예는, 전자 장치 100이 향하는 방향에 기초하여 전자 장치 100의 디스플레이 105에는 디스플레이 영역 410b가 표시될 수 있다. 또한, 디스플레이 105에 디스플레이 영역 410b가 표시된 상태에서 전자 장치 100이 향하는 방향이 바뀌면, 디스플레이 105에 표시되는 영역이 디스플레이 영역 410b로부터 상기 바뀐 방향에 대응하는 영역으로 바뀔 수 있다. 이 경우, 프로세서 110은 전자 장치 100이 향하는 방향을 실시간으로 반영하여, 디스플레이 105에 표시되는 영역이 디스플레이 영역 410b로부터 해당 영역으로 실행 화면 영역 400b 내에서 부드럽게(smooth) 이동하며 표시될 수 있다.
디스플레이 105에 디스플레이 영역 410b가 표시된 상태에서, 사용자가 고개를 왼쪽으로 돌리면, 디스플레이 105에 디스플레이 영역 420이 표시될 수 있다. 유사하게, 디스플레이 105에 디스플레이 영역 410b가 표시된 상태에서, 사용자가 고개를 오른쪽으로 돌리면, 디스플레이 105에 디스플레이 영역 430이 표시될 수 있다. 또한, 디스플레이 105에 디스플레이 영역 410b가 표시된 상태에서, 사용자가 고개를 아래쪽으로 내리면, 디스플레이 105에 디스플레이 영역 440이 표시될 수 있다.
도 5a 및 도 5b는 본 발명의 다양한 실시 예에 따른, 전자 장치 100이 향하는 방향의 변화에 기초하여 제1 이미지 오브젝트 520 및 제2 이미지 오브젝트 530의 위치를 결정하는 동작을 나타내는 도면이다. 도 5a 및 도 5b는 도 4a에 도시된 실행 화면 영역 400a를 위에서 바라본 모습을 도시한 것이다. 오브젝트 520 및 530의 위치를 결정하는 동작은 동작 501 내지 동작 504를 통해 설명하겠다.
도 5a의 동작 501을 참조하면, 실행 화면 영역 500은 제1 이미지 오브젝트 520 및 제2 이미지 오브젝트 530을 포함할 수 있다. 이 경우, 유저 입력 수신 모듈 130은 전자 장치 100이 향하는 위치를 입력 받고, 프로세서 110은 상기 입력 받은 전자 장치 100이 향하는 위치에 대응하는 디스플레이 영역 510을 실행 화면 영역 500 상에서 결정할 수 있다. 디스플레이 모듈 120은 디스플레이 105에 상기 결정된 디스플레이 영역 510를 표시할 수 있다.
동작 502에서, 전자 장치 100이 향하는 방향이 바뀔 수 있다. 따라서, 프로세서 110은 상기 바뀐 방향에 대응하는 디스플레이 영역 510을 실행 화면 영역 500 내에서 새로 결정하여 디스플레이 모듈 120을 통해 디스플레이 105에 표시시킬 수 있다.
다만, 디스플레이 영역 510은 제1 이미지 오브젝트 520 또는 제2 이미지 오브젝트 530으로부터 다소 떨어져있는 경우, 사용자가 전자 장치 100이 향하는 방향을 바꿈으로써 다시 제1 이미지 오브젝트 520 또는 제2 이미지 오브젝트 530을 찾는 것은 어려울 수 있다.
도 5b의 동작 503에서 프로세서 110은 제1 이미지 오브젝트 520 및 제2 이미지 오브젝트 530의 위치를 디스플레이 영역 510에 대응하는 위치로 결정할 수 있다. 예를 들어, 프로세서 110은 동작 502에서 실행 화면 디스플레이 영역 510 중 디스플레이 105에 표시되지 않은 영역에 포함된 제1 이미지 오브젝트 520에 대하여, 제1 이미지 오브젝트 520의 적어도 일부를 동작 503에서 디스플레이 105에 표시되도록 결정할 수 있다. 이 경우, 디스플레이 105에 표시된 (디스플레이 영역 510에 포함된) 제1 오브젝트 520의 적어도 일부는 앵커(anchor) 영역으로 칭하겠다.
동작 504에서 전자 장치 100이 향하는 방향이 오른쪽으로 조금만 변하면, 디스플레이 모듈 120은 제1 이미지 오브젝트 520 및/또는 제2 이미지 오브젝트 530을 디스플레이 105에 표시할 수 있다.
만일, 동작 502에서 전자 장치 100이 향하는 방향이 동작 501의 디스플레이 영역 510으로부터 오른쪽 방향으로 변해서, 결과적으로 동작 502의 디스플레이 영역 510이 제2 이미지 오브젝트 530에 더 가까이 있는 경우가 생길 수 있다. 이 경우, 동작 503에서는 제1 이미지 오브젝트 520이 아닌, 제2 이미지 오브젝트 530의 적어도 일부가 디스플레이 105에 표시될 수 있다.
이 같은 방법으로, 전자 장치 100이 향하는 방향이 오브젝트로부터 멀리 떨어지게 되는 경우, 프로세서 110은 사용자가 상기 멀리 떨어지게 된 오브젝트를 쉽게 찾을 수 있도록, 상기 멀리 떨어지게 된 오브젝트의 위치를 재결정할 수 있다.
본 발명의 다른 실시 예에 따르면, 전자 장치 100이 향하는 방향이 디스플레이 105에 표시된 오브젝트로부터 멀리 떨어지게 되더라도, 변화된 방향에 다른 오브젝트가 있는 경우, 프로세서 110은 상기 멀리 떨어지게 된 오브젝트의 위치를 그대로 유지시킬 수 있다. 예를 들어, 이미지/비디오 뷰어가 실행된 상태에서 실행 화면 영역 500에 걸쳐 이미지 오브젝트 및/또는 비디오 오브젝트가 포함되어 있을 수 있다. 이 경우, 사용자가 전자 장치 100이 향하는 방향을 변화시켜도, 다른 이미지 또는 비디오가 디스플레이 105에 표시될 수 있기 때문에, 방향 변화 전에 디스플레이 105에 표시되던 오브젝트를 계속 디스플레이 105에 표시되도록 할 필요가 없을 수 있다.
도 6은 본 발명의 다양한 실시 예에 따른, 전자 장치 100의 디스플레이 105를 통해 표시될 수 있는 영역에 있어서, 새로 생성된 오브젝트 630이 표시되는 기준선 620을 나타낸 도면이다.
본 발명의 다양한 실시 예에 따르면, 프로세서 110은 어플리케이션을 실행할 수 있다. 상기 실행된 어플리케이션, 또는, 상기 실행된 어플리케이션에 포함된 오브젝트는 특정한 기준을 가지고 실행 화면 영역 600 상에 위치할 수 있다. 도 6의 실시 예에서는, 기준선 620을 기준으로 오브젝트 630이 위치할 수 있다.
전자 장치 100이 디스플레이 영역 610을 향하고 있는 상태에서, 프로세서 110은 상기 어플리케이션을 실행할 수 있고, 상기 실행된 어플리케이션에 포함된 오브젝트 630은 기준선 620에 위치될 수 있다. 이 경우, 오브젝트 630이 디스플레이 영역 610으로부터 소정의 거리가 떨어져있어서, 사용자는 오브젝트 630을 찾기 어려울 수 있다. 따라서, 프로세서 110은, 전자 장치 100이 오브젝트(예를 들어, 도 5의 이미지 오브젝트 520 또는 530)를 향하고 있다가 상기 오브젝트를 벗어나는 경우(도 5에 도시된 동작) 외에도, 새로 위치한 오브젝트 630의 앵커 영역을 디스플레이 영역 610에 위치시킬 수 있다.
상기와 같은 동작은, 새로운 어플리케이션이 실행되는 경우뿐만 아니라, 임의의 어플리케이션 실행 중에, 이메일이 수신되었음을 알리는 등의 알림 오브젝트 630이 기준선 620에 위치하게 된 경우에도 마찬가지로 적용될 수 있다.
본 발명의 다른 실시 예에 따르면, 상기 실행된 어플리케이션에 포함된 오브젝트 630 또는 알림 오브젝트 630은 기준선 620에 위치하지 않고, 처음부터 디스플레이 영역 610에 표시될 수 있다. (추후, 설명하겠음) 새로운 어플리케이션이 실행되는 경우, 또는 알림 오브젝트가 나타나는 경우, 디스플레이 영역 610이 기준선 620이 되는 것으로 볼 수도 있다.
이하, 도 7을 참조하여, 도 6에서 설명한 동작을 보다 자세히 알아보겠다.
도 7은 본 발명의 다양한 실시 예에 따른, 전자 장치 100의 디스플레이 105에 표시되지 않은 오브젝트 730의 적어도 일부인 제1 앵커 영역 740이 디스플레이 105에 표시되는 동작을 나타낸 도면이다. 도 7을 참조하면, 도 7에는 적어도 일부의 실행 화면 영역 700이 도시되어 있다. 실행 화면 영역 700은 디스플레이 영역 710, 기준선 720, 및 오브젝트 730을 포함할 수 있고, 오브젝트 730은 제1 앵커 영역 740 및 제2 앵커 영역 745를 포함할 수 있다.
동작 701에서 임의의 어플리케이션의 실행 또는 임의의 어플리케이션에서 발생한 알림 이벤트에 기초하여, 프로세서 110은 오브젝트 730을 기준선 720에 위치시킬 수 있다. 이 경우, 동작 701에 도시된 바와 같이, 오브젝트 730은 디스플레이 영역 710에 위치하지 않을 수 있다.
이와 같은 상황에서, 사용자는 오브젝트 730의 위치를 판단하기 어렵고, 심지어 오브젝트 730이 실행 화면 영역 700 위 어딘가에 위치해있다는 사실 조차 모를 수 있다. 따라서, 동작 702에서 프로세서 110은 오브젝트 730의 적어도 일부인, 제1 앵커 영역 740을 디스플레이 영역 710에 위치시킬 수 있다.
만일, 오브젝트 730이 디스플레이 영역 710의 오른편에 위치해 있었다면, 프로세서 110은 동작 702에서 제2 앵커 영역 745를 디스플레이 영역 710에 위치시킬 수 있다.
본 발명의 다른 실시 예에 따르면, 동작 702에서 오브젝트 730 전체가 디스플레이 영역 710에 위치할 수도 있다.
도 8은 본 발명의 다양한 실시 예에 따른, 전자 장치 100이 향하는 방향 변화에 기초하여 오브젝트 820의 위치를 나타낸 도면이다. 도 8에는 적어도 일부의 실행 화면 영역 800이 도시되어 있다. 실행 화면 영역 800에는 디스플레이 영역 810 및 오브젝트 820이 위치할 수 있다.
동작 801을 참조하면, 오브젝트 820은 디스플레이 영역 810에 전부 포함되어 있음을 알 수 있다. 동작 801의 경우는, 사용자가 전자 장치 100이 향하는 방향을 조정하여 오브젝트 820을 디스플레이 영역 810에 전부 포함시키는 경우가 있을 수 있다. 이와는 달리, 앞서 설명한 바와 같이, 어플리케이션의 실행 또는 알림 이벤트에 대응하는 오브젝트 820를 처음부터 디스플레이 영역 810에 전부 포함시키는 경우가 있을 수 있다.
동작 801로부터 동작 802에 있어서, 실행 화면 영역 800 상에서 디스플레이 영역 810의 위치는 바뀌었고, 오브젝트 820의 위치는 변하지 않았음을 알 수 있다.
동작 802에서 전자 장치 100은 사용자의 고개 돌림 등에 의해 향하는 방향이 바뀔 수 있다. 이 경우, 디스플레이 영역 810은 오브젝트 820이 디스플레이 영역 810에 포함되는 범위 내에서 이동하도록, 전자 장치 100이 향하는 방향의 변화 정도가 제한되는 것으로 가정하겠다. 상기 가정 하에서, 프로세서 110은 실행 화면 영역 800 상에서의 오브젝트 820의 위치를 유지시킬 수 있다.
도 9는 본 발명의 다른 다양한 실시 예에 따른, 전자 장치 100이 향하는 방향의 변화에 기초하여 오브젝트 930의 위치를 나타낸 도면이다. 도 9에는 적어도 일부의 실행 화면 영역 900이 도시되어있다. 실행 화면 영역 900은 디스플레이 영역 910 및 오브젝트 920을 포함할 수 있다.
도 9는, 도 8과 달리 디스플레이 영역 910이 오브젝트 920이 디스플레이 영역 910에 포함되는 범위를 벗어난 경우에 대한 것이다.
동작 901은 동작 801에 대응하는 것으로, 별도의 설명은 생략하겠다.
동작 902에서 디스플레이 영역 910은 동작 901에 도시된 오브젝트 920의 위치를 벗어날 수 있다. 이 경우, 오브젝트 920의 제2 앵커 영역 935는 디스플레이 영역 910의 이동과 함께 움직일 수 있다. 마치, 디스플레이 영역 910의 우변에 제2 앵커 영역 935가 걸려서 딸려 움직이는 것처럼 보일 수 있다. 도 9에는 도시되지 않았지만, 동작 901로부터 동작 902로 진행되는 도중, 디스플레이 영역 910의 우변이 제2 앵커 영역 935의 우변에 닿은 시점부터 오브젝트 920의 제2 앵커 영역 935는 디스플레이 영역 910의 이동과 함께 움직일 수 있다. 즉, 프로세서 110은 상기 시점부터 디스플레이 영역 910 상에서의 오브젝트 920 또는 제2 앵커 영역 935의 위치를 유지시킬 수 있다.
도 8에 도시된 동작은 도 9의 동작 901과 동작 902 사이에서 수행될 수 있다.
만일, 동작 902에서 디스플레이 영역 910이 오른쪽 방향으로 이동한다면, 오브젝트 920의 제1 앵커 영역 930이 디스플레이 영역 910과 함께 움직일 수 있다.
본 발명의 다른 실시 예에 따르면, 디스플레이 영역 910이 왼쪽으로 이동하는 경우, 오브젝트 920의 제1 앵커 영역 930이 디스플레이 영역 910의 이동과 함께 움직일 수 있다. 또한, 디스플레이 영역 910이 오른쪽으로 이동하는 경우, 오브젝트 920의 제2 앵커 영역 935가 디스플레이 영역 910의 이동과 함께 움직일 수도 있다.
도 10은 본 발명의 다른 다양한 실시 예에 따른, 전자 장치 100이 향하는 방향 변화에 기초하여 오브젝트 1020의 위치를 나타낸 도면이다.
동작 1001에서 프로세서 110은 오브젝트 1020을 디스플레이 영역 1010 내의 일 영역에 위치시킬 수 있다.
동작 1002에서 디스플레이 영역 1010이 왼쪽으로 이동하는 경우, 오브젝트 1020은 디스플레이 영역 1010과 함께 움직일 수 있다. 이 경우, 프로세서 110은 오브젝트 1020이 디스플레이 영역 1010 상에서의 위치를 유지시킬 수 있다.
도 9와 도 10을 비교하면, 도 9의 오브젝트 920이 제1 앵커 영역 930 또는 제2 앵커 영역 935이 디스플레이 영역 910의 가장자리에 위치하게 된 시점 이후에, 프로세서 110은 오브젝트 920의 디스플레이 영역 910 상에서의 위치를 유지시킬 수 있다. 도 10의 경우, 프로세서 110은 도 9의 동작과 달리, 오브젝트 1020이 디스플레이 영역 1010 내에 처음 표시된 위치를 그대로 유지시킬 수 있다.
도 11은 본 발명의 다양한 실시 예에 따른, 전자 장치 100의 디스플레이 105에 표시된 오브젝트 1110 및 포인터(pointer) 1115를 나타낸 도면이다.
동작 1101에서 프로세서 110은 디스플레이 영역 1110의 일 위치에 포인터 1115를 표시시킬 수 있다. 디스플레이 영역 1110 내에서의 포인터 1115의 위치는 변하지 않는 것일 수 있다.
동작 1102에서 사용자는 고개를 숙임으로써, 전자 장치 100이 향하는 방향을 변화시킬 수 있다. 이 경우, 디스플레이 영역 1110은 아래로 움직이게 될 것이고, 포인터 1115는 오브젝트 1110 위에 위치될 수 있다. 프로세서 110은 포인터 1115의 위치와 오브젝트 1110의 위치가 서로 대응하게 되는 경우, 오브젝트 1110에 대해 메모리 140에 저장된 동작을 수행할 수 있다. 오브젝트 1110이 알림 오브젝트라면, 프로세서 110은 상기 알림 오브젝트에 대응하는 이벤트 정보를 표시시킬 수 있다. 또한, 오브젝트 1110이 이미지 오브젝트 또는 동영상 오브젝트라면, 프로세서 110은 상기 이미지 오브젝트 또는 동영상 오브젝트를 확대하여 표시시킬 수 있다.
본 발명의 다른 실시 예에 따르면, 포인터 1115는 동작 1101에서는 표시되지 않고, 동작 1102에서 비로소 표시될 수 있다.
도 12는 본 발명의 다양한 실시 예에 따른, 복수의 오브젝트 1221 내지 1229가 전자 장치 100의 디스플레이 105에 정렬되어 표시된 모습을 나타낸 도면이다.
동작 1101 내지 동작 1109는 독립적인 동작에 대한 것일 수 있다. 예를 들어, 동작 1101은 오브젝트가 1개일 때 디스플레이 영역 1210에 표시되는 동작을 나타낸 것일 수 있다. 동작 1101은 도 10의 동작 1001에 대응하는 것일 수 있다.
동작 1102는 오브젝트가 2개일 때, 동작 1103은 오브젝트가 3개일 때 수행되는 동작일 수 있고, 동작 1104 내지 동작 1109도 각각 오브젝트 개수에 따른 동작일 수 있다.
동작 1101 내지 동작 1109를 모두 살펴보면, 복수의 오브젝트는 디스플레이 영역 1210의 중앙 상단을 기준으로 세로 방향으로 디스플레이 영역 1210 내에서 정렬되는 것일 수 있다. 만일 오브젝트가 도 6에 도시된 바와 유사하게, 기준선에 위치하게 되는 경우, 사용자는 오브젝트를 찾기 힘들 것이다. 오브젝트의 개수가 충분히 많은 경우가 아니라면, 더더욱 사용자는 오브젝트를 찾기 힘들 것이다. 따라서, 프로세서 110은 복수의 오브젝트를 디스플레이 영역 1210 내에 정렬시킬 수 있다.
도 12에 도시된 크기의 오브젝트가 충분히 많아서, 디스플레이 영역 1210을 가득 채운 경우라면, 디스플레이 영역 1210 내에 표시되지 못한 오브젝트는 디스플레이 영역 1210을 벗어나는 실행 화면 영역 1100 내에 위치할 수 있다.
다만, 복수의 오브젝트가 정렬되는 기준은 이것으로 제한되는 것은 아닐 수 있다. 예를 들어, 프로세서 110은 디스플레이 영역 1210의 좌측 상단을 기준으로 우측 방향으로 디스플레이 영역 1210 내에서 정렬될 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치는 적어도 하나의 오브젝트를 포함하는 실행 화면 영역을 구현하는 프로세서; 및 상기 구현된 실행 화면 영역의 적어도 일부를 상기 전자 장치의 디스플레이에 표시하는 디스플레이 모듈;을 포함할 수 있다. 이 경우, 상기 프로세서는 상기 전자 장치가 향하는 방향 및 상기 적어도 하나의 오브젝트의 속성에 기초하여, 상기 적어도 하나의 오브젝트의 위치를 결정할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 디스플레이에 표시되는 상기 실행 화면 영역의 적어도 일부는 상기 전자 장치가 향하는 방향에 기초하여 변할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 오브젝트의 속성은, 상기 오브젝트의 종류, 크기, 개수 및 배열 방법 중 적어도 하나를 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 오브젝트는 이미지 컨텐츠, 동영상 컨텐츠, 어플리케이션 실행 화면, 및 어플리케이션에서 발생한 이벤트를 알리는 알림(notification) 중 적어도 하나를 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 적어도 하나의 오브젝트의 위치를 결정하는 동작은, 상기 디스플레이에 표시되지 않은 영역에 포함된 제1 오브젝트에 대하여, 상기 제1 오브젝트의 적어도 일부(이하, 앵커(anchor) 영역)를 상기 디스플레이에 표시시키는 것일 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 프로세서는, 상기 제1 오브젝트의 앵커 영역이 표시된 상태에서, 상기 전자 장치가 향하는 방향의 변화에 기초하여 상기 제1 오브젝트의 위치를 결정할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 전자 장치가 향하는 방향이, 상기 디스플레이 상에 표시된 앵커 영역의 반대 방향으로 변하는 경우, 상기 프로세서는, 상기 디스플레이 상에 상기 앵커 영역이 표시된 위치를 유지시킬 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 전자 장치가 향하는 방향이, 상기 디스플레이 상에 표시된 앵커 영역 방향으로 변하는 경우, 상기 프로세서는, 상기 제1 오브젝트의 앵커 영역 이상이 상기 디스플레이에 표시되도록 할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 적어도 하나의 오브젝트의 위치를 결정하는 동작은, 상기 디스플레이에 표시된 제2 오브젝트에 대하여, 상기 전자 장치의 제1 방향이 제2 방향으로 변하는 경우의 상기 제2 오브젝트의 위치를 결정하는 것일 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 프로세서는, 상기 전자 장치의 제2 방향에 대응하는 디스플레이의 영역이 상기 제2 오브젝트를 포함하는 범위 내에 위치하는 경우, 상기 실행 화면 영역 상에 상기 제2 오브젝트의 위치를 유지시킬 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 프로세서는, 상기 전자 장치의 제2 방향에 대응하는 디스플레이의 영역이 상기 제2 오브젝트를 포함하는 범위를 벗어나는 경우, 상기 제2 오브젝트의 적어도 일부를 상기 제2 방향에 대응하는 디스플레이에 표시시킬 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 적어도 하나의 오브젝트의 위치를 결정하는 동작은, 상기 전자 장치의 동작에 기초하여 새로 생성된 오브젝트에 대하여, 상기 생성된 오브젝트를 상기 디스플레이에 표시된 영역 내에 위치시키는 것일 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 프로세서는, 상기 전자 장치가 향하는 방향의 변화에 기초하여 상기 생성된 오브젝트가 상기 디스플레이에 표시된 위치를 유지시킬 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 디스플레이 모듈은 상기 디스플레이에 표시된 영역 내에 포인터(pointer)를 위치시키고, 상기 프로세서는 상기 포인터의 위치가 오브젝트의 위치와 대응되는 경우, 상기 오브젝트에 대하여 메모리에 저장된 동작을 수행할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 새로 생성된 오브젝트가 복수개인 경우, 상기 복수의 오브젝트는 상기 디스플레이에 표시되는 영역 내에 정렬될 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 전자 장치는 HMD(head mounted display), HMT(head mounted theater) 및 HUD(head up display) 중 적어도 하나를 포함하는 웨어러블 장치; 또는 상기 웨어러블 장치와 결합하는 장치일 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 전자 장치는 적어도 하나 이상의 센서를 이용하여 상기 전자 장치가 향하는 방향이 변하는 입력을 수신하는 유저 입력 수신 모듈을 더 포함할 수 있다. 이 경우, 상기 프로세서는 상기 입력에 기초하여 상기 디스플레이에 표시될 영역을 상기 실행 화면 영역 내에서 결정할 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자 장치에서 수행되는 방법은 적어도 하나의 오브젝트를 포함하는 실행 화면 영역을 구현하는 동작; 상기 구현된 실행 화면 영역의 적어도 일부를 상기 전자 장치의 디스플레이에 표시하는 동작; 및 상기 전자 장치가 향하는 방향 및 상기 적어도 하나의 오브젝트의 속성에 기초하여, 상기 적어도 하나의 오브젝트의 위치를 결정하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 적어도 하나의 오브젝트의 위치를 결정하는 동작은, 상기 디스플레이에 표시되지 않은 영역에 포함된 제1 오브젝트에 대하여, 상기 제1 오브젝트의 적어도 일부(이하, 앵커(anchor) 영역)를 상기 디스플레이에 표시시키는 것일 수 있다.
본 발명의 다양한 실시 예에 따르면, 상기 적어도 하나의 오브젝트의 위치를 결정하는 동작은, 상기 전자 장치의 동작에 기초하여 새로 생성된 복수의 오브젝트에 대하여, 상기 생성된 복수의 오브젝트를 상기 디스플레이에 표시된 영역 내에 정렬시키는 것일 수 있다.
본 발명의 다양한 실시 예에 따른 상기 방법은, 적어도 하나 이상의 센서를 이용하여 상기 전자 장치가 향하는 방향이 변하는 입력을 수신하는 동작; 상기 수신된 입력에 기초하여 상기 디스플레이에 표시될 영역을 상기 실행 화면 영역 내에서 결정하는 동작; 및 상기 결정된 영역을 상기 디스플레이에 디스플레이하는 동작을 더 포함할 수 있다.
본 문서에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, "모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서 110)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리 140이 될 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM, DVD, 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM, RAM, 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 문서에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 발명의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 발명의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.
100: 전자 장치
105: 디스플레이
110: 프로세서
120: 디스플레이 모듈
130: 유저 입력 수신 모듈
140: 메모리

Claims (20)

  1. 전자 장치에 있어서,
    적어도 하나의 오브젝트를 포함하는 실행 화면 영역을 구현하는 프로세서; 및
    상기 구현된 실행 화면 영역의 적어도 일부를 상기 전자 장치의 디스플레이에 표시하는 디스플레이 모듈;을 포함하고,
    상기 프로세서는 상기 전자 장치가 향하는 방향 및 상기 적어도 하나의 오브젝트의 속성에 기초하여, 상기 적어도 하나의 오브젝트의 위치를 결정하는 것인, 전자 장치.
  2. 청구항 1에 있어서,
    상기 오브젝트의 속성은, 상기 오브젝트의 종류, 크기, 개수 및 배열 방법 중 적어도 하나를 포함하는 것인, 전자 장치.
  3. 청구항 1에 있어서,
    상기 오브젝트는 이미지 컨텐츠, 동영상 컨텐츠, 어플리케이션 실행 화면, 및 어플리케이션에서 발생한 이벤트를 알리는 알림(notification) 중 적어도 하나를 포함하는 것인, 전자 장치.
  4. 청구항 1에 있어서,
    상기 적어도 하나의 오브젝트의 위치를 결정하는 동작은,
    상기 디스플레이에 표시되지 않은 영역에 포함된 제1 오브젝트에 대하여, 상기 제1 오브젝트의 적어도 일부(이하, 앵커(anchor) 영역)를 상기 디스플레이에 표시시키는 것인, 전자 장치.
  5. 청구항 4에 있어서,
    상기 프로세서는,
    상기 제1 오브젝트의 앵커 영역이 표시된 상태에서,
    상기 전자 장치가 향하는 방향의 변화에 기초하여 상기 제1 오브젝트의 위치를 결정하는 것인, 전자 장치.
  6. 청구항 5에 있어서,
    상기 전자 장치가 향하는 방향이, 상기 디스플레이 상에 표시된 앵커 영역의 반대 방향으로 변하는 경우,
    상기 프로세서는, 상기 디스플레이 상에 상기 앵커 영역이 표시된 위치를 유지시키는 것인, 전자 장치.
  7. 청구항 5에 있어서,
    상기 전자 장치가 향하는 방향이, 상기 디스플레이 상에 표시된 앵커 영역 방향으로 변하는 경우,
    상기 프로세서는, 상기 제1 오브젝트의 앵커 영역 이상이 상기 디스플레이에 표시되도록 하는 것인, 전자 장치.
  8. 청구항 1에 있어서,
    상기 적어도 하나의 오브젝트의 위치를 결정하는 동작은,
    상기 디스플레이에 표시된 제2 오브젝트에 대하여, 상기 전자 장치의 제1 방향이 제2 방향으로 변하는 경우의 상기 제2 오브젝트의 위치를 결정하는 것인, 전자 장치.
  9. 청구항 8에 있어서,
    상기 프로세서는, 상기 전자 장치의 제2 방향에 대응하는 디스플레이의 영역이 상기 제2 오브젝트를 포함하는 범위 내에 위치하는 경우,
    상기 실행 화면 영역 상에 상기 제2 오브젝트의 위치를 유지시키는 것인, 전자 장치.
  10. 청구항 8에 있어서,
    상기 프로세서는, 상기 전자 장치의 제2 방향에 대응하는 디스플레이의 영역이 상기 제2 오브젝트를 포함하는 범위를 벗어나는 경우,
    상기 제2 오브젝트의 적어도 일부를 상기 제2 방향에 대응하는 디스플레이에 표시시키는 것인, 전자 장치.
  11. 청구항 1에 있어서,
    상기 적어도 하나의 오브젝트의 위치를 결정하는 동작은,
    상기 전자 장치의 동작에 기초하여 새로 생성된 오브젝트에 대하여, 상기 생성된 오브젝트를 상기 디스플레이에 표시된 영역 내에 위치시키는 것인, 전자 장치.
  12. 청구항 11에 있어서,
    상기 프로세서는, 상기 전자 장치가 향하는 방향의 변화에 기초하여 상기 생성된 오브젝트가 상기 디스플레이에 표시된 위치를 유지시키는 것인, 전자 장치.
  13. 청구항 1에 있어서,
    상기 디스플레이 모듈은 상기 디스플레이에 표시된 영역 내에 포인터(pointer)를 위치시키고,
    상기 프로세서는 상기 포인터의 위치가 오브젝트의 위치와 대응되는 경우, 상기 오브젝트에 대하여 메모리에 저장된 동작을 수행하는 것인, 전자 장치.
  14. 청구항 11에 있어서,
    상기 새로 생성된 오브젝트가 복수개인 경우,
    상기 복수의 오브젝트는 상기 디스플레이에 표시되는 영역 내에 정렬되는 것인, 전자 장치.
  15. 청구항 1에 있어서,
    상기 전자 장치는 HMD(head mounted display), HMT(head mounted theater) 및 HUD(head up display) 중 적어도 하나를 포함하는 웨어러블 장치; 또는
    상기 웨어러블 장치와 결합하는 장치인 것인, 전자 장치.
  16. 청구항 1에 있어서,
    적어도 하나 이상의 센서를 이용하여 상기 전자 장치가 향하는 방향이 변하는 입력을 수신하는 유저 입력 수신 모듈을 더 포함하고,
    상기 프로세서는 상기 입력에 기초하여 상기 디스플레이에 표시될 영역을 상기 실행 화면 영역 내에서 결정하는 것인, 전자 장치.
  17. 전자 장치에서 수행되는 방법에 있어서,
    적어도 하나의 오브젝트를 포함하는 실행 화면 영역을 구현하는 동작;
    상기 구현된 실행 화면 영역의 적어도 일부를 상기 전자 장치의 디스플레이에 표시하는 동작; 및
    상기 전자 장치가 향하는 방향 및 상기 적어도 하나의 오브젝트의 속성에 기초하여, 상기 적어도 하나의 오브젝트의 위치를 결정하는 동작을 포함하는, 방법.
  18. 청구항 17에 있어서,
    상기 적어도 하나의 오브젝트의 위치를 결정하는 동작은,
    상기 디스플레이에 표시되지 않은 영역에 포함된 제1 오브젝트에 대하여, 상기 제1 오브젝트의 적어도 일부(이하, 앵커(anchor) 영역)를 상기 디스플레이에 표시시키는 것인, 방법.
  19. 청구항 17에 있어서,
    상기 적어도 하나의 오브젝트의 위치를 결정하는 동작은,
    상기 전자 장치의 동작에 기초하여 새로 생성된 복수의 오브젝트에 대하여, 상기 생성된 복수의 오브젝트를 상기 디스플레이에 표시된 영역 내에 정렬시키는 것인, 방법.
  20. 청구항 17에 있어서,
    적어도 하나 이상의 센서를 이용하여 상기 전자 장치가 향하는 방향이 변하는 입력을 수신하는 동작;
    상기 수신된 입력에 기초하여 상기 디스플레이에 표시될 영역을 상기 실행 화면 영역 내에서 결정하는 동작; 및
    상기 결정된 영역을 상기 디스플레이에 디스플레이하는 동작을 더 포함하는, 방법.
KR1020140154802A 2014-11-07 2014-11-07 오브젝트를 표시하는 방향 기반 전자 장치 및 방법 KR102309281B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020140154802A KR102309281B1 (ko) 2014-11-07 2014-11-07 오브젝트를 표시하는 방향 기반 전자 장치 및 방법
CN201580066541.7A CN107003522B (zh) 2014-11-07 2015-11-06 用于显示对象的基于方向的电子设备及其方法
PCT/KR2015/011894 WO2016072785A1 (en) 2014-11-07 2015-11-06 Direction based electronic device for displaying object and method thereof
US14/934,819 US10642041B2 (en) 2014-11-07 2015-11-06 Direction based electronic device for displaying object and method thereof
EP15856240.5A EP3215912B1 (en) 2014-11-07 2015-11-06 Direction based electronic device for displaying object and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140154802A KR102309281B1 (ko) 2014-11-07 2014-11-07 오브젝트를 표시하는 방향 기반 전자 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20160055026A true KR20160055026A (ko) 2016-05-17
KR102309281B1 KR102309281B1 (ko) 2021-10-08

Family

ID=55909426

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140154802A KR102309281B1 (ko) 2014-11-07 2014-11-07 오브젝트를 표시하는 방향 기반 전자 장치 및 방법

Country Status (5)

Country Link
US (1) US10642041B2 (ko)
EP (1) EP3215912B1 (ko)
KR (1) KR102309281B1 (ko)
CN (1) CN107003522B (ko)
WO (1) WO2016072785A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US11093752B2 (en) * 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US10853014B2 (en) * 2018-04-17 2020-12-01 Rockwell Collins, Inc. Head wearable device, system, and method
US10732316B2 (en) 2018-08-14 2020-08-04 Saudi Arabian Oil Company Assessment of inaccessible pore volume for polymer flooding

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013168910A (ja) * 2012-02-17 2013-08-29 Sony Corp ヘッドマウントディスプレイ、ヘッドマウントディスプレイ制御プログラム及びヘッドマウントディスプレイの制御方法
JP2013235367A (ja) * 2012-05-08 2013-11-21 Nec Corp フライトパス表示システム、方法及びプログラム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5864330A (en) * 1993-06-29 1999-01-26 International Business Machines Corp. Method and apparatus for providing a two-dimensional position-sensitive scroll icon in a data processing system user interface
US7256770B2 (en) * 1998-09-14 2007-08-14 Microsoft Corporation Method for displaying information responsive to sensing a physical presence proximate to a computer input device
WO2001056007A1 (en) * 2000-01-28 2001-08-02 Intersense, Inc. Self-referenced tracking
US6603491B2 (en) * 2000-05-26 2003-08-05 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
US7928926B2 (en) * 2006-06-27 2011-04-19 Panasonic Corporation Display apparatus and method for hands free operation that selects a function when window is within field of view
KR20090052413A (ko) 2007-11-21 2009-05-26 주식회사 현대오토넷 운전자 시선 대응 전방 화면 디스플레이 장치 및 방법
JP4725595B2 (ja) * 2008-04-24 2011-07-13 ソニー株式会社 映像処理装置、映像処理方法、プログラム及び記録媒体
EP2211224A1 (en) * 2009-01-27 2010-07-28 Thomson Licensing SA Head-mounted display and operating method thereof
US9571625B2 (en) * 2009-08-11 2017-02-14 Lg Electronics Inc. Electronic device and control method thereof
KR20110070210A (ko) * 2009-12-18 2011-06-24 주식회사 케이티 위치 감지 센서와 방향 감지 센서를 이용하여 증강현실 서비스를 제공하기 위한 이동단말기 및 방법
US8964008B2 (en) 2011-06-17 2015-02-24 Microsoft Technology Licensing, Llc Volumetric video presentation
US8692739B2 (en) 2011-09-22 2014-04-08 GM Global Technology Operations LLC Dynamic information presentation on full windshield head-up display
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US20150199081A1 (en) * 2011-11-08 2015-07-16 Google Inc. Re-centering a user interface
US8643951B1 (en) 2012-03-15 2014-02-04 Google Inc. Graphical menu and interaction therewith through a viewing window
US8799810B1 (en) * 2012-03-16 2014-08-05 Google Inc. Stability region for a user interface
JP5966510B2 (ja) * 2012-03-29 2016-08-10 ソニー株式会社 情報処理システム
US9317972B2 (en) * 2012-12-18 2016-04-19 Qualcomm Incorporated User interface for augmented reality enabled devices
KR20140090552A (ko) 2013-01-09 2014-07-17 엘지전자 주식회사 시선 캘리브레이션을 제공하는 헤드 마운트 디스플레이 및 그 제어 방법
US9406143B2 (en) * 2013-02-21 2016-08-02 Samsung Electronics Co., Ltd. Electronic device and method of operating electronic device
US9235051B2 (en) * 2013-06-18 2016-01-12 Microsoft Technology Licensing, Llc Multi-space connected virtual data objects
US9329682B2 (en) * 2013-06-18 2016-05-03 Microsoft Technology Licensing, Llc Multi-step virtual object selection
US9129430B2 (en) 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
US9563331B2 (en) * 2013-06-28 2017-02-07 Microsoft Technology Licensing, Llc Web-like hierarchical menu display configuration for a near-eye display
US9753687B1 (en) * 2014-01-03 2017-09-05 Sony Interactive Entertainment America Llc Wearable computer using programmed local tag
US10001645B2 (en) * 2014-01-17 2018-06-19 Sony Interactive Entertainment America Llc Using a second screen as a private tracking heads-up display
US9501871B2 (en) * 2014-04-30 2016-11-22 At&T Mobility Ii Llc Explorable augmented reality displays
US9904055B2 (en) * 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US9508195B2 (en) * 2014-09-03 2016-11-29 Microsoft Technology Licensing, Llc Management of content in a 3D holographic environment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013168910A (ja) * 2012-02-17 2013-08-29 Sony Corp ヘッドマウントディスプレイ、ヘッドマウントディスプレイ制御プログラム及びヘッドマウントディスプレイの制御方法
JP2013235367A (ja) * 2012-05-08 2013-11-21 Nec Corp フライトパス表示システム、方法及びプログラム

Also Published As

Publication number Publication date
US20160132131A1 (en) 2016-05-12
CN107003522B (zh) 2020-04-28
EP3215912A1 (en) 2017-09-13
KR102309281B1 (ko) 2021-10-08
EP3215912A4 (en) 2017-11-01
WO2016072785A1 (en) 2016-05-12
US10642041B2 (en) 2020-05-05
EP3215912B1 (en) 2020-09-23
CN107003522A (zh) 2017-08-01

Similar Documents

Publication Publication Date Title
US11164380B2 (en) System and method for transition boundaries and distance responsive interfaces in augmented and virtual reality
KR102309281B1 (ko) 오브젝트를 표시하는 방향 기반 전자 장치 및 방법
US11941762B2 (en) System and method for augmented reality scenes
EP3015956B1 (en) Method and apparatus for controlling screen display on electronic devices
EP3293723A1 (en) Method, storage medium, and electronic device for displaying images
KR102299774B1 (ko) 화면 구성 방법, 전자 장치 및 저장 매체
KR20180074369A (ko) 3차원 컨텐츠의 썸네일 관리 방법 및 그 장치
KR20170031525A (ko) 디스플레이 사이의 각도를 측정하는 방법 및 이를 사용하는 전자 장치
KR20160105242A (ko) 스크린 미러링 서비스 제공장치 및 방법
KR20160096422A (ko) 화면 표시 방법 및 전자 장치
KR20160054840A (ko) 정보를 공유하기 위한 가상 환경
US10416720B2 (en) Electronic device comprising transparent display and method for controlling transparent display thereof
KR20180013277A (ko) 그래픽 객체를 표시하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
KR20160058519A (ko) 복수의 영상들에 대한 영상 처리
US10867174B2 (en) System and method for tracking a focal point for a head mounted device
US10474480B2 (en) Method and apparatus for simultaneously displaying more items
KR20160094078A (ko) 오브젝트를 표시하기 위한 방법 및 전자 장치
KR20180039854A (ko) 듀얼 디스플레이를 가지는 전자 장치 및 이의 운용 방법
US10325533B2 (en) Electronic device and method for outputting electronic document in electronic device
KR102632270B1 (ko) 전자 장치 및 파노라마 영상 표시와 생성 방법
KR20200029271A (ko) 전자 장치 및 전자 장치에서 위치를 식별하기 위한 방법
KR20180010493A (ko) 전자 장치 및 전자 장치의 비디오 편집 방법
KR20180020043A (ko) 다시점 영상 제어 방법 및 이를 지원하는 전자 장치
KR20150135895A (ko) 이미지 처리 방법 및 그 전자 장치
KR20170052984A (ko) 사용자의 위치를 결정하는 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right