KR102462678B1 - 주변 조도에 기반하여 디스플레이에 표시되는 콘텐트의 위치를 조절하는 전자 장치와 이의 동작 방법 - Google Patents

주변 조도에 기반하여 디스플레이에 표시되는 콘텐트의 위치를 조절하는 전자 장치와 이의 동작 방법 Download PDF

Info

Publication number
KR102462678B1
KR102462678B1 KR1020180057208A KR20180057208A KR102462678B1 KR 102462678 B1 KR102462678 B1 KR 102462678B1 KR 1020180057208 A KR1020180057208 A KR 1020180057208A KR 20180057208 A KR20180057208 A KR 20180057208A KR 102462678 B1 KR102462678 B1 KR 102462678B1
Authority
KR
South Korea
Prior art keywords
content
electronic device
processor
display area
display
Prior art date
Application number
KR1020180057208A
Other languages
English (en)
Other versions
KR20190132033A (ko
Inventor
엄준훤
이영욱
김승년
윤용상
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180057208A priority Critical patent/KR102462678B1/ko
Priority to US16/388,059 priority patent/US11122254B2/en
Priority to PCT/KR2019/005855 priority patent/WO2019221518A1/en
Priority to CN202210812821.XA priority patent/CN115190291A/zh
Priority to CN201980031406.7A priority patent/CN112106353B/zh
Priority to EP22211682.4A priority patent/EP4164218A3/en
Priority to EP19802667.6A priority patent/EP3744087B1/en
Publication of KR20190132033A publication Critical patent/KR20190132033A/ko
Priority to US17/473,458 priority patent/US11645821B2/en
Application granted granted Critical
Publication of KR102462678B1 publication Critical patent/KR102462678B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0183Adaptation to parameters characterising the motion of the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal (AREA)

Abstract

다양한 실시 예에 따른 전자 장치는, 제1센서, 메모리, 제1시야에 대응하는 제1표시 영역 및 상기 제1시야보다 넓은 제2시야를 가지는 제2표시 영역을 포함하는 디스플레이, 및 프로세서를 포함하고, 상기 프로세서는, 상기 제1센서를 이용하여 상기 전자 장치 주변의 조도를 확인하고, 상기 확인된 조도가 제1조도 범위일 경우, 상기 메모리에 저장된 콘텐트가 표시될 위치를 상기 제1표시 영역의 적어도 일부로 지정하고, 상기 확인된 조도가 제2조도 범위일 경우, 상기 콘텐트가 표시될 위치를 상기 제2표시 영역의 적어도 일부로 지정하도록 설정될 수 있다.

Description

주변 조도에 기반하여 디스플레이에 표시되는 콘텐트의 위치를 조절하는 전자 장치와 이의 동작 방법{ELECTRONIC DEVICE FOR ADJUSTING A POSITION OF CONTENT DISPLAYED IN A DISPLAY BASED ON AMBIENT ILLUMINATION AND METHOD OF OPERATING THE SAME}
본 발명의 다양한 실시 예는, 디스플레이에 표시되는 콘텐트의 위치를 조절하는 전자 장치와 이의 동작 방법에 관한 것이다.
전자 장치의 집적도가 높아지고, 초고속, 대용량 무선 통신의 발달됨에 따라, 하나의 전자 장치에 다양한 기능이 탑재되고 있다. 예를 들면, 통신 기능뿐만 아니라, 게임과 같은 엔터테인먼트 기능, 음악/동영상 재생과 같은 멀티미디어 기능, 모바일 뱅킹 등을 위한 통신 및 보안 기능, 일정 관리나 전자 지갑 등의 기능이 하나의 전자 장치에 집약되고 있다.
표시 장치와 배터리의 성능이 향상되면서, 소형화되고 휴대 목적의 전자 장치에 대한 개발이 활발해지고 있다. 예를 들면, 머리(head)와 같은 신체의 일부에 착용할 수 있는 전자 장치 또는 웨어러블 전자 장치가 등장하고 있다.
최근에는, 휴대 장치에서 제공하는 다양한 서비스 및 기능들이 점차 확대되고 있다. 또한, 휴대 장치에서 실행 가능한 다양한 어플리케이션들도 개발되고 있다. 이러한 휴대 장치의 효용 가치를 높이고 사용자들의 다양한 욕구를 만족시키기 위해 머리 장착형 휴대 장치와 같은 다양한 휴대 장치들이 개발되고 있다.
머리 장착형 휴대 장치는, 증강 현실(augmented reality(AR)) 이미지를 표시할 수 있다. 머리 장착형 휴대 장치는, 외부의 조도나 이동 속도에 관계없이 고정된 디스플레이 영역에 증강 현실 이미지를 출력할 수 있다.
사용자의 시야각은, 주변부 망막과 중심부 망막 사이의 기능 차이로 인해, 외부의 조도나 이동 속도의 변화에 따라 차이가 있을 수 있다. 예를 들면, 사용자는 외부의 조도나 이동 속도의 변화에 따라 이미지가 출력되는 해당 디스플레이 영역으로 눈의 시점을 옮겨야만 한다. 외부의 조도나 이동 속도에 따라 이미지가 변화되지 않을 경우, 증강 현실 이미지를 지속적으로 응시할 때, 사용자의 피로도 증가, 안구 손상, 및 시점 변경 지연으로 인한 안전 문제가 발생될 수 있다.
본 발명의 다양한 실시 예는, 전자 장치 주변의 조도 및 전자 장치의 속도 중 적어도 하나에 기초하여, 디스플레이를 통해 표시되는 콘텐트의 위치 및/또는 크기를 자동으로 조절할 수 있는 전자 장치와 이의 동작 방법을 제공할 수 있다.
다양한 실시 예에 따른 전자 장치는, 제1센서, 메모리, 제1시야에 대응하는 제1표시 영역 및 상기 제1시야보다 넓은 제2시야를 가지는 제2표시 영역을 포함하는 디스플레이, 및 프로세서를 포함하고, 상기 프로세서는, 상기 제1센서를 이용하여 상기 전자 장치 주변의 조도를 확인하고, 상기 확인된 조도가 제1조도 범위일 경우, 상기 메모리에 저장된 콘텐트가 표시될 위치를 상기 제1표시 영역의 적어도 일부로 지정하고, 상기 확인된 조도가 제2조도 범위일 경우, 상기 콘텐트가 표시될 위치를 상기 제2표시 영역의 적어도 일부로 지정하도록 설정될 수 있다.
다양한 실시 예에 따른 전자 장치는, 상기 전자 장치의 상태를 검출하는 센서, 메모리, 제1시야에 대응하는 제1표시 영역 및 상기 제1시야보다 넓은 제2시야에 대응하는 제2표시 영역을 포함하는 디스플레이, 및 프로세서를 포함하고, 상기 프로세서는, 상기 센서를 이용하여 상기 전자 장치의 상태를 확인하고, 상기 확인된 전자 장치의 상태를 나타내는 센서 값이 제1범위일 경우, 상기 메모리에 저장된 콘텐트가 표시될 위치를 상기 제1표시 영역의 적어도 일부로 지정하고, 상기 센서 값이 제2범위일 경우, 상기 콘텐트가 표시될 위치를 상기 제2표시 영역의 적어도 일부로 지정하도록 설정될 수 있다.
다양한 실시 예에 따른 전자 장치는, 센서 모듈, 디스플레이, 및 상기 센서 모듈을 이용하여 상기 전자 장치 주변의 조도 또는 상기 전자 장치의 속도 중 적어도 하나를 확인하고, 상기 전자 장치 주변의 조도 또는 상기 전자 장치의 속도 중 적어도 하나에 기초하여, 상기 디스플레이를 통해 표시되는 콘텐트에 대응하는 허상의 위치를 조절하도록 설정된 프로세서를 포함할 수 있다.
다양한 실시 예에 따른 전자 장치는, 전자 장치 주변의 조도 및 전자 장치의 속도 중 적어도 하나를 확인하여, 디스플레이를 통해 표시되는 콘텐트의 위치 및/또는 크기를 자동으로 조절함으로써, 사용성과 안정성을 증가시킬 수 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은, 다양한 실시 예들에 따른, 주변 조도에 기반하여 디스플레이에 표시되는 콘텐트의 위치를 조절하는, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는 다양한 실시 예에 따른 전자 장치의 개략적인 도면이다.
도 3은 다양한 실시 예에 따른 전자 장치의 개략적인 구성을 나타내는 블럭도이다.
도 4는 다양한 실시 예에 따른 전자 장치의 동작을 설명하기 위한 플로우 차트이다.
도 5는 다양한 실시 예에 따른 전자 장치의 동작을 설명하기 위한 플로우 차트이다.
도 6은 다양한 실시 예에 따른 전자 장치의 동작을 설명하기 위한 플로우 차트이다.
도 7은 다양한 실시 예에 따른 전자 장치의 동작을 설명하기 위한 플로우 차트이다.
도 8은 다양한 실시 예에 따른 조도에 따른 시야각과 가시거리 차이를 설명하기 위한 도면이다.
도 9는 다양한 실시 예에 따른 속도에 따른 시야각과 초점 거리의 차이를 설명하기 위한 도면이다.
도 10a부터 도 10c는 다양한 실시 예에 따른 전자 장치가 콘텐트의 위치를 조절하는 동작을 설명하기 위한 도면이다.
도 11은 다양한 실시 예에 따른 전자 장치가 콘텐트의 위치를 조절하는 동작을 설명하기 위한 도면이다.
도 12a부터 도 12c는 다양한 실시 예에 따른 전자 장치가 콘텐트의 위치를 조절하는 동작을 설명하기 위한 도면이다.
도 1은, 다양한 실시예들에 따른, 주변 조도에 기반하여 디스플레이에 표시되는 콘텐트의 위치를 조절하는, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)이 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 하나 이상의 안테나들을 포함할 수 있고, 이로부터, 제 1 네트워크 198 또는 제 2 네트워크 199와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나,""A, B 또는 C," "A, B 및 C 중 적어도 하나, "및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
도 2는 다양한 실시 예에 따른 전자 장치(201)의 개략적인 도면이다.
도 2를 참조하면, 전자 장치(201)는 도 1의 전자 장치(101)와 실질적으로 동일하거나 유사하게 구현될 수 있다. 예컨대, 전자 장치(201)는 웨어러블 장치(예컨대, 스마트 글라스)를 포함할 수 있다. 전자 장치(201)는 디스플레이(260)를 포함할 수 있다. 예컨대, 디스플레이(260)는 투명한 유리판, 반사형 반투과 글래스, 광 웨이브 가이드 방식의 글래스, 및/또는 투명 디스플레이를 포함할 수 있다.
다양한 실시 예에 따라, 전자 장치(201)는 증강 현실 기술을 이용하여 디스플레이(260)를 통해 콘텐트(210)를 표시할 수 있다. 예컨대, 콘텐트(210)는 전자 장치(201)에 저장된 이미지 및/또는 오브젝트를 포함할 수 있다. 외부 객체(202)는 전자 장치(201)에 포함된 디스플레이(260)(예컨대, 투명한 디스플레이)를 통해 사용자에게 인식될 수 있다. 외부 객체(202)는 디스플레이(260)의 제1위치(203)에서 인식될 수 있다. 외부 객체(202)는 디스플레이(260)에 표시되는 콘텐트(210)와 함께 사용자에게 인식될 수 있다.
다양한 실시 예에 따라, 전자 장치(201)는 전자 장치(201) 주변의 조도 및 전자 장치(201)의 속도 중 적어도 하나를 확인하고, 확인된 전자 장치(201) 주변의 조도 및 전자 장치(201)의 속도 중 적어도 하나에 기초하여, 디스플레이(260)를 통해 표시되는 콘텐트의 위치 및/또는 크기를 조절할 수 있다. 전자 장치(201)는, 주변의 조도 및/또는 속도 변화에 따른 사용자의 눈의 시점 이동을 최소화하도록, 디스플레이(260)를 통해 표시되는 콘텐트의 위치 및/또는 크기를 조절할 수 있다.
도 3은 다양한 실시 예에 따른 전자 장치(301)의 개략적인 구성을 나타내는 블록도이다.
도 3을 참조하면, 전자 장치(301)는 도 1의 전자 장치(101, 102) 또는 도 2의 전자 장치(201)와 실질적으로 동일하거나 유사하게 구현될 수 있다. 예컨대, 전자 장치(301)는
전자 장치(301)는 센서 모듈(310), 프로세서(320), 메모리(330), 디스플레이(360), 또는 통신 모듈(390) 중 적어도 하나를 포함할 수 있다.
다양한 실시 예에 따라, 센서 모듈(310)은 전자 장치(301)의 상태를 감지할 수 있다. 센서 모듈(310)은 도 1에서 설명한 센서 모듈(176)과 동일하거나 유사하게 구현될 수 있다. 예컨대, 센서 모듈(310)은, 전자 장치(310) 주변의 조도 및/또는 전자 장치(310)의 속도(또는 가속도)를 감지할 수 있다. 예컨대, 센서 모듈(310)은 조도 센서(312), 가속도 센서(315), 및 GPS 모듈(317)을 포함할 수 있다.
다양한 실시 예에 따라, 조도 센서(312)는 전자 장치(310) 주변의 조도를 감지할 수 있다. 예컨대, 조도 센서(312)는 전자 장치(310) 주변의 조도를 감지하고, 감지된 조도에 대응하는 신호를 프로세서(320)로 전송할 수 있다. 프로세서(320)는 조도 센서(312)로부터 수신된 신호에 기초하여, 전자 장치(310) 주변의 조도를 확인할 수 있다.
다양한 실시 예에 따라, 가속도 센서(315)는 전자 장치(310)의 가속도(또는 속도)를 감지할 수 있다. 가속도 센서(315)는 전자 장치(310)의 가속도(또는 속도)를 감지하고, 감지된 가속도(또는 속도)에 대응하는 신호를 프로세서(320)로 전송할 수 있다. 프로세서(320)는 속도 센서(315)로부터 수신된 신호에 기초하여, 전자 장치(310)의 가속도(또는 속도)를 확인할 수 있다.
다양한 실시 예에 따라, GPS 모듈(317)은 전자 장치(310)의 위치에 대한 정보를 획득할 수 있다. 프로세서(320)는 GPS 모듈(317)로부터 수신된 위치에 대한 정보에 기초하여 전자 장치(310)의 위치 변화를 판단할 수 있다. 프로세서(320)는 전자 장치(310)의 위치 변화에 기초하여 전자 장치(310)의 속도를 확인할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 전자 장치(301)의 전반적인 동작을 제어할 수 있다. 프로세서(320)는 도 1의 프로세서(120)와 실질적으로 동일하거나 유사하게 구현될 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 메모리(330)에 저장된 이미지(또는 콘텐트)를 디스플레이(360)를 통해 표시할 수 있다. 프로세서(320)는 증강 현실 기술을 이용하여 이미지(또는 콘텐트)를 표시할 수 있다. 프로세서(320)는, 센서 모듈(310)을 이용하여 획득된 전자 장치(301) 주변의 조도 및/또는 전자 장치(301)의 속도에 따라, 증강 현실 기술을 이용하여 표시되는 이미지(또는 콘텐트)의 위치 및/또는 크기를 조절할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는, 전자 장치(301) 주변의 조도에 따라 디스플레이(360)에 표시되는 콘텐트의 출력 위치를 조절할 수 있다. 예컨대, 프로세서(320)는 콘텐트의 출력 위치를 좌우 방향으로 조절할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는, 조도가 지정된 조도보다 밝으면, 사용자의 시야 범위는 넓을 수 있으므로, 넓은 시야 범위에 대응한 디스플레이 영역에 콘텐트가 출력되도록, 콘텐트의 출력 위치를 조정할 수 있다. 또한, 프로세서(320)는, 조도가 낮은 경우보다 짧은 초점 거리를 가지는 콘텐트를 출력할 수 있다. 또는, 프로세서(320), 조도가 지정된 조도보다 어두우면, 사용자의 시야 범위는 좁을 수 있으므로, 좁은 시야 범위에 대응한 디스플레이 영역에 콘텐트가 출력되도록 콘텐트의 출력 위치를 조정할 수 있다. 또한, 프로세서(320)는 조도가 높은 경우 보다 긴 초점 거리를 가지는 콘텐트를 출력할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 조도 센서(312)를 이용하여 전자 장치(301) 주변의 조도를 확인할 수 있다. 프로세서(320)는 확인된 조도에 기초하여, 확인된 조도가 포함된 범위에 대응하는 표시 영역에 콘텐트를 표시할 수 있다. 예컨대, 프로세서(320)는 확인된 조도가 제1조도 범위일 경우, 콘텐트가 표시될 위치를 제1표시 영역의 적어도 일부로 지정할 수 있다. 또는, 프로세서(320)는 확인된 조도가 제2조도 범위일 경우, 콘텐트가 표시될 위치를 제2표시 영역의 적어도 일부로 지정할 수 있다. 예컨대, 제1표시 영역과 제2표시 영역은, 디스플레이(360)에 포함된 영역을 의미할 수 있다. 제1표시 영역과 제2표시 영역은 증강 현실 기술을 이용하여 이미지 및/또는 객체가 표시되는 영역을 의미할 수 있다. 제1표시 영역과 제2표시 영역은, 서로 다른 시야 각(또는 시야) 및/또는 다른 초점 거리를 가질 수 있다. 예컨대, 제2조도 범위가 상기 제1조도 범위보다 높은 조도에 대응하는 범위이면, 제1표시 영역은 제1시야에 대응하는 영역이고, 제2표시 영역은, 제1시야보다 넓은 시야 각(또는 시야)을 제2시야에 대응하는 영역일 수 있다.
다양한 실시 예에 따라, 프로세서(320)는, 전자 장치(301)의 속도에 따라 디스플레이(360)에 표시되는 콘텐트의 출력 위치를 조절할 수 있다. 예컨대, 프로세서(320)는 콘텐트의 출력 위치를 좌우 방향으로 조절할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 속도가 지정된 속도보다 낮으면, 사용자의 시야 범위는 넓을 수 있으므로, 넓은 시야에 대응한 디스플레이 영역에 콘텐트가 출력되도록 콘텐트의 출력 위치를 조정할 수 있다. 또한, 프로세서(320)는 속도가 높은 경우보다 짧은 초점 거리를 가지는 콘텐트를 출력할 수 있다. 또는, 프로세서(320)는 속도가 지정된 속도보다 높으면, 사용자의 시야 범위는 좁을 수 있으므로, 좁은 시야에 대응한 디스플레이 영역에 콘텐트가 출력되도록 콘텐트의 출력 위치를 조정할 수 있다. 또한, 프로세서(320)는 속도가 낮은 영우보다 긴 초점 거리를 가지는 콘텐트를 출력할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는, 가속도 센서(315) 및 GPS 모듈(317) 중 적어도 하나를 이용하여 전자 장치(301)의 속도를 확인할 수 있다. 프로세서(320)는 확인된 속도에 기초하여, 확인된 속도가 포함된 범위에 대응하는 표시 영역에 콘텐트를 표시할 수 있다. 예컨대, 프로세서(320)는 확인된 속도가 제1속도 범위일 경우, 콘텐트가 표시될 위치를 제3표시 영역의 적어도 일부로 지정할 수 있다. 또는, 프로세서(320)는 확인된 속도가 제2속도 범위일 경우, 콘텐트가 표시될 위치를 제4표시 영역의 적어도 일부로 지정할 수 있다. 예컨대, 제3표시 영역과 제4표시 영역은, 디스플레이(360)에 포함된 영역을 의미할 수 있다. 제3표시 영역과 제4표시 영역은 증강 현실 기술을 이용하여 이미지 및/또는 객체가 표시되는 영역을 의미할 수 있다. 제3표시 영역과 제4표시 영역은, 서로 다른 시야 각(또는 시야) 및/또는 다른 초점 거리를 가질 수 있다. 예컨대, 제2속도 범위가 제1속도 범위보다 높은 속도에 대응하는 범위이면, 제3표시 영역은 제3시야에 대응하는 영역이고, 제4표시 영역은, 제3시야보다 좁은 시야 각(또는 시야)을 가지고 긴 초점 거리를 가지는 제4시야에 대응하는 영역일 수 있다. 예컨대, 제1표시 영역과 제3표시 영역은 동일하거나 상이할 수 있다. 또한, 제2표시 영역과 제4표시 영역도 동일하거나 상이할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 콘텐트의 표시 요청을 수신할 수 있다. 예컨대, 프로세서(320)는, 입력 장치(예컨대, 도 1의 입력 장치(150))을 통해 수신된 콘텐트의 표시를 요청하는 입력에 응답하여, 콘텐트의 표시 요청을 확인할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는, 콘텐트의 표시 요청이 확인되면, 디스플레이(360)에 포함된 복수의 표시 영역들 중 콘텐트가 표시될 위치를 확인할 수 있다. 예컨대, 프로세서(320)는 제1표시 영역 또는 상기 제2표시 영역에서, 콘텐트가 표시될 위치를 확인할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 확인된 위치에 기반하여, 디스플레이(360)를 통해 콘텐트를 표시할 수 있다. 예컨대, 프로세서(320)는 제1표시 영역 또는 제2표시 영역에, 증강 현실 기술을 이용하여 콘텐트를 표시할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 센서 모듈(310)을 통해 확인된 전자 장치(310)에 대한 조도 및 속도 중 적어도 하나에 기초하여, 콘텐트에 대응하는 허상의 위치를 조절할 수 있다. 예컨대, 프로세서(320)는 증강 현실 기술을 이용하여 표시되는 콘텐트의 시야 각(또는 시야) 및/또는 초점 거리를 조절할 수 있다. 예컨대, 프로세서(320)는 콘텐트에 대응하는 허상의 위치를 안쪽 또는 바깥쪽으로 조절할 수 있다. 예컨대, 프로세서(320)는 콘텐트에 대응하는 허상의 위치가 조절되도록 디스플레이(260)에 표시되는 콘텐트의 위치 및 크기 중 적어도 하나를 조절할 수 있다. 또는, 프로세서(320)는 콘텐트에 대응하는 좌안용 이미지 및 상기 콘텐트에 대응하는 우안용 이미지 사이의 거리를 조절하여 콘텐트에 대응하는 허상의 위치를 조절할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 센서 허브(미도시)를 포함할 수 있다. 예컨대, 센서 허브는 센서 모듈(310)의 동작을 제어할 수 있다. 센서 허브는 센서 모듈(310)로부터 출력되는 신호를 수신할 수 있다. 예컨대, 센서 허브는 저전력으로 구동될 수 있다.
다양한 실시 예에 따라, 전자 장치(301)는 프로세서(320)와 별도의 구성으로 센서 허브(미도시)를 더 포함할 수 있다. 예컨대, 센서 허브는 센서 모듈(310)로부터 출력되는 신호를 수신하고, 수신된 신호를 프로세서(320)로 전송할 수 있다. 예컨대, 센서 허브는 프로세서(320)에 비해 저전력으로 구동될 수 있다. 또한, 센서 허브는, 프로세서(320)가 슬립 상태이더라도, 센서 모듈(310)을 제어할 수 있다. 예컨대, 센서 허브는, 프로세서(320)가 슬립 상태이더라도, 센서 모듈(310)로부터 출력되는 신호를 수신할 수 있다.
다양한 실시 예에 따라, 메모리(330)는 전자 장치(301)에 대한 데이터를 저장할 수 있다. 예컨대, 전자 장치(301)의 콘텐트를 저장할 수 있다. 메모리(330)는 도 1에서 설명한 메모리(130)와 실질적으로 동일하거나 유사하게 구현될 수 있다.
다양한 실시 예에 따라, 디스플레이(360)는 메모리(330)에 저장된 콘텐트를 표시할 수 있다. 예컨대, 디스플레이(360)는 증강 현실 기술을 이용하여 외부 객체와 콘텐트를 함께 표시할 수 있다. 예컨대, 디스플레이(360)는 광을 출력하는 프로젝터 또는 액정 디스플레이를 포함할 수 있다. 또는, 디스플레이(360)는, 반사형 글라스, 광 웨이브 가이드, 및/또는 투과형 글래스와 같이, 광 출력 장치로부터 출력된 광의 경로를 변경하는 소자를 포함할 수 있다.
다양한 실시 예에 따라, 디스플레이(360)는 복수의 시야들 각각에 대응하는 복수의 표시 영역들을 포함할 수 있다. 복수의 표시 영역들 각각은, 다양한 시야 각(또는 시야) 및/또는 초점 거리를 가질 수 있다.
다양한 실시 예에 따라, 디스플레이(360)는 투명한 유리판을 포함할 수 있다. 디스플레이(360)는 유리판을 통해 이미지(또는 콘텐트)를 표시할 수 있는 가상의 디스플레이 영역을 포함할 수 있다. 또는, 디스플레이(360)는 유리판에 이미지(또는 콘텐트)를 표시할 수 있는 디스플레이 영역을 포함할 수 있다. 예컨대, 디스플레이(360)는 단안형 글라스 또는 양안형 글라스를 포함할 수 있다.
다양한 실시 예에 따라, 통신 모듈(390)은 외부 전자 장치(예컨대, 도 1의 전자 장치(102 및/또는 104))와 데이터를 송수신할 수 있다.
다양한 실시 예에 따라, 통신 모듈(390)은 외부 전자 장치(예컨대, 도 1의 전자 장치(102 및/또는 104))에서 감지된 전자 장치(301)의 상태를 나타내는 정보를 수신할 수 있다. 예컨대, 통신 모듈(390)은 외부 전자 장치(예컨대, 도 1의 전자 장치(102 및/또는 104))에서 감지된 전자 장치(301) 주변의 조도 및/또는 전자 장치(301)의 속도에 대한 정보를 수신할 수 있다. 통신 모듈(390)은 외부 전자 장치(예컨대, 도 1의 전자 장치(102 및/또는 104))로부터 수신된 전자 장치(301) 주변의 조도 및/또는 전자 장치(301)의 속도에 대한 정보를 프로세서(320)로 전송할 수 있다.
다양한 실시 예에 따라, 전자 장치(301)는 카메라(예컨대, 도 1의 카메라 모듈(180))를 더 포함할 수 있다. 프로세서(320)는 카메라(180)를 통해 촬영된 이미지를 디스플레이(360)에 표시하면서, 증강 현실 기술을 통해 메모리(230)에 저장된 이미지(또는 콘텐트)를 표시할 수 있다. 프로세서(320)는, 전자 장치(301)에 대한 조도 및 속도에 기초하여, 증강 현실 기술을 통해 표시되는 이미지(또는 콘텐트)의 위치 및/또는 크기를 조절할 수 있다. 예컨대, 프로세서(320)는 증강 현실 기술을 통해 표시되는 콘텐트의 시야 각(또는 시야) 및/또는 초점 거리를 조절할 수 있다.
도 4는 다양한 실시 예에 따른 전자 장치(301)의 동작을 설명하기 위한 플로우 차트이다.
도 4를 참조하면, 동작 401에서, 프로세서(320)는 전자 장치(301) 주변의 조도를 확인할 수 있다. 프로세서(320)는 조도 센서(312)를 통해 전자 장치(301) 주변의 조도를 확인할 수 있다.
동작 403에서, 프로세서(320)는 확인된 조도에 기초하여 메모리(330)에 저장된 콘텐트가 표시될 위치를 지정할 수 있다. 예컨대, 프로세서(320)는 디스플레이에 포함된 서로 다른 시야 각(또는 시야) 및/또는 초점 거리를 가지는 표시 영역들 중 어느 하나의 표시 영역을 콘텐트가 표시될 위치로 지정할 수 있다.
동작 405에서, 프로세서(320)는 디스플레이(360)를 통해 지정된 위치에 콘텐트를 표시할 수 있다.
도 5는 다양한 실시 예에 따른 전자 장치(301)의 동작을 설명하기 위한 플로우 차트이다.
도 5를 참조하면, 동작 501에서, 프로세서(320)는 센서 모듈(310)을 통해 전자 장치(301)의 상태를 확인할 수 있다. 예컨대, 프로세서(320)는 센서 모듈(310)을 통해 전자 장치(301) 주변의 조도 및 전자 장치(301)의 속도 중 적어도 하나를 확인할 수 있다.
동작 503에서, 프로세서(320)는 확인된 전자 장치(301)에 대한 조도 및 속도 중 적어도 하나에 대응하는 표시 영역을 판단할 수 있다. 예컨대, 프로세서(320)는 디스플레이에 포함된 서로 다른 시야 각(또는 시야) 및/또는 초점 거리를 가지는 표시 영역들 중 확인된 전자 장치(301)에 대한 조도 및 속도 중 적어도 하나에 대응하는 표시 영역을 판단할 수 있다.
동작 505에서, 프로세서(320)는 디스플레이(360)를 통해 표시되는 콘텐트의 표시 위치를 조절할 수 있다. 프로세서(320)는, 전자 장치(301)에 대한 조도 및 속도 중 적어도 하나에 대응하는 표시 영역으로 콘텐트의 표시 위치를 변경할 수 있다. 또는, 프로세서(320)는, 전자 장치(301)에 대한 조도 및 속도 중 적어도 하나에 대응하는 표시 영역으로 콘텐트에 대응하는 허상의 표시 위치를 변경할 수 있다. 프로세서(320)는, 콘텐트에 대응하는 허상의 표시 위치를 변경하기 위해, 디스플레이(360)를 통해 표시되는 콘텐트의 위치 및/또는 크기를 조절할 수 있다.
도 6는 다양한 실시 예에 따른 전자 장치(301)의 동작을 설명하기 위한 플로우 차트이다.
도 6을 참조하면, 동작 601에서, 프로세서(320)는 조도 센서(312)를 이용하여 전자 장치(301) 주변의 조도를 확인할 수 있다.
동작 603에서, 프로세서(320)는 확인된 조도와 지정된 조도를 비교할 수 있다. 예컨대, 프로세서(320)는 확인된 조도가 지정된 조도보다 높은지 여부를 판단할 수 있다. 지정된 조도는 사용자에 의해 설정되거나 프로세서(320)에 의해 자동으로 설정될 수 있다.
동작 605에서, 프로세서(320)는, 확인된 조도가 지정된 조도보다 높으면, 콘텐트에 대응하는 허상의 위치를 넓은 시야 각(또는 시야)을 가지는 제1표시 영역으로 변경할 수 있다. 예컨대, 프로세서(320)는 콘텐트에 대응하는 허상의 위치를 사용자를 기준으로 바깥쪽(예컨대, 사용자의 시야 중심축을 기준으로 멀어지는 쪽)으로 변경할 수 있다. 프로세서(320)는, 콘텐트에 대응하는 허상의 위치를 변경하기 위해, 디스플레이(360)에 표시되는 콘텐트의 위치 및/또는 크기를 조절할 수 있다. 예컨대, 프로세서(320)는, 디스플레이(360)를 통해 표시되는 콘텐트의 위치를 외측 영역으로 변경할 수 있다. 또는, 프로세서(320)는 콘텐트에 대응하는 좌안용 이미지와 콘텐트에 대응하는 우안용 이미지 사이의 거리를 증가시킬 수 있다. 또한, 프로세서(320)는, 낮은 조도인 경우보다, 짧은 초점 거리를 가지는 콘텐트를 표시할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 확인된 조도가 지정된 조도보다 높으면, 콘텐트를 출력하는 영상의 위치를, 기존의 제1영역에서 상기 제1영역보다 확장된 제2영역으로 출력할 수도 있다.
동작 607에서, 프로세서(320)는, 확인된 조도가 지정된 조도보다 높지 않으면, 프로세서(320)는 확인된 조도가 지정된 조도보다 낮은지 여부를 판단할 수 있다.
동작 609에서, 프로세서(320)는, 확인된 조도가 지정된 조도보다 낮으면, 콘텐트에 대응하는 허상의 위치를 좁은 시야 각(또는 시야)을 가지는 제2표시 영역으로 변경할 수 있다. 예컨대, 프로세서(320)는 콘텐트에 대응하는 허상의 위치를 사용자를 기준으로 안쪽(예컨대, 사용자의 시야 중심축을 기준으로 가까워지는 쪽)으로 변경할 수 있다. 프로세서(320)는, 콘텐트에 대응하는 허상의 위치를 변경하기 위해, 디스플레이(360)에 표시되는 콘텐트의 위치 및/또는 크기를 조절할 수 있다. 예컨대, 프로세서(320)는, 디스플레이(360)를 통해 표시되는 콘텐트의 위치를 내측 영역으로 변경할 수 있다. 또는, 프로세서(320)는 콘텐트에 대응하는 좌안용 이미지와 콘텐트에 대응하는 우안용 이미지 사이의 거리를 감소시킬 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 확인된 조도가 지정된 조도보다 낮으면, 콘텐트를 출력하는 영상의 위치를, 기존의 제1영역에서 상기 제1영역보다 제한된 제3영역으로 출력할 수도 있다.
동작 611에서, 프로세서(320)는, 확인된 조도가 지정된 조도와 동일하면, 콘텐트에 대응하는 허상의 위치를 유지시킬 수 있다. 즉, 프로세서(320)는 디스플레이(360)를 통해 표시되는 콘텐트의 위치 및/또는 크기를 변경하지 않을 수 있다.
도 7는 다양한 실시 예에 따른 전자 장치(301)의 동작을 설명하기 위한 플로우 차트이다.
도 7을 참조하면, 동작 701에서, 프로세서(320)는 가속도 센서(315) 및 GPS 모듈(317) 중 적어도 하나를 이용하여 전자 장치(301)의 속도를 확인할 수 있다.
동작 703에서, 프로세서(320)는 확인된 속도와 지정된 속도를 비교할 수 있다. 예컨대, 프로세서(320)는 확인된 조도가 지정된 조도보다 높은지 여부를 판단할 수 있다. 지정된 속도는 사용자에 의해 설정되거나 프로세서(320)에 의해 자동으로 설정될 수 있다.
동작 705에서, 프로세서(320)는, 확인된 속도가 지정된 속도보다 높으면, 콘텐트에 대응하는 허상의 위치를 좁은 시야 각(또는 시야)을 가지는 제3표시 영역으로 변경할 수 있다. 예컨대, 프로세서(320)는 콘텐트에 대응하는 허상의 위치를 사용자를 기준으로 안쪽(예컨대, 사용자의 시야 중심축을 기준으로 가까워지는 쪽)으로 변경할 수 있다. 프로세서(320)는, 콘텐트에 대응하는 허상의 위치를 변경하기 위해, 디스플레이(360)에 표시되는 콘텐트의 위치 및/또는 크기를 조절할 수 있다. 예컨대, 프로세서(320)는, 디스플레이(360)를 통해 표시되는 콘텐트의 위치를 내측 영역으로 변경할 수 있다. 또는, 프로세서(320)는 콘텐트에 대응하는 좌안용 이미지와 콘텐트에 대응하는 우안용 이미지 사이의 거리를 감소시킬 수 있다. 이를 통해, 프로세서(320)는, 낮은 속도인 경우보다, 긴 초점 거리를 가지는 콘텐트를 표시할 수 있다.
동작 707에서, 프로세서(320)는, 확인된 속도가 지정된 속도보다 높지 않으면, 프로세서(320)는 확인된 속도가 지정된 속도보다 낮은지 여부를 판단할 수 있다.
동작 709에서, 프로세서(320)는, 확인된 속도가 지정된 속도보다 낮으면, 콘텐트에 대응하는 허상의 위치를 넓은 시야 각(또는 시야)을 가지는 제4표시 영역으로 변경할 수 있다. 예컨대, 프로세서(320)는 콘텐트에 대응하는 허상의 위치를 사용자를 기준으로 바깥쪽(예컨대, 사용자의 시야 중심축을 기준으로 멀어지는 쪽)으로 변경할 수 있다. 프로세서(320)는, 콘텐트에 대응하는 허상의 위치를 변경하기 위해, 디스플레이(360)에 표시되는 콘텐트의 위치 및/또는 크기를 조절할 수 있다. 예컨대, 프로세서(320)는, 디스플레이(360)를 통해 표시되는 콘텐트의 위치를 외측 영역으로 변경할 수 있다. 또는, 프로세서(320)는 콘텐트에 대응하는 좌안용 이미지와 콘텐트에 대응하는 우안용 이미지 사이의 거리를 증가시킬 수 있다. 이를 통해, 프로세서(320)는, 높은 속도인 경우보다, 짧은 초점 거리를 가지는 콘텐트를 표시할 수 있다.
동작 711에서, 프로세서(320)는, 확인된 속도가 지정된 속도와 동일하면, 콘텐트에 대응하는 허상의 위치를 유지시킬 수 있다. 즉, 프로세서(320)는 디스플레이(360)를 통해 표시되는 콘텐트의 위치 및/또는 크기를 변경하지 않을 수 있다.
도 8은 다양한 실시 예에 따른 조도에 따른 시야 각과 가시거리 차이를 설명하기 위한 도면이다.
도 8을 참조하면, 프로세서(320)는 조도 센서(312)를 통해 확인된 조도에 대응하는 가시 영역을 판단하고, 판단된 가시 영역에 기초하여 표시 영역을 지정할 수 있다.
도 8(a)는, 높은 조도(예컨대, 주간 시간)일 때, 사람의 망막이 상을 인지할 수 있는 가시 영역을 나타내는 도면이다. 예컨대, 높은 조도일 때, 사람의 망막은 전체 영역(801)에서 제1가시 영역(810)만큼 상을 인지할 수 있다. 즉, 사람의 망막은, 제1가시 영역(810)에 대응하는 시야 각(또는 시야) 및/또는 가시거리에 포함된 객체를 인지할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 전자 장치(301) 주변의 조도에 기초하여, 제1가시 영역(810)에 콘텐트를 표시할 수 있다. 또는, 프로세서(320)는 디스플레이(360)를 통해 표시되는 콘텐트의 위치를 제1가시 영역(810)으로 변경시킬 수 있다.
도 8(b)는, 낮은 조도(예컨대, 야간 시간)일 때, 사람의 망막이 상을 인지할 수 있는 가시 영역을 나타내는 도면이다. 예컨대, 낮은 조도일 때, 사람의 망막은 전체 영역(801)에서 제2가시 영역(820)만큼 상을 인지할 수 있다. 즉, 사람의 망막은, 제2가시 영역(820)에 대응하는 시야 각(또는 시야) 및/또는 가시거리에 포함된 객체를 인지할 수 있다. 제2가시 영역(820)은 제1가시 영역(810)보다 좁은 시야 각과 짧은 가시거리를 가질 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 전자 장치(301) 주변의 조도에 기초하여, 제2가시 영역(820)에 콘텐트를 표시할 수 있다. 또는, 프로세서(320)는 디스플레이(360)를 통해 표시되는 콘텐트의 위치를 제2가시 영역(820) 내로 변경시킬 수 있다.
도 8(a)와 도 8(b)를 참조하면, 사람의 망막은 조도가 높을수록 넓은 시야각과 긴 가시거리에 포함된 객체를 인지할 수 있다. 이에 따라, 프로세서(320)는 전자 장치(301) 주변의 조도 및/또는 조도 변화를 확인하고, 확인된 조도 및 조도 변화에 기초한 가시 영역에 콘텐트를 표시할 수 있다.
도 9는 다양한 실시 예에 따른 속도에 따른 시야각과 초점 거리의 차이를 설명하기 위한 도면이다.
도 9를 참조하면, 프로세서(320)는 가속도 센서(315) 및 GPS 모듈(317) 중 적어도 하나를 통해 확인된 속도에 대응하는 가시 영역을 판단하고, 판단된 가시 영역에 기초하여 표시 영역을 지정할 수 있다.
도 9(a)는, 제1속도(예컨대, 빠른 속도)일 때, 사용자(905)를 기준으로 망막이 상을 인지할 수 있는 가시 영역을 나타내는 도면이다. 예컨대, 제1속도(예컨대, 빠른 속도)일 때, 사람의 망막은 제1가시 영역(910)만큼 상을 인지할 수 있다. 즉, 사람의 망막은, 제1가시 영역(910)에 대응하는 시야 각(또는 시야) 및/또는 초점 거리의 객체를 인지할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 전자 장치(301)의 속도에 기초하여, 제1가시 영역(910)에 콘텐트를 표시할 수 있다. 또는, 프로세서(320)는 디스플레이(360)를 통해 표시되는 콘텐트의 위치를 제1가시 영역(910)으로 변경시킬 수 있다.
도 9(b)는, 제2속도(예컨대, 보통 속도)일 때, 사용자(905)를 기준으로 망막이 상을 인지할 수 있는 가시 영역을 나타내는 도면이다. 예컨대, 제2속도(예컨대, 보통 속도)일 때, 사람의 망막은 제2가시 영역(920)만큼 상을 인지할 수 있다. 즉, 사람의 망막은, 제2가시 영역(920)에 대응하는 시야 각(또는 시야) 및/또는 초점 거리의 객체를 인지할 수 있다. 제2가시 영역(920)은 제1가시 영역(910)보다 넓은 시야 각(또는 시야) 및/또는 짧은 초점 거리의 영역을 의미할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 전자 장치(301)의 속도에 기초하여, 제2가시 영역(920)에 콘텐트를 표시할 수 있다. 또는, 프로세서(320)는 디스플레이(360)를 통해 표시되는 콘텐트의 위치를 제2가시 영역(920)으로 변경시킬 수 있다.
도 9(c)는, 제3속도(예컨대, 느린 속도)일 때, 사용자(905)를 기준으로 망막이 상을 인지할 수 있는 가시 영역을 나타내는 도면이다. 예컨대, 제3속도(예컨대, 느린 속도)일 때, 사람의 망막은 제3가시 영역(930)만큼 상을 인지할 수 있다. 즉, 사람의 망막은, 제3가시 영역(930)에 대응하는 시야 각(또는 시야) 및/또는 초점 거리의 객체를 인지할 수 있다. 제3가시 영역(930)은 제2가시 영역(920)보다 넓은 시야 각(또는 시야) 및/또는 짧은 초점 거리의 영역을 가질 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 전자 장치(301)의 속도에 기초하여, 제3가시 영역(930)에 콘텐트를 표시할 수 있다. 또는, 프로세서(320)는 디스플레이(360)를 통해 표시되는 콘텐트의 위치를 제3가시 영역(930)으로 변경시킬 수 있다.
도 9(a) 내지 도 9(c)를 참조하면, 사람의 망막은 속도가 높을수록 좁은 시야 각(또는 시야) 및/또는 긴 초점 거리의 객체를 인지할 수 있다. 이에 따라, 프로세서(320)는 전자 장치(301)의 속도 및/또는 속도 변화를 확인하고, 확인된 속도 및 속도 변화에 기초한 가시 영역에 콘텐트를 표시할 수 있다.
도 10a부터 도 10c는 다양한 실시 예에 따른 전자 장치가 콘텐트의 위치를 조절하는 동작을 설명하기 위한 도면이다.
도 10a부터 도 10c를 참조하면, 프로세서(320)는 전자 장치(301)에 대한 조도 및 속도에 따라, 디스플레이(1001)(예컨대, 도 3의 디스플레이(360))를 통해 표시되는 콘텐트의 위치를 조절할 수 있다. 예컨대, 디스플레이(1001)는 단안형 디스플레이 또는 단수의 디스플레이를 포함할 수 있다.
도 10a를 참조하면, 프로세서(320)는 확인된 조도 및 속도 중 적어도 하나에 기초하여, 제1표시 영역(1010)에 복수의 콘텐트(1011~1015)를 표시할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 확인된 조도가 제1조도 범위이면, 제1표시 영역(1010)에 복수의 콘텐트들(1011~1015)을 표시할 수 있다. 예컨대, 제1표시 영역(1010)은 도 8(a)의 가시 영역(810)에 대응할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 확인된 속도가 제1속도 범위(예컨대, 60km)이면, 제1표시 영역(1010)에 복수의 콘텐트들(1011~1015)을 표시할 수 있다. 또는, 프로세서(320)는 확인된 조도가 제1조도 범위이고 확인된 속도가 제1속도 범위(예컨대, 60km)이면, 제1표시 영역(1010)에 복수의 콘텐트들(1011~1015)을 표시할 수 있다.
도 10b를 참조하면, 프로세서(320)는 확인된 조도 및/또는 속도 중 적어도 하나에 기초하여, 제2표시 영역(1020)에 복수의 콘텐트(1021~1025)들을 표시할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 확인된 조도가 제2조도 범위이면, 제1표시 영역(1010)보다 좁은 시야각과 짧은 가시거리(또는 초점거리)를 가지는 제2표시 영역(1020)에 복수의 콘텐트들(1021~1025)을 표시할 수 있다. 예컨대, 제2조도 범위는 제1조도 범위보다 낮은 조도에 대응하는 범위일 수 있다. 예컨대, 제2표시 영역(1020)은 도 8(b)의 가시 영역(820)에 대응할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 확인된 속도가 제2속도 범위(예컨대, 100km)이면, 제2표시 영역(1020)에 복수의 콘텐트들(1021~1025)을 표시할 수 있다. 또는, 프로세서(320)는 확인된 조도가 제2조도 범위이고 확인된 속도가 제2속도 범위(예컨대, 60km)이면, 제2표시 영역(1020)에 복수의 콘텐트들(1021~1025)을 표시할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 전자 장치(301) 주변의 조도 변화(또는 속도 변화)를 확인할 수 있다. 프로세서(320)는 조도 변화(또는 속도 변화)에 따라 제1표시 영역(1010)에 표시되는 복수의 콘텐트들(1011~1015)을 제2표시 영역(1020)에 표시할 수 있다. 프로세서(320)는 조도 변화(또는 속도 변화)에 따라 복수의 콘텐트들(1011~1015)의 표시 위치를 점진적으로 제1표시 영역(1010)에서 제2표시 영역(1020)으로 변경시킬 수도 있다.
다양한 실시 예에 따라, 프로세서(320)는, 제2표시 영역(1020)에 표시되는 복수의 콘텐트들(1021~1025)의 크기도 조절할 수 있다. 예컨대, 프로세서(320)는, 복수의 콘텐트들(1011~1015)의 표시 위치가 변경됨에 따라, 제1표시 영역(1010)에서 표시되던 콘텐트들(1011~1015)보다 작거나 같은 크기의 콘텐트들(1021~1025)을 제2표시 영역(1020)에 표시할 수 있다.
도 10c를 참조하면, 프로세서(320)는 확인된 조도 및 속도 중 적어도 하나에 기초하여, 제3표시 영역(1030)에 복수의 콘텐트(1031~1035)들을 표시할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 확인된 조도가 제3조도 범위이면, 제1표시 영역(1010)보다 넓은 시야각과 긴 가시거리(또는 초점거리)를 가지는 제3표시 영역(1030)에 복수의 콘텐트들(1031~1035)을 표시할 수 있다. 예컨대, 제3조도 범위는 제1조도 범위보다 높은 조도에 대응하는 범위일 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 확인된 속도가 제3속도 범위(예컨대, 30km)이면, 제3표시 영역(1030)에 복수의 콘텐트들(1031~1035)을 표시할 수 있다. 또는, 프로세서(320)는 확인된 조도가 제3조도 범위이고 확인된 속도가 제3속도 범위(예컨대, 30km)이면, 제3표시 영역(1030)에 복수의 콘텐트들(1031~1035)을 표시할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는, 제3표시 영역(1030)에 표시되는 복수의 콘텐트들(1031~1035)의 크기도 조절할 수 있다. 예컨대, 프로세서(320)는, 복수의 콘텐트들(1011~1015)의 표시 위치가 변경됨에 따라, 제1표시 영역(1010)에서 표시되던 콘텐트들(1011~1015)보다 크거나 같은 크기의 콘텐트들(1031~1035)을 제3표시 영역(1030)에 표시할 수 있다.
다양한 실시 예에 따라, 제1표시 영역(1010), 제2표시 영역(1020), 및 제3표시 영역(1030)은, 서로 겹치는 영역이 있을 수 있다. 또는, 제1표시 영역(1010), 제2표시 영역(1020), 및 제3표시 영역(1030)은, 서로 겹치는 영역이 없을 수도 있다.
도 11은 다양한 실시 예에 따른 전자 장치가 콘텐트의 위치를 조절하는 동작을 설명하기 위한 도면이다.
도 11을 참조하면, 프로세서(320)는 전자 장치(301)에 대한 조도 및 속도에 따라, 디스플레이(360)를 통해 표시되는 콘텐트의 위치를 조절할 수 있다. 예컨대, 디스플레이(360)는 양안형 디스플레이 또는 복수의 디스플레이들(1101 및 1102)을 포함할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 복수의 디스플레이들(1101 및 1102)) 각각에 콘텐트를 표시하여 증강 현실 기술을 구현할 수 있다. 예컨대, 프로세서(320)는 제1디스플레이(1101)에 콘텐트에 대응하는 제1이미지(1110)(좌안용 이미지)를 표시하고, 제2디스플레이(1102)에 콘텐트에 대응하는 제2이미지(1120)(우안용 이미지)를 표시할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 전자 장치(301)에 대한 조도 및 속도 중 적어도 하나에 기초하여, 디스플레이(360)를 통해 표시되는 콘텐트에 대응하는 제1이미지(1110)(예컨대, 좌안용 이미지) 및 콘텐트에 대응하는 제2이미지(1120)(예컨대, 우안용 이미지) 사이의 거리(L)를 조절할 수 있다. 프로세서(320)는 제1이미지(1110)와 제2이미지(1120) 사이의 거리(L)를 조절하여, 콘텐트에 대응하는 허상의 위치(또는 깊이)를 조절할 수 있다. 예컨대, 프로세서(320)는 제1이미지(1110)를 왼쪽으로 이동시키고 제2이미지(1120)를 오른쪽으로 이동시켜, 제1이미지(1110)와 제2이미지(1120) 사이의 거리(L)를 증가시킬 수 있다. 또는, 프로세서(320)는 제1이미지(1110)를 오른쪽으로 이동시키고, 제2이미지(1120)를 왼쪽으로 이동시켜, 제1이미지(1110)와 제2이미지(1120) 사이의 거리를 감소시킬 수도 있다. 프로세서(320)는 제1이미지(1110)와 제2이미지(1120) 사이의 거리를 조절하여, 콘텐트에 대응하는 허상의 위치(또는 깊이)를 조절할 수 있다. 즉, 프로세서(320)는 제1이미지(1110)와 제2이미지(1120)에 대한 양안 시차를 이용하여 허상의 위치(또는 깊이)를 조절할 수 있다.
도 12a부터 도 12c는 다양한 실시 예에 따른 전자 장치가 콘텐트의 위치를 조절하는 동작을 설명하기 위한 도면이다.
도 12a부터 도 12c를 참조하면, 프로세서(320)는 전자 장치(301)에 대한 조도 및 속도 중 적어도 하나에 따라, 디스플레이(360)(예컨대, 양안용 디스플레이)를 통해 표시되는 콘텐트에 대응하는 제1이미지(1210)와 제2이미지(1220) 사이의 거리를 조절하여, 콘텐트에 대응하는 허상(1230)의 위치를 조절할 수 있다.
도 12a를 참조하면, 프로세서(320)는 디스플레이(360)를 통해 표시되는 콘텐트의 허상(1230)의 위치를 조절할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 확인된 조도 또는 속도 중 적어도 하나에 기초하여, 콘텐트에 대응하는 허상(1230)을 제1표시 영역에 표시할 수 있다. 예컨대, 프로세서(320)는, 낮은 조도 및/또는 빠른 속도가 확인되면, 콘텐트에 대응하는 허상(1230)을 제1표시 영역에 위치시킬 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 제1이미지(1210)를 디스플레이(360)의 중앙을 기준으로 좌측에 표시하고 제2이미지(1220)를 디스플레이의 중앙을 기준으로 우측에 표시하여, 허상(1230)을 제1표시 영역에 위치시킬 수 있다. 예컨대, 제1표시 영역은, 좁은 시야각과 긴 초점 거리를 가지는 영역을 의미할 수 있다. 제1표시 영역은, 디스플레이(360)를 기준으로 바깥쪽 영역을 의미할 수 있다. 예컨대, 제1표시 영역은 도 9(a)의 가시 영역(910)에 대응할 수 있다.
도 12b를 참조하면, 프로세서(320)는 확인된 조도 및 속도 중 적어도 하나에 기초하여, 콘텐트에 대응하는 허상(1230)을 제2표시 영역에 표시할 수 있다. 예컨대, 프로세서(320)는, 보통 조도 및/또는 보통 속도가 확인되면, 콘텐트에 대응하는 허상(1230)을 제2표시 영역에 위치시킬 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 제1이미지(1210)를 디스플레이(360)의 중앙부에 표시하고 제2이미지(1220)를 디스플레이의 중앙부에 표시하여, 허상(1230)을 제2표시 영역에 위치시킬 수 있다. 예컨대, 제2표시 영역은, 제1표시 영역보다 넓은 시야각과 짧은 초점 거리를 가지는 영역을 의미할 수 있다. 제2표시 영역은, 디스플레이(360)과 일치하는 영역을 의미할 수 있다. 예컨대, 제2표시 영역은 도 9(b)의 가시 영역(920)에 대응할 수 있다.
도 12c를 참조하면, 프로세서(320)는 확인된 조도 및 속도 중 적어도 하나에 기초하여, 콘텐트에 대응하는 허상(1230)을 제3표시 영역에 표시할 수 있다. 예컨대, 프로세서(320)는, 높은 조도 및/또는 느린 속도가 확인되면, 콘텐트에 대응하는 허상(1230)을 제3표시 영역에 위치시킬 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 제1이미지(1210)를 디스플레이(360)의 중앙을 기준으로 우측에 표시하고 제2이미지(1220)를 디스플레이의 중앙을 기준으로 좌측에 표시하여, 허상(1230)을 제3표시 영역에 위치시킬 수 있다. 예컨대, 제3표시 영역은, 제2표시 영역보다 넓은 시야각과 짧은 초점 거리를 가지는 영역을 의미할 수 있다. 제3표시 영역은, 디스플레이(360)의 안쪽 영역을 의미할 수 있다. 예컨대, 제3표시 영역은 도 9(c)의 가시 영역(930)에 대응할 수 있다.
다양한 실시 예에 따라, 프로세서(320)는 전자 장치(301)에 대한 조도 및 속도 중 적어도 하나에 대응하는 표시 영역에서 콘텐트가 표시되도록 콘텐트에 대응하는 허상의 위치를 조절할 수 있다.
예컨대, 프로세서(320)는, 확인된 조도가 지정된 조도에 대응하는 범위보다 높은 경우, 제1표시 영역에서 표시되는 콘텐트의 허상을 제2표시 영역 또는 제3표시 영역에서 표시할 수 있다. 또는, 프로세서(320)는, 확인된 조도가 지정된 조도에 대응하는 범위보다 낮은 경우, 제3표시 영역에서 표시되는 콘텐트의 허상을 제1표시 영역 또는 제2표시 영역에서 표시할 수 있다. 또는, 프로세서(320)는, 확인된 조도가 지정된 조도에 대응하는 범위인 경우, 콘텐트의 허상의 위치를 유지할 수도 있다.
예컨대, 프로세서(320)는, 확인된 속도가 지정된 속도에 대응하는 범위보다 낮은 경우, 제1표시 영역에서 표시되는 콘텐트의 허상을 제2표시 영역 또는 제3표시 영역에서 표시할 수 있다. 또는, 프로세서(320)는, 확인된 속도가 지정된 속도에 대응하는 범위보다 높은 경우, 제3표시 영역에서 표시되는 콘텐트의 허상을 제1표시 영역 또는 제2표시 영역에서 표시할 수 있다. 또는, 프로세서(320)는, 확인된 속도가 지정된 속도에 대응하는 범위인 경우, 콘텐트의 허상의 위치를 유지할 수도 있다.
다양한 실시 예에 따라, 프로세서(320)는 전자 장치(301)에 대한 조도 변화(또는 속도 변화)를 확인할 수 있다. 프로세서(320)는 조도 변화(또는 속도 변화)에 따라 제1표시 영역에서 표시되는 콘텐트의 허상을 제2표시 영역 또는 제3표시 영역으로 이동시킬 수도 있다. 예컨대, 프로세서(320)는 조도 변화(또는 속도 변화)에 따라 콘텐트의 허상의 위치를 점진적으로 제1표시 영역에서 제2표시 영역 또는 제3표시 영역으로 이동시킬 수도 있다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 제1센서, 메모리, 제1시야에 대응하는 제1표시 영역 및 상기 제1시야보다 넓은 제2시야에 대응하는 제2표시 영역을 포함하는 디스플레이, 및 프로세서를 포함하고, 상기 프로세서는, 상기 제1센서를 이용하여 상기 전자 장치 주변의 조도를 확인하고, 상기 확인된 조도가 제1조도 범위일 경우, 상기 메모리에 저장된 콘텐트가 표시될 위치를 상기 제1표시 영역의 적어도 일부로 지정하고, 상기 확인된 조도가 제2조도 범위일 경우, 상기 콘텐트가 표시될 위치를 상기 제2표시 영역의 적어도 일부로 지정하도록 설정될 수 있다.
상기 프로세서는, 상기 콘텐트의 표시 요청을 확인하고, 상기 콘텐트의 표시 요청이 확인될 경우, 상기 디스플레이를 통해 상기 콘텐트가 표시될 위치를 확인하고, 상기 확인된 위치에 기반하여, 상기 제1표시 영역 또는 상기 제2표시 영역에서 상기 콘텐트를 표시하도록 설정될 수 있다.
상기 제2조도 범위는 상기 제1조도 범위보다 높은 조도에 대응하는 범위를 포함할 수 있다.
상기 프로세서는, 상기 확인된 조도에 기초하여, 상기 콘텐트에 대응하는 허상의 위치가 조절되도록 상기 콘텐트의 위치 또는 크기 중 적어도 하나를 조절하도록 설정될 수 있다.
상기 프로세서는, 상기 확인된 조도에 기초하여, 상기 콘텐트에 대응하는 좌안용 이미지 및 상기 콘텐트에 대응하는 우안용 이미지 사이의 거리를 조절하여 상기 콘텐트에 대응하는 허상의 위치를 조절하도록 설정될 수 있다.
상기 프로세서는, 상기 확인된 조도가 지정된 조도보다 낮은 경우, 상기 콘텐트가 상기 제1표시 영역에서 표시되도록 상기 허상의 위치를 조절하고, 상기 확인된 조도가 상기 지정된 조도보다 높은 경우, 상기 콘텐트가 상기 제2표시 영역에서 표시되도록 상기 허상의 위치를 조절하도록 설정될 수 있다
상기 프로세서는, 상기 확인된 조도가 지정된 조도에 대응하는 범위인 경우, 상기 콘텐트에 대응하는 허상의 위치를 유지하도록 설정될 수 있다.
상기 전자 장치는 제2센서를 더 포함하고, 상기 프로세서는, 상기 제2센서를 이용하여 상기 전자 장치의 속도를 확인하고, 상기 확인된 속도가 제1속도 범위일 경우, 상기 메모리에 저장된 콘텐트가 표시될 위치를 제3표시 영역의 적어도 일부로 지정하고, 상기 확인된 속도가 제2속도 범위일 경우, 상기 콘텐트가 표시될 위치를 상기 제3표시 영역보다 좁은 시야를 가지는 제4표시 영역의 적어도 일부로 지정하도록 설정될 수 있다.
상기 제2속도 범위는 상기 제1속도 범위보다 높은 속도에 대응하는 범위일 수 있다.
다양한 실시 예에 따른 전자 장치는, 상기 전자 장치의 상태를 검출하는 센서, 메모리, 제1시야에 대응하는 제1표시 영역 및 상기 제1시야보다 넓은 제2시야에 대응하는 제2표시 영역을 포함하는 디스플레이, 및 프로세서를 포함하고, 상기 프로세서는, 상기 센서를 이용하여 상기 전자 장치의 상태를 확인하고, 상기 확인된 전자 장치의 상태를 나타내는 센서 값이 제1범위일 경우, 상기 메모리에 저장된 콘텐트가 표시될 위치를 상기 제1표시 영역의 적어도 일부로 지정하고, 상기 센서 값이 제2범위일 경우, 상기 콘텐트가 표시될 위치를 상기 제2표시 영역의 적어도 일부로 지정하도록 설정될 수 있다.
상기 전자 장치의 상태는 상기 전자 장치 주변의 조도 및 상기 전자 장치의 속도 중 적어도 하나를 포함할 수 있다.
상기 프로세서는, 상기 전자 장치 주변의 조도에 기초하여, 상기 콘텐트에 대응하는 허상의 위치가 조절되도록 상기 콘텐트의 위치 또는 크기 중 적어도 하나를 조절하도록 설정될 수 있다.
상기 프로세서는, 상기 전자 장치 주변의 조도에 기초하여, 상기 콘텐트에 대응하는 좌안용 이미지 및 상기 콘텐트에 대응하는 우안용 이미지 사이의 거리를 조절하여 상기 콘텐트에 대응하는 허상의 위치를 조절하도록 설정될 수 있다.
상기 프로세서는, 상기 전자 장치의 속도에 기초하여, 상기 콘텐트에 대응하는 허상의 위치가 조절되도록 상기 콘텐트의 위치 또는 크기 중 적어도 하나를 조절하도록 설정될 수 있다.
상기 프로세서는, 상기 전자 장치의 속도에 기초하여, 상기 콘텐트에 대응하는 좌안용 이미지 및 상기 콘텐트에 대응하는 우안용 이미지 사이의 거리를 조절하여 상기 콘텐트에 대응하는 허상의 위치를 조절하도록 설정될 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 센서 모듈, 디스플레이, 및 상기 센서 모듈을 이용하여 상기 전자 장치 주변의 조도 또는 상기 전자 장치의 속도 중 적어도 하나를 확인하고, 상기 전자 장치 주변의 조도 또는 상기 전자 장치의 속도 중 적어도 하나에 기초하여, 상기 디스플레이를 통해 표시되는 콘텐트에 대응하는 허상의 위치를 조절하도록 설정된 프로세서를 포함할 수 있다.
상기 프로세서는, 상기 전자 장치 주변의 조도가 제1조도 범위이면, 상기 제1조도 범위에 대응하는 제1표시 영역으로 상기 허상의 위치를 변경하고, 상기 전자 장치 주변의 조도가 제2조도 범위이면, 상기 제2조도 범위에 대응하는 제2표시 영역으로 상기 제2허상의 위치를 변경하도록 설정될 수 있다.
상기 제2조도 범위가 상기 제1조도 범위보다 높은 조도에 대응하는 범위이면, 상기 제1표시 영역은 제1시야에 대응하는 영역이고, 상기 제2표시 영역은, 상기 제1시야보다 넓은 시야각을 가지고 짧은 초점 거리를 가지는 제2시야에 대응하는 영역일 수 있다.
상기 프로세서는, 상기 확인된 속도가 제1속도 범위이면, 상기 제1속도 범위에 대응하는 제3표시 영역으로 상기 허상의 위치를 변경하고, 상기 확인된 속도가 제2속도 범위이면, 상기 제2속도 범위에 대응하는 제2시야 영역으로 상기 허상의 위치를 변경하도록 설정될 수 있다.
상기 제2속도 범위가 상기 제1속도 범위보다 높은 속도에 대응하는 범위이면, 상기 제1표시 영역은 제1시야에 대응하는 영역이고, 상기 제2표시 영역은, 상기 제1시야보다 좁은 시야각을 가지고 긴 초점 거리를 가지는 제2시야에 대응하는 영역일 수 있다.
상기 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
그리고 본 문서에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 개시의 범위를 한정하는 것은 아니다. 따라서, 본 개시의 범위는, 본 개시의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.
301: 전자 장치
310: 센서 모듈
312: 조도 센서
315: 가속도 센서
317: GPS 모듈
320; 프로세서
330: 메모리
360: 디스플레이
390: 통신 모듈

Claims (20)

  1. 안경 형태의 웨어러블 전자 장치에 있어서,
    조도를 확인하는 제1센서;
    콘텐트를 저장하는 메모리;
    상기 웨어러블 전자 장치의 글래스를 통해 가상의 디스플레이 영역에 상기 콘텐트를 표시하는 디스플레이; 및
    프로세서를 포함하고, 상기 프로세서는,
    상기 제1센서를 이용하여 상기 웨어러블 전자 장치 주변의 조도를 확인하고,
    상기 주변의 조도가 미리 설정된 조도보다 낮은 것으로 확인된 경우, 상기 주변의 조도에 따라 좁아지는 사용자의 제1시야에 대응하는 제1표시 영역에 상기 콘텐트가 표시되도록 상기 가상의 디스플레이 영역에서 상기 콘텐트가 표시될 위치를 조절하고,
    상기 주변의 조도가 상기 미리 설정된 조도보다 높은 것으로 확인된 경우, 상기 주변의 조도에 따라 넓어지는 상기 사용자의 제2시야에 대응하는 제2표시 영역에 상기 콘텐트가 표시되도록 상기 가상의 디스플레이 영역에서 상기 콘텐트가 표시될 위치를 조절하고,
    상기 제2시야는 상기 제1시야 보다 넓은 시야각 및 짧은 초점 거리를 갖도록 설정된 웨어러블 전자 장치.
  2. 제1항에 있어서, 상기 프로세서는,
    상기 콘텐트의 표시 요청을 확인하고,
    상기 콘텐트의 표시 요청이 확인될 경우, 상기 디스플레이를 통해 상기 콘텐트가 표시될 상기 위치를 확인하고,
    상기 확인된 위치에 기반하여, 상기 제1표시 영역 또는 상기 제2표시 영역에서 상기 콘텐트를 표시하도록 설정된 웨어러블 전자 장치.
  3. 삭제
  4. 제2항에 있어서, 상기 프로세서는,
    상기 주변의 조도에 기초하여, 상기 콘텐트에 대응하는 가상 이미지가 표시될 위치가 조절되도록 상기 콘텐트의 위치 또는 크기 중 적어도 하나를 조절하도록 설정된 웨어러블 전자 장치.
  5. 제4항에 있어서, 상기 프로세서는,
    상기 주변의 조도에 기초하여, 상기 콘텐트에 대응하는 좌안용 이미지 및 상기 콘텐트에 대응하는 우안용 이미지 사이의 거리를 조절하여 상기 콘텐트에 대응하는 상기 가상 이미지가 표시될 위치를 조절하도록 설정된 웨어러블 전자 장치.
  6. 삭제
  7. 제4항에 있어서, 상기 프로세서는,
    상기 주변의 조도가 상기 미리 설정된 조도와 동일한 경우, 상기 콘텐트에 대응하는 상기 가상 이미지가 표시될 위치를 유지하도록 설정된 웨어러블 전자 장치.
  8. 제1항에 있어서, 상기 웨어러블 전자 장치는 속도를 확인하는 제2센서를 더 포함하고,
    상기 프로세서는,
    상기 제2센서를 이용하여 상기 웨어러블 전자 장치의 속도를 확인하고,
    상기 속도가 지정된 속도보다 낮은 것으로 확인된 경우, 상기 속도에 따라 넓어지는 사용자의 제3시야에 대응되는 제3표시 영역에 상기 콘텐트가 표시되도록 상기 가상의 디스플레이 영역에서 상기 콘텐트가 표시될 위치를 조절하고,
    상기 속도가 상기 지정된 속도보다 높은 것으로 확인된 경우, 상기 속도에 따라 좁아지는 사용자의 제4시야에 대응되는 제4표시 영역에 상기 콘텐트가 표시되도록 상기 가상의 디스플레이 영역에서 상기 콘텐트가 표시될 위치를 조절하고,
    상기 제3시야는 상기 제4시야보다 넓은 시야각 및 짧은 초점 거리를 갖도록 설정된 웨어러블 전자 장치.
  9. 삭제
  10. 안경 형태의 웨어러블 전자 장치에 있어서,
    상기 웨어러블 전자 장치의 상태를 검출하는 센서;
    콘텐트를 저장하는 메모리;
    상기 웨어러블 전자 장치의 글래스를 통해 가상의 디스플레이 영역에 상기 콘텐트를 표시하는 디스플레이; 및
    프로세서를 포함하고, 상기 프로세서는,
    상기 센서를 이용하여 상기 웨어러블 전자 장치의 상태를 확인하고,
    상기 웨어러블 전자 장치의 상태를 나타내는 센서 값이 미리 설정된 값보다 낮은 것으로 확인된 경우, 상기 센서 값에 따라 좁아지는 사용자의 제1시야에 대응하는 제1표시 영역에 상기 콘텐트가 표시되도록 상기 가상의 디스플레이 영역에서 상기 콘텐트가 표시될 위치를 조절하고,
    상기 센서 값이 상기 미리 설정된 값보다 높은 것으로 확인된 경우, 상기 센서 값에 따라 넓어지는 사용자의 제2시야에 대응하는 제2표시 영역에 상기 콘텐트가 표시되도록 상기 가상의 디스플레이 영역에서 상기 콘텐트가 표시될 위치를 조절하고, 상기 제2시야는 상기 제1시야보다 넓은 시야각 및 짧은 초점 거리를 갖도록 설정된 웨어러블 전자 장치.
  11. 제10항에 있어서,
    상기 웨어러블 전자 장치의 상태는 상기 웨어러블 전자 장치의 주변의 조도 및 상기 웨어러블 전자 장치의 속도 중 적어도 하나를 포함하는 웨어러블 전자 장치.
  12. 제11항에 있어서, 상기 프로세서는,
    상기 웨어러블 전자 장치의 주변의 조도에 기초하여, 상기 콘텐트가 표시될 위치 또는 상기 콘텐트의 크기 중 적어도 하나를 조절하도록 설정된 웨어러블 전자 장치.
  13. 제12항에 있어서, 상기 프로세서는,
    상기 웨어러블 전자 장치의 상기 주변의 조도에 기초하여, 상기 콘텐트에 대응하는 좌안용 이미지 및 상기 콘텐트에 대응하는 우안용 이미지 사이의 거리를 조절하여 상기 콘텐트가 표시될 위치를 조절하도록 설정된 웨어러블 전자 장치.
  14. 제11항에 있어서, 상기 프로세서는,
    상기 웨어러블 전자 장치의 상기 속도에 기초하여, 상기 콘텐트가 표시될 위치 또는 상기 콘텐트의 크기 중 적어도 하나를 조절하도록 설정된 웨어러블 전자 장치.
  15. 제14항에 있어서, 상기 프로세서는,
    상기 웨어러블 전자 장치의 상기 속도에 기초하여, 상기 콘텐트에 대응하는 좌안용 이미지 및 상기 콘텐트에 대응하는 우안용 이미지 사이의 거리를 조절하여 상기 콘텐트가 표시될 위치를 조절하도록 설정된 웨어러블 전자 장치.

  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
KR1020180057208A 2018-05-18 2018-05-18 주변 조도에 기반하여 디스플레이에 표시되는 콘텐트의 위치를 조절하는 전자 장치와 이의 동작 방법 KR102462678B1 (ko)

Priority Applications (8)

Application Number Priority Date Filing Date Title
KR1020180057208A KR102462678B1 (ko) 2018-05-18 2018-05-18 주변 조도에 기반하여 디스플레이에 표시되는 콘텐트의 위치를 조절하는 전자 장치와 이의 동작 방법
US16/388,059 US11122254B2 (en) 2018-05-18 2019-04-18 Electronic device for adjusting position of content displayed on display based on ambient illuminance and method for operating same
PCT/KR2019/005855 WO2019221518A1 (en) 2018-05-18 2019-05-15 Electronic device for adjusting position of content displayed on display based on ambient illuminance and method for operating same
CN202210812821.XA CN115190291A (zh) 2018-05-18 2019-05-15 智能眼镜及操作智能眼镜的方法
CN201980031406.7A CN112106353B (zh) 2018-05-18 2019-05-15 用于基于环境照度调整在显示器上显示的内容的位置的电子装置及其操作方法
EP22211682.4A EP4164218A3 (en) 2018-05-18 2019-05-15 Electronic device for adjusting position of content displayed on display based on ambient illuminance and method for operating same
EP19802667.6A EP3744087B1 (en) 2018-05-18 2019-05-15 Electronic device for adjusting position of content displayed on display based on ambient illuminance and method for operating same
US17/473,458 US11645821B2 (en) 2018-05-18 2021-09-13 Electronic device for adjusting position of content displayed on display based on ambient illuminance and method for operating same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180057208A KR102462678B1 (ko) 2018-05-18 2018-05-18 주변 조도에 기반하여 디스플레이에 표시되는 콘텐트의 위치를 조절하는 전자 장치와 이의 동작 방법

Publications (2)

Publication Number Publication Date
KR20190132033A KR20190132033A (ko) 2019-11-27
KR102462678B1 true KR102462678B1 (ko) 2022-11-04

Family

ID=68533239

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180057208A KR102462678B1 (ko) 2018-05-18 2018-05-18 주변 조도에 기반하여 디스플레이에 표시되는 콘텐트의 위치를 조절하는 전자 장치와 이의 동작 방법

Country Status (5)

Country Link
US (2) US11122254B2 (ko)
EP (2) EP4164218A3 (ko)
KR (1) KR102462678B1 (ko)
CN (2) CN115190291A (ko)
WO (1) WO2019221518A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220148893A (ko) * 2020-12-14 2022-11-07 구글 엘엘씨 가변 밝기 및 시야 디스플레이
JP2022113973A (ja) * 2021-01-26 2022-08-05 セイコーエプソン株式会社 表示方法、表示装置、及び、プログラム
KR20240040518A (ko) * 2022-09-21 2024-03-28 삼성전자주식회사 외부 조도에 따라 유효 디스플레이 영역의 크기를 조정하는 웨어러블 장치 및 그 제어 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013007827A (ja) * 2011-06-23 2013-01-10 Kyocera Corp 電子機器

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880734A (en) * 1996-10-03 1999-03-09 Intel Corporation Peripheral vision simulator for immersive 3D virtual environments
JP3711864B2 (ja) 2000-12-01 2005-11-02 日産自動車株式会社 車両用表示装置
TW200527920A (en) * 2003-12-15 2005-08-16 Koninkl Philips Electronics Nv Projector and method of projecting an image having multiple image sizes
US20050212824A1 (en) * 2004-03-25 2005-09-29 Marcinkiewicz Walter M Dynamic display control of a portable electronic device display
US20070146356A1 (en) * 2005-12-27 2007-06-28 Research In Motion Limited Method and device for setting or varying properties of elements on a visual display based on ambient light
CN100527216C (zh) * 2006-03-02 2009-08-12 英华达(南京)科技有限公司 利用位移感应器移动画面显示位置的电子装置及方法
JP2009135686A (ja) 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
KR101378407B1 (ko) * 2008-05-08 2014-03-28 에스케이플래닛 주식회사 광시야각이 가능한 입체 영상 디스플레이 장치 및 그 입체영상 디스플레이 장치에서의 표시부 위치 조절 방법
US8514242B2 (en) * 2008-10-24 2013-08-20 Microsoft Corporation Enhanced user interface elements in ambient light
JP4702437B2 (ja) * 2008-11-25 2011-06-15 トヨタ自動車株式会社 車両用表示装置
US8749478B1 (en) * 2009-08-21 2014-06-10 Amazon Technologies, Inc. Light sensor to adjust contrast or size of objects rendered by a display
US9097891B2 (en) * 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US8817002B2 (en) * 2011-09-01 2014-08-26 Blackberry Limited Data display adapted for bright ambient light
CN103135889B (zh) * 2011-12-05 2017-06-23 Lg电子株式会社 移动终端及其3d图像控制方法
US9628770B2 (en) * 2012-06-14 2017-04-18 Blackberry Limited System and method for stereoscopic 3-D rendering
JP6089705B2 (ja) * 2013-01-07 2017-03-08 セイコーエプソン株式会社 表示装置、および、表示装置の制御方法
KR20150008733A (ko) 2013-07-15 2015-01-23 엘지전자 주식회사 안경형 휴대기기 및 그의 정보 투사면 탐색방법
KR101511587B1 (ko) 2013-12-12 2015-04-14 현대오트론 주식회사 헤드업 디스플레이 정보 표시 장치 및 방법
JP2015152746A (ja) 2014-02-14 2015-08-24 日本精機株式会社 表示装置
US9965030B2 (en) * 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
KR101610169B1 (ko) 2014-11-05 2016-04-08 현대자동차 주식회사 헤드업 디스플레이 및 헤드업 디스플레이의 제어방법
KR20160059406A (ko) * 2014-11-18 2016-05-26 삼성전자주식회사 가상 이미지를 출력하기 위한 웨어러블 장치 및 방법
CN110450704A (zh) * 2015-01-13 2019-11-15 麦克赛尔株式会社 车辆
JP6344417B2 (ja) 2016-03-18 2018-06-20 トヨタ自動車株式会社 車両用表示装置
KR20180000912A (ko) 2016-06-24 2018-01-04 현대모비스 주식회사 헤드 업 디스플레이 장치 및 그 제어 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013007827A (ja) * 2011-06-23 2013-01-10 Kyocera Corp 電子機器

Also Published As

Publication number Publication date
US11122254B2 (en) 2021-09-14
US20190356903A1 (en) 2019-11-21
CN112106353A (zh) 2020-12-18
KR20190132033A (ko) 2019-11-27
EP3744087B1 (en) 2022-12-07
EP3744087A1 (en) 2020-12-02
EP4164218A3 (en) 2023-07-05
EP3744087A4 (en) 2021-03-10
US11645821B2 (en) 2023-05-09
EP4164218A2 (en) 2023-04-12
US20210409673A1 (en) 2021-12-30
WO2019221518A1 (en) 2019-11-21
CN112106353B (zh) 2022-09-02
CN115190291A (zh) 2022-10-14

Similar Documents

Publication Publication Date Title
KR102271833B1 (ko) 전자 장치, 그 제어 방법 및 기록 매체
US11295641B2 (en) Wearable electronic device for controlling, on basis of remaining battery capacity, transmittance of transparent member and output luminance of projector, and operation method
US11645821B2 (en) Electronic device for adjusting position of content displayed on display based on ambient illuminance and method for operating same
US11847258B2 (en) Method for wireless connection in augmented reality environment and electronic device therefor
KR102499354B1 (ko) 디스플레이를 통해 표시된 제 1 콘텐트에 대해 제 2 콘텐트를 외부 객체의 움직임에 따라 제공하기 위한 전자 장치 및 그의 동작 방법
US11852830B2 (en) Augmented reality glass and operating method therefor
KR20200028771A (ko) 사용자 의도 기반 제스처 인식 방법 및 장치
US20230074380A1 (en) Electronic device for providing augmented reality service and operating method thereof
KR20220067128A (ko) 증강 현실 환경의 무선 연결 방법 및 이를 위한 전자 장치
US11733952B2 (en) Wearable electronic device including display, method for controlling display, and system including wearable electronic device and case
KR20190140657A (ko) 오브젝트를 생성하는 전자장치 및 시스템
KR102606041B1 (ko) 상태 정보에 기반하여 식별 정보를 변경하는 전자 장치 및 상기 식별 정보를 확인할 수 있는 다른 전자 장치
US20230152900A1 (en) Wearable electronic device for displaying virtual object and method of controlling the same
US11870928B2 (en) Mounting apparatus for displaying screen of electronic apparatus through hologram
KR20210040680A (ko) 복수의 카메라들을 포함하고 형태가 변하는 전자 장치 및 이미지 촬영 방법
KR102518404B1 (ko) 전자 장치 및 그의 시선 정보를 이용한 컨텐트 실행 방법
US11889181B2 (en) Electronic device having plurality of lenses where the device changes a visual object corresponding to a recommended lens
US11714485B2 (en) Electronic device and method for providing position of user
US11164388B2 (en) Electronic device and method for providing augmented reality object therefor
KR102566143B1 (ko) 이벤트에 관련된 정보를 제공하는 폴더블 전자 장치 및 그의 동작 방법
KR20200001017A (ko) 디스플레이에서 출력된 광을 렌즈로 전달할 수 있는 반사 부재 및 반투명 반사 부재를 포함하는 전자 장치
US20230261502A1 (en) Method and electronic device for controlling discharge of battery
US20230034288A1 (en) Wearable electronic device including display
US20240036323A1 (en) Electronic device and method for adjusting volume using acoustic signal output from external object
KR102514729B1 (ko) 제한 영역을 포함하는 디스플레이를 이용하여 동작을 제어하기 위한 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant