KR20150048576A - 전자 디바이스 및 그 제어방법 - Google Patents

전자 디바이스 및 그 제어방법 Download PDF

Info

Publication number
KR20150048576A
KR20150048576A KR1020130128817A KR20130128817A KR20150048576A KR 20150048576 A KR20150048576 A KR 20150048576A KR 1020130128817 A KR1020130128817 A KR 1020130128817A KR 20130128817 A KR20130128817 A KR 20130128817A KR 20150048576 A KR20150048576 A KR 20150048576A
Authority
KR
South Korea
Prior art keywords
state
content
electronic device
user
display
Prior art date
Application number
KR1020130128817A
Other languages
English (en)
Inventor
장유준
허정윤
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020130128817A priority Critical patent/KR20150048576A/ko
Priority to US15/029,548 priority patent/US9958681B2/en
Priority to PCT/KR2014/009747 priority patent/WO2015064935A1/en
Publication of KR20150048576A publication Critical patent/KR20150048576A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 디바이스 및 그 제어방법이 개시된다. 본 발명의 전자 디바이스 및 그 제어방법은, 센서부; 외부영상을 획득하는 적어도 하나의 카메라; 및 상기 센서부와 상기 카메라 중 적어도 하나를 통해, 디바이스(Device)가 착용된 제1 상태와 상기 디바이스가 착용되지 않은 제2 상태 중 현재의 상태를 감지하고, 상기 제1 상태와 상기 제2 상태에서 서로 다른 방식으로 콘텐츠를 표시하는 제어부를 포함하는 것을 특징으로 한다. 본 발명에 의하면, 전자 디바이스의 현 상태에 따라서 콘텐츠의 표시를 변경할 수 있다.

Description

전자 디바이스 및 그 제어방법 {ELECTRONIC DEVICE AND CONTROL METHOD THEREOF}
본 발명은 전자 디바이스 및 그 제어방법에 관한 것으로서, 보다 구체적으로는 전자 디바이스의 현 상태에 따라서 콘텐츠의 표시를 변경할 수 있는 전자 디바이스 및 그 제어방법에 관한 것이다.
최근에는 사용자가 직접 몸에 장착하여 이용할 수 있는 웨어러블 컴퓨팅 시스템(wearable computing system)에 대한 연구와 관심 그리고 상용화가 활발하게 진행되고 있다. 특히, 사용자가 안경과 같이 착용한 상태에서 글라스를 통하여 각종 데이터를 제공할 수 있고, 휴대 전화 기능, 카메라 기능 등을 제공하는 전자 디바이스에 대한 관심이 매우 높다.
본 발명은 전자 디바이스의 현 상태에 따라서 콘텐츠의 표시를 변경할 수 있는 전자 디바이스 및 그 제어방법에 관한 것이다.
상기한 과제를 실현하기 위한 본 발명의 일 실시예에 따른 전자 디바이스는, 센서부; 외부영상을 획득하는 적어도 하나의 카메라; 및 상기 센서부와 상기 카메라 중 적어도 하나를 통해, 디바이스(Device)가 착용된 제1 상태와 상기 디바이스가 착용되지 않은 제2 상태 중 현재의 상태를 감지하고, 상기 제1 상태와 상기 제2 상태에서 서로 다른 방식으로 콘텐츠를 표시하는 제어부를 포함할 수 있다.
적어도 하나의 프로젝터를 더 포함하며, 상기 제어부는, 상기 제2 상태에서, 상기 적어도 하나의 프로젝터를 사용하여 투사면(projection surface)을 향해 상기 콘텐츠를 영사(projection)할 수 있다.
디스플레이 기능이 탑재된 적어도 하나의 글라스를 더 포함하며, 상기 제어부는, 상기 제1 상태에서, 상기 적어도 하나의 글라스를 사용하여 상기 콘텐츠를 표시할 수 있다.
상기 제어부는, 상기 투사면의 상태에 기초하여 상기 영사하는 콘텐츠의 색상, 명암, 밝기 중 적어도 하나를 변경할 수 있다.
상기 제어부는, 상기 투사면의 상태에 기초하여 상기 영사하는 콘텐츠에 포함된 폰트의 크기, 상기 폰트의 종류, 정보의 양, 정보의 종류 중 적어도 하나를 변경할 수 있다.
상기 제어부는, 상기 제2 상태에서, 상기 디바이스가 놓여진 방향에 관계없이 사용자의 시선방향에 대하여 상기 콘텐츠의 지향방향(orientation)이 일정하도록 상기 콘텐츠를 영사할 수 있다.
상기 제어부는, 상기 제2 상태에서, 상기 콘텐츠의 속성 및 사용자로부터의 입력 중 적어도 하나에 기초하여 상기 콘텐츠가 영사되는 표시영역의 넓이 및 개수 중 적어도 하나를 변경할 수 있다.
상기 제어부는, 상기 제2 상태에서, 상기 디바이스에 중 적어도 일 지점에 대한 사용자의 터치동작을 감지하면, 상기 영사하는 콘텐츠 중 상기 감지한 터치동작에 대응된 위치에 표시된 콘텐츠와 관련된 동작을 수행할 수 있다.
상기 적어도 하나의 프로젝터는, 상기 디바이스의 전방을 향하는 제1 프로젝터와, 상기 디바이스의 후방을 향하는 제2 프로젝터를 포함할 수 있다.
상기 제어부는, 상기 디바이스 중 적어도 일 지점에 대한 사용자의 파지동작을 감지하면, 상기 제2 상태의 표시 방식을 상기 제1 상태의 표시 방식으로 변경할 수 있다.
상기한 과제를 실현하기 위한 본 발명의 일 실시예에 따른 전자 디바이스의 제어방법은, 디바이스의 상태를 감지하는 단계; 및 상기 디바이스가 착용된 제1 상태와 상기 디바이스가 착용되지 않은 제2 상태 중 감지된 현재 상태에 따라 서로 다른 방식으로 콘텐츠를 표시하는 단계를 포함할 수 있다.
상기 표시하는 단계는, 상기 제2 상태에서, 적어도 하나의 프로젝터를 사용하여 투사면을 향해 상기 콘텐츠를 영사하는 단계를 더 포함할 수 있다.
상기 표시하는 단계는, 상기 제1 상태에서, 적어도 하나의 글라스를 사용하여 상기 콘텐츠를 표시하는 단계를 더 포함할 수 있다.
상기 영사하는 단계는, 상기 투사면의 상태에 기초하여 상기 영사하는 콘텐츠의 색상, 명암, 밝기, 상기 영사하는 콘텐츠에 포함된 폰트의 크기, 상기 폰트의 종류, 정보의 양, 정보의 종류 중 적어도 하나를 변경하는 단계를 더 포함할 수 있다.
상기 영사하는 단계는, 상기 제2 상태에서, 상기 디바이스가 놓여진 방향에 관계없이 사용자의 시선방향에 대하여 상기 콘텐츠의 지향방향(orientation)이 일정하도록 상기 콘텐츠를 영사할 수 있다.
본 발명에 따른 전자 디바이스 및 그 제어방법은, 전자 디바이스의 현 상태에 따라서 콘텐츠의 표시를 변경할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 전자 디바이스의 블록다이어그램(Block Diagram)이다.
도 2는 도 1 전자 디바이스의 사시도이다.
도 3은 도 1 전자 디바이스의 다른 실시예에 따른 사시도이다.
도 4는 도 1 전자 디바이스의 동작과정을 도시한 플로우챠트이다.
도 5는 도 1 전자 디바이스가 착용된 상태를 도시한 도면이다.
도 6은 도 4 플로우챠트의 제2 방식으로 표시하는 단계를 구체적으로 도시한 플로우챠트이다.
도 7은 도 1 전자 디바이스 표시상태의 일 실시예를 도시한 도면이다.
도 8 내지 도 10은 도 1 전자 디바이스 표시상태의 다른 실시예를 도시한 도면이다.
도 11은 도 1 전자 디바이스의 또 다른 실시예를 도시한 도면이다.
도 12 및 도 13은 도 1 전자 디바이스의 일 실시예에 따른 조작방법을 도시한 도면이다.
도 14 내지 도 18은 도 1 전자 디바이스의 다른 실시예에 따른 조작방법을 도시한 도면이다.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다
이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 전자 디바이스의 블록다이어그램(Block Diagram)이고, 도 2는 도 1 전자 디바이스의 사시도이다.
이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 제1 카메라(110), 제2 카메라(120), 글라스(130), 마이크(150), 음향 출력부(160), 터치 센서(170), 메모리(180), 무선 통신부(190), 전원부(200) 및 프로젝터(210)를 포함할 수 있다.
전자 디바이스(100)는, 사용자가 착용할 수 있는 형태의 디바이스일 수 있다. 예를 들어, 사용자가 안경과 같이 착용할 수 있는 디바이스일 수 있다.
제1 카메라(110)는 외부영상을 촬영하는데 이용될 수 있다. 제 1카메라(110)는 필요시 상하좌우로 일정 각도 회전될 수 있다. 제2 카메라(120)는 전자 디바이스(100)를 착용한 사용자의 눈의 영상을 촬영하는데 이용될 수 있다. 제2 카메라(120)는 필요시 상하좌우로 일정 각도 회전될 수 있다.
제1 카메라(110)는 사용자의 시각을 넘어서는 범위의 외부영상을 촬영할 수 있다. 즉, 사용자 시각의 범위를 A라고 할때, 제1 카메라(110)를 통해 촬영할 수 있는 범위는 A+a 일 수 있음을 의미한다. 예를 들어, 제1 카메라(110)를 통해서 사용자를 중심으로 한 360도 범위의 영상을 촬영할 수 있다.
제1 카메라(110)는 복수 개일 수 있다. 예를 들어, 전방, 측방, 후방을 촬영하기에 적절한 개수의 제1 카메라(110)가 전자 디바이스(100)의 각 위치에 자리할 수 있음을 의미한다.
제1 카메라(110)는 광각 카메라일 수 있다. 즉, 통상의 카메라 보다 큰 각의 영상을 촬영할 수 있는 카메라일 수 있음을 의미한다. 광각 카메라를 적용할 경우, 적은 개수의 제1 카메라(110)로도 사용자 주위의 외부영상을 폭넓게 획득할 수 있다.
글라스(130)는 일반적인 안경과 같이 실질적으로 투명할 수 있다. 사용자는 글라스(130)를 통해 주위를 관찰할 수 있다. 글라스(130)는 좌안과 우안에 각각 대응되도록 2개 마련되거나, 좌안과 우안 중 하나의 눈에 대응되도록 1개 마련될 수 있다.
글라스(130)에는 정보 제공을 위한 투명 디스플레이 영역(131)이 위치할 수 있다. 제어부(140)는 투명 디스플레이 영역(131)을 통해 사용자에게 필요한 정보를 디스플레이할 수 있다. 투명 디스플레이 영역(141)은 좌안 및/또는 우안에 대응되도록 두 개 또는 한 개 가 마련될 수 있다.
제어부(140)는 전자 디바이스(100)의 동작을 전반적으로 제어할 수 있다. 즉, 제어부(140)는 전자 디바이스(100)의 구성 요소들을 전체적으로 제어할 수 있음을 의미한다. 제어부(140)는 제1 카메라(110) 및/또는 제2 카메라(120)를 통해 촬영한 영상에 대한 분석을 수행할 수 있다. 제어부(140)는 사용자가 시선을 주는 전방 객체에 대한 정보 획득 동작을 수행하고, 획득된 정보를 글라스(130)에 마련된 투명 디스플레이 영역(131)을 통하여 제공할 수 있다. 제어부(140)는 제2 카메라(120)에 의하여 촬영된 사용자의 눈의 영상을 분석하고, 분석 결과 인식되는 사용자의 아이 제스처(eye gesture)에 대응되는 특정 기능을 수행할 수 있다.
마이크(150)는 통화 모드, 녹음 모드 및/또는 음성 인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리할 수 있다. 한편, 마이크(150)에 의하여 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
음향 출력부(160)는 오디오 데이터를 출력할 수도 있다. 이러한 음향 출력부(160)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다. 음향 출력부(160)는 이어폰 잭(미도시)을 통해 음향을 출력할 수 있다. 사용자는 이어폰 잭에 이어폰을 연결하여 출력되는 음향을 들을 수 있다.
터치 센서(170)는 특정 부위에 대한 터치에 의하여 가해진 압력 또는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 터치 센서(170)는 근접 센서로 구현될 수도 있다. 터치 센서(170)를 통한 입력 데이터는 전자 디바이스(100)의 특정 기능을 수행하는데 이용될 수 있다.
메모리(180)는 제어부(140)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)를 임시 및/또는 항구적으로 저장할 수 있다.
저장부(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 전자 디바이스(100)는 인터넷(internet)상에서 메모리(180)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.
무선 통신부(190)는 전자 디바이스(100)와 무선 통신 시스템 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(190)는 방송 수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈 및 위치 정보 모듈 등을 포함할 수 있다. 다만, 무선 통신부(190)에 포함될 수 있는 무선 통신 관련 모듈의 범위가 이에 한정되는 것은 아니다.
센싱부(195)는 전자 디바이스(100)의 상태를 감지할 수 있다. 예를 들어, 전자 디바이스(100)를 착용한 사용자가 바라보는 방위, 바라보는 높이, 회전 유무, 전진 또는 후진 유무 등을 감지할 수 있음을 의미한다. 센싱부(195)는 자세감지센서, 지자기센서, 가속도센서 중 적어도 하나의 센서를 포함할 수 있다. 제어부(140)는, 적어도 하나의 센서로부터 감지된 결과값을 통하여 전자 디바이스(100)의 상태 및/또는 전자 디바이스(100)를 착용한 사용자의 현 상태를 감지할 수 있다.
전원부(200)는 제어부(140)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
프로젝터(210)는, 이미지를 투사할 수 있다. 예를 들어, 특정 상황에서 콘텐츠를 외부의 투사면(projection surface)으로 프로젝팅(projecting)할 수 있음을 의미한다. 제어부(140)는, 프로젝터(210)와 투명 디스플레이 영역(131) 중 적어도 하나로 영상을 선택적으로 출력할 수 있다. 예를 들어, 전자 디바이스(100)의 착용 상태에서는 투명 디스플레이 영역(131)을 통해 영상을 출력하고, 전자 디바이스(100)의 비착용 상태에서는 프로젝터(210)를 통해 영상을 출력할 수 있음을 의미한다.
프로젝터(210)는, 제1 프로젝터(212)와 제2 프로젝터(도 7의 214)를 포함할 수 있다. 제1 프로젝터(212)와 제2 프로젝터(도 7의 214)는, 서로 다른 방향으로 이미지를 투사할 수 있다. 예를 들어, 제1 프로젝터(212)는 전자 디바이스(100)의 전면(前面)을 향해 이미지를 투사하고, 제2 프로젝터(도 7의 214)는 전자 디바이스(100)의 후면(後面)을 향해 이미지를 투사할 수 있음을 의미한다. 제1,2 프로젝터(212, 도 7의 214) 중 어느 프로젝터(210)를 사용하여 이미지를 투사할지 여부는, 전자 디바이스(100)의 제어부(140)의 제어신호에 의하여 결정될 수 있다. 예를 들어, 전자 디바이스(100)의 상태에 따라 결정될 수 있음을 의미한다. 프로젝터(210)의 동작에 대해서는, 해당하는 부분에서 구체적으로 설명하도록 한다.
전자 디바이스(100)는, 몸체(141, Body)와 안경테(161, Frame)로 구분될 수 있다.
몸체(141)는, 전자 디바이스(100)의 전면(前面)을 구성하는 부분일 수 있다. 몸체(141)에는 카메라(110, 120)와, 글라스(130)와, 투명 디스플레이 영역(131)과, 제어부(140)가 포함될 수 있다.
투명 디스플레이 영역(131)은, 글라스(130) 각각 또는 일측에 위치할 수 있다. 예를 들어, 제1,2 투명 디스플레이 영역(131a, 131b)가 글라스(130)에 마련될 수 있음을 의미한다.
안경테(161)는, 몸체(141)에 결합되어 있을 수 있다. 안경테(161)는 힌지(171)를 중심으로 회동할 수 있다. 즉, 힌지(171)를 중심으로 안경테(161)가 시계방향 내지 반시계방향으로 회동할 수 있음을 의미한다. 따라서 제1,2 안경테(161a, 161b) 중 적어도 하나는 반시계 방향으로 회전하여 몸체(141) 내측 방향으로 접히거나, 시계 방향으로 회전하여 몸체(141)의 외측 방향으로 접힐 수 있다.
도 3은 도 1 전자 디바이스의 다른 실시예에 따른 사시도이다.
이에 도시한 바와 같이, 본 발명의 다른 실시예에 따른 전자 디바이스(100)는, 다른 형태로 구성될 수 있다.
전자 디바이스(100)는, 글라스(도 2의 130)를 포함하지 않을 수 있다. 예를 들어, 몸체(141)와 안경테(161)를 포함하여 안경형태이긴 하지만 몸체(141)에 글라스(도 2의 130)가 결합되지 않은 형태일 수 있음을 의미한다.
전자 디바이스(100)는, 프로젝터(210)를 통해 이미지를 사용자가 인식가능하도록 투영할 수 있다. 예를 들어, 전자 디바이스(100)가 착용된 상태에서 프로젝터(210)가 직접 사용자의 안구로 영상을 투사할 수 있음을 의미한다. 따라서 글라스(도 2의 130) 내지 투명 디스플레이 영역(도 2의 131)이 필요하지 않을 수 있다. 글라스(도 2의 130)가 존재하지 않음으로 인하여, 전자 디바이스(100)를 보다 자연스럽게 착용할 수 있다.
도 4는 도 1 전자 디바이스의 동작과정을 도시한 플로우챠트이다.
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)의 제어부(140)는, 전자 디바이스(100)의 현 상태를 감지하는 단계(S10)를 진행할 수 있다.
전자 디바이스(100)는 다양한 상태에 있을 수 있다. 다양한 전자 디바이스(100)의 상태 중에서, 전자 디바이스(100)가 착용된 상태를 제1 상태, 전자 디바이스(100)가 착용되지 않은 상태를 제2 상태로 정의할 수 있다.
전자 디바이스(100)의 현 상태는, 센서부(170)를 통해 감지될 수 있다. 예를 들어, 전자 디바이스(100)와 사용자의 코가 접촉되는 지점의 감지센서, 전자 디바이스(100)의 안경테(161)와 사용자의 머리가 접촉되는 지점의 감지센서 등을 통해 전자 디바이스(100)의 착용여부가 감지될 수 있음을 의미한다.
전자 디바이스(100)의 현 상태는, 동작센서를 통해 감지될 수 있다. 예를 들어, 전자 디바이스(100)가 착용된 경우라면, 가속도센서 및/또는 지자기센서를 통해서 전자 디바이스(100)가 움직이고 있다는 점이 감지될 수 있음을 의미한다.
전자 디바이스(100)의 현 상태에 대한 감지는, 안경테(161)의 상태에 대한 감지를 포함할 수 있다. 예를 들어, 제1,2 안경테(161a, 161b) 중 적어도 하나가 펼쳐져 있거나 접혀져 있는 상태를 감지할 수 있음을 의미한다. 안경테(161)의 상태는, 안경테(161)와 몸체(141) 사이에 위치한 힌지에 위치한 위치감지 센서를 통해 감지될 수 있다.
전자 디바이스(100)의 현 상태는, 제1,2 카메라(110, 120) 중 적어도 하나를 통해 감지될 수 있다. 예를 들어, 촬영된 영상을 분석하여, 사용자의 착용여부를 판단할 수 있음을 의미한다.
제어부(140)는 전자 디바이스(100)가 착용 중인가 여부를 판단(S20)하여, 착용 중인 경우라면 콘텐츠를 제1 방식으로 표시하는 단계(S30)를 진행할 수 있다.
제1 방식의 표시는, 착용된 상태에 최적화된 형태의 표시 방법일 수 있다. 예를 들어, 글라스(130)의 제1,2 투명 디스플레이 영역(131a, 131b)을 통해 콘텐츠를 표시하거나 프로젝터(210)를 통해 사용자의 안구로 직접 콘텐츠를 투사하는 방식의 표시를 의미한다.
제어부(140)는 전자 디바이스(100)가 착용 중인가 여부를 판단(S20)하여, 착용 중인 아닌 경우라면 콘텐츠를 제2 방식으로 표시하는 단계(S40)를 진행할 수 있다.
제2 방식의 표시는, 비착용 상태에 최적화된 형태의 표시 방법일 수 있다. 즉, 콘텐츠를 글라스(130)에 표시하거나 사용자 안구로 직접 표시하는 방식이 아닌 경우를 의미할 수 있다.
전자 디바이스(100)를 착용하지 않은 상태라면, 통상적으로 전자 디바이스(100)는 바닥면에 내려져 있을 수 있다. 바닥면에 내려져있는 경우라면, 콘텐츠를 글라스(130)에 표시하더라도 사용자가 표시된 콘텐츠를 식별하기 곤란할 수 있다. 따라서 제어부(140)는, 제2 상태에서는 사용자가 식별하기 편리하도록 콘텐츠의 표시방식을 변경할 수 있다.
도 5는 도 1 전자 디바이스가 착용된 상태를 도시한 도면이다.
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 사용자(U)의 얼굴에 착용될 수 있다. 사용자(U)의 얼굴에 착용되면, 몸체(141)는 사용자(U)의 코에 의하여 지지되고, 제1,2 안경테(161a, 161b)는 사용자의 양쪽 귀에 의하여 지지될 수 있다.
사용자(U)는, 글라스(130) 및 투명 디스플레이 영역(131)을 통해 외부를 관찰할 수 있다. 예를 들어, 글라스(130)를 통해 바라보는 외부 사물에 투명 디스플레이 영역(131)을 통해 표시되는 정보가 증강현실(Augment Reality) 형식으로 표시될 수 있음을 의미한다.
도 6은 도 4 플로우챠트의 제2 방식으로 표시하는 단계를 구체적으로 도시한 플로우챠트이다.
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)의 제어부(140)는, 다양한 조건을 고려하여 콘텐츠를 제2 방식으로 표시할 수 있다. 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 전자 디바이스(100)가 착용되지 않은 상태에서는 프로젝터(210)를 사용하여 콘텐츠를 투사하는 방식으로 표시할 수 있다. 즉, 사용자가 식별하기 좋도록 콘텐츠를 바닥면 등에 투사할 수 있음을 의미한다. 바닥면 등의 상황을 반영하여 영상을 조절함으로 인하여, 투사된 영상이 사용자에게 적절히 전달될 수 있다.
제어부(140)는, 전자 디바이스(100)가 놓여진 장소에 따라 콘텐츠를 표시(S42)할 수 있다.
전자 디바이스(100)가 놓여진 장소는 다양할 수 있다. 예를 들어, 놓여진 장소의 재질, 색상 등이 다앙할 수 있음을 의미한다.
바닥면의 상태는, 센서부(170) 및/또는 카메라(110, 120)를 통해 감지될 수 있다. 예를 들어, 카메라(110, 120)를 통해 촬영한 바닥면의 영상을 분석하여, 바닥면의 상태를 감지할 수 있음을 의미한다.
제어부(140)는, 바닥면의 재질이 거친 경우보다 미끈하여 투사된 영상의 식별이 용이한 경우에는, 좀더 많은 정보를 표시할 수 있다. 예를 들어, 제어부(140)는, 바닥면이 재질이 영상의 투사에 적절한 경우에는 좀 더 작은 폰트의 사용이 가능할 수 있다. 제어부(140)는, 바닥면의 재질이 영상의 투사에 적절한 경우에는 좀 더 다양한 색상을 사용할 수 있다.
제어부(140)는, 바닥면의 색상이 밝은 경우에는 영상을 좀더 밝게 투사할 수 있다. 제어부(140)는, 바닥면의 색상이 어두운 경우에는 영상을 상대적으로 어둡게 투사할 수 있다.
제어부(140)는, 전자 디바이스(100)가 놓여진 방향에 따라 콘텐츠를 표시(S44)할 수 있다.
전자 디바이스(100)는, 전면(前面) 또는 후면(後面)이 사용자를 향하도록 놓여질 수 있다. 또는, 전자 디바이스(100)는, 하측면이 바닥면에 접하거나 상측면이 바닥면에 접하도록 놓여질 수 있다. 제어부(140)는, 센서부(170) 및/또는 카메라(110, 120)에서 감지한 결과에 기초하여 전자 디바이스(100)가 놓여진 방향을 판단할 수 있다. 제어부(140)는, 놓여진 방향에 따라 최적화된 영상이 표시되도록 할 수 있다.
제어부(140)는, 전자 디바이스(100)에 대한 제스쳐에 따라 콘텐츠를 표시(S46)할 수 있다.
사용자는, 전자 디바이스(100)의 카메라(110, 120) 앞에서 특정 제스쳐를 취하거나 전자 디바이스(100)의 특정 부위에 직접 접촉하는 특정 제스쳐를 취할 수 있다. 제어부(140)는, 전자 디바이스(100)에 대한 직/간접적인 제스쳐에 대응하여 콘텐츠를 표시하는 방식 등을 변경할 수 있다.
제어부(140)는, 전자 디바이스(100)가 표시할 콘텐츠의 종류에 따라 콘텐츠를 다르게 표시(S48)할 수 있다.
전자 디바이스(100)를 통해 표시될 콘텐츠는 다양할 수 있다. 예를 들어, 전자 디바이스(100)를 통하여 수신한 메시지, 수신한 콜(call), 각종 텍스트, 각종 동영상 등을 다양하게 표시할 수 있다. 전자 디바이스(100)를 통해 표시될 콘텐츠는, 그 콘텐츠의 속성 등에 따라 다른 방식으로 표시될 수 있다. 즉, 특정 콘텐츠에 최적화된 방식으로 콘텐츠를 표시할 수 있음을 의미한다.
도 7은 도 1 전자 디바이스 표시상태의 일 실시예를 도시한 도면이다.
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 전자 디바이스(100)가 놓여진 방향에 따라 다른 방식으로 콘텐츠(DF)를 표시할 수 있다.
도 7의 (a)에 도시한 바와 같이, 전자 디바이스(100)는, 전자 디바이스(100)가 착용되지 않은 제2 상태에서 전자 디바이스(100)의 몸체 하측부(172) 및/또는 안경테 하측부(174)가 바닥면에 접촉된 상태일 수 있다.
전자 디바이스(100)에는 위치센서 및/또는 지자기센서가 마련되어 있을 수 있다. 전자 디바이스(100)의 제어부(140)는, 위치센서 및/또는 지자기센서를 통하여 전자 디바이스(100)가 놓여진 상태를 감지할 수 있다.
전자 디바이스(100)의 몸체 하측부(172) 및/또는 안경테 하측부(174)에는 압력센서가 위치할 수 있다. 즉, 압력센서를 통하여 전자 디바이스(100)의 몸체 하측부(172) 및/또는 안경테 하측부(174)가 바닥면에 접촉된 상태임을 감지할 수 있다.
제어부(140)는, 사용자의 방향에 대응되도록 콘텐츠(DF)를 표시할 수 있다. 예를 들어, 사용자의 위치는 카메라(110, 120)를 통하여 촬영한 영상에 대한 분석 등을 통하여 감지할 수 있다. 사용자의 위치가 감지되면, 제어부(140)는 프로젝터(210)를 사용하여 투사면(DA)에 콘텐츠(DF)를 프로젝팅할 수 있다. 예를 들어, 사용자가 위치한 방향에 대응된 제2 프로젝터(214)를 사용하여 콘텐츠(DF)를 표시할 수 있음을 의미한다.
도 7의 (b)에 도시한 바와 같이, 전자 디바이스(100)는, 전자 디바이스(100)가 착용되지 않은 제2 상태에서 전자 디바이스(100)의 몸체 상측부(178) 및/또는 안경테 상측부(176)가 바닥면에 접촉된 상태일 수 있다.
제어부(140)는, 콘텐츠(DF)를 표시할 방향을 결정할 수 있다. 예를 들어, 카메라(110, 120) 등을 사용하여 전자 디바이스(100)의 전면(前面) 방향과 후면(後面) 방향 중 콘텐츠(DF)를 표시하기에 적절한 방향을 결정할 수 있음을 의미한다.
제어부(140)는, 방향을 결정하면 사용자가 바라보는 방향에서 콘텐츠(DF)가 바르게 표시되도록 할 수 있다. 즉, 사용자가 바라보는 방향과 콘텐츠(DF)의 상하방향이 상호 얼라인(align)되도록 콘텐츠(DF)를 표시할 수 있음을 의미한다. 따라서 전자 디바이스(100)가 놓여진 방향에 관계없이, 사용자가 바라보는 콘텐츠의 지향방향(orientation)은 동일할 수 있다. 즉, 제어부(140)는, 전자 디바이스(100)가 놓여진 방향에 관계없이 사용자의 시선방향에 대하여 콘텐츠의 지향방향이 일정하도록 콘텐츠를 영사할 수 있음을 의미한다.
도 8 내지 도 10은 도 1 전자디바이스 표시상태의 다른 실시예를 도시한 도면이다.
이들 도면에 도시한 바와 같이, 본 발명의 다른 실시예에 따른 전자 디바이스(100)의 제어부(140)는, 바닥면(G)의 색상 및/또는 재질 등 상태에 따라 콘텐츠(DF)의 표시상태를 변경할 수 있다.
도 8의 (a)에 도시한 바와 같이, 전자 디바이스(100)가 놓여진 바닥면(G)의 색상이 다양한 상태일 수 있다. 따라서 다양한 바닥면(G)의 색상을 고려하지 않는 경우에는 콘텐츠(DF)의 특정 부위는 식별이 용이하지만 다른 부위는 식별이 쉽지 않은 상황이 발생할 수 있다.
도 8의 (b)에 도시한 바와 같이, 제어부(140)는 바닥면(G)의 상태에 따라 콘텐츠(DF)를 표시하는 방식을 변경할 수 있다. 예를 들어, 바닥면(G) 색상이 다양한 경우라면 어두운 색 또는 밝은 색을 기준으로 콘텐츠(DF)의 밝기 및/또는 색상을 보정하여 표시할 수 있음을 의미한다. 색상을 보정하는 경우, 표시된 콘텐츠(DF)에 대한 식별력이 높아질 수 있다.
도 9의 (a)에 도시한 바와 같이, 바닥면(G)이 영상을 투사하기에 적절한 상태일 수 있다. 예를 들어, 바닥면(G)이 매끈한 재질이어서 투사된 영상의 식별이 용이한 상태일 수 있음을 의미한다. 영상의 식별이 용이한 바닥면(G)의 상태인 경우에 제어부(140)는, 콘텐츠(DF)를 자세히 표시할 수 있다.
도 9의 (b)에 도시한 바와 같이, 바닥면(G)이 영상을 투사하기에 적절하지 못한 상태일 수 있다. 바닥면이 고르지 않는 등 바닥면(G)에 콘텐츠(DF)를 표시하기 적당하지 않은 경우에, 제어부(140)는 콘텐츠(DF)의 표시상태를 변경할 수 있다. 예를 들어, 콘텐츠(DF)의 폰트를 크게 하는 동작, 콘텐츠 중 중요도가 낮은 정보는 삭제하여 정보의 양 및/또는 종류를 조절하는 동작, 배색을 단순화 하는 동작 중 적어도 하나의 동작을 수행할 수 있음을 의미한다. 동일한 정보의 경우에도 바닥면(G)의 상태에 따라서 다르게 콘텐츠(DF)를 표시함으로써, 콘텐츠(DF)에 대한 사용자의 식별력을 높일 수 있다.
도 10에 도시한 바와 같이, 제어부(140)는 바닥면(G)의 밝기에 따라 적절한 방식으로 콘텐츠(DF)를 표시할 수 있다.
도 10의 (a)에 도시한 바와 같이, 바닥면(G)은 밝은 색상일 수 있다. 바닥면(G)이 밝은 색상인 경우에, 제어부(140)는 다양한 명암 및/또는 색상을 사용하여 콘텐츠(DF)를 표시할 수 있다.
도 10의 (b)에 도시한 바와 같이, 바닥면(G)이 어두운 색상일 수 있다. 바닥면(G)이 어두운 색상인 경우에, 제어부(140)는 간단한 명암 및/또는 색상을 사용하여 콘텐츠(DF)를 표시할 수 있다. 따라서 콘텐츠(DF)에 대한 사용자의 식별력이 높아질 수 있다.
도 11은 도 1 전자디바이스의 또 다른 실시예를 도시한 도면이다.
도 11은 도 1 전자 디바이스의 일 실시예에 따른 동작을 도시한 도면이다.
이에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 안경테(161)의 상태에 따라서 글래스(130)의 표시를 변경할 수 있다.
도 11의 (a)에 도시한 바와 같이, 안경테(161)는 펼쳐진 상태에 있을 수 있다. 즉, 제1,2 안경테(161a, 161b)가 모두 몸체(141)에 대해 약 90도 방향으로 위치하고 있음을 의미한다. 제1,2 안경테(161a, 161b)가 모두 펼쳐진 상태에 있을 때, 제어부(140)는 사용자가 글래스(130)를 사용하고 있다고 판단할 수 있다. 따라서 제어부(140)는, 글래스(130)를 활성화 할 수 있다. 예를 들어, 투명 디스플레이 영역(131)을 통해 영상을 표시할 수 있음을 의미한다.
도 11의 (b)에 도시한 바와 같이, 안경테(161) 중 하나가 접혀진 상태에 있을 수 있다. 예를 들어, 제1 안경테(161a)가 몸체(141)의 방향으로 접혀있는 상태에 있고, 제2 안경테(161b)는 몸체(141)에 대해 약 90 방향으로 펼쳐진 상태에 있을 수 있음을 의미한다. 제1 안경테(161a)가 접혀있다는 점을 고려하여, 제어부(140)는 제1 안경테(161a)에 대응된 글래스(130)를 비활성화할 수 있다. 예를 들어, 제1 안경테(161a) 쪽의 제1 투명 디스플레이 영역(131a)을 비활성화할 수 있음을 의미한다.
도 11의 (c)에 도시한 바와 같이, 제2 안경테(161b)가 접혀진 상태가 되면, 제어부(140)는 그에 대응된 제2 안경테(161b)를 비활성화 할 수 있다.
도 11의 (d)에 도시한 바와 같이, 제1,2 안경테(161a, 161b)가 모두 접혀진 상태에 있으면, 제어부(140)는 글래스(130) 전체를 비활성화 할 수 있다. 즉, 안경테(161)가 모두 접혀지면, 제어부(140)는 사용자가 더 이상 전자 디바이스(100)를 사용할 의사가 없는 것으로 판단할 수 있다. 따라서 안경테(161)가 모두 접혀진 순간 또는 안경테(161)가 접혀지고 일정 시간이 경과한 순간부터 글래스(130)를 비활성화 할 수 있다. 예를 들어, 투면 디스플레이 영역(131)을 통한 영상의 표시를 중단할 수 있음을 의미한다.
도 12 및 도 13은 도 1 전자디바이스의 일 실시예에 따른 조작방법을 도시한 도면이다.
이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는 사용자의 제스쳐에 대응하여 표시영역(DA)을 조절할 수 있다.
도 12의 (a)에 도시한 바와 같이, 표시영역(DA)은 단일한 영역일 수 있다. 콘텐츠는, 단일한 표시영역(DA) 전체에 걸쳐 표시될 수 있다.
제어부(140)는, 사용자로부터 특정한 제스쳐를 입력받을 수 있다. 예를 들어, 특정 글래스(130)인 제2 글래스(130b)를 터치하거나 터치한 상태에서 일정한 방향으로 이동하는 제스쳐 동작을 입력받을 수 있음을 의미한다.
도 12의 (b)에 도시한 바와 같이, 사용자로부터 특정한 제스쳐를 입력받으면, 제어부(140)는 표시영역(DA)을 분할할 수 있다. 예를 들어, 제1 글라스(130a) 측에 대응된 제1 표시영역(DA1)과 제2 글라스(130b) 측에 대응된 제2 표시영역(DA2)으로 분할할 수 있음을 의미한다. 즉, 제어부(140)는, 콘텐츠의 속성 및/또는 사용자 입력에 따라 콘텐츠가 표시될 표시영역(DA)의 넓이 및/또는 개수를 변경할 수 있음을 의미한다.
도 13의 (a)에 도시한 바와 같이, 제어부(140)는 사용자로부터 또 다른 제스쳐를 입력받을 수 있다. 예를 들어, 제1 글래스(130a)를 터치하거나 터치한 상태에서 일정한 방향으로 이동하는 제스쳐 동작을 입력받을 수 있음을 의미한다.
도 13의 (b)에 도시한 바와 같이, 제어부(140)는 사용자의 터치입력에 대응하여 분할되었던 표시영역(DA)을 하나로 병합할 수 있다.
도 14 내지 도 18은 도 1 전자디바이스의 다른 실시예에 따른 조작방법을 도시한 도면이다.
이들 도면에 도시한 바와 같이, 본 발명의 일 실시예에 따른 전자 디바이스(100)는, 다양한 상황에서 효과적으로 콘텐츠를 투사영역에 표시할 수 있다.
도 14의 (a)에 도시한 바와 같이, 전자 디바이스(100)가 착용되지 않은 제2 상태에서 새로운 메시지가 수신되는 상황이 발생할 수 있다. 제어부(140)는, 전자 디바이스(100)가 제2 상태에 있다는 점을 감지하면, 메시지가 수신되었다는 사실을 표시영역(DA)에 디스플레이할 수 있다. 즉, 사용자가 전자 디바이스(100)로부터 일정 거리 이격된 상태에 있을 것을 예상하여, 글라스(130)가 아닌 바닥면에 표시함으로써 식별력을 높일 수 있음을 의미한다.
제어부(140)는 메시지가 수신되었다는 사실을, 문자 및/또는 문자아이콘(I1)으로 표시할 수 있다. 제어부(140)는, 사용자로부터 별도의 조작이 없으면 문자가 수신된 시각부터 일정 시간 문자 및/또는 문자아이콘(I1)을 표시한 후 표시영역(DA)의 디스플레이를 중단할 수 있다.
도 14의 (b)에 도시한 바와 같이, 제2 상태에서 콜(call)이 추가로 수신될 수 있다. 제어부(140)는 콜이 수신되었다는 사실을, 문자 및/또는 콜아이콘(I2)으로 표시할 수 있다.
도 15의 (a)에 도시한 바와 같이, 사용자는 손가락(F) 등으로 전자 디바이스(100)에 일정한 제스쳐 동작을 수행할 수 있다. 예를 들어, 전자 디바이스(100)의 글라스(130)를 터치하는 제스쳐 동작을 수행할 수 있음을 의미한다.
제어부(140)는, 사용자의 제스쳐 동작이 수행되면 비활성화되었던 표시영역(DA)을 다시 활성화할 수 있다. 즉, 프로젝터(210)를 사용한 영상의 투사를 다시 개시할 수 있음을 의미한다.
도 15의 (b)에 도시한 바와 같이, 사용자로부터 특정 제스쳐 입력을 받으면, 제어부(140)는 수신되었으나 사용자가 확인하지 않은 이벤트를 순차적으로 표시할 수 있다. 예를 들어, 분할된 표시영역(DA) 중 일 영역에 확인하지 못한 콜이 있음을 콜아이콘(I2) 등으로 표시할 수 있음을 의미한다.
도 16의 (a)에 도시한 바와 같이, 사용자는 손가락(F) 등으로 전자 디바이스(100)에 일정한 제스쳐를 수행할 수 있다. 예를 들어, 전자 디바이스(100)의 안경테 부분을 터치하는 동작을 수행할 수 있음을 의미한다.
도 16의 (b)에 도시한 바와 같이, 사용자의 터치동작에 대응하여 제어부(140)는, 사용자가 확인하지 못한 다른 이벤트에 대한 내용을 표시할 수 있다. 예를 들어, 메시지아이콘(I1) 및/또는 문자를 표시할 수 있음을 의미한다.
도 17의 (a)에 도시한 바와 같이, 전자 디바이스(100)가 제2 상태에 있을 때 메시지가 수신될 수 있다. 제어부(140)는, 메시지 수신 이벤트가 발생하였음을 메시지아이콘(I1) 등으로 표시할 수 있다.
도 17의 (b)에 도시한 바와 같이, 메시지아이콘(I1)의 수신 등 특정 이벤트가 발생한 경우에, 사용자는 전자 디바이스(100)를 착용한 후 이후의 동작을 수행하고자 할 수 있다. 이와 같은 경우에, 사용자는 안경테(161)를 잡아 착용할 수 있다. 예를 들어, 제1,2 터치지점(TP1, TP2)을 파지하여 전자 디바이스(100)를 착용할 수 있음을 의미한다.
제1,2 터치지점(TP1, TP2) 중 적어도 한 부분을 파지하여 전자 디바이스(100)를 착용한 제1 상태가 되면, 제어부(140)는 글래스(130)에 관련 내용을 표시할 수 있다. 즉, 콘텐츠를 제2 상태와 다른 방식으로 표시할 수 있음을 의미한다. 사용자가 제1,2 터치지점(TP1, TP2) 중 적어도 한 부분을 터치하거나 제1 상태로 전환이 완료되면, 제어부(140)는 프로젝터(210)를 사용한 콘텐츠의 표시를 중단할 수 있다.
도 18의 (a)에 도시한 바와 같이, 전자 디바이스(100)에는 사용자가 확인하지 않은 복수의 이벤트가 대기 중일 수 있다. 예를 들어, 미확인 메시지 이벤트와 미수신 콜 이벤트가 존재할 수 있음을 의미한다. 복수의 이벤트가 존재함은, 메시지아이콘(I1)과 콜아이콘(I2) 등으로 표시될 수 있다.
도 18의 (b)에 도시한 바와 같이, 사용자는 확인하고 싶은 이벤트에 따라서 제1,2 터치지점(TP1, TP2) 중 어느 한쪽을 터치할 수 있다. 예를 들어, 제1 터치지점(TP1)을 터치하면, 제어부(140)는 제1 터치지점(TP1) 측의 콜아이콘(I2)과 관련된 내용을 표시할 수 있다. 제2 터치지점(TP2)를 터치하면, 제어부(140)는 제2 터치지점(TP2) 측의 메시지아이콘(I1)과 관련된 내용을 표시할 수 있다. 즉, 전자 디바이스(100)에 대한 사용자의 터치 동작을 감지하면, 그 터치 동작에 대응된 콘텐츠와 관련된 내용을 표시할 수 있음을 의미한다.
사용자가 직관적으로 인식할 수 있는 제스쳐 입력에 대응한 동작을 수행함으로써, 전자 디바이스(100)를 보다 편리하게 사용할 수 있다.
본 발명은 기재된 실시예들에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서, 그러한 수정예 또는 변형예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.
100 : 전자 디바이스 140 : 제어부

Claims (15)

  1. 센서부;
    외부영상을 획득하는 적어도 하나의 카메라; 및
    상기 센서부와 상기 카메라 중 적어도 하나를 통해, 디바이스(Device)가 착용된 제1 상태와 상기 디바이스가 착용되지 않은 제2 상태 중 현재의 상태를 감지하고, 상기 제1 상태와 상기 제2 상태에서 서로 다른 방식으로 콘텐츠를 표시하는 제어부를 포함하는 전자 디바이스.
  2. 제1 항에 있어서,
    적어도 하나의 프로젝터를 더 포함하며,
    상기 제어부는,
    상기 제2 상태에서, 상기 적어도 하나의 프로젝터를 사용하여 투사면(projection surface)을 향해 상기 콘텐츠를 영사(projection)하는 것을 특징으로 하는 전자 디바이스.
  3. 제1 항에 있어서,
    디스플레이 기능이 탑재된 적어도 하나의 글라스를 더 포함하며,
    상기 제어부는,
    상기 제1 상태에서, 상기 적어도 하나의 글라스를 사용하여 상기 콘텐츠를 표시하는 것을 특징으로 하는 전자 디바이스.
  4. 제2 항에 있어서,
    상기 제어부는,
    상기 투사면의 상태에 기초하여 상기 영사하는 콘텐츠의 색상, 명암, 밝기 중 적어도 하나를 변경하는 것을 특징으로 하는 전자 디바이스.
  5. 제2 항에 있어서,
    상기 제어부는,
    상기 투사면의 상태에 기초하여 상기 영사하는 콘텐츠에 포함된 폰트의 크기, 상기 폰트의 종류, 정보의 양, 정보의 종류 중 적어도 하나를 변경하는 것을 특징으로 하는 전자 디바이스.
  6. 제2 항에 있어서,
    상기 제어부는,
    상기 제2 상태에서, 상기 디바이스가 놓여진 방향에 관계없이 사용자의 시선방향에 대하여 상기 콘텐츠의 지향방향(orientation)이 일정하도록 상기 콘텐츠를 영사하는 것을 특징으로 하는 전자 디바이스.
  7. 제2 항에 있어서,
    상기 제어부는,
    상기 제2 상태에서, 상기 콘텐츠의 속성 및 사용자로부터의 입력 중 적어도 하나에 기초하여 상기 콘텐츠가 영사되는 표시영역의 넓이 및 개수 중 적어도 하나를 변경하는 것을 특징으로 하는 전자 디바이스.
  8. 제2 항에 있어서,
    상기 제어부는,
    상기 제2 상태에서, 상기 디바이스에 중 적어도 일 지점에 대한 사용자의 터치동작을 감지하면, 상기 영사하는 콘텐츠 중 상기 감지한 터치동작에 대응된 위치에 표시된 콘텐츠와 관련된 동작을 수행하는 것을 특징으로 하는 전자 디바이스.
  9. 제2 항에 있어서,
    상기 적어도 하나의 프로젝터는,
    상기 디바이스의 전방을 향하는 제1 프로젝터와, 상기 디바이스의 후방을 향하는 제2 프로젝터를 포함하는 전자 디바이스.
  10. 제1 항에 있어서,
    상기 제어부는,
    상기 디바이스 중 적어도 일 지점에 대한 사용자의 파지동작을 감지하면,
    상기 제2 상태의 표시 방식을 상기 제1 상태의 표시 방식으로 변경하는 것을 특징으로 하는 전자 디바이스.
  11. 디바이스의 상태를 감지하는 단계; 및
    상기 디바이스가 착용된 제1 상태와 상기 디바이스가 착용되지 않은 제2 상태 중 감지된 현재 상태에 따라 서로 다른 방식으로 콘텐츠를 표시하는 단계를 포함하는 전자 디바이스의 제어방법.
  12. 제11 항에 있어서,
    상기 표시하는 단계는,
    상기 제2 상태에서, 적어도 하나의 프로젝터를 사용하여 투사면을 향해 상기 콘텐츠를 영사하는 단계를 더 포함하는 전자 디바이스의 제어방법.
  13. 제11 항에 있어서,
    상기 표시하는 단계는,
    상기 제1 상태에서, 적어도 하나의 글라스를 사용하여 상기 콘텐츠를 표시하는 단계를 더 포함하는 전자 디바이스의 제어방법.
  14. 제12 항에 있어서,
    상기 영사하는 단계는,
    상기 투사면의 상태에 기초하여 상기 영사하는 콘텐츠의 색상, 명암, 밝기, 상기 영사하는 콘텐츠에 포함된 폰트의 크기, 상기 폰트의 종류, 정보의 양, 정보의 종류 중 적어도 하나를 변경하는 단계를 더 포함하는 전자 디바이스의 제어방법.
  15. 제12 항에 있어서,
    상기 영사하는 단계는,
    상기 제2 상태에서, 상기 디바이스가 놓여진 방향에 관계없이 사용자의 시선방향에 대하여 상기 콘텐츠의 지향방향(orientation)이 일정하도록 상기 콘텐츠를 영사하는 것을 특징으로 하는 전자 디바이스의 제어방법.
KR1020130128817A 2013-10-28 2013-10-28 전자 디바이스 및 그 제어방법 KR20150048576A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020130128817A KR20150048576A (ko) 2013-10-28 2013-10-28 전자 디바이스 및 그 제어방법
US15/029,548 US9958681B2 (en) 2013-10-28 2014-10-16 Electronic device and control method thereof
PCT/KR2014/009747 WO2015064935A1 (en) 2013-10-28 2014-10-16 Electronic device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130128817A KR20150048576A (ko) 2013-10-28 2013-10-28 전자 디바이스 및 그 제어방법

Publications (1)

Publication Number Publication Date
KR20150048576A true KR20150048576A (ko) 2015-05-07

Family

ID=53387040

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130128817A KR20150048576A (ko) 2013-10-28 2013-10-28 전자 디바이스 및 그 제어방법

Country Status (1)

Country Link
KR (1) KR20150048576A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022092517A1 (ko) * 2020-10-30 2022-05-05 삼성전자 주식회사 디스플레이를 포함하는 웨어러블 전자 장치, 그 디스플레이를 제어하는 방법, 및 그 웨어러블 전자 장치 및 케이스를 포함하는 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022092517A1 (ko) * 2020-10-30 2022-05-05 삼성전자 주식회사 디스플레이를 포함하는 웨어러블 전자 장치, 그 디스플레이를 제어하는 방법, 및 그 웨어러블 전자 장치 및 케이스를 포함하는 시스템
US11733952B2 (en) 2020-10-30 2023-08-22 Samsung Electronics Co., Ltd. Wearable electronic device including display, method for controlling display, and system including wearable electronic device and case

Similar Documents

Publication Publication Date Title
CN109739361B (zh) 基于眼睛跟踪的可见度提高方法和电子装置
US8624927B2 (en) Display apparatus, display control method, and display control program
KR102027555B1 (ko) 컨텐츠 디스플레이를 위한 방법 및 그 방법을 처리하는 전자 장치
US9288388B2 (en) Method and portable terminal for correcting gaze direction of user in image
KR102121592B1 (ko) 시력 보호 방법 및 장치
US9774780B1 (en) Cues for capturing images
WO2013046596A1 (ja) 携帯型情報処理端末
EP2755164A2 (en) Display apparatus and control method for adjusting the eyes of a photographed user
WO2021147698A1 (zh) 一种折叠屏的导航方法及相关装置
US20220366874A1 (en) Eye gaze control of magnification user interface
WO2021076383A1 (en) Adaptive assistive technology techniques for computing devices
US9313391B1 (en) Camera interfaces for electronic devices
KR20210102010A (ko) 플렉서블 디스플레이를 갖는 전자 장치의 운영 방법 및 장치
US9958681B2 (en) Electronic device and control method thereof
US20120320500A1 (en) Portable electronic device and method for using the same
US20150009123A1 (en) Display apparatus and control method for adjusting the eyes of a photographed user
KR101603112B1 (ko) 필터링 방법 및 필터링 기능을 구비한 촬상장치
KR20120075054A (ko) 이동 단말기 및 이동 단말기에서의 화면 표시 제어 방법
KR20150048576A (ko) 전자 디바이스 및 그 제어방법
US11600241B2 (en) Display control device, imaging device, display control method, and display control program
KR20150074757A (ko) 전자 디바이스 및 그 제어방법
KR20120040320A (ko) 단말의 디스플레이 장치 및 방법
KR20150043834A (ko) 전자 디바이스 및 그 제어방법
KR101720607B1 (ko) 영상 촬영 장치 및 그 동작 방법
CN110728275A (zh) 车牌识别方法、装置及存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application