KR20160079444A - 디지털 디바이스 및 그 제어 방법 - Google Patents

디지털 디바이스 및 그 제어 방법 Download PDF

Info

Publication number
KR20160079444A
KR20160079444A KR1020140190793A KR20140190793A KR20160079444A KR 20160079444 A KR20160079444 A KR 20160079444A KR 1020140190793 A KR1020140190793 A KR 1020140190793A KR 20140190793 A KR20140190793 A KR 20140190793A KR 20160079444 A KR20160079444 A KR 20160079444A
Authority
KR
South Korea
Prior art keywords
image
message
digital device
wearable device
captured
Prior art date
Application number
KR1020140190793A
Other languages
English (en)
Other versions
KR102352390B1 (ko
Inventor
이승준
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140190793A priority Critical patent/KR102352390B1/ko
Priority to EP15873401.2A priority patent/EP3238170B1/en
Priority to CN201580071097.8A priority patent/CN107111860B/zh
Priority to PCT/KR2015/003470 priority patent/WO2016104873A1/en
Priority to US14/717,605 priority patent/US9756251B2/en
Publication of KR20160079444A publication Critical patent/KR20160079444A/ko
Application granted granted Critical
Publication of KR102352390B1 publication Critical patent/KR102352390B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

메시지에 멀티미디어를 첨부하기위한 디지털 디바이스 및 그 제어 방법에 제시된다. 본 명세서에 따른 디지털 디바이스는, 메시지 작성 중 디지털 디바이스 또는 웨어러블 디바이스에 대한 유저 입력에 기초하여 웨어러블 디바이스를 이용하여 이미지를 첨부할 수 있다.

Description

디지털 디바이스 및 그 제어 방법{DIGITAL DEVICE AND CONTROLLING METHOD THEREOF}
본 명세서는 디지털 디바이스 및 그 제어 방법에 대한 것이다.
도 1은 메시지 전송 중 사진을 첨부하는 종래의 방법을 도시한다.
도 1에서, 유저는 디지털 디바이스(100)를 이용하여 메시지를 작성 중이다. 유저는 메시지와 함께 주변의 사진을 함께 첨부하여 전송하기를 원할 수도 있다. 예를 들어, 유저는 자신과 인접한 위치의 랜드마크(400)의 사진을 메시지와 함께 전송하기를 원할 수도 있다.
종래의 방법에서는, 유저는 메시지에 사진을 첨부하기 위하여 첨부 버튼을 누르고, 카메라 또는 기존의 사진을 선택한다. 또한, 카메라를 선택한 경우, 카메라 어플리케이션이 실행된다. 유저는 카메라 어플리케이션을 이용하여 사진을 캡쳐하고 캡쳐된 사진을 메시지에 첨부할 수 있다.
그러나, 유저는 메시지를 첨부하기 위하여 작성 중이던 메시지의 작성을 멈추고 카메라 어플리케이션을 실행하여야만 한다. 따라서, 유저는 사진의 첨부를 위하여 메시지의 작성을 방해 받는다. 게다가 유저는 사진을 첨부하기 위하여 복잡한 과정들을 거쳐야 한다.
따라서, 보다 빠르고 용이한 사진 첨부의 방법이 요구된다.
본 명세서는, 보다 직관적인 유저 인터페이스를 이용하여 작성 중인 메시지에 멀티미디어를 첨부하는 디지털 디바이스 및 그 제어 방법을 제공하고자 한다. 특히, 디지털 디바이스의 유저가 착용하고 있는 웨어러블 디바이스를 이용하여 멀티미디어 컨텐츠를 생산함으로써 메시지 작성을 방해하지 않는 멀티미디어 첨부 방법을 제공하고자 한다.
본 개시물의 일 실시예에 따른 디지털 디바이스는, 이미지를 디스플레이하고 터치 입력을 수신하는 디스플레이 유닛; 웨어러블(wearable) 디바이스와 커뮤니케이션하는 커뮤니케이션 유닛; 이미지 센싱 유닛; 및 디스플레이 유닛, 커뮤니케이션 유닛 및 이미지 센싱 유닛을 제어하는 프로세서를 포함하고, 프로세서는, 메지시 작성을 제공하는 메시지 입력 인터페이스를 디스플레이 유닛 상에 디스플레이하고, 메시지 입력 인터페이스는 제1 첨부 버튼을 포함하며, 제1 첨부 버튼에 대한 입력이 수신되면, 웨어러블 디바이스로 하여금 이미지를 캡쳐(capture)하게 하고, 웨어러블 디바이스에 의하여 캡쳐된 이미지를 메시지에 첨부할 수 있다.
본 개시물의 일 실시예에 따른 디지털 디바이스의 제어 방법은, 디지털 디바이스의 디스플레이 유닛 상에 메시지 작성을 제공하는 메시지 입력 인터페이스를 디스플레이하는 단계로서, 메시지 입력 인터페이스는 제1 첨부 버튼을 포함하는, 메시지 입력 인터페이스를 디스플레이하는 단계; 제1 첨부 버튼에 대한 입력이 수신되면, 디지털 디바이스와 커뮤니케이션하는 웨어러블 디바이스로 하여금 이미지를 캡쳐(capture)하게 하는 단계; 및 웨어러블 디바이스에 의하여 캡쳐된 이미지를 메시지에 첨부하는 단계를 포함할 수 있다.
본 개시물에 따른 디지털 디바이스는 유저로 하여금 보다 용이하게 메시지에 사진을 첨부할 수 있도록 한다.
또한, 본 개시물에 따른 디지털 디바이스는 유저의 웨어러블 디바이스를 이요함으로써 보다 빠르게 사진의 첨부 및 메시지의 전송을 수행하게 할 수 있다.
도 1은 메시지 전송 중 사진을 첨부하는 종래의 방법을 도시한다.
도 2는 일 실시예에 따른 디지털 디바이스의 구성도를 도시한다.
도 3은 일 실시예에 따른 디지털 디바이스의 추가적인 구성도를 도시한다.
도 4는 일 실시예에 따른 멀티미디어 첨부 방법을 도시한다.
도 5는 일 실시예에 따른 메시지 입력 인터페이스를 도시한다.
도 6은 디지털 디바이스와 웨어러블 디바이스 사이의 커뮤니케이션에 기초한 멀티미디어 첨부의 일 실시예를 도시한다.
도 7은 다른 실시예에 따른 메시지 입력 인터페이스를 도시한다.
도 8은 시선 인식에 기초한 멀티미디어 첨부의 일 실시예를 도시한다.
도 9는 디지털 디바이스의 위치에 기초한 멀티미디어 첨부의 일 실시예를 도시한다.
도 10은 일 실시예에 따른 디지털 디바이스의 제어 방법을 도시한다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시 예를 상세하게 설명하지만, 청구하고자 하는 범위는 실시 예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용되는 용어는 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
본 명세서의 디지털 디바이스는 카메라, 셀룰러 폰, 무선 통신 전화기, 스마트 폰, 태블릿 PC, PDA(Personal Digital Assistant) 및 디스플레이를 갖는 다른 포터블 디바이스를 포함할 수 있다.
또한, 본 명세서의 웨어러블 디바이스는 HMD(Head Mounted Display), 스마트 와치(Smart watch) 등을 포함할 수 있다.
도 2는 일 실시예에 따른 디지털 디바이스의 구성도를 도시한다.
디지털 디바이스(100)는 디스플레이 유닛(120), 커뮤니케이션 유닛(130), 이미지 센싱 유닛(140) 및 프로세서(110)를 포함할 수도 있다.
디스플레이 유닛(120)은 하나 이상의 이미지를 디스플레이하고 터치 입력을 수신할 수 있다. 또한, 디스플레이 유닛(120)은 메인 디스플레이 영역과 서브 디스플레이 영역을 포함할 수 있다. 도 1과 관련하여 상술한 바와 같이, 서브 디스플레이 영역은 에지(edge) 디스플레이일 수도 있다. 디스플레이 유닛(120)은 LCD(Liquid Crystal Display), 플라즈마 디스플레이, 또는 다른 유형의 디스플레이를 포함할 수도 있다. 또한, 디스플레이 유닛(120)은 플렉서블 디스플레이, 롤러블 디스플레이 및/또는 폴더블 디스플레이를 포함할 수도 있다. 또한, 디스플레이 유닛(120)은 터치 센서를 포함할 수도 있다. 즉, 디스플레이 유닛(120)은 터치 센서를 포함할 수 있다. 터치 센서는 디스플레이 유닛(120) 상에 또는 디스플레이 유닛(120) 내에 위치될 수도 있다. 터치 센서는 슬라이딩 터치 입력, 멀티 터치 입력, 롱-프레스 터치 입력, 숏-프레스 터치 입력, 드래그 터치 입력, 호버링(hovering) 입력 또는 플리킹(flicking) 터치 입력 등 접촉 또는 비접촉의 다양한 터치 입력을 센싱할 수 있다. 나아가, 터치 센서는 터치 펜, 스타일러스 펜 등 다양한 입력 도구에 의한 터치 입력 또한 센싱할 수 있다. 터치 센서는 터치 입력을 센싱한 결과를 프로세서(110)에 전달할 수 있다.
디지털 디바이스(100)는 커뮤니케이션 유닛(130)을 포함할 수도 있다. 커뮤니케이션 유닛(130)은 외부 디바이스와 커뮤니케이션할 수 있다. 또한, 커뮤니케이션 유닛(130)은 하나 이상의 외부 디바이스로부터 정보 및/또는 데이터를 수신할 수 있다. 커뮤니케이션 유닛(130)은 다양한 프로토콜에 기반한 유선 또는 무선 네트워크를 통하여 커뮤니케이션을 수행하고 데이터를 송신/수신할 수 있다. 예를 들어, 커뮤니케이션 유닛(130)은 외부 디바이스 및/또는 무선 네트워크와의 접속을 위해, WLAN(Wireless LAN), IEEE 802.11 기반의 무선랜 통신, Wibro(Wireless Broadband), Wimax(World Interoperability for Micorwave Access), HSDPA(High Speed Downlink Packet Access), 블루투스, 근접장 통신(NFC: Near Field Communication) 규격 등을 이용할 수 있다. 또한, 커뮤니케이션 유닛(130)은 유/무선 네트워크를 통하여 인터넷에 접속할 수 있다.
또한, 디지털 디바이스(100)는 커뮤니케이션 유닛(130)을 이용하여 외부 디바이스와 페어링될 수도 있다. 예를 들어, 외부 디바이스와 커뮤니케이션 유닛(130)은 기설정된 프로토콜에 기초하여 커뮤니케이션할 수도 있다. 또한, 디지털 디바이스(100)의 동작에 기초하여 디지털 디바이스(100)는 외부 디바이스로 신호를 송신할 수 있으며, 신호의 송신은 외부 디바이스로 하여금 기설정된 동작을 수행하게할 수도 있다. 또한, 외부 디바이스의 동작은 디지털 디바이스(100)로 신호를 송신하게할 수 있으며, 외부 디바이스로부터의 신호의 수신은 디지털 디바이스(100)로 하여금 기설정된 동작을 수행하게할 수 있다. 예를 들어, 신호의 송수신 및 기설정된 동작의 수행은 하나의 인터럽트(interrupt)로서 설명될 수도 있다. 따라서, 디지털 디바이스(100)로부터의 신호의 수신에 기초하여 외부 디바이스에 인터럽트가 발생되고 외부 디바이스는 인터럽트에 기초하여 기설정된 동작을 수행할 수도 있다. 반대로, 외부 디바이스로부터의 신호의 수신에 기초하여 디지털 디바이스(100)에 인터럽트가 발생되고 디지털 디바이스(100)는 인터럽트에 기초하여 기설정된 동작을 수행할 수도 있다.
디지털 디바이스(100)는 이미지 센싱 유닛(140)을 포함할 수도 있다. 이미지 센싱 유닛(140)은 하나 이상의 카메라를 포함할 수도 있다. 이미지 센싱 유닛(140)의 카메라는 디지털 디바이스(100)의 앞면 및/또는 뒷면에 배치될 수 있다. 이미지 센싱 유닛(140)은 적외선, 자외선 및/또는 적외선을 이용하여 이미지를 센싱할 수 있다.
프로세서(110)는 디스플레이 유닛(120), 커뮤니케이션 유닛(130) 및 이미지 센싱 유닛(140)을 제어할 수 있다. 프로세서(110)는 디지털 디바이스(100)의 데이터를 프로세싱하여 다양한 어플리케이션을 실행할 수 있다. 프로세서(110)는 명령에 기초하여 디지털 디바이스(100) 및 디지털 디바이스(100)에서 실행되는 컨텐츠를 제어할 수 있다.
한편, 도 2에 도시된 디지털 디바이스(100)의 구성도는 일 실시예에 따른 블록도로서, 분리하여 표시한 블록들은 디지털 디바이스(100)의 하드웨어적인 구성 유닛들을 논리적으로 구별하여 도시한 것이다. 따라서, 상술한 디지털 디바이스(100)의 구성 유닛들은 디지털 디바이스(100)의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 구현될 수 있다.
도 3은 일 실시예에 따른 디지털 디바이스의 추가적인 구성도를 도시한다.
한편, 디지털 디바이스(100)는 도 2에 미도시된 구성들을 더 포함할 수도 있다. 이하에서, 설명의 편의를 위하여 도 2와 중복된 구성들에 대한 설명은 생략한다.
디지털 디바이스(100)는 스토리지 유닛(150)을 포함할 수 있다. 스토리지 유닛(150)은 하나의 칩으로 또는 복수의 칩으로 구현될 수 있다. 스토리지 유닛은 어플리케이션 데이터, 멀티미디어 데이터, 시스템 데이터 등을 저장할 수 있다. 또한, 프로세서(110)는 스토리지 유닛(150) 상에 저장된 데이터를 이용하여 디지털 디바이스(100)를 제어할 수 있다. 스토리지 유닛(150)은 플래시 메모리, RAM(Random Access Memory), SSD(Solid State Drive) 등의 다양한 디지털 정보 저장 공간을 나타낼 수 있다.
디지털 디바이스(100)는 오디오 유닛(160)을 포함할 수도 있다. 디지털 디바이스(100)는 오디오 유닛(160)을 통하여 청각적 피드백을 제공할 수도 있다. 오디오 유닛(160)은 하나 이상의 스피커를 포함할 수도 있다.
디지털 디바이스(100)는 센서 유닛(170)을 포함할 수도 있다. 센서 유닛(170)은, 예를 들어, GPS 센서, 이미지 센서, 적외선 센서, 모션 센서, 심박 센서, 지문 센서, 소리 센서 터치 센서 및/또는 자이로 센서를 포함할 수도 있다. 또한, 디지털 디바이스(100)는 센서 유닛(170)으로부터 수신되는 신호에 기초하여 디지털 디바이스(100)의 컨텍스트 정보를 센싱할 수도 있다.
디지털 디바이스(100)는 전력원(180)을 포함할 수도 있다. 전력원(180)은 일회용 배터리, 재충전 가능 배터리 및/또는 에너지 저장 수단을 포함할 수도 있다. 그러나, 디지털 디바이스(100)는 외부의 전력원으로부터 전력을 공급받을 수도 있다.
입력 수신 유닛(190)을 포함할 수도 있다. 입력 수신 유닛(190)은 터치 입력, 음성 입력, 모션 입력 등을 센싱할 수도 있다. 또한, 입력 수신 유닛(190)은 물리적 버튼을 포함할 수도 있다.
한편, 도 3에 도시된 디지털 디바이스(100)의 구성도는 일 실시예에 따른 블록도로서, 분리하여 표시한 블록들은 디지털 디바이스(100)의 하드웨어적인 구성 유닛들을 논리적으로 구별하여 도시한 것이다. 따라서, 상술한 디지털 디바이스(100)의 구성 유닛들은 디지털 디바이스(100)의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 구현될 수 있다. 아울러, 디지털 디바이스(100)는 하우징(housing)과 같은 도 3에 미도시된 구성들을 더 포함할 수 있으며, 프로세서(110)는 도 3에 도시된 구성들 및 도 3에 미도시된 구성들을 제어할 수도 있다.
이하에서는, 디지털 디바이스(100)에서 수행되는 각 단계나 동작이 유저 입력의 센싱에 의해 시작되거나 진행되는 경우, 센싱된 유저 입력에 따라 신호가 생성되어 수신되는 과정은 중복하여 설명하지 않아도 상술한 과정에 대한 설명이 포함된 것으로 한다. 또한, 유저 입력에 따라 프로세서(110)가 디지털 디바이스(100) 또는 디지털 디바이스(100)에 포함된 적어도 하나의 유닛을 제어한다고 표현할 수 있다. 또한, 이하에서 프로세서(110)와 디지털 디바이스(100)를 동일시하여 설명할 수 있다.
도 4는 일 실시예에 따른 멀티미디어 첨부 방법을 도시한다.
도 4에서, 디지털 디바이스(100)의 유저는 HMD(Head Mounted Display) 형의 웨어러블 디바이스(300)를 착용하고 있다. 디지털 디바이스(100)의 디스플레이 유닛(120) 상에는 메시지 입력 인터페이스(200)가 제공된다. 예를 들어, 메시지 입력 인터페이스(200)는 수신자 입력 및/또는 가상 키보드를 포함할 수도 있다. 유저는 주소록에서 수신자를 지정함으로써 또는 통화 목록에서 수신자를 지정함으로써 메시지 입력 인터페이스(200)를 활성화할 수도 있다. 또한, 유저는 메시지 어플리케이션을 실행함으로써 메시지 입력 인터페이스(200)를 활성화할 수도 있다.
도 4에서 유저는 메시지 입력 인터페이스(200)를 이용하여 메시지를 작성할 수 있다. 또한, 유저는 메시지 입력 중, 자신의 주위에 있는 랜드마크(400)의 사진을 함께 첨부하여 보내기를 원할 수도 있다. 도 1과 관련하여 상술한 바와 같이, 유저가 디지털 디바이스(100)를 이용하여 랜드마크(400)의 사진을 캡쳐하는 경우, 카메라 어플리케이션을 실행하여야 하기 때문에, 유저는 불편을 느낄 수도 있다. 따라서, 본 개시물의 디지털 디바이스(100)는 유저가 착용중인 웨어러블 디바이스(300)를 이용하여 사진을 캡쳐하여 메시지에 첨부할 수도 있다.
도 5는 일 실시예에 따른 메시지 입력 인터페이스를 도시한다.
도 5에서, 디지털 디바이스(100)의 디스플레이 유닛(120) 상에 메시지 입력 인터페이스(200)가 제공된다. 유저는 주소록에서 수신자를 지정함으로써 또는 통화 목록에서 수신자를 지정함으로써 메시지 입력 인터페이스(200)를 활성화할 수도 있다. 또한, 유저는 메시지 어플리케이션을 실행함으로써 메시지 입력 인터페이스(200)를 활성화할 수도 있다. 도 5에서, 메시지 입력 인터페이스(200)는 메시지 입력을 위한 키보드와 수신자 정보를 포함하고 있다. 또한, 메시지 입력 인터페이스(200)는 제1 첨부 버튼(210)을 포함한다.
유저는 메시지의 작성 중, 메시지 입력 인터페이스(200)에 포함된 제1 첨부 버튼(210)은 터치함으로써 이미지를 첨부할 수도 있다. 이 경우, 디지털 디바이스(100)는 디지털 디바이스(100)와 페어링된 웨어러블 디바이스(미도시)를 이용하여 이미지를 캡쳐하고, 캡쳐된 이미지를 작성 중인 메시지에 첨부할 수 있다.
또한, 디지털 디바이스(100)는 디지털 디바이스(100)의 전면에 배치된 이미지 센싱 유닛(140)을 포함할 수 있다. 그러나, 디지털 디바이스(100)는 디지털 디바이스(100)에 후면에 배치된 이미지 센싱 유닛(미도시)을 더 포함할 수도 있다.
또한, 도 5와 관련하여 상술한 디지털 디바이스(100)의 동작은 도 6 내지 9와 관련하여 설명되는 디지털 디바이스(100)의 동작들과 선택적으로 조합될 수도 있다.
도 6은 디지털 디바이스와 웨어러블 디바이스 사이의 커뮤니케이션에 기초한 멀티미디어 첨부의 일 실시예를 도시한다.
도 6에서, 디지털 디바이스(100)는 웨어러블 디바이스(300)와 페어링될 수 있다. 웨어러블 디바이스(300)는, 예를 들어, HMD(Head Mounted Display)일 수도 있다. 웨어러블 디바이스(300)는 카메라(310)와 디스플레이 유닛(320)을 포함할 수도 있다. 도 6에서, 디지털 디바이스(100)는 유저로부터 제1 첨부 버튼(210)에 대한 입력을 수신한다. 수신된 입력에 기초하여, 디지털 디바이스(100)는 웨어러블 디바이스(300)로 하여금 이미지를 캡쳐하게 한다. 예를 들어, 웨어러블 디바이스(300)는 카메라(310)를 이용하여 유저가 보고 있는 풍경을 캡쳐할 수도 있다. 웨어러블 디바이스(300)에 의하여 이미지가 캡쳐되면, 디지털 디바이스(100)는 캡쳐된 이미지를 작성 중인 메시지에 첨부할 수 있다. 첨부된 이미지(230)는 메시지 입력 인터페이스(200) 내에 디스플레이될 수도 있다.
따라서, 유저는 메시지의 작성 중에 제1 첨부 버튼(210)을 이용하여 웨어러블 디바이스(300)로 하여금 이미지를 캡쳐하게 하고, 캡쳐된 이미지를 메시지를 첨부할 수 있다. 웨어러블 디바이스(300)에 의한 이미지 캡쳐와, 캡쳐된 이미지의 첨부가 자동적으로 이루어지기 때문에, 유저는 메시지의 작성을 방해받지 않고 이미지를 첨부할 수 있다. 또한, 유저는 첨부된 이미지(230)에 대한 입력을 수행함으로써 첨부된 이미지(230)를 삭제할 수도 있다. 또한, 유저는 제1 첨부 버튼(210)에 대한 입력을 다시 수행함으로써 새로운 이미지를 캡쳐할 수도 있다. 이 경우, 새로운 이미지는 기존의 첨부된 이미지(230)를 대체할 수도 있다. 또한, 새로운 이미지는 기존의 첨부된 이미지(230)와 함께 메시지에 첨부될 수도 있다.
또한, 메시지에 이미지가 첨부되면, 디지털 디바이스(100)는 메시지 입력 인터페이스(200)를 SMS(Short Message Service) 모드로부터 MMS(Multimedia Message Service) 모드로 전환할 수도 있다.
또한, 디지털 디바이스(100)는 메시지 작성 중에 이미지가 캡쳐되면, 캡쳐된 이미지의 프리뷰(preview)를 기설정된 시간 동안 디스플레이 유닛(120) 상에 디스플레이할 수도 있다. 디지털 디바이스(100)는 이미지가 캡쳐되면, 캡쳐된 이미지의 프리뷰를 웨어러블 디바이스(300)의 디스플레이 유닛(320) 상에 기설정된 시간 동안 디스플레이하게 할 수도 있다. 캡쳐된 이미지의 프리뷰 제공은, 유저의 설정 또는 제조사의 선택에 의하여 온/오프될 수도 있다.
한편, 디지털 디바이스(100)는 제1 첨부 버튼(210)에 대한 입력에 기초하여 이미지를 자동적으로 첨부할 수 있을뿐만아니라, 자동적으로 메시지를 송부할 수도 있다. 예를 들어, 디지털 디바이스(100)는 이미지가 첨부되면, 이미지가 첨부된 메시지를 송신할 수도 있다.
한편, 제1 첨부 버튼(210)은 웨어러블 디바이스(300)와 디지털 디바이스(100)의 페어링 여부에 기초하여 변경될 수도 있다. 예를 들어, 페어링 여부에 기초하여 제1 첨부 버튼(210)의 디스플레이 크기, 디스플레이 색상 및 디스플레이 모양 중 적어도 하나가 변경될 수도 있다.
또한, 제1 첨부 버튼(210)에 대한 입력은 웨어러블 디바이스(300)와 디지털 디바이스(100)의 페어링 여부에 기초하여 서로 상이한 동작을 수행할 수도 있다. 예를 들어, 웨어러블 디바이스(300)와 디지털 디바이스(100)가 페어링된 경우, 디지털 디바이스(100)는 제1 첨부 버튼(210)에 대한 입력이 수신되면, 웨어러블 디바이스(300)로하여금 이미지를 캡쳐하게 하고, 웨어러블 디바이스(300)에 의하여 캡쳐된 이미지를 메시지에 첨부할 수도 있다. 그러나, 웨어러블 디바이스(300)와 디지털 디바이스(100)가 페어링되지 않은 경우, 디지털 디바이스(100)는 제1 첨부 버튼(210)에 대한 입력이 수신되면, 디지털 디바이스(100)의 전면의 이미지 센싱 유닛(140) 또는 후면의 이미지 센싱 유닛(미도시)을 이용하여 이미지를 캡쳐하고, 캡쳐된 이미지를 메시지에 첨부할 수도 있다.
한편, 디지털 디바이스(100)는 이미지뿐만 아니라, 동영상을 메시지에 첨부할 수도 있다. 예를 들어, 디지털 디바이스(100)는 제1 첨부 버튼(210)에 대한 기설정된 시간 미만으로 유지되는 터치 입력이 수신되면, 웨어러블 디바이스(300)로하여금 이미지를 캡쳐하게 하고, 웨어러블 디바이스(300)에 의하여 캡쳐된 이미지를 메시지에 첨부할 수도 있다. 또한, 디지털 디바이스(100)는 제1 첨부 버튼(210)에 대한 기설정된 시간 이상으로 유지되는 터치 입력이 수신되면, 웨어러블 디바이스(300)로하여금 터치 입력이 유지되는 동안 동영상을 캡쳐하게 하고, 캡쳐된 동영상을 메시지에 첨부할 수도 있다.
또한, 도 6와 관련하여 상술한 디지털 디바이스(100)의 동작은 도 5 및 도 7 내지 9와 관련하여 설명되는 디지털 디바이스(100)의 동작들과 선택적으로 조합될 수도 있다.
도 7은 다른 실시예에 따른 메시지 입력 인터페이스를 도시한다.
도 7에서 메시지 입력 인터페이스(200)는 제1 첨부 버튼(210) 및 제2 첨부 버튼(220)을 포함한다. 디지털 디바이스(100)는 제2 첨부 버튼(220)에 대한 입력이 수신되면, 디지털 디바이스(100)의 이미지 센싱 유닛(140)을 이용하여 이미지를 캡쳐하고, 캡쳐된 이미지를 메시지에 첨부할 수도 있다. 또한, 제2 첨부 버튼(220)에 대한 입력이 수신되면, 디지털 디바이스(100)는 디지털 디바이스(100)의 후면에 위치된 이미지 센싱 유닛(140)을 이용하여 이미지를 캡쳐하고, 캡쳐된 이미지를 메시지에 첨부할 수도 있다.
또한, 도 5 및 도 6과 관련하여 상술한 바와 같이, 디지털 디바이스(100)는 제1 첨부 버튼(210)에 대한 입력에 기초하여 웨어러블 디바이스(미도시)에 의하여 캡쳐된 이미지를 메시지에 첨부할 수도 있다.
제1 첨부 버튼(220)은 웨어러블 디바이스(미도시)가 디지털 디바이스(100)에 페어링되었을 때에만 디스플레이될 수도 있다. 예를 들어, 디지털 디바이스(100)가 웨어러블 디바이스(미도시)와 페어링되지 않았을 경우, 디지털 디바이스(100)는 제2 첨부 버튼(220) 만을 메시지 입력 인터페이스(200) 내에 포함시킬 수도 있다.
또한, 도 7와 관련하여 상술한 디지털 디바이스(100)의 동작은 도 5, 도 6 및 도 8 내지 9와 관련하여 설명되는 디지털 디바이스(100)의 동작들과 선택적으로 조합될 수도 있다.
도 8은 시선 인식에 기초한 멀티미디어 첨부의 일 실시예를 도시한다.
도 8에서, 디지털 디바이스(100)는 이미지 센싱 유닛(140)을 이용하여 유저의 시선을 디텍트할 수 있다. 예를 들어, 디지털 디바이스(100)는 유저의 눈, 유저의 동공, 유저을 얼굴 및 유저의 머리에 마운트된 웨어러블 디바이스(300) 중 적어도 하나를 인식함으로써 유저의 시선을 디텍트할 수 있다.
도 8의 (a)에서, 유저의 시선이 디지털 디바이스(100)에 의하여 디텍트된다. 또한, 유저는 디지털 디바이스(100)의 메시지 입력 인터페이스(200)를 이용하여 메시지를 작성하고 있다.
도 8의 (b)에서, 유저는 디지털 디바이스(100)가 아닌 랜드마크(400)를 응시한다. 이 경우, 유저의 시선이 디지털 디바이스(100)에 의하여 디텍트되지 않을 수 있다. 메시지의 작성 중 유저의 시선이 디텍트되지 않으면, 디지털 디바이스(100)는 웨어러블 디바이스(300)를 이용하여 이미지를 캡쳐하고, 캡쳐된 이미지를 메시지에 첨부할 수 있다. 따라서, 유저는 메시지의 작성 중에 착용 중인 웨어러블 디바이스(300)를 통하여 첨부하고 싶은 대상을 응시하는 것 만으로도 이미지를 첨부할 수도 있다.
또한, 도 8의 (b)에서와 같이, 디지털 디바이스(100)는 유저의 시선이 디텍트되지 않으면 웨어러블 디바이스(300)로하여금 이미지를 캡쳐하게 할 수도 있다. 또한, 도 8의 (a)에서와 같이, 디지털 디바이스는(100)는 이미지가 캡쳐된 후 다시 유저의 시선이 디텍트되면, 캡쳐된 이미지를 첨부할 수도 있다.
한편, 디지털 디바이스(100)는 메시지의 작성 중, 유저의 시선이 디텍트되지 않은 때로부터, 기설정된 시간이 지난 후에 웨어러블 디바이스(300)로하여금 이미지를 캡쳐하게 할 수도 있다.
또한, 디지털 디바이스(100)는 메시지의 작성 중, 유저의 시선이 디텍트되지 않으면, 기설정된 시간 마다 웨어러블 디바이스(300)로하여금 이미지를 캡쳐하게 할 수도 있다. 이 경우, 2 이상의 이미지가 웨어러블 디바이스(300)에 의하여 캡쳐될 수도 있다. 2 이상의 이미지가 웨어러블 디바이스(300)에 의하여 캡쳐된 경우, 디지털 디바이스(100)는 2 이상의 이미지 중 메시지에 첨부될 이미지를 선택하는 인터페이스를 제공할 수도 있다.
또한, 디지털 디바이스(100)는 오동작을 방지하기 위하여, 유저의 시선이 기설정된 시간 이상 디텍트되지 않으면 웨어러블 디바이스(300)로 하여금 이미지를 캡쳐하게 할 수도 있다.
또한, 도 8와 관련하여 상술한 디지털 디바이스(100)의 동작은 도 5 내지 도 7 및 도 9와 관련하여 설명되는 디지털 디바이스(100)의 동작들과 선택적으로 조합될 수도 있다.
도 9는 디지털 디바이스의 위치에 기초한 멀티미디어 첨부의 일 실시예를 도시한다.
도 9에서 디지털 디바이스(100)는 위치 결정 유닛 및/또는 자이로 센서를 포함할 수 있다. 따라서 디지털 디바이스(100)는 자신의 위치 및/또는 디지털 디바이스(100)에 대한 가속도를 센싱할 수 있다.
도 9의 (a)에서, 유저는 디지털 디바이스(100)의 메시지 입력 인터페이스(200)를 이용하여 메시지를 작성하고 있다.
도 9의 (b)에서, 메시지를 작성하던 유저는 디지털 디바이스(100)를 들어올림으로써 랜드 마크(400)의 이미지를 캡쳐하여 메시지에 첨부하고자 한다. 이러한 디지털 디바이스(100)의 상승으로 인하여, 디지털 디바이스(100)의 위치의 이동이 발생할 수도 있다. 따라서, 메시지의 작성 중에 기설정된 범위 이상의 디지털 디바이스(100)의 이동이 있는 경우, 디지털 디바이스(100)는 첨부될 이미지를 캡쳐하기 위한 어플리케이션을 자동적으로 실행할 수도 있다. 또한, 디지털 디바이스(100)는 메시지의 작성 중에 기설정된 범위 이상의 디지털 디바이스(100)의 이동이 있는 경우, 디지털 디바이스(100)의 이미지 센싱 유닛(미도시)을 이용하여 자동적으로 이미지를 캡쳐하고 캡쳐된 이미지를 자동적으로 작성 중이던 메시지에 첨부할 수도 있다. 예를 들어, 디지털 디바이스(100)는 디지털 디바이스(100)의 이동 후 기설정된 시간이 경과된 후에 이미지를 캡쳐할 수도 있다.
또한, 디지털 디바이스(100)는 이미지의 캡쳐 후 다시 디지털 디바이스(100)의 위치에 기설정된 범위 이상의 이동이 생기는 경우에 캡쳐된 이미지를 메시지에 첨부할 수도 있다.
도 9의 (a)와 도 9의 (b)와 관련하여 상술한 동작들은 제스쳐의 인식으로 구현될 수도 있다. 예를 들어, 디지털 디바이스(100)를 메시지 작성 중 들어올리는 제스쳐를 인식함으로써 디지털 디바이스(100)는 첨부될 이미지를 캡쳐할 수도 있다.
한편, 디지털 디바이스(100)는 그 디스플레이 모드의 변경에 기초하여 이미지를 캡쳐할 수도 있다. 예를 들어, 디지털 디바이스(100)는 중력 방향에 기초하여 디스플레이 모드를 변경할 수도 있다.
도 9의 (a)에서 메시지 입력 인터페이스(200)가 포트레이트(portrait) 모드에서 제공된다. 메시지를 입력하던 유저는, 도 9의 (b)에서, 디지털 디바이스(100)를 가로 방향으로 든다. 이 경우, 디지털 디바이스(100)의 디스플레이 모드는 랜드스케이프(landscape) 모드로 변경될 수도 있다. 디지털 디바이스(100)는 디스플레이 모드가 메시지의 작성 중에 포트레이트 모드로부터 랜드스케이프 모드로 또는 랜드스케이프 모드로부터 포트레이트 모드로 전환되면, 디지털 디바이스(100)의 이미지 센싱 유닛(미도시)을 이용하여 이미지를 캡쳐하고, 캡쳐된 이미지를 메시지에 첨부할 수도 있다.
도 9와 관련하여 상술된 디지털 디바이스(100)의 동작들은 도 5 내지 도 8과 관련하여 설명되는 디지털 디바이스(100)의 동작들과 선택적으로 조합될 수 있다.
한편, 도 1 내지 9와 관련하여, 디지털 디바이스에 대한 입력에 기초한 웨어러블 디바이스의 이미지 캡쳐 및 캡쳐된 이미지의 첨부에 대하여 설명하였다. 그러나, 본 개시물의 디지털 디바이스는 웨어러블 디바이스에 대한 입력에 기초하여 이미지를 캡쳐하고 캡쳐된 이미지를 첨부할 수도 있다.
다시 도 6을 참조하여, 디지털 디바이스(100)에 대한 메시지 입력 중, 웨어러블 디바이스(300)에 의한 이미지 캡쳐가 발생하면, 디지털 디바이스(100)는 캡쳐된 이미지를 메시지에 첨부할 수도 있다.
웨어러블 디바이스(300)는 터치 입력, 음성 입력을 수신하는 입력 센싱 유닛을 더 포함할 수도 있다. 또한, 웨어러블 디바이스(300)는 물리적 입력을 수신하는 물리적 버튼을 포함할 수도 있다. 또한, 예를 들어, 웨어러블 디바이스(300)는 도 2 및 도 3과 관련하여 상술한 디지털 디바이스의 구성들과 동일하거나 유사한 구성들을 포함할 수도 있다.
예를 들어, 유저는 디지털 디바이스(100)의 메시지 입력 인터페이스(200)를 이용하여 메시지를 작성할 수도 있다. 또한, 디지털 디바이스(100)와 웨어러블 디바이스(300)는 서로 페어링되었을 수도 있다. 이 경우, 웨어러블 디바이스(300)에 대한 입력(예를 들어, 터치 입력, 음성 입력 및/또는 물리적 버튼에 대한 입력)이 발생하면, 웨어러블 디바이스(300)는 이미지 센싱 유닛(310)을 이용하여 이미지를 캡쳐할 수도 있다. 메시지의 작성 중에 웨어러블 디바이스(300)에 의하여 이미지가 캡쳐되면, 디지털 디바이스(100)는 캡쳐된 이미지를 작성 중이던 메시지에 첨부할 수도 있다.
또한, 메시지의 작성 중 웨어러블 디바이스(300)에 대한 기설정된 시간 이상의 입력이 수신되면, 웨어러블 디바이스(300)는 입력이 수신되는 동안 동영상을 캡쳐할 수도 있다. 또한, 디지털 디바이스(100)는 캡쳐된 동영상을 작성 중이던 메시지에 첨부할 수도 있다.
한편, 메시지 입력 인터페이스(200)가 다양한 입력에 기초하여 디스플레이될 수 있음은 도 5 및 도 6과 관련하여 상술한 바와 같다. 메시지 입력 인터페이스(200)는 예를 들어, 웨어러블 디바이스(300)에 대한 입력에 기초하여 제공될 수도 있다. 예를 들어, 유저는 디지털 디바이스(100) 상의 주소록 중 하나의 주소에 대한 입력을 주소록 상에서 또는 바로가기를 통하여 수행할 수도 있다. 예를 들어, 유저는 디지털 디바이스(100)의 주소록 중 "Jimmy"를 선택하거나 "Jimmy"에 대한 바로가기를 선택할 수도 있다. 유저가 "Jimmy"를 선택한 후, 웨어러블 디바이스(300)에 대한 입력이 수신될 수 있다. 또한, 수신된 입력에 기초하여 웨어러블 디바이스(300)는 카메라(310)를 이용하여 이미지를 캡쳐할 수도 있다. 주소록으로부터 하나의 주소(예를 들어, "Jimmy")가 선택된 후 웨어러블 디바이스(300)에 대한 입력에 기초하여 이미지가 캡쳐되면, 디지털 디바이스(100)는 캡쳐된 이미지가 첨부된 메시지 입력 인터페이스(200)를 제공할 수도 있다. 예를 들어, 메시지의 수신자가 "Jimmy"이고, 웨어러블 디바이스(300)에 의하여 캡쳐된 이미지가 첨부된 상태의 메시지 입력 인터페이스(200)가 제공될 수 있다. 즉, 웨어러블 디바이스(300)에 대한 입력에 기초하여 이미지가 자동적으로 첨부될 수도 있다. 또한, 메시지 입력 인터페이스(200)는 MMS(Multimedia Message Service) 모드로서 제공될 수도 있다.
또한, 디지털 디바이스(100)는 주소록으로부터 하나의 주소가 선택된 후 웨어러블 디바이스(300)에 대한 입력에 기초하여 이미지가 캡쳐되면, 선택된 주소로 캡쳐된 이미지를 바로 전송할 수도 있다. 즉, 디지털 디바이스(100)는 웨어러블 디바이스(300)에 대한 입력에 기초하여 이미지를 메시지에 첨부하고 메시지를 자동적으로 전송할 수도 있다.
또한, 디지털 디바이스(100)는 주소록 중 하나의 주소에 대한 선택 입력(예를 들어, 터치 입력) 또는 홈 화면 상의 하나의 주소의 바로가기에 대한 선택 입력(예를 들어, 터치 입력)이 계속하여 유지(hold)되는 동안 웨어러블 디바이스(300)에 대한 입력이 수신되면, 웨어러블 디바이스로하여금 이미지를 캡쳐하게 하고, 캡쳐된 이미지가 첨부된 메시지를 선택된 주소로 송부할 수 있다. 예를 들어, 디지털 디바이스(100)는 이미지만이 첨부된 메시지를 선택된 주소로 송부할 수도 있다. 따라서, 유저는 디지털 디바이스에 대한 한번의 입력과 웨어러블 디바이스에 대한 한번의 입력 만으로도 이미지가 첨부된 메시지를 송부할 수 있다.
또한, 상술한 웨어러블 디바이스(300)에 대한 입력에 기초한 멀티미디어 컨텐츠의 첨부는 도 1 내지 도 9와 관련하여 상술한 디지털 디바이스(100)에 대한 입력에 기초한 멀티미디어 컨텐츠의 첨부 방법과 선택적으로 조합될 수도 있다.
도 10은 일 실시예에 따른 디지털 디바이스의 제어 방법을 도시한다.
디지털 디바이스는 디지털 디바이스의 디스플레이 유닛 상에 미시지 작성을 제공하는 메시지 입력 인터페이스를 디스플레이(S1001)한다. 디지털 디바이스는 다양한 입력에 기초하여 메시지 입력 인터페이스를 제공할 수 있다. 또한, 메시지 입력 인터페이스가, 제1 첨부 버튼 및/또는 제2 첨부 버튼을 포함할 수 있음은 도 5 내지 도 7과 관련하여 상술한 바와 같다.
디지털 디바이스는 메시지 입력 인터페이스 내의 제1 첨부 버튼에 대한 입력이 수신되면, 디지털 디바이스와 커뮤니케이션하는 웨어러블 디바이스로하여금 이미지를 캡쳐(S1002)하게 할 수 있다. 웨어러블 디바이스는 HMD(Head Mounted Display)를 포함할 수 있음은 도 2 및 도 3과 관련하여 상술한 바와 같다. 또한, 웨어러블 디바이스에 대한 입력에 기초하여 이미지를 캡쳐할 수 있음은 도 6과 관련하여 상술한 바와 같다. 디지털 디바이스가 디지털 디바이스에 의하여 캡쳐된 이미지를 첨부할 수 있음은 도 6 및 도 7과 관련하여 상술한 바와 같다.
디지털 디바이스는 웨어러블 디바이스에 의하여 캡쳐된 이미지를 메시지에 첨부(S1003)할 수 있다. 또한, 디지털 디바이스는 유저의 시선에 기초하여 이미지를 캡쳐할 수 잇으며, 이는 도 8과 관련하여 상술한 바와 같다. 아울러, 디지털 디바이스는 디지털 디바이스의 위치의 이동 및/또는 제스쳐에 기초하여 이미지를 캡쳐하고 첨부할 수 있으며, 이는 도 9와 관련하여 상술한 바와 같다.
또한, 도 10과 관련하여 상술한 디지털 디바이스의 제어 방법은 도 1 내지 도 9와 관련하여 상술된 디지털 디바이스의 동작들과 선택적으로 조합될 수 있다.
본 명세서에 따른 디지털 디바이스 및 그 제어 방법은 상술한 실시 예들의 구성과 방법으로 한정되어 적용되는 것이 아니라, 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 다양한 변형이 이루어질 수 있다.
한편, 본 명세서의 디지털 디바이스 및 그 제어 방법은 디지털 디바이스에 구비된 프로세서가 읽을 수 있는 기록 매체에 소프트웨어로서 구현되는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 명세서의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.
100: 디지털 디바이스
110: 프로세서 120: 디스플레이 유닛
130: 커뮤니케이션 유닛 140: 이미지 센싱 유닛
150: 스토리지 유닛 160: 오디오 유닛
170: 센서 유닛 180: 전력원
190: 입력 수신 유닛
200: 메시지 입력 인터페이스
210: 제1 첨부 버튼 220: 제2 첨부 버튼
230: 첨부된 이미지
300: 웨어러블 디바이스
310: 카메라 320: 디스플레이 유닛
400: 랜드마크

Claims (20)

  1. 디지털 디바이스로서,
    이미지를 디스플레이하고 터치 입력을 수신하는 디스플레이 유닛;
    웨어러블(wearable) 디바이스와 커뮤니케이션하는 커뮤니케이션 유닛;
    이미지 센싱 유닛; 및
    상기 디스플레이 유닛, 상기 커뮤니케이션 유닛 및 상기 이미지 센싱 유닛을 제어하는 프로세서를 포함하고,
    상기 프로세서는,
    메지시 작성을 제공하는 메시지 입력 인터페이스를 상기 디스플레이 유닛 상에 디스플레이하고, 상기 메시지 입력 인터페이스는 제1 첨부 버튼을 포함하며,
    상기 제1 첨부 버튼에 대한 입력이 수신되면, 상기 웨어러블 디바이스로 하여금 이미지를 캡쳐(capture)하게 하고,
    상기 웨어러블 디바이스에 의하여 캡쳐된 이미지를 상기 메시지에 첨부하는, 디지털 디바이스.
  2. 제 1 항에 있어서,
    상기 메시지 입력 인터페이스는 제2 첨부 버튼을 더 포함하며,
    상기 프로세서는, 상기 제2 첨부 버튼에 대한 입력이 수신되면, 상기 디지털 디바이스의 상기 이미지 센싱 유닛을 이용하여 이미지를 캡쳐하고,
    상기 이미지 센싱 유닛에 의하여 캡쳐된 이미지를 상기 메시지에 첨부하는, 디지털 디바이스.
  3. 제 1 항에 있어서,
    상기 프로세서는,
    상기 메시지에 상기 캡쳐된 이미지가 첨부되면, 상기 메시지 입력 인터페이스를 SMS(Short Message Service) 모드로부터 MMS(Multimedia Message Service) 모드로 전환하는, 디지털 디바이스.
  4. 제 1 항에 있어서,
    상기 프로세서는,
    상기 이미지 센싱 유닛을 이용하여 유저의 시선을 디텍트하며,
    상기 메시지의 작성 중, 상기 디지털 디바이스에 의하여 상기 유저의 시선이 디텍트되지 않으면, 상기 웨어러블 디바이스로 하여금 이미지를 캡쳐하게 하고,
    상기 이미지가 캡쳐된 후, 상기 유저의 시선이 상기 디지털 디바이스에 의하여 디텍트되면, 상기 캡쳐된 이미지를 상기 메시지에 첨부하는, 디지털 디바이스.
  5. 제 4 항에 있어서,
    상기 프로세서는,
    상기 메시지의 전송 전에 2 이상의 이미지가 상기 웨어러블 디바이스에 의하여 캡쳐된 경우, 상기 2 이상의 이미지 중 상기 메시지에 첨부될 이미지를 선택하는 인터페이스를 제공하는, 디지털 디바이스.
  6. 제 4 항에 있어서,
    상기 프로세서는,
    상기 메시지의 작성 중, 상기 유저의 시선이 기설정된 시간 이상 상기 디지털 디바이스에 의하여 디텍트되지 않으면, 상기 웨어러블 디바이스로 하여금 이미지를 캡쳐하게 하는, 디지털 디바이스.
  7. 제 4 항에 있어서,
    상기 프로세서는, 상기 유저의 눈, 상기 유저의 동공, 상기 유저의 얼굴 및 상기 유저의 머리에 마운트된 상기 웨어러블 디바이스 중 적어도 하나를 추적함으로써 상기 유저의 시선을 디텍트하는, 디지털 디바이스.
  8. 제 1 항에 있어서,
    상기 프로세서는,
    상기 제1 첨부 버튼에 대한 기설정된 시간 미만으로 유지되는 터치 입력이 수신되면, 상기 웨어러블 디바이스로 하여금 이미지를 캡쳐하게 하고, 상기 웨어러블 디바이스에 의하여 캡쳐된 이미지를 상기 메시지에 첨부하고,
    상기 제1 첨부 버튼에 대한 상기 기설정된 시간 이상으로 유지되는 터치 입력이 수신되면, 상기 웨어러블 디바이스로 하여금 상기 터치 입력이 유지되는 동안 동영상을 캡쳐하게 하고, 상기 캡쳐된 동영상을 상기 메시지에 첨부하는, 디지털 디바이스.
  9. 제 1 항에 있어서,
    상기 프로세서는,
    상기 캡쳐된 이미지의 프리뷰(preview)를 기설정된 시간 동안 상기 디스플레이 유닛 상에 디스플레이하는, 디지털 디바이스.
  10. 제 1 항에 있어서,
    상기 프로세서는,
    상기 웨어러블 디바이스로 하여금 상기 웨어러블 디바이스의 디스플레이 상에 상기 캡쳐된 이미지의 프리뷰를 기설정된 시간 동안 디스플레이하게 하는, 디지털 디바이스.
  11. 제 1 항에 있어서,
    상기 프로세서는,
    상기 메시지의 작성 중, 상기 웨어러블 디바이스에 대한 유저의 입력에 기초한 상기 웨어러블 디바이스에 의한 이미지 캡쳐가 발생하면,
    상기 웨어러블 디바이스에 대한 상기 유저의 입력에 기초하여 캡쳐된 이미지를 상기 메시지에 첨부하는, 디지털 디바이스.
  12. 제 1 항에 있어서,
    상기 프로세서는,
    상기 디지털 디바이스와 상기 웨어러블 디바이스가 페어링(pairing)되었을 때 상기 제1 첨부 버튼에 대한 입력이 수신되면, 상기 웨어러블 디바이스로 하여금 이미지를 캡쳐하게 하고, 상기 웨어러블 디바이스에 의하여 캡쳐된 이미지를 상기 메시지에 첨부하고,
    상기 디지털 디바이스와 상기 웨어러블 디바이스가 페어링되지 않았을 때 상기 제1 첨부 버튼에 대한 입력이 수신되면, 상기 디지털 디바이스의 상기 이미지 센싱 유닛을 이용하여 이미지를 캡쳐하고, 상기 이미지 센싱 유닛에 의하여 캡쳐된 이미지를 상기 메시지에 첨부하는, 디지털 디바이스.
  13. 제 12 항에 있어서,
    상기 제1 첨부 버튼은, 상기 디지털 디바이스와 상기 웨어러블 디바이스의 페어링 여부에 기초하여 디스플레이 크기, 디스플레이 색상 및 디스플레이 모양 중 적어도 하나가 변경되는, 디지털 디바이스.
  14. 제 1 항에 있어서,
    상기 프로세서는,
    상기 캡쳐된 이미지가 상기 메시지에 첨부되면, 상기 메시지를 전송하는, 디지털 디바이스.
  15. 제 1 항에 있어서,
    상기 웨어러블 디바이스는 HMD(Head Mounted Display)인, 디지털 디바이스.
  16. 디지털 디바이스의 제어 방법으로서,
    상기 디지털 디바이스의 디스플레이 유닛 상에 메시지 작성을 제공하는 메시지 입력 인터페이스를 디스플레이하는 단계로서, 상기 메시지 입력 인터페이스는 제1 첨부 버튼을 포함하는, 상기 메시지 입력 인터페이스를 디스플레이하는 단계;
    상기 제1 첨부 버튼에 대한 입력이 수신되면, 상기 디지털 디바이스와 커뮤니케이션하는 웨어러블 디바이스로 하여금 이미지를 캡쳐(capture)하게 하는 단계; 및
    상기 웨어러블 디바이스에 의하여 캡쳐된 이미지를 상기 메시지에 첨부하는 단계를 포함하는, 디지털 디바이스의 제어 방법.
  17. 제 16 항에 있어서,
    상기 메시지 입력 인터페이스는 제2 첨부 버튼을 더 포함하며,
    상기 디지털 디바이스의 제어 방법은,
    상기 제2 첨부 버튼에 대한 입력이 수신되면, 상기 디지털 디바스의 이미지 센싱 유닛을 이용하여 이미지를 캡쳐하고, 상기 이미지 센싱 유닛에 의하여 캡쳐된 이미지를 상기 메시지에 첨부하는 단계를 더 포함하는, 디지털 디바이스의 제어 방법.
  18. 제 16 항에 있어서,
    상기 디지털 디바이스의 이미지 센싱 유닛을 이용하여 유저의 시선을 디텍트하는 단계;
    상기 메시지의 작성 중, 상기 유저의 시선이 디텍트되지 않으면, 상기 웨어러블 디바이스로 하여금 이미지를 캡쳐하는 단계; 및
    상기 이미지가 캡쳐된 후, 상기 유저의 시선이 상기 디지털 디바이스에 의하여 디텍트되면, 상기 캡쳐된 이미지를 상기 메시지에 첨부하는 단계를 더 포함하는, 디지털 디바이스의 제어 방법.
  19. 제 16 항에 있어서,
    상기 캡쳐된 이미지의 프리뷰(preview)를 기설정된 시간 동안 디스플레이 유닛 상에 디스플레이하는 단계를 더 포함하는, 디지털 디바이스의 제어 방법.
  20. 제 16 항에 있어서,
    상기 웨어러블 디바이스는 HMD(Head Mounted Display)인, 디지털 디바이스의 제어 방법.
KR1020140190793A 2014-12-26 2014-12-26 디지털 디바이스 및 그 제어 방법 KR102352390B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020140190793A KR102352390B1 (ko) 2014-12-26 2014-12-26 디지털 디바이스 및 그 제어 방법
EP15873401.2A EP3238170B1 (en) 2014-12-26 2015-04-07 Digital device and method of controlling therefor
CN201580071097.8A CN107111860B (zh) 2014-12-26 2015-04-07 数字设备及其控制方法
PCT/KR2015/003470 WO2016104873A1 (en) 2014-12-26 2015-04-07 Digital device and method of controlling therefor
US14/717,605 US9756251B2 (en) 2014-12-26 2015-05-20 Digital device and method of controlling therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140190793A KR102352390B1 (ko) 2014-12-26 2014-12-26 디지털 디바이스 및 그 제어 방법

Publications (2)

Publication Number Publication Date
KR20160079444A true KR20160079444A (ko) 2016-07-06
KR102352390B1 KR102352390B1 (ko) 2022-01-18

Family

ID=56150871

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140190793A KR102352390B1 (ko) 2014-12-26 2014-12-26 디지털 디바이스 및 그 제어 방법

Country Status (5)

Country Link
US (1) US9756251B2 (ko)
EP (1) EP3238170B1 (ko)
KR (1) KR102352390B1 (ko)
CN (1) CN107111860B (ko)
WO (1) WO2016104873A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9886086B2 (en) * 2015-08-21 2018-02-06 Verizon Patent And Licensing Inc. Gesture-based reorientation and navigation of a virtual reality (VR) interface
JP2018000308A (ja) * 2016-06-28 2018-01-11 フォーブ インコーポレーテッド 映像表示装置システム、心拍特定方法、心拍特定プログラム
CN110191282B (zh) * 2019-05-31 2021-12-17 努比亚技术有限公司 一种拍摄参数调控方法、设备及计算机可读存储介质
US11815687B2 (en) * 2022-03-02 2023-11-14 Google Llc Controlling head-mounted device with gestures into wearable device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140010805A (ko) * 2012-07-17 2014-01-27 박성만 촬영시스템 및 그의 제어방법
KR20140039737A (ko) * 2012-09-25 2014-04-02 삼성전자주식회사 이미지를 전송하기 위한 방법 및 그 전자 장치
KR20140052294A (ko) * 2012-10-24 2014-05-07 삼성전자주식회사 헤드-마운티드 디스플레이 장치에서 가상 이미지를 사용자에게 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 헤드-마운티드 디스플레이 장치

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008059511A (ja) * 2006-09-04 2008-03-13 Brother Ind Ltd 携帯端末装置及びヘッドマウントディスプレイを用いた電子メール閲覧システム及び電子メール閲覧方法
US9557812B2 (en) * 2010-07-23 2017-01-31 Gregory A. Maltz Eye gaze user interface and calibration method
US8531394B2 (en) * 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglasses transceiver
US8593375B2 (en) * 2010-07-23 2013-11-26 Gregory A Maltz Eye gaze user interface and method
KR101252169B1 (ko) * 2011-05-27 2013-04-05 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US8190749B1 (en) * 2011-07-12 2012-05-29 Google Inc. Systems and methods for accessing an interaction state between multiple devices
TWI584135B (zh) * 2011-08-30 2017-05-21 萬國商業機器公司 為電子訊息加入附件的方法與電腦裝置
KR20130071794A (ko) * 2011-12-21 2013-07-01 삼성전자주식회사 디지털 촬영 장치 및 이의 제어 방법
US8996729B2 (en) * 2012-04-12 2015-03-31 Nokia Corporation Method and apparatus for synchronizing tasks performed by multiple devices
CN102819810A (zh) * 2012-07-05 2012-12-12 王文杰 用于户外运动的监控和数据服务的方法及便携电子装置
CN103677236A (zh) * 2012-09-18 2014-03-26 联想(北京)有限公司 一种信息处理的方法及电子设备
KR102070772B1 (ko) * 2012-12-07 2020-01-29 엘지전자 주식회사 이동 단말기 및 이의 제어 방법, 이를 위한 기록 매체
WO2014107629A1 (en) * 2013-01-04 2014-07-10 Vuzix Corporation Interactive wearable and portable smart devices
WO2014169191A2 (en) * 2013-04-12 2014-10-16 Rewarder, Inc. Mobile rewarder with mapping and tagging
KR20140130330A (ko) * 2013-04-30 2014-11-10 (주)세이엔 착용형 전자 장치 및 그의 제어 방법
CN104243573B (zh) * 2014-09-11 2017-07-04 浙江大学 一种支持可穿戴设备间数据与服务的协同方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140010805A (ko) * 2012-07-17 2014-01-27 박성만 촬영시스템 및 그의 제어방법
KR20140039737A (ko) * 2012-09-25 2014-04-02 삼성전자주식회사 이미지를 전송하기 위한 방법 및 그 전자 장치
KR20140052294A (ko) * 2012-10-24 2014-05-07 삼성전자주식회사 헤드-마운티드 디스플레이 장치에서 가상 이미지를 사용자에게 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 헤드-마운티드 디스플레이 장치

Also Published As

Publication number Publication date
CN107111860B (zh) 2021-01-22
EP3238170A1 (en) 2017-11-01
KR102352390B1 (ko) 2022-01-18
EP3238170B1 (en) 2020-07-29
EP3238170A4 (en) 2018-06-27
WO2016104873A1 (en) 2016-06-30
CN107111860A (zh) 2017-08-29
US20160191803A1 (en) 2016-06-30
US9756251B2 (en) 2017-09-05

Similar Documents

Publication Publication Date Title
KR101659032B1 (ko) 이동 단말기 및 그것의 제어방법
KR102227087B1 (ko) 글래스 타입 단말기 및 그것의 제어방법
CA2843547C (en) Devices and methods for displaying data in response to detected events
JP6509695B2 (ja) 移動端末機及びその制御方法
EP2797299B1 (en) Device and method for remote controlling of an external display using different positions of the remote controller
US20150213580A1 (en) Display control apparatus, display control method, program, and display device
US20210357067A1 (en) Device and method for processing user input
KR20170037466A (ko) 이동 단말기 및 이의 제어방법
KR20150088041A (ko) 스마트 워치, 디스플레이 디바이스 및 그 제어 방법
KR20140115906A (ko) 시선 위치를 디텍트하는 디스플레이 디바이스 및 제어 방법
KR102352390B1 (ko) 디지털 디바이스 및 그 제어 방법
US20230409192A1 (en) Device Interaction Method, Electronic Device, and Interaction System
JP6147660B2 (ja) 携帯電子機器
EP3770722B1 (en) Screen display method and device, mobile terminal and storage medium
WO2013164351A1 (en) Device and method for processing user input
EP2660695B1 (en) Device and method for processing user input
KR102135373B1 (ko) 이동 단말기 및 그것의 제어방법
KR101750872B1 (ko) 이동 단말기 및 그 제어방법
CA2849614A1 (en) Device, system and method for generating display data
KR102245906B1 (ko) 이동단말기 및 그 제어방법
KR20150084486A (ko) 이동 단말기 및 이의 제어 방법
KR20160007230A (ko) 이동 단말기 및 그것의 제어방법
KR20150068668A (ko) 이동 단말기 및 이의 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant