KR20150110319A - 영상을 디스플레이 하는 방법 및 디바이스 - Google Patents

영상을 디스플레이 하는 방법 및 디바이스 Download PDF

Info

Publication number
KR20150110319A
KR20150110319A KR1020150022722A KR20150022722A KR20150110319A KR 20150110319 A KR20150110319 A KR 20150110319A KR 1020150022722 A KR1020150022722 A KR 1020150022722A KR 20150022722 A KR20150022722 A KR 20150022722A KR 20150110319 A KR20150110319 A KR 20150110319A
Authority
KR
South Korea
Prior art keywords
image
wearable device
information
displayed
screen
Prior art date
Application number
KR1020150022722A
Other languages
English (en)
Other versions
KR102374584B1 (ko
Inventor
정학수
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to EP15765827.9A priority Critical patent/EP3121688B1/en
Priority to PCT/KR2015/002809 priority patent/WO2015142135A1/ko
Priority to US15/127,844 priority patent/US10747490B2/en
Publication of KR20150110319A publication Critical patent/KR20150110319A/ko
Application granted granted Critical
Publication of KR102374584B1 publication Critical patent/KR102374584B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • G09G2370/042Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller for monitor identification
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/06Consumer Electronics Control, i.e. control of another device by a display or vice versa
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

웨어러블 디바이스에서, 사용자가 디바이스를 이용하는지를 나타내는 이용 정보를 획득하고 이용 정보가 획득됨에 따라, 웨어러블 디바이스에서 디스플레이 되는 영상의 적어도 일부를 결정하여, 결정된 영상의 적어도 일부를 디바이스에 전송하는 디바이스에 영상을 디스플레이 하는 방법이 개시된다.

Description

영상을 디스플레이 하는 방법 및 디바이스 {METHOD AND DEVICE FOR DISPLAYING IMAGE}
본 발명은 영상을 디스플레이 하는 방법, 영상을 디스플레이 하는 디바이스, 영상을 디스플레이 하는 방법이 기록된 기록매체에 관한 것이다.
최근, 정보 통신 기술 및 네트워크 기술이 발달됨에 따라 디바이스는 다양한 기능들을 갖는 멀티미디어형 휴대기기로 진화하고 있으며, 근래 들어서는 사용자의 동작을 감지하여, 디바이스에서 수행 가능한 서비스를 사용자의 동작에 따라 최적화 시켜 제공하려는 연구가 활발하게 이루어지고 있다.
한편, 사용자 별로 보유하는 디바이스의 종류 및 수가 증가함에 따라. 사용자가 디바이스로부터 서비스를 제공받는 방식이 다양해지고 있다. 사용자가 하나의 디바이스를 보유하고 있는 경우와는 다르게 사용자가 복수의 디바이스들을 사용하고 있는 경우, 복수의 디바이스들 각각의 특성, 사용자가 복수의 디바이스들을 이용하는 방식 등을 추가적으로 고려하여 사용자 인터페이스를 제공해야 할 필요성이 존재한다.
본 발명의 실시예들은 사용자가 디바이스를 이용하는지를 판단하여 웨어러블 디바이스에 디스플레이 되는 영상을 디바이스에 전송함으로써, 사용자가 영상을 끊기지 않고 시청할 수 있도록 하는 영상을 디스플레이 하는 방법 및 장치가 개시된다.
본 발명의 일 실시예에 따른 영상을 디스플레이 하는 방법은 웨어러블 디바이스에서, 사용자가 디바이스를 이용하는지를 나타내는 이용 정보를 획득하는 단계; 이용 정보가 획득됨에 따라, 웨어러블 디바이스에서 디스플레이 되는 영상의 적어도 일부를 결정하는 단계; 및 결정된 영상의 적어도 일부를 상기 디바이스에 전송하는 단계를 포함한다.
본 발명의 다른 실시예에 따른 영상을 디스플레이 하는 방법은 웨어러블 디바이스에게 사용자가 디바이스를 이용하는지를 나타내는 이용 정보를 전송하는 단계; 이용 정보가 획득됨에 따라 웨어러블 디바이스에 의해 결정된 영상의 적어도 일부를 웨어러블 디바이스로부터 수신하는 단계; 및 수신한 영상의 적어도 일부를 디스플레이 하는 단계를 포함한다.
본 발명의 일 실시예에 따른 영상을 디스플레이 하는 웨어러블 디바이스는 영상을 디스플레이 하는 출력부; 사용자가 디바이스를 이용하는지를 나타내는 이용 정보를 획득하는 통신부; 및 이용 정보가 획득됨에 따라, 디스플레이 되는 영상의 적어도 일부를 결정하는 제어부를 포함하고, 통신부는, 상기 결정된 영상의 적어도 일부를 디바이스에 전송한다.
본 발명의 일 실시예에 따른 영상을 디스플레이 하는 디바이스는 사용자가 디바이스를 이용하는지를 감지하는 센싱부; 사용자가 디바이스를 이용하는지를 나타내는 이용 정보를 생성하는 제어부; 생성된 이용 정보를 웨어러블 디바이스에 전송하고, 이용 정보가 획득됨에 따라 웨어러블 디바이스에서 결정된 영상의 적어도 일부를 웨어러블 디바이스로부터 수신하는 통신부; 및 수신한 영상의 적어도 일부를 디스플레이 하는 출력부를 포함한다.
도 1은 본 발명의 일 실시예에 따라 영상을 표시하는 시스템을 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시예에 따른 웨어러블 디바이스가 이용 정보를 획득함에 따라 디바이스에게 영상의 적어도 일부를 전송하는 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 디바이스에서 사용자 입력을 획득함에 따라, 웨어러블 디바이스가 이용 정보를 수신하는 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따라, 웨어러블 디바이스에서 디스플레이 되는 영상이 동영상인 경우, 생성한 동기화 정보를 디바이스에게 전송하는 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시예에 따라, 웨어러블 디바이스에서 디스플레이 되는 영상이 동영상인 경우, 생성한 동기화 정보를 디바이스에 전송하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따라, 웨어러블 디바이스에서 디스플레이 되는 영상이 정지 영상인 경우, 캡쳐된 화면의 이미지를 디바이스에 전송하는 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 일 실시예에 따라, 웨어러블 디바이스에서 디스플레이 되는 영상이 정지 영상인 경우, 캡쳐된 화면의 이미지를 디바이스(200)에 전송하는 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 웨어러블 디바이스와 디바이스 간의 거리에 따라 이용 정보를 생성하는 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명의 일 실시예에 따른 웨어러블 디바이스와 디바이스간의 거리에 따라 이용 정보를 생성하는 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 사용자의 웨어러블 디바이스와 다른 사용자의 디바이스간의 거리에 따라 이용 정보를 생성하는 방법을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시예에 따라, 디바이스가 웨어러블 디바이스로부터 수신한 영상의 적어도 일부를 디스플레이 하는 방법을 설명하기 위한 흐름도이다.
도 12는 본 발명의 일 실시예에 따라 디바이스가 복수의 웨어러블 디바이스들로부터 수신한 영상의 적어도 일부를 디스플레이 하는 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 일 실시예에 따라, 디바이스(1310)에 복수의 웨어러블 디바이스들(1320, 1330, 1340)에서 결정된 영상의 적어도 일부가 표시되는 방법을 설명하기 위한 도면이다.
도 14는 본 발명의 일 실시예에 따른 웨어러블 디바이스의 구성을 설명하기 위한 블록 구성도이다.
도 15 및 도 16은는 본 발명의 일 실시예에 따른 디바이스의 구성을 설명하기 위한 블록 구성도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
명세서 전체에서 어플리케이션은 특정한 업무를 수행하기 위한 일련의 컴퓨터 프로그램 집합을 말한다. 본 명세서에 기술되는 어플리케이션은 다양할 수 있다. 예를 들어, 동영상 재생 어플리케이션, 사진 폴더 어플리케이션, 메신저 어플리케이션, 네비게이션(navigation) 어플리케이션, 메모 어플리케이션 및 운동 지원 어플리케이션 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
본 명세서에서, 이용 정보는 사용자가 디바이스를 이용하는지를 나타내는 신호를 말한다. 이용 정보는 사용자가 디바이스를 이용하고 있다고 판단되는 경우, 디바이스에서 생성될 수 있다. 이용 정보는 디바이스가 사용자로부터 기 설정된 복수의 사용자 입력들 중에서, 적어도 하나를 수신하는 경우, 사용자 입력이 수신된 시점으로부터 기 설정된 시간 내에 생성될 수 있다. 여기에서 복수의 사용자 입력들은 사용자가 디바이스를 이용할 때 발생할 수 있는 동작들을 기초로 미리 설정될 수 있다. 예를 들어, 이용 정보는 디바이스가 사용자로부터 디바이스의 일부분을 잡는 동작으로 구성된 사용자 입력을 수신하는 경우, 생성될 수 있다. 다른 예에 따라, 이용 정보는 디바이스가 사용자로부터 디바이스의 화면을 터치하는 동작으로 구성된 사용자 입력을 수신하는 경우, 생성될 수도 있다. 또한, 이용 정보는 사용자가 디바이스를 어떻게 이용하는지에 대한 정보를 포함할 수 있다.
이하 첨부된 도면을 참조하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따라 영상을 표시하는 시스템을 설명하기 위한 개념도이다.
도 1을 참조하면, 영상을 표시하는 시스템은 웨어러블 디바이스(100) 및 디바이스(200)를 포함할 수 있다.
도 1에 도시된 영상을 표시하는 시스템에는 본 실시예와 관련된 구성요소들만이 도시되어 있다. 따라서, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 본 실시예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
웨어러블 디바이스(100)는 예를 들어, 스마트 글라스(glass), 스마트 워치(watch)와 같이 사용자의 신체의 일부에 착용하여 사용할 수 있는 디바이스를 나타낸다.
웨어러블 디바이스(100)는 어플리케이션이 실행됨에 따라 화면에 영상(10)을 디스플레이 할 수 있다. 여기에서, 영상(10)은 정지 영상 및 동영상 중 적어도 하나를 포함할 수 있다. 예를 들어, 정지 영상은, 웨어러블 디바이스(100)에서 사진 폴더 어플리케이션이 실행됨에 따라 디스플레이 되는 적어도 하나의 사진을 포함할 수 있다. 또한, 정지 영상은 웨어러블 디바이스(100)에서 메신저 어플리케이션이 실행됨에 따라, 디스플레이 되는 적어도 하나의 메시지를 포함할 수 있다. 한편, 동영상은 웨어러블 디바이스(100)에서 동영상 재생 어플리케이션이 실행됨에 따라 디스플레이 되는 영화 및 드라마 등을 포함할 수 있다. 또한, 동영상은 웨어러블 디바이스(100)에서 네비게이션 어플리케이션이 실행됨에 따라 디스플레이 되는 실시간 맵(map)을 포함할 수 있다.
일 실시예에 따른 웨어러블 디바이스(100)는 디바이스(200)와 정보를 송수신할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 디바이스(200)로부터 사용자가 디바이스(200)를 이용하는지를 나타내는 이용 정보를 획득할 수 있다. 여기에서, 이용 정보는 사용자가 디바이스(200)를 이용하고 있다고 판단되는 경우, 디바이스(200)에서 생성될 수 있다.
이용 정보는 디바이스(200)가 사용자로부터 기 설정된 복수의 사용자 입력들 중에서, 적어도 하나를 수신하는 경우 사용자 입력이 수신된 시점으로부터 기 설정된 시간 내에 디바이스(200)에서 생성될 수 있다. 예를 들어, 이용 정보는 디바이스(200)가 디바이스(200)의 일부분을 잡는 동작으로 구성된 사용자 입력을 수신한 시점으로부터 0.05초 내에 디바이스(200)에서 생성될 수 있다.
또한, 복수의 사용자 입력들은 디바이스(200)를 사용하는 사용자의 동작 특성에 따라, 사용자 별로 다르게 설정될 수도 있다. 예를 들어, 사용자가 디바이스(200)의 좌측 상단 부분을 잡고 디바이스(200)를 사용하는 경우, 디바이스(200)는 좌측 상단 부분을 잡는 동작으로 구성된 사용자 입력을 수신하는 경우, 이용 정보를 생성할 수 있다.
다른 실시예에 따라, 이용 정보는 디바이스(200)가 사용자로부터 기 설정된 복수개의 사용자 입력을 수신하는 경우 생성될 수도 있다. 예를 들어, 이용 정보는 사용자가 디바이스(200)의 화면을 터치하는 동작으로 구성된 사용자 입력과 사용자가 디바이스(200)의 화면을 2초 이상 응시하는 동작으로 구성된 사용자 입력을 수신하는 경우, 생성될 수 있다.
또 다른 실시예에 따라 이용 정보는 웨어러블 디바이스(100)와 디바이스(200)간의 거리가 일정 범위 내에 포함되는 경우, 생성될 수도 있다. 웨어러블 디바이스(100)와 디바이스(200)간의 거리에 대해 판단하는 방법에 대해서는 도 8 및 도 9를 참조하여 구체적으로 후술하도록 한다.
웨어러블 디바이스(100)는 이용 정보를 획득함에 따라 웨어러블 디바이스(100)에서 디스플레이 되는 영상에 관한 정보를 디바이스(200)에게 전송할 수 있다. 여기에서, 영상에 관한 정보는 디스플레이 되는 영상(10)의 종류에 따라 결정될 수 있다.
예를 들어, 웨어러블 디바이스(100)에 정지 영상이 디스플레이 되는 경우, 영상에 관한 정보는 정지 영상이 디스플레이 되는 화면을 캡쳐한 이미지를 포함할 수 있다. 또한, 웨어러블 디바이스(100)에 동영상이 디스플레이 되는 경우, 영상에 관한 정보는 디스플레이 되는 동영상의 식별값 및 동영상의 현재 재생 위치를 나타내는 동기화 정보를 포함할 수 있다. 다른 예에 따라, 웨어러블 디바이스(100)에 동영상이 디스플레이 되는 경우, 영상에 관한 정보는 동영상이 디스플레이 되는 화면을 캡쳐한 이미지와 동기화 정보를 모두 포함할 수도 있다.
한편, 디바이스(200)는 웨어러블 디바이스(100)에게 이용 정보를 전송함에 따라 웨어러블 디바이스(100)로부터 디스플레이 되는 영상(10)에 관한 정보를 수신할 수 있다. 예를 들어, 디바이스(200)는 웨어러블 디바이스(100)의 화면을 캡쳐한 이미지를 수신할 수 있다. 또한, 다른 예에 따라, 디바이스(200)는 웨어러블 디바이스(100)에 디스플레이 되는 동영상에 관한 동기화 정보를 수신할 수 있다. 또 다른 예에 따라, 디바이스(200)는 동영상이 디스플레이 되는 웨어러블 디바이스(100)의 화면을 캡쳐한 이미지와 동영상에 관한 동기화 정보를 모두 수신할 수도 있다.
디바이스(200)는 웨어러블 디바이스(100)로부터 수신한 영상에 관한 정보를 이용하여, 웨어러블 디바이스(100)에서 디스플레이 되는 영상(10, 이하 제 1 영상)의 적어도 일부 영상(20, 이하 제 2 영상)을 디스플레이 할 수 있다. 제 2 영상(20)은 제 1 영상(10)의 디스플레이 규격과 동일한 규격에 따라 디바이스(200)에서 디스플레이 될 수 있다. 디스플레이 규격에 따라 디스플레이 되는 영상의 화질, 영상의 가로와 세로간의 비율 및 영상의 크기 등이 결정될 수 있다. 한편, 다른 예에 따라, 제 2 영상(20)은 사용자의 설정에 따라 제 1 영상(10)과 상이한 디스플레이 규격에 따라 디스플레이 될 수도 있다. 예를 들어, 디바이스(200)는 제 2 영상(20)을 제 1 영상과 다른 크기로 디스플레이 할 수 있다.
또한, 디바이스(200)는 사용자의 설정에 따라, 제 2 영상(20)이 디바이스(200)에서 디스플레이 되는 위치를 결정할 수 있다. 제 2 영상(20)은 디바이스(200)가 영상에 관한 정보를 수신한 때에 디스플레이 하고 있던 영상에 오버랩하여 화면의 좌측 상단에 디스플레이 될 수 있다. 다른 예에 따라 디바이스(200)는 화면을 분할하여, 화면의 제 1 영역에는 제 2 영상(20)을 디스플레이 하고, 화면의 제 2 영역에는 영상에 관한 정보를 수신한 때에 디스플레이 하고 있던 영상을 디스플레이 할 수 있다.
도 2는 본 발명의 일 실시예에 따른 웨어러블 디바이스(100)가 이용 정보를 획득함에 따라 디바이스(200)에게 영상(10)의 적어도 일부를 전송하는 방법을 설명하기 위한 흐름도이다.
단계 S210에서, 웨어러블 디바이스(100)는 사용자가 디바이스(200)를 이용하는지를 나타내는 이용 정보를 획득한다. 웨어러블 디바이스(100)는 이용 정보를 획득하는 경우, 사용자가 디바이스(200)를 이용하고 있다고 결정할 수 있다.
이용 정보는 디바이스(200)가 사용자로부터 기 설정된 복수의 사용자 입력들 중에서, 적어도 하나를 수신하는 경우, 디바이스(200)에서 생성될 수 있다. 예를 들어, 이용 정보는 디바이스(200)가 사용자로부터 화면을 터치하는 동작으로 구성된 사용자 입력을 수신하는 경우 생성될 수 있다. 다른 예에 따라, 이용 정보는 디바이스(200)에 구비된 터치 펜을 디바이스(200)로부터 분리하는 동작으로 구성된 사용자 입력을 수신하는 경우 생성될 수 있다.
또한, 사용자가 디바이스(200)를 이용하는지를 보다 정확하게 측정하기 위해, 이용 정보는 기 저장된 사용자의 식별 정보와 수신한 사용자 입력에 포함된 식별 정보가 동일한 경우에 한해 생성될 수 있다. 예를 들어, 이용 정보는 디바이스(200)가 터치 동작으로 구성된 사용자 입력을 수신한 경우, 터치 동작에서 추출한 지문 정보와 기 저장된 사용자의 지문 정보가 임계 비율 이상 일치하는 경우에 한해 생성될 수 있다.
다른 예에 따라 이용 정보는 디바이스(200)가 기 설정된 사용자 입력을 수신하고, 웨어러블 디바이스(100)와 디바이스(200) 간의 거리가 일정 범위 내에 포함되는 경우, 생성될 수도 있다. 웨어러블 디바이스(100)와 디바이스(200)간의 거리에 대해 판단하는 방법에 대해서는 도 8 및 도 9를 참조하여 구체적으로 후술하도록 한다.
단계 S220에서, 웨어러블 디바이스(100)는 이용 정보가 획득됨에 따라 웨어러블 디바이스(100)에서 디스플레이 되는 영상의 적어도 일부를 결정한다.
웨어러블 디바이스(100)는 이용 정보를 획득한 경우, 디스플레이 되는 영상의 종류를 결정할 수 있다. 결정된 영상의 종류에 따라서, 웨어러블 디바이스(100)에서 디바이스(200)에게 영상의 적어도 일부를 제공하는 방식이 결정될 수 있다. 웨어러블 디바이스(100)는 디스플레이 되는 영상이 정지 영상인 경우, 화면에 디스플레이 되는 이미지를 캡쳐할 수 있다.
한편, 웨어러블 디바이스(100)에 디스플레이 되는 정지 영상은 임의의 시간 간격에 따라 변경될 수 있다. 디스플레이 되는 정지 영상이 임의의 시간 간격에 따라 변경되는 경우, 웨어러블 디바이스(100)는 변경된 정지 영상의 이미지를 캡쳐하여 전송할 수 있다. 다른 예에 따라 웨어러블 디바이스(100)는 디바이스(200)로부터 사용자가 디바이스(200)의 이용을 종료했음을 나타내는 이용 종료 정보를 수신하기까지 변경된 정지 영상들을 캡쳐할 수 있다. 여기에서, 이용 종료 정보는 디바이스(200)에 이용 정보를 생성하는 데 기초가 된 사용자 입력이 수신되지 않는 경우, 생성될 수 있다. 예를 들어, 사용자가 잡고 있던 디바이스(200)를 테이블에 내려놓는 경우, 이용 종료 정보가 생성될 수 있다.
또한, 웨어러블 디바이스(100)에 디스플레이 되는 영상이 동영상인 경우, 이용 정보를 수신한 시점에 디스플레이 되는 프레임의 이미지를 캡쳐할 수 있다.
한편, 다른 실시예에 따라 웨어러블 디바이스(100)는 이용 정보를 수신한 시점에 디스플레이 되는 동영상의 재생 위치를 나타내는 동기화 정보를 생성할 수 있다. 웨어러블 디바이스(100)는 이용 정보를 수신한 시점에 디스플레이 하고 있는 동영상의 식별값을 결정할 수 있다. 예를 들어, 디스플레이 되는 동영상이 영화 B인 경우, 영화 B를 나타내는 코드 번호를 동영상의 식별값으로 결정할 수 있다.
또한, 웨어러블 디바이스(100)는 동영상의 전체 재생 구간에서, 이용 정보를 수신한 시점에 디스플레이 하고 있는 동영상의 현재 재생 위치를 결정할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 동영상을 구성하고 있는 복수의 프레임들 중에서, 이용 정보를 수신한 시점에 디스플레이 되는 프레임의 번호를 결정할 수 있다. 웨어러블 디바이스(100)는 동영상의 식별값 및 동영상의 현재 재생 위치를 기초로 동기화 정보를 생성할 수 있다.
한편, 웨어러블 디바이스(100)는 동영상이 디스플레이 되는 경우, 일 실시예에 따른 웨어러블 디바이스(100)는 화면 전체에 디스플레이 되는 영상 중 적어도 일부를 결정할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 네비게이션 어플리케이션이 실행됨에 따라 디스플레이 되는 실시간 맵의 전체 영상을 결정할 수 있다. 다른 예에 따라, 웨어러블 디바이스(100)가 스마트 글라스인 경우, 웨어러블 디바이스(100)는 사진 폴더 어플리케이션이 실행됨에 따라 화면 전체에 디스플레이 되는 영상인 사진 목록에서, 일부 영상인 사용자의 시선이 향하는 사진을 결정할 수 있다.
단계 S230에서, 웨어러블 디바이스(100)는 결정된 영상의 적어도 일부에 관한 정보를 디바이스(200)에 전송한다.
일 실시예에 따른 웨어러블 디바이스(100)는 디스플레이 되는 영상이 정지 영상인 경우, 캡쳐된 이미지를 디바이스(200)에 전송할 수 있다. 또한, 웨어러블 디바이스(100)는 디스플레이 되는 영상이 동영상이 경우, 캡쳐된 이미지와 함께 동기화 정보를 디바이스(200)에 전송할 수 있다.
한편, 단계 S230은 본 발명의 일 실시예일 뿐, 다른 실시예에 따라 웨어러블 디바이스(100)는 디스플레이 되는 영상이 동영상인 경우, 동기화 정보 만을 디바이스(200)에 전송할 수도 있다.
도 3은 본 발명의 일 실시예에 따른 디바이스(200)에서 사용자 입력을 획득함에 따라, 웨어러블 디바이스(100)가 이용 정보를 수신하는 방법을 설명하기 위한 도면이다.
도 3을 참조하면, 웨어러블 디바이스(100)에는 사진 폴더 어플리케이션이 실행됨에 따라, 적어도 하나의 사진이 디스플레이 될 수 있다. 한편, 디바이스(200)는 사용자의 터치 입력 동작으로 구성된 사용자 입력(310)을 수신할 수 있다. 디바이스(200)는 사용자 입력(310)을 수신함에 따라, 사용자가 디바이스(200)를 이용하고 있다는 것을 나타내는 이용 정보를 생성할 수 있다.
한편, 다른 실시예에 따라 디바이스(200)는 사용자 입력(310)에 포함된 지문 정보를 추출할 수 있다. 디바이스(200)는 추출된 지문 정보와 미리 저장된 사용자의 지문 정보가 일치하는지 여부를 비교할 수 있다. 디바이스(200)는 추출된 지문 정보와 미리 저장된 사용자의 지문 정보가 임계 비율 이상 일치하는 경우에 한해 이용 정보를 생성할 수 있다.
디바이스(200)는 생성된 이용 정보를 웨어러블 디바이스(100)에 전송할 수 있다.
웨어러블 디바이스(100)는 디바이스(200)로부터 이용 정보를 획득하는 경우, 디스플레이 되는 영상의 종류를 결정할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 디스플레이 되는 적어도 하나의 사진을 정지 영상으로 결정할 수 있다.
웨어러블 디바이스(100)는 디스플레이 되는 적어도 하나의 사진이 표시된 화면 전체의 이미지를 캡쳐할 수 있다. 다른 실시예에 따라 웨어러블 디바이스(100)는 디스플레이 되는 적어도 하나의 사진 중 선택된 사진의 이미지를 캡쳐할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 사용자의 시선 방향을 감지하여, 사용자의 시선이 어느 하나의 사진에 집중되는 경우, 시선이 집중된 사진의 이미지를 캡쳐할 수 있다.
웨어러블 디바이스(100)는 캡쳐된 이미지를 디바이스(200)에 전송할 수 있다. 디바이스(200)는 수신한 캡쳐된 이미지를 디바이스(200)의 화면의 일측면에 디스플레이 할 수 있다. 다만, 이는 일 실시예일 뿐, 디바이스(200)는 수신한 캡쳐된 이미지를 디바이스(200)의 화면 전체에 디스플레이 할 수도 있다.
도 4는 본 발명의 일 실시예에 따라, 웨어러블 디바이스(100)에서 디스플레이 되는 영상이 동영상인 경우, 생성한 동기화 정보를 디바이스(200)에게 전송하는 방법을 설명하기 위한 흐름도이다.
단계 S410에서, 디바이스(200)는 기 설정된 복수의 사용자 입력들 중 적어도 하나를 수신할 수 있다.
복수의 사용자 입력들은 사용자가 디바이스를 이용할 때 발생할 수 있는 동작들을 기초로 미리 설정될 수 있다. 예를 들어, 복수의 사용자 입력들에는 사용자가 화면을 터치하는 동작으로 구성된 사용자 입력, 사용자가 디바이스(200)의 일부분을 잡는 동작으로 구성된 사용자 입력, 사용자가 디바이스(200)에 구비된 터치 펜을 디바이스(200)로부터 분리하는 동작 및 사용자가 디바이스(200)의 화면을 일정 시간 이상 응시하는 동작으로 구성된 사용자 입력 등이 포함될 수 있다. 다만, 이는 일 실시예일 뿐, 복수의 사용자 입력들이 전술한 사용자 입력들로 한정되는 것은 아니다.
또한, 복수의 사용자 입력들은 디바이스(200)를 사용하는 사용자의 동작 특성에 따라, 사용자 별로 다르게 설정될 수도 있다. 예를 들어, 사용자가 왼손잡이인 경우, 디바이스(200)의 우측을 잡는 오른손잡이 사용자와는 다르게, 디바이스(200)의 좌측을 잡을 수 있다. 디바이스(200)는 사용자의 동작 특성에 따라, 왼손잡이 사용자의 경우, 디바이스(200)의 좌측을 잡는 동작을 사용자 입력으로 설정할 수 있다.
단계 S420에서, 디바이스(200)는 수신된 사용자 입력에 따라 이용 정보를 생성할 수 있다.
이용 정보는 디바이스(200)가 기 설정된 복수의 사용자 입력들 중에서, 어느 하나를 수신하는 경우 생성될 수 있다. 예를 들어, 이용 정보는 디바이스(200)가 사용자로부터 화면을 터치하는 동작으로 구성된 사용자 입력을 수신하는 경우 생성될 수 있다. 다른 예에 따라, 이용 정보는 화면을 터치하는 동작으로 구성된 사용자 입력 및 화면을 잡는 동작으로 구성된 사용자 입력을 모두 수신하는 경우 생성될 수 있다.
한편, 디바이스(200)는 수신한 사용자 입력으로부터 추출한 식별 정보가 사용자의 식별 정보와 일치하는 경우에 한해 이용 정보를 생성할 수 있다. 디바이스(200)는 사용자 입력으로부터 수신된 사용자 입력이 디바이스(200)의 사용자로부터 획득된 것임을 나타내는 식별 정보를 검출할 수 있다. 예를 들어, 디바이스(200)는 화면을 터치하는 동작으로 구성된 사용자 입력을 수신한 경우, 사용자 입력으로부터 사용자의 지문을 추출할 수 있다.
다른 실시예에 따라, 디바이스(200)는 웨어러블 디바이스(100) 간의 거리가 일정 범위 이내인 경우에 한해 이용 정보를 생성할 수도 있다.
단계 S430에서, 디바이스(200)는 웨어러블 디바이스(100)에 이용 정보를 전송할 수 있다. 일 실시예에 따른 디바이스(200)는 사용자 입력이 수신되는 동안, 주기적으로 웨어러블 디바이스(100)에 이용 정보를 전송할 수 있다. 예를 들어, 디바이스(200)는 사용자가 디바이스(200)를 잡고 있는 동안, 2초 간격으로 웨어러블 디바이스(100)에 이용 정보를 반복적으로 전송할 수 있다.
단계 S440에서, 웨어러블 디바이스(100)는 이용 정보를 획득함에 따라, 디스플레이 되고 있는 동영상의 식별값 및 동영상의 현재 재생 위치를 기초로 동기화 정보를 생성할 수 있다. 동기화 정보에는 동영상 뿐만 아니라 동영상을 재생 가능한 어플리케이션의 식별값 또한 포함될 수 있다.
또한, 동영상의 현재 재생 위치는 동영상을 구성하는 복수의 프레임들 중 이용 정보를 수신한 시점에 재생되는 프레임의 번호를 포함할 수 있다.
다른 예에 따라, 동영상의 현재 재생 위치는 웨어러블 디바이스(100)에서 디스플레이 되는 동영상의 화면을 출력하기 위해, 필요한 재생 데이터를 포함할 수 있다. 재생 데이터는 어플리케이션에 따라 상이할 수 있다. 예를 들어, 웨어러블 디바이스(100)에서 네비게이션 어플리케이션이 실행되는 경우, 이용 정보를 획득한 시점에 실시간 맵에서 표시하고 있는 장소의 좌표 정보가 재생 데이터에 포함될 수 있다. 다른 예에 따라, 웨어러블 디바이스(100)에서 운동 지원 어플리케이션이 실행되는 경우, 이용 정보를 획득한 시점에 표시되는 사용자의 달리기 속도 및 위치에 관한 정보가 재생 데이터에 포함될 수 있다.
한편, 동기화 정보에는 동영상의 저장 위치에 관한 정보가 더 포함될 수 있다. 예를 들어, 동영상이 저장된 외부 디바이스의 식별 정보 및 동영상이 저장된 외부 서버의 링크 주소 등에 관한 정보가 동기화 정보에 포함될 수 있다.
단계 S450에서, 웨어러블 디바이스(100)는 동기화 정보를 디바이스(200)에 전송할 수 있다. 웨어러블 디바이스(100)는 동기화 정보와 함께 웨어러블 디바이스(100)의 식별 정보를 디바이스(200)에 전송할 수도 있다. 디바이스(200)는 복수의 웨어러블 디바이스들로부터 동기화 정보를 수신하는 경우, 동기화 정보와 함께 수신된 식별 정보를 통해, 복수의 웨어러블 디바이스들로부터 수신한 동기화 정보를 식별할 수 있다.
한편, 다른 실시예에 따라 웨어러블 디바이스(100)는 동기화 정보와 함께 현재 디스플레이 되는 화면의 이미지를 캡쳐하여 디바이스(200)에 전송할 수도 있다. 캡쳐된 화면의 이미지를 동기화 정보와 함께 수신함으로써, 디바이스(200)는 화면에 디스플레이 되는 영상을 결정하는 동안, 캡쳐된 화면의 이미지를 디스플레이 하여, 사용자가 끊기지 않고 영상을 시청하도록 할 수 있다.
단계 S460에서, 디바이스(200)는 수신한 동기화 정보에 따라 동영상을 재생할 수 있다.
일 실시예에 따라, 디바이스(200)는 수신한 동기화 정보로부터 동영상의 식별값 및 웨어러블 디바이스(100)에서 디스플레이 되는 동영상의 재생 위치에 관한 정보를 획득할 수 있다. 디바이스(200)는 저장된 동영상들의 식별값들 중, 수신한 동영상의 식별값과 일치하는 동영상을 선택할 수 있다. 디바이스(200)는 선택된 동영상에서 수신한 재생 위치에 관한 정보에 대응되는 위치의 프레임을 디스플레이 할 수 있다.
예를 들어, 디바이스(200)는 영화 B를 나타내는 동영상의 식별값 movie_B를 수신한 경우, 저장된 동영상들의 식별값과 비교하여, 영화 B를 선택할 수 있다. 또한, 디바이스(200)는 웨어러블 디바이스(100)에서 영화 B의 90번째 프레임이 재생되었다는 재생 위치 정보를 이용하여, 영화 B의 90번째 프레임을 화면에 디스플레이 할 수 있다.
한편, 디바이스(200)는 수신한 동영상의 식별값 및 동기화 정보를 이용하여, 동영상이 저장된 외부 디바이스로부터 동영상을 수신할 수도 있다.
다른 예에 따라, 디바이스(200)는 동영상의 재생 위치에 관한 정보로부터 웨어러블 디바이스(100)에서 디스플레이 된 화면을 출력하기 위해 필요한 재생 데이터를 획득할 수 있다. 예를 들어, 디바이스(200)는 실시간 맵을 출력하기 위해 필요한 재생 데이터로서, 장소 A 및 축적 1:n을 나타내는 재생 데이터를 획득할 수 있다. 디바이스(200)는 획득한 동영상의 재생 위치에 관한 정보를 이용하여, 디바이스(200)의 화면에 장소 A에 관한 축적 1:n의 실시간 맵을 디스플레이 할 수 있다.
한편, 다른 실시예에 따라, 디바이스(200)는 동기화 정보와 함께 수신한 웨어러블 디바이스(100)의 화면을 캡쳐한 이미지를 디스플레이 할 수 있다. 예를 들어, 디바이스(200)는 수신한 동기화 정보에 따라, 영화 B의 90번째 프레임을 검색하는 동안, 캡쳐된 90번째 프레임의 이미지를 디스플레이 할 수 있다. 디바이스(200)는 영화 B의 90번째 프레임이 검색된 경우, 디스플레이 된 이미지에 이어, 동영상을 재생할 수 있다.
도 5는 본 발명의 일 실시예에 따라, 웨어러블 디바이스(100)에서 디스플레이 되는 영상이 동영상인 경우, 생성한 동기화 정보를 디바이스(200)에 전송하는 방법을 설명하기 위한 도면이다.
디바이스(200)는 디바이스(200)의 화면을 일정 시간 이상 응시하는 동작으로 구성된 사용자 입력을 수신할 수 있다. 디바이스(200)는 사용자 입력을 수신함에 따라, 사용자가 디바이스(200)를 이용하고 있음을 나타내는 이용 정보를 생성할 수 있다.
디바이스(200)는 웨어러블 디바이스(100)에 이용 정보를 전송할 수 있다. 일 실시예에 따른 디바이스(200)는 디바이스(200)의 화면을 일정 시간 이상 응시하는 사용자 입력이 수신되는 동안, 일정 시간 간격으로 웨어러블 디바이스(100)에 이용 정보를 전송할 수 있다. 다른 실시예에 따라, 디바이스(200)는 디바이스(200)의 화면을 일정 시간 응시하는 사용자 입력이 수신되는 경우, 이용 정보를 전송하고, 화면을 응시하는 사용자 입력이 더 이상 수신되지 않는 경우, 이용 종료 정보를 전송할 수 잇다.
웨어러블 디바이스(100)는 이용 정보를 획득함에 따라, 디스플레이 되고 있는 동영상(510)의 식별값 및 동영상(510)의 현재 재생 위치를 기초로 동기화 정보를 생성할 수 있다.
도 5를 참조하면, 웨어러블 디바이스(100)에서 네비게이션 어플리케이션이 실행되는 경우, 이용 정보를 획득한 시점에 디스플레이 되는 실시간 맵(510)에서 표시하고 있는 장소의 좌표 정보와 지도의 축적에 관한 정보가 현재 재생 위치에 포함될 수 있다. 예를 들어, 디바이스(200)는 실시간 맵(510)을 출력하기 위해 필요한 현재 재생 위치로서, 장소 A 및 축적 1:n을 나타내는 정보를 획득할 수 있다.
한편, 다른 실시예에 따라, 디바이스(200)는 동기화 정보와 함께 수신한 웨어러블 디바이스(100)의 화면을 캡쳐한 이미지(520)를 디스플레이 할 수 있다. 예를 들어, 디바이스(200)는 수신한 동기화 정보에 따라, 네비게이션 어플리케이션에서 디스플레이 되는 맵을 동기화하는 동안, 캡쳐된 이미지(520)를 디스플레이 할 수 있다.
도 6은 본 발명의 일 실시예에 따라, 웨어러블 디바이스(100)에서 디스플레이 되는 영상이 정지 영상인 경우, 캡쳐된 화면의 이미지를 디바이스(200)에 전송하는 방법을 설명하기 위한 흐름도이다.
단계 S610에서, 디바이스(200)는 기 설정된 복수의 사용자 입력들 중 적어도 하나를 수신할 수 있다. 복수의 사용자 입력들은 사용자가 디바이스를 이용할 때 발생할 수 있는 동작들을 기초로 미리 설정될 수 있다.
한편, 단계 S610은 도 4를 참조하여 전술한 단계 S410과 대응될 수 있다.
단계 S620에서, 디바이스(200)는 수신된 사용자 입력에 따라 이용 정보를 생성할 수 있다. 이용 정보는 디바이스(200)가 기 설정된 복수의 사용자 입력들 중에서, 적어도 하나를 수신하는 경우 생성될 수 있다.
한편, 단계 S620은 도 4를 참조하여 전술한 단계 S420과 대응될 수 있다.
단계 S630에서, 디바이스(200)는 웨어러블 디바이스(100)에 이용 정보를 전송할 수 있다. 일 실시예에 따른 디바이스(200)는 사용자 입력이 수신되는 동안, 주기적으로 웨어러블 디바이스(100)에 이용 정보를 전송할 수 있다.
다른 실시예에 따른 디바이스(200)는 수신한 사용자 입력에 따라 생성된 이용 정보를 전송한 후, 사용자 입력이 수신되지 않는 시점에 이용 종료 정보를 전송할 수도 있다.
한편, 단계 S630은 도 4를 참조하여 전술한 단계 S430과 대응될 수 있다.
단계 S640에서, 웨어러블 디바이스(100)는 정지 영상이 디스플레이 되는 화면의 이미지를 캡쳐할 수 있다.
예를 들어, 웨어러블 디바이스(100)는 사진 폴더 어플리케이션이 실행됨에 따라 디스플레이 되는 적어도 하나의 사진이 표시된 화면 전체의 이미지를 캡쳐할 수 있다. 다른 예에 따라 웨어러블 디바이스(100)는 디스플레이 되는 적어도 하나의 사진 중 선택된 사진의 이미지를 캡쳐할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 사용자의 시선 방향을 감지하여, 사용자의 시선이 어느 하나의 사진에 집중되는 경우, 시선이 집중된 사진의 이미지를 캡쳐할 수 있다.
또한, 웨어러블 디바이스(100)는 메신저 어플리케이션이 실행됨에 따라 디스플레이 되는 메시지의 이미지를 캡쳐할 수 있다.
한편, 웨어러블 디바이스(100)에 디스플레이 되는 정지 영상은 임의의 시간 간격에 따라 변경될 수 있다. 디스플레이 되는 정지 영상이 임의의 시간 간격에 따라 변경되는 경우, 변경되는 정지 영상들 각각을 캡쳐할 수 있다.
단계 S650에서, 웨어러블 디바이스(100)는 캡쳐된 화면의 이미지를 디바이스(200)에 전송할 수 있다.
단계 S660에서, 디바이스(200)는 수신된 화면의 이미지를 디스플레이 할 수 있다.
디바이스(200)는 미리 설정된 디스플레이 규격에 따라 디스플레이 되는 이미지의 화질, 화면 이미지의 가로와 세로간의 비율 및 영상의 크기 등을 조정하여 디스플레이 할 수 있다. 예를 들어, 수신된 화면의 이미지는 사용자의 설정에 따라 웨어러블 디바이스(100)에서 디스플레이 되는 정지 영상에 비해 2배의 크기로 확대되어 디스플레이 될 수 있다.
한편, 디바이스(200)는 사용자의 설정에 따라, 수신된 화면의 이미지가 디바이스(200)에서 디스플레이 되는 위치를 결정할 수 있다. 예를 들어, 수신된 화면의 이미지는 디바이스(200)의 화면의 상단에 디스플레이 될 수 있다.
다른 예에 따라 수신된 화면의 이미지는 디바이스(200)에서, 디스플레이 되고 있던 영상에 오버랩하여 화면의 좌측 상단에 디스플레이 될 수 있다. 또 다른 예에 따라 디바이스(200)는 화면을 분할하여, 화면의 제 1 영역에는 수신된 화면의 이미지를 디스플레이 하고, 화면의 제 2 영역에는 영상에 관한 정보를 수신한 때에 디스플레이 하고 있던 영상을 디스플레이 할 수 있다.
도 7은 본 발명의 일 실시예에 따라, 웨어러블 디바이스(100)에서 디스플레이 되는 영상이 정지 영상인 경우, 캡쳐된 화면의 이미지를 디바이스(200)에 전송하는 방법을 설명하기 위한 도면이다.
디바이스(200)는 디바이스(200)의 일부분을 잡는 동작으로 구성된 사용자 입력을 수신할 수 있다. 디바이스(200)는 사용자 입력을 수신함에 따라, 사용자가 디바이스(200)를 이용하고 있음을 나타내는 이용 정보를 생성할 수 있다.
디바이스(200)는 웨어러블 디바이스(100)에 이용 정보를 전송할 수 있다. 일 실시예에 따른 디바이스(200)는 디바이스(200)의 일부분을 잡는 동작으로 구성된 사용자 입력이 수신되는 동안, 일정 시간 간격으로 웨어러블 디바이스(100)에 이용 정보를 전송할 수 있다. 다른 실시예에 따라, 디바이스(200)는 디바이스(200)의 일부분을 잡는 동작으로 구성된 사용자 입력이 수신되는 경우, 이용 정보를 전송하고, 사용자 입력이 더 이상 수신되지 않는 경우, 이용 종료 정보를 전송할 수 잇다.
웨어러블 디바이스(100)는 이용 정보를 획득함에 따라, 정지 영상이 표시된 화면의 이미지(710)를 캡쳐할 수 있다.
도 7을 참조하면, 웨어러블 디바이스(100)에서 메신저 어플리케이션이 실행됨에 따라, 웨어러블 디바이스(100)가 수신한 메시지가 화면에 디스플레이 될 수 있다. 웨어러블 디바이스(100)는 메시지가 디스플레이 된 화면의 이미지(710)를 캡쳐할 수 있다.
웨어러블 디바이스(100)는 캡쳐된 화면의 이미지(720)를 디바이스(200)에 전송할 수 있다. 디바이스(200)는 수신한 캡쳐된 화면의 이미지(720)를 디바이스(200)의 화면의 일 측면에 표시할 수 있다.
한편, 새로운 메시지가 수신됨에 따라 디스플레이 되는 정지 영상이 변경되는 경우, 웨어러블 디바이스(100)는 변경된 정지 영상이 디스플레이 되는 화면의 이미지(710)를 캡쳐할 수 있다. 웨어러블 디바이스(100)는 변경된 정지 영상을 캡쳐할 때마다, 캡쳐된 화면의 이미지(720)를 디바이스(200)에 전송할 수 있다.
디바이스(200)는 웨어러블 디바이스(100)로부터 수신한 캡쳐된 이미지(720)를 웨어러블 디바이스(100)와 동일한 디스플레이 규격에 따라 디스플레이 할 수 있다. 예를 들어, 디바이스(200)는 웨어러블 디바이스(100)에서 디스플레이 되는 메시지의 정지 영상과 동일한 화질, 동일한 가로와 세로간의 비율 및 동일한 크기로 수신한 캡쳐된 이미지(720)를 디스플레이 할 수 있다. 한편, 다른 예에 따라, 수신한 캡쳐된 이미지(720)는 사용자의 설정에 따라 웨어러블 디바이스(100)에서 디스플레이 되는 정지 영상의 규격과 상이한 디스플레이 규격에 따라 디스플레이 될 수도 있다.
도 8은 본 발명의 일 실시예에 따른 웨어러블 디바이스(100)와 디바이스(200)간의 거리에 따라 이용 정보를 생성하는 방법을 설명하기 위한 흐름도이다.
단계 S810에서, 디바이스(200)는 기 설정된 복수의 사용자 입력들 중 적어도 하나를 수신할 수 있다. 복수의 사용자 입력들은 사용자가 디바이스를 이용할 때 발생할 수 있는 동작들을 기초로 미리 설정될 수 있다.
한편, 단계 S810은 도 4를 참조하여 전술한 단계 S410과 대응될 수 있다.
단계 S820에서, 디바이스(200)는 웨어러블 디바이스(100)와의 거리가 일정 범위 내에 포함되는지 여부를 판단할 수 있다.
일 실시예에 따른 디바이스(200)는 웨어러블 디바이스(100)와 근거리 통신이 가능한 지 여부에 따라, 디바이스(200)와 웨어러블 디바이스(100) 간의 거리가 일정 범위 내에 포함되는지 여부를 판단할 수 있다. 예를 들어, 웨어러블 디바이스(100)와 디바이스(200) 간에 NFC(Near Field Communication) 또는 블루투스 통신이 가능한 경우, 디바이스(200)는 웨어러블 디바이스(100)와 디바이스(200) 간의 거리가 일정 범위 내에 포함된다고 판단할 수 있다.
다른 일시예에 따라 디바이스(200)는 웨어러블 디바이스(100)로부터 송신한 더미 신호에 대한 응답이 수신되기까지의 시간을 기초로 디바이스(200)와 웨어러블 디바이스(100) 간의 거리를 결정할 수 있다. 여기에서, 더미 신호는 거리 측정을 위한 목적으로 송신하는 신호로 아무 정보도 포함하고 있지 않다.
단계 S830에서, 디바이스(200)는 수신된 사용자 입력에 따라 이용 정보를 생성할 수 있다. 일 실시예에 따라 디바이스(200)는 기 설정된 복수의 사용자 입력들 중에서, 적어도 하나를 수신하고, 디바이스(200)와 웨어러블 디바이스(100)간의 거리가 일정 범위 내에 포함되는 경우 이용 정보를 생성할 수 있다.
단계 S840에서, 디바이스(200)는 웨어러블 디바이스(100)에 이용 정보를 전송할 수 있다. 일 실시예에 따른 디바이스(200)는 사용자 입력이 수신되는 동안, 주기적으로 웨어러블 디바이스(100)에 이용 정보를 전송할 수 있다.
다른 실시예에 따른 디바이스(200)는 수신한 사용자 입력에 따라 생성된 이용 정보를 전송한 후, 사용자 입력이 수신되지 않는 시점에 이용 종료 정보를 전송할 수도 있다.
한편, 단계 S840은 도 4를 참조하여 전술한 단계 S430과 대응될 수 있다.
단계 S850에서, 웨어러블 디바이스(100)는 디스플레이 되는 영상의 적어도 일부를 결정할 수 있다.
웨어러블 디바이스(100)는 이용 정보를 획득한 경우, 디스플레이 되는 영상의 종류를 결정할 수 있다. 웨어러블 디바이스(100)는 디스플레이 되는 영상이 정지 영상인 경우, 화면에 디스플레이 되는 이미지를 캡쳐할 수 있다. 또한, 웨어러블 디바이스(100)에 디스플레이 되는 영상이 동영상인 경우, 이용 정보를 수신한 시점에서의 재생 위치에서 디스플레이 되는 프레임의 이미지를 캡쳐할 수 있다.
한편, 영상의 적어도 일부를 결정하는 것은 일 실시예일 뿐, 다른 실시예에 따라 웨어러블 디바이스(100)는 이용 정보를 수신한 시점에 디스플레이 되는 동영상의 재생 위치를 나타내는 동기화 정보를 생성할 수 있다.
한편, 단계 S850은 도 2를 참조하여 전술한 단계 S220과 대응될 수 있다.
단계 S860에서, 웨어러블 디바이스(100)는 결정된 영상의 적어도 일부를 디바이스(200)에 전송할 수 있다.
일 실시예에 따른 웨어러블 디바이스(100)는 디스플레이 되는 영상이 정지 영상인 경우, 캡쳐된 이미지를 디바이스(200)에 전송할 수 있다. 또한, 웨어러블 디바이스(100)는 디스플레이 되는 영상이 동영상이 경우, 캡쳐된 이미지와 함께 동기화 정보를 디바이스(200)에 전송할 수 있다.
또한, 이는 본 발명의 일 실시예일 뿐, 다른 실시예에 따라 웨어러블 디바이스(100)는 디스플레이 되는 영상이 동영상인 경우, 동기화 정보 만을 디바이스(200)에게 전송할 수도 있다.
한편, 단계 S860은 도 2를 참조하여 전술한 단계 S230과 대응될 수 있다.
단계 S870에서, 디바이스(200)는 수신한 영상의 적어도 일부를 디스플레이 할 수 있다. 디바이스(200)는 화면의 일 측면에 수신한 영상의 적어도 일부를 디스플레이 할 수 있다. 디바이스(200)에서 수신한 영상의 적어도 일부가 디스플레이 되는 영역은 사용자의 선택에 따라 결정될 수 있다.
또한, 디바이스(200)의 화면에 수신한 영상의 적어도 일부가 디스플레이 되는 디스플레이 규격은 웨어러블 디바이스(100)의 디스플레이 규격과 동일할 수 있다. 한편, 이는 일 실시예일 뿐, 설정에 따라, 웨어러블 디바이스(100)의 디스플레이 규격과 상이한 규격으로 디바이스(200)의 화면에 수신한 영상의 적어도 일부가 디스플레이 될 수 있다.
도 9는 본 발명의 일 실시예에 따른 웨어러블 디바이스(100)와 디바이스(200)간의 거리에 따라 이용 정보를 생성하는 방법을 설명하기 위한 도면이다.
도 9의 (a)를 참조하면, 디바이스(200)는 기 설정된 복수의 사용자 입력들 중 디바이스(200)의 화면을 터치하는 동작으로 구성된 사용자 입력을 수신할 수 있다.
디바이스(200)는 웨어러블 디바이스(100)와의 거리가 일정 범위 내에 포함되는지 여부를 판단할 수 있다. 일 실시예에 따라 디바이스(200)는 웨어러블 디바이스(100)와 NFC 통신이 연결되었는지 여부를 판단할 수 있다. 디바이스(200)는 웨어러블 디바이스(100)와 NFC 통신이 연결된 경우, 웨어러블 디바이스(100)와의 거리가 일정 범위 내에 포함된다고 판단할 수 있다. 다른 실시예에 따라 디바이스(200)는 웨어러블 디바이스(100)에 더미 신호를 전송하여, 더미 신호에 대한 응답이 수신될 때까지 걸리는 시간을 기초로, 디바이스(200)와 웨어러블 디바이스(100) 간의 거리를 결정할 수 있다.
디바이스(200)는 웨어러블 디바이스(100)와 일정 거리 범위 내에 위치하고, 기 설정된 복수의 사용자 입력들 중 어느 하나를 수신하는 경우, 이용 정보를 생성할 수 있다. 도 9의 (a)의 경우, 디바이스(200)와 웨어러블 디바이스(100)간의 거리가 일정 범위 내에 포함되지 않으므로, 디바이스(200)는 이용 정보를 생성하지 않을 수 있다.
도 9의 (a)에서와 같이, 디바이스(200)와 웨어러블 디바이스(100) 간의 거리가 일정 범위 이내인 경우만 이용 정보를 생성함으로써, 다른 사용자가 디바이스(100)를 사용한 경우 이용 정보가 잘못 발생될 수 있는 오류를 방지할 수 있다.
도 9의 (b)를 참조하면, 디바이스(200)는 기 설정된 복수의 사용자 입력들 중 디바이스(200)의 화면을 터치하는 동작으로 구성된 사용자 입력을 수신할 수 있다.
디바이스(200)는 웨어러블 디바이스(100)와의 거리가 일정 범위 내에 포함되는지 여부를 판단할 수 있다. 일 실시예에 따라 디바이스(200)는 웨어러블 디바이스(100)와 NFC 통신이 연결되었는지 여부를 판단할 수 있다. 디바이스(200)는 웨어러블 디바이스(100)와 NFC 통신이 연결된 경우, 웨어러블 디바이스(100)와의 거리가 일정 범위 내에 포함된다고 판단할 수 있다. 다른 실시예에 따라 디바이스(200)는 웨어러블 디바이스(100)에 더미 신호를 전송하여, 더미 신호에 대한 응답이 수신될 때까지 걸리는 시간을 기초로, 디바이스(200)와 웨어러블 디바이스(100) 간의 거리를 결정할 수 있다.
도 9의 (b)를 참조하면, 디바이스(200)는 웨어러블 디바이스(100)와 일정 거리 범위 내에 위치하고, 기 설정된 복수의 사용자 입력들 중 화면을 터치하는 동작으로 구성된 사용자 입력을 수신하였으므로, 이용 정보를 생성할 수 있다.
도 10은 본 발명의 일 실시예에 따른 사용자의 디바이스(1000)와 다른 사용자의 웨어러블 디바이스(100)간의 거리에 따라 이용 정보를 생성하는 방법을 설명하기 위한 도면이다.
도 10을 참조하면, 사용자의 디바이스(1000)는 일정 거리 범위 내에 위치하는 다른 사용자의 웨어러블 디바이스(100)를 감지할 수 있다. 예를 들어, 디바이스(1000)는 다른 사용자의 웨어러블 디바이스(100)와 근거리 통신을 수행할 수 있는 경우, 다른 사용자의 웨어러블 디바이스(100)가 일정 거리 범위 내에 존재한다고 결정할 수 있다.
디바이스(1000)는 일정 거리 범위 내에 다른 사용자의 웨어러블 디바이스(100)가 위치하고, 디바이스(1000)에 기 설정된 사용자 입력(1010)이 수신되는 경우, 이용 정보를 생성할 수 있다. 디바이스(100)는 생성한 이용 정보를 다른 사용자의 웨어러블 디바이스(100)에 전송할 수 있다. 여기에서, 이용 정보는 다른 사용자의 웨어러블 디바이스와 연결되어 있는 근거리 통신을 기초로 전송될 수 있다. 다만, 이는 일 실시예일 뿐 본 발명이 이에 한정되는 것은 아니다.
다른 사용자의 웨어러블 디바이스(100)는 디바이스(1000)로부터 획득한 이용 정보에 따라 디스플레이 되고 있는 영상의 적어도 일부를 결정할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 네비게이션 어플리케이션이 실행됨에 따라 디스플레이 되는 실시간 맵의 이미지를 캡쳐할 수 있다.
한편, 다른 예에 따라 웨어러블 디바이스(100)는 디스플레이 되는 실시간 맵의 장소 정보, 축척 정보 등을 포함한 현재 재생 위치 및 디스플레이 되는 영상이 실시간 맵이라는 것을 나타내는 식별값을 포함한 동기화 정보를 디바이스(1000)에 전송할 수도 있다.
디바이스(1000)는 수신한 영상의 적어도 일부를 디스플레이 할 수 있다. 예를 들어, 다른 사용자의 디바이스(1000)는 수신한 캡쳐된 맵의 이미지를 디스플레이 할 수 있다. 다른 실시예에 따라, 디바이스(1000)는 수신한 동기화 정보를 기초로, 웨어러블 디바이스(100)에서 디스플레이 되는 영상과 동일한 데이터를 포함한 영상을 디스플레이 할 수 있다. 예를 들어, 디바이스(1000)는 수신한 동기화 정보를 이용하여, 디바이스(1000)에 저장된 네비게이션 어플리케이션을 실행하고 장소 정보 및 축적 정보 등을 입력하여, 웨어러블 디바이스(100)에서 디스플레이 된 영상과 동일한 장소에 대한 실시간 맵의 영상을 디스플레이 할 수 있다.
도 11은 본 발명의 일 실시예에 따라, 디바이스(200)가 웨어러블 디바이스(100)로부터 수신한 영상의 적어도 일부를 디스플레이 하는 방법을 설명하기 위한 흐름도이다.
단계 S1110에서, 디바이스(200)는 웨어러블 디바이스(100)에게 사용자가 디바이스(200)를 이용하는지를 나타내는 이용 정보를 전송할 수 있다.
디바이스(200)는 기 설정된 복수의 사용자 입력들 중 적어도 하나를 수신하는 경우, 사용자가 디바이스(200)를 이용하고 있음을 나타내는 이용 정보를 생성할 수 있다. 복수의 사용자 입력들은 사용자가 디바이스를 이용할 때 발생할 수 있는 동작들을 기초로 미리 설정될 수 있다.
예를 들어, 이용 정보는 디바이스(200)가 사용자로부터 화면을 터치하는 동작으로 구성된 사용자 입력을 수신하는 경우 생성될 수 있다. 다른 예에 따라, 이용 정보는 화면을 터치하는 동작으로 구성된 사용자 입력 및 화면을 잡는 동작으로 구성된 사용자 입력을 모두 수신하는 경우 생성될 수 있다.
디바이스(200)는 웨어러블 디바이스(100)에 이용 정보를 전송할 수 있다. 일 실시예에 따른 디바이스(200)는 사용자 입력이 수신되는 동안, 주기적으로 웨어러블 디바이스(100)에 이용 정보를 전송할 수 있다.
단계 S1120에서, 디바이스(200)는 웨어러블 디바이스(100)로부터 이용 정보가 획득됨에 따라 결정된 영상의 적어도 일부에 관한 정보를 수신할 수 있다.
예를 들어, 디바이스(200)는 웨어러블 디바이스(100)로부터 이용 정보가 획득됨에 따라 디스플레이 되고 있는 영상에 관한 동기화 정보를 수신할 수도 있다. 동기화 정보는, 웨어러블 디바이스(100)에서 디스플레이 되고 있는 동영상의 식별값 및 동영상의 현재 재생 위치를 포함할 수 있다. 여기에서, 동영상의 식별값은 동영상이 재생되는 어플리케이션, 동영상의 종류에 관한 정보를 포함할 수 있다.
또한, 동영상의 현재 재생 위치는 동영상을 구성하는 복수의 프레임들 중 이용 정보를 수신한 시점에 재생되는 프레임의 번호를 포함할 수 있다. 다른 예에 따라, 동영상의 현재 재생 위치는 웨어러블 디바이스(100)에서 디스플레이 되는 동영상의 화면을 출력하기 위해, 필요한 재생 데이터를 포함할 수 있다.
한편, 동기화 정보에는 동영상의 저장 위치에 관한 정보가 더 포함될 수 있다. 예를 들어, 동영상이 저장된 외부 디바이스의 식별 정보 및 동영상이 저장된 외부 서버의 링크 주소 등에 관한 정보가 동기화 정보에 포함될 수 있다.
단계 S1130에서, 디바이스(200)는 결정된 영상의 적어도 일부를 디스플레이 할 수 있다.
일 실시예에 따른 디바이스(200)는 웨어러블 디바이스(100)로부터 캡쳐된 화면의 이미지를 수신할 수 있다. 디바이스(200)는 수신한 캡쳐된 화면의 이미지를 디바이스(200)의 화면의 일 측면에 디스플레이 할 수 있다. 또한, 디바이스(200)는 사용자의 설정에 따라, 캡쳐된 화면의 이미지가 디바이스(200)에서 디스플레이 되는 위치를 결정할 수 있다. 캡쳐된 화면의 이미지는 디바이스(200)가 영상에 관한 정보를 수신한 때에 디스플레이 하고 있던 영상에 오버랩하여 화면의 좌측 상단에 디스플레이 될 수 있다. 다른 예에 따라 디바이스(200)는 화면을 분할하여, 화면의 제 1 영역에는 캡쳐된 화면의 이미지를 디스플레이 하고, 화면의 제 2 영역에는 영상에 관한 정보를 수신한 때에 디스플레이 하고 있던 영상을 디스플레이 할 수 있다.
디바이스(200)는 미리 설정된 디스플레이 규격에 따라 디스플레이 되는 화면의 이미지의 화질, 가로와 세로간의 비율 및 크기 등을 결정할 수 있다.
다른 실시예에 따라 디바이스(200)는 웨어러블 디바이스(100)에 동영상이 디스플레이 되는 경우 디스플레이 되는 동영상의 식별값 및 동영상의 현재 재생 위치를 나타내는 동기화 정보를 수신할 수도 있다. 또 다른 예에 따라, 웨어러블 디바이스(100)에 동영상이 디스플레이 되는 경우, 디바이스(200)는 동영상이 디스플레이 되는 화면을 캡쳐한 이미지와 동기화 정보를 모두 수신할 수도 있다.
일 실시예에 따라, 디바이스(200)는 수신한 동기화 정보로부터 동영상의 식별값 및 웨어러블 디바이스(100)에서 디스플레이 되는 동영상의 재생 위치에 관한 정보를 획득할 수 있다. 디바이스(200)는 저장된 동영상들의 식별값들 중, 수신한 동영상의 식별값과 일치하는 동영상을 선택할 수 있다. 디바이스(200)는 선택된 동영상에서 수신한 재생 위치에 관한 정보에 대응되는 위치의 프레임을 디스플레이 할 수 있다.
다른 예에 따라, 디바이스(200)는 동영상의 재생 위치에 관한 정보로부터 웨어러블 디바이스(100)에서 디스플레이 된 화면을 출력하기 위해 필요한 재생 데이터를 획득할 수 있다. 재생 데이터는 어플리케이션에 따라 상이할 수 있다. 예를 들어, 디바이스(1000)는 네비게이션 어플리케이션의 실시간 맵을 출력하기 위해 필요한 재생 데이터로서, 장소 A 및 축적 1:n을 나타내는 재생 데이터를 획득할 수 있다.
도 12는 본 발명의 일 실시예에 따라 디바이스(200)가 복수의 웨어러블 디바이스들로(1210, 1220)부터 수신한 영상의 적어도 일부를 디스플레이 하는 방법을 설명하기 위한 도면이다.
디바이스(200)는 기 설정된 복수의 사용자 입력들 중 디바이스(200)의 일부분을 잡는 동작으로 구성된 사용자 입력을 수신할 수 있다. 디바이스(200)는 기 설정된 사용자 입력을 수신함에 따라 이용 정보를 생성할 수 있다.
디바이스(200)는 복수의 웨어러블 디바이스들(1210, 1220)에 이용 정보를 전송할 수 있다. 일 실시예에 따른 디바이스(200)는 디바이스(200)와 근거리 통신이 가능한 복수의 웨어러블 디바이스들(1210, 1220)에 관한 식별 정보를 획득할 수 있다. 디바이스(200)는 획득한 식별 정보에 따라, 복수의 웨어러블 디바이스들(1210, 1220) 각각에 사용자가 디바이스(200)를 이용하고 있음을 나타내는 이용 정보를 전송할 수 있다.
제 1 웨어러블 디바이스(1210)는 정지 영상이 디스플레이 되는 화면의 이미지를 캡쳐할 수 있다.
예를 들어, 제 1 웨어러블 디바이스(1210)는 사진 폴더 어플리케이션이 실행됨에 따라 디스플레이 되는 사진이 표시된 화면 전체의 이미지(1215)를 캡쳐할 수 있다. 다른 예에 따라 웨어러블 디바이스(100)는 디스플레이 되는 적어도 하나의 사진 중 선택된 사진의 이미지를 캡쳐할 수 있다. 제 1 웨어러블 디바이스(100)는 캡쳐된 화면의 제 1 이미지(1218)를 디바이스(200)에 전송할 수 있다.
한편, 제 2 웨어러블 디바이스(1220)는 메신저 어플리케이션이 실행됨에 따라 디스플레이 되는 메시지가 표시된 화면의 이미지(1225)의 일부를 캡쳐할 수 있다. 제 2 웨어러블 디바이스(1220)는 최근 수신된 메시지가 표시된 영역의 이미지를 캡쳐할 수 있다. 제 2 웨어러블 디바이스(1220)는 캡쳐된 제 2 이미지(1228)를 디바이스(200)에 전송할 수 있다.
디바이스(200)는 수신한 캡쳐된 화면의 제 1 이미지(1218) 및 제 2 이미지(1228)를 디스플레이 할 수 있다. 또한, 디바이스(200)는 사용자의 설정에 따라, 제 1 이미지(1218)와 제 2 이미지(1228)가 디바이스(200)에서 디스플레이 되는 위치를 결정할 수 있다. 제 1 이미지(1218)는 디바이스(200)의 화면의 좌측 상단에 디스플레이 될 수 있고, 제 2 이미지(1228)는 디바이스(200)의 화면의 우측 상단에 디스플레이 될 수 있다.
한편, 디바이스(200)는 복수의 웨어러블 디바이스들(1210, 1220) 각각으로부터 수신한 캡쳐된 화면의 이미지들(1218, 1228)과 함께, 복수의 웨어러블(1210, 1220) 각각의 식별 정보를 표시할 수 있다.
도 13은 본 발명의 일 실시예에 따라, 디바이스(1310)에 복수의 웨어러블 디바이스들(1320, 1330, 1340)에서 결정된 영상의 적어도 일부가 표시되는 방법을 설명하기 위한 도면이다.
도 13을 참조하면, 디바이스(1310)는 근거리 통신이 수행 가능한 복수의 웨어러블 디바이스들(1320, 1330, 1340)을 감지할 수 있다.
디바이스(1310)는 복수의 웨어러블 디바이스들(1320, 1330, 1340)이 감지되는 경우, 각각의 웨어러블 디바이스(1320, 1330, 1340)와 인증 과정을 수행하여, 통신 세션을 설정할 수 있다. 디바이스(1310)는 디바이스(1310)에 미리 등록된 웨어러블 디바이스들(1320, 1330, 1340)의 식별값과 복수의 웨어러블 디바이스들(1320, 1330, 1340)로부터 수신한 식별값을 비교하여, 인증 과정을 수행할 수 있다.
디바이스(1310)는 사용자 입력이 수신됨에 따라 이용 정보를 생성할 수 있다. 예를 들어, 디바이스(1310)는 사용자로부터 디바이스(1310)에 표시된 실행 아이콘을 터치하는 사용자 입력이 수신됨에 따라 이용 정보를 생성할 수 있다. 또한, 이용 정보는 다른 사용자의 웨어러블 디바이스와 연결되어 있는 근거리 통신을 기초로 전송될 수 있다. 다만, 이는 일 실시예일 뿐 본 발명이 이에 한정되는 것은 아니다. 복수의 웨어러블 디바이스들(1320, 1330, 1340)은 디바이스(1310)로부터 획득한 이용 정보에 따라 디스플레이 되고 있는 영상의 적어도 일부를 결정할 수 있다.
복수의 웨어러블 디바이스들(1320, 1330, 1340) 각각은 결정된 영상의 적어도 일부를 디바이스(1310)에 전송할 수 있다. 디바이스(1310)는 복수의 웨어러블 디바이스들(1320, 1330, 1340) 각각으로부터 수신한 영상의 적어도 일부(1325, 1335, 1345)를 화면에 표시할 수 있다. 또한, 디바이스(1310)는 수신한 영상의 적어도 일부(1325, 1335, 1345)와 함께, 웨어러블 디바이스들(1320, 1330, 1340) 각각을 나타내는 식별값을 표시할 수도 있다.
도 13을 참조하면, 예를 들어, 디바이스(1310)는 학교에서 이용되는 전자칠판일 수 있다. 디바이스(1310)에는 학생들 각각이 이용하고 있는 웨어러블 디바이스들(1320, 1330, 1340)로부터 결정된 영상의 적어도 일부를 수신할 수 있다. 예를 들어, 학교에서 수업이 진행되는 경우, 학생들은 각각의 웨어러블 디바이스(예를 들어, 1320)를 통해, 자료를 검색하고, 디바이스(1310)로부터 이용 정보를 수신함에 따라, 검색된 자료를 디바이스(1310)에 전송할 수 있다. 복수의 웨어러블 디바이스(1320, 1330, 1340) 각각에 표시되는 영상의 적어도 일부를 디바이스(1310)에 전송함으로써, 학생들이 자료를 보다 쉽게 공유할 수 있는 효과를 얻을 수 있다.
도 14는 본 발명의 일 실시예에 따른 웨어러블 디바이스(100)의 구성을 설명하기 위한 블록 구성도이다.
도 14에 도시된 바와 같이, 본 발명의 일 실시예에 따른 웨어러블 디바이스(100)는, 출력부(110), 제어부(130) 및 통신부(150)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 웨어러블 디바이스(100)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 웨어러블 디바이스(100)는 구현될 수 있다.
출력부(110)는 웨어러블 디바이스(100)에서 어플리케이션이 실행됨에 따라 출력되는 영상을 디스플레이 할 수 있다. 여기에서, 영상은 정지 영상 및 동영상 중 적어도 하나를 포함할 수 있다.
통신부(130)는 사용자가 디바이스(200)를 이용하는지를 나타내는 이용 정보를 획득한다. 통신부(130)에서 이용 정보를 획득하는 경우, 제어부(150)는 사용자가 디바이스(200)를 이용하고 있다고 결정할 수 있다.
이용 정보는 디바이스(200)가 사용자로부터 기 설정된 복수의 사용자 입력들 중에서, 적어도 하나를 수신하는 경우, 디바이스(200)에서 생성될 수 있다.
제어부(150)는 이용 정보가 획득됨에 따라 디스플레이 되는 영상의 적어도 일부를 결정한다. 제어부(150)는 이용 정보를 획득한 경우, 디스플레이 되는 영상의 종류를 결정할 수 있다. 제어부(150)는 디스플레이 되는 영상이 정지 영상인 경우, 화면에 디스플레이 되는 이미지를 캡쳐할 수 있다.
한편, 웨어러블 디바이스(100)에 디스플레이 되는 정지 영상은 임의의 시간 간격에 따라 변경될 수 있다. 디스플레이 되는 정지 영상이 임의의 시간 간격에 따라 변경되는 경우, 제어부(150)는 디바이스(200)로부터 사용자가 디바이스(200)의 이용을 종료했음을 나타내는 이용 종료 정보를 수신하기까지 변경된 정지 영상들을 캡쳐할 수 있다. 여기에서, 이용 종료 정보는 디바이스(200)에 이용 정보를 생성하는 데 기초가 된 사용자 입력이 수신되지 않는 경우, 생성될 수 있다.
또한, 웨어러블 디바이스(100)에 디스플레이 되는 영상이 동영상인 경우, 제어부(150)는 이용 정보를 수신한 시점에서의 재생 위치에서 디스플레이 되는 프레임의 이미지를 캡쳐할 수 있다.
한편, 다른 실시예에 따라 제어부(150)는 이용 정보를 수신한 시점에 디스플레이 되는 동영상의 재생 위치를 나타내는 동기화 정보를 생성할 수 있다. 제어부(150)는 이용 정보를 수신한 시점에 디스플레이 하고 있는 동영상의 식별값을 결정할 수 있다. 예를 들어, 디스플레이 되는 동영상이 영화 B인 경우, 제어부(150)는 영화 B를 나타내는 코드 번호를 동영상의 식별값으로 결정할 수 있다.
또한, 제어부(150)는 동영상의 전체 재생 구간에서, 이용 정보를 수신한 시점에 디스플레이 되고 있는 동영상의 현재 재생 위치를 결정할 수 있다. 예를 들어, 제어부(150)는 동영상을 구성하고 있는 복수의 프레임들 중에서, 이용 정보를 수신한 시점에 디스플레이 되는 프레임의 번호를 결정할 수 있다. 제어부(150)는 동영상의 식별값 및 동영상의 현재 재생 위치를 기초로 동기화 정보를 생성할 수 있다.
한편, 일 실시예에 따른 제어부(150)는 화면 전체에 디스플레이 되는 영상 중 적어도 일부를 결정할 수 있다. 예를 들어, 제어부(150)는 네비게이션 어플리케이션이 실행됨에 따라 디스플레이 되는 실시간 맵의 전체 영상을 결정할 수 있다. 다른 예에 따라, 제어부(150)는 사진 폴더 어플리케이션이 실행됨에 따라 화면 전체에 디스플레이 되는 영상인 사진 목록에서, 일부 영상인 사용자의 시선이 향하는 사진을 결정할 수 있다.
통신부(130)는 결정된 영상의 적어도 일부를 디바이스(200)에 전송한다. 일 실시예에 따른 통신부(130)는 디스플레이 되는 영상이 정지 영상인 경우, 캡쳐된 이미지를 디바이스(200)에 전송할 수 있다. 또한, 통신부(130)는 디스플레이 되는 영상이 동영상이 경우, 캡쳐된 이미지와 함께 동기화 정보를 디바이스(200)에 전송할 수 있다.
한편, 실시예에 따라 통신부(130)는 디스플레이 되는 영상이 동영상인 경우, 동기화 정보 만을 디바이스(200)에 전송할 수도 있다.
도 15 및 도 16은 본 발명의 일 실시예에 따른 디바이스(200)의 구성을 설명하기 위한 블록 구성도이다.
도 15에 도시된 바와 같이, 본 발명의 일 실시예에 따른 디바이스(100)는, 센싱부(210), 제어부(230), 통신부(250) 및 출력부(270)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 디바이스(200)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 디바이스(200)는 구현될 수 있다.
예를 들어, 도 16에 도시된 바와 같이, 본 발명의 일 실시예에 따른 디바이스(200)는, A/V 처리부(240), 사용자 입력부(280) 및 메모리(290)를 더 포함할 수도 있다.
이하 상기 구성요소들에 대해 차례로 살펴본다.
센싱부(210)는, 사용자가 디바이스(200)를 이용하는지를 감지할 수 있다. 예를 들어, 센싱부(210)는 기 설정된 복수의 사용자 입력들 중 적어도 하나를 수신하는 경우, 사용자가 디바이스(200)를 이용하고 있음을 감지할 수 있다.
센싱부(210)는, 지자기 센서(Magnetic sensor)(211), 가속도 센서(Acceleration sensor)(212), 온/습도 센서(213), 적외선 센서(214), 자이로스코프 센서(215), 위치 센서(예컨대, GPS)(216), 기압 센서(217), 근접 센서(218), 및 RGB 센서(illuminance sensor)(219) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
제어부(230)는, 통상적으로 디바이스(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(230)는, 메모리(290)에 저장된 프로그램들을 실행함으로써, 센싱부(210), 영상 처리부(240), 통신부(250), 출력부(270) 및 사용자 입력부(280) 등을 전반적으로 제어할 수 있다.
제어부(230)는, 기 설정된 복수의 사용자 입력들 중 적어도 하나를 수신하는 경우, 사용자가 디바이스(200)를 이용하고 있음을 나타내는 이용 정보를 생성할 수 있다. 복수의 사용자 입력들은 사용자가 디바이스를 이용할 때 발생할 수 있는 동작들을 기초로 미리 설정될 수 있다.
제어부(230)는 수신한 영상의 적어도 일부가 디바이스(200)에서 디스플레이 되는 위치를 결정할 수 있다. 제어부(230)는 디스플레이 규격에 따라 디스플레이 되는 영상의 적어도 일부의 화질, 가로와 세로간의 비율 및 크기 등을 결정할 수 있다.
제어부(230)는 수신한 동기화 정보로부터 동영상의 식별값 및 웨어러블 디바이스(100)에서 디스플레이 되는 동영상의 재생 위치에 관한 정보를 획득할 수 있다. 제어부(230)는 저장된 동영상들의 식별값들 중, 수신한 동영상의 식별값과 일치하는 동영상을 선택할 수 있다. 제어부(230)는 선택된 동영상에서 수신한 재생 위치에 관한 정보에 대응되는 위치의 프레임을 디스플레이 할 수 있도록 출력부(270)를 제어할 수 있다.
다른 예에 따라, 제어부(270)는 동영상의 재생 위치에 관한 정보로부터 웨어러블 디바이스(100)에서 디스플레이 된 화면을 출력하기 위해 필요한 재생 데이터를 획득할 수 있다.
A/V(Audio/Video) 처리부(240)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(161)와 마이크로폰(162) 등이 포함될 수 있다. 카메라(241)은 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(230) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
카메라(241)에서 처리된 화상 프레임은 메모리(290)에 저장되거나 통신부(250)를 통하여 외부로 전송될 수 있다. 카메라(241)는 단말기의 구성 태양에 따라 2개 이상이 구비될 수도 있다.
마이크로폰(242)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(242)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(242)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
통신부(250)는 웨어러블 디바이스(100)에 이용 정보를 전송할 수 있다. 일 실시예에 따른 통신부(250)는 사용자 입력이 수신되는 동안, 주기적으로 웨어러블 디바이스(100)에 이용 정보를 전송할 수 있다. 다른 실시예에 따른 통신부(250)는 수신한 사용자 입력에 따라 생성된 이용 정보를 1회 전송할 수 있다.
통신부(250)는 웨어러블 디바이스(100)로부터 이용 정보가 획득됨에 따라 결정된 영상의 적어도 일부를 수신할 수 있다. 일 실시예에 따른 통신부(250)는 웨어러블 디바이스(100)로부터 캡쳐된 화면의 이미지를 수신할 수 있다.
한편, 다른 실시예에 따라, 통신부(250)는 웨어러블 디바이스(100)로부터 이용 정보가 획득됨에 따라 디스플레이 되고 있는 영상에 관한 동기화 정보를 수신할 수도 있다.
통신부(250)는, 디바이스(200)와 웨어러블 디바이스(100) 간의 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(250)는, 근거리 통신부(251), 이동 통신부(252), 방송 수신부(253)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)(251)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(252)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(253)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 디바이스(200)가 방송 수신부(253)를 포함하지 않을 수도 있다.
출력부(270)는, 제어부(230)에서 결정된 동작을 수행하기 위한 것으로, 이에는 디스플레이부(271)와 음향 출력부(272), 진동 모터(273) 등이 포함될 수 있다.
디스플레이부(271)는 디바이스(200)에서 처리되는 정보를 출력한다. 예를 들어, 디스플레이부(271)는, 수신한 영상의 적어도 일부를 디스플레이 할 수 있다. 디스플레이부(271)는 수신한 화면의 이미지를 일 측면에 디스플레이 할 수 있다.
한편, 디스플레이부(271)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(271)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(271)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 디바이스(100)의 구현 형태에 따라 디바이스(100)는 디스플레이부(271)를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 디스플레이부(271)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.
음향 출력부(272)는 통신부(250)로부터 수신되거나 메모리(290)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(272)는 디바이스(200)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(272)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동 모터(273)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(273)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(273)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.
사용자 입력부(280)는, 사용자가 디바이스(200)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(280)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
메모리(290)는, 제어부(230)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들(예컨대, 복수의 메뉴, 복수의 메뉴 각각에 대응하는 복수의 제 1 계층 서브 메뉴, 복수의 제 1 계층 서브 메뉴 각각에 대응하는 복수의 제 2 계층 서브 메뉴 등)을 저장할 수도 있다.
메모리(290)는 적어도 하나의 컨텐트에 관한 사용자의 생체 정보 및 상기 사용자의 컨텍스트 정보를 저장할 수 있다. 또한, 메모리(290)는 기준 감정 정보 데이터 베이스를 저장할 수 있다. 메모리(290)는 컨텐트 요약 정보를 저장할 수 있다.
메모리(290)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 디바이스(200)는 인터넷(internet)상에서 메모리(290)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.
메모리(290)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(291), 터치 스크린 모듈(292), 알림 모듈(293) 등으로 분류될 수 있다.
UI 모듈(291)은, 애플리케이션 별로 디바이스(200)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(292)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(120)로 전달할 수 있다. 본 발명의 일 실시예에 따른 터치 스크린 모듈(292)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(292)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.
또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.
근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.
알림 모듈(293)은 디바이스(200)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 디바이스(200)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 및 사용자 입력의 획득 등이 있다. 알림 모듈(173)은 디스플레이부(271)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(272)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(273)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.
본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.
웨어러블 디바이스: 100
출력부: 110
제어부: 130
통신부: 150

Claims (23)

  1. 웨어러블 디바이스에서, 사용자가 디바이스를 이용하는지를 나타내는 이용 정보를 획득하는 단계;
    상기 이용 정보가 획득됨에 따라, 상기 웨어러블 디바이스에서 디스플레이 되는 영상의 적어도 일부를 결정하는 단계; 및
    상기 결정된 영상의 적어도 일부에 관한 정보를 상기 디바이스에 전송하는 단계를 포함하는 디바이스에 영상을 디스플레이 하는 방법.
  2. 제 1항에 있어서, 상기 이용 정보는,
    상기 디바이스가 기 설정된 사용자 입력을 수신함에 따라 상기 디바이스로부터 수신되는 것인 디바이스에 영상을 디스플레이 하는 방법.
  3. 제 1항에 있어서, 상기 영상을 결정하는 단계는,
    상기 웨어러블 디바이스와 상기 디바이스 간의 거리가 기 설정된 값 미만인 경우, 상기 웨어러블 디바이스에서 디스플레이 되는 영상의 적어도 일부를 결정하는 디바이스에 영상을 디스플레이 하는 방법.
  4. 제 1항에 있어서,
    상기 디스플레이 되는 영상이 정지 영상인 경우, 상기 이용 정보가 획득됨에 따라 상기 웨어러블 디바이스의 화면을 캡쳐하는 단계를 더 포함하고,
    상기 전송하는 단계는,
    상기 캡쳐된 화면의 이미지를 전송하는 디바이스에 영상을 디스플레이 하는 방법.
  5. 제 1항에 있어서,
    상기 디스플레이 되는 영상이 동영상인 경우, 상기 동영상의 식별값 및 상기 동영상의 현재 재생 위치를 기초로 동기화 정보를 생성하는 단계를 더 포함하고,
    상기 결정된 영상의 적어도 일부에 관한 정보는,
    상기 동영상의 식별값 및 상기 동기화 정보를 포함하는 디바이스에 영상을 디스플레이 하는 방법.
  6. 웨어러블 디바이스에게 사용자가 디바이스를 이용하는지를 나타내는 이용 정보를 전송하는 단계;
    상기 이용 정보가 획득됨에 따라 상기 웨어러블 디바이스에 의해 결정된 영상의 적어도 일부에 관한 정보를 상기 웨어러블 디바이스로부터 수신하는 단계; 및
    상기 결정된 영상의 적어도 일부를 디스플레이 하는 단계를 포함하는 디바이스에 영상을 디스플레이 하는 방법.
  7. 제 6항에 있어서,
    기 설정된 사용자 입력을 수신하는 경우 상기 이용 정보를 생성하는 단계를 더 포함하는 디바이스에 영상을 디스플레이 하는 방법.
  8. 제 6항에 있어서, 상기 영상의 적어도 일부에 관한 정보를 수신하는 단계는,
    상기 웨어러블 디바이스와 상기 디바이스 간의 거리가 기 설정된 값 미만인 경우, 상기 영상의 적어도 일부에 관한 정보를 수신하는 디바이스에 영상을 디스플레이 하는 방법.
  9. 제 6항에 있어서, 상기 영상의 적어도 일부에 관한 정보는,
    상기 웨어러블 디바이스에 디스플레이 되는 영상이 정지 영상인 경우, 상기 웨어러블 디바이스가 상기 이용 정보를 수신함에 따라, 상기 웨어러블 디바이스에서 캡쳐된 화면의 이미지를 포함하는 디바이스에 영상을 디스플레이 하는 방법.
  10. 제 6항에 있어서, 상기 영상의 적어도 일부에 관한 정보는,
    상기 웨어러블 디바이스에 디스플레이 되는 영상이 동영상인 경우, 상기 동영상의 식별값 및 상기 동영상의 현재 재생 위치를 기초로 생성된 동기화 정보를 포함하고,
    상기 동영상의 식별값 및 상기 동기화 정보를 기초로 서버로부터 상기 결정된 영상의 적어도 일부를 수신하는 단계를 더 포함하는 디바이스에 영상을 디스플레이 하는 방법.
  11. 제 6항에 있어서, 상기 결정된 영상의 적어도 일부를 디스플레이 하는 단계는,
    상기 웨어러블 디바이스로부터 획득된 영상의 적어도 일부와 다른 웨어러블 디바이스로부터 획득된 영상의 적어도 일부를 식별 정보와 함께 상기 디바이스의 화면의 기 설정된 위치에 디스플레이 하는 단계를 포함하는 디바이스에 영상을 디스플레이 하는 방법.
  12. 영상을 디스플레이 하는 출력부;
    사용자가 디바이스를 이용하는지를 나타내는 이용 정보를 획득하는 통신부; 및
    상기 이용 정보가 획득됨에 따라, 상기 디스플레이 되는 영상의 적어도 일부를 결정하는 제어부를 포함하고,
    상기 통신부는, 상기 결정된 영상의 적어도 일부에 관한 정보를 디바이스에 전송하는 것인 영상을 디스플레이 하는 웨어러블 디바이스.
  13. 제 12항에 있어서, 상기 이용 정보는,
    상기 디바이스가 기 설정된 사용자 입력을 수신함에 따라 상기 디바이스로부터 수신되는 것인 영상을 디스플레이 하는 웨어러블 디바이스.
  14. 제 12항에 있어서, 상기 제어부는,
    상기 웨어러블 디바이스와 상기 디바이스 간의 거리가 기 설정된 값 미만인 경우, 상기 웨어러블 디바이스에서 디스플레이 되는 영상의 적어도 일부를 결정하는 것인 영상을 디스플레이 하는 웨어러블 디바이스.
  15. 제 12항에 있어서, 상기 제어부는,
    상기 디스플레이 되는 영상이 정지 영상인 경우, 상기 이용 정보가 획득됨에 따라 상기 웨어러블 디바이스의 화면을 캡쳐하고,
    상기 통신부는,
    상기 디바이스에 상기 캡쳐된 화면의 이미지를 전송하는 영상을 디스플레이 하는 웨어러블 디바이스.
  16. 제 12항에 있어서, 상기 제어부는,
    상기 디스플레이 되는 영상이 동영상인 경우, 상기 동영상의 식별값 및 상기 동영상의 현재 재생 위치를 기초로 동기화 정보를 생성하고,
    상기 결정된 영상의 적어도 일부에 관한 정보는,
    상기 동영상의 식별값 및 상기 동기화 정보를 포함하는영상을 디스플레이 하는 웨어러블 디바이스.
  17. 사용자가 디바이스를 이용하는지를 감지하는 센싱부;
    상기 사용자가 디바이스를 이용하는지를 나타내는 이용 정보를 생성하는 제어부;
    상기 생성된 이용 정보를 웨어러블 디바이스에 전송하고, 상기 이용 정보가 획득됨에 따라 상기 웨어러블 디바이스에서 결정된 영상의 적어도 일부에 관한 정보를 상기 웨어러블 디바이스로부터 수신하는 통신부; 및
    상기 결정된 영상의 적어도 일부를 디스플레이 하는 출력부를 포함하는 영상을 디스플레이 하는 디바이스.
  18. 제 17항에 있어서, 상기 제어부는,
    기 설정된 사용자 입력을 수신하는 경우 상기 이용 정보를 생성하는 영상을 디스플레이 하는 디바이스.
  19. 제 17항에 있어서, 상기 제어부는,
    상기 웨어러블 디바이스와 상기 디바이스 간의 거리가 기 설정된 값 미만인 경우, 상기 이용 정보를 생성하는 영상을 디스플레이 하는 디바이스.
  20. 제 17항에 있어서, 상기 영상의 적어도 일부는,
    상기 웨어러블 디바이스에 디스플레이 되는 영상이 정지 영상인 경우, 상기 웨어러블 디바이스가 상기 이용 정보를 수신함에 따라, 상기 웨어러블 디바이스에서 캡쳐된 화면의 이미지를 포함하는 영상을 디스플레이 하는 디바이스.
  21. 제 17항에 있어서, 상기 통신부는,
    상기 웨어러블 디바이스에 디스플레이 되는 영상이 동영상인 경우, 상기 동영상의 식별값 및 상기 동영상의 현재 재생 위치를 기초로, 생성된 동기화 정보를 수신하고, 상기 동영상의 식별값 및 상기 동기화 정보를 기초로 서버로부터 상기 결정된 영상의 적어도 일부를 수신하는 영상을 디스플레이 하는 디바이스.
  22. 제 17항에 있어서, 상기 출력부는,
    상기 웨어러블 디바이스로부터 획득된 영상의 적어도 일부와 다른 웨어러블 디바이스로부터 획득된 영상의 적어도 일부를 식별 정보와 함께 상기 디바이스의 화면의 기 설정된 위치에 디스플레이 하는 영상을 디스플레이 하는 디바이스.
  23. 제 1항 내지 제 11항 중 어느 한 항의 영상을 디스플레이 하는 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
KR1020150022722A 2014-03-21 2015-02-13 영상을 디스플레이 하는 방법 및 디바이스 KR102374584B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP15765827.9A EP3121688B1 (en) 2014-03-21 2015-03-23 Method and device for displaying image
PCT/KR2015/002809 WO2015142135A1 (ko) 2014-03-21 2015-03-23 영상을 디스플레이 하는 방법 및 디바이스
US15/127,844 US10747490B2 (en) 2014-03-21 2015-03-23 Method and device for displaying an image transmitted from a wearable device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20140033709 2014-03-21
KR1020140033709 2014-03-21

Publications (2)

Publication Number Publication Date
KR20150110319A true KR20150110319A (ko) 2015-10-02
KR102374584B1 KR102374584B1 (ko) 2022-03-16

Family

ID=54341471

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150022722A KR102374584B1 (ko) 2014-03-21 2015-02-13 영상을 디스플레이 하는 방법 및 디바이스

Country Status (3)

Country Link
US (1) US10747490B2 (ko)
EP (1) EP3121688B1 (ko)
KR (1) KR102374584B1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10911255B2 (en) * 2016-05-31 2021-02-02 Honeywell International Inc. Devices, methods, and systems for hands free facility status alerts
US11992273B2 (en) * 2018-08-03 2024-05-28 Intuitive Surgical Operations, Inc. System and method of displaying images from imaging devices
JP7445653B2 (ja) 2018-11-09 2024-03-07 ベックマン コールター, インコーポレイテッド 選択的データ提供を備えた修理グラス
EP3956858A1 (en) 2019-04-18 2022-02-23 Beckman Coulter, Inc. Securing data of objects in a laboratory environment
CN111381675B (zh) * 2020-03-13 2023-06-27 广东小天才科技有限公司 应用于智能音箱的手势控制方法及智能音箱、存储介质
US20240054689A1 (en) * 2022-08-15 2024-02-15 Disney Enterprises, Inc. Augmented Reality Enhancement of Moving Images
US20240054696A1 (en) * 2022-08-15 2024-02-15 Disney Enterprises, Inc. Dynamic Scale Augmented Reality Enhancement of Images

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4483959B2 (ja) * 2008-03-12 2010-06-16 ソニー株式会社 コンテンツ送信装置、プログラム、視聴制限決定方法、およびコンテンツ送信システム
KR20140010715A (ko) * 2012-07-16 2014-01-27 엘지전자 주식회사 헤드 마운트 디스플레이를 이용한 컨텐츠 출력 방법 및 이를 위한 헤드 마운트 디스플레이

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6898620B1 (en) * 1996-06-07 2005-05-24 Collaboration Properties, Inc. Multiplexing video and control signals onto UTP
WO2001047248A2 (en) * 1999-12-22 2001-06-28 Koninklijke Philips Electronics N.V. Remote delivery of multimedia content from consumer electronics devices
US20040268400A1 (en) * 2003-06-26 2004-12-30 Microsoft Corporation Quick starting video content
KR20070018818A (ko) 2004-01-20 2007-02-14 코닌클리케 필립스 일렉트로닉스 엔.브이. 멀티스크린 디스플레이 시스템
US9386269B2 (en) 2006-09-07 2016-07-05 Rateze Remote Mgmt Llc Presentation of data on multiple display devices using a wireless hub
US7938727B1 (en) * 2007-07-19 2011-05-10 Tim Konkle System and method for providing interactive content for multiple networked users in a shared venue
ATE489804T1 (de) 2008-05-29 2010-12-15 Lg Electronics Inc Transparente anzeige und betriebsverfahren dafür
US8565829B2 (en) 2009-03-02 2013-10-22 Lg Electronics Inc. Mobile terminal with detachably coupled sub-device
US20100259464A1 (en) 2009-04-14 2010-10-14 Jae Young Chang Terminal and controlling method thereof
WO2011022014A1 (en) * 2009-08-20 2011-02-24 Displaylink Corporation Configuration of additional display devices
US20120105428A1 (en) 2010-10-28 2012-05-03 Microsoft Corporation Transparent display configuration modes
US9007277B2 (en) 2010-10-28 2015-04-14 Microsoft Technology Licensing, Llc Transparent display assembly
US8589991B2 (en) 2010-12-14 2013-11-19 Microsoft Corporation Direct connection with side channel control
US8621352B2 (en) * 2011-06-08 2013-12-31 Cisco Technology, Inc. Virtual meeting video sharing
KR101869095B1 (ko) * 2011-08-23 2018-06-19 삼성전자주식회사 휴대단말기의 표시 방법 및 장치
WO2013180318A1 (ko) * 2012-05-31 2013-12-05 (주)정직한기술 미러링과 파일 스트리밍 자동 전환 기능을 갖는 미러링 장치
KR101875744B1 (ko) 2012-07-13 2018-07-06 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US9176703B2 (en) 2012-06-29 2015-11-03 Lg Electronics Inc. Mobile terminal and method of controlling the same for screen capture
KR101890626B1 (ko) 2012-07-06 2018-09-28 엘지전자 주식회사 이동 단말기, 영상표시장치 및 이들을 이용한 사용자 인터페이스 제공 방법
US9632648B2 (en) 2012-07-06 2017-04-25 Lg Electronics Inc. Mobile terminal, image display device and user interface provision method using the same
KR200473246Y1 (ko) 2012-07-17 2014-06-24 김승진 안경형 원격 제어 장치
KR101936075B1 (ko) 2012-09-21 2019-01-08 삼성전자주식회사 이동통신 단말기를 이용한 디스플레이 장치의 데이터 표시 방법 및 상기 장치들
US9635438B2 (en) 2012-09-27 2017-04-25 Arris Enterprises, Inc. Providing secondary content to accompany a primary content item
KR102167384B1 (ko) * 2013-06-24 2020-10-19 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
KR20150006195A (ko) * 2013-07-08 2015-01-16 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
KR102179812B1 (ko) * 2013-07-18 2020-11-17 엘지전자 주식회사 와치형 이동단말기
CA2841371A1 (en) * 2014-01-31 2015-07-31 Usquare Soft Inc. Devices and methods for portable processing and application execution
US9665336B2 (en) * 2014-07-29 2017-05-30 Qualcomm Incorporated Direct streaming for wireless display

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4483959B2 (ja) * 2008-03-12 2010-06-16 ソニー株式会社 コンテンツ送信装置、プログラム、視聴制限決定方法、およびコンテンツ送信システム
KR20140010715A (ko) * 2012-07-16 2014-01-27 엘지전자 주식회사 헤드 마운트 디스플레이를 이용한 컨텐츠 출력 방법 및 이를 위한 헤드 마운트 디스플레이

Also Published As

Publication number Publication date
KR102374584B1 (ko) 2022-03-16
US10747490B2 (en) 2020-08-18
EP3121688B1 (en) 2023-07-12
US20170097802A1 (en) 2017-04-06
EP3121688A1 (en) 2017-01-25
EP3121688A4 (en) 2017-08-30

Similar Documents

Publication Publication Date Title
US10819807B2 (en) Method and system for displaying object, and method and system for providing the object
KR20150110319A (ko) 영상을 디스플레이 하는 방법 및 디바이스
US10373648B2 (en) Apparatus and method for editing content
EP2400737B1 (en) A method for providing an augmented reality display on a mobile device
RU2653305C2 (ru) Система и способ предоставления изображения
US10228810B2 (en) Method of transmitting inquiry message, display device for the method, method of sharing information, and mobile terminal
KR20150047006A (ko) 데이터 전송 방법, 데이터 수신 방법, 및 디바이스
KR20150026367A (ko) 화면 미러링을 이용한 서비스 제공 방법 및 그 장치
KR102047498B1 (ko) 노킹 입력에 기초하여 객체를 공유하는 시스템 및 방법
KR102380228B1 (ko) 디바이스를 제어하는 방법 및 그 디바이스
KR20160065673A (ko) 디바이스를 제어하는 방법, 시스템 및 그 디바이스
US9811315B1 (en) Systems and methods for presenting location related information
RU2628139C2 (ru) Способ и система для отображения объекта и способ и система для предоставления объекта
KR102173727B1 (ko) 음향 신호 기반 정보 공유 방법 및 그 장치
KR20150034082A (ko) 디스플레이 장치 및 이의 제어 방법
KR20150121565A (ko) 미러링 서비스를 수행하는 방법 및 장치
KR20160031824A (ko) 디바이스에 객체를 표시하는 방법 및 그 디바이스
JP2014110560A (ja) 情報処理装置、サーバ装置およびプログラム
KR102306535B1 (ko) 디바이스를 제어하는 방법 및 디바이스
KR20190076621A (ko) 전자 장치 및 전자 장치에서 방송 콘텐트와 관련된 서비스 정보 제공 방법
KR102446769B1 (ko) 전자 장치 및 그 제어 방법
KR101622361B1 (ko) 게임 서비스를 제공하는 방법 및 게임 서비스를 제공하는 디바이스
KR20140030440A (ko) 휴대 장치, 디스플레이 장치, 콘텐츠 제공 장치 및 콘텐츠 제공 방법
KR20160008419A (ko) 이동단말기 및 그 제어방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right