KR20220122955A - 모바일 디바이스에서 촬영된 전자 기기와 페어링하는 방법 및 장치 - Google Patents

모바일 디바이스에서 촬영된 전자 기기와 페어링하는 방법 및 장치 Download PDF

Info

Publication number
KR20220122955A
KR20220122955A KR1020220105772A KR20220105772A KR20220122955A KR 20220122955 A KR20220122955 A KR 20220122955A KR 1020220105772 A KR1020220105772 A KR 1020220105772A KR 20220105772 A KR20220105772 A KR 20220105772A KR 20220122955 A KR20220122955 A KR 20220122955A
Authority
KR
South Korea
Prior art keywords
user
electronic device
mobile device
content
information
Prior art date
Application number
KR1020220105772A
Other languages
English (en)
Other versions
KR102551240B1 (ko
Inventor
고재우
이재영
김현중
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020150034042A external-priority patent/KR102437104B1/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20220122955A publication Critical patent/KR20220122955A/ko
Priority to KR1020230082889A priority Critical patent/KR20230098559A/ko
Application granted granted Critical
Publication of KR102551240B1 publication Critical patent/KR102551240B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W76/00Connection management
    • H04W76/10Connection setup
    • H04W76/14Direct-mode setup
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0876Network architectures or network communication protocols for network security for authentication of entities based on the identity of the terminal or configuration, e.g. MAC address, hardware or software configuration or device fingerprint
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72415User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4108Peripherals receiving signals from specially adapted client devices characterised by an identification number or address, e.g. local network address
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44231Monitoring of peripheral device or external card, e.g. to detect processing problems in a handheld device or the failure of an external recording device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/06Authentication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/50Secure pairing of devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/60Context-dependent security
    • H04W12/69Identity-dependent
    • H04W12/71Hardware identity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel
    • H04W4/21Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel for social networking applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/18Self-organising networks, e.g. ad-hoc networks or sensor networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Abstract

전자 기기와 페어링하는 글래스에 있어서, 복수의 전자 기기들 각각에 대한 식별 정보와 상기 전자 기기들 각각과 페어링하기 위한 기기 정보를 저장하는 메모리; 상기 글래스의 카메라를 통해서 적어도 하나의 전자 기기의 영상을 획득하는 영상 획득부; 상기 획득된 영상 내에 포함된 전자 기기의 식별 정보를 상기 획득된 영상으로부터 추출하는 식별 정보 추출부; 상기 저장된 식별 정보를 탐색하여 상기 추출된 식별 정보에 대응하는 전자 기기를 선택하는 페어링 대상 선택부; 및 상기 선택된 전자 기기의 기기 정보를 이용하여 상기 선택된 전자 기기와 페어링하는 무선 통신부를 포함하는 글래스가 개시된다.

Description

모바일 디바이스에서 촬영된 전자 기기와 페어링하는 방법 및 장치{MOBILE DEVICE AND METHOD FOR PAIRING WITH ELECTRIC DEVICE}
개시된 실시 예들은 전자 기기와 페어링하는 방법 및 장치에 관한 것이다.
기술의 발전에 따라서 전자 디바이스들이 소형화 및 경량화되고, 다양한 형태를 가질 수 있게 됨에 따라 신체에 착용할 수 있는 웨어러블 디바이스들이 개발되고 있다. 예를 들어, 스마트 워치(smart watch)나 스마트 글래스(smart glasses) 등이 개발되고 있다. 스마트 워치는 일반적으로 일반 시계보다 향상된 기능들을 장착하고 있는 임베디드 시스템 손목 시계를 의미한다. 스마트 글래스(smart glass)는 일반적으로 헤드 마운티드 디스플레이(Head Mounted Display; HMD)가 장착된 착용형 컴퓨터를 의미한다. 웨어러블 디바이스는 단독형 디바이스 또는 연동형 디바이스로 구분될 수 있다. 단독형 디바이스는 자체 입출력 장치, 연산 장치, 저장 장치 및 통신 장치 등을 구비하고, 단독으로 사용될 수 있다. 연동형 디바이스는 스마트폰과 같은 별도의 장치와 연결한 후 사용할 수 있는 장치를 의미한다.
개시된 일 실시 예는 입력된 영상에 포함된 전자 기기와 페어링하는 방법을 제공하는 데 있다.
일 실시 예에 따른 모바일 디바이스는 복수의 전자 기기들 각각에 대한 식별 정보와 상기 전자 기기들 각각과 페어링하기 위한 기기 정보를 저장하는 메모리; 상기 모바일 디바이스의 카메라를 통해서 적어도 하나의 전자 기기의 영상을 획득하는 영상 획득부; 상기 획득된 영상 내에 포함된 전자 기기의 식별 정보를 상기 획득된 영상으로부터 추출하는 식별 정보 추출부; 상기 저장된 식별 정보를 탐색하여 상기 추출된 식별 정보에 대응하는 전자 기기를 선택하는 페어링 대상 선택부; 및 상기 선택된 전자 기기의 기기 정보를 이용하여 상기 선택된 전자 기기와 페어링하는 무선 통신부를 포함한다.
일 실시 예에 따른 페어링 방법은 복수의 전자 기기들 각각에 대한 식별 정보와 상기 전자 기기들 각각과 페어링하기 위한 기기 정보를 저장하는 단계; 상기 모바일 디바이스의 카메라를 통해서 적어도 하나의 전자 기기의 영상을 획득하는 단계; 상기 획득된 영상 내에 포함된 전자 기기의 식별 정보를 상기 획득된 영상으로부터 추출하는 단계; 상기 저장된 식별 정보를 탐색하여 상기 추출된 식별 정보에 대응하는 전자 기기를 선택하는 단계; 및 상기 선택된 전자 기기의 기기 정보를 이용하여 상기 선택된 전자 기기와 페어링하는 단계를 포함한다.
개시된 일 실시 예에 따른 모바일 디바이스는 입력된 영상에 포함된 전자 기기를 식별하여, 전자 기기와 페어링할 수 있다.
개시된 일 실시 예에 따른 모바일 디바이스는 식별된 전자 기기가 제어하는 또 다른 전자 기기와 페어링할 수 있다.
개시된 일 실시 예에 따른 모바일 디바이스는 사용자의 시선을 추적하여 페어링할 전자 기기를 선택할 수 있다.
개시된 일 실시 예에 따른 모바일 디바이스는 촬영된 영상에 포함된 복수의 전자 기기들 중에서 사용자의 선택에 의해 페어링할 전자 기기를 선택할 수 있다.
개시된 일 실시 예에 따른 모바일 디바이스는 사용자의 제스처에 의해 페어링할 전자 기기를 선택할 수 있다.
도 1은 일 실시 예에 따른 모바일 디바이스가 전자 기기와 페어링하는 방법을 설명하기 위한 도면이다.
도 2는 모바일 디바이스가 리모컨과 페어링을 수행하여 TV를 제어하기 위한 방법을 설명하기 위한 도면이다.
도 3은 일 실시 예에 따른 모바일 디바이스가 전자 기기를 제어하는 방법을 설명하기 위한 흐름도이다.
도 4는 모바일 디바이스가 TV를 직접 제어하는 방법을 설명하기 위한 도면이다.
도 5는 일 실시 예에 따른 모바일 디바이스가 전자 기기를 제어하는 방법을 설명하기 위한 흐름도이다.
도 6은 일 실시 예에 따른 모바일 디바이스를 나타내는 구성도이다.
도 7은 일 실시 예에 따른 모바일 디바이스를 나타내는 구성도이다.
도 8은 일 실시 예에 따른 스마트 글래스가 전자 기기의 영상을 획득하는 방법을 설명하기 위한 도면이다.
도 9는 일 실시 예에 따른 스마트 글래스를 설명하기 위한 구성도이다.
도 10은 일 실시 예에 따른 페어링 방법을 설명하기 위한 도면이다.
도 11은 일 실시 예에 따른 페어링 방법을 설명하기 위한 도면이다.
도 12는 일 실시 예에 따른 페어링 방법을 설명하기 위한 도면이다.
도 13은 일 실시 예에 따른 페어링 방법을 설명하기 위한 도면이다.
도 14a는 일 실시 예에 따른 모바일 디바이스가 패킷을 브로드캐스팅하여 전자 기기와 페어링하는 방법을 설명하기 위한 도면이다.
도 14b는 일 실시 예에 따른 전자 기기가 패킷을 브로드캐스팅하여 모바일 디바이스와 페어링하는 방법을 설명하기 위한 도면이다.
도 15는 일 실시 예에 따른 모바일 디바이스가 브로드캐스팅을 이용하여 페어링하는 방법을 설명하기 위한 도면이다.
도 16은 일 실시 예에 따른 모바일 디바이스가 입력 수단을 이용하여 전자 기기를 제어하는 방법을 설명하기 위한 도면이다.
도 17은 일 실시 예에 따른 모바일 디바이스가 어플리케이션을 이용하여 전자 기기를 제어하는 방법을 설명하기 위한 도면이다.
도 18은 일 실시 예에 따른 모바일 디바이스가 전자 기기에 표시된 화면을 제공하여 전자 기기를 제어하는 방법을 설명하기 위한 도면이다.
도 19는 일 실시 예에 따른 모바일 디바이스가 오디오를 제어하는 방법을 설명하기 위한 도면이다.
도 20은 일 실시 예에 따른 모바일 디바이스가 에어컨을 제어하는 방법을 설명하기 위한 도면이다.
도 21은 일 실시 예에 따른 모바일 디바이스가 노트북을 제어하는 방법을 설명하기 위한 도면이다.
도 22는 일 실시 예에 따른 모바일 디바이스가 냉장고를 제어하는 방법을 설명하기 위한 도면이다.
도 23은 일 실시 예에 따른 모바일 디바이스가 웨어러블 디바이스를 제어하는 방법을 설명하기 위한 도면이다.
도 24는 일 실시 예에 따른 모바일 디바이스가 또 다른 모바일 디바이스를 제어하는 방법을 설명하기 위한 도면이다.
도 25는 일 실시 예에 따른 모바일 디바이스가 스마트 폰을 제어하는 방법을 설명하기 위한 도면이다.
도 26a 내지 도 26b는 일 실시 예에 따른 모바일 디바이스가 전자 기기의 이미지를 통해 전자 기기와 페어링하는 방법을 설명하기 위한 도면이다.
도 27은 일 실시 예에 따른 모바일 디바이스가 텍스트를 통해 전자 기기와 페어링하는 방법을 설명하기 위한 도면이다.
도 28은 일 실시 예에 따른 모바일 디바이스가 전자 기기를 등록하는 과정을 설명하기 위한 도면이다.
도 29는 일 실시 예에 따른 모바일 디바이스가 어플리케이션을 등록하는 과정을 설명하기 위한 도면이다.
도 30은 일 실시 예에 따른 모바일 디바이스가 어플리케이션을 등록하는 과정을 설명하기 위한 도면이다.
도 31은 일 실시 예에 따른 모바일 디바이스가 어플리케이션을 등록하는 과정을 설명하기 위한 도면이다.
도 32는 일 실시 예에 따른 모바일 디바이스가 제어 기능을 등록하는 과정을 설명하기 위한 도면이다.
도 33은 일 실시 예에 따른 모바일 디바이스가 전자 기기와 페어링하는 방법을 설명하기 위한 순서도이다.
도 34는 모바일 디바이스가 객체를 인식하여 관련 기능을 제공하는 방법을 설명하기 위한 도면이다.
도 35는 일 실시 예에 따른 모바일 디바이스가 식별된 인물에게 전화를 연결하는 과정을 설명하기 위한 도면이다.
도 36는 일 실시 예에 따른 모바일 디바이스가 식별된 인물에게 메시지를 전송하는 과정을 설명하기 위한 도면이다.
도 37은 일 실시 예에 따른 모바일 디바이스가 식별된 인물에 대응하는 어플리케이션을 실행하는 과정을 설명하기 위한 도면이다.
도 38는 일 실시 예에 따른 모바일 디바이스가 식별된 객체에 대해 등록된 기능을 수행하는 방법을 설명하는 순서도이다.
도 39는 일 실시 예에 따른 모바일 디바이스가 레거시 디바이스를 제어하는 방법을 설명하기 위한 도면이다.
도 40은 일 실시 예에 따른 글래스가 전자 기기들을 제어하는 방법을 설명하기 위한 도면이다.
도 41은 일 실시 예에 따른 컨텐츠를 연계 재생하는 방법을 설명하기 위한 흐름도이다.
도 42는 일 실시 예에 따른 컨텐츠를 연계 재생하는 방법을 설명하기 위한 흐름도이다.
도 43은 일 실시 예에 따른 전자 기기를 설명하기 위한 구성도이다.
도 44는 일 실시 예에 따른 연계 재생 방법을 설명하기 위한 도면이다.
도 45는 사용자가 복수인 경우, 사용자별 북마크 정보를 활용하는 실시 예를 설명하기 위한 도면이다.
도 46은 일 실시 예에 따른 글래스를 설명하기 위한 구성도이다.
도 47은 일 실시 예에 따른 컨텐츠 연계 재생 방법을 설명하기 위한 순서도이다.
도 48은 일 실시 예에 따른 전자 기기들의 페어링 방법을 설명하기 위한 순서도이다.
도 49는 일 실시 예에 따른 페어링 및 컨텐츠 연계 재생 방법을 설명하기 위한 개요도이다.
도 50은 스마트폰이 TV와 페어링하고, 스마트폰이 TV로 컨텐츠를 전송하는 방법을 설명하기 위한 흐름도이다.
도 51A 및 51B는 컨텐츠를 연계하여 재생할 전자 기기를 결정하는 방법을 설명하기 위한 개요도이다.
도 52A 및 52B는 컨텐츠를 연계하여 재생할 전자 기기를 결정하는 방법을 설명하기 위한 개요도이다.
도 53은 스마트폰이 TV와 페어링하고, 스마트폰이 TV로 컨텐츠를 전송하는 방법을 설명하기 위한 흐름도이다.
도 54는 북마크를 이용하여 연계 재생하는 방법을 설명하기 위한 개요도이다.
도 55는 복수의 사용자들에 대한 연계 재생 방법을 설명하기 위한 개요도이다.
도 56은 주변 전자 기기로부터 컨텐츠를 수신하여 재생하는 전자 기기의 일 예를 설명하기 위한 구성도이다.
본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 일 실시 예에 따른 모바일 디바이스가 전자 기기와 페어링하는 방법을 설명하기 위한 도면이다. 도 1을 참조하면, 사용자는 모바일 디바이스(1000)를 이용하여 주변의 전자 기기들(210 내지 230)과 페어링할 수 있다. 예를 들어, 모바일 디바이스(1000)는 스마트 글래스(110), 스마트 카메라(120), 웨어러블 디바이스(130) 및 스마트 폰(140) 등과 같이 주변 기기들을 식별할 수 있고 주변 기기들과 무선으로 연결될 수 있는 기기일 수 있다.
모바일 디바이스(1000)는 입력된 영상에 포함된 전자 기기를 식별하고, 식별된 전자 기기와 페어링을 수행한다. 전자 기기를 식별한다는 것은 입력된 영상에 전자 기기가 포함되어 있는지 확인하는 것일 수 있다. 또한, 전자 기기를 식별한다는 것은 입력된 영상에 포함된 전자 기기의 종류가 무엇인지 선택하는 것일 수도 있다. 또한 전자 기기를 식별한다는 것은 입력된 영상에 포함된 전자 기기의 종류가 무엇인지 결정하는 것일 수도 있다. 또한, 전자 기기를 식별한다는 것은 입력된 영상에 포함된 전자 기기의 명칭을 확인하는 것일 수도 있다.
전자 기기는 모바일 디바이스(1000)와 직접 통신할 수 있는 디바이스 및 모바일 디바이스(1000)와 직접 통신이 불가능한 레거시 디바이스를 포함할 수 있다. 레거시 디바이스의 경우 패치를 통해 모바일 디바이스(1000)와 통신을 수행할 수 있다. 모바일 디바이스(1000)가 패치를 통해 레거시 디바이스를 제어하는 과정에 대해서는 도 39를 참조하여 상세히 설명할 것이다.
페어링을 수행한다는 것은 모바일 디바이스(1000)가 전자 기기와 무선 또는 유선으로 연결된다는 것이다. 또한, 페어링을 수행한다는 것은 모바일 디바이스(1000)가 전자 기기와 무선 또는 유선으로 데이터를 송수신하기 위한 설정을 수행한다는 것일 수도 있다.
모바일 디바이스(1000)는 복수의 전자 기기들을 식별하기 위한 식별 정보를 저장한다. 식별 정보는 다른 전자 기기들과 구별되는 고유의 정보일 수 있다. 예를 들어, 식별 정보는 전자 기기의 모양, 특징점, 사진과 같이 전자 기기의 외관에서 획득 가능한 정보를 나타낸다. 또한, 식별 정보는 전자 기기의 명칭과 같이 전자 기기의 종류 또는 전자 기기의 모델명을 텍스트로 표현한 것일 수 있다. 또한, 식별 정보는 전자 기기의 명칭을 사람 또는 기계가 발음하여 획득된 소리일 수 있다.
모바일 디바이스(1000)는 미리 약속된 코드를 스캔하여 복수의 전자 기기들을 식별할 수 있다. 미리 약속된 코드는 바코드, QR 코드 또는 컬러 코드와 같이 정보를 기록할 수 있는 데이터 표현 기술일 수 있다. 바코드는 두께가 다른 수직 막대들의 조합으로 정보를 포함한다. QR 코드는 사각형의 격자무늬에 정보를 포함하는 2차원 형식의 코드이다. 컬러 코드는 정해진 컬러 색상의 조합을 이용해 정보를 기록하는 데이터 표현 기술이다. 예를 들어, 컬러 코드는 적색, 녹색, 청색 등을 이용하여 매트릭스 형태로 인쇄될 수 있다. 코드는 전자 기기의 외관에 인쇄될 수 있으며, 코드는 전자 기기의 명칭, 종류 또는 시리얼 넘버 등의 정보를 포함할 수 있다. 모바일 디바이스(1000)는 카메라를 이용하여 바코드, QR 코드 또는 컬러 코드를 스캔하고, 독출된 정보로부터 코드가 인쇄된 전자 기기가 무엇인지를 식별할 수 있다. 상술한 예에서는 바코드, QR 코드 또는 컬러 코드 등을 예를 들어 설명하였으나, 모바일 디바이스(1000)가 스캔하여 정보를 독출할 수 있는 코드라면, 전자 기기를 식별하는데 사용될 수 있다. 모바일 디바이스(1000)는 전자 기기마다 서로 다른 특징들을 구분하여 식별 정보를 생성하고 생성된 식별 정보를 메모리에 저장할 수 있다. 모바일 디바이스(1000)는 전자 기기의 종류마다 평균 특징들을 획득하여 평균 특징을 메모리에 저장할 수 있다. 모바일 디바이스(1000)는 전자 기기의 명칭, 특징, 모양 등을 전자 기기의 식별 부호와 함께 저장할 수 있다.
모바일 디바이스(1000)는 전자 기기의 외관에서 일부만을 특징점으로 저장할 수 있다. 예를 들어, 모바일 디바이스(1000)는 전자 기기의 외관에서 엣지(edge)를 추출하고, 추출된 엣지를 전자 기기의 식별 정보로 저장할 수 있다. 예를 들어, 모바일 디바이스(1000)가 카메라의 특징을 추출할 때, 카메라의 외관 전체를 저장하는 것이 아니라, 카메라의 엣지만을 추출하여 카메라의 식별 정보로 저장할 수 있다. 카메라의 경우, 사각형의 바디, 바디 안에 위치한 원형의 렌즈를 포함한다. 모바일 디바이스(1000)는 바디 및 렌즈의 엣지를 추출하여 카메라의 식별 정보로 저장한다.
모바일 디바이스(1000)는 엣지뿐만 아니라, 전자 기기의 외관에서 추출 가능한 특징들을 전자 기기의 식별 정보로 저장할 수 있다. 또한, 모바일 디바이스(1000)는 이미지를 분석하여 전자 기기의 특징을 추출함에 있어서, 위에서 언급된 방식을 포함하여 다양한 기술들이 적용될 수 있다.
모바일 디바이스(1000)는 입력된 영상에 포함된 전자 기기들을 식별하여 전자 기기들의 식별 정보를 추출하고, 저장된 식별 정보 중에서 추출된 식별 정보와 매칭되는 식별 정보를 선택한다. 추출된 식별 정보와 매칭되는 식별 정보를 선택한다는 것은 추출된 식별 정보와 설정된 비율 이상 일치하는 식별 정보를 탐색하는 것일 수 있다. 추출된 식별 정보는 현재 입력된 영상으로부터 획득된 전자 기기에 대한 정보이고, 탐색의 대상이 되는 식별 정보는 미리 저장된 전자 기기들에 대한 정보이다.
모바일 디바이스(1000)는 선택된 전자 기기의 기기 정보를 이용하여 선택된 전자 기기와 페어링을 수행한다. 기기 정보는 모바일 디바이스(1000)와 전자 기기가 페어링을 수행하기 위해 필요한 정보를 나타낸다. 예를 들어, 기기 정보는 전자 기기의 MAC address, 또는 IP address 등이 될 수 있다. 모바일 디바이스(10000)는 MAC address 또는 IP address를 이용하여 전자 기기와 페어링을 수행한다. 또한 기기 정보는 서버(미도시)로부터 전송될 수도 있다.
레거시 디바이스의 경우, 모바일 디바이스(1000)와 직접 페어링이 불가능하기 때문에 레거시 디바이스에 부착된 패치가 모바일 디바이스(1000)와 페어링을 수행할 수 있다.
모바일 디바이스(1000)는 페어링이 완료된 후, 전자 기기를 제어할 수 있다. 예를 들어, 페어링이 완료되었다는 것은 모바일 디바이스(1000)가 전자 기기로 데이터를 전송할 수 있는 상태를 나타낼 수 있다. 전자 기기를 제어한다는 것은 모바일 디바이스(1000)로부터 전송된 데이터에 따라, 전자 기기가 동작한다는 것일 수 있다. 도 1에서는 모바일 디바이스(1000)가 리모컨(210), 오디오(220) 스마트 폰(230) 또는 패치(235a)가 부착된 냉장고(235)와 같은 레거시 디바이스 등과 같은 전자 기기와 페어링을 수행하는 경우를 도시하고 있다. 여기서 냉장고(235)는 레거시 디바이스 이다.
모바일 디바이스(1000)는 모바일 디바이스(1000)의 입력 수단을 이용하여 페어링된 전자 기기를 제어할 수 있다. 예를 들어, 모바일 디바이스(1000)는 모바일 디바이스(1000)의 입력 수단을 이용하여 페어링된 전자 기기의 채널 및 볼륨을 조절할 수 있다. 입력 수단은 사용자의 지시를 수신할 수 있는 장치이다. 예를 들어, 입력 수단은 버튼이나, 터치 패널, 카메라 또는 마우스 등 일 수 있다.
모바일 디바이스(1000)의 디스플레이부(1400)에는 페어링된 전자 기기를 제어하기 위한 화면이 도시될 수 있다. 제어하기 위한 화면은 전자 기기에 포함된 기능을 표시하는 화면일 수 있다. 또는, 제어하기 위한 화면은 모바일 디바이스(1000)가 전자 기기에 제어 신호를 전송하기 위한 화면일 수 있다.
모바일 디바이스(1000)는 식별된 전자 기기의 종류에 따라 다양한 형태의 제어 화면을 표시할 수 있다. 전자 기기의 종류는 모바일 디바이스, 웨어러블 디바이스, 리모컨, 가전 제품 등 서로 다른 기능을 수행하는 전자 기기의 그룹을 나타낸다. 도 1의 경우, 모바일 디바이스(1000)의 디스플레이부(1400)에는 채널 또는 볼륨을 제어하기 위한 화면이 도시된다. 따라서, 디스플레이부(1400)는 채널을 변경하기 위한 버튼, 볼륨을 변경하기 위한 버튼이 표시될 수 있다. 모바일 디바이스(1000)는 사용자의 입력을 수신하고, 사용자의 입력이 어느 버튼을 선택한 것인지 판단한다. 모바일 디바이스(1000)는 선택된 버튼에 해당하는 제어 신호를 전자 기기로 전송한다. 예를 들어, 모바일 디바이스(1000)는 사용자의 입력을 수신하여 리모컨(210), 오디오(220), 스마트 폰(230) 등으로 채널 또는 볼륨을 조절하기 위한 제어 신호를 출력할 수 있다.
오디오(220) 또는 스마트 폰(230)은 모바일 디바이스(1000)로부터 수신된 제어 신호에 따라 재생되는 노래의 볼륨을 높이거나 재생되는 노래를 변경할 수 있다.
모바일 디바이스(1000)는 사용자 설정 상태에 따라 입력된 영상에 포함된 전자기기를 식별하고 식별된 전자 기기와 페어링을 수행하거나 또는 수행하지 않을 수 있다. 모바일 디바이스(1000)의 디스플레이부(1400)에는 해당 기능을 온 또는 오프 시키는 UI(User Interface) 엘리먼트(Element)가 표시될 수 있다. 예를 들면 모바일 디바이스(1000)의 디스플레이부(1400)에는 해당 기능을 온/오프 시키는 버튼 또는 체크박스가 표시 될 수 있다. 사용자는 버튼을 터치하거나 또는 체크박스를 선택해서 입력된 영상에 포함된 전자기기를 식별하고 식별된 전자 기기와 페어링을 수행할 수 있다.
모바일 디바이스(1000)는 배터리의 잔량에 따라 입력된 영상에 포함된 전자 기기를 식별하고 식별된 전자 기기와 페어링을 수행하거나 또는 수행하지 않을 수 있다. 모바일 디바이스(1000)는 배터리의 잔량을 체크하고 배터리의 잔량이 미리 설정된 값 이하일 경우에는 해당 기능을 수행하지 않을 수 있다. 예를 들면, 미리 설정된 값이 전체 배터리 양의 10%로 설정된 경우, 배터리 잔량이 10%가 되었을 때 모바일 디바이스(1000)는 입력된 영상에 포함된 전자기기를 식별하지 않을 수 있다. 또는 모바일 디바이스(1000)는 식별된 전자 기기와 페어링을 수행하지 않을 수 있다. 모바일 디바이스(1000)는 배터리 잔량이 10%를 넘는 경우에는 입력된 영상에 포함된 전자 기기를 식별하고 식별된 전자 기기와 페어링을 수행할 수 있다.
도 2는 모바일 디바이스가 리모컨과 페어링을 수행하여 TV를 제어하기 위한 방법을 설명하기 위한 도면이다. 리모컨(210)은 모바일 디바이스(1000)로부터 수신된 제어 신호에 따라 TV(240)와 같은 또 다른 전자 기기를 제어한다.
모바일 디바이스(1000)는 카메라를 통해서 리모컨(210)의 영상을 획득한다. 영상을 획득한다는 것은 적어도 하나의 정지 영상을 획득하는 것일 수 있다. 모바일 디바이스(1000)는 리모컨(210)과 페어링을 수행한다. 모바일 디바이스(1000)는 리모컨(210)으로 채널 또는 볼륨을 제어하기 위한 제어 신호를 출력한다. 모바일 디바이스(1000)로부터 제어 신호를 수신한 리모컨(210)은 TV(240)로 제어 신호를 출력한다. TV(240)는 수신된 제어 신호에 따라 동작한다.
도 3은 일 실시 예에 따른 모바일 디바이스가 전자 기기를 제어하는 방법을 설명하기 위한 흐름도이다. 도 3을 참조하면, 모바일 디바이스(1000)는 전자 기기와의 페어링을 통해 전자 기기를 제어할 수 있다.
단계 310에서, 모바일 디바이스(1000)는 전자 기기들의 식별 정보 및 기기 정보를 저장한다. 식별 정보는 전자 기기의 형태를 식별하기 위한 정보를 포함하며, 기기 정보는 전자 기기와 연결하기 위한 정보를 포함한다. 모바일 디바이스(1000)는 전자 기기를 촬영하여 촬영된 영상에 포함된 전자 기기의 식별 정보를 추출할 수 있다. 모바일 디바이스(1000)는 추출된 식별 정보를 저장한다. 모바일 디바이스(1000)는 사용자로부터 기기 정보를 수신할 수 있다. 모바일 디바이스(1000)는 사용자로부터 전자 기기의 MAC address, 캐퍼빌러티 정보 등의 입력을 수신하여 기기 정보를 저장할 수 있다. 캐퍼빌러티 정보는 전자 기기가 수행 가능한 기능일 수 있다. 예를 들어, 캐퍼빌러티 정보는 전자 기기가 소리를 재생할 수 있는지, 전자 기기가 영상을 표시할 수 있는지 등을 나타내는 정보이다. 또는, 모바일 디바이스(1000)는 주변의 전자 기기로부터 무선 또는 유선으로 기기 정보를 수신하여 기기 정보를 저장할 수 있다.
단계 320에서, 모바일 디바이스(1000)는 카메라를 통해 전자 기기의 영상을 획득한다. 모바일 디바이스(1000)의 카메라는 전자 기기의 영상을 촬영한다.
단계 330에서, 모바일 디바이스(1000)는 영상 내에 포함된 전자 기기의 식별 정보를 추출한다. 모바일 디바이스(1000)는 영상을 분석하여 전자 기기가 포함되어 있는지 판단하고, 전자 기기의 식별 정보를 추출한다.
단계 340에서, 모바일 디바이스(1000)는 저장된 식별 정보 중에서 추출된 식별 정보와 대응되는 식별 정보를 탐색한다. 추출된 식별 정보와 대응되는 식별 정보는 추출된 식별 정보와 일치하거나 설정된 비율 이상 일치하는 식별 정보를 나타낸다.
단계 350에서, 모바일 디바이스(1000)는 페어링할 전자 기기를 선택한다. 모바일 디바이스(1000)는 추출된 식별 정보와 대응되는 식별 정보를 탐색하고, 탐색된 식별 정보에 상응하는 전자기기를 선택한다.
단계 360에서, 모바일 디바이스(1000)는 선택된 전자 기기와 페어링을 수행한다.
단계 370에서, 모바일 디바이스(1000)는 사용자로부터 입력을 수신한다. 모바일 디바이스(1000)는 버튼, 터치 패널, 카메라 등을 통해 사용자의 입력을 수신할 수 있다.
단계 380에서, 모바일 디바이스(1000)는 사용자 입력에 따라 전자 기기를 제어한다. 모바일 디바이스(1000)는 사용자 입력에 대응하는 제어 신호를 전자 기기로 전송한다.
도 4는 모바일 디바이스가 TV를 직접 제어하는 방법을 설명하기 위한 도면이다. 모바일 디바이스(1000)는 리모컨(210)을 이용하여 TV(240)를 제어할 수 있으나, 직접 TV(240)를 제어할 수도 있다.
모바일 디바이스(1000)는 카메라를 통해서 리모컨(210)이 포함된 영상을 획득한다. 모바일 디바이스(1000)는 영상에 포함된 리모컨(210)을 식별하고, 식별된 리모컨(210)이 제어하는 대상을 선택한다. 모바일 디바이스(1000)는 리모컨(210)의 식별 정보에 기초하여 리모컨(210)이 제어하는 대상이 무엇인지를 판단할 수 있다. 예를 들어, 리모컨(210)은 TV(240), 오디오(220) 등의 전자 기기를 제어할 수 있으므로, 모바일 디바이스(1000)는 리모컨(210)의 식별 정보로부터 리모컨(210)이 어느 전자 기기를 제어하는지 판단하여 제어 대상을 선택한다.
도 4에 도시된 실시 예에서는, 리모컨(210)이 제어하는 대상이 TV(240)인 경우이다. 모바일 디바이스(1000)는 리모컨(210)의 형태 및 리모컨(210)에 포함된 버튼 등을 식별하여 리모컨(210)이 제어하는 대상을 선택할 수 있다. 또는, 모바일 디바이스(1000)는 리모컨(210)으로부터 리모컨(210)이 제어하는 대상에 대한 정보를 수신할 수 있다. 모바일 디바이스(1000)는 리모컨(210)으로부터 TV(240)에 대한 정보를 수신하고, TV(240)와 페어링할 수 있다.
모바일 디바이스(1000)는 TV(240)를 직접 제어한다. 모바일 디바이스(1000)는 TV(240)를 제어하기 위한 신호를 출력할 수 있는 경우, TV(240)로 제어 신호를 직접 전송한다. 예를 들어, 모바일 디바이스(1000)는 채널 변경을 위한 신호 또는 볼륨 변경을 위한 신호를 TV(240)로 전송할 수 있다.
도 5는 일 실시 예에 따른 모바일 디바이스가 전자 기기를 제어하는 방법을 설명하기 위한 흐름도이다. 도 5를 참조하면, 모바일 디바이스(1000)는 B-전자 기기와의 페어링을 통해 B-전자 기기를 제어할 수 있다.
단계 510에서, 모바일 디바이스(1000)는 전자 기기들의 식별 정보 및 기기 정보를 저장한다.
단계 520에서, 모바일 디바이스(1000)는 카메라를 통해 A-전자 기기의 영상을 획득한다. 예를 들어, 모바일 디바이스(1000)의 카메라는 A-전자 기기의 영상을 촬영한다.
단계 530에서, 모바일 디바이스(1000)는 영상 내에 포함된 A-전자 기기의 식별 정보를 추출한다. 모바일 디바이스(1000)는 영상을 분석하여 A-전자 기기가 포함되어 있는지 판단하고, A-전자 기기의 식별 정보를 추출한다.
단계 540에서, 모바일 디바이스(1000)는 저장된 식별 정보 중에서 추출된 식별 정보와 대응되는 식별 정보를 탐색한다.
단계 550에서, 모바일 디바이스(1000)는 페어링할 전자 기기를 선택한다. 모바일 디바이스(1000)는 A-전자 기기가 제어하는 B-전자 기기를 페어링할 전자 기기로 선택한다. 모바일 디바이스(1000)는 B-전자 기기를 직접 제어할 수 있는 경우, B-전자 기기를 페어링할 전자 기기로 선택한다. 만약, 모바일 디바이스(1000)가 B-전자 기기를 직접 제어할 수 없는 경우, A-전자 기기를 이용하여 B-전자 기기를 제어한다.
단계 560에서, 모바일 디바이스(1000)는 B-전자 기기와 페어링을 수행한다.
단계 570에서, 모바일 디바이스(1000)는 사용자로부터 입력을 수신한다. 예를 들어, B-전자 기기가 TV(240)인 경우, 모바일 디바이스(1000)는 사용자로부터 채널 변경 또는 볼륨 조절과 같은 입력을 수신할 수 있다.
단계 580에서, 모바일 디바이스(1000)는 사용자의 입력에 따라 B-전자 기기를 제어한다. 모바일 디바이스(1000)는 사용자의 입력에 대응하는 제어 신호를 전자 기기로 전송한다.
도 6은 일 실시 예에 따른 모바일 디바이스(1000)를 나타내는 구성도이다. 도 6을 참조하면, 모바일 디바이스(1000)는 프로세서(1100), 카메라(1200), 메모리(1300) 및 디스플레이부(1400)를 포함한다.
프로세서(1100)는 카메라(1200)로부터 수신된 영상을 분석하여 전자 기기를 식별한다. 프로세서(1100)는 카메라(1200)로부터 영상을 수신하고, 영상에 포함된 전자 기기들을 식별한다. 프로세서(1100)는 영상에 포함된 객체들의 형태를 식별하고, 식별된 객체들 중에서 전자 기기의 형태와 일치하는 객체를 선별할 수 있다.
프로세서(1100)는 메모리(1300)에 저장된 식별 정보 중에서 영상에서 추출된 식별 정보와 대응되는 식별 정보를 탐색한다.
프로세서(1100)는 식별된 전자 기기와 페어링을 수행한다.
프로세서(1100)는 전자 기기를 제어하기 위한 인터페이스를 디스플레이부(1400)에 표시한다. 모바일 디바이스(1000)가 식별된 전자 기기와 연결되면, 프로세서(1100)는 사용자로부터 입력을 수신하기 위해 디스플레이부(1400)에 인터페이스를 표시한다. 프로세서(1100)는 사용자의 입력에 대응하는 제어 신호를 식별된 전자 장치로 전송한다.
프로세서(1100)는 모바일 디바이스(1000)의 입력 수단의 기능을 변경할 수 있다. 예를 들어, 입력 수단이 디스플레이부(1400)의 밝기를 조절하는 기능을 수행하였으나, 프로세서(1100)는 입력 수단을 전자 기기의 볼륨을 조절하는 기능으로 변경할 수 있다. 따라서, 입력 수단을 통해 사용자로부터 동일한 입력이 수신되어도, 프로세서(1100)는 다른 기능을 수행할 수 있다.
카메라(1200)는 영상을 촬영하여 프로세서(1100)로 출력한다. 모바일 디바이스(1000)는 적어도 1개의 카메라(100)를 포함한다. 카메라(1200)는 모바일 디바이스(1000)의 측면, 전면 또는 후면에 배치될 수 있다.
메모리(1300)는 복수의 전자 기기들 각각에 대한 식별 정보와 전자 기기들 각각과 페어링하기 위한 기기 정보를 저장한다.
디스플레이부(1400)는 프로세서(1100)의 제어에 따라 전자 기기를 제어하기 위한 화면을 표시한다. 디스플레이부(1400)는 사용자로부터 입력을 수신하기 위한 터치 패널일 수 있다.
도 7은 일 실시 예에 따른 모바일 디바이스를 나타내는 구성도이다. 도 7을 참조하면, 모바일 디바이스(1000)의 프로세서(1100)는 영상 획득부(1110), 식별 정보 추출부(1120), 페어링 대상 선택부(1130) 및 무선 통신부(1140)를 포함한다.
영상 획득부(1110)는 모바일 디바이스(1000)의 카메라(1200)로부터 적어도 하나의 전자 기기의 영상을 획득한다. 영상 획득부(1110)는 획득된 영상을 식별 정보 추출부(1120)로 출력한다.
영상 획득부(1110)는 카메라(1200)에 의해 촬영된 영상에 포함된 엣지를 추출하고, 추출된 엣지의 형태를 분석하여 전자 기기를 식별할 수 있다. 전자 기기들은 각각 개별적인 엣지의 형태를 포함하므로, 추출된 엣지의 형태와 저장된 엣지의 형태를 비교하여 영상에 포함된 전자 기기가 무엇인지를 식별할 수 있다.
영상 획득부(1110)는 카메라(1200)를 통해 설정된 시간 동안 고정된 영상이 입력되는 경우, 입력된 영상에 포함된 전자 기기를 식별하여 전자 기기의 영상을 획득할 수 있다. 또한, 영상 획득부(1110)는 카메라(1200)를 통해 촬영된 영상이 입력되는 경우, 촬영된 영상에 포함된 전자 기기를 식별하여 전자 기기의 영상을 획득할 수 있다.
식별 정보 추출부(1120)는 획득된 영상 내에 포함된 전자 기기의 식별 정보를 추출한다. 식별 정보 추출부(1120)는 영상을 분석하여 전자 기기의 형태를 갖는 객체를 구분할 수 있다. 식별 정보 추출부(1120)는 전자 기기로 판단되는 객체의 식별 정보를 추출한다. 예를 들어, 식별 정보 추출부(1120)는 객체의 경계를 식별 정보로 추출하거나, 객체의 내부에 포함된 도형, 문자 등을 식별 정보로 추출할 수 있다.
페어링 대상 선택부(1130)는 메모리에 저장된 식별 정보 중에서 영상으로부터 추출된 식별 정보에 대응되는 식별 정보를 탐색하고, 탐색된 식별 정보에 상응하는 전자 기기를 페어링할 전자 기기로 선택한다.
무선 통신부(1140)는 선택된 전자 기기에 대해 저장된 기기 정보를 이용하여 선택된 전자 기기와 페어링을 수행한다.
도 8은 일 실시 예에 따른 스마트 글래스가 전자 기기의 영상을 획득하는 방법을 설명하기 위한 도면이다. 도 8을 참조하면, 스마트 글래스(110)는 사용자가 바라보는 위치의 전자 기기들을 탐색한다. 도 8의 경우, 사용자의 주변에 리모컨(210)이 위치한 경우를 도시하고 있다.
눈동자 추적 카메라(eye-tracking camera, 113)는 사용자의 눈동자의 방향을 추적하여 사용자가 주변의 전자 기기들 중에서 어느 방향을 바라보는지 판단한다.
전면 카메라(112)는 눈동자 추적 카메라(113)에 의해 추적된 시선의 방향에 위치한 영상을 획득한다. 다시 말해서, 전면 카메라(112)는 사용자의 시선의 방향과 동일한 방향의 영상을 촬영한다. 도 8의 경우, 전면 카메라(112)가 리모컨(210)을 촬영하는 경우를 도시하고 있다.
도 9는 일 실시 예에 따른 스마트 글래스를 설명하기 위한 구성도이다. 도 9를 참조하면, 스마트 글래스(110)는 전면 카메라(112), 눈동자 추적 카메라(113) 및 프로세서(114)를 포함한다.
프로세서(114)는 전자 기기들의 식별 정보 및 기기 정보를 등록한다. 전면 카메라(112)는 전자 기기를 촬영하고, 프로세서(114)는 촬영된 영상을 분석하여 촬영된 영상에 포함된 전자 기기의 식별 정보를 등록할 수 있다. 예를 들어, 프로세서(114)는 영상으로부터 전자 기기의 특징을 추출하고, 추출된 특징을 식별 정보로 등록한다. 프로세서(114)는 전자 기기로부터 전자 기기의 기기 정보를 수신하여 기기 정보를 등록할 수 있다. 또는, 프로세서(114)는 전자 기기의 종류에 따라 전자 기기와의 통신 방식에 관한 정보를 저장할 수도 있다. 예를 들어, 프로세서(114)는 전자 기기가 사용하는 주파수, 프로토콜 등에 관한 정보를 기기 정보로 등록할 수 있다.
프로세서(114)는 사용자의 눈동자가 일정 시간 동안 움직이지 않는다고 판단되면 전면 카메라(112)로부터 수신되는 영상을 분석한다. 프로세서(114)는 촬영된 영상 내에 포함된 전자 기기를 식별한다. 프로세서(114)는 영상에 포함된 객체(object)들의 경계선을 검출하고, 객체들의 특징을 추출할 수 있다. 프로세서(114)는 식별된 객체들과 등록된 전자 기기를 비교하여 식별된 객체들과 동일한 전자 기기가 있는지를 판단한다.
프로세서(114)는 눈동자 추적 카메라(113)로부터 사용자의 시선의 방향을 나타내는 정보를 수신하고, 수신된 정보에 기초하여 전면 카메라(112)의 방향을 조정한다. 따라서, 전면 카메라(112)와 사용자의 시선의 방향이 동기화된다. 즉, 전면 카메라(112)와 사용자의 시선이 동일한 방향을 바라보게 된다. 전면 카메라(112)의 방향이 조정되면, 전면 카메라(112)는 조정된 방향의 영상을 프로세서(114)로 출력한다.
프로세서(114)는 등록된 전자 기기들 중에서 식별된 전자 기기로 판단된 전자 기기와 동일한 전자 기기가 있는지 탐색한다. 동일한 전자 기기가 있으면, 프로세서(114)는 식별된 전자 기기와의 페어링을 수행하고, 사용자의 입력에 따라 전자 기기를 제어한다.
스마트 글래스(110)는 블루투스, 와이파이 등을 통해 전자 기기와 페어링을 수행할 수 있다. 스마트 글래스(110)는 전자 기기와 페어링이 완료되면, 전자 기기를 제어한다. 스마트 글래스(110)는 사용자로부터 제어에 관한 입력을 수신하고, 수신된 입력에 따라 전자 기기로 제어 신호를 출력한다.
스마트 글래스(110)는 어플리케이션을 실행한다. 어플리케이션은 전자 기기의 식별 정보나 기기 정보를 등록할 때 함께 등록된 프로그램이다. 어플리케이션은 전자 기기를 제어하기 위한 프로그램 또는 전자 기기와 동일한 기능을 수행하는 어플리케이션이다. 어플리케이션이 실행되면, 스마트 글래스(110)는 사용자에게 제어를 위한 화면을 제공할 수 있다. 또는 스마트 글래스(110)는 음성 인식 프로그램을 실행할 수 있다.
스마트 글래스(110)는 사용자의 제어를 수신한다. 즉, 스마트 글래스(110)는 사용자 입력을 수신한다. 스마트 글래스(110)는 사용자의 음성을 수신하거나, 사용자의 제스처를 인식한다. 스마트 글래스(110)는 수신된 음성 또는 인식된 사용자의 제스처에 따라 전자 기기를 제어하기 위한 제어 신호를 전자 기기로 출력한다. 음성은 마이크를 통해 수신될 수 있으며, 제스처는 전면 카메라(112)를 통해 수신될 수 있다.
도 10은 일 실시 예에 따른 페어링 방법을 설명하기 위한 도면이다. 도 10을 참조하면, 모바일 디바이스(1000)는 사용자의 의도를 판단하여 페어링할 전자 기기를 선택할 수 있다. 예를 들어, 스마트 글래스(110)는 일정 시간 동안 사용자가 동일한 방향을 바라본다고 판단되면, 사용자의 시선의 방향에 위치한 전자 기기와 페어링을 수행한다. 또한 모바일 디바이스(1000)는 카메라(1200)가 작동 중이고, 동일한 영상이 일정 시간 동안 입력된다고 판단되면, 입력된 영상에 포함된 전자 기기와 페어링을 수행한다.
모바일 디바이스(1000)는 식별된 전자 기기를 제어할 것인지를 사용자에게 표시할 수 있다. 도 10의 경우, 입력된 영상에 리모컨(210)이 포함된 경우를 도시하고 있다. 모바일 디바이스(1000)는 디스플레이부(1400)에 리모컨(210)를 표시하고, 사용자로부터 리모컨(210)과 페어링을 수행할 것인지 여부에 대한 입력을 수신할 수 있다. 만약, 사용자로부터 리모컨(210)과 페어링을 수행하겠다는 입력을 수신하면, 모바일 디바이스(1000)는 리모컨(210)과 페어링을 수행한다.
도 11은 일 실시 예에 따른 페어링 방법을 설명하기 위한 도면이다. 도 11을 참조하면, 모바일 디바이스(1000)는 촬영된 영상에 포함된 전자 기기들 중에서 페어링할 전자 기기를 선택할 수 있다.
모바일 디바이스(1000)는 페어링을 수행하려는 준비 상태일 때 영상이 촬영되면, 모바일 디바이스(1000)는 촬영된 영상 내에 전자 기기가 포함되어 있는지 분석한다. 모바일 디바이스(1000)는 페어링 모드일 때, 영상이 촬영된 경우, 촬영된 영상 내에 전자 기기가 포함되어 있는지 분석할 수도 있다. 모바일 디바이스(1000)는 영상 내에 포함된 전자 기기들을 디스플레이부(1400)에 표시할 수 있다.
도 11에서는 촬영된 영상 내에 리모컨(210)과 TV(240)가 포함된 경우를 예를 들어 설명하고 있다. 모바일 디바이스(1000)는 디스플레이부(1400)에 리모컨(210)과 TV(240)를 표시한다. 모바일 디바이스(1000)는 사용자로부터 리모컨(210)과 TV(240) 중 어느 전자 기기와 페어링할 것인지에 대한 입력을 수신할 수 있다. 예를 들어, 사용자로부터 디스플레이부(1400)에 TV(240)와 페어링을 수행하겠다는 입력을 수신하면, 모바일 디바이스(1000)는 TV(240)와 페어링을 수행한다.
도 12는 일 실시 예에 따른 페어링 방법을 설명하기 위한 도면이다. 도 12를 참조하면, 모바일 디바이스(1000)는 사용자의 제스처에 따라 페어링할 전자 기기를 선택할 수 있다.
모바일 디바이스(1000)는 페어링을 수행하기 위한 준비 상태일 때 사용자의 제스처가 감지되면, 모바일 디바이스(1000)는 영상 내에 전자 기기가 포함되어 있는지 분석한다. 예를 들어, 사용자가 전자 기기를 선택하는 제스처가 감지되면, 모바일 디바이스(1000)는 제스처가 감지된 위치의 전자 기기를 탐색한다. 도 12에서는 사용자가 TV(240)를 선택하는 제스처를 도시하고 있다. 따라서, 모바일 디바이스(1000)는 TV(240)와 페어링을 수행한다.
도 13은 일 실시 예에 따른 페어링 방법을 설명하기 위한 도면이다. 도 13을 참조하면, 모바일 디바이스(1000)는 미리 등록된 전자 기기들 중에서 페어링할 전자 기기를 선택할 수 있다.
모바일 디바이스(1000)는 디스플레이부(1400)를 통해 미리 등록된 전자 기기들의 목록을 표시한다. 모바일 디바이스(1000)는 표시된 전자 기기들 중에서 사용자로부터 입력을 수신하여 페어링할 전자 기기를 선택한다. 도 13의 경우 사용자가 TV(240)를 선택하는 경우를 도시하고 있다. 따라서, 모바일 디바이스(1000)는 TV(240)와 페어링을 수행한다.
도 14a는 일 실시 예에 따른 모바일 디바이스가 패킷을 브로드캐스팅하여 전자 기기와 페어링하는 방법을 설명하기 위한 도면이다. 도 14a를 참조하면, 모바일 디바이스(1000)는 연결을 위한 패킷(1410)을 브로드캐스팅하여 전자 기기와 페어링을 수행할 수 있다.
모바일 디바이스(1000)는 영상에 포함된 전자 기기의 종류를 식별한다. 모바일 디바이스(1000)는 식별된 종류의 전자 기기와 페어링을 요청하는 패킷(1410)을 브로드캐스팅한다. 모바일 디바이스(1000)는 응답 패킷을 수신하고, 응답 패킷을 전송한 전자 기기와 페어링을 수행한다.
도 14a의 경우, 모바일 디바이스(1000)는 패킷(1410)을 브로드캐스팅하여 TV(240)와 페어링을 수행한다. 모바일 디바이스(1000)는 영상에 포함된 전자 기기가 TV(240)로 판단된 경우, TV(240)와 페어링을 요청하는 패킷(1410)을 브로드캐스팅한다. 패킷(1410)에는 TV(240)만 응답 패킷을 송신할 것을 요청하는 데이터가 포함될 수 있다. TV(240)만 응답 패킷을 송신할 것을 요청하는 데이터는 Advertising Data에 포함되거나, 별도의 항목에 포함될 수 있다.
TV(240)는 모바일 디바이스(1000)로부터 패킷(1410)을 수신하고, 모바일 디바이스(1000)로 응답 패킷을 전송한다. 모바일 디바이스(1000)는 TV(240)로부터 응답 패킷을 수신하고, 응답 패킷에 기초하여 TV(240)와 페어링을 수행한다.
패킷(1410)은 Preamble, Advertising Access Address, Advertising Header, Advertiser Address 및 Advertising Data 등과 같은 항목들을 포함한다. 모바일 디바이스(1000)는 Advertising Data에 I’m mobile device 이고, TV와 연결을 원한다는 데이터를 포함하는 패킷(1410)을 브로드캐스팅한다. 모바일 디바이스(1000)는 패킷(1410)을 전송하면서 어떠한 서비스를 제공할 것인지를 TV(240)에 알려줄 수 있다. 예를 들어, 모바일 디바이스(1000)는 TV(240)에 동영상을 전송할 수도 있고, TV(240)에 노래를 전송할 수도 있다.
또한, 모바일 디바이스(1000)는 패킷(1410)에 모바일 디바이스(1000)의 위치에 관한 정보를 포함하여 패킷(1410)을 브로드캐스팅할 수 있다.
TV(240)는 패킷(1410)을 수신하고, Advertising Data에 I’m TV 이고, 연결 가능하다는 응답 패킷을 모바일 디바이스(1000)로 전송한다. TV(240)는 TV(240)를 제어하기 위해 필요한 어플리케이션에 대한 정보를 응답 패킷에 포함시켜 모바일 디바이스(1000)로 전송할 수도 있다. 패킷(1410)에 TV(240)만 응답 패킷을 송신할 것을 요청하는 데이터가 포함되어 있으면, 패킷(1410)을 수신한 전자 기기들 중에서 TV(240)만 응답 패킷을 모바일 디바이스(1000)로 전송한다.
TV(240)는 패킷(1410)에 포함된 모바일 디바이스(1000)의 위치로 빔포밍(Beamforming) 등을 이용한 통신이 가능하다. 이 경우, TV(240)가 모바일 디바이스(1000)의 위치로 응답 패킷을 전송할 수 있으므로, 전력 소모를 줄일 수 있다.
도 14b는 일 실시 예에 따른 전자 기기가 패킷을 브로드캐스팅하여 모바일 디바이스와 페어링하는 방법을 설명하기 위한 도면이다. 도 14b를 참조하면, 전자 기기는 패킷(1410)을 브로드캐스팅하여 모바일 디바이스(1000)와 페어링을 수행할 수 있다. 다시 말해서, TV(240)가 패킷(1410)을 브로드캐스팅하는 경우, 모바일 디바이스(1000)는 수신된 패킷(1410)에 포함된 기기 정보를 이용하여 TV(240)와 페어링을 수행할 수 있다.
도 14b의 경우, TV(240)가 패킷(1410)을 브로드캐스팅하여 모바일 디바이스(1000)와 페어링을 수행한다. TV(240)가 전송하는 패킷(1410)에는 TV(240)에 관한 기기 정보가 포함되어 있다. 다시 말해서, TV(240)가 전송하는 패킷은 I’m TV이고, 페어링이 가능하다는 데이터 및 페어링을 위한 연결 정보를 포함한다.
모바일 디바이스(1000)는 TV(240)로부터 브로드캐스팅되는 패킷(1410)을 수신하고, 패킷(1410)을 송신한 TV(240)로 응답 패킷을 전송하여, TV(240)와 페어링을 수행한다. 모바일 디바이스(1000)는 TV(240)로부터 수신되는 패킷(1410)을 통해 페어링 가능한 TV(240)가 주변에 있음을 확인하고, 패킷(1410)에 포함된 기기 정보를 저장한다. 모바일 디바이스(1000)는 TV(240)의 식별 정보를 미리 저장한다. 모바일 디바이스(1000)는 촬영된 영상에 포함된 전자 기기의 식별 정보를 추출한다. 모바일 디바이스(1000)는 추출된 식별 정보와 저장된 식별 정보를 비교하여, 영상에 포함된 전자 기기가 무엇인지를 선택한다. 만약, 영상에 포함된 전자 기기가 TV(240)로 선택된 경우, 모바일 디바이스(1000)는 TV(240)로부터 수신된 패킷(1410)에 포함된 기기 정보를 이용하여, TV(240)로 응답 패킷을 전송하여 TV(240)와 페어링을 시도한다.
도 15는 일 실시 예에 따른 모바일 디바이스가 브로드캐스팅을 이용하여 페어링하는 방법을 설명하기 위한 도면이다. 도 15를 참조하면, 단계 1510에서, 모바일 디바이스(1000)는 전자 기기들의 식별 정보를 저장한다. 모바일 디바이스(1000)는 전자 기기의 종류별로 식별 정보를 저장할 수 있다.
단계 1520에서, 모바일 디바이스(1000)는 카메라(1200)를 통해 전자 기기의 영상을 획득한다.
단계 1530에서, 모바일 디바이스(1000)는 전자 기기의 종류를 식별한다.
단계 1540에서, 모바일 디바이스(1000)는 식별된 종류의 전자 기기와 페어링을 수행하기 위한 패킷을 브로드캐스팅한다. 패킷에는 모바일 디바이스(1000)의 정보 및 페어링할 전자 기기의 종류에 대한 정보가 포함된다.
단계 1550에서, 모바일 디바이스(1000)는 전자 기기로부터 응답 패킷을 수신한다. 모바일 디바이스(1000)로부터 패킷을 수신한 전자 기기는 패킷에 포함된 전자 기기의 종류에 대한 정보를 독출한다. 모바일 디바이스(1000)로부터 패킷을 수신한 전자 기기는 독출된 전자 기기의 종류에 포함되는 경우에만 응답 패킷을 모바일 디바이스(1000)로 전송한다. 응답 패킷에는 전자 기기의 종류, 페어링이 가능한지 여부 및 페어링을 위한 기기 정보 등이 포함된다.
단계 1560에서, 모바일 디바이스(1000)는 전자 기기와 페어링을 수행한다. 모바일 디바이스(1000)는 응답 패킷에 포함된 기기 정보를 이용하여 응답 패킷을 전송한 전자 기기와 페어링을 수행할 수 있다.
도 16은 일 실시 예에 따른 모바일 디바이스가 입력 수단을 이용하여 전자 기기를 제어하는 방법을 설명하기 위한 도면이다. 도 16을 참조하면, 스마트 글래스(110)는 입력 수단을 이용하여 전자 기기를 제어할 수 있다.
스마트 글래스(110)의 제1 및 제2 입력 수단(115, 116)은 전자 기기를 제어하지 않는 경우에는 스마트 글래스(110)의 동작을 제어하는 입력 수단으로 이용된다. 하지만, 스마트 글래스(110)가 주변의 전자 기기를 제어하는 경우에는 주변의 전자 기기를 제어하기 위한 입력 수단으로 기능이 변경된다.
스마트 글래스(110)는 제1 및 제2 입력 수단(115, 116)을 포함한다. 제1 및 제2 입력 수단은 식별되는 전자 기기에 따라 기능이 변경된다. 예를 들어, 스마트 글래스(110)가 리모컨(210)을 식별하고, 리모컨(210)을 제어하는 경우, 제1 입력 수단은 트랙을 변경하는 기능을 수행하고, 제2 입력 수단은 볼륨을 변경하는 기능을 수행한다. 스마트 글래스(110)가 TV(240)를 식별하고, TV(240)를 제어하는 경우, 제1 입력 수단은 채널을 변경하는 기능을 수행하고, 제2 입력 수단은 볼륨을 변경하는 기능을 수행한다.
도 17은 일 실시 예에 따른 모바일 디바이스가 어플리케이션을 이용하여 전자 기기를 제어하는 방법을 설명하기 위한 도면이다. 도 17을 참조하면, 스마트 폰(140)은 어플리케이션을 이용하여 리모컨(210) 또는 TV(240)를 제어할 수 있다.
스마트 폰(140)는 전자 기기를 제어하기 위한 어플리케이션 또는 프로그램을 저장한다. 스마트 폰(140)은 전자 기기를 제어하기 위한 어플리케이션 또는 프로그램을 미리 저장하거나, 전자 기기로부터 어플리케이션 또는 프로그램을 다운 받기 위한 정보를 획득하여, 어플리케이션 또는 프로그램을 다운받아 저장할 수 있다.
스마트 폰(140)은 식별된 전자 기기에 대응하는 어플리케이션 또는 프로그램을 실행하여 식별된 전자 기기를 제어한다. 예를 들어, 스마트 폰(140)이 리모컨(210)을 식별하고, 리모컨(210)을 제어하는 경우, 스마트 폰(140)은 리모컨(210)에 대응하는 어플리케이션 또는 프로그램을 실행한다. 또한, 스마트 폰(140)이 TV(240)를 식별하고 TV(240)를 제어하는 경우, 스마트 폰(140)은 TV(240)에 대응하는 어플리케이션 또는 프로그램을 실행한다.
스마트 폰(140)이 어플리케이션 또는 프로그램을 실행하면, 전자 기기의 기능을 제어하기 위한 화면이 스마트 폰(140)에 표시된다. 스마트 폰(140)은 사용자로부터 터치 입력을 수신하여 채널을 변경하거나 볼륨을 변경하는 제어 신호를 전자 기기로 전송할 수 있다.
도 18은 일 실시 예에 따른 모바일 디바이스가 전자 기기에 표시된 화면을 제공하여 전자 기기를 제어하는 방법을 설명하기 위한 도면이다. 도 18을 참조하면, 스마트 폰(140)은 웨어러블 디바이스(260)에 표시된 화면을 제공하여 웨어러블 디바이스(260)를 제어할 수 있다. 스마트 폰(140)을 예를 들어 설명하지만, 웨어러블 디바이스(260)와 동일하게 화면을 제공하고, 사용자의 입력을 수신할 수 있는 전자 기기라면, 웨어러블 디바이스(260)에 표시된 화면과 동일한 화면을 사용자에게 제공하여 웨어러블 디바이스(260)를 제어할 수 있다.
스마트 폰(140)이 웨어러블 디바이스(260)와 페어링되면, 스마트 폰(140)은 웨어러블 디바이스(260)와 동일한 화면을 제공할 수 있다. 스마트 폰(140)은 웨어러블 디바이스(260)로부터 화면을 제공받고, 스마트 폰(140)은 제공된 화면을 표시한다.
스마트 폰(140)은 사용자로부터 수신된 입력에 따라 웨어러블 디바이스(260)를 제어한다. 스마트 폰(140)은 사용자의 입력의 위치와 제공된 화면에 따라 웨어러블 디바이스(260)로 제어 신호를 전송한다. 예를 들어, 스마트 폰(140)은 사용자가 터치 패널의 어느 위치를 터치하였는지를 판단하여 웨어러블 디바이스(260)로 제어 신호를 전송할 수 있다. 웨어러블 디바이스(260)는 제어 신호에 따라 동작을 수행하고, 수행이 완료된 화면을 스마트 폰(140)으로 전송한다. 스마트 폰(140)은 수신된 화면을 디스플레이부에 표시한다.
도 19는 일 실시 예에 따른 모바일 디바이스가 오디오를 제어하는 방법을 설명하기 위한 도면이다. 도 19를 참조하면, 모바일 디바이스(1000)는 리모컨(210)과 페어링을 수행하고, 리모컨(210)을 통해 오디오(220)를 제어한다.
모바일 디바이스(1000)는 리모컨(210)과 페어링을 수행한다. 모바일 디바이스(1000)는 리모컨(210)을 식별하고, 리모컨(210)과 페어링을 수행한다.
모바일 디바이스(1000)는 리모컨(210)을 제어한다. 디스플레이부(1400)는 리모컨(210)을 제어하기 위한 화면을 표시한다. 도 19는 디스플레이부(1400)에 트랙 및 볼륨이 표시된 경우를 도시하고 있다. 모바일 디바이스(1000)는 사용자로부터 입력을 수신하고, 수신된 입력에 따라 리모컨(210)으로 제어 신호를 전송한다. 예를 들어, 모바일 디바이스(1000)는 트랙을 변경하거나 볼륨을 변경하는 입력을 사용자로부터 수신할 수 있다.
리모컨(210)은 오디오(220)를 제어한다. 리모컨(210)은 모바일 디바이스(1000)로부터 수신된 제어 신호에 따라 오디오(220)를 제어한다.
모바일 디바이스(1000)는 오디오(220)에 직접 제어 신호를 전송하여 오디오(220)를 제어할 수도 있다.
도 20은 일 실시 예에 따른 모바일 디바이스가 에어컨을 제어하는 방법을 설명하기 위한 도면이다. 도 20을 참조하면, 모바일 디바이스(1000)는 리모컨(210)과 페어링을 수행하고, 리모컨(210)을 통해 에어컨(270)을 제어한다.
모바일 디바이스(1000)는 리모컨(210)과 페어링을 수행한다. 모바일 디바이스(1000)는 리모컨(210)을 식별하고, 리모컨(210)과 페어링을 수행한다.
모바일 디바이스(1000)는 리모컨(210)을 제어한다. 모바일 디바이스(1000)는 사용자로부터 입력을 수신하고, 수신된 입력에 따라 리모컨(210)으로 제어 신호를 전송한다. 예를 들어, 모바일 디바이스(1000)는 바람의 세기를 변경하거나 온도를 변경하는 입력을 사용자로부터 수신할 수 있다.
리모컨(210)은 에어컨(270)을 제어한다. 디스플레이부(1400)는 에어컨(270)을 제어하기 위한 화면을 표시한다. 도 20은 디스플레이부(1400)에 온도 및 바람 세기가 표시된 경우를 도시하고 있다. 리모컨(210)은 모바일 디바이스(1000)로부터 수신된 제어 신호에 따라 에어컨(270)을 제어한다.
모바일 디바이스(1000)는 에어컨(270)에 직접 제어 신호를 전송하여 에어컨(270)을 제어할 수도 있다.
도 21은 일 실시 예에 따른 모바일 디바이스가 노트북을 제어하는 방법을 설명하기 위한 도면이다. 도 21을 참조하면, 모바일 디바이스(1000)는 마우스(280)와 페어링을 수행하고, 마우스(280)를 통해 노트북(290)을 제어한다.
모바일 디바이스(1000)는 마우스(280)와 페어링을 수행한다. 모바일 디바이스(1000)는 마우스(280)를 식별하고, 마우스(280)와 페어링을 수행한다.
모바일 디바이스(1000)는 마우스(280)를 제어한다. 디스플레이부(1400)는 마우스(280)를 제어하기 위한 화면을 표시한다. 도 21은 디스플레이부(1400)에 이동, 클릭 및 더블 클릭이 표시된 경우를 도시하고 있다. 모바일 디바이스(1000)는 사용자로부터 입력을 수신하고, 수신된 입력에 따라 마우스(280)로 제어 신호를 전송한다. 예를 들어, 모바일 디바이스(1000)는 커서의 이동, 클릭 또는 더블 클릭을 수행하라는 지시를 사용자로부터 수신할 수 있다.
마우스(280)는 노트북(290)을 제어한다. 마우스(280)는 모바일 디바이스(1000)로부터 수신된 제어 신호에 따라 노트북(290)을 제어한다.
모바일 디바이스(1000)는 노트북(290)에 직접 제어 신호를 전송하여 노트북(290)을 제어할 수도 있다.
도 22는 일 실시 예에 따른 모바일 디바이스가 냉장고를 제어하는 방법을 설명하기 위한 도면이다. 도 22를 참조하면, 모바일 디바이스(1000)는 냉장고(295)와 페어링을 수행하고, 냉장고(295)를 제어한다.
모바일 디바이스(1000)는 냉장고(295)와 페어링을 수행한다. 모바일 디바이스(1000)는 냉장고(295)를 식별하고, 냉장고(295)와 페어링을 수행한다.
모바일 디바이스(1000)는 냉장고(295)를 제어한다. 디스플레이부(1400)는 냉장고(295)를 제어하기 위한 화면을 표시한다. 도 22은 디스플레이부(1400)에 온도 및 목록이 표시된 경우를 도시하고 있다. 모바일 디바이스(1000)는 사용자로부터 입력을 수신하고, 수신된 입력에 따라 냉장고(295)로 제어 신호를 전송한다. 예를 들어, 모바일 디바이스(1000)는 온도를 조절하라는 지시를 사용자로부터 수신할 수 있다.
모바일 디바이스(1000)는 냉장고(295)로부터 냉장고(295)에 관한 정보를 수신하여 디스플레이부(1400)에 표시할 수 있다. 예를 들어, 냉장고(295)는 냉장고(295)에 저장된 내용물들의 목록을 모바일 디바이스(1000)로 전송할 수 있다. 모바일 디바이스(1000)는 냉장고(295)로부터 수신된 목록을 디스플레이부(1400)에 표시한다. 사용자는 목록을 참조하여, 냉장고(295)의 온도를 조절할 수 있다.
도 23은 일 실시 예에 따른 모바일 디바이스가 웨어러블 디바이스를 제어하는 방법을 설명하기 위한 도면이다. 도 23을 참조하면, 모바일 디바이스(1000)는 웨어러블 디바이스(260)와 페어링을 수행하고, 웨어러블 디바이스(260)를 제어한다.
모바일 디바이스(1000)는 웨어러블 디바이스(260)와 페어링을 수행한다. 모바일 디바이스(1000)는 웨어러블 디바이스(260)를 식별하고, 웨어러블 디바이스(260)와 페어링을 수행한다.
모바일 디바이스(1000)는 웨어러블 디바이스(260)를 제어한다. 디스플레이부(1400)는 웨어러블 디바이스(260)를 제어하기 위한 화면을 표시한다. 도 23은 디스플레이부(1400)에 웨어러블 디바이스(260)와 동일한 화면이 표시된 경우를 도시하고 있다. 모바일 디바이스(1000)는 사용자로부터 입력을 수신하고, 수신된 입력에 따라 웨어러블 디바이스(260)로 제어 신호를 전송한다.
도 24는 일 실시 예에 따른 모바일 디바이스가 또 다른 모바일 디바이스를 제어하는 방법을 설명하기 위한 도면이다. 도 24를 참조하면, 모바일 디바이스(1000)는 또 다른 모바일 디바이스(260)와 페어링을 수행하고, 또 다른 모바일 디바이스(260)를 제어한다.
모바일 디바이스(1000)는 또 다른 모바일 디바이스(260)와 페어링을 수행한다. 모바일 디바이스(1000)는 또 다른 모바일 디바이스(260)를 식별하고, 또 다른 모바일 디바이스(260)와 페어링을 수행한다.
모바일 디바이스(1000)는 또 다른 모바일 디바이스(260)를 제어한다. 디스플레이부(1400)는 또 다른 모바일 디바이스(260)를 제어하기 위한 화면을 표시한다. 도 24는 디스플레이부(1400)에 또 다른 모바일 디바이스(260)와 동일한 화면이 표시된 경우를 도시하고 있다. 모바일 디바이스(1000)는 사용자로부터 입력을 수신하고, 수신된 입력에 따라 또 다른 모바일 디바이스(260)로 제어 신호를 전송한다.
도 25는 일 실시 예에 따른 모바일 디바이스가 스마트 폰을 제어하는 방법을 설명하기 위한 도면이다. 도 25를 참조하면, 모바일 디바이스(1000)는 스마트 폰(230)과 페어링을 수행하고, 스마트 폰(230)을 제어한다.
모바일 디바이스(1000)는 스마트 폰(230)과 페어링을 수행한다. 모바일 디바이스(1000)는 스마트 폰(230)을 식별하고, 스마트 폰(230)과 페어링을 수행한다.
모바일 디바이스(1000)는 스마트 폰(230)을 제어한다. 디스플레이부(1400)는 스마트 폰(230)을 제어하기 위한 화면을 표시한다. 도 25는 디스플레이부(1400)에 스마트 폰(230)과 동일한 화면이 표시된 경우를 도시하고 있다. 모바일 디바이스(1000)는 사용자로부터 입력을 수신하고, 수신된 입력에 따라 스마트 폰(230)으로 제어 신호를 전송한다.
도 26a는 일 실시 예에 따른 모바일 디바이스가 전자 기기의 이미지를 통해 전자 기기와 페어링하는 방법을 설명하기 위한 도면이다. 도 26을 참조하면, 모바일 디바이스(1000)는 전자 기기의 이미지를 촬영하여 페어링할 전자 기기를 선택할 수 있다.
도 26에서는 책(2600)에 스마트 폰(140) 및 웨어러블 디바이스(130)가 그려져 있다. 모바일 디바이스(1000)는 책(2600)에 그려진 스마트 폰(230) 및 웨어러블 디바이스(260)를 식별할 수 있으며, 식별된 스마트 폰(230) 및 웨어러블 디바이스(260)를 디스플레이부(1400)에 표시한다.
사용자는 스마트 폰(230) 및 웨어러블 디바이스(260) 중에서 어느 전자 기기와 페어링을 할지를 선택한다.
모바일 디바이스(1000)는 사용자에 의해 선택된 전자 기기와 페어링을 수행한다. 모바일 디바이스(1000)는 선택된 전자 기기가 주변에 있는지 검색하고, 저장된 기기 정보를 이용하여 선택된 전자 기기와 페어링을 수행한다.
책에 그려진 그림 또는 사진은 저장된 기기 정보와 다른 각도에서 그려진 그림 또는 촬영된 사진일 수 있다. 이 경우 동일한 제품임에도 불구하고 모바일 디바이스는 저장된 기기 정보에서 책에 그려진 그림을 찾지 못할 수 있다. 이와 같은 문제점을 해결하기 위해 모바일 디바이스(1000)는 기기 정보 저장시 다양한 각도에서 촬영된 사진 또는 다양한 각도에서 그려진 그림을 저장할 수 있다. 즉, 저장된 기기 정보는 동일 제품에 대해 복수의 이미지 또는 그림을 포함할 수 있다.
도 26b는 모바일 디바이스(1000)에 저장된 기기 정보의 예를 도시한 것이다. 도 26b를 참조하면 스마트폰의 대표 이미지 및 다양한 각도에서 촬영한 스마트폰의 이미지가 도시되어 있다.
모바일 디바이스(1000)는 전자 기기를 식별한 경우 저장된 기기 정보 중에서 대표 이미지와 비교하고, 일치되지 않으면 다른 각도에서 촬영한 이미지와 비교할 수 있다.
모바일 디바이스(1000)는 책에 있는 그림을 식별하는 경우뿐만 아니라 실제 전자 기기를 식별한 경우에도 저장된 기기 정보 중 대표 이미지 및 다양한 각도에서 촬영한 이미지를 이용할 수 있다.
도 27은 일 실시 예에 따른 모바일 디바이스가 텍스트를 통해 전자 기기와 페어링하는 방법을 설명하기 위한 도면이다. 도 27을 참조하면, 모바일 디바이스(1000)는 텍스트(2700)에 쓰여진 전자 기기의 명칭을 식별하여 페어링할 전자 기기를 선택할 수 있다.
도 27에서는 텍스트(2700)에 전자 기기들의 명칭이 쓰여져 있다. 모바일 디바이스(1000)는 텍스트(2700)에 쓰여진 명칭을 식별할 수 있다. 모바일 디바이스(1000)는 입력된 영상에 포함된 텍스트를 분석하여, 텍스트(2700) 중에 전자 기기의 명칭이 포함되어 있는지 판단한다.
모바일 디바이스(1000)는 사용자의 시선의 방향에 위치한 전자 기기의 명칭을 식별한다. 또는, 모바일 디바이스(1000)는 촬영된 영상에 포함된 전자 기기의 명칭을 식별한다. 모바일 디바이스(1000)는 식별된 전자 기기의 명칭에 상응하는 전자 기기를 디스플레이부(1400)에 표시한다. 식별된 전자 기기의 명칭이 복수인 경우, 사용자의 선택에 따라 페어링할 전자 기기가 결정될 수 있다.
모바일 디바이스(1000)는 결정된 전자 기기와 페어링을 수행한다. 모바일 디바이스(1000)는 결정된 전자 기기가 주변에 있는지 검색하고, 저장된 기기 정보를 이용하여 결정된 전자 기기와 페어링을 수행한다.
모바일 디바이스(1000)는 마이크를 통해 수신된 전자 기기의 명칭을 식별하여 페어링할 전자 기기를 선택할 수 있다. 사용자로부터 전자 기기의 명칭이 발음된 경우, 마이크는 사용자가 발음한 전자 기기의 명칭을 식별하여 페어링할 전자 기기를 선택한다.
도 28은 일 실시 예에 따른 모바일 디바이스가 전자 기기를 등록하는 과정을 설명하기 위한 도면이다. 도 28을 참조하면, 모바일 디바이스(1000)는 식별된 전자 기기를 등록한다.
모바일 디바이스(1000)는 카메라(1200)를 통해서 획득된 영상을 이용하여 전자 기기를 등록한다. 예를 들어, 모바일 디바이스(1000)는 사용자의 시선이 일정 시간 동안 고정되는 경우, 사용자의 시선의 방향에 위치한 전자 기기를 등록 대상으로 선택한다. 또는, 모바일 디바이스(1000)는 촬영된 영상에 포함된 전자 기기를 등록 대상으로 선택할 수 있다.
모바일 디바이스(1000)는 식별된 전자 기기를 등록할 것인지 여부를 나타내는 문구를 함께 표시할 수 있다. 도 28에서는 리모컨(210)을 등록하는 과정을 도시하고 있으며, 디스플레이부(1400)는 리모컨을 등록할 것인지를 확인하는 문구가 표시된다.
도 29는 일 실시 예에 따른 모바일 디바이스가 어플리케이션을 등록하는 과정을 설명하기 위한 도면이다. 도 29를 참조하면, 모바일 디바이스(1000)는 식별된 전자 기기를 제어하기 위한 어플리케이션을 등록한다. 어플리케이션은 전자 기기를 제어하기에 필요한 기능을 포함한다.
모바일 디바이스(1000)는 어플리케이션을 등록할 것인지 여부를 나타내는 문구를 함께 표시할 수 있다. 도 29에서는 "리모컨 제어 어플리케이션"을 등록하는 과정을 도시하고 있으며, 디스플레이부(1400)에는 어플리케이션을 등록할 것인지를 확인하는 문구가 표시된다.
도 30은 일 실시 예에 따른 모바일 디바이스가 어플리케이션을 등록하는 과정을 설명하기 위한 도면이다. 도 30을 참조하면, 모바일 디바이스(1000)는 식별된 전자 기기를 제어하기 위한 복수의 어플리케이션들을 등록한다.
모바일 디바이스(1000)는 전자 기기를 제어하는 시간 별로 서로 다른 어플리케이션을 등록할 수 있다. 예를 들어, 오전에 리모컨(210)을 제어할 때는 "리모컨 제어 어플리케이션A"가 실행되도록 등록하고, 오후에 리모컨(210)을 제어할 때는 "리모컨 제어 어플리케이션B"가 실행되도록 등록할 수 있다.
모바일 디바이스(1000)는 어플리케이션을 등록할 것인지 여부를 나타내는 문구를 표시할 수 있다. 도 30에서는 "리모컨 제어 어플리케이션A" 및 "리모컨 제어 어플리케이션B"를 등록하는 과정을 도시하고 있으며, 디스플레이부(1400)는 어플리케이션을 등록할 것인지를 확인하는 문구가 표시된다.
도 31은 일 실시 예에 따른 모바일 디바이스가 어플리케이션을 등록하는 과정을 설명하기 위한 도면이다. 도 31을 참조하면, 모바일 디바이스(1000)는 식별된 전자 기기를 제어하기 위한 복수의 어플리케이션들을 등록한다.
모바일 디바이스(1000)는 전자 기기를 제어하는 장소 별로 서로 다른 어플리케이션을 등록할 수 있다. 예를 들어, A-장소에서 리모컨(210)을 제어할 때는 "리모컨 제어 어플리케이션A"가 실행되도록 등록하고, B-장소에서 리모컨(210)을 제어할 때는 "리모컨 제어 어플리케이션B"가 실행되도록 등록할 수 있다.
모바일 디바이스(1000)는 어플리케이션을 등록할 것인지 여부를 나타내는 문구를 표시할 수 있다. 도 31에서는 "리모컨 제어 어플리케이션A" 및 "리모컨 제어 어플리케이션B"를 등록하는 과정을 도시하고 있으며, 디스플레이부(1400)는 어플리케이션을 등록할 것인지를 확인하는 문구가 표시된다.
도 32는 일 실시 예에 따른 모바일 디바이스가 제어 기능을 등록하는 과정을 설명하기 위한 도면이다. 도 32을 참조하면, 모바일 디바이스(1000)는 입력 수단에 대응되는 제어 기능을 등록한다.
모바일 디바이스(1000)는 전자 기기를 제어하기 위한 제어 기능을 등록한다. 모바일 디바이스(1000)는 입력 수단을 이용하여 전자 기기를 제어할 수 있는 경우, 입력 수단과 제어 기능을 맵핑시킬 수 있다. 따라서, 모바일 디바이스(1000)는 전자 기기를 제어할 때, 입력 수단의 기존의 기능을 맵핑된 제어 기능으로 변경한다.
예를 들어, 모바일 디바이스(1000)의 제1 입력 수단은 리모컨(210)의 채널 변경 기능과 맵핑될 수 있으며, 제2 입력 수단은 리모컨(210)의 볼륨 변경 기능과 맵핑될 수 있다.
도 33은 일 실시 예에 따른 모바일 디바이스가 전자 기기와 페어링하는 방법을 설명하기 위한 순서도이다. 도 33을 참조하면, 모바일 디바이스(1000)는 카메라(1200)를 통해 획득된 영상에 포함된 전자 기기와 페어링할 수 있다.
단계 3310에서, 모바일 디바이스(1000)는 복수의 전자 기기들 각각에 대한 식별 정보와 전자 기기들 각각과 페어링하기 위한 기기 정보를 저장한다. 모바일 디바이스(1000)는 제어 가능한 전자 기기들의 식별 정보 및 기기 정보를 저장한다. 모바일 디바이스(1000)는 전자 기기를 촬영하고, 촬영된 영상에서 전자 기기의 특징을 추출할 수 있다. 모바일 디바이스(1000)는 추출된 전자 기기의 특징을 식별 정보로 저장할 수 있다.
또 다른 예로서, 모바일 디바이스(1000)는 동일한 종류의 전자 기기의 특징을 저장할 수 있다. 모바일 디바이스(1000)는 다양한 형태의 리모컨(210), TV(240) 또는 오디오(220) 등의 특징을 추출하여 저장할 수 있다. 모바일 디바이스(1000)는 네트워크를 통해서 전자 기기들의 특징을 포함하는 데이터를 수신하고, 데이터를 메모리에 저장할 수 있다.
단계 3320에서, 모바일 디바이스(1000)는 카메라(1200)를 통해서 적어도 하나의 전자 기기의 영상을 획득한다. 모바일 디바이스(1000)는 카메라(1200)를 이용하여 영상을 촬영하고, 촬영된 영상에 포함된 전자 기기의 영상을 획득할 수 있다. 모바일 디바이스(1000)는 카메라(1200)를 통해 입력되는 영상을 분석하여 전자 기기가 포함되어 있는지 판단할 수 있다.
단계 3330에서, 모바일 디바이스(1000)는 획득된 영상 내에 포함된 전자 기기의 식별 정보를 추출한다. 단계 3340에서, 모바일 디바이스(1000)는 저장된 식별 정보를 탐색하여 추출된 식별 정보에 대응하는 전자 기기를 선택한다. 모바일 디바이스(1000)는 추출된 식별 정보와 저장된 식별 정보를 비교한다. 추출된 식별 정보에 대응하는 식별 정보가 메모리에 존재하는 경우, 모바일 디바이스(1000)는 추출된 식별 정보에 상응하는 전자 기기를 페어링할 전자 기기로 선택한다. 예를 들어, 추출된 식별 정보가 TV(240)의 식별 정보와 대응되는 경우, 모바일 디바이스(1000)는 TV(240)를 페어링할 전자 기기로 선택한다.
단계 3350에서, 모바일 디바이스(1000)는 선택된 전자 기기에 대해 저장된 기기 정보를 이용하여 선택된 전자 기기와 페어링한다.
도 34는 모바일 디바이스가 객체를 인식하여 관련 기능을 제공하는 방법을 설명하기 위한 도면이다. 도 34를 참조하면, 모바일 디바이스(1000)는 인물(3410), 펜(3420) 및 지우개(3430) 등을 식별하고, 식별된 객체와 관련된 기능을 제공할 수 있다.
모바일 디바이스(1000)는 입력된 영상을 분석하여 영상에 포함된 객체를 식별할 수 있다. 영상에는 복수의 객체들이 포함될 수 있다. 모바일 디바이스(1000)는 복수의 객체들의 특징을 추출하고, 추출된 특징에 객체의 종류를 식별할 수 있다. 예를 들어, 모바일 디바이스(1000)는 객체가 인물(3410), 펜(3420), 지우개(3430) 등을 식별할 수 있다.
모바일 디바이스(1000)는 식별된 객체와 동일한 객체가 등록되어 있는지 판단한다. 모바일 디바이스(1000)는 식별된 객체의 특징과 미리 저장된 객체들의 특징을 비교하여 일치하는 특징을 포함하는 객체를 탐색한다.
모바일 디바이스(1000)는 식별된 객체에 대해 설정된 기능을 제공한다. 모바일 디바이스(1000)는 미리 객체들에 대한 기능을 설정할 수 있다. 예를 들어, 모바일 디바이스(1000)는 인물(3410)에 대해서는 전화 연결 기능을 등록하거나, 메신저 실행 기능을 등록할 수 있다.
모바일 디바이스(1000)는 사물에 대해서는 사물과 관련된 기능을 제공할 수 있다. 예를 들어, 모바일 디바이스(1000)는 펜(3420)에 대해서는 '노트' 기능을 등록할 수 있다. 모바일 디바이스(1000)는 지우개(3430)에 대해서는 '삭제' 기능을 등록할 수 있다.
모바일 디바이스(1000)는 복수의 객체들이 식별되면, 어느 객체에 대한 기능을 실행할 것인지를 사용자로부터 입력 받을 수 있다. 모바일 디바이스(1000)는 식별된 객체들을 표시하고, 사용자로부터 입력을 수신하여, 어느 하나의 객체를 선택할 수 있다.
모바일 디바이스(1000)는 식별된 객체와 관련된 기능을 제공한다. 예를 들어, 식별된 객체가 특정 인물(3410)인 경우, 모바일 디바이스(1000)는 인물(3410)에 전화를 걸 수 있다. 또한, 식별된 객체가 펜(3420)인 경우, 모바일 디바이스(1000)는 '노트' 기능을 실행할 수 있다.
도 35는 일 실시 예에 따른 모바일 디바이스가 식별된 인물에게 전화를 연결하는 과정을 설명하기 위한 도면이다. 도 35를 참조하면, 모바일 디바이스(1000)는 인물(3410)을 식별하고, 식별된 인물에 대해 등록된 번호로 전화를 건다.
모바일 디바이스(1000)는 카메라(1200)를 통해서 촬영된 영상에 포함된 인물(3410)을 식별한다. 모바일 디바이스(1000)는 식별된 인물(3410)이 등록된 인물인지를 확인한다. 만약, 등록된 인물이라면, 모바일 디바이스(1000)는 등록된 인물에 대해 등록된 기능을 실행한다. 도 35의 경우, 인물(3410)에 대해 등록된 기능은 '전화 연결' 기능이다. 모바일 디바이스(1000)는 인물(3410)에 대해 등록된 전화 번호는 010-777-7777이다. 따라서, 모바일 디바이스(1000)는 010-777-7777로 전화를 건다.
도 36는 일 실시 예에 따른 모바일 디바이스가 식별된 인물에게 메시지를 전송하는 과정을 설명하기 위한 도면이다. 도 36를 참조하면, 모바일 디바이스(1000)는 인물(3410)을 식별하고, 식별된 인물에 대해 메시지를 전송한다.
모바일 디바이스(1000)는 카메라(1200)를 통해서 촬영된 영상에 포함된 인물(3410)을 식별한다. 모바일 디바이스(1000)는 식별된 인물(3410)이 등록된 인물인지를 확인한다. 만약, 등록된 인물이라면, 모바일 디바이스(1000)는 등록된 인물에 대해 등록된 기능을 실행한다. 도 36의 경우, 인물(3410)에 대해 등록된 기능은 '메신저 실행' 기능이다. 모바일 디바이스(1000)는 인물(3410)에 대해 메신저를 실행하여 인물(3410)에게 메시지를 보내기 위한 화면을 표시한다. 또는, 모바일 디바이스(1000)는 인물(3410)에게 문자를 보내지 위한 화면을 표시할 수도 있다.
도 37은 일 실시 예에 따른 모바일 디바이스가 식별된 인물에 대응하는 어플리케이션을 실행하는 과정을 설명하기 위한 도면이다. 도 37을 참조하면, 모바일 디바이스(1000)는 인물(3410)을 식별하고, 식별된 인물(3410)에 대응하는 어플리케이션(3810, 3820)을 실행한다.
모바일 디바이스(1000)는 카메라(1200)를 통해서 촬영된 영상에 포함된 인물(3410)을 식별한다. 모바일 디바이스(1000)는 식별된 인물(3410)이 등록된 인물인지를 확인한다. 만약, 등록된 인물이라면, 모바일 디바이스(1000)는 등록된 인물에 대해 등록된 기능을 실행한다. 도 37의 경우, 인물(3410)에 대해 등록된 기능은 '어플리케이션 실행' 기능이다. 모바일 디바이스(1000)는 인물(3410)에 대해 등록된 어플리케이션을 실행하여 한다. 한 명의 인물(3410)에 대해 복수의 어플리케이션들(3710, 3720)이 등록되어 있는 경우, 도 37에 도시된 바와 같이, 모바일 디바이스(1000)는 제1 및 제2 어플리케이션들(3710, 3720)을 표시할 수 있다.
모바일 디바이스(1000)는 복수의 어플리케이션들(3710, 3720)이 등록되어 있으면, 어느 어플리케이션을 실행할 것인지를 사용자로부터 입력 받을 수 있다. 모바일 디바이스(1000)는 등록된 어플리케이션들(3710, 3720)을 표시하고, 사용자로부터 입력을 수신하여, 어느 하나의 어플리케이션을 선택할 수 있다.
도 38는 일 실시 예에 따른 모바일 디바이스가 식별된 객체에 대해 등록된 기능을 수행하는 방법을 설명하는 순서도이다. 도 38을 참조하면, 모바일 디바이스(1000)는 객체를 식별하고, 식별된 객체에 대해 등록된 기능을 제공할 수 있다.
단계 3810에서, 모바일 디바이스(1000)는 입력된 영상을 분석하여 영상에 포함된 객체를 식별할 수 있다. 영상에는 복수의 객체들이 포함될 수 있다. 모바일 디바이스(1000)는 복수의 객체들의 특징을 추출하고, 추출된 특징에 따라 객체의 종류를 식별할 수 있다.
단계 3820에서, 모바일 디바이스(1000)는 식별된 객체와 동일한 객체가 등록되어 있는지 판단한다. 모바일 디바이스(1000)는 식별된 객체의 특징과 미리 저장된 객체들의 특징을 비교하여 일치하는 특징을 포함하는 객체를 탐색한다.
단계 3830에서, 모바일 디바이스(1000)는 식별된 객체에 대해 설정된 기능을 제공한다. 모바일 디바이스(1000)는 미리 객체들에 대한 기능을 설정할 수 있다. 예를 들어, 모바일 디바이스(1000)는 인물(3410)에 대해서는 '전화 연결' 기능을 등록하거나, '메신저 실행' 기능을 등록할 수 있다.
모바일 디바이스(1000)는 사물에 대해서는 사물과 관련된 기능을 제공할 수 있다. 예를 들어, 모바일 디바이스(1000)는 펜(3420)에 대해서는 '노트' 기능을 등록할 수 있다.
모바일 디바이스(1000)는 복수의 객체들이 식별되면, 어느 객체에 대한 기능을 실행할 것인지를 사용자로부터 입력 받을 수 있다. 모바일 디바이스(1000)는 식별된 객체들을 표시하고, 사용자로부터 입력을 수신하여, 어느 하나의 객체를 선택할 수 있다.
모바일 디바이스(1000)는 식별된 객체와 관련된 기능을 제공한다. 예를 들어, 식별된 객체가 특정 인물(3410)인 경우, 모바일 디바이스(1000)는 인물(3410)에 전화를 걸 수 있다. 또한, 식별된 객체가 펜(3420)인 경우, 모바일 디바이스(1000)는 노트 기능을 실행할 수 있다.
도 39는 일 실시 예에 따른 모바일 디바이스가 레거시 디바이스를 제어하는 방법을 설명하기 위한 도면이다. 도 39를 참조하면, 모바일 디바이스(1000)는 패치(3903)(patch)와 페어링을 하고 패치(3903)를 통해 레거시 디바이스(3901)를 제어할 수 있다. 레거시 디바이스(3901)는 통신 기능이 없는 기존의 구형 전자 기기로 모바일 디바이스와 직접 통신으로 연결될 수 없다. 예컨대 레거시 디바이스(3901)는 적외선 통신 기능만 있는 에어컨일 수 있다.
패치(3903)는 레거시 디바이스(3901)에 부착되는 전자 기기로 통신 중계기의 기능을 수행할 수 있다. 패치(3903)는 모바일 디바이스(1000)와 제1 포맷의 통신 방식으로 통신을 하고, 레거시 디바이스(3901)와 제2 포맷의 통신 방식으로 통신을 할 수 있다. 예컨대 패치(3903)는 모바일 디바이스(1000)와는 와이파이로 통신을 하고, 레거시 디바이스(3901)와는 적외선 방식으로 통신을 수행할 수 있다.
패치(3903)가 모바일 디바이스(1000)와 페어링 되는 경우, 모바일 디바이스(1000)의 디스플레이부(1400)에는 레거시 디바이스(3901)를 제어할 수 있는 화면이 표시될 수 있다.
패치(3903)에는 레거시 디바이스(3901)를 제어할 수 있는 제어 데이터(control data)가 저장될 수 있다. 상기 제어 데이터는 모바일 디바이스로부터 수신될 수 있다. 모바일 디바이스가 레거시 디바이스(3901)를 제어할 수 있는 제어 데이터를 획득하는 과정은 모바일 디바이스가 전자기기를 식별하는 과정과 동일하다.
모바일 디바이스는 식별된 전자기기가 레거시 디바이스(3901)로 판단되는 경우, 레거시 디바이스(3901)에 부착된 패치(3903)로 레거시 디바이스(3901)를 제어할 수 있는 제어 데이터를 전송할 수 있다. 모바일 디바이스에는 레거시 디바이스(3901)을 제어할 수 있는 화면이 표시될 수 있다.
도 39는 디스플레이부(1400)에 레거시 디바이스(3901)의 온도 및 바람 세기가 표시된 경우를 도시하고 있다. 사용자는 모바일 디바이스(1000)의 디스플레이부에 표시된 가상의 버튼을 이용하여 레거시 디바이스(3901)를 제어할 수 있다.
예를 들면, 모바일 디바이스(1000)는 패치(3903)를 제어한다. 모바일 디바이스(1000)는 바람의 세기를 변경하거나 온도를 변경하는 사용자 입력을 수신하고, 수신된 입력에 따라 패치(3903)로 제어 데이터를 전송한다. 패치(3903)는 에어컨을 제어한다.
도 40은 일 실시 예에 따른 글래스가 전자 기기들을 제어하는 방법을 설명하기 위한 도면이다. 도 40을 참조하면, 글래스(5000)는 TV(6000)와 스마트폰(7000)이 서로 페어링하도록 TV(6000)와 스마트폰(7000)을 제어할 수 있다. 또한, 스마트폰(7000)은 TV(6000)를 통해 사용자가 감상하는 컨텐츠를 연계하여 재생(play contents seamless)할 수 있다.
글래스(5000)는 TV(6000)와 스마트폰(7000)이 서로 페어링하도록 TV(6000)와 스마트폰(7000)을 제어한다. 글래스(5000)는 글래스(5000)를 착용하고 있는 사용자의 시선을 추적하여 페어링할 전자 기기들을 결정할 수 있다. 예를 들어, 글래스(5000)가 사용자가 TV(6000)와 스마트폰(7000)을 차례로 응시하는 것을 감지하면, 글래스(5000)는 TV(6000)와 스마트폰(7000)이 서로 페어링하도록 제어한다. TV(6000)와 스마트폰(7000)이 서로 페어링 한다는 것은 TV(6000)와 스마트폰(7000)이 유선 또는 무선으로 연결되어 데이터를 송수신 하는 것을 의미한다.
글래스(5000)는 사용자의 시선을 추적할 수 있다. 글래스(5000)는 사용자의 눈동자를 추적하거나 동공의 변화를 감지할 수 있다. 따라서, 글래스(5000)는 사용자가 특정 방향을 주시하고 있는 것을 감지하고, 특정 방향에 위치한 전자 기기를 페어링할 전자 기기로 결정할 수 있다.
글래스(5000)는 사용자의 홍채를 인식할 수 있다. 글래스(5000)는 사용자의 홍채의 특징점을 추출하여 글래스(5000)를 착용하고 있는 사용자가 누구인지를 식별할 수 있다. 또한, 글래스(5000)는 인식된 홍채 정보를 TV(6000) 또는 스마트폰(7000)으로 전송하여 사용자 인증을 수행할 수도 있다. 따라서, 글래스(5000), TV(6000) 및 스마트폰(7000)에 등록된 사용자만이 글래스(5000), TV(6000) 및 스마트폰(7000)을 제어할 권한을 가질 수 있다.
TV(6000)는 글래스(5000)로부터 수신된 홍채 정보와 TV(6000)에 저장된 홍채 정보가 동일한 경우, 글래스(5000)로 TV(6000)의 기기 정보를 전송할 수 있다. 글래스(5000)는 수신된 기기 정보를 이용하여 TV(6000)와 페어링할 수 있다.
스마트폰(7000)은 글래스(5000)로부터 수신된 홍채 정보와 스마트폰(7000)에 저장된 홍채 정보가 동일한 경우, 글래스(5000)로 스마트폰(7000)의 기기 정보를 전송할 수 있다. 글래스(5000)는 수신된 기기 정보를 이용하여 스마트폰(7000)과 페어링할 수 있다.
사용자가 TV(6000)를 시청하다가 스마트폰(7000)을 응시하는 경우, 글래스(5000)는 스마트폰(7000)이 TV(6000)에서 재생중인 컨텐츠를 연계하여 재생하도록 스마트폰(7000)을 제어할 수 있다. 글래스(5000)는 스마트폰(7000)으로 TV(6000)에서 재생중인 컨텐츠에 대한 정보를 전송할 수 있다. 스마트폰(7000)은 TV(6000)로부터 컨텐츠를 수신하여 재생하거나, TV(6000)에서 재생중인 컨텐츠와 동일한 컨텐츠를 저장하고 있다면, 저장된 컨텐츠를 재생할 수 있다. 스마트폰(7000)은 TV(6000)로부터 북마크 정보를 수신할 수 있다. 북마크 정보는 TV(6000)에서 컨텐츠의 재생 시점을 나타내는 정보이다. 스마트폰(7000)은 TV(6000)로부터 북마크 정보를 수신하면, 북마크 정보에 따라 컨텐츠의 재생 위치를 결정할 수 있다. 따라서, 스마트폰(7000)은 TV(6000)에서 재생중인 컨텐츠를 연계하여 재생할 수 있다.
도 41은 일 실시 예에 따른 컨텐츠를 연계 재생하는 방법을 설명하기 위한 흐름도이다. 도 41을 참조하면, 스마트폰(7000)은 TV(6000)에서 재생중인 컨텐츠를 연계하여 재생할 수 있다.
단계 4101에서, 글래스(5000)는 사용자의 시선을 추적하고, 페어링할 전자 기기를 결정한다. 글래스(5000)는 사용자의 시선이 어느 방향인지 추적하고, 동공의 크기가 어떻게 변하는지를 추적할 수 있다. 글래스(5000)는 시선 또는 동공의 변화를 통해 사용자가 바라보는 방향을 결정할 수 있다. 글래스(5000)는 사용자가 바라보는 방향에 위치한 전자 기기를 페어링할 전자 기기로 결정할 수 있다. 도 41에서는 글래스(5000)가 TV(6000)를 페어링할 전자 기기로 결정한 경우를 예를 들어 설명한다.
단계 4102에서, 글래스(5000)는 사용자의 홍채를 인식한다. 글래스(5000)는 사용자의 홍채의 특징점을 추출한다.
단계 4103에서, 글래스(5000)는 사용자의 홍채를 통해 사용자 인증을 수행한다. 사용자 인증은 글래스(5000)를 착용한 사용자가 TV(6000)를 제어할 정당한 권한이 있는지 여부를 판단하는 과정이다. 글래스(5000)는 추출된 홍채의 특징점을 TV(6000)로 전송하고, TV(6000)는 저장된 홍채의 특징점과 수신된 홍채의 특징점을 비교하여 사용자 인증을 수행한다. 사용자 인증이 완료되면, 글래스(5000)와 TV(6000)는 데이터를 서로 송수신하거나, 글래스(5000)가 TV(6000)를 제어할 수 있다.
단계 4104에서, TV(6000)는 사용자의 이용 정보를 저장한다. TV(6000)는 사용자가 재생하는 컨텐츠에 대한 정보를 저장할 수 있다. 컨텐츠에 대한 정보는 컨텐츠 명칭, 컨텐츠의 재생 시점 등을 포함한다. TV(6000)는 사용자별로 이용 정보를 저장할 수 있다. 따라서, 글래스(5000)의 사용자가 변경되면, TV(6000)는 변경된 사용자에 대한 이용 정보를 별도의 메모리에 저장할 수 있다.
단계 4105에서, 글래스(5000)는 사용자의 시선을 추적하고, 페어링할 전자 기기를 결정한다. 글래스(5000)는 사용자의 시선이 어느 방향인지 추적하고, 동공의 크기가 어떻게 변하는지를 추적할 수 있다. 도 41에서는 글래스(5000)가 TV(6000)에서 스마트폰(7000)으로 시선의 방향이 변경된 경우를 예를 들어 설명한다. 글래스(5000)의 사용자가 스마트폰(7000)을 응시하므로, 글래스(5000)는 스마트폰(7000)을 페어링할 전자 기기로 결정한다.
단계 4106에서, 글래스(5000)는 사용자의 홍채를 인식한다. 글래스(5000)는 사용자의 홍채의 특징점을 추출한다.
단계 4107에서, 글래스(5000)는 사용자의 홍채를 통해 사용자 인증을 수행한다. 글래스(5000)는 추출된 홍채의 특징점을 스마트폰(7000)으로 전송하고, 스마트폰(7000)은 저장된 홍채의 특징점과 수신된 홍채의 특징점을 비교하여 사용자 인증을 수행한다. 사용자 인증이 완료되면, 글래스(5000)와 스마트폰(7000)은 데이터를 서로 송수신하거나, 글래스(5000)가 스마트폰(7000)을 제어할 수 있다.
단계 4108에서, 글래스(5000)는 이전 전자 기기에 대한 정보를 스마트폰(7000)으로 전송한다. 이전 전자 기기는 글래스(5000)와 가장 최근에 페어링한 전자 기기일 수 있다. 이전 기기에 대한 정보는 이전 기기가 무엇인지, 이전 전자 기기와 페어링하기 위한 정보 또는 이전 기기가 재생중인 컨텐츠에 대한 정보를 포함할 수 있다. 도 41에서 이전 전자 기기는 TV(6000)가 된다. 따라서, 글래스(5000)는 TV(6000)에 대한 정보를 스마트폰(7000)으로 전송한다.
단계 4109에서, 스마트폰(7000)은 TV(6000)와 페어링을 수행한다. 스마트폰(7000)은 글래스(5000)로부터 수신된 TV(6000)에 대한 정보를 기초로, TV(6000)와 페어링을 수행할 수 있다. 스마트폰(7000)은 TV(6000)에 컨텐츠 전송을 요청한다.
단계 4110에서, TV(6000)는 재생중인 컨텐츠 또는 가장 최근에 재생했던 컨텐츠를 스마트폰(7000)으로 전송할 수 있다. 또한, TV(6000)는 컨텐츠의 재생 시점을 나타내는 북마크 정보를 컨텐츠와 함께 스마트폰(7000)으로 전송할 수 있다.
단계 4111에서, 스마트폰(7000)은 전송된 컨텐츠를 재생한다. 스마트폰(7000)은 컨텐츠를 재생할 때, 북마크 정보에 따라 컨텐츠의 재생 시점을 결정할 수 있다. 스마트폰(7000)은 재생 시점에 따라 컨텐츠를 재생한다. 따라서, 스마트폰(7000)은 TV(6000)에서 재생중인 컨텐츠를 연계하여 재생할 수 있다.
도 42는 일 실시 예에 따른 컨텐츠를 연계 재생하는 방법을 설명하기 위한 흐름도이다. 도 42는 스마트폰(7000)이 컨텐츠를 저장하고 있는 경우 컨텐츠를 재생하는 방법을 설명하기 위한 도면이다. 스마트폰(7000)이 컨텐츠를 저장하고 있으므로, 스마트폰(7000)은 TV(6000)로부터 컨텐츠를 전송받을 필요가 없으며, 스마트폰(7000)는 컨텐츠에 대한 정보에 기초하여 컨텐츠를 재생할 수 있다.
단계 4201 내지 단계 4207은 도 41의 단계 4101 내지 단계 4107에 대한 설명이 동일하게 적용된다.
단계 4208에서, 글래스(5000)는 사용자의 이용 정보 및 컨텐츠 정보를 스마트폰(7000)으로 전송한다. TV(6000)에서 재생중인 컨텐츠는 스마트폰(7000)에도 저장되어 있으므로, 글래스(5000)는 TV(6000)에서 재생중인 컨텐츠를 스마트폰(7000)으로 전송할 필요가 없다. 따라서, 글래스(5000)는 TV(6000)에서 재생중인 컨텐츠가 무엇인지, 컨텐츠가 재생중인 시점을 나타내는 컨텐츠 정보를 스마트폰(7000)으로 전송한다.
단계 4209에서, 스마트폰(7000)은 저장된 컨텐츠를 재생한다. 스마트폰(7000)은 컨텐츠의 재생 시점에 따라 컨텐츠를 재생한다. 따라서, 스마트폰(7000)은 글래스(5000)의 제어에 따라 TV(6000)에서 재생중인 컨텐츠를 연계하여 재생할 수 있다.
도 43은 일 실시 예에 따른 전자 기기를 설명하기 위한 구성도이다. 도 43을 참조하면, 전자 기기(8000)는 통신부(8100), 메모리(8200), 표시 장치(8300) 및 프로세서(8400)를 포함한다.
통신부(8100)는 글래스(5000)를 착용하고 있는 사용자의 홍채 정보를 글래스(5000)로부터 수신하고, 글래스(5000)로부터 사용자가 이용한 이전 전자 기기에 대한 기기 정보를 수신한다. 예를 들어, 홍채 정보는 사용자의 홍채의 특징점을 추출한 정보일 수 있다.
통신부(8100)는 이전 기기로부터 컨텐츠 및 컨텐츠에 대한 북마크 정보를 수신한다. 컨텐츠는 음악, 영화, 드라마 등의 미디어 파일일 수 있으며, 텍스트 파일, 이미지 파일 등일 수도 있다.
메모리(8200)는 적어도 한 명의 사용자에 대한 홍채 정보를 저장한다.
프로세서(8400)는 수신된 홍채 정보와 저장된 홍채 정보를 비교하여 글래스(5000)를 착용하고 있는 사용자를 식별하고, 기기 정보를 이용하여 이전 전자 기기와 페어링을 수행한다. 수신된 홍채 정보는 글래스(5000)를 착용하고 있는 사용자의 홍채 정보이고, 저장된 홍채 정보는 전자 기기(8000)의 메모리(8200)에 미리 저장된 사용자별 홍채 정보를 의미한다. 프로세서(8400)는 수신된 홍채 정보와 저장된 홍채 정보의 유사도를 판단하고, 유사도가 설정된 임계값 이상인 경우 수신된 홍채 정보와 저장된 홍채 정보가 일치한다고 판단할 수 있다. 프로세서(8400)는 수신된 홍채 정보와 저장된 홍채 정보가 일치한 경우에만 글래스(5000) 또는 다른 전자 기기와 페어링을 수행할 수 있다.
프로세서(8400)는 북마크 정보에 따라 컨텐츠의 재생 시점을 결정하고, 표시 장치(8300)가 재생 시점부터 컨텐츠를 재생하도록 제어한다. 북마크 정보는 컨텐츠의 재생 시점을 나타낸다. 프로세서(8400)는 사용자마다 북마크 정보를 구분하고, 인증된 사용자에 대한 북마크 정보를 이용하여 컨텐츠의 재생 시점을 결정한다.
프로세서(8400)는 북마크 정보에 따라 메모리(8200)에 저장된 컨텐츠의 재생 시점을 결정하고, 표시 장치(8300)가 컨텐츠를 재생하도록 제어한다.
표시 장치(8300)는 프로세서(8400)의 제어에 따라, 이전 전자 기기에서 재생 중인 컨텐츠를 재생한다.
도 44는 일 실시 예에 따른 연계 재생 방법을 설명하기 위한 도면이다. 도 44를 참조하면, TV(6000)와 스마트폰(7000)은 컨텐츠를 연계하여 재생할 수 있다.
글래스(5000)는 사용자의 시선을 추적하여, 사용자가 응시하는 전자 기기를 결정할 수 있으며, 글래스(5000)는 사용자의 시선이 변하면 다시 사용자가 응시하는 전자 기기를 결정한다. 예를 들어, 사용자가 제1 전자 기기를 통해 컨텐츠를 감상하다가, 제2 전자 기기를 응시하면, 제2 전자 기기는 제1 전자 기기에서 재생되는 컨텐츠를 연계하여 재생한다.
도 44는 사용자A가 TV(6000)를 통해 영상을 감상하던 중, 사용자A가 스마트폰(7000)을 응시하는 경우, 스마트폰(7000)이 TV(6000)에서 재생중인 영상을 연계하여 재생하는 방법을 설명한다. TV(6000)는 영상을 재생하면서, 사용자A에 대한 북마크A를 저장한다. 영상이 재생됨에 따라 북마크A는 업데이트된다. 사용자A가 스마트폰(7000)을 응시하면, 글래스(5000)는 사용자의 시선을 추적하여 사용자A가 응시하고 있는 전자 기기를 결정한다. 글래스(5000)는 TV(6000)에서 재생중인 영상을 연계하여 재생하도록 스마트폰(7000)을 제어한다. 스마트폰(7000)은 글래스(5000) 또는 TV(6000)로부터 영상에 관한 정보를 수신한다. 스마트폰(7000)은 수신된 정보에 기초하여 영상을 재생하되, 북마크A의 위치에서 영상을 재생한다. 북마크A는 TV(6000) 또는 글래스(5000)로부터 수신된다. 따라서, 스마트폰(7000)은 북마크A의 시점부터 영상을 재생함으로써, 사용자는 TV(6000)에서 감상중인 영상을 스마트폰(7000)에서 연계하여 감상할 수 있다.
도 45는 사용자가 복수인 경우, 사용자별 북마크 정보를 활용하는 실시 예를 설명하기 위한 도면이다. 도 45를 참조하면, 글래스(5000)를 사용자B가 착용한 경우, TV(6000)는 사용자B에 대한 북마크B를 저장 및 업데이트한다. 스마트폰(7000)이 영상을 연계하여 재생할 경우, 스마트폰(7000)은 TV(6000)로 사용자B에 대한 북마크 및 영상을 요청한다. TV(6000)는 스마트폰(7000)으로 북마크B를 전송한다. 스마트폰(7000)은 수신된 북마크B에 따라 영상을 재생한다. 따라서, 스마트폰(7000)은 사용자B가 시청중인 영상을 연계하여 재생할 수 있다.
도 46은 일 실시 예에 따른 글래스를 설명하기 위한 구성도이다. 도 46을 참조하면, 글래스(5000)는 눈동자 추적 카메라(5100), 메모리(5200) 및 프로세서(5300)를 포함한다.
눈동자 추적 카메라(5100)는 글래스(5000)를 착용하고 있는 사용자의 눈을 촬영한다. 눈동자 추적 카메라(5100)는 촬영된 영상을 프로세서(5300)로 전송한다.
메모리(5200)는 적어도 하나의 기기 정보를 저장한다.
프로세서(5300)는 촬영된 영상을 통해, 사용자의 시선을 추적하고, 홍채의 특징점을 추출한다. 프로세서(5300)는 촬영된 영상을 분석하여 사용자의 동공의 변화를 감지할 수 있다. 또한, 프로세서(5300)는 촬영된 영상을 분석하여, 홍채의 특징점을 추출할 수 있다.
프로세서(5300)는 사용자의 시선에 따라 페어링할 제1 및 제2 전자 기기들을 결정한다. 제1 전자 기기는 글래스(5000)의 제어에 따라 컨텐츠를 재생하고 있는 전자 기기이고, 제2 전자 기기는 제1 전자 기기에서 재생중인 컨텐츠를 연계하여 재생할 전자 기기이다. 다시 말해서, 제1 전자 기기와 제2 전자 기기는 사용자가 글래스(5000)를 착용하고 순차적으로 응시한 전자 기기들이다.
프로세서(5300)는 글래스(5000)를 착용하고 있는 사용자의 홍채의 특징점을 통해 제1 및 제2 전자 기기들과 인증을 수행한다. 프로세서(5300)는 글래스(5000)를 착용한 사용자가 제1 및 제2 전자 기기들을 제어할 권한이 있는지 확인하기 위해, 홍채 인증을 수행한다. 프로세서(5300)는 홍채의 특징점을 제1 및 제2 전자 기기들로 전송하여 홍채 인증을 수행할 수 있다.
프로세서(5300)는 제1 및 제2 전자 기기들이 서로 페어링하도록 제1 및 제2 전자 기기들을 제어한다. 프로세서(5300)는 제1 전자 기기가 재생중인 컨텐츠를 제2 전자 기기가 연계하여 재생하도록 제1 및 제2 전자 기기들을 제어한다. 프로세서(5300)는 제1 전자 기기에 제2 전자 기기에 대한 기기 정보를 전송할 수 있다. 또한, 프로세서(5300)는 제2 전자 기기에 제1 전자 기기에 대한 기기 정보를 전송할 수도 있다.
도 47은 일 실시 예에 따른 컨텐츠 연계 재생 방법을 설명하기 위한 순서도이다.
단계 4710에서, 전자 기기(8000)는 글래스(5000)를 착용하고 있는 사용자의 홍채 정보를 수신하여 사용자를 식별한다. 전자 기기(8000)는 사용자가 제어 권한을 갖는지를 판단하고, 글래스(5000)로 홍채 인증의 결과를 전송한다.
단계 4720에서, 전자 기기(8000)는 글래스(5000)로부터 사용자가 이용한 이전 전자 기기에 대한 기기 정보를 수신한다. 전자 기기(8000)는 인증에 성공한 경우, 사용자가 이전에 제어중인 이전 전자 기기에 대한 정보를 글래스(5000)에 요청할 수 있다.
단계 4730에서, 전자 기기(8000)는 기기 정보를 이용하여 이전 전자 기기와 페어링을 수행한다. 전자 기기(8000)는 이전 전자 기기의 기기 정보를 기초로 이전 전자 기기와 연결을 시도한다.
단계 4740에서, 전자 기기(8000)는 이전 전자 기기에서 재생 중인 컨텐츠를 재생한다. 전자 기기(8000)는 이전 전자 기기로부터 컨텐츠를 수신하고 수신된 컨텐츠를 재생할 수 있다. 또한, 이전 전자 기기에서 재생중인 컨텐츠와 동일한 컨텐츠가 전자 기기(8000)에 저장되어 있는 경우, 전자 기기(8000)는 저장된 컨텐츠를 재생할 수 있다.
도 48은 일 실시 예에 따른 전자 기기들의 페어링 방법을 설명하기 위한 순서도이다.
단계 4810에서, 글래스(5000)는 글래스를 착용하고 있는 사용자의 시선을 추적하여 페어링할 제1 전자 기기를 결정한다.
단계 4820에서, 글래스(5000)는 사용자의 홍채의 특징점을 이용하여 제1 전자 기기와 사용자 인증을 수행한다. 인증에 성공하면, 글래스(5000)는 제1 전자 기기를 제어한다. 예를 들어, 글래스(5000)는 제1 전자 기기가 동영상 또는 음악을 재생하도록 제어할 수 있다.
단계 4830에서, 글래스(5000)는 사용자의 시선의 변화를 추적하여 페어링할 제2 전자 기기를 결정한다. 제2 전자 기기는 제1 전자 기기와 다른 전자 기기이며, 제1 전자 기기와 동일한 네트워크에 연결될 수 있다.
단계 4840에서, 글래스(5000)는 사용자의 홍채의 특징점을 이용하여 제2 전자 기기와 사용자 인증을 수행한다. 인증에 성공하면, 글래스(5000)는 제2 전자 기기를 제어한다.
단계 4850에서, 글래스(5000)는 제1 전자 기기와 제2 전자 기기가 서로 페어링하도록 제1 전자 기기 및 상기 제2 전자 기기를 제어한다. 글래스(5000)는 제2 전자 기기로 제1 전자 기기의 기기 정보를 전송할 수 있다. 제2 전자 기기는 제1 전자 기기의 기기 정보를 이용하여 제1 전자 기기와 페어링을 시도할 수 있다.
도 49는 일 실시 예에 따른 페어링 및 컨텐츠 연계 재생 방법을 설명하기 위한 개요도이다. 도 49를 참조하면, 스마트폰(7000) 사용자의 홍채 인식 및 시선 추적을 이용하여 TV(6000)와 페어링할 수 있고, 스마트폰(7000)은 TV(6000)로 컨텐츠를 전송할 수 있다. 또한, TV(6000)는 사용자의 홍채 인식 및 시선 추적을 이용하여 스마트폰(7000)과 페어링할 수 있고, TV(6000)는 스마트폰(7000)에서 재생중인 컨텐츠를 연계하여 재생할 수 있다. 스마트폰(7000)은 사용자의 홍채 인식을 통해 사용자를 식별할 수 있다. 스마트폰(7000)은 카메라 등과 같은 홍채 인식 장치를 포함할 수 있으며, 카메라를 통해 사용자의 홍채를 인식할 수 있다. 스마트폰(7000)은 카메라에 의해 촬영된 이미지를 분석하여 사용자의 홍채 이미지를 추출할 수 있다. 스마트폰(7000)은 추출된 홍채 이미지와 저장된 홍채 이미지를 비교하여 사용자를 식별할 수 있다. 스마트폰(7000)은 사용자별 홍채 이미지를 저장할 수 있다.
스마트폰(7000)은 사용자의 시선을 추적할 수 있다. 스마트폰(7000)은 카메라에 의해 촬영된 영상의 변화를 통해 사용자의 시선을 추적할 수 있다. 스마트폰(7000)은 시선 추적을 통해 사용자가 바라보는 방향을 결정할 수 있고, 사용자가 바라보는 방향에 위치한 전자 기기를 페어링할 전자 기기로 결정할 수 있다. 예를 들어, 사용자가 TV(6000)를 바라보는 경우, 스마트폰(7000)은 TV(6000)를 페어링할 전자 기기로 결정할 수 있다.
TV(6000)는 사용자의 홍채 인식을 통해 사용자를 식별할 수 있다. TV(6000)는 카메라 등과 같은 홍채 인식 장치를 포함할 수 있으며, 카메라를 통해 사용자의 홍채를 인식할 수 있다. TV(6000)는 카메라에 의해 촬영된 이미지를 분석하여 사용자의 홍채 이미지를 추출할 수 있다. TV(6000)는 추출된 홍채 이미지와 저장된 홍채 이미지를 비교하여 사용자를 식별할 수 있다. TV(6000)는 사용자별 홍채 이미지를 저장할 수 있다.
TV(6000)는 사용자의 시선을 추적할 수 있다. TV(6000)는 카메라에 의해 촬영된 영상을 사용자의 시선을 추적할 수 있다. TV(6000)는 시선 추적을 통해 사용자가 TV(6000)를 바라보는지 결정할 수 있고, 사용자가 TV(6000)를 바라보는 경우, TV(6000)는 홍채 인증을 수행할 수 있다.
또한, TV(6000)는 사용자가 이전에 이용한 전자 기기를 결정할 수 있다. TV(6000)는 주변 전자 기기로 식별된 사용자 정보를 전송하고, 주변 전자 기기들 중에서 식별된 사용자를 인증한 전자 기기로부터 페어링하기 위한 데이터를 수신할 수 있다.
TV(6000)는 주변 전자 기기로부터 수신된 데이터를 이용하여 주변 전자 기기와 페어링할 수 있다. 예를 들어, TV(6000)는 주변 전자 기기로부터 MAC address 및 device ID를 수신하여, 주변 전자 기기와 페어링할 수 있다. 예를 들어, 사용자가 TV(6000)를 바라보는 경우, TV(6000)는 주변 전자 기기로 사용자 정보 또는 연결 정보를 브로드캐스팅할 수 있다. TV(6000)는 스마트폰(7000)으로부터 기기 정보를 수신할 수 있으며, 수신된 기기 정보에 기초하여 스마트폰(7000)과 페어링할 수 있다.
도 50은 스마트폰이 TV와 페어링하고, 스마트폰이 TV로 컨텐츠를 전송하는 방법을 설명하기 위한 흐름도이다. 도 50을 참조하면, 스마트폰(7000)은 사용자의 시선을 추적하여 TV(6000)로 컨텐츠를 전송할 수 있다.
단계 5010에서, 스마트폰(7000)은 사용자의 홍채 인식 및 사용자 인증을 수행한다. 스마트폰(7000)은 카메라를 통해 사용자의 홍채를 인식할 수 있고, 인식된 홍채를 이용하여 사용자 인증을 수행한다.
단계 5020에서, 스마트폰(7000)은 컨텐츠를 재생한다. 스마트폰(7000)은 사용자의 입력에 따라 영화, 드라마, 음악 등을 재생할 수 있다.
단계 5030에서, 스마트폰(7000)은 사용자의 시선을 추적하고, 페어링할 전자 기기를 결정한다. 스마트폰(7000)은 카메라를 통해 사용자의 시선을 추적할 수 있다. 스마트폰(7000)은 시선 추적에 기초하여 사용자가 바라보는 전자 기기를 페어링할 전자 기기로 결정할 수 있다. 예를 들어, 스마트폰(7000)은 TV(6000)를 페어링할 전자 기기로 결정할 수 있다.
단계 5040에서, 스마트폰(7000)은 TV(6000)와 페어링을 수행한다. 스마트폰(7000)은 TV(6000)로 연결 정보 및 홍채 정보를 브로드캐스팅할 수 있다. TV(6000)도 사용자의 홍채를 인식하여 스마트폰(7000)에서 인증된 사용자와 동일한 사용자인지 확인할 수 있다.
단계 5050에서, 스마트폰(7000)은 TV(6000)로 컨텐츠를 전송한다. TV(6000)가 동일한 컨텐츠를 저장하고 있는 경우, 스마트폰(7000)은 컨텐츠에 대한 정보를 TV(6000)로 전송할 수 있다. 스마트폰(7000)은 재생 중인 컨텐츠에 대한 정보를 TV(6000)로 전송하고, TV(6000)로부터 컨텐츠의 저장 여부에 대한 정보를 수신할 수 있다. 스마트폰(7000)은 북마크 정보를 추가로 TV(6000)로 전송할 수 있다.
단계 5060에서, TV(6000)는 스마트폰(7000)으로부터 전송된 컨텐츠를 재생한다. TV(6000)는 수신된 북마크 정보에 기초하여 컨텐츠의 재생 시점을 결정할 수 있다.
따라서, 사용자는 스마트폰(7000) 및 TV(6000)를 통해 컨텐츠를 연계하여 시청할 수 있다.
도 51A 및 51B는 컨텐츠를 연계하여 재생할 전자 기기를 결정하는 방법을 설명하기 위한 개요도이다. 도 51A 및 51B를 참조하면, 스마트폰(7000)은 사용자의 시선을 추적하여, 컨텐츠를 연계하여 재생할 TV(6000)로 컨텐츠를 전송할 수 있다.
STEP1에서, 사용자가 스마트폰(7000)을 통해 컨텐츠를 시청 중, TV(6000)를 주시한다.
STEP2에서, 스마트폰(7000)은 컨텐츠 스트리밍 버튼을 표시한다. 사용자가 TV(6000)를 주시하고 있으므로, 스마트폰(7000)은 컨텐츠 스트리밍 버튼에 TV(6000)를 표시한다. 만약, 사용자가 주시한 방향에 복수의 전자 기기들이 있는 경우, 스마트폰(7000)는 복수의 전자 기기들을 나타내는 컨텐츠 스트리밍 버튼들을 표시할 수 있다. 스마트폰(7000)은 직접 사용자의 시선을 추적하여 버튼에 표시할 전자 기기를 결정하거나, 사용자의 시선을 감지한 전자 기기의 요청에 따라 사용자의 시선을 감지한 전자 기기를 버튼에 표시할 수 있다.
STEP3에서, 스마트폰(7000)은 사용자로부터 입력을 받는다. 사용자는 스마트폰(7000)에 표시된 버튼을 터치함으로써 컨텐츠를 스트리밍할 전자 기기를 선택할 수 있다.
STEP4에서, 스마트폰(7000)은 선택된 전자 기기로 컨텐츠를 스트리밍한다. 예를 들어, 스마트폰(7000)는 TV(6000)로 컨텐츠를 스트리밍할 수 있다.
도 52A 및 52B는 컨텐츠를 연계하여 재생할 전자 기기를 결정하는 방법을 설명하기 위한 개요도이다.
STEP1에서, 스마트폰(7000)은 버튼(7200)상에 사용자의 길게 누름(Long-press)를 감지한다. 사용자는 컨텐츠를 공유하기 위해 스마트폰(7000)의 터치 스크린 상에 표시된 버튼(7200)을 길게 터치할 수 있다.
STEP2에서, 스마트폰(7000)은 사용자가 버튼(7200)을 누르고 있는 동안 사용자의 시선을 추적한다. 사용자는 버튼(7200)을 누른 상태로 컨텐츠를 스트리밍하고자 하는 전자 기기를 주시한다. 예를 들어, 사용자는 스마트폰(7000)의 (7200)을 누른 상태로 TV(6000)를 주시할 수 있다. 또는, 스마트폰(7000)는 사용자가 버튼(7200)을 누른 상태를 유지하는 경우, 주변 기기들이 사용자의 시선을 감지하였는지 확인한다. 다시 말해서, 주변 기기들은 사용자의 시선을 감지하는 경우, 스마트폰(7000)으로 감지 결과를 전송할 수 있다.
STEP3에서, 스트리밍할 전자 기기가 TV(6000)로 결정되면, 스마트폰(7000)은 터치 스크린에 TV(6000)를 표시하고, 진동을 발생시켜 스트리밍할 전자 기기가 결정되었음을 사용자에게 알린다. 스마트폰(7000)은 진동뿐만 아니라, 음향, 이미지 등을 통해 사용자에게 피드백을 제공할 수 있다.
STEP4에서, 스마트폰(7000)은 버튼(7200)에 대한 사용자의 터치가 종료되면, 스마트폰(7000)은 TV(6000)로 컨텐츠를 스트리밍한다. TV(6000)는 스트리밍된 컨텐츠를 재생한다.
도 53은 스마트폰이 TV와 페어링하고, 스마트폰이 TV로 컨텐츠를 전송하는 방법을 설명하기 위한 흐름도이다. 도 53을 참조하면, TV(6000)는 사용자의 시선을 감지하고, 스마트폰(7000)으로부터 컨텐츠를 수신할 수 있다.
단계 5310에서, 스마트폰(7000)은 사용자의 홍채 인식 및 사용자 인증을 수행한다. 스마트폰(7000)은 카메라를 통해 사용자의 홍채를 인식할 수 있고, 인식된 홍채를 이용하여 사용자 인증을 수행한다.
단계 5320에서, 스마트폰(7000)은 컨텐츠를 재생한다. 스마트폰(7000)은 사용자의 입력에 따라 영화, 드라마, 음악 등을 재생할 수 있다.
단계 5330에서, TV(6000)는 사용자의 홍채 인식 및 사용자 인증을 수행한다. TV(6000)는 카메라를 통해 사용자의 홍채를 인식할 수 있고, 인식된 홍채를 이용하여 사용자 인증을 수행한다.
단계 5340에서, TV(6000)는 인식된 홍채 정보를 주변 전자 기기들로 브로드캐스팅할 수 있다. TV(6000)는 사용자가 이전에 사용한 전자 기기를 탐색한다.
단계 5350에서, 스마트폰(7000)은 TV(6000)로부터 수신된 홍채 정보와 카메라를 통해 인식한 홍채 정보를 비교한다. 다시 말해서, 스마트폰(7000)은 스마트폰(7000)이 인식한 홍채 정보와 TV(6000)가 인식한 홍채 정보가 동일한 사용자의 홍채 정보인지를 판단한다.
단계 5360에서, 스마트폰(7000)은 비교 결과를 TV(6000)로 전송한다. 만약 동일한 사용자의 홍채가 스마트폰(7000)과 TV(6000)에서 인식된 경우라면, 스마트폰(7000)은 TV(6000)로 페어링을 위한 기기 정보를 전송할 수 있다.
단계 5370에서, TV(6000)는 페어링할 전자 기기를 결정한다. TV(6000)는 사용자가 사용중인 전자 기기를 페어링할 전자 기기로 결정한다. 사용자가 스마트폰(7000)을 통해 컨텐츠를 시청하고 있었으므로, TV(6000)는 스마트폰(7000)을 페어링할 전자 기기로 결정한다.
단계 5380에서, TV(6000)와 스마트폰(7000)은 페어링을 수행한다.
단계 5390에서, 스마트폰(7000)은 TV(6000)로 컨텐츠를 스트리밍한다. 스마트폰(7000)이 컨텐츠를 스트리밍할 필요가 없는 경우에는 스마트폰(7000)은 컨텐츠에 대한 정보만을 TV(6000)로 전송할 수 있다.
단계 5395에서, TV(6000)는 스트리밍된 컨텐츠를 재생한다. 또는 TV(6000)는 저장된 컨텐츠를 재생하거나, 드라마, 음악 등을 재생할 수 있다.
도 54는 북마크를 이용하여 연계 재생하는 방법을 설명하기 위한 개요도이다.
도 54를 참조하면, TV(6000)와 스마트폰(7000)은 사용자에 대한 북마크 정보를 이용하여 컨텐츠를 연계 재생할 수 있다. TV(6000)와 스마트폰(7000)은 사용자가 글래스를 착용하고 있는 않는 경우라도, 사용자의 홍채 또는 시선을 인식하여 컨텐츠를 연계 재생할 수 있다.
TV(6000)는 사용자의 홍채를 인식하여, TV(6000)를 시청하고 있는 사용자를 식별한다. 예를 들어, 사용자A가 TV(6000)를 시청하고 있을 수 있다. TV(6000)는 사용자A에 대한 북마크A를 생성 및 저장한다. 북마크A는 사용자A에 대한 컨텐츠의 재생 시점을 나타낸다.
TV(6000)는 사용자A의 시선을 추적하여 사용자가 컨텐츠를 계속하여 감상하는지를 판단한다. 만약, 사용자A가 컨텐츠를 계속하여 감상하지 않는 것으로 판단되면, TV(6000)는 사용자A에 대한 북마크A를 저장하고, 컨텐츠의 재생을 정지한다. TV(6000)는 사용자A가 컨텐츠를 계속하여 감상하지 않는 것으로 판단되는 재생 시점을 포함하는 북마크A를 생성한다. 예를 들어, TV(6000)는 사용자A의 시선이 감지되지 않는 경우, 사용자A가 컨텐츠를 계속하여 감상하지 않는 것으로 판단할 수 있다.
TV(6000)는 사용자A가 다시 TV(6000)를 시청하는 것으로 판단되면, 북마크A에 기초하여 컨텐츠를 재생한다. 북마크A는 사용자A가 감상하던 컨텐츠, 컨텐츠를 어디까지 감상하였는지를 나타내는 정보를 포함한다.
스마트폰(7000)은 사용자A의 홍채 및 시선을 인식하여 TV(6000)에서 재생하였던 컨텐츠를 연계하여 재생할 수 있다. 스마트폰(7000)은 사용자A의 시선을 추적하여, 사용자A가 스마트폰(7000)을 시청할 의도가 있는지 판단한다. 스마트폰(7000)는 사용자A의 홍채를 인식하여, 사용자A를 식별한다.
스마트폰(7000)은 TV(6000)와 페어링을 수행한다. 스마트폰(7000)은 TV(6000)로부터 컨텐츠를 수신하여 재생하거나, 저장하고 있는 컨텐츠를 재생하거나, 컨텐츠를 서버로부터 수신하여 재생할 수 있다.
스마트폰(7000)은 TV(6000)로부터 북마크 정보를 추가로 수신한다. 스마트폰(7000)은 TV(6000)로부터 사용자A에 대한 북마크A를 수신하여, 컨텐츠의 재생 시점을 결정한다. 스마트폰(7000)은 결정된 재생 시점에 따라, 컨텐츠를 재생할 수 있다.
도 55는 복수의 사용자들에 대한 연계 재생 방법을 설명하기 위한 개요도이다.
TV(6000)는 복수의 사용자들의 시선을 추적하여 복수의 사용자들에 대한 각각의 북마크 정보를 생성할 수 있다. TV(6000)는 TV(6000)를 시청하고 있는 사용자A 및 사용자B의 시선을 계속해서 추적한다. 만약, TV(6000)는 사용자A가 컨텐츠를 계속하여 감상하지 않는 것으로 판단되는 재생 시점을 포함하는 북마크A를 생성한다. TV(6000)는 사용자A에 대한 북마크A를 저장하고, 사용자B가 컨텐츠를 계속하여 감상하고 있으므로 컨텐츠를 계속하여 재생한다. TV(6000)는 사용자B가 컨텐츠를 계속하여 감상하지 않는 것으로 판단되는 재생 시점을 포함하는 북마크B를 생성한다. TV(6000)는 사용자A 및 사용자B가 모두 컨텐츠를 감상하지 않는 것으로 판단되면, 컨텐츠 재생을 정지할 수 있다.
TV(6000)는 사용자A의 시선이 다시 감지되면, 북마크A에 기초하여 컨텐츠를 재생한다. 또는, TV(6000)는 사용자B의 시선이 다시 감지되면, 북마크B에 기초하여 컨텐츠를 재생한다.
사용자A 또는 사용자B가 TV(6000)가 아닌 다른 전자 기기를 통해 컨텐츠를 감상하더라도, 전자 기기는 TV(6000)로부터 북마크A 또는 북마크B를 수신하여, 컨텐츠를 연계하여 재생할 수 있다.
도 56은 주변 전자 기기로부터 컨텐츠를 수신하여 재생하는 전자 기기의 일 예를 설명하기 위한 구성도이다. 도 56을 참조하면, 전자 기기(9000)는 통신부(9100), 메모리(9200), 표시 장치(9300), 카메라(9400) 및 프로세서(9500)를 포함한다.
통신부(9100)는 주변 전자 기기로부터 사용자의 홍채 정보를 수신하거나, 주변 전자 기기로부터 기기 정보를 수신할 수 있다.
통신부(9100)는 주변 전자 기기로부터 컨텐츠 및 컨텐츠에 대한 북마크 정보를 수신한다. 컨텐츠는 음악, 영화, 드라마 등의 미디어 파일일 수 있으며, 텍스트 파일, 이미지 파일 등일 수도 있다.
메모리(9200)는 적어도 한 명의 사용자에 대한 홍채 정보를 저장한다. 또한, 메모리(9200)는 컨텐츠를 저장할 수 있다.
표시 장치(9300)는 프로세서(9500)의 제어에 따라 컨텐츠를 표시한다. 표시 장치(9300)는 페어링할 전자 기기를 표시하거나, 컨텐츠 스트리밍 버튼 등을 표시할 수 있다.
카메라(9500)는 사용자의 눈을 촬영한다. 카메라(9400)는 촬영된 영상을 프로세서(9500)로 전송한다.
프로세서(9500)는 카메라(9400)에 의해 촬영된 영상을 통해, 사용자의 시선을 추적하고, 홍채의 특징점을 추출한다. 프로세서(9400)는 사용자의 홍채 정보를 통해 사용자 인증을 수행한다.
프로세서(9500)는 페어링할 전자 기기를 결정한다. 프로세서(9500)는 사용자의 시선을 추적하여 페어링할 전자 기기를 결정할 수 있다. 또한, 프로세서(9500)는 사용자의 시선이 감지되면, 홍채 인증의 결과를 주변 전자 기기들로 브로드캐스팅하여 페어링할 전자 기기를 결정할 수 있다.
프로세서(9500)는 통신부(9100)을 통해 재생 중인 컨텐츠를 주변 전자 기기로 전송할 수 있다. 프로세서(9500)는 사용자가 주시하고 있는 전자 기기로 컨텐츠를 전송한다.
프로세서(9500)는 주변 전자 기기로부터 수신된 컨텐츠를 재생할 수 있다. 프로세서(9500)는 수신된 컨텐츠 및 북마크 정보에 기초하여 컨텐츠를 재생할 수 있다.
일 실시 예에 따른 전자 기기(9000)는 사용자의 시선을 추적하여 컨텐츠를 연계하여 재생할 수 있다.
일 실시 예에 따른 전자 기기(9000)는 홍채 인증을 통해 컨텐츠를 연계하여 재생할지 여부를 결정할 수 있다.
본 실시 예들에 따른 장치는 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
본 실시 예에서 설명하는 특정 실행들은 예시들로서, 어떠한 방법으로도 기술적 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다.
본 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 포함하는 것으로서(이에 반하는 기재가 없다면), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 한정되는 것은 아니다. 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 기술적 사상을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.
1000: 모바일 디바이스
1100: 프로세서
1200: 카메라
1300: 메모리
1400: 디스플레이부

Claims (17)

  1. 카메라;
    상기 카메라를 통해 상기 사용자의 시선을 추적하고,
    상기 사용자 시선에 따라 페어링할 제 1 기기를 결정하고, 상기 사용자의 시선에 따라 페어링할 제 2 기기를 결정하고,
    상기 통신부를 통해 상기 제 1 기기로부터 북마크 정보 및 기기정보를 수신하고,
    상기 통신부를 통해 상기 제 1 기기와 상기 제 2 기기가 페어링되도록 상기 기기정보를 상기 제 2 기기에 전송하고 상기 제 1 기기에서 재생되는 컨텐츠를 상기 제 2 기기에서 연계하여 재생할 수 있도록 상기 북마크 정보를 상기 제 2 기기로 전송하도록 제어하는 프로세서를 포함하는 것을 특징으로 하는 글래스.
  2. 제1항에 있어서,
    상기 북마크 정보는 상기 컨텐츠의 재생 시점을 나타내는 정보인 것을 특징으로 하는 글래스.
  3. 제2항에 있어서,
    상기 제 2 기기가 상기 컨텐츠를 연계하여 재생할 수 있도록 상기 통신부는 상기 컨텐츠 관련 정보를 상기 제 2 기기에 전송하는 것을 특징으로 하는 글래스.
  4. 제2항에 있어서,
    상기 컨텐츠를 재생할 수 있는 표시장치를 더 포함하되,
    상기 프로세서는 상기 통신부를 통해 상기 제 1 기기로부터 상기 컨텐츠를 수신하고, 상기 북마크 정보에 기초하여 상기 컨텐츠의 재생 시점을 결정하여 상기 표시장치에서 상기 컨텐츠의 재생 시점부터 상기 컨텐츠를 재생하도록 제어하는 것을 특징으로 하는 글래스.
  5. 제4항에 있어서,
    상기 프로세서는 상기 컨텐츠를 재생하는 것에 따라 상기 북마크 정보를 업데이트하는 것을 특징으로 하는 글래스.
  6. 제1항에 있어서,
    상기 프로세서는 상기 북마크 정보를 상기 사용자와 연계시키는 것을 특징으로 하는 글래스.
  7. 제1항에 있어서,
    상기 제 1 기기가 페어링할 기기로 결정되어 상기 컨텐츠가 상기 제 1 기기에서 재생되는 도중에 상기 사용자의 시선이 상기 제 2 기기로 향하면 상기 프로세서는 상기 제 2 기기를 페어링할 기기로 결정하고, 상기 제 2 기기가 상기 컨텐츠를 연계하여 재생할 수 있도록 상기 북마크 정보를 상기 통신부를 통해 전송하도록 제어하는 것을 특징으로 하는 글래스.
  8. 제1항에 있어서,
    상기 프로세서는 상기 사용자가 제 2 사용자로 변경된 경우, 상기 제 2 사용자에 대응되는 제 2 컨텐츠와 제 2 북마크 정보에 기초하여 상기 제 2 사용자의 시선에 의해 페어링된 기기에서 상기 제 2 북마크 정보에 따른 재생 시점에서 상기 제 2 컨텐츠가 재생되도록 제어하는 것을 특징으로 하는 글래스.
  9. 제1항에 있어서,
    상기 프로세서는 상기 카메라를 통해 획득한 영상을 이용하여 상기 사용자의 홍채 정보를 획득하는 것을 특징으로 하는 글래스.
  10. 제9항에 있어서,
    상기 홍채 정보는 상기 사용자의 홍채 특징점을 포함하는 것을 특징으로 하는 글래스.
  11. 제9항에 있어서,
    상기 프로세서는 상기 사용자가 상기 제 1 기기를 제어할 권한이 있는지를 판단하기 위해 상기 통신부를 통해 상기 홍채 정보를 상기 제 1 기기로 전송하도록 제어하는 것을 특징으로 하는 글래스.
  12. 제11항에 있어서,
    상기 프로세서는 상기 제 2 기기에서 사용자 인증이 이루어지도록 상기 통신부를 통해 상기 홍채 정보를 상기 제 2 기기로 전송하고, 상기 제 2 기기에서의 사용자 인증에 기초하여 상기 제 2 기기를 제어하는 것을 특징으로 하는 글래스.
  13. 제1항에 있어서,
    상기 제 2 기기에 전송된 상기 기기정보는 상기 글래스가 상기 제 2 기기와의 페어링 이전에 페어링한 상기 제 1 기기에 대한 식별정보 및 상기 제 1 기기가 재생 중인 상기 컨텐츠에 대한 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 글래스.
  14. 통신부;
    카메라;
    상기 카메라를 통해 상기 사용자의 시선을 추적하고,
    상기 사용자의 시선에 기초하여 컨텐츠를 시청할 의도가 있는지를 판단하고,
    상기 통신부를 통해 상기 컨텐츠가 재생되던 제 1 기기와 페어링을 수행하도록 제어하고,
    상기 통신부를 통해 상기 제 1 기기로부터 북마크 정보를 수신하고, 및
    상기 북마크 정보에 따른 재생 시점에 기초하여 상기 컨텐츠를 연계하여 재생하도록 제어하는 프로세서를 포함하는 전자기기.
  15. 제14항에 있어서,
    상기 프로세서는 상기 통신부를 통해 상기 제 1 기기로부터 상기 컨텐츠를 수신하도록 제어하는 것을 특징으로 하는 전자기기.
  16. 제14항에 있어서,
    상기 프로세서는 상기 카메라를 통해 상기 사용자의 홍채 정보를 획득하고,
    상기 홍채 정보에 기초하여 상기 사용자를 식별하는 것을 특징으로 하는 전자기기.
  17. 제14항에 있어서,
    상기 프로세서는 상기 북마크 정보를 상기 컨텐츠를 재생함에 따라 업데이트하는 것을 특징으로 하는 전자기기.
KR1020220105772A 2014-07-29 2022-08-23 모바일 디바이스에서 촬영된 전자 기기와 페어링하는 방법 및 장치 KR102551240B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230082889A KR20230098559A (ko) 2014-07-29 2023-06-27 모바일 디바이스에서 촬영된 전자 기기와 페어링하는방법 및 장치

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR20140096764 2014-07-29
KR1020140096764 2014-07-29
KR1020150034042A KR102437104B1 (ko) 2014-07-29 2015-03-11 모바일 디바이스에서 촬영된 전자 기기와 페어링하는 방법 및 장치

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150034042A Division KR102437104B1 (ko) 2014-07-29 2015-03-11 모바일 디바이스에서 촬영된 전자 기기와 페어링하는 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230082889A Division KR20230098559A (ko) 2014-07-29 2023-06-27 모바일 디바이스에서 촬영된 전자 기기와 페어링하는방법 및 장치

Publications (2)

Publication Number Publication Date
KR20220122955A true KR20220122955A (ko) 2022-09-05
KR102551240B1 KR102551240B1 (ko) 2023-07-04

Family

ID=53765081

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220105772A KR102551240B1 (ko) 2014-07-29 2022-08-23 모바일 디바이스에서 촬영된 전자 기기와 페어링하는 방법 및 장치

Country Status (5)

Country Link
US (2) US10136460B2 (ko)
EP (4) EP3702889A1 (ko)
KR (1) KR102551240B1 (ko)
CN (2) CN105323708B (ko)
WO (1) WO2016017945A1 (ko)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230188991A9 (en) * 2013-05-08 2023-06-15 Natalya Segal Smart wearable devices and system therefor
US10451874B2 (en) * 2013-09-25 2019-10-22 Seiko Epson Corporation Image display device, method of controlling image display device, computer program, and image display system
KR102437104B1 (ko) 2014-07-29 2022-08-29 삼성전자주식회사 모바일 디바이스에서 촬영된 전자 기기와 페어링하는 방법 및 장치
KR102197851B1 (ko) * 2014-10-20 2021-01-04 한국전자통신연구원 단말간 직접 통신에서 대상 발견 방법 및 장치
KR101673308B1 (ko) * 2015-08-20 2016-11-07 현대자동차주식회사 블루투스 듀얼모드를 이용한 블루투스 자동 연결 방법 및 장치
CN105204742B (zh) * 2015-09-28 2019-07-09 小米科技有限责任公司 电子设备的控制方法、装置及终端
US9961531B2 (en) * 2015-10-02 2018-05-01 Lg Electronics Inc. Method and device for controlling device using bluetooth in wireless communication system
WO2017062768A2 (en) * 2015-10-09 2017-04-13 3G Innovations, LLC Wearable device
US10334076B2 (en) * 2016-02-22 2019-06-25 Google Llc Device pairing in augmented/virtual reality environment
JP2017175439A (ja) * 2016-03-24 2017-09-28 京セラ株式会社 電子機器
CN105704547A (zh) * 2016-03-28 2016-06-22 苏州乐聚堂电子科技有限公司 智能电视系统
CN105812908A (zh) * 2016-03-28 2016-07-27 苏州乐聚堂电子科技有限公司 智能电视系统
CN105898891B (zh) * 2016-04-01 2019-10-18 深圳市元征科技股份有限公司 智能穿戴设备的配对方法和装置
US10181066B2 (en) * 2016-06-06 2019-01-15 Paypal, Inc. Smart harbor device for intelligent updating and selection for use of transaction processing terminal devices
CN106131972B (zh) * 2016-06-30 2019-12-24 联想(北京)有限公司 一种控制方法及电子设备
US9916501B2 (en) * 2016-07-22 2018-03-13 Yung-Hui Li Smart eyeglasses with iris recognition device
US10581853B2 (en) * 2016-08-03 2020-03-03 Huami Inc. Method and apparatus for password management
US10290151B2 (en) 2016-08-17 2019-05-14 Blackberry Limited AR/VR device virtualisation
US10517129B2 (en) * 2016-08-23 2019-12-24 Huawei Technologies Co., Ltd. Bluetooth pairing method and bluetooth device
IT201600103076A1 (it) * 2016-10-13 2018-04-13 Osram Gmbh Procedimento di rilevazione del c.d. view frustum, sistema e prodotto informatico corrispondenti
CN106557167B (zh) * 2016-11-23 2020-08-04 上海擎感智能科技有限公司 智能眼镜及其控制设备的方法、系统及控制器
TWM539192U (zh) * 2016-12-16 2017-04-01 宏正自動科技股份有限公司 模擬顯示畫面暨支援虛擬顯示裝置之控制設備及系統
CN108696293B (zh) * 2017-03-03 2020-11-10 株式会社理光 可穿戴设备、移动设备及其连接方法
US10542052B2 (en) 2017-04-27 2020-01-21 Samsung Electronics Co., Ltd. Multi-area grouping
KR20180137913A (ko) * 2017-06-20 2018-12-28 삼성전자주식회사 컨텐츠를 재생하기 위한 전자 장치 및 그의 동작 방법
US10602046B2 (en) * 2017-07-11 2020-03-24 Htc Corporation Mobile device and control method
US11138301B1 (en) * 2017-11-20 2021-10-05 Snap Inc. Eye scanner for user identification and security in an eyewear device
EP3502838B1 (en) * 2017-12-22 2023-08-02 Nokia Technologies Oy Apparatus, method and system for identifying a target object from a plurality of objects
JP7252398B2 (ja) * 2018-07-04 2023-04-04 マクセル株式会社 仮想オブジェクト操作方法およびヘッドマウントディスプレイ
KR102484647B1 (ko) * 2018-07-11 2023-01-04 삼성전자주식회사 전자 장치의 제어방법 및 컴퓨터 판독 가능 기록매체
KR102137194B1 (ko) * 2018-10-31 2020-07-24 엘지전자 주식회사 이동 단말기
US10691767B2 (en) 2018-11-07 2020-06-23 Samsung Electronics Co., Ltd. System and method for coded pattern communication
US10897788B2 (en) * 2018-11-29 2021-01-19 Lenovo (Singapore) Pte. Ltd. Wireless connection establishment between devices
EP3690609B1 (en) * 2019-01-30 2021-09-22 DENTSPLY SIRONA Inc. Method and system for controlling dental machines
US10708965B1 (en) * 2019-02-02 2020-07-07 Roambee Corporation Augmented reality based asset pairing and provisioning
US10890992B2 (en) 2019-03-14 2021-01-12 Ebay Inc. Synchronizing augmented or virtual reality (AR/VR) applications with companion device interfaces
US11150788B2 (en) 2019-03-14 2021-10-19 Ebay Inc. Augmented or virtual reality (AR/VR) companion device techniques
US10972916B2 (en) 2019-04-29 2021-04-06 Sonicwall Inc. Instant secure wireless network setup
KR20200129297A (ko) * 2019-05-08 2020-11-18 삼성전자주식회사 전자 장치, 사용자 단말 및 이들의 제어 방법
US11445107B2 (en) * 2019-08-08 2022-09-13 Qorvo Us, Inc. Supervised setup for control device with imager
US20220070640A1 (en) * 2020-08-27 2022-03-03 Zebra Technologies Corporation Methods and systems for establishing a bi-directional communication link between a host device and a barcode reader
EP4180919A4 (en) * 2020-11-30 2024-02-28 Samsung Electronics Co Ltd AUGMENTED REALITY DEVICE, ELECTRONIC DEVICE INTERACTING WITH THE AUGMENTED REALITY DEVICE AND METHOD FOR CONTROLLING THEREOF
CN112668589A (zh) * 2020-12-31 2021-04-16 闪耀现实(无锡)科技有限公司 用于头戴式电子设备的配对方法和装置
CN113538876B (zh) * 2021-06-23 2023-04-07 青岛海信移动通信技术股份有限公司 一种智能家居设备自动配网的方法、设备及系统
EP4343516A1 (en) * 2021-08-23 2024-03-27 Samsung Electronics Co., Ltd. Wearable electronic device on which augmented reality object is displayed, and operating method thereof
CN113727353A (zh) * 2021-08-27 2021-11-30 广州艾美网络科技有限公司 娱乐设备的配置方法、装置及娱乐设备
CN113726569A (zh) * 2021-08-27 2021-11-30 广州艾美网络科技有限公司 娱乐设备的组网方法、装置及娱乐设备
CN115499787A (zh) * 2022-09-19 2022-12-20 歌尔科技有限公司 智能眼镜互联方法及智能眼镜

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080051664A (ko) * 2006-12-06 2008-06-11 한국전자통신연구원 시선 위치 추적 방법 및 그 장치
KR20110118530A (ko) * 2010-04-23 2011-10-31 주식회사 비즈모델라인 영상 데이터 출력 시스템과 이를 위한 영상 출력 장치
KR20130059768A (ko) * 2011-11-29 2013-06-07 삼성전자주식회사 아이 트래킹 기반의 사용자 기능 운용 방법 및 이를 지원하는 단말기
KR20140000110U (ko) * 2012-06-29 2014-01-08 밍추언 황 인터페이스 전송처리 기능을 가진 안경
KR20140002389A (ko) * 2012-06-29 2014-01-08 엘지전자 주식회사 아이 트래킹 기능을 구비한 이동 단말기 및 그의 이벤트 표시방법
KR20140045873A (ko) * 2012-10-09 2014-04-17 한국전자통신연구원 시선 추적 장치 및 방법
KR20140093728A (ko) * 2011-12-14 2014-07-28 인텔 코오퍼레이션 시선 활성화 콘텐츠 전송 시스템

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6619799B1 (en) 1999-07-02 2003-09-16 E-Vision, Llc Optical lens system with electro-active lens having alterably different focal lengths
US20030135539A1 (en) * 2001-01-23 2003-07-17 Tetsujiro Kondo Communication apparatus, communication method, eletronic device, control method of the electronic device, and recording medium
KR100530233B1 (ko) 2003-02-17 2005-11-22 삼성전자주식회사 애드호크 네트워크로 연결가능한 기기를 사용자에게알려주어 사용자의 선택에 의해 효율적인 연결 설정을가능하게 해주는 블루투스 무선통신 장치 및 통신방법
US8064647B2 (en) * 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
US20060115130A1 (en) * 2004-11-29 2006-06-01 Douglas Kozlay Eyewear with biometrics to protect displayed data
US20080084867A1 (en) * 2006-09-25 2008-04-10 George Foti Method and server for transferring a multimedia session from a first terminal to a second terminal
KR101373007B1 (ko) * 2007-07-04 2014-03-14 삼성전자주식회사 주변 기기 식별 방법 및 장치
CN101521723B (zh) * 2008-02-27 2012-09-12 深圳Tcl新技术有限公司 一种虹膜识别开机控制的方法及电视机
KR101560626B1 (ko) * 2008-06-26 2015-10-15 주식회사 케이티 유무선 연동형 동영상 이어보기 서비스 제공 방법 및 장치
US8398239B2 (en) * 2009-03-02 2013-03-19 Honeywell International Inc. Wearable eye tracking system
US8818274B2 (en) 2009-07-17 2014-08-26 Qualcomm Incorporated Automatic interfacing between a master device and object device
KR101657565B1 (ko) * 2010-04-21 2016-09-19 엘지전자 주식회사 증강 원격제어장치 및 그 동작 방법
US8384774B2 (en) 2010-02-15 2013-02-26 Eastman Kodak Company Glasses for viewing stereo images
US8438288B2 (en) 2010-02-17 2013-05-07 Microsoft Corporation Device-pairing by reading an address provided in device-readable form
JP2013521576A (ja) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド 対話式ヘッド取付け型アイピース上での地域広告コンテンツ
US8789131B2 (en) * 2010-05-14 2014-07-22 Lg Electronics Inc. Electronic device and method of sharing contents thereof with other devices
BR112012010500A2 (pt) 2010-09-03 2016-03-15 Panasonic Corp dispositivo de processamento de vídeo, método de processamento de vídeo, programa computacional, e método de distribuição
US9213405B2 (en) 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US8670183B2 (en) * 2011-03-07 2014-03-11 Microsoft Corporation Augmented view of advertisements
JP2014518597A (ja) * 2011-03-31 2014-07-31 ソニーモバイルコミュニケーションズ, エービー アプリケーションに関連した通信セッションを設立するためのシステム及び方法
US8510166B2 (en) * 2011-05-11 2013-08-13 Google Inc. Gaze tracking system
JP6144681B2 (ja) 2011-08-30 2017-06-07 マイクロソフト テクノロジー ライセンシング,エルエルシー 虹彩スキャン・プロファイリング機能を有する頭部装着ディスプレイ
WO2013066334A1 (en) * 2011-11-03 2013-05-10 Intel Corporation Eye gaze based image capture
KR20130056132A (ko) 2011-11-21 2013-05-29 삼성전자주식회사 3d 안경 및 3d 안경의 페어링 방법
US9229231B2 (en) * 2011-12-07 2016-01-05 Microsoft Technology Licensing, Llc Updating printed content with personalized virtual data
US20130147686A1 (en) * 2011-12-12 2013-06-13 John Clavin Connecting Head Mounted Displays To External Displays And Other Communication Networks
KR101803305B1 (ko) * 2011-12-15 2018-01-10 삼성전자주식회사 애플리케이션 실행을 위한 디스플레이 장치 및 방법
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US20130241805A1 (en) 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
WO2013154476A1 (en) * 2012-04-12 2013-10-17 Telefonaktiebolaget L M Ericsson (Publ) Pairing a mobile terminal with a wireless device
US20130297460A1 (en) * 2012-05-01 2013-11-07 Zambala Lllp System and method for facilitating transactions of a physical product or real life service via an augmented reality environment
KR101850035B1 (ko) * 2012-05-02 2018-04-20 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20130131090A (ko) * 2012-05-23 2013-12-03 엘지전자 주식회사 콘텐츠 제공 서버 및 상기 서버에서의 콘텐츠 제공 방법
WO2014021602A2 (ko) 2012-07-31 2014-02-06 인텔렉추얼디스커버리 주식회사 착용형 전자 장치 및 그의 제어 방법
KR20140017734A (ko) * 2012-07-31 2014-02-12 인텔렉추얼디스커버리 주식회사 착용형 전자 장치 및 그의 제어 방법
US20140053189A1 (en) * 2012-08-17 2014-02-20 Electronics And Telecommunications Research Institute Apparatus and method for providing personalized home screen
US20140196143A1 (en) * 2012-08-29 2014-07-10 Identity Validation Products, Llc Method and apparatus for real-time verification of live person presence on a network
KR101958778B1 (ko) 2012-08-31 2019-03-15 엘지전자 주식회사 헤드 마운트 디스플레이 및 이를 이용한 디지털 디바이스 제어 방법
WO2014046424A1 (en) * 2012-09-18 2014-03-27 Samsung Electronics Co., Ltd. Information transmission method and system, and device
KR101999180B1 (ko) 2012-11-23 2019-10-01 삼성전자주식회사 디스플레이 장치, 그의 제어 방법, 안경 장치 및 그의 제어 방법
KR101934099B1 (ko) * 2012-12-14 2019-01-02 삼성전자주식회사 컨텐츠 재생 장치, 그 ui 제공 방법, 네트워크 서버 및 그 제어 방법
TWM471013U (zh) 2013-09-27 2014-01-21 Univ Southern Taiwan Sci & Tec 遠端控制電源裝置
CN103812535A (zh) 2014-02-18 2014-05-21 天地融科技股份有限公司 蓝牙设备连接方法和蓝牙设备
TWM480898U (zh) 2014-03-14 2014-07-01 Ye Nan Hui 頭戴式顯示裝置
US9712948B2 (en) * 2014-04-30 2017-07-18 Avago Technologies General Ip (Singapore) Pte. Ltd. Image triggered pairing
US9679538B2 (en) * 2014-06-26 2017-06-13 Intel IP Corporation Eye display interface for a touch display device
US9817959B2 (en) * 2014-06-27 2017-11-14 Intel Corporation Wearable electronic devices

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080051664A (ko) * 2006-12-06 2008-06-11 한국전자통신연구원 시선 위치 추적 방법 및 그 장치
KR20110118530A (ko) * 2010-04-23 2011-10-31 주식회사 비즈모델라인 영상 데이터 출력 시스템과 이를 위한 영상 출력 장치
KR20130059768A (ko) * 2011-11-29 2013-06-07 삼성전자주식회사 아이 트래킹 기반의 사용자 기능 운용 방법 및 이를 지원하는 단말기
KR20140093728A (ko) * 2011-12-14 2014-07-28 인텔 코오퍼레이션 시선 활성화 콘텐츠 전송 시스템
KR20140000110U (ko) * 2012-06-29 2014-01-08 밍추언 황 인터페이스 전송처리 기능을 가진 안경
KR20140002389A (ko) * 2012-06-29 2014-01-08 엘지전자 주식회사 아이 트래킹 기능을 구비한 이동 단말기 및 그의 이벤트 표시방법
KR20140045873A (ko) * 2012-10-09 2014-04-17 한국전자통신연구원 시선 추적 장치 및 방법

Also Published As

Publication number Publication date
US20190075610A1 (en) 2019-03-07
EP3594786A1 (en) 2020-01-15
EP3401764B1 (en) 2019-11-20
CN105323708A (zh) 2016-02-10
CN110850593B (zh) 2023-08-22
EP3702889A1 (en) 2020-09-02
EP3401764A1 (en) 2018-11-14
WO2016017945A1 (en) 2016-02-04
CN110850593A (zh) 2020-02-28
EP2980675B1 (en) 2019-02-27
CN105323708B (zh) 2019-12-13
EP2980675A3 (en) 2016-03-23
KR102551240B1 (ko) 2023-07-04
US20160037573A1 (en) 2016-02-04
US10375749B2 (en) 2019-08-06
US10136460B2 (en) 2018-11-20
EP2980675A2 (en) 2016-02-03

Similar Documents

Publication Publication Date Title
KR102551240B1 (ko) 모바일 디바이스에서 촬영된 전자 기기와 페어링하는 방법 및 장치
KR102437104B1 (ko) 모바일 디바이스에서 촬영된 전자 기기와 페어링하는 방법 및 장치
EP3345379B1 (en) Method for electronic device to control object and electronic device
US10219011B2 (en) Terminal device and information providing method thereof
KR101220037B1 (ko) 전자 기기 연결 제어 방법 및 그를 이용한 휴대용 단말기
CN102467235A (zh) 多媒体设备中用户姿态识别的方法及其多媒体设备
US10088901B2 (en) Display device and operating method thereof
JP2012533802A (ja) マスタデバイスとオブジェクトデバイスとの自動インターフェース接続
CN108476258B (zh) 用于电子设备控制对象的方法以及电子设备
CN104853223B (zh) 视频流的插播方法及终端设备
US20130162566A1 (en) Terminal device
US10503776B2 (en) Image display apparatus and information providing method thereof
EP2793478A1 (en) Method for managing multimedia devices within a local environment and system for implementing this method
JP2014099175A (ja) ディスプレイ装置およびそのメッセージ伝達方法
KR20150064597A (ko) 디스플레이 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant