KR20140057150A - System and method for transfering content among devices using touch command and unusual touch - Google Patents

System and method for transfering content among devices using touch command and unusual touch Download PDF

Info

Publication number
KR20140057150A
KR20140057150A KR1020130117766A KR20130117766A KR20140057150A KR 20140057150 A KR20140057150 A KR 20140057150A KR 1020130117766 A KR1020130117766 A KR 1020130117766A KR 20130117766 A KR20130117766 A KR 20130117766A KR 20140057150 A KR20140057150 A KR 20140057150A
Authority
KR
South Korea
Prior art keywords
content
touch
portable device
display
coupling
Prior art date
Application number
KR1020130117766A
Other languages
Korean (ko)
Other versions
KR101512239B1 (en
Inventor
김상식
정성관
박준석
신용철
김용록
박효주
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Publication of KR20140057150A publication Critical patent/KR20140057150A/en
Priority to US14/453,359 priority Critical patent/US10366264B2/en
Application granted granted Critical
Publication of KR101512239B1 publication Critical patent/KR101512239B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06018Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality

Abstract

A system and a method for transferring content among devices using a touch command and an unusual touch are disclosed. A content device of the system for transferring content among devices comprises a touch information generating unit for outputting a control signal according to a touch type by recognizing touch of an object; a location information collecting unit for collecting location information of a portable device according to the control signal of the touch information generating unit; a coupling unit for coupling with the portable device based on the touch information and the location information of the object; and a content moving unit for moving content to the portable device based on the touch information and the location information of the object.

Description

터치 명령 및 특이 터치를 이용한 디바이스 간 컨텐츠 이동 시스템 및 방법{SYSTEM AND METHOD FOR TRANSFERING CONTENT AMONG DEVICES USING TOUCH COMMAND AND UNUSUAL TOUCH}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system and method for moving content between devices using a touch command and a specific touch,

본 발명은 터치 명령 및 특이 터치를 이용한 디바이스 간 컨텐츠 이동 시스템 및 방법에 관한 것으로, 보다 상세하게는 사용자가 휴대용 디바이스를 손에 쥔 상태로 컨텐츠 디바이스의 컨텐츠를 선택할 경우, 휴대용 디바이스로 컨텐츠를 이동함으로써, 직관적으로 멀티 디바이스 간 컨텐츠 이동이 가능한 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for moving content between devices using a touch command and a specific touch, and more particularly, to a system and method for moving content between devices by selecting a content , And systems and methods that allow intuitive multi-device content movement.

디지털 사이니지는 사용자 주변의 광고판들이 사용자에게 유용한 정보 및 광고 정보 들을 제공함으로써, 사용자들이 바라보고 원하는 정보를 얻을 수 있도록 하는 지능형 광고판이다.Digital signage is an intelligent billboard in which the billboards around the user provide useful information and advertisement information to the user, thereby allowing the user to view and obtain desired information.

그리고, 디지털 사이니지를 활용하기 위해서는 디지털 사이니지의 컨텐츠 중 사용자가 원하는 컨텐츠를 사용자들의 단말기로 이동하고, 사용자의 단말기에서 디지털 사이니지로 컨텐츠를 이동할 수 있는 방법 및 시스템이 필요하다.In order to utilize digital signage, there is a need for a method and system capable of moving content desired by the user to the user's terminal and moving the content from the user's terminal to the digital signage among contents of the digital signage.

"Stitching: Pen Gestures that Span Multiple Displays"라는 논문에는 제1 디바이스에서 터치를 시작하여 제2 디바이스까지 터치를 지속하고 제2 디바이스에서 터치를 때면, 제1 디바이스에서 제2 디바이스로 컨텐츠를 이동시키는 기술이 개시되어 있다. In the article "Stitching: Pen Gestures that Span Multiple Displays ", there is disclosed a technique of moving a content from a first device to a second device when a first device starts a touch and continues to touch a second device, .

그러나, 종래 기술은 컨텐츠를 제2 디바이스로 이동시키기 위해서는 컨텐츠가 제1 디바이스의 디스플레이 경계를 넘어가야만 한다는 불편함이 있다. 디스플레이가 광고판의 역할을 하므로, 디스플레이의 크기가 매우 큰 디지털 사이니지에서는 컨텐츠를 다른 디바이스로 이동하기 위하여 컨텐츠를 터치한 상태로 이동해야 하는 디스플레이의 끝까지의 거리가 멀 수 있다.However, in the related art, there is an inconvenience that the content has to go beyond the display boundary of the first device in order to move the content to the second device. Since the display serves as a billboard, in a digital signage having a very large display size, the distance to the end of the display, in which the content is touched in order to move the content to another device, may be far.

또한, 사용자의 손 중 하나는 제2 디바이스를 제1 디바이스의 옆에 위치시키고 있어야 하므로, 컨텐츠를 이동시키기 위해서는 양손을 모두 써야 하는 불편함도 있었다. In addition, since one of the hands of the user has to place the second device next to the first device, there has been inconvenience to use both hands to move the content.

따라서, 간단한 입력으로 디바이스간 컨텐츠를 이동할 수 있는 시스템 및 방법이 요청되고 있다.Accordingly, there is a need for a system and method for moving content between devices with simple input.

본 발명은 사용자가 휴대용 디바이스를 손에 쥔 상태로 컨텐츠 디바이스의 컨텐츠를 선택할 경우, 휴대용 디바이스로 컨텐츠를 이동함으로써, 직관적으로 멀티 디바이스 간 컨텐츠 이동이 가능한 시스템 및 방법을 제공할 수 있다.The present invention can provide a system and method for intuitively moving content between multi-devices by moving content to a portable device when a user selects contents of the content device while holding the portable device in his / her hand.

또한, 본 발명은 사용자가 손에 쥔 휴대용 디바이스를 식별하여 커플링함으로써, 컨텐츠를 이동시킬 디바이스를 선택하는 과정을 생략할 수 있는 시스템 및 방법을 제공할 수 있다.In addition, the present invention can provide a system and a method that can omit a process of selecting a device for moving content by identifying and coupling a portable device held by a user.

그리고, 본 발명은 직관적인 제스처를 이용하여 이동할 컨텐츠 및 컨텐츠가 이동할 대상 디바이스를 선택하도록 함으로써, 사용자가 별다른 교육 없이도 자신이 원하는 컨텐츠를 원하는 디바이스로 이동시킬 수 있는 시스템 및 방법을 제공할 수 있다.The present invention can provide a system and a method for allowing a user to move desired content to a desired device without requiring any training by allowing the user to select a content device to be moved and a device to which the content is to be moved using an intuitive gesture.

본 발명의 일실시예에 따른 컨텐츠 디바이스는 물체의 터치를 인식하여 터치 타입에 따른 제어 신호를 출력하는 터치정보 생성부; 상기 터치정보 생성부의 제어 신호에 따라 휴대용 디바이스의 위치 정보를 수집하는 위치 정보 수집부; 상기 물체의 터치 정보 및 상기 위치 정보에 기초하여 상기 휴대용 디바이스와 커플링을 맺는 커플링부; 및 상기 물체의 터치 정보 및 상기 위치 정보에 기초하여 상기 휴대용 디바이스로 컨텐츠를 이동하는 컨텐츠 이동부를 포함할 수 있다.A content device according to an embodiment of the present invention includes a touch information generation unit for recognizing a touch of an object and outputting a control signal according to a touch type; A position information collecting unit for collecting position information of the portable device according to a control signal of the touch information generating unit; A coupling unit for coupling with the portable device based on touch information of the object and the position information; And a content moving unit for moving the content to the portable device based on the touch information and the position information of the object.

본 발명의 일실시예에 따른 휴대용 디바이스는 상기 사용자가 터치한 컨텐츠 디바이스의 요청에 따라 상기 컨텐츠 디바이스에 상기 휴대용 디바이스의 위치 정보를 제공하는 위치 정보 제공부; 상기 컨텐츠 디바이스가 상기 위치 정보를 기초로 커플링 요청을 하는 경우, 상기 컨텐츠 디바이스와 커플링을 맺는 커플링부; 및 커플링을 맺은 컨텐츠 디바이스로 상기 사용자가 선택한 컨텐츠를 이동하는 컨텐츠 이동부를 포함할 수 있다.A portable device according to an embodiment of the present invention includes a location information providing unit for providing location information of the portable device to the content device in response to a request of the content device touched by the user; A coupling unit for coupling with the content device when the content device makes a coupling request based on the location information; And a content moving unit for moving the content selected by the user to the coupled content device.

본 발명의 다른 실시예에 따른 컨텐츠 디바이스는 터치 입력이 가능한 디스플레이를 이용하여 휴대용 디바이스로 컨텐츠를 제공하는 것으로, 상기 컨텐츠에 대한 터치 입력이 탐지되면 상기 컨텐츠와 관련된 이미지 코드를 상기 디스플레이에 표시하는 이미지 코드 변환부; 상기 휴대용 디바이스로부터 상기 휴대용 디바이스에서 인식한 코드 값이 수신되면 상기 이미지 코드와 상기 코드 값의 비교 결과에 따라 상기 휴대용 디바이스와의 커플링을 맺는 커플링부; 및 상기 커플링을 맺은 상기 휴대용 디바이스로 상기 컨텐츠를 전송하는 컨텐츠 이동부를 포함할 수 있다.According to another aspect of the present invention, there is provided a content device that provides content to a portable device using a touch-enabled display, the method comprising: when an input to the content is detected, A code conversion unit; A coupling unit for coupling the portable device with the portable device according to a result of comparison between the image code and the code value when the code value recognized by the portable device is received from the portable device; And a content moving unit for transmitting the content to the portable device having the coupling.

본 발명의 일실시예에 의하면, 사용자가 휴대용 디바이스를 손에 쥔 상태로 컨텐츠 디바이스의 컨텐츠를 선택할 경우, 휴대용 디바이스로 컨텐츠를 이동함으로써, 직관적으로 멀티 디바이스 간 컨텐츠 이동이 가능한 시스템을 제공할 수 있다.According to an embodiment of the present invention, when a user selects content of a content device while holding a portable device in hand, it is possible to intuitively provide a system capable of moving content between multi-devices by moving content to a portable device .

또한, 본 발명의 일실시예에 의하면, 사용자가 손에 쥔 휴대용 디바이스를 식별하여 커플링함으로써, 컨텐츠를 이동시킬 디바이스를 선택하는 과정을 생략할 수 있다.In addition, according to an embodiment of the present invention, a process of selecting a device for moving contents can be omitted by identifying and coupling a portable device held by a user.

그리고, 본 발명의 일실시예에 의하면, 직관적인 제스처를 이용하여 이동할 컨텐츠 및 컨텐츠가 이동할 대상 디바이스를 선택하도록 함으로써, 사용자가 별다른 교육 없이도 자신이 원하는 컨텐츠를 원하는 디바이스로 이동시킬 수 있다.According to an embodiment of the present invention, a content to be moved and a device to be moved are selected using an intuitive gesture, so that a user can move his / her desired content to a desired device without training.

도 1은 본 발명의 일실시예에 따른 디바이스 간 컨텐츠 이동 시스템을 나타내는 도면이다.
도 2는 종래의 디바이스 간 컨텐츠 이동 시스템의 동작을 나타내는 도면이다.
도 3은 본 발명의 일실시예에 따른 컨텐츠 디바이스를 나타내는 도면이다.
도 4는 본 발명의 일실시예에 따른 컨텐츠 디바이스에서 싱글 터치로 이동할 컨텐츠를 선택하는 방법의 일례이다.
도 5는 본 발명의 일실시예에 따른 컨텐츠 디바이스에서 싱글 터치로 이동할 복수의 컨텐츠를 선택하는 방법의 일례이다.
도 6은 본 발명의 일실시예에 따른 컨텐츠 디바이스에서 특이 터치로 이동할 컨텐츠를 선택하는 방법의 일례이다.
도 7은 본 발명의 일실시예에 따른 컨텐츠 디바이스에서 멀티 터치로 이동할 컨텐츠를 선택하는 방법의 일례이다.
도 8은 본 발명의 일실시예에 따른 특이 터치의 일례이다.
도 9는 본 발명의 일실시예에 따른 컨텐츠 디바이스에서 특이 터치로 이동할 컨텐츠를 선택하는 방법의 일례이다.
도 10은 본 발명의 일실시예에 따른 컨텐츠 디바이스가 수신한 컨텐츠를 표시할 위치를 선택하는 방법의 일례이다.
도 11은 본 발명의 일실시예에 따른 컨텐츠 디바이스에서 싱글 터치와 특이 터치로 컨텐츠를 이동하는 방법의 일례이다.
도 12는 본 발명의 일실시예에 따라 컨텐츠 디바이스(110)에서 휴대용 디바이스(120)로 컨텐츠를 이동하는 경우, 컨텐츠 디바이스(110)가 인식하는 터치 흔적의 일례이다.
도 13은 본 발명의 일실시예에 따라 싱글 터치와 특이 터치를 이용하여 휴대용 디바이스에서 컨텐츠 디바이스로 컨텐츠를 이동하는 방법의 일례이다.
도 14는 본 발명의 일실시예에 따라 휴대용 디바이스에서 컨텐츠 디바이스로 컨텐츠를 이동하는 경우, 컨텐츠 디바이스가 인식하는 터치 흔적의 일례이다.
도 15는 본 발명의 일실시예에 따라 싱글 터치와 특이 터치를 이용하여 컨텐츠 디바이스(110)에서 휴대용 디바이스로 컨텐츠를 이동하는 방법의 또 다른 일례이다.
도 16은 본 발명의 일실시예에 따라 싱글 터치와 특이 터치를 이용하여 휴대용 디바이스에서 컨텐츠 디바이스로 컨텐츠를 이동하는 방법의 또 다른 일례이다.
도 17은 본 발명의 일실시예에 따른 컨텐츠 디바이스에서 멀티 터치로 이동할 컨텐츠를 선택하는 방법의 다른 일례이다.
도 18은 본 발명의 일실시예에 따른 컨텐츠 디바이스에서 특이 터치로 이동할 컨텐츠를 선택하는 방법의 다른 일례이다.
도 19는 본 발명의 일실시예에 따른 휴대용 디바이스를 나타내는 도면이다.
도 20은 본 발명의 일실시예에 따른 디바이스 간 컨텐츠 이동 과정을 나타내는 도면이다.
도 21은 본 발명의 일실시예에 따른 컨텐츠 디바이스의 동작 방법을 도시한 플로우차트이다.
도 22는 본 발명의 일실시예에 따른 커플링 방법을 도시한 플로우차트이다.
도 23은 본 발명의 일실시예에 따른 컨텐츠 이동 방법을 도시한 플로우차트이다.
도 24는 본 발명의 일실시예에 따른 휴대용 디바이스의 동작 방법을 도시한 플로우차트이다.
도 25는 본 발명의 다른 실시예에 따른 컨텐츠 디바이스를 나타내는 도면이다.
도 26 및 도 27은 본 발명의 다른 실시예에 따라 멀티 터치와 이미지 코드 인식을 이용하여 컨텐츠 디바이스에서 휴대용 디바이스로 컨텐츠를 이동하는 방법의 일례이다.
도 28은 본 발명의 다른 실시예에 따른 휴대용 디바이스를 나타내는 도면이다.
도 29는 본 발명의 다른 실시예에 따른 디바이스 간 컨텐츠 이동 과정을 나타내는 도면이다.
1 is a diagram illustrating a system for moving content between devices according to an exemplary embodiment of the present invention.
2 is a diagram illustrating an operation of a conventional device-to-device content movement system.
3 illustrates a content device according to an embodiment of the present invention.
FIG. 4 is an example of a method of selecting a content to be moved from a content device to a single-touch according to an embodiment of the present invention.
FIG. 5 is an example of a method of selecting a plurality of contents to be moved from a content device to a single-touch according to an exemplary embodiment of the present invention.
FIG. 6 is an example of a method of selecting a content to be moved to a specific touch in a content device according to an exemplary embodiment of the present invention.
FIG. 7 is an example of a method for selecting a content to be moved in multi-touch in a content device according to an embodiment of the present invention.
8 is an example of a specific touch according to an embodiment of the present invention.
9 is an example of a method of selecting a content to be moved to a specific touch in a content device according to an embodiment of the present invention.
FIG. 10 is an example of a method of selecting a location to display content received by a content device according to an embodiment of the present invention.
FIG. 11 is an example of a method of moving content in a content device according to an embodiment of the present invention with a single-touch and a specific-touch.
12 is an example of a touch trace recognized by the content device 110 when moving content from the content device 110 to the portable device 120 according to an embodiment of the present invention.
13 is an example of a method of moving content from a portable device to a content device using a single touch and a specific touch according to an embodiment of the present invention.
14 is an example of a touch trace recognized by a content device when moving content from a portable device to a content device according to an embodiment of the present invention.
15 is another example of a method of moving content from the content device 110 to the portable device using a single touch and a specific touch according to an embodiment of the present invention.
16 is another example of a method of moving content from a portable device to a content device using a single touch and a specific touch according to an embodiment of the present invention.
17 is another example of a method for selecting contents to be moved in multi-touch in a content device according to an embodiment of the present invention.
18 is another example of a method for selecting a content to be moved from a content device to a specific touch according to an embodiment of the present invention.
19 illustrates a portable device according to an embodiment of the present invention.
20 is a diagram illustrating a process of moving content between devices according to an embodiment of the present invention.
21 is a flowchart illustrating an operation method of a content device according to an embodiment of the present invention.
22 is a flowchart showing a coupling method according to an embodiment of the present invention.
23 is a flowchart illustrating a content moving method according to an embodiment of the present invention.
24 is a flowchart showing an operation method of the portable device according to an embodiment of the present invention.
25 is a view showing a content device according to another embodiment of the present invention.
26 and 27 illustrate an example of a method of moving content from a content device to a portable device using multi-touch and image code recognition according to another embodiment of the present invention.
28 is a diagram illustrating a portable device according to another embodiment of the present invention.
29 is a diagram illustrating a process of moving content between devices according to another embodiment of the present invention.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 본 발명의 일실시예에 따른 디바이스 간 컨텐츠 이동 방법은 디바이스 간 컨텐츠 이동 시스템에 의해 수행될 수 있다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. A method for moving content between devices according to an exemplary embodiment of the present invention may be performed by a device-to-device content movement system.

도 1은 본 발명의 일실시예에 따른 디바이스 간 컨텐츠 이동 시스템을 나타내는 도면이다. 1 is a diagram illustrating a system for moving content between devices according to an exemplary embodiment of the present invention.

도 1을 참고하면, 본 발명의 일실시예에 따른 디바이스 간 컨텐츠 이동 시스템은 컨텐츠 디바이스(110)와 휴대용 디바이스(120)를 포함할 수 있다.Referring to FIG. 1, a device-to-device content movement system according to an embodiment of the present invention may include a content device 110 and a portable device 120.

컨텐츠 디바이스(110)는 터치 입력이 가능한 디스플레이를 이용하여 사용자에게 컨텐츠를 제공할 수 있다. 예를 들어, 컨텐츠 디바이스(110)는 디지털 사이니지(digital signage)일 수 있다.The content device 110 may provide the content to a user using a touch-enabled display. For example, the content device 110 may be a digital signage.

이때, 컨텐츠 디바이스(110)는 컨텐츠 디바이스(110)의 디스플레이에 터치 입력이 발생한 경우, 일정 거리 안에 휴대용 디바이스(120)가 있는지 여부를 확인하기 위한 주변 디바이스 검색 메시지를 전송(broadcast)할 수 있다. 이때, 터치 입력은 드래그(drag), 스윕(sweep) 및 플릭(flick) 중 하나일 수 있다. 또한, 주변 디바이스 검색 메시지는 주변 디바이스 검색 메시지를 수신한 휴대용 디바이스(120)에게 위치 정보를 요청할 수 있다. 따라서, 주변 디바이스 검색 메시지에 대응하는 응답 메시지는 주변 디바이스 검색 메시지를 수신한 휴대용 디바이스(120)의 위치 정보를 포함할 수 있다.At this time, when a touch input occurs on the display of the content device 110, the content device 110 may broadcast a peripheral device search message for confirming whether the portable device 120 exists within a predetermined distance. At this time, the touch input may be one of a drag, a sweep, and a flick. In addition, the peripheral device search message may request location information from the portable device 120 that has received the peripheral device search message. Accordingly, the response message corresponding to the peripheral device search message may include the location information of the portable device 120 that has received the peripheral device search message.

그리고, 응답 메시지를 수신한 경우, 컨텐츠 디바이스(110)는 응답 메시지에 포함된 휴대용 디바이스(120)의 위치 정보를 컨텐츠 디바이스(110)의 디스플레이에서 입력된 터치 입력에 기초하여 생성한 터치 정보와 비교할 수 있다. 이때, 휴대용 디바이스(120)의 위치 정보는 휴대용 디바이스(120)의 위치, 공간상 이동 시간, 이동 거리, 움직임 패턴 정보 중 적어도 하나를 포함하고, 터치 정보는 디스플레이에서 수행된 터치 입력의 위치, 이동 시간, 이동 거리, 움직임 패턴 중 적어도 하나를 포함할 수 있다.When receiving the response message, the content device 110 compares the position information of the portable device 120 included in the response message with the touch information generated based on the touch input inputted from the display of the content device 110 . The position information of the portable device 120 includes at least one of the position of the portable device 120, the time of space movement, the movement distance, and the movement pattern information. The touch information includes at least one of a position of the touch input performed on the display, A time, a moving distance, and a movement pattern.

휴대용 디바이스(120)의 위치 정보와 터치 입력이 일정 오차 이내에서 일치한 경우, 컨텐츠 디바이스(110)는 응답 메시지에 포함된 휴대용 디바이스(120)의 식별 정보를 이용하여 휴대용 디바이스(120)과 커플링을 맺고 컨텐츠를 전송할 수 있다.When the position information of the portable device 120 and the touch input coincide with each other within a predetermined error, the content device 110 transmits a response message to the portable device 120 using the identification information of the portable device 120 included in the response message, So that the content can be transmitted.

휴대용 디바이스(120)는 사용자가 한 손으로 잡을 수 있는 크기의 디바이스일 수 있다. 또한, 휴대용 디바이스(120)는 터치 입력이 가능한 디스플레이를 이용하여 사용자에게 컨텐츠를 제공할 수 있다. 예를 들어 휴대용 디바이스(120)는 스마트폰이나 PDA와 같이 휴대 가능한 터치 디바이스일 수 있다.The portable device 120 may be a device sized for the user to hold in one hand. In addition, the portable device 120 can provide contents to a user using a touch-enabled display. For example, the portable device 120 may be a portable touch device such as a smart phone or a PDA.

그리고, 휴대용 디바이스(120)는 컨텐츠 디바이스(110)로부터 휴대용 디바이스(120) 검색 메시지를 수신한 경우, 휴대용 디바이스(120)의 공간상 이동을 식별하여 위치 정보를 생성할 수 있다.When the portable device 120 receives the portable device 120 search message from the content device 110, the portable device 120 can identify the spatial movement of the portable device 120 and generate the location information.

다음으로, 휴대용 디바이스(120)는 생성한 위치 정보와 휴대용 디바이스(120)의 식별 정보를 휴대용 디바이스(120) 검색 메시지에 대응하는 응답 메시지에 포함하여 컨텐츠 디바이스(110)로 전송할 수 있다.Next, the portable device 120 may transmit the generated location information and the identification information of the portable device 120 to the content device 110 in a response message corresponding to the search message.

그리고, 컨텐츠 디바이스(110)로부터 커플링 메시지를 수신하는 경우, 휴대용 디바이스(120)는 커플링 메시지에 기초하여 컨텐츠 디바이스(110)와 커플링을 맺고, 컨텐츠 이동 및 복제를 할 수 있다.When receiving the coupling message from the content device 110, the portable device 120 couples with the content device 110 based on the coupling message, and can perform content movement and copying.

본 발명의 일실시예에 따른 디바이스 간 컨텐츠 이동 시스템은 사용자가 휴대용 디바이스(120)를 쥐고 터치 입력을 수행하면, 컨텐츠 디바이스(110)가 휴대용 디바이스(120)와 커플링하고, 사용자가 휴대용 디바이스(120)를 쥔 상태로 선택한 컨텐츠(100)를 휴대용 디바이스(120)로 이동할 수 있다.When the user holds the portable device 120 and performs a touch input, the contents device 110 is coupled with the portable device 120, and the user selects the portable device 120 The portable device 120 can move the content 100 selected by the user.

또한, 컨텐츠 디바이스(110)는 사용자가 휴대용 디바이스(120)를 쥔 상태로 휴대용 디바이스(120)에서 선택한 컨텐츠(101)를 휴대용 디바이스(120)로부터 수신하여 터치 입력한 위치에 표시할 수 있다. The content device 110 can receive the content 101 selected by the portable device 120 while the user holds the portable device 120 from the portable device 120 and display the received content 101 at a location where the user has touched.

이때, 컨텐츠 디바이스(110)는 터치 입력과 휴대용 디바이스(120)의 공간상 이동을 비교하여 사용자가 휴대용 디바이스(120)를 쥐고 터치한 상태인지를 식별할 수 있다.At this time, the content device 110 compares the touch input with the spatial movement of the portable device 120 to identify whether the user holds the portable device 120 and touched.

본 발명의 일실시예에 따른 디바이스 간 컨텐츠 이동 시스템은 사용자가 휴대용 디바이스(120)를 손에 쥔 상태로 컨텐츠 디바이스(110)에 입력한 터치 입력에 따라 컨텐츠 디바이스(110)에서 휴대용 디바이스(120)로 컨텐츠(100)를 이동함으로써, 사용자가 컨텐츠(100)를 다른 디바이스로 이동하기 위하여 컨텐츠(100)를 화면 밖까지 이동시키지 않고도 용이하게 컨텐츠(100)를 다른 디바이스로 이동할 수 있다.The system for moving content between devices according to an exemplary embodiment of the present invention includes a portable device 120 and a portable device 120. In the content device 110, The content 100 can be easily moved to another device without moving the content 100 to the outside of the screen in order to move the content 100 to another device.

또한, 사용자가 휴대용 디바이스(120)를 손에 쥔 상태로 휴대용 디바이스(120)의 컨텐츠(101)을 선택하고, 컨텐츠 디바이스(110)를 터치한 경우, 디바이스 간 컨텐츠 이동 시스템은 휴대용 디바이스(120)로부터 컨텐츠 디바이스(110)로 컨텐츠(101)를 이동함으로써, 사용자가 한 손만으로도 용이하게 휴대용 디바이스(120)에서 컨텐츠 디바이스(110)로 컨텐츠(101)를 이동할 수 있다.
When the user selects the content 101 of the portable device 120 while holding the portable device 120 in hand and touches the content device 110, The user can move the content 101 from the portable device 120 to the content device 110 easily with only one hand by moving the content 101 from the content device 110 to the content device 110. [

도 2는 종래의 디바이스 간 컨텐츠 이동 시스템의 동작을 나타내는 도면이다. 2 is a diagram illustrating an operation of a conventional device-to-device content movement system.

종래의 디바이스 간 컨텐츠 이동 시스템은 도 2에 도시된 바와 같이 디지털 사이니지(201)과 단말(202)를 포함할 수 있다.A conventional device-to-device content movement system may include a digital signage 201 and a terminal 202 as shown in FIG.

단계(210)에서 사용자는 한 손으로 단말(202)를 쥔 상태로 디지털 사이니지(201)의 일 측에 접근하고, 다른 손으로 디지털 사이니지(201)에 포함된 컨텐츠 중 하나를 선택할 수 있다.In step 210 the user may approach one side of the digital signage 201 while holding the terminal 202 with one hand and select one of the contents contained in the digital signage 201 on the other hand .

단계(220)에서 사용자는 단계(210)에서 선택한 컨텐츠(200)를 단말(202) 방향으로 드래그할 수 있다. 이때, 사용자는 컨텐츠(200)를 디지털 사이니지(201)의 디스플레이 밖까지 이동시킬 수 있다.In step 220, the user may drag the content 200 selected in step 210 toward the terminal 202. At this time, the user can move the content 200 to the outside of the display of the digital signage 201.

단계(230)에서 디지털 사이니지(201)는 단계(220)에서 디스플레이 밖까지 이동한 컨텐츠(200)를 단말(202)로 이동시킬 수 있다.The digital signage 201 may move the content 200 that has moved out of the display to the terminal 202 in step 220.

즉, 종래의 디바이스 간 컨텐츠 이동 시스템은 컨텐츠를 다른 디바이스로 이동할 때마다 해당 컨텐츠를 디스플레이 밖까지 이동해야 하므로, 터치 입력의 길이가 증가하여 불편할 수 있다.In other words, the conventional device-to-device content movement system must move the content to the outside of the display every time the content is moved to another device, so that the length of the touch input may be inconvenient.

도 3은 본 발명의 일실시예에 따른 컨텐츠 디바이스(110)를 나타내는 도면이다. 3 is a diagram illustrating a content device 110 according to an embodiment of the present invention.

도 3을 참고하면, 본 발명의 일실시예에 따른 컨텐츠 디바이스(110)는 위치 정보 수집부(310), 터치 정보 생성부(320), 커플링부(330), 컨텐츠 이동부(340), 및 카메라 제어부(350)를 포함할 수 있다.3, the content device 110 includes a location information collecting unit 310, a touch information generating unit 320, a coupling unit 330, a content moving unit 340, And a camera control unit 350.

위치 정보 수집부(310)는 컨텐츠 디바이스(110)의 디스플레이에 터치한 물체가 있는 경우, 컨텐츠 디바이스(110)에 인접한 휴대용 디바이스(120)의 위치 정보를 수집할 수 있다.The location information collecting unit 310 may collect location information of the portable device 120 adjacent to the content device 110 when there is an object touched on the display of the content device 110. [

구체적으로, 컨텐츠 디바이스(110)의 디스플레이에 터치한 물체가 있는 경우, 위치 정보 수집부(310)는 주변 디바이스 검색 메시지를 전송할 수 있다. Specifically, when there is an object touched on the display of the content device 110, the location information collecting unit 310 can transmit a peripheral device search message.

주변 디바이스 검색 메시지에 대한 응답 메시지를 수신하지 않는 경우, 사용자가 휴대용 디바이스(120)를 가지고 있지 않다는 것을 의미하므로, 위치 정보 수집부(310)는 커플링부(330)를 종료시킬 수 있다.If the response message to the peripheral device search message is not received, it means that the user does not have the portable device 120, so that the position information collection unit 310 can terminate the coupling unit 330.

주변 디바이스 검색 메시지에 대한 응답 메시지를 수신하는 경우, 위치 정보 수집부(310)는 응답 메시지에서 컨텐츠 디바이스(110)에 인접한 휴대용 디바이스(120)의 위치 정보를 추출하여 수집할 수 있다.When receiving a response message to the peripheral device search message, the location information collecting unit 310 extracts location information of the portable device 120 adjacent to the content device 110 and collects the location information in the response message.

또한, 컨텐츠 디바이스(110)의 디스플레이에 터치한 물체가 있을 때마다 위치 정보 수집부(310)가 주변 디바이스 검색 메시지를 전송하면, 사용자가 컨텐츠를 이동할 생각이 없는 경우에도 주변 디바이스 검색 메시지 전송 및 커플링이 수행되므로, 자원이 낭비될 수 있다.Also, when the location information collecting unit 310 transmits a peripheral device search message whenever there is an object touched on the display of the content device 110, even if the user does not intend to move the content, Since the ring is performed, resources may be wasted.

예를 들어, 사용자는 컨텐츠 이동과 상관 없이 휴대용 디바이스(120)를 쥐고 컨텐츠 디바이스(110)의 디스플레이를 터치할 수도 있다. 따라서, 위치 정보 수집부(310)는 물체가 디스플레이를 터치하여 입력한 터치 명령이 단순 터치인 경우는 주변 디바이스 검색 메시지를 전송하지 않고, 터치 명령이 드래그, 스윕 및 플릭과 같은 컨텐츠 이동과 관련하여 기 설정된 터치 명령인 경우에만 주변 디바이스 검색 메시지를 전송할 수 있다.For example, the user may hold the portable device 120 and touch the display of the content device 110 regardless of the content movement. Accordingly, when the touch command inputted by touching the display of the object is a simple touch, the position information collecting unit 310 does not transmit the peripheral device search message, and the touch command is related to the movement of the contents such as drag, sweep and flick The peripheral device search message can be transmitted only in the case of the preset touch command.

즉, 위치 정보 수집부(310)는 사용자가 휴대용 디바이스(120), 또는 휴대용 디바이스(120)를 쥔 손으로 특정 터치 명령을 입력한 경우에만 휴대용 디바이스(120)와 커플링함으로써, 사용자가 컨텐츠의 이동을 원하지 않는 상황에서 컨텐츠를 이동할 휴대용 디바이스(120)를 검색하기 위하여 불필요한 자원이 소모되는 것을 방지할 수 있다.That is, the position information collecting unit 310 couples with the portable device 120 only when the user inputs a specific touch command with the hand holding the portable device 120 or the portable device 120, It is possible to prevent unnecessary resources from being consumed in order to search for the portable device 120 to move the content in a situation where it is not desired to move.

터치 정보 생성부(320)는 컨텐츠 디바이스(110)의 디스플레이에 터치한 물체의 개수, 물체의 면적, 및 물체의 형상에 기초하여 물체의 터치 타입을 식별할 수 있다. 또한, 터치 정보 생성부(320)는 물체의 움직임 패턴에 기초하여 사용자가 물체를 이용하여 컨텐츠 디바이스(110)에 입력하는 터치 명령을 식별할 수 있다. 그리고, 터치 정보 생성부(320)는 터치 명령과 물체의 터치 타입을 포함하는 터치 정보를 생성할 수 있다.The touch information generating unit 320 can identify the touch type of the object based on the number of objects touched on the display of the content device 110, the area of the object, and the shape of the object. In addition, the touch information generation unit 320 can identify a touch command that the user inputs to the content device 110 using the object based on the movement pattern of the object. The touch information generating unit 320 can generate touch information including a touch command and an object touch type.

이때, 터치 정보 생성부(320)는 물체가 디스플레이에 터치를 시작한 상태인 터치 다운(touch-down)과 물체가 디스플레이에서 터치를 종료하고 이탈한 상태인 터치 업(touch-up)의 발생 시간과 위치를 식별할 수 있다. 또한, 터치 정보 생성부(320)는 물체가 디스플레이에 터치를 한 상태로 이동하는 상태인 터치 무브(touch-move)인 경우, 이동하는 물체의 움직임 패턴, 이동 거리, 이동 시간 및 이동 방향 중 적어도 하나를 식별할 수도 있다.At this time, the touch information generating unit 320 generates a touch information such as a touch-down state in which the object starts to touch the display and a touch-up time in which the object is in touch with the display, Location can be identified. The touch information generating unit 320 may generate at least one of a moving pattern, a moving distance, a moving time, and a moving direction of a moving object in a touch-move state in which an object moves in a state of touching a display One may be identified.

그리고, 터치 정보 생성부(320)는 터치 타입을 사용자의 손가락 중 하나가 디스플레이를 터치하여 입력하는 싱글 터치, 사용자의 손가락들이 디스플레이의 복수의 위치를 터치하여 입력하는 멀티 터치, 및 휴대용 디바이스(120), 또는 휴대용 디바이스(120)를 쥐고 있는 사용자의 손이 디스플레이를 터치하여 입력하는 특이 터치 중 하나로 식별할 수 있다.The touch information generation unit 320 generates a touch information by using a single touch in which one of the fingers of the user touches and inputs the display, a multi-touch in which the fingers of the user touch and input a plurality of positions of the display, ), Or a specific touch that a user's hand holding the portable device 120 enters by touching the display.

구체적으로, 디스플레이에 터치한 물체의 형상이 사용자의 손가락이고, 디스플레이에 터치한 물체의 개수가 하나인 경우, 터치 정보 생성부(320)는 물체의 터치 타입을 싱글 터치로 식별할 수 있다. 또한, 디스플레이에 터치한 물체의 형상이 사용자의 손가락이고, 디스플레이에 터치한 물체의 개수가 복수인 경우, 터치 정보 생성부(320)는 물체의 터치 타입을 멀티 터치로 식별할 수 있다. 그리고, 디스플레이에 터치한 물체의 형상이 사용자의 손가락과 상이한 형상인 경우, 터치 정보 생성부(320)는 물체의 터치 타입을 특이 터치로 식별할 수 있다.Specifically, if the shape of the object touched on the display is the user's finger and the number of objects touched on the display is one, the touch information generating unit 320 can identify the touch type of the object with a single touch. If the shape of the object touched on the display is the user's finger and the number of objects touched on the display is plural, the touch information generating unit 320 can identify the touch type of the object by multi-touch. If the shape of the object touched on the display is different from the shape of the user's finger, the touch information generation unit 320 can identify the touch type of the object as a specific touch.

터치 정보 생성부가 특이 터치를 식별하는 방법은 이하 도 8을 참조하여 상세히 설명한다.A method by which the touch information generating unit identifies a specific touch will be described in detail with reference to FIG.

또한, 터치 정보 생성부(320)는 물체의 터치 타입과 물체의 움직임 패턴에 기초하여 제어 신호를 출력할 수 있다. 이때, 위치 정보 수집부(310)는 제어 신호에 따라 휴대용 디바이스(120)의 위치 정보를 수집할 수 있다.In addition, the touch information generating unit 320 can output a control signal based on the touch type of the object and the movement pattern of the object. At this time, the position information collecting unit 310 may collect the position information of the portable device 120 according to the control signal.

구체적으로, 터치 정보 생성부(320)는 터치 타입이 특이 터치를 포함하는 사전에 설정된 터치 형태이거나, 물체가 터치한 상태에서 이동하여 움직임 패턴이 발생하는 경우, 위치 정보 수집부(310)에게 휴대용 디바이스(120)의 위치 정보를 수집하라는 제어 신호를 출력할 수 있다.Specifically, when the touch type is a preset touch type including a specific touch, or when a moving pattern is generated by moving the object in a touched state, the touch information generating unit 320 transmits the position information to the position information collecting unit 310, And may output a control signal to collect position information of the device 120. [

커플링부(330)는 터치 정보 생성부(320)가 생성한 물체의 터치 정보 및 휴대용 디바이스(120)로부터 수신한 위치 정보에 기초하여 휴대용 디바이스(120)와 커플링을 맺을 수 있다.The coupling unit 330 can make a coupling with the portable device 120 based on the touch information of the object generated by the touch information generating unit 320 and the position information received from the portable device 120. [

구체적으로, 위치 정보에 포함된 휴대용 디바이스(120)의 이동 시간, 이동 거리 및 움직임 패턴이 터치 정보에 포함된 물체의 이동 시간, 이동 거리 및 움직임 패턴에 대응하는 경우, 커플링부(330)는 휴대용 디바이스(120)와 커플링을 맺을 수 있다. 이때, 위치 정보에 포함된 휴대용 디바이스(120)의 이동 시간, 이동 거리 및 움직임 패턴이 터치 정보에 포함된 물체의 이동 시간, 이동 거리 및 움직임 패턴이 일정 오차 이내에서 일치한 경우, 커플링부(330)는 위치 정보와 터치 입력이 대응하는 것으로 판단할 수 있다.Specifically, when the movement time, the movement distance, and the movement pattern of the portable device 120 included in the position information correspond to the movement time, the movement distance, and the movement pattern of the object included in the touch information, The device 120 can be coupled. At this time, if the movement time, the movement distance, and the movement pattern of the portable device 120 included in the position information coincide with the movement time, the movement distance, and the movement pattern of the object included in the touch information within a certain error, Can determine that the position information and the touch input correspond to each other.

사용자가 휴대용 디바이스(120)를 손에 쥔 상태로 디스플레이를 터치하거나, 휴대용 디바이스(120)로 디스플레이를 터치하는 경우, 디스플레이를 터치한 사용자의 손, 또는 휴대용 디바이스(120)에 반사되는 충격에 의하여 휴대용 디바이스(120) 가속도계 센서의 값이 변화할 수 있다. 이때, 휴대용 디바이스(120)는 가속도계 센서의 값의 변화 및 변화 시간을 이동 정보에 포함시킬 수 있다.When the user touches the display with the portable device 120 in his or her hand or touches the display with the portable device 120, the user's hand touching the display, or the impact reflected to the portable device 120, The value of the portable device 120 accelerometer sensor may change. At this time, the portable device 120 may include the change and the change time of the value of the accelerometer sensor in the movement information.

그리고, 커플링부(330)는 물체가 디스플레이를 터치한 시간과 가속도계 센서의 값이 변화한 시간을 비교하고, 터치한 시간과 가속도계 센서의 값이 변화한 시간이 일정한 오차 범위 내에서 일치하면, 휴대용 디바이스(120)와 커플링을 맺을 수 있다. 이때, 물체가 디스플레이를 터치한 시간은 터치 다운을 시작하여 드래그와 같은 터치 명령 입력 및 터치업까지의 시간일 수 있다.The coupling unit 330 compares the time at which the object touches the display with the time at which the value of the accelerometer sensor changes. If the time at which the touching time and the time at which the value of the accelerometer sensor coincide are within a predetermined error range, The device 120 can be coupled. At this time, the time at which the object touches the display may be the time from the touchdown start to the touch command input such as drag and the touch up.

또한, 사용자는 컨텐츠 이동과 상관 없이 휴대용 디바이스(120)를 쥐고 컨텐츠 디바이스(110)의 디스플레이를 터치할 수도 있다. 따라서, 커플링부(330)는 터치 명령이 단순 터치인 경우는 휴대용 디바이스(120)와 커플링하지 않고, 터치 명령이 드래그, 스윕 및 플릭과 같은 컨텐츠 이동과 관련하여 기 설정된 터치 명령인 경우에만 휴대용 디바이스(120)와 커플링을 맺을 수도 있다.In addition, the user may hold the portable device 120 and touch the display of the content device 110 regardless of the content movement. Therefore, the coupling unit 330 does not couple with the portable device 120 when the touch command is a simple touch, and only when the touch command is a predetermined touch command related to movement of contents such as drag, sweep and flick, Or may be coupled to device 120.

구체적으로, 사용자가 휴대용 디바이스(120), 또는 휴대용 디바이스(120)를 쥔 손으로 디스플레이에 표시되는 컨텐츠를 단순히 터치한 경우, 커플링부(330)는 휴대용 디바이스(120)와 커플링하지 않을 수 있다. 이때, 컨텐츠 이동부(340)는 사용자가 터치한 위치에 따라 동영상 컨텐츠의 플레이/정지, 버튼 입력, 텍스트 하이라이트, 필드 선택, 이미지 선택/확대와 같은 동작을 수행할 수 있다.Specifically, if the user simply touches the content displayed on the display with the handheld device 120, or with the hand holding the portable device 120, the coupling portion 330 may not couple with the portable device 120 . At this time, the content moving unit 340 can perform operations such as play / stop, button input, text highlight, field selection, and image selection / enlargement according to the position touched by the user.

그리고, 사용자가 휴대용 디바이스(120), 또는 휴대용 디바이스(120)를 쥔 손으로 디스플레이에 표시되는 컨텐츠를 드래그, 스윕, 및 플릭 중 하나를 입력하는 경우, 커플링부(330)는 휴대용 디바이스(120)와 커플링을 맺을 수 있다.When the user inputs one of the dragged, swept, and flicked content displayed on the display with the hand held device 120, or the hand held device 120, the coupling unit 330 can be operated by the portable device 120, Lt; RTI ID = 0.0 > and / or < / RTI >

즉, 커플링부(330)는 사용자가 휴대용 디바이스(120), 또는 휴대용 디바이스(120)를 쥔 손으로 특정 터치 명령을 입력한 경우에만 휴대용 디바이스(120)와 커플링함으로써, 사용자가 원하지 않는 컨텐츠가 휴대용 디바이스(120)로 이동되는 것을 방지할 수 있다.That is, the coupling unit 330 couples with the portable device 120 only when the user inputs a specific touch command with the hand held device 120 or the hand holding the portable device 120, The portable device 120 can be prevented from being moved.

위치 정보 수집부(310)가 복수의 휴대용 디바이스(120)로부터 위치 정보를 수집한 경우, 커플링부(330)는 수집한 위치 정보들과 터치 정보를 비교함으로써, 컨텐츠 디바이스(110)로부터 일정 거리 안에 위치한 복수의 휴대용 디바이스(120) 중 사용자가 디스플레이에 터치할 때 손에 쥐고 있는 휴대용 디바이스(120)를 식별하여 커플링을 맺을 수 있다.When the position information collecting unit 310 collects the position information from the plurality of portable devices 120, the coupling unit 330 compares the collected position information with the touch information, It is possible to identify and connect the portable device 120 in the hand when a user touches the display among the plurality of portable devices 120 located.

그리고, 물체가 드래그와 같은 터치 명령 입력을 위하여 이동하는 경우, 커플링부(330)는 물체가 디스플레이에 터치하여 이동하기 시작하는 시간부터 휴대용 디바이스(120)와 커플링을 맺을 수 있다. 또한, 커플링부(330)는 물체가 디스플레이에서 이탈하여 터치가 종료되기 전까지 휴대용 디바이스(120)와 맺은 커플링을 유지할 수 있다.In addition, when the object moves for a touch command input such as a drag, the coupling unit 330 can make a coupling with the portable device 120 from the time when the object starts to move and touch the display. Also, the coupling part 330 can maintain the coupling with the portable device 120 until the object is separated from the display and the touch is terminated.

또한, 터치 타입이 특이 터치인 경우, 커플링부(330)는 휴대용 디바이스(120)와 커플링을 맺을 수 있다. 그리고, 터치 타입이 싱글 터치, 또는 멀티 터치이고, 터치 명령이 입력된 경우, 커플링부(330)는 휴대용 디바이스(120)와 커플링을 맺을 수 있다. 반면, 터치 타입이 싱글 터치, 또는 멀티 터치이지만, 단순히 터치만 하고, 움직임 없이 터치를 종료한 경우, 커플링부(330)는 휴대용 디바이스(120)와 커플링을 맺지 않을 수 있다.In addition, when the touch type is a specific touch, the coupling portion 330 can be coupled to the portable device 120. [ If the touch type is a single touch or multi-touch, and the touch command is input, the coupling unit 330 can couple with the portable device 120. [ On the other hand, if the touch type is a single touch or a multi-touch, the coupling unit 330 may not be coupled to the portable device 120 when the touch is terminated without a simple touch.

컨텐츠 이동부(340)는 터치 정보 생성부(320)가 생성한 물체의 터치 정보 및 위치 정보 수집부(310)가 수집한 위치 정보에 기초하여 커플링부(330)가 커플링을 맺은 휴대용 디바이스(120)로 컨텐츠를 이동할 수 있다.The content moving unit 340 moves the portable device (coupling unit 330) coupled with the coupling unit 330 based on the touch information of the object generated by the touch information generating unit 320 and the position information collected by the position information collecting unit 310 120). ≪ / RTI >

이때, 컨텐츠 이동부(340)는 터치 정보에 기초하여 컨텐츠가 상기 디스플레이에서 표시되는 표시 위치를 이동시킬 수 있다. 그리고, 컨텐츠 이동부(340)는 표시 위치 및 표시 위치의 이동 방향에 기초하여 휴대용 디바이스(120)로 컨텐츠를 이동할 수 있다.At this time, the content moving unit 340 can move the display position where the content is displayed on the display based on the touch information. Then, the content moving unit 340 can move the content to the portable device 120 based on the display position and the moving direction of the display position.

터치 타입이 특이 터치인 경우, 컨텐츠를 휴대용 디바이스(120)로 이동하는 방법은 이하 도 9를 참조하여 상세히 설명한다.When the touch type is a specific touch, a method of moving content to the portable device 120 will be described in detail with reference to FIG.

물체가 복수의 컨텐츠들을 선택한 다음, 휴대용 디바이스(120)가 위치한 방향으로 이동하는 터치 명령을 입력한 경우, 컨텐츠 이동부(340)는 물체가 선택한 복수의 컨텐츠들을 모두 휴대용 디바이스(120)로 이동할 수 있다.When an object selects a plurality of contents and then inputs a touch command to move the portable device 120 in the direction in which the portable device 120 is located, the content moving unit 340 may move all the plurality of contents selected by the object to the portable device 120 have.

구체적으로, 디스플레이에 접촉한 물체가 드래그, 스윕, 및 플릭 중 하나를 이용하여 디스플레이에 표시된 복수의 컨텐츠를 선택한 경우, 컨텐츠 이동부(340)는 물체가 선택한 복수의 컨텐츠들을 모두 휴대용 디바이스(120)로 이동할 수 있다.Specifically, when an object touching the display selects a plurality of contents displayed on the display using one of the drag, sweep, and flick, the content moving unit 340 moves all the plurality of contents selected by the object to the portable device 120, . ≪ / RTI >

복수의 컨텐츠들을 모두 휴대용 디바이스(120)로 이동하는 방법은 이하 도 5를 참조하여 상세히 설명한다.A method of moving all of the plurality of contents to the portable device 120 will be described in detail with reference to FIG.

또한, 휴대용 디바이스(120)에 포함된 컨텐츠가 선택된 상태에서 디스플레이에 접촉한 물체가 터치 명령을 입력하는 경우, 컨텐츠 이동부(340)는 휴대용 디바이스(120)로부터 선택된 컨텐츠를 수신하여 터치 명령이 입력된 위치에 표시할 수 있다.When an object touching the display inputs a touch command while content included in the portable device 120 is selected, the content moving unit 340 receives the content selected from the portable device 120, It can be displayed at the position where it is located.

터치 타입이 특이 터치인 경우, 휴대용 디바이스(120)로부터 컨텐츠를 수신하여 표시하는 방법은 이하 도 10을 참조하여 상세히 설명한다.A method for receiving and displaying content from the portable device 120 when the touch type is a special touch will be described in detail with reference to FIG.

카메라 제어부(350)는 커플링부(330)가 커플링한 휴대용 디바이스(120)의 제어에 따라 컨텐츠 디바이스(110)의 내부에 포함된 카메라, 또는 컨텐츠 디바이스(110)와 연결된 카메라를 제어할 수 있다.The camera control unit 350 can control a camera included in the content device 110 or a camera connected to the content device 110 under the control of the portable device 120 to which the coupling unit 330 is coupled .

구체적으로, 카메라 제어부(350)는 컨텐츠 디바이스(110)의 디스플레이에 카메라 실행용 컨텐츠를 표시할 수 있다. Specifically, the camera control unit 350 can display content for camera execution on the display of the content device 110. [

그리고, 사용자가 카메라 실행용 컨텐츠를 선택하는 경우, 터치 정보 생성부(320)는 사용자가 카메라 실행용 컨텐츠를 선택하기 위하여 입력한 터치 명령을 기초로 터치 정보를 생성하고, 위치 정보 수집부(310)는 터치 정보 생성부(320)가 생성한 터치 정보에 따라 휴대용 디바이스(120)의 위치 정보를 수집할 수 있다.When the user selects content for camera execution, the touch information generating unit 320 generates touch information based on the touch command inputted by the user to select the content for camera execution, and the position information collecting unit 310 Can collect position information of the portable device 120 according to the touch information generated by the touch information generating unit 320. [

또한, 커플링부(330)는 위치 정보 수집부(310)가 수집한 위치 정보와 터치 정보 생성부(320)가 생성한 터치 정보를 기초로 휴대용 디바이스(120)와 커플링을 맺을 수 있다. 이때, 카메라 제어부(340)는 컨텐츠 디바이스(110)의 내부에 포함된 카메라, 또는 컨텐츠 디바이스(110)와 연결된 카메라를 구동시키며 휴대용 디바이스(120)에 카메라 제어 프로그램의 실행을 요청하는 메시지를 전송할 수 있다. The coupling unit 330 can couple with the portable device 120 based on the position information collected by the position information collecting unit 310 and the touch information generated by the touch information generating unit 320. At this time, the camera controller 340 drives a camera included in the content device 110 or a camera connected to the content device 110, and can transmit a message requesting execution of the camera control program to the portable device 120 have.

다음으로, 카메라 제어부(350)는 휴대용 디바이스(120)로부터 카메라 제어 프로그램에 따라 사용자가 입력한 카메라 제어 신호를 수신할 수 있다.Next, the camera control unit 350 can receive the camera control signal input by the user in accordance with the camera control program from the portable device 120. [

마지막으로 카메라 제어부(350)는 수신한 카메라 제어 신호에 따라 컨텐츠 디바이스(110)의 내부에 포함된 카메라, 또는 컨텐츠 디바이스(110)와 연결된 카메라를 제어할 수 있다. 이때, 카메라 제어부(350)는 카메라 제어 신호에 따라 카메라의 각도, 촬영 횟수, 촬영 시작 시간, 및 종료 시간을 제어할 수 있으며, 카메라로 촬영한 영상 및 이미지를 컨텐츠 디바이스(110)의 디스플레이에 표시할 수 있다.
Finally, the camera control unit 350 may control a camera included in the content device 110 or a camera connected to the content device 110 according to the received camera control signal. At this time, the camera control unit 350 can control the angle of the camera, the number of times of shooting, the shooting start time, and the end time according to the camera control signal, and displays the images and images shot by the camera on the display of the content device 110 can do.

도 4는 본 발명의 일실시예에 따른 컨텐츠 디바이스(110)에서 싱글 터치로 이동할 컨텐츠를 선택하는 방법의 일례이다. 4 is an example of a method of selecting a content to be moved from the content device 110 to a single-touch according to an embodiment of the present invention.

사용자는 도 4의 케이스 1(Case 1)에 도시된 바와 휴대용 디바이스(120)를 쥔 손(400)으로 컨텐츠 디바이스(110)의 디스플레이에 표시된 컨텐츠(410)의 영역(411)을 터치할 수 있다.The user can touch the area 411 of the content 410 displayed on the display of the content device 110 to the hand 400 holding the portable device 120 as shown in Case 1 of Fig. .

그리고, 사용자가 손(400)을 컨텐츠(410)의 영역(411)에서 컨텐츠(410)의 다른 영역(412)까지 드래그할 수 있다. 이때, 사용자는 드래그 대신 스윕이나 플릭으로 영역(411)에서 영역(412)로 향하는 터치 명령을 입력할 수도 있다.Then, the user can drag the hand 400 from the area 411 of the content 410 to another area 412 of the content 410. At this time, the user may input a touch command directed from the region 411 to the region 412 with a sweep or a flick instead of dragging.

이때, 컨텐츠 디바이스(110)는 휴대용 디바이스(120)로부터 휴대용 디바이스(120)의 위치 정보를 수신할 수 있다. 그리고, 휴대용 디바이스(120)의 위치가 영역(411)에서 다른 영역(412)까지의 거리 및 방향만큼 이동하거나, 휴대용 디바이스(120)의 이동 시간이 드래그가 입력되던 시간에 대응하는 경우, 컨텐츠 디바이스(110)는 손(400)에 휴대용 디바이스(120)가 쥐어져 있는 것으로 판단할 수 있다. At this time, the content device 110 can receive the location information of the portable device 120 from the portable device 120. [ When the position of the portable device 120 is moved by the distance and direction from the area 411 to the other area 412 or when the moving time of the portable device 120 corresponds to the time at which the drag is inputted, The portable device 110 may judge that the portable device 120 is held in the hand 400. [

다음으로, 컨텐츠 디바이스(110)는 컨텐츠(410)를 사용자의 손(400)에 쥐어져 있는 휴대용 디바이스(120)로 이동시킬 수 있다.Next, the content device 110 may move the content 410 to the portable device 120 held in the user's hand 400.

또한, 사용자는 도 4의 케이스 2(Case 2)에 도시된 바와 같이 손(400)으로 컨텐츠(410)에 인접한 영역(421)을 터치하고, 영역(421)에서 컨텐츠(410)의 반대편에 인접한 영역(422)까지 드래그할 수 있다. 이때, 사용자는 드래그 대신 스윕이나 플릭으로 영역(421)에서 영역(422)로 향하는 터치 명령을 입력할 수도 있다.In addition, the user may touch the area 421 adjacent to the content 410 with the hand 400 as shown in case 2 of FIG. 4, and the area 421 adjacent to the opposite side of the content 410 in the area 421 Area 422 as shown in FIG. At this time, the user may input a touch command directed to the area 422 in the area 421 by sweep or flick instead of dragging.

이때, 컨텐츠 디바이스(110)는 영역(421)과 영역(422)을 각각 하나의 꼭지점으로 설정한 가상 영역(420)에 포함된 컨텐츠(410)를 검색하고, 검색된 컨텐츠(410)를 사용자의 손(400)에 쥐어져 있는 휴대용 디바이스(120)로 이동시킬 수 있다.
At this time, the content device 110 searches the content 410 included in the virtual area 420 where the area 421 and the area 422 are set as one vertex, and searches the content 410 for the user's hand To the portable device 120 held in the housing 400.

도 5는 본 발명의 일실시예에 따른 컨텐츠 디바이스(110)에서 싱글 터치로 이동할 복수의 컨텐츠를 선택하는 방법의 일례이다.5 is an example of a method of selecting a plurality of contents to be moved from a content device 110 to a single-touch according to an embodiment of the present invention.

사용자는 도 5의 케이스 1(Case 1)에 도시된 바와 휴대용 디바이스(120)를 쥔 손(500)으로 컨텐츠 디바이스(110)의 디스플레이에 표시된 컨텐츠들을 연속으로 선택할 수 있다. 구체적으로, 사용자는 컨텐츠 디바이스(110)의 디스플레이에 표시된 제1 컨텐츠(510)의 영역(511), 제2 컨텐츠(520)의 영역(521), 제3 컨텐츠(530)의 영역(531)을 연속으로 터치할 수 있다. The user can continuously select the content displayed on the display of the content device 110 with the hand 500 holding the portable device 120 as shown in Case 1 of Fig. Specifically, the user can select the area 511 of the first content 510, the area 521 of the second content 520, and the area 531 of the third content 530 displayed on the display of the content device 110 You can touch continuously.

이때, 컨텐츠 디바이스(110)는 휴대용 디바이스(120)로부터 휴대용 디바이스(120)의 위치 정보를 수신할 수 있다. 그리고, 휴대용 디바이스(120)의 위치가 영역(511), 영역(521), 및 영역(531)로 이동한 경우, 컨텐츠 디바이스(110)는 손(500)에 휴대용 디바이스(120)가 쥐어져 있는 것으로 판단할 수 있다.At this time, the content device 110 can receive the location information of the portable device 120 from the portable device 120. [ Then, when the position of the portable device 120 is moved to the area 511, the area 521 and the area 531, the content device 110 determines that the portable device 120 is held in the hand 500 .

다음으로, 컨텐츠 디바이스(110)는 터치된 영역(511), 영역(521), 및 영역(531)에 대응하는 제1 컨텐츠(510), 제2 컨텐츠(520), 및 제3 컨텐츠(530)를 모두 사용자의 손(500)에 쥐어져 있는 휴대용 디바이스(120)로 이동시킬 수 있다.Next, the content device 110 transmits the first content 510, the second content 520, and the third content 530 corresponding to the touched area 511, the area 521, and the area 531, To the portable device 120 held in the user's hand 500.

또한, 사용자는 도 5의 케이스 2(Case 2)에 도시된 바와 손(500)으로 제1 컨텐츠(510)에 인접한 영역(541)을 터치하고, 영역(541)를 하나의 꼭지점으로 설정하는 가상 영역(540)이 제1 컨텐츠(510), 제2 컨텐츠(520), 및 제3 컨텐츠(530)를 모두 포함하도록 하는 영역(542)까지 손(500)을 드래그할 수 있다.The user may touch the area 541 adjacent to the first content 510 with the hand 500 as shown in case 2 of FIG. 5 and set the area 541 as a vertex The user may drag the hand 500 to the region 542 where the region 540 includes both the first content 510, the second content 520, and the third content 530.

이때, 컨텐츠 디바이스(110)는 가상 영역(520)에 포함된 제1 컨텐츠(510), 제2 컨텐츠(520), 및 제3 컨텐츠(530)를 모두 사용자의 손(500)에 쥐어져 있는 휴대용 디바이스(120)로 이동시킬 수 있다.
At this time, the content device 110 stores the first content 510, the second content 520, and the third content 530 included in the virtual area 520 in a portable manner, To the device 120.

도 6은 본 발명의 일실시예에 따른 컨텐츠 디바이스(110)에서 특이 터치로 이동할 컨텐츠를 선택하는 방법의 일례이다.FIG. 6 is an example of a method of selecting a content to be moved from a content device 110 to a specific touch according to an embodiment of the present invention.

사용자는 도 6에 도시된 바와 같이 손(600)에 쥔 휴대용 디바이스(120)로 컨텐츠 디바이스(110)의 디스플레이에 표시된 컨텐츠들 중 하나의 컨텐츠(610)의 영역(611)를 터치할 수 있다.The user can touch the area 611 of one of the contents 610 displayed on the display of the content device 110 with the portable device 120 holding the hand 600 as shown in FIG.

이때, 컨텐츠 디바이스(110)는 디스플레이에 터치한 물체의 형상이 사용자의 손가락과 상이하므로, 특이 터치로 판단할 수 있다. 그리고, 컨텐츠 디바이스(110)는 휴대용 디바이스(120)로부터 휴대용 디바이스(120)의 위치 정보를 수신할 수 있다. 이때, 위치 정보는 휴대용 디바이스(120)의 위치, 및 휴대용 디바이스의 가속도계 센서의 값이 변화한 시간을 포함할 수 있다.At this time, since the shape of the object touched on the display differs from the finger of the user, the content device 110 can determine that the touch is unique. The content device 110 can receive the location information of the portable device 120 from the portable device 120. [ At this time, the positional information may include the position of the portable device 120 and the time at which the value of the accelerometer sensor of the portable device changes.

그리고, 컨텐츠 디바이스(110)가 디스플레이에 터치한 물체를 감지한 시간이 휴대용 디바이스의 가속도계 센서의 값이 변화한 시간과 일치하는 경우, 컨텐츠 디바이스(110)는 컨텐츠(410)를 사용자의 손(400)에 쥐어져 있는 휴대용 디바이스(120)로 이동시킬 수 있다.
When the time when the content device 110 senses the object touched on the display coincides with the time when the value of the accelerometer sensor of the portable device changes, the content device 110 transmits the content 410 to the user's hand 400 To the portable device 120 being held by the user.

도 7은 본 발명의 일실시예에 따른 컨텐츠 디바이스(110)에서 멀티 터치로 이동할 컨텐츠를 선택하는 방법의 일례이다.7 is an example of a method of selecting content to be moved in multi-touch in the content device 110 according to an embodiment of the present invention.

컨텐츠 디바이스(110) 중 디지털 사이니지에 자주 등장하는 컨텐츠에 지도(map) 컨텐츠와 같이 드래그, 스윕, 및 플릭을 사용할 가능성이 높은 컨텐츠가 있을 수 있다. 이때, 지도 컨텐츠는 디스플레이에 표시되는 지형을 확대하거나 이동해야 하는 경우가 많으므로, 지도 컨텐츠를 이용하는 과정에서 드래그, 스윕, 및 플릭을 사용할 가능성이 높다. There may be content that is likely to use drag, sweep, and flick, such as map content, in content that often appears in digital signage among the content devices 110. At this time, since the map content often needs to enlarge or move the displayed terrain on the display, there is a high possibility of using drag, sweep, and flick in using the map contents.

따라서, 사용자가 디스플레이에 표시하는 컨텐츠에 드래그, 스윕 및 플릭과 같은 터치 명령을 입력하는 경우, 컨텐츠 디바이스(110)는 사용자가 터치로 입력한 드래그, 스윕, 및 플릭이 컨텐츠 이동을 위한 것인지 컨텐츠를 제어하기 위한 것인지를 식별하기 어려울 수 있다.Accordingly, when the user inputs a touch command such as drag, sweep, and flick to the content displayed on the display, the content device 110 determines whether the drag, sweep, and flick input by the user are for content movement or content It may be difficult to identify whether or not it is for controlling.

따라서, 컨텐츠 디바이스(110)는 도 7에 도시된 바와 손(700)으로 컨텐츠(710)에 포함된 복수의 영역을 터치하여 한쪽 방향으로 드래그한 경우, 컨텐츠(710)를 휴대용 디바이스(120)로 이동하도록 설정할 수 있다. 구체적으로, 사용자는 휴대용 디바이스(120)를 쥔 손(700)으로 영역(711), 영역(712) 및 영역(713)을 터치할 수 있다. 그리고, 사용자는 영역(711), 영역(712) 및 영역(713)을 터치한 손(700)을 영역(714), 영역(715) 및 영역(716)까지 드래그할 수 있다.Accordingly, when the content device 110 touches a plurality of areas included in the content 710 in the hand 700 as shown in FIG. 7 and drags the content 710 in one direction, the content device 110 transmits the content 710 to the portable device 120 Can be set to move. Specifically, the user can touch area 711, area 712, and area 713 to hand 700 holding handheld device 120. The user can drag the hand 700 that touches the area 711, the area 712, and the area 713 to the area 714, the area 715, and the area 716.

즉, 지도 컨텐츠를 이동하기 위한 드래그, 스윕, 및 플릭은 한 손가락의 입력이고, 지도의 확대/축소는 두 손가락이 서로 다른 방향으로 이동하는 터치 입력이므로, 사용자가 복수의 손가락으로 동일한 방향의 드래그, 스윕, 및 플릭을 입력하는 경우, 컨텐츠 디바이스(110)는 사용자가 지도 컨텐츠(710)를 휴대용 디바이스(120)로 이동하기 원한다고 판단할 수 있다. That is, since the drag, sweep, and flick for moving the map content are input of one finger, and zooming of the map is a touch input in which two fingers move in different directions, , Sweeps, and flicks, the content device 110 may determine that the user desires to move the map content 710 to the portable device 120.

또한, 컨텐츠 디바이스(110)는 도 4의 케이스 2(Case 2)에 도시된 바와 손으로 지도 컨텐츠에 인접한 영역부터 지도 컨텐츠의 반대편에 인접한 영역까지 드래그한 경우, 지도 컨텐츠를 휴대용 디바이스로 이동하도록 설정할 수 있다.
In addition, when the content device 110 is dragged from the area adjacent to the map content to the area adjacent to the opposite side of the map content as shown in case 2 (Case 2) of FIG. 4, the content device 110 is set to move the map content to the portable device .

도 8은 본 발명의 일실시예에 따른 특이 터치의 일례이다.8 is an example of a specific touch according to an embodiment of the present invention.

본 발명의 터치 정보 생성부가 식별하는 터치 타입 중 특이 터치는 일반적인 손가락으로 이루어 지기 어려운 형태의 터치일 수 있다.The specific type of touch among the touch types identified by the touch information generation unit of the present invention may be a type of touch that is difficult to be performed by a general finger.

예를 들어, 특이 터치는 컨텐츠 디바이스(110)의 디스플레이를 사용자 휴대용 디바이스(120)로 터치하거나, 휴대용 디바이스(120)를 쥔 손(800)의 손가락 마디를 터치하는 것일 수 있다.For example, the singular touch may be to touch the display of the content device 110 to the user portable device 120, or to touch the finger node of the hand 800 holding the portable device 120.

구체적으로 손가락으로 이루어지는 일반적인 터치가 입력될 경우, 컨텐츠 디바이스(110)가 감지하는 터치 흔적(811)의 형상은 도 8의 케이스 1(Case 1)에 도시된 바와 같이 원형일 수 있다.Specifically, when a general touch made of a finger is input, the shape of the touch trace 811 sensed by the content device 110 may be circular as shown in Case 1 of FIG.

반면, 휴대용 디바이스(120)로 이루어지는 특이 터치가 입력될 경우, 컨텐츠 디바이스(110)가 감지하는 터치 흔적(821)의 형상은 도 8의 케이스 2(Case 2)에 도시된 바와 같이 휴대용 디바이스(120)의 폭만큼 길이를 가지는 사각형 형상, 또는 타원 형상일 수 있다.On the other hand, when a specific touch composed of the portable device 120 is input, the shape of the touch trace 821 sensed by the content device 110 is the same as that of the portable device 120 ), Or an elliptical shape.

또한, 손(800)의 손가락 마디로 이루어지는 특이 터치가 입력될 경우, 컨텐츠 디바이스(110)가 감지하는 터치 흔적(831)의 형상은 도 8의 케이스 3(Case 3)에 도시된 바와 같이 손(800)의 손등, 또는 손가락 폭 만큼의 길이를 가지는 사각형 형상일 수 있다.When a specific touch including a finger of the hand 800 is input, the shape of the touch trace 831 sensed by the content device 110 is the same as the shape of the touch trace 831 shown in Case 3 of FIG. 8 800, or a rectangular shape having a length corresponding to the finger width.

따라서, 터치 정보 생성부(320)는 터치 흔적의 형상에 기초하여 물체가 사용자의 손가락인지 아니면, 휴대용 디바이스(120)나 휴대용 디바이스(120)를 쥔 손(800)의 손가락 마디인지를 식별할 수 있다. 그리고, 물체가 휴대용 디바이스(120)나 휴대용 디바이스(120)를 쥔 손(800)의 손가락 마디인 경우, 터치 정보 생성부(320)는 물체의 터치 타입을 특이 터치로 식별할 수 있다. 이때, 터치 흔적의 형상은 도 8에 도시된 바와 같이 디스플레이에 터치한 물체의 형상에 대응할 수 있다.
Therefore, the touch information generating unit 320 can identify whether the object is a finger of the user or the finger of the hand 800 holding the portable device 120 or the portable device 120 based on the shape of the touch trace have. If the object is a finger node of the hand held device 120 or the hand holding the portable device 120, the touch information generating unit 320 can identify the touch type of the object as a specific touch. At this time, the shape of the touch trace may correspond to the shape of the object touched on the display as shown in FIG.

도 9는 본 발명의 일실시예에 따른 컨텐츠 디바이스(110)에서 특이 터치로 이동할 컨텐츠를 선택하는 방법의 일례이다.9 is an example of a method of selecting a content to be moved from a content device 110 to a specific touch according to an embodiment of the present invention.

사용자가 휴대용 디바이스(120)로 디스플레이의 영역 영역(911)을 터치한 상태로 영역(912)까지 드래그한 경우, 컨텐츠 디바이스(110)는 특이 터치를 이용하여 이동할 컨텐츠를 선택하는 터치 입력이 발생한 것으로 판단하여 휴대용 디바이스(120)와 커플링을 맺을 수 있다. 이때, 컨텐츠 디바이스(110)는 영역(911)에 터치된 물체의 형태가 사용자의 손가락과 상이하므로, 특이 터치가 발생한 것으로 판단할 수 있다.When the user drags the area 911 of the display to the area 912 with the portable device 120, the content device 110 generates a touch input for selecting the content to be moved using the specific touch And can make a coupling with the portable device 120. [ At this time, since the shape of the object touched in the area 911 differs from that of the user, the content device 110 can determine that a specific touch has occurred.

다음으로, 컨텐츠 디바이스(110)는 영역(911)과 영역(912) 사이에 표시되는 컨텐츠(910)를 검색할 수 있다.Next, the content device 110 can search the content 910 displayed between the region 911 and the region 912. [

마지막으로 컨텐츠 디바이스(110)는 검색된 컨텐츠(910)를 사용자의 손(900)에 쥐어져 있는 휴대용 디바이스(120)로 이동시킬 수 있다.Finally, the content device 110 may move the retrieved content 910 to the portable device 120 held in the user's hand 900.

즉, 사용자는 휴대용 디바이스(120)를 사용하여 휴대용 디바이스(120)로 이동하기 원하는 컨텐츠(910)를 드래그하는 것만으로 컨텐츠(910)를 용이하게 휴대용 디바이스(120)로 이동할 수 있다.
That is, the user can easily move the content 910 to the portable device 120 by simply dragging the content 910 that he wants to move to the portable device 120 using the portable device 120. [

도 10은 본 발명의 일실시예에 따른 컨텐츠 디바이스(110)가 수신한 컨텐츠를 표시할 위치를 선택하는 방법의 일례이다.10 is an example of a method of selecting a location to display content received by the content device 110 according to an embodiment of the present invention.

사용자가 휴대용 디바이스(120)에 표시된 컨텐츠(1010)를 컨텐츠 디바이스(110)로 이동하고자 하는 경우, 사용자는 도 10에 도시된 바와 같이 휴대용 디바이스(120)에 표시된 컨텐츠(1010)를 터치할 수 있다.When the user wants to move the content 1010 displayed on the portable device 120 to the content device 110, the user can touch the content 1010 displayed on the portable device 120 as shown in FIG. 10 .

다음으로, 사용자가 휴대용 디바이스(120)로 영역(1021)을 터치한 상태로 영역(1022)까지 드래그 한 경우, 컨텐츠 디바이스(110)는 특이 터치가 발생한 것으로 판단하여 휴대용 디바이스(120)와 커플링을 맺을 수 있다. Next, when the user drags the area 1021 to the area 1022 while touching the area 1021 with the portable device 120, the content device 110 determines that a specific touch has occurred, .

그 다음으로, 컨텐츠 디바이스(110)는 휴대용 디바이스(120)로부터 사용자가 터치하여 선택한 컨텐츠(1010)를 수신할 수 있다.Next, the content device 110 can receive the content 1010 selected by touching from the portable device 120 by the user.

마지막으로 컨텐츠 디바이스(110)는 영역(1021)과 영역(1022) 사이의 영역(1020)에 수신한 컨텐츠(1010)를 표시할 수 있다.Finally, the content device 110 may display the received content 1010 in an area 1020 between the area 1021 and the area 1022. [

즉, 사용자는 휴대용 디바이스(120)에서 컨텐츠 디바이스(110)로 이동하기 원하는 컨텐츠(1010)를 휴대용 디바이스(120)에서 선택하고, 휴대용 디바이스(120)로 디스플레이를 터치 및 드래그하는 것만으로 컨텐츠(1010)를 용이하게 컨텐츠 디바이스(110)로 이동할 수 있다. 또한, 사용자는 컨텐츠(1010)가 표시되기 원하는 위치를 휴대용 디바이스(120)로 드래그하는 것만으로 컨텐츠(1010)가 사용자가 원하는 위치에서 표시되도록 할 수 있다.
That is, the user selects the content 1010 desired to move from the portable device 120 to the content device 110, selects the content 1010 from the portable device 120, and simply touches and drags the display to the portable device 120, ) To the content device 110 with ease. In addition, the user can drag the content 1010 to the portable device 120 to display the content 1010 at a position desired by the user.

도 11은 본 발명의 일실시예에 따른 컨텐츠 디바이스(110)에서 싱글 터치와 특이 터치로 컨텐츠를 이동하는 방법의 일례이다.11 is an example of a method of moving content in a content device 110 according to an embodiment of the present invention with a single-touch and a specific-touch.

본 발명의 일실시예에 따른 컨텐츠 디바이스(110)는 특이 터치와 일반 터치를 함께 이용하여 컨텐츠를 이동할 수도 있다.The content device 110 according to an exemplary embodiment of the present invention may move the content using a combination of a specific touch and a general touch.

도 11의 케이스 1(Case 1)은 특이 터치와 일반 터치를 함께 이용하여 컨텐츠를 이동하는 경우의 정면도이고, 도 11의 케이스 2(Case 2)는 특이 터치와 일반 터치를 함께 이용하여 컨텐츠를 이동하는 경우의 측면도일 수 있다.Case 1 in FIG. 11 is a front view when content is moved using a combination of a specific touch and a general touch. In Case 2 of FIG. 11, content is moved using a specific touch and a general touch together As shown in Fig.

구체적으로, 사용자는 도 11에 도시된 바와 같이 휴대용 디바이스(120)로 컨텐츠 디바이스(110)의 디스플레이 중 일부분을 터치할 수 있다.Specifically, the user can touch a portion of the display of the content device 110 to the portable device 120 as shown in FIG.

다음으로, 사용자는 다른 손(1100)으로 이동하기 원하는 컨텐츠(1110)의 영역(1111)을 터치할 수 있다.Next, the user can touch the area 1111 of the content 1110 that he / she wants to move to the other hand 1100.

그 다음으로, 사용자는 도 11의 케이스 2(Case 2)에 도시된 바와 같이 영역(1111)을 터치한 손(1100)을 드래그하여 휴대용 디바이스(120)의 디스플레이의 영역(1112)까지 이동할 수 있다.Next, the user can move to the area 1112 of the display of the portable device 120 by dragging the hand 1100 that touches the area 1111, as shown in Case 2 of Fig. 11 .

이때, 컨텐츠 디바이스(110)는 주변 디바이스 검색 메시지를 송출할 수 있다. 구체적으로, 사용자가 휴대용 디바이스(120)로 컨텐츠 디바이스(110)의 디스플레이를 터치하여 발생한 특이 터치와 컨텐츠(1110)을 드래그하는 일반 터치를 감지한 경우, 컨텐츠 디바이스(110)는 주변 디바이스 검색 메시지를 전송할 수 있다.At this time, the content device 110 can transmit a peripheral device search message. Specifically, when the user senses a general touch generated by touching the display of the content device 110 with the portable device 120 and a general touch generated by dragging the content 1110, the content device 110 transmits a peripheral device search message Lt; / RTI >

그리고, 주변 디바이스 검색 메시지를 수신한 휴대용 디바이스(120)는 도 11의 case 1과 같이 사용자가 드래그한 손이 휴대용 디바이스(120)의 영역(1112)까지 이동한 경우, 수신한 주변 디바이스 검색 메시지에 대한 응답을 전송할 수 있다. 구제적으로, 휴대용 디바이스(120)가 주변 디바이스 검색 메시지를 수신한 시간과 휴대용 디바이스(120)가 영역(1112)까지 드래그되는 손의 터치를 감지한 시간이 일정 오차 이내로 일치하는 경우, 휴대용 디바이스(120)는 컨텐츠 디바이스(110)로 수신한 주변 디바이스 검색 메시지에 대한 응답을 전송할 수 있다. 11, the handheld device 120 receives the peripheral device search message. When the hand dragged by the user moves to the area 1112 of the portable device 120 as shown in case 1 of FIG. 11, Can be transmitted. As a remedy, when the time at which the portable device 120 receives the peripheral device search message and the time at which the portable device 120 senses the touch of the hand being dragged to the area 1112 coincide within a predetermined error, 120 may transmit a response to the peripheral device search message received by the content device 110. [

다음으로, 컨텐츠 디바이스(110)는 적어도 하나의 응답 메시지를 수신할 수 있다. 그리고, 컨텐츠 디바이스(110)는 응답 메시지에 포함된 위치 정보에서 응답 메시지를 전송한 휴대용 디바이스(120)의 디스플레이에 터치 다운이 일어난 터치 다운 시간을 추출할 수 있다.Next, the content device 110 may receive at least one response message. The content device 110 may extract the touchdown time at which the touchdown occurred on the display of the portable device 120 that transmitted the response message from the location information included in the response message.

그 다음으로, 컨텐츠 디바이스(110)는 컨텐츠 디바이스(110)의 디스플레이에서 터치 업이 일어난 시간에 가장 근접한 터치 다운 시간을 식별하고, 식별한 터치 다운 시간에 대응하는 휴대용 디바이스(120)을 선택하여 커플링을 맺을 수 있다. 이때, 컨텐츠 디바이스(110)는 컨텐츠 디바이스(110)의 디스플레이에서 터치 업이 일어난 후 주변 디바이스 검색 메시지를 송부하므로, 터치 다운 시간은 컨텐츠 디바이스(110)의 디스플레이에서 터치 업이 일어난 시간보다 이후일 수 있다.Next, the content device 110 identifies the touchdown time closest to the time at which the touchup occurred at the display of the content device 110, selects the portable device 120 corresponding to the identified touchdown time, Ring can be formed. Here, since the content device 110 sends a peripheral device search message after touchup occurs on the display of the content device 110, the touchdown time may be longer than the time when the touchup occurred on the display of the content device 110 have.

마지막으로 컨텐츠 디바이스(110)는 컨텐츠(1110)를 휴대용 디바이스(120)로 이동할 수 있다.Finally, the content device 110 may move the content 1110 to the portable device 120.

그리고, 사용자는 컨텐츠(1110)를 드래그하고 있으나, 컨텐츠 디바이스(110)를 터치한 사용자의 손가락이 중간에 떨어지므로 컨텐츠 디바이스(110)가 감지하는 터치 흔적은 플릭 형태로 나타날 수 있다. 이때, 컨텐츠 디바이스(110)가 감지하는 터치 흔적은 이하 도 12를 참조하여 상세히 설명한다.In addition, although the user is dragging the content 1110, the finger of the user who touched the content device 110 falls in the middle, so that the touch trace sensed by the content device 110 may appear in a flick form. Here, the touch trace sensed by the content device 110 will be described in detail with reference to FIG.

또한, 컨텐츠 디바이스(110)는 특이 터치가 발생한 시간에 기초하여 휴대용 디바이스(120)과 커플링할 수도 있다.Also, the content device 110 may couple with the portable device 120 based on the time at which the specific touch occurred.

구체적으로, 사용자는 도 11에 도시된 바와 같이 휴대용 디바이스(120)로 컨텐츠 디바이스(110)의 디스플레이 중 일부분을 터치할 때, 컨텐츠 디바이스(110)는 감지한 터치 입력의 형태에 기초하여 특이 터치가 발생하였다는 것을 식별하고 주변 디바이스 검색 메시지를 전송할 수 있다. 또한, 휴대용 디바이스(120)는 컨텐츠 디바이스(110)와의 터치한 충격으로 인하여 가속도계 센서의 값이 변화할 수 있다. 이때, 휴대용 디바이스(120)는 수신한 주변 디바이스 검색 메시지에 대한 응답 메시지의 이동 정보에 가속도계 센서의 값의 변화 및 변화 시간을 이동 정보에 포함시킬 수 있다.11, when the user touches a part of the display of the content device 110 with the portable device 120, the content device 110 detects a specific touch based on the type of the touch input sensed by the content device 110 And transmits a peripheral device search message. In addition, the portable device 120 may change the value of the accelerometer sensor due to a touched impact with the content device 110. [ At this time, the portable device 120 may include the change in the value of the accelerometer sensor and the change time in the movement information in the movement information of the response message to the received peripheral device search message.

그리고, 컨텐츠 디바이스(110)는 특이 터치가 발생한 시간과 가속도계 센서의 값이 변화한 시간을 비교하고, 특이 터치가 발생한 시간과 가속도계 센서의 값이 변화한 시간이 동일한 경우 휴대용 디바이스(120)과 커플링을 맺을 수 있다.The content device 110 compares the time at which the specific touch occurs and the time at which the value of the accelerometer sensor changes. When the time at which the specific touch occurs and the time at which the value of the accelerometer sensor are changed are the same, Ring can be formed.

또한, 컨텐츠 디바이스(110)는 특이 터치의 터치 입력이 발생한 시간에 기초하여 휴대용 디바이스(120)과 커플링할 수도 있다.Also, the content device 110 may couple with the portable device 120 based on the time when the touch input of the specific touch occurs.

구체적으로, 사용자는 도 10에 도시된 바와 같이 휴대용 디바이스(120)로 컨텐츠 디바이스(110)의 디스플레이에 터치하고 드래그할 수 있다. 이때, 컨텐츠 디바이스(110)는 특이 터치에 의한 드래그 입력을 식별하고 주변 디바이스 검색 메시지를 전송할 수 있다. Specifically, the user can touch and drag the display of the content device 110 to the portable device 120 as shown in FIG. At this time, the content device 110 can identify a drag input by a specific touch and transmit a peripheral device search message.

또한, 휴대용 디바이스(120)는 수신한 주변 디바이스 검색 메시지에 따라 휴대용 디바이스(120)의 공간상 이동 시간을 측정하고 휴대용 디바이스(120)의 공간상 이동 시간이 포함된 이동 정보를 생성할 수 있다. 그리고 휴대용 디바이스(120)는 이동 정보를 포함한 응답 메시지를 전송할 수 있다.In addition, the portable device 120 can measure the spatial movement time of the portable device 120 according to the received peripheral device search message, and generate the movement information including the spatial movement time of the portable device 120. [ And the portable device 120 may transmit a response message including movement information.

그리고, 컨텐츠 디바이스(110)는 특이 터치의 드래그 시간과 응답 메시지에서 추출한 휴대용 디바이스(120)의 공간상 이동 시간을 비교하고, 특이 터치의 드래그 시간과 휴대용 디바이스(120)의 공간상 이동 시간이 동일한 경우 휴대용 디바이스(120)과 커플링을 맺을 수 있다.The content device 110 compares the drag time of the specific touch with the movement time of the portable device 120 extracted from the response message and determines that the drag time of the specific touch and the movement time of the space of the portable device 120 are the same Lt; RTI ID = 0.0 > 120 < / RTI >

그리고, 컨텐츠 디바이스(110)와 휴대용 디바이스(120) 간의 커플링이 맺어진 상태에서 사용자의 손이 도 11의 케이스 1 또는 케이스 2에 도시된 바와 같이 컨텐츠 디바이스(110)의 디스플레이의 컨텐츠를 터치한 후 휴대용 디바이스(120) 상 디바이스로 드래그하는 경우 컨텐츠 디바이스(110)에서 휴대용 디바이스(120)으로 컨텐츠가 이동할 수 있다. 또한, 사용자의 손이 휴대용 디바이스(120)의 디스플레이의 컨텐츠를 터치한 후 컨텐츠 디바이스(110)의 디스플레이로 드래그 하는 경우 휴대용 디바이스(120)에서 컨텐츠 디바이스(110)으로 컨텐츠가 이동할 수 있다.When the user's hand touches the content of the display of the content device 110 as shown in Case 1 or Case 2 of FIG. 11 in a state where the coupling between the content device 110 and the portable device 120 is concluded Content can be moved from the content device 110 to the portable device 120 when the user drags the content to the device on the portable device 120. [ In addition, when the user's hand touches the content of the display of the portable device 120 and then drags the content to the display of the content device 110, the content can be moved from the portable device 120 to the content device 110. [

도 12는 본 발명의 일실시예에 따라 컨텐츠 디바이스(110)에서 휴대용 디바이스(120)로 컨텐츠를 이동하는 경우, 컨텐츠 디바이스(110)가 인식하는 터치 흔적의 일례이다.12 is an example of a touch trace recognized by the content device 110 when moving content from the content device 110 to the portable device 120 according to an embodiment of the present invention.

사용자가 도 11에 도시된 바와 같이 휴대용 디바이스(120)로 컨텐츠 디바이스(110)의 디스플레이 중 일부분을 터치하는 경우, 컨텐츠 디바이스(110)는 도 12에 도시된 바와 같이 직사각형 형태의 터치 흔적(1202)를 감지할 수 있다. 이때, 터치 흔적(1202)는 도 8의 케이스 1에 도시된 손가락에 의한 터치 형상(811)과 상이하므로, 컨텐츠 디바이스(110)는 특이 터치가 발생한 것으로 판단할 수 있다.When the user touches a portion of the display of the content device 110 with the portable device 120 as shown in Fig. 11, the content device 110 displays the touch traces 1202 in the rectangular shape, as shown in Fig. 12, Can be detected. At this time, since the touch trace 1202 is different from the touch shape 811 of the finger shown in Case 1 of FIG. 8, the content device 110 can determine that a specific touch has occurred.

그리고, 사용자가 도 11에 도시된 바와 같이 컨텐츠(1110)를 휴대용 디바이스(120)로 이동하기 위하여 드래그를 하는 경우, 컨텐츠 디바이스(110)를 터치하던 사용자의 손가락이 휴대용 디바이스(120)상으로 이동하면서 컨텐츠 디바이스(110)의 디스플레이에서 떨어질 수 있다. 따라서, 사용자가 컨텐츠(1110)을 휴대용 디바이스(120)로 이동하기 위한 드래그를 컨텐츠 디바이스(110)가 감지한 터치 흔적(1201)은 도 12에 도시된 바와 같이 플릭 형태로 나타날 수 있다. 11, when a user drags the content 1110 to move the content 1110 to the portable device 120, the finger of the user who touched the content device 110 moves on the portable device 120 And may be dropped from the display of the content device 110. Accordingly, the touch trace 1201 detected by the content device 110 as a drag for the user to move the content 1110 to the portable device 120 may appear in a flick-like form as shown in FIG.

컨텐츠 디바이스(110)가 도 12의 케이스 1과 같은 터치 흔적을 감지한 경우, 컨텐츠 디바이스(110)는 주변 디바이스 검색 메시지를 전송할 수 있다. 그리고, 컨텐츠 디바이스(110)는 휴대용 디바이스(120)로부터 주변 디바이스 검색 메시지에 대한 응답 메시지를 수신할 수 있다. 또한, 컨텐츠 디바이스(110)는 응답 메시지에 포함된 위치 정보와 터치 흔적에 기초하여 커플링할 휴대용 디바이스(120)를 선택하고, 선택한 휴대용 디바이스(120)와 커플링을 맺을 수 있다.When the content device 110 detects a touch trace as in case 1 in FIG. 12, the content device 110 can transmit a peripheral device search message. The content device 110 may receive a response message to the peripheral device search message from the portable device 120. [ In addition, the content device 110 may select the portable device 120 to be coupled based on the touch information and the location information included in the response message, and may couple with the selected portable device 120.

휴대용 디바이스(120)와 커플링을 맺은 상태에서 사용자가 도 12의 케이스 2와 같이 휴대용 디바이스(120)를 영역(1204)로 이동하더라고, 컨텐츠 디바이스(110)와 휴대용 디바이스(120) 간의 커플링은 유지될 수 있다.The coupling between the content device 110 and the portable device 120 can be performed in the same manner as in the case 2 where the user moves the portable device 120 to the area 1204 in the state of coupling with the portable device 120 Can be maintained.

따라서, 사용자가 컨텐츠(1220)를 영역(1204)로 이동한 휴대용 디바이스(120)로 드래그하거나, 플릭 터치하는 경우, 컨텐츠 디바이스(110)는 커플링 과정을 생략하고 컨텐츠(1220)를 휴대용 디바이스(120)로 이동할 수 있다.
Accordingly, when the user drags or flick-touches the content 1220 to the portable device 120 moved to the area 1204, the content device 110 omits the coupling process and transmits the content 1220 to the portable device 1202 120).

도 13은 본 발명의 일실시예에 따라 싱글 터치와 특이 터치를 이용하여 휴대용 디바이스(120)에서 컨텐츠 디바이스(110)로 컨텐츠를 이동하는 방법의 일례이다.13 is an example of a method of moving content from the portable device 120 to the content device 110 using a single touch and a specific touch according to an embodiment of the present invention.

도 13의 케이스 1(Case 1)은 특이 터치와 일반 터치를 함께 이용하여 휴대용 디바이스(120)에서 컨텐츠 디바이스(110)로 컨텐츠를 이동하는 경우의 정면도이고, 도 13의 케이스 2(Case 2)는 특이 터치와 일반 터치를 함께 이용하여 휴대용 디바이스(120)에서 컨텐츠 디바이스(110)로 컨텐츠를 이동하는 경우의 측면도일 수 있다.Case 1 in FIG. 13 is a front view when content is moved from the portable device 120 to the content device 110 using a combination of a specific touch and a general touch, and Case 2 in FIG. The content may be moved from the portable device 120 to the content device 110 using a combination of the specific touch and the general touch.

구체적으로, 사용자는 도 13에 도시된 바와 같이 휴대용 디바이스(120)로 컨텐츠 디바이스(110)의 디스플레이 중 일부분을 터치할 수 있다.Specifically, the user can touch a portion of the display of the content device 110 to the portable device 120 as shown in FIG.

다음으로, 사용자는 다른 손(1300)으로 휴대용 디바이스(120)에 표시된 컨텐츠(1310)의 영역(1311)을 터치할 수 있다.Next, the user can touch the area 1311 of the content 1310 displayed on the portable device 120 with the other hand 1300. [

그 다음으로, 사용자는 도 13의 케이스 2(Case 2)에 도시된 바와 같이 영역(1111)을 터치한 손(1300)을 드래그하여 컨텐츠 디바이스(110)의 디스플레이의 영역(1312)까지 이동할 수 있다.Next, the user can move the hand 1300 that touches the area 1111 to the area 1312 of the display of the content device 110, as shown in Case 2 of Fig. 13 .

이때, 컨텐츠 디바이스(110)는 사용자가 휴대용 디바이스(120)로 컨텐츠 디바이스(110)의 디스플레이를 터치함에 따른 특이 터치 감지 시점, 또는 특이 터치가 발생한 후, 특이 터치에서부터 출발하는 드래그나, 플릭 터치 같은 터치 입력을 감지하는 시점에서 주변 디바이스 검색 메시지를 송출할 수 있다. 그리고, 컨텐츠 디바이스(110)는 휴대용 디바이스(120)로부터 주변 디바이스 검색 메시지에 대한 응답 메시지를 수신할 수 있다. 또한, 컨텐츠 디바이스(110)는 응답 메시지에 포함된 위치 정보와 터치 흔적에 기초하여 커플링할 휴대용 디바이스(120)를 선택하고, 선택한 휴대용 디바이스(120)와 커플링을 맺을 수 있다.At this time, the content device 110 may be configured to detect a specific touch due to the user touching the display of the content device 110 with the portable device 120, or to select a drag, flick touch, The peripheral device search message can be transmitted at the time of detecting the touch input. The content device 110 may receive a response message to the peripheral device search message from the portable device 120. [ In addition, the content device 110 may select the portable device 120 to be coupled based on the touch information and the location information included in the response message, and may couple with the selected portable device 120.

컨텐츠 디바이스(110)와 휴대용 디바이스(120) 간의 커플링을 맺는 과정 및 조건은 도 11과 동일하므로 상세한 설명은 생략한다.The process and conditions for establishing a coupling between the content device 110 and the portable device 120 are the same as those in FIG. 11, and thus a detailed description thereof will be omitted.

컨텐츠 디바이스(110)와 휴대용 디바이스(120) 간의 커플링이 맺어지면, 휴대용 디바이스(120)는 사용자가 터치한 영역(1311)의 컨텐츠(1310)을 컨텐츠 디바이스(110)로 전송할 수 있다.When the coupling between the content device 110 and the portable device 120 is established, the portable device 120 can transmit the content 1310 of the area 1311 touched by the user to the content device 110.

마지막으로 컨텐츠 디바이스(110)는 휴대용 디바이스(120)로부터 수신한 컨텐츠(1310)를 사용자가 손(1300)으로 드래그한 영역(1312)에 표시할 수 있다.
Finally, the content device 110 may display the content 1310 received from the portable device 120 in the area 1312 where the user drags the hand 1300.

도 14는 본 발명의 일실시예에 따라 휴대용 디바이스(120)에서 컨텐츠 디바이스(110)로 컨텐츠를 이동하는 경우, 컨텐츠 디바이스(110)가 인식하는 터치 흔적의 일례이다.14 is an example of a touch trace recognized by the content device 110 when the content is moved from the portable device 120 to the content device 110 according to an embodiment of the present invention.

사용자가 도 13에 도시된 바와 같이 휴대용 디바이스(120)로 컨텐츠 디바이스(110)의 디스플레이 중 일부분을 터치하는 경우, 컨텐츠 디바이스(110)는 도 14에 도시된 바와 같이 직사각형 형태의 터치 흔적(1402)를 감지할 수 있다. 이때, 터치 흔적(1402)는 도 8의 케이스 1에 도시된 손가락에 의한 터치 형상(811)과 상이하므로, 컨텐츠 디바이스(110)는 특이 터치가 발생한 것으로 판단할 수 있다.When the user touches a part of the display of the content device 110 with the portable device 120 as shown in Fig. 13, the content device 110 displays a rectangular touch touch 1402 as shown in Fig. 14, Can be detected. At this time, since the touch trace 1402 is different from the touch shape 811 of the finger shown in Case 1 of FIG. 8, the content device 110 can determine that a specific touch has occurred.

그리고, 사용자가 도 13에 도시된 바와 같이 컨텐츠(1110)를 컨텐츠 디바이스(110)로 이동하기 위하여 드래그를 하는 경우, 휴대용 디바이스(120)를 터치하던 사용자의 손가락이 컨텐츠 디바이스(110)로 이동하면서 컨텐츠 디바이스(110)의 디스플레이를 터치할 수 있다. 따라서, 사용자가 컨텐츠(1110)을 컨텐츠 디바이스(110)로 이동하기 위한 드래그를 컨텐츠 디바이스(110)가 감지한 터치 흔적(1401)은 도 14에 도시된 바와 같이 플릭 형태로 나타날 수 있다. 13, when the user drags the content 1110 in order to move the content 1110 to the content device 110, the finger of the user who touched the portable device 120 moves to the content device 110 The display of the content device 110 can be touched. Accordingly, the touch trace 1401 detected by the content device 110 as a drag for the user to move the content 1110 to the content device 110 may appear in a flick form as shown in FIG.

컨텐츠 디바이스(110)가 도 14와 터치 흔적을 감지한 경우, 컨텐츠 디바이스(110)는 주변 디바이스 검색 메시지를 전송할 수 있다. 그리고, 컨텐츠 디바이스(110)는 휴대용 디바이스(120)로부터 주변 디바이스 검색 메시지에 대한 응답 메시지를 수신할 수 있다. 또한, 컨텐츠 디바이스(110)는 응답 메시지에 포함된 위치 정보와 터치 흔적에 기초하여 커플링할 휴대용 디바이스(120)를 선택하고, 선택한 휴대용 디바이스(120)와 커플링을 맺을 수 있다.
When the content device 110 detects a touch trace with FIG. 14, the content device 110 can transmit a peripheral device search message. The content device 110 may receive a response message to the peripheral device search message from the portable device 120. [ In addition, the content device 110 may select the portable device 120 to be coupled based on the touch information and the location information included in the response message, and may couple with the selected portable device 120.

도 15는 본 발명의 일실시예에 따라 싱글 터치와 특이 터치를 이용하여 컨텐츠 디바이스(110)에서 휴대용 디바이스(120)로 컨텐츠를 이동하는 방법의 또 다른 일례이다.15 is another example of a method of moving content from the content device 110 to the portable device 120 using a single touch and a specific touch according to an embodiment of the present invention.

도 15는 플릭 터치를 이용하여 컨텐츠를 특이 터치 방향으로 이동시키는 과정일 수 있다. 또한, 도 15는 도 12에서 컨텐츠 디바이스(110)가 식별한 휴대용 디바이스(120)와 커플링을 맺은 다음에 수행되는 과정일 수 있다.15 may be a process of moving content in a specific touch direction using a flick touch. In addition, FIG. 15 may be a process performed after coupling with the portable device 120 identified by the content device 110 in FIG.

단계(1501)에서 사용자는 손가락(1520)으로 컨텐츠 디바이스(110)의 디스플레이에 표시된 컨텐츠(1510)을 터치하고, 휴대용 디바이스(120)가 위치한 방향으로 플릭 터치를 수행할 수 있다.The user can touch the content 1510 displayed on the display of the content device 110 with the finger 1520 and perform the flick touch in the direction in which the portable device 120 is located.

단계(1502)에서 컨텐츠 디바이스(110)는 단계(1501)에서 수행된 플릭 터치에 기초하여 컨텐츠(1510)를 휴대용 디바이스(120)가 위치한 방향으로 이동시킬 수 있다. 또한, 컨텐츠 디바이스(110)는 이동 중이던 컨텐츠(1510)가 휴대용 디바이스(120)의 터치에 의하여 발생한 특이 터치까지 이동한 경우, 단계(1503)을 수행할 수 있다.In step 1502, the content device 110 may move the content 1510 in the direction in which the portable device 120 is located based on the flick touch performed in step 1501. [ Also, the content device 110 may perform step 1503 if the content 1510 being moved is moved to a specific touch generated by the touch of the portable device 120. [

단계(1503)에서 컨텐츠 디바이스(110)는 컨텐츠(1510)을 휴대용 디바이스(120)로 이동함으로써, 휴대용 디바이스(120)가 컨텐츠(1510)를 표시하도록 할 수 있다.
The content device 110 may move the content 1510 to the portable device 120 in step 1503 so that the portable device 120 displays the content 1510. [

도 16은 본 발명의 일실시예에 따라 싱글 터치와 특이 터치를 이용하여 휴대용 디바이스(120)에서 컨텐츠 디바이스(110)로 컨텐츠를 이동하는 방법의 또 다른 일례이다.16 is another example of a method for moving content from the portable device 120 to the content device 110 using a single touch and a specific touch according to an embodiment of the present invention.

도 16은 플릭 터치를 이용하여 컨텐츠를 휴대용 디바이스(120)에서 컨텐츠 디바이스(110)로 컨텐츠를 이동하는 과정일 수 있다. 또한, 도 16은 도 12에서 컨텐츠 디바이스(110)가 식별한 휴대용 디바이스(120)와 커플링을 맺은 다음에 수행되는 과정일 수 잇다.16 may be a process of moving content from the portable device 120 to the content device 110 using a flick touch. 16 may be a process performed after coupling with the portable device 120 identified by the content device 110 in FIG.

단계(1601)에서 사용자는 손가락(1620)으로 휴대용 디바이스(120)의 디스플레이에 표시된 컨텐츠(1610)을 터치하고, 위쪽으로 플릭 터치를 수행할 수 있다.In step 1601, the user can touch the content 1610 displayed on the display of the portable device 120 with the finger 1620 and perform a flick touch upwards.

단계(1602)에서 휴대용 디바이스(120)는 단계(1601)에서 수행된 플릭 터치에 기초하여 컨텐츠(1610)를 위쪽으로 이동시킬 수 있다. 또한, 휴대용 디바이스(120)는 이동 중이던 컨텐츠(1610)가 휴대용 디바이스(120)의 디스플레이 끝까지 이동한 경우, 단계(1603)을 수행할 수 있다.In step 1602, the portable device 120 may move the content 1610 upwards based on the flick touch performed in step 1601. [ In addition, the portable device 120 may perform step 1603 if the moving content 1610 has moved to the end of the display of the portable device 120. [

단계(1603)에서 컨텐츠 디바이스(110)는 휴대용 디바이스(120)로부터 컨텐츠(1610)을 수신하고, 휴대용 디바이스(120)의 터치에 의하여 발생한 특이 터치의 위쪽에 컨텐츠(1610)을 표시하도록 할 수 있다.
The content device 110 receives the content 1610 from the portable device 120 and displays the content 1610 above the unusual touch generated by the touch of the portable device 120 in step 1603 .

도 17은 본 발명의 일실시예에 따른 컨텐츠 디바이스(110)에서 멀티 터치로 이동할 컨텐츠를 선택하는 방법의 다른 일례이다.17 is another example of a method of selecting content to be moved in multi-touch in the content device 110 according to an embodiment of the present invention.

사용자가 휴대용 디바이스(120)를 쥐는 방법에 따라서는 도 17에 도시된 바와 같이 손(1700)에서 엄지와 검지로만 휴대용 디바이스(120)를 잡고, 중지, 약지, 소지를 펼 수도 있다.Depending on how the user grasps the portable device 120, the user can hold the portable device 120 only with the thumb and index finger in the hand 1700 as shown in Fig.

따라서, 본 발명의 일실시예에 따른 디바이스 간 컨텐츠 이동 시스템은 사용자가 펼친 중지, 약지, 소지로 컨텐츠 디바이스(110)의 디스플레이를 터치하는 것을 컨텐츠 이동을 위한 터치 명령으로 이용할 수 있다.Accordingly, the inter-device content movement system according to an exemplary embodiment of the present invention can utilize the touch of the display of the content device 110 as a touch command for content movement by the user's stop, phonemes, and possession.

예를 들어, 디바이스 간 컨텐츠 이동 시스템은 컨텐츠 디바이스(110)의 컨텐츠를 휴대용 디바이스(120)를 쥔 손으로 쓰는(sweep/flick) 형태의 터치를 휴대용 디바이스(120)로 컨텐츠가 이동하는 터치 명령으로 설정할 수 있다. 또한, 디바이스 간 컨텐츠 이동 시스템은 컨텐츠 디바이스(110)의 컨텐츠를 휴대용 디바이스(120)를 쥔 손으로 움켜잡는(grab) 형태의 터치를 휴대용 디바이스(120)로 컨텐츠가 이동하는 터치 명령으로 설정할 수도 있다. 그리고, 디바이스 간 컨텐츠 이동 시스템은 휴대용 디바이스(120)의 컨텐츠를 컨텐츠 디바이스(110) 쪽으로 던지는(throw) 형태의 터치를 컨텐츠 디바이스(110)로 컨텐츠가 이동하는 터치 명령으로 설정할 수 있다. For example, the inter-device content movement system may transmit a touch of a sweep / flick type touch to content of the content device 110 to the portable device 120 as a touch command Can be set. In addition, the inter-device content movement system may set the touch of the content device 110 in the form of a grab by a hand holding the portable device 120 to a touch command that moves the content to the portable device 120 . The inter-device content movement system may set a touch in which the content of the portable device 120 is thrown toward the content device 110 as a touch command to move the content to the content device 110.

구체적으로, 영역(1701), 영역(1702) 및 영역(1703)에서 휴대용 디바이스(120)의 방향으로 이동하는 터치 명령이 입력된 경우, 해당 터치 명령은 컨텐츠 디바이스(110)의 컨텐츠를 휴대용 디바이스(120)로서 쓸거나(sweep/flick) 움켜잡는(grab) 형태이므로, 컨텐츠 디바이스(110)는 컨텐츠(1710)을 휴대용 디바이스(120)로 이동할 수 있다.Specifically, when a touch command to move in the direction of the portable device 120 is input in the area 1701, the area 1702, and the area 1703, the touch command instructs the content of the content device 110 to be stored in the portable device The content device 110 may move the content 1710 to the portable device 120 since the content device 110 is in the form of a grab or sweep / flick grab.

반면, 영역(1701), 영역(1702) 및 영역(1703)을 터치한 후 이동 없이 터치를 종료하는 경우, 해당 터치 명령은 휴대용 디바이스(120)의 컨텐츠를 컨텐츠 디바이스(110) 쪽으로 던지는(throw) 형태이므로, 컨텐츠 디바이스(110)는 휴대용 디바이스(120)로부터 컨텐츠를 수신하여 표시할 수 있다.
On the other hand, when touching the area 1701, the area 1702, and the area 1703 and then ending the touch without moving, the corresponding touch command throws the content of the portable device 120 toward the content device 110, The content device 110 can receive the content from the portable device 120 and display the content.

도 18은 본 발명의 일실시예에 따른 컨텐츠 디바이스(110)에서 특이 터치로 이동할 컨텐츠를 선택하는 방법의 다른 일례이다.18 is another example of a method for selecting a content to be moved from a content device 110 to a specific touch according to an embodiment of the present invention.

본 발명의 일실시예에 따른 컨텐츠 디바이스(110)는 드래그, 스윕, 및 플릭과 같은 터치 명령과 터치 이동 없는 단순 터치 시작과 종료를 이용하여 컨텐츠를 이동할 디바이스를 결정할 수도 있다.The content device 110 according to an exemplary embodiment of the present invention may determine a device to move content using a touch command such as drag, sweep, and flick and a simple touch start and stop without touch movement.

예를 들어, 디바이스 간 컨텐츠 이동 시스템은 컨텐츠 디바이스(110)의 컨텐츠를 휴대용 디바이스(120)를 쥔 손으로 스캔(scan)하는 형태의 터치를 휴대용 디바이스(120)로 컨텐츠가 이동하는 터치 명령으로 설정할 수 있다. 또한, 디바이스 간 컨텐츠 이동 시스템은 휴대용 디바이스(120)의 컨텐츠를 컨텐츠 디바이스(110) 쪽으로 붙이는(paste) 형태의 터치를 컨텐츠 디바이스(110)로 컨텐츠가 이동하는 터치 명령으로 설정할 수 있다. For example, the inter-device content movement system sets a touch of a type in which content of the content device 110 is scanned with a hand holding the portable device 120 to a touch command that moves the content to the portable device 120 . In addition, the inter-device content movement system can set a touch in which the content of the portable device 120 is pasted to the content device 110 as a touch command in which the content is moved to the content device 110.

그리고, 도 18의 케이스 1(Case 1)에 도시된 바와 같이 사용자가 휴대용 디바이스(120)를 쥔 손의 손가락 마디로 디스플레이에 표시된 컨텐츠(1800)의 영역(1801)을 터치하여 드래그한 경우, 컨텐츠 디바이스(110)는 특이 터치 및 드래그가 발생한 것으로 판단하여 휴대용 디바이스(120)와 커플링을 맺을 수 있다.When the user touches and drags the area 1801 of the content 1800 displayed on the display with the finger of the hand holding the portable device 120 as shown in Case 1 of FIG. 18, The device 110 can determine that a specific touch and drag has occurred and can make a coupling with the portable device 120. [

구체적으로, 컨텐츠(1800) 상에 특이 터치 및 드래그가 나타난 경우, 컨텐츠 디바이스(110)는 휴대용 디바이스(120)로부터 휴대용 디바이스(120)의 위치 정보를 수신할 수 있다. 이때, 위치 정보는 휴대용 디바이스(120)의 위치, 및 휴대용 디바이스의 가속도계 센서의 값이 변화한 시간을 포함할 수 있다. 그리고, 컨텐츠 디바이스(110)가 컨텐츠(1800) 상에 드래그가 시작되고, 종료된 것을 감지한 시간이 휴대용 디바이스의 가속도계 센서의 값이 변화한 시간과 일정 오차 이내로 일치하는 경우, 컨텐츠 디바이스(110)는 위치 정보를 전송한 휴대용 디바이스(120)와 커플링을 맺을 수 있다.The content device 110 may receive the location information of the portable device 120 from the portable device 120 when a specific touch and a drag appear on the content 1800. [ At this time, the positional information may include the position of the portable device 120 and the time at which the value of the accelerometer sensor of the portable device changes. When the time when the content device 110 starts dragging on the content 1800 and the time when the content device 110 detects termination coincides with the time when the value of the accelerometer sensor of the portable device coincides with a predetermined error, Lt; RTI ID = 0.0 > 120 < / RTI >

다음으로, 사용자가 입력한 터치 명령은 컨텐츠(1800)를 휴대용 디바이스(120)를 쥔 손으로 스캔하는 형태이므로, 컨텐츠 디바이스(110)는 컨텐츠(1800)을 사용자의 손에 쥐어져 있는 휴대용 디바이스(120)로 이동시킬 수 있다.Next, since the touch command input by the user is a form in which the content 1800 is scanned by the hand holding the portable device 120, the content device 110 transmits the content 1800 to a portable device (for example, 120).

또한, 사용자가 휴대용 디바이스(120)를 쥔 손의 손가락 마디를 컨텐츠(1800)의 영역(1801)에 터치한 다음, 이동 없이 터치를 종료할 수 있다. 구체적으로, 사용자가 휴대용 디바이스(120)를 쥔 손의 손가락 마디를 터치 다운한 다음 바로 터치 업할 수 있다. 이때, 해당 터치 명령은 컨텐츠(1800)를 휴대용 디바이스(120)를 쥔 손으로 던지는(throw) 형태이므로, 컨텐츠 디바이스(110)는 컨텐츠(1800)을 사용자의 손에 쥐어져 있는 휴대용 디바이스(120)로 이동시킬 수 있다.
In addition, the user can touch the area of the content 1800 with the finger of the hand holding the portable device 120, and then end the touch without moving. Specifically, the user can touch down the finger node of the hand holding the portable device 120 and immediately touch up. At this time, since the touch command is a form in which the content 1800 is thrown by the hand holding the portable device 120, the content device 110 transmits the content 1800 to the portable device 120, .

도 19는 본 발명의 일실시예에 따른 휴대용 디바이스(120)를 나타내는 도면이다.19 is a diagram illustrating a portable device 120 in accordance with an embodiment of the present invention.

도 19를 참고하면, 본 발명의 일실시예에 따른 휴대용 디바이스(120)는 위치 정보 생성부(1910), 위치 정보 제공부(1920), 커플링부(1930), 컨텐츠 이동부(1940) 및 카메라 제어 신호 전송부(1950)를 포함할 수 있다.19, the portable device 120 according to an embodiment of the present invention includes a position information generating unit 1910, a position information providing unit 1920, a coupling unit 1930, a content moving unit 1940, And a control signal transmitting unit 1950.

위치 정보 생성부(1910)는 휴대용 디바이스(120)의 가속도계의 변화, 휴대용 디바이스(120)의 위치, 휴대용 디바이스(120)의 이동 거리, 및 휴대용 디바이스(120)의 움직임 패턴 중 적어도 하나를 포함하는 위치 정보를 생성할 수 있다.The position information generating unit 1910 may include at least one of a change in the accelerometer of the portable device 120, a position of the portable device 120, a moving distance of the portable device 120, and a movement pattern of the portable device 120 Location information can be generated.

구체적으로, 위치 정보 생성부(1910)는 컨텐츠 디바이스(110)로부터 주변 디바이스 검색 메시지를 수신할 수 있다.Specifically, the location information generation unit 1910 may receive a peripheral device search message from the content device 110. [

주변 디바이스 검색 메시지를 수신한 경우, 위치 정보 생성부(1910)는 휴대용 디바이스(120)의 위치를 측정하여 휴대용 디바이스(120)의 이동 거리, 및 움직임 패턴 중 적어도 하나를 식별할 수 있다. 예를 들어, 위치 정보 생성부(1910)는 휴대용 디바이스(120)의 위치를 측정하기 위한 GPS, 휴대용 디바이스(120)의 이동 거리 및 움직임 패턴을 식별하기 위한 가속도계나 자이로 센서를 포함할 수 있다.When receiving the peripheral device search message, the position information generator 1910 may measure the position of the portable device 120, and may identify at least one of the movement distance and the movement pattern of the portable device 120. For example, the position information generating unit 1910 may include an accelerometer or a gyro sensor for identifying the GPS for measuring the position of the portable device 120, the movement distance and the movement pattern of the portable device 120, and the like.

또한, 위치 정보 생성부(1910)는 휴대용 디바이스(120)의 가속도계를 측정하고, 가속도계가 변화하는 경우, 가속도계 센서의 값의 변화 및 가속도계가 변화한 변화 시간을 이동 정보에 포함시킬 수 있다.The position information generator 1910 measures the accelerometer of the portable device 120. When the accelerometer changes, the position information generator 1910 can include the change time of the value of the accelerometer sensor and the change time of the accelerometer in the movement information.

위치 정보 제공부(1920)는 위치 정보 생성부(1910)가 생성한 위치 정보를 컨텐츠 디바이스(110)에 제공할 수 있다. 구체적으로 위치 정보 제공부(1920)는 위치 정보와 휴대용 디바이스(120)의 식별 정보를 이용하여 주변 디바이스 검색 메시지에 대응하는 응답용 메시지를 생성할 수 있다. 그리고, 위치 정보 제공부(1920)는 생성한 응답용 메시지를 컨텐츠 디바이스(110)로 전송할 수 있다.The location information providing unit 1920 can provide the location information generated by the location information generating unit 1910 to the content device 110. [ Specifically, the location information providing unit 1920 may generate a response message corresponding to the peripheral device search message using the location information and the identification information of the portable device 120. [ Then, the location information providing unit 1920 can transmit the generated response message to the content device 110.

커플링부(1930)는 컨텐츠 디바이스(110)로부터 커플링 요청을 수신할 수 있다.The coupling unit 1930 may receive a coupling request from the content device 110. [

이때, 컨텐츠 디바이스(110)는 위치 정보 제공부(1920)으로부터 수신한 위치 정보가 컨텐츠 디바이스(110)의 터치 정보에 대응하는 경우, 위치 정보에 포함된 식별 정보를 이용하여 커플링부(1930)에 커플링 요청을 전송할 수 있다.At this time, when the location information received from the location information providing unit 1920 corresponds to the touch information of the content device 110, the content device 110 transmits the identification information included in the location information to the coupling unit 1930 A coupling request can be transmitted.

그리고, 커플링부(1930)는 커플링 요청을 전송한 컨텐츠 디바이스(110)와 커플링을 맺을 수 있다.Then, the coupling unit 1930 can couple to the content device 110 that transmitted the coupling request.

컨텐츠 이동부(1940)는 컨텐츠 디바이스(110)로부터 적어도 하나의 컨텐츠를 수신하고, 수신한 컨텐츠를 휴대용 디바이스(120)의 디스플레이에 표시할 수 있다.The content moving unit 1940 receives at least one content from the content device 110 and displays the received content on the display of the portable device 120. [

또한, 사용자가 휴대용 디바이스(120)의 디스플레이에 표시된 컨텐츠를 선택하고, 컨텐츠 디바이스(110)에 터치 명령을 입력하는 경우, 컨텐츠 이동부(1940)는 사용자가 선택한 컨텐츠를 컨텐츠 디바이스(110)로 전송할 수 있다.In addition, when the user selects a content displayed on the display of the portable device 120 and inputs a touch command to the content device 110, the content moving unit 1940 transmits the content selected by the user to the content device 110 .

카메라 제어 신호 전송부(1950)는 컨텐츠 디바이스(110)로부터 카메라 제어 프로그램의 실행을 요청하는 메시지를 수신하는 경우, 컨텐츠 디바이스(110)과 관련된 카메라를 제어하기 위한 카메라 제어 신호를 컨텐츠 디바이스(110)로 전송할 수 있다.The camera control signal transmitting unit 1950 transmits a camera control signal for controlling the camera related to the content device 110 to the content device 110 when receiving a message requesting execution of the camera control program from the content device 110. [ Lt; / RTI >

구체적으로, 컨텐츠 디바이스(110)로부터 카메라 제어 프로그램의 실행을 요청하는 메시지를 수신하는 경우, 카메라 제어 신호 전송부(1950)는 카메라 제어 프로그램을 수행하여 휴대용 디바이스(120)의 디스플레이에 카메라 제어 명령을 입력받기 위한 입력 창을 표시할 수 있다. 이때, 입력 창은 카메라의 각도를 제어하는 제어 명령 입력 수단, 카메라의 촬영 횟수를 입력하는 입력 칸, 카메라의 촬영 시작 시간, 및 종료 시간을 입력하는 입력 칸, 카메라가 촬영을 시작하도록 하는 촬영 버튼, 카메라가 촬영하여 컨텐츠 디바이스(110)의 디스플레이에 표시하는 영상을 제어하기 위한 영상 제어 수단 중 적어도 하나를 포함할 수 있다. Specifically, when receiving a message requesting the execution of the camera control program from the content device 110, the camera control signal transmitting unit 1950 carries out a camera control program to transmit a camera control command to the display of the portable device 120 An input window for receiving input can be displayed. At this time, the input window includes a control command input means for controlling the angle of the camera, an input box for inputting the number of shooting times of the camera, an input box for inputting a shooting start time and an ending time of the camera, And image control means for controlling an image captured by the camera and displayed on the display of the content device 110. [

다음으로, 카메라 제어 신호 전송부(1950)는 사용자가 입력 창에 입력한 정보 및 제어 명령을 기초로 카메라 제어 신호를 생성할 수 있다. 이때, 카메라 제어 신호는 카메라의 각도를 제어하는 제어 명령, 카메라의 촬영 횟수, 카메라의 촬영 시작 시간, 및 종료 시간, 카메라의 촬영 시작 여부, 컨텐츠 디바이스(110)의 디스플레이에 표시하는 영상의 제어 명령 중 적어도 하나를 포함할 수 있다. Next, the camera control signal transmitting unit 1950 can generate the camera control signal based on the information input by the user in the input window and the control command. At this time, the camera control signal includes a control command for controlling the angle of the camera, a shooting count of the camera, a photographing start time and an ending time of the camera, Or the like.

마지막으로 카메라 제어 신호 전송부(1950)는 생성한 카메라 제어 신호를 컨텐츠 디바이스(110)로 전송할 수 있다.
Finally, the camera control signal transmitting unit 1950 can transmit the generated camera control signal to the content device 110. [

도 20은 본 발명의 일실시예에 따른 디바이스 간 컨텐츠 이동 과정을 나타내는 도면이다.20 is a diagram illustrating a process of moving content between devices according to an embodiment of the present invention.

단계(2010)에서 컨텐츠 디바이스(110)의 터치 정보 생성부(320)는 컨텐츠 디바이스(110)의 디스플레이에 터치한 물체를 탐지할 수 있다. In step 2010, the touch information generating unit 320 of the content device 110 may detect a touched object on the display of the content device 110. [

단계(2020)에서 컨텐츠 디바이스(110)의 위치 정보 수집부(310)는 단계(2010)에서 컨텐츠 디바이스(110)의 디스플레이에 터치한 물체를 탐지하거나, 터치한 물체의 드래그 시작을 탐지한 경우, 주변 디바이스 검색 메시지를 전송할 수 있다. If the position information collection unit 310 of the content device 110 detects the touched object on the display of the content device 110 in step 2010 or detects the start of dragging of the touched object in step 2010, A peripheral device search message can be transmitted.

단계(2030)에서 컨텐츠 디바이스(110)의 터치 정보 생성부(320)는 단계(2010)에서 탐지한 물체의 터치 정보를 생성할 수 있다. 구체적으로, 터치 정보 생성부(320)는 단계(2010)에서 탐지한 물체의 개수, 물체의 면적, 및 물체의 형상에 기초하여 물체의 터치 타입을 식별할 수 있다. 또한, 터치 정보 생성부(320)는 물체의 움직임 패턴에 기초하여 사용자가 물체를 이용하여 컨텐츠 디바이스(110)에 입력하는 터치 명령을 식별할 수 있다. 그리고, 터치 정보 생성부(320)는 터치 명령과 물체의 터치 타입을 포함하는 물체의 터치 정보를 생성할 수 있다.In step 2030, the touch information generating unit 320 of the content device 110 may generate touch information of an object detected in step 2010. [ Specifically, the touch information generation unit 320 can identify the touch type of the object based on the number of objects detected in step 2010, the area of the object, and the shape of the object. In addition, the touch information generation unit 320 can identify a touch command that the user inputs to the content device 110 using the object based on the movement pattern of the object. The touch information generating unit 320 can generate touch information of an object including a touch command and an object touch type.

단계(2035)에서 휴대용 디바이스(120)의 위치 정보 생성부(1910)는 단계(2020)에서 주변 디바이스 검색 메시지를 수신한 경우, 휴대용 디바이스(120)의 가속도계의 변화, 휴대용 디바이스(120)의 위치, 휴대용 디바이스(120)의 이동 거리, 및 휴대용 디바이스(120)의 움직임 패턴 중 적어도 하나를 포함하는 위치 정보를 생성할 수 있다.The location information generating unit 1910 of the portable device 120 in step 2035 determines whether the location information of the portable device 120 has been received or not, The moving distance of the portable device 120, and the movement pattern of the portable device 120. [0064] FIG.

단계(2040)에서 컨텐츠 디바이스(110)의 터치 정보 생성부(320)는 단계(2010)에서 디스플레이를 터치한 물체의 터치가 종료되는 것을 탐지할 수 있다. In step 2040, the touch information generating unit 320 of the content device 110 may detect that the touch of an object that touched the display in step 2010 is terminated.

단계(2050)에서 휴대용 디바이스(120)의 위치 정보 제공부(1920)는 단계(2035)에서 생성한 위치 정보를 컨텐츠 디바이스(110)에 제공할 수 있다. 구체적으로 위치 정보 제공부(1920)는 단계(2035)에서 생성한 위치 정보와 휴대용 디바이스(120)의 식별 정보를 이용하여 단계(2020)에서 수신한 주변 디바이스 검색 메시지에 대응하는 응답용 메시지를 생성할 수 있다. 그리고, 위치 정보 제공부(1920)는 생성한 응답용 메시지를 컨텐츠 디바이스(110)로 전송할 수 있다.The location information providing unit 1920 of the portable device 120 in step 2050 may provide the location information generated in step 2035 to the content device 110. [ Specifically, the location information providing unit 1920 generates a response message corresponding to the peripheral device search message received in step 2020, using the location information generated in step 2035 and the identification information of the portable device 120 can do. Then, the location information providing unit 1920 can transmit the generated response message to the content device 110.

단계(2060)에서 컨텐츠 디바이스(110)의 커플링부(330)는 단계(2050)에서 수신한 응답용 메시지의 위치 정보에 포함된 휴대용 디바이스(120)의 공간상 이동 시간, 거리, 움직임 패턴 정보들을 단계(2030)에서 생성한 터치 정보에 포함된 터치의 이동 시간, 거리, 움직임 패턴과 비교할 수 있다. 그리고, 비교 결과 위치 정보와 터치 정보가 일정 오차 이내에서 일치한 경우, 응답용 메시지를 전송한 휴대용 디바이스를 컨텐츠 디바이스(110)와 커플링을 맺을 디바이스로 선택할 수 있다.In step 2060, the coupling unit 330 of the content device 110 transmits the spatial movement time, distance, and movement pattern information of the portable device 120 included in the location information of the response message received in step 2050 The distance, and the movement pattern of the touch included in the touch information generated in step 2030. If the comparison result shows that the location information and the touch information coincide with each other within a predetermined error, the portable device that has transmitted the response message can be selected as a device to be coupled with the content device 110.

단계(2070)에서 컨텐츠 디바이스(110)의 커플링부(330)는 단계(2050)에서 수신한 응답 메시지에 포함된 휴대용 디바이스(120)의 식별 정보를 이용하여 단계(2060)에서 선택한 휴대용 디바이스(120)와 커플링을 맺을 수 있다.The coupling unit 330 of the content device 110 at step 2070 uses the identification information of the portable device 120 included in the response message received at step 2050 to select the portable device 120 Lt; / RTI >

단계(2080)에서 컨텐츠 디바이스(110)의 컨텐츠 이동부(330)는 단계(2030)에서 생성한 터치 정보에 기초하여 컨텐츠를 휴대용 디바이스(120)로 이동하거나, 휴대용 디바이스(120)로부터 수신한 컨텐츠를 디스플레이에 표시할 수 있다.
In step 2080, the content moving unit 330 of the content device 110 moves the content to the portable device 120 based on the touch information generated in step 2030, or transmits the content received from the portable device 120 Can be displayed on the display.

도 21은 본 발명의 일실시예에 따른 컨텐츠 디바이스(110)의 동작 방법을 도시한 플로우차트이다.FIG. 21 is a flowchart illustrating an operation method of the content device 110 according to an embodiment of the present invention.

단계(2110)에서 터치 정보 생성부(320)는 컨텐츠 디바이스(110)의 디스플레이에 터치한 물체의 개수, 물체의 면적, 및 물체의 형상에 기초하여 물체의 터치 타입을 식별할 수 있다. 또한, 터치 정보 생성부(320)는 물체의 움직임 패턴에 기초하여 사용자가 물체를 이용하여 컨텐츠 디바이스(110)에 입력하는 터치 명령을 식별할 수 있다. 그리고, 터치 정보 생성부(320)는 터치 명령과 물체의 터치 타입을 포함하는 터치 정보를 생성할 수 있다.In step 2110, the touch information generating unit 320 can identify the touch type of the object based on the number of objects touched, the area of the object, and the shape of the object on the display of the content device 110. In addition, the touch information generation unit 320 can identify a touch command that the user inputs to the content device 110 using the object based on the movement pattern of the object. The touch information generating unit 320 can generate touch information including a touch command and an object touch type.

이때, 터치 정보 생성부(320)는 터치 타입을 사용자의 손가락 중 하나가 디스플레이를 터치하여 입력하는 싱글 터치, 사용자의 손가락들이 디스플레이의 복수의 위치를 터치하여 입력하는 멀티 터치, 및 휴대용 디바이스(120), 또는 휴대용 디바이스(120)를 쥐고 있는 사용자의 손이 디스플레이를 터치하여 입력하는 특이 터치 중 하나로 식별할 수 있다.At this time, the touch information generating unit 320 may include a touch type generating unit 320 for generating a touch type, such as a single touch in which one of the fingers of a user touches and inputs a display, a multi-touch in which fingers of a user touch and input a plurality of positions of the display, ), Or a specific touch that a user's hand holding the portable device 120 enters by touching the display.

단계(2120)에서 위치 정보 수집부(310)는 컨텐츠 디바이스(110)에 인접한 휴대용 디바이스(120)의 위치 정보를 수집할 수 있다.In step 2120, the location information collecting unit 310 may collect location information of the portable device 120 adjacent to the content device 110. [

구체적으로, 컨텐츠 디바이스(110)의 디스플레이에 터치한 물체가 있거나 터치한 물체가 드래그를 시작하는 움직임이 있어서 단계(2110)가 수행되는 경우, 위치 정보 수집부(310)는 주변 디바이스 검색 메시지를 전송할 수 있다. Specifically, when step 2110 is performed because there is a touched object on the display of the content device 110 or there is a movement of the touched object starting to be dragged, the position information collecting unit 310 transmits a peripheral device search message .

주변 디바이스 검색 메시지에 대한 응답 메시지를 수신하지 않는 경우, 사용자가 휴대용 디바이스(120)를 가지고 있지 않다는 것을 의미하므로, 위치 정보 수집부(310)는 커플링부(330)를 종료시킬 수 있다. 주변 디바이스 검색 메시지에 대한 응답 메시지를 수신하는 경우, 위치 정보 수집부(310)는 응답 메시지에서 컨텐츠 디바이스(110)에 인접한 휴대용 디바이스(120)의 위치 정보를 추출하여 수집할 수 있다.If the response message to the peripheral device search message is not received, it means that the user does not have the portable device 120, so that the position information collection unit 310 can terminate the coupling unit 330. When receiving a response message to the peripheral device search message, the location information collecting unit 310 extracts location information of the portable device 120 adjacent to the content device 110 and collects the location information in the response message.

또한, 위치 정보 수집부(310)는 단계(2110)에서 사용자가 휴대용 디바이스(120), 또는 휴대용 디바이스(120)를 쥔 손으로 특정 터치 명령을 입력한 경우에만 휴대용 디바이스(120)와 커플링함으로써, 사용자가 컨텐츠의 이동을 원하지 상황에서 컨텐츠를 이동할 휴대용 디바이스(120)를 검색하기 위하여 불필요한 자원이 소모되는 것을 방지할 수 있다.The position information collecting unit 310 may also be configured to couple the portable device 120 to the portable device 120 only when the user inputs a specific touch command in step 2110 with the hand held portable device 120 or hand holding the portable device 120 , It is possible to prevent unnecessary resources from being consumed in order to search for the portable device 120 to move the content in a situation where the user does not want to move the content.

그리고, 위치 정보 수집부(310)는 단계(2110)에서 사용자가 휴대용 디바이스(120), 또는 휴대용 디바이스(120)를 쥔 손으로 한쪽방향을 향하는 멀티 터치 명령을 입력한 경우에만 휴대용 디바이스(120)와 커플링함으로써, 사용자가 컨텐츠의 이동을 원하지 않는 상황에서 컨텐츠를 이동할 휴대용 디바이스(120)를 검색하기 위하여 불필요한 자원이 소모되는 것을 방지할 수 있다.The position information collecting unit 310 acquires position information of the portable device 120 only when the user inputs a multi-touch command directed to one direction with the hand holding the portable device 120 or the portable device 120 in step 2110. [ It is possible to prevent unnecessary resources from being consumed in order to search for the portable device 120 to which the content is to be moved in a situation where the user does not want to move the content.

단계(2130)에서 커플링부(330)는 단계(2110)에서 생성한 물체의 터치 정보 및 단계(2120)에서 수집한 휴대용 디바이스(120)의 위치 정보에 기초하여 휴대용 디바이스(120)와 커플링을 맺을 수 있다.The coupling unit 330 in step 2130 performs coupling with the portable device 120 based on the touch information of the object generated in step 2110 and the position information of the portable device 120 collected in step 2120 Can be concluded.

구체적인 커플링 방법은 이하 도 22를 참조하여 상세히 설명한다.The specific coupling method will be described in detail below with reference to FIG.

단계(2140)에서 컨텐츠 이동부(340)는 터치 정보가 컨텐츠 이동과 관련된 터치 정보인지 여부를 확인할 수 있다. 이때, 컨텐츠 이동부(340)가 확인하는 터치 정보는 단계(2110)에서 생성된 터치 정보, 또는 단계(2110)가 수행된 이후 터치 정보 생성부(320)가 물체의 터치에 따라 실시간으로 생성한 터치 정보일 수 있다.In step 2140, the content moving unit 340 may determine whether the touch information is touch information related to the content movement. At this time, the touch information confirmed by the content moving unit 340 is the touch information generated in step 2110, or the touch information generated in real time according to the touch of the object by the touch information generating unit 320 after the step 2110 is performed Touch information.

단계(2110)에서 생성된 터치 정보가 컨텐츠 이동과 관련된 터치 정보가 아닌 경우, 컨텐츠 이동부(340)는 컨텐츠 이동과 관련된 터치 정보가 생성될 때까지 대기할 수 있다.If the touch information generated in step 2110 is not the touch information related to the content movement, the content moving unit 340 may wait until the touch information related to the content movement is generated.

단계(2150)에서 컨텐츠 이동부(340)는 단계(2140)에서 컨텐츠의 이동과 관련된 것으로 확인된 물체의 터치 정보 및 단계(2120)에서 수집한 위치 정보에 기초하여 단계(2130)에서 커플링을 맺은 휴대용 디바이스(120)로 컨텐츠를 이동할 수 있다.In step 2150, the content moving unit 340 performs the coupling in step 2130 based on the touch information of the object determined to be related to the movement of the content in step 2140 and the position information collected in step 2120 The portable device 120 can move the content.

구체적인 컨텐츠 이동 방법은 이하 도 23을 참조하여 상세히 설명한다.
A detailed content moving method will be described in detail with reference to FIG.

도 22는 본 발명의 일실시예에 따른 커플링 방법을 도시한 플로우차트이다. 이때, 도 22에 도시된 단계(2210) 내지 단계(2260)는 도 21의 단계(2130)에 포함될 수 있다.22 is a flowchart showing a coupling method according to an embodiment of the present invention. At this time, steps 2210 to 2260 shown in FIG. 22 may be included in step 2130 of FIG.

단계(2210)에서 커플링부(330)는 단계(2110)에서 생성한 물체의 터치 정보에 포함된 터치 타입이 특이 터치인지 여부를 확인할 수 있다. 터치 타입이 특이 터치인 경우, 커플링부(330)는 단계(2220)를 수행하고, 터치 타입이 특이 터치가 아닌 싱글 터치, 또는 멀티 터치인 경우, 커플링부(330)는 단계(2230)를 수행할 수 있다. In step 2210, the coupling unit 330 can check whether the touch type included in the touch information of the object generated in step 2110 is a specific touch. If the touch type is a specific touch, the coupling unit 330 performs step 2220. If the touch type is a single touch or multi-touch other than a specific touch, the coupling unit 330 performs step 2230 can do.

단계(2120)에서 커플링부(330)는 단계(2110)에서 생성한 물체의 터치 정보와 단계(2120)에서 수집한 휴대용 디바이스(120)의 위치 정보가 동일한지 여부를 확인할 수 있다. 구체적으로, 위치 정보에 포함된 휴대용 디바이스(120)의 이동 시간, 이동 거리 및 움직임 패턴이 터치 정보에 포함된 물체의 이동 시간, 이동 거리 및 움직임 패턴이 일정 오차 이내에서 일치한 경우, 커플링부(330)는 위치 정보와 터치 입력이 동일한 것으로 판단할 수 있다.In step 2120, the coupling unit 330 can check whether the touch information of the object generated in step 2110 and the position information of the portable device 120 collected in step 2120 are the same. Specifically, when the movement time, the movement distance, and the movement pattern of the portable device 120 included in the position information coincide with the movement time, the movement distance, and the movement pattern of the object included in the touch information within a certain error, 330 can determine that the position information and the touch input are the same.

그리고, 위치 정보와 터치 입력이 동일한 경우, 커플링부(330)는 단계(2240)을 수행할 수 있다. If the position information and the touch input are the same, the coupling unit 330 may perform step 2240. [

또한, 위치 정보와 터치 입력이 동일하지 않은 경우, 해당 휴대용 디바이스(120)는 컨텐츠 디바이스(110)과 커플링을 맺을 수 없다. 따라서, 커플링부(330)는 다른 휴대용 디바이스(120)의 위치 정보를 이용하여 단계(2220)을 반복 수행하면서, 컨텐츠 디바이스(110)과 커플링을 맺을 다른 휴대용 디바이스(120)를 검색할 수 있다.Also, when the location information and the touch input are not the same, the portable device 120 can not couple with the content device 110. [ The coupling portion 330 may search for another portable device 120 that is to be coupled with the content device 110 while repeating the step 2220 using the location information of the other portable device 120 .

단계(2230)에서 커플링부(330)는 단계(2210)에서 터치 타입이 싱글 터치, 또는 멀티 터치로 판단된 터치 정보에 터치 명령이 포함되었는지 여부를 확인할 수 있다.In step 2230, the coupling unit 330 may check in step 2210 whether a touch command is included in the touch information determined by the touch type as a single-touch or multi-touch.

터치 정보에 터치 명령이 포함된 경우, 커플링부(330)는 단계(2220)을 수행하여 휴대용 디바이스(120)와 커플링을 맺을 수 있는지 여부를 확인할 수 있다. 또한, 터치 정보에 터치 명령이 포함되지 않은 경우, 사용자는 단순히 터치만 하고, 움직임 없이 터치를 종료한 것이므로, 사용자가 컨텐츠를 실행하기 위하여 터치한 것일 뿐, 컨텐츠의 이동을 원하지 않을 수 있다. 따라서, 커플링부(330)는 단계(2260)을 수행하여 커플링 과정을 종료할 수 있다.If the touch information includes a touch command, the coupling unit 330 may perform step 2220 to check whether or not a coupling with the portable device 120 can be made. When the touch information is not included in the touch information, the user simply touches the touch screen and ends the touch without moving. Therefore, the user may touch the touch screen to execute the content and may not want to move the content. Accordingly, coupling portion 330 may perform step 2260 to terminate the coupling process.

단계(2240)에서 커플링부(330)는 단계(2120)에서 위치 정보를 수집한 휴대용 디바이스(120)와 커플링을 맺을 수도 있다.In step 2240, the coupling unit 330 may couple with the portable device 120 that has collected the location information in step 2120.

단계(2250)에서 커플링부(330)는 단계(2110)에서 디스플레이를 터치한 물체가 터치를 종료하였는지 여부를 확인할 수 있다. 구체적으로, 커플링부(330)는 터치 정보에 터치 업 시간이 포함된 경우, 현재 시간이 터치 업 시간이 되면, 터치를 종료한 것으로 판단할 수 있다. 그리고, 터치를 종료한 경우, 커플링부(330)는 단계(2260)을 수행할 수 있다.In step 2250, the coupling unit 330 may check in step 2110 whether the object touching the display has finished touching. Specifically, when the touch information includes the touch-up time, the coupling unit 330 can determine that the touch is terminated when the current time reaches the touch-up time. When the touch is terminated, the coupling unit 330 may perform step 2260. FIG.

또한, 터치가 종료되지 않는 경우, 커플링부(330)는 단계(2240)에서 맺은 커플링을 유지할 수 있다.In addition, if the touch is not terminated, the coupling portion 330 can maintain the coupling in Step 2240.

단계(2260)에서 커플링부(330)는 단계(2240)에서 맺은 커플링을 중단하고, 컨텐츠 이동 방법을 종료할 수 있다.
In step 2260, the coupling unit 330 may terminate the coupling in step 2240 and terminate the content movement method.

도 23은 본 발명의 일실시예에 따른 컨텐츠 이동 방법을 도시한 플로우차트이다. 이때, 도 23에 도시된 단계(2310) 내지 단계(2350)는 도 21의 단계(2150)에 포함될 수 있다.23 is a flowchart illustrating a content moving method according to an embodiment of the present invention. At this time, steps 2310 to 2350 shown in FIG. 23 may be included in step 2150 of FIG.

단계(2310)에서 컨텐츠 이동부(340)는 사용자가 컨텐츠 이동 제스처로 컨텐츠를 선택하였는지 여부를 확인할 수 있다.In step 2310, the content moving unit 340 may determine whether the user has selected the content as the content movement gesture.

이때, 컨텐츠 이동 제스처는 싱글 터치, 또는 멀티 터치로 드래그, 스윕, 및 플릭 중 하나의 터치 명령을 입력하는 제스처, 또는 특이 터치를 이용한 제스처, 및 특이 터치와 싱글 터치가 동시에 수행되는 제스처 중 하나일 수 있다.At this time, the content movement gesture may be one of a gesture for inputting a touch command such as a single touch or a drag, sweep, and flick, or a gesture using a specific touch, and a gesture for performing a specific touch and a single touch simultaneously .

사용자가 컨텐츠 이동 제스처로 컨텐츠를 선택한 경우, 컨텐츠 이동부(340)는 단계(2320)을 수행하여 컨텐츠를 휴대용 디바이스(120)으로 이동할 것인지, 아니면 휴대용 디바이스(120)로부터 컨텐츠를 수신할 것인지 확인할 수 있다.When the user selects the content as the content movement gesture, the content movement unit 340 performs step 2320 to check whether the content is moved to the portable device 120 or whether the content is to be received from the portable device 120 have.

사용자가 컨텐츠 이동 제스처로 컨텐츠를 선택하지 않은 경우, 사용자가 컨텐츠를 이동하기 원하지 않는 것이므로, 컨텐츠 이동부(340)는 사용자가 컨텐츠 이동 제스처로 컨텐츠를 선택할 때까지 단계(2310)을 반복하며 대기할 수 있다.If the user does not select the content as the content movement gesture, since the user does not want to move the content, the content movement unit 340 repeats the step 2310 until the user selects the content as the content movement gesture .

단계(2320)에서 컨텐츠 이동부(340)는 휴대용 디바이스(120)가 터치 입력을 받았는지 여부를 확인할 수 있다. In step 2320, the content moving unit 340 can check whether or not the portable device 120 has received the touch input.

구체적으로, 휴대용 디바이스(120)의 디스플레이에 표시된 컨텐츠 중 적어도 하나가 사용자에게 선택된 경우, 휴대용 디바이스(120)는 컨텐츠 이동부(340)에 사용자가 선택한 컨텐츠에 대한 컨텐츠 정보를 전송할 수 있다. 그리고, 컨텐츠 이동부(340)는 휴대용 디바이스(120)로부터 컨텐츠 정보를 수신한 경우, 휴대용 디바이스(120)가 터치 입력을 받은 것으로 확인할 수 있다. Specifically, when at least one of the contents displayed on the display of the portable device 120 is selected by the user, the portable device 120 may transmit the content information on the content selected by the user to the content moving unit 340. [ When the content moving unit 340 receives the content information from the portable device 120, the content moving unit 340 can confirm that the portable device 120 has received the touch input.

그리고, 휴대용 디바이스(120)가 터치 입력을 받은 경우, 휴대용 디바이스(120)의 컨텐츠를 컨텐츠 디바이스(110)로 이동해야 하므로, 컨텐츠 이동부(340)는 단계(2350)을 수행할 수 있다.If the portable device 120 receives a touch input, the content moving unit 340 may perform step 2350 because the content of the portable device 120 must be moved to the content device 110.

또한, 휴대용 디바이스(120)가 터치 입력을 받지 않은 경우, 컨텐츠 디바이스(110)의 컨텐츠를 휴대용 디바이스(120)로 이동해야 하므로, 컨텐츠 이동부(340)는 단계(2330)을 수행할 수 있다.If the portable device 120 does not receive the touch input, the content moving unit 340 may perform step 2330 because the content of the content device 110 must be moved to the portable device 120.

단계(2330)에서 컨텐츠 이동부(340)는 터치 명령에 의한 컨텐츠의 이동 방향과 위치 정보가 대응하는지 여부를 확인할 수 있다.In step 2330, the content moving unit 340 can check whether the movement direction of the content by the touch command corresponds to the position information.

예를 들어, 터치 명령에 의하여 컨텐츠가 아래 방향으로 이동하고, 휴대용 디바이스(120)로부터 수신하는 위치 정보가 아래 방향으로 이동하는 정보인 경우, 컨텐츠 이동부(340)는 컨텐츠의 이동 방향과 위치 정보가 대응한다고 판단할 수 있다.For example, if the content moves downward by the touch command and the location information received from the portable device 120 moves downward, the content moving unit 340 moves the content in the downward direction, It can be judged that it corresponds.

또한, 휴대용 디바이스(120)를 컨텐츠 디바이스(110)의 디스플레이에 터치한 상태에서 컨텐츠의 이동 방향이 휴대용 디바이스(120)에 의한 특이 터치의 위치로 이동하는 방향인 경우, 컨텐츠 이동부(340)는 컨텐츠의 이동 방향과 위치 정보가 대응한다고 판단할 수 있다.When the portable device 120 is touched to the display of the content device 110 and the direction of movement of the content is the direction to move to the position of the specific touch by the portable device 120, It can be determined that the movement direction of the content corresponds to the position information.

그리고, 컨텐츠의 이동 방향과 위치 정보가 대응하지 않는 경우, 사용자는 컨텐츠를 컨텐츠 디바이스(110)의 디스플레이 내부에서 이동하고자 하는 것이므로, 컨텐츠 이동부(340)는 단계(2310)을 다시 수행하여 컨텐츠 이동 제스처가 입력될 때까지 대기할 수 있다.If the moving direction of the content does not correspond to the position information, the user moves the content in the display device of the content device 110. Therefore, the content moving unit 340 performs step 2310 again, You can wait until the gesture is entered.

단계(2340)에서 컨텐츠 이동부(340)는 커플링을 맺은 휴대용 디바이스(120)로 단계(2310)에서 선택한 컨텐츠를 전송할 수 있다.In step 2340, the content moving unit 340 may transmit the content selected in step 2310 to the coupled portable device 120.

단계(2350)에서 컨텐츠 이동부(340)는 커플링을 맺은 휴대용 디바이스(120)로부터 단계(2320)에서 선택한 컨텐츠를 수신할 수 있다. 그리고, 컨텐츠 이동부(340)는 단계(2310)에서 제스처가 입력된 위치에 수신한 컨텐츠를 표시할 수 있다.
In step 2350, the content moving unit 340 may receive the content selected in step 2320 from the coupled portable device 120. In step 2310, the content moving unit 340 may display the received content at the position where the gesture is input.

도 24는 본 발명의 일실시예에 따른 휴대용 디바이스(120)의 동작 방법을 도시한 플로우차트이다.24 is a flowchart showing an operation method of the portable device 120 according to an embodiment of the present invention.

단계(2410)에서 위치 정보 생성부(1910)는 컨텐츠 디바이스(110)로부터 주변 디바이스 검색 메시지를 수신하였는지 여부를 확인할 수 있다. 그리고, 주변 디바이스 검색 메시지를 수신하지 않은 경우, 위치 정보 생성부(1910)는 컨텐츠 디바이스(110)로부터 주변 디바이스 검색 메시지를 수신할 때까지 단계(2410)을 반복하며 대기할 수 있다.In step 2410, the location information generation unit 1910 can check whether the peripheral device search message is received from the content device 110. [ If the neighboring device search message is not received, the location information generating unit 1910 may repeat step 2410 until the neighboring device search message is received from the content device 110, and may wait.

단계(2420)에서 위치 정보 생성부(1910)는 휴대용 디바이스(120)의 가속도계의 변화, 휴대용 디바이스(120)의 위치, 휴대용 디바이스(120)의 이동 거리, 및 휴대용 디바이스(120)의 움직임 패턴 중 적어도 하나를 포함하는 위치 정보를 생성할 수 있다.In step 2420, the position information generating unit 1910 generates a position information of the portable device 120 based on the change of the accelerometer of the portable device 120, the position of the portable device 120, the moving distance of the portable device 120, It is possible to generate position information including at least one.

단계(2430)에서 위치 정보 제공부(1920)는 단계(2420)에서 생성한 위치 정보를 컨텐츠 디바이스(110)에 제공할 수 있다. 구체적으로 위치 정보 제공부(1920)는 위치 정보와 휴대용 디바이스(120)의 식별 정보를 이용하여 주변 디바이스 검색 메시지에 대응하는 응답용 메시지를 생성할 수 있다. 그리고, 위치 정보 제공부(1920)는 생성한 응답용 메시지를 컨텐츠 디바이스(110)로 전송할 수 있다.In operation 2430, the location information providing unit 1920 may provide the location information generated in operation 2420 to the content device 110. Specifically, the location information providing unit 1920 may generate a response message corresponding to the peripheral device search message using the location information and the identification information of the portable device 120. [ Then, the location information providing unit 1920 can transmit the generated response message to the content device 110.

단계(2440)에서 커플링부(1930)는 컨텐츠 디바이스(110)로부터 커플링 요청을 수신하였는지 확인할 수 있다. 그리고, 커플링 요청을 수신하지 않은 경우, 커플링부(1930)는 커플링 요청을 수신할 때까지 단계(2440)을 반복하며 대기할 수 있다.In step 2440, coupling unit 1930 may verify that it has received a coupling request from content device 110. [ If the coupling request is not received, the coupling unit 1930 may repeat step 2440 and wait until it receives the coupling request.

단계(2450)에서 커플링부(1930)는 커플링 요청을 전송한 컨텐츠 디바이스(110)와 휴대용 디바이스(120) 간에 커플링을 맺을 수 있다.In step 2450, the coupling unit 1930 may couple between the portable device 120 and the content device 110 that transmitted the coupling request.

단계(2460)에서 컨텐츠 이동부(1940)는 컨텐츠 디바이스(110)로부터 적어도 하나의 컨텐츠를 수신하고, 수신한 컨텐츠를 휴대용 디바이스(120)의 디스플레이에 표시할 수 있다.In step 2460, the content moving unit 1940 receives at least one content from the content device 110 and displays the received content on the display of the portable device 120.

또한, 사용자가 휴대용 디바이스(120)의 디스플레이에 표시된 컨텐츠를 선택하고, 컨텐츠 디바이스(110)에 터치 명령을 입력하는 경우, 컨텐츠 이동부(1940)는 사용자가 선택한 컨텐츠를 컨텐츠 디바이스(110)로 전송할 수 있다.
In addition, when the user selects a content displayed on the display of the portable device 120 and inputs a touch command to the content device 110, the content moving unit 1940 transmits the content selected by the user to the content device 110 .

상기와는 다른 실시예로서, 본 발명에서는 휴대용 디바이스의 가속도계 정보 획득을 통한 위치 정보 수집을 수행하지 않더라도, 컨텐츠 디바이스와 휴대용 디바이스 간 커플링을 수행할 수 있다.According to another embodiment of the present invention, coupling between a content device and a portable device can be performed without performing location information collection through acquisition of accelerometer information of the portable device.

이하에서는 본 발명의 다른 실시예에 있어서 컨텐츠 디바이스에서 멀티 터치 및 이미지 코드 인식에 의해 컨텐츠를 이동하는 방법을 상세히 설명하기로 한다.
Hereinafter, a method of moving content by multi-touch and image code recognition in a content device according to another embodiment of the present invention will be described in detail.

컨텐츠 디바이스는 터치 정보 생성 시 컨텐츠 디바이스에 생성된 터치가 멀티 터치인 경우 휴대용 디바이스의 위치 정보를 수집하는 대신에, 사용자가 멀티 터치를 수행한 위치의 컨텐츠를 이미지 코드로 변환하고 이 변환이 휴대용 디바이스에서 인식되었는지에 대한 정보를 획득할 수 있다. 이를 통해, 컨텐츠 디바이스는 해당 제스처가 수행된 휴대용 디바이스와 커플링을 맺음으로써 컨텐츠 이동을 수행할 수 있다.Instead of collecting the location information of the portable device when the touch generated in the content device is multitouch when generating the touch information, the content device converts the content of the location where the user performed multi-touch into an image code, It is possible to obtain information on whether or not it has been recognized. Accordingly, the content device can perform the content movement by coupling with the portable device on which the gesture is performed.

도 25는 본 발명의 다른 실시예에 따른 컨텐츠 디바이스의 내부 구성을 나타내는 도면이다.25 is a diagram illustrating an internal configuration of a content device according to another embodiment of the present invention.

도 25를 참조하면, 본 발명의 다른 실시예에 따른 컨텐츠 디바이스는 터치 정보 생성부(2510), 이미지 코드 변환부(2520), 커플링부(2530), 컨텐츠 이동부(2540), 및 카메라 제어부(2550)를 포함할 수 있다.25, a content device according to another embodiment of the present invention includes a touch information generating unit 2510, an image code converting unit 2520, a coupling unit 2530, a content moving unit 2540, 2550).

본 발명의 다른 실시예에 따른 컨텐츠 디바이스에서 이미지 코드 변환부(2520)를 제외한 나머지 구성은 도 3을 통해 설명한 상세 내용과 동일하거나 유사하므로 그 구체적인 동작 설명은 생략하기로 한다.Other components of the content device according to another embodiment of the present invention other than the image code conversion unit 2520 are the same as or similar to those described with reference to FIG. 3, and a detailed description thereof will be omitted.

터치 정보 생성부(2510)는 컨텐츠 디바이스의 디스플레이에 터치한 물체의 개수, 물체의 면적, 및 물체의 형상에 기초하여 물체의 터치 타입을 식별한 후, 물체의 터치 타입을 포함하는 물체의 터치 정보를 생성할 수 있으며 물체의 터치 타입에 기초하여 제어 신호를 출력할 수 있다.The touch information generation unit 2510 identifies the touch type of the object based on the number of objects touched, the area of the object, and the shape of the object on the display of the content device, And can output a control signal based on the touch type of the object.

이미지 코드 변환부(2520)는 터치 정보 생성부(2510)의 제어 신호에 따라 일정 거리 안에 휴대용 디바이스가 있는지 여부를 확인하기 위한 주변 디바이스 검색 메시지를 전송할 수 있다. 아울러, 이미지 코드 변환부(2520)는 터치 정보 생성부(2510)의 제어 신호에 따라 물체의 터치가 감지된 위치에 존재하는 컨텐츠를 이미지 코드로 변환하여 컨텐츠가 디스플레이 된 적어도 일부 영역인 이미지 변환 영역에 이미지 코드를 표시할 수 있다. 이때, 이미지 코드는 적어도 1개의 색을 특정 시간 간격이나 패턴으로 반복 또는 교차 표시하는 형태, 바코드나 QR 코드 등으로 구성된 이미지를 표시하는 형태 등으로 구현될 수 있다. 이에, 컨텐츠 디바이스로부터 주변 디바이스 검색 메시지를 받은 휴대용 디바이스에서는 이미지 코드 인식이 가능한 수단을 통해 컨텐츠 디바이스의 디스플레이에 표시된 이미지 코드를 인식한 후 이를 주변 디바이스 검색 메시지에 대한 응답 메시지에 실어서 컨텐츠 디바이스로 전송할 수 있다. 이때, 휴대용 디바이스에서는 조도 센서, 카메라, RGB 센서, 이미지 센서 등을 이용하여 컨텐츠 디바이스 상에 표시된 이미지 코드를 인식할 수 있다.The image code converting unit 2520 may transmit a peripheral device search message for confirming whether or not the portable device exists within a predetermined distance according to the control signal of the touch information generating unit 2510. [ In addition, the image code converting unit 2520 converts the content existing at the position where the touch of the object is detected according to the control signal of the touch information generating unit 2510 into an image code, The image code can be displayed on the display screen. At this time, the image code may be realized by repeating or cross-displaying at least one color at a specific time interval or pattern, displaying an image composed of a bar code, a QR code, or the like. Accordingly, the portable device that receives the peripheral device search message from the content device recognizes the image code displayed on the display of the content device through the means capable of recognizing the image code, transmits it to the content device in the response message to the peripheral device search message . At this time, in the portable device, the image code displayed on the content device can be recognized using the illuminance sensor, the camera, the RGB sensor, the image sensor, and the like.

커플링부(2530)는 터치 정보 생성부(2510)가 생성한 물체의 터치 정보 및 휴대용 디바이스로부터 수신한 응답 메시지에 기초하여 휴대용 디바이스와 커플링을 맺을 수 있다. 다시 말해, 커플링부(2530)는 이미지 코드 변환부(2520)에서 변환한 이미지 코드와 응답 메시지를 보낸 휴대용 디바이스에서 인식한 이미지 코드가 일정 오차범위 내에서 일치하면 해당 휴대용 디바이스와의 커플링을 수행할 수 있다.
The coupling unit 2530 can make a coupling with the portable device based on the touch information of the object generated by the touch information generating unit 2510 and the response message received from the portable device. In other words, the coupling unit 2530 performs coupling with the corresponding portable device if the image code converted by the image code conversion unit 2520 and the image code recognized by the portable device that sent the response message match within a predetermined error range can do.

도 26과 도 27을 참조하여, 멀티 터치 및 이미지 코드 인식에 의한 컨텐츠 이동 방법을 상세하게 설명하기로 한다.26 and 27, a content moving method by multi-touch and image code recognition will be described in detail.

도 26의 (a)에 도시한 바와 같이, 사용자가 휴대용 디바이스(120)를 쥔 손(2600)으로 휴대용 디바이스(120)의 디스플레이와 컨텐츠 디바이스(110)의 디스플레이가 마주보도록 하여 컨텐츠 디바이스(110) 상에 표시된 컨텐츠(2610)의 위치에 멀티 터치로 접촉할 수 있다. 이는 사용자가 휴대용 디바이스(120)를 컨텐츠 디바이스(110)의 디스플레이에 직접 댄 것이 아니고 가까이 가져가 접촉하면 휴대용 디바이스(120)의 디스플레이와 컨텐츠 디바이스(110)의 디스플레이는 마주보게 되고 휴대용 디바이스(120)와 컨텐츠 디바이스(110) 사이에 사용자 손(2600)이 위치하게 되므로 도 26의 (b)과 같이 휴대용 디바이스(120)를 쥔 사용자의 손(2600)이 자연스럽게 2곳 이상의 영역(2611~2614)에 대해 멀티 터치가 이루어지는 상황이다.The content device 110 is controlled so that the display of the portable device 120 and the display of the content device 110 face each other with the hand 2600 holding the portable device 120 as shown in Figure 26 (a) The user can touch the position of the content 2610 displayed on the touch panel 2610 by multi-touch. This is because the display of the portable device 120 and the display of the content device 110 face each other when the user touches the portable device 120 rather than directly to the display of the content device 110 and contacts the portable device 120, The user's hand 2600 is positioned between the content device 110 and the content device 110 so that the hand 2600 of the user holding the portable device 120 is naturally located in two or more areas 2611 to 2614 as shown in FIG. This is a situation where multi-touch is performed.

이때, 컨텐츠 디바이스(110)는 멀티 터치가 수행된 좌표를 인식한 후 해당 좌표에 존재하는 컨텐츠(2610)에 대한 이미지 코드 변환을 수행하고, 이어 일정 거리 안에 휴대용 디바이스(120)가 있는지 여부를 확인하기 위해 주변 디바이스 검색 메시지를 전송할 수 있다.At this time, the content device 110 recognizes the coordinates on which the multi-touch is performed, performs image code conversion on the content 2610 existing in the coordinates, and then determines whether the portable device 120 exists within a predetermined distance A peripheral device search message may be transmitted.

컨텐츠 디바이스(110)로부터 주변 디바이스 검색 메시지를 수신한 휴대용 디바이스(120)에서는 자신의 디스플레이 앞에 존재하는 컨텐츠 디바이스(110) 상의 컨텐츠가 이미지 코드 변환이 이루어지는지를 감지하고, 이때 이미지 코드 변환이 감지된 경우 주변 디바이스 검색 메시지에 대하여 컨텐츠 디바이스(110)로 응답하게 된다. 컨텐츠 디바이스(110)는 주변 디바이스 검색 메시지에 대해 응답 메시지를 수신하면 이를 전송한 휴대용 디바이스(120)와 커플링을 맺는다.
Upon receiving the peripheral device search message from the content device 110, the portable device 120 detects whether the content on the content device 110 existing in front of the display device 110 is subjected to image code conversion. When the image code conversion is detected The content device 110 responds to the peripheral device search message. When the content device 110 receives the response message to the peripheral device search message, the content device 110 couples with the portable device 120 that has transmitted the response message.

휴대용 디바이스에서 컨텐츠 디바이스 상의 컨텐츠에 대한 이미지 코드변환을 인식하는 방법은 다음과 같다.A method for recognizing image code conversion for content on a content device in a portable device is as follows.

일 예로, 도 27을 참조하면 컨텐츠 디바이스(110)가 멀티 터치를 식별한 경우 주변 디바이스 검색 메시지를 보내고 이어 멀티 터치가 수행된 부분에 위치한 컨텐츠(2710)의 적어도 일부 영역(이하, '이미지 변환 영역'이라 칭함)(2720)에 걸쳐 흰색 또는 검정색을 각각 0.5초 간격으로 두 번씩 번갈아 가며 반복 표시한다(예컨대, 흰색-검정색-흰색-검정색). 이에, 휴대용 디바이스(120)는 주변 디바이스 검색 메시지를 받은 후 휴대용 디바이스(120)의 전면에 위치한 조도 센서를 통해 조도를 측정한다. 이때, 휴대용 디바이스(120)의 전면에 위치하는 컨텐츠 디바이스(110) 상에 표시된 컨텐츠(2710)의 이미지 변환 영역(2720)에 흰색과 검정색으로 이루어진 이미지 코드가 표시되므로 휴대용 디바이스(120)에서는 조도 센서를 통해 해당 이미지 코드에 대해 밝음-어두움-밝음-어두움으로 센서 측정 결과값을 얻게 된다. 일정 시간 동안 조도 센서값을 측정한 휴대용 디바이스(120)는 이를 주변 디바이스 검색 메시지에 대한 응답 메시지에 실어서 컨텐츠 디바이스(110)로 전송한다. 주변 디바이스 검색 메시지의 응답 메시지를 수신한 컨텐츠 디바이스(110)는 응답 메시지에 포함된 조도 센서값의 변화 값 및 그 시간 간격이 컨텐츠 상의 이미지 변환 영역(2720)에 표시한 색의 밝기 순서 및 시간과 일정 오차범위 내에서 모두 일치하면 응답 메시지를 보낸 휴대용 디바이스(120)와 커플링을 맺는다.27, when the content device 110 identifies a multi-touch, a peripheral device search message is sent and at least a part of the content 2710 (hereinafter referred to as an 'image conversion area' Quot;) 2720, which is repeated twice and alternately in white or black at 0.5 second intervals (for example, white-black-white-black). After receiving the peripheral device search message, the portable device 120 measures the illuminance through the illuminance sensor located on the front surface of the portable device 120. [ Since the image code composed of white and black is displayed in the image conversion area 2720 of the content 2710 displayed on the content device 110 located on the front side of the portable device 120 in the portable device 120, The result of the sensor measurement is obtained by the lightness-darkness-lightness-darkness of the image code. The portable device 120, which has measured the illuminance sensor value for a predetermined time, transmits it to the content device 110 in response to a peripheral device search message. Upon receiving the response message of the peripheral device search message, the content device 110 determines whether the change value of the ambient light sensor value included in the response message and the time interval of the response message include the brightness order and time of the color displayed in the image conversion area 2720 And couples with the portable device 120 that sent the response message if they all agree within a predetermined error range.

상기한 방법에서 컨텐츠 디바이스(110)는 이미지 변환 영역(2720)에 표시할 색과 시간을 조정함으로써 휴대용 디바이스에 특정 코드(e.g., [0], [1], [0], [0], [1], [1], [0], [1]) 같은 것을 전송할 수 있고 휴대용 디바이스(120)는 조도 센서 값에 의해 컨텐츠 디바이스(110)가 전송한 코드를 복원해 내는 것으로 커플링을 맺을 수 있다.
[0], [1], [0], [0], [0], [0], and so forth are provided to the portable device by adjusting the color and time to be displayed in the image conversion area 2720, 1], [1], [0], [1]) and the portable device 120 can transmit the same by restoring the code transmitted by the content device 110 by the brightness sensor value have.

도 28은 본 발명의 다른 실시예에 따른 휴대용 디바이스의 내부 구성을 나타내는 도면이다.28 is a diagram showing an internal configuration of a portable device according to another embodiment of the present invention.

도 28을 참조하면, 본 발명의 다른 실시예에 따른 휴대용 디바이스는 인식부(2810), 제공부(2820), 커플링부(2830), 컨텐츠 이동부(2840), 및 카메라 제어 신호 전송부(2850)를 포함할 수 있다.28, a portable device according to another embodiment of the present invention includes a recognizing unit 2810, a providing unit 2820, a coupling unit 2830, a content moving unit 2840, and a camera control signal transmitting unit 2850 ).

본 발명의 다른 실시예에 따른 휴대용 디바이스에서 인식부(2810)와 제공부(2820)를 제외한 나머지 구성은 도 19를 통해 설명한 상세 내용과 동일하거나 유사하므로 그 구체적인 동작 설명은 생략하기로 한다.The remaining configuration of the portable device according to another embodiment of the present invention, except for the recognition unit 2810 and the provision unit 2820, is the same as or similar to the details described with reference to FIG. 19, and thus a detailed description thereof will be omitted.

인식부(2810)는 컨텐츠 디바이스로부터 주변 디바이스 검색 메시지를 수신할 수 있으며, 주변 디바이스 검색 메시지가 수신되면 컨텐츠 디바이스 상에 표시된 이미지 코드를 인식하기 위해 필요한 모듈을 활성화 한 후 해당 모듈을 통해 이미지 코드를 인식할 수 있다. 일 예로, 인식부(2810)는 조도 센서, 카메라, RGB 센서, 이미지 센서 등을 이용하여 컨텐츠 디바이스 상에 표시된 이미지 코드를 인식할 수 있다.Upon receiving the peripheral device search message, the recognition unit 2810 activates a module necessary for recognizing the image code displayed on the content device, and then transmits the image code through the corresponding module Can be recognized. For example, the recognition unit 2810 may recognize an image code displayed on the content device using an illuminance sensor, a camera, an RGB sensor, an image sensor, or the like.

제공부(2820)는 휴대용 디바이스 자신의 식별 정보를 이용하여 주변 디바이스 검색 메시지에 대응하는 응답용 메시지를 생성하고 인식부(2810)에서 인식된 측정 결과 값을 상기 응답용 메시지에 실어서 컨텐츠 디바이스로 전송할 수 있다.The providing unit 2820 generates a response message corresponding to the peripheral device search message using the identification information of the portable device itself, stores the measurement result value recognized by the recognition unit 2810 in the response message, Lt; / RTI >

컨텐츠 디바이스에서는 휴대용 디바이스에서 보낸 응답 메시지에 포함된 코드 인식 값이 자신이 변환한 이미지 코드와 일치하면 해당 휴대용 디바이스로 커플링 요청을 전송할 수 있으며, 이에 휴대용 디바이스에서의 커플링부(2830)는 커플링 요청을 전송한 컨텐츠 디바이스와 커플링을 맺을 수 있다.
In the content device, if the code recognition value included in the response message sent from the portable device matches the image code converted by itself, the coupling device can transmit the coupling request to the portable device. Thus, And couples with the content device that sent the request.

도 29는 본 발명의 다른 실시예에 따른 디바이스 간 컨텐츠 이동 과정을 나타내는 도면이다.29 is a diagram illustrating a process of moving content between devices according to another embodiment of the present invention.

단계(2910)에서 컨텐츠 디바이스(110)는 컨텐츠 디바이스(110)의 디스플레이에 터치한 물체를 탐지할 수 있다.In step 2910, the content device 110 may detect a touched object on the display of the content device 110.

단계(2920)에서 컨텐츠 디바이스(110)는 단계(2910)에서 탐지한 물체의 개수, 물체의 면적, 및 물체의 형상에 기초하여 물체의 터치 타입을 식별한 후 물체의 터치 타입을 포함하는 물체의 터치 정보를 생성할 수 있다.In step 2920, the content device 110 identifies the touch type of the object based on the number of objects detected in step 2910, the area of the object, and the shape of the object, The touch information can be generated.

단계(2930)에서 컨텐츠 디바이스(110)는 단계(2910)에서 컨텐츠 디바이스(110)의 디스플레이에 터치한 물체를 탐지한 경우 일정 거리 안에 휴대용 디바이스(120)가 있는지 여부를 확인하기 위한 주변 디바이스 검색 메시지를 전송할 수 있다.In step 2930, if the content device 110 detects an object touched on the display of the content device 110 in step 2910, the content device 110 transmits a peripheral device search message for confirming whether the portable device 120 exists within a predetermined distance Can be transmitted.

단계(2940)에서 컨텐츠 디바이스(110)는 단계(2910)에서 컨텐츠 디바이스(110)의 디스플레이에 터치한 물체를 탐지한 경우 물체의 터치가 감지된 위치에 존재하는 컨텐츠를 이미지 코드로 변환하여 컨텐츠가 표시된 적어도 일부 영역인 이미지 변환 영역에 이미지 코드를 표시할 수 있다.In step 2940, if the content device 110 detects an object touched on the display of the content device 110 in step 2910, the content device 110 converts the content existing at the detected position of the object into an image code, The image code can be displayed in the image conversion area which is at least some area displayed.

단계(2950)에서 휴대용 디바이스(120)는 컨텐츠 디바이스(110)로부터 주변 디바이스 검색 메시지를 받은 후 컨텐츠 디바이스(110) 상에 표시된 이미지 코드를 인식하기 위해 필요한 모듈을 활성화 한 후 해당 모듈을 통해 이미지 코드를 인식할 수 있다.After receiving the peripheral device search message from the content device 110 in step 2950, the portable device 120 activates a module necessary for recognizing the image code displayed on the content device 110, Can be recognized.

단계(2960)에서 휴대용 디바이스(120)는 휴대용 디바이스 자신의 식별 정보를 이용하여 주변 디바이스 검색 메시지에 대응하는 응답용 메시지를 생성한 후 단계(2950)에서 인식된 코드 인식 값을 응답용 메시지에 실어서 컨텐츠 디바이스(110)로 전송할 수 있다.In step 2960, the portable device 120 generates a response message corresponding to the peripheral device search message using the identification information of the portable device itself, and then stores the code recognition value recognized in step 2950 in a response message To the content device (110).

단계(2970)에서 컨텐츠 디바이스(110)는 휴대용 디바이스(120)에서 전송한 응답용 메시지에 포함된 코드 인식 값을 단계(2940)에서 변환한 이미지 코드와 비교하여 비교 결과 두 코드 정보가 일정 오차 이내에서 일치한 경우 응답용 메시지를 전송한 휴대용 디바이스(120)를 컨텐츠 디바이스(110)와 커플링을 맺을 디바이스로 선택할 수 있다.In step 2970, the content device 110 compares the code recognition value included in the response message transmitted from the portable device 120 with the image code converted in step 2940, and if the comparison result indicates that the two code information are within a predetermined error amount The portable device 120 that has transmitted the response message can select the content device 110 and the device to be coupled with.

단계(2980)에서 컨텐츠 디바이스(110)는 휴대용 디바이스(120)에서 전송한 응답용 메시지에 포함된 휴대용 디바이스(120)의 식별 정보를 이용하여 단계(2970)에서 선택한 휴대용 디바이스(120)와 커플링을 맺을 수 있다.In step 2980, the content device 110 uses the identification information of the portable device 120 included in the response message transmitted from the portable device 120 to perform coupling with the portable device 120 selected in step 2970 .

단계(2990)에서 컨텐츠 디바이스(110)는 단계(2920)에서 생성한 터치 정보에 기초하여 컨텐츠를 휴대용 디바이스(120)로 이동하거나, 휴대용 디바이스(120)로부터 수신한 컨텐츠를 디스플레이에 표시할 수 있다.
In step 2990, the content device 110 may move the content to the portable device 120 or display the content received from the portable device 120 on the display based on the touch information generated in step 2920 .

상기한 이미지 코드 변환을 인식하는 방법을 적용할 경우, 컨텐츠 디바이스(110)가 여러 위치에서 멀티 터치를 동시에 식별했을 때 각 멀티 터치 위치에 서로 다른 코드값을 가지고 이미지 변환 영역에 색을 표현함으로써 여러 개의 휴대용 디바이스(120)가 컨텐츠 이동을 위한 인터랙션을 동시에 수행하는 경우 각각의 휴대용 디바이스(120)를 구분하는 것이 가능하다.When the method of recognizing the image code conversion described above is applied, when the content device 110 simultaneously identifies multi-touches at various positions, colors are displayed in the image conversion area with different code values at each multi- It is possible to distinguish each portable device 120 when the portable devices 120 simultaneously perform an interaction for content movement.

휴대용 디바이스(120)에서 컨텐츠 디바이스(110) 상의 컨텐츠에 대한 이미지 코드 변환을 인식하는 방법으로서 위에서는 조도 센서를 언급했으나 휴대용 디바이스(120)는 카메라, RGB 센서, 이미지 센서 등을 이용해서도 동일하게 동작 가능하다. 또한, 도 26의 (a)와 반대로 사용자가 컨텐츠 디바이스(110)와 휴대용 디바이스(120)의 디스플레이 서로 마주보도록 하지 않고 휴대용 디바이스(120)를 뒤집어서 인터랙션을 하는 경우에도 휴대용 디바이스(120)의 후방 카메라를 이용하여 동일하게 동작 가능하다.Although the above description refers to the illuminance sensor as a method of recognizing the image code conversion for the content on the content device 110 in the portable device 120, the portable device 120 can also use the camera, the RGB sensor, the image sensor, It is operable. 26 (a), even when a user interacts with the portable device 120 by turning the portable device 120 upside down without facing the display device of the content device 110 and the display of the portable device 120, It is possible to operate in the same manner.

또한, 위에서는 멀티 터치와 이미지 코드 인식을 통한 커플링 방법을 설명하고 있으나, 멀티 터치 이외에도 특이 터치가 수행되었을 때도 동일하게 이미지 변환 인식을 통하여 커플링 및 컨텐츠 이동이 가능하다. 그리고, 사용자에 의한 터치 흔적이 특이 터치와 멀티 터치의 조합 등 일반적인 터치와 다른 형태의 터치가 수행되었을 때도 마찬가지이다.In addition, although a coupling method using multi-touch and image code recognition is described above, coupling and content movement can be performed through recognition of image conversion even when a specific touch is performed in addition to multi-touch. The same is true when the touch trace by the user is a combination of a specific touch and a multi-touch, and a general touch and a touch of a different type are performed.

상기한 이미지 변환 인식 방법에서는 컨텐츠 상의 일정 영역(즉, 이미지 변환 영역)에 흰색 또는 검정색을 표현하는 형태로 이미지 코드를 설명하고 있으나, 일시적으로 컨텐츠의 밝기를 매우 밝게 또는 매우 어둡게, 또는 반전하여 표현하는 방식으로도 동일하게 동작하도록 구현할 수 있고, 컨텐츠의 정보가 포함된 특정 이미지(바코드나 QR 코드 등)를 일시적으로 표현하고 이를 카메라로 인식하도록 하여 원하는 코드를 컨텐츠 디바이스에서 휴대용 디바이스로 이동하는 방법도 가능하다.In the image conversion recognition method described above, image codes are described in a form in which white or black is expressed in a certain region (i.e., an image conversion region) on the content, but the brightness of the content is temporarily changed to be very bright, very dark, (A barcode or a QR code) containing information of contents is temporarily displayed and recognized by a camera to move a desired code from a content device to a portable device It is also possible.

상기한 이미지 코드 변환을 인식하는 방법에 의해 컨텐츠 이동을 수행하는 경우 사용자는 휴대용 디바이스(120)를 컨텐츠 디바이스(110)에 접촉할 때 중지 또는 약지 손가락을 이용한 컨텐츠 이동 제스처를 통해 휴대용 디바이스(120)의 디스플레이를 터치하거나 그렇지 않음으로써 컨텐츠 이동 방향을 휴대용 디바이스→컨텐츠 디바이스 또는 컨텐츠 디바이스→휴대용 디바이스로 제어할 수 있다. 사용자가 휴대용 디바이스(120) 상의 디스플레이를 터치하였는지에 대한 정보(즉, 컨텐츠 이동 제스처의 유무)는 주변 디바이스 검색 메시지의 응답 메시지에 포함되어 전송될 수 있다. 이에, 컨텐츠 디바이스(110)에서는 응답 메시지에 포함된 컨텐츠 이동 제스처의 유무에 따라 컨텐츠를 휴대용 디바이스(120)로 이동할 것인지, 아니면 휴대용 디바이스(120)로부터 컨텐츠를 수신할 것인지 확인할 수 있다.
When performing the content movement by the above-described method of recognizing the image code conversion, the user can move the portable device 120 to the portable device 120 through the content movement gesture using the stop or thumb finger when the portable device 120 contacts the content device 110, The content moving direction can be controlled from the portable device to the content device or the content device to the portable device. Information on whether or not the user has touched the display on the portable device 120 (i.e., presence or absence of the content movement gesture) may be included in the response message of the peripheral device search message. Accordingly, the content device 110 can confirm whether to move the content to the portable device 120 or to receive the content from the portable device 120 according to the presence or absence of the content movement gesture included in the response message.

본 발명은 사용자가 휴대용 디바이스를 손에 쥔 상태로 컨텐츠 디바이스의 컨텐츠를 선택하거나, 드래그할 경우, 휴대용 디바이스로 컨텐츠를 이동함으로써, 직관적으로 멀티 디바이스 간 컨텐츠 이동이 가능한 시스템을 제공할 수 있다.The present invention can provide a system capable of intuitively moving content between multi-devices by moving contents to a portable device when a user selects or drags contents of the content device while holding the portable device in his / her hand.

또한, 본 발명은 사용자가 손에 쥔 휴대용 디바이스를 식별하여 커플링함으로써, 컨텐츠를 이동시킬 디바이스를 선택하는 과정을 생략할 수 있다. In addition, the present invention can omit a process of selecting a device for moving contents by identifying and coupling a portable device held by a user.

그리고, 본 발명은 직관적인 제스처를 이용하여 이동할 컨텐츠 및 컨텐츠가 이동할 대상 디바이스를 선택하도록 함으로써, 사용자가 별다른 교육 없이도 자신이 원하는 컨텐츠를 원하는 디바이스로 이동시킬 수 있다.
In addition, the present invention allows an intuitive gesture to select a content device to be moved and a device to which the content is to be moved, thereby allowing a user to move content desired by the user to the desired device without requiring any training.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

110: 컨텐츠 디바이스
120: 휴대용 디바이스
310: 위치 정보 수집부
320: 터치 정보 수집부
330: 커플링부
340: 컨텐츠 이동부
110: Content device
120: Portable device
310: Position information collecting unit
320: Touch information collecting unit
330: Coupling portion
340:

Claims (15)

터치 입력이 가능한 디스플레이를 이용하여 휴대용 디바이스로 컨텐츠를 제공하는 컨텐츠 디바이스에 있어서,
물체의 터치를 인식하여 터치 타입에 따른 제어신호를 출력하는 터치정보 생성부;
상기 터치정보 생성부의 제어신호에 따라 상기 휴대용 디바이스의 위치 정보를 수집하는 위치 정보 수집부;
상기 물체의 터치 정보 및 상기 위치 정보에 기초하여 상기 휴대용 디바이스와 커플링을 맺는 커플링부; 및
상기 물체의 터치 정보 및 상기 위치 정보에 기초하여 상기 휴대용 디바이스로 컨텐츠를 이동하는 컨텐츠 이동부
를 포함하는 컨텐츠 디바이스.
A content device for providing content to a portable device using a touch-enabled display,
A touch information generation unit for recognizing a touch of an object and outputting a control signal according to a touch type;
A position information collecting unit for collecting position information of the portable device according to a control signal of the touch information generating unit;
A coupling unit for coupling with the portable device based on touch information of the object and the position information; And
A content moving unit for moving the content to the portable device based on the touch information of the object and the position information,
.
제1항에 있어서,
상기 터치정보 생성부는,
상기 디스플레이에 터치한 상기 물체의 개수, 상기 물체의 면적, 및 상기 물체의 형상에 기초한 상기 물체의 터치 타입과, 상기 물체의 움직임 패턴을 식별하여 제어신호를 출력하는 컨텐츠 디바이스.
The method according to claim 1,
Wherein the touch information generating unit comprises:
A touch type of the object based on the number of the objects touched on the display, an area of the object, and a shape of the object, and a movement pattern of the object, and outputs a control signal.
제2항에 있어서,
상기 터치 정보 생성부는,
상기 터치 타입을 사용자의 손가락 중 하나가 디스플레이를 터치하여 입력하는 싱글 터치, 또는 사용자의 손가락들이 디스플레이의 복수의 위치를 터치하여 입력하는 멀티 터치, 또는 상기 휴대용 디바이스, 또는 상기 손가락 보다 넓은 면적의 신체가 접촉된 특이 터치 중 하나로 식별하는 컨텐츠 디바이스.
3. The method of claim 2,
Wherein the touch information generating unit comprises:
A single touch in which one of the fingers of the user inputs the touch by touching the display or a multi-touch in which a user's fingers touches and inputs a plurality of positions of the display, or the portable device, Is identified as one of the specific touches to which the touch is made.
제2항에 있어서,
상기 커플링부는,
상기 터치 타입이 상기 특이 터치를 포함하는 사전에 설정된 터치 형태일 경우, 상기 휴대용 디바이스와 커플링을 위한 메시지를 발송하는 컨텐츠 디바이스.
3. The method of claim 2,
The coupling portion includes:
And transmits a message for coupling with the portable device when the touch type is a preset touch type including the specific touch.
제1항에 있어서,
상기 커플링부는,
상기 위치 정보에 포함된 상기 휴대용 디바이스의 이동 시간, 이동 거리 및 움직임 패턴이 상기 물체의 터치 정보에 대응하는 경우, 상기 휴대용 디바이스와 커플링을 맺는 컨텐츠 디바이스.
The method according to claim 1,
The coupling portion includes:
And couples the portable device with the portable device when the movement time, the movement distance, and the movement pattern of the portable device included in the position information correspond to the touch information of the object.
제1항에 있어서,
상기 커플링부는,
상기 물체가 디스플레이에 터치하여 이동하기 시작하는 시간부터 상기 휴대용 디바이스와 커플링을 맺고, 상기 물체가 디스플레이에서 이탈하여 터치가 종료되기 전까지 상기 휴대용 디바이스와 맺은 커플링을 유지하는 컨텐츠 디바이스.
The method according to claim 1,
The coupling portion includes:
Wherein the portable device is coupled to the portable device from a time when the object starts to move by touching the display and maintains the coupling with the portable device until the object is released from the display and the touch ends.
제1항에 있어서,
상기 컨텐츠 이동부는,
상기 물체가 복수의 컨텐츠들을 선택한 다음, 상기 휴대용 디바이스가 위치한 방향으로 이동하는 터치 명령을 입력한 경우, 상기 복수의 컨텐츠들을 모두 상기 휴대용 디바이스로 이동하는 컨텐츠 디바이스.
The method according to claim 1,
Wherein the content moving unit comprises:
Wherein when the object selects a plurality of contents and then inputs a touch command to move the portable device in a direction in which the portable device is located, the content device moves all of the plurality of contents to the portable device.
휴대용 디바이스에 있어서,
사용자가 터치한 컨텐츠 디바이스의 요청에 따라 상기 컨텐츠 디바이스에 상기 휴대용 디바이스의 위치 정보를 제공하는 위치 정보 제공부;
상기 컨텐츠 디바이스가 상기 위치 정보를 기초로 커플링 요청을 하는 경우, 상기 컨텐츠 디바이스와 커플링을 맺는 커플링부; 및
커플링을 맺은 컨텐츠 디바이스로 상기 사용자가 선택한 컨텐츠를 이동하는 컨텐츠 이동부
를 포함하는 휴대용 디바이스.
In a portable device,
A location information providing unit for providing the location information of the portable device to the content device according to a request of the content device touched by the user;
A coupling unit for coupling with the content device when the content device makes a coupling request based on the location information; And
A content moving unit for moving the content selected by the user to a content device having a coupling,
≪ / RTI >
터치 입력이 가능한 디스플레이를 이용하여 휴대용 디바이스로 컨텐츠를 제공하는 컨텐츠 디바이스에 있어서,
상기 컨텐츠에 대한 터치 입력이 탐지되면 상기 컨텐츠와 관련된 이미지 코드를 상기 디스플레이에 표시하는 이미지 코드 변환부;
상기 휴대용 디바이스로부터 상기 휴대용 디바이스에서 인식한 코드 값이 수신되면 상기 이미지 코드와 상기 코드 값의 비교 결과에 따라 상기 휴대용 디바이스와의 커플링을 맺는 커플링부; 및
상기 커플링을 맺은 상기 휴대용 디바이스로 상기 컨텐츠를 전송하는 컨텐츠 이동부
를 포함하는 컨텐츠 디바이스.
A content device for providing content to a portable device using a touch-enabled display,
An image code conversion unit for displaying an image code related to the content on the display when a touch input to the content is detected;
A coupling unit for coupling the portable device with the portable device according to a result of comparison between the image code and the code value when the code value recognized by the portable device is received from the portable device; And
And a content moving unit for transmitting the content to the portable device having the coupling,
.
제9항에 있어서,
상기 이미지 코드 변환부는,
상기 디스플레이에 상기 컨텐츠가 디스플레이 된 적어도 일부 영역에 상기 이미지 코드를 표시하는 것
을 특징으로 하는 컨텐츠 디바이스.
10. The method of claim 9,
Wherein the image code conversion unit comprises:
Displaying the image code on at least some areas where the content is displayed on the display
. ≪ / RTI >
제9항에 있어서,
상기 이미지 코드 변환부는,
상기 컨텐츠를 적어도 하나의 색이 정해진 패턴으로 표시되는 코드로 변환하는 것
을 특징으로 하는 컨텐츠 디바이스.
10. The method of claim 9,
Wherein the image code conversion unit comprises:
Converting the content into a code in which at least one color is displayed in a predetermined pattern
. ≪ / RTI >
제9항에 있어서,
상기 이미지 코드 변환부는,
상기 컨텐츠를 상기 컨텐츠와 관련된 정보가 포함되는 바코드(barcode) 또는 QR(quick response) 코드로 변환하는 것
을 특징으로 하는 컨텐츠 디바이스.
10. The method of claim 9,
Wherein the image code conversion unit comprises:
Converting the content into a barcode or a quick response (QR) code including information related to the content
. ≪ / RTI >
제9항에 있어서,
상기 이미지 코드 변환부는,
일정 거리 이내에 상기 휴대용 디바이스의 존재 유무를 확인하기 위한 주변 디바이스 검색 메시지를 전송하고,
상기 휴대용 디바이스에서는 상기 주변 디바이스 검색 메시지가 수신되면 자신의 식별 정보를 이용하여 상기 주변 디바이스 검색 메시지에 대한 응답용 메시지를 생성한 후 상기 디스플레이에 표시된 상기 이미지 코드를 인식한 상기 코드 값을 상기 응답용 메시지에 포함시켜 상기 컨텐츠 디바이스로 전송하는 것
을 특징으로 하는 컨텐츠 디바이스.
10. The method of claim 9,
Wherein the image code conversion unit comprises:
Transmits a peripheral device search message for confirming the presence or absence of the portable device within a predetermined distance,
When the peripheral device search message is received, the portable device generates a response message for the peripheral device search message using its own identification information, and then transmits the code value, which recognizes the image code displayed on the display, Message to the content device
. ≪ / RTI >
제13항에 있어서,
상기 커플링부는,
상기 이미지 코드와 상기 코드 값이 일치하면 상기 응답용 메시지에 포함된 상기 식별 정보를 이용하여 상기 휴대용 디바이스와 커플링을 맺는 것
을 특징으로 하는 컨텐츠 디바이스.
14. The method of claim 13,
The coupling portion includes:
And if the image code matches the code value, coupling with the portable device using the identification information included in the response message
. ≪ / RTI >
제9항에 있어서,
상기 휴대용 디바이스에서는 조도 센서, 카메라, RGB 센서, 이미지 센서 중 적어도 하나를 이용하여 상기 디스플레이에 표시된 상기 이미지 코드를 인식하는 것
을 특징으로 하는 컨텐츠 디바이스.
10. The method of claim 9,
The portable device recognizes the image code displayed on the display using at least one of an illuminance sensor, a camera, an RGB sensor, and an image sensor
. ≪ / RTI >
KR1020130117766A 2013-08-09 2013-10-02 System and method for transfering content among devices using touch command and unusual touch KR101512239B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/453,359 US10366264B2 (en) 2013-08-09 2014-08-06 System and method for transferring content among devices

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20130095008 2013-08-09
KR1020130095008 2013-08-09

Publications (2)

Publication Number Publication Date
KR20140057150A true KR20140057150A (en) 2014-05-12
KR101512239B1 KR101512239B1 (en) 2015-04-17

Family

ID=50888165

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020130117766A KR101512239B1 (en) 2013-08-09 2013-10-02 System and method for transfering content among devices using touch command and unusual touch
KR1020130123550A KR101519225B1 (en) 2013-08-09 2013-10-16 Method and system for transfering content among devices using mobile device sensor
KR1020140069303A KR101622466B1 (en) 2013-08-09 2014-06-09 System and method for providing content

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020130123550A KR101519225B1 (en) 2013-08-09 2013-10-16 Method and system for transfering content among devices using mobile device sensor
KR1020140069303A KR101622466B1 (en) 2013-08-09 2014-06-09 System and method for providing content

Country Status (1)

Country Link
KR (3) KR101512239B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015178677A1 (en) * 2014-05-22 2015-11-26 Samsung Electronics Co., Ltd. User terminal device, method for controlling user terminal device, and multimedia system thereof
WO2015194755A1 (en) * 2014-06-17 2015-12-23 삼성전자 주식회사 User terminal device and method for controlling same
WO2016093463A1 (en) * 2014-12-10 2016-06-16 주식회사 퓨쳐플레이 Method for providing user interface, device, system, and computer-readable permanent recording medium
KR20160120378A (en) * 2015-04-07 2016-10-18 한국과학기술원 Method and system for transfering content among devices using illuminance pattern
KR101688743B1 (en) * 2015-10-16 2016-12-22 한국과학기술원 Method and system for coupling among devices using adaptive pattern recognition

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102485783B1 (en) * 2022-09-20 2023-01-09 (주)크라이저 System for providing digital signage based commercial solution service

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866735B2 (en) * 2010-12-16 2014-10-21 Motorla Mobility LLC Method and apparatus for activating a function of an electronic device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015178677A1 (en) * 2014-05-22 2015-11-26 Samsung Electronics Co., Ltd. User terminal device, method for controlling user terminal device, and multimedia system thereof
WO2015194755A1 (en) * 2014-06-17 2015-12-23 삼성전자 주식회사 User terminal device and method for controlling same
WO2016093463A1 (en) * 2014-12-10 2016-06-16 주식회사 퓨쳐플레이 Method for providing user interface, device, system, and computer-readable permanent recording medium
KR20160120378A (en) * 2015-04-07 2016-10-18 한국과학기술원 Method and system for transfering content among devices using illuminance pattern
KR101688743B1 (en) * 2015-10-16 2016-12-22 한국과학기술원 Method and system for coupling among devices using adaptive pattern recognition

Also Published As

Publication number Publication date
KR101622466B1 (en) 2016-05-19
KR20150020039A (en) 2015-02-25
KR101512239B1 (en) 2015-04-17
KR101519225B1 (en) 2015-05-12
KR20150018748A (en) 2015-02-24

Similar Documents

Publication Publication Date Title
KR101512239B1 (en) System and method for transfering content among devices using touch command and unusual touch
TWI793085B (en) Hand-written information processing apparatus, hand-written information processing method and hand-written information processing program
JP5014848B2 (en) Pointing input device, method, and system using video pattern
US9134800B2 (en) Gesture input device and gesture input method
US10452206B2 (en) Projection video display device and video display method
KR101666995B1 (en) Multi-telepointer, virtual object display device, and virtual object control method
CN103914143A (en) Control method of electronic device
US20140053079A1 (en) Apparatus and method for proximity based input
CN102331884A (en) Projecting system with touch control projecting images
WO2006104132A1 (en) User interface system
WO2007061057A1 (en) Gesture input device and method
KR20140114913A (en) Apparatus and Method for operating sensors in user device
KR101984737B1 (en) Touch system comprising optical touch panel and touch pen, and method of controlling interference optical signal in touch system
CN102314301A (en) Virtual touch sensing system and method
CN103956036A (en) Non-touch type remote control applied to household appliances
US20130257809A1 (en) Optical touch sensing apparatus
CN102375564A (en) Method for interacting by adopting optical indicator, optical indicator as well as presentation method and system
CN103543825A (en) Camera cursor system
KR102145824B1 (en) Inferface method of smart touch pad and device therefor
WO2014181587A1 (en) Portable terminal device
JP5396332B2 (en) Information input device, method and program using gesture
CN103336587A (en) Remote-end suspension touch control equipment and method for nine-axis inertial directional input device
KR101381366B1 (en) Apparatus for gesture recognition remote controller and operating method for the same
KR20110046791A (en) System and method for data transmission using information controller device, and terminal and information controller device thereof
CN101008877A (en) Image device with optical recognition screen and control method therefor

Legal Events

Date Code Title Description
A201 Request for examination
G15R Request for early opening
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20190402

Year of fee payment: 5