KR102046181B1 - System and method for interworking and controlling devices - Google Patents

System and method for interworking and controlling devices Download PDF

Info

Publication number
KR102046181B1
KR102046181B1 KR1020130020521A KR20130020521A KR102046181B1 KR 102046181 B1 KR102046181 B1 KR 102046181B1 KR 1020130020521 A KR1020130020521 A KR 1020130020521A KR 20130020521 A KR20130020521 A KR 20130020521A KR 102046181 B1 KR102046181 B1 KR 102046181B1
Authority
KR
South Korea
Prior art keywords
image
touch
terminal
user terminal
receiving terminal
Prior art date
Application number
KR1020130020521A
Other languages
Korean (ko)
Other versions
KR20130103362A (en
Inventor
유창식
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Publication of KR20130103362A publication Critical patent/KR20130103362A/en
Application granted granted Critical
Publication of KR102046181B1 publication Critical patent/KR102046181B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits

Abstract

본 발명은 단말기들을 연동시키고 제어하는 시스템이 개시된다. 사용자 단말기는 수신 단말기로부터 수신된 이미지 데이터를 디코딩하는 디코딩부, 상기 디코딩된 이미지를 디스플레이하는 터치 디스플레이부 및 상기 디코딩된 이미지에 포함된 이벤트 실행 개체에 대한 선택 정보를 상기 수신 단말기로 전송하는 정보 전송부를 포함한다. The present invention discloses a system for interworking and controlling terminals. The user terminal transmits information for transmitting a decoding unit for decoding image data received from a receiving terminal, a touch display unit for displaying the decoded image, and selection information about an event execution object included in the decoded image to the receiving terminal. Contains wealth.

Description

단말기 연동 및 제어 시스템 및 방법{SYSTEM AND METHOD FOR INTERWORKING AND CONTROLLING DEVICES}Terminal interlocking and control system and method {SYSTEM AND METHOD FOR INTERWORKING AND CONTROLLING DEVICES}

본 발명은 단말기들을 연동시키고 제어하는 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for interworking and controlling terminals.

최근, 스마트 TV가 유행이며, 한국공개특허공보 제2011-0078656호 등과 같이 스마트 TV 자체에서의 동작의 편리성을 향상시키는 방법들이 제안되고 있다. 그러나, 사용자가 스마트 TV를 터치하는 방식으로 제어하는 것이 불편하고 스마트 TV를 제어하는 리모트 컨트롤러가 효율적이지 못하였다. Recently, smart TVs are popular, and methods such as improving the convenience of operation in the smart TV itself have been proposed, such as Korean Patent Laid-Open Publication No. 2011-0078656. However, it is inconvenient to control the user by touching the smart TV and the remote controller for controlling the smart TV has not been effective.

본 발명은 스마트 폰 등의 사용자 단말기로 스마트 TV 등의 수신 단말기를 효율적으로 제어할 수 있는 시스템 및 방법을 제공하는 것이다.The present invention provides a system and method capable of efficiently controlling a receiving terminal such as a smart TV with a user terminal such as a smart phone.

상기한 바와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 사용자 단말기는 수신 단말기로부터 수신된 이미지 데이터를 디코딩하는 디코딩부; 상기 디코딩된 이미지를 디스플레이하는 터치 디스플레이부; 및 상기 디코딩된 이미지에 포함된 이벤트 실행 개체에 대한 선택 정보를 상기 수신 단말기로 전송하는 정보 전송부를 포함한다. In order to achieve the above object, a user terminal according to an embodiment of the present invention includes a decoding unit for decoding the image data received from the receiving terminal; A touch display unit to display the decoded image; And an information transmitter for transmitting selection information on an event execution object included in the decoded image to the receiving terminal.

본 발명의 다른 실시예에 따른 수신 단말기는 사용자 단말기로 이미지의 전부 또는 일부를 전송하는 정보 전송부; 및 상기 사용자 단말기로부터 상기 이미지에 포함된 이벤트 실행 개체에 대한 선택 정보를 수신하는 정보 수신부를 포함한다. According to another embodiment of the present invention, a receiving terminal includes: an information transmitting unit transmitting all or part of an image to a user terminal; And an information receiver configured to receive selection information on an event execution object included in the image from the user terminal.

본 발명의 일 실시예에 따른 단말기 연동 방법은 수신 단말기와 이미지를 공유하는 단계; 상기 이미지에 포함된 이벤트 실행 개체에 대한 선택 정보를 입력받는 단계; 및 상기 선택 정보를 상기 수신 단말기로 전송하는 단계를 포함한다.Terminal interworking method according to an embodiment of the present invention comprises the steps of sharing an image with the receiving terminal; Receiving selection information on an event execution object included in the image; And transmitting the selection information to the receiving terminal.

본 발명의 다른 실시예에 따른 단말기 연동 방법은 사용자 단말기로 이미지의 전부 또는 일부를 전송하는 단계; 및 상기 사용자 단말기로부터 상기 이미지에 포함된 이벤트 실행 개체에 대한 선택 정보를 수신하는 단계를 포함한다. Terminal interworking method according to another embodiment of the present invention comprises the steps of transmitting all or part of the image to the user terminal; And receiving selection information on an event execution object included in the image from the user terminal.

본 발명의 일 실시예에 따른 사용자 단말기와 수신 단말기를 연동시키기 위해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며, 디지털 처리 장치에 의해 판독될 수 있는 기록매체는 상기 수신 단말기와 이미지를 공유하는 단계; 상기 이미지에 포함된 이벤트 실행 개체에 대한 선택 정보를 입력받는 단계; 및 상기 선택 정보를 상기 수신 단말기로 전송하는 단계를 포함한다. A program of instructions that can be executed to interwork a user terminal and a receiving terminal according to an embodiment of the present invention is tangibly implemented, and a recording medium that can be read by a digital processing apparatus shares an image with the receiving terminal. step; Receiving selection information on an event execution object included in the image; And transmitting the selection information to the receiving terminal.

본 발명의 다른 실시예에 따른 사용자 단말기와 수신 단말기를 연동시키기 위해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며, 디지털 처리 장치에 의해 판독될 수 있는 기록매체는 상기 사용자 단말기로 이미지의 전부 또는 일부를 전송하는 단계; 및 상기 사용자 단말기로부터 상기 이미지에 포함된 이벤트 실행 개체에 대한 선택 정보를 수신하는 단계를 포함한다. According to another embodiment of the present invention, a program of instructions that can be executed to interwork a user terminal and a receiving terminal is tangibly embodied, and a recording medium that can be read by a digital processing apparatus is the whole or all of an image to the user terminal. Transmitting a portion; And receiving selection information on an event execution object included in the image from the user terminal.

본 발명에 단말기 연동 및 제어 방법 및 시스템에서, 수신 단말기는 디스플레이된 이미지 중 전부 또는 일부를 사용자 단말기로 제공하고, 사용자는 사용자 단말기를 통하여 상기 이미지에 포함된 이벤트 실행 개체를 선택할 수 있으며, 상기 사용자 단말기는 이벤트 실행 개체의 선택 정보를 상기 수신 단말기로 전송한다. 따라서, 사용자는 사용자 단말기를 이용하여 수신 단말기의 동작을 효율적으로 제어할 수 있다. In the terminal interworking and control method and system according to the present invention, the receiving terminal provides all or part of the displayed image to the user terminal, the user can select the event execution object included in the image through the user terminal, the user The terminal transmits selection information of an event execution entity to the receiving terminal. Therefore, the user can efficiently control the operation of the receiving terminal by using the user terminal.

사용자 단말기에 수신 단말기의 이미지가 디스플레이되므로, 사용자는 수신 단말기를 보지 않고 사용자 단말기만을 보면서 수신 단말기를 제어할 수 있다. 따라서, 상기 수신 단말기를 제어하기 위한 장소적 제한이 없어질 수 있다. Since the image of the receiver terminal is displayed on the user terminal, the user can control the receiver terminal while not looking at the receiver terminal but only the user terminal. Therefore, the place restriction for controlling the receiving terminal can be eliminated.

또한, 사용자 단말기에는 근접하거나 약한 압력 또는 면적으로 터치하는 터치 수단의 위치를 나타내는 위치 이미지가 표시될 수 있으며, 따라서 사용자는 사용자 단말기의 동작을 편리하게 제어할 수 있다. In addition, the user terminal may be displayed a position image indicating the position of the touch means for touching near or weak pressure or area, so that the user can conveniently control the operation of the user terminal.

게다가, 상기 위치 이미지는 수신 단말기에도 표시할 수 있으며, 이 경우 사용자는 사용자 단말기를 보지 않고도 수신 단말기만을 보면서 수신 단말기의 동작을 용이하게 제어할 수 있다. In addition, the location image can also be displayed on the receiving terminal, in which case the user can easily control the operation of the receiving terminal by only looking at the receiving terminal without looking at the user terminal.

도 1은 본 발명의 일 실시예에 따른 단말기 연동 및 제어 시스템을 개략적으로 도시한 도면이다.
도 2는 본 발명의 제 1 실시예에 따른 단말기 연동 및 제어 방법을 도시한 도면이다.
도 3은 본 발명의 제 2 실시예에 따른 단말기 연동 및 제어 방법을 도시한 도면이다.
도 4는 본 발명의 제 3 실시예에 따른 단말기 연동 및 제어 방법을 도시한 도면이다.
도 5는 본 발명의 제 4 실시예에 따른 단말기 연동 및 제어 방법을 도시한 도면이다.
도 6은 본 발명의 제 5 실시예에 따른 단말기 연동 및 제어 방법을 도시한 도면이다.
도 7은 도 6의 단말기 연동 및 제어 방법에 사용되는 제어 방법을 도시한 도면이다.
도 8은 본 발명의 일 실시예에 다른 감지 레벨 설정시의 연동 동작을 도시한 도면이다.
도 9는 본 발명의 제 6 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다.
도 10은 본 발명의 제 7 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다.
도 11은 본 발명의 또 다른 실시예에 따른 단말기 연동 및 제어 시스템을 도시한 도면이다.
도 12는 본 발명의 제 8 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다.
도 13은 본 발명의 제 1 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다.
도 14는 본 발명의 제 2 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다.
도 15는 본 발명의 제 3 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다.
도 16은 본 발명의 제 4 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다.
도 17은 본 발명의 일 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다.
도 18은 본 발명의 다른 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다.
도 19는 본 발명의 일 실시예에 따른 수신 단말기의 구조를 도시한 블록도이다.
1 is a view schematically showing a terminal interworking and control system according to an embodiment of the present invention.
2 is a diagram illustrating a terminal interworking and control method according to a first embodiment of the present invention.
3 is a diagram illustrating a terminal interworking and control method according to a second embodiment of the present invention.
4 is a diagram illustrating a terminal interworking and control method according to a third embodiment of the present invention.
5 is a diagram illustrating a terminal interworking and control method according to a fourth embodiment of the present invention.
6 is a diagram illustrating a terminal interworking and control method according to a fifth embodiment of the present invention.
FIG. 7 is a diagram illustrating a control method used in the terminal interworking and control method of FIG. 6.
8 is a diagram illustrating an interlocking operation when setting a sensing level according to an embodiment of the present invention.
9 is a flowchart illustrating a terminal interworking and control method according to a sixth embodiment of the present invention.
10 is a flowchart illustrating a terminal interworking and control method according to a seventh embodiment of the present invention.
11 is a diagram illustrating a terminal interworking and control system according to another embodiment of the present invention.
12 is a flowchart illustrating a terminal interworking and control method according to an eighth embodiment of the present invention.
FIG. 13 illustrates a method of detecting touch means according to a first embodiment of the present invention.
14 is a diagram illustrating a method of detecting touch means according to a second embodiment of the present invention.
15 is a diagram illustrating a method of detecting touch means according to a third embodiment of the present invention.
16 illustrates a method of detecting touch means according to a fourth embodiment of the present invention.
17 is a block diagram showing the structure of a user terminal according to an embodiment of the present invention.
18 is a block diagram showing the structure of a user terminal according to another embodiment of the present invention.
19 is a block diagram showing the structure of a receiving terminal according to an embodiment of the present invention.

이하에서는 첨부된 도면들을 참조하여 본 발명의 실시예들을 자세히 설명하도록 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 단말기 연동 및 제어 시스템은 단말기들을 연동시키고 제어하는 시스템, 특히 이미지 공유 및 공유된 이미지를 기초로 하여 단말기의 동작을 제어하는 시스템에 관한 것이다. 특히, 본 발명의 단말기 연동 및 제어 시스템은 사용자가 직접적으로 제어하는, 예를 들어 터치 방식으로 제어하는 작은 사이즈의 단말기(예를 들어, 스마트폰, 태블릿 PC 등)와 큰 사이즈의 단말기(예를 들어, TV 등)를 연동시킨 후 작은 사이즈의 단말기로 큰 사이즈의 단말기를 제어하는 다양한 방법들을 제안하다. 즉, 본 발명의 단말기 연동 및 제어 시스템은 작은 사이즈의 단말기를 리모트 컨트롤러(Remote controller)로 활용하여 큰 사이즈의 단말기를 제어할 수 있다. Terminal interworking and control system of the present invention relates to a system for interlocking and controlling the terminals, in particular a system for controlling the operation of the terminal based on the image sharing and the shared image. In particular, the terminal interworking and control system of the present invention is a small size terminal (for example, a smartphone, a tablet PC, etc.) and a large size terminal (eg For example, various methods of controlling a large terminal by using a small terminal after interworking with a TV, etc. are proposed. That is, the terminal interworking and control system of the present invention can control a large terminal by utilizing a small terminal as a remote controller.

이하, 설명의 편의를 위하여 사용자가 직접적으로 제어하는 작은 사이즈의 단말기를 사용자 단말기 또는 모바일 단말기라 하고 상기 사용자 단말기로부터의 터치 수단의 위치 정보를 수신하는 큰 사이즈의 단말기를 수신 단말기 또는 디스플레이 장치라 하겠다. 물론, 바람직하게는 사용자 단말기가 수신 단말기보다 작은 사이즈를 가지지만, 단말기들의 사이즈는 위의 사이즈로 한정되지는 않는다. Hereinafter, for convenience of description, a small sized terminal directly controlled by a user is called a user terminal or a mobile terminal, and a large sized terminal that receives location information of the touch means from the user terminal will be called a receiving terminal or a display device. . Of course, the user terminal preferably has a smaller size than the receiving terminal, but the size of the terminals is not limited to the above size.

본 발명의 시스템에 사용되는 단말기는 이미지를 디스플레이할 수 있는 기능 및 유선/무선 통신 기능을 가지나, 통신 기능은 필수적인 기능은 아니다. 다만, 실생활 적용을 고려하면, 각 단말기들은 이미지 디스플레이 기능 및 통신 기능을 가지는 것이 바람직하다. 상기 단말기는 이미지를 디스플레이시키고 다른 단말기와 신호를 송수신할 수 있는 한 특정 장치로 제한되지는 않으며, 예를 들어 스마트폰, 스마트 TV, 리모트 컨트롤러, PC, 태블릿 PC, 노트북, 터치 패드, 게임기, 클라우드 PC 등과 같은 다양한 기기들이 본 발명의 단말기로서 사용될 수 있다. 다만, 작은 사이즈를 가지는 단말기는 터치 기능을 가지는 것이 바람직하다. The terminal used in the system of the present invention has a function of displaying an image and a wired / wireless communication function, but the communication function is not an essential function. However, considering the real life application, it is preferable that each terminal has an image display function and a communication function. The terminal is not limited to a specific device as long as it can display an image and transmit / receive a signal with another terminal, for example, a smartphone, a smart TV, a remote controller, a PC, a tablet PC, a laptop, a touch pad, a game console, and a cloud. Various devices such as a PC can be used as the terminal of the present invention. However, it is preferable that a terminal having a small size has a touch function.

이하, 본 발명의 다양한 실시예들에 따른 단말기 연동 및 제어 시스템을 첨부된 도면들을 참조하여 상술하겠다. 다만, 설명의 편의를 위하여 단말기들이 공유하는 이미지를 제 1 이미지라 하고, 터치 수단의 위치 정보를 나타내는 이미지를 제 2 이미지(위치 이미지)라 하겠다. Hereinafter, a terminal interworking and control system according to various embodiments of the present invention will be described with reference to the accompanying drawings. However, for convenience of description, an image shared by the terminals will be referred to as a first image, and an image representing position information of the touch means will be referred to as a second image (position image).

도 1은 본 발명의 일 실시예에 따른 단말기 연동 및 제어 시스템을 개략적으로 도시한 도면이다. 1 is a view schematically showing a terminal interworking and control system according to an embodiment of the present invention.

도 1의 (A)를 참조하면, 본 실시예의 단말기 연동 및 제어 시스템은 사용자 단말기(100) 및 수신 단말기(102)를 포함할 수 있으며, 단말기들(100 및 102)은 컴퓨팅 장치일 수 있다. Referring to FIG. 1A, the terminal interworking and control system of the present embodiment may include a user terminal 100 and a receiving terminal 102, and the terminals 100 and 102 may be computing devices.

사용자 단말기(100)는 사용자가 직접적으로 제어 가능한 단말기이며, 예를 들어 타 기기와의 이미지 공유가 가능한 스마트폰, 리모트 컨트롤러 등일 수 있다. 또한, 사용자 단말기(100)는 터치 기능을 가지면서 상대적으로 작은 사이즈를 가지는 단말기일 수 있으며, 예를 들어 모바일 단말일 수 있다. The user terminal 100 may be a terminal directly controlled by a user, and may be, for example, a smartphone, a remote controller, or the like capable of sharing an image with other devices. In addition, the user terminal 100 may be a terminal having a touch function and having a relatively small size, for example, may be a mobile terminal.

수신 단말기(102)는 사용자가 직접 조작하지는 않으나 사용자 단말기(100)와 연동하는 단말기이며, 디스플레이 가능한 단말기일 수 있다. 즉, 수신 단말기(102)는 이미지 디스플레이 가능한 모든 기기를 포함하며, 이미지를 디스플레이하는 관점에서 디스플레이 장치로 불릴 수도 있다. 수신 단말기(102)는 사용자 단말기(100)와 다른 목적으로 사용되는 소자일 수 있으며, 예를 들어 드라마 등의 방송 프로그램을 방영하는 TV일 수 있다. 일 실시예에 따르면, 수신 단말기(102)는 상대적으로 큰 사이즈를 가지는 단말기이되, 필수적으로 터치 기능을 가질 필요는 없다. The receiving terminal 102 is a terminal which is not directly manipulated by the user but interoperates with the user terminal 100, and may be a displayable terminal. That is, the receiving terminal 102 includes all devices capable of displaying images, and may be referred to as a display device in view of displaying images. The reception terminal 102 may be an element used for a different purpose than the user terminal 100, and may be, for example, a TV that broadcasts a broadcast program such as a drama. According to one embodiment, the receiving terminal 102 is a terminal having a relatively large size, but does not necessarily have a touch function.

수신 단말기(102)의 전체 사이즈는 사용자 단말기(100)의 전체 사이즈보다 클 수도 있으나, 수신 단말기(102)의 디스플레이부의 사이즈가 사용자 단말기(100)의 디스플레이부의 사이즈보다 크면 충분하다. 후자의 경우에는 사용자 단말기(100)와 수신 단말기(102)의 전체 사이즈는 고려 대상이 아니다. The overall size of the receiver terminal 102 may be larger than the overall size of the user terminal 100, but it is sufficient if the size of the display unit of the receiver terminal 102 is larger than the size of the display unit of the user terminal 100. In the latter case, the overall size of the user terminal 100 and the receiving terminal 102 is not considered.

단말기들(100 및 102)은 유선 또는 무선으로 직접적으로 또는 다른 기기를 매개로 하여 간접적으로 연결될 수 있다. 일 실시예에 따르면, 사용자가 사용자 단말기(100)를 통하여 수신 단말기(102)의 동작, 상세하게는 수신 단말기(102)에 디스플레이된 프로그램의 동작을 제어하므로, 사용자 단말기(100)는 수신 단말기(102)와 근거리 통신을 할 수 있는 거리에 위치하며, 예를 들어 수신 단말기(102)를 시청할 수 있는 거리에 위치할 수 있다. 물론, 단말기들(100 및 102) 사이의 통신은 근거리 통신으로 제한되지는 않으며, 예를 들어 사용자는 홈 외부에서 사용자 단말기(100)를 이용하여 홈 내부의 수신 단말기(102)의 동작을 제어할 수 있다. 이것은 사용자 단말기(100)가 수신 단말기(102)에 디스플레이된 제 1 이미지 중 적어도 일부분을 공유하기 때문에 가능하다. 결과적으로, 수신 단말기(102)를 제어하는 장소적 제약이 없어질 수 있다. Terminals 100 and 102 may be connected directly or indirectly via another device via wired or wireless. According to an embodiment of the present disclosure, since the user controls the operation of the reception terminal 102, in detail, the operation of a program displayed on the reception terminal 102 through the user terminal 100, the user terminal 100 may be configured as a reception terminal ( It may be located at a distance capable of short-range communication with the 102, for example, a distance capable of viewing the receiving terminal 102. Of course, the communication between the terminals 100 and 102 is not limited to short-range communication, for example, the user may control the operation of the receiving terminal 102 inside the home using the user terminal 100 outside the home. Can be. This is possible because the user terminal 100 shares at least a portion of the first image displayed on the receiving terminal 102. As a result, local constraints for controlling the receiving terminal 102 can be eliminated.

본 발명의 일 실시예에 따르면, 수신 단말기(102)는 자신이 디스플레이하는 제 1 이미지(110)의 적어도 일부분에 해당하는 이미지 데이터를 사용자 단말기(100)로 전송할 수 있다. 사용자 단말기(100)는 상기 전송된 이미지 데이터에 해당하는 제 1 이미지(110)를 디스플레이시킨다. 즉, 사용자 단말기(100)와 수신 단말기(102)는 도 1의 (B)에 도시된 바와 같이 제 1 이미지(110)를 공유할 수 있다. According to an embodiment of the present disclosure, the receiving terminal 102 may transmit image data corresponding to at least a portion of the first image 110 displayed by the receiving terminal 102 to the user terminal 100. The user terminal 100 displays the first image 110 corresponding to the transmitted image data. That is, the user terminal 100 and the receiving terminal 102 may share the first image 110 as shown in FIG. 1B.

다만, 사용자 단말기(100)에 디스플레이되는 제 1 이미지(110)는 수신 단말기(102)에 디스플레이된 제 1 이미지(110)와 실질적으로 동일하지만, 사용자 단말기(100)의 특성으로 인하여 색감이 다르거나 디스플레이 비율 등이 다를 수는 있다. 사용자 단말기(100)는 상기 전송된 이미지 데이터를 특별한 가공없이 제 1 이미지(110) 그대로 디스플레이할 수도 있지만, 상기 전송된 이미지 데이터의 해상도 등을 변환한 후 상기 변환된 이미지 데이터에 해당하는 제 1 이미지(110)를 디스플레이할 수도 있다. 다른 예로, 사용자 단말기(100)와 연결된 다른 기기가 수신 단말기(102)로부터 전송된 이미지 데이터를 사용자 단말기(100)의 포맷에 맞도록 적절하게 변환한 후 변환된 이미지 데이터를 사용자 단말기(100)로 전송할 수도 있다. However, the first image 110 displayed on the user terminal 100 is substantially the same as the first image 110 displayed on the receiving terminal 102, but due to the characteristics of the user terminal 100, the color is different or The display ratio may be different. The user terminal 100 may display the transmitted image data as it is without first processing the first image 110, but after converting the resolution of the transmitted image data, etc., the first image corresponding to the converted image data 110 may be displayed. As another example, another device connected to the user terminal 100 properly converts the image data transmitted from the receiving terminal 102 to match the format of the user terminal 100 and then converts the converted image data to the user terminal 100. You can also send.

즉, 수신 단말기(102)와 사용자 단말기(100)가 실질적으로 동일한 제 1 이미지(110)를 디스플레이하는 한 사용자 단말기(100)에서의 이미지 데이터의 처리 방법은 다양하게 변형될 수 있다. That is, as long as the receiving terminal 102 and the user terminal 100 display substantially the same first image 110, the image data processing method in the user terminal 100 may be variously modified.

본 발명의 다른 실시예에 따르면, 사용자 단말기(100)가 공유된 제 1 이미지(110)에 해당하는 이미지 데이터를 수신 단말기(102)로 전송하여 제 1 이미지(110)를 공유할 수도 있다. According to another exemplary embodiment of the present invention, the user terminal 100 may share the first image 110 by transmitting image data corresponding to the shared first image 110 to the receiving terminal 102.

수신 단말기(102) 상의 제 1 이미지(110)가 가변되는 경우, 수신 단말기(102)는 상기 가변된 제 1 이미지(110)에 해당하는 이미지 데이터를 사용자 단말기(100)로 전송할 수 있다. 결과적으로, 사용자 단말기(100)와 수신 단말기(102)는 제 1 이미지(110)를 계속적으로 공유할 수 있다. When the first image 110 on the receiving terminal 102 is changed, the receiving terminal 102 may transmit image data corresponding to the variable first image 110 to the user terminal 100. As a result, the user terminal 100 and the receiving terminal 102 may continuously share the first image 110.

또한, 사용자가 사용자 단말기(100)에 디스플레이된 제 1 이미지(110) 중 예를 들어 특정 이벤트 실행 개체를 선택하면, 사용자 단말기(100)는 상기 이벤트 실행 개체에 대한 선택의 정보(선택 정보)를 수신 단말기(102)로 전송할 수 있다. 이 경우, 수신 단말기(102)는 상기 전송된 정보에 따라 해당 동작을 실행시키며, 그 결과 제 1 이미지(110)가 가변될 수 있다. 물론, 가변된 제 1 이미지(110)에 해당하는 이미지 데이터는 사용자 단말기(100)로 전송된다. 즉, 사용자는 사용자 단말기(100)를 이용하여 수신 단말기(102)의 동작, 특히 수신 단말기(102)에 의해 실행된 프로그램의 동작을 제어할 수 있다. In addition, when the user selects, for example, a specific event execution object among the first images 110 displayed on the user terminal 100, the user terminal 100 may provide selection information (selection information) for the event execution object. It may transmit to the receiving terminal 102. In this case, the receiving terminal 102 executes a corresponding operation according to the transmitted information, and as a result, the first image 110 may be changed. Of course, image data corresponding to the variable first image 110 is transmitted to the user terminal 100. That is, the user may control the operation of the receiving terminal 102, in particular, the operation of the program executed by the receiving terminal 102 using the user terminal 100.

상기 선택 정보는 이벤트 실행 개체의 선택을 위한 터치 입력에 대응되는 위치 정보를 포함할 수 있다. 또는 상기 선택 정보는 터치 입력에 따라 선택된 상기 이벤트 실행 개체의 실행을 위한 제어 정보를 포함할 수 있다. 사용자 단말기(100)는 터치 입력에 따라 위치 정보 또는 제어 정보를 생성할 수 있다.The selection information may include location information corresponding to a touch input for selecting an event execution object. Alternatively, the selection information may include control information for executing the event execution object selected according to the touch input. The user terminal 100 may generate location information or control information according to a touch input.

수신 단말기(102)는 터치 입력에 대응되는 위치 정보를 이용하여 이벤트 실행 개체에 대응되는 동작을 실행시킬 수 있다. 또는 수신 단말기(102)는 제어 정보를 이용하여 이벤트 실행 개체에 대응되는 동작을 실행시킬 수 있다.The receiving terminal 102 may execute an operation corresponding to the event execution object by using location information corresponding to the touch input. Alternatively, the reception terminal 102 may execute an operation corresponding to the event execution entity by using the control information.

상기 이벤트 실행 개체의 선택은 터치 수단이 사용자 단말기(100)를 터치하는 터치 압력 또는 면적에 따라 결정될 수 있으며, 후술하는 바와 같이 사용자가 터치 수단으로 기설정 압력 또는 기설정 면적을 초과하여 사용자 단말기(100)를 터치하였을 때 상기 이벤트 실행 개체가 선택될 수 있다. 이에 대한 자세한 설명은 후술하겠다. The selection of the event execution object may be determined according to the touch pressure or the area where the touch means touches the user terminal 100, and as described later, the user may exceed the preset pressure or the preset area by the touch means. The event execution object may be selected when 100) is touched. Detailed description thereof will be described later.

이하, 사용자가 사용자 단말기(100)를 이용하여 수신 단말기(102)의 동작을 제어할 수 있는 다양한 실시예들을 상술하겠다. Hereinafter, various embodiments in which the user can control the operation of the receiving terminal 102 using the user terminal 100 will be described in detail.

본 발명의 일 실시예에 따르면, 사용자 단말기(100)는 사용자 단말기(100)의 터치 감지 영역, 예를 들어 디스플레이부로 근접하는 또는 기설정된 압력 또는 면적 이하로 상기 디스플레이부를 터치한 터치 수단의 위치 정보를 나타내는 제 3 이미지(114, 위치 이미지)를 도 1의 (C)에 도시된 바와 같이 디스플레이할 수 있다. 즉, 터치 수단의 위치가 사용자 단말기(100)에 표시되므로, 사용자는 사용자 단말기(100)를 편리하게 제어할 수 있다. 상기 터치 수단은 손가락, 터치 펜 등 제한이 없다. 여기서, 상기 근접은 터치 수단이 사용자 단말기(100)로부터 기설정 거리 내에 위치하는 것을 의미하며, 터치 수단이 사용자 단말기(100)에 접촉한 경우를 포함할 수 있다. According to an embodiment of the present invention, the user terminal 100 is position information of the touch means of touching the display unit near the touch sensing area of the user terminal 100, for example, the display unit or below a predetermined pressure or area. A third image 114 (position image) indicating s may be displayed as shown in FIG. That is, since the location of the touch means is displayed on the user terminal 100, the user can conveniently control the user terminal 100. The touch means is not limited, such as a finger, a touch pen. Here, the proximity means that the touch means is located within a preset distance from the user terminal 100, and may include a case in which the touch means contacts the user terminal 100.

본 발명의 다른 실시예에 따르면, 터치 수단이 사용자 단말기(100)로 근접하거나 기설정된 압력 또는 면적 이하로 터치하면, 수신 단말기(102)에는 도 1의 (B) 내지 (D)에 도시된 바와 같이 제 1 이미지(110)와 함께 상기 터치 수단의 위치에 해당하는 제 2 이미지(112), 예를 들어 포인터, 그림자 이미지 등이 표시될 수 있다. 제 2 이미지(112)는 제 3 이미지(114)와 실질적으로 동일할 수도 있고 다른 형상 또는 색상을 가질 수도 있다. According to another embodiment of the present invention, when the touch means approaches the user terminal 100 or touches it below a predetermined pressure or area, the receiving terminal 102 is shown in FIGS. 1B to 1D. Likewise, a second image 112 corresponding to the position of the touch means, for example, a pointer and a shadow image, may be displayed together with the first image 110. The second image 112 may be substantially the same as the third image 114 and may have a different shape or color.

즉, 터치 수단의 위치는 사용자 단말기(100) 및 수신 단말기(102)에 특정될 수 있다. 제 2 이미지(112)가 수신 단말기(102)에 디스플레이되면, 사용자는 사용자 단말기(100)를 보지 않고도 수신 단말기(102)만을 보면서 수신 단말기(102)의 동작을 제어할 수 있다. That is, the position of the touch means may be specified in the user terminal 100 and the receiving terminal 102. When the second image 112 is displayed on the receiving terminal 102, the user may control the operation of the receiving terminal 102 while only looking at the receiving terminal 102 without looking at the user terminal 100.

일 실시예에 따르면, 사용자 단말기(100)를 터치한 터치 수단의 터치 압력 또는 터치 면적에 따라, 터치 수단의 위치에 해당하는 제 2 이미지(112) 또는 제 3 이미지(114)가 변경될 수 있다. 예를 들어, 터치 수단이 기설정된 압력 또는 기설정된 면적 이하로 사용자 단말기(100)를 터치하면 터치 수단의 위치에 해당하는 제 3 이미지(114)가 사용자 단말기(100)에 표시되는 반면에, 기설정된 압력 또는 면적을 초과하여 사용자 단말기(100)를 터치하면 제 3 이미지(114)가 사용자 단말기(100)에 표시되지 않거나 다른 형상으로 변경될 수 있다. 이러한 동작은 수신 단말기(102)에 디스플레이되는 제 2 이미지(112)에도 유사하게 적용될 수 있다. According to an embodiment, the second image 112 or the third image 114 corresponding to the position of the touch means may be changed according to the touch pressure or the touch area of the touch means touching the user terminal 100. . For example, when the touch means touches the user terminal 100 below a predetermined pressure or a predetermined area, a third image 114 corresponding to the position of the touch means is displayed on the user terminal 100, while If the user terminal 100 is touched beyond the set pressure or area, the third image 114 may not be displayed on the user terminal 100 or may be changed into another shape. This operation may be similarly applied to the second image 112 displayed on the receiving terminal 102.

다른 실시예에 따르면, 터치 수단과 사용자 단말기(100) 사이의 거리에 따라 제 2 이미지(112) 또는 제 3 이미지(114)의 형상이 달라질 수 있다. 예를 들어, 이미지(112 또는 114)는 터치 수단과 사용자 단말기(100) 사이의 거리가 제 1 거리 내에 있을 때는 그림자 형상을 가지는 반면에, 터치 수단과 사용자 단말기(100) 사이의 거리가 상기 제 1 거리보다 작은 제 2 거리 내에 있을 때는 손가락 형상을 가질 수 있다. According to another embodiment, the shape of the second image 112 or the third image 114 may vary according to the distance between the touch means and the user terminal 100. For example, the image 112 or 114 has a shadow shape when the distance between the touch means and the user terminal 100 is within the first distance, whereas the distance between the touch means and the user terminal 100 is defined as the first distance. When in the second distance less than one distance may have a finger shape.

실시예에 따라서, 사용자 단말기(100)에 근접한 터치 수단의 위치, 사용자 단말기(100)를 기 설정된 터치 압력 이하로 터치한 터치 수단의 위치 및 사용자 단말기(100)를 기 설정된 터치 면적 이하로 터치한 터치 수단의 위치 중 적어도 하나 가 제 2 이미지(112) 또는 제 3 이미지(114)로서 표시될 수 있다.According to the embodiment, the position of the touch means close to the user terminal 100, the position of the touch means touching the user terminal 100 below the preset touch pressure, and the user terminal 100 touches the touch area below the preset touch area. At least one of the positions of the touch means may be displayed as the second image 112 or the third image 114.

정리하면, 사용자는 사용자 단말기(100)를 이용하여 수신 단말기(102)의 동작을 편리하게 제어할 수 있다. 수신 단말기(102)에 터치 수단의 위치 정보를 나타내는 제 2 이미지(112)가 표시되면, 사용자는 사용자 단말기(100)를 보지 않고도 수신 단말기(102)만을 보면서 사용자 단말기(100)를 이용하여 수신 단말기(102)를 제어할 수 있다. 특히, 사용자는 별도의 제어 수단을 구비하지 않더라도 소지하고 있는 예를 들어 스마트폰을 이용하여 수신 단말기(102)를 제어할 수 있다. In summary, the user may conveniently control the operation of the receiving terminal 102 using the user terminal 100. When the second image 112 indicating the location information of the touch means is displayed on the receiving terminal 102, the user can look at the receiving terminal 102 without looking at the user terminal 100 and use the receiving terminal 100 using the receiving terminal 100. 102 can be controlled. In particular, the user may control the receiving terminal 102 using, for example, a smartphone, even if the user does not have a separate control means.

한편, 사용자가 터치 수단을 이용하여 사용자 단말기(100)를 제어할 수 있으므로, 사용자는 이벤트 실행 개체를 선택하여 특정 동작을 실행시킬 수 있을 뿐만 아니라 사용자 단말기(100) 상에서 특정 문자 등을 입력할 수도 있고 문서 작업도 할 수 있다. 이러한 사용자 단말기(100)에서의 동작은 수신 단말기(100)에 즉시 반영될 수 있다. On the other hand, since the user can control the user terminal 100 by using a touch means, the user can not only select the event execution object to execute a specific operation but also input specific characters on the user terminal 100. And work with documents. Such operation in the user terminal 100 may be immediately reflected to the receiving terminal 100.

또한, 상기 터치 수단을 컴퓨터의 마우스 등과 같이 활용하여 다양한 동작들을 수행시킬 수 있으므로, 사용자는 수신 단말기(102)를 편리하게 제어할 수 있다. 예를 들어, 사용자는 원격에서 사용자 단말기(100) 상의 포털 사이트의 기사들을 스크롤(Scroll)하거나 복사 또는 검색 등을 하여 수신 단말기(102)에 반영할 수 있다. 물론, 터치 수단의 위치 정보를 나타내는 제 2 이미지(112)가 수신 단말기(102)에 표시되므로, 사용자는 큰 사이즈의 수신 단말기(102)에 디스플레이된 제 2 이미지(112)를 보면서 원하는 동작을 수행시킬 수 있다. 즉, 본 발명은 제 2 이미지(112)를 수신 단말기(102)에 표시하여 사용자가 수신 단말기(102)를 편리하게 제어할 수 있도록 하면서, 사용자 단말기(100)를 리모트 컨트롤러, 마우스 및 터치 펜 등이 수행할 수 있는 다양한 기능들을 구현할 수 있다. 따라서, 스마트 TV와 같이 다양한 기능들을 수행하여야 하는 수신 단말기(102)를 사용자가 항상 소지하는 사용자 단말기(100)를 이용하여 편리하게 제어할 수 있다. In addition, since the touch means may be used as a mouse of a computer to perform various operations, the user may conveniently control the receiving terminal 102. For example, the user may remotely scroll, copy, or search the articles of the portal site on the user terminal 100 to reflect them on the receiving terminal 102. Of course, since the second image 112 representing the position information of the touch means is displayed on the receiving terminal 102, the user performs a desired operation while looking at the second image 112 displayed on the large receiving terminal 102. You can. That is, the present invention displays the second image 112 on the receiving terminal 102 so that the user can conveniently control the receiving terminal 102, while the user terminal 100 is a remote controller, a mouse and a touch pen, etc. You can implement various functions that can be performed. Therefore, it is possible to conveniently control the receiving terminal 102 to perform various functions such as a smart TV by using the user terminal 100 which the user always possesses.

위에서는 사용자 단말기(100)가 제 1 이미지(100)와 터치 수단의 위치 정보에 해당하는 이미지 데이터를 별도로 수신 단말기(102)로 전송하는 것으로 언급하였으나, 사용자 단말기(100)는 터치 수단의 위치를 제 1 이미지(110)에 표시하고, 터치 수단의 위치가 표시된 제 1 이미지(110)를 수신 단말기(102)로 전송할 수 있다. 예를 들어, 사용자 단말기(100)는 제 1 이미지(110) 위에 터치 수단의 위치 이미지를 오버랩시키고, 터치 수단의 위치 이미지가 오버랩된 이미지 데이터를 수신 단말기(102)로 전송할 수 있다. In the above, although the user terminal 100 transmits the image data corresponding to the first image 100 and the position information of the touch means to the receiving terminal 102 separately, the user terminal 100 determines the position of the touch means. The first image 110 displayed on the first image 110 and the location of the touch means may be transmitted to the receiving terminal 102. For example, the user terminal 100 may overlap the position image of the touch means on the first image 110, and transmit the image data in which the position image of the touch means overlaps to the receiving terminal 102.

다른 예로, 사용자 단말기(100)는 제 1 이미지(110)에서 터치 수단의 위치에 해당하는 영역을 터치 수단의 위치 이미지로 변경할 수 있다. 즉, 사용자 단말기(100)는 터치 수단의 위치 표시를 위해 제 1 이미지(110) 자체를 변형하여 새로운 이미지를 생성하고, 상기 생성된 이미지를 수신 단말기(102)로 전송할 수도 있다. As another example, the user terminal 100 may change an area corresponding to the position of the touch means in the first image 110 to a position image of the touch means. That is, the user terminal 100 may deform the first image 110 itself to display the location of the touch means, generate a new image, and transmit the generated image to the receiving terminal 102.

본 발명의 다른 실시예에 따르면, 사용자가 연동 중에 제 2 이미지(112)를 표시하기를 원하지 않는 경우, 사용자는 사용자 단말기(100) 또는 수신 단말기(102)에서 메뉴 선택 또는 버튼 조작 등을 통하여 제 2 이미지(112) 또는 제 3 이미지(114)의 표시를 중지시킬 수도 있다. 이 경우, 사용자 단말기(100)는 터치 수단의 위치 정보를 수신 단말기(102)로 계속적으로 전송하고 수신 단말기(102)는 상기 전송된 위치 정보를 저장하고 있을 수 있으며, 사용자 요청시 수신 단말기(102)는 상기 위치 정보에 해당하는 제 2 이미지(112)를 디스플레이할 수 있다. According to another exemplary embodiment of the present invention, when the user does not want to display the second image 112 during the interworking, the user may control the user terminal 100 or the receiving terminal 102 by selecting a menu or operating a button. The display of the second image 112 or the third image 114 may be stopped. In this case, the user terminal 100 may continuously transmit the location information of the touch means to the receiving terminal 102 and the receiving terminal 102 may store the transmitted location information. ) May display the second image 112 corresponding to the location information.

본 발명의 다른 실시예에 따르면, 상기 연동 및 제어 시스템은 사용자 단말기, 수신 단말기 및 연동 서버를 포함할 수 있다. 연동 서버는 제 1 이미지에 해당하는 이미지 데이터를 사용자 단말기 및 수신 단말기로 전송할 수 있으며, 사용자 단말기는 터치 수단의 위치 정보를 수신 단말기에 전송하여 상기 제 1 이미지와 함께 터치 수단의 위치 정보를 나타내는 제 2 이미지를 상기 수신 단말기 상에 표시할 수 있다. 여기서, 상기 연동 서버는 사용자 단말기 및 수신 단말기의 해상도 정보 등을 미리 저장하고, 상기 저장된 해상도 정보 등에 기초하여 이미지 데이터를 가공한 후 상기 사용자 단말기 및 상기 수신 단말기로 전송할 수 있다. According to another embodiment of the present invention, the linkage and control system may include a user terminal, a receiver terminal, and a linkage server. The companion server may transmit image data corresponding to the first image to the user terminal and the receiving terminal, wherein the user terminal transmits the position information of the touch means to the receiving terminal to indicate the position information of the touch means together with the first image. 2 images can be displayed on the receiving terminal. The companion server may store resolution information of the user terminal and the reception terminal in advance, process image data based on the stored resolution information, and transmit the image data to the user terminal and the reception terminal.

한편, 스마트폰, TV 등과 같은 단말기들은 HDMI(High-Definition Multimedia Interface), MHL(Mobile High definition Link), Displayport 등과 같은 유선 통신 표준, DNLA 및 WiFi, DNLA(Digital Living Network Alliance) 등과 같은 무선 통신 표준을 사용하고 있으며, 그들은 각기 데이터를 전송할 수 있는 데이터 채널뿐만 아니라 제어 신호를 송수신할 수 있는 별도의 제어 채널을 구비하고 있다. 예를 들어, HDMI에서는 CEC(Consumer Electronic Control), DDC(Display Data Channel), Utility, SCL/SDA를 제어 채널로 사용하고 있고, MHL에서는 CBUS를 제어 채널로 사용하고 있으며, Displayport에서는 auxiliary channel을 제어 채널로 사용하고 있다. 따라서, 단말기들(100 및 102)을 연동시키기 위하여 별도의 채널들을 설정할 필요는 없으며, 단말기들(100 및 102)에 이미 존재하는 채널들을 본 발명의 터치 수단의 위치 정보를 전송하는 채널로 활용할 수 있다. On the other hand, terminals such as smart phones and TVs are wired communication standards such as high-definition multimedia interface (HDMI), mobile high definition link (MHL), displayport, wireless communication standards such as DNLA and WiFi, and digital living network alliance (DNLA). They are each equipped with a separate control channel for transmitting and receiving control signals as well as a data channel for transmitting data. For example, HDMI uses CEC (Consumer Electronic Control), DDC (Display Data Channel), Utility, SCL / SDA as control channels, MHL uses CBUS as control channels, and Displayport controls auxiliary channels. I am using it as a channel. Therefore, it is not necessary to set up separate channels to interwork with the terminals 100 and 102, and channels already existing in the terminals 100 and 102 can be used as channels for transmitting location information of the touch means of the present invention. have.

연동 시스템에 이용되는 통신 방식에 따라 단말기들(100 및 102)은 다양한 형태로 데이터를 송수신할 수 있다.Depending on the communication scheme used in the companion system, the terminals 100 and 102 may transmit and receive data in various forms.

이하, 터치 수단의 위치를 수신 단말기(102)에 특정시키는 방법을 살펴보겠다. Hereinafter, a method of specifying the position of the touch means to the receiving terminal 102 will be described.

일 실시예에 따르면, 터치 수단의 위치 정보는 사용자 단말기(100)에 디스플레이된 제 1 이미지 상의 위치 정보일 수 있다. 결과적으로, 사용자 단말기(100)의 제 1 이미지 상에서의 터치 수단의 위치가 제 2 이미지(112)로서 수신 단말기(102)의 제 1 이미지(110)에 반영될 수 있다. According to an embodiment, the location information of the touch means may be location information on the first image displayed on the user terminal 100. As a result, the position of the touch means on the first image of the user terminal 100 may be reflected in the first image 110 of the receiving terminal 102 as the second image 112.

다른 실시예에 따르면, 터치 수단의 위치 정보는 사용자 단말기(100)의 디스플레이부의 해상도 또는 화면 사이즈에 따른 좌표 정보일 수 있다. 즉, 터치 수단의 위치 정보는 화면에 디스플레이된 이미지상에서의 터치 수단의 좌표 정보가 아닌, 사용자 단말기(100)의 디스플레이부를 기준으로 한 터치 수단의 좌표 정보일 수 있다. According to another embodiment, the location information of the touch means may be coordinate information according to the resolution or screen size of the display unit of the user terminal 100. That is, the position information of the touch means may be coordinate information of the touch means based on the display unit of the user terminal 100, not coordinate information of the touch means on the image displayed on the screen.

또 다른 실시예에 따르면, 사용자 단말기(100)와 수신 단말기(102)가 제 1 이미지(110)를 공유하기 위하여 사용자 단말기(100)가 수신 단말기(102)로부터 전송된 이미지 데이터를 표시하고자 할 때, 사용자 단말기(100)는 수신 단말기(102)와 동일한 해상도로 화면을 설정한 후 상기 이미지 데이터에 해당하는 제 1 이미지(110)를 디스플레이할 수 있다. 따라서, 사용자 단말기(100)는 터치 수단의 위치 정보, 예를 들어 좌표 정보 그대로 제 2 이미지(112)를 디스플레이하면 터치 수단의 위치를 정확하게 표현할 수 있다. According to another embodiment, when the user terminal 100 and the receiving terminal 102 wants to display image data transmitted from the receiving terminal 102 in order to share the first image 110. The user terminal 100 may set the screen to the same resolution as the receiving terminal 102 and then display the first image 110 corresponding to the image data. Therefore, when the user terminal 100 displays the location information of the touch means, for example, the second image 112 as it is, the coordinate information may accurately represent the position of the touch means.

즉, 본 발명은 다양한 방법들을 통하여 터치 수단의 위치를 수신 단말기(102)에 특정시킬 수 있다. 사용자 단말기(100)는 터치 수단의 위치 정보를 수신 단말기(102)로 전송할 수도 있고, 위치 정보를 나타내는 제 2 이미지에 해당하는 제 2 이미지 데이터를 생성하여 수신 단말기(102)로 전송할 수도 있으며, 터치 수단의 위치에 해당하는 영역을 변형한 제 1 이미지를 수신 단말기(102)로 전송할 수도 있다. That is, the present invention can specify the location of the touch means to the receiving terminal 102 through various methods. The user terminal 100 may transmit location information of the touch means to the receiving terminal 102, generate second image data corresponding to the second image indicating the location information, and transmit the second image data to the receiving terminal 102, or touch the touch terminal. It is also possible to transmit to the receiving terminal 102 a first image of a modified area corresponding to the position of the means.

이하, 본 발명의 단말기 연동 및 제어 방법의 다양한 실시예들을 첨부된 도면들을 참조하여 상술하겠다. Hereinafter, various embodiments of the terminal interworking and control method of the present invention will be described with reference to the accompanying drawings.

도 2는 본 발명의 제 1 실시예에 따른 단말기 연동 및 제어 방법을 도시한 도면이다. 2 is a diagram illustrating a terminal interworking and control method according to a first embodiment of the present invention.

도 2의 (A)를 참조하면, 수신 단말기(102)는 예를 들어 UI, 아이콘, 실행 프로그램, 링크 등과 같은 이벤트 실행 개체(200)를 포함하는 제 1 이미지(110)에 해당하는 이미지 데이터를 사용자 단말기(100)로 전송할 수 있다. 결과적으로, 사용자 단말기(100)에 디스플레이되는 제 1 이미지(110)에는 이벤트 실행 개체(200)가 포함될 수 있다. Referring to FIG. 2A, the reception terminal 102 may receive image data corresponding to the first image 110 including the event execution object 200 such as, for example, a UI, an icon, an execution program, a link, and the like. It may transmit to the user terminal 100. As a result, the event execution object 200 may be included in the first image 110 displayed on the user terminal 100.

일 실시예에 따르면, 사용자가 터치 수단으로 이벤트 실행 개체(200)를 터치하면, 사용자 단말기(100)는 이벤트 실행 개체(200)가 선택되었음을 알리는 선택 정보를 수신 단말기(102)로 전송할 수 있다. 상기 선택 정보는 이벤트 실행 개체(200)의 선택을 위한 터치 입력에 대응되는 위치 정보이거나 터치 입력에 따라 이벤트 실행 개체(200)의 실행을 위한 제어 정보를 포함할 수 있다. According to an embodiment of the present disclosure, when the user touches the event execution object 200 by the touch means, the user terminal 100 may transmit selection information indicating that the event execution object 200 is selected to the reception terminal 102. The selection information may include location information corresponding to a touch input for selecting the event execution object 200 or control information for executing the event execution object 200 according to the touch input.

수신 단말기(102)는 상기 터치 입력에 대응되는 정보를 통하여 이벤트 실행 개체(200)가 선택되었음을 파악할 수 있으며, 이벤트 실행 개체(200)의 선택과 관련된 동작을 실행시킬 수 있다. 또는 수신 단말기(102)는 이벤트 실행 개체(200)의 실행을 위한 제어 정보를 이용해 관련 동작을 실행시킬 수 있다. 따라서, 사용자는 사용자 단말기(100)를 이용하여 수신 단말기(102)의 동작을 제어할 수 있다. The receiving terminal 102 may determine that the event execution entity 200 is selected through the information corresponding to the touch input, and execute an operation related to the selection of the event execution entity 200. Alternatively, the receiving terminal 102 may execute a related operation by using control information for executing the event execution object 200. Therefore, the user may control the operation of the receiving terminal 102 using the user terminal 100.

이 때, 사용자가 터치 수단을 사용자 단말기(100)의 이벤트 실행 개체(200)로 접근하거나 기설정된 압력 또는 면적 이하로 터치하는 경우, 수신 단말기(102)에는 터치 수단의 위치에 해당하는 위치에 제 2 이미지(112)가 표시될 수 있다. 물론, 사용자 단말기(100)에도 터치 수단의 위치를 나타내는 제 3 이미지(114)가 표시될 수도 있다. 이어서, 사용자가 터치 수단으로 이벤트 실행 개체(200)를 기설정된 압력보다 큰 압력 또는 기설정된 면적보다 큰 면적으로 터치하면, 수신 단말기(102)는 이벤트 실행 개체(200)에 해당하는 동작을 수행하며, 예를 들어 게임 등이 실행될 수 있다. 이 경우, 수신 단말기(102)에 디스플레이된 제 1 이미지(110)가 변경될 수 있다. At this time, when a user approaches the touch means to the event execution object 200 of the user terminal 100 or touches it under a predetermined pressure or area, the receiving terminal 102 is provided at a position corresponding to the position of the touch means. 2 images 112 may be displayed. Of course, the third image 114 indicating the position of the touch means may also be displayed on the user terminal 100. Subsequently, when the user touches the event execution object 200 by a touch means with a pressure larger than a predetermined pressure or an area larger than a predetermined area, the receiving terminal 102 performs an operation corresponding to the event execution object 200. For example, a game may be executed. In this case, the first image 110 displayed on the receiving terminal 102 may be changed.

이러한 단말기 연동 방법은 게임, 네비게이션 등뿐만 아니라 도 2의 (B)에 도시된 바와 같은 스마트 TV를 사용자 단말기(100)를 이용하여 제어할 때 상당히 유용할 수 있다. The terminal interworking method can be very useful when controlling not only games, navigation, etc., but also the smart TV as shown in FIG. 2B using the user terminal 100.

도 3은 본 발명의 제 2 실시예에 따른 단말기 연동 및 제어 방법을 도시한 도면이다. 3 is a diagram illustrating a terminal interworking and control method according to a second embodiment of the present invention.

도 3을 참조하면, 수신 단말기(102)에 디스플레이된 제 1 이미지(110) 중 제어를 위한 UI에 해당하는 이미지(300)만이 사용자 단말기(100)로 전송되며, 사용자 단말기(100)에는 해당 이미지(302)가 디스플레이될 수 있다. 즉, 사용자 단말기(100)와 수신 단말기(102)는 이미지 중 일부만, 특히 이벤트 실행 개체를 포함하는 부분을 공유할 수 있다. 이 경우, 수신 단말기(102)에는 터치 수단의 위치를 나타내는 제 2 이미지(112)가 디스플레이된다. 물론, 사용자 단말기(100)에도 터치 수단의 위치를 나타내는 제 3 이미지(114)가 디스플레이될 수 있으며, 제 3 이미지(114)는 제 2 이미지(112)와 실질적으로 동일할 수 있다. Referring to FIG. 3, only the image 300 corresponding to the UI for control among the first images 110 displayed on the receiving terminal 102 is transmitted to the user terminal 100, and the corresponding image is displayed on the user terminal 100. 302 may be displayed. That is, the user terminal 100 and the receiving terminal 102 may share only a part of an image, particularly a part including an event execution object. In this case, the receiving terminal 102 displays a second image 112 indicating the position of the touch means. Of course, the third image 114 indicating the position of the touch means may also be displayed on the user terminal 100, and the third image 114 may be substantially the same as the second image 112.

이러한 연동 시스템에서, 사용자가 사용자 단말기(100)에 디스플레이된 이미지(302) 중 이벤트 실행 개체를 터치 수단으로 터치하면, 사용자 단말기(100)는 상기 이벤트 실행 개체의 선택 정보를 수신 단말기(102)로 전송하고 수신 단말기(102)는 상기 선택 정보에 해당하는 동작을 실행시킬 수 있다. 일반적으로는, 수신 단말기(102) 상의 제 1 이미지(110)가 변경될 것이다. 이 경우, 수신 단말기(102)의 이벤트 실행 개체의 이미지(300)가 변화되지 않으면 사용자 단말기(100)는 이미지(302)를 유지하지만, 수신 단말기(102)의 이벤트 실행 개체의 이미지(300)가 변경되면 사용자 단말기(100)에는 변화된 이벤트 실행 개체의 이미지(302)가 표시될 것이다. In such a coordinated system, when a user touches an event execution object among the images 302 displayed on the user terminal 100 with a touch means, the user terminal 100 transmits selection information of the event execution object to the receiving terminal 102. The transmitting and receiving terminal 102 may execute an operation corresponding to the selection information. In general, the first image 110 on the receiving terminal 102 will change. In this case, if the image 300 of the event execution object of the receiving terminal 102 does not change, the user terminal 100 maintains the image 302, but the image 300 of the event execution object of the receiving terminal 102 If changed, the user terminal 100 displays an image 302 of the changed event execution object.

한편, 터치 수단이 사용자 단말기(100)의 디스플레이부로 근접하면 제 2 이미지(112) 또는 제 3 이미지(114)가 표시되며, 특히 터치 수단이 이벤트 실행 개체 위에 위치하면 소리 등의 이벤트 발생 정보를 출력시킬 수도 있다. 이는 도 18에서 자세히 후술된다. On the other hand, when the touch means is close to the display of the user terminal 100, the second image 112 or the third image 114 is displayed. In particular, when the touch means is positioned on the event execution object, event occurrence information such as sound is output. You can also This is described later in detail in FIG. 18.

정리하면, 본 발명은 사용자 단말기(100)를 수신 단말기(102)를 제어하기 위한 수단으로 사용할 수도 있다. 특히, 이러한 방식은 게임, 전자 상거래, 스마트 TV 등에 효율적일 수 있다. In summary, the present invention may use the user terminal 100 as a means for controlling the receiving terminal 102. In particular, this approach can be effective in games, e-commerce, smart TVs, and the like.

도 4는 본 발명의 제 3 실시예에 따른 단말기 연동 및 제어 방법을 도시한 도면이다. 4 is a diagram illustrating a terminal interworking and control method according to a third embodiment of the present invention.

도 4를 참조하면, 터치 수단의 위치를 나타내는 제 2 이미지(112a)의 이미지가 다른 형상으로 변형될 수 있다. 그리고 제2이미지(112a)는, 터치 수단이 사용자 단말기(100)에 근접한 상태이거나 기 설정된 압력 레벨 또는 면적 이하로 사용자 단말기(100)를 터치한 상태에서 기설정된 위치에 존재하는 경우 변경될 수 있다.Referring to FIG. 4, the image of the second image 112a indicating the position of the touch means may be modified into another shape. In addition, the second image 112a may be changed when the touch means is present at a preset position in a state in which the touch means is close to the user terminal 100 or in a state where the user terminal 100 is touched at a preset pressure level or area or less. .

예를 들어, 제 2 이미지(112)는 터치 수단이 이벤트 실행 개체 위에 위치하지 않을 때는 도 4의 (A)에 도시된 바와 같이 그림자 이미지를 가지고 표현되나, 터치 수단의 이벤트 실행 개체, 예를 들어 실행 아이콘 위에 위치할 때는 도 4의 (B)에 도시된 바와 같이 손가락 이미지를 가지고 표현될 수 있다. 아이콘뿐만 아니라, 인터넷 주소 입력창, 화면의 하단, 검색 창, 폴더 등에 터치 수단이 위치하는 경우에도 제 2 이미지(112)가 변경될 수 있다.For example, the second image 112 is represented with a shadow image as shown in FIG. 4A when the touch means is not positioned on the event execution object, but the event execution object of the touch means, for example When positioned on the execution icon, it may be represented with a finger image as shown in FIG. In addition to the icon, the second image 112 may be changed even when the touch means is located in an internet address input window, a bottom of the screen, a search window, a folder, and the like.

이 경우, 수신 단말기(102)는 상기 터치 수단이 이벤트 실행 개체 위에 위치하는 이벤트에 따라 소리, 빛, 진동 등과 같은 이벤트 발생 정보를 출력할 수 있다. 이에 대한 자세한 설명은 후술하겠다. 제 2 이미지(112)의 변형과 이벤트 발생 정보의 출력은 동시에 이루어질 수 있다. 위 방법은 제 3 이미지(114)에도 유사하게 적용될 수 있다. In this case, the receiving terminal 102 may output event occurrence information such as sound, light, vibration, etc. according to an event where the touch means is positioned on an event execution object. Detailed description thereof will be described later. The deformation of the second image 112 and the output of the event occurrence information may be simultaneously performed. The above method can be similarly applied to the third image 114.

다른 실시예에 따르면, 이미지(112 또는 114)는 터치 수단이 사용자 단말기(100)를 터치한 횟수 또는 터치 시간에 따라 변경될 수 있다. 예를 들어, 이미지(112 또는 114)는 터치 수단이 사용자 단말기(100)를 1회 터치하면 그림자 이미지를 가지고, 연속적으로 2회 터치하면 화살표 이미지로 변경될 수 있다. 다른 예로, 이미지(112 또는 114)는 터치 수단이 사용자 단말기(100)를 기설정된 시간 이하로 터치하면 그림자 이미지를 가지고, 기설정된 시간을 초과하면 다른 이미지로 변경될 수도 있다. According to another embodiment, the image 112 or 114 may be changed according to the number of times the touch means touches the user terminal 100 or the touch time. For example, the image 112 or 114 may have a shadow image when the touch means touches the user terminal 100 once, and may be changed to an arrow image when touched twice in succession. As another example, the image 112 or 114 may have a shadow image when the touch means touches the user terminal 100 for less than a preset time, and may be changed to another image when the touch means exceeds the preset time.

다른 예로, 터치 수단이 사용자 단말기(100)로 근접한 때의 이미지(112 또는 114)와 터치 수단이 사용자 단말기(100)를 터치하였을 때의 이미지(112 또는 114)가 다를 수 있다.As another example, the image 112 or 114 when the touch means approaches the user terminal 100 may be different from the image 112 or 114 when the touch means touches the user terminal 100.

한편, 제 2 이미지(112)와 제 3 이미지(114)가 동시에 변경될 수도 있지만, 하나만 변경되거나 서로 다른 이미지로 변경될 수도 있다. Meanwhile, although the second image 112 and the third image 114 may be changed at the same time, only one or a different image may be changed.

이하, 본 발명의 단말기 연동 및 제어 시스템의 동작을 첨부된 도면들을 참조하여 상술하겠다. Hereinafter, the operation of the terminal interworking and control system of the present invention will be described in detail with reference to the accompanying drawings.

도 5는 본 발명의 제 4 실시예에 따른 단말기 연동 및 제어 방법을 도시한 도면이다. 5 is a diagram illustrating a terminal interworking and control method according to a fourth embodiment of the present invention.

도 5를 참조하면, 사용자 단말기(100)와 수신 단말기(102)가 연결되어 연동을 시작한다(S500). 구체적으로는, 사용자가 사용자 단말기(100)와 수신 단말기(102)가 연동을 위하여 연결된 상태에서 사용자 단말기(100) 또는 수신 단말기(102)가 상대방 단말기로 연동을 요청하거나, 사용자 단말기(100)가 수신 단말기(102)로 연동 요청하고 연동이 수락되면 터치 수단의 위치 정보를 전송할 수 있는 채널이 단말기들(100 및 102) 사이에 형성될 수 있다. 여기서, 단말기들(100 및 102)의 연동은 사용자의 요청에 따라 수행될 수도 있고, 단말기(100 또는 102)에 의해 자동으로 수행될 수도 있다. Referring to FIG. 5, the user terminal 100 and the receiving terminal 102 are connected to start interlocking (S500). Specifically, when the user is connected to the user terminal 100 and the receiving terminal 102 for interworking, the user terminal 100 or the receiving terminal 102 requests the other terminal to interwork, or the user terminal 100 If the interworking request is made to the receiving terminal 102 and the interworking is accepted, a channel for transmitting the location information of the touch means may be formed between the terminals 100 and 102. Here, the interworking of the terminals 100 and 102 may be performed at the request of the user, or may be automatically performed by the terminal 100 or 102.

일 실시예에 따르면,사용자 단말기(100)와 수신 단말기(102)는 2개의 채널들, 즉 데이터 채널 및 제어 채널로 연결될 수 있고, 연동 요청 또는 수락을 위한 제어 신호를 제어 채널을 통하여 송수신할 수 있다. According to an embodiment, the user terminal 100 and the receiving terminal 102 may be connected to two channels, that is, a data channel and a control channel, and may transmit and receive a control signal for interworking request or acceptance through the control channel. have.

이어서, 수신 단말기(102)는 현재 디스플레이된 제 1 이미지의 적어도 일부 또는 디스플레이될 제 1 이미지의 적어도 일부에 해당하는 이미지 데이터를 사용자 단말기(100)로 전송하며, 사용자 단말기(100)는 상기 전송된 이미지 데이터에 해당하는 제 1 이미지를 디스플레이시킨다(S502). 즉, 사용자 단말기(100)와 수신 단말기(102)가 제 1 이미지의 적어도 일부분을 공유한다. Subsequently, the receiving terminal 102 transmits image data corresponding to at least a portion of the first image currently displayed or at least a portion of the first image to be displayed to the user terminal 100, and the user terminal 100 transmits the transmitted image data. The first image corresponding to the image data is displayed (S502). That is, the user terminal 100 and the receiving terminal 102 share at least a portion of the first image.

계속하여, 사용자가 손가락 또는 터치 펜 등과 같은 터치 수단을 사용자 단말기(100)로 근접시키거나 기설정된 압력 또는 면적 이하로 사용자 단말기(100)를 터치하면, 사용자 단말기(100)는 상기 터치 수단을 감지한다(S504). 사용자 단말기(100)는 정전 용량 감지 방법, 전자기 감지 방법 등과 같은 다양한 방법들을 이용하여 상기 터치 수단을 감지할 수 있다. Subsequently, when a user moves a touch means such as a finger or a touch pen to the user terminal 100 or touches the user terminal 100 with a predetermined pressure or area or less, the user terminal 100 detects the touch means. (S504). The user terminal 100 may detect the touch means by using various methods such as a capacitance sensing method and an electromagnetic sensing method.

이어서, 사용자 단말기(100)는 상기 감지 결과에 따른 상기 터치 수단의 위치 정보를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 전송된 터치 수단의 위치를 나타내는 제 2 이미지를 제 1 이미지와 함께 디스플레이시킨다(S506).Subsequently, the user terminal 100 transmits the location information of the touch means to the receiving terminal 102 according to the detection result, and the receiving terminal 102 first transmits a second image indicating the position of the transmitted touch means. The display is displayed with the image (S506).

본 발명의 다른 실시예에 따르면, 사용자 단말기(100)는 상기 제 1 이미지에 해당하는 데이터 및 제 2 이미지에 해당하는 데이터를 포함하는 이미지 데이터(또는 합성 이미지 데이터)를 수신 단말기(102)로 전송할 수도 있다. 다만, 기본적으로 수신 단말기(102)가 사용자 단말기(100)로 제 1 이미지에 해당하는 이미지 데이터를 전송하는 방식이므로, 사용자 단말기(100)가 터치 수단의 위치 정보만을 수신 단말기(102)로 전송하는 전자의 방식이 효율적이다. According to another exemplary embodiment of the present invention, the user terminal 100 transmits image data (or composite image data) including data corresponding to the first image and data corresponding to the second image, to the receiving terminal 102. It may be. However, since the reception terminal 102 basically transmits the image data corresponding to the first image to the user terminal 100, the user terminal 100 transmits only the location information of the touch means to the reception terminal 102. The former method is efficient.

계속하여, 사용자가 터치 수단을 터치하거나 움직이면, 사용자 단말기(100)는 상기 터치 수단의 위치 정보를 수신 단말기(102)로 전송하여 수신 단말기(102)에 제 2 이미지를 디스플레이시킨다(S508). 즉, 터치 수단의 움직임이 수신 단말기(102)에 반영될 수 있다. Subsequently, when the user touches or moves the touch means, the user terminal 100 transmits the position information of the touch means to the receiving terminal 102 to display the second image on the receiving terminal 102 (S508). That is, the movement of the touch means may be reflected on the receiving terminal 102.

도 6은 본 발명의 제 5 실시예에 따른 단말기 연동 및 제어 방법을 도시한 도면이고, 도 7은 도 6의 단말기 연동 및 제어 방법에 사용되는 제어 방법을 도시한 도면이고, 도 8은 본 발명의 일 실시예에 다른 감지 레벨 설정시의 연동 동작을 도시한 도면이다. 6 is a diagram illustrating a terminal interworking and control method according to a fifth embodiment of the present invention, FIG. 7 is a diagram illustrating a control method used in the terminal interworking and control method of FIG. 6, and FIG. 8 is a diagram of the present invention. 1 is a diagram illustrating an interlocking operation when setting another sensing level.

도 6을 참조하면, 사용자 단말기(100) 또는 수신 단말기(102)가 연동을 요청하여 연동을 시작한다(S600). Referring to FIG. 6, the user terminal 100 or the receiving terminal 102 requests interlocking to start interlocking (S600).

일 실시예에 따르면, 도 7의 (A)에 도시된 바와 같이 사용자 단말기(100)와 수신 단말기(102)는 2개의 채널들, 즉 데이터 채널 및 제어 채널로 연결될 수 있고, 연동 요청 또는 수락을 위한 제어 신호를 제어 채널을 통하여 송수신할 수 있다. According to an embodiment, as shown in FIG. 7A, the user terminal 100 and the receiving terminal 102 may be connected to two channels, that is, a data channel and a control channel, and may request or accept an interworking request. The control signal can be transmitted and received through the control channel.

다른 실시예에 따르면, 하나의 채널을 통해 데이터가 송수신될 수도 있다. 예를 들어, 도 7의 (C)에 도시된 바와 같이 상기 채널의 전송 구간은 이미지 데이터를 전송하는 데이터 구간들(E1 및 E2) 사이에 위치 정보 또는 이벤트 실행 개체의 선택 정보를 전송하는 제어 구간(C)을 포함할 수 있다. 특히, 이미지 데이터를 전송하는 구간들 사이의 블랭크 구간(Blank period, C)을 활용하여 상기 위치 정보 또는 선택 정보가 전송될 수 있다. 예를 들어, 사용자 단말기(100)는 하나의 채널을 통하여 이미지 데이터를 수신 단말기(102)로 전송하되, 이미지 데이터들을 전송하는 데이터 구간들(E1 및 E2) 사이에 존재하는 블랭크 구간(C) 동안에 상기 위치 정보 또는 선택 정보를 수신 단말기(102)로 전송할 수 있다. According to another embodiment, data may be transmitted and received through one channel. For example, as shown in (C) of FIG. 7, the channel transmission section is a control section that transmits position information or selection information of an event execution object between data sections E1 and E2 for transmitting image data. (C) may be included. In particular, the location information or the selection information may be transmitted by using a blank period (C) between the sections for transmitting the image data. For example, the user terminal 100 transmits image data to the receiving terminal 102 through one channel, and during the blank period C existing between the data sections E1 and E2 for transmitting the image data. The location information or selection information may be transmitted to the receiving terminal 102.

이어서, 수신 단말기(102)가 제 1 이미지(110)의 적어도 일부에 해당하는 이미지 데이터를 사용자 단말기(100)로 전송하여 제 1 이미지(110)를 사용자 단말기(100)와 공유한다(S602). Subsequently, the reception terminal 102 transmits image data corresponding to at least a portion of the first image 110 to the user terminal 100 to share the first image 110 with the user terminal 100 (S602).

계속하여, 사용자 단말기(100)는 터치 수단의 터치 압력 또는 터치 면적을 감지한다(S604). Subsequently, the user terminal 100 detects a touch pressure or a touch area of the touch means (S604).

예를 들어, 터치 압력 또는 터치 면적을 감지하기 위하여 사용자 단말기(100)는 감지 레벨을 도 7의 (B)에 도시된 바와 같이 복수의 레벨들, 예를 들어 2개의 레벨들로 설정할 수 있다. 단말기 연동 과정을 수행할 때가 아니면, 즉 사용자가 사용자 단말기(100)만을 이용하는 경우에는, 사용자가 약하게 터치하였을 때에만 터치 위치가 감지되도록 사용자 단말기(100)의 감지 레벨을 높은 레벨(L2)로 설정할 수 있다. For example, in order to sense the touch pressure or the touch area, the user terminal 100 may set the sensing level to a plurality of levels, for example, two levels, as shown in FIG. 7B. When not performing the terminal interworking process, that is, when the user uses only the user terminal 100, the detection level of the user terminal 100 is set to a high level (L2) so that the touch position is detected only when the user touches weakly. Can be.

반면에, 사용자가 단말기 연동 과정을 수행하는 경우, 즉 수신 단말기(102)도 이용하는 경우, 사용자 단말기(100)는 감지 레벨을 낮은 레벨(L1)로 변경한다. 따라서, 사용자 단말기(100)는 터치 수단이 터치되지 않고 근접된 상태이거나 터치 압력 또는 터치 면적이 기설정된 압력 또는 면적 이하일 때에도 상기 터치 수단을 감지할 수 있다. 본 발명의 다른 실시예에 따르면, 사용자 단말기(100)는 정전용량 방식 이외에도 전자기 유도 방식, 저항막 방식, 광학방식, 초음파 방식 등 다양한 방법들을 사용할 수 있으며, 사용 방식에 따라 설정 조건이 달라질 수 있다. On the other hand, when the user performs the terminal interworking process, that is, also using the receiving terminal 102, the user terminal 100 changes the detection level to a low level (L1). Therefore, the user terminal 100 may detect the touch means even when the touch means is not in contact with the touch means or when the touch pressure or the touch area is equal to or less than the preset pressure or area. According to another embodiment of the present invention, the user terminal 100 may use a variety of methods, such as electromagnetic induction, resistive film, optical, ultrasonic method, in addition to the capacitive method, the setting conditions may vary depending on the usage method .

이어서, 사용자 단말기(100)는 감지 결과에 따른 터치 수단의 위치 정보를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 위치 정보를 나타내는 제 2 이미지, 예를 들어 도 1의 (B)에 도시된 바와 같이 터치 수단의 위치를 표시하는 위치 이미지를(112)를 제 1 이미지(110)와 함께 디스플레이시킨다(S606).Subsequently, the user terminal 100 transmits the position information of the touch means according to the detection result to the receiving terminal 102, and the receiving terminal 102 shows a second image representing the position information, for example, FIG. 1B. As shown in FIG. 6, the position image 112 indicating the position of the touch unit is displayed together with the first image 110 (S606).

이 때, 터치 수단의 위치 정보는 이미지 형태의 정보이거나 또는 좌표 형태의 정보일 수 있다. 즉, 사용자 단말기(100)는 제 2 이미지(112)에 대한 위치 정보를 직접 이미지 데이터 형태로 생성하여 수신 단말기(102)로 전송하거나 또는 제어 신호 형태로 터치 수단의 위치 정보만을 수신 단말기(102)로 전송할 수 있다. 또는 사용자 단말기(100)는 터치 수단의 위치 이미지(제 2 이미지)를 생성하고 제 1 이미지와 제 2 이미지가 포함된 이미지 데이터를 수신 단말기(102)로 전송함으로써, 제 1 이미지(110)를 공유함과 동시에 제 2 이미지(112)가 수신 단말기(102)에 디스플레이되도록 할 수 있다.In this case, the position information of the touch means may be information in the form of an image or information in the form of a coordinate. That is, the user terminal 100 directly generates the position information of the second image 112 in the form of image data and transmits it to the receiving terminal 102 or only the position information of the touch means in the form of a control signal. Can be sent to. Alternatively, the user terminal 100 shares the first image 110 by generating a location image (second image) of the touch means and transmitting image data including the first image and the second image to the receiving terminal 102. At the same time, the second image 112 may be displayed on the receiving terminal 102.

예를 들어, 터치 수단의 터치 압력이 기 설정된 압력 이하이거나 터치 면적이 기 설정된 터치 면적 이하인 경우, 터치 수단의 위치가 수신 단말기(102)에 디스플레이될 수 있다. 즉, 터치 수단이 사용자 단말기(100)를 약하게 터치하는 경우 제 2 이미지(112)가 수신 단말기(102)에 디스플레이될 수 있다. 터치 수단이 사용자 단말기(100)를 약하게 터치한 상태에서 이동하는 경우, 제 2 이미지(112)는 터치수단의 움직임을 반영하여, 수신 단말기(102) 상의 제 2 이미지(112) 역시 연속적으로 이동한다(S608).For example, when the touch pressure of the touch means is equal to or less than the preset pressure or the touch area is equal to or less than the preset touch area, the position of the touch means may be displayed on the receiving terminal 102. That is, when the touch means weakly touches the user terminal 100, the second image 112 may be displayed on the receiving terminal 102. When the touch means moves while the user terminal 100 is weakly touched, the second image 112 reflects the movement of the touch means, so that the second image 112 on the receiving terminal 102 also moves continuously. (S608).

본 발명에 따르면, 터치 수단이 사용자 단말기(100)를 약하게 터치하는 경우 사용자 단말기(100)는 터치 수단의 터치를 터치 입력으로 인식하지 않는다. 터치 수단이 사용자 단말기(100)를 강하게 터치하는 경우, 즉 터치 압력이 기 설정된 압력을 초과하거나 터치 면적이 기 설정된 터치 면적을 초과하는 경우, 사용자 단말기(100)는 터치 수단의 터치를 터치 입력으로 인식한다. 따라서 터치 수단이 사용자 단말기(100)를 아이콘 상에서 아이콘을 약하게 터치하는 경우 아이콘은 실행되지 않지만, 아이콘을 강하게 터치하는 경우 아이콘이 실행될 수 있다.According to the present invention, when the touch means weakly touches the user terminal 100, the user terminal 100 does not recognize the touch of the touch means as a touch input. When the touch means strongly touches the user terminal 100, that is, when the touch pressure exceeds the preset pressure or the touch area exceeds the preset touch area, the user terminal 100 uses the touch means as a touch input. Recognize. Therefore, when the touch means weakly touches the icon on the icon on the user terminal 100, the icon is not executed. However, when the touch is strongly touched, the icon may be executed.

전술된 바와 같이, 도 5의 실시예와 도 6의 실시예는 함께 적용될 수 있다. 즉, 터치 수단이 사용자 단말기(100)로부터 기 설정된 거리 내에 위치하는 경우와, 터치 수단이 사용자 단말기(100)를 약하게 터치하는 경우에 제 2 이미지(112)가 수신 단말기(102)에 디스플레이될 수 있다. As described above, the embodiment of FIG. 5 and the embodiment of FIG. 6 may be applied together. That is, when the touch means is located within a preset distance from the user terminal 100 and when the touch means weakly touches the user terminal 100, the second image 112 may be displayed on the receiving terminal 102. have.

도 5 및 도 6의 실시예들에서 나타나는 감지 레벨 설정에 대하여 도 8을 참조하여 더 구체적으로 살펴보겠다. The detection level setting shown in the embodiments of FIGS. 5 and 6 will be described in more detail with reference to FIG. 8.

사용자 단말기(100)에는 복수의 감지 레벨들이 설정될 수 있다. 예를 들어, 사용자 단말기(100)에는 터치 수단(804)의 근접을 감지하기 위한 제 1 레벨, 기설정된 레벨(압력 레벨 또는 면적 레벨) 이하로 터치하는 터치 수단(804)을 감지하기 위한 제 2 레벨 및 기설정된 레벨 이상으로 터치하는 터치 수단(804)을 감지하기 위한 제 3 레벨이 설정될 수 있다. A plurality of sensing levels may be set in the user terminal 100. For example, the user terminal 100 includes a first level for detecting proximity of the touch means 804 and a second for detecting the touch means 804 for touching below a predetermined level (pressure level or area level). A third level for detecting the level and the touch means 804 for touching above the predetermined level may be set.

이러한 복수의 레벨들이 설정되었을 때의 사용자 단말기(100) 및 수신 단말기(102)의 동작을 살펴보겠다. The operation of the user terminal 100 and the receiving terminal 102 when these multiple levels are set will be described.

수신 단말기(102)에는 도 8의 (A)에 도시된 바와 같은 제 1 이미지(110)가 디스플레이될 수 있다. 물론, 사용자 단말기(100)에도 실질적으로 동일한 제 1 이미지(110)가 디스플레이될 수 있다. 제 1 이미지(110)에는 예를 들어 아이콘, 실행 프로그램, 링크 등과 같은 이벤트 실행 개체(800)가 포함될 수 있으며, 이벤트 실행 개체(800)를 선택하면 도 8의 (B)에 도시된 바와 같이 예를 들어 앵그리버드 게임이 실행될 수 있다. 이하, 터치 수단(804)의 터치 위치가 이벤트 실행 개체(800) 상의 특정 지점에 대응한다고 가정하겠다. The receiving terminal 102 may display the first image 110 as shown in FIG. 8A. Of course, a substantially identical first image 110 may also be displayed on the user terminal 100. The first image 110 may include, for example, an event execution object 800 such as an icon, an execution program, a link, and the like. For example, Angry Birds games can be played. Hereinafter, it will be assumed that the touch position of the touch means 804 corresponds to a specific point on the event execution object 800.

우선, 도 8의 (C)에 도시된 바와 같이, 터치 수단(804)이 사용자 단말기(100)의 디스플레이부(806)로 근접하면, 수신 단말기(102)에는 도 8의 (A)에 도시된 바와 같이 터치 수단(804)의 위치를 나타내는 제 2 이미지(112)가 디스플레될 수 있다. 또한, 사용자 단말기(100)에 제 3 이미지(114)가 표시될 수도 있다. First, as shown in FIG. 8C, when the touch means 804 is close to the display unit 806 of the user terminal 100, the receiving terminal 102 is shown in FIG. 8A. As shown, a second image 112 representing the position of the touch means 804 may be displayed. In addition, the third image 114 may be displayed on the user terminal 100.

이어서, 터치 수단(804)이 도 8의 (D)에 도시된 바와 같이 디스플레이부(806)를 기설정된 레벨 이하로 터치한 경우, 이벤트 실행 개체(800)는 실행되지 않고 터치 수단(804)의 위치를 나타내는 이미지(112 또는 114)가 그대로 유지될 수 있다.Subsequently, when the touch means 804 touches the display unit 806 below a predetermined level as shown in FIG. 8D, the event execution object 800 is not executed and the touch means 804 of the touch means 804 does not execute. An image 112 or 114 representing the position may be maintained.

계속하여, 터치 수단(804)이 도 8의 (E)에 도시된 바와 같이 디스플레이부(806)를 기설정된 레벨 이상으로 터치한 경우, 사용자 단말기는 이벤트 실행 개체(804)의 선택으로 인식하여 게임을 실행시킬 수 있다. 한편, 터치 수단(804)의 종단(810)은 내부로 삽입될 수 있는 구조를 가질 수 있으며, 사용자가 기설정된 레벨 이상으로 터치 수단(804)을 터치하면 도 8의 (E)에 도시된 바와 같이 종단(810)이 내부로 삽입된 상태로 디스플레이부(806)를 가압하게 된다. Subsequently, when the touch means 804 touches the display unit 806 above a predetermined level as shown in FIG. 8E, the user terminal recognizes the selection as the event execution object 804 to play the game. You can run On the other hand, the terminal 810 of the touch means 804 may have a structure that can be inserted into the interior, and when the user touches the touch means 804 above a predetermined level as shown in (E) of FIG. As described above, the display unit 806 is pressed with the end 810 inserted therein.

정리하면, 본 실시예의 연동 및 제어 시스템은 감지 레벨별로 다른 동작을 수행시킬 수 있다. In summary, the interlocking and control system of the present embodiment may perform different operations for each sensing level.

본 발명의 다른 실시예에 따르면, 터치 수단(804)이 근접하였을 때는 터치 수단(804)의 위치를 나타내는 이미지(112 또는 114)가 표시되고 터치 수단(804)이 디스플레이부(806)를 터치하였을 때는 이벤트 실행 개체(800)가 실행될 수 있다. According to another embodiment of the present invention, when the touch means 804 is close, an image 112 or 114 indicating the position of the touch means 804 is displayed and the touch means 804 may have touched the display unit 806. The event execution object 800 may be executed.

도 9는 본 발명의 제 6 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다. 9 is a flowchart illustrating a terminal interworking and control method according to a sixth embodiment of the present invention.

도 9를 참조하면, 사용자 단말기(100)와 수신 단말기(102)가 연동을 시작한다(S900).Referring to FIG. 9, the user terminal 100 and the receiving terminal 102 start interlocking (S900).

이어서, 수신 단말기(102)는 디스플레이된 제 1 이미지의 적어도 일부에 해당하는 이미지 데이터를 사용자 단말기(100)로 전송하며, 사용자 단말기(102)는 상기 이미지 데이터에 해당하는 제 1 이미지를 디스플레이시킨다(S902). 즉, 사용자 단말기(100)와 수신 단말기(102)는 제 1 이미지를 공유한다. Subsequently, the reception terminal 102 transmits image data corresponding to at least a portion of the displayed first image to the user terminal 100, and the user terminal 102 displays the first image corresponding to the image data ( S902). That is, the user terminal 100 and the receiving terminal 102 share the first image.

계속하여, 사용자 단말기(100)는 손가락, 터치 펜 등과 같은 터치 수단을 다양한 방법들을 통하여 감지한다(S904). 사용자 단말기(100)는 사용자 단말기(100)에 근접한 터치 수단 또는 사용자 단말기(100)를 약하게 터치한 터치 수단의 위치를 감지할 수 있다.Subsequently, the user terminal 100 detects touch means such as a finger, a touch pen, and the like through various methods (S904). The user terminal 100 may detect the position of the touch means close to the user terminal 100 or the touch means weakly touching the user terminal 100.

이어서, 사용자 단말기(100)는 현재 디스플레이된 제 1 이미지와 함께 상기 감지된 터치 수단의 위치에 해당하는 제 2 이미지를 포함하는 합성 이미지를 생성하고, 상기 합성 이미지에 해당하는 합성 이미지 데이터(합성 정보)를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 합성 이미지 데이터에 해당하는 합성 이미지를 디스플레이시킨다(S906). 결과적으로, 수산 단말기(102)에는 상기 제 1 이미지와 함께 제 2 이미지가 디스플레이된다. 이 경우, 사용자 단말기(100)에는 상기 제 1 이미지만이 디스플레이될 수도 있고, 상기 제 1 이미지와 함께 제 2 이미지가 함께 디스플레이될 수도 있다. Subsequently, the user terminal 100 generates a composite image including a second image corresponding to the position of the detected touch means together with the first image currently displayed, and synthesizes image data corresponding to the composite image (synthesis information). ) Is transmitted to the receiving terminal 102, and the receiving terminal 102 displays the synthesized image corresponding to the synthesized image data (S906). As a result, the fisheries terminal 102 displays a second image together with the first image. In this case, only the first image may be displayed on the user terminal 100, or the second image may be displayed together with the first image.

계속하여, 사용자가 상기 터치 수단을 터치하거나 터치한 상태로 움직이는 경우, 사용자 단말기(100)는 상기 터치 수단의 위치 정보를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 위치 정보에 따라 상기 터치 수단의 위치를 표시하는 제 2 이미지를 해당 제 1 이미지와 함께 디스플레이시킨다(S908). 즉, 상기 터치 수단의 움직임이 수신 단말기(102)의 화면에 반영된다. 다만, 수신 단말기(102) 상의 제 1 이미지는 직전 이미지와 동일한 이미지일 수도 있고 직전 이미지와 다른 이미지일 수도 있다. Subsequently, when the user touches or moves in the state of touching the touch means, the user terminal 100 transmits the position information of the touch means to the receiving terminal 102, and the receiving terminal 102 is connected to the position information. Accordingly, the second image indicating the position of the touch means is displayed together with the corresponding first image (S908). That is, the movement of the touch means is reflected on the screen of the receiving terminal 102. However, the first image on the receiving terminal 102 may be the same image as the previous image or may be different from the previous image.

정리하면, 본 실시예에서는 사용자 단말기(100)가 제 1 이미지와 제 2 이미지를 포함하는 합성 이미지를 생성하고 상기 생성된 합성 이미지를 수신 단말기(102)로 전송하며, 그 결과 수신 단말기(102)에는 제 1 이미지와 함께 제 2 이미지가 디스플레이된다. In summary, in the present embodiment, the user terminal 100 generates a composite image including the first image and the second image and transmits the generated composite image to the receiving terminal 102, and as a result, the receiving terminal 102. The second image is displayed along with the first image.

위에서는, 합성 이미지로 표현하였으나, 제 1 이미지가 터치 수단의 위치를 표시하도록 제 1 이미지 자체가 변형될 수 있다. 구체적으로는, 사용자 단말기(100)는 제 1 이미지 중 터치 수단의 위치에 해당하는 영역을 그림자 이미지 등으로 변형하여, 즉 제 1 이미지 자체를 변형하여 새로운 이미지를 생성하고, 상기 생성된 이미지를 수신 단말기(102)로 전송할 수도 있다. 여기서, 변형된 제 1 이미지는 합성 이미지와 실질적으로 동일할 수 있다. In the above, although expressed as a composite image, the first image itself may be modified such that the first image indicates the position of the touch means. Specifically, the user terminal 100 transforms an area corresponding to the position of the touch means among the first images into a shadow image, that is, transforms the first image itself to generate a new image, and receives the generated image. It may be transmitted to the terminal 102. Here, the modified first image may be substantially the same as the composite image.

도 10은 본 발명의 제 7 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다. 10 is a flowchart illustrating a terminal interworking and control method according to a seventh embodiment of the present invention.

도 10을 참조하면, 사용자 단말기(100)와 수신 단말기(102)가 연동을 시작한다(S1000). Referring to FIG. 10, the user terminal 100 and the receiving terminal 102 start interlocking (S1000).

이어서, 사용자 또는 사용자 단말기(100)가 터치 수단을 감지하기 위한 복수의 감지 레벨들을 설정한다(S1002). 전술된 바와 같이 실시예에 따라 다양한 레벨이 설정될 수 있다. 이러한 설정은 상기 연동 시작과 함께 설정될 수도 있고 연동 시작 전에 사용자 단말기(100)에 미리 설정되어 있을 수도 있다. Subsequently, the user or the user terminal 100 sets a plurality of sensing levels for sensing the touch means (S1002). As described above, various levels may be set according to the embodiment. This setting may be set at the start of the interworking or may be set in advance in the user terminal 100 before starting the interlocking.

계속하여, 사용자 단말기(100)가 터치 수단을 감지하고, 수신 단말기(102)는 감지된 터치 수단의 위치를 나타내는 제 2 이미지를 디스플레이시킨다(S1004).Subsequently, the user terminal 100 detects the touch means, and the receiving terminal 102 displays a second image indicating the position of the detected touch means (S1004).

이어서, 사용자에 의한 연동 중지 요청이 있었는지의 여부가 판단된다(S1006). 상기 연동 중지는 사용자가 메뉴 선택 등의 방법으로 요청될 수도 있고 사용자 단말기(100)와 수신 단말기(102)의 연결을 오프(Off)시킴에 의해 요청될 수도 있다. 사용자는 수신 단말기(102)를 보면서 사용자 단말기(100)를 제어하다가 사용자 단말기(100)만 사용하고자 할 경우 또는 수신 단말기(102)만 보기를 원하는 경우 사용자 단말기(100)와 수신 단말기(102)는 연결된 상태에서 연동 중지를 요청할 수 있다. Subsequently, it is determined whether or not there is a request for interlocking stop by the user (S1006). The interworking stop may be requested by the user by selecting a menu or by turning off the connection between the user terminal 100 and the receiving terminal 102. When the user controls the user terminal 100 while viewing the receiving terminal 102 and wants to use only the user terminal 100 or only wants to view the receiving terminal 102, the user terminal 100 and the receiving terminal 102 You can request to stop interlocking while connected.

사용자의 연동 중지 요청이 없는 경우 단계 S1004가 다시 수행된다. If there is no user stop request for interworking, step S1004 is performed again.

반면에, 사용자의 연동 중지 요청이 있는 경우, 사용자 단말기(100)는 상기 복수의 레벨들을 초기화시켜 하나의 레벨만이 존재하거나 터치된 경우만을 감지하는 감지 레벨들로 변화시킨다(S1008). 즉, 사용자 단말기(100)는 터치 수단이 터치되지 않은 경우에는 상기 터치 수단을 감지하지 않고 상기 터치 수단이 터치되었을 때만 상기 터치 수단을 감지하도록 레벨을 변화시킨다. On the other hand, when the user stops the interlocking request of the user, the user terminal 100 initializes the plurality of levels to change to sensing levels for detecting only one level or only touch (S1008). That is, when the touch means is not touched, the user terminal 100 does not sense the touch means but changes the level so as to detect the touch means only when the touch means is touched.

정리하면, 본 발명의 단말기 연동 및 제어 방법은 사용자가 임의로 연동 요청, 연동 중지 요청, 감지 레벨을 자유롭게 설정하고 변경할 수 있다. In summary, in the terminal interworking and control method of the present invention, a user may freely set and change an interworking request, an interlocking stop request, and a sensing level.

본 발명의 다른 실시예에 따르면, 사용자 단말기(100)와 수신 단말기(102)의 연동 시작시 1차 감지 레벨을 설정하고, 연동 중에 감지 레벨을 다르게 설정할 수도 있다. 예를 들어, 사용자는 연동 중에 터치 수단의 접근 거리 및 터치 강도에 따른 감지 레벨을 다르게 설정할 수도 있고 터치 수단이 터치되었을 때만 감지하도록 감지 레벨 설정을 변경시킬 수도 있다. According to another embodiment of the present invention, the first detection level may be set when the user terminal 100 and the reception terminal 102 start interlocking, and the detection level may be differently set during the interlocking. For example, the user may set different sensing levels according to the approach distance and the touch intensity of the touch means during interlocking, or change the sensing level setting to sense only when the touch means is touched.

도 11은 본 발명의 또 다른 실시예에 따른 단말기 연동 및 제어 시스템을 도시한 도면이다. 11 is a diagram illustrating a terminal interworking and control system according to another embodiment of the present invention.

도 11의 (A)를 참조하면, 본 실시예의 단말기 연동 및 제어 시스템은 사용자 단말기(100), 수신 단말기(102) 및 송수신 장치(1100, 예를 들어 동글)를 포함할 수 있다. Referring to FIG. 11A, the terminal interworking and control system of the present embodiment may include a user terminal 100, a reception terminal 102, and a transmission / reception device 1100 (eg, a dongle).

송수신 장치(1100)는 사용자 단말기(100)와 수신 단말기(102) 사이의 통신을 연결시킬 수 있다. 구체적으로는, 사용자 단말기(100)가 터치 수단의 위치 정보, 합성 이미지 데이터 또는 이벤트 실행 개체의 선택 정보를 송수신 장치(1100)로 전송하면, 송수신 장치(1100)는 상기 터치 수단의 위치 정보, 합성 이미지 데이터 또는 선택 정보를 수신 단말기(102)로 전송할 수 있다. 또한, 송수신 장치(1100)는 수신 단말기(100)로부터 전송된 이미지 데이터를 사용자 단말기(100)로 전송할 수 있다. The transceiver 1100 may connect communication between the user terminal 100 and the receiver terminal 102. Specifically, when the user terminal 100 transmits the position information of the touch means, the composite image data, or the selection information of the event execution object to the transceiver 1100, the transceiver 1100 transmits the position information of the touch means and the synthesized information. Image data or selection information may be transmitted to the receiving terminal 102. In addition, the transceiver 1100 may transmit the image data transmitted from the reception terminal 100 to the user terminal 100.

송수신 장치(1100)는 사용자 단말기(100) 또는 수신 단말기(102)에 연결될 수도 있고, 사용자 단말기(100) 및 수신 단말기(102)에 연결되지 않고 별도로 존재할 수도 있다. 송수신 장치(1100)는 예를 들어 동글, 셋탑(Settop) 등일 수 있다. The transceiving device 1100 may be connected to the user terminal 100 or the receiving terminal 102, or may exist separately without being connected to the user terminal 100 and the receiving terminal 102. The transceiver 1100 may be, for example, a dongle, a settop, or the like.

일 실시예에 따르면, 송수신 장치(1100)는 사용자 단말기(100)로부터 전송된 위치 정보, 합성 이미지 데이터 또는 선택 정보를 변환하지 않고 그대로 수신 단말기(102)로 전달할 수 있다.According to an embodiment, the transceiving device 1100 may transmit the location information, the composite image data, or the selection information transmitted from the user terminal 100 to the receiving terminal 102 without being converted.

다른 실시예에 따르면, 송수신 장치(1100)는 사용자 단말기(100)로부터 전송된 위치 정보, 합성 이미지 데이터 또는 선택 정보를 수신 단말기(102)의 포맷에 맞도록 변환하고, 변환된 위치 정보 또는 합성 이미지 데이터를 수신 단말기(102)로 전송할 수 있다. 현재 다수 회사들이 스마트 TV 등과 같은 수신 단말기(102)를 제조하므로, 제조사별로 수신 단말기(102)의 포맷과 상기 위치 정보, 합성 이미지 데이터 또는 선택 정보를 일치시킬 필요가 있다. 본 발명은 송수신 장치(1100)를 이용하여 위치 정보, 합성 이미지 데이터 또는 선택 정보를 수신 단말기(102)의 포맷에 맞도록 변형시키므로, 제조사와 관계없이 단말기들(100 및 102)을 연동시킬 수 있다. According to another exemplary embodiment, the transceiving device 1100 converts the location information, the composite image data, or the selection information transmitted from the user terminal 100 to match the format of the receiving terminal 102, and converts the converted location information or the composite image. Data may be sent to the receiving terminal 102. Since many companies currently manufacture a receiving terminal 102 such as a smart TV, it is necessary to match the format of the receiving terminal 102 with the location information, composite image data, or selection information for each manufacturer. According to the present invention, since the location information, the composite image data, or the selection information is modified to fit the format of the receiving terminal 102 by using the transmission / reception apparatus 1100, the terminals 100 and 102 may be linked regardless of the manufacturer. .

이러한 송수신 장치(1100)는 도시하지는 않았지만 통신부, 신호부 및 포맷 변경부를 포함할 수 있다. Although not shown, the transceiver 1100 may include a communication unit, a signal unit, and a format changer.

상기 통신부는 사용자 단말기(100) 및 수신 단말기(102)를 연결시킨다. The communication unit connects the user terminal 100 and the receiving terminal 102.

상기 신호부는 사용자 단말기(100)로부터 전송된 터치 수단의 위치 정보, 합성 이미지 데이터 또는 선택 정보를 수신 단말기(102)로 전송하고, 수신 단말기(102)로부터 수신된 제 1 이미지를 사용자 단말기(100)로 전송할 수 있다. The signal unit transmits the position information, the composite image data or the selection information of the touch means transmitted from the user terminal 100 to the receiving terminal 102, and transmits the first image received from the receiving terminal 102 to the user terminal 100. Can be sent to.

상기 포맷 변경부는 위치 정보, 합성 이미지 데이터 또는 선택 정보를 수신 단말기(102)의 포맷에 맞도록 변경하거나 제 1 이미지를 사용자 단말기(100)의 포맷에 맞도록 변경할 수 있다. The format changer may change location information, composite image data, or selection information to match the format of the receiving terminal 102 or change the first image to match the format of the user terminal 100.

정리하면, 사용자 단말기(100)와 수신 단말기(102)는 송수신 장치(1100)를 통하여 위치 정보, 이미지 데이터, 합성 이미지 데이터 또는 선택 정보를 송수신할 수 있다. 이 경우, 송수신 장치(1200)와 연결된 사용자 단말기(100) 또는 수신 단말기(102)는 통신 기능을 가지지 않을 수도 있다. In summary, the user terminal 100 and the receiving terminal 102 may transmit and receive location information, image data, composite image data, or selection information through the transceiver 1100. In this case, the user terminal 100 or the receiving terminal 102 connected to the transceiver 1200 may not have a communication function.

다른 실시예에 따르면, 송수신 장치(1100)는 사용자 단말기(100)와 수신 단말기(102) 사이의 통신 역할뿐만 아니라 터치 수단(1102)을 감지하는 역할도 수행할 수 있다. According to another embodiment, the transceiving device 1100 may perform a role of detecting the touch means 1102 as well as a communication role between the user terminal 100 and the receiving terminal 102.

또 다른 실시예에 따르면, 송수신 장치(1100)는 사용자 단말기(100)를 위한 통신 수단으로서, 특정 통신 기능, 예를 들어 Wibro 통신 기능을 제공할 수도 있고, 특정 통신 기능을 다른 통신 기능으로 변환시켜, 예를 들어 Wibro를 Wi-Fi로 변환하여 사용자 단말기(100)를 위하여 사용할 수도 있다. According to another embodiment, the transmission and reception apparatus 1100 may provide a specific communication function, for example, a Wibro communication function as a communication means for the user terminal 100, and may convert the specific communication function into another communication function. For example, Wibro may be converted to Wi-Fi and used for the user terminal 100.

도 12는 본 발명의 제 8 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다. 12 is a flowchart illustrating a terminal interworking and control method according to an eighth embodiment of the present invention.

도 12를 참조하면, 리시버를 수신 단말기(102)에 설치한다(S1200). 본 발명의 다른 실시예에 따르면, 리시버는 수신 단말기(102)에 내장될 수 있다. Referring to FIG. 12, a receiver is installed in the receiving terminal 102 (S1200). According to another embodiment of the invention, the receiver may be embedded in the receiving terminal 102.

이어서, 사용자 단말기(100)와 수신 단말기(102)가 연동을 시작한다(S1202).Subsequently, the user terminal 100 and the receiving terminal 102 start interlocking (S1202).

계속하여, 사용자 단말기(100)가 제 1 이미지(110)에 해당하는 이미지 데이터를 수신 단말기(102)로 전송하여 제 1 이미지(110)를 공유하거나 수신 단말기(102)가 사용자 단말기(100)로 이미지 데이터를 전송하여 제 1 이미지(110)를 공유한다(S1204).Subsequently, the user terminal 100 transmits image data corresponding to the first image 110 to the receiving terminal 102 so as to share the first image 110 or the receiving terminal 102 to the user terminal 100. Image data is transmitted to share the first image 110 (S1204).

이어서, 터치 수단이 사용자 단말기(100)로 근접하거나 기설정된 압력 또는 면적 이하로 사용자 단말기(100)의 디스플레이부를 터치하면, 리시버는 터치 수단으로부터 발신된 적외선 및 초음파를 통하여 터치 수단의 위치를 감지하고, 감지된 터치 수단의 위치를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 감지된 위치를 나타내는 제 2 이미지(112)를 제 1 이미지(110)와 함께 디스플레이시킨다(S1206).Subsequently, when the touch means approaches the user terminal 100 or touches the display unit of the user terminal 100 with a predetermined pressure or area or less, the receiver detects the position of the touch means through infrared rays and ultrasonic waves transmitted from the touch means. In operation S1206, the location of the detected touch means is transmitted to the reception terminal 102, and the reception terminal 102 displays the second image 112 indicating the detected location together with the first image 110 (S1206).

계속하여, 사용자 단말기(100)는 터치 수단의 움직임에 따른 위치 정보를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 터치 수단의 움직임을 제 2 이미지(112) 또는 제 2 이미지와 다른 제 3 이미지로서 표시할 수 있다. Subsequently, the user terminal 100 transmits the position information according to the movement of the touch means to the receiving terminal 102, and the receiving terminal 102 differs from the second image 112 or the second image. It can be displayed as a third image.

이하, 터치 수단을 감지하는 다양한 방법들을 첨부된 도면들을 참조하여 상술하겠다. Hereinafter, various methods of sensing the touch means will be described with reference to the accompanying drawings.

도 13은 본 발명의 제 1 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다. FIG. 13 illustrates a method of detecting touch means according to a first embodiment of the present invention.

도 13을 참조하면, 사용자 단말기(100)를 터치할 터치 수단으로서 터치 펜(1300)을 사용할 수 있다. 사용자 단말기(100)는 정전 용량 방식 터치 패널을 사용한다. Referring to FIG. 13, the touch pen 1300 may be used as a touch means for touching the user terminal 100. The user terminal 100 uses a capacitive touch panel.

터치 펜(1300)은 몸체(1310) 및 터치부(1312)로 이루어질 수 있다. 몸체(1310)는 전기가 통하지 않는 재질로 이루어지고, 터치부(1312)는 전도체이다. 따라서, 터치부(1312)로 인하여 터치 펜(1300)이 사용자 단말기(100)로 근접시 또는 사용자 단말기(100)를 터치했을 때 정전 용량의 변화가 발생되며, 사용자 단말기(100)는 정전 용량의 변화를 통하여 터치 펜(1300)을 감지할 수 있다. The touch pen 1300 may be formed of a body 1310 and a touch unit 1312. The body 1310 is made of a material that does not conduct electricity, and the touch unit 1312 is a conductor. Accordingly, a change in capacitance occurs when the touch pen 1300 approaches the user terminal 100 or touches the user terminal 100 due to the touch unit 1312. The touch pen 1300 may be detected through the change.

도 14는 본 발명의 제 2 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다. 14 is a diagram illustrating a method of detecting touch means according to a second embodiment of the present invention.

도 14를 참조하면, 사용자 단말기(100)는 터치 패널(1400) 및 전자기 발생부(1402)를 포함할 수 있다. Referring to FIG. 14, the user terminal 100 may include a touch panel 1400 and an electromagnetic generator 1402.

전자기 발생부(1402)는 터치 패널(1400)의 후면에 연결될 수 있으며, 얇은 금속제 막으로 이루어져서 전기가 흐르면 전자기장을 생성하는 역할을 수행한다. The electromagnetic generator 1402 may be connected to the rear surface of the touch panel 1400, and may be formed of a thin metal film to generate an electromagnetic field when electricity flows.

터치 펜(1404)은 몸체(1410) 및 터치부(1412)를 포함하며, 터치부(1412)는 바람직하게는 작은 금속 코일로 이루어질 수 있다. 결과적으로, 터치 펜(1404)이 터치 패널(1400)로 근접하면 터치부(1412)에서 전자기 유도 현상이 일어나며, 그 결과 전자기 발생부(1402)로부터 발생된 전자기장의 변형이 발생한다. 따라서, 사용자 단말기(100)는 이러한 전자기장의 변형을 감지하여 터치 펜(1404)의 위치를 인식한다. 특히, 터치 펜(1404)의 접근 위치, 터치 강도에 따라서 상기 전자기장의 변형이 다르므로, 이러한 터치 수단 감지 방법은 터치 펜(1404)의 터치 패널(1400)로의 접근 정도 및 터치 압력을 세밀하게 감지할 수 있다. The touch pen 1404 includes a body 1410 and a touch unit 1412, and the touch unit 1412 may be preferably made of a small metal coil. As a result, when the touch pen 1404 is close to the touch panel 1400, an electromagnetic induction phenomenon occurs in the touch unit 1412, and as a result, a deformation of the electromagnetic field generated from the electromagnetic generator 1402 occurs. Therefore, the user terminal 100 detects the deformation of the electromagnetic field and recognizes the position of the touch pen 1404. In particular, since the deformation of the electromagnetic field varies depending on the approach position and the touch intensity of the touch pen 1404, the touch means sensing method detects the touch pen 1404 approaching the touch panel 1400 and the touch pressure in detail. can do.

도 15는 본 발명의 제 3 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다. 15 is a diagram illustrating a method of detecting touch means according to a third embodiment of the present invention.

도 15의 (A)를 참조하면, 사용자 단말기(100)의 일부에 리시버(Receiver, 1500)를 장착하고, 터치 펜(1502)을 사용할 수 있다.Referring to FIG. 15A, a receiver 1500 may be mounted on a part of the user terminal 100, and a touch pen 1502 may be used.

리시버(1500)는 하나의 적외선 센서와 2개의 초음파 센서들을 포함할 수 있으며, 터치 펜(1502)의 터치부(펜촉)로부터 발신된 적외선 및 초음파를 수신하여 터치 펜(1502)의 움직임을 감지하고, 감지 결과에 따른 터치 펜(1502)의 위치 정보를 수신 단말기(102)로 전송한다. 수신 단말기(102)는 상기 전송된 위치 정보를 나타내는 제 2 이미지를 디스플레이한다. 결과적으로, 상기 제 2 이미지가 제 1 이미지와 함께 디스플레이된다. 여기서, 상기 위치 정보는 리시버(1500)가 수신 단말기(102)로 전송할 수도 있고 사용자 단말기(100)가 수신 단말기(102)로 전송할 수도 있다. The receiver 1500 may include one infrared sensor and two ultrasonic sensors, and detects the movement of the touch pen 1502 by receiving infrared rays and ultrasonic waves transmitted from the touch unit (tip) of the touch pen 1502. In response to the detection result, location information of the touch pen 1502 is transmitted to the reception terminal 102. The receiving terminal 102 displays a second image representing the transmitted location information. As a result, the second image is displayed together with the first image. In this case, the location information may be transmitted by the receiver 1500 to the receiving terminal 102 or the user terminal 100 may be transmitted to the receiving terminal 102.

본 발명의 다른 실시예에 따르면, 리시버(1500)는 터치 펜(1502)의 위치를 감지하는 기능뿐만 아니라 이미지 데이터 및 위치 정보를 수신 단말기(102)로 전송하는 기능도 수행할 수 있다. 구체적으로는, 리시버(1500)는 도 15의 (B)에 도시된 바와 같이 터치 제어부(1510), 이미지 신호부(1512), 제어 신호부(1514) 및 송수신부(1516)를 포함할 수 있다. According to another embodiment of the present invention, the receiver 1500 may perform not only a function of detecting the position of the touch pen 1502 but also a function of transmitting image data and position information to the receiving terminal 102. Specifically, the receiver 1500 may include a touch controller 1510, an image signal unit 1512, a control signal unit 1514, and a transceiver 1516 as shown in FIG. 15B. .

터치 제어부(1510)는 수신된 적외선 및 초음파를 이용하여 터치 펜(1502)의 위치를 감지하고, 상기 감지된 위치에 대한 정보를 사용자 단말기(100)로 제공하는 역할을 수행한다. 사용자 단말기(100)는 상기 제공된 정보에 따라 터치 펜(1502)의 위치를 표시하거나 관련 동작을 수행한다. The touch controller 1510 detects the position of the touch pen 1502 by using the received infrared rays and ultrasonic waves, and provides information on the detected position to the user terminal 100. The user terminal 100 displays the location of the touch pen 1502 or performs an associated operation according to the provided information.

이미지 신호부(1512)는 사용자 단말기(100)로부터 이미지 데이터를 제공받고, 상기 제공된 이미지 데이터를 송수신부(1516)를 통하여 수신 단말기(102)로 전송할 수 있다. The image signal unit 1512 may receive image data from the user terminal 100, and transmit the provided image data to the receiving terminal 102 through the transceiver 1516.

제어 신호부(1514)는 상기 감지된 터치 펜(1502)의 위치 정보를 가지는 제어 신호를 수신 단말기(102)에 전송하는 역할을 수행한다. 즉, 리시버(1500)가 사용자 단말기(100)로부터 전송된 이미지 데이터 및 터치 펜(1502)의 위치 정보를 수신 단말기(102)로 전송하므로, 사용자 단말기(100)는 통신 기능을 가지지 않아도 충분하다. 따라서, 통신 기능을 가지지 않은 단말기 또는 통신 기능을 가지나 관련 통신 시설을 이용할 수 없는 단말기도 리시버(1500)를 이용하여 터치 펜(1502)의 위치 및 동작을 인식할 수 있을 뿐만 아니라 이미지 공유, 제 2 이미지의 디스플레이 등과 같은 본 발명의 연동 방법을 사용할 수 있다. The control signal unit 1514 transmits a control signal having the detected position information of the touch pen 1502 to the receiving terminal 102. That is, since the receiver 1500 transmits the image data transmitted from the user terminal 100 and the position information of the touch pen 1502 to the receiving terminal 102, the user terminal 100 does not need to have a communication function. Accordingly, a terminal having no communication function or a terminal having a communication function but unable to use a related communication facility may not only recognize the position and operation of the touch pen 1502 using the receiver 1500 but also share an image and a second device. The interlocking method of the present invention, such as display of an image, can be used.

본 발명의 또 다른 실시예에 따르면, 사용자 단말기(100) 내에 리시버가 포함되어 일체로 구현될 수도 있다. According to another embodiment of the present invention, the receiver may be included in the user terminal 100 to be integrally implemented.

도 16은 본 발명의 제 4 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다. 16 illustrates a method of detecting touch means according to a fourth embodiment of the present invention.

도 16의 (A)를 참조하면, 본 발명의 단말기 연동 및 제어 시스템에서는 리시버(1600)가 사용자 단말기(100)가 아닌 수신 단말기(102)에 설치되거나 내장될 수 있다. Referring to FIG. 16A, in the terminal interworking and control system of the present invention, the receiver 1600 may be installed or embedded in the receiving terminal 102 instead of the user terminal 100.

사용자 단말기(100)에 사용되는 터치 수단으로서 터치 펜(1602)이 초음파 및 적외선을 수신 단말기(102)에 설치된 리시버(1600)로 발신하면, 리시버(1600)는 상기 초음파 및 적외선을 수신하여 터치 펜(1602)의 위치를 감지한다. When the touch pen 1602 transmits ultrasonic waves and infrared rays to the receiver 1600 installed in the receiving terminal 102 as a touch means used in the user terminal 100, the receiver 1600 receives the ultrasonic waves and infrared rays and touch pens. Detect the position of 1602.

리시버(1600)는 상기 감지된 터치 펜(1602)의 위치에 대한 정보를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 터치 펜(1602)의 위치를 나타내는 제 2 이미지를 제 1 이미지와 함께 디스플레이시킨다. 물론, 사용자 단말기(100)와 수신 단말기(102)는 제 1 이미지를 공유한 상태에서 상기 제 2 이미지를 디스플레이시킨다. The receiver 1600 transmits information about the detected position of the touch pen 1602 to the receiving terminal 102, and the receiving terminal 102 transmits a second image indicating the position of the touch pen 1602 to the first image. Display with. Of course, the user terminal 100 and the receiving terminal 102 display the second image in a state in which the first image is shared.

본 발명의 다른 실시예에 따르면, 리시버(1600)는 터치 펜(1602)의 위치 감지뿐만 아니라 통신 역할도 수행할 수 있다. 구체적으로는, 리시버(1600)는 터치 수단 감지부(1610), 이미지 신호부(1612), 제어 신호부(1614) 및 송수신부(1616)를 포함할 수 있다. According to another embodiment of the present invention, the receiver 1600 may perform a communication role as well as position detection of the touch pen 1602. In detail, the receiver 1600 may include a touch means detector 1610, an image signal unit 1612, a control signal unit 1614, and a transceiver 1616.

터치 수단 감지부(1610)는 터치 펜(1602)의 위치를 감지하는 역할을 수행한다. The touch means detector 1610 detects the position of the touch pen 1602.

이미지 신호부(1612)는 사용자 단말기(100)로부터 전송된 합성 이미지 데이터를 송수신부(1616)를 통하여 수신하고 상기 수신된 이미지 데이터를 송수신부(1616)를 통하여 수신 단말기(102)로 전송할 수 있으며, 수신 단말기(102)로부터 이미지 데이터를 수신하고 상기 수신된 이미지 데이터를 사용자 단말기(100)로 전송할 수도 있다. The image signal unit 1612 may receive the composite image data transmitted from the user terminal 100 through the transceiver 1616 and transmit the received image data to the receiver terminal 102 through the transceiver 1616. In addition, the image data may be received from the reception terminal 102 and the received image data may be transmitted to the user terminal 100.

제어 신호부(1614)는 사용자 단말기(100)로부터 전송된 연동 동작 등과 관련된 제어 신호를 수신하고, 상기 수신된 제어 신호를 수신 단말기(102)로 전송할 수 있다. 물론, 터치 펜(1602)의 위치 정보는 사용자 단말기(100)로부터 리시버(1600)로 전송되지는 않는다. 결론적으로, 리시버(1600)는 터치 펜(1602)의 위치를 감지하는 기능뿐만 아니라 통신 기능도 수행한다. 따라서, 수신 단말기(102)는 통신 기능을 가지지 않아도 본 발명의 연동 및 제어 방법을 사용할 수 있다. The control signal unit 1614 may receive a control signal related to an interlocking operation and the like transmitted from the user terminal 100 and transmit the received control signal to the receiving terminal 102. Of course, the location information of the touch pen 1602 is not transmitted from the user terminal 100 to the receiver 1600. In conclusion, the receiver 1600 performs a communication function as well as a function of detecting the position of the touch pen 1602. Therefore, the receiving terminal 102 can use the interworking and control method of the present invention without having a communication function.

도 17은 본 발명의 일 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다. 17 is a block diagram showing the structure of a user terminal according to an embodiment of the present invention.

도 17을 참조하면, 본 실시예의 사용자 단말기(100)는 제어부(1700), 연동부(1702), 이미지부(1704), 감지부(1706), 설정부(1708), 디스플레이부(1710), 신호부(1712), 송수신부(1714), 디코딩부(1716) 및 저장부(1718)를 포함할 수 있다. Referring to FIG. 17, the user terminal 100 of the present embodiment includes a control unit 1700, an interlocking unit 1702, an image unit 1704, a sensing unit 1706, a setting unit 1708, a display unit 1710, It may include a signal unit 1712, a transceiver 1714, a decoder 1716, and a storage 1718.

연동부(1702)는 수신 단말기(102)와의 연동과 관련된 모든 기능을 관리한다. The interlocking unit 1702 manages all functions related to interworking with the receiving terminal 102.

이미지부(1704)는 이미지 생성부 및 이미지 변경부를 포함할 수 있으며, 수신 단말기(102)로부터 전송된 이미지 데이터에 해당하는 이미지를 디스플레이부(1710)를 통하여 디스플레이할 수 있다. The image unit 1704 may include an image generator and an image changer, and may display an image corresponding to the image data transmitted from the receiver terminal 102 through the display unit 1710.

상기 이미지 생성부는 디스플레이부(1710)로부터 기설정된 거리 내에 위치한 터치 수단의 위치를 표시하는 위치 이미지를 생성하거나 제 2 이미지와 제 1 이미지를 포함하는 합성 이미지를 생성할 수 있으며, 디스플레이부(1710)를 기설정된 압력 또는 면적 이하로 터치한 터치 수단의 위치 이미지도 생성할 수 있다. The image generator may generate a position image indicating the position of the touch means located within a predetermined distance from the display unit 1710 or generate a composite image including the second image and the first image, and display unit 1710. It may also generate a position image of the touch means touched below a predetermined pressure or area.

상기 이미지 변경부는 터치 수단과 사용자 단말기(100) 사이의 거리에 따라 위치 이미지를 변경할 수도 있고, 사용자 단말기(100)를 터치한 터치 수단의 압력 또는 면적에 따라 위치 이미지를 변경할 수도 있다. 또한, 이미지 변경부는 터치 수단이 이벤트 실행 개체 또는 기설정된 위치에 존재하는지에 따라 위치 이미지를 변경할 수도 있다. The image changing unit may change the position image according to the distance between the touch means and the user terminal 100, or change the position image according to the pressure or area of the touch means touching the user terminal 100. In addition, the image changing unit may change the position image depending on whether the touch means exists at the event execution object or a predetermined position.

감지부(1706)는 손가락 또는 터치 펜 등과 같은 터치 수단을 감지하는 역할을 수행한다. 구체적으로는, 감지부(1706)는 상기 터치 수단이 근접할 때와 터치하였을 때를 구별하여 상기 터치 수단의 위치를 감지할 수 있다. 감지 방법으로는 정전 용량 방식, 전자기 유도 방식 등 제한이 없다. 감지부(1706)에 의해 감지된 터치 수단의 위치에 대한 정보는 위치 정보 생성부(미도시)에 의해 생성될 수도 있다. The sensor 1706 detects a touch means such as a finger or a touch pen. Specifically, the sensing unit 1706 may detect the position of the touch means by distinguishing when the touch means is close to when it is touched. The sensing method is not limited, such as capacitive and electromagnetic induction. The information about the position of the touch means detected by the detector 1706 may be generated by the location information generator (not shown).

설정부(1708)는 연동 기능 설정, 감지 레벨 설정 등 다양한 기능들의 설정을 관리한다. The setting unit 1708 manages setting of various functions such as setting of an interlocking function and setting of a detection level.

디스플레이부(1710)는 정전 용량 방식, 저항막 방식, 전자기 유도 방식 등 다양한 방식으로 구현될 수 있다. 디스플레이부(1710)는 터치 기능을 가지는 터치 디스플레이부일 수 있다. The display unit 1710 may be implemented in various ways, such as a capacitive type, a resistive film type, and an electromagnetic induction type. The display unit 1710 may be a touch display unit having a touch function.

신호부(1712)는 정보 전송부(1720) 및 정보 수신부(1722)를 포함할 수 있다. The signal unit 1712 may include an information transmitter 1720 and an information receiver 1722.

정보 전송부(1720)는 터치 수단의 위치 정보 또는 이벤트 실행 개체에 대한 선택 정보를 수신 단말기(102)로 전송할 수 있다. 상기 선택 정보는 이벤트 실행 개체이 선택을 위한 터치 입력에 대응되는 위치 정보이거나 터치 입력에 따라 이벤트 실행 개체의 실행을 위한 제어 정보일 수 있다. The information transmitter 1720 may transmit location information of the touch means or selection information on the event execution object to the receiving terminal 102. The selection information may be position information corresponding to a touch input for selecting an event execution object or control information for executing the event execution object according to the touch input.

정보 수신부(1722)는 수신 단말기(102)로부터 제 1 이미지의 전부 또는 일부에 해당하는 이미지 데이터를 수신한다. The information receiving unit 1722 receives image data corresponding to all or part of the first image from the receiving terminal 102.

송수신부(1714)는 수신 단말기(102)와의 통신 통로 역할을 수행한다. The transceiver 1714 serves as a communication path with the receiving terminal 102.

디코딩부(1716)는 수신 단말기(102)로부터 수신된 이미지 데이터를 디코딩한다. The decoding unit 1716 decodes the image data received from the receiving terminal 102.

저장부(1718)는 제 1 이미지, 이미지 신호, 위치 정보, 제어 신호, 응용 프로그램 등 다양한 데이터를 저장한다. The storage unit 1718 stores various data such as a first image, an image signal, location information, a control signal, and an application program.

제어부(1700)는 사용자 단말기(100)의 구성 요소들의 동작을 전반적으로 제어한다. The controller 1700 generally controls the operations of the components of the user terminal 100.

위에 설명하지는 않았지만, 사용자 단말기(100)는 터치 수단부, 리시버부, 전자기 발생부 또는 터치 수단 동작부를 더 포함할 수 있다. Although not described above, the user terminal 100 may further include a touch means unit, a receiver unit, an electromagnetic generator or a touch means operation unit.

터치 수단부는 리시버가 사용자 단말기(100)에 연결되었을 때 터치 수단의 위치에 대한 정보를 리시버로부터 수신하여 관리한다. 즉, 터치 수단의 위치는 리시버가 감지하고, 터치 수단부는 리시버로부터 전송된 신호를 분석하여 터치 수단의 위치를 검출한다. The touch means unit receives and manages information on the position of the touch means from the receiver when the receiver is connected to the user terminal 100. That is, the position of the touch means is detected by the receiver, and the touch means unit detects the position of the touch means by analyzing a signal transmitted from the receiver.

리시버부는 터치 수단이 사용자 단말기(100)에 근접하거나 터치하는 경우 터치 수단으로부터 전송된 적외선 및 초음파를 수신하고, 상기 수신된 적외선 및 초음파를 분석하여 터치 수단의 위치를 검출한다. The receiver unit receives infrared rays and ultrasonic waves transmitted from the touch means when the touch means approaches or touches the user terminal 100, and analyzes the received infrared rays and ultrasonic waves to detect the position of the touch means.

전자기 발생부는 전자기 유도 방식으로 터치 수단을 감지하기 위하여 전자기를 발생시키는 역할을 수행하며, 바람직하게는 디스플레이부의 후면에 형성될 수 있다. The electromagnetic generator plays a role of generating electromagnetic waves in order to sense the touch means by an electromagnetic induction method, and may be formed on the rear surface of the display unit.

상기 터치 수단 동작부는 터치 수단이 사용자 단말기(100)로 근접하거나 기설정된 압력 또는 면적 이하로 사용자 단말기(100)를 터치하는 경우, 특정 동작을 수행시킬 수 있다. 예를 들어, 터치 수단이 사용자 단말기(100)의 디스플레이부(1710)의 하단부로 근접하면 스크롤 기능을 수행할 수 있다. 이 경우, 터치 수단의 위치 정보는 수신 단말기(102)로 전송되거나 상기 위치 정보에 해당하는 제 3 이미지(114)가 디스플레이부(1710)에 디스플레이될 수 있다. 즉, 사용자 단말기(100)는 터치 수단의 접근 또는 약한 터치에 응답하여 터치 수단의 위치 정보를 수신 단말기(102)로 전송하거나 제 3 이미지(114)를 사용자 단말기(100)에 디스플레이하면서 스크롤 등과 같은 특정 동작을 수행시킬 수 있다. The touch means operating unit may perform a specific operation when the touch means approaches the user terminal 100 or touches the user terminal 100 with a predetermined pressure or area or less. For example, when the touch means approaches the lower end of the display unit 1710 of the user terminal 100, a scroll function may be performed. In this case, the location information of the touch means may be transmitted to the receiving terminal 102 or the third image 114 corresponding to the location information may be displayed on the display unit 1710. That is, the user terminal 100 transmits the position information of the touch means to the receiving terminal 102 in response to the access or weak touch of the touch means, or displays the third image 114 on the user terminal 100 such as scrolling or the like. You can perform a specific action.

도 18은 본 발명의 다른 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다. 18 is a block diagram showing the structure of a user terminal according to another embodiment of the present invention.

도 18을 참조하면, 본 실시예의 사용자 단말기(100)는 제어부(1800), 디스플레이부(1802), 감지부(1804), 신호부(1806), 이미지부(1808), 정보 제공부(1810) 및 모드 변경부(1812)를 포함할 수 있다. 한편, 사용자 단말기(100)는 위의 구성요소들 전부를 포함할 수도 있고 일부만 포함할 수도 있다. 또한, 사용자 단말기(100)는 위의 구성요소들 외의 다른 구성요소도 추가적으로 포함할 수도 있다. Referring to FIG. 18, the user terminal 100 of the present exemplary embodiment may include a controller 1800, a display 1802, a detector 1804, a signal unit 1806, an image unit 1808, and an information provider 1810. And a mode changer 1812. Meanwhile, the user terminal 100 may include all of the above components or only some of them. In addition, the user terminal 100 may further include other components in addition to the above components.

디스플레이부(1802)는 사용자 단말기(100)와 수신 단말기(102)가 공유하는 제 1 이미지를 디스플레이한다. 또한, 디스플레이부(1802)는 터치 모드를 선택할 수 있는 메뉴 등을 디스플레이할 수 있다. The display 1802 displays a first image shared by the user terminal 100 and the receiving terminal 102. In addition, the display 1802 may display a menu for selecting a touch mode.

감지부(1804)는 터치 수단이 사용자 단말기(100)로 근접하거나 터치하는 경우 전술된 바와 같이 다양한 방법들을 통하여 터치 수단의 위치를 감지한다. 여기서, 터치 수단의 위치를 나타내는 위치 정보는 사용자 단말기(100)로부터 기설정된 거리 이내에 위치하는 터치 수단의 위치 정보일 수 있다. When the touch means approaches or touches the user terminal 100, the sensing unit 1804 detects the position of the touch means through various methods as described above. Here, the position information indicating the position of the touch means may be position information of the touch means located within a predetermined distance from the user terminal 100.

신호부(1806)는 상기 감지된 터치 수단의 위치 정보를 수신 단말기(102)로 전송하고 사용자 단말기(100)와 수신 단말기(102)가 공유하는 제 1 이미지에 해당하는 이미지 데이터를 수신 단말기(102)로부터 수신한다. The signal unit 1806 transmits the detected position information of the touch means to the receiving terminal 102 and receives image data corresponding to the first image shared by the user terminal 100 and the receiving terminal 102. From).

이미지부(1808)는 사용자 단말기(100)와 수신 단말기(102)가 공유할 합성 이미지 데이터 또는 터치 수단의 위치를 나타내는 제 2 이미지를 생성할 수 있다. The image unit 1808 may generate a composite image data to be shared between the user terminal 100 and the receiving terminal 102 or a second image indicating the position of the touch means.

정보 제공부(1810)는 감지부(1804)의 감지 결과에 따라 정보를 출력할 수 있다. 즉, 터치 수단이 사용자 단말기(100)에 근접하여 감지부(1804)에 의해 감지된 경우, 근접 정보가 출력될 수 있다. 근접 정보는 사용자의 촉각, 청각 또는 시각을 자극하도록 진동, 소리 또는 빛의 형태일 수 있다.The information provider 1810 may output information according to a detection result of the detector 1804. That is, when the touch means is detected by the detector 1804 in proximity to the user terminal 100, proximity information may be output. Proximity information may be in the form of vibration, sound or light to stimulate the user's sense of touch, hearing or vision.

한편, 정보 제공부(1810)는 터치 수단이 사용자 단말기(100)에 근접한 상태에 따라, 사용자 단말기(100)의 사용자가 다양한 촉각, 청각 또는 시각을 느낄 수 있도록 다양한 유형으로 촉각, 시각 또는 청각을 사용자에게 제공할 수 있다. On the other hand, the information providing unit 1810 according to the state in which the touch means is close to the user terminal 100, the user of the user terminal 100 in a variety of types so that the user can feel a variety of tactile, auditory or visual sense, the sense of touch, sight or hearing Can be provided to the user.

예를 들어, 사용자 단말기(100)가 터치 수단의 근접 터치를 인식한 상태에서 터치 수단이 이동하는 동안, 정보 제공부(1810)는 연속적인 진동, 소리 또는 빛을 발생시킬 수 있다. 즉, 최초 터치 수단의 근접 터치가 인식된 경우에는 짧게 1회 진동이 발생되고, 추후 터치 수단이 이동하는 경우 연속적으로 진동이 발생될 수 있다. 다시 설명하면, 최초 터치 수단의 근접 터치가 인식된 경우에는 제 1 시간 동안 진동이 발생되고 추후 터치 수단이 이동하는 경우 제 2 시간 동안 진동이 발생될 수 있다. 여기서 제 2 시간은 제 1 시간보다 길 수 있다.For example, the information providing unit 1810 may generate continuous vibration, sound, or light while the touch means moves while the user terminal 100 recognizes a proximity touch of the touch means. That is, when the proximity touch of the first touch means is recognized, one short vibration may be generated, and when the touch means moves later, vibration may be continuously generated. In other words, when the proximity touch of the first touch means is recognized, vibration may occur during the first time, and when the touch means moves later, vibration may occur during the second time. The second time may be longer than the first time.

또는, 최초 근접 터치가 인식된 경우에는 진동, 이후 터치 수단이 이동하는 경우에는 소리가 정보 제공부(1810)로부터 제공될 수 있다.Alternatively, vibration may be provided when the first proximity touch is recognized, and sound may be provided from the information providing unit 1810 when the touch means is moved.

다른 예로, 정보 제공부(1810)는 터치 수단이 사용자 단말기(100)의 화면에 표시된 이미지 중 폴더, 제어 UI 등과 같이 기설정된 개체로 근접하면 소리 등의 근접 정보를 사용자에게 발생시킬 수도 있다. 즉, 도 3 및 도 4에서 설명된 바와 같이 터치 수단이 기 설정된 위치에 존재하는 경우 터치 수단의 위치 이미지가 변경될 수 있는데, 이 때 정보 제공부(1810)는 근접 정보를 출력할 수 있으며 근접 정보는 이벤트 발생 정보에 대응될 수 있다. 따라서, 사용자는 상기 개체를 즉시 인지할 수 있다. As another example, the information providing unit 1810 may generate proximity information such as a sound to the user when the touch means approaches a preset object such as a folder or a control UI among images displayed on the screen of the user terminal 100. That is, as illustrated in FIGS. 3 and 4, when the touch means exists at a preset position, the position image of the touch means may be changed. At this time, the information providing unit 1810 may output the proximity information and the proximity The information may correspond to event occurrence information. Thus, the user can immediately recognize the object.

정보 제공부(1810)는, 감지부(1804)가 상기 터치 수단의 근접 상태를 인식한 경우, 제 1 시간 동안 근접 정보를 제공하며, 감지부(1804)가 터치 수단의 근접 상태를 인식한 상태에서 터치 수단이 이동하는 경우, 제 2 시간 동안 근접 정보를 제공할 수 있다. 제 2 시간은 감지부(1804)가 터치 수단의 근접 상태를 인식한 상태에서 터치 수단이 이동하는 시간에 대응되는 시간일 수 있다.The information providing unit 1810 provides the proximity information for a first time when the sensing unit 1804 recognizes the proximity state of the touch means, and the sensing unit 1804 recognizes the proximity state of the touch means. When the touch means moves in, the proximity information may be provided for a second time. The second time may be a time corresponding to a time when the touch unit moves in a state where the sensing unit 1804 recognizes a proximity state of the touch unit.

또한 정보 제공부(1810)는, 감지부(1804)가 터치 수단의 근접 상태를 인식한 제1경우와 감지부(1804)가 터치 수단의 근접 상태를 인식한 상태에서 터치 수단이 이동하는 제2경우에 각각 다른 형태의 근접 정보를 제공할 수 있다. 전술된 바와 같이 제1경우에는 진동, 제2경우에는 소리를 제공할 수 있거나 또는 제1경우에는 제1패턴의 진동 제2경우에는 사용자가 터치 수단의 이동을 느낄 수 있도록 제2패턴의 진동을 제공할 수 있다.Also, the information providing unit 1810 may include a first case in which the sensing unit 1804 recognizes the proximity state of the touch means and a second in which the touch means moves in the state in which the sensing unit 1804 recognizes the proximity state of the touch means. In this case, different types of proximity information may be provided. As described above, in the first case, vibration may be provided in the second case, or in the second case, the first pattern may be vibrated. In the second case, the second pattern may be vibrated so that the user can feel the movement of the touch means. Can provide.

한편, 정보 제공부(1810)는 감지부(1804)의 근접 상태 인식 이후, 터치 수단이 디스플레이부(1802)를 터치한 경우에는, 근접 정보를 제공하지 않음으로써, 사용자는 근접 상태와 직접 터치를 구분할 수 있다. On the other hand, when the touch means touches the display 1802 after the sensor 1804 recognizes the proximity state, the information provider 1810 does not provide proximity information, so that the user may directly touch the proximity state. Can be distinguished.

또한 정보 제공부(1810)는 터치 수단이 디스플레이부(1802)를 터치한 이후, 감지부(1804)가 두번째로 터치 수단의 근접 상태를 인식한 경우, 근접 정보를 제공할 수 있다. 터치 수단이 사용자 단말기(100)에 근접하고 사용자 단말기(100)를 터치하면, 터치 수단은 사용자 단말기(100)로부터 이격된다. 즉, 터치 목적을 달성하였기 때문에 다음 동작을 위해 터치 수단은 사용자 단말기(100)로부터 이격되는데 이 때, 다시 근접 상태가 발생한다. 이 경우는 터치 수단이 디스플레이부(1802)를 터치한 이후 최초의 근접 상태로서 사용자가 의도적으로 근접 상태를 발생한 것이 아니기 때문에, 정보 제공부(1810)는 근접 정보를 제공하지 않는다. 그리고 두번째 근접 상태가 발생한 경우, 즉, 사용자가 의도적으로 근접 상태를 발생한 경우, 정보 제공부(1810)는 근접 정보를 제공할 수 있다.In addition, the information providing unit 1810 may provide proximity information when the sensing unit 1804 recognizes the proximity state of the touch unit for the second time after the touch unit touches the display unit 1802. When the touch means is close to the user terminal 100 and touches the user terminal 100, the touch means is spaced apart from the user terminal 100. That is, since the touch object is achieved, the touch means is spaced apart from the user terminal 100 for the next operation. At this time, the proximity state occurs again. In this case, the information providing unit 1810 does not provide the proximity information because the touch means does not intentionally generate the proximity state as the first proximity state after touching the display 1802. When the second proximity state occurs, that is, when the user intentionally generates the proximity state, the information provider 1810 may provide the proximity information.

모드 변경부(1812)는 사용자의 입력에 따라 터치 모드를 변경시키며, 터치 모드는 근접 터치 모드(1820) 및 직접 터치 모드(1822)를 포함할 수 있다. . 여기서, 사용자 입력은 스위치를 통하여 이루어질 수 있다. 스위치는 벨/진동 변환 스위치와 같이 구성될 수 있다.The mode changing unit 1812 changes the touch mode according to the user's input, and the touch mode may include a proximity touch mode 1820 and a direct touch mode 1822. . Here, the user input may be made through a switch. The switch can be configured as a bell / vibration changeover switch.

근접 터치 모드(1820)에서 근접한 터치 수단의 위치 이미지가 사용자 단말기(100) 또는 수신 단말기(102)에 디스플레이될 수 있다. 또한 기설정된 압력 레벨 또는 면적 이하로 사용자 단말기(100)를 터치하는 터치 수단의 위치 이미지가 사용자 단말기(100) 또는 수신 단말기(102)에 디스플레이될 수 있다.In the proximity touch mode 1820, the position image of the touch device in proximity may be displayed on the user terminal 100 or the receiving terminal 102. In addition, the position image of the touch means for touching the user terminal 100 below a predetermined pressure level or area may be displayed on the user terminal 100 or the receiving terminal 102.

근접 터치 모드에서 사용자 단말기(100)는, 사용자 단말기(100)에 근접한 터치 수단의 위치를 인식하고, 터치 압력 레벨 및 면적에 따라 터치수단의 위치를 직접 터치 모드에서 사용자 단말기(100)는 터치 수단의 터치를 터치 입력으로 인식한다.In the proximity touch mode, the user terminal 100 recognizes the position of the touch means close to the user terminal 100, and the user terminal 100 touches the position of the touch means according to the touch pressure level and area in the direct touch mode. Recognize the touch as a touch input.

일 실시예에 따르면, 모드 변경부(1812)는 사용자 단말기(100)와 수신 단말기(102)의 연동 시작시 터치 모드를 변경하거나 사용자의 명령, 예를 들어 사용자의 터치, 음성 데이터 또는 영상 데이터에 따라 상기 터치 모드를 변경할 수 있다. 예를 들어, 사용자는 사용자 단말기(100)에 표시된 메뉴를 선택하여 터치 모드를 변경할 수 있으며, 또는 사용자의 음성 또는 모션과 같은 영상을 통해 터치 모드를 변경할 수 있다.According to an embodiment, the mode changing unit 1812 may change the touch mode when the user terminal 100 and the receiving terminal 102 start interlocking, or may change a user's command, for example, a user's touch, voice data, or image data. Accordingly, the touch mode may be changed. For example, the user may change the touch mode by selecting a menu displayed on the user terminal 100, or may change the touch mode through an image such as a voice or a motion of the user.

위의 터치 모드 변경 기능은 사용자 단말기(100)와 수신 단말기(102)의 연동이 시작되었을 때만 제공될 수도 있고, 연동과 관계없이 사용자 단말기(100)에 제공될 수도 있다. 또한, 터치 모드 변경 기능은 연동시의 경우에도 연동이 시작되면 자동적으로 제공될 수도 있고 연동 후 사용자가 기능 선택시 제공될 수도 있다. 스마트폰과 같이 작은 화면에서 터치 수단이 근접할 때 감지하여 해당 이미지를 스마트폰에 표시하면 유용할 수 있으며, 이러한 기기에서는 연동과 관계없이 터치 모드 변경 기능이 제공되는 것이 유리하다. The above touch mode change function may be provided only when the interworking of the user terminal 100 and the receiving terminal 102 starts or may be provided to the user terminal 100 regardless of the interworking. In addition, the touch mode change function may be automatically provided when the interlocking is started, or may be provided when the user selects the function after the interlocking. It may be useful to detect when a touch means is near on a small screen such as a smartphone and display the corresponding image on the smartphone. In such a device, it is advantageous to provide a touch mode change function regardless of interworking.

본 발명의 다른 실시예에 따르면, 사용자 단말기(100)에 근접 터치 모드, 직접 터치 모드 외에 연동 모드가 추가적으로 제공될 수도 있다. 예를 들어, 사용자가 스마트폰 또는 태블릿 PC 등과 같은 사용자 단말기(100)를 소지한 상태에서 수신 단말기(102)와 연동시키고 싶은 경우, 사용자는 연동 모드를 선택할 수 있다. 사용자가 연동 모드를 선택하면 사용자 단말기(100)는 주변의 디스플레이 장치를 검색하여 검색된 수신 단말기(102)와 연동을 시작할 수 있으며, 연동 시작시 근접 터치 모드와 직접 터치 모드를 선택할 수 있는 메뉴를 사용자 단말기(100)에 디스플레이시킬 수 있다. According to another embodiment of the present invention, the user terminal 100 may additionally be provided with an interlocking mode in addition to the proximity touch mode and the direct touch mode. For example, when the user wants to interwork with the receiving terminal 102 while holding the user terminal 100 such as a smartphone or a tablet PC, the user may select an interlocking mode. When the user selects the interlocking mode, the user terminal 100 may start interlocking with the searched receiving terminal 102 by searching for a display device around the user, and may select a proximity touch mode and a direct touch mode when the interworking starts. It may be displayed on the terminal 100.

위에서 설명하지 않았지만, 터치 모드 변경의 선택은 사용자 단말기(100)에 디스플레이된 메뉴를 선택하는 방법 외에도 스마트폰의 측면, 전면 등에 제공된 버튼을 누름에 의해 실행될 수도 있다. Although not described above, the selection of the change of the touch mode may be executed by pressing a button provided on the side, the front of the smartphone, etc. in addition to the method of selecting the menu displayed on the user terminal 100.

제어부(1800)는 사용자 단말기(100)의 구성요소들의 동작을 전반적으로 제어한다. The controller 1800 generally controls the operations of the components of the user terminal 100.

도 19는 본 발명의 일 실시예에 따른 수신 단말기의 구조를 도시한 블록도이다. 19 is a block diagram showing the structure of a receiving terminal according to an embodiment of the present invention.

도 19를 참조하면, 본 실시예의 수신 단말기(102)는 제어부(1900), 연동부(1902), 송수신부(1904), 신호부(1906), 이미지부(1908), 디스플레이부(1910), 동작 실행부(1912) 및 저장부(1914)를 포함할 수 있다. Referring to FIG. 19, the receiving terminal 102 of the present embodiment includes a control unit 1900, an interlocking unit 1902, a transceiver 1904, a signal unit 1906, an image unit 1908, a display unit 1910, It may include an operation execution unit 1912 and a storage unit 1914.

연동부(1902)는 사용자 단말기(100)와의 연동 기능을 관리한다. The linkage unit 1902 manages a linkage function with the user terminal 100.

송수신부(1904)는 사용자 단말기(100)의 통신 통로 역할을 수행한다. The transceiver 1904 serves as a communication path of the user terminal 100.

신호부(1906)는 정보 전송부(1920) 및 정보 수신부(1922)를 포함할 수 있다.The signal unit 1906 may include an information transmitter 1920 and an information receiver 1922.

정보 전송부(1920)는 제 1 이미지에 해당하는 이미지 데이터를 사용자 단말기(100)로 전송한다.The information transmitter 1920 transmits image data corresponding to the first image to the user terminal 100.

정보 수신부(1922)는 사용자 단말기(100)로부터 전송된 터치 수단의 위치 정보 또는 이벤트 실행 개체의 선택 정보를 수신할 수 있다. The information receiver 1922 may receive the position information of the touch means or the selection information of the event execution object transmitted from the user terminal 100.

이미지부(1908)는 제 1 이미지를 디스플레이부(1910)를 통하여 디스플레이시키고, 상기 수신된 터치 수단의 위치 정보에 해당하는 제 2 이미지를 상기 제 1 이미지와 함께 디스플레이시킨다. 본 발명의 다른 실시예에 따르면, 이미지부(1908)는 상기 제 1 이미지와 상기 제 2 이미지를 합성하고, 합성 결과로서 합성 이미지를 디스플레이부(1910)를 통하여 디스플레이할 수 있다. The image unit 1908 displays the first image through the display unit 1910 and displays a second image corresponding to the received position information of the touch unit together with the first image. According to another embodiment of the present invention, the image unit 1908 may synthesize the first image and the second image, and display the synthesized image through the display unit 1910 as a result of the synthesis.

디스플레이부(1910)는 이미지를 디스플레이시키는 한 제한이 없으며, 예를 들어 LCD, OLED 또는 PDP 등으로 구현될 수 있다. 디스플레이부(1910)는 터치 기능을 가지지 않아도 된다. The display unit 1910 is not limited as long as it displays an image, and may be implemented by, for example, an LCD, an OLED, or a PDP. The display unit 1910 does not have to have a touch function.

동작 실행부(1912)는 이벤트 실행 개체의 선택 정보에 해당하는 동작을 실행시킬 수 있다. The action executor 1912 may execute an action corresponding to the selection information of the event execution object.

저장부(1914)는 제 1 이미지, 제 2 이미지, 합성 이미지, 응용 프로그램 등과 같은 다양한 데이터를 저장한다. The storage unit 1914 stores various data such as a first image, a second image, a composite image, an application program, and the like.

제어부(1900)는 수신 단말기(102)의 구성요소들의 동작을 전반적으로 제어한다.
The controller 1900 generally controls the operations of the components of the receiving terminal 102.

한편, 전술된 실시예의 구성 요소는 프로세스적인 관점에서 용이하게 파악될 수 있다. 즉, 각각의 구성 요소는 각각의 프로세스로 파악될 수 있다. 또한 전술된 실시예의 프로세스는 장치의 구성 요소 관점에서 용이하게 파악될 수 있다.
On the other hand, the components of the above-described embodiment can be easily identified from a process point of view. That is, each component can be identified as a respective process. In addition, the process of the above-described embodiment can be easily understood in terms of the components of the apparatus.

또한 앞서 설명한 기술적 내용들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예들을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, the technical contents described above may be embodied in the form of program instructions that may be executed by various computer means and may be recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

상기한 본 발명의 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대한 통상의 지식을 가지는 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다. The embodiments of the present invention described above are disclosed for purposes of illustration, and those skilled in the art having ordinary knowledge of the present invention may make various modifications, changes, and additions within the spirit and scope of the present invention. Should be considered to be within the scope of the following claims.

100 : 사용자 단말기 102 : 수신 단말기
110 : 제 1 이미지 112 : 제 2 이미지
114 : 제 3 이미지
100: user terminal 102: receiving terminal
110: first image 112: second image
114: the third image

Claims (23)

수신 단말기로부터 수신된 이미지 데이터를 디코딩하는 디코딩부;
상기 디코딩된 이미지를 디스플레이하는 터치 디스플레이부;
상기 디코딩된 이미지에 포함된 이벤트 실행 개체에 대한 선택 정보를 상기 수신 단말기로 전송하는 정보 전송부;
상기 터치 디스플레이부로부터 기 설정된 거리 내에 위치한 터치 수단의 위치 이미지를 생성하는 이미지 생성부; 및
사용자의 입력에 따라 터치 모드를 변경하는 모드 변경부를 포함하되,
상기 터치 디스플레이부는 상기 위치 이미지를 디스플레이하며,
상기 터치 모드는,
상기 위치 이미지를 디스플레이하는 제 1 터치 모드; 및
상기 위치 이미지를 디스플레이하지 않는 제 2 터치 모드를 포함하는
사용자 단말기.
A decoding unit for decoding the image data received from the receiving terminal;
A touch display unit to display the decoded image;
An information transmitter for transmitting selection information on an event execution object included in the decoded image to the receiving terminal;
An image generator configured to generate a position image of the touch means positioned within a predetermined distance from the touch display unit; And
Including a mode changer for changing the touch mode according to the user input,
The touch display unit displays the location image,
The touch mode,
A first touch mode of displaying the position image; And
A second touch mode that does not display the location image
User terminal.
제1항에 있어서,
상기 선택 정보는
상기 이벤트 실행 개체의 선택을 위한 터치 입력에 대응되는 위치 정보를 포함하는
사용자 단말기.
The method of claim 1,
The selection information is
Location information corresponding to a touch input for selecting the event execution object;
User terminal.
제1항에 있어서,
상기 선택 정보는
터치 입력에 따라 선택된 상기 이벤트 실행 개체의 실행을 위한 제어 정보를 포함하는
사용자 단말기.
The method of claim 1,
The selection information is
Control information for executing the event execution object selected according to the touch input
User terminal.
제1항에 있어서, 상기 이미지 데이터는
상기 수신 단말기에 디스플레이되는 이미지의 전부 또는 일부에 대한 이미지 데이터인
사용자 단말기.
The method of claim 1, wherein the image data
Image data for all or part of an image displayed on the receiving terminal.
User terminal.
삭제delete 제1항에 있어서, 상기 이미지 생성부는
상기 터치 디스플레이부를 기 설정된 압력 레벨 또는 면적 레벨 이하로 터치하는 터치 수단의 위치 이미지를 생성하는
사용자 단말기.
The method of claim 1, wherein the image generating unit
To generate a position image of the touch means for touching the touch display unit below a predetermined pressure level or area level
User terminal.
삭제delete 제1항에 있어서, 터치 수단이 상기 이벤트 실행 개체 또는 기설정된 위치에 위치하였는지에 따라 상기 터치 수단의 위치를 나타내는 위치 이미지의 형상이 다른
사용자 단말기.
The shape of the position image representing the position of the touch means is different according to whether the touch means is located at the event execution object or a predetermined position.
User terminal.
삭제delete 삭제delete 수신 단말기와 이미지를 공유하는 단계;
상기 이미지에 포함된 이벤트 실행 개체에 대한 선택 정보를 입력받는 단계;
상기 선택 정보를 상기 수신 단말기로 전송하는 단계;
사용자 단말기로부터 기설정된 거리 내에 위치한 터치 수단의 위치 이미지를 생성하는 단계;
상기 생성된 위치 이미지를 디스플레이하는 단계; 및
사용자의 입력에 따라 터치 모드를 변경하는 단계를 포함하되,
상기 터치 모드는,
상기 위치 이미지를 디스플레이하는 제 1 터치 모드; 및
상기 위치 이미지를 디스플레이하지 않는 제 2 터치 모드
를 포함하는 단말기 연동 방법.
Sharing an image with a receiving terminal;
Receiving selection information on an event execution object included in the image;
Transmitting the selection information to the receiving terminal;
Generating a position image of the touch means located within a predetermined distance from the user terminal;
Displaying the generated position image; And
Changing the touch mode according to a user input,
The touch mode,
A first touch mode of displaying the position image; And
A second touch mode that does not display the location image
Terminal interworking method comprising a.
제11항에 있어서, 상기 선택 정보는
상기 이벤트 실행 개체의 선택을 위한 터치 입력에 대응되는 위치 정보를 포함하는
단말기 연동 방법.
The method of claim 11, wherein the selection information is
Location information corresponding to a touch input for selecting the event execution object;
Terminal interworking method.
제11항에 있어서, 상기 선택 정보는
터치 입력에 따라 선택된 상기 이벤트 실행 개체의 실행을 위한 제어 정보를 포함하는
단말기 연동 방법.
The method of claim 11, wherein the selection information is
Control information for executing the event execution object selected according to the touch input
Terminal interworking method.
제11항에 있어서, 상기 이미지는
상기 수신 단말기에 디스플레이되는 이미지의 전부 또는 일부인
단말기 연동 방법.
The method of claim 11, wherein the image is
All or part of the image displayed on the receiving terminal
Terminal interworking method.
삭제delete 제11항에 있어서, 상기 위치 이미지는
상기 사용자 단말기를 기설정된 압력 레벨 또는 면적 레벨 이하로 터치하는 터치 수단의 이미지인
단말기 연동 방법.
The method of claim 11, wherein the location image is
An image of the touch means for touching the user terminal to a predetermined pressure level or area level or less
Terminal interworking method.
삭제delete 제11항에 있어서,
터치 수단이 상기 이벤트 실행 개체 또는 기설정된 위치에 위치하였는지에 따라 상기 터치 수단의 위치를 나타내는 위치 이미지의 형상을 변경하는 단계
를 더 포함하는 단말기 연동 방법.
The method of claim 11,
Changing the shape of the position image representing the position of the touch means according to whether the touch means is located at the event execution object or a predetermined position;
Terminal interworking method further comprising.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020130020521A 2012-03-08 2013-02-26 System and method for interworking and controlling devices KR102046181B1 (en)

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
KR20120024092 2012-03-08
KR1020120024092 2012-03-08
KR1020120024073 2012-03-08
KR20120024073 2012-03-08
KR1020120033047 2012-03-30
KR1020120032982 2012-03-30
KR20120032982 2012-03-30
KR20120033047 2012-03-30
KR20120043148 2012-04-25
KR1020120043148 2012-04-25

Publications (2)

Publication Number Publication Date
KR20130103362A KR20130103362A (en) 2013-09-23
KR102046181B1 true KR102046181B1 (en) 2019-11-19

Family

ID=49452719

Family Applications (5)

Application Number Title Priority Date Filing Date
KR1020120058000A KR101384493B1 (en) 2012-03-06 2012-05-31 System for interworking and controlling devices and user device used in the same
KR1020120057998A KR101337665B1 (en) 2012-03-06 2012-05-31 System for interworking and controlling devices and user device used in the same
KR1020130020521A KR102046181B1 (en) 2012-03-08 2013-02-26 System and method for interworking and controlling devices
KR1020130086304A KR20130103457A (en) 2012-03-08 2013-07-22 System for interworking and controlling devices and user device used in the same
KR1020130086308A KR20130103458A (en) 2012-03-08 2013-07-22 System for interworking and controlling devices and user device used in the same

Family Applications Before (2)

Application Number Title Priority Date Filing Date
KR1020120058000A KR101384493B1 (en) 2012-03-06 2012-05-31 System for interworking and controlling devices and user device used in the same
KR1020120057998A KR101337665B1 (en) 2012-03-06 2012-05-31 System for interworking and controlling devices and user device used in the same

Family Applications After (2)

Application Number Title Priority Date Filing Date
KR1020130086304A KR20130103457A (en) 2012-03-08 2013-07-22 System for interworking and controlling devices and user device used in the same
KR1020130086308A KR20130103458A (en) 2012-03-08 2013-07-22 System for interworking and controlling devices and user device used in the same

Country Status (1)

Country Link
KR (5) KR101384493B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9956878B2 (en) 2014-03-07 2018-05-01 Volkswagen Ag User interface and method for signaling a 3D-position of an input means in the detection of gestures
KR20160122501A (en) * 2015-04-14 2016-10-24 엘지전자 주식회사 Display device and wearable device comprised in synchronizing system and controlling method thereof
CN105786377B (en) * 2016-02-17 2019-08-06 京东方科技集团股份有限公司 Touch-control monitoring method and device, terminal
KR102268788B1 (en) * 2018-02-14 2021-06-24 주식회사 하이딥 Portable terminal comprising touch sensor and pressure sensor in side part of the portable terminal
KR102639085B1 (en) * 2019-08-06 2024-02-22 현대자동차주식회사 Detachable control apparatus using electromagnet and method for controlling the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100980741B1 (en) * 2010-06-09 2010-09-07 백규현 A remote controller and a method for remote contrlling a display

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101513023B1 (en) * 2008-03-25 2015-04-22 엘지전자 주식회사 Terminal and method of displaying information therein
KR101513025B1 (en) * 2008-05-08 2015-04-17 엘지전자 주식회사 Mobile terminal and method of notifying information therein
KR101474452B1 (en) * 2008-08-04 2014-12-19 엘지전자 주식회사 Method for controlling touch input of mobile terminal
KR20110027117A (en) * 2009-09-09 2011-03-16 삼성전자주식회사 Electronic apparatus with touch panel and displaying method thereof
KR101210298B1 (en) * 2009-12-18 2012-12-10 에스케이플래닛 주식회사 User interface method for using touch input and terminal
KR101616439B1 (en) * 2010-01-20 2016-04-29 엘지전자 주식회사 Multi-display Device, Electronic Device And Method Of Controlling The Multi-display Device
KR101099838B1 (en) * 2010-06-02 2011-12-27 신두일 Remote a/s method using video phone call between computer and mobile phone

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100980741B1 (en) * 2010-06-09 2010-09-07 백규현 A remote controller and a method for remote contrlling a display

Also Published As

Publication number Publication date
KR20130103268A (en) 2013-09-23
KR101337665B1 (en) 2013-12-06
KR20130103362A (en) 2013-09-23
KR20130103267A (en) 2013-09-23
KR101384493B1 (en) 2014-04-10
KR20130103457A (en) 2013-09-23
KR20130103458A (en) 2013-09-23

Similar Documents

Publication Publication Date Title
US10656895B2 (en) System for linking and controlling terminals and user terminal used in the same
US9513802B2 (en) Methods for displaying a user interface on a remote control device and a remote control device applying the same
US9407683B2 (en) Information processing device, table, display control method, program, portable terminal, and information processing system
US9811303B2 (en) Display apparatus, multi display system including the same, and control method thereof
KR102046181B1 (en) System and method for interworking and controlling devices
CN101620510A (en) Information processing apparatus and vibration control method in information processing apparatus
US10386932B2 (en) Display apparatus and control method thereof
KR20160057740A (en) Display apparatus and control method thereof
US20130244730A1 (en) User terminal capable of sharing image and method for controlling the same
WO2022017421A1 (en) Interaction method, display device, emission device, interaction system, and storage medium
KR101212364B1 (en) System for interworking and controlling devices and user device used in the same
KR101151549B1 (en) System for interworking and controlling devices and user device used in the same
KR101771837B1 (en) Remote controller providing force input in a media system and method of driving the same
KR101515912B1 (en) User Terminal Capable of Sharing Image and Method for Controlling the Same
KR101951484B1 (en) System for interworking and controlling devices and reception device used in the same
KR20130129684A (en) System for interworking and controlling devices and user device used in the same
EP3528506B1 (en) Display device and method for operating same
US10742922B2 (en) Display device and operation method therefor
EP3992816A1 (en) Display device
KR20130101886A (en) System for interworking and controlling devices and reception device used in the same
KR20130129693A (en) System for interworking and controlling devices and user device used in the same
KR20170101168A (en) Control device for controlling an image processing terminal according to a sensing level and method of driving the same
KR20180098056A (en) Image display apparatus and operating method for the same
KR20130008999A (en) User interface navigation system for smart devices

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant