KR20130129693A - System for interworking and controlling devices and user device used in the same - Google Patents

System for interworking and controlling devices and user device used in the same Download PDF

Info

Publication number
KR20130129693A
KR20130129693A KR1020120053747A KR20120053747A KR20130129693A KR 20130129693 A KR20130129693 A KR 20130129693A KR 1020120053747 A KR1020120053747 A KR 1020120053747A KR 20120053747 A KR20120053747 A KR 20120053747A KR 20130129693 A KR20130129693 A KR 20130129693A
Authority
KR
South Korea
Prior art keywords
image
touch
terminal
user terminal
unit
Prior art date
Application number
KR1020120053747A
Other languages
Korean (ko)
Inventor
유창식
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020120053747A priority Critical patent/KR20130129693A/en
Publication of KR20130129693A publication Critical patent/KR20130129693A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72484User interfaces specially adapted for cordless or mobile telephones wherein functions are triggered by incoming communication events

Abstract

The present invention discloses a system for interlocking and controlling a terminal. A user terminal used in the system includes an image unit which outputs image data which is shared with a receiving terminal and a signal unit which transmits an image signal which includes the image data which is outputted from the image unit and a control signal which includes the location information of a touch unit which approaches the user terminal to the receiving terminal.

Description

단말기 연동 및 제어 시스템 및 이에 사용되는 사용자 단말기{SYSTEM FOR INTERWORKING AND CONTROLLING DEVICES AND USER DEVICE USED IN THE SAME}Terminal interworking and control system and user terminal used in the same {SYSTEM FOR INTERWORKING AND CONTROLLING DEVICES AND USER DEVICE USED IN THE SAME}

단말기 연동 및 제어 시스템 및 이에 사용되는 사용자 단말기{SYSTEM FOR INTERWORKING AND CONTROLLING DEVICES AND USER DEVICE USED IN THE SAME}Terminal interworking and control system and user terminal used in the same {SYSTEM FOR INTERWORKING AND CONTROLLING DEVICES AND USER DEVICE USED IN THE SAME}

최근, 사람들은 스마트폰 등의 전자 단말기를 이용하여 게임을 하거나 이메일을 확인하거나 웹 서핑을 즐긴다. 상기 전자단말기는 가볍고 작기 때문에 휴대하기가 편리한 장점이 있으나, 화면이 작아서 게임 등을 충분하게 즐길 수 없는 단점도 있다. 즉, 상기 전자단말기의 작은 사이즈로 인하여 게임, 웹 서핑 등의 즐거움이 반감되고 이메일 등을 확인하기가 불편하였다.Recently, people enjoy playing games, checking e-mails or surfing the web by using electronic terminals such as smartphones. The electronic terminal has the advantage of being convenient to carry because it is light and small, but there is also a disadvantage that the screen is not small enough to enjoy games. That is, due to the small size of the electronic terminal, the enjoyment of games, web surfing, etc. is halved and it is inconvenient to check e-mail.

본 발명은 큰 사이즈의 단말기와 작은 사이즈의 단말기를 연동시키고 큰 사이즈의 단말기를 보면서 작은 사이즈의 단말기를 제어할 수 있는 방법 및 시스템을 제공하는 것이다.The present invention provides a method and system for interlocking a large sized terminal with a small sized terminal and controlling the small sized terminal while viewing the large sized terminal.

상기한 바와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 단말기 연동 시스템에 사용되는 사용자 단말기는 수신 단말기와 공유될 이미지 데이터를 출력하는 이미지부; 및 상기 이미지부로부터 출력된 이미지 데이터를 가지는 이미지 신호 및 상기 사용자 단말기로 근접한 터치 수단의 위치 정보를 가지는 제어 신호를 상기 수신 단말기로 전송하는 신호부를 포함한다. In order to achieve the above object, the user terminal used in the terminal interworking system according to an embodiment of the present invention includes an image unit for outputting image data to be shared with the receiving terminal; And a signal unit for transmitting an image signal having the image data output from the image unit and a control signal having position information of the touch means close to the user terminal to the receiving terminal.

본 발명의 다른 실시예에 따른 단말기 연동 시스템에 사용되는 사용자 단말기는 수신 단말기와 공유될 제 1 이미지에 해당하는 이미지 데이터 및 터치 수단이 상기 사용자 단말기로 근접하였을 때의 상기 터치 수단의 위치를 표시하는 제 2 이미지에 해당하는 위치 표시 데이터를 생성하는 이미지부; 및 상기 이미지부에 의해 생성된 이미지 데이터 및 위치 표시 데이터를 상기 수신 단말기로 전송하는 신호부를 포함한다. A user terminal used in a terminal interworking system according to another embodiment of the present invention displays an image data corresponding to a first image to be shared with a receiving terminal and a position of the touch means when the touch means approaches the user terminal. An image unit generating position indication data corresponding to the second image; And a signal unit for transmitting the image data and the position indication data generated by the image unit to the receiving terminal.

본 발명의 또 다른 실시예에 따른 단말기 연동 시스템에 사용되는 사용자 단말기는 수신 단말기와 공유될 제 1 이미지와 터치 수단이 상기 사용자 단말기로 근접하였을 때의 상기 터치 수단의 위치를 표시하는 제 2 이미지를 합성한 합성 이미지에 해당하는 합성 이미지 데이터를 출력하는 이미지부; 및 상기 이미지부로부터 출력된 합성 이미지 데이터를 배신한 합성 신호를 상기 수신 단말기로 전송하는 신호부를 포함한다. A user terminal used in a terminal interworking system according to another embodiment of the present invention includes a first image to be shared with a receiving terminal and a second image indicating a position of the touch means when the touch means is close to the user terminal. An image unit configured to output synthesized image data corresponding to the synthesized synthesized image; And a signal unit which transmits the synthesized signal which has distributed the composite image data output from the image unit to the receiving terminal.

본 발명의 또 다른 실시예에 따른 단말기 연동 시스템에 사용되는 사용자 단말기는 제 1 이미지에 해당하는 이미지 데이터를 수신하는 이미지 신호부; 및 상기 사용자 단말기로 근접한 터치 수단의 위치 정보를 가지는 제어 신호를 수신 단말기로 전송하는 신호부를 포함한다. A user terminal used in a terminal interworking system according to another embodiment of the present invention includes an image signal unit for receiving image data corresponding to a first image; And a signal unit for transmitting a control signal having position information of the touch means close to the user terminal to the receiving terminal.

본 발명의 또 다른 실시예에 따른 단말기 연동 시스템에 사용되는 사용자 단말기는 제 1 이미지에 해당하는 이미지 데이터를 수신하는 이미지 신호부; 및 상기 사용자 단말기로 근접한 터치 수단의 위치 정보를 나타내는 제 2 이미지에 해당하는 위치 표시 데이터를 상기 수신 단말기로 전송하는 신호부를 포함한다. A user terminal used in a terminal interworking system according to another embodiment of the present invention includes an image signal unit for receiving image data corresponding to a first image; And a signal unit for transmitting the position indication data corresponding to the second image indicating the position information of the touch means close to the user terminal to the receiving terminal.

본 발명의 또 다른 실시예에 따른 단말기 연동 시스템에 사용되는 사용자 단말기는 제 1 이미지에 해당하는 이미지 데이터를 수신하는 이미지 신호부; 및 상기 사용자 단말기로 근접한 터치 수단의 위치 정보를 나타내는 제 2 이미지와 상기 수신된 이미지 데이터에 해당하는 제 1 이미지의 합성 이미지에 해당하는 합성 이미지 데이터를 상기 수신 단말기로 전송하는 신호부를 포함한다. A user terminal used in a terminal interworking system according to another embodiment of the present invention includes an image signal unit for receiving image data corresponding to a first image; And a signal unit configured to transmit the composite image data corresponding to the composite image of the first image corresponding to the second image representing the position information of the touch means close to the user terminal and the received image data to the receiving terminal.

본 발명의 또 다른 실시예에 따른 단말기 연동 시스템에 사용되는 사용자 단말기는 터치 수단의 근접시 상기 터치 수단의 위치를 감지하는 감지부; 및 상기 감지된 터치 수단의 위치에 대한 정보를 가지는 제어 신호를 상기 수신 단말기로 전송하는 신호부를 포함한다. A user terminal used in a terminal interworking system according to another embodiment of the present invention includes a sensing unit for detecting the position of the touch means in the proximity of the touch means; And a signal unit for transmitting a control signal having information about the position of the detected touch means to the receiving terminal.

본 발명의 또 다른 실시예에 따른 사용자 단말기는 디스플레이부; 및 A user terminal according to another embodiment of the present invention includes a display unit; And

이미지 정보 및 상기 사용자 단말기로 근접한 터치 수단의 위치 정보를 수신 단말기로 전송하는 신호부를 포함한다. It includes a signal unit for transmitting the image information and the location information of the touch means close to the user terminal to the receiving terminal.

본 발명의 또 다른 실시예에 따른 사용자 단말기는 디스플레이부; 및A user terminal according to another embodiment of the present invention includes a display unit; And

합성 이미지 데이터를 수신 단말기로 전송하는 신호부를 포함한다. 여기서, 상기 합성 이미지 데이터는 제 1 이미지 데이터 및 상기 사용자 단말기로 근접한 터치 수단의 위치를 나타내는 제 2 이미지 데이터를 가진다.And a signal unit for transmitting the composite image data to the receiving terminal. Here, the composite image data has first image data and second image data indicating a position of a touch means proximate to the user terminal.

본 발명에 단말기 연결 및 제어 방법 및 시스템은 제 1 이미지를 단말기들에 공유시킨 상태에서 작은 사이즈의 단말기에 대한 사용자의 제어 동작과 관련된 제 2 이미지를 큰 사이즈의 단말기의 제 1 이미지 위에 표시하므로, 사용자는 큰 사이즈의 단말기를 보면서 작은 사이즈의 단말기의 동작을 제어할 수 있다. 따라서, 사용자는 작은 사이즈의 단말기를 통하여 게임, 웹 서핑 등을 충분히 즐길 수 있다.Since the method and system for connecting and controlling a terminal according to the present invention share a first image with terminals, a second image related to a user's control of a small terminal is displayed on the first image of the large terminal. The user can control the operation of the small size terminal while looking at the large size terminal. Therefore, the user can fully enjoy games, surfing the web, and the like through a small size terminal.

도 1은 본 발명의 일 실시예에 따른 단말기 연동 및 제어 시스템을 개략적으로 도시한 도면이다.
도 2는 본 발명의 제 1 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다.
도 3은 도 2의 단말기 연동 및 제어 방법에 사용되는 제어 방법을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 이미지 공유 화면을 도시한 평면도이다.
도 5는 본 발명의 일 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다.
도 6은 본 발명의 다른 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다.
도 7은 본 발명의 또 다른 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다.
도 8은 본 발명의 제 2 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다.
도 9는 본 발명의 제 3 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다.
도 10은 본 발명의 다른 실시예에 따른 단말기 연동 시스템을 도시한 도면이다.
도 11은 본 발명의 제 4 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다.
도 12는 본 발명의 또 다른 실시예에 따른 단말기 연동 시스템을 도시한 도면이다.
도 13은 본 발명의 제 5 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다.
도 14는 본 발명의 또 다른 실시예에 따른 단말기 연동 시스템을 도시한 도면이다.
도 15는 본 발명의 일 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다.
도 16은 본 발명의 일 실시예에 따른 도 15의 이미지부의 구조를 도시한 블록도이다.
도 17은 본 발명의 제 2 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다.
도 18은 본 발명의 제 3 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다.
도 19는 본 발명의 제 4 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다.
도 20은 본 발명의 제 5 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다.
도 21은 본 발명의 제 1 실시예에 따른 수신 단말기의 구조를 도시한 블록도이다.
도 22는 본 발명의 제 2 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다.
도 23은 본 발명의 제 3 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다.
도 24는 본 발명의 제 4 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다.
도 25는 본 발명의 제 5 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다.
1 is a view schematically showing a terminal interworking and control system according to an embodiment of the present invention.
2 is a flowchart illustrating a terminal interworking and control method according to a first embodiment of the present invention.
3 is a diagram illustrating a control method used in the terminal interworking and control method of FIG. 2.
4 is a plan view illustrating an image sharing screen according to an exemplary embodiment of the present invention.
5 is a diagram illustrating a touch means sensing method according to an embodiment of the present invention.
6 is a view showing a touch means detection method according to another embodiment of the present invention.
7 is a diagram illustrating a touch means sensing method according to another embodiment of the present invention.
8 is a flowchart illustrating a terminal interworking and control method according to a second embodiment of the present invention.
9 is a flowchart illustrating a terminal interworking and control method according to a third embodiment of the present invention.
10 is a diagram illustrating a terminal interworking system according to another embodiment of the present invention.
11 is a flowchart illustrating a terminal interworking and control method according to a fourth embodiment of the present invention.
12 is a diagram illustrating a terminal interworking system according to another embodiment of the present invention.
13 is a flowchart illustrating a terminal interworking and control method according to a fifth embodiment of the present invention.
14 is a diagram illustrating a terminal interworking system according to another embodiment of the present invention.
15 is a block diagram showing the structure of a user terminal according to an embodiment of the present invention.
FIG. 16 is a block diagram illustrating a structure of the image unit of FIG. 15 according to an embodiment of the present invention. FIG.
17 is a block diagram showing the structure of a user terminal according to a second embodiment of the present invention.
18 is a block diagram showing the structure of a user terminal according to a third embodiment of the present invention.
19 is a block diagram showing the structure of a user terminal according to a fourth embodiment of the present invention.
20 is a block diagram showing the structure of a user terminal according to a fifth embodiment of the present invention.
21 is a block diagram showing the structure of a receiving terminal according to the first embodiment of the present invention.
22 is a block diagram showing the configuration of a receiving terminal according to a second embodiment of the present invention.
23 is a block diagram showing the configuration of a receiving terminal according to a third embodiment of the present invention.
24 is a block diagram showing a configuration of a receiving terminal according to a fourth embodiment of the present invention.
25 is a block diagram showing a configuration of a receiving terminal according to a fifth embodiment of the present invention.

이하에서는 첨부된 도면들을 참조하여 본 발명의 실시예들을 자세히 설명하도록 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 단말기 연동 및 제어 시스템은 단말기들을 연동시키고 제어하는 시스템, 특히 이미지 공유 및 공유된 이미지를 기초로 하여 단말기의 동작을 제어하는 시스템에 관한 것이다. 특히, 본 발명의 단말기 연동 및 제어 시스템은 사용자가 직접적으로 제어하는, 예를 들어 터치 방식으로 제어하는 작은 사이즈의 단말기와 큰 사이즈의 단말기를 연동시킨 후 사용자가 큰 사이즈의 단말기를 보면서 작은 사이즈의 단말기를 제어할 수 있는 다양한 방법들을 제안한다. 다만, 설명의 편의를 위하여 사용자가 직접적으로 제어하는 작은 사이즈의 단말기를 사용자 단말기라 하고 상기 사용자 단말기로부터의 터치 수단의 위치 정보를 수신하는 큰 사이즈의 단말기를 수신 단말기라 하겠다. 물론, 바람직하게는 사용자 단말기가 수신 단말기보다 작은 사이즈를 가지지만, 단말기들의 사이즈는 위의 사이즈로 한정되지는 않는다. Terminal interworking and control system of the present invention relates to a system for interlocking and controlling the terminals, in particular a system for controlling the operation of the terminal based on the image sharing and the shared image. In particular, the terminal interworking and control system of the present invention, after interlocking a small size terminal directly controlled by the user, for example, a touch method and a large size terminal, while the user looks at the large size terminal of the small size Various methods for controlling the terminal are proposed. However, for convenience of description, a small sized terminal directly controlled by a user is called a user terminal, and a large sized terminal that receives location information of the touch means from the user terminal is called a receiving terminal. Of course, the user terminal preferably has a smaller size than the receiving terminal, but the size of the terminals is not limited to the above size.

본 발명의 시스템에 사용되는 단말기는 이미지를 디스플레이할 수 있는 기능 및 유선/무선 통신 기능을 가지나, 통신 기능은 필수적인 기능은 아니다. 다만, 실생활 적용을 고려하면, 각 단말기들은 이미지 디스플레이 기능 및 통신 기능을 가지는 것이 바람직하다. 상기 단말기는 이미지를 디스플레이시키고 다른 단말기와 신호를 송수신할 수 있는 한 특정 장치로 제한되지는 않으며, 예를 들어 스마트폰, 스마트 TV, PC, 태블릿 PC, 노트북, 터치 패드, 게임기, 클라우드 PC 등과 같은 다양한 기기들이 본 발명의 단말기로서 사용될 수 있다. 다만, 작은 사이즈를 가지는 단말기는 터치 기능을 가지는 것이 바람직하다. The terminal used in the system of the present invention has a function of displaying an image and a wired / wireless communication function, but the communication function is not an essential function. However, considering the real life application, it is preferable that each terminal has an image display function and a communication function. The terminal is not limited to a specific device as long as it can display an image and transmit or receive a signal with another terminal, for example, a smartphone, a smart TV, a PC, a tablet PC, a laptop, a touch pad, a game console, a cloud PC, or the like. Various devices can be used as the terminal of the present invention. However, it is preferable that a terminal having a small size has a touch function.

이하, 본 발명의 다양한 실시예들에 따른 단말기 연동 및 제어 시스템을 첨부된 도면들을 참조하여 상술하겠다. 다만, 설명의 편의를 위하여 단말기들이 공유하는 이미지를 제 1 이미지라 하고, 터치 수단의 위치 정보를 나타내는 이미지를 제 2 이미지(위치 표시 이미지)라 하겠다. Hereinafter, a terminal interworking and control system according to various embodiments of the present invention will be described with reference to the accompanying drawings. However, for convenience of description, an image shared by the terminals will be referred to as a first image, and an image representing position information of the touch means will be referred to as a second image (location display image).

도 1은 본 발명의 일 실시예에 따른 단말기 연동 및 제어 시스템을 개략적으로 도시한 도면이다. 1 is a view schematically showing a terminal interworking and control system according to an embodiment of the present invention.

도 1을 참조하면, 본 실시예의 단말기 연동 및 제어 시스템은 사용자 단말기(100) 및 수신 단말기(102)를 포함한다. Referring to FIG. 1, the terminal interworking and control system of the present embodiment includes a user terminal 100 and a receiving terminal 102.

사용자 단말기(100)는 사용자가 직접적으로 제어하는 이미지 디스플레이 가능한 단말기이며, 예를 들어 앵그리 버드 등과 같은 게임의 실행이 가능한 스마트폰일 수 있다. 바람직하게는, 사용자 단말기(100)는 터치 기능을 가지면서 상대적으로 작은 사이즈를 가지는 단말기이다. The user terminal 100 may be an image display terminal directly controlled by the user, and may be, for example, a smartphone capable of executing a game such as Angry Birds. Preferably, the user terminal 100 is a terminal having a touch function and having a relatively small size.

수신 단말기(102)는 사용자가 직접 조작하지는 않으나 사용자 단말기(100)와 연동하는 단말기이며, 이미지 디스플레이 가능한 단말기이다. 수신 단말기(102)는 사용자 단말기(100)와 다른 목적으로 사용되는 소자일 수 있으며, 예를 들어 드라마 등의 방송 프로그램을 방영하는 TV일 수 있다. 바람직하게는, 수신 단말기(102)는 상대적으로 큰 사이즈를 가지는 단말기이되, 필수적으로 터치 기능을 가질 필요는 없다. The receiving terminal 102 is a terminal which is not directly manipulated by a user but interlocks with the user terminal 100 and which can display an image. The reception terminal 102 may be an element used for a different purpose than the user terminal 100, and may be, for example, a TV that broadcasts a broadcast program such as a drama. Preferably, the receiving terminal 102 is a terminal having a relatively large size, but does not necessarily have a touch function.

사용자 단말기(100)가 자신이 디스플레이하는 제 1 이미지에 해당하는 이미지 데이터를 이미지 신호에 배신하여 해당 채널을 통하여 수신 단말기(102)로 전송하면, 수신 단말기(102)는 이미지 신호를 통하여 이미지 데이터를 획득하고, 상기 이미지 데이터에 해당하는 제 1 이미지를 디스플레이시킨다. 결과적으로, 사용자 단말기(100)와 수신 단말기(102)는 동일한 제 1 이미지를 디스플레이시키며, 즉 제 1 이미지를 공유한다. 다만, 수신 단말기(102)에 디스플레이되는 제 1 이미지는 사용자 단말기(100)에 디스플레이된 제 1 이미지와 실질적으로 동일하지만, 수신 단말기(102)의 단말기 특성으로 인하여 색감이 다르거나 디스플레이 비율 등이 다를 수는 있다. 수신 단말기(102)는 상기 전송된 이미지 데이터를 특별한 가공없이 그대로 해당 이미지로 디스플레이할 수도 있지만, 상기 전송된 이미지 데이터를 자신의 특성에 맞도록 가공하여 제 1 이미지를 디스플레이시킬 수도 있다. 즉, 수신 단말기(102)가 사용자 단말기(100)의 제 1 이미지와 실질적으로 동일한 이미지를 디스플레이시킬 수 있는 한 상기 송신된 이미지 데이터의 처리 방식은 다양하게 변형될 수 있다. When the user terminal 100 distributes the image data corresponding to the first image displayed by the user terminal to the image signal and transmits the image data to the receiving terminal 102 through the corresponding channel, the receiving terminal 102 transmits the image data through the image signal. Acquire and display a first image corresponding to the image data. As a result, the user terminal 100 and the receiving terminal 102 display the same first image, that is, share the first image. However, the first image displayed on the receiving terminal 102 is substantially the same as the first image displayed on the user terminal 100, but due to the characteristics of the terminal of the receiving terminal 102, the color is different or the display ratio is different. There is a number. Although the receiving terminal 102 may display the transmitted image data as a corresponding image without special processing, the receiving terminal 102 may display the first image by processing the transmitted image data according to its characteristics. That is, as long as the receiving terminal 102 can display an image substantially the same as the first image of the user terminal 100, the method of processing the transmitted image data may be variously modified.

사용자 단말기(100)의 제 1 이미지와 동일한 이미지가 수신 단말기(102)에 디스플레이될 때, 수신 단말기(102)는 기존 실행 프로그램을 중지하고 상기 제 1 이미지를 디스플레이시킬 수도 있고 기존 실행 프로그램은 실행시키되 별도의 채널을 통하여 실행시킬 수도 있다. 또한, 수신 단말기(102)는 상기 제 1 이미지가 디스플레이된 화면에 기존 실행 프로그램을 함께 디스플레이시킬 수도 있다. 예를 들어, 수신 단말기(102)는 예를 들어 기존 실행 프로그램인 드라마를 중지하고 사용자 단말기(100)에서 실행되는 앵그리 버드 게임의 제 1 이미지를 디스플레이시킬 수도 있고, 드라마를 별도의 채널로 전환하여 방영하고 상기 제 1 이미지를 해당 채널에 디스플레이시키거나 드라마를 현재 채널에서 계속적으로 방영하되 다른 채널에 상기 제 1 이미지를 디스플레이시킬 수도 있다. 또한, 수신 단말기(102)는 상기 제 1 이미지를 현재 채널에서 디스플레이시키되 방영되고 있었던 드라마를 별도의 팝업창으로 디스플레이시킬 수도 있다. 다만, 본 발명은 사용자가 사용자 단말기(100)의 제 1 이미지를 수신 단말기(102)를 통하여 보는 것이 목적이므로, 수신 단말기(102)는 현재 채널에서 실행되는 프로그램을 중지하거나 다른 채널을 통하여 디스플레이시키고 현재 채널의 화면을 상기 제 1 이미지가 디스플레이되는 화면으로 전환시키는 것이 바람직하다. When the same image as the first image of the user terminal 100 is displayed on the receiving terminal 102, the receiving terminal 102 may stop the existing executing program and display the first image or execute the existing executing program. It can also be run through a separate channel. In addition, the receiving terminal 102 may display the existing execution program together on the screen on which the first image is displayed. For example, the receiving terminal 102 may stop the drama, which is an existing execution program, and display the first image of the Angry Bird game that is executed in the user terminal 100, for example, by switching the drama to a separate channel. The first image may be broadcasted and the first image may be displayed on a corresponding channel, or the drama may be continuously broadcasted on the current channel, but the first image may be displayed on another channel. In addition, the receiving terminal 102 may display the first image on the current channel, but display the drama that was being aired in a separate pop-up window. However, since the present invention is intended for a user to view the first image of the user terminal 100 through the receiving terminal 102, the receiving terminal 102 stops a program executed in the current channel or displays the display through another channel. It is preferable to switch the screen of the current channel to the screen on which the first image is displayed.

본 발명의 다른 실시예에 따르면, 수신 단말기(102)가 사용자 단말기(100)로 이미지 신호를 전송하여 제 1 이미지를 공유할 수도 있다. 이 경우에도, 사용자의 동작(터치 동작)을 반영하는 제어 신호는 사용자 단말기(100)로부터 수신 단말기(102)로 전송된다. According to another embodiment of the present invention, the receiving terminal 102 may share the first image by transmitting an image signal to the user terminal 100. Even in this case, the control signal reflecting the user's operation (touch operation) is transmitted from the user terminal 100 to the receiving terminal 102.

사용자 단말기(100)와 수신 단말기(102)의 이미지 공유는 초기 한번만 수행되는 것이 아니고 사용자 단말기(100)의 제 1 이미지가 전환될 때마다 동일한 이미지가 수신 단말기(102)로 디스플레이된다. 따라서, 사용자가 사용자 단말기(100)를 조작하면 상기 조작에 해당하는 제 1 이미지가 수신 단말기(102)에 디스플레이된다. 특히, 수신 단말기(102)가 사용자 단말기(100)에 비하여 상대적으로 큰 사이즈를 가지므로, 사용자는 사용자 단말기(100)를 제어하되 시선은 수신 단말기(102)를 바라볼 수 있다. 즉, 사용자는 수신 단말기(102)를 보면서 사용자 단말기(100)를 조작할 수 있다. Image sharing between the user terminal 100 and the receiving terminal 102 is not performed only once, but the same image is displayed to the receiving terminal 102 whenever the first image of the user terminal 100 is switched. Therefore, when the user operates the user terminal 100, the first image corresponding to the operation is displayed on the receiving terminal 102. In particular, since the receiving terminal 102 has a relatively larger size than the user terminal 100, the user may control the user terminal 100, but the gaze may look at the receiving terminal 102. That is, the user may manipulate the user terminal 100 while looking at the receiving terminal 102.

다만, 사용자 단말기(100)를 보지 않으면 자신이 하는 동작을 파악하기 힘들고 수신 단말기(102)가 없으면 화면이 작으므로, 본 발명은 수신 단말기(102)를 보면서 사용자 단말기(100)를 용이하게 제어할 수 있는 다양한 방법들 및 시스템들을 제안한다. However, if the user terminal 100 is not viewed, it is difficult to grasp its own operation, and if the receiver terminal 102 is not present, the screen is small, so that the present invention can easily control the user terminal 100 while watching the receiver terminal 102. Various methods and systems are proposed.

본 발명의 일 실시예에 따르면, 사용자의 손가락 등과 같은 터치 수단이 사용자 단말기(100)의 터치 감지 영역, 예를 들어 화면에 근접하면 수신 단말기(102)에 디스플레이된 제 1 이미지에 상기 터치 수단에 해당하는 제 2 이미지, 예를 들어 그림자 이미지 등이 해당 위치에 표시될 수 있으며, 즉 터치 수단의 위치가 상기 제 1 이미지 위에 특정된다. 연동 시스템이 아닌 일반 PC 등일 경우 마우스를 움직이면 마우스의 위치가 정확한 위치에 특정되지 않고 스마트폰 등의 경우 터치하더라도 위치를 표시하는 이미지가 디스플레이되지 않는다. According to an embodiment of the present invention, when a touch means such as a user's finger is close to a touch sensing area of the user terminal 100, for example, a screen, the touch means may be displayed on the first image displayed on the receiving terminal 102. A corresponding second image, for example a shadow image, may be displayed at that location, ie the position of the touch means is specified above the first image. In the case of a general PC, not an interlocking system, if the mouse is moved, the position of the mouse is not specified to the exact position, and in the case of a smartphone, the image indicating the position is not displayed even if it is touched.

반면에, 본 발명은 사용자 단말기(100)와 수신 단말기(102)를 연동시키면서 사용자 단말기(100) 상의 터치 수단의 위치를 수신 단말기(102)에 그림자 이미지 등으로 특정시킨다. 따라서, 사용자는 사용자 단말기(100)를 보지 않고 수신 단말기(102)만 보면서도 자신이 터치한 위치 및 동작을 확인할 수 있어서 수신 단말기(102)를 보지 않고 수신 단말기(102)를 제어할 수 있다. 이어서, 사용자가 사용자 단말기(100)의 화면을 터치하고 움직이면 상기 움직임에 상응하여 상기 제 2 이미지의 위치가 변화될 수 있다. 이 경우, 상기 제 2 이미지가 그림자 이미지로서 계속 유지될 수도 있고, 상기 제 2 이미지로서 그림자 이미지가 손가락 이미지로 변화된 후 상기 손가락 이미지가 상기 움직임에 따라 상기 제 1 이미지 상에서 움직일 수도 있다. 따라서, 사용자는 수신 단말기(102)를 통하여 사용자 단말기(100)에서의 터치 수단의 조작 상황을 확인할 수 있으며, 그 결과 사용자는 사용자 단말기(100)를 보지 않고 수신 단말기(102)만을 보면서도 사용자 단말기(100)를 용이하게 제어할 수 있다. On the other hand, the present invention specifies the position of the touch means on the user terminal 100 to the receiving terminal 102 as a shadow image, while interlocking the user terminal 100 and the receiving terminal 102. Therefore, the user can check the position and the operation touched by the user while not looking at the user terminal 100 but can control the receiver terminal 102 without looking at the receiver terminal 102. Subsequently, when the user touches and moves the screen of the user terminal 100, the position of the second image may change according to the movement. In this case, the second image may be maintained as a shadow image, or the finger image may move on the first image according to the movement after the shadow image as the second image is changed to a finger image. Therefore, the user can check the operation status of the touch means in the user terminal 100 through the receiving terminal 102, and as a result, the user does not look at the user terminal 100, but only while looking at the receiving terminal 102. 100 can be easily controlled.

예를 들어, 사용자가 스마트폰으로 앵그리 버드 게임을 하고 있는 경우, 사용자는 큰 사이즈를 가지는 TV 화면만을 보면서 스마트폰을 조작하여 앵그리 버드 게임을 즐길 수 있다. 사용자 단말기(100)에 디스플레이된 제 1 이미지가 사용자의 조작에 따라 다른 제 1 이미지로 변경되면 수신 단말기(102)에도 동일한 제 1 이미지가 디스플레이되며, 이 경우 상기 제 2 이미지는 새로운 제 1 이미지 상에서 해당 위치에 표시된다. 상기 제 2 이미지는 사용자 단말기(100)에서의 좌표를 기준으로 하여 수신 단말기(102)의 화면에 표시될 수 있다. 물론, 상기 제 1 이미지는 사용자 단말기(100)의 이미지 데이터 전송에 따라 공유될 수도 있고 수신 단말기(102)의 이미지 데이터 전송에 따라 공유될 수도 있다. For example, when a user is playing an Angry Birds game with a smartphone, the user may enjoy the Angry Birds game by operating the smartphone while watching only a TV screen having a large size. If the first image displayed on the user terminal 100 is changed to another first image according to a user's operation, the same first image is displayed on the receiving terminal 102, in which case the second image is displayed on the new first image. It is displayed at that location. The second image may be displayed on the screen of the receiving terminal 102 based on the coordinates of the user terminal 100. Of course, the first image may be shared according to image data transmission of the user terminal 100 or may be shared according to image data transmission of the receiving terminal 102.

본 발명의 다른 실시예에 따르면, 사용자가 노트북과 같이 디스플레이부와 별도로 터치 감지부, 예를 들어 터치 패드를 구비한 사용자 단말기(100)에서 터치 감지부로 근접하면 이를 감지하여 수신 단말기(102)의 제 1 이미지에 제 2 이미지가 표시되도록 할 수도 있다. 즉, 사용자 단말기(100)가 터치 수단을 감지할 수 있는 한 터치 수단을 감지하는 영역은 사용자 단말기(100)의 특정 부분으로 제한되지는 않는다. According to another exemplary embodiment of the present invention, when the user approaches the touch sensing unit from the user terminal 100 having a touch sensing unit, for example, a touch pad, separately from the display unit, such as a laptop, the sensing unit 102 detects this. The second image may be displayed on the first image. That is, as long as the user terminal 100 can detect the touch means, the area for detecting the touch means is not limited to a specific portion of the user terminal 100.

정리하면, 사용자 단말기(100)와 수신 단말기(102)는 제 1 이미지를 공유하며, 사용자는 큰 사이즈를 가지는 수신 단말기(102)를 보면서 작은 사이즈를 가지는 사용자 단말기(100)를 용이하게 조작할 수 있다. 따라서, 사용자는 수신 단말기(102)를 보면서 사용자 단말기(100)의 이미지 상에서 손가락, 터치펜 등과 같은 터치 수단을 이동시킬 수도 있고 사용자 단말기(100)의 제 1 이미지 상에 표시된 메뉴 아이콘을 클릭하여 특정 기능을 실행시킬 수도 있다. 물론, 상기 실행에 따라 사용자 단말기(100)에 디스플레이된 새로운 제 1 이미지와 실질적으로 동일한 이미지가 수신 단말기(102)에 디스플레이된다. In summary, the user terminal 100 and the receiving terminal 102 share the first image, and the user can easily manipulate the user terminal 100 having the small size while viewing the receiving terminal 102 having the large size. have. Accordingly, the user may move the touch means such as a finger or a touch pen on the image of the user terminal 100 while looking at the receiving terminal 102 or click a menu icon displayed on the first image of the user terminal 100 to specify You can also run the function. Of course, according to the above execution, an image substantially identical to the new first image displayed on the user terminal 100 is displayed on the receiving terminal 102.

위에서는 설명하지 않았지만, 제 2 이미지가 일단 수신 단말기(102) 상에 특정된 후에는 제 2 이미지가 터치 수단의 움직임을 반영할 수도 있지만, 물리적 키보드, 화면 상에 표시된 키보드 등을 조작함에 따라 움직일 수도 있다. Although not described above, once the second image is specified on the receiving terminal 102, the second image may reflect the movement of the touch means, but the second image may be moved by manipulating a physical keyboard, a keyboard displayed on the screen, and the like. It may be.

본 발명의 다른 실시예에 따르면, 연동 시스템은 복수의 사용자 단말기들(100)과 하나의 수신 단말기(102)를 포함할 수 있다. 예를 들어, 다수의 사용자들이 동일 게임을 하고 있는 경우, 사용자 단말기들(100)은 수신 단말기(102)와 유선 또는 무선으로 연결된다. 사용자 단말기들(100)이 각기 해당 터치 수단들의 위치 정보를 수신 단말기(102)로 전송하면, 수신 단말기(102)는 동일 제 1 이미지 상에 상기 터치 수단들의 위치를 표시하는 제 2 이미지들을 디스플레이시킬 수 있다. 이 경우, 사용자 단말기들(100)과 수신 단말기(102)가 공유하는 제 1 이미지는 특정 사용자 단말기(100)가 수신 단말기(102)로 전송할 수 있다. According to another embodiment of the present invention, the companion system may include a plurality of user terminals 100 and one receiving terminal 102. For example, when a plurality of users are playing the same game, the user terminals 100 are wired or wirelessly connected to the receiving terminal 102. When the user terminals 100 respectively transmit the position information of the corresponding touch means to the receiving terminal 102, the receiving terminal 102 displays second images indicating the positions of the touch means on the same first image. Can be. In this case, the first image shared by the user terminals 100 and the receiving terminal 102 may be transmitted by the specific user terminal 100 to the receiving terminal 102.

본 발명의 또 다른 실시예에 따르면, 하나의 사용자 단말기(100)를 복수의 터치 수단들이 터치한 경우, 예를 들어 사용자가 좌우 손가락 하나씩으로 사용자 단말기(100)를 터치하거나 복수의 사용자들이 하나의 사용자 단말기(100)를 터치한 경우, 사용자 단말기(100)는 터치 수단들의 위치 정보들을 포함하는 제어 신호를 수신 단말기(102)로 전송하고, 수신 단말기(102)는 상기 제어 신호에 따라 제 1 이미지 위에 상기 위치 정보들에 해당하는 제 2 이미지들을 디스플레이할 수 있다. 물론, 상기 제 2 이미지들이 상호 구별되도록 모양, 색상 또는 사이즈가 다를 수 있다. 한편, 사용자 단말기(100)는 각 터치 수단의 위치 정보를 가지는 복수의 제어 신호들을 수신 단말기(102)로 전송할 수도 있다. According to another embodiment of the present invention, when a plurality of touch means touches one user terminal 100, for example, a user touches the user terminal 100 with one left and right fingers or a plurality of users When the user terminal 100 is touched, the user terminal 100 transmits a control signal including the location information of the touch means to the receiving terminal 102, and the receiving terminal 102 according to the control signal has a first image. Second images corresponding to the location information may be displayed. Of course, shapes, colors or sizes may be different so that the second images are distinguished from each other. Meanwhile, the user terminal 100 may transmit a plurality of control signals having location information of each touch means to the receiving terminal 102.

본 발명의 또 다른 실시예에 따르면, 사용자 단말기(100)는 복수의 감지 방법들을 실현하여 터치 수단들을 다른 방법으로 감지할 수 있다. 예를 들어, 사용자 단말기(100)는 손가락을 정전 용량 방식을 통하여 감지하고 터치 펜을 리시버를 활용하여 감지할 수 있다. 따라서, 사용자는 손가락과 터치 펜을 동시에 이용하여 멀티 터치를 구현할 수 있다. 결과적으로, 사용자는 복수의 터치 수단들을 이용하여 별개의 동작을 실현할 수 있다. According to another embodiment of the present invention, the user terminal 100 may sense the touch means by another method by realizing a plurality of sensing methods. For example, the user terminal 100 may sense a finger through a capacitive method and a touch pen using a receiver. Therefore, the user may implement multi-touch by simultaneously using a finger and a touch pen. As a result, the user can realize a separate operation by using a plurality of touch means.

본 발명의 또 다른 실시예에 따르면, 상기 연동 시스템은 사용자 단말기, 수신 단말기 및 연동 서버를 포함할 수 있다. 연동 서버는 제 1 이미지를 사용자 단말기와 수신 단말기에 모두 전송하여 동일 제 1 이미지를 디스플레이하도록 한 상태에서 사용자 단말기가 터치 수단의 위치 정보를 상기 수신 단말기에 전송하여 상기 제 1 이미지 상에 제 2 이미지를 디스플레이시킬 수도 있다. According to another embodiment of the present invention, the companion system may include a user terminal, a receiver terminal, and a companion server. The companion server transmits the first image to both the user terminal and the receiving terminal to display the same first image, and the user terminal transmits the position information of the touch means to the receiving terminal to display the second image on the first image. May be displayed.

이하, 본 발명의 단말기 연동 및 제어 방법의 다양한 실시예들을 첨부된 도면들을 참조하여 상술하겠다. Hereinafter, various embodiments of the terminal interworking and control method of the present invention will be described with reference to the accompanying drawings.

도 2는 본 발명의 제 1 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이고, 도 3은 도 2의 단말기 연동 및 제어 방법에 사용되는 제어 방법을 도시한 도면이며, 도 4는 본 발명의 일 실시예에 따른 이미지 공유 화면을 도시한 평면도이다. 본 실시예는 사용자 단말기(100)가 수신 단말기(102)로 이미지 데이터(이미지 신호)를 전송할 때의 연동 및 제어 방법을 제안한다. 2 is a flowchart illustrating a terminal interworking and control method according to a first embodiment of the present invention, FIG. 3 is a diagram illustrating a control method used in the terminal interworking and control method of FIG. 2, and FIG. FIG. 1 is a plan view illustrating an image sharing screen according to an exemplary embodiment. This embodiment proposes a linkage and control method when the user terminal 100 transmits image data (image signal) to the reception terminal 102.

도 2를 참조하면, 사용자 단말기(100)는 수신 단말기(102)로 이미지의 연동을 요청한다(S200). 구체적으로는, 사용자가 사용자 단말기(100)를 수신 단말기(102)에 유선 또는 무선으로 연결하고 연동을 요청하거나, 사용자 단말기(100)가 수신 단말기(102)에 연결된 경우 사용자 단말기(100) 또는 수신 단말기(102)가 상대 단말기를 식별한 후 상대방 단말기로 연동할 것인지를 문의할 수도 있다. 단말기들(100 및 102)의 연동은 사용자의 요청에 따라 수행될 수도 있고, 단말기들(100 및 102)이 상호 식별하면 자동으로 수행될 수도 있다. 본 발명의 일 실시예에 따르면, 도 3(A)에 도시된 바와 같이 사용자 단말기(100)와 수신 단말기(102)는 2개의 채널들, 즉 데이터 채널 및 제어 채널로 연결될 수 있고, 연동 요청 또는 허락을 위한 제어 신호를 제어 채널을 통하여 송수신할 수 있다. Referring to FIG. 2, the user terminal 100 requests the linkage of an image to the receiving terminal 102 (S200). Specifically, when the user connects the user terminal 100 to the receiving terminal 102 by wire or wirelessly and requests interlocking, or when the user terminal 100 is connected to the receiving terminal 102, the user terminal 100 or the receiving terminal 102. After the terminal 102 identifies the counterpart terminal, the terminal 102 may inquire whether to interwork with the counterpart terminal. Interworking of the terminals 100 and 102 may be performed at the request of a user, or may be automatically performed when the terminals 100 and 102 mutually identify each other. According to an embodiment of the present invention, as shown in FIG. 3A, the user terminal 100 and the receiving terminal 102 may be connected to two channels, that is, a data channel and a control channel, and may request an interworking request or Control signals for permission can be transmitted and received through the control channel.

이어서, 사용자 단말기(100)는 화면에 디스플레이된 제 1 이미지에 해당하는 이미지 데이터를 이미지 신호에 배신하여 상기 데이터 채널을 통하여 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 전송된 이미지 데이터에 해당하는 제 1 이미지를 디스플레이시킨다(S202). 즉, 사용자 단말기(100)와 수신 단말기(102)는 상기 제 1 이미지를 공유한다. 사용자 단말기(100)의 제 1 이미지와 수신 단말기(102)의 제 1 이미지가 실질적으로 동시에 디스플레이되는 것이 유용하므로, 사용자 단말기(100)의 이미지부는 디스플레이부로 이미지 데이터를 전송할 때 상기 이미지 데이터를 상기 데이터 채널을 통하여 수신 단말기(102)로 동시에 전송하는 것이 바람직하다. Subsequently, the user terminal 100 distributes image data corresponding to the first image displayed on the screen to an image signal and transmits the image data to the receiving terminal 102 through the data channel, and the receiving terminal 102 transmits the transmitted image. The first image corresponding to the data is displayed (S202). That is, the user terminal 100 and the receiving terminal 102 share the first image. Since it is useful to display the first image of the user terminal 100 and the first image of the receiving terminal 102 at substantially the same time, the image portion of the user terminal 100 transmits the image data to the display unit when the image data is transmitted. It is desirable to transmit simultaneously to the receiving terminal 102 through the channel.

계속하여, 사용자가 손가락 또는 터치펜 등과 같은 터치 수단을 사용자 단말기(100)로 근접시키면, 사용자 단말기(100)는 상기 터치 수단을 감지한다(S204). 구체적으로는, 사용자 단말기(100)는 상기 터치 수단이 감지 가능한 영역으로 진입하면 상기 터치 수단을 감지한다. 예를 들어, 사용자 단말기(100)는 정전용량 방식 터치 패널을 사용할 수 있으며, 사용자가 손가락을 사용자 단말기(100)로 근접시키면 상기 손가락에 의한 정전용량 변화를 감지하여 상기 손가락의 위치를 감지할 수 있다. Subsequently, when a user approaches a touch means such as a finger or a touch pen to the user terminal 100, the user terminal 100 detects the touch means (S204). Specifically, the user terminal 100 detects the touch means when the touch means enters a detectable area. For example, the user terminal 100 may use a capacitive touch panel, and when the user approaches the finger to the user terminal 100, the user terminal 100 may detect the capacitance change caused by the finger to detect the position of the finger. have.

다만, 이러한 감지를 위하여 사용자 단말기(100)는 감지 레벨을 도 3(B)에 도시된 바와 같이 복수의 레벨들, 예를 들어 2개의 레벨들로 설정할 수 있다. 단말기 연동 과정을 수행할 때가 아니면, 즉 사용자가 사용자 단말기(100)만을 이용하는 경우에는, 사용자가 터치하였을 때에만 터치 위치가 감지되도록 사용자 단말기(100)의 감지 레벨을 높은 레벨(L2)로 설정한다. 반면에, 사용자가 단말기 연동 과정을 수행하는 경우, 즉 수신 단말기(102)도 이용하는 경우, 사용자 단말기(100)는 감지 레벨을 낮은 레벨(L1)로 변경한다. 따라서, 사용자 단말기(100)는 터치 수단이 터치되지 않고 근접된 상태일 때에도 상기 터치 수단을 감지할 수 있다. 즉, 사용자 단말기(100)는 단말기 연동 과정을 사용하는지 아닌지에 따라 감지 레벨을 다르게 설정할 수 있다. 본 발명의 다른 실시예에 따르면, 사용자 단말기(100)는 정전용량 방식 이외에도 전자기 유도 방식, 저항막 방식, 광학방식, 초음파 방식 등 다양한 방법들을 사용할 수 있으며, 사용 방식에 따라 설정 조건이 달라질 수 있다. However, for this sensing, the user terminal 100 may set the sensing level to a plurality of levels, for example, two levels, as shown in FIG. 3B. When not performing the terminal interworking process, that is, when the user uses only the user terminal 100, the detection level of the user terminal 100 is set to a high level (L2) so that the touch position is detected only when the user touches. . On the other hand, when the user performs the terminal interworking process, that is, also using the receiving terminal 102, the user terminal 100 changes the detection level to a low level (L1). Therefore, the user terminal 100 may detect the touch means even when the touch means is not in touch but in close proximity. That is, the user terminal 100 may set different sensing levels depending on whether or not the terminal interworking process is used. According to another embodiment of the present invention, the user terminal 100 may use a variety of methods, such as electromagnetic induction, resistive film, optical, ultrasonic method, in addition to the capacitive method, the setting conditions may vary depending on the usage method .

이어서, 사용자 단말기(100)는 상기 감지 결과에 따른 상기 터치 수단의 위치 정보를 포함하는 제어 신호를 제어 채널을 통하여 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 제어 신호에 따라 상기 위치 정보에 따른 제 2 이미지, 예를 들어 도 4에 도시된 바와 같은 그림자 이미지(400)를 제 1 이미지 상에 표시한다(S206). 위에서는 데이터 채널과 제어 채널로 구분하여 신호들을 다르게 전송하였지만, 데이터 채널을 통하여 이미지 데이터 및 제어 신호를 모두 전송할 수도 있다. 예를 들어, 사용자 단말기(100)는 도 3(C)에 도시된 바와 같이 데이터 구간들(110 및 114) 사이에 제어 구간(112)을 설정하여 제어 신호(C1)를 제어 구간(112) 동안 전송할 수 있다. Subsequently, the user terminal 100 transmits a control signal including position information of the touch means according to the detection result to the receiving terminal 102 through a control channel, and the receiving terminal 102 transmits the control signal according to the control signal. A second image according to the location information, for example, a shadow image 400 as shown in FIG. 4 is displayed on the first image (S206). In the above, signals are transmitted differently by being divided into a data channel and a control channel, but both image data and a control signal may be transmitted through the data channel. For example, the user terminal 100 sets the control section 112 between the data sections 110 and 114 as shown in FIG. 3C to control the signal C1 during the control section 112. Can transmit

계속하여, 사용자가 터치 수단을 이용하여 사용자 단말기(100)를 터치하고 움직이면 사용자 단말기(100)는 이러한 움직임에 따른 위치 정보를 포함하는 제어 신호를 생성하여 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 전송된 제어 신호에 따라 상기 제 2 이미지를 상기 제 1 이미지 상에 표시한다(S208). 결과적으로, 상기 제 2 이미지는 상기 터치 수단의 움직임을 반영하여 수신 단말기(102)의 제 1 이미지에 표시된다. 물론, 사용자가 사용자 단말기(100) 상의 제 1 이미지에서 특정 동작을 수행시키는 메뉴를 클릭한 경우에는 이미지 전환만 이루어지므로, 수신 단말기(102)는 제 2 이미지를 현재 위치에 유지시킨 상태로 제 1 이미지만을 사용자 단말기(100)의 새로운 이미지로 변경시킬 수 있다. Subsequently, when the user touches and moves the user terminal 100 by using a touch means, the user terminal 100 generates a control signal including the position information according to the movement and transmits it to the receiving terminal 102, and the receiving terminal 102. 102 displays the second image on the first image according to the transmitted control signal (S208). As a result, the second image is displayed on the first image of the receiving terminal 102 to reflect the movement of the touch means. Of course, when the user clicks a menu for performing a specific operation on the first image on the user terminal 100, only image switching is performed, and thus, the receiving terminal 102 maintains the second image at the current position. Only an image may be changed into a new image of the user terminal 100.

이 때, 터치 수단의 위치 정보는 이미지 형태의 정보이거나 또는 좌표 형태의 정보일 수 있다. 즉, 사용자 단말기(100)는 상기 제2이미지에 대한 위치 정보를 직접 이미지 데이터 형태로 생성하여 수신 단말기(102)로 전송하거나 또는 제어 신호 형태로 터치 수단의 위치 정보만을 수신 단말기(102)로 전송할 수 있다. 이 경우, 사용자 단말기(100)에는 터치 수단의 위치가 디스플레이되지 않고, 수신 단말기(102)에만 터치 수단의 위치가 디스플레이될 수 있다.In this case, the position information of the touch means may be information in the form of an image or information in the form of a coordinate. That is, the user terminal 100 directly generates the position information on the second image in the form of image data and transmits it to the receiving terminal 102 or transmits only the position information of the touch means to the receiving terminal 102 in the form of a control signal. Can be. In this case, the position of the touch means may not be displayed on the user terminal 100, but the position of the touch means may be displayed only on the receiving terminal 102.

정리하면, 본 발명의 단말기 연동 및 제어 방법은 제 1 이미지를 공유시킨 상태에서 터치 수단 근접시 이를 감지하여 수신 단말기(102)의 제 1 이미지 상에 제 2 이미지를 표시하고, 사용자가 사용자 단말기(100) 상에서 터치하거나 터치 후 움직이는 경우 움직임을 반영한 제 2 이미지를 수신 단말기(102)의 제 1 이미지에 표시한다. In summary, the terminal interworking and control method of the present invention detects the proximity of the touch means in the state where the first image is shared, displays a second image on the first image of the receiving terminal 102, and the user selects the user terminal ( When touching or moving after the touch, the second image reflecting the movement is displayed on the first image of the receiving terminal 102.

수신 단말기(102)에 디스플레이되는 제 1 이미지와 제 2 이미지는 별도의 이미지로서 오버랩될 수도 있고, 상기 제 1 이미지와 상기 제 2 이미지가 합성되어 생성된 합성 이미지가 디스플레이될 수도 있다. The first image and the second image displayed on the receiving terminal 102 may overlap as separate images, or a composite image generated by combining the first image and the second image may be displayed.

위에서는 제 2 이미지가 제 1 이미지 위에 표시되는 것으로 언급하였으나, 제 2 이미지가 제 1 이미지와 함께 디스플레이되는 한 표시 방법은 다양하게 변형될 수 있다. 예를 들어, 상기 제 1 이미지 중 터치 수단의 위치에 해당하는 부분이 어둡게 표현될 수 있으며, 상기 어둡게 표현된 부분이 제 2 이미지일 수 있다. Although the second image is referred to as being displayed on the first image, the display method may be variously modified as long as the second image is displayed together with the first image. For example, a portion of the first image corresponding to the position of the touch unit may be darkly expressed, and the darkly expressed portion may be the second image.

이하, 터치 수단을 감지하는 다양한 방법들을 첨부된 도면들을 참조하여 살펴보겠다. Hereinafter, various methods of sensing the touch means will be described with reference to the accompanying drawings.

상기 터치 수단을 감지하는 기본적인 방법으로는 사용자 단말기(100)의 디스플레이부를 정전 용량 방식 터치 패널로 구성하고, 손가락 등과 같은 전기가 통하는 터치 수단을 이용하는 방법이다. 이 경우, 사용자 단말기(100)의 감지부는 상기 터치 수단 접근시 및 터치시에 정전 용량의 변화를 통하여 상기 터치 수단의 위치를 감지한다. As a basic method of detecting the touch means, the display unit of the user terminal 100 is configured by a capacitive touch panel, and a touch means such as a finger, or the like, is used. In this case, the sensing unit of the user terminal 100 detects the position of the touch means by changing the capacitance when approaching and touching the touch means.

상기 터치 수단을 감지하는 다른 방법들이 존재하며, 아래의 도 5 내지 도 7을 참조하여 설명한다. There are other methods of sensing the touch means, which will be described with reference to FIGS. 5 to 7 below.

도 5는 본 발명의 일 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다. 5 is a diagram illustrating a touch means sensing method according to an embodiment of the present invention.

도 5를 참조하면, 사용자 단말기(100)를 터치할 터치 수단으로서 터치 펜(500)을 사용할 수 있다. 사용자 단말기(100)는 정전 용량 방식 터치 패널을 사용한다. Referring to FIG. 5, the touch pen 500 may be used as a touch means for touching the user terminal 100. The user terminal 100 uses a capacitive touch panel.

터치 펜(500)은 몸체(510) 및 터치부(512)로 이루어진다. 몸체(510)는 전기가 통하지 않는 재질로 이루어지고, 터치부(512)는 전도체이다. 따라서, 터치부(512)로 인하여 터치 펜(500)이 사용자 단말기(100)로 근접시 또는 사용자 단말기(100)를 터치했을 때 정전 용량의 변화가 발생되며, 그 결과 사용자 단말기(100)는 터치 펜(500)을 감지할 수 있다. 즉, 정전 용량 방식에서 사용될 수 없었던 일반적인 터치 펜과 달리, 본 발명의 터치 펜(500)은 정전 용량 방식에서도 사용할 수 있다. 물론, 터치 펜(500) 전체를 전도체로 제조할 수도 있지만 비용을 고려하면 실제 터치가 이루어지는 터치부(512)만을 전도체로 제조하는 것이 바람직하다. The touch pen 500 includes a body 510 and a touch unit 512. Body 510 is made of a material that does not conduct electricity, the touch unit 512 is a conductor. Therefore, due to the touch unit 512, a change in capacitance occurs when the touch pen 500 approaches the user terminal 100 or when the user touches the user terminal 100. As a result, the user terminal 100 touches. The pen 500 may be sensed. That is, unlike the general touch pen that could not be used in the capacitive method, the touch pen 500 of the present invention can be used in the capacitive method. Of course, the entire touch pen 500 may be made of a conductor. However, in consideration of cost, it is preferable to manufacture only the touch unit 512 that is actually touched with a conductor.

도 6은 본 발명의 다른 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다. 6 is a view showing a touch means detection method according to another embodiment of the present invention.

도 6(A)를 참조하면, 사용자 단말기(100)의 일부에 리시버(Receiver, 600)를 장착하고, 터치 펜(602)을 사용할 수 있다.Referring to FIG. 6A, a receiver 600 may be mounted on a part of the user terminal 100, and a touch pen 602 may be used.

리시버(600)는 하나의 적외선 센서와 2개의 초음파 센서들을 포함할 수 있으며, 터치 펜(602)의 터치부(펜촉)로부터 발신된 적외선 및 초음파를 수신하여 터치 펜(602)의 움직임을 감지하고, 감지 결과에 따른 터치 펜(602)의 위치 정보를 가지는 제어 신호를 수신 단말기(102)로 전송한다. 수신 단말기(102)는 상기 제어 신호를 분석하여 터치 펜(602)의 위치를 검출하고, 상기 검출된 위치에 제 2 이미지를 표시한다. 결과적으로, 상기 제 2 이미지가 제 1 이미지와 함께 디스플레이된다. 여기서, 상기 제어 신호는 리시버(600)가 수신 단말기(102)로 전송할 수도 있고 사용자 단말기(100)가 수신 단말기(102)로 전송할 수도 있다. The receiver 600 may include one infrared sensor and two ultrasonic sensors. The receiver 600 may detect the movement of the touch pen 602 by receiving infrared rays and ultrasonic waves transmitted from the touch unit (tip) of the touch pen 602. The control signal having the position information of the touch pen 602 according to the detection result is transmitted to the receiving terminal 102. The receiving terminal 102 analyzes the control signal to detect the position of the touch pen 602 and displays a second image at the detected position. As a result, the second image is displayed together with the first image. In this case, the control signal may be transmitted by the receiver 600 to the receiving terminal 102 or the user terminal 100 may be transmitted to the receiving terminal 102.

리시버(600)가 터치 펜(602)의 위치를 검출하는 방법을 살펴보면, 3개의 센서들은 각기 적외선의 전송 시간 및 초음파의 전송 시간을 측정하고, 상기 전송 시간들을 거리로 환산하고, 환산된 거리들을 삼각 측량과 유사한 방법을 통하여 터치 펜(602)의 위치를 검출한다. 따라서, 터치 펜(602)이 사용자 단말기(100)를 직접적으로 터치하지 않고 근접하더라도 터치 펜(602)의 위치를 감지할 수 있고, 터치 펜(602)의 접촉 및 움직임을 정확하게 감지할 수 있다. 물론, 적외선 및 초음파 외의 다른 신호가 사용될 수도 있다. Looking at how the receiver 600 detects the position of the touch pen 602, three sensors respectively measure the transmission time of the infrared ray and the transmission time of the ultrasonic wave, converts the transmission times into distances, and converts the converted distances. The position of the touch pen 602 is detected through a method similar to triangulation. Therefore, even if the touch pen 602 is close without directly touching the user terminal 100, the position of the touch pen 602 may be sensed, and the touch and movement of the touch pen 602 may be accurately sensed. Of course, signals other than infrared and ultrasonic may also be used.

터치 펜(602)의 위치를 반영한 제 2 이미지는 사용자 단말기(100)에 표시되지 않고 수신 단말기(102)에만 표시될 수도 있다. 물론, 사용자 단말기(100)는 터치 펜(602)의 움직임에 상응하여 동작한다. The second image reflecting the position of the touch pen 602 may not be displayed on the user terminal 100 but only on the receiving terminal 102. Of course, the user terminal 100 operates in response to the movement of the touch pen 602.

본 발명의 다른 실시예에 따르면, 리시버(600)는 터치 펜(602)의 위치를 감지하는 기능뿐만 아니라 이미지 데이터를 포함하는 이미지 신호 및 제어 신호를 수신 단말기(102)로 전송하는 기능도 수행할 수 있다. 구체적으로는, 리시버(600)는 터치 제어부(610), 이미지 신호부(612), 제어 신호부(614) 및 송수신부(616)를 포함할 수 있다. 터치 제어부(610)는 수신된 적외선 및 초음파를 이용하여 터치 펜(602)의 위치를 감지하고, 상기 감지된 위치에 대한 정보를 사용자 단말기(100)로 제공하는 역할을 수행한다. 사용자 단말기(100)는 상기 제공된 정보에 따라 터치 펜(602)의 위치를 표시하거나 관련 동작을 수행한다. 이미지 신호부(612)는 사용자 단말기(100)로부터 이미지 데이터를 제공받고, 상기 제공된 이미지 데이터를 송수신부(616)를 통하여 수신 단말기(102)로 전송한다. 제어 신호부(614)는 상기 감지된 터치 펜(602)의 위치 정보를 가지는 제어 신호를 수신 단말기(102)에 전송하는 역할을 수행한다. 즉, 리시버(600)가 사용자 단말기(100)로부터 전송된 이미지 데이터 및 터치 펜(602)의 위치 정보를 가지는 제어 신호를 수신 단말기(102)로 전송시키므로, 사용자 단말기(100)는 통신 기능을 가지지 않아도 충분하다. 따라서, 통신 기능을 가지지 않은 단말기 또는 통신 기능을 가지나 관련 통신 시설을 이용할 수 없는 단말기도 리시버(600)를 이용하여 터치 펜(602)의 위치 및 동작을 인식할 수 있을 뿐만 아니라 이미지 공유, 제 2 이미지의 디스플레이 등과 같은 본 발명의 연동 방법을 사용할 수 있다. According to another embodiment of the present invention, the receiver 600 not only detects the position of the touch pen 602 but also transmits an image signal and a control signal including image data to the receiving terminal 102. Can be. In detail, the receiver 600 may include a touch controller 610, an image signal unit 612, a control signal unit 614, and a transceiver unit 616. The touch controller 610 detects the position of the touch pen 602 by using the received infrared rays and ultrasonic waves, and provides information about the detected position to the user terminal 100. The user terminal 100 displays the location of the touch pen 602 or performs a related operation according to the provided information. The image signal unit 612 receives image data from the user terminal 100, and transmits the provided image data to the receiving terminal 102 through the transceiver 616. The control signal unit 614 transmits a control signal having the detected position information of the touch pen 602 to the receiving terminal 102. That is, since the receiver 600 transmits a control signal having the image data transmitted from the user terminal 100 and the position information of the touch pen 602 to the receiving terminal 102, the user terminal 100 does not have a communication function. Not enough. Accordingly, a terminal having no communication function or a terminal having a communication function but unable to use a related communication facility may not only recognize the position and operation of the touch pen 602 using the receiver 600 but also share an image and a second device. The interlocking method of the present invention, such as display of an image, can be used.

본 발명의 또 다른 실시예에 따르면, 사용자 단말기(100) 내에 리시버가 포함되어 일체로 구현될 수도 있다. According to another embodiment of the present invention, the receiver may be included in the user terminal 100 to be integrally implemented.

도 7은 본 발명의 또 다른 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다. 7 is a diagram illustrating a touch means sensing method according to another embodiment of the present invention.

도 7을 참조하면, 사용자 단말기(100)는 터치 패널(700) 및 전자기 발생부(702)를 포함한다. Referring to FIG. 7, the user terminal 100 includes a touch panel 700 and an electromagnetic generator 702.

전자기 발생부(702)는 터치 패널(700)의 후면에 연결될 수 있으며, 얇은 금속제 막으로 이루어져서 전기가 흐르면 전자기장을 생성하는 역할을 수행한다. The electromagnetic generator 702 may be connected to the rear surface of the touch panel 700, and may be formed of a thin metal film to generate an electromagnetic field when electricity flows.

터치 펜(707)은 몸체(710) 및 터치부(712)를 포함하며, 터치부(712)는 바람직하게는 작은 금속 코일로 이루어질 수 있다. 결과적으로, 터치 펜(704)이 터치 패널(700)로 근접하면 터치부(712)에서 전자기 유도 현상이 일어나며, 그 결과 전자기 발생부(702)로부터 발생된 전자기장의 변형이 발생한다. 따라서, 사용자 단말기(100)는 이러한 전자기장의 변형을 감지하여 터치 펜(704)의 위치를 인식한다. 특히, 터치 펜(704)의 접근 위치, 터치 강도에 따라서 상기 전자기장의 변형이 다르므로, 이러한 터치 수단 감지 방법은 터치 펜(704)의 터치 패널(700)로의 접근 정도 및 터치 압력을 세밀하게 감지할 수 있다. 따라서, 수신 단말기(102)에 표시되는 제 2 이미지의 크기, 선으로 표현되는 경우 선의 굵기 등이 터치 펜(704)의 위치 또는 압력에 따라 다르게 표시될 수 있다. 물론, 상기 제 2 이미지의 모양, 사이즈 또는 색상이 상기 터치 강도에 따라 달라질 수도 있다. The touch pen 707 includes a body 710 and a touch unit 712, and the touch unit 712 may be preferably made of a small metal coil. As a result, when the touch pen 704 is close to the touch panel 700, an electromagnetic induction phenomenon occurs in the touch unit 712, and as a result, a deformation of the electromagnetic field generated from the electromagnetic generator 702 occurs. Therefore, the user terminal 100 detects the deformation of the electromagnetic field and recognizes the position of the touch pen 704. In particular, since the deformation of the electromagnetic field varies depending on the approach position and the touch intensity of the touch pen 704, the touch means sensing method detects the touch pen 700 and the touch pressure of the touch pen 700 in detail. can do. Therefore, the size of the second image displayed on the receiving terminal 102, the thickness of the line when represented by a line, and the like may be displayed differently according to the position or pressure of the touch pen 704. Of course, the shape, size or color of the second image may vary depending on the touch intensity.

도 5 내지 도 7을 참조하여 정리하면, 사용자 단말기(100)는 다양한 방법들을 통하여 터치 펜을 감지하고 감지 결과를 수신 단말기(102)에 반영시킬 수 있다. 5 to 7, the user terminal 100 may detect the touch pen through various methods and reflect the detection result to the receiving terminal 102.

전술된 바와 같이 사용자 단말기(100)는 감지 가능한 영역에서 근접한 터치 수단을 감지하고 터치 수단의 위치 정보를 수신 단말기(102)로 전송하는데, 여기서 감지 가능한 영역은 사용자 단말기(100)로부터 기설정된 거리만큼 이격된 공간일 수 있다. 즉, 사용자 단말기(100)는 사용자 단말기(100)로부터 기 설정된 거리 내에 위치하는 사용자 단말기(100)에 근접한 터치 수단을 감지할 수 있다. 그리고 기설정된 거리는 전술된 감지 방식에 따라 달라질 수 있다. 예를 들어, 사용자 단말기(100)에 정전 용량 방식 터치 패널이 사용된 경우, 기설정된 거리는 도 3에서 설명된 낮은 레벨(L1)에 대응되는 거리일 수 있다. 또한 기 설정된 거리는 터치 수단과 사용자 단말기(100) 사이의 최단거리를 기준으로 설정될 수 있다.As described above, the user terminal 100 detects the touch means close to the detectable area and transmits the location information of the touch means to the receiving terminal 102, where the detectable area is a predetermined distance from the user terminal 100. It may be spaced apart. That is, the user terminal 100 may detect a touch means close to the user terminal 100 located within a predetermined distance from the user terminal 100. The preset distance may vary depending on the sensing scheme described above. For example, when the capacitive touch panel is used in the user terminal 100, the preset distance may be a distance corresponding to the low level L1 described with reference to FIG. 3. In addition, the preset distance may be set based on the shortest distance between the touch means and the user terminal 100.

도 8은 본 발명의 제 2 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다. 8 is a flowchart illustrating a terminal interworking and control method according to a second embodiment of the present invention.

도 8을 참조하면, 사용자 단말기(100)와 수신 단말기(102)가 연결되어 연동을 시작한다(S800).Referring to FIG. 8, the user terminal 100 and the receiving terminal 102 are connected to start interlocking (S800).

이어서, 사용자 단말기(100)는 현재 디스플레이된 제 1 이미지에 해당하는 이미지 데이터를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 이미지 데이터에 해당하는 제 1 이미지를 디스플레이시킨다(S802). 즉, 사용자 단말기(100)와 수신 단말기(102)가 제 1 이미지를 공유한다.Subsequently, the user terminal 100 transmits image data corresponding to the currently displayed first image to the receiving terminal 102, and the receiving terminal 102 displays the first image corresponding to the image data (S802). . That is, the user terminal 100 and the receiving terminal 102 share the first image.

계속하여, 사용자 단말기(100)는 손가락, 터치 펜 등과 같은 터치 수단을 다양한 방법들을 통하여 감지한다(S804).Subsequently, the user terminal 100 detects a touch means such as a finger or a touch pen through various methods (S804).

이어서, 사용자 단말기(100)는 현재 디스플레이된 제 1 이미지와 함께 상기 감지된 터치 수단의 위치에 해당하는 제 2 이미지를 표시하는 합성 이미지를 생성하고, 상기 합성 이미지에 해당하는 합성 이미지 데이터(합성 정보)를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 합성 이미지 데이터에 해당하는 합성 이미지를 디스플레이시킨다(S806). 결과적으로, 수산 단말기(102)에는 상기 제 1 이미지와 함께 제 2 이미지가 디스플레이된 화면이 디스플레이된다. 이 경우, 사용자 단말기(100)에는 상기 제 1 이미지만이 디스플레이될 수도 있고, 상기 제 1 이미지와 함께 제 2 이미지가 디스플레이된 화면이 디스플레이될 수도 있다. Subsequently, the user terminal 100 generates a composite image displaying a second image corresponding to the position of the sensed touch means together with the currently displayed first image, and generates composite image data (synthesis information) corresponding to the composite image. ) Is transmitted to the receiving terminal 102, and the receiving terminal 102 displays the composite image corresponding to the composite image data (S806). As a result, the fisheries terminal 102 displays a screen on which the second image is displayed together with the first image. In this case, only the first image may be displayed on the user terminal 100, or a screen on which the second image is displayed together with the first image may be displayed.

계속하여, 사용자가 상기 터치 수단을 터치하거나 터치한 상태로 움직이는 경우 사용자 단말기(100)는 상기 터치 수단의 위치 정보를 가지는 제어 신호를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 제어 신호에 따라 상기 터치 수단의 위치를 표시하는 제 2 이미지를 해당 제 1 이미지와 함께 디스플레이시킨다(S808). 즉, 상기 터치 수단의 움직임이 수신 단말기(102)의 화면에 반영된다. 다만, 수신 단말기(102) 상의 제 1 이미지는 직전 이미지와 동일한 이미지일 수도 있고 직전 이미지와 다른 이미지일 수도 있다. Subsequently, when the user touches or moves in the touched state, the user terminal 100 transmits a control signal having the position information of the touch means to the receiving terminal 102, and the receiving terminal 102 transmits the touch signal. According to a control signal, a second image indicating the position of the touch means is displayed together with the corresponding first image (S808). That is, the movement of the touch means is reflected on the screen of the receiving terminal 102. However, the first image on the receiving terminal 102 may be the same image as the previous image or may be different from the previous image.

정리하면, 수신 단말기(102)에서 제 2 이미지를 생성하여 제 1 이미지와 함께 디스플레이시키는 제 1 실시예에서와 달리, 본 실시예에서는 사용자 단말기(100)가 제 1 이미지와 제 2 이미지를 합성한 합성 이미지를 생성하고 상기 생성된 합성 이미지를 수신 단말기(102)로 전송하며, 그 결과 수신 단말기(102)에는 제 1 이미지와 함께 제 2 이미지가 표시된 화면이 디스플레이된다. In summary, unlike the first embodiment in which the receiving terminal 102 generates the second image and displays the second image together, in the present embodiment, the user terminal 100 synthesizes the first image and the second image. A composite image is generated and the generated composite image is transmitted to the receiving terminal 102. As a result, the receiving terminal 102 displays a screen on which the second image is displayed together with the first image.

도 9는 본 발명의 제 3 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다. 9 is a flowchart illustrating a terminal interworking and control method according to a third embodiment of the present invention.

도 9를 참조하면, 사용자 단말기(100)와 수신 단말기(102)가 연결되어 연동을 시작한다(S900). 상기 연동은 사용자 단말기(100)와 수신 단말기(102)가 연결되면 자동으로 시작할 수도 있고, 사용자의 선택 여부를 묻고 사용자의 선택에 따라 시작할 수도 있다. 9, the user terminal 100 and the receiving terminal 102 are connected to start interlocking (S900). The interworking may be automatically started when the user terminal 100 and the receiving terminal 102 are connected, or may be started depending on the user's selection, asking whether the user is selected.

이어서, 사용자 또는 사용자 단말기(100)가 자동으로 손가락 또는 터치 펜 등과 같은 터치 수단을 감지하기 위한 복수의 감지 레벨들을 설정한다(S902). 구체적으로는, 사용자 단말기(100)에 터치 수단이 근접하였을 때 상기 터치 수단을 감지할 수 있는 제 1 레벨 및 상기 터치 수단이 터치하였을 때 상기 터치 수단을 감지할 수 있는 제 2 레벨이 설정된다. 물론, 상기 터치 수단을 감지하기 위한 레벨들은 더 세밀하게 설정될 수도 있다. Subsequently, the user or the user terminal 100 automatically sets a plurality of detection levels for detecting a touch means such as a finger or a touch pen (S902). Specifically, a first level for detecting the touch means when the touch means is close to the user terminal 100 and a second level for detecting the touch means when the touch means touches are set. Of course, the levels for sensing the touch means may be set more precisely.

계속하여, 사용자 단말기(100)가 터치 수단을 감지하고, 상기 터치 수단의 위치를 표시하는 제 2 이미지를 수신 단말기(102)에 디스플레이시킨다(S904).Subsequently, the user terminal 100 detects the touch means and displays a second image on the receiving terminal 102 indicating the position of the touch means (S904).

이어서, 사용자에 의한 연동 중지 요청이 있었는지의 여부가 판단된다(S906). 상기 연동 중지는 사용자가 메뉴 선택 등의 방법으로 요청될 수도 있고 사용자 단말기(100)와 수신 단말기(102)의 연결을 오프(Off)시킴에 의해 요청될 수도 있다. 사용자는 수신 단말기(102)를 보면서 사용자 단말기(100)를 제어하다가 사용자 단말기(100)만 사용하고자 할 경우 또는 수신 단말기(102)만 보기를 원하는 경우 사용자 단말기(100)와 수신 단말기(102)는 연결된 상태에서 연동 중지를 요청할 수 있다. Subsequently, it is determined whether or not there is a request for interlocking stop by the user (S906). The interworking stop may be requested by the user by selecting a menu or by turning off the connection between the user terminal 100 and the receiving terminal 102. When the user controls the user terminal 100 while viewing the receiving terminal 102 and wants to use only the user terminal 100 or only wants to view the receiving terminal 102, the user terminal 100 and the receiving terminal 102 You can request to stop interlocking while connected.

사용자의 연동 중지 요청이 없는 경우 단계 S904가 다시 수행된다. If there is no user stop request for interworking, step S904 is performed again.

반면에, 사용자의 연동 중지 요청이 있는 경우, 사용자 단말기(100)는 상기 복수의 레벨들을 초기화시켜 하나의 레벨만이 존재하거나 터치된 경우만을 감지하는 감지 레벨들로 변화시킨다(S908). 즉, 사용자 단말기(100)는 터치 수단이 터치되지 않은 경우에는 상기 터치 수단을 감지하지 않고 상기 터치 수단이 터치되었을 때만 상기 터치 수단을 감지하도록 레벨을 변화시킨다. On the other hand, when the user stops the interlocking request of the user, the user terminal 100 initializes the plurality of levels to change to the sensing levels to detect only one level is present or touched (S908). That is, when the touch means is not touched, the user terminal 100 does not sense the touch means but changes the level so as to detect the touch means only when the touch means is touched.

정리하면, 본 발명의 단말기 연동 및 제어 방법은 사용자가 임의로 연동 요청, 연동 중지 요청, 감지 레벨을 자유롭게 설정하고 변경할 수 있다. In summary, in the terminal interworking and control method of the present invention, a user may freely set and change an interworking request, an interlocking stop request, and a sensing level.

본 발명의 다른 실시예에 따르면, 사용자 단말기(100)와 수신 단말기(102)의 연동 시작시 1차 감지 레벨을 설정하고, 연동 중에 감지 레벨을 다르게 설정할 수도 있다. 예를 들어, 사용자는 연동 중에 터치 수단의 접근 거리 및 터치 강도에 따른 감지 레벨을 다르게 설정할 수도 있고 터치 수단이 터치되었을 때만 감지하도록 감지 레벨 설정을 변경시킬 수도 있다.
According to another embodiment of the present invention, the first detection level may be set when the user terminal 100 and the reception terminal 102 start interlocking, and the detection level may be differently set during the interlocking. For example, the user may set different sensing levels according to the approach distance and the touch intensity of the touch means during interlocking, or change the sensing level setting to sense only when the touch means is touched.

즉, 감지 레벨 설정 관련하여 본 발명에 따른 사용자 단말기는 사용자 단말기(100)와 수신 단말기(102)가 연동된 경우 또는 연동되지 않은 경우에도 사용자의 요청에 따라 감지 레벨을 다르게 설정할 수 있다.That is, in relation to the detection level setting, the user terminal according to the present invention may set the detection level differently according to the user's request even when the user terminal 100 and the receiving terminal 102 are not linked.

이와 관련하여 보다 구체적으로, 본 발명에 따른 사용자 단말기는 디스플레이부; 사용자 단말의 사용자 요청에 따라 터치 모드를 변경하는 모드 변경부; 터치 모드에 따라, 상기 디스플레이부에 근접한 터치 수단의 위치 정보를 생성하는 위치정보 생성부를 포함할 수 있다. 여기서, 터치 모드는 디스플레이부를 터치한 터치 수단의 터치를 인식하는 직접 터치 모드와, 디스플레이부를 터치한 터치 수단 및 디스플레이부에 근접한 터치 수단의 터치를 인식하는 간접 터치 모드를 포함할 수 있다. 직접 터치 모드에서는 감지 레벨이 높은 레벨(L2)로 설정되며, 간접 터치 모드에서는 감지 레벨이 L2보다 낮은 레벨(L1)로 설정될 수 있다.In this regard, more specifically, the user terminal according to the present invention includes a display unit; A mode changer for changing a touch mode according to a user request of a user terminal; According to the touch mode, it may include a location information generation unit for generating location information of the touch means in close proximity to the display unit. The touch mode may include a direct touch mode for recognizing a touch of a touch means touching the display unit, an indirect touch mode for recognizing touch of a touch means close to the display unit and a touch means touching the display unit. In the direct touch mode, the sensing level may be set to a high level L2, and in the indirect touch mode, the sensing level may be set to a level L1 lower than L2.

모드 변경부는 사용자의 터치, 음성 데이터 또는 영상 데이터에 따라 상기 터치 모드를 변경할 수 있다. 즉, 사용자는 사용자 단말기의 메뉴화면에서 터치를 통해 터치 모드를 변경할 수 있으며, 또는 사용자의 음성 또는 모션과 같은 영상을 통해 터치 모드를 변경할 수 있다.The mode changer may change the touch mode according to a user's touch, voice data, or image data. That is, the user may change the touch mode through a touch on the menu screen of the user terminal, or may change the touch mode through an image such as a voice or a motion of the user.

또한 본 발명에 따른 사용자 단말기는 사용자의 요청을 입력받는 스위치를 더 포함할 수 있다. 스위치는 아이폰의 벨/진동 변환 스위치와 같이 구성될 수 있다.In addition, the user terminal according to the present invention may further include a switch for receiving a user request. The switch can be configured like the iPhone's bell / vibration switch.

위치 정보 생성부는 간접 터치 모드에서, 디스플레이부로부터 기 설정된 거리 이내에 위치하는 터치 수단의 위치 정보를 생성한다. 구체적으로 위치 정보 생성부는 간접 터치 모드에서, 터치 수단이 디스플레이부를 직접 터치하지 않은 경우 터치 수단의 위치 정보를 생성할 수 있다.In the indirect touch mode, the position information generation unit generates position information of the touch unit located within a predetermined distance from the display unit. In detail, the location information generator may generate location information of the touch means when the touch means does not directly touch the display in the indirect touch mode.

전술된 연동 시스템을 위해 본 발명에 따른 사용자 단말기는 위치 정보를 사용자 단말기와 연동된 수신 단말로 전송하는 신호부를 더 포함할 수 있으며, 이 때, 사용자 단말기에는 위치 정보에 대응되는 이미지가 표시되지 않고, 수신 단말에는 위치 정보에 대응되는 이미지가 표시될 수 있다.
For the above-described interworking system, the user terminal according to the present invention may further include a signal unit for transmitting the location information to the receiving terminal linked with the user terminal, wherein the image corresponding to the location information is not displayed on the user terminal. The receiving terminal may display an image corresponding to the location information.

도 10은 본 발명의 다른 실시예에 따른 단말기 연동 시스템을 도시한 도면이다. 10 is a diagram illustrating a terminal interworking system according to another embodiment of the present invention.

도 10을 참조하면, 사용자 단말기(100)와 수신 단말기(102)는 연동하며, 즉 제 1 이미지를 공유한 상태로 터치 수단의 위치를 표시하는 제 2 이미지(1000)를 디스플레이시킨다. 다만, 제 1 이미지 공유시 수신 단말기(102)가 사용자 단말기(100)로 이미지 데이터를 전송하여 제 1 이미지를 공유한다. Referring to FIG. 10, the user terminal 100 and the receiving terminal 102 interlock with each other, that is, display the second image 1000 indicating the position of the touch means while sharing the first image. However, when the first image is shared, the receiving terminal 102 transmits image data to the user terminal 100 to share the first image.

수신 단말기(102)가 IPTV 또는 스마트 TV인 경우에는 도 10에 도시된 바와 같이 영화, 드라마 등의 프로그램을 선택할 수 있는 UI(User Interface, 1010)들이 디스플레이될 수 있고, UI(1010)들이 표시된 제 1 이미지가 사용자 단말기(100)로 공유될 수 있다. 물론, 수신 단말기(102)에는 제 1 이미지와 함께 제 2 이미지(1000)가 디스플레이된다. When the receiving terminal 102 is an IPTV or a smart TV, as illustrated in FIG. 10, a user interface (1010) for selecting a program such as a movie or a drama may be displayed, and the UI 1010 may be displayed. One image may be shared with the user terminal 100. Of course, the second terminal 1000 is displayed on the receiving terminal 102 together with the first image.

수신 단말기(102)에 디스플레이된 제 1 이미지를 사용자 단말기(100)로 공유할 때의 장점을 살펴보면, 사용자는 수신 단말기(102), 예를 들어 TV를 보면서 사용자 단말기(100), 예를 들어 스마트폰을 이용하여 제2이미지가 디스플레이되는 수신 단말기(102) 상의 동작을 제어할 수 있다. 예를 들어, 사용자는 사용자 단말기(100)를 이용하여 수신 단말기(102)를 통하여 특정 프로그램을 선택하거나 메일을 보내거나 전자 상거래 거래, 게임 등을 할 수 있다. Looking at the advantages of sharing the first image displayed on the receiving terminal 102 to the user terminal 100, the user is watching the receiving terminal 102, for example TV, the user terminal 100, for example smart The phone may control an operation on the receiving terminal 102 on which the second image is displayed. For example, the user may use the user terminal 100 to select a specific program, send an e-mail, perform an e-commerce transaction, or play a game through the reception terminal 102.

또한, 사용자 단말기(100)에 수신 단말기(102)와 동일한 제 1 이미지가 디스플레이되므로, 사용자는 수신 단말기(102)의 화면을 보지 못하는 상황에서도 사용자 단말기(100)를 이용하여 수신 단말기(102)가 제공되는 다양한 서비스들을 즐길 수 있다. 예를 들어, 사용자는 방에서 거실에 있는 수신 단말기(102)를 제어하여 전자 상거래 등을 할 수 있다. In addition, since the same first image as that of the receiving terminal 102 is displayed on the user terminal 100, the user may use the user terminal 100 to receive the screen of the receiving terminal 102. You can enjoy various services provided. For example, the user may control the receiving terminal 102 in the living room from the room to perform electronic commerce or the like.

보다 구체적으로, 본 발명에 따른 사용자 단말기는 수신 단말기로부터 영상 데이터를 수신하여, 영상 데이터를 디스플레이한다. 여기서, 영상 데이터는 수신 단말기의 UI일 수 있다. 사용자 단말기는 사용자 단말기의 디스플레이부에 근접한 터치 수단의 제1위치 정보 및 디스플레이부를 터치한 터치 수단의 제2위치 정보를 TV로 전송한다. 즉, 사용자 단말기에 TV UI가 디스플레이되고, 사용자는 TV 조작을 위해 사용자 단말기 디스플레이부에 손(터치 수단)을 근접시킨 상태로 손을 이동시킨다. 손의 이동에 따라 제1위치 정보가 TV로 전송되고, TV에는 손의 이동에 따라 위치 표시 이미지가 이동한다. 사용자가 원하는 아이콘을 터치하면, 제2위치 정보가 TV로 전송되고 TV는 제2위치 정보에 대응되는 아이콘을 실행시킬 수 있다.More specifically, the user terminal according to the present invention receives the image data from the receiving terminal, and displays the image data. Here, the image data may be a UI of the receiving terminal. The user terminal transmits the first position information of the touch means close to the display unit of the user terminal and the second position information of the touch means touching the display unit to the TV. That is, the TV UI is displayed on the user terminal, and the user moves his hand while bringing his hand (touch means) close to the user terminal display unit for TV operation. The first location information is transmitted to the TV as the hand moves, and the position display image moves on the TV as the hand moves. When the user touches an icon, the second location information is transmitted to the TV, and the TV may execute an icon corresponding to the second location information.

또는 본 발명에 따른 사용자 단말기는 디스플레이부에 근접한 터치 수단의 위치 정보 및 TV 제어를 위한 터치 수단의 터치 정보를 TV로 전송할 수 있다. 즉, 사용자 손의 이동에 따라 TV에서 위치 표시 이미지가 이동하고, 사용자가 원하는 아이콘을 터치하면 아이콘 터치에 대한 터치 정보가 TV로 전송되어 TV는 사용자가 터치한 아이콘을 실행할 수 있다. 터치 정보는 제2위치 정보와 비교하여, 직접적으로 아이콘을 실행시키는 제어신호일 수 있다.Alternatively, the user terminal according to the present invention may transmit the position information of the touch means close to the display unit and the touch information of the touch means for TV control to the TV. That is, when the location display image is moved on the TV according to the movement of the user's hand, and the user touches the desired icon, the touch information about the icon touch is transmitted to the TV so that the TV can execute the icon touched by the user. The touch information may be a control signal for directly executing an icon in comparison with the second location information.

한편, 이 경우에도 사용자 단말기는 TV로부터 UI 등과 같은 영상 데이터를 수신하는 것이 바람직하다. 그리고 TV는 사용자 단말기가 터치 정보와 같은 제어 신호를 생성할 수 있도록 UI의 선택 항목 각각에 대한 태그 정보, 위치 정보 등을 사용자 단말기로 전송할 수 있다.Meanwhile, even in this case, the user terminal preferably receives image data such as a UI from the TV. The TV may transmit tag information, location information, etc. for each of the selected items of the UI to the user terminal so that the user terminal may generate a control signal such as touch information.

여기서, 사용자 단말기의 동작은 사용자 단말기에 저장된 리모트 컨트롤 어플리케이션의 실행에 따라 이루어질 수 있다. 리모트 컨트롤 어플리케이션이 실행되면, 사용자 단말기는 TV로 영상 데이터의 전송을 요청하고, 사용자 단말기는 TV로부터 영상 데이터를 수신할 수 있다.Here, the operation of the user terminal may be performed according to the execution of the remote control application stored in the user terminal. When the remote control application is executed, the user terminal may request transmission of image data to the TV, and the user terminal may receive image data from the TV.

전술된 TV 제어 방법은 간접 터치 모드에서 뿐만 아니라, 갤럭시 노트, 옵티머스 뷰와 같이 펜을 이용하는 터치 방식에도 적용이 가능하다. 펜의 터치 압력 또는 터치 면적의 차이는 각각 간접 터치 모드 및 직접 터치 모드에 대응되도록 설정될 수 있다. 예를 들어, 펜이 약하게 터치되거나 터치 면적이 작을 경우는 간접 터치 모드, 펜이 강하게 터치되거나 터치 면적이 넓을 경우는 직접 터치 모드에 대응될 수 있다.The above-described TV control method is applicable not only in the indirect touch mode, but also in a touch method using a pen such as a Galaxy Note and an Optimus view. The difference in the touch pressure or the touch area of the pen may be set to correspond to the indirect touch mode and the direct touch mode, respectively. For example, it may correspond to an indirect touch mode when the pen is weakly touched or the touch area is small, and a direct touch mode when the pen is strongly touched or the touch area is wide.

이하, 다양한 실시예를 설명하기로 한다.Hereinafter, various embodiments will be described.

도 11은 본 발명의 제 4 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다. 11 is a flowchart illustrating a terminal interworking and control method according to a fourth embodiment of the present invention.

도 11을 참조하면, 사용자 단말기(100)와 수신 단말기(102)가 연결되어 연동을 시작한다(S1100). Referring to FIG. 11, the user terminal 100 and the receiving terminal 102 are connected to start interlocking (S1100).

이어서, 수신 단말기(102)는 현재 디스플레이된 제 1 이미지 또는 디스플레이될 제 1 이미지에 해당하는 이미지 데이터를 사용자 단말기(100)로 전송하며, 사용자 단말기(100)는 상기 전송된 이미지 데이터에 해당하는 제 1 이미지를 화면에 디스플레이시킨다(S1102). 즉, 사용자 단말기(100)와 수신 단말기(102)가 제 1 이미지를 공유한다. Subsequently, the receiving terminal 102 transmits the image data corresponding to the first image currently displayed or the first image to be displayed to the user terminal 100, and the user terminal 100 transmits the image data corresponding to the transmitted image data. 1 Display an image on the screen (S1102). That is, the user terminal 100 and the receiving terminal 102 share the first image.

계속하여, 사용자가 손가락 또는 터치 펜 등과 같은 터치 수단을 근접시키면, 사용자 단말기(100)는 상기 터치 수단을 감지한다(S1104). 사용자 단말기(100)는 정전 용량 감지 방법, 전자기 감지 방법 등과 같은 다양한 방법들을 이용하여 상기 터치 수단을 감지할 수 있다. Subsequently, when a user approaches a touch means such as a finger or a touch pen, the user terminal 100 detects the touch means (S1104). The user terminal 100 may detect the touch means by using various methods such as a capacitance sensing method and an electromagnetic sensing method.

이어서, 사용자 단말기(100)는 상기 감지 결과에 따른 상기 터치 수단의 위치 정보를 가지는 제어 신호를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 전송된 제어 신호에 따라 제 1 이미지와 함께 상기 터치 수단의 위치를 표시하는 제 2 이미지를 디스플레이시킨다(S1106). 본 발명의 다른 실시예에 따르면, 사용자 단말기(100)는 상기 제 1 이미지와 함께 상기 제 2 이미지가 표시된 합성 이미지에 해당하는 합성 이미지 데이터를 수신 단말기(102)로 전송할 수도 있다. 다만, 기본적으로 수신 단말기(102)가 사용자 단말기(100)로 제 1 이미지에 해당하는 이미지 데이터를 전송하는 방식이므로, 사용자 단말기(100)가 상기 제어 신호를 수신 단말기(102)로 전송하는 전자의 방식이 바람직하다. Subsequently, the user terminal 100 transmits a control signal having the position information of the touch means to the receiving terminal 102 according to the detection result, and the receiving terminal 102 is connected with the first image according to the transmitted control signal. Together, a second image indicating the position of the touch means is displayed (S1106). According to another embodiment of the present invention, the user terminal 100 may transmit the composite image data corresponding to the composite image on which the second image is displayed together with the first image to the receiving terminal 102. However, since the reception terminal 102 basically transmits the image data corresponding to the first image to the user terminal 100, the user terminal 100 transmits the control signal to the reception terminal 102. The manner is preferred.

계속하여, 사용자가 터치 수단을 터치하거나 움직이면, 사용자 단말기(100)는 상기 터치 수단의 위치 정보를 가지는 제어 신호를 수신 단말기(102)로 전송하여 수신 단말기(102)에 제 2 이미지를 디스플레이시킨다(S1108).Subsequently, when the user touches or moves the touch means, the user terminal 100 transmits a control signal having the position information of the touch means to the receiving terminal 102 to display the second image on the receiving terminal 102 ( S1108).

도 12는 본 발명의 또 다른 실시예에 따른 단말기 연동 시스템을 도시한 도면이다. 12 is a diagram illustrating a terminal interworking system according to another embodiment of the present invention.

도 12(A)를 참조하면, 본 발명의 단말기 연동 시스템에서는 리시버(1200)가 사용자 단말기(100)가 아닌 수신 단말기(102)에 설치되거나 내장될 수 있다. Referring to FIG. 12A, in the terminal interworking system of the present invention, the receiver 1200 may be installed or embedded in the receiving terminal 102 instead of the user terminal 100.

사용자 단말기(100)에 사용되는 터치 수단으로서 터치 펜(1202)이 초음파 및 적외선을 수신 단말기(102)에 설치된 리시버(1200)로 발신하면, 리시버(1200)는 상기 초음파 및 적외선을 수신하여 터치 펜(1202)의 위치를 감지한다. When the touch pen 1202 transmits ultrasonic waves and infrared rays to the receiver 1200 installed in the receiving terminal 102 as a touch means used in the user terminal 100, the receiver 1200 receives the ultrasonic waves and infrared rays and touch pens. Detects the position of 1202.

리시버(1200)는 상기 감지된 터치 펜(1202)의 위치에 대한 정보를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 터치 펜(1202)의 위치를 표시하는 제 2 이미지를 제 1 이미지와 함께 디스플레이시킨다. 물론, 사용자 단말기(100)와 수신 단말기(102)는 제 1 이미지를 공유한 상태에서 상기 제 2 이미지를 디스플레이시킨다. The receiver 1200 transmits information on the detected position of the touch pen 1202 to the receiving terminal 102, and the receiving terminal 102 transmits a second image indicating the position of the touch pen 1202 to the first terminal. Display with the image. Of course, the user terminal 100 and the receiving terminal 102 display the second image in a state in which the first image is shared.

본 발명의 다른 실시예에 따르면, 리시버(1200)는 터치 펜(1202)의 위치 감지뿐만 아니라 통신 역할도 수행할 수 있다. 구체적으로는, 리시버(1200)는 터치 수단 감지부(1210), 이미지 신호부(1212), 제어 신호부(1214) 및 송수신부(1216)를 포함할 수 있다. 터치 수단 감지부(1210)는 터치 펜(1202)의 위치를 감지하는 역할을 수행한다. 이미지 신호부(1212)는 사용자 단말기(100)로부터 전송된 이미지 데이터를 배신한 이미지 신호를 송수신부(1216)를 통하여 수신하고, 상기 수신된 이미지 신호의 이미지 데이터를 송수신부(1216)를 통하여 수신 단말기(102)로 전송하여 제 1 이미지를 디스플레이시킨다. 물론, 이미지 신호부(1212)는 수신 단말기(102)로부터 이미지 데이터를 수신하고, 상기 수신된 이미지 데이터를 배신한 이미지 신호를 사용자 단말기(100)로 전송할 수도 있다. 제어 신호부(1214)는 사용자 단말기(100)로부터 전송된 연동 동작 등과 관련된 제어 신호를 수신하고, 상기 수신된 제어 신호를 수신 단말기(102)로 전송할 수 있다. 물론, 터치 펜(1202)의 위치 정보를 가지는 제어 신호는 사용자 단말기(100)로부터 리시버(1200)로 전송되지는 않는다. 결론적으로, 리시버(1200)는 터치 펜(1202)의 위치를 감지하는 기능뿐만 아니라 통신 기능도 수행한다. 따라서, 수신 단말기(102)는 통신 기능을 가지지 않아도 본 발명의 연동 및 제어 방법을 사용할 수 있다. According to another embodiment of the present invention, the receiver 1200 may perform not only the position detection of the touch pen 1202 but also a communication role. In detail, the receiver 1200 may include a touch means detector 1210, an image signal unit 1212, a control signal unit 1214, and a transceiver 1216. The touch means detector 1210 detects the position of the touch pen 1202. The image signal unit 1212 receives an image signal that has delivered image data transmitted from the user terminal 100 through the transceiver 1216, and receives image data of the received image signal through the transceiver 1216. Send to 102 to display the first image. Of course, the image signal unit 1212 may receive the image data from the receiving terminal 102 and transmit the image signal that has distributed the received image data to the user terminal 100. The control signal unit 1214 may receive a control signal related to an interlocking operation and the like transmitted from the user terminal 100 and transmit the received control signal to the receiving terminal 102. Of course, the control signal having the location information of the touch pen 1202 is not transmitted from the user terminal 100 to the receiver 1200. In conclusion, the receiver 1200 not only detects the position of the touch pen 1202 but also performs a communication function. Therefore, the receiving terminal 102 can use the interworking and control method of the present invention without having a communication function.

도 13은 본 발명의 제 5 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다. 13 is a flowchart illustrating a terminal interworking and control method according to a fifth embodiment of the present invention.

도 13을 참조하면, 리시버(1200)를 수신 단말기(102)에 설치한다(S1300). 본 발명의 다른 실시예에 따르면, 리시버는 수신 단말기(102)에 내장될 수 있다. Referring to FIG. 13, the receiver 1200 is installed in the receiving terminal 102 (S1300). According to another embodiment of the invention, the receiver may be embedded in the receiving terminal 102.

이어서, 사용자 단말기(100)와 수신 단말기(102)가 연결되어 연동을 시작한다(S1302).Subsequently, the user terminal 100 and the receiving terminal 102 are connected to start interlocking (S1302).

계속하여, 사용자 단말기(100)가 제 1 이미지에 해당하는 이미지 데이터를 수신 단말기(102)에 전송하여 상기 제 1 이미지를 공유하거나 수신 단말기(102)가 사용자 단말기(100)로 이미지 데이터를 전송하여 상기 제 1 이미지를 공유한다(S1304).Subsequently, the user terminal 100 transmits image data corresponding to the first image to the receiving terminal 102 to share the first image, or the receiving terminal 102 transmits the image data to the user terminal 100. The first image is shared (S1304).

이어서, 터치 수단, 예를 들어 터치 펜(1202)이 사용자 단말기(100)로 근접하면, 리시버(1200)는 터치 펜(1202)으로부터 발신된 적외선 및 초음파를 통하여 터치 펜(1202)의 위치를 감지하여 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 감지된 위치에 따른 그림자 등과 같은 제 2 이미지를 상기 제 1 이미지와 함께 디스플레이시킨다(S1306).Subsequently, when the touch means, for example, the touch pen 1202 is close to the user terminal 100, the receiver 1200 detects the position of the touch pen 1202 through infrared and ultrasonic waves transmitted from the touch pen 1202. The transmission is transmitted to the reception terminal 102, and the reception terminal 102 displays a second image such as a shadow according to the detected position together with the first image (S1306).

계속하여, 사용자가 터치 펜(1202)으로 사용자 단말기(100)를 터치하거나 터치 후 움직이면, 리시버(1200)는 이러한 터치 펜(1202)의 움직임을 감지하여 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 움직임에 따라 상기 제 1 이미지와 함께 해당 제 2 이미지를 디스플레이시킨다(S1308).Subsequently, when the user touches or moves after touching the user terminal 100 with the touch pen 1202, the receiver 1200 detects the movement of the touch pen 1202 and transmits the movement to the receiving terminal 102. 102 displays the corresponding second image together with the first image according to the movement (S1308).

도 14는 본 발명의 또 다른 실시예에 따른 단말기 연동 시스템을 도시한 도면이다. 14 is a diagram illustrating a terminal interworking system according to another embodiment of the present invention.

도 14(A)를 참조하면, 본 실시예의 단말기 연동 시스템은 사용자 단말기(100), 수신 단말기(102) 및 동글(1400)을 포함한다. Referring to FIG. 14A, the terminal interworking system according to the present embodiment includes a user terminal 100, a receiving terminal 102, and a dongle 1400.

동글(1400)은 사용자 단말기(100)의 통신을 보조하는 역할뿐만 아니라 터치 수단으로서 터치 펜(1402)의 위치를 감지하는 역할을 수행한다. 구체적으로는, 동글(1400)은 통신부(1410) 및 터치 수단 감지부(1412)를 포함할 수도 있다. The dongle 1400 serves not only to assist communication of the user terminal 100 but also to sense the position of the touch pen 1402 as a touch means. Specifically, the dongle 1400 may include a communication unit 1410 and a touch means detector 1412.

통신부(1410)는 사용자 단말기(100)를 위한 통신 수단으로서, 특정 통신 기능, 예를 들어 Wibro 통신 기능을 제공할 수도 있고, 특정 통신 기능을 다른 통신 기능으로 변환시켜, 예를 들어 Wibro를 Wi-Fi로 변환하여 사용자 단말기(100)를 위하여 사용할 수도 있다. The communication unit 1410 is a communication means for the user terminal 100, and may provide a specific communication function, for example, a Wibro communication function, and converts the specific communication function into another communication function, for example, Wi- It may be converted to Fi and used for the user terminal 100.

터치 수단 감지부(1412)는 리시버와 유사하게 터치 펜(1402)의 위치를 감지하고, 감지된 위치에 대한 정보를 제어 신호에 배신하여 수신 단말기(102)로 전송할 수도 있다. The touch means detecting unit 1412 may detect the position of the touch pen 1402 similarly to the receiver, and may transmit information about the detected position to a control signal and transmit the information to the receiving terminal 102.

정리하면, 사용자 단말기(100)는 동글(1400)을 통하여 통신 기능을 가지며, 동글(1400)은 터치 펜(1402)의 위치를 감지하는 수단으로서도 사용된다. In summary, the user terminal 100 has a communication function through the dongle 1400, and the dongle 1400 is also used as a means for detecting the position of the touch pen 1402.

이하, 사용자 단말기(100)와 분리되어 구분되는 경우의 리시버 및 동글을 외부 장치로 통칭하겠다. Hereinafter, a receiver and a dongle in the case of being separated from the user terminal 100 will be collectively referred to as an external device.

도 15는 본 발명의 일 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다. 15 is a block diagram showing the structure of a user terminal according to an embodiment of the present invention.

도 15를 참조하면, 본 실시예의 사용자 단말기(100)는 제어부(1500), 연동부(1502), 이미지부(1504), 감지부(1506), 설정부(1508), 디스플레이부(1510), 신호부(1512), 송수신부(1514) 및 저장부(1516)를 포함한다. Referring to FIG. 15, the user terminal 100 of the present embodiment includes a control unit 1500, an interlocking unit 1502, an image unit 1504, a sensing unit 1506, a setting unit 1508, a display unit 1510, A signal unit 1512, a transceiver 1514, and a storage unit 1516 are included.

연동부(1502)는 수신 단말기(102)와의 연동과 관련된 모든 기능을 관리한다. The interlocking unit 1502 manages all functions related to interworking with the receiving terminal 102.

이미지부(1504)는 수신 단말기(102)와 공유할 제 1 이미지를 생성하거나 제 2 이미지와 제 1 이미지의 합성 이미지를 생성할 수도 있다. 이미지부(1504)는 상기 제 1 이미지를 디스플레이부(1510)를 통하여 디스플레이시킨다. The image unit 1504 may generate a first image to be shared with the receiving terminal 102 or generate a composite image of the second image and the first image. The image unit 1504 displays the first image through the display unit 1510.

감지부(1506)는 손가락 또는 터치 펜 등과 같은 터치 수단을 감지하는 역할을 수행한다. 구체적으로는, 감지부(1506)는 상기 터치 수단이 근접할 때와 터치하였을 때를 구별하여 상기 터치 수단의 위치를 감지한다. 감지 방법으로는 정전 용량 방식, 전자기 유도 방식 등 제한이 없다. 감지부(1506)에 의해 감지된 터치 수단의 위치에 대한 정보는 위치 정보 생성부(미도시)에 의해 생성될 수도 있다. The sensor 1506 detects a touch means such as a finger or a touch pen. Specifically, the sensing unit 1506 detects the position of the touch means by distinguishing when the touch means is close to when it is touched. The sensing method is not limited, such as capacitive and electromagnetic induction. Information about the position of the touch means sensed by the detector 1506 may be generated by a location information generator (not shown).

설정부(1508)는 연동 기능 설정, 감지 레벨 설정 등 다양한 기능들을 설정을 관리한다. The setting unit 1508 manages setting of various functions such as setting of an interlocking function and setting of a detection level.

디스플레이부(1510)는 터치 패널이며, 정전 용량 방식, 저항막 방식, 전자기 유도 방식 등 다양한 방식으로 구현될 수 있다. The display unit 1510 is a touch panel and may be implemented in various ways, such as a capacitive type, a resistive film type, and an electromagnetic induction type.

신호부(1512)는 상기 제 1 이미지에 해당하는 이미지 데이터를 배신하는 이미지 신호 및 상기 터치 수단의 위치에 대한 정보를 가지는 제어 신호를 발생시킨다. 또한, 신호부(1512)는 상기 이미지 신호를 데이터 채널을 통하여 수신 단말기(102)로 전송하고 상기 제어 신호를 제어 채널을 통하여 수신 단말기(102)로 전송할 수 있다. The signal unit 1512 generates an image signal that distributes image data corresponding to the first image and a control signal having information about the position of the touch means. In addition, the signal unit 1512 may transmit the image signal to the receiving terminal 102 through the data channel and the control signal to the receiving terminal 102 through the control channel.

송수신부(1514)는 수신 단말기(102)와의 통신 통로 역할을 수행한다. The transceiver unit 1514 serves as a communication path with the receiving terminal 102.

저장부(1516)는 제 1 이미지, 이미지 신호, 제어 신호, 응용 프로그램 등 다양한 데이터를 저장한다. The storage unit 1516 stores various data such as a first image, an image signal, a control signal, an application program, and the like.

제어부(1500)는 사용자 단말기(100)의 구성 요소들의 동작을 전반적으로 제어한다. The controller 1500 generally controls the operations of the components of the user terminal 100.

도 16은 본 발명의 일 실시예에 따른 도 15의 이미지부의 구조를 도시한 블록도이다. FIG. 16 is a block diagram illustrating a structure of the image unit of FIG. 15 according to an embodiment of the present invention. FIG.

도 16을 참조하면, 본 실시예의 이미지부(1504)는 제 1 이미지 생성부(1600), 제 2 이미지 생성부(위치 정보 생성부, 1602) 및 이미지 합성부(1604)를 포함한다. Referring to FIG. 16, the image unit 1504 of the present embodiment includes a first image generator 1600, a second image generator (position information generator 1602), and an image synthesizer 1604.

제 1 이미지 생성부(1600)는 공유되는 제 1 이미지를 생성하고, 제 2 이미지 생성부(1602)는 터치 수단의 위치에 해당하는 그림자 이미지 등과 같은 제 2 이미지를 생성한다. The first image generator 1600 generates a shared first image, and the second image generator 1602 generates a second image such as a shadow image corresponding to the position of the touch means.

이미지 합성부(1604)는 상기 생성된 제 1 이미지와 함께 상기 제 2 이미지가 디스플레이된 합성 이미지를 생성한다. The image synthesizer 1604 generates a composite image on which the second image is displayed along with the generated first image.

본 발명의 다른 실시예에 따르면, 사용자 단말기(100)는 제 1 이미지에 해당하는 이미지 데이터를 배신한 이미지 신호를 수신 단말기(102)로 전송하고, 터치 수단의 위치에 대한 정보를 가지는 제어 신호가 아닌 제 2 이미지에 해당하는 위치 표시 데이터를 배신한 제어 신호를 수신 단말기(102)로 전송할 수도 있다. According to another embodiment of the present invention, the user terminal 100 transmits an image signal that has delivered image data corresponding to the first image to the receiving terminal 102, and is not a control signal having information on the position of the touch means. The control signal in which the position indication data corresponding to the second image is distributed may be transmitted to the receiving terminal 102.

도 17은 본 발명의 제 2 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다. 도 17은 사용자 단말기(100)에 리시버가 설치된 단말기 연동 시스템에서의 사용자 단말기(100)의 구조를 도시한다. 17 is a block diagram showing the structure of a user terminal according to a second embodiment of the present invention. 17 illustrates a structure of a user terminal 100 in a terminal interworking system in which a receiver is installed in the user terminal 100.

도 17을 참조하면, 본 실시예의 사용자 단말기(100)는 제어부(1700), 연동부(1702), 이미지부(1704), 터치 수단부(1706), 설정부(1708), 디스플레이부(1710), 신호부(1712), 송수신부(1714) 및 저장부(1716)를 포함할 수 있다.Referring to FIG. 17, the user terminal 100 according to the present embodiment includes a control unit 1700, an interlocking unit 1702, an image unit 1704, a touch unit 1706, a setting unit 1708, and a display unit 1710. It may include a signal unit 1712, a transceiver 1714, and a storage 1716.

이하, 제 1 실시예에서와 동일한 기능을 수행하는 구성요소들에 대한 설명은 생략한다. Hereinafter, descriptions of the components that perform the same functions as those in the first embodiment will be omitted.

이미지부(1704)는 수신 단말기(102)와 공유할 제 1 이미지를 생성하거나 제 1 이미지와 제 2 이미지의 합성 이미지를 생성한다. The image unit 1704 generates a first image to be shared with the receiving terminal 102 or generates a composite image of the first image and the second image.

터치 관리부(1706)는 터치 수단의 위치에 대한 정보를 리시버로부터 수신하여 관리한다. 즉, 터치 수단의 위치는 리시버가 감지하고, 터치 관리부(1706)는 리시버로부터 전송된 신호를 분석하여 터치 수단의 위치를 검출한다. The touch manager 1706 receives and manages information on the position of the touch means from the receiver. That is, the receiver detects the position of the touch means, and the touch manager 1706 detects the position of the touch means by analyzing a signal transmitted from the receiver.

신호부(1712)는 상기 제 1 이미지에 해당하는 이미지 데이터를 배신하는 이미지 신호, 상기 터치 수단의 위치에 대한 정보를 가지는 제어 신호 또는 합성 이미지에 해당하는 데이터를 배신한 합성 신호를 발생시킨다. 또한, 신호부(1712)는 상기 이미지 신호 또는 상기 합성 신호를 데이터 채널을 통하여 수신 단말기(102)로 전송하고 상기 제어 신호를 제어 채널을 통하여 수신 단말기(102)로 전송할 수 있다. The signal unit 1712 generates an image signal that delivers image data corresponding to the first image, a control signal having information about a position of the touch means, or a synthesized signal that distributes data corresponding to a composite image. In addition, the signal unit 1712 may transmit the image signal or the composite signal to the receiving terminal 102 through a data channel and transmit the control signal to the receiving terminal 102 through a control channel.

도 18은 본 발명의 제 3 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다. 도 18은 리시버가 사용자 단말기(100)에 내장된 단말기 연동 시스템에서의 사용자 단말기(100)의 구조를 도시한다. 18 is a block diagram showing the structure of a user terminal according to a third embodiment of the present invention. 18 illustrates a structure of a user terminal 100 in a terminal interworking system in which a receiver is embedded in the user terminal 100.

도 18을 참조하면, 본 실시예의 사용자 단말기(100)는 제어부(1800), 연동부(1802), 송수신부(1804), 이미지부(1806), 리시버부(1808), 설정부(1810), 디스플레이부(1812), 신호부(1814) 및 저장부(1816)를 포함할 수 있다. Referring to FIG. 18, the user terminal 100 of the present embodiment includes a control unit 1800, an interlocking unit 1802, a transceiver 1804, an image unit 1806, a receiver unit 1808, a setting unit 1810, and the like. The display unit 1812, the signal unit 1814, and the storage unit 1816 may be included.

이하, 제 1 실시예에서와 동일한 기능을 수행하는 구성요소들에 대한 설명은 생략한다. Hereinafter, descriptions of the components that perform the same functions as those in the first embodiment will be omitted.

이미지부(1806)는 수신 단말기(102)와 공유할 제 1 이미지를 생성하거나 제 1 이미지와 제 2 이미지의 합성 이미지를 생성한다. The image unit 1806 generates a first image to be shared with the receiving terminal 102 or generates a composite image of the first image and the second image.

리시버부(1808)는 터치 수단이 사용자 단말기(100)에 근접하거나 터치하는 경우 터치 수단으로부터 전송된 적외선 및 초음파를 수신하고, 상기 수신된 적외선 및 초음파를 분석하여 터치 수단의 위치를 검출한다. The receiver 1808 receives infrared rays and ultrasonic waves transmitted from the touch means when the touch means approaches or touches the user terminal 100, and analyzes the received infrared rays and ultrasonic waves to detect the position of the touch means.

신호부(1814)는 상기 제 1 이미지에 해당하는 이미지 데이터를 배신하는 이미지 신호, 상기 터치 수단의 위치에 대한 정보를 가지는 제어 신호 또는 합성 이미지에 해당하는 합성 이미지 데이터를 배신한 합성 신호를 발생시킨다. 또한, 신호부(1814)는 상기 이미지 신호 또는 상기 합성 신호를 데이터 채널을 통하여 수신 단말기(102)로 전송하고 상기 제어 신호를 제어 채널을 통하여 수신 단말기(102)로 전송할 수 있다. The signal unit 1814 generates an image signal for distributing image data corresponding to the first image, a control signal having information about the position of the touch means, or a synthesized signal for distributing composite image data corresponding to the composite image. In addition, the signal unit 1814 may transmit the image signal or the composite signal to the receiving terminal 102 through a data channel and transmit the control signal to the receiving terminal 102 through a control channel.

도 19는 본 발명의 제 4 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다. 도 19는 전자기 유도 방식을 사용하는 사용자 단말기(100)의 구조를 도시한다. 19 is a block diagram showing the structure of a user terminal according to a fourth embodiment of the present invention. 19 illustrates a structure of a user terminal 100 using an electromagnetic induction method.

도 19를 참조하면, 본 실시예의 사용자 단말기(100)는 제어부(1900), 연동부(1902), 이미지부(1904), 전자기 발생부(1906), 감지부(1908), 설정부(1910), 디스플레이부(1912), 신호부(1914), 송수신부(1916) 및 저장부(1920)를 포함할 수 있다. Referring to FIG. 19, the user terminal 100 of the present embodiment may include a control unit 1900, an interlocking unit 1902, an image unit 1904, an electromagnetic generator 1906, a detection unit 1908, and a setting unit 1910. The display unit 1912 may include a signal unit 1914, a transceiver 1916, and a storage unit 1920.

이하, 제 1 실시예에서와 동일한 기능을 수행하는 구성요소들에 대한 설명은 생략한다. Hereinafter, descriptions of the components that perform the same functions as those in the first embodiment will be omitted.

이미지부(1904)는 수신 단말기(102)와 공유할 제 1 이미지를 생성하거나 제 1 이미지와 제 2 이미지의 합성 이미지를 생성한다. The image unit 1904 generates a first image to be shared with the receiving terminal 102 or generates a composite image of the first image and the second image.

전자기 발생부(1906)는 전자기 유도 방식으로 터치 수단을 감지하기 위하여 전자기를 발생시키는 역할을 수행하며, 바람직하게는 디스플레이부(1912)의 후면에 배치될 수 있다. The electromagnetic generator 1906 serves to generate electromagnetic waves in order to sense the touch means by an electromagnetic induction method, and may be disposed on the rear surface of the display unit 1912.

감지부(1908)는 터치 수단의 코일에 의해 변화되는 전자기를 감지하여 터치 수단의 위치를 감지한다. The sensing unit 1908 senses the position of the touch means by sensing the electromagnetic change caused by the coil of the touch means.

신호부(1914)는 상기 제 1 이미지에 해당하는 이미지 데이터를 배신하는 이미지 신호, 상기 터치 수단의 위치에 대한 정보를 가지는 제어 신호 또는 합성 이미지 데이터를 배신한 합성 신호를 발생시킨다. 또한, 신호부(1914)는 상기 이미지 신호 또는 이미지 신호를 데이터 채널을 통하여 수신 단말기(102)로 전송하고 상기 제어 신호를 제어 채널을 통하여 수신 단말기(102)로 전송할 수 있다. The signal unit 1914 generates an image signal for distributing image data corresponding to the first image, a control signal having information on the position of the touch means, or a synthesized signal for distributing composite image data. In addition, the signal unit 1914 may transmit the image signal or the image signal to the receiving terminal 102 through a data channel and the control signal to the receiving terminal 102 through a control channel.

도 20은 본 발명의 제 5 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다. 도 20은 수신 단말기(102)가 사용자 단말기(100)로 이미지 데이터를 전송할 때의 사용자 단말기(100)의 구조를 도시한다. 20 is a block diagram showing the structure of a user terminal according to a fifth embodiment of the present invention. 20 illustrates the structure of the user terminal 100 when the receiving terminal 102 transmits image data to the user terminal 100.

도 20을 참조하면, 본 실시예의 사용자 단말기(100)는 제어부(2000), 연동부(2002), 송수신부(2004), 이미지 신호부(2006), 이미지부(2008), 감지부(2010), 신호부(2012), 디스플레이부(2014), 설정부(2016) 및 저장부(2018)를 포함할 수 있다. Referring to FIG. 20, the user terminal 100 of the present embodiment includes a control unit 2000, an interlocking unit 2002, a transceiver unit 2004, an image signal unit 2006, an image unit 2008, and a detection unit 2010. , A signal unit 2012, a display unit 2014, a setting unit 2016, and a storage unit 2018.

이하, 제 1 실시예에서와 동일한 기능을 수행하는 구성요소들에 대한 설명은 생략한다. Hereinafter, descriptions of the components that perform the same functions as those in the first embodiment will be omitted.

이미지 신호부(2006)는 수신 단말기(102)로부터 전송된 이미지 신호를 송수신부(2004)를 통하여 수신하고, 상기 수신된 이미지 신호를 분석한다. The image signal unit 2006 receives an image signal transmitted from the receiving terminal 102 through the transceiver 2004 and analyzes the received image signal.

이미지부(2008)는 이미지 신호부(2006)의 의해 분석된 이미지 신호에 해당하는 제 1 이미지를 생성하거나 제 1 이미지와 제 2 이미지의 합성 이미지를 생성한다. The image unit 2008 generates a first image corresponding to the image signal analyzed by the image signal unit 2006 or generates a composite image of the first image and the second image.

감지부(2010)는 터치 수단의 위치를 감지한다. The detector 2010 detects the position of the touch means.

신호부(2012)는 상기 터치 수단의 위치에 대한 정보를 가지는 제어 신호 또는 합성 이미지 데이터를 배신한 합성 신호를 발생시킨다. 또한, 신호부(1914)는 상기 합성 신호를 데이터 채널을 통하여 수신 단말기(102)로 전송하고 상기 제어 신호를 제어 채널을 통하여 수신 단말기(102)로 전송할 수 있다.
The signal unit 2012 generates a composite signal in which the control signal having the information on the position of the touch means or the composite image data is distributed. In addition, the signal unit 1914 may transmit the synthesized signal to the receiving terminal 102 through the data channel and the control signal to the receiving terminal 102 through the control channel.

도 21은 본 발명의 제 1 실시예에 따른 수신 단말기의 구조를 도시한 블록도이다. 21 is a block diagram showing the structure of a receiving terminal according to the first embodiment of the present invention.

본 실시예의 수신 단말기(102)는 제어부(2100), 연동부(2102), 송수신부(2104), 이미지 신호부(2106), 제어 신호부(2108), 이미지부(2110), 디스플레이부(2112) 및 저장부(2114)를 포함할 수 있다. The receiving terminal 102 of the present embodiment includes a control unit 2100, an interlocking unit 2102, a transmitting and receiving unit 2104, an image signal unit 2106, a control signal unit 2108, an image unit 2110, and a display unit 2112. ) And a storage unit 2114.

연동부(2102)는 사용자 단말기(100)와의 연동 기능을 관리한다. The linkage unit 2102 manages a linkage function with the user terminal 100.

송수신부(2104)는 사용자 단말기(100)의 통신 통로 역할을 수행한다. The transceiver 2104 serves as a communication path of the user terminal 100.

이미지 신호부(2106)는 사용자 단말기(100)로부터 전송된 이미지 데이터를 배신한 이미지 신호를 수신하고, 상기 수신된 이미지 신호를 분석하여 이미지 데이터를 검출한다. The image signal unit 2106 receives an image signal that has delivered image data transmitted from the user terminal 100, and analyzes the received image signal to detect image data.

제어 신호부(2108)는 사용자 단말기(100)로부터 전송된 제어 신호를 수신하고, 상기 수신된 제어 신호를 분석하여 터치 수단의 위치에 대한 정보를 검출한다. The control signal unit 2108 receives a control signal transmitted from the user terminal 100 and analyzes the received control signal to detect information on the position of the touch means.

이미지부(2110)는 상기 검출된 이미지 데이터에 해당하는 제 1 이미지를 디스플레이부(2112)를 통하여 디스플레이시키고, 상기 제 1 이미지와 함께 상기 검출된 터치 수단의 위치에 대한 정보에 해당하는 그림자 등과 같은 제 2 이미지를 디스플레이시킨다. 본 발명의 다른 실시예에 따르면, 이미지부(2110)는 상기 이미지 데이터와 상기 정보를 통하여 상기 제 1 이미지와 함께 상기 제 2 이미지가 표시되는 합성 이미지를 생성하고, 상기 생성된 합성 이미지를 디스플레이부(2112)를 통하여 디스플레이시킨다. The image unit 2110 displays the first image corresponding to the detected image data through the display unit 2112 and, together with the first image, a shadow corresponding to the information on the position of the detected touch means. Display the second image. According to another embodiment of the present invention, the image unit 2110 generates a composite image in which the second image is displayed together with the first image through the image data and the information, and displays the generated composite image. Display via 2112.

디스플레이부(2114)는 이미지를 디스플레이시키는 한 제한이 없이 LCD, OLED, PDP 등과 같은 다양한 디스플레이 소자로 구현될 수 있고, 터치 기능을 가질 필요도 없다. The display unit 2114 may be implemented with various display elements such as LCD, OLED, PDP, etc. without limiting to display an image, and does not need to have a touch function.

저장부(2114)는 제 1 이미지, 제 2 이미지, 합성 이미지, 응용 프로그램 등과 같은 다양한 데이터를 저장한다. The storage unit 2114 stores various data such as a first image, a second image, a composite image, an application program, and the like.

제어부(2100)는 수신 단말기(102)의 구성요소들의 동작을 전반적으로 제어한다. The controller 2100 generally controls the operations of the components of the receiving terminal 102.

도 22는 본 발명의 제 2 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다. 도 22는 사용자 단말기(100)로부터 합성 이미지가 수신 단말기(102)로 전송되는 경우의 수신 단말기(102)의 구조를 도시한다. 22 is a block diagram showing the configuration of a receiving terminal according to a second embodiment of the present invention. FIG. 22 shows the structure of the receiving terminal 102 when the composite image is transmitted from the user terminal 100 to the receiving terminal 102.

도 22를 참조하면, 본 실시예의 수신 단말기(102)는 제어부(2200), 연동부(2202), 송수신부(2204), 신호부(2206), 이미지부(2208), 디스플레이부(2210) 및 저장부(2212)를 포함할 수 있다. Referring to FIG. 22, the reception terminal 102 of the present embodiment includes a control unit 2200, an interlocking unit 2202, a transceiver 2204, a signal unit 2206, an image unit 2208, a display unit 2210, and the like. It may include a storage unit 2212.

이하, 제 1 실시예에서와 동일한 구성요소들에 대한 자세한 설명은 생략하겠다. Hereinafter, detailed description of the same components as in the first embodiment will be omitted.

신호부(2206)는 이미지 신호 및 합성 신호를 사용자 단말기(100)로부터 수신하고, 상기 수신된 이미지 신호 및 합성 신호를 분석한다. 신호부(2206)는 연동 시작시 상기 이미지 신호를 수신하고, 사용자 단말기(100)가 터치 수단을 감지하는 경우 합성 신호를 수신한다. 상기 합성 신호는 제 1 이미지와 제 2 이미지의 합성 이미지에 해당하는 데이터를 포함한다. 본 발명의 다른 실시예에 따르면, 신호부(2206)는 이미지 데이터를 배신한 이미지 신호와 제 2 이미지에 해당하는 데이터를 배신한 제어 신호를 수신할 수도 있다. The signal unit 2206 receives the image signal and the synthesized signal from the user terminal 100, and analyzes the received image signal and the synthesized signal. The signal unit 2206 receives the image signal at the start of interlocking, and receives a composite signal when the user terminal 100 detects the touch means. The composite signal includes data corresponding to the composite image of the first image and the second image. According to another exemplary embodiment of the present invention, the signal unit 2206 may receive an image signal that has delivered image data and a control signal that has delivered data corresponding to the second image.

이미지부(2208)는 상기 합성 신호에 포함된 데이터에 해당하는 합성 이미지를 디스플레이부(2210)를 통하여 디스플레이시킨다. 결과적으로, 수신 단말기(102)에는 제 1 이미지와 함께 제 2 이미지가 디스플레이된 화면이 디스플레이된다. 본 발명의 다른 실시예에 따르면, 이미지부(2208)는 이미지 데이터에 해당하는 제 1 이미지를 디스플레이부(2210)를 통하여 디스플레이시키고, 상기 제 1 이미지와 함께 상기 제 2 이미지를 디스플레이시킬 수도 있다. The image unit 2208 displays the synthesized image corresponding to the data included in the synthesized signal through the display unit 2210. As a result, the reception terminal 102 displays a screen on which the second image is displayed together with the first image. According to another exemplary embodiment of the present disclosure, the image unit 2208 may display the first image corresponding to the image data through the display unit 2210 and display the second image together with the first image.

도 23은 본 발명의 제 3 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다. 도 23은 수신 단말기(102)에 리시버가 설치된 경우의 수신 단말기(102)의 구조를 도시한다. 23 is a block diagram showing the configuration of a receiving terminal according to a third embodiment of the present invention. 23 shows the structure of the receiving terminal 102 when the receiver is installed in the receiving terminal 102.

도 23을 참조하면, 본 실시예의 수신 단말기(102)는 제어부(2300), 연동부(2302), 송수신부(2304), 신호부(2306), 리시버부(2308), 이미지부(2310), 디스플레이부(2312) 및 저장부(2314)를 포함할 수 있다. Referring to FIG. 23, the receiving terminal 102 of the present embodiment includes a control unit 2300, an interlocking unit 2302, a transceiver 2304, a signal unit 2306, a receiver unit 2308, an image unit 2310, The display unit 2312 and the storage unit 2314 may be included.

이하, 제 1 실시예에서와 동일한 구성요소들에 대한 자세한 설명은 생략하겠다. Hereinafter, detailed description of the same components as in the first embodiment will be omitted.

신호부(2306)는 이미지 데이터를 배신한 이미지 신호를 사용자 단말기(100)로부터 수신하고, 상기 수신된 이미지 신호를 분석한다. The signal unit 2306 receives an image signal from which the image data has been distributed from the user terminal 100 and analyzes the received image signal.

리시버부(2308)는 수신 단말기(102)에 설치된 리시버로부터 터치 수단의 위치에 대한 정보를 수신하고 분석한다. The receiver unit 2308 receives and analyzes information on the position of the touch means from the receiver installed in the receiving terminal 102.

이미지부(2310)는 상기 이미지 데이터에 해당하는 제 1 이미지를 디스플레이부(2312)를 통하여 디스플레이시키고, 상기 제 1 이미지와 함께 상기 터치 수단의 위치에 해당하는 제 2 이미지를 디스플레이시킨다. 본 발명의 다른 실시예에 따르면, 이미지부(2310)는 상기 제 1 이미지와 상기 제 2 이미지의 합성 이미지를 생성하고, 상기 생성된 합성 이미지를 디스플레이부(2312)를 통하여 디스플레이시킨다. The image unit 2310 displays a first image corresponding to the image data through the display unit 2312, and displays a second image corresponding to the position of the touch unit together with the first image. According to another embodiment of the present invention, the image unit 2310 generates a composite image of the first image and the second image, and displays the generated composite image through the display unit 2312.

도 24는 본 발명의 제 4 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다. 도 24는 수신 단말기(102)에 리시버가 내장된 경우의 수신 단말기(102)의 구조를 도시한다. 24 is a block diagram showing a configuration of a receiving terminal according to a fourth embodiment of the present invention. 24 shows the structure of the receiving terminal 102 when the receiver is built in the receiving terminal 102.

도 24를 참조하면, 본 실시예의 수신 단말기(102)는 제어부(2400), 연동부(2402), 송수신부(2404), 신호부(2406), 리시버부(2408), 이미지부(2410), 디스플레이부(2412) 및 저장부(2414)를 포함할 수 있다. Referring to FIG. 24, the reception terminal 102 of the present embodiment includes a control unit 2400, an interlocking unit 2402, a transceiver 2404, a signal unit 2406, a receiver unit 2408, an image unit 2410, It may include a display unit 2412 and a storage unit 2414.

이하, 제 1 실시예에서와 동일한 구성요소들에 대한 자세한 설명은 생략하겠다. Hereinafter, detailed description of the same components as in the first embodiment will be omitted.

리시버부(2408)는 사용자 단말기(100)로 근접하거나 터치하는 터치 수단으로부터 발신된 적외선 및 초음파를 감지하여 터치 수단의 위치를 검출한다. The receiver 2408 detects the position of the touch means by detecting infrared rays and ultrasonic waves transmitted from the touch means approaching or touching the user terminal 100.

이미지부(2410)는 상기 이미지 데이터에 해당하는 제 1 이미지를 디스플레이부(2412)를 통하여 디스플레이시키고, 상기 제 1 이미지와 함께 리시버부(2408)에 의해 검출된 터치 수단의 위치에 해당하는 제 2 이미지를 디스플레이시킨다. 본 발명의 다른 실시예에 따르면, 이미지부(2410)는 상기 제 1 이미지와 상기 제 2 이미지의 합성 이미지를 생성하고, 상기 생성된 합성 이미지를 디스플레이부(2312)를 통하여 디스플레이시킨다. The image unit 2410 displays the first image corresponding to the image data through the display unit 2412, and the second image corresponding to the position of the touch means detected by the receiver unit 2408 together with the first image. Display the image. According to another embodiment of the present invention, the image unit 2410 generates a composite image of the first image and the second image, and displays the generated composite image through the display unit 2312.

도 25는 본 발명의 제 5 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다. 도 25는 수신 단말기(102)가 이미지 데이터를 사용자 단말기(100)로 전송하는 경우의 수신 단말기(102)의 구조를 도시한다. 25 is a block diagram showing a configuration of a receiving terminal according to a fifth embodiment of the present invention. 25 shows the structure of the receiving terminal 102 when the receiving terminal 102 transmits the image data to the user terminal 100.

도 25를 참조하면, 본 실시예의 수신 단말기(102)는 제어부(2500), 연동부(2502), 신호부(2504), 이미지부(2506), 디스플레이부(2508), 송수신부(2510) 및 저장부(2512)를 포함할 수 있다. Referring to FIG. 25, the reception terminal 102 of the present embodiment includes a control unit 2500, an interlocking unit 2502, a signal unit 2504, an image unit 2506, a display unit 2508, a transceiver unit 2510, and the like. The storage unit 2512 may be included.

이하, 제 1 실시예에서와 동일한 구성요소들에 대한 자세한 설명은 생략하겠다. Hereinafter, detailed description of the same components as in the first embodiment will be omitted.

신호부(2504)는 수신 단말기(102)에 디스플레이된 또는 디스플레이될 제 1 이미지에 해당하는 이미지 데이터를 배신한 이미지 신호를 생성하고, 상기 생성된 이미지 신호를 송수신부(2510)를 통하여 사용자 단말기(100)로 전송한다. 또한, 신호부(2504)는 사용자 단말기(100)로부터 전송된 터치 수단의 위치에 대한 정보 또는 제 2 이미지에 해당하는 데이터를 가지는 제어 신호 또는 합성 이미지에 대한 데이터를 배신한 합성 신호를 수신하고 분석한다. The signal unit 2504 generates an image signal in which image data corresponding to the first image to be displayed or displayed on the receiving terminal 102 is distributed, and the generated image signal is transmitted to the user terminal 100 through the transceiver unit 2510. To send). In addition, the signal unit 2504 receives and analyzes the information on the position of the touch means transmitted from the user terminal 100 or the control signal having data corresponding to the second image or the synthesized signal that has distributed the data for the synthesized image. .

이미지부(2506)는 상기 터치 수단의 위치에 해당하는 제 2 이미지를 생성하고, 상기 제 1 이미지와 함께 상기 제 2 이미지를 디스플레이부(2508)를 통하여 디스플레이시킨다. 본 발명의 다른 실시예에 따르면, 이미지부(2506)는 상기 제 1 이미지와 상기 제 2 이미지의 합성 이미지를 생성하고, 상기 생성된 합성 이미지를 디스플레이부(2508)를 통하여 디스플레이시킬 수 있다.
The image unit 2506 generates a second image corresponding to the position of the touch means, and displays the second image together with the first image through the display unit 2508. According to another embodiment of the present invention, the image unit 2506 may generate a composite image of the first image and the second image, and display the generated composite image through the display unit 2508.

한편, 전술된 실시예에서는 사용자 단말기가 수신 단말기로 터치 수단의 위치 정보 또는 위치 이미지를 전송하지만, 사용자 단말기는 터치 수단의 위치를 나타내는 위치 이미지를 자신의 디스플레이부에 디스플레이할 수도 있다. 즉, 도 4에 도시된 바와 같은 그림자 이미지(400)가 사용자 단말기에도 표시될 수 있다.Meanwhile, in the above-described embodiment, the user terminal transmits the position information or the position image of the touch means to the receiving terminal, but the user terminal may display the position image indicating the position of the touch means on its display unit. That is, the shadow image 400 as shown in FIG. 4 may also be displayed on the user terminal.

보다 자세히 설명하면, 중소형 터치 패널 디스플레이부를 장착한 스마트 폰에서 웹서핑 등을 하는 경우, 손가락으로 원하는 항목을 클릭을 해야 한다. 그런데, 손가락으로는 정교하게 클릭을 할 수 없기 때문에, 클릭 대상이 되는 항목[예를 들어, 기사]이 매우 촘촘하게 기재되어 있으면, 해당 항목을 잘못 선택하는 경우가 발생한다.In more detail, when surfing the web on a smart phone equipped with a small and medium touch panel display, a user needs to click a desired item. By the way, since a finger cannot click precisely, if the item to be clicked (for example, an article) is described very densely, the wrong item may be selected.

사용자 단말기가 터치 수단의 위치 이미지를 자신의 디스플레이부에 디스플레이함으로써 이러한 문제점을 해결할 수 있다.이하 보다 자세히 설명하기로 한다.This problem can be solved by the user terminal displaying the position image of the touch means on its display unit. The following description will be made in detail.

본 발명에 따른 사용자 단말기는, 사용자 단말기[예를 들어, 스마트 폰]에 근접한 터치 수단을 인식하고, 터치 수단의 위치를 나타내는 위치 이미지를 디스플레이부에 표시한다. 보다 자세히, 디스플레이부는 터치 패널 디스플레이부일 수 있으며, 사용자 단말은 사용자 단말의 터치 패널 디스플레이부에 근접한 터치 수단을 전술된 다양한 방법으로 인식할 수 있다. 이 때, 위치 이미지는 예를 들어 커서, 포인터 또는 터치 수단의 위치에서 음영이 조절된 이미지일 수 있다.그리고 위치 이미지는 사용자 단말기의 이미지 생성부에서 생성될 수 있다.The user terminal according to the present invention recognizes a touch means close to the user terminal (for example, a smart phone) and displays a position image indicating the position of the touch means on the display. In more detail, the display unit may be a touch panel display unit, and the user terminal may recognize a touch unit proximate to the touch panel display unit of the user terminal in various ways described above. In this case, the position image may be, for example, an image whose shade is adjusted at the position of the cursor, the pointer, or the touch means. The position image may be generated by the image generator of the user terminal.

그리고 여기서 근접이란, 전술된 바와 같이, 사용자 단말로부터 기 설정된 거리 이내일 수 있으며, 정전식 터치패널이 사용되는 경우, 기 설정된 임계값(레벨) 이상의 커패시턴스 값 변화가 발생하는 경우일 수 있다. 여기서, 임계값은 도 3에서 설명된 바와 같이, 터치 수단이 직접 정전식 터치패널에 접촉한 경우의 임계값보다 낮은 값일 수 있다.As described above, the proximity may be within a preset distance from the user terminal, and when a capacitive touch panel is used, it may be a case where a capacitance value change more than a preset threshold (level) occurs. Here, the threshold value may be lower than the threshold value when the touch means directly contacts the capacitive touch panel as described with reference to FIG. 3.

터치 수단[예를 들어, 손가락]이 사용자 단말에 근접한 상태이고 사용자 단말이 이를 인식한 상태로 터치 수단이 계속 이동하는 경우, 위치 이미지는 이동되는 터치 수단에 따라 연속적으로 표시된다. 즉, 위치 이미지는 사용자 단말에 근접한 상태로 이동하는 터치 수단을 따라 이동한다.When the touch means (for example, a finger) is close to the user terminal and the touch means continues to move while the user terminal recognizes it, the position image is displayed continuously according to the touch means to be moved. That is, the location image moves along the touch means moving in a state close to the user terminal.

그리고 사용자 단말기 유저는 디스플레이부에 표시된 위치 이미지를 확인하고, 사용자 단말을 직접 터치함으로써 해당 항목을 선택할 수 있다. 즉, 터치 수단이 터치 패널 디스플레이부에 근접하여 터치 수단이 인식되면, 위치 이미지가 생성 및 이동된다. 위치 이미지 생성후에 터치 수단이 터치 패널 디스플레이부를 터치하는 경우에는 터치 패널 디스플레이부를 포함하는 일반적인 휴대폰에서의 터치 동작에 대응되도록 사용자 단말이 동작한다.이 때, 위치 이미지는 사용자 단말기 설정에 따라 디스플레이부에 표시될 수 있으며, 터치 수단이 터치 패널 디스플레이부를 직접 터치한 경우 사라질 수 있다.The user terminal user may check the position image displayed on the display unit and select the corresponding item by directly touching the user terminal. That is, when the touch means is recognized in proximity to the touch panel display, the position image is generated and moved. When the touch means touches the touch panel display unit after generating the position image, the user terminal operates to correspond to a touch operation in a general mobile phone including the touch panel display unit. In this case, the position image is displayed on the display unit according to the user terminal setting. It may be displayed, and may disappear when the touch means directly touches the touch panel display.

본 발명에 따르면, 손가락과 같이 정교하지 못한 터치 수단을 이용하는 터치 방식에서, 선택 동작의 오류를 감소시킬 수 있다.
According to the present invention, in a touch method using a touch device that is not as sophisticated as a finger, an error of a selection operation can be reduced.

또한 전술된 근접 터치의 발생 여부를 단말기 사용자에게 용이하게 제공하기 위해, 사용자 단말기는 근접 터치의 발생 정보(근접 정보)를 사용자에게 출력하는 정보 제공부를 더 포함할 수 있다. 정보 제공부는 예를 들어, 사용자의 촉각 또는 청각을 자극하는 형태로 사용자에게 근접 터치 발생 정보를 제공할 수 있다.In addition, in order to easily provide the terminal user with the occurrence of the above-described proximity touch, the user terminal may further include an information providing unit for outputting generation information (proximity information) of the proximity touch to the user. For example, the information provider may provide proximity touch generation information to the user in a form of stimulating the user's sense of touch or hearing.

근접 터치의 발생 정보가 유저의 촉각을 자극하는 형태로 제공되는 경우, 정보 제공부는 진동 모터일 수 있으며, 사용자 단말기가 근접 터치를 인식한 경우, 정보 제공부는 진동으로써 근접 터치의 발생 정보를 유저에게 제공할 수 있다. 또는 근접 터치의 발생 정보가 유저의 청각을 자극하는 형태로 제공되는 경우, 정보 제공부는 사용자 단말기의 스피커를 통해 근접 터치의 발생 정보를 유저에게 제공할 수 있다.When the generation information of the proximity touch is provided in the form of stimulating the user's tactile sense, the information providing unit may be a vibration motor, and when the user terminal recognizes the proximity touch, the information providing unit vibrates the generation information of the proximity touch to the user. Can provide. Alternatively, when the generation information of the proximity touch is provided in a form that stimulates the user's hearing, the information provider may provide the generation information of the proximity touch to the user through the speaker of the user terminal.

한편, 정보 제공부는 사용자 단말기의 유저의 근접 터치 형태에 따라, 사용자 단말기의 유저가 다양한 촉감 또는 청각을 느낄 수 있도록 다양한 유형으로 촉감 또는 청각을 유저에게 제공할 수 있다. On the other hand, the information providing unit may provide the user with a variety of types of touch or hearing so that the user of the user terminal can feel a variety of touch or hearing, depending on the proximity touch type of the user of the user terminal.

예를 들어, 사용자 단말기가 터치 수단의 근접 터치를 인식한 상태에서, 터치 수단이 이동하는 동안, 정보 제공부는 연속적인 진동 또는 소리를 발생시킬 수 있다. 즉, 최초 터치 수단의 근접 터치가 인식된 경우에는 짧게 1회 진동이 발생되고, 추후 터치 수단이 이동하는 경우 연속적으로 진동이 발생될 수 있다. 다시 설명하면, 최초 터치 수단의 근접 터치가 인식된 경우에는 제1시간 동안 진동이 발생되고 추후 터치 수단이 이동하는 경우 제2시간동안 진동이 발생될 수 있다. 여기서 제2시간은 제1시간보다 길 수 있다. For example, while the user terminal recognizes a proximity touch of the touch means, while the touch means moves, the information provider may generate continuous vibration or sound. That is, when the proximity touch of the first touch means is recognized, one short vibration may be generated, and when the touch means moves later, vibration may be continuously generated. In other words, when the proximity touch of the first touch means is recognized, vibration may occur during the first time, and when the touch means moves later, vibration may occur during the second time. The second time may be longer than the first time.

또는 최초 근접 터치가 인식된 경우에는 진동, 이후 터치 수단이 이동하는 경우에는 소리가 정보 제공부로부터 제공될 수 있다.Alternatively, when the first proximity touch is recognized, vibration may be provided, and when the touch means moves, a sound may be provided from the information providing unit.

이상 설명된 본 발명의 일실시예에 따른 사용자 단말기는 터치 패널 디스플레이부, 상기 터치 패널 디스플레이부에 근접한 터치 수단의 위치 정보를 상시 수신 단말기로 전송하는 신호부 및 상기 터치 수단이 상기 터치 패널 디스플레이부에 근접한 상태임을 나타내는 근접 정보를 제공하는 정보 제공부를 포함할 수 있다.The user terminal according to the embodiment of the present invention described above includes a touch panel display unit, a signal unit for transmitting the position information of the touch means adjacent to the touch panel display unit to the receiving terminal at all times, and the touch means is the touch panel display unit. It may include an information providing unit for providing proximity information indicating that the state is close to.

여기서, 정보 제공부가 제공하는 근접 정보는 진동 또는 소리 형태의 정보일 수 있으며, 사용자 단말기는 터치 수단이 터치 패널 디스플레이부에 근접한 상태임을 인식하는 인식부를 더 포함할 수 있다.Here, the proximity information provided by the information provider may be information in the form of vibration or sound, and the user terminal may further include a recognition unit recognizing that the touch means is in proximity to the touch panel display.

그리고 정보 제공부는, 인식부가 상기 터치 수단의 근접 상태를 인식한 경우, 제1시간동안 근접 정보를 제공하며, 인식부가 터치 수단의 근접 상태를 인식한 상태에서 터치 수단이 이동하는 경우, 제2시간동안 근접 정보를 제공할 수 있다. 제2시간은 인식부가 터치 수단의 근접 상태를 인식한 상태에서 터치 수단이 이동하는 시간에 대응되는 시간일 수 있다.The information providing unit may provide proximity information for a first time when the recognition unit recognizes the proximity state of the touch means, and when the touch means moves while the recognition unit recognizes the proximity state of the touch means, the second time period. Proximity information can be provided while The second time may be a time corresponding to the time when the touch means moves in a state where the recognizer recognizes a proximity state of the touch means.

또한 정보 제공부는, 인식부가 터치 수단의 근접 상태를 인식한 제1경우와 인식부가 터치 수단의 근접 상태를 인식한 상태에서 터치 수단이 이동하는 제2경우에 각각 다른 형태의 근접 정보를 제공할 수 있다. 전술된 바와 같이 제1경우에는 진동, 제2경우에는 소리를 제공할 수 있거나 또는 제1경우에는 제1패턴의 진동 제2경우에는 유저가 터치 수단의 이동을 느낄 수 있도록 제2패턴의 진동을 제공할 수 있다.The information providing unit may provide different types of proximity information in a first case where the recognizer recognizes a proximity state of the touch means and a second case in which the touch means moves while the recognizer recognizes the proximity state of the touch means. have. As described above, in the first case, vibration may be provided in the second case, or in the second case, the first pattern may be vibrated. In the second case, the second pattern may be vibrated so that the user can feel the movement of the touch means. Can provide.

한편, 정보 제공부는 인식부의 근접 상태 인식 이후, 터치 수단이 터치 패널 디스플레이부를 터치한 경우에는, 근접 정보를 제공하지 않음으로써, 사용자 단말기 유저는 근접 상태와 직접 터치를 구분할 수 있다. On the other hand, when the touch means touches the touch panel display after the recognition of the proximity state of the recognition unit, the information providing unit does not provide the proximity information, so that the user terminal user can distinguish the proximity state from the touch directly.

또한 정보 제공부는 터치 수단이 터치 패널 디스플레이부를 터치한 이후, 인식부가 두번째로 터치 수단의 근접 상태를 인식한 경우, 근접 정보를 제공할 수 있다. In addition, the information providing unit may provide proximity information when the recognition unit recognizes the proximity state of the touch unit for the second time after the touch unit touches the touch panel display unit.

터치 수단이 사용자 단말기에 근접하고 사용자 단말기를 터치하면, 터치 수단은 사용자 단말기로부터 이격된다. 즉, 터치 목적을 달성하였기 때문에 다음 동작을 위해 터치 수단은 사용자 단말기로부터 이격되는데 이 때, 다시 근접 상태가 발생한다. 이 경우는 터치 수단이 터치 패널 디스플레이부를 터치한 이후 최초의 근접 상태로서 유저가 의도적으로 근접 상태를 발생한 것이 아니기 때문에, 정보 제공부는 근접 정보를 제공하지 않는다. 그리고 두번째 근접 상태가 발생한 경우, 즉, 유저가 의도적으로 근접 상태를 발생한 경우, 정보 제공부는 근접 정보를 제공할 수 있다.
When the touch means is close to the user terminal and touches the user terminal, the touch means is spaced apart from the user terminal. That is, since the touch purpose is achieved, the touch means is spaced apart from the user terminal for the next operation. At this time, the proximity state occurs again. In this case, since the user does not intentionally generate the proximity state as the first proximity state after the touch means touches the touch panel display, the information providing unit does not provide the proximity information. When the second proximity state occurs, that is, when the user intentionally generates the proximity state, the information provider may provide the proximity information.

한편, 전술된 다양한 단말 간의 연동 시스템은 다음과 같이 적용될 수도 있다.Meanwhile, the interworking system between the various terminals described above may be applied as follows.

가정에서 또는 이동 중에 테블릿 PC를 이용하다가 스마트 폰으로 전화 또는 메시지가 올 수 있다. 그런데, 스마트 폰이 가방 또는 주머니에 있는 등, 테블릿 PC 사용자가 스마트 폰을 꺼내거나 찾기에 귀찮아 하는 위치에 스마트 폰이 위치할 수 있다.While using a tablet PC at home or on the go, a call or message may come to your smartphone. However, the smart phone may be located at a location where the tablet PC user is bothered to take out or find the smart phone, such as the smart phone in a bag or a pocket.

본 발명은 스마트 폰으로 전화 또는 메시지가 오는 등 통신과 관련된 특정 이벤트가 발생한 경우, 이벤트 발생 정보를 테블릿 PC로 전송한다. 여기에서는 스마트 폰과 테블릿 PC를 일예로서 설명되고 있으나, 본 발명은 모바일 단말에는 모두 적용 가능하다. 예컨대, 테블릿 PC로 전화 또는 메시지가 오는 등 특정 이벤트가 발생한 경우, 테블릿 PC가 이벤트 발생 정보를 노트북으로 전송할 수도 있다. 이하 설명의 편의를 위해 스마트 폰과 테블릿 PC로 설명하기로 한다.The present invention transmits event occurrence information to the tablet PC when a specific event related to communication such as a call or a message comes to the smart phone. Herein, a smartphone and a tablet PC are described as an example, but the present invention is applicable to both mobile terminals. For example, when a specific event occurs such as a call or a message to the tablet PC, the tablet PC may transmit the event occurrence information to the notebook. For convenience of description below, a smartphone and a tablet PC will be described.

스마트 폰의 이벤트 발생 정보는 메시지 형식으로 테블릿 PC로 전송되거나 또는 이벤트가 발생한 스마트 폰에서 디스플레이되는 이미지가 테블릿 PC로 전송될 수 있다. 메시지 형식으로 이벤트 발생 정보가 전송되는 경우, 이벤트 발생 정보에는 전화 수신 사실, 수신 전화 번호 및 메시지 내용 등이 포함될 수 있다. The event occurrence information of the smartphone may be transmitted to the tablet PC in the form of a message, or the image displayed on the smartphone where the event occurs may be transmitted to the tablet PC. When event occurrence information is transmitted in a message format, the event occurrence information may include a call reception fact, a reception telephone number, and a message content.

또한 본 발명은 이벤트 발생 정보 전송에 그치지 않고, 테블릿 PC에서 이벤트 발생에 대응할 수 있도록 한다. 먼저, 스마트폰으로 전화가 온 경우, 테블릿 PC로 이벤트 발생 정보가 전송된다. 스마트 폰의 이벤트 발생 정보가 메시지 형식으로 전송되는 경우에, 테블릿 PC는 통화 수락 기능을 제공하는 인터페이스를 제공할 수 있다. 또는 이벤트 발생 정보가 스마트 폰에서 디스플레이되는 이미지 형태로 테블릿 PC로 전송되는 경우, 테블릿 PC는 스마트 폰처럼 동작될 수 있다. In addition, the present invention not only transmits event occurrence information, but also enables event occurrence in a tablet PC. First, when a call comes to a smartphone, event occurrence information is transmitted to the tablet PC. When event generation information of the smart phone is transmitted in a message format, the tablet PC may provide an interface for providing a call acceptance function. Alternatively, when event occurrence information is transmitted to the tablet PC in the form of an image displayed on the smartphone, the tablet PC may operate like a smartphone.

테블릿 PC 사용자는 디스플레이되는 화면에서 통화를 선택할 수 있으며, 이 경우 통화 선택에 따른 데이터가 스마트 폰으로 전송된다. 그리고 스마트 폰은 통화 기능이 활성화된다.Tablet PC users can select a call from the screen that is displayed, in which case the data according to the call selection is sent to the smartphone. And the smartphone is activated call function.

전화 수신자 즉, 테블릿 PC 사용자는 스마트 폰이 아닌 테블릿 PC를 이용하여 통화가 가능하다. 테블릿 PC 마이크를 통해 입력된 음성 데이터는 스마트 폰으로 전송되고, 스마트 폰을 통해 발신자 전화로 전송된다. 발신자 음성 데이터는 스마트 폰을 통해 테블릿 PC로 전송되고, 테블릿 PC 스피커를 통해 출력된다.The call receiver, that is, the tablet PC user, can make a call using the tablet PC, not the smartphone. Voice data entered through the tablet PC microphone is sent to the smartphone, and sent to the caller phone through the smartphone. Caller voice data is sent to the tablet PC through the smartphone and output through the tablet PC speaker.

영상 통화의 경우, 음성 데이터 이외 영상 데이터가 추가될 수 있으며 전술된 바와 같이 송수신되며, 영상 데이터는 디스플레이부를 통해 출력된다.In the case of a video call, video data other than audio data may be added and transmitted and received as described above, and the video data is output through the display unit.

스마트폰으로 메시지가 수신된 경우, 테블릿 PC로 이벤트 발생 정보가 전송된다. 스마트 폰의 이벤트 발생 정보가 메시지 형식으로 전송되는 경우에, 테블릿 PC는 메시지 입력 인터페이스를 제공할 수 있다. 또는 이벤트 발생 정보가 스마트 폰에서 디스플레이되는 이미지 형태로 테블릿 PC로 전송되는 경우, 테블릿 PC는 스마트 폰처럼 동작될 수 있다. When a message is received by the smartphone, event occurrence information is transmitted to the tablet PC. When the event occurrence information of the smartphone is transmitted in a message format, the tablet PC may provide a message input interface. Alternatively, when event occurrence information is transmitted to the tablet PC in the form of an image displayed on the smartphone, the tablet PC may operate like a smartphone.

메시지 수신자 즉, 테블릿 PC 사용자는 스마트 폰이 아닌 테블릿 PC를 이용하여 메시지를 발신자에게 회신할 수 있다. 테블릿 PC 사용자는 디스플레이되는 화면에서 메시지를 입력하고 입력된 메시지는 스마트 폰을 통해 발신자에게 전송된다. The message receiver, i.e. the tablet PC user, may reply to the sender using the tablet PC, not the smartphone. The tablet PC user enters a message on the displayed screen and the entered message is sent to the caller via the smartphone.

즉, 본 발명에 따르면, 자기 방 침대 위에서 테블릿 PC를 이용하던 사용자는, 거실에 있는 스마트 폰에 전화가 온 경우, 거실까지 갈 필요없이 사용하던 테블릿 PC를 이용해 통화를 할 수 있다.That is, according to the present invention, the user who used the tablet PC on his or her bed may make a call using the tablet PC that was used without having to go to the living room when the phone came to the smart phone in the living room.

한편, 전술된 실시예의 구성 요소는 프로세스적인 관점에서 용이하게 파악될 수 있다. 즉, 각각의 구성 요소는 각각의 프로세스로 파악될 수 있다.On the other hand, the components of the above-described embodiment can be easily identified from a process point of view. That is, each component can be identified as a respective process.

또한 앞서 설명한 기술적 내용들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예들을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, the above-described technical features may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

상기한 본 발명의 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대한 통상의 지식을 가지는 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.The embodiments of the present invention described above are disclosed for purposes of illustration, and those skilled in the art having ordinary knowledge of the present invention may make various modifications, changes, and additions within the spirit and scope of the present invention. Should be considered to be within the scope of the following claims.

100 : 사용자 단말기 102 : 수신 단말기
400 : 제 2 이미지 500 : 터치 펜
600 : 리시버 602 : 터치 펜
700 : 터치 패널 702 : 전자기 발생부
704 : 터치 펜 1000 : 제 2 이미지
1010 : UI 1200 : 리시버
1202 : 터치 펜 1400 : 동글
1402 : 터치 펜
100: user terminal 102: receiving terminal
400: second image 500: touch pen
600: receiver 602: touch pen
700: touch panel 702: electromagnetic generator
704: touch pen 1000: the second image
1010: UI 1200: Receiver
1202: Touch Pen 1400: Dongle
1402: touch pen

Claims (2)

통신 관련 이벤트 발생에 따른 이벤트 정보를 사용자 단말로 전송하는 전송부; 상기 사용자 단말로부터 상기 이벤트에 대한 응답 데이터를 수신하는 수신부;
를 포함하는 모바일 단말.
A transmitter to transmit event information according to a communication related event to a user terminal; Receiving unit for receiving the response data for the event from the user terminal;
The mobile terminal comprising:
제1항에 있어서,
상기 통신 관련 이벤트는
전화 수신 또는 메시지 수신 이벤트이며,
상기 응답 데이터는
상기 전화 수신에 대한 승낙 또는 상기 메시지 수신에 대한 회신 데이터인
모바일 단말.
The method of claim 1,
The communication related event
Incoming or incoming call event.
The response data
Acknowledgment of receipt of the call or reply data of receipt of the message.
Mobile terminal.
KR1020120053747A 2012-05-21 2012-05-21 System for interworking and controlling devices and user device used in the same KR20130129693A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120053747A KR20130129693A (en) 2012-05-21 2012-05-21 System for interworking and controlling devices and user device used in the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120053747A KR20130129693A (en) 2012-05-21 2012-05-21 System for interworking and controlling devices and user device used in the same

Publications (1)

Publication Number Publication Date
KR20130129693A true KR20130129693A (en) 2013-11-29

Family

ID=49856239

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120053747A KR20130129693A (en) 2012-05-21 2012-05-21 System for interworking and controlling devices and user device used in the same

Country Status (1)

Country Link
KR (1) KR20130129693A (en)

Similar Documents

Publication Publication Date Title
US10656895B2 (en) System for linking and controlling terminals and user terminal used in the same
US20200257415A1 (en) Identifying applications on which content is available
US10101874B2 (en) Apparatus and method for controlling user interface to select object within image and image input device
US9104239B2 (en) Display device and method for controlling gesture functions using different depth ranges
EP2979365B1 (en) Mobile terminal and method of controlling the same
US20150193036A1 (en) User terminal apparatus and control method thereof
AU2013276998B2 (en) Mouse function provision method and terminal implementing the same
US20130298162A1 (en) Media system and method of providing recommended search term corresponding to an image
KR20130142824A (en) Remote controller and control method thereof
KR102004986B1 (en) Method and system for executing application, device and computer readable recording medium thereof
KR20150005020A (en) coordinate measuring apparaturs which measures input position of coordinate indicating apparatus and method for controlling thereof
KR101384493B1 (en) System for interworking and controlling devices and user device used in the same
KR20110134810A (en) A remote controller and a method for remote contrlling a display
US20220368993A1 (en) User interfaces for media sharing and communication sessions
US20130244730A1 (en) User terminal capable of sharing image and method for controlling the same
KR20170009302A (en) Display apparatus and control method thereof
KR101212364B1 (en) System for interworking and controlling devices and user device used in the same
KR102462054B1 (en) Method and device for implementing user interface of live auction
KR101151549B1 (en) System for interworking and controlling devices and user device used in the same
KR20140038854A (en) Mobile device and method for user interface in mobile device
KR20130129693A (en) System for interworking and controlling devices and user device used in the same
KR101515912B1 (en) User Terminal Capable of Sharing Image and Method for Controlling the Same
KR101951484B1 (en) System for interworking and controlling devices and reception device used in the same
KR20130129684A (en) System for interworking and controlling devices and user device used in the same
KR20140040346A (en) Mobile terminal capable of input processing using input classification and method thereof

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination