KR20130129693A - System for interworking and controlling devices and user device used in the same - Google Patents
System for interworking and controlling devices and user device used in the same Download PDFInfo
- Publication number
- KR20130129693A KR20130129693A KR1020120053747A KR20120053747A KR20130129693A KR 20130129693 A KR20130129693 A KR 20130129693A KR 1020120053747 A KR1020120053747 A KR 1020120053747A KR 20120053747 A KR20120053747 A KR 20120053747A KR 20130129693 A KR20130129693 A KR 20130129693A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- touch
- terminal
- user terminal
- unit
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72484—User interfaces specially adapted for cordless or mobile telephones wherein functions are triggered by incoming communication events
Abstract
Description
단말기 연동 및 제어 시스템 및 이에 사용되는 사용자 단말기{SYSTEM FOR INTERWORKING AND CONTROLLING DEVICES AND USER DEVICE USED IN THE SAME}Terminal interworking and control system and user terminal used in the same {SYSTEM FOR INTERWORKING AND CONTROLLING DEVICES AND USER DEVICE USED IN THE SAME}
최근, 사람들은 스마트폰 등의 전자 단말기를 이용하여 게임을 하거나 이메일을 확인하거나 웹 서핑을 즐긴다. 상기 전자단말기는 가볍고 작기 때문에 휴대하기가 편리한 장점이 있으나, 화면이 작아서 게임 등을 충분하게 즐길 수 없는 단점도 있다. 즉, 상기 전자단말기의 작은 사이즈로 인하여 게임, 웹 서핑 등의 즐거움이 반감되고 이메일 등을 확인하기가 불편하였다.Recently, people enjoy playing games, checking e-mails or surfing the web by using electronic terminals such as smartphones. The electronic terminal has the advantage of being convenient to carry because it is light and small, but there is also a disadvantage that the screen is not small enough to enjoy games. That is, due to the small size of the electronic terminal, the enjoyment of games, web surfing, etc. is halved and it is inconvenient to check e-mail.
본 발명은 큰 사이즈의 단말기와 작은 사이즈의 단말기를 연동시키고 큰 사이즈의 단말기를 보면서 작은 사이즈의 단말기를 제어할 수 있는 방법 및 시스템을 제공하는 것이다.The present invention provides a method and system for interlocking a large sized terminal with a small sized terminal and controlling the small sized terminal while viewing the large sized terminal.
상기한 바와 같은 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 단말기 연동 시스템에 사용되는 사용자 단말기는 수신 단말기와 공유될 이미지 데이터를 출력하는 이미지부; 및 상기 이미지부로부터 출력된 이미지 데이터를 가지는 이미지 신호 및 상기 사용자 단말기로 근접한 터치 수단의 위치 정보를 가지는 제어 신호를 상기 수신 단말기로 전송하는 신호부를 포함한다. In order to achieve the above object, the user terminal used in the terminal interworking system according to an embodiment of the present invention includes an image unit for outputting image data to be shared with the receiving terminal; And a signal unit for transmitting an image signal having the image data output from the image unit and a control signal having position information of the touch means close to the user terminal to the receiving terminal.
본 발명의 다른 실시예에 따른 단말기 연동 시스템에 사용되는 사용자 단말기는 수신 단말기와 공유될 제 1 이미지에 해당하는 이미지 데이터 및 터치 수단이 상기 사용자 단말기로 근접하였을 때의 상기 터치 수단의 위치를 표시하는 제 2 이미지에 해당하는 위치 표시 데이터를 생성하는 이미지부; 및 상기 이미지부에 의해 생성된 이미지 데이터 및 위치 표시 데이터를 상기 수신 단말기로 전송하는 신호부를 포함한다. A user terminal used in a terminal interworking system according to another embodiment of the present invention displays an image data corresponding to a first image to be shared with a receiving terminal and a position of the touch means when the touch means approaches the user terminal. An image unit generating position indication data corresponding to the second image; And a signal unit for transmitting the image data and the position indication data generated by the image unit to the receiving terminal.
본 발명의 또 다른 실시예에 따른 단말기 연동 시스템에 사용되는 사용자 단말기는 수신 단말기와 공유될 제 1 이미지와 터치 수단이 상기 사용자 단말기로 근접하였을 때의 상기 터치 수단의 위치를 표시하는 제 2 이미지를 합성한 합성 이미지에 해당하는 합성 이미지 데이터를 출력하는 이미지부; 및 상기 이미지부로부터 출력된 합성 이미지 데이터를 배신한 합성 신호를 상기 수신 단말기로 전송하는 신호부를 포함한다. A user terminal used in a terminal interworking system according to another embodiment of the present invention includes a first image to be shared with a receiving terminal and a second image indicating a position of the touch means when the touch means is close to the user terminal. An image unit configured to output synthesized image data corresponding to the synthesized synthesized image; And a signal unit which transmits the synthesized signal which has distributed the composite image data output from the image unit to the receiving terminal.
본 발명의 또 다른 실시예에 따른 단말기 연동 시스템에 사용되는 사용자 단말기는 제 1 이미지에 해당하는 이미지 데이터를 수신하는 이미지 신호부; 및 상기 사용자 단말기로 근접한 터치 수단의 위치 정보를 가지는 제어 신호를 수신 단말기로 전송하는 신호부를 포함한다. A user terminal used in a terminal interworking system according to another embodiment of the present invention includes an image signal unit for receiving image data corresponding to a first image; And a signal unit for transmitting a control signal having position information of the touch means close to the user terminal to the receiving terminal.
본 발명의 또 다른 실시예에 따른 단말기 연동 시스템에 사용되는 사용자 단말기는 제 1 이미지에 해당하는 이미지 데이터를 수신하는 이미지 신호부; 및 상기 사용자 단말기로 근접한 터치 수단의 위치 정보를 나타내는 제 2 이미지에 해당하는 위치 표시 데이터를 상기 수신 단말기로 전송하는 신호부를 포함한다. A user terminal used in a terminal interworking system according to another embodiment of the present invention includes an image signal unit for receiving image data corresponding to a first image; And a signal unit for transmitting the position indication data corresponding to the second image indicating the position information of the touch means close to the user terminal to the receiving terminal.
본 발명의 또 다른 실시예에 따른 단말기 연동 시스템에 사용되는 사용자 단말기는 제 1 이미지에 해당하는 이미지 데이터를 수신하는 이미지 신호부; 및 상기 사용자 단말기로 근접한 터치 수단의 위치 정보를 나타내는 제 2 이미지와 상기 수신된 이미지 데이터에 해당하는 제 1 이미지의 합성 이미지에 해당하는 합성 이미지 데이터를 상기 수신 단말기로 전송하는 신호부를 포함한다. A user terminal used in a terminal interworking system according to another embodiment of the present invention includes an image signal unit for receiving image data corresponding to a first image; And a signal unit configured to transmit the composite image data corresponding to the composite image of the first image corresponding to the second image representing the position information of the touch means close to the user terminal and the received image data to the receiving terminal.
본 발명의 또 다른 실시예에 따른 단말기 연동 시스템에 사용되는 사용자 단말기는 터치 수단의 근접시 상기 터치 수단의 위치를 감지하는 감지부; 및 상기 감지된 터치 수단의 위치에 대한 정보를 가지는 제어 신호를 상기 수신 단말기로 전송하는 신호부를 포함한다. A user terminal used in a terminal interworking system according to another embodiment of the present invention includes a sensing unit for detecting the position of the touch means in the proximity of the touch means; And a signal unit for transmitting a control signal having information about the position of the detected touch means to the receiving terminal.
본 발명의 또 다른 실시예에 따른 사용자 단말기는 디스플레이부; 및 A user terminal according to another embodiment of the present invention includes a display unit; And
이미지 정보 및 상기 사용자 단말기로 근접한 터치 수단의 위치 정보를 수신 단말기로 전송하는 신호부를 포함한다. It includes a signal unit for transmitting the image information and the location information of the touch means close to the user terminal to the receiving terminal.
본 발명의 또 다른 실시예에 따른 사용자 단말기는 디스플레이부; 및A user terminal according to another embodiment of the present invention includes a display unit; And
합성 이미지 데이터를 수신 단말기로 전송하는 신호부를 포함한다. 여기서, 상기 합성 이미지 데이터는 제 1 이미지 데이터 및 상기 사용자 단말기로 근접한 터치 수단의 위치를 나타내는 제 2 이미지 데이터를 가진다.And a signal unit for transmitting the composite image data to the receiving terminal. Here, the composite image data has first image data and second image data indicating a position of a touch means proximate to the user terminal.
본 발명에 단말기 연결 및 제어 방법 및 시스템은 제 1 이미지를 단말기들에 공유시킨 상태에서 작은 사이즈의 단말기에 대한 사용자의 제어 동작과 관련된 제 2 이미지를 큰 사이즈의 단말기의 제 1 이미지 위에 표시하므로, 사용자는 큰 사이즈의 단말기를 보면서 작은 사이즈의 단말기의 동작을 제어할 수 있다. 따라서, 사용자는 작은 사이즈의 단말기를 통하여 게임, 웹 서핑 등을 충분히 즐길 수 있다.Since the method and system for connecting and controlling a terminal according to the present invention share a first image with terminals, a second image related to a user's control of a small terminal is displayed on the first image of the large terminal. The user can control the operation of the small size terminal while looking at the large size terminal. Therefore, the user can fully enjoy games, surfing the web, and the like through a small size terminal.
도 1은 본 발명의 일 실시예에 따른 단말기 연동 및 제어 시스템을 개략적으로 도시한 도면이다.
도 2는 본 발명의 제 1 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다.
도 3은 도 2의 단말기 연동 및 제어 방법에 사용되는 제어 방법을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 이미지 공유 화면을 도시한 평면도이다.
도 5는 본 발명의 일 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다.
도 6은 본 발명의 다른 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다.
도 7은 본 발명의 또 다른 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다.
도 8은 본 발명의 제 2 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다.
도 9는 본 발명의 제 3 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다.
도 10은 본 발명의 다른 실시예에 따른 단말기 연동 시스템을 도시한 도면이다.
도 11은 본 발명의 제 4 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다.
도 12는 본 발명의 또 다른 실시예에 따른 단말기 연동 시스템을 도시한 도면이다.
도 13은 본 발명의 제 5 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다.
도 14는 본 발명의 또 다른 실시예에 따른 단말기 연동 시스템을 도시한 도면이다.
도 15는 본 발명의 일 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다.
도 16은 본 발명의 일 실시예에 따른 도 15의 이미지부의 구조를 도시한 블록도이다.
도 17은 본 발명의 제 2 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다.
도 18은 본 발명의 제 3 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다.
도 19는 본 발명의 제 4 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다.
도 20은 본 발명의 제 5 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다.
도 21은 본 발명의 제 1 실시예에 따른 수신 단말기의 구조를 도시한 블록도이다.
도 22는 본 발명의 제 2 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다.
도 23은 본 발명의 제 3 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다.
도 24는 본 발명의 제 4 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다.
도 25는 본 발명의 제 5 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다.1 is a view schematically showing a terminal interworking and control system according to an embodiment of the present invention.
2 is a flowchart illustrating a terminal interworking and control method according to a first embodiment of the present invention.
3 is a diagram illustrating a control method used in the terminal interworking and control method of FIG. 2.
4 is a plan view illustrating an image sharing screen according to an exemplary embodiment of the present invention.
5 is a diagram illustrating a touch means sensing method according to an embodiment of the present invention.
6 is a view showing a touch means detection method according to another embodiment of the present invention.
7 is a diagram illustrating a touch means sensing method according to another embodiment of the present invention.
8 is a flowchart illustrating a terminal interworking and control method according to a second embodiment of the present invention.
9 is a flowchart illustrating a terminal interworking and control method according to a third embodiment of the present invention.
10 is a diagram illustrating a terminal interworking system according to another embodiment of the present invention.
11 is a flowchart illustrating a terminal interworking and control method according to a fourth embodiment of the present invention.
12 is a diagram illustrating a terminal interworking system according to another embodiment of the present invention.
13 is a flowchart illustrating a terminal interworking and control method according to a fifth embodiment of the present invention.
14 is a diagram illustrating a terminal interworking system according to another embodiment of the present invention.
15 is a block diagram showing the structure of a user terminal according to an embodiment of the present invention.
FIG. 16 is a block diagram illustrating a structure of the image unit of FIG. 15 according to an embodiment of the present invention. FIG.
17 is a block diagram showing the structure of a user terminal according to a second embodiment of the present invention.
18 is a block diagram showing the structure of a user terminal according to a third embodiment of the present invention.
19 is a block diagram showing the structure of a user terminal according to a fourth embodiment of the present invention.
20 is a block diagram showing the structure of a user terminal according to a fifth embodiment of the present invention.
21 is a block diagram showing the structure of a receiving terminal according to the first embodiment of the present invention.
22 is a block diagram showing the configuration of a receiving terminal according to a second embodiment of the present invention.
23 is a block diagram showing the configuration of a receiving terminal according to a third embodiment of the present invention.
24 is a block diagram showing a configuration of a receiving terminal according to a fourth embodiment of the present invention.
25 is a block diagram showing a configuration of a receiving terminal according to a fifth embodiment of the present invention.
이하에서는 첨부된 도면들을 참조하여 본 발명의 실시예들을 자세히 설명하도록 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 단말기 연동 및 제어 시스템은 단말기들을 연동시키고 제어하는 시스템, 특히 이미지 공유 및 공유된 이미지를 기초로 하여 단말기의 동작을 제어하는 시스템에 관한 것이다. 특히, 본 발명의 단말기 연동 및 제어 시스템은 사용자가 직접적으로 제어하는, 예를 들어 터치 방식으로 제어하는 작은 사이즈의 단말기와 큰 사이즈의 단말기를 연동시킨 후 사용자가 큰 사이즈의 단말기를 보면서 작은 사이즈의 단말기를 제어할 수 있는 다양한 방법들을 제안한다. 다만, 설명의 편의를 위하여 사용자가 직접적으로 제어하는 작은 사이즈의 단말기를 사용자 단말기라 하고 상기 사용자 단말기로부터의 터치 수단의 위치 정보를 수신하는 큰 사이즈의 단말기를 수신 단말기라 하겠다. 물론, 바람직하게는 사용자 단말기가 수신 단말기보다 작은 사이즈를 가지지만, 단말기들의 사이즈는 위의 사이즈로 한정되지는 않는다. Terminal interworking and control system of the present invention relates to a system for interlocking and controlling the terminals, in particular a system for controlling the operation of the terminal based on the image sharing and the shared image. In particular, the terminal interworking and control system of the present invention, after interlocking a small size terminal directly controlled by the user, for example, a touch method and a large size terminal, while the user looks at the large size terminal of the small size Various methods for controlling the terminal are proposed. However, for convenience of description, a small sized terminal directly controlled by a user is called a user terminal, and a large sized terminal that receives location information of the touch means from the user terminal is called a receiving terminal. Of course, the user terminal preferably has a smaller size than the receiving terminal, but the size of the terminals is not limited to the above size.
본 발명의 시스템에 사용되는 단말기는 이미지를 디스플레이할 수 있는 기능 및 유선/무선 통신 기능을 가지나, 통신 기능은 필수적인 기능은 아니다. 다만, 실생활 적용을 고려하면, 각 단말기들은 이미지 디스플레이 기능 및 통신 기능을 가지는 것이 바람직하다. 상기 단말기는 이미지를 디스플레이시키고 다른 단말기와 신호를 송수신할 수 있는 한 특정 장치로 제한되지는 않으며, 예를 들어 스마트폰, 스마트 TV, PC, 태블릿 PC, 노트북, 터치 패드, 게임기, 클라우드 PC 등과 같은 다양한 기기들이 본 발명의 단말기로서 사용될 수 있다. 다만, 작은 사이즈를 가지는 단말기는 터치 기능을 가지는 것이 바람직하다. The terminal used in the system of the present invention has a function of displaying an image and a wired / wireless communication function, but the communication function is not an essential function. However, considering the real life application, it is preferable that each terminal has an image display function and a communication function. The terminal is not limited to a specific device as long as it can display an image and transmit or receive a signal with another terminal, for example, a smartphone, a smart TV, a PC, a tablet PC, a laptop, a touch pad, a game console, a cloud PC, or the like. Various devices can be used as the terminal of the present invention. However, it is preferable that a terminal having a small size has a touch function.
이하, 본 발명의 다양한 실시예들에 따른 단말기 연동 및 제어 시스템을 첨부된 도면들을 참조하여 상술하겠다. 다만, 설명의 편의를 위하여 단말기들이 공유하는 이미지를 제 1 이미지라 하고, 터치 수단의 위치 정보를 나타내는 이미지를 제 2 이미지(위치 표시 이미지)라 하겠다. Hereinafter, a terminal interworking and control system according to various embodiments of the present invention will be described with reference to the accompanying drawings. However, for convenience of description, an image shared by the terminals will be referred to as a first image, and an image representing position information of the touch means will be referred to as a second image (location display image).
도 1은 본 발명의 일 실시예에 따른 단말기 연동 및 제어 시스템을 개략적으로 도시한 도면이다. 1 is a view schematically showing a terminal interworking and control system according to an embodiment of the present invention.
도 1을 참조하면, 본 실시예의 단말기 연동 및 제어 시스템은 사용자 단말기(100) 및 수신 단말기(102)를 포함한다. Referring to FIG. 1, the terminal interworking and control system of the present embodiment includes a
사용자 단말기(100)는 사용자가 직접적으로 제어하는 이미지 디스플레이 가능한 단말기이며, 예를 들어 앵그리 버드 등과 같은 게임의 실행이 가능한 스마트폰일 수 있다. 바람직하게는, 사용자 단말기(100)는 터치 기능을 가지면서 상대적으로 작은 사이즈를 가지는 단말기이다. The
수신 단말기(102)는 사용자가 직접 조작하지는 않으나 사용자 단말기(100)와 연동하는 단말기이며, 이미지 디스플레이 가능한 단말기이다. 수신 단말기(102)는 사용자 단말기(100)와 다른 목적으로 사용되는 소자일 수 있으며, 예를 들어 드라마 등의 방송 프로그램을 방영하는 TV일 수 있다. 바람직하게는, 수신 단말기(102)는 상대적으로 큰 사이즈를 가지는 단말기이되, 필수적으로 터치 기능을 가질 필요는 없다. The receiving
사용자 단말기(100)가 자신이 디스플레이하는 제 1 이미지에 해당하는 이미지 데이터를 이미지 신호에 배신하여 해당 채널을 통하여 수신 단말기(102)로 전송하면, 수신 단말기(102)는 이미지 신호를 통하여 이미지 데이터를 획득하고, 상기 이미지 데이터에 해당하는 제 1 이미지를 디스플레이시킨다. 결과적으로, 사용자 단말기(100)와 수신 단말기(102)는 동일한 제 1 이미지를 디스플레이시키며, 즉 제 1 이미지를 공유한다. 다만, 수신 단말기(102)에 디스플레이되는 제 1 이미지는 사용자 단말기(100)에 디스플레이된 제 1 이미지와 실질적으로 동일하지만, 수신 단말기(102)의 단말기 특성으로 인하여 색감이 다르거나 디스플레이 비율 등이 다를 수는 있다. 수신 단말기(102)는 상기 전송된 이미지 데이터를 특별한 가공없이 그대로 해당 이미지로 디스플레이할 수도 있지만, 상기 전송된 이미지 데이터를 자신의 특성에 맞도록 가공하여 제 1 이미지를 디스플레이시킬 수도 있다. 즉, 수신 단말기(102)가 사용자 단말기(100)의 제 1 이미지와 실질적으로 동일한 이미지를 디스플레이시킬 수 있는 한 상기 송신된 이미지 데이터의 처리 방식은 다양하게 변형될 수 있다. When the
사용자 단말기(100)의 제 1 이미지와 동일한 이미지가 수신 단말기(102)에 디스플레이될 때, 수신 단말기(102)는 기존 실행 프로그램을 중지하고 상기 제 1 이미지를 디스플레이시킬 수도 있고 기존 실행 프로그램은 실행시키되 별도의 채널을 통하여 실행시킬 수도 있다. 또한, 수신 단말기(102)는 상기 제 1 이미지가 디스플레이된 화면에 기존 실행 프로그램을 함께 디스플레이시킬 수도 있다. 예를 들어, 수신 단말기(102)는 예를 들어 기존 실행 프로그램인 드라마를 중지하고 사용자 단말기(100)에서 실행되는 앵그리 버드 게임의 제 1 이미지를 디스플레이시킬 수도 있고, 드라마를 별도의 채널로 전환하여 방영하고 상기 제 1 이미지를 해당 채널에 디스플레이시키거나 드라마를 현재 채널에서 계속적으로 방영하되 다른 채널에 상기 제 1 이미지를 디스플레이시킬 수도 있다. 또한, 수신 단말기(102)는 상기 제 1 이미지를 현재 채널에서 디스플레이시키되 방영되고 있었던 드라마를 별도의 팝업창으로 디스플레이시킬 수도 있다. 다만, 본 발명은 사용자가 사용자 단말기(100)의 제 1 이미지를 수신 단말기(102)를 통하여 보는 것이 목적이므로, 수신 단말기(102)는 현재 채널에서 실행되는 프로그램을 중지하거나 다른 채널을 통하여 디스플레이시키고 현재 채널의 화면을 상기 제 1 이미지가 디스플레이되는 화면으로 전환시키는 것이 바람직하다. When the same image as the first image of the
본 발명의 다른 실시예에 따르면, 수신 단말기(102)가 사용자 단말기(100)로 이미지 신호를 전송하여 제 1 이미지를 공유할 수도 있다. 이 경우에도, 사용자의 동작(터치 동작)을 반영하는 제어 신호는 사용자 단말기(100)로부터 수신 단말기(102)로 전송된다. According to another embodiment of the present invention, the receiving
사용자 단말기(100)와 수신 단말기(102)의 이미지 공유는 초기 한번만 수행되는 것이 아니고 사용자 단말기(100)의 제 1 이미지가 전환될 때마다 동일한 이미지가 수신 단말기(102)로 디스플레이된다. 따라서, 사용자가 사용자 단말기(100)를 조작하면 상기 조작에 해당하는 제 1 이미지가 수신 단말기(102)에 디스플레이된다. 특히, 수신 단말기(102)가 사용자 단말기(100)에 비하여 상대적으로 큰 사이즈를 가지므로, 사용자는 사용자 단말기(100)를 제어하되 시선은 수신 단말기(102)를 바라볼 수 있다. 즉, 사용자는 수신 단말기(102)를 보면서 사용자 단말기(100)를 조작할 수 있다. Image sharing between the
다만, 사용자 단말기(100)를 보지 않으면 자신이 하는 동작을 파악하기 힘들고 수신 단말기(102)가 없으면 화면이 작으므로, 본 발명은 수신 단말기(102)를 보면서 사용자 단말기(100)를 용이하게 제어할 수 있는 다양한 방법들 및 시스템들을 제안한다. However, if the
본 발명의 일 실시예에 따르면, 사용자의 손가락 등과 같은 터치 수단이 사용자 단말기(100)의 터치 감지 영역, 예를 들어 화면에 근접하면 수신 단말기(102)에 디스플레이된 제 1 이미지에 상기 터치 수단에 해당하는 제 2 이미지, 예를 들어 그림자 이미지 등이 해당 위치에 표시될 수 있으며, 즉 터치 수단의 위치가 상기 제 1 이미지 위에 특정된다. 연동 시스템이 아닌 일반 PC 등일 경우 마우스를 움직이면 마우스의 위치가 정확한 위치에 특정되지 않고 스마트폰 등의 경우 터치하더라도 위치를 표시하는 이미지가 디스플레이되지 않는다. According to an embodiment of the present invention, when a touch means such as a user's finger is close to a touch sensing area of the
반면에, 본 발명은 사용자 단말기(100)와 수신 단말기(102)를 연동시키면서 사용자 단말기(100) 상의 터치 수단의 위치를 수신 단말기(102)에 그림자 이미지 등으로 특정시킨다. 따라서, 사용자는 사용자 단말기(100)를 보지 않고 수신 단말기(102)만 보면서도 자신이 터치한 위치 및 동작을 확인할 수 있어서 수신 단말기(102)를 보지 않고 수신 단말기(102)를 제어할 수 있다. 이어서, 사용자가 사용자 단말기(100)의 화면을 터치하고 움직이면 상기 움직임에 상응하여 상기 제 2 이미지의 위치가 변화될 수 있다. 이 경우, 상기 제 2 이미지가 그림자 이미지로서 계속 유지될 수도 있고, 상기 제 2 이미지로서 그림자 이미지가 손가락 이미지로 변화된 후 상기 손가락 이미지가 상기 움직임에 따라 상기 제 1 이미지 상에서 움직일 수도 있다. 따라서, 사용자는 수신 단말기(102)를 통하여 사용자 단말기(100)에서의 터치 수단의 조작 상황을 확인할 수 있으며, 그 결과 사용자는 사용자 단말기(100)를 보지 않고 수신 단말기(102)만을 보면서도 사용자 단말기(100)를 용이하게 제어할 수 있다. On the other hand, the present invention specifies the position of the touch means on the
예를 들어, 사용자가 스마트폰으로 앵그리 버드 게임을 하고 있는 경우, 사용자는 큰 사이즈를 가지는 TV 화면만을 보면서 스마트폰을 조작하여 앵그리 버드 게임을 즐길 수 있다. 사용자 단말기(100)에 디스플레이된 제 1 이미지가 사용자의 조작에 따라 다른 제 1 이미지로 변경되면 수신 단말기(102)에도 동일한 제 1 이미지가 디스플레이되며, 이 경우 상기 제 2 이미지는 새로운 제 1 이미지 상에서 해당 위치에 표시된다. 상기 제 2 이미지는 사용자 단말기(100)에서의 좌표를 기준으로 하여 수신 단말기(102)의 화면에 표시될 수 있다. 물론, 상기 제 1 이미지는 사용자 단말기(100)의 이미지 데이터 전송에 따라 공유될 수도 있고 수신 단말기(102)의 이미지 데이터 전송에 따라 공유될 수도 있다. For example, when a user is playing an Angry Birds game with a smartphone, the user may enjoy the Angry Birds game by operating the smartphone while watching only a TV screen having a large size. If the first image displayed on the
본 발명의 다른 실시예에 따르면, 사용자가 노트북과 같이 디스플레이부와 별도로 터치 감지부, 예를 들어 터치 패드를 구비한 사용자 단말기(100)에서 터치 감지부로 근접하면 이를 감지하여 수신 단말기(102)의 제 1 이미지에 제 2 이미지가 표시되도록 할 수도 있다. 즉, 사용자 단말기(100)가 터치 수단을 감지할 수 있는 한 터치 수단을 감지하는 영역은 사용자 단말기(100)의 특정 부분으로 제한되지는 않는다. According to another exemplary embodiment of the present invention, when the user approaches the touch sensing unit from the
정리하면, 사용자 단말기(100)와 수신 단말기(102)는 제 1 이미지를 공유하며, 사용자는 큰 사이즈를 가지는 수신 단말기(102)를 보면서 작은 사이즈를 가지는 사용자 단말기(100)를 용이하게 조작할 수 있다. 따라서, 사용자는 수신 단말기(102)를 보면서 사용자 단말기(100)의 이미지 상에서 손가락, 터치펜 등과 같은 터치 수단을 이동시킬 수도 있고 사용자 단말기(100)의 제 1 이미지 상에 표시된 메뉴 아이콘을 클릭하여 특정 기능을 실행시킬 수도 있다. 물론, 상기 실행에 따라 사용자 단말기(100)에 디스플레이된 새로운 제 1 이미지와 실질적으로 동일한 이미지가 수신 단말기(102)에 디스플레이된다. In summary, the
위에서는 설명하지 않았지만, 제 2 이미지가 일단 수신 단말기(102) 상에 특정된 후에는 제 2 이미지가 터치 수단의 움직임을 반영할 수도 있지만, 물리적 키보드, 화면 상에 표시된 키보드 등을 조작함에 따라 움직일 수도 있다. Although not described above, once the second image is specified on the receiving
본 발명의 다른 실시예에 따르면, 연동 시스템은 복수의 사용자 단말기들(100)과 하나의 수신 단말기(102)를 포함할 수 있다. 예를 들어, 다수의 사용자들이 동일 게임을 하고 있는 경우, 사용자 단말기들(100)은 수신 단말기(102)와 유선 또는 무선으로 연결된다. 사용자 단말기들(100)이 각기 해당 터치 수단들의 위치 정보를 수신 단말기(102)로 전송하면, 수신 단말기(102)는 동일 제 1 이미지 상에 상기 터치 수단들의 위치를 표시하는 제 2 이미지들을 디스플레이시킬 수 있다. 이 경우, 사용자 단말기들(100)과 수신 단말기(102)가 공유하는 제 1 이미지는 특정 사용자 단말기(100)가 수신 단말기(102)로 전송할 수 있다. According to another embodiment of the present invention, the companion system may include a plurality of
본 발명의 또 다른 실시예에 따르면, 하나의 사용자 단말기(100)를 복수의 터치 수단들이 터치한 경우, 예를 들어 사용자가 좌우 손가락 하나씩으로 사용자 단말기(100)를 터치하거나 복수의 사용자들이 하나의 사용자 단말기(100)를 터치한 경우, 사용자 단말기(100)는 터치 수단들의 위치 정보들을 포함하는 제어 신호를 수신 단말기(102)로 전송하고, 수신 단말기(102)는 상기 제어 신호에 따라 제 1 이미지 위에 상기 위치 정보들에 해당하는 제 2 이미지들을 디스플레이할 수 있다. 물론, 상기 제 2 이미지들이 상호 구별되도록 모양, 색상 또는 사이즈가 다를 수 있다. 한편, 사용자 단말기(100)는 각 터치 수단의 위치 정보를 가지는 복수의 제어 신호들을 수신 단말기(102)로 전송할 수도 있다. According to another embodiment of the present invention, when a plurality of touch means touches one
본 발명의 또 다른 실시예에 따르면, 사용자 단말기(100)는 복수의 감지 방법들을 실현하여 터치 수단들을 다른 방법으로 감지할 수 있다. 예를 들어, 사용자 단말기(100)는 손가락을 정전 용량 방식을 통하여 감지하고 터치 펜을 리시버를 활용하여 감지할 수 있다. 따라서, 사용자는 손가락과 터치 펜을 동시에 이용하여 멀티 터치를 구현할 수 있다. 결과적으로, 사용자는 복수의 터치 수단들을 이용하여 별개의 동작을 실현할 수 있다. According to another embodiment of the present invention, the
본 발명의 또 다른 실시예에 따르면, 상기 연동 시스템은 사용자 단말기, 수신 단말기 및 연동 서버를 포함할 수 있다. 연동 서버는 제 1 이미지를 사용자 단말기와 수신 단말기에 모두 전송하여 동일 제 1 이미지를 디스플레이하도록 한 상태에서 사용자 단말기가 터치 수단의 위치 정보를 상기 수신 단말기에 전송하여 상기 제 1 이미지 상에 제 2 이미지를 디스플레이시킬 수도 있다. According to another embodiment of the present invention, the companion system may include a user terminal, a receiver terminal, and a companion server. The companion server transmits the first image to both the user terminal and the receiving terminal to display the same first image, and the user terminal transmits the position information of the touch means to the receiving terminal to display the second image on the first image. May be displayed.
이하, 본 발명의 단말기 연동 및 제어 방법의 다양한 실시예들을 첨부된 도면들을 참조하여 상술하겠다. Hereinafter, various embodiments of the terminal interworking and control method of the present invention will be described with reference to the accompanying drawings.
도 2는 본 발명의 제 1 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이고, 도 3은 도 2의 단말기 연동 및 제어 방법에 사용되는 제어 방법을 도시한 도면이며, 도 4는 본 발명의 일 실시예에 따른 이미지 공유 화면을 도시한 평면도이다. 본 실시예는 사용자 단말기(100)가 수신 단말기(102)로 이미지 데이터(이미지 신호)를 전송할 때의 연동 및 제어 방법을 제안한다. 2 is a flowchart illustrating a terminal interworking and control method according to a first embodiment of the present invention, FIG. 3 is a diagram illustrating a control method used in the terminal interworking and control method of FIG. 2, and FIG. FIG. 1 is a plan view illustrating an image sharing screen according to an exemplary embodiment. This embodiment proposes a linkage and control method when the
도 2를 참조하면, 사용자 단말기(100)는 수신 단말기(102)로 이미지의 연동을 요청한다(S200). 구체적으로는, 사용자가 사용자 단말기(100)를 수신 단말기(102)에 유선 또는 무선으로 연결하고 연동을 요청하거나, 사용자 단말기(100)가 수신 단말기(102)에 연결된 경우 사용자 단말기(100) 또는 수신 단말기(102)가 상대 단말기를 식별한 후 상대방 단말기로 연동할 것인지를 문의할 수도 있다. 단말기들(100 및 102)의 연동은 사용자의 요청에 따라 수행될 수도 있고, 단말기들(100 및 102)이 상호 식별하면 자동으로 수행될 수도 있다. 본 발명의 일 실시예에 따르면, 도 3(A)에 도시된 바와 같이 사용자 단말기(100)와 수신 단말기(102)는 2개의 채널들, 즉 데이터 채널 및 제어 채널로 연결될 수 있고, 연동 요청 또는 허락을 위한 제어 신호를 제어 채널을 통하여 송수신할 수 있다. Referring to FIG. 2, the
이어서, 사용자 단말기(100)는 화면에 디스플레이된 제 1 이미지에 해당하는 이미지 데이터를 이미지 신호에 배신하여 상기 데이터 채널을 통하여 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 전송된 이미지 데이터에 해당하는 제 1 이미지를 디스플레이시킨다(S202). 즉, 사용자 단말기(100)와 수신 단말기(102)는 상기 제 1 이미지를 공유한다. 사용자 단말기(100)의 제 1 이미지와 수신 단말기(102)의 제 1 이미지가 실질적으로 동시에 디스플레이되는 것이 유용하므로, 사용자 단말기(100)의 이미지부는 디스플레이부로 이미지 데이터를 전송할 때 상기 이미지 데이터를 상기 데이터 채널을 통하여 수신 단말기(102)로 동시에 전송하는 것이 바람직하다. Subsequently, the
계속하여, 사용자가 손가락 또는 터치펜 등과 같은 터치 수단을 사용자 단말기(100)로 근접시키면, 사용자 단말기(100)는 상기 터치 수단을 감지한다(S204). 구체적으로는, 사용자 단말기(100)는 상기 터치 수단이 감지 가능한 영역으로 진입하면 상기 터치 수단을 감지한다. 예를 들어, 사용자 단말기(100)는 정전용량 방식 터치 패널을 사용할 수 있으며, 사용자가 손가락을 사용자 단말기(100)로 근접시키면 상기 손가락에 의한 정전용량 변화를 감지하여 상기 손가락의 위치를 감지할 수 있다. Subsequently, when a user approaches a touch means such as a finger or a touch pen to the
다만, 이러한 감지를 위하여 사용자 단말기(100)는 감지 레벨을 도 3(B)에 도시된 바와 같이 복수의 레벨들, 예를 들어 2개의 레벨들로 설정할 수 있다. 단말기 연동 과정을 수행할 때가 아니면, 즉 사용자가 사용자 단말기(100)만을 이용하는 경우에는, 사용자가 터치하였을 때에만 터치 위치가 감지되도록 사용자 단말기(100)의 감지 레벨을 높은 레벨(L2)로 설정한다. 반면에, 사용자가 단말기 연동 과정을 수행하는 경우, 즉 수신 단말기(102)도 이용하는 경우, 사용자 단말기(100)는 감지 레벨을 낮은 레벨(L1)로 변경한다. 따라서, 사용자 단말기(100)는 터치 수단이 터치되지 않고 근접된 상태일 때에도 상기 터치 수단을 감지할 수 있다. 즉, 사용자 단말기(100)는 단말기 연동 과정을 사용하는지 아닌지에 따라 감지 레벨을 다르게 설정할 수 있다. 본 발명의 다른 실시예에 따르면, 사용자 단말기(100)는 정전용량 방식 이외에도 전자기 유도 방식, 저항막 방식, 광학방식, 초음파 방식 등 다양한 방법들을 사용할 수 있으며, 사용 방식에 따라 설정 조건이 달라질 수 있다. However, for this sensing, the
이어서, 사용자 단말기(100)는 상기 감지 결과에 따른 상기 터치 수단의 위치 정보를 포함하는 제어 신호를 제어 채널을 통하여 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 제어 신호에 따라 상기 위치 정보에 따른 제 2 이미지, 예를 들어 도 4에 도시된 바와 같은 그림자 이미지(400)를 제 1 이미지 상에 표시한다(S206). 위에서는 데이터 채널과 제어 채널로 구분하여 신호들을 다르게 전송하였지만, 데이터 채널을 통하여 이미지 데이터 및 제어 신호를 모두 전송할 수도 있다. 예를 들어, 사용자 단말기(100)는 도 3(C)에 도시된 바와 같이 데이터 구간들(110 및 114) 사이에 제어 구간(112)을 설정하여 제어 신호(C1)를 제어 구간(112) 동안 전송할 수 있다. Subsequently, the
계속하여, 사용자가 터치 수단을 이용하여 사용자 단말기(100)를 터치하고 움직이면 사용자 단말기(100)는 이러한 움직임에 따른 위치 정보를 포함하는 제어 신호를 생성하여 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 전송된 제어 신호에 따라 상기 제 2 이미지를 상기 제 1 이미지 상에 표시한다(S208). 결과적으로, 상기 제 2 이미지는 상기 터치 수단의 움직임을 반영하여 수신 단말기(102)의 제 1 이미지에 표시된다. 물론, 사용자가 사용자 단말기(100) 상의 제 1 이미지에서 특정 동작을 수행시키는 메뉴를 클릭한 경우에는 이미지 전환만 이루어지므로, 수신 단말기(102)는 제 2 이미지를 현재 위치에 유지시킨 상태로 제 1 이미지만을 사용자 단말기(100)의 새로운 이미지로 변경시킬 수 있다. Subsequently, when the user touches and moves the
이 때, 터치 수단의 위치 정보는 이미지 형태의 정보이거나 또는 좌표 형태의 정보일 수 있다. 즉, 사용자 단말기(100)는 상기 제2이미지에 대한 위치 정보를 직접 이미지 데이터 형태로 생성하여 수신 단말기(102)로 전송하거나 또는 제어 신호 형태로 터치 수단의 위치 정보만을 수신 단말기(102)로 전송할 수 있다. 이 경우, 사용자 단말기(100)에는 터치 수단의 위치가 디스플레이되지 않고, 수신 단말기(102)에만 터치 수단의 위치가 디스플레이될 수 있다.In this case, the position information of the touch means may be information in the form of an image or information in the form of a coordinate. That is, the
정리하면, 본 발명의 단말기 연동 및 제어 방법은 제 1 이미지를 공유시킨 상태에서 터치 수단 근접시 이를 감지하여 수신 단말기(102)의 제 1 이미지 상에 제 2 이미지를 표시하고, 사용자가 사용자 단말기(100) 상에서 터치하거나 터치 후 움직이는 경우 움직임을 반영한 제 2 이미지를 수신 단말기(102)의 제 1 이미지에 표시한다. In summary, the terminal interworking and control method of the present invention detects the proximity of the touch means in the state where the first image is shared, displays a second image on the first image of the receiving
수신 단말기(102)에 디스플레이되는 제 1 이미지와 제 2 이미지는 별도의 이미지로서 오버랩될 수도 있고, 상기 제 1 이미지와 상기 제 2 이미지가 합성되어 생성된 합성 이미지가 디스플레이될 수도 있다. The first image and the second image displayed on the receiving
위에서는 제 2 이미지가 제 1 이미지 위에 표시되는 것으로 언급하였으나, 제 2 이미지가 제 1 이미지와 함께 디스플레이되는 한 표시 방법은 다양하게 변형될 수 있다. 예를 들어, 상기 제 1 이미지 중 터치 수단의 위치에 해당하는 부분이 어둡게 표현될 수 있으며, 상기 어둡게 표현된 부분이 제 2 이미지일 수 있다. Although the second image is referred to as being displayed on the first image, the display method may be variously modified as long as the second image is displayed together with the first image. For example, a portion of the first image corresponding to the position of the touch unit may be darkly expressed, and the darkly expressed portion may be the second image.
이하, 터치 수단을 감지하는 다양한 방법들을 첨부된 도면들을 참조하여 살펴보겠다. Hereinafter, various methods of sensing the touch means will be described with reference to the accompanying drawings.
상기 터치 수단을 감지하는 기본적인 방법으로는 사용자 단말기(100)의 디스플레이부를 정전 용량 방식 터치 패널로 구성하고, 손가락 등과 같은 전기가 통하는 터치 수단을 이용하는 방법이다. 이 경우, 사용자 단말기(100)의 감지부는 상기 터치 수단 접근시 및 터치시에 정전 용량의 변화를 통하여 상기 터치 수단의 위치를 감지한다. As a basic method of detecting the touch means, the display unit of the
상기 터치 수단을 감지하는 다른 방법들이 존재하며, 아래의 도 5 내지 도 7을 참조하여 설명한다. There are other methods of sensing the touch means, which will be described with reference to FIGS. 5 to 7 below.
도 5는 본 발명의 일 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다. 5 is a diagram illustrating a touch means sensing method according to an embodiment of the present invention.
도 5를 참조하면, 사용자 단말기(100)를 터치할 터치 수단으로서 터치 펜(500)을 사용할 수 있다. 사용자 단말기(100)는 정전 용량 방식 터치 패널을 사용한다. Referring to FIG. 5, the
터치 펜(500)은 몸체(510) 및 터치부(512)로 이루어진다. 몸체(510)는 전기가 통하지 않는 재질로 이루어지고, 터치부(512)는 전도체이다. 따라서, 터치부(512)로 인하여 터치 펜(500)이 사용자 단말기(100)로 근접시 또는 사용자 단말기(100)를 터치했을 때 정전 용량의 변화가 발생되며, 그 결과 사용자 단말기(100)는 터치 펜(500)을 감지할 수 있다. 즉, 정전 용량 방식에서 사용될 수 없었던 일반적인 터치 펜과 달리, 본 발명의 터치 펜(500)은 정전 용량 방식에서도 사용할 수 있다. 물론, 터치 펜(500) 전체를 전도체로 제조할 수도 있지만 비용을 고려하면 실제 터치가 이루어지는 터치부(512)만을 전도체로 제조하는 것이 바람직하다. The
도 6은 본 발명의 다른 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다. 6 is a view showing a touch means detection method according to another embodiment of the present invention.
도 6(A)를 참조하면, 사용자 단말기(100)의 일부에 리시버(Receiver, 600)를 장착하고, 터치 펜(602)을 사용할 수 있다.Referring to FIG. 6A, a
리시버(600)는 하나의 적외선 센서와 2개의 초음파 센서들을 포함할 수 있으며, 터치 펜(602)의 터치부(펜촉)로부터 발신된 적외선 및 초음파를 수신하여 터치 펜(602)의 움직임을 감지하고, 감지 결과에 따른 터치 펜(602)의 위치 정보를 가지는 제어 신호를 수신 단말기(102)로 전송한다. 수신 단말기(102)는 상기 제어 신호를 분석하여 터치 펜(602)의 위치를 검출하고, 상기 검출된 위치에 제 2 이미지를 표시한다. 결과적으로, 상기 제 2 이미지가 제 1 이미지와 함께 디스플레이된다. 여기서, 상기 제어 신호는 리시버(600)가 수신 단말기(102)로 전송할 수도 있고 사용자 단말기(100)가 수신 단말기(102)로 전송할 수도 있다. The
리시버(600)가 터치 펜(602)의 위치를 검출하는 방법을 살펴보면, 3개의 센서들은 각기 적외선의 전송 시간 및 초음파의 전송 시간을 측정하고, 상기 전송 시간들을 거리로 환산하고, 환산된 거리들을 삼각 측량과 유사한 방법을 통하여 터치 펜(602)의 위치를 검출한다. 따라서, 터치 펜(602)이 사용자 단말기(100)를 직접적으로 터치하지 않고 근접하더라도 터치 펜(602)의 위치를 감지할 수 있고, 터치 펜(602)의 접촉 및 움직임을 정확하게 감지할 수 있다. 물론, 적외선 및 초음파 외의 다른 신호가 사용될 수도 있다. Looking at how the
터치 펜(602)의 위치를 반영한 제 2 이미지는 사용자 단말기(100)에 표시되지 않고 수신 단말기(102)에만 표시될 수도 있다. 물론, 사용자 단말기(100)는 터치 펜(602)의 움직임에 상응하여 동작한다. The second image reflecting the position of the
본 발명의 다른 실시예에 따르면, 리시버(600)는 터치 펜(602)의 위치를 감지하는 기능뿐만 아니라 이미지 데이터를 포함하는 이미지 신호 및 제어 신호를 수신 단말기(102)로 전송하는 기능도 수행할 수 있다. 구체적으로는, 리시버(600)는 터치 제어부(610), 이미지 신호부(612), 제어 신호부(614) 및 송수신부(616)를 포함할 수 있다. 터치 제어부(610)는 수신된 적외선 및 초음파를 이용하여 터치 펜(602)의 위치를 감지하고, 상기 감지된 위치에 대한 정보를 사용자 단말기(100)로 제공하는 역할을 수행한다. 사용자 단말기(100)는 상기 제공된 정보에 따라 터치 펜(602)의 위치를 표시하거나 관련 동작을 수행한다. 이미지 신호부(612)는 사용자 단말기(100)로부터 이미지 데이터를 제공받고, 상기 제공된 이미지 데이터를 송수신부(616)를 통하여 수신 단말기(102)로 전송한다. 제어 신호부(614)는 상기 감지된 터치 펜(602)의 위치 정보를 가지는 제어 신호를 수신 단말기(102)에 전송하는 역할을 수행한다. 즉, 리시버(600)가 사용자 단말기(100)로부터 전송된 이미지 데이터 및 터치 펜(602)의 위치 정보를 가지는 제어 신호를 수신 단말기(102)로 전송시키므로, 사용자 단말기(100)는 통신 기능을 가지지 않아도 충분하다. 따라서, 통신 기능을 가지지 않은 단말기 또는 통신 기능을 가지나 관련 통신 시설을 이용할 수 없는 단말기도 리시버(600)를 이용하여 터치 펜(602)의 위치 및 동작을 인식할 수 있을 뿐만 아니라 이미지 공유, 제 2 이미지의 디스플레이 등과 같은 본 발명의 연동 방법을 사용할 수 있다. According to another embodiment of the present invention, the
본 발명의 또 다른 실시예에 따르면, 사용자 단말기(100) 내에 리시버가 포함되어 일체로 구현될 수도 있다. According to another embodiment of the present invention, the receiver may be included in the
도 7은 본 발명의 또 다른 실시예에 따른 터치 수단 감지 방법을 도시한 도면이다. 7 is a diagram illustrating a touch means sensing method according to another embodiment of the present invention.
도 7을 참조하면, 사용자 단말기(100)는 터치 패널(700) 및 전자기 발생부(702)를 포함한다. Referring to FIG. 7, the
전자기 발생부(702)는 터치 패널(700)의 후면에 연결될 수 있으며, 얇은 금속제 막으로 이루어져서 전기가 흐르면 전자기장을 생성하는 역할을 수행한다. The
터치 펜(707)은 몸체(710) 및 터치부(712)를 포함하며, 터치부(712)는 바람직하게는 작은 금속 코일로 이루어질 수 있다. 결과적으로, 터치 펜(704)이 터치 패널(700)로 근접하면 터치부(712)에서 전자기 유도 현상이 일어나며, 그 결과 전자기 발생부(702)로부터 발생된 전자기장의 변형이 발생한다. 따라서, 사용자 단말기(100)는 이러한 전자기장의 변형을 감지하여 터치 펜(704)의 위치를 인식한다. 특히, 터치 펜(704)의 접근 위치, 터치 강도에 따라서 상기 전자기장의 변형이 다르므로, 이러한 터치 수단 감지 방법은 터치 펜(704)의 터치 패널(700)로의 접근 정도 및 터치 압력을 세밀하게 감지할 수 있다. 따라서, 수신 단말기(102)에 표시되는 제 2 이미지의 크기, 선으로 표현되는 경우 선의 굵기 등이 터치 펜(704)의 위치 또는 압력에 따라 다르게 표시될 수 있다. 물론, 상기 제 2 이미지의 모양, 사이즈 또는 색상이 상기 터치 강도에 따라 달라질 수도 있다. The touch pen 707 includes a
도 5 내지 도 7을 참조하여 정리하면, 사용자 단말기(100)는 다양한 방법들을 통하여 터치 펜을 감지하고 감지 결과를 수신 단말기(102)에 반영시킬 수 있다. 5 to 7, the
전술된 바와 같이 사용자 단말기(100)는 감지 가능한 영역에서 근접한 터치 수단을 감지하고 터치 수단의 위치 정보를 수신 단말기(102)로 전송하는데, 여기서 감지 가능한 영역은 사용자 단말기(100)로부터 기설정된 거리만큼 이격된 공간일 수 있다. 즉, 사용자 단말기(100)는 사용자 단말기(100)로부터 기 설정된 거리 내에 위치하는 사용자 단말기(100)에 근접한 터치 수단을 감지할 수 있다. 그리고 기설정된 거리는 전술된 감지 방식에 따라 달라질 수 있다. 예를 들어, 사용자 단말기(100)에 정전 용량 방식 터치 패널이 사용된 경우, 기설정된 거리는 도 3에서 설명된 낮은 레벨(L1)에 대응되는 거리일 수 있다. 또한 기 설정된 거리는 터치 수단과 사용자 단말기(100) 사이의 최단거리를 기준으로 설정될 수 있다.As described above, the
도 8은 본 발명의 제 2 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다. 8 is a flowchart illustrating a terminal interworking and control method according to a second embodiment of the present invention.
도 8을 참조하면, 사용자 단말기(100)와 수신 단말기(102)가 연결되어 연동을 시작한다(S800).Referring to FIG. 8, the
이어서, 사용자 단말기(100)는 현재 디스플레이된 제 1 이미지에 해당하는 이미지 데이터를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 이미지 데이터에 해당하는 제 1 이미지를 디스플레이시킨다(S802). 즉, 사용자 단말기(100)와 수신 단말기(102)가 제 1 이미지를 공유한다.Subsequently, the
계속하여, 사용자 단말기(100)는 손가락, 터치 펜 등과 같은 터치 수단을 다양한 방법들을 통하여 감지한다(S804).Subsequently, the
이어서, 사용자 단말기(100)는 현재 디스플레이된 제 1 이미지와 함께 상기 감지된 터치 수단의 위치에 해당하는 제 2 이미지를 표시하는 합성 이미지를 생성하고, 상기 합성 이미지에 해당하는 합성 이미지 데이터(합성 정보)를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 합성 이미지 데이터에 해당하는 합성 이미지를 디스플레이시킨다(S806). 결과적으로, 수산 단말기(102)에는 상기 제 1 이미지와 함께 제 2 이미지가 디스플레이된 화면이 디스플레이된다. 이 경우, 사용자 단말기(100)에는 상기 제 1 이미지만이 디스플레이될 수도 있고, 상기 제 1 이미지와 함께 제 2 이미지가 디스플레이된 화면이 디스플레이될 수도 있다. Subsequently, the
계속하여, 사용자가 상기 터치 수단을 터치하거나 터치한 상태로 움직이는 경우 사용자 단말기(100)는 상기 터치 수단의 위치 정보를 가지는 제어 신호를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 제어 신호에 따라 상기 터치 수단의 위치를 표시하는 제 2 이미지를 해당 제 1 이미지와 함께 디스플레이시킨다(S808). 즉, 상기 터치 수단의 움직임이 수신 단말기(102)의 화면에 반영된다. 다만, 수신 단말기(102) 상의 제 1 이미지는 직전 이미지와 동일한 이미지일 수도 있고 직전 이미지와 다른 이미지일 수도 있다. Subsequently, when the user touches or moves in the touched state, the
정리하면, 수신 단말기(102)에서 제 2 이미지를 생성하여 제 1 이미지와 함께 디스플레이시키는 제 1 실시예에서와 달리, 본 실시예에서는 사용자 단말기(100)가 제 1 이미지와 제 2 이미지를 합성한 합성 이미지를 생성하고 상기 생성된 합성 이미지를 수신 단말기(102)로 전송하며, 그 결과 수신 단말기(102)에는 제 1 이미지와 함께 제 2 이미지가 표시된 화면이 디스플레이된다. In summary, unlike the first embodiment in which the receiving
도 9는 본 발명의 제 3 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다. 9 is a flowchart illustrating a terminal interworking and control method according to a third embodiment of the present invention.
도 9를 참조하면, 사용자 단말기(100)와 수신 단말기(102)가 연결되어 연동을 시작한다(S900). 상기 연동은 사용자 단말기(100)와 수신 단말기(102)가 연결되면 자동으로 시작할 수도 있고, 사용자의 선택 여부를 묻고 사용자의 선택에 따라 시작할 수도 있다. 9, the
이어서, 사용자 또는 사용자 단말기(100)가 자동으로 손가락 또는 터치 펜 등과 같은 터치 수단을 감지하기 위한 복수의 감지 레벨들을 설정한다(S902). 구체적으로는, 사용자 단말기(100)에 터치 수단이 근접하였을 때 상기 터치 수단을 감지할 수 있는 제 1 레벨 및 상기 터치 수단이 터치하였을 때 상기 터치 수단을 감지할 수 있는 제 2 레벨이 설정된다. 물론, 상기 터치 수단을 감지하기 위한 레벨들은 더 세밀하게 설정될 수도 있다. Subsequently, the user or the
계속하여, 사용자 단말기(100)가 터치 수단을 감지하고, 상기 터치 수단의 위치를 표시하는 제 2 이미지를 수신 단말기(102)에 디스플레이시킨다(S904).Subsequently, the
이어서, 사용자에 의한 연동 중지 요청이 있었는지의 여부가 판단된다(S906). 상기 연동 중지는 사용자가 메뉴 선택 등의 방법으로 요청될 수도 있고 사용자 단말기(100)와 수신 단말기(102)의 연결을 오프(Off)시킴에 의해 요청될 수도 있다. 사용자는 수신 단말기(102)를 보면서 사용자 단말기(100)를 제어하다가 사용자 단말기(100)만 사용하고자 할 경우 또는 수신 단말기(102)만 보기를 원하는 경우 사용자 단말기(100)와 수신 단말기(102)는 연결된 상태에서 연동 중지를 요청할 수 있다. Subsequently, it is determined whether or not there is a request for interlocking stop by the user (S906). The interworking stop may be requested by the user by selecting a menu or by turning off the connection between the
사용자의 연동 중지 요청이 없는 경우 단계 S904가 다시 수행된다. If there is no user stop request for interworking, step S904 is performed again.
반면에, 사용자의 연동 중지 요청이 있는 경우, 사용자 단말기(100)는 상기 복수의 레벨들을 초기화시켜 하나의 레벨만이 존재하거나 터치된 경우만을 감지하는 감지 레벨들로 변화시킨다(S908). 즉, 사용자 단말기(100)는 터치 수단이 터치되지 않은 경우에는 상기 터치 수단을 감지하지 않고 상기 터치 수단이 터치되었을 때만 상기 터치 수단을 감지하도록 레벨을 변화시킨다. On the other hand, when the user stops the interlocking request of the user, the
정리하면, 본 발명의 단말기 연동 및 제어 방법은 사용자가 임의로 연동 요청, 연동 중지 요청, 감지 레벨을 자유롭게 설정하고 변경할 수 있다. In summary, in the terminal interworking and control method of the present invention, a user may freely set and change an interworking request, an interlocking stop request, and a sensing level.
본 발명의 다른 실시예에 따르면, 사용자 단말기(100)와 수신 단말기(102)의 연동 시작시 1차 감지 레벨을 설정하고, 연동 중에 감지 레벨을 다르게 설정할 수도 있다. 예를 들어, 사용자는 연동 중에 터치 수단의 접근 거리 및 터치 강도에 따른 감지 레벨을 다르게 설정할 수도 있고 터치 수단이 터치되었을 때만 감지하도록 감지 레벨 설정을 변경시킬 수도 있다.
According to another embodiment of the present invention, the first detection level may be set when the
즉, 감지 레벨 설정 관련하여 본 발명에 따른 사용자 단말기는 사용자 단말기(100)와 수신 단말기(102)가 연동된 경우 또는 연동되지 않은 경우에도 사용자의 요청에 따라 감지 레벨을 다르게 설정할 수 있다.That is, in relation to the detection level setting, the user terminal according to the present invention may set the detection level differently according to the user's request even when the
이와 관련하여 보다 구체적으로, 본 발명에 따른 사용자 단말기는 디스플레이부; 사용자 단말의 사용자 요청에 따라 터치 모드를 변경하는 모드 변경부; 터치 모드에 따라, 상기 디스플레이부에 근접한 터치 수단의 위치 정보를 생성하는 위치정보 생성부를 포함할 수 있다. 여기서, 터치 모드는 디스플레이부를 터치한 터치 수단의 터치를 인식하는 직접 터치 모드와, 디스플레이부를 터치한 터치 수단 및 디스플레이부에 근접한 터치 수단의 터치를 인식하는 간접 터치 모드를 포함할 수 있다. 직접 터치 모드에서는 감지 레벨이 높은 레벨(L2)로 설정되며, 간접 터치 모드에서는 감지 레벨이 L2보다 낮은 레벨(L1)로 설정될 수 있다.In this regard, more specifically, the user terminal according to the present invention includes a display unit; A mode changer for changing a touch mode according to a user request of a user terminal; According to the touch mode, it may include a location information generation unit for generating location information of the touch means in close proximity to the display unit. The touch mode may include a direct touch mode for recognizing a touch of a touch means touching the display unit, an indirect touch mode for recognizing touch of a touch means close to the display unit and a touch means touching the display unit. In the direct touch mode, the sensing level may be set to a high level L2, and in the indirect touch mode, the sensing level may be set to a level L1 lower than L2.
모드 변경부는 사용자의 터치, 음성 데이터 또는 영상 데이터에 따라 상기 터치 모드를 변경할 수 있다. 즉, 사용자는 사용자 단말기의 메뉴화면에서 터치를 통해 터치 모드를 변경할 수 있으며, 또는 사용자의 음성 또는 모션과 같은 영상을 통해 터치 모드를 변경할 수 있다.The mode changer may change the touch mode according to a user's touch, voice data, or image data. That is, the user may change the touch mode through a touch on the menu screen of the user terminal, or may change the touch mode through an image such as a voice or a motion of the user.
또한 본 발명에 따른 사용자 단말기는 사용자의 요청을 입력받는 스위치를 더 포함할 수 있다. 스위치는 아이폰의 벨/진동 변환 스위치와 같이 구성될 수 있다.In addition, the user terminal according to the present invention may further include a switch for receiving a user request. The switch can be configured like the iPhone's bell / vibration switch.
위치 정보 생성부는 간접 터치 모드에서, 디스플레이부로부터 기 설정된 거리 이내에 위치하는 터치 수단의 위치 정보를 생성한다. 구체적으로 위치 정보 생성부는 간접 터치 모드에서, 터치 수단이 디스플레이부를 직접 터치하지 않은 경우 터치 수단의 위치 정보를 생성할 수 있다.In the indirect touch mode, the position information generation unit generates position information of the touch unit located within a predetermined distance from the display unit. In detail, the location information generator may generate location information of the touch means when the touch means does not directly touch the display in the indirect touch mode.
전술된 연동 시스템을 위해 본 발명에 따른 사용자 단말기는 위치 정보를 사용자 단말기와 연동된 수신 단말로 전송하는 신호부를 더 포함할 수 있으며, 이 때, 사용자 단말기에는 위치 정보에 대응되는 이미지가 표시되지 않고, 수신 단말에는 위치 정보에 대응되는 이미지가 표시될 수 있다.
For the above-described interworking system, the user terminal according to the present invention may further include a signal unit for transmitting the location information to the receiving terminal linked with the user terminal, wherein the image corresponding to the location information is not displayed on the user terminal. The receiving terminal may display an image corresponding to the location information.
도 10은 본 발명의 다른 실시예에 따른 단말기 연동 시스템을 도시한 도면이다. 10 is a diagram illustrating a terminal interworking system according to another embodiment of the present invention.
도 10을 참조하면, 사용자 단말기(100)와 수신 단말기(102)는 연동하며, 즉 제 1 이미지를 공유한 상태로 터치 수단의 위치를 표시하는 제 2 이미지(1000)를 디스플레이시킨다. 다만, 제 1 이미지 공유시 수신 단말기(102)가 사용자 단말기(100)로 이미지 데이터를 전송하여 제 1 이미지를 공유한다. Referring to FIG. 10, the
수신 단말기(102)가 IPTV 또는 스마트 TV인 경우에는 도 10에 도시된 바와 같이 영화, 드라마 등의 프로그램을 선택할 수 있는 UI(User Interface, 1010)들이 디스플레이될 수 있고, UI(1010)들이 표시된 제 1 이미지가 사용자 단말기(100)로 공유될 수 있다. 물론, 수신 단말기(102)에는 제 1 이미지와 함께 제 2 이미지(1000)가 디스플레이된다. When the receiving
수신 단말기(102)에 디스플레이된 제 1 이미지를 사용자 단말기(100)로 공유할 때의 장점을 살펴보면, 사용자는 수신 단말기(102), 예를 들어 TV를 보면서 사용자 단말기(100), 예를 들어 스마트폰을 이용하여 제2이미지가 디스플레이되는 수신 단말기(102) 상의 동작을 제어할 수 있다. 예를 들어, 사용자는 사용자 단말기(100)를 이용하여 수신 단말기(102)를 통하여 특정 프로그램을 선택하거나 메일을 보내거나 전자 상거래 거래, 게임 등을 할 수 있다. Looking at the advantages of sharing the first image displayed on the receiving
또한, 사용자 단말기(100)에 수신 단말기(102)와 동일한 제 1 이미지가 디스플레이되므로, 사용자는 수신 단말기(102)의 화면을 보지 못하는 상황에서도 사용자 단말기(100)를 이용하여 수신 단말기(102)가 제공되는 다양한 서비스들을 즐길 수 있다. 예를 들어, 사용자는 방에서 거실에 있는 수신 단말기(102)를 제어하여 전자 상거래 등을 할 수 있다. In addition, since the same first image as that of the receiving
보다 구체적으로, 본 발명에 따른 사용자 단말기는 수신 단말기로부터 영상 데이터를 수신하여, 영상 데이터를 디스플레이한다. 여기서, 영상 데이터는 수신 단말기의 UI일 수 있다. 사용자 단말기는 사용자 단말기의 디스플레이부에 근접한 터치 수단의 제1위치 정보 및 디스플레이부를 터치한 터치 수단의 제2위치 정보를 TV로 전송한다. 즉, 사용자 단말기에 TV UI가 디스플레이되고, 사용자는 TV 조작을 위해 사용자 단말기 디스플레이부에 손(터치 수단)을 근접시킨 상태로 손을 이동시킨다. 손의 이동에 따라 제1위치 정보가 TV로 전송되고, TV에는 손의 이동에 따라 위치 표시 이미지가 이동한다. 사용자가 원하는 아이콘을 터치하면, 제2위치 정보가 TV로 전송되고 TV는 제2위치 정보에 대응되는 아이콘을 실행시킬 수 있다.More specifically, the user terminal according to the present invention receives the image data from the receiving terminal, and displays the image data. Here, the image data may be a UI of the receiving terminal. The user terminal transmits the first position information of the touch means close to the display unit of the user terminal and the second position information of the touch means touching the display unit to the TV. That is, the TV UI is displayed on the user terminal, and the user moves his hand while bringing his hand (touch means) close to the user terminal display unit for TV operation. The first location information is transmitted to the TV as the hand moves, and the position display image moves on the TV as the hand moves. When the user touches an icon, the second location information is transmitted to the TV, and the TV may execute an icon corresponding to the second location information.
또는 본 발명에 따른 사용자 단말기는 디스플레이부에 근접한 터치 수단의 위치 정보 및 TV 제어를 위한 터치 수단의 터치 정보를 TV로 전송할 수 있다. 즉, 사용자 손의 이동에 따라 TV에서 위치 표시 이미지가 이동하고, 사용자가 원하는 아이콘을 터치하면 아이콘 터치에 대한 터치 정보가 TV로 전송되어 TV는 사용자가 터치한 아이콘을 실행할 수 있다. 터치 정보는 제2위치 정보와 비교하여, 직접적으로 아이콘을 실행시키는 제어신호일 수 있다.Alternatively, the user terminal according to the present invention may transmit the position information of the touch means close to the display unit and the touch information of the touch means for TV control to the TV. That is, when the location display image is moved on the TV according to the movement of the user's hand, and the user touches the desired icon, the touch information about the icon touch is transmitted to the TV so that the TV can execute the icon touched by the user. The touch information may be a control signal for directly executing an icon in comparison with the second location information.
한편, 이 경우에도 사용자 단말기는 TV로부터 UI 등과 같은 영상 데이터를 수신하는 것이 바람직하다. 그리고 TV는 사용자 단말기가 터치 정보와 같은 제어 신호를 생성할 수 있도록 UI의 선택 항목 각각에 대한 태그 정보, 위치 정보 등을 사용자 단말기로 전송할 수 있다.Meanwhile, even in this case, the user terminal preferably receives image data such as a UI from the TV. The TV may transmit tag information, location information, etc. for each of the selected items of the UI to the user terminal so that the user terminal may generate a control signal such as touch information.
여기서, 사용자 단말기의 동작은 사용자 단말기에 저장된 리모트 컨트롤 어플리케이션의 실행에 따라 이루어질 수 있다. 리모트 컨트롤 어플리케이션이 실행되면, 사용자 단말기는 TV로 영상 데이터의 전송을 요청하고, 사용자 단말기는 TV로부터 영상 데이터를 수신할 수 있다.Here, the operation of the user terminal may be performed according to the execution of the remote control application stored in the user terminal. When the remote control application is executed, the user terminal may request transmission of image data to the TV, and the user terminal may receive image data from the TV.
전술된 TV 제어 방법은 간접 터치 모드에서 뿐만 아니라, 갤럭시 노트, 옵티머스 뷰와 같이 펜을 이용하는 터치 방식에도 적용이 가능하다. 펜의 터치 압력 또는 터치 면적의 차이는 각각 간접 터치 모드 및 직접 터치 모드에 대응되도록 설정될 수 있다. 예를 들어, 펜이 약하게 터치되거나 터치 면적이 작을 경우는 간접 터치 모드, 펜이 강하게 터치되거나 터치 면적이 넓을 경우는 직접 터치 모드에 대응될 수 있다.The above-described TV control method is applicable not only in the indirect touch mode, but also in a touch method using a pen such as a Galaxy Note and an Optimus view. The difference in the touch pressure or the touch area of the pen may be set to correspond to the indirect touch mode and the direct touch mode, respectively. For example, it may correspond to an indirect touch mode when the pen is weakly touched or the touch area is small, and a direct touch mode when the pen is strongly touched or the touch area is wide.
이하, 다양한 실시예를 설명하기로 한다.Hereinafter, various embodiments will be described.
도 11은 본 발명의 제 4 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다. 11 is a flowchart illustrating a terminal interworking and control method according to a fourth embodiment of the present invention.
도 11을 참조하면, 사용자 단말기(100)와 수신 단말기(102)가 연결되어 연동을 시작한다(S1100). Referring to FIG. 11, the
이어서, 수신 단말기(102)는 현재 디스플레이된 제 1 이미지 또는 디스플레이될 제 1 이미지에 해당하는 이미지 데이터를 사용자 단말기(100)로 전송하며, 사용자 단말기(100)는 상기 전송된 이미지 데이터에 해당하는 제 1 이미지를 화면에 디스플레이시킨다(S1102). 즉, 사용자 단말기(100)와 수신 단말기(102)가 제 1 이미지를 공유한다. Subsequently, the receiving
계속하여, 사용자가 손가락 또는 터치 펜 등과 같은 터치 수단을 근접시키면, 사용자 단말기(100)는 상기 터치 수단을 감지한다(S1104). 사용자 단말기(100)는 정전 용량 감지 방법, 전자기 감지 방법 등과 같은 다양한 방법들을 이용하여 상기 터치 수단을 감지할 수 있다. Subsequently, when a user approaches a touch means such as a finger or a touch pen, the
이어서, 사용자 단말기(100)는 상기 감지 결과에 따른 상기 터치 수단의 위치 정보를 가지는 제어 신호를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 전송된 제어 신호에 따라 제 1 이미지와 함께 상기 터치 수단의 위치를 표시하는 제 2 이미지를 디스플레이시킨다(S1106). 본 발명의 다른 실시예에 따르면, 사용자 단말기(100)는 상기 제 1 이미지와 함께 상기 제 2 이미지가 표시된 합성 이미지에 해당하는 합성 이미지 데이터를 수신 단말기(102)로 전송할 수도 있다. 다만, 기본적으로 수신 단말기(102)가 사용자 단말기(100)로 제 1 이미지에 해당하는 이미지 데이터를 전송하는 방식이므로, 사용자 단말기(100)가 상기 제어 신호를 수신 단말기(102)로 전송하는 전자의 방식이 바람직하다. Subsequently, the
계속하여, 사용자가 터치 수단을 터치하거나 움직이면, 사용자 단말기(100)는 상기 터치 수단의 위치 정보를 가지는 제어 신호를 수신 단말기(102)로 전송하여 수신 단말기(102)에 제 2 이미지를 디스플레이시킨다(S1108).Subsequently, when the user touches or moves the touch means, the
도 12는 본 발명의 또 다른 실시예에 따른 단말기 연동 시스템을 도시한 도면이다. 12 is a diagram illustrating a terminal interworking system according to another embodiment of the present invention.
도 12(A)를 참조하면, 본 발명의 단말기 연동 시스템에서는 리시버(1200)가 사용자 단말기(100)가 아닌 수신 단말기(102)에 설치되거나 내장될 수 있다. Referring to FIG. 12A, in the terminal interworking system of the present invention, the
사용자 단말기(100)에 사용되는 터치 수단으로서 터치 펜(1202)이 초음파 및 적외선을 수신 단말기(102)에 설치된 리시버(1200)로 발신하면, 리시버(1200)는 상기 초음파 및 적외선을 수신하여 터치 펜(1202)의 위치를 감지한다. When the
리시버(1200)는 상기 감지된 터치 펜(1202)의 위치에 대한 정보를 수신 단말기(102)로 전송하며, 수신 단말기(102)는 터치 펜(1202)의 위치를 표시하는 제 2 이미지를 제 1 이미지와 함께 디스플레이시킨다. 물론, 사용자 단말기(100)와 수신 단말기(102)는 제 1 이미지를 공유한 상태에서 상기 제 2 이미지를 디스플레이시킨다. The
본 발명의 다른 실시예에 따르면, 리시버(1200)는 터치 펜(1202)의 위치 감지뿐만 아니라 통신 역할도 수행할 수 있다. 구체적으로는, 리시버(1200)는 터치 수단 감지부(1210), 이미지 신호부(1212), 제어 신호부(1214) 및 송수신부(1216)를 포함할 수 있다. 터치 수단 감지부(1210)는 터치 펜(1202)의 위치를 감지하는 역할을 수행한다. 이미지 신호부(1212)는 사용자 단말기(100)로부터 전송된 이미지 데이터를 배신한 이미지 신호를 송수신부(1216)를 통하여 수신하고, 상기 수신된 이미지 신호의 이미지 데이터를 송수신부(1216)를 통하여 수신 단말기(102)로 전송하여 제 1 이미지를 디스플레이시킨다. 물론, 이미지 신호부(1212)는 수신 단말기(102)로부터 이미지 데이터를 수신하고, 상기 수신된 이미지 데이터를 배신한 이미지 신호를 사용자 단말기(100)로 전송할 수도 있다. 제어 신호부(1214)는 사용자 단말기(100)로부터 전송된 연동 동작 등과 관련된 제어 신호를 수신하고, 상기 수신된 제어 신호를 수신 단말기(102)로 전송할 수 있다. 물론, 터치 펜(1202)의 위치 정보를 가지는 제어 신호는 사용자 단말기(100)로부터 리시버(1200)로 전송되지는 않는다. 결론적으로, 리시버(1200)는 터치 펜(1202)의 위치를 감지하는 기능뿐만 아니라 통신 기능도 수행한다. 따라서, 수신 단말기(102)는 통신 기능을 가지지 않아도 본 발명의 연동 및 제어 방법을 사용할 수 있다. According to another embodiment of the present invention, the
도 13은 본 발명의 제 5 실시예에 따른 단말기 연동 및 제어 방법을 도시한 순서도이다. 13 is a flowchart illustrating a terminal interworking and control method according to a fifth embodiment of the present invention.
도 13을 참조하면, 리시버(1200)를 수신 단말기(102)에 설치한다(S1300). 본 발명의 다른 실시예에 따르면, 리시버는 수신 단말기(102)에 내장될 수 있다. Referring to FIG. 13, the
이어서, 사용자 단말기(100)와 수신 단말기(102)가 연결되어 연동을 시작한다(S1302).Subsequently, the
계속하여, 사용자 단말기(100)가 제 1 이미지에 해당하는 이미지 데이터를 수신 단말기(102)에 전송하여 상기 제 1 이미지를 공유하거나 수신 단말기(102)가 사용자 단말기(100)로 이미지 데이터를 전송하여 상기 제 1 이미지를 공유한다(S1304).Subsequently, the
이어서, 터치 수단, 예를 들어 터치 펜(1202)이 사용자 단말기(100)로 근접하면, 리시버(1200)는 터치 펜(1202)으로부터 발신된 적외선 및 초음파를 통하여 터치 펜(1202)의 위치를 감지하여 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 감지된 위치에 따른 그림자 등과 같은 제 2 이미지를 상기 제 1 이미지와 함께 디스플레이시킨다(S1306).Subsequently, when the touch means, for example, the
계속하여, 사용자가 터치 펜(1202)으로 사용자 단말기(100)를 터치하거나 터치 후 움직이면, 리시버(1200)는 이러한 터치 펜(1202)의 움직임을 감지하여 수신 단말기(102)로 전송하며, 수신 단말기(102)는 상기 움직임에 따라 상기 제 1 이미지와 함께 해당 제 2 이미지를 디스플레이시킨다(S1308).Subsequently, when the user touches or moves after touching the
도 14는 본 발명의 또 다른 실시예에 따른 단말기 연동 시스템을 도시한 도면이다. 14 is a diagram illustrating a terminal interworking system according to another embodiment of the present invention.
도 14(A)를 참조하면, 본 실시예의 단말기 연동 시스템은 사용자 단말기(100), 수신 단말기(102) 및 동글(1400)을 포함한다. Referring to FIG. 14A, the terminal interworking system according to the present embodiment includes a
동글(1400)은 사용자 단말기(100)의 통신을 보조하는 역할뿐만 아니라 터치 수단으로서 터치 펜(1402)의 위치를 감지하는 역할을 수행한다. 구체적으로는, 동글(1400)은 통신부(1410) 및 터치 수단 감지부(1412)를 포함할 수도 있다. The
통신부(1410)는 사용자 단말기(100)를 위한 통신 수단으로서, 특정 통신 기능, 예를 들어 Wibro 통신 기능을 제공할 수도 있고, 특정 통신 기능을 다른 통신 기능으로 변환시켜, 예를 들어 Wibro를 Wi-Fi로 변환하여 사용자 단말기(100)를 위하여 사용할 수도 있다. The
터치 수단 감지부(1412)는 리시버와 유사하게 터치 펜(1402)의 위치를 감지하고, 감지된 위치에 대한 정보를 제어 신호에 배신하여 수신 단말기(102)로 전송할 수도 있다. The touch means detecting
정리하면, 사용자 단말기(100)는 동글(1400)을 통하여 통신 기능을 가지며, 동글(1400)은 터치 펜(1402)의 위치를 감지하는 수단으로서도 사용된다. In summary, the
이하, 사용자 단말기(100)와 분리되어 구분되는 경우의 리시버 및 동글을 외부 장치로 통칭하겠다. Hereinafter, a receiver and a dongle in the case of being separated from the
도 15는 본 발명의 일 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다. 15 is a block diagram showing the structure of a user terminal according to an embodiment of the present invention.
도 15를 참조하면, 본 실시예의 사용자 단말기(100)는 제어부(1500), 연동부(1502), 이미지부(1504), 감지부(1506), 설정부(1508), 디스플레이부(1510), 신호부(1512), 송수신부(1514) 및 저장부(1516)를 포함한다. Referring to FIG. 15, the
연동부(1502)는 수신 단말기(102)와의 연동과 관련된 모든 기능을 관리한다. The interlocking
이미지부(1504)는 수신 단말기(102)와 공유할 제 1 이미지를 생성하거나 제 2 이미지와 제 1 이미지의 합성 이미지를 생성할 수도 있다. 이미지부(1504)는 상기 제 1 이미지를 디스플레이부(1510)를 통하여 디스플레이시킨다. The
감지부(1506)는 손가락 또는 터치 펜 등과 같은 터치 수단을 감지하는 역할을 수행한다. 구체적으로는, 감지부(1506)는 상기 터치 수단이 근접할 때와 터치하였을 때를 구별하여 상기 터치 수단의 위치를 감지한다. 감지 방법으로는 정전 용량 방식, 전자기 유도 방식 등 제한이 없다. 감지부(1506)에 의해 감지된 터치 수단의 위치에 대한 정보는 위치 정보 생성부(미도시)에 의해 생성될 수도 있다. The
설정부(1508)는 연동 기능 설정, 감지 레벨 설정 등 다양한 기능들을 설정을 관리한다. The
디스플레이부(1510)는 터치 패널이며, 정전 용량 방식, 저항막 방식, 전자기 유도 방식 등 다양한 방식으로 구현될 수 있다. The
신호부(1512)는 상기 제 1 이미지에 해당하는 이미지 데이터를 배신하는 이미지 신호 및 상기 터치 수단의 위치에 대한 정보를 가지는 제어 신호를 발생시킨다. 또한, 신호부(1512)는 상기 이미지 신호를 데이터 채널을 통하여 수신 단말기(102)로 전송하고 상기 제어 신호를 제어 채널을 통하여 수신 단말기(102)로 전송할 수 있다. The
송수신부(1514)는 수신 단말기(102)와의 통신 통로 역할을 수행한다. The
저장부(1516)는 제 1 이미지, 이미지 신호, 제어 신호, 응용 프로그램 등 다양한 데이터를 저장한다. The
제어부(1500)는 사용자 단말기(100)의 구성 요소들의 동작을 전반적으로 제어한다. The
도 16은 본 발명의 일 실시예에 따른 도 15의 이미지부의 구조를 도시한 블록도이다. FIG. 16 is a block diagram illustrating a structure of the image unit of FIG. 15 according to an embodiment of the present invention. FIG.
도 16을 참조하면, 본 실시예의 이미지부(1504)는 제 1 이미지 생성부(1600), 제 2 이미지 생성부(위치 정보 생성부, 1602) 및 이미지 합성부(1604)를 포함한다. Referring to FIG. 16, the
제 1 이미지 생성부(1600)는 공유되는 제 1 이미지를 생성하고, 제 2 이미지 생성부(1602)는 터치 수단의 위치에 해당하는 그림자 이미지 등과 같은 제 2 이미지를 생성한다. The
이미지 합성부(1604)는 상기 생성된 제 1 이미지와 함께 상기 제 2 이미지가 디스플레이된 합성 이미지를 생성한다. The
본 발명의 다른 실시예에 따르면, 사용자 단말기(100)는 제 1 이미지에 해당하는 이미지 데이터를 배신한 이미지 신호를 수신 단말기(102)로 전송하고, 터치 수단의 위치에 대한 정보를 가지는 제어 신호가 아닌 제 2 이미지에 해당하는 위치 표시 데이터를 배신한 제어 신호를 수신 단말기(102)로 전송할 수도 있다. According to another embodiment of the present invention, the
도 17은 본 발명의 제 2 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다. 도 17은 사용자 단말기(100)에 리시버가 설치된 단말기 연동 시스템에서의 사용자 단말기(100)의 구조를 도시한다. 17 is a block diagram showing the structure of a user terminal according to a second embodiment of the present invention. 17 illustrates a structure of a
도 17을 참조하면, 본 실시예의 사용자 단말기(100)는 제어부(1700), 연동부(1702), 이미지부(1704), 터치 수단부(1706), 설정부(1708), 디스플레이부(1710), 신호부(1712), 송수신부(1714) 및 저장부(1716)를 포함할 수 있다.Referring to FIG. 17, the
이하, 제 1 실시예에서와 동일한 기능을 수행하는 구성요소들에 대한 설명은 생략한다. Hereinafter, descriptions of the components that perform the same functions as those in the first embodiment will be omitted.
이미지부(1704)는 수신 단말기(102)와 공유할 제 1 이미지를 생성하거나 제 1 이미지와 제 2 이미지의 합성 이미지를 생성한다. The
터치 관리부(1706)는 터치 수단의 위치에 대한 정보를 리시버로부터 수신하여 관리한다. 즉, 터치 수단의 위치는 리시버가 감지하고, 터치 관리부(1706)는 리시버로부터 전송된 신호를 분석하여 터치 수단의 위치를 검출한다. The
신호부(1712)는 상기 제 1 이미지에 해당하는 이미지 데이터를 배신하는 이미지 신호, 상기 터치 수단의 위치에 대한 정보를 가지는 제어 신호 또는 합성 이미지에 해당하는 데이터를 배신한 합성 신호를 발생시킨다. 또한, 신호부(1712)는 상기 이미지 신호 또는 상기 합성 신호를 데이터 채널을 통하여 수신 단말기(102)로 전송하고 상기 제어 신호를 제어 채널을 통하여 수신 단말기(102)로 전송할 수 있다. The
도 18은 본 발명의 제 3 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다. 도 18은 리시버가 사용자 단말기(100)에 내장된 단말기 연동 시스템에서의 사용자 단말기(100)의 구조를 도시한다. 18 is a block diagram showing the structure of a user terminal according to a third embodiment of the present invention. 18 illustrates a structure of a
도 18을 참조하면, 본 실시예의 사용자 단말기(100)는 제어부(1800), 연동부(1802), 송수신부(1804), 이미지부(1806), 리시버부(1808), 설정부(1810), 디스플레이부(1812), 신호부(1814) 및 저장부(1816)를 포함할 수 있다. Referring to FIG. 18, the
이하, 제 1 실시예에서와 동일한 기능을 수행하는 구성요소들에 대한 설명은 생략한다. Hereinafter, descriptions of the components that perform the same functions as those in the first embodiment will be omitted.
이미지부(1806)는 수신 단말기(102)와 공유할 제 1 이미지를 생성하거나 제 1 이미지와 제 2 이미지의 합성 이미지를 생성한다. The
리시버부(1808)는 터치 수단이 사용자 단말기(100)에 근접하거나 터치하는 경우 터치 수단으로부터 전송된 적외선 및 초음파를 수신하고, 상기 수신된 적외선 및 초음파를 분석하여 터치 수단의 위치를 검출한다. The
신호부(1814)는 상기 제 1 이미지에 해당하는 이미지 데이터를 배신하는 이미지 신호, 상기 터치 수단의 위치에 대한 정보를 가지는 제어 신호 또는 합성 이미지에 해당하는 합성 이미지 데이터를 배신한 합성 신호를 발생시킨다. 또한, 신호부(1814)는 상기 이미지 신호 또는 상기 합성 신호를 데이터 채널을 통하여 수신 단말기(102)로 전송하고 상기 제어 신호를 제어 채널을 통하여 수신 단말기(102)로 전송할 수 있다. The
도 19는 본 발명의 제 4 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다. 도 19는 전자기 유도 방식을 사용하는 사용자 단말기(100)의 구조를 도시한다. 19 is a block diagram showing the structure of a user terminal according to a fourth embodiment of the present invention. 19 illustrates a structure of a
도 19를 참조하면, 본 실시예의 사용자 단말기(100)는 제어부(1900), 연동부(1902), 이미지부(1904), 전자기 발생부(1906), 감지부(1908), 설정부(1910), 디스플레이부(1912), 신호부(1914), 송수신부(1916) 및 저장부(1920)를 포함할 수 있다. Referring to FIG. 19, the
이하, 제 1 실시예에서와 동일한 기능을 수행하는 구성요소들에 대한 설명은 생략한다. Hereinafter, descriptions of the components that perform the same functions as those in the first embodiment will be omitted.
이미지부(1904)는 수신 단말기(102)와 공유할 제 1 이미지를 생성하거나 제 1 이미지와 제 2 이미지의 합성 이미지를 생성한다. The
전자기 발생부(1906)는 전자기 유도 방식으로 터치 수단을 감지하기 위하여 전자기를 발생시키는 역할을 수행하며, 바람직하게는 디스플레이부(1912)의 후면에 배치될 수 있다. The
감지부(1908)는 터치 수단의 코일에 의해 변화되는 전자기를 감지하여 터치 수단의 위치를 감지한다. The
신호부(1914)는 상기 제 1 이미지에 해당하는 이미지 데이터를 배신하는 이미지 신호, 상기 터치 수단의 위치에 대한 정보를 가지는 제어 신호 또는 합성 이미지 데이터를 배신한 합성 신호를 발생시킨다. 또한, 신호부(1914)는 상기 이미지 신호 또는 이미지 신호를 데이터 채널을 통하여 수신 단말기(102)로 전송하고 상기 제어 신호를 제어 채널을 통하여 수신 단말기(102)로 전송할 수 있다. The
도 20은 본 발명의 제 5 실시예에 따른 사용자 단말기의 구조를 도시한 블록도이다. 도 20은 수신 단말기(102)가 사용자 단말기(100)로 이미지 데이터를 전송할 때의 사용자 단말기(100)의 구조를 도시한다. 20 is a block diagram showing the structure of a user terminal according to a fifth embodiment of the present invention. 20 illustrates the structure of the
도 20을 참조하면, 본 실시예의 사용자 단말기(100)는 제어부(2000), 연동부(2002), 송수신부(2004), 이미지 신호부(2006), 이미지부(2008), 감지부(2010), 신호부(2012), 디스플레이부(2014), 설정부(2016) 및 저장부(2018)를 포함할 수 있다. Referring to FIG. 20, the
이하, 제 1 실시예에서와 동일한 기능을 수행하는 구성요소들에 대한 설명은 생략한다. Hereinafter, descriptions of the components that perform the same functions as those in the first embodiment will be omitted.
이미지 신호부(2006)는 수신 단말기(102)로부터 전송된 이미지 신호를 송수신부(2004)를 통하여 수신하고, 상기 수신된 이미지 신호를 분석한다. The
이미지부(2008)는 이미지 신호부(2006)의 의해 분석된 이미지 신호에 해당하는 제 1 이미지를 생성하거나 제 1 이미지와 제 2 이미지의 합성 이미지를 생성한다. The
감지부(2010)는 터치 수단의 위치를 감지한다. The
신호부(2012)는 상기 터치 수단의 위치에 대한 정보를 가지는 제어 신호 또는 합성 이미지 데이터를 배신한 합성 신호를 발생시킨다. 또한, 신호부(1914)는 상기 합성 신호를 데이터 채널을 통하여 수신 단말기(102)로 전송하고 상기 제어 신호를 제어 채널을 통하여 수신 단말기(102)로 전송할 수 있다.
The
도 21은 본 발명의 제 1 실시예에 따른 수신 단말기의 구조를 도시한 블록도이다. 21 is a block diagram showing the structure of a receiving terminal according to the first embodiment of the present invention.
본 실시예의 수신 단말기(102)는 제어부(2100), 연동부(2102), 송수신부(2104), 이미지 신호부(2106), 제어 신호부(2108), 이미지부(2110), 디스플레이부(2112) 및 저장부(2114)를 포함할 수 있다. The receiving
연동부(2102)는 사용자 단말기(100)와의 연동 기능을 관리한다. The
송수신부(2104)는 사용자 단말기(100)의 통신 통로 역할을 수행한다. The
이미지 신호부(2106)는 사용자 단말기(100)로부터 전송된 이미지 데이터를 배신한 이미지 신호를 수신하고, 상기 수신된 이미지 신호를 분석하여 이미지 데이터를 검출한다. The
제어 신호부(2108)는 사용자 단말기(100)로부터 전송된 제어 신호를 수신하고, 상기 수신된 제어 신호를 분석하여 터치 수단의 위치에 대한 정보를 검출한다. The
이미지부(2110)는 상기 검출된 이미지 데이터에 해당하는 제 1 이미지를 디스플레이부(2112)를 통하여 디스플레이시키고, 상기 제 1 이미지와 함께 상기 검출된 터치 수단의 위치에 대한 정보에 해당하는 그림자 등과 같은 제 2 이미지를 디스플레이시킨다. 본 발명의 다른 실시예에 따르면, 이미지부(2110)는 상기 이미지 데이터와 상기 정보를 통하여 상기 제 1 이미지와 함께 상기 제 2 이미지가 표시되는 합성 이미지를 생성하고, 상기 생성된 합성 이미지를 디스플레이부(2112)를 통하여 디스플레이시킨다. The
디스플레이부(2114)는 이미지를 디스플레이시키는 한 제한이 없이 LCD, OLED, PDP 등과 같은 다양한 디스플레이 소자로 구현될 수 있고, 터치 기능을 가질 필요도 없다. The
저장부(2114)는 제 1 이미지, 제 2 이미지, 합성 이미지, 응용 프로그램 등과 같은 다양한 데이터를 저장한다. The
제어부(2100)는 수신 단말기(102)의 구성요소들의 동작을 전반적으로 제어한다. The
도 22는 본 발명의 제 2 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다. 도 22는 사용자 단말기(100)로부터 합성 이미지가 수신 단말기(102)로 전송되는 경우의 수신 단말기(102)의 구조를 도시한다. 22 is a block diagram showing the configuration of a receiving terminal according to a second embodiment of the present invention. FIG. 22 shows the structure of the receiving
도 22를 참조하면, 본 실시예의 수신 단말기(102)는 제어부(2200), 연동부(2202), 송수신부(2204), 신호부(2206), 이미지부(2208), 디스플레이부(2210) 및 저장부(2212)를 포함할 수 있다. Referring to FIG. 22, the
이하, 제 1 실시예에서와 동일한 구성요소들에 대한 자세한 설명은 생략하겠다. Hereinafter, detailed description of the same components as in the first embodiment will be omitted.
신호부(2206)는 이미지 신호 및 합성 신호를 사용자 단말기(100)로부터 수신하고, 상기 수신된 이미지 신호 및 합성 신호를 분석한다. 신호부(2206)는 연동 시작시 상기 이미지 신호를 수신하고, 사용자 단말기(100)가 터치 수단을 감지하는 경우 합성 신호를 수신한다. 상기 합성 신호는 제 1 이미지와 제 2 이미지의 합성 이미지에 해당하는 데이터를 포함한다. 본 발명의 다른 실시예에 따르면, 신호부(2206)는 이미지 데이터를 배신한 이미지 신호와 제 2 이미지에 해당하는 데이터를 배신한 제어 신호를 수신할 수도 있다. The
이미지부(2208)는 상기 합성 신호에 포함된 데이터에 해당하는 합성 이미지를 디스플레이부(2210)를 통하여 디스플레이시킨다. 결과적으로, 수신 단말기(102)에는 제 1 이미지와 함께 제 2 이미지가 디스플레이된 화면이 디스플레이된다. 본 발명의 다른 실시예에 따르면, 이미지부(2208)는 이미지 데이터에 해당하는 제 1 이미지를 디스플레이부(2210)를 통하여 디스플레이시키고, 상기 제 1 이미지와 함께 상기 제 2 이미지를 디스플레이시킬 수도 있다. The
도 23은 본 발명의 제 3 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다. 도 23은 수신 단말기(102)에 리시버가 설치된 경우의 수신 단말기(102)의 구조를 도시한다. 23 is a block diagram showing the configuration of a receiving terminal according to a third embodiment of the present invention. 23 shows the structure of the receiving
도 23을 참조하면, 본 실시예의 수신 단말기(102)는 제어부(2300), 연동부(2302), 송수신부(2304), 신호부(2306), 리시버부(2308), 이미지부(2310), 디스플레이부(2312) 및 저장부(2314)를 포함할 수 있다. Referring to FIG. 23, the receiving
이하, 제 1 실시예에서와 동일한 구성요소들에 대한 자세한 설명은 생략하겠다. Hereinafter, detailed description of the same components as in the first embodiment will be omitted.
신호부(2306)는 이미지 데이터를 배신한 이미지 신호를 사용자 단말기(100)로부터 수신하고, 상기 수신된 이미지 신호를 분석한다. The
리시버부(2308)는 수신 단말기(102)에 설치된 리시버로부터 터치 수단의 위치에 대한 정보를 수신하고 분석한다. The
이미지부(2310)는 상기 이미지 데이터에 해당하는 제 1 이미지를 디스플레이부(2312)를 통하여 디스플레이시키고, 상기 제 1 이미지와 함께 상기 터치 수단의 위치에 해당하는 제 2 이미지를 디스플레이시킨다. 본 발명의 다른 실시예에 따르면, 이미지부(2310)는 상기 제 1 이미지와 상기 제 2 이미지의 합성 이미지를 생성하고, 상기 생성된 합성 이미지를 디스플레이부(2312)를 통하여 디스플레이시킨다. The
도 24는 본 발명의 제 4 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다. 도 24는 수신 단말기(102)에 리시버가 내장된 경우의 수신 단말기(102)의 구조를 도시한다. 24 is a block diagram showing a configuration of a receiving terminal according to a fourth embodiment of the present invention. 24 shows the structure of the receiving
도 24를 참조하면, 본 실시예의 수신 단말기(102)는 제어부(2400), 연동부(2402), 송수신부(2404), 신호부(2406), 리시버부(2408), 이미지부(2410), 디스플레이부(2412) 및 저장부(2414)를 포함할 수 있다. Referring to FIG. 24, the
이하, 제 1 실시예에서와 동일한 구성요소들에 대한 자세한 설명은 생략하겠다. Hereinafter, detailed description of the same components as in the first embodiment will be omitted.
리시버부(2408)는 사용자 단말기(100)로 근접하거나 터치하는 터치 수단으로부터 발신된 적외선 및 초음파를 감지하여 터치 수단의 위치를 검출한다. The
이미지부(2410)는 상기 이미지 데이터에 해당하는 제 1 이미지를 디스플레이부(2412)를 통하여 디스플레이시키고, 상기 제 1 이미지와 함께 리시버부(2408)에 의해 검출된 터치 수단의 위치에 해당하는 제 2 이미지를 디스플레이시킨다. 본 발명의 다른 실시예에 따르면, 이미지부(2410)는 상기 제 1 이미지와 상기 제 2 이미지의 합성 이미지를 생성하고, 상기 생성된 합성 이미지를 디스플레이부(2312)를 통하여 디스플레이시킨다. The
도 25는 본 발명의 제 5 실시예에 따른 수신 단말기의 구성을 도시한 블록도이다. 도 25는 수신 단말기(102)가 이미지 데이터를 사용자 단말기(100)로 전송하는 경우의 수신 단말기(102)의 구조를 도시한다. 25 is a block diagram showing a configuration of a receiving terminal according to a fifth embodiment of the present invention. 25 shows the structure of the receiving
도 25를 참조하면, 본 실시예의 수신 단말기(102)는 제어부(2500), 연동부(2502), 신호부(2504), 이미지부(2506), 디스플레이부(2508), 송수신부(2510) 및 저장부(2512)를 포함할 수 있다. Referring to FIG. 25, the
이하, 제 1 실시예에서와 동일한 구성요소들에 대한 자세한 설명은 생략하겠다. Hereinafter, detailed description of the same components as in the first embodiment will be omitted.
신호부(2504)는 수신 단말기(102)에 디스플레이된 또는 디스플레이될 제 1 이미지에 해당하는 이미지 데이터를 배신한 이미지 신호를 생성하고, 상기 생성된 이미지 신호를 송수신부(2510)를 통하여 사용자 단말기(100)로 전송한다. 또한, 신호부(2504)는 사용자 단말기(100)로부터 전송된 터치 수단의 위치에 대한 정보 또는 제 2 이미지에 해당하는 데이터를 가지는 제어 신호 또는 합성 이미지에 대한 데이터를 배신한 합성 신호를 수신하고 분석한다. The
이미지부(2506)는 상기 터치 수단의 위치에 해당하는 제 2 이미지를 생성하고, 상기 제 1 이미지와 함께 상기 제 2 이미지를 디스플레이부(2508)를 통하여 디스플레이시킨다. 본 발명의 다른 실시예에 따르면, 이미지부(2506)는 상기 제 1 이미지와 상기 제 2 이미지의 합성 이미지를 생성하고, 상기 생성된 합성 이미지를 디스플레이부(2508)를 통하여 디스플레이시킬 수 있다.
The
한편, 전술된 실시예에서는 사용자 단말기가 수신 단말기로 터치 수단의 위치 정보 또는 위치 이미지를 전송하지만, 사용자 단말기는 터치 수단의 위치를 나타내는 위치 이미지를 자신의 디스플레이부에 디스플레이할 수도 있다. 즉, 도 4에 도시된 바와 같은 그림자 이미지(400)가 사용자 단말기에도 표시될 수 있다.Meanwhile, in the above-described embodiment, the user terminal transmits the position information or the position image of the touch means to the receiving terminal, but the user terminal may display the position image indicating the position of the touch means on its display unit. That is, the
보다 자세히 설명하면, 중소형 터치 패널 디스플레이부를 장착한 스마트 폰에서 웹서핑 등을 하는 경우, 손가락으로 원하는 항목을 클릭을 해야 한다. 그런데, 손가락으로는 정교하게 클릭을 할 수 없기 때문에, 클릭 대상이 되는 항목[예를 들어, 기사]이 매우 촘촘하게 기재되어 있으면, 해당 항목을 잘못 선택하는 경우가 발생한다.In more detail, when surfing the web on a smart phone equipped with a small and medium touch panel display, a user needs to click a desired item. By the way, since a finger cannot click precisely, if the item to be clicked (for example, an article) is described very densely, the wrong item may be selected.
사용자 단말기가 터치 수단의 위치 이미지를 자신의 디스플레이부에 디스플레이함으로써 이러한 문제점을 해결할 수 있다.이하 보다 자세히 설명하기로 한다.This problem can be solved by the user terminal displaying the position image of the touch means on its display unit. The following description will be made in detail.
본 발명에 따른 사용자 단말기는, 사용자 단말기[예를 들어, 스마트 폰]에 근접한 터치 수단을 인식하고, 터치 수단의 위치를 나타내는 위치 이미지를 디스플레이부에 표시한다. 보다 자세히, 디스플레이부는 터치 패널 디스플레이부일 수 있으며, 사용자 단말은 사용자 단말의 터치 패널 디스플레이부에 근접한 터치 수단을 전술된 다양한 방법으로 인식할 수 있다. 이 때, 위치 이미지는 예를 들어 커서, 포인터 또는 터치 수단의 위치에서 음영이 조절된 이미지일 수 있다.그리고 위치 이미지는 사용자 단말기의 이미지 생성부에서 생성될 수 있다.The user terminal according to the present invention recognizes a touch means close to the user terminal (for example, a smart phone) and displays a position image indicating the position of the touch means on the display. In more detail, the display unit may be a touch panel display unit, and the user terminal may recognize a touch unit proximate to the touch panel display unit of the user terminal in various ways described above. In this case, the position image may be, for example, an image whose shade is adjusted at the position of the cursor, the pointer, or the touch means. The position image may be generated by the image generator of the user terminal.
그리고 여기서 근접이란, 전술된 바와 같이, 사용자 단말로부터 기 설정된 거리 이내일 수 있으며, 정전식 터치패널이 사용되는 경우, 기 설정된 임계값(레벨) 이상의 커패시턴스 값 변화가 발생하는 경우일 수 있다. 여기서, 임계값은 도 3에서 설명된 바와 같이, 터치 수단이 직접 정전식 터치패널에 접촉한 경우의 임계값보다 낮은 값일 수 있다.As described above, the proximity may be within a preset distance from the user terminal, and when a capacitive touch panel is used, it may be a case where a capacitance value change more than a preset threshold (level) occurs. Here, the threshold value may be lower than the threshold value when the touch means directly contacts the capacitive touch panel as described with reference to FIG. 3.
터치 수단[예를 들어, 손가락]이 사용자 단말에 근접한 상태이고 사용자 단말이 이를 인식한 상태로 터치 수단이 계속 이동하는 경우, 위치 이미지는 이동되는 터치 수단에 따라 연속적으로 표시된다. 즉, 위치 이미지는 사용자 단말에 근접한 상태로 이동하는 터치 수단을 따라 이동한다.When the touch means (for example, a finger) is close to the user terminal and the touch means continues to move while the user terminal recognizes it, the position image is displayed continuously according to the touch means to be moved. That is, the location image moves along the touch means moving in a state close to the user terminal.
그리고 사용자 단말기 유저는 디스플레이부에 표시된 위치 이미지를 확인하고, 사용자 단말을 직접 터치함으로써 해당 항목을 선택할 수 있다. 즉, 터치 수단이 터치 패널 디스플레이부에 근접하여 터치 수단이 인식되면, 위치 이미지가 생성 및 이동된다. 위치 이미지 생성후에 터치 수단이 터치 패널 디스플레이부를 터치하는 경우에는 터치 패널 디스플레이부를 포함하는 일반적인 휴대폰에서의 터치 동작에 대응되도록 사용자 단말이 동작한다.이 때, 위치 이미지는 사용자 단말기 설정에 따라 디스플레이부에 표시될 수 있으며, 터치 수단이 터치 패널 디스플레이부를 직접 터치한 경우 사라질 수 있다.The user terminal user may check the position image displayed on the display unit and select the corresponding item by directly touching the user terminal. That is, when the touch means is recognized in proximity to the touch panel display, the position image is generated and moved. When the touch means touches the touch panel display unit after generating the position image, the user terminal operates to correspond to a touch operation in a general mobile phone including the touch panel display unit. In this case, the position image is displayed on the display unit according to the user terminal setting. It may be displayed, and may disappear when the touch means directly touches the touch panel display.
본 발명에 따르면, 손가락과 같이 정교하지 못한 터치 수단을 이용하는 터치 방식에서, 선택 동작의 오류를 감소시킬 수 있다.
According to the present invention, in a touch method using a touch device that is not as sophisticated as a finger, an error of a selection operation can be reduced.
또한 전술된 근접 터치의 발생 여부를 단말기 사용자에게 용이하게 제공하기 위해, 사용자 단말기는 근접 터치의 발생 정보(근접 정보)를 사용자에게 출력하는 정보 제공부를 더 포함할 수 있다. 정보 제공부는 예를 들어, 사용자의 촉각 또는 청각을 자극하는 형태로 사용자에게 근접 터치 발생 정보를 제공할 수 있다.In addition, in order to easily provide the terminal user with the occurrence of the above-described proximity touch, the user terminal may further include an information providing unit for outputting generation information (proximity information) of the proximity touch to the user. For example, the information provider may provide proximity touch generation information to the user in a form of stimulating the user's sense of touch or hearing.
근접 터치의 발생 정보가 유저의 촉각을 자극하는 형태로 제공되는 경우, 정보 제공부는 진동 모터일 수 있으며, 사용자 단말기가 근접 터치를 인식한 경우, 정보 제공부는 진동으로써 근접 터치의 발생 정보를 유저에게 제공할 수 있다. 또는 근접 터치의 발생 정보가 유저의 청각을 자극하는 형태로 제공되는 경우, 정보 제공부는 사용자 단말기의 스피커를 통해 근접 터치의 발생 정보를 유저에게 제공할 수 있다.When the generation information of the proximity touch is provided in the form of stimulating the user's tactile sense, the information providing unit may be a vibration motor, and when the user terminal recognizes the proximity touch, the information providing unit vibrates the generation information of the proximity touch to the user. Can provide. Alternatively, when the generation information of the proximity touch is provided in a form that stimulates the user's hearing, the information provider may provide the generation information of the proximity touch to the user through the speaker of the user terminal.
한편, 정보 제공부는 사용자 단말기의 유저의 근접 터치 형태에 따라, 사용자 단말기의 유저가 다양한 촉감 또는 청각을 느낄 수 있도록 다양한 유형으로 촉감 또는 청각을 유저에게 제공할 수 있다. On the other hand, the information providing unit may provide the user with a variety of types of touch or hearing so that the user of the user terminal can feel a variety of touch or hearing, depending on the proximity touch type of the user of the user terminal.
예를 들어, 사용자 단말기가 터치 수단의 근접 터치를 인식한 상태에서, 터치 수단이 이동하는 동안, 정보 제공부는 연속적인 진동 또는 소리를 발생시킬 수 있다. 즉, 최초 터치 수단의 근접 터치가 인식된 경우에는 짧게 1회 진동이 발생되고, 추후 터치 수단이 이동하는 경우 연속적으로 진동이 발생될 수 있다. 다시 설명하면, 최초 터치 수단의 근접 터치가 인식된 경우에는 제1시간 동안 진동이 발생되고 추후 터치 수단이 이동하는 경우 제2시간동안 진동이 발생될 수 있다. 여기서 제2시간은 제1시간보다 길 수 있다. For example, while the user terminal recognizes a proximity touch of the touch means, while the touch means moves, the information provider may generate continuous vibration or sound. That is, when the proximity touch of the first touch means is recognized, one short vibration may be generated, and when the touch means moves later, vibration may be continuously generated. In other words, when the proximity touch of the first touch means is recognized, vibration may occur during the first time, and when the touch means moves later, vibration may occur during the second time. The second time may be longer than the first time.
또는 최초 근접 터치가 인식된 경우에는 진동, 이후 터치 수단이 이동하는 경우에는 소리가 정보 제공부로부터 제공될 수 있다.Alternatively, when the first proximity touch is recognized, vibration may be provided, and when the touch means moves, a sound may be provided from the information providing unit.
이상 설명된 본 발명의 일실시예에 따른 사용자 단말기는 터치 패널 디스플레이부, 상기 터치 패널 디스플레이부에 근접한 터치 수단의 위치 정보를 상시 수신 단말기로 전송하는 신호부 및 상기 터치 수단이 상기 터치 패널 디스플레이부에 근접한 상태임을 나타내는 근접 정보를 제공하는 정보 제공부를 포함할 수 있다.The user terminal according to the embodiment of the present invention described above includes a touch panel display unit, a signal unit for transmitting the position information of the touch means adjacent to the touch panel display unit to the receiving terminal at all times, and the touch means is the touch panel display unit. It may include an information providing unit for providing proximity information indicating that the state is close to.
여기서, 정보 제공부가 제공하는 근접 정보는 진동 또는 소리 형태의 정보일 수 있으며, 사용자 단말기는 터치 수단이 터치 패널 디스플레이부에 근접한 상태임을 인식하는 인식부를 더 포함할 수 있다.Here, the proximity information provided by the information provider may be information in the form of vibration or sound, and the user terminal may further include a recognition unit recognizing that the touch means is in proximity to the touch panel display.
그리고 정보 제공부는, 인식부가 상기 터치 수단의 근접 상태를 인식한 경우, 제1시간동안 근접 정보를 제공하며, 인식부가 터치 수단의 근접 상태를 인식한 상태에서 터치 수단이 이동하는 경우, 제2시간동안 근접 정보를 제공할 수 있다. 제2시간은 인식부가 터치 수단의 근접 상태를 인식한 상태에서 터치 수단이 이동하는 시간에 대응되는 시간일 수 있다.The information providing unit may provide proximity information for a first time when the recognition unit recognizes the proximity state of the touch means, and when the touch means moves while the recognition unit recognizes the proximity state of the touch means, the second time period. Proximity information can be provided while The second time may be a time corresponding to the time when the touch means moves in a state where the recognizer recognizes a proximity state of the touch means.
또한 정보 제공부는, 인식부가 터치 수단의 근접 상태를 인식한 제1경우와 인식부가 터치 수단의 근접 상태를 인식한 상태에서 터치 수단이 이동하는 제2경우에 각각 다른 형태의 근접 정보를 제공할 수 있다. 전술된 바와 같이 제1경우에는 진동, 제2경우에는 소리를 제공할 수 있거나 또는 제1경우에는 제1패턴의 진동 제2경우에는 유저가 터치 수단의 이동을 느낄 수 있도록 제2패턴의 진동을 제공할 수 있다.The information providing unit may provide different types of proximity information in a first case where the recognizer recognizes a proximity state of the touch means and a second case in which the touch means moves while the recognizer recognizes the proximity state of the touch means. have. As described above, in the first case, vibration may be provided in the second case, or in the second case, the first pattern may be vibrated. In the second case, the second pattern may be vibrated so that the user can feel the movement of the touch means. Can provide.
한편, 정보 제공부는 인식부의 근접 상태 인식 이후, 터치 수단이 터치 패널 디스플레이부를 터치한 경우에는, 근접 정보를 제공하지 않음으로써, 사용자 단말기 유저는 근접 상태와 직접 터치를 구분할 수 있다. On the other hand, when the touch means touches the touch panel display after the recognition of the proximity state of the recognition unit, the information providing unit does not provide the proximity information, so that the user terminal user can distinguish the proximity state from the touch directly.
또한 정보 제공부는 터치 수단이 터치 패널 디스플레이부를 터치한 이후, 인식부가 두번째로 터치 수단의 근접 상태를 인식한 경우, 근접 정보를 제공할 수 있다. In addition, the information providing unit may provide proximity information when the recognition unit recognizes the proximity state of the touch unit for the second time after the touch unit touches the touch panel display unit.
터치 수단이 사용자 단말기에 근접하고 사용자 단말기를 터치하면, 터치 수단은 사용자 단말기로부터 이격된다. 즉, 터치 목적을 달성하였기 때문에 다음 동작을 위해 터치 수단은 사용자 단말기로부터 이격되는데 이 때, 다시 근접 상태가 발생한다. 이 경우는 터치 수단이 터치 패널 디스플레이부를 터치한 이후 최초의 근접 상태로서 유저가 의도적으로 근접 상태를 발생한 것이 아니기 때문에, 정보 제공부는 근접 정보를 제공하지 않는다. 그리고 두번째 근접 상태가 발생한 경우, 즉, 유저가 의도적으로 근접 상태를 발생한 경우, 정보 제공부는 근접 정보를 제공할 수 있다.
When the touch means is close to the user terminal and touches the user terminal, the touch means is spaced apart from the user terminal. That is, since the touch purpose is achieved, the touch means is spaced apart from the user terminal for the next operation. At this time, the proximity state occurs again. In this case, since the user does not intentionally generate the proximity state as the first proximity state after the touch means touches the touch panel display, the information providing unit does not provide the proximity information. When the second proximity state occurs, that is, when the user intentionally generates the proximity state, the information provider may provide the proximity information.
한편, 전술된 다양한 단말 간의 연동 시스템은 다음과 같이 적용될 수도 있다.Meanwhile, the interworking system between the various terminals described above may be applied as follows.
가정에서 또는 이동 중에 테블릿 PC를 이용하다가 스마트 폰으로 전화 또는 메시지가 올 수 있다. 그런데, 스마트 폰이 가방 또는 주머니에 있는 등, 테블릿 PC 사용자가 스마트 폰을 꺼내거나 찾기에 귀찮아 하는 위치에 스마트 폰이 위치할 수 있다.While using a tablet PC at home or on the go, a call or message may come to your smartphone. However, the smart phone may be located at a location where the tablet PC user is bothered to take out or find the smart phone, such as the smart phone in a bag or a pocket.
본 발명은 스마트 폰으로 전화 또는 메시지가 오는 등 통신과 관련된 특정 이벤트가 발생한 경우, 이벤트 발생 정보를 테블릿 PC로 전송한다. 여기에서는 스마트 폰과 테블릿 PC를 일예로서 설명되고 있으나, 본 발명은 모바일 단말에는 모두 적용 가능하다. 예컨대, 테블릿 PC로 전화 또는 메시지가 오는 등 특정 이벤트가 발생한 경우, 테블릿 PC가 이벤트 발생 정보를 노트북으로 전송할 수도 있다. 이하 설명의 편의를 위해 스마트 폰과 테블릿 PC로 설명하기로 한다.The present invention transmits event occurrence information to the tablet PC when a specific event related to communication such as a call or a message comes to the smart phone. Herein, a smartphone and a tablet PC are described as an example, but the present invention is applicable to both mobile terminals. For example, when a specific event occurs such as a call or a message to the tablet PC, the tablet PC may transmit the event occurrence information to the notebook. For convenience of description below, a smartphone and a tablet PC will be described.
스마트 폰의 이벤트 발생 정보는 메시지 형식으로 테블릿 PC로 전송되거나 또는 이벤트가 발생한 스마트 폰에서 디스플레이되는 이미지가 테블릿 PC로 전송될 수 있다. 메시지 형식으로 이벤트 발생 정보가 전송되는 경우, 이벤트 발생 정보에는 전화 수신 사실, 수신 전화 번호 및 메시지 내용 등이 포함될 수 있다. The event occurrence information of the smartphone may be transmitted to the tablet PC in the form of a message, or the image displayed on the smartphone where the event occurs may be transmitted to the tablet PC. When event occurrence information is transmitted in a message format, the event occurrence information may include a call reception fact, a reception telephone number, and a message content.
또한 본 발명은 이벤트 발생 정보 전송에 그치지 않고, 테블릿 PC에서 이벤트 발생에 대응할 수 있도록 한다. 먼저, 스마트폰으로 전화가 온 경우, 테블릿 PC로 이벤트 발생 정보가 전송된다. 스마트 폰의 이벤트 발생 정보가 메시지 형식으로 전송되는 경우에, 테블릿 PC는 통화 수락 기능을 제공하는 인터페이스를 제공할 수 있다. 또는 이벤트 발생 정보가 스마트 폰에서 디스플레이되는 이미지 형태로 테블릿 PC로 전송되는 경우, 테블릿 PC는 스마트 폰처럼 동작될 수 있다. In addition, the present invention not only transmits event occurrence information, but also enables event occurrence in a tablet PC. First, when a call comes to a smartphone, event occurrence information is transmitted to the tablet PC. When event generation information of the smart phone is transmitted in a message format, the tablet PC may provide an interface for providing a call acceptance function. Alternatively, when event occurrence information is transmitted to the tablet PC in the form of an image displayed on the smartphone, the tablet PC may operate like a smartphone.
테블릿 PC 사용자는 디스플레이되는 화면에서 통화를 선택할 수 있으며, 이 경우 통화 선택에 따른 데이터가 스마트 폰으로 전송된다. 그리고 스마트 폰은 통화 기능이 활성화된다.Tablet PC users can select a call from the screen that is displayed, in which case the data according to the call selection is sent to the smartphone. And the smartphone is activated call function.
전화 수신자 즉, 테블릿 PC 사용자는 스마트 폰이 아닌 테블릿 PC를 이용하여 통화가 가능하다. 테블릿 PC 마이크를 통해 입력된 음성 데이터는 스마트 폰으로 전송되고, 스마트 폰을 통해 발신자 전화로 전송된다. 발신자 음성 데이터는 스마트 폰을 통해 테블릿 PC로 전송되고, 테블릿 PC 스피커를 통해 출력된다.The call receiver, that is, the tablet PC user, can make a call using the tablet PC, not the smartphone. Voice data entered through the tablet PC microphone is sent to the smartphone, and sent to the caller phone through the smartphone. Caller voice data is sent to the tablet PC through the smartphone and output through the tablet PC speaker.
영상 통화의 경우, 음성 데이터 이외 영상 데이터가 추가될 수 있으며 전술된 바와 같이 송수신되며, 영상 데이터는 디스플레이부를 통해 출력된다.In the case of a video call, video data other than audio data may be added and transmitted and received as described above, and the video data is output through the display unit.
스마트폰으로 메시지가 수신된 경우, 테블릿 PC로 이벤트 발생 정보가 전송된다. 스마트 폰의 이벤트 발생 정보가 메시지 형식으로 전송되는 경우에, 테블릿 PC는 메시지 입력 인터페이스를 제공할 수 있다. 또는 이벤트 발생 정보가 스마트 폰에서 디스플레이되는 이미지 형태로 테블릿 PC로 전송되는 경우, 테블릿 PC는 스마트 폰처럼 동작될 수 있다. When a message is received by the smartphone, event occurrence information is transmitted to the tablet PC. When the event occurrence information of the smartphone is transmitted in a message format, the tablet PC may provide a message input interface. Alternatively, when event occurrence information is transmitted to the tablet PC in the form of an image displayed on the smartphone, the tablet PC may operate like a smartphone.
메시지 수신자 즉, 테블릿 PC 사용자는 스마트 폰이 아닌 테블릿 PC를 이용하여 메시지를 발신자에게 회신할 수 있다. 테블릿 PC 사용자는 디스플레이되는 화면에서 메시지를 입력하고 입력된 메시지는 스마트 폰을 통해 발신자에게 전송된다. The message receiver, i.e. the tablet PC user, may reply to the sender using the tablet PC, not the smartphone. The tablet PC user enters a message on the displayed screen and the entered message is sent to the caller via the smartphone.
즉, 본 발명에 따르면, 자기 방 침대 위에서 테블릿 PC를 이용하던 사용자는, 거실에 있는 스마트 폰에 전화가 온 경우, 거실까지 갈 필요없이 사용하던 테블릿 PC를 이용해 통화를 할 수 있다.That is, according to the present invention, the user who used the tablet PC on his or her bed may make a call using the tablet PC that was used without having to go to the living room when the phone came to the smart phone in the living room.
한편, 전술된 실시예의 구성 요소는 프로세스적인 관점에서 용이하게 파악될 수 있다. 즉, 각각의 구성 요소는 각각의 프로세스로 파악될 수 있다.On the other hand, the components of the above-described embodiment can be easily identified from a process point of view. That is, each component can be identified as a respective process.
또한 앞서 설명한 기술적 내용들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예들을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, the above-described technical features may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
상기한 본 발명의 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대한 통상의 지식을 가지는 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.The embodiments of the present invention described above are disclosed for purposes of illustration, and those skilled in the art having ordinary knowledge of the present invention may make various modifications, changes, and additions within the spirit and scope of the present invention. Should be considered to be within the scope of the following claims.
100 : 사용자 단말기 102 : 수신 단말기
400 : 제 2 이미지 500 : 터치 펜
600 : 리시버 602 : 터치 펜
700 : 터치 패널 702 : 전자기 발생부
704 : 터치 펜 1000 : 제 2 이미지
1010 : UI 1200 : 리시버
1202 : 터치 펜 1400 : 동글
1402 : 터치 펜100: user terminal 102: receiving terminal
400: second image 500: touch pen
600: receiver 602: touch pen
700: touch panel 702: electromagnetic generator
704: touch pen 1000: the second image
1010: UI 1200: Receiver
1202: Touch Pen 1400: Dongle
1402: touch pen
Claims (2)
를 포함하는 모바일 단말.A transmitter to transmit event information according to a communication related event to a user terminal; Receiving unit for receiving the response data for the event from the user terminal;
The mobile terminal comprising:
상기 통신 관련 이벤트는
전화 수신 또는 메시지 수신 이벤트이며,
상기 응답 데이터는
상기 전화 수신에 대한 승낙 또는 상기 메시지 수신에 대한 회신 데이터인
모바일 단말.The method of claim 1,
The communication related event
Incoming or incoming call event.
The response data
Acknowledgment of receipt of the call or reply data of receipt of the message.
Mobile terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120053747A KR20130129693A (en) | 2012-05-21 | 2012-05-21 | System for interworking and controlling devices and user device used in the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120053747A KR20130129693A (en) | 2012-05-21 | 2012-05-21 | System for interworking and controlling devices and user device used in the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20130129693A true KR20130129693A (en) | 2013-11-29 |
Family
ID=49856239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120053747A KR20130129693A (en) | 2012-05-21 | 2012-05-21 | System for interworking and controlling devices and user device used in the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20130129693A (en) |
-
2012
- 2012-05-21 KR KR1020120053747A patent/KR20130129693A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10656895B2 (en) | System for linking and controlling terminals and user terminal used in the same | |
US20200257415A1 (en) | Identifying applications on which content is available | |
US10101874B2 (en) | Apparatus and method for controlling user interface to select object within image and image input device | |
US9104239B2 (en) | Display device and method for controlling gesture functions using different depth ranges | |
EP2979365B1 (en) | Mobile terminal and method of controlling the same | |
US20150193036A1 (en) | User terminal apparatus and control method thereof | |
AU2013276998B2 (en) | Mouse function provision method and terminal implementing the same | |
US20130298162A1 (en) | Media system and method of providing recommended search term corresponding to an image | |
KR20130142824A (en) | Remote controller and control method thereof | |
KR102004986B1 (en) | Method and system for executing application, device and computer readable recording medium thereof | |
KR20150005020A (en) | coordinate measuring apparaturs which measures input position of coordinate indicating apparatus and method for controlling thereof | |
KR101384493B1 (en) | System for interworking and controlling devices and user device used in the same | |
KR20110134810A (en) | A remote controller and a method for remote contrlling a display | |
US20220368993A1 (en) | User interfaces for media sharing and communication sessions | |
US20130244730A1 (en) | User terminal capable of sharing image and method for controlling the same | |
KR20170009302A (en) | Display apparatus and control method thereof | |
KR101212364B1 (en) | System for interworking and controlling devices and user device used in the same | |
KR102462054B1 (en) | Method and device for implementing user interface of live auction | |
KR101151549B1 (en) | System for interworking and controlling devices and user device used in the same | |
KR20140038854A (en) | Mobile device and method for user interface in mobile device | |
KR20130129693A (en) | System for interworking and controlling devices and user device used in the same | |
KR101515912B1 (en) | User Terminal Capable of Sharing Image and Method for Controlling the Same | |
KR101951484B1 (en) | System for interworking and controlling devices and reception device used in the same | |
KR20130129684A (en) | System for interworking and controlling devices and user device used in the same | |
KR20140040346A (en) | Mobile terminal capable of input processing using input classification and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |