KR101437159B1 - Method and terminal for transmitting user's action - Google Patents
Method and terminal for transmitting user's action Download PDFInfo
- Publication number
- KR101437159B1 KR101437159B1 KR1020070020731A KR20070020731A KR101437159B1 KR 101437159 B1 KR101437159 B1 KR 101437159B1 KR 1020070020731 A KR1020070020731 A KR 1020070020731A KR 20070020731 A KR20070020731 A KR 20070020731A KR 101437159 B1 KR101437159 B1 KR 101437159B1
- Authority
- KR
- South Korea
- Prior art keywords
- touch input
- input data
- terminal
- counterpart terminal
- touch
- Prior art date
Links
- 238000004891 communication Methods 0.000 claims abstract description 52
- 230000000875 corresponding Effects 0.000 claims abstract description 38
- 230000001276 controlling effect Effects 0.000 claims description 7
- 206010057190 Respiratory tract infection Diseases 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 8
- 238000000034 method Methods 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006011 modification reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Abstract
본 발명은 사용자 동작 전달 방법 및 단말기에 관한 것으로서, 상대방과 실시간으로 커뮤니케이션을 수행하는 중에 사용자의 터치 입력 데이터를 상대방 단말기로 전달하여, 사용자의 터치 입력 데이터에 대응된 동작이 상대방 단말기로 출력되도록 한다. 본 발명에 의하면, 상대방과 실시간 커뮤니케이션을 수행하는 중에 사용자의 동작을 상대방 단말기로 전달할 수 있다. 또한, 사용자의 동작을 상대방 단말기로 전달한 이후에 상대방 단말기로부터 상대방의 동작을 피드백 받을 수 있다.The present invention relates to a method for transmitting a user action and a terminal, and in the course of real-time communication with a counterpart, the touch input data of a user is transmitted to a counterpart terminal, and an operation corresponding to the touch input data of the user is output to the counterpart terminal . According to the present invention, the user's operation can be transmitted to the counterpart terminal while real-time communication with the counterpart is performed. Further, after the operation of the user is transmitted to the partner terminal, the operation of the partner can be fed back from the partner terminal.
커뮤니케이션, 터치 디바이스, 피드백, 화상 통화, 메신저, 이동 단말기 Communication, touch device, feedback, video call, messenger, mobile terminal
Description
도 1은 본 발명의 실시예에 따른 사용자 동작 전달 단말기의 내부 구성을 개략적으로 나타낸 구성도,1 is a block diagram schematically showing an internal configuration of a user action transfer terminal according to an embodiment of the present invention;
도 2는 본 발명의 실시예에 따른 사용자 동작 전달 방법에서 송신측 단말기의 동작 과정을 나타낸 동작 흐름도,FIG. 2 is a flowchart illustrating an operation of a transmitting terminal in a method for transmitting a user action according to an exemplary embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 사용자 동작 전달 방법에서 착신측 단말기의 동작 과정을 나타낸 동작 흐름도,FIG. 3 is a flowchart illustrating an operation of a called terminal in a method for transmitting a user action according to an exemplary embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 사용자 동작 전달 방법 중 착신측 단말기에서 송신측 단말기로 사용자 동작을 피드백하는 과정을 나타낸 동작 흐름도,FIG. 4 is a flowchart illustrating a process of feeding back a user operation from a receiving terminal to a transmitting terminal in a user operation transmitting method according to an exemplary embodiment of the present invention.
도 5는 화상 통화 중에 상대방 얼굴이 표시되는 화면을 단순히 터치하는 것을 나타낸 도면,FIG. 5 is a diagram illustrating a simple touch of a screen on which a face of the other party is displayed during a video call;
도 6은 화상 통화 중에 상대방 얼굴이 표시되는 화면을 일정 시간 동안 터치하여 드래그하는 것을 나타낸 도면, 그리고FIG. 6 is a diagram illustrating a screen in which a face of the other party is displayed during a video call by touching and dragging for a predetermined time, and
도 7은 우측 또는 좌측으로 드래그된 터치 입력에 따라 화면이 우측 또는 좌측으로 흔들리는 경우를 나타낸 도면이다.7 is a diagram illustrating a case where a screen is shaken to the right or left according to a touch input dragged to the right or left.
< 도면의 주요 부분에 대한 부호의 설명 >Description of the Related Art
100 : 사용자 동작 전달 단말기 110 : 터치 디바이스100: User action transfer terminal 110: Touch device
120 : 통신부 130 : 제어부120: communication unit 130:
140 : 출력부 150 : 프로그램부140: output unit 150: program unit
본 발명은 사용자의 터치 동작을 통신망을 통하여 상대방 단말기로 전달하는 사용자 동작 전달 방법 및 단말기에 관한 것이다.The present invention relates to a method and a terminal for transmitting a user's operation of transmitting a touch operation to a counterpart terminal through a communication network.
최근, 디지털 휴대용 단말기는 사용자가 문자 입력을 비롯하여 필요한 정보를 보다 편리하게 입력하기 위한 터치 스크린을 구비하고 있다. 이러한 터치 스크린은 사용자로부터 정보를 입력받을 뿐만 아니라 입력받은 정보를 표시하고 있다.2. Description of the Related Art In recent years, a digital portable terminal has a touch screen for allowing a user to more easily input necessary information including a character input. Such a touch screen not only receives information from a user but also displays input information.
그런데, 사용자가 터치 스크린을 구비한 휴대용 단말기를 이용하여 상대방과 화상 통화나 메신저(Messenger)를 수행할 때, 상대방 단말기로 사진이나 이미지 등의 멀티미디어 데이터를 전송하는 경우가 있다.Meanwhile, when a user performs a video call or a messenger with the other party using a portable terminal having a touch screen, the user may transmit multimedia data such as a photograph or an image to the other party's terminal.
이때, 착신측 단말기에서는 송신측 단말기에서 전송한 멀티미디어 데이터를 수신하지만, 실시간으로 커뮤니케이션을 수행하고 있는 상대방은 주의를 기울이지 않는 경우에 멀티미디어 데이터의 수신을 쉽게 인식하지 못하였었다.At this time, although the receiving terminal receives the multimedia data transmitted from the transmitting terminal, the other party performing the communication in real time can not easily recognize the reception of the multimedia data when not paying attention.
따라서, 실시간 커뮤니케이션을 수행하고 있는 동안에 송신측 단말기에서 멀티미디어 데이터를 전송하거나 터치 동작을 수행하는 경우에 착신측 단말기에서 이를 인식할 수 있는 기술이 요구되고 있다.Accordingly, there is a need for a technology that allows a destination terminal to recognize multimedia data when transmitting multimedia data or performing a touch operation while real-time communication is performed.
따라서, 본 발명은 상대방과 실시간으로 커뮤니케이션을 수행하는 중에 사용자의 터치 입력 데이터를 상대방 단말기로 전달하여, 사용자의 터치 입력 데이터에 대응된 동작이 상대방 단말기로 출력되도록 하는, 사용자 동작 전달 방법 및 단말기를 제공함에 그 목적이 있다.Accordingly, the present invention provides a method and apparatus for transmitting a user's touch input data to a counterpart terminal while communicating with a counterpart in real time and outputting an operation corresponding to the touch input data of the counterpart to the counterpart terminal, The purpose is to provide.
상기 목적을 달성하기 위한 본 발명에 따른 사용자 동작 전달 방법은, 실시간 커뮤니케니션 중에 사용자로부터 터치를 입력받는 단계; 및 상기 사용자로부터의 터치 입력 데이터를 상대방 단말기로 전송하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for transmitting a user action, the method comprising: receiving a touch from a user during real-time communication; And transmitting the touch input data from the user to the counterpart terminal.
그리고, 상기 전송하는 단계는, 상기 터치 입력 데이터에 대응된 상기 상대방 단말기의 진동 출력이나 음향 출력 또는 빛 출력을 명령하는 데이터를 상기 상대방 단말기로 전송하게 된다.The transmitting step transmits data for instructing vibration output, sound output, or light output of the counterpart terminal corresponding to the touch input data to the counterpart terminal.
한편, 상기 목적을 달성하기 위한 본 발명에 따른 사용자 동작 전달 방법은, 상대방과 실시간 커뮤니케니션 중에 상대방 터치입력 데이터를 수신하는 단계; 및 상기 수신된 상대방 터치입력 데이터에 대응된 동작을 출력하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for transmitting a user action, the method comprising: receiving counterpart touch input data during real-time communication with a counter party; And outputting an operation corresponding to the received counterpart touch input data.
그리고, 상기 상대방 터치입력 데이터에 대응된 위치 정보를 표시하는 단계; 상기 위치 정보에 대한 사용자의 터치를 입력받는 단계; 및 상기 사용자의 터치 입력 데이터에 대응된 동작을 출력함과 더불어, 상기 상대방 터치입력 데이터에 대응된 동작 출력 명령을 상기 상대방 단말기로 전송하는 단계를 추가로 포함한다.Displaying position information corresponding to the counterpart touch input data; Receiving a user's touch on the location information; And outputting an operation corresponding to the touch input data of the user and transmitting an operation output command corresponding to the counterpart touch input data to the counterpart terminal.
한편, 상기 목적을 달성하기 위한 본 발명에 따른 사용자 동작 전달 단말기는, 사용자로부터 터치를 입력받는 터치 디바이스부; 상대방 단말기와 통신망을 통해 실시간 커뮤니케이션을 수행하고, 상기 사용자로부터의 터치 입력 데이터를 상기 상대방 단말기로 전송하며, 상기 상대방 단말기로부터 상대방 터치입력 데이터를 수신하는 통신부; 상기 수신된 상대방 터치입력 데이터에 대응된 동작을 출력하는 출력부; 및 상기 실시간 커뮤니케니션 중에 상기 사용자로부터의 터치 입력 데이터를 상기 상대방 단말기로 전송하도록 제어하는 제어부를 포함한다.According to another aspect of the present invention, there is provided a user action transfer terminal including: a touch device unit receiving a touch from a user; A communication unit that performs real-time communication with a partner terminal through a communication network, transmits touch input data from the user to the partner terminal, and receives counterpart touch input data from the partner terminal; An output unit for outputting an operation corresponding to the received counterpart touch input data; And a controller for controlling the touch input data from the user to be transmitted to the counterpart terminal during the real-time communication.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings.
또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
도 1은 본 발명의 실시예에 따른 사용자 동작 전달 단말기의 내부 구성을 개략적으로 나타낸 구성도이다.FIG. 1 is a block diagram schematically illustrating an internal configuration of a user action transfer terminal according to an embodiment of the present invention. Referring to FIG.
본 발명에 따른 사용자 동작 전달 단말기(100)는, 휴대폰이나 PDA(Personal Digital Assistant) 등을 포함하는 디지털 휴대용 단말기를 포함한다.The user action transfer terminal 100 according to the present invention includes a digital portable terminal including a mobile phone or a PDA (Personal Digital Assistant).
도 1을 참조하면, 사용자 동작 전달 단말기(100)는, 터치 디바이스(Touch Device)(110), 통신부(120), 제어부(130), 출력부(140) 및 프로그램부(150)를 포함한다.1, the user action transmission terminal 100 includes a touch device 110, a communication unit 120, a control unit 130, an output unit 140, and a program unit 150.
터치 디바이스(110)는 인디케이터 영역(Indicator Area)과, 표시 영역(Display Area), 입력 영역(Input Area) 및 제어 영역(Control Area)을 포함한다.The touch device 110 includes an indicator area, a display area, an input area, and a control area.
터치 디바이스(110)는 터치 방식으로 정보를 입력받거나, 입력받은 정보를 디스플레이한다. 또한, 터치 디바이스(110)는 어플리케이션(Application)의 실행 결과를 디스플레이한다. 이때, 정보는 문자와 숫자, 기호, 그림, 이미지, 오디오, 동영상 등을 포함한다.The touch device 110 receives information in a touch manner or displays input information. In addition, the touch device 110 displays the execution result of the application. At this time, the information includes letters and numbers, symbols, pictures, images, audio, video, and the like.
또한, 터치 디바이스(110)는 입력 영역을 통해 사용자로부터 정보 또는 조작 명령을 입력받아 제어부(130)로 전달한다. 또한, 터치 디바이스(110)는 표시 영역을 통해 정보를 표시하거나, 제어부(130)의 명령에 따른 어플리케이션의 실행 결과를 표시한다. 그리고, 터치 디바이스(110)는 통신부(120)를 통해 수신된 상대방 터치 입력에 대응된 위치를 표시한다.Also, the touch device 110 receives information or an operation command from the user through the input area, and transfers the information or the operation command to the controller 130. Also, the touch device 110 displays information through a display area or displays an execution result of an application according to an instruction of the control unit 130. [ The touch device 110 displays a position corresponding to the counterpart touch input received through the communication unit 120. [
통신부(120)는 단말기가 이동 통신망을 통해 다른 이동 단말기와 전화 통화 에 관한 음성 신호 및 멀티미디어에 관한 데이터 등을 송수신한다. 또한, 통신부(120)는 상대방 단말기와 실시간 커뮤니케이션을 수행하고, 사용자로부터의 터치 입력에 관한 신호를 상대방 단말기로 전송한다. 그리고, 통신부(110)는 이동 통신망으로부터 상대방 터치 입력에 관한 신호를 수신한다.The communication unit 120 transmits and receives voice signals, multimedia data, and the like related to a telephone conversation with another mobile terminal through a mobile communication network. In addition, the communication unit 120 performs real-time communication with the partner terminal and transmits a signal related to the touch input from the user to the partner terminal. Then, the communication unit 110 receives a signal relating to the counterpart touch input from the mobile communication network.
제어부(130)는 터치 디바이스(110)로부터 전달받은 정보, 즉 터치된 지점들이 이루는 형상을 인식하여 터치 디바이스(110)의 표시 영역으로 디스플레이한다.The control unit 130 recognizes the information received from the touch device 110, that is, the shape of the touched points, and displays the information in the display area of the touch device 110.
또한, 제어부(130)는 사용자로부터 입력 영역을 통해 정보를 입력받아 표시 영역으로 표시하거나, 제어 영역을 통해 기능 및 동작에 관한 제어 동작을 수행한다. In addition, the controller 130 receives information from the user through the input area and displays the information in the display area, or performs a control operation on functions and operations through the control area.
또한, 제어부(130)는 통신부(120)를 통한 실시간 커뮤니케이션 중에 터치 디바이스(110)의 입력 영역을 통한 사용자로부터의 터치 입력을 인식하고, 사용자로부터의 터치 입력 데이터를 통신부(120)를 통해 상대방 단말기로 전송한다.The controller 130 recognizes the touch input from the user through the input area of the touch device 110 during the real time communication through the communication unit 120 and transmits the touch input data from the user through the communication unit 120, Lt; / RTI >
그리고, 제어부(130)는 실시간 커뮤니케이션 중에 사용자로부터의 터치 입력 데이터에 대응된 동작이 출력부(140)를 통해 출력되도록 제어한다. 여기서, 터치 입력 데이터에 대응된 동작은 진동이나 음향 또는 빛을 출력하는 동작을 포함한다.The controller 130 controls the operation corresponding to the touch input data from the user through the output unit 140 during the real-time communication. Here, the operation corresponding to the touch input data includes an operation of outputting vibration, sound, or light.
출력부(140)는 터치 입력 데이터에 대응된 동작을 출력한다. 예컨대, 출력부(140)는 터치 입력 데이터에 대응된 진동이나 음향 또는 빛을 출력한다.The output unit 140 outputs an operation corresponding to the touch input data. For example, the output unit 140 outputs vibration, sound, or light corresponding to the touch input data.
프로그램부(150)는 실시간 커뮤니케이션을 수행하는 중에 사용자로부터의 터치 입력이 있으면, 사용자 터치입력 데이터를 상대방 단말기로 전송하는 프로그램을 저장하고 있다. 또한, 프로그램부(150)는 수신된 상대방 터치입력 데이터에 대 응된 위치를 표시하고, 표시 위치에 사용자로부터 터치 입력이 있으면, 상대방 터치입력 데이터에 대응된 동작을 출력함과 더불어 사용자 터치입력 데이터를 상대방 단말기로 전송하여, 상대방 단말기에도 사용자 터치입력 데이터에 대응된 동작이 출력되도록 하는 동작 피드백(Feedback) 프로그램을 저장하고 있다. 그리고, 프로그램부(150)는 일반적인 OS(Operating System) 프로그램도 저장하고 있다. The program unit 150 stores a program for transmitting the user touch input data to the counterpart terminal when there is a touch input from the user during real-time communication. The program unit 150 displays a position corresponding to the received counterpart touch input data. If there is a touch input from the user at the display position, the program unit 150 outputs the operation corresponding to the counterpart touch input data, And transmits an operation feedback corresponding to the user's touch input data to the other party's terminal. The program unit 150 also stores a general OS (Operating System) program.
도 2는 본 발명의 실시예에 따른 사용자 동작 전달 방법에서 송신측 단말기의 동작 과정을 나타낸 동작 흐름도이다.2 is a flowchart illustrating an operation of a transmitting terminal in a method of transmitting a user operation according to an exemplary embodiment of the present invention.
도 2를 참조하면, 사용자는 먼저 단말기를 이용하여 통상적인 방식으로 상대방 단말기와 화상 통화나 메신저, 인스턴트 메신저를 통해 실시간으로 커뮤니케이션을 수행한다(S202).Referring to FIG. 2, a user first communicates with a counterpart terminal through a video call, a messenger, and an instant messenger in a normal manner using a terminal (S202).
제어부(130)는 사용자로부터 입력된 음성이나 데이터에 관한 정보를 상대방 단말기로 전송하거나, 상대방 단말기로부터 송출된 음성이나 데이터에 관한 정보를 수신하는 과정을 통해 통신부(120)를 통한 실시간 커뮤니케이션을 수행한다.The control unit 130 performs real-time communication through the communication unit 120 by transmitting information on voice or data input from the user to the counterpart terminal or receiving information on voice or data transmitted from the counterpart terminal .
이어, 제어부(130)는 터치 디바이스(110)를 통해 사용자로부터 터치 입력이 있는지를 확인한다(S204). 여기서, 터치 입력은 대화창이나 사진 또는 캐릭터가 사용자에 의해 터치되어 입력되는 것을 포함한다.Next, the controller 130 determines whether there is a touch input from the user through the touch device 110 (S204). Here, the touch input includes a dialog window, a photo or a character that is touched and input by the user.
예컨대, 사용자는 단말기를 통해 상대방과 화상 통화를 수행하는 중에 도 5에 도시된 바와 같이 터치 디바이스(110) 상의 상대방 얼굴이 표시되는 화면(510)을 터치할 수 있다. 여기서, 도 5는 화상 통화 중에 상대방 얼굴이 표시되는 화면 을 단순히 터치하는 것을 나타낸 도면이다.For example, the user may touch the screen 510 on which the other party's face on the touch device 110 is displayed, as shown in FIG. 5, during a video call with the other party through the terminal. Here, FIG. 5 is a diagram showing a simple touch of a screen on which a face of the other party is displayed during a video call.
제어부(130)는 상대방 단말기와 화상 통화를 수행하는 중에 터치 디바이스(110)로부터 사용자의 터치 입력이 있으면(S206), 터치 입력에 대응된 동작 출력 명령을 통신부(120)를 통해 상대방 단말기로 전송한다(S208).If there is a user's touch input from the touch device 110 during the video call with the counterpart terminal (S206), the controller 130 transmits an operation output command corresponding to the touch input to the counterpart terminal through the communication unit 120 (S208).
여기서, 동작 출력 명령은 단말기에서 진동이 출력되도록 하거나 특정 음향이 출력되도록 하거나 특정 빛이 출력되도록 하는 동작을 포함한다.Here, the operation output command includes an operation for causing vibration at the terminal to be output, for outputting a specific sound, or for outputting a specific light.
또한, 상대방 단말기와의 화상 통화를 비롯한 메신저를 통한 실시간 커뮤니케이션을 수행하는 화면에는 도 5에 도시된 바와 같이 터치 디바이스(110) 상의 하단에 제어 영역(520)이 구비되어 있다. 이 제어 영역(520)은 현재 수행되는 커뮤니케이션에 대한 하부 메뉴를 포함하고 있다. 예컨대, 화상 통화의 경우 사진이나 이미지, 동영상 등의 멀티미디어 데이터를 상대방 단말기로 전송해 줄 수 있는 메뉴나, 통화 볼륨을 조절할 수 있는 메뉴 등을 포함한다. 또한, 메신저를 통한 커뮤니케이션의 경우, 상대방과 게임을 할 수 있는 메뉴나 다른 사람을 초청할 수 있는 메뉴 등을 포함한다.As shown in FIG. 5, the screen for performing real-time communication through a messenger including video communication with a counterpart terminal is provided with a control area 520 at the lower end of the touch device 110. The control area 520 includes a submenu for communication currently being performed. For example, a video call includes a menu for transmitting multimedia data such as a picture, an image, and a moving picture to a correspondent terminal, and a menu for adjusting a call volume. In addition, in the case of communication through a messenger, a menu for playing a game with the other party or a menu for inviting another person is included.
한편, 사용자는 단말기를 통해 도 5에 도시된 바와 같이 상대방과 화상 통화를 수행하는 중에 터치 디바이스(110) 상의 상대방의 얼굴이 표시되는 화면(510)을 터치할 때, 도 6에 도시된 바와 같이 손가락을 터치한 상태로 우측(610) 또는 좌측(610)으로 일정 거리로 드래그(Drag)한 후 손가락을 터치 디바이스(110)로부터 뗄 수 있다. 도 6은 화상 통화 중에 상대방 얼굴이 표시되는 화면을 일정 시간 동안 터치하여 드래그하는 것을 나타낸 도면이다. 도 6에 도시된 바와 같이 사용자가 상대방의 얼굴이 표시되는 화면(510)을 터치한 상태로 우측(610)으로 드래그하거나 좌측(620)으로 드래그하면, 터치 디바이스(110)는 사용자로부터 입력된 우측(610) 또는 좌측(620)으로 드래그된 터치 입력에 대응하는 데이터를 제어부(130)로 전달한다.5, when the user touches the screen 510 on which the face of the other party on the touch device 110 is displayed during a video call with the other party as shown in FIG. 5, The finger may be dragged to the right side 610 or the left side 610 by a certain distance after the finger is touched and then the finger may be removed from the touch device 110. [ FIG. 6 is a diagram illustrating a screen in which a face of the other party is displayed during a video call by touching and dragging for a predetermined period of time. 6, when the user drags the screen 510 displayed on the right side 610 or drags the screen 510 to the left side 620 while touching the screen 510 on which the face of the other party is displayed, the touch device 110 displays the right side And transfers the data corresponding to the touch input dragged to the left side 610 or the left side 620 to the controller 130.
이에 따라, 제어부(130)는 터치 디바이스(110)로부터의 우측(610) 또는 좌측(620)으로 드래그된 터치 입력 데이터에 따라, 터치 디바이스(110)의 화면 상으로 출력되는 상대방의 얼굴이 우측(610) 또는 좌측(620)으로 흔들리도록 제어한다. 또한, 제어부(130)는 터치 디바이스(110)로부터의 우측(610) 또는 좌측(620)으로 드래그된 터치 입력에 대응된 데이터를 통신부(120)를 통해 상대방 단말기로 전송한다.The control unit 130 displays the face of the other party on the screen of the touch device 110 on the right side 610 or the left side 620 according to the touch input data dragged from the touch device 110 to the right side 610 or the left side 620 610) or the left side (620). The control unit 130 transmits data corresponding to the touch input dragged from the touch device 110 to the right side 610 or the left side 620 through the communication unit 120 to the counterpart terminal.
도 3은 본 발명의 실시예에 따른 사용자 동작 전달 방법에서 착신측 단말기의 동작 과정을 나타낸 동작 흐름도이다.3 is a flowchart illustrating an operation process of a called terminal in a method for transmitting a user action according to an embodiment of the present invention.
도 3을 참조하면, 사용자 동작 전달 단말기(100)는 도 2에 전술한 바와 같은 과정으로 이동 통신망을 통하여 상대방 단말기와 실시간 커뮤니케이션을 수행하는 상태이다(S302).Referring to FIG. 3, the user action transfer terminal 100 performs a real-time communication with the counterpart terminal through the mobile communication network in the process described above with reference to FIG. 2 (S302).
사용자 동작 전달 단말기(100)에서 제어부(130)는 통신부(120)를 통해 상대방 터치입력 데이터가 수신되었는지를 확인한다(S304).In the user action transfer terminal 100, the control unit 130 checks whether the counterpart touch input data is received through the communication unit 120 (S304).
즉, 제어부(130)는 상대방 터치 입력에 대응된 동작 출력 명령에 대한 데이터가 수신되었는지를 확인하는 것이다. 이때, 동작 출력 명령에 대한 데이터는 예 컨대, 헤더와 페이로드(Payload)로 구성된 패킷 형태의 데이터로서, 페이로드 영역에 진동이 출력되도록 하거나 특정 음향이 출력되도록 하거나 특정 빛이 출력되도록 하는 명령이 포함될 수 있다.That is, the control unit 130 confirms whether or not data on the operation output command corresponding to the counterpart touch input is received. In this case, the data on the operation output command is, for example, a packet-shaped data composed of a header and a payload, and commands for causing vibration to be output to the payload area, for outputting a specific sound, .
제어부(130)는 통신부(120)를 통해 수신된 데이터가 상대방 터치 입력에 관한 데이터로 확인되면(S306), 출력부(140)를 통해 상대방 터치 입력에 대응된 동작을 출력하게 된다(S308).If the data received through the communication unit 120 is confirmed by the data related to the counterpart touch input (S306), the control unit 130 outputs the operation corresponding to the counterpart touch input through the output unit 140 (S308).
즉, 제어부(130)는 상대방 터치 입력에 대응된 동작 출력 명령에 따라, 출력부(140)를 통해 진동이 출력되도록 하거나 특정 음향이 출력되도록 하거나 특정 빛이 출력되도록 하게 된다.That is, according to the operation output command corresponding to the counterpart touch input, the controller 130 outputs the vibration through the output unit 140, outputs a specific sound, or outputs a specific light.
또한, 제어부(130)는 상대방 터치입력 데이터가 도 6에 도시된 바와 같이 우측(610) 또는 좌측(620)으로 드래그된 터치 입력 데이터일 경우에, 진동이나 특정 음향, 특정 빛 중 하나를 출력함과 더불어, 터치 디바이스(110)를 통해 현재 사용자가 보고 있는 터치 디바이스(110) 상의 상대방 얼굴이 표시되는 화면(710)을 도 7에 도시된 바와 같이 우측 또는 좌측으로 흔들리게 할 수 있다. 도 7은 우측 또는 좌측으로 드래그된 터치 입력 데이터에 따라 화면이 우측 또는 좌측으로 흔들리는 경우를 나타낸 도면이다.6, the control unit 130 outputs one of vibration, specific sound, and specific light when the counterpart touch input data is the touch input data dragged to the right side 610 or the left side 620 as shown in FIG. 6 The user can swing the screen 710 displaying the opposite face on the touch device 110 currently viewed by the user through the touch device 110 to the right or left as shown in FIG. 7 is a diagram illustrating a case where the screen is shaken to the right or left according to the touch input data dragged to the right or left.
도 4는 본 발명의 실시예에 따른 사용자 동작 전달 방법 중 착신측 단말기에서 송신측 단말기로 사용자 동작을 피드백하는 과정을 나타낸 동작 흐름도이다.FIG. 4 is a flowchart illustrating an operation of feeding back a user operation from a called terminal to a transmitting terminal in a user operation transmission method according to an embodiment of the present invention.
도 4를 참조하면, 도 2에 전술한 바와 같은 과정으로 송신측 단말기와 착신 측 단말기 간에 실시간 커뮤니케이션을 수행하는 상태이다(S402).Referring to FIG. 4, a real-time communication is performed between a transmitting terminal and a receiving terminal in the process described above with reference to FIG. 2 (S402).
착신측 단말기에서 제어부(130)는 통신부(120)를 통해 상대방 터치입력 데이터가 수신되었는지를 확인한다(S404).In the destination terminal, the control unit 130 determines whether the counterpart touch input data is received through the communication unit 120 (S404).
즉, 제어부(130)는 상대방 터치 입력에 대응된 동작 출력 명령에 대한 데이터가 수신되었는지를 확인하는 것이다. 이때, 동작 출력 명령에 대한 데이터에는 상대방이 터치 디바이스(110)를 통해 화면 상에 터치한 위치 정보가 포함되어 있다.That is, the control unit 130 confirms whether or not data on the operation output command corresponding to the counterpart touch input is received. At this time, the data on the operation output command includes position information that the other party touches on the screen through the touch device 110. [
제어부(130)는 도 3에 전술한 바와 같은 확인 과정을 통하여 상대방 터치입력 데이터가 수신된 것으로 확인되면(S406), 상대방 터치입력 데이터에 대응된 위치를 터치 디바이스(110) 상의 화면에 표시한다(S408). 이때, 터치 디바이스(110) 상으로 표시되는 상대방 터치입력 데이터에 대응된 위치 표지(Indicator)는 예컨대, 십자표나 원형, 네모 등의 형상으로 표시 출력할 수 있다.3, the control unit 130 displays the position corresponding to the counterpart touch input data on the screen of the touch device 110 (step S405) S408). At this time, a position indicator corresponding to the counterpart touch input data displayed on the touch device 110 can be displayed and output in the form of a cross, a circle, a square, or the like.
이에 따라, 사용자는 터치 디바이스(110) 상에 표시된 위치 표지를 확인하고 손가락 등으로 위치 표지를 터치할 수 있다.Accordingly, the user can confirm the position mark displayed on the touch device 110 and touch the position mark with a finger or the like.
터치 디바이스(110)는 사용자로부터 위치 표지에 대한 터치 입력을 제어부(130)로 전달한다(S410).The touch device 110 transmits the touch input of the position mark from the user to the control unit 130 (S410).
제어부(130)는 사용자 터치 입력에 대응된 동작을 출력부(140)를 통해 출력함과 더불어, 이전에 수신한 상대방 터치입력 데이터에 대응된 동작 출력 명령을 통신부(120)를 통해 송신측 단말기로 전송한다(S412).The control unit 130 outputs an operation corresponding to the user's touch input through the output unit 140 and outputs an operation output command corresponding to the previously received counterpart touch input data to the transmitting side terminal through the communication unit 120 (S412).
즉, 제어부(130)는 사용자 터치 입력에 대응된 동작, 예컨대, 진동이 출력되 도록 하거나 특정 음향이 출력되도록 하거나 특정 빛이 출력되도록 함과 더불어, 송신측 단말기에 적용할 동작 출력 명령을 송신측 단말기로 전송하는 것이다.That is, the controller 130 controls the operation corresponding to the user's touch input, for example, to output a vibration, to output a specific sound or to output a specific light, To the terminal.
이에 따라, 송신측 단말기는 착신측 단말기로부터 수신한 동작 출력 명령에 따라 진동이 출력되도록 하거나 특정 음향이 출력되도록 하거나 특정 빛이 출력되게 한다. Accordingly, the transmitting-side terminal causes the vibration to be outputted, the specific sound to be output, or the specific light to be outputted according to the operation output command received from the receiving-side terminal.
따라서, 착신측 단말기에서 사용자의 터치 입력에 따라 송신측 단말기와 착신측 단말기가 동시에 진동이나 음향 또는 빛을 출력할 수 있게 된다. 즉, 송신측 단말기에서 예컨대, 진동에 관한 동작을 착신측 단말기로 전송하면, 착신측 사용자의 터치에 따라 진동에 관한 동작이 송신측 단말기로 피드백되는 것이다.Accordingly, the receiving terminal and the receiving terminal can simultaneously output vibration, sound, or light according to the touch input of the user. That is, when the transmitting terminal transmits, for example, an operation related to the vibration to the receiving terminal, the operation related to the vibration is fed back to the transmitting terminal according to the touch of the called user.
전술한 바와 같이 본 발명에 의하면, 상대방과 실시간으로 커뮤니케이션을 수행하는 중에 사용자의 터치입력 데이터를 상대방 단말기로 전달하여, 사용자의 터치입력 데이터에 대응된 동작이 상대방 단말기로 출력되도록 하는, 사용자 동작 전달 방법 및 단말기를 실현할 수 있다. 또한, 그에 따른 상대방의 터치입력 데이터를 수신하여 사용자의 단말기에도 상대방 터치입력 데이터에 대응된 동작이 피드백(Feedback) 되도록 하는, 사용자 동작 전달 방법 및 단말기를 실현할 수 있다.As described above, according to the present invention, the user's touch input data is transmitted to the counterpart terminal while real-time communication with the counterpart is performed, and the operation corresponding to the touch input data of the user is output to the counterpart terminal. Method and a terminal can be realized. In addition, it is also possible to realize a user operation transmitting method and a terminal which receive touch input data of the other party so as to feedback the operation corresponding to the counterpart touch input data to the user's terminal.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상 의 범위가 한정되는 것은 아니다. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments.
본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The scope of protection of the present invention should be construed according to the following claims, and all technical ideas falling within the scope of the same shall be construed as falling within the scope of the present invention.
이상에서 설명한 바와 같이 본 발명에 의하면, 상대방과 실시간 커뮤니케이션을 수행하는 중에 사용자의 동작을 상대방 단말기로 전달할 수 있다. 또한, 사용자의 동작을 상대방 단말기로 전달한 이후에 상대방 단말기로부터 상대방의 동작을 피드백(Feedback) 받을 수 있다.As described above, according to the present invention, the user's operation can be transmitted to the counterpart terminal while real-time communication with the counterpart is performed. Further, after the operation of the user is transferred to the counterpart terminal, the counterpart terminal can receive feedback of the counterpart operation.
Claims (19)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070020731A KR101437159B1 (en) | 2007-03-02 | 2007-03-02 | Method and terminal for transmitting user's action |
US12/041,445 US8933891B2 (en) | 2007-03-02 | 2008-03-03 | Terminal and method of controlling terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070020731A KR101437159B1 (en) | 2007-03-02 | 2007-03-02 | Method and terminal for transmitting user's action |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080080710A KR20080080710A (en) | 2008-09-05 |
KR101437159B1 true KR101437159B1 (en) | 2014-09-11 |
Family
ID=40020833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070020731A KR101437159B1 (en) | 2007-03-02 | 2007-03-02 | Method and terminal for transmitting user's action |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101437159B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101449751B1 (en) * | 2008-03-27 | 2014-10-13 | 주식회사 케이티 | Mobile Equipment Having Function Of Providing Touch Feedback During Video Call And Method For Providing Touch Feedback During Video Call |
KR101511383B1 (en) * | 2008-09-17 | 2015-04-10 | 엘지전자 주식회사 | TERMINAL and DRAWING PATTERN TRANSMITTING METHOD of the same |
US10410180B2 (en) | 2012-11-19 | 2019-09-10 | Oath Inc. | System and method for touch-based communications |
KR101590461B1 (en) | 2014-09-04 | 2016-02-03 | 한양대학교 에리카산학협력단 | A method for providing a social network service using a pet wearing appratus and the pet wearing appratus |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050108660A1 (en) * | 2003-11-17 | 2005-05-19 | International Business Machines Corporation | Method, system, and apparatus for remote interactions |
US20050181827A1 (en) * | 2004-02-13 | 2005-08-18 | Nokia Corporation | Touch for feel device for communicating with mobile wireless phone or terminal |
US7159008B1 (en) * | 2000-06-30 | 2007-01-02 | Immersion Corporation | Chat interface with haptic feedback functionality |
-
2007
- 2007-03-02 KR KR1020070020731A patent/KR101437159B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7159008B1 (en) * | 2000-06-30 | 2007-01-02 | Immersion Corporation | Chat interface with haptic feedback functionality |
US20050108660A1 (en) * | 2003-11-17 | 2005-05-19 | International Business Machines Corporation | Method, system, and apparatus for remote interactions |
US20050181827A1 (en) * | 2004-02-13 | 2005-08-18 | Nokia Corporation | Touch for feel device for communicating with mobile wireless phone or terminal |
Also Published As
Publication number | Publication date |
---|---|
KR20080080710A (en) | 2008-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021098678A1 (en) | Screencast control method and electronic device | |
JP4056518B2 (en) | Portable information terminal, display control method thereof, and program | |
CN108540655B (en) | Caller identification processing method and mobile terminal | |
WO2020156120A1 (en) | Notification message display method and mobile terminal | |
WO2019201271A1 (en) | Call processing method and mobile terminal | |
CN109408168B (en) | Remote interaction method and terminal equipment | |
US20080218490A1 (en) | Terminal and method of controlling terminal | |
WO2021109907A1 (en) | Application sharing method, first electronic device and computer-readable storage medium | |
KR20100061582A (en) | Apparatus and method for providing emotion expression service in mobile communication terminal | |
EP1838099B1 (en) | Image-based communication methods and apparatus | |
CN109739418B (en) | Interaction method and terminal for multimedia playing application program | |
KR101437159B1 (en) | Method and terminal for transmitting user's action | |
CN110442279B (en) | Message sending method and mobile terminal | |
CN110109593B (en) | Screen capturing method and terminal equipment | |
CN106506834B (en) | Method, terminal and system for adding background sound in call | |
WO2021190373A1 (en) | Interaction method, interaction system, and display device | |
CN112631535A (en) | Screen projection reverse control method and device, mobile terminal and storage medium | |
CN111314903A (en) | Information sharing method and electronic equipment | |
CN110855549A (en) | Message display method and terminal equipment | |
CN109697008B (en) | Content sharing method, terminal and computer readable storage medium | |
CN109729301B (en) | Message checking method and device | |
CN108804071B (en) | Receiver driving method and mobile terminal | |
CN108055389B (en) | Missed call processing method and mobile terminal | |
CN110796438B (en) | Message sending method and mobile terminal | |
CN108683793B (en) | Display method of application icon and mobile terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170724 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180724 Year of fee payment: 5 |