KR101437159B1 - Method and terminal for transmitting user's action - Google Patents
Method and terminal for transmitting user's action Download PDFInfo
- Publication number
- KR101437159B1 KR101437159B1 KR1020070020731A KR20070020731A KR101437159B1 KR 101437159 B1 KR101437159 B1 KR 101437159B1 KR 1020070020731 A KR1020070020731 A KR 1020070020731A KR 20070020731 A KR20070020731 A KR 20070020731A KR 101437159 B1 KR101437159 B1 KR 101437159B1
- Authority
- KR
- South Korea
- Prior art keywords
- touch input
- input data
- terminal
- counterpart terminal
- touch
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Telephone Function (AREA)
Abstract
본 발명은 사용자 동작 전달 방법 및 단말기에 관한 것으로서, 상대방과 실시간으로 커뮤니케이션을 수행하는 중에 사용자의 터치 입력 데이터를 상대방 단말기로 전달하여, 사용자의 터치 입력 데이터에 대응된 동작이 상대방 단말기로 출력되도록 한다. 본 발명에 의하면, 상대방과 실시간 커뮤니케이션을 수행하는 중에 사용자의 동작을 상대방 단말기로 전달할 수 있다. 또한, 사용자의 동작을 상대방 단말기로 전달한 이후에 상대방 단말기로부터 상대방의 동작을 피드백 받을 수 있다.The present invention relates to a method for transmitting a user action and a terminal, and in the course of real-time communication with a counterpart, the touch input data of a user is transmitted to a counterpart terminal, and an operation corresponding to the touch input data of the user is output to the counterpart terminal . According to the present invention, the user's operation can be transmitted to the counterpart terminal while real-time communication with the counterpart is performed. Further, after the operation of the user is transmitted to the partner terminal, the operation of the partner can be fed back from the partner terminal.
커뮤니케이션, 터치 디바이스, 피드백, 화상 통화, 메신저, 이동 단말기 Communication, touch device, feedback, video call, messenger, mobile terminal
Description
도 1은 본 발명의 실시예에 따른 사용자 동작 전달 단말기의 내부 구성을 개략적으로 나타낸 구성도,1 is a block diagram schematically showing an internal configuration of a user action transfer terminal according to an embodiment of the present invention;
도 2는 본 발명의 실시예에 따른 사용자 동작 전달 방법에서 송신측 단말기의 동작 과정을 나타낸 동작 흐름도,FIG. 2 is a flowchart illustrating an operation of a transmitting terminal in a method for transmitting a user action according to an exemplary embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 사용자 동작 전달 방법에서 착신측 단말기의 동작 과정을 나타낸 동작 흐름도,FIG. 3 is a flowchart illustrating an operation of a called terminal in a method for transmitting a user action according to an exemplary embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 사용자 동작 전달 방법 중 착신측 단말기에서 송신측 단말기로 사용자 동작을 피드백하는 과정을 나타낸 동작 흐름도,FIG. 4 is a flowchart illustrating a process of feeding back a user operation from a receiving terminal to a transmitting terminal in a user operation transmitting method according to an exemplary embodiment of the present invention.
도 5는 화상 통화 중에 상대방 얼굴이 표시되는 화면을 단순히 터치하는 것을 나타낸 도면,FIG. 5 is a diagram illustrating a simple touch of a screen on which a face of the other party is displayed during a video call;
도 6은 화상 통화 중에 상대방 얼굴이 표시되는 화면을 일정 시간 동안 터치하여 드래그하는 것을 나타낸 도면, 그리고FIG. 6 is a diagram illustrating a screen in which a face of the other party is displayed during a video call by touching and dragging for a predetermined time, and
도 7은 우측 또는 좌측으로 드래그된 터치 입력에 따라 화면이 우측 또는 좌측으로 흔들리는 경우를 나타낸 도면이다.7 is a diagram illustrating a case where a screen is shaken to the right or left according to a touch input dragged to the right or left.
< 도면의 주요 부분에 대한 부호의 설명 >Description of the Related Art
100 : 사용자 동작 전달 단말기 110 : 터치 디바이스100: User action transfer terminal 110: Touch device
120 : 통신부 130 : 제어부120: communication unit 130:
140 : 출력부 150 : 프로그램부140: output unit 150: program unit
본 발명은 사용자의 터치 동작을 통신망을 통하여 상대방 단말기로 전달하는 사용자 동작 전달 방법 및 단말기에 관한 것이다.The present invention relates to a method and a terminal for transmitting a user's operation of transmitting a touch operation to a counterpart terminal through a communication network.
최근, 디지털 휴대용 단말기는 사용자가 문자 입력을 비롯하여 필요한 정보를 보다 편리하게 입력하기 위한 터치 스크린을 구비하고 있다. 이러한 터치 스크린은 사용자로부터 정보를 입력받을 뿐만 아니라 입력받은 정보를 표시하고 있다.2. Description of the Related Art In recent years, a digital portable terminal has a touch screen for allowing a user to more easily input necessary information including a character input. Such a touch screen not only receives information from a user but also displays input information.
그런데, 사용자가 터치 스크린을 구비한 휴대용 단말기를 이용하여 상대방과 화상 통화나 메신저(Messenger)를 수행할 때, 상대방 단말기로 사진이나 이미지 등의 멀티미디어 데이터를 전송하는 경우가 있다.Meanwhile, when a user performs a video call or a messenger with the other party using a portable terminal having a touch screen, the user may transmit multimedia data such as a photograph or an image to the other party's terminal.
이때, 착신측 단말기에서는 송신측 단말기에서 전송한 멀티미디어 데이터를 수신하지만, 실시간으로 커뮤니케이션을 수행하고 있는 상대방은 주의를 기울이지 않는 경우에 멀티미디어 데이터의 수신을 쉽게 인식하지 못하였었다.At this time, although the receiving terminal receives the multimedia data transmitted from the transmitting terminal, the other party performing the communication in real time can not easily recognize the reception of the multimedia data when not paying attention.
따라서, 실시간 커뮤니케이션을 수행하고 있는 동안에 송신측 단말기에서 멀티미디어 데이터를 전송하거나 터치 동작을 수행하는 경우에 착신측 단말기에서 이를 인식할 수 있는 기술이 요구되고 있다.Accordingly, there is a need for a technology that allows a destination terminal to recognize multimedia data when transmitting multimedia data or performing a touch operation while real-time communication is performed.
따라서, 본 발명은 상대방과 실시간으로 커뮤니케이션을 수행하는 중에 사용자의 터치 입력 데이터를 상대방 단말기로 전달하여, 사용자의 터치 입력 데이터에 대응된 동작이 상대방 단말기로 출력되도록 하는, 사용자 동작 전달 방법 및 단말기를 제공함에 그 목적이 있다.Accordingly, the present invention provides a method and apparatus for transmitting a user's touch input data to a counterpart terminal while communicating with a counterpart in real time and outputting an operation corresponding to the touch input data of the counterpart to the counterpart terminal, The purpose is to provide.
상기 목적을 달성하기 위한 본 발명에 따른 사용자 동작 전달 방법은, 실시간 커뮤니케니션 중에 사용자로부터 터치를 입력받는 단계; 및 상기 사용자로부터의 터치 입력 데이터를 상대방 단말기로 전송하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for transmitting a user action, the method comprising: receiving a touch from a user during real-time communication; And transmitting the touch input data from the user to the counterpart terminal.
그리고, 상기 전송하는 단계는, 상기 터치 입력 데이터에 대응된 상기 상대방 단말기의 진동 출력이나 음향 출력 또는 빛 출력을 명령하는 데이터를 상기 상대방 단말기로 전송하게 된다.The transmitting step transmits data for instructing vibration output, sound output, or light output of the counterpart terminal corresponding to the touch input data to the counterpart terminal.
한편, 상기 목적을 달성하기 위한 본 발명에 따른 사용자 동작 전달 방법은, 상대방과 실시간 커뮤니케니션 중에 상대방 터치입력 데이터를 수신하는 단계; 및 상기 수신된 상대방 터치입력 데이터에 대응된 동작을 출력하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for transmitting a user action, the method comprising: receiving counterpart touch input data during real-time communication with a counter party; And outputting an operation corresponding to the received counterpart touch input data.
그리고, 상기 상대방 터치입력 데이터에 대응된 위치 정보를 표시하는 단계; 상기 위치 정보에 대한 사용자의 터치를 입력받는 단계; 및 상기 사용자의 터치 입력 데이터에 대응된 동작을 출력함과 더불어, 상기 상대방 터치입력 데이터에 대응된 동작 출력 명령을 상기 상대방 단말기로 전송하는 단계를 추가로 포함한다.Displaying position information corresponding to the counterpart touch input data; Receiving a user's touch on the location information; And outputting an operation corresponding to the touch input data of the user and transmitting an operation output command corresponding to the counterpart touch input data to the counterpart terminal.
한편, 상기 목적을 달성하기 위한 본 발명에 따른 사용자 동작 전달 단말기는, 사용자로부터 터치를 입력받는 터치 디바이스부; 상대방 단말기와 통신망을 통해 실시간 커뮤니케이션을 수행하고, 상기 사용자로부터의 터치 입력 데이터를 상기 상대방 단말기로 전송하며, 상기 상대방 단말기로부터 상대방 터치입력 데이터를 수신하는 통신부; 상기 수신된 상대방 터치입력 데이터에 대응된 동작을 출력하는 출력부; 및 상기 실시간 커뮤니케니션 중에 상기 사용자로부터의 터치 입력 데이터를 상기 상대방 단말기로 전송하도록 제어하는 제어부를 포함한다.According to another aspect of the present invention, there is provided a user action transfer terminal including: a touch device unit receiving a touch from a user; A communication unit that performs real-time communication with a partner terminal through a communication network, transmits touch input data from the user to the partner terminal, and receives counterpart touch input data from the partner terminal; An output unit for outputting an operation corresponding to the received counterpart touch input data; And a controller for controlling the touch input data from the user to be transmitted to the counterpart terminal during the real-time communication.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings.
또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
도 1은 본 발명의 실시예에 따른 사용자 동작 전달 단말기의 내부 구성을 개략적으로 나타낸 구성도이다.FIG. 1 is a block diagram schematically illustrating an internal configuration of a user action transfer terminal according to an embodiment of the present invention. Referring to FIG.
본 발명에 따른 사용자 동작 전달 단말기(100)는, 휴대폰이나 PDA(Personal Digital Assistant) 등을 포함하는 디지털 휴대용 단말기를 포함한다.The user
도 1을 참조하면, 사용자 동작 전달 단말기(100)는, 터치 디바이스(Touch Device)(110), 통신부(120), 제어부(130), 출력부(140) 및 프로그램부(150)를 포함한다.1, the user
터치 디바이스(110)는 인디케이터 영역(Indicator Area)과, 표시 영역(Display Area), 입력 영역(Input Area) 및 제어 영역(Control Area)을 포함한다.The
터치 디바이스(110)는 터치 방식으로 정보를 입력받거나, 입력받은 정보를 디스플레이한다. 또한, 터치 디바이스(110)는 어플리케이션(Application)의 실행 결과를 디스플레이한다. 이때, 정보는 문자와 숫자, 기호, 그림, 이미지, 오디오, 동영상 등을 포함한다.The
또한, 터치 디바이스(110)는 입력 영역을 통해 사용자로부터 정보 또는 조작 명령을 입력받아 제어부(130)로 전달한다. 또한, 터치 디바이스(110)는 표시 영역을 통해 정보를 표시하거나, 제어부(130)의 명령에 따른 어플리케이션의 실행 결과를 표시한다. 그리고, 터치 디바이스(110)는 통신부(120)를 통해 수신된 상대방 터치 입력에 대응된 위치를 표시한다.Also, the
통신부(120)는 단말기가 이동 통신망을 통해 다른 이동 단말기와 전화 통화 에 관한 음성 신호 및 멀티미디어에 관한 데이터 등을 송수신한다. 또한, 통신부(120)는 상대방 단말기와 실시간 커뮤니케이션을 수행하고, 사용자로부터의 터치 입력에 관한 신호를 상대방 단말기로 전송한다. 그리고, 통신부(110)는 이동 통신망으로부터 상대방 터치 입력에 관한 신호를 수신한다.The
제어부(130)는 터치 디바이스(110)로부터 전달받은 정보, 즉 터치된 지점들이 이루는 형상을 인식하여 터치 디바이스(110)의 표시 영역으로 디스플레이한다.The
또한, 제어부(130)는 사용자로부터 입력 영역을 통해 정보를 입력받아 표시 영역으로 표시하거나, 제어 영역을 통해 기능 및 동작에 관한 제어 동작을 수행한다. In addition, the
또한, 제어부(130)는 통신부(120)를 통한 실시간 커뮤니케이션 중에 터치 디바이스(110)의 입력 영역을 통한 사용자로부터의 터치 입력을 인식하고, 사용자로부터의 터치 입력 데이터를 통신부(120)를 통해 상대방 단말기로 전송한다.The
그리고, 제어부(130)는 실시간 커뮤니케이션 중에 사용자로부터의 터치 입력 데이터에 대응된 동작이 출력부(140)를 통해 출력되도록 제어한다. 여기서, 터치 입력 데이터에 대응된 동작은 진동이나 음향 또는 빛을 출력하는 동작을 포함한다.The
출력부(140)는 터치 입력 데이터에 대응된 동작을 출력한다. 예컨대, 출력부(140)는 터치 입력 데이터에 대응된 진동이나 음향 또는 빛을 출력한다.The
프로그램부(150)는 실시간 커뮤니케이션을 수행하는 중에 사용자로부터의 터치 입력이 있으면, 사용자 터치입력 데이터를 상대방 단말기로 전송하는 프로그램을 저장하고 있다. 또한, 프로그램부(150)는 수신된 상대방 터치입력 데이터에 대 응된 위치를 표시하고, 표시 위치에 사용자로부터 터치 입력이 있으면, 상대방 터치입력 데이터에 대응된 동작을 출력함과 더불어 사용자 터치입력 데이터를 상대방 단말기로 전송하여, 상대방 단말기에도 사용자 터치입력 데이터에 대응된 동작이 출력되도록 하는 동작 피드백(Feedback) 프로그램을 저장하고 있다. 그리고, 프로그램부(150)는 일반적인 OS(Operating System) 프로그램도 저장하고 있다. The
도 2는 본 발명의 실시예에 따른 사용자 동작 전달 방법에서 송신측 단말기의 동작 과정을 나타낸 동작 흐름도이다.2 is a flowchart illustrating an operation of a transmitting terminal in a method of transmitting a user operation according to an exemplary embodiment of the present invention.
도 2를 참조하면, 사용자는 먼저 단말기를 이용하여 통상적인 방식으로 상대방 단말기와 화상 통화나 메신저, 인스턴트 메신저를 통해 실시간으로 커뮤니케이션을 수행한다(S202).Referring to FIG. 2, a user first communicates with a counterpart terminal through a video call, a messenger, and an instant messenger in a normal manner using a terminal (S202).
제어부(130)는 사용자로부터 입력된 음성이나 데이터에 관한 정보를 상대방 단말기로 전송하거나, 상대방 단말기로부터 송출된 음성이나 데이터에 관한 정보를 수신하는 과정을 통해 통신부(120)를 통한 실시간 커뮤니케이션을 수행한다.The
이어, 제어부(130)는 터치 디바이스(110)를 통해 사용자로부터 터치 입력이 있는지를 확인한다(S204). 여기서, 터치 입력은 대화창이나 사진 또는 캐릭터가 사용자에 의해 터치되어 입력되는 것을 포함한다.Next, the
예컨대, 사용자는 단말기를 통해 상대방과 화상 통화를 수행하는 중에 도 5에 도시된 바와 같이 터치 디바이스(110) 상의 상대방 얼굴이 표시되는 화면(510)을 터치할 수 있다. 여기서, 도 5는 화상 통화 중에 상대방 얼굴이 표시되는 화면 을 단순히 터치하는 것을 나타낸 도면이다.For example, the user may touch the
제어부(130)는 상대방 단말기와 화상 통화를 수행하는 중에 터치 디바이스(110)로부터 사용자의 터치 입력이 있으면(S206), 터치 입력에 대응된 동작 출력 명령을 통신부(120)를 통해 상대방 단말기로 전송한다(S208).If there is a user's touch input from the
여기서, 동작 출력 명령은 단말기에서 진동이 출력되도록 하거나 특정 음향이 출력되도록 하거나 특정 빛이 출력되도록 하는 동작을 포함한다.Here, the operation output command includes an operation for causing vibration at the terminal to be output, for outputting a specific sound, or for outputting a specific light.
또한, 상대방 단말기와의 화상 통화를 비롯한 메신저를 통한 실시간 커뮤니케이션을 수행하는 화면에는 도 5에 도시된 바와 같이 터치 디바이스(110) 상의 하단에 제어 영역(520)이 구비되어 있다. 이 제어 영역(520)은 현재 수행되는 커뮤니케이션에 대한 하부 메뉴를 포함하고 있다. 예컨대, 화상 통화의 경우 사진이나 이미지, 동영상 등의 멀티미디어 데이터를 상대방 단말기로 전송해 줄 수 있는 메뉴나, 통화 볼륨을 조절할 수 있는 메뉴 등을 포함한다. 또한, 메신저를 통한 커뮤니케이션의 경우, 상대방과 게임을 할 수 있는 메뉴나 다른 사람을 초청할 수 있는 메뉴 등을 포함한다.As shown in FIG. 5, the screen for performing real-time communication through a messenger including video communication with a counterpart terminal is provided with a
한편, 사용자는 단말기를 통해 도 5에 도시된 바와 같이 상대방과 화상 통화를 수행하는 중에 터치 디바이스(110) 상의 상대방의 얼굴이 표시되는 화면(510)을 터치할 때, 도 6에 도시된 바와 같이 손가락을 터치한 상태로 우측(610) 또는 좌측(610)으로 일정 거리로 드래그(Drag)한 후 손가락을 터치 디바이스(110)로부터 뗄 수 있다. 도 6은 화상 통화 중에 상대방 얼굴이 표시되는 화면을 일정 시간 동안 터치하여 드래그하는 것을 나타낸 도면이다. 도 6에 도시된 바와 같이 사용자가 상대방의 얼굴이 표시되는 화면(510)을 터치한 상태로 우측(610)으로 드래그하거나 좌측(620)으로 드래그하면, 터치 디바이스(110)는 사용자로부터 입력된 우측(610) 또는 좌측(620)으로 드래그된 터치 입력에 대응하는 데이터를 제어부(130)로 전달한다.5, when the user touches the
이에 따라, 제어부(130)는 터치 디바이스(110)로부터의 우측(610) 또는 좌측(620)으로 드래그된 터치 입력 데이터에 따라, 터치 디바이스(110)의 화면 상으로 출력되는 상대방의 얼굴이 우측(610) 또는 좌측(620)으로 흔들리도록 제어한다. 또한, 제어부(130)는 터치 디바이스(110)로부터의 우측(610) 또는 좌측(620)으로 드래그된 터치 입력에 대응된 데이터를 통신부(120)를 통해 상대방 단말기로 전송한다.The
도 3은 본 발명의 실시예에 따른 사용자 동작 전달 방법에서 착신측 단말기의 동작 과정을 나타낸 동작 흐름도이다.3 is a flowchart illustrating an operation process of a called terminal in a method for transmitting a user action according to an embodiment of the present invention.
도 3을 참조하면, 사용자 동작 전달 단말기(100)는 도 2에 전술한 바와 같은 과정으로 이동 통신망을 통하여 상대방 단말기와 실시간 커뮤니케이션을 수행하는 상태이다(S302).Referring to FIG. 3, the user
사용자 동작 전달 단말기(100)에서 제어부(130)는 통신부(120)를 통해 상대방 터치입력 데이터가 수신되었는지를 확인한다(S304).In the user
즉, 제어부(130)는 상대방 터치 입력에 대응된 동작 출력 명령에 대한 데이터가 수신되었는지를 확인하는 것이다. 이때, 동작 출력 명령에 대한 데이터는 예 컨대, 헤더와 페이로드(Payload)로 구성된 패킷 형태의 데이터로서, 페이로드 영역에 진동이 출력되도록 하거나 특정 음향이 출력되도록 하거나 특정 빛이 출력되도록 하는 명령이 포함될 수 있다.That is, the
제어부(130)는 통신부(120)를 통해 수신된 데이터가 상대방 터치 입력에 관한 데이터로 확인되면(S306), 출력부(140)를 통해 상대방 터치 입력에 대응된 동작을 출력하게 된다(S308).If the data received through the
즉, 제어부(130)는 상대방 터치 입력에 대응된 동작 출력 명령에 따라, 출력부(140)를 통해 진동이 출력되도록 하거나 특정 음향이 출력되도록 하거나 특정 빛이 출력되도록 하게 된다.That is, according to the operation output command corresponding to the counterpart touch input, the
또한, 제어부(130)는 상대방 터치입력 데이터가 도 6에 도시된 바와 같이 우측(610) 또는 좌측(620)으로 드래그된 터치 입력 데이터일 경우에, 진동이나 특정 음향, 특정 빛 중 하나를 출력함과 더불어, 터치 디바이스(110)를 통해 현재 사용자가 보고 있는 터치 디바이스(110) 상의 상대방 얼굴이 표시되는 화면(710)을 도 7에 도시된 바와 같이 우측 또는 좌측으로 흔들리게 할 수 있다. 도 7은 우측 또는 좌측으로 드래그된 터치 입력 데이터에 따라 화면이 우측 또는 좌측으로 흔들리는 경우를 나타낸 도면이다.6, the
도 4는 본 발명의 실시예에 따른 사용자 동작 전달 방법 중 착신측 단말기에서 송신측 단말기로 사용자 동작을 피드백하는 과정을 나타낸 동작 흐름도이다.FIG. 4 is a flowchart illustrating an operation of feeding back a user operation from a called terminal to a transmitting terminal in a user operation transmission method according to an embodiment of the present invention.
도 4를 참조하면, 도 2에 전술한 바와 같은 과정으로 송신측 단말기와 착신 측 단말기 간에 실시간 커뮤니케이션을 수행하는 상태이다(S402).Referring to FIG. 4, a real-time communication is performed between a transmitting terminal and a receiving terminal in the process described above with reference to FIG. 2 (S402).
착신측 단말기에서 제어부(130)는 통신부(120)를 통해 상대방 터치입력 데이터가 수신되었는지를 확인한다(S404).In the destination terminal, the
즉, 제어부(130)는 상대방 터치 입력에 대응된 동작 출력 명령에 대한 데이터가 수신되었는지를 확인하는 것이다. 이때, 동작 출력 명령에 대한 데이터에는 상대방이 터치 디바이스(110)를 통해 화면 상에 터치한 위치 정보가 포함되어 있다.That is, the
제어부(130)는 도 3에 전술한 바와 같은 확인 과정을 통하여 상대방 터치입력 데이터가 수신된 것으로 확인되면(S406), 상대방 터치입력 데이터에 대응된 위치를 터치 디바이스(110) 상의 화면에 표시한다(S408). 이때, 터치 디바이스(110) 상으로 표시되는 상대방 터치입력 데이터에 대응된 위치 표지(Indicator)는 예컨대, 십자표나 원형, 네모 등의 형상으로 표시 출력할 수 있다.3, the
이에 따라, 사용자는 터치 디바이스(110) 상에 표시된 위치 표지를 확인하고 손가락 등으로 위치 표지를 터치할 수 있다.Accordingly, the user can confirm the position mark displayed on the
터치 디바이스(110)는 사용자로부터 위치 표지에 대한 터치 입력을 제어부(130)로 전달한다(S410).The
제어부(130)는 사용자 터치 입력에 대응된 동작을 출력부(140)를 통해 출력함과 더불어, 이전에 수신한 상대방 터치입력 데이터에 대응된 동작 출력 명령을 통신부(120)를 통해 송신측 단말기로 전송한다(S412).The
즉, 제어부(130)는 사용자 터치 입력에 대응된 동작, 예컨대, 진동이 출력되 도록 하거나 특정 음향이 출력되도록 하거나 특정 빛이 출력되도록 함과 더불어, 송신측 단말기에 적용할 동작 출력 명령을 송신측 단말기로 전송하는 것이다.That is, the
이에 따라, 송신측 단말기는 착신측 단말기로부터 수신한 동작 출력 명령에 따라 진동이 출력되도록 하거나 특정 음향이 출력되도록 하거나 특정 빛이 출력되게 한다. Accordingly, the transmitting-side terminal causes the vibration to be outputted, the specific sound to be output, or the specific light to be outputted according to the operation output command received from the receiving-side terminal.
따라서, 착신측 단말기에서 사용자의 터치 입력에 따라 송신측 단말기와 착신측 단말기가 동시에 진동이나 음향 또는 빛을 출력할 수 있게 된다. 즉, 송신측 단말기에서 예컨대, 진동에 관한 동작을 착신측 단말기로 전송하면, 착신측 사용자의 터치에 따라 진동에 관한 동작이 송신측 단말기로 피드백되는 것이다.Accordingly, the receiving terminal and the receiving terminal can simultaneously output vibration, sound, or light according to the touch input of the user. That is, when the transmitting terminal transmits, for example, an operation related to the vibration to the receiving terminal, the operation related to the vibration is fed back to the transmitting terminal according to the touch of the called user.
전술한 바와 같이 본 발명에 의하면, 상대방과 실시간으로 커뮤니케이션을 수행하는 중에 사용자의 터치입력 데이터를 상대방 단말기로 전달하여, 사용자의 터치입력 데이터에 대응된 동작이 상대방 단말기로 출력되도록 하는, 사용자 동작 전달 방법 및 단말기를 실현할 수 있다. 또한, 그에 따른 상대방의 터치입력 데이터를 수신하여 사용자의 단말기에도 상대방 터치입력 데이터에 대응된 동작이 피드백(Feedback) 되도록 하는, 사용자 동작 전달 방법 및 단말기를 실현할 수 있다.As described above, according to the present invention, the user's touch input data is transmitted to the counterpart terminal while real-time communication with the counterpart is performed, and the operation corresponding to the touch input data of the user is output to the counterpart terminal. Method and a terminal can be realized. In addition, it is also possible to realize a user operation transmitting method and a terminal which receive touch input data of the other party so as to feedback the operation corresponding to the counterpart touch input data to the user's terminal.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상 의 범위가 한정되는 것은 아니다. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments.
본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The scope of protection of the present invention should be construed according to the following claims, and all technical ideas falling within the scope of the same shall be construed as falling within the scope of the present invention.
이상에서 설명한 바와 같이 본 발명에 의하면, 상대방과 실시간 커뮤니케이션을 수행하는 중에 사용자의 동작을 상대방 단말기로 전달할 수 있다. 또한, 사용자의 동작을 상대방 단말기로 전달한 이후에 상대방 단말기로부터 상대방의 동작을 피드백(Feedback) 받을 수 있다.As described above, according to the present invention, the user's operation can be transmitted to the counterpart terminal while real-time communication with the counterpart is performed. Further, after the operation of the user is transferred to the counterpart terminal, the counterpart terminal can receive feedback of the counterpart operation.
Claims (19)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070020731A KR101437159B1 (en) | 2007-03-02 | 2007-03-02 | Method and terminal for transmitting user's action |
US12/041,445 US8933891B2 (en) | 2007-03-02 | 2008-03-03 | Terminal and method of controlling terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070020731A KR101437159B1 (en) | 2007-03-02 | 2007-03-02 | Method and terminal for transmitting user's action |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20080080710A KR20080080710A (en) | 2008-09-05 |
KR101437159B1 true KR101437159B1 (en) | 2014-09-11 |
Family
ID=40020833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070020731A KR101437159B1 (en) | 2007-03-02 | 2007-03-02 | Method and terminal for transmitting user's action |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101437159B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101449751B1 (en) * | 2008-03-27 | 2014-10-13 | 주식회사 케이티 | Mobile Equipment Having Function Of Providing Touch Feedback During Video Call And Method For Providing Touch Feedback During Video Call |
KR101511383B1 (en) * | 2008-09-17 | 2015-04-10 | 엘지전자 주식회사 | TERMINAL and DRAWING PATTERN TRANSMITTING METHOD of the same |
US10410180B2 (en) | 2012-11-19 | 2019-09-10 | Oath Inc. | System and method for touch-based communications |
KR101590461B1 (en) | 2014-09-04 | 2016-02-03 | 한양대학교 에리카산학협력단 | A method for providing a social network service using a pet wearing appratus and the pet wearing appratus |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050108660A1 (en) * | 2003-11-17 | 2005-05-19 | International Business Machines Corporation | Method, system, and apparatus for remote interactions |
US20050181827A1 (en) * | 2004-02-13 | 2005-08-18 | Nokia Corporation | Touch for feel device for communicating with mobile wireless phone or terminal |
US7159008B1 (en) * | 2000-06-30 | 2007-01-02 | Immersion Corporation | Chat interface with haptic feedback functionality |
-
2007
- 2007-03-02 KR KR1020070020731A patent/KR101437159B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7159008B1 (en) * | 2000-06-30 | 2007-01-02 | Immersion Corporation | Chat interface with haptic feedback functionality |
US20050108660A1 (en) * | 2003-11-17 | 2005-05-19 | International Business Machines Corporation | Method, system, and apparatus for remote interactions |
US20050181827A1 (en) * | 2004-02-13 | 2005-08-18 | Nokia Corporation | Touch for feel device for communicating with mobile wireless phone or terminal |
Also Published As
Publication number | Publication date |
---|---|
KR20080080710A (en) | 2008-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108540655B (en) | Caller identification processing method and mobile terminal | |
WO2021109907A1 (en) | Application sharing method, first electronic device and computer-readable storage medium | |
CN109408168B (en) | Remote interaction method and terminal equipment | |
WO2020156120A1 (en) | Notification message display method and mobile terminal | |
CN109739418B (en) | Interaction method and terminal for multimedia playing application program | |
US20080218490A1 (en) | Terminal and method of controlling terminal | |
CN110109593B (en) | Screen capturing method and terminal equipment | |
CN108874352B (en) | Information display method and mobile terminal | |
CN110531913B (en) | Video color ring processing method, communication equipment and computer readable storage medium | |
WO2019201271A1 (en) | Call processing method and mobile terminal | |
JP4056518B2 (en) | Portable information terminal, display control method thereof, and program | |
CN109697008B (en) | Content sharing method, terminal and computer readable storage medium | |
EP1838099B1 (en) | Image-based communication methods and apparatus | |
CN114422461B (en) | Message quoting method and device | |
CN110442279B (en) | Message sending method and mobile terminal | |
CN110855549A (en) | Message display method and terminal equipment | |
CN112631535A (en) | Screen projection reverse control method and device, mobile terminal and storage medium | |
KR101437159B1 (en) | Method and terminal for transmitting user's action | |
CN110796438B (en) | Message sending method and mobile terminal | |
CN106506834B (en) | Method, terminal and system for adding background sound in call | |
CN109729301B (en) | Message checking method and device | |
CN111314903B (en) | Information sharing method and electronic equipment | |
CN109800097B (en) | Notification message reminding method, storage medium and mobile terminal | |
CN108804071B (en) | Receiver driving method and mobile terminal | |
CN108055389B (en) | Missed call processing method and mobile terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170724 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180724 Year of fee payment: 5 |