KR101392679B1 - Method for remote controlling using drag gesture and apparatus of the same - Google Patents

Method for remote controlling using drag gesture and apparatus of the same Download PDF

Info

Publication number
KR101392679B1
KR101392679B1 KR1020120113612A KR20120113612A KR101392679B1 KR 101392679 B1 KR101392679 B1 KR 101392679B1 KR 1020120113612 A KR1020120113612 A KR 1020120113612A KR 20120113612 A KR20120113612 A KR 20120113612A KR 101392679 B1 KR101392679 B1 KR 101392679B1
Authority
KR
South Korea
Prior art keywords
area
drag
speed
touch
user
Prior art date
Application number
KR1020120113612A
Other languages
Korean (ko)
Other versions
KR20140048416A (en
Inventor
홍성용
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020120113612A priority Critical patent/KR101392679B1/en
Publication of KR20140048416A publication Critical patent/KR20140048416A/en
Application granted granted Critical
Publication of KR101392679B1 publication Critical patent/KR101392679B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour

Abstract

본 발명은 드래그 제스처를 이용한 원격 제어 방법 및 장치에 관한 것으로, 상기 방법은 사용자가 원격 제어 장치에 구비된 터치 스크린에 적어도 하나의 손가락을 터치하여 드래그하면, 드래그 속도 및 방향을 검출하는 검출 단계; 및 상기 드래그 속도 및 방향에 따라 원격 이동 수단의 이동 속도 및 방향을 제어하는 제어 단계;를 포함할 수 있다. The present invention relates to a remote control method and apparatus using a drag gesture, and more particularly, to a remote control method and apparatus using a drag gesture, the method comprising: detecting a drag speed and a direction by touching and dragging at least one finger on a touch screen provided on a remote control device; And a control step of controlling the moving speed and direction of the remote moving means according to the drag speed and direction.

Description

드래그 제스처를 이용한 원격 제어 방법 및 장치{METHOD FOR REMOTE CONTROLLING USING DRAG GESTURE AND APPARATUS OF THE SAME} TECHNICAL FIELD [0001] The present invention relates to a remote control method and apparatus using a drag gesture,

본 발명은 원격 제어 기술에 관한 것으로, 특히 사용자가 터치 스크린을 통해 발생하는 드래그 제스처에 따라 원격지에 위치하는 로봇의 움직임을 자유롭게 제어할 수 있도록 하는 드래그 제스처를 이용한 원격 제어 방법 및 장치에 관한 것이다. The present invention relates to a remote control technique, and more particularly, to a remote control method and apparatus using a drag gesture that allows a user to freely control the movement of a robot located at a remote location according to a drag gesture generated through a touch screen.

일반적으로 로봇을 제어하기 위해서는, 로봇 움직임을 제어하기 위한 각종 명령어들을 사전에 정의하고 이들 명령어를 데이터 또는 음성 형태로 입력하거나, 각종 명령어가 매핑된 버튼을 구비하고 키 버튼 선택 동작을 통해 사용자가 원하는 명령어가 제공되도록 한다. Generally, in order to control the robot, various commands for controlling the robot movement are defined in advance and these commands are inputted in data or voice form, or buttons to which various commands are mapped, Let the command be provided.

그러나 명령어를 통해 로봇을 제어하고자 하는 경우에는, 사용자는 특정 명령어를 숙지하고 있어야 하고, 이를 시기 적절하게 로봇에 제공해야지만 로봇을 자신이 원하는 데로 움직일 수 있어, 로봇 제어에 숙련된 기술이 필요로 하는 문제가 있다. However, if the user wishes to control the robot through commands, the user must know a specific command and provide the robot in a timely manner. However, since the robot can be moved as desired, There is a problem.

또한 키 버튼을 통해 로봇을 제어하는 경우에도, 사용자가 원하는 명령어를 입력하기 위해 해당 키 버튼을 일일이 선택해줘야 하는 번거로움이 있었다. Further, even when the robot is controlled by the key button, there is a problem that the user must select the corresponding key button individually in order to input a desired command.

이에 본 발명에서는 사용자가 터치 스크린을 통해 발생하는 드래그 제스처에 따라 원격지에 위치하는 로봇의 움직임을 보다 편리하고 정확하게 제어할 수 있도록 하는 원격 제어 방법 및 장치를 제공하고자 한다. Accordingly, it is an object of the present invention to provide a remote control method and apparatus for allowing a user to more conveniently and accurately control the movement of a robot located at a remote location according to a drag gesture generated through a touch screen.

상기 과제를 해결하기 위한 수단으로서, 본 발명의 일 실시 형태에 따르면, 사용자가 원격 제어 장치에 구비된 터치 스크린에 적어도 하나의 손가락을 터치하여 드래그하면, 드래그 속도 및 방향을 검출하는 검출 단계; 및 상기 드래그 속도 및 방향에 따라 원격 이동 수단의 이동 속도 및 방향을 제어하는 제어 단계;를 포함하는 드래그 제스처를 이용한 원격 제어 방법을 제공한다. According to an embodiment of the present invention, there is provided a method of detecting a drag speed and a direction, the method comprising: detecting a drag speed and a direction by touching and dragging at least one finger on a touch screen provided on a remote control device; And a control step of controlling the moving speed and direction of the remote moving means in accordance with the drag speed and the direction of the drag gesture.

상기 검출 단계는 상기 터치 스크린의 전체 터치 영역을 제1 영역과 상기 제1 영역의 외곽을 둘러싸는 제2 영역으로 구분하는 영역 구분 단계; 사용자가 상기 제1 영역에서 드래그 제스처를 발생하고 있으면, 상기 드래그 제스처에 따른 드래그 속도 및 방향을 실시간 검출 및 출력하는 제1 출력 단계; 및 사용자가 상기 제1 영역을 드래그한 후 상기 제2 영역을 터치 홀딩하고 있으면, 상기 제1 영역에서 검출된 드래그 속도 및 방향을 대신 출력하는 제2 출력 단계;를 포함할 수 있다. Wherein the detecting step comprises: dividing an entire touch area of the touch screen into a first area and a second area surrounding the outer area of the first area; A first output step of detecting and outputting, in real time, a drag speed and a direction according to the drag gesture when the user is generating a drag gesture in the first area; And a second output step of outputting the drag speed and direction detected in the first area instead of if the user is touching and holding the second area after dragging the first area.

상기 제2 출력 단계는 상기 제1 영역에서 검출된 드래그 속도 및 방향을 모두 누적 및 평균하여 출력할 수 있다. The second outputting step may accumulate and averages both the drag speed and the direction detected in the first area.

또한, 상기 제2 출력 단계는 상기 제2 영역과의 이격 거리가 기 설정 거리 이내인 상기 제1 영역에서 검출된 드래그 속도 및 방향만을 누적 및 평균하여 출력할 수 있다. Also, the second outputting step may accumulate and averages only the drag speed and direction detected in the first area, the separation distance from the second area being within a predetermined distance.

또 다르게는, 상기 제2 출력 단계는 상기 제2 영역을 진입하기 전 기 설정된 시간 동안 상기 제1 영역에서 검출된 드래그 속도 및 방향을 출력할 수 있다. Alternatively, the second outputting step may output the detected drag speed and direction in the first area for a preset time before entering the second area.

상기 제1 출력 단계는 사용자의 터치 강도에 따라 상기 드래그 속도를 가변 할 수 있다. The first outputting step may vary the drag speed according to a user's touch strength.

상기 사용자의 터치 강도는 사용자가 터치 손가락 개수, 손가락 터치 면적, 및 터치 압력 중 적어도 하나에 의해 가변 될 수 있다.
The user's touch strength may be varied by at least one of a number of touch fingers, a finger touch area, and a touch pressure.

상기 과제를 해결하기 위한 수단으로서, 본 발명의 다른 실시 형태에 따르면, 사용자가 원격 제어 장치에 구비된 터치 스크린에 적어도 하나의 손가락을 터치하여 드래그하면, 드래그 속도 및 방향을 검출하는 검출 단계; 상기 터치 강도에 따라 상기 드래그 속도를 조정하는 조정 단계; 및 상기 조정된 드래그 속도와 상기 드래그 방향에 따라 상기 원격 이동 수단의 이동 속도 및 방향을 제어하는 제어 단계;를 포함하는 것을 특징으로 하는 드래그 제스처를 이용한 원격 제어 방법을 제공한다. As a means for solving the above problems, according to another embodiment of the present invention, there is provided a remote control apparatus comprising: a detecting step of detecting a drag speed and a direction when a user touches and drages at least one finger on a touch screen provided in a remote control device; An adjusting step of adjusting the drag speed according to the touch intensity; And a control step of controlling the moving speed and direction of the remote moving means according to the adjusted drag speed and the drag direction.

상기 사용자의 터치 강도는 사용자가 터치 손가락 개수, 손가락 터치 면적, 및 터치 압력 중 적어도 하나에 의해 가변 될 수 있다.
The user's touch strength may be varied by at least one of a number of touch fingers, a finger touch area, and a touch pressure.

상기 과제를 해결하기 위한 수단으로서, 본 발명의 또 다른 실시 형태에 따르면, 원격 이동 수단의 제어를 위한 정보 표시 동작과 사용자 제어값 입력 동작을 수행하고, 사용자가 적어도 하나의 손가락을 터치 및 드래그할 수 있는 드래그 제스처 입력 화면을 제공하는 터치 스크린; 사용자가 상기 드래그 제스처 입력 화면을 통해 적어도 하나의 손가락을 터치 및 드래그하면, 드래그 속도 및 방향을 검출하는 드래그 제스처 검출부; 및 상기 드래그 속도 및 방향에 따라 원격 이동 수단의 이동 속도 및 방향을 제어하기 위한 제어 신호를 생성 및 출력하는 원격 이동 수단 제어부;를 포함하는 원격 제어 장치를 제공한다. As a means for solving the above problems, according to another embodiment of the present invention, an information display operation and a user control value input operation for controlling the remote moving means are performed, and when a user touches and drags at least one finger A touch screen that provides a drag gesture input screen; A drag gesture detection unit for detecting a drag speed and a direction when a user touches and drags at least one finger through the drag gesture input screen; And a remote moving means control unit for generating and outputting a control signal for controlling the moving speed and direction of the remote moving means in accordance with the drag speed and direction.

상기 드래그 제스처 검출부는 상기 터치 스크린의 전체 터치 영역을 제1 영역과 상기 제1 영역의 외곽을 둘러싸는 제2 영역으로 구분하고, 사용자가 상기 제1 영역에서 드래그 제스처를 발생하는 경우에는 상기 드래그 제스처에 따른 드래그 속도 및 방향을 실시간 검출 및 출력하되, 사용자가 상기 제1 영역을 드래그한 후 상기 제2 영역을 터치 홀딩하는 경우에는 상기 제1 영역에서 검출된 드래그 속도 및 방향을 대신 출력할 수 있다. Wherein the drag gesture detector divides the entire touch area of the touch screen into a first area and a second area surrounding the outer area of the first area, and when the user generates a drag gesture in the first area, When dragging the first area and touching the second area, the drag speed and direction detected in the first area may be output instead of the drag speed and direction detected in the first area .

상기 드래그 제스처 검출부는 사용자의 터치 강도를 추가 검출하고, 상기 터치 강도에 따라 상기 드래그 속도를 조정하는 기능을 더 포함할 수 있다. The drag gesture detection unit may further include a function of further detecting a user's touch strength and adjusting the drag speed according to the touch strength.

또한, 상기 드래그 제스처 검출부는 사용자의 드래그 속도 및 방향과 터치 강도를 실시간 검출하고, 상기 터치 강도에 따라 상기 드래그 속도를 조정한 후, 상기 조정된 드래그 속도와 상기 드래그 방향을 출력할 수 있다. The drag gesture detection unit may detect the drag speed and direction of the user and the touch strength in real time, adjust the drag speed according to the touch strength, and then output the adjusted drag speed and the drag direction.

상기 원격 이동 수단은 로봇, 휠체어 중 하나일 수 있다.
The remote moving means may be one of a robot and a wheelchair.

본 발명의 원격 제어 방법 및 장치는 사용자가 복잡한 명령어 입력 동작, 버튼 조작 동작 등을 수행할 필요 없이 터치 스크린을 통해 발생하는 드래그 제스처에 따라 원격지에 위치하는 로봇의 움직임을 제어할 수 있도록 함으로써, 로봇의 움직임을 보다 용이하게 제어할 수 있도록 한다. 그리고 드래그 궤적을 실시간 피드백 할 수 있도록 함으로써, 사용자가 보다 직관적인 제어 동작을 수행할 수 있도록 한다. The remote control method and apparatus of the present invention allow a user to control the movement of a robot located at a remote location according to a drag gesture generated through a touch screen without having to perform a complicated command input operation, Thereby making it possible to more easily control the movement. By real-time feedback of the drag trajectory, the user can perform a more intuitive control operation.

또한, 본 발명은 터치 스크린의 터치 영역을 제1 영역과 제2 영역으로 분리한 후, 제1 영역을 이용하여 드래그 제스처를 발생한 후 제2 영역에서 손가락을 터치 홀딩하는 경우에는 제1 영역에서 검출된 드래그 속도 및 방향에 따라 로봇을 계속하여 제어할 수 있도록 함으로써, 사용자가 드래그 동작을 반복하지 않고서도 로봇을 계속하여 이동시킬 수 있도록 한다. According to another aspect of the present invention, there is provided a method of detecting a touch area of a touch screen, the method comprising: dividing a touch area of a touch screen into a first area and a second area; and when a drag gesture is generated using the first area, So that the user can continuously move the robot without repeatedly performing the drag operation.

뿐 만 아니라, 본 발명에서는 사용자의 터치 강도에 따라 로봇의 이동 속도를 가변함으로써, 한 번의 드래그 동작을 통해 제어할 수 있는 로봇의 이동 거리를 다양하게 조절할 수 있도록 한다. In addition, according to the present invention, the movement speed of the robot is varied according to the user's touch strength, so that the movement distance of the robot that can be controlled through one drag operation can be variously adjusted.

도1는 본 발명의 일 실시예에 따른 로봇 시스템을 도시한 도면이다.
도2는 본 발명의 일 실시예에 따른 원격 제어 장치를 도시한 도면이다.
도3는 본 발명의 일 실시예에 따른 드래그 제스처를 이용한 로봇 움직임 제어 동작을 설명하기 위한 도면이다.
도4는 본 발명의 일 실시예에 따른 터치 스크린의 터치 영역 분할 동작을 설명하기 위한 도면이다.
도5는 본 발명의 일 실시예에 따른 로봇 원격 제어 방법을 설명하기 위한 도면이다.
도6는 본 발명의 일 실시예에 따른 로봇 원격 제어 방법에 따른 로봇 움직임 제어 예들을 도시한 도면이다.
도7은 본 발명의 일 실시예에 따른 터치 강도 가변 동작을 설명하기 위한 도면이다.
도8은 본 발명의 다른 실시예에 따른 로봇 원격 제어 방법을 설명하기 위한 도면이다.
도9는 본 발명의 또 다른 실시예에 따른 로봇 원격 제어 방법을 설명하기 위한 도면이다.
1 is a block diagram of a robot system according to an embodiment of the present invention.
2 is a diagram illustrating a remote control apparatus according to an embodiment of the present invention.
3 is a view for explaining a robot motion control operation using a drag gesture according to an embodiment of the present invention.
4 is a view for explaining a touch region dividing operation of a touch screen according to an embodiment of the present invention.
5 is a view for explaining a robot remote control method according to an embodiment of the present invention.
6 is a diagram illustrating examples of robot motion control according to a robot remote control method according to an embodiment of the present invention.
FIG. 7 is a view for explaining a touch intensity varying operation according to an embodiment of the present invention.
8 is a view for explaining a robot remote control method according to another embodiment of the present invention.
9 is a view for explaining a robot remote control method according to another embodiment of the present invention.

이하 첨부된 도면을 참조하여 본 발명에 대해 구체적으로 살펴보기로 한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

다만, 본 발명을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 용어가 동일하더라도 표시하는 부분이 상이하면 도면 부호가 일치하지 않음을 미리 말해두는 바이다.In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. Even if the terms are the same, it is to be noted that when the portions to be displayed differ, the reference signs do not coincide.

그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 설정된 용어들로서 이는 실험자 및 측정자와 같은 사용자의 의도 또는 관례에 따라 달라질 수 있으므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed.

본 명세서에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms first, second, etc. in this specification may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise.

다르게 정의되지 않는 하, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. All terms used herein, including but not limited to technical, technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted in an ideal or overly formal sense unless explicitly defined in the present application Do not.

이하 첨부된 도면을 참조하여 본 발명에 대해 구체적으로 설명하기로 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the present invention, the same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

도1 및 도2는 본 발명의 일 실시예에 따른 로봇 시스템을 도시한 도면으로, 도1은 로봇 시스템을, 도2는 원격 제어 장치를 각각 나타낸다. 1 and 2 illustrate a robot system according to an embodiment of the present invention. FIG. 1 shows a robot system and FIG. 2 shows a remote control device.

도1에 도시된 바와 같이, 본 발명의 로봇 시스템은 크게 로봇(10)과, 상기 로봇(10)의 움직임을 제어하는 원격 제어 장치(20)로 구성되며, 로봇(10)과 원격 제어 장치(20)는 유/무선 방식으로 서로 통신하도록 한다. 1, the robot system of the present invention comprises a robot 10 and a remote control device 20 for controlling the movement of the robot 10. The robot 10 and the remote control device 20 communicate with each other in a wired / wireless manner.

상기 로봇(10)는 2족 또는 4족 보행이 가능한 휴먼 로이드계 로봇, 가사 지원 로봇, 탐사 로봇 등과 같이, 외부로부터 전송되는 제어 신호에 따라 이동 가능한 각종 로봇으로 구현될 수 있다. The robot 10 can be implemented as various robots capable of moving according to control signals transmitted from the outside, such as humanoid robots capable of walking in two or four legs, housework support robots, and exploration robots.

상기 원격 제어 장치(20)는 터치 스크린을 구비한 소형 휴대 단말 장치로 구현되거나, 스마트 폰, 태블릿 PC 및 노트북 등과 같이 터치 스크린을 구비하는 각종 통신 기기에 내장되는 형태로 구현되어, 사용자가 상기 터치 스크린에 적어도 하나의 손가락을 터치하여 드래그하면, 손가락 드래그 속도 및 방향에 따라 상기 로봇의 이동 속도 및 방향을 원격 제어하도록 한다.The remote control device 20 may be implemented as a small portable terminal device having a touch screen, or may be embodied in various communication devices having a touch screen such as a smart phone, a tablet PC, and a notebook, When at least one finger is touched and dragged on the screen, the moving speed and direction of the robot are remotely controlled according to the finger drag speed and direction.

상기 원격 제어 장치(20)는 도2와 같이, 터치 스크린(210), 드래그 제스처 검출부(220), 로봇 제어부(230), 및 통신부(240) 등을 포함하여 구성될 수 있다. The remote control device 20 may include a touch screen 210, a drag gesture detection unit 220, a robot control unit 230, and a communication unit 240, as shown in FIG.

터치 스크린(210)는 로봇 제어에 필요한 각종 정보를 표시하고 로봇 제어에 필요한 사용자 제어값을 입력받되, 사용자가 로봇 움직임 제어를 요청하면, 드래그 제스처 입력 화면을 제공하여 사용자가 적어도 하나의 손가락을 터치 및 드래그할 수 있도록 한다. The touch screen 210 displays various information required for the robot control and receives a user control value required for the robot control. When the user requests the robot movement control, the touch screen 210 provides a drag gesture input screen so that the user can touch at least one finger And dragging.

드래그 제스처 검출부(220)는 터치 스크린(210)의 터치 결과를 추적 및 분석하여, 사용자의 드래그 제스처에 따른 드래그 속도 및 방향을 검출한다. The drag gesture detection unit 220 tracks and analyzes the touch result of the touch screen 210 and detects the drag speed and direction according to the drag gesture of the user.

로봇 제어부(230)은 원격 제어 장치(20)의 전반적인 동작을 제어하고, 특히 드래그 제스처 검출부(220)가 검출한 드래그 속도 및 방향을 기반으로 로봇의 이동 속도 및 방향을 제어하기 위한 제어 신호를 생성 및 출력한다. The robot controller 230 controls the overall operation of the remote controller 20 and generates a control signal for controlling the moving speed and direction of the robot based on the drag speed and direction detected by the drag gesture detector 220 And outputs.

통신부(240)는 로봇(10)과의 통신 채널을 설정하고, 상기 통신 채널을 통해 제어 신호 생성부(230)의 제어 신호를 전송하여, 로봇(10)이 원격 제어 장치(20)에 의해 원격 제어될 수 있도록 한다.
The communication unit 240 establishes a communication channel with the robot 10 and transmits a control signal of the control signal generation unit 230 through the communication channel so that the robot 10 can communicate with the remote To be controlled.

즉, 본 발명에서는 사용자가 복잡한 명령어 입력 동작, 버튼 조작 동작 등을 수행할 필요 없이, 도3에서와 같이 터치 스크린상에 자신이 원하는 로봇의 이동 속도 및 방향을 표시하는 단순 동작만을 수행하여, 로봇의 움직임을 용이하게 제어할 수 있게 된다. 또한, 드래그 궤적에 상응하는 이미지(선 또는 점)을 화면 표시해줌으로써, 사용자가 자신의 제어 결과를 실시간 피드백받을 수 있고, 이에 따라 보다 직관적인 제어 동작을 수행할 수 있도록 한다.
That is, in the present invention, the user does not need to perform a complicated command input operation, a button operation operation, and the like, but performs only a simple operation of displaying the moving speed and direction of the robot desired by the user on the touch screen, It is possible to easily control the motion of the robot. In addition, by displaying an image (line or point) corresponding to the drag trajectory, the user can receive feedback of his / her control in real time, thereby realizing a more intuitive control operation.

더하여, 상기의 실시예에서는 로봇만을 본 발명의 원격 제어 대상의 예로 들어 설명하였지만, 실제의 적용예에서는 외부로부터 전송되는 움직임 제어 신호에 따라 이동 방향 및 속도가 제어되는 모든 종류의 원격 이동 수단 또한 본 발명의 방법 및 장치의 적용 대상이 될 수 있을 것이다. 예를 들어, 원격 이동 수단은 로봇, 휠체어, 장난감 자동차 등이 될 수 있으며, 이들 모두는 본 발명의 원리에 따라 움직임 제어될 수 있을 것이다.
In addition, in the above embodiment, only the robot has been described as an example of the remote control object of the present invention. However, in a practical application example, all kinds of remote movement means in which the moving direction and speed are controlled in accordance with the motion control signal transmitted from the outside, And can be applied to the method and apparatus of the present invention. For example, the remote movement means may be a robot, a wheelchair, a toy car, etc., all of which may be motion controlled in accordance with the principles of the present invention.

한편, 본 발명에서는 터치 스크린을 이용하여 발생되는 드래그 제스처를 이용하여 로봇의 움직임을 제어하도록 하나, 터치 스크린이 제한된 화면 크기를 가지는 문제가 있다. Meanwhile, in the present invention, the movement of the robot is controlled by using a drag gesture generated using a touch screen, but the touch screen has a problem that the screen size is limited.

예를 들어, 터치 스크린의 화면 크기가 5?7.5cm(가로?세로)이며 로봇이 드래그 제스처에 1:1 매칭되어 움직인다고 가정한다면, 사용자가 터치 스크린의 최하단에서 최상단으로 일직선 드래그하더라도 한번의 드래그 동작을 통해 움직여 줄 수 있는 로봇의 이동 거리는 고작 7.5cm에 불과하다. For example, assuming that the screen size of the touch screen is 5 to 7.5 cm (horizontal to vertical) and the robot moves by 1: 1 matching with the drag gesture, even if the user drags straight from the bottom to the top of the touch screen, Which can move through the robot's travel distance is only 7.5cm.

이로부터, 사용자의 드래그 제스처를 통해 로봇의 움직임을 단순 제어한다면, 터치 스크린의 제한된 터치 영역으로 인해 사용자는 드래그 동작을 반복적으로 수행해야 하는 번거로움이 발생함을 알 수 있다. From this, it can be seen that, if the motion of the robot is simply controlled through the user's drag gesture, the user has to repeatedly perform the drag operation due to the limited touch area of the touch screen.

이에 본 발명에서는 도4와 같이 터치 영역을 분할하고, 터치 영역별로 드래그 제스처의 드래그 속도 및 방향 검출 방법을 달리함으로써, 사용자가 드래그 동작을 반복하지 않고서도 로봇을 계속하여 이동시킬 수 있도록 하는 방법을 제안하고자 한다. In the present invention, as shown in FIG. 4, a method of dividing a touch region and changing the drag speed and direction detection method of the drag gesture for each touch region enables the user to move the robot continuously without repeating the drag operation I would like to propose.

도5는 본 발명의 일 실시예에 따른 로봇 원격 제어 방법을 설명하기 위한 도면이다. 5 is a view for explaining a robot remote control method according to an embodiment of the present invention.

도5에 도시된 바와 같이, 원격 제어 장치(20)는 우선 터치 스크린(210)의 전체 터치 영역을 도5과 같이 제1 영역(center)과 상기 제1 영역(center)의 외곽을 둘러싸는 제2 영역(outer)으로 구분한다(S1). 5, the remote controller 20 firstly touches the entire touch area of the touch screen 210 with a first area (center) and a second area surrounding the outer area of the first area (center) And is divided into two regions (S1).

다만, 원격 제어 장치(20)가 터치 영역 분할 동작을 이전에 수행하여 영역 분할값이 이미 등록되어 있다면, 단계 S1는 수행될 필요가 없을 것이다. 즉, 단계 S1은 옵션 동작으로, 장치 초기화시에 단 한번만 수행되고 로봇 원격 제어 동작시 매회 수행될 필요는 없다. 또한, 제조자가 원격 제어 장치(20)의 제공할 때에 영역 분할 값을 미리 등록해뒀다면, 단계 S1은 생략될 수도 있을 것이다. However, if the remote control device 20 has previously performed the touch area dividing operation and the area dividing value has already been registered, step S1 will not need to be performed. That is, step S1 is an optional operation, which is performed only once at the time of device initialization and does not need to be performed each time during the robot remote control operation. Also, if the manufacturer has previously registered the area division value in providing the remote control device 20, the step S1 may be omitted.

터치 스크린(210)의 터치 영역 분할이 완료된 상태에서 사용자가 터치 스크린(210)을 터치 및 드래그하면(S2), 드래그 제스처 검출부(220)는 사용자가 터치 패턴을 확인한다. 만약, 사용자가 제1 영역에서 드래그 제스처를 발생하고 있으면(S3), 도6의 (a) 및 (b)와 같이 드래그 제스처에 따른 드래그 속도 및 방향을 실시간 검출 및 출력하도록 한다(S4). When the user touches and drags the touch screen 210 (S2) in a state where the touch area of the touch screen 210 is completely divided, the drag gesture detection unit 220 confirms the touch pattern by the user. If the user is generating the drag gesture in the first area (S3), the drag speed and direction according to the drag gesture are detected and output in real time as shown in Figs. 6A and 6B (S4).

반면, 사용자가 도6의 (c) 및 (d)와 같이 제1 영역을 드래그한 후 제2 영역을 터치 홀딩하고 있으면(S5), 제2 영역을 터치하기 전에 제1 영역에서 검출된 드래그 속도 및 방향을 대신하여 출력하도록 한다(S6). 단계 S6을 통해 출력되는 드래그 속도 및 방향은 다음과 같이 다양한 방법들로 획득될 수 있을 것이다. 예를 들어, 제1 영역에서 검출된 드래그 속도 및 방향을 모두 누적 및 평균하여 단계 S6을 통해 출력될 드래그 속도 및 방향을 획득하는 방법, 제2 영역과 제1 영역의 접촉 영역에서(즉, 상기 제2 영역과의 이격 거리가 기 설정 거리 이내인 상기 제1 영역에서) 검출된 드래그 속도 및 방향만을 누적 및 평균하여 단계 S6을 통해 출력될 드래그 속도 및 방향을 획득하는 방법, 제2 영역을 진입하기 직전에(즉, 상기 제2 영역을 진입하기 전 기 설정된 시간 동안) 검출된 드래그 속도 및 방향을 단계 S6을 통해 출력될 드래그 속도 및 방향으로 획득하는 방법 등이 있을 수 있다. 물론, 상기의 방법들은 본 발명의 이해를 돕기 위한 것으로, 실제의 적용 예에서는 제1 영역에서 발생한 사용자 드래그 패턴을 반영할 수 있는 범위내에서 보다 다양하게 변화될 수 있을 것이다. On the other hand, if the user touches and holds the second area after dragging the first area as shown in FIGS. 6C and 6D (S5), the drag speed detected in the first area before touching the second area And direction (S6). The drag speed and direction output through step S6 may be obtained in various ways as follows. For example, a method of accumulating and averaging both the drag speed and the direction detected in the first area to obtain the drag speed and direction to be output through step S6, a method of obtaining the drag speed and direction in the contact area of the second area and the first area A method of accumulating and averaging only the detected drag speed and direction in the first area in which the distance from the second area is within a predetermined distance to acquire the drag speed and direction to be outputted through step S6, A method of acquiring the detected drag speed and direction immediately before (i.e., during a predetermined time before entering the second area) in a drag speed and direction to be output through step S6, and the like. Of course, the above methods are intended to facilitate the understanding of the present invention. In actual application examples, the method may be further varied within a range that can reflect the user drag pattern generated in the first area.

이와 같이 단계 S4 또는 단계 S6을 통해 드래그 속도 및 방향이 파악되면, 로봇 제어부(230)는 이에 상응하는 제어 신호를 생성 및 출력함으로써, 로봇(10)이 상기 드래그 속도 및 방향에 따라 움직임 제어될 수 있도록 한다(S7). When the drag speed and direction are recognized through step S4 or step S6, the robot control unit 230 generates and outputs a corresponding control signal so that the robot 10 can be controlled to move in accordance with the drag speed and direction (S7).

원격 제어 장치(20)는 사용자가 로봇 움직임 제어 동작을 종료할 때까지(S8), 단계 S2 내지 S7을 반복수행하며 현재의 터치 상황에 맞는 로봇 움직임 제어 동작을 연속하여 수행하되, 사용자가 제1 영역에서의 드래그 상태 또는 제2 영역에서의 터치 홀딩 상태를 해제하면, 로봇 움직임 제어 동작을 즉각 중지하도록 한다(S9). The remote control device 20 repeats steps S2 to S7 until the user finishes the robot motion control operation (S8) and continuously performs the robot motion control operation corresponding to the current touch situation, When the drag state in the region or the touch holding state in the second region is released, the robot motion control operation is immediately stopped (S9).

이상에서 살펴 본 바와 같이, 본 발명에서는 드래그 제스처를 통해 로봇의 움직임을 단순 제어하는 것에서 더 나아가, 터치 영역을 분할하고 터치 영역별로 드래그 제스처의 드래그 속도 및 방향 검출 방법을 달리해줄 수 있도록 한다. As described above, according to the present invention, in addition to the simple control of the movement of the robot through the drag gesture, the drag region can be divided and the drag speed and direction detection method of the drag gesture can be different for each touch region.

특히, 본 발명에서는 제1 영역을 이용하여 드래그 제스처를 발생한 후, 제2 영역에서 손가락을 터치 홀딩함으로써, 제1 영역에서 검출된 드래그 속도 및 방향에 따라 로봇을 계속하여 움직임 제어할 수 있도록 한다. Particularly, in the present invention, after the drag gesture is generated using the first region, the robot is continuously controlled according to the drag speed and direction detected in the first region by touching and holding the finger in the second region.

그 결과, 사용자는 드래그 동작을 반복적으로 수행하지 않고도, 로봇을 자신이 원하는 속도 및 방향으로 계속하여 이동시킬 수 있게 된다.
As a result, the user can move the robot continuously at a desired speed and direction without repeating the drag operation.

뿐 만 아니라, 본 발명에서는 사용자의 터치 강도에 따라 로봇의 이동 속도 제어 정도를 달리하고, 이에 따라 로봇 움직임 제어 정도를 보다 다양화 및 세분화할 수 있도록 한다. In addition, according to the present invention, the moving speed control degree of the robot is varied according to the user's touch strength, and thus the degree of robot motion control can be diversified and further divided.

즉, 본 발명에서는 도7과 같이 사용자가 터치 손가락 개수, 손가락 터치 면적, 또는 터치 압력 등을 통해 터치 강도를 가변 할 수 있도록 하고, 이를 고려하여 로봇의 이동 속도를 결정함으로써, 한 번의 드래그 동작을 통해 제어할 수 있는 로봇의 이동 거리를 다양하게 조절할 수 있도록 한다. That is, in the present invention, as shown in FIG. 7, the user can vary the touch intensity through the number of touch fingers, the finger touch area, or the touch pressure, and by considering the movement speed of the robot, So that the moving distance of the robot can be controlled in various ways.

도8은 본 발명의 다른 실시예에 따른 로봇 원격 제어 방법을 설명하기 위한 도면으로, 이는 터치 영역 분할 동작에 추가하여 로봇 이동 속도 가변 동작을 수행하는 경우에 관한 것이다. FIG. 8 is a diagram for explaining a robot remote control method according to another embodiment of the present invention, in which a robot movement speed variable operation is performed in addition to a touch region division operation.

참고로, 도8에서는 설명의 편이를 위해 사용자가 터치 스크린에 터치한 손가락 개수에 따라 사용자 터치 강도가 가변되는 경우에 한해 설명하기로 한다. 또한, 도5와 동일하게 수행되는 단계들은 동일한 부호를 붙이고, 이에 대한 설명은 생략하기로 한다. For reference, FIG. 8 will be described only when the user's touch strength varies according to the number of fingers that the user has touched on the touch screen for convenience of explanation. 5 are denoted by the same reference numerals, and a description thereof will be omitted.

만약, 사용자가 현재 제1 영역상에서 드래그 제스처를 발생하고 있으면(S3), 드래그 제스처에 따른 드래그 속도 및 방향을 검출함과 더불어, 사용자가 터치 스크린에 터치한 손가락의 개수를 통해 터치 강도도 추가 검출하도록 한다(S11). If the user is currently generating a drag gesture on the first area (S3), the drag speed and direction in accordance with the drag gesture are detected. In addition to detecting the drag strength and direction through the number of fingers touched by the user on the touch screen (S11).

단계 S11을 위해, 원격 제어 장치(20)는 손가락 터치 개수와 터치 강도에 대한 상관 관계에 대한 정보를 사전에 획득 및 등록하는 것이 바람직하다. 예를 들어, 원격 제어 장치(20)는 손가락 터치 개수가 1개일 때의 터치 강도를 기본 터치 강도라고 설정한 후, “기본 터치 강도 ? 손가락 터치 개수”의 식에 따라 사용자의 터치 강도를 산출하도록 할 수 있을 것이다. For step S11, it is preferable that the remote control device 20 acquires and registers information on the correlation between the number of finger touches and the touch strength in advance. For example, the remote control device 20 sets the touch intensity when the number of finger touches is one to the basic touch intensity, Quot; number of finger touches ", the user's touch strength may be calculated.

계속하여, 단계 S11을 통해 드래그 속도 및 방향, 그리고 터치 강도가 검출되었으면, 원격 제어 장치(20)는 터치 강도에 따라 단계 S11을 통해 검출된 드래그 속도를 가변한 후(S12), 가변된 드래그 속도와 드래그 방향에 따라 로봇의 이동 속도 및 방향을 제어하도록 한다(S13). Subsequently, when the drag speed and direction and the touch strength are detected in step S11, the remote control device 20 changes the drag speed detected in step S11 according to the touch strength (S12), and then the variable drag speed And control the moving speed and direction of the robot according to the drag direction (S13).

그 결과, 사용자가 동일한 속도로 드래그하더라도, 터치 스크린에 터치한 손가락 개수에 따라서 로봇의 이동 속도는 다양하게 변화될 수 있다.
As a result, even if the user drags at the same speed, the moving speed of the robot can be variously changed according to the number of fingers touched on the touch screen.

도9는 본 발명의 또 다른 실시예에 따른 로봇 원격 제어 방법을 설명하기 위한 도면으로, 이는 터치 영역 분할 동작 없이 로봇 이동 속도 가변 동작만을 수행하는 경우에 관한 것이다. FIG. 9 is a view for explaining a robot remote control method according to another embodiment of the present invention, in which only a robot movement speed variable operation is performed without a touch area division operation.

즉, 본 발명은 도9에서와 같이 사용자의 터치 위치에 상관없이 드래그 제스처에 따른 드래그 속도 및 방향과 터치 강도를 검출하고(S2, S11), 검출된 터치 강도를 반영하여 단계 S11을 통해 검출된 드래그 속도를 가변한 후(S12), 가변된 드래그 속도와 드래그 방향에 따라 로봇의 이동 속도 및 방향을 제어할 수 도 있도록 한다(S13).
That is, as shown in FIG. 9, the drag speed and direction according to the drag gesture and the touch strength are detected (S2, S11) regardless of the touch position of the user, and the detected touch intensity is detected After the drag speed is varied (S12), the moving speed and direction of the robot can be controlled according to the variable drag speed and the drag direction (S13).

이와 같이, 본 발명은 사용자 드래그 제스처에 따라 로봇의 움직임을 원격 제어하는 범위내에서 터치 영역 분할 동작과 로봇 이동 속도 가변 동작을 선택적으로 적용하여 사용자의 요구 사항을 보다 다양하게 충족시킬 수 있도록 해준다.
As described above, according to the present invention, the touch region dividing operation and the robot movement speed varying operation can be selectively applied within a range of remotely controlling the movement of the robot according to the user drag gesture, thereby satisfying the user's requirements more variously.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas falling within the scope of the same shall be construed as falling within the scope of the present invention.

또한, 본 발명에 따른 드래그 제스처를 이용한 원격 제어 방법 또는 장치를 구현하기 위한 프로그램은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, CD ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치, 하드 디스크, 플래시 드라이브 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
In addition, the program for implementing the remote control method or apparatus using the drag gesture according to the present invention can be implemented as a computer-readable code on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the recording medium include a ROM, a RAM, a CD ROM, a magnetic tape, a floppy disk, an optical data storage device, a hard disk, a flash drive, and the like, and may be implemented in the form of a carrier wave . The computer-readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner.

Claims (15)

사용자가 원격 제어 장치에 구비된 터치 스크린에 적어도 하나의 손가락을 터치하여 드래그하면, 드래그 속도 및 방향을 검출하는 검출 단계; 및
상기 드래그 속도 및 방향에 따라 원격 이동 수단의 이동 속도 및 방향을 제어하는 제어 단계;를 포함하며, 상기 검출 단계는,
상기 터치 스크린의 전체 터치 영역을 제1 영역과 상기 제1 영역의 외곽을 둘러싸는 제2 영역으로 구분하는 영역 구분 단계;
사용자가 상기 제1 영역에서 드래그 제스처를 발생하고 있으면, 상기 드래그 제스처에 따른 드래그 속도 및 방향을 실시간 검출 및 출력하는 제1 출력 단계; 및
사용자가 상기 제1 영역을 드래그한 후 상기 제2 영역을 터치 홀딩하고 있으면, 상기 제1 영역에서 검출된 드래그 속도 및 방향을 대신 출력하는 제2 출력 단계;를 포함하는 드래그 제스처를 이용한 원격 제어 방법.
A detecting step of detecting drag speed and direction when a user touches and drags at least one finger on a touch screen provided in the remote control device; And
And a control step of controlling the moving speed and direction of the remote moving means according to the drag speed and direction,
An area dividing step of dividing the entire touch area of the touch screen into a first area and a second area surrounding the outer area of the first area;
A first output step of detecting and outputting, in real time, a drag speed and a direction according to the drag gesture when the user is generating a drag gesture in the first area; And
And a second output step of outputting the drag speed and direction detected in the first area instead of dragging the first area after touching the second area after the user has dragged the first area. .
삭제delete 제1항에 있어서, 상기 제2 출력 단계는
상기 제1 영역에서 검출된 드래그 속도 및 방향을 모두 누적 및 평균하여 출력하는 것을 특징으로 하는 드래그 제스처를 이용한 원격 제어 방법.
2. The method of claim 1, wherein the second outputting step
Wherein the dragging speed and the direction detected in the first area are all accumulated and averaged and outputted.
제1항에 있어서, 상기 제2 출력 단계는
상기 제2 영역과의 이격 거리가 기 설정 거리 이내인 상기 제1 영역에서 검출된 드래그 속도 및 방향만을 누적 및 평균하여 출력하는 것을 특징으로 하는 드래그 제스처를 이용한 원격 제어 방법.
2. The method of claim 1, wherein the second outputting step
And the dragging speed and direction detected in the first area, the distance between the first area and the second area being within a predetermined distance, are cumulatively and averaged and outputted.
제1항에 있어서, 상기 제2 출력 단계는
상기 제2 영역을 진입하기 전 기 설정된 시간 동안 상기 제1 영역에서 검출된 드래그 속도 및 방향을 출력하는 것을 특징으로 하는 드래그 제스처를 이용한 원격 제어 방법.
2. The method of claim 1, wherein the second outputting step
And outputting the drag speed and direction detected in the first area for a preset time before entering the second area.
제1항에 있어서, 상기 제1 출력 단계는
사용자의 터치 강도에 따라 상기 드래그 속도를 가변하는 것을 특징으로 하는 드래그 제스처를 이용한 원격 제어 방법.
2. The method of claim 1, wherein the first output step
Wherein the drag speed is varied according to a user's touch strength.
제6항에 있어서, 상기 사용자의 터치 강도는
사용자가 터치 손가락 개수, 손가락 터치 면적, 및 터치 압력 중 적어도 하나에 의해 가변되는 것을 특징으로 하는 드래그 제스처를 이용한 원격 제어 방법.
7. The method of claim 6, wherein the touch intensity of the user is
Wherein the user is varied by at least one of a number of touch fingers, a finger touch area, and a touch pressure.
삭제delete 삭제delete 원격 이동 수단의 제어를 위한 정보 표시 동작과 사용자 제어값 입력 동작을 수행하고, 사용자가 적어도 하나의 손가락을 터치 및 드래그할 수 있는 드래그 제스처 입력 화면을 제공하는 터치 스크린;
사용자가 상기 드래그 제스처 입력 화면을 통해 적어도 하나의 손가락을 터치 및 드래그하면, 드래그 속도 및 방향을 검출하는 드래그 제스처 검출부; 및
상기 드래그 속도 및 방향에 따라 상기 원격 이동 수단의 이동 속도 및 방향을 제어하기 위한 제어 신호를 생성 및 출력하는 원격 이동 수단 제어부;를 포함하며,
상기 드래그 제스처 검출부는,
상기 터치 스크린의 전체 터치 영역을 제1 영역과 상기 제1 영역의 외곽을 둘러싸는 제2 영역으로 구분하고, 사용자가 상기 제1 영역에서 드래그 제스처를 발생하는 경우에는 상기 드래그 제스처에 따른 드래그 속도 및 방향을 실시간 검출 및 출력하되, 사용자가 상기 제1 영역을 드래그한 후 상기 제2 영역을 터치 홀딩하는 경우에는 상기 제1 영역에서 검출된 드래그 속도 및 방향을 대신 출력하는 것을 특징으로 하는 원격 제어 장치.
A touch screen for performing an information display operation and a user control value input operation for controlling the remote moving means and providing a drag gesture input screen by which a user can touch and drag at least one finger;
A drag gesture detection unit for detecting a drag speed and a direction when a user touches and drags at least one finger through the drag gesture input screen; And
And a remote moving means control unit for generating and outputting a control signal for controlling the moving speed and direction of the remote moving means in accordance with the drag speed and direction,
Wherein the drag gesture detection unit comprises:
Wherein the drag gesture is divided into a first area and a second area surrounding the outer area of the first area, and when the user generates a drag gesture in the first area, When the user touches and holds the second area after dragging the first area, outputs the detected drag speed and direction instead of the first area. .
삭제delete 제10항에 있어서, 상기 드래그 제스처 검출부는
사용자의 터치 강도를 추가 검출하고, 상기 터치 강도에 따라 상기 드래그 속도를 조정하는 기능을 더 포함하는 것을 특징으로 하는 원격 제어 장치.
The apparatus of claim 10, wherein the drag gesture detection unit
Further comprising a function of further detecting a user's touch strength and adjusting the drag speed in accordance with the touch strength.
제10항에 있어서, 상기 드래그 제스처 검출부는
사용자의 드래그 속도 및 방향과 터치 강도를 실시간 검출하고, 상기 터치 강도에 따라 상기 드래그 속도를 조정한 후, 상기 조정된 드래그 속도와 상기 드래그 방향을 출력하는 것을 특징으로 하는 원격 제어 장치.
The apparatus of claim 10, wherein the drag gesture detection unit
Wherein the control unit detects in real time the drag speed and direction of the user and the touch intensity and adjusts the drag speed in accordance with the touch intensity and outputs the adjusted drag speed and the drag direction.
제10항에 있어서, 상기 원격 이동 수단은
로봇, 휠체어 중 하나인 것을 특징으로 하는 드래그 제스처를 이용한 원격 제어 장치.
11. The method according to claim 10,
A robot, and a wheelchair.
제10항, 제12 내지 제14항 중 어느 한 항에 기재된 원격 제어 장치를 구현하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for implementing the remote control device according to any one of claims 10, 12, 14,
KR1020120113612A 2012-10-12 2012-10-12 Method for remote controlling using drag gesture and apparatus of the same KR101392679B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120113612A KR101392679B1 (en) 2012-10-12 2012-10-12 Method for remote controlling using drag gesture and apparatus of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120113612A KR101392679B1 (en) 2012-10-12 2012-10-12 Method for remote controlling using drag gesture and apparatus of the same

Publications (2)

Publication Number Publication Date
KR20140048416A KR20140048416A (en) 2014-04-24
KR101392679B1 true KR101392679B1 (en) 2014-05-21

Family

ID=50654427

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120113612A KR101392679B1 (en) 2012-10-12 2012-10-12 Method for remote controlling using drag gesture and apparatus of the same

Country Status (1)

Country Link
KR (1) KR101392679B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220014509A (en) * 2020-07-29 2022-02-07 네이버랩스 주식회사 Remote control method and system for robot

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107305464A (en) * 2016-04-25 2017-10-31 西安中兴新软件有限责任公司 A kind of control method and device based on pressure sensitive
KR20170123907A (en) 2016-04-29 2017-11-09 엘지전자 주식회사 Mobile terminal and method for controlling the same
JP7023621B2 (en) * 2017-06-05 2022-02-22 キヤノン株式会社 Electronic devices and their control methods
WO2021080040A1 (en) * 2019-10-24 2021-04-29 엘지전자 주식회사 Electronic device for controlling input of another electronic device, and method therefor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322262A (en) * 1996-05-27 1997-12-12 Casio Comput Co Ltd Remote communication controller
KR20090011367A (en) * 2007-07-26 2009-02-02 (주)멜파스 Touchscreen apparatus and screen controlling method using touchscreen apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322262A (en) * 1996-05-27 1997-12-12 Casio Comput Co Ltd Remote communication controller
KR20090011367A (en) * 2007-07-26 2009-02-02 (주)멜파스 Touchscreen apparatus and screen controlling method using touchscreen apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220014509A (en) * 2020-07-29 2022-02-07 네이버랩스 주식회사 Remote control method and system for robot
KR102372563B1 (en) * 2020-07-29 2022-03-10 네이버랩스 주식회사 Remote control method and system for robot

Also Published As

Publication number Publication date
KR20140048416A (en) 2014-04-24

Similar Documents

Publication Publication Date Title
KR101392679B1 (en) Method for remote controlling using drag gesture and apparatus of the same
KR102131358B1 (en) User interface device and method of operation of user interface device
US9690377B2 (en) Mobile terminal and method for controlling haptic feedback
JP6275839B2 (en) Remote control device, information processing method and system
CN104246661B (en) Interacted using gesture with device
US20160098154A1 (en) Display apparatus and control method thereof
US20150029402A1 (en) Remote controller, system, and method for controlling remote controller
US20140098049A1 (en) Systems and methods for touch-based input on ultrasound devices
US9858948B2 (en) Electronic equipment with ambient noise sensing input circuitry
CN102262476A (en) Tactile Communication System And Method
JP2015090547A (en) Information input device, information input method, and computer program
WO2013104919A1 (en) Haptic feedback and pressure sensing
CN103261997A (en) Apparatus and method for user input for controlling displayed information
JP6242535B2 (en) Method for obtaining gesture area definition data for a control system based on user input
CN103929603A (en) Image Projection Device, Image Projection System, And Control Method
JP6771087B2 (en) Touch control device and virtual reality system for VR equipment
CN107203322B (en) Touch control type sound equipment key and control method thereof
CN104142736B (en) Video monitoring equipment control method and device
CN105320260A (en) Control method for mobile terminal and mobile terminal
CN104777988B (en) A kind of data processing method and electronic equipment
CN105117148A (en) Smart watch adjustment and control method and smart watch
US11570017B2 (en) Batch information processing apparatus, batch information processing method, and program
WO2018055626A1 (en) Multi-sensing trigger for hand-held device
CN108710430A (en) Suspension control method for electronic equipment and suspension control device
WO2013175341A3 (en) Method and apparatus for controlling multiple devices

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170327

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190402

Year of fee payment: 6