KR20200075707A - Method, server, device and program for control of motion recognition device according to recognition position of gesture - Google Patents

Method, server, device and program for control of motion recognition device according to recognition position of gesture Download PDF

Info

Publication number
KR20200075707A
KR20200075707A KR1020190025055A KR20190025055A KR20200075707A KR 20200075707 A KR20200075707 A KR 20200075707A KR 1020190025055 A KR1020190025055 A KR 1020190025055A KR 20190025055 A KR20190025055 A KR 20190025055A KR 20200075707 A KR20200075707 A KR 20200075707A
Authority
KR
South Korea
Prior art keywords
gesture
subject
recognized
information
lidar
Prior art date
Application number
KR1020190025055A
Other languages
Korean (ko)
Inventor
이탁건
Original Assignee
코어다 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코어다 주식회사 filed Critical 코어다 주식회사
Priority to KR1020190025055A priority Critical patent/KR20200075707A/en
Publication of KR20200075707A publication Critical patent/KR20200075707A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a control method for motion recognition device, wherein a scanning area of a lidar is divided into two or more stages, and a control signal is generated by considering gesture information and stage information of a recognized subject together. The control method includes the steps of: dividing the scanning area of the lidar into two or more stages; receiving gesture information of the subject recognized through the lidar and stage information in which the gesture of the subject is recognized; and generating a corresponding control signal according to the gesture information of the subject and stage information in which the gesture of the subject is recognized.

Description

제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법, 서버, 기기 및 프로그램 {Method, server, device and program for control of motion recognition device according to recognition position of gesture}Method, server, device and program for control of motion recognition device according to recognition position of gesture}

본 발명은 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법에 관한 것이다.The present invention relates to a method of controlling a motion recognition device according to a recognition position of a gesture.

모션 인식 기기는 사물이나 사람의 움직임을 센서를 이용해 디지털로 옮기는 기기를 의미한다. 모션 인식의 방법으로는 기계식, 자기식, 광학식 등으로 분류된다.A motion recognition device means a device that moves objects or people's movements digitally using sensors. Motion recognition is classified into mechanical, magnetic, and optical methods.

한편, 라이다(Light detection and ranging; LiDAR)는 펄스 레이저광을 대기 중에 발사해 그 반사체 또는 산란체를 이용하여 거리 또는 대기현상 등을 측정하는 장치로서, 레이저 레이더라고도 한다. 반사광의 시간측정은 클럭펄스로 계산하며, 그 진동수 30MHz로 5cm, 150MHz로 1m의 분해능을 가져 기존의 카메라나 센서보다 월등한 탐지효율을 보인다.On the other hand, light detection and ranging (LiDAR) is a device that measures the distance or atmospheric phenomena by using a reflector or scattering body to emit pulsed laser light into the atmosphere, and is also called a laser radar. The time measurement of the reflected light is calculated by clock pulse, and its frequency is 5MHz at 30MHz and 1m at 150MHz, so it shows superior detection efficiency than conventional cameras and sensors.

따라서, 모션 인식 기기에 라이다의 원리를 적용하는 경우, 모션의 탐지 효율이 높아져 정밀한 모션 인식이 가능할 것이다.Therefore, when applying the principle of the lidar to the motion recognition device, the detection efficiency of the motion will be increased to enable precise motion recognition.

또한, 라이다의 특성상 센싱된 타겟의 위치를 정확하게 파악할 수 있다는 장점이 있는데, 이를 이용하는 구체적인 시도는 이루어지지 않고 있다.In addition, due to the nature of the lidar, there is an advantage that it is possible to accurately detect the position of the sensed target, but no specific attempt to use it has been made.

이와 같은 기술이 적용될 경우, 동일한 제스쳐라도 다른 위치에서 인식되면 서로 다른 제어신호를 발생시킬 수 있기 때문에 한정된 제스쳐를 통해 보다 다양한 제어신호를 생성할 수 있게 되지만, 이와 관련된 문헌은 현재 공개되어 있지 않은 실정이다.When such a technique is applied, it is possible to generate more control signals through limited gestures because different control signals can be generated when the same gesture is recognized at different locations, but the related documents are not currently published. to be.

상술한 바와 같은 문제점을 해결하기 위한 본 발명은 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하고, 인식되는 피사체의 제스쳐 정보와 스테이지 정보를 함께 고려하여 제어신호를 생성하는, 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법을 제공할 수 있다.The present invention for solving the above-described problem is to divide the scanning area of the lidar into two or more stages, and generate a control signal by considering both the gesture information and the stage information of the recognized object, at the recognition position of the gesture. It can provide a control method of the motion recognition device according to.

또한, 본 발명은 라이다를 통해 스캐닝 인식되는 사용자의 손의 오른손, 왼손 여부를 판단하여 그에 따라 제어신호를 결정하는 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법을 제공할 수 있다.In addition, the present invention can provide a control method of a motion recognition device according to a gesture recognition position that determines whether a right hand or a left hand of a user's hand is recognized through scanning through a lidar and determines a control signal accordingly.

본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법은, 컴퓨터에 의해 수행되는 방법으로, 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하는 단계; 상기 라이다를 통해 인식된 피사체의 제스쳐 정보 및 상기 피사체의 제스쳐가 인식된 스테이지 정보를 수신하는 단계; 및 상기 피사체의 제스쳐 정보와, 상기 피사체의 제스쳐가 인식된 스테이지 정보에 따라 대응되는 제어신호를 생성하는 단계;를 포함한다.A method of controlling a motion recognition device according to a recognition position of a gesture according to an embodiment of the present invention for solving the above-described problem is a method performed by a computer, and divides a scanning area of a lidar into two or more stages step; Receiving gesture information of a subject recognized through the lidar and stage information in which the gesture of the subject is recognized; And generating a control signal corresponding to the gesture information of the subject and stage information in which the gesture of the subject is recognized.

또한, 상기 분할 단계는, 상기 라이다가 설치된 디스플레이 장치를 기준으로 가로 또는 세로로 상기 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하는 것이다.In addition, the dividing step is to divide the scanning area of the lidar into two or more stages horizontally or vertically based on the display device on which the lidar is installed.

또한, 레이저 장치를 통해 상기 분할된 스테이지 간의 경계에 가이드 광을 조사하는 단계;를 더 포함할 수 있다.In addition, the step of irradiating a guide light to the boundary between the divided stages through a laser device; may further include a.

또한, 상기 인식된 피사체의 제스쳐에 할당된 제어신호가 없을 경우, 상기 가이드 광을 점멸하는 단계;를 더 포함할 수 있다.In addition, when there is no control signal assigned to the gesture of the recognized subject, the step of blinking the guide light may further include.

또한, 상기 피사체의 제스쳐가 인식된 위치가 상기 분할된 스테이지의 경계영역인 경우, 상기 피사체의 제스쳐 정보와, 상기 피사체의 제스쳐가 인식된 경계영역에 따라 대응되는 제어신호를 생성하는 단계;를 더 포함할 수 있다.In addition, when the position where the gesture of the subject is recognized is a boundary area of the divided stage, generating a control signal corresponding to the gesture information of the subject and a boundary area in which the gesture of the subject is recognized; It can contain.

또한, 상기 피사체의 제스쳐가 2개 이상의 스테이지를 이동한 것으로 인식된 경우, 상기 피사체의 제스쳐와 상기 제스쳐 수행중에 이동된 스테이지 순서를 고려하여 그에 대응되는 제어신호를 생성하는 단계;를 더 포함할 수 있다.In addition, when it is recognized that the gesture of the subject has moved two or more stages, generating a control signal corresponding to the gesture of the subject and a sequence of stages moved during the gesture execution; have.

또한, 상기 생성 단계는, 상기 인식된 피사체의 제스쳐 정보를 통해 상기 피사체가 사용자의 오른손인지 왼손인지를 판단하는 단계; 및 상기 피사체가 사용자의 오른손인지 왼손인지의 정보, 상기 피사체의 제스쳐 정보, 및 상기 피사체의 제스쳐가 인식된 스테이지 정보에 따라서 제어신호를 생성하는 단계;를 더 포함할 수 있다.In addition, the generating step, determining whether the subject is the user's right or left hand through gesture information of the recognized subject; And generating a control signal according to whether the subject is the right or left hand of the user, gesture information of the subject, and stage information in which the gesture of the subject is recognized.

또한, 상기 생성 단계는, 상기 인식된 피사체가 사용자의 양손인 경우, 상기 피사체의 왼손 제스쳐 정보, 상기 왼손 제스쳐가 인식된 스테이지 정보, 상기 피사체의 오른손 제스쳐 정보, 및 상기 오른손 제스쳐가 인식된 스테이지 정보에 따라서 제어신호를 생성하는 단계;를 더 포함할 수 있다.In addition, in the generating step, when the recognized subject is both hands of the user, left-hand gesture information of the subject, stage information on which the left-hand gesture is recognized, right-hand gesture information on the subject, and stage information on which the right-hand gesture is recognized. According to the step of generating a control signal; may further include.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 서버는, 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하는 영역 분할부; 상기 라이다를 통해 인식된 피사체의 제스쳐 정보 및 상기 피사체의 제스쳐가 인식된 스테이지 정보를 수신하는 수신부; 및 상기 피사체의 제스쳐 정보와, 상기 피사체의 제스쳐가 인식된 스테이지 정보에 따라 대응되는 제어신호를 생성하는 제어부;를 포함한다.The control server of the motion recognition device according to the recognition position of the gesture according to an embodiment of the present invention for solving the above-described problem includes: an area dividing unit for dividing the scanning area of the lidar into two or more stages; A receiver configured to receive gesture information of the subject recognized through the lidar and stage information on which the gesture of the subject is recognized; And a control unit generating a control signal corresponding to the gesture information of the subject and stage information in which the gesture of the subject is recognized.

상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 장치는, 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하는 영역 분할부; 상기 라이다를 통해 인식된 피사체의 제스쳐 정보 및 상기 피사체의 제스쳐가 인식된 스테이지 정보를 수신하는 수신부; 및 상기 피사체의 제스쳐 정보와, 상기 피사체의 제스쳐가 인식된 스테이지 정보에 따라 대응되는 제어신호를 생성하는 제어부;를 포함한다.The apparatus for controlling a motion recognition device according to a gesture recognition position according to an embodiment of the present invention for solving the above-described problem includes: an area divider for dividing a scanning area of a lidar into two or more stages; A receiver configured to receive gesture information of the subject recognized through the lidar and stage information on which the gesture of the subject is recognized; And a control unit generating a control signal corresponding to the gesture information of the subject and stage information in which the gesture of the subject is recognized.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system, and a computer-readable recording medium for recording a computer program for executing the method may be further provided.

상기와 같은 본 발명에 따르면, 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하고, 인식되는 피사체의 제스쳐 정보와 스테이지 정보를 함께 고려하여 제어신호를 생성하기 때문에, 적은 수의 제스쳐 정보로도 다양한 제어신호를 생성할 수 있다는 장점이 있다.According to the present invention as described above, since the scanning area of the lidar is divided into two or more stages, and a control signal is generated in consideration of the gesture information and the stage information of the recognized object, a small number of gesture information can be used. There is an advantage that a control signal can be generated.

또한, 본 발명은 위의 효과와 함께 사용자의 손의 오른손, 왼손 여부를 결정하여 제어신호를 결정하기 때문에, 더 다양한 제어신호를 생성할 수 있다는 장점이 있다.In addition, the present invention has the advantage of being able to generate more various control signals because the control signal is determined by determining whether the user's hand is the right hand or the left hand with the above effects.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법의 흐름도이다.
도 2는 라이다의 스캐닝 영역을 두 개의 스테이지로 분할한 것을 예시한 도면이다.
도 3은 레이저 장치가 스테이지 간의 경계에 가이드 광을 조사하는 것을 예시한 도면이다.
도 4는 피사체의 제스쳐가 스테이지의 경계에서 인식된 것을 예시한 도면이다.
도 5는 피사체의 제스쳐가 제1스테이지에서 제2스테이지로 이동된 것을 예시한 도면이다.
도 6은 라이다를 통해 인식된 피사체가 사용자의 왼손인 경우를 예시한 도면이다.
도 7은 라이다를 통해 인식된 피사체가 사용자의 양손인 경우를 예시한 도면이다.
도 8은 라이다를 통해 인식된 피사체의 거리에 따라 서로 다른 제어신호가 생성되는 것을 예시한 도면이다.
도 9는 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 서버의 블록도이다.
도 10은 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 장치의 블록도이다.
1 is a flowchart of a method of controlling a motion recognition device according to a recognition position of a gesture according to an embodiment of the present invention.
2 is a view illustrating that the scanning area of the lidar is divided into two stages.
3 is a diagram illustrating that a laser device irradiates guide light to a boundary between stages.
4 is a diagram illustrating that the gesture of the subject is recognized at the boundary of the stage.
5 is a diagram illustrating that the gesture of the subject is moved from the first stage to the second stage.
6 is a diagram illustrating a case in which the subject recognized through the lidar is the left hand of the user.
7 is a diagram illustrating a case in which the subject recognized through the lidar is both hands of the user.
8 is a diagram illustrating that different control signals are generated according to the distance of the subject recognized through the lidar.
9 is a block diagram of a control server of a motion recognition device according to a recognition position of a gesture according to an embodiment of the present invention.
10 is a block diagram of a control apparatus of a motion recognition device according to a recognition position of a gesture according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the embodiments allow the disclosure of the present invention to be complete, and are common in the technical field to which the present invention pertains. It is provided to fully inform the skilled person of the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components other than the components mentioned. Throughout the specification, the same reference numerals refer to the same components, and “and/or” includes each and every combination of one or more of the components mentioned. Although "first", "second", etc. are used to describe various components, it goes without saying that these components are not limited by these terms. These terms are only used to distinguish one component from another component. Therefore, it goes without saying that the first component mentioned below may be the second component within the technical spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings commonly understood by those skilled in the art to which the present invention pertains. In addition, terms defined in the commonly used dictionary are not ideally or excessively interpreted unless explicitly defined.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

설명에 앞서 본 명세서에서 사용하는 용어의 의미를 간략히 설명한다. 그렇지만 용어의 설명은 본 명세서의 이해를 돕기 위한 것이므로, 명시적으로 본 발명을 한정하는 사항으로 기재하지 않은 경우에 본 발명의 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.Prior to description, the meaning of terms used in the present specification will be briefly described. However, it should be noted that the description of terms is intended to aid understanding of the present specification, and is not used to limit the technical spirit of the present invention unless explicitly described as a limiting matter of the present invention.

모션 인식 기기(20)는 피사체의 거리, 좌표를 획득하여 피사체의 모션을 인식할 수 있다.The motion recognition device 20 may recognize the motion of the subject by obtaining the distance and coordinates of the subject.

본 발명의 모션 인식 기기(20)로서 다양한 종래의 기술이 이용될 수 있다. 다만, 본 발명의 모션 인식 기기(20)로서 라이다를 이용하는 것이 바람직할 수 있다.Various conventional techniques can be used as the motion recognition device 20 of the present invention. However, it may be preferable to use a lidar as the motion recognition device 20 of the present invention.

라이다(Light detection and ranging; LiDAR)는 레이저와 같은 광원을 이용하며, 피사체에서 반사된 뒤 센서로 돌아오기까지의 시간을 측정하여 피사체의 거리, 좌표를 획득할 수 있다.Light detection and ranging (LiDAR) uses a light source, such as a laser, and measures the time from reflecting off the subject to returning to the sensor to obtain the distance and coordinates of the subject.

한편, 본 발명의 모션 인식 기기(20)로서 일반적인 비레이저광을 출사할 수 있다. 본 발명의 모션 인식 기기(20)는 근거리 피사체의 거리, 좌표를 획득하는 용도로 많이 사용되기 때문에, 광밀도가 높은 레이저대신 일반 LED(Light emitting diode)를 이용하여도 근거리 영역의 스캐닝에 문제가 없으며 오히려 레이저광보다 정밀한 트래킹이 가능하기 때문이다.On the other hand, as the motion recognition device 20 of the present invention, general non-laser light can be emitted. Since the motion recognition device 20 of the present invention is frequently used for obtaining a distance and coordinates of a short-distance object, even when a general light emitting diode (LED) is used instead of a laser having a high light density, there is a problem in scanning a short-distance area. This is because it is possible to perform precise tracking rather than laser light.

또한, 본 발명의 실시예에 따른 모션 인식 기기(20)는 광원으로 LED뿐만 아니라, VCSEL 또는 레이저를 적용하여 트래킹을 수행할 수도 있다.In addition, the motion recognition device 20 according to an embodiment of the present invention may perform tracking by applying a VCSEL or a laser as well as an LED as a light source.

대표적인 예로, 터치 패널이 구비되어 있지 않은 모니터, TV와 같은 디스플레이 장치에 모션 인식 기기(20)를 설치하여, 해당 모니터, TV에 터치 기능이 삽입된 것과 같은 효과가 발휘되도록 하는 것이 있다.As a typical example, a motion recognition device 20 is installed on a display device such as a monitor or a TV without a touch panel, so that an effect such as a touch function is inserted into the corresponding monitor or TV is exerted.

도 1은 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법의 흐름도이고, 도 2 내지 도 9은 도 1의 설명을 돕기 위한 도면으로, 본 발명의 실시예에 따른 다양한 상황이 예시되어 있다.1 is a flowchart of a method of controlling a motion recognition device according to a recognition position of a gesture according to an embodiment of the present invention, and FIGS. 2 to 9 are views for helping the description of FIG. 1, and various according to embodiments of the present invention The situation is illustrated.

이하, 도 1 내지 도 9를 참조하여, 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법에 대해서 설명하도록 한다.Hereinafter, a method of controlling a motion recognition device according to a recognition position of a gesture according to an embodiment of the present invention will be described with reference to FIGS. 1 to 9.

본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법의 주체는 컴퓨터로, 서버(100)가 될 수도 있고 제어 장치(10)가 될 수도 있다.The subject of the method of controlling the motion recognition device according to the recognition position of the gesture according to the embodiment of the present invention is a computer, and may be the server 100 or the control device 10.

먼저, 영역 분할부(110)가 라이다(20)의 스캐닝 영역을 두 개 이상의 스테이지로 분할한다. (S500단계)First, the region dividing unit 110 divides the scanning region of the lidar 20 into two or more stages. (Step S500)

보다 상세하게는, 영역 분할부(110)는 라이다(20)가 설치된 디스플레이 장치(600)를 기준으로 가로 또는 세로로, 라이다(20)의 스캐닝 영역을 두 개 이상의 스테이지로 분할한다.More specifically, the region dividing unit 110 divides the scanning region of the lidar 20 into two or more stages horizontally or vertically based on the display device 600 on which the lidar 20 is installed.

도 2는 라이다(20)의 스캐닝 영역을 두 개의 스테이지로 분할한 것을 예시한 도면이다.2 is a view illustrating that the scanning area of the lidar 20 is divided into two stages.

간단한 예시로, 도 2와 같이 영역 분할부(110)는 라이다(20)로부터 직교 방향, 즉 디스플레이 장치(600)를 세로 기준으로 하여 양 옆으로 라이다(20)의 스캐닝 영역을 두 개로 분할할 수 있다.As a simple example, as shown in FIG. 2, the region dividing unit 110 divides the scanning regions of the lidar 20 into two sides from the lidar 20 in an orthogonal direction, that is, with respect to the display device 600 as a vertical reference. can do.

물론, 영역 분할부(110)는 스캐닝 영역을 3개 또는 그 이상으로 분할할 수도 있고, 디스플레이 장치(600)를 가로 기준으로 하여 위 아래로 분할할 수도 있으며, 대각선 방향으로 분할할 수도 있다.Of course, the area dividing unit 110 may divide the scanning area into three or more, or the display device 600 may be divided up and down based on a horizontal basis, or in a diagonal direction.

본 발명의 실시예에서는 사용자가 사용하기 제일 쉽다는 면과 설명의 편의를 고려하여 도 2와 같이 양옆 2개로 분할한 것으로 예시하도록 한다.In the embodiment of the present invention, it will be exemplified as being divided into two sides as shown in FIG. 2 in consideration of the convenience of the user and convenience of description.

도 2와 같이 S500단계에서 영역 분할부(110)가 라이다(20)의 스캐닝 영역을 상기 라이다(20)가 설치된 디스플레이 장치(600)를 기준으로 세로로 라이다(20)의 스캐닝 영역을 제1스테이지 및 제2스테이지로 분할하였다.As shown in FIG. 2, in step S500, the region dividing unit 110 vertically scans the scanning region of the rider 20 with the scanning region of the rider 20 vertically based on the display device 600 on which the rider 20 is installed. It was divided into a first stage and a second stage.

또한, S500단계는, 레이저 장치를 통해 상기 분할된 스테이지 간의 경계에 가이드광을 조사하는 단계를 더 포함할 수 있다.In addition, step S500 may further include irradiating a guide light to the boundary between the divided stages through a laser device.

도 3은 레이저 장치가 스테이지 간의 경계에 가이드 광을 조사하는 것을 예시한 도면이다.3 is a diagram illustrating that a laser device irradiates guide light to a boundary between stages.

영역 분할이 익숙하지 않은 사용자의 경우에는 경계선이 어디인지 정확히 알지 못하는 경우가 있을 수 있다. 따라서, 도 3과 같이 레이저 장치를 통해 디스플레이 장치(600)와 평행하게 가이드광을 조사함으로써, 사용자에게 스테이지 경계를 알려줄 수 있다.Users who are unfamiliar with segmentation may not know exactly where the boundary line is. Accordingly, by guiding the guide light in parallel with the display device 600 through the laser device as shown in FIG. 3, the user can inform the stage boundary.

또한, 레이저 장치는 라이다(20)와 함께 구비되어 도 3과 같이 가이드광을 조사할 수도 있고, 별개로 구비되어 디스플레이 장치(600)에 설치될 수도 있다.In addition, the laser device may be provided with the lidar 20 to irradiate guide light as shown in FIG. 3, or may be separately provided and installed in the display device 600.

예를 들어, 라이다(20)가 도 3과 같이 디스플레이 장치(600)의 상단 중앙에 설치된 반면, 스테이지는 상, 하로 구분된 경우에는 레이저 장치가 디스플레이 장치(600)의 측면 중앙에 설치되어 가로 방향으로 가이드광을 조사하도록 한다.For example, while the lidar 20 is installed at the upper center of the display device 600 as shown in FIG. 3, when the stage is divided into upper and lower, the laser device is installed at the center of the side of the display device 600 to horizontally Guide light is directed in the direction.

S500단계 다음으로, 수신부(150)가, 라이다(20)가 인식한 피사체의 제스쳐 정보 및 피사체의 제스쳐가 인식된 스테이지 정보를 수신한다. (S520단계)Next to step S500, the reception unit 150 receives gesture information of the subject recognized by the lidar 20 and stage information in which the gesture of the subject is recognized. (Step S520)

보다 상세하게는, 수신부(150)가 라이다(20)를 통해 인식된 피사체의 제스쳐에 대한 정보와 피사체가 인식된 스테이지에 대한 정보를 수신하는 것을 의미한다.More specifically, it means that the receiving unit 150 receives information on the gesture of the subject recognized through the lidar 20 and information on the stage on which the subject is recognized.

도 3을 참조하면, 수신부(150)가 피사체의 제스쳐 정보로 사용자의 두번째 손가락이 펼쳐져 있는 제스쳐 정보를 수신하였다.Referring to FIG. 3, the receiving unit 150 receives gesture information in which a user's second finger is spread as gesture information of a subject.

그리고, 사용자가 제1스테이지에서 제스쳐를 취했기 때문에, 수신부(150)는 해당 제스쳐가 제1스테이지에서 입력되었다는 정보를 수신하게 된다.In addition, since the user took a gesture at the first stage, the receiver 150 receives information indicating that the corresponding gesture was input at the first stage.

S520단계 다음으로, 제어부(130)가 피사체의 제스쳐와, 피사체가 인식된 스테이지에 따라 대응되는 제어신호를 생성한다. (S540단계)Next, in step S520, the controller 130 generates a control signal corresponding to a gesture of the subject and a stage in which the subject is recognized. (Step S540)

도 3을 참조하여 예를 들면, 제어부(130)는 사용자의 두번째 손가락이 펼쳐져 있는 제스쳐 정보와 제1스테이지 정보를 함께 매칭하여 제어신호를 결정하게 된다.Referring to FIG. 3, for example, the control unit 130 determines a control signal by matching the gesture information on which the user's second finger is spread and the first stage information together.

만약, 사용자가 디스플레이 장치(600)의 우측, 즉 제2스테이지에서 제스쳐를 취했다면, 제어부(130)는 위와 다른 제어신호가 생성하게 된다.If the user takes a gesture on the right side of the display device 600, that is, the second stage, the control unit 130 generates a control signal different from the above.

예를 들어, 두번째 손가락을 펼치는 제스쳐가 디스플레이 장치(600)로 출력되고 있는 프레젠테이션의 페이지 제어이고, 제1스테이지에 제스쳐가 입력되면 이전 페이지로 이동, 제2스테이지에 제스쳐가 입력되면 다음 페이지로 이동과 같이 제어신호가 구분될 수 있다.For example, the gesture of spreading the second finger is the page control of the presentation being output to the display device 600, and when a gesture is input to the first stage, it moves to the previous page, and when a gesture is input to the second stage, it moves to the next page. As described above, the control signal can be distinguished.

이와 같이, 제어부(130)는 제스쳐 정보와 스테이지 정보를 함께 고려하여 그에 대응되는 제어신호를 생성하고, 디스플레이 장치(600) 또는 디스플레이 장치(600)를 출력하고 있는 컴퓨터 등으로 제어신호를 전송하게 된다.As described above, the control unit 130 considers the gesture information and the stage information together, generates a control signal corresponding thereto, and transmits the control signal to the display device 600 or a computer outputting the display device 600. .

일 실시예로, 제어부(130)는 라이다(20)를 통해 인식된 피사체의 제스쳐에 할당된 제어신호가 없을 경우, 가이드광을 점멸하는 단계를 더 포함할 수 있다.In one embodiment, the control unit 130 may further include a step of flashing the guide light when there is no control signal allocated to the gesture of the subject recognized through the lidar 20.

보다 상세하게는, 제어부(130)는 사용자로부터 반복적으로 동일한 제스쳐가 입력되고, 해당 제스쳐에 할당된 제어신호가 없을 경우, 사용자가 제스쳐를 착각하고 있는 것이라고 판단하고 가이드광을 점멸하도록 한다.More specifically, when the same gesture is repeatedly input from the user and there is no control signal allocated to the gesture, the controller 130 determines that the user is mistaken for the gesture and causes the guide light to flash.

도 4는 피사체의 제스쳐가 스테이지의 경계에서 인식된 것을 예시한 도면이다.4 is a diagram illustrating that the gesture of the subject is recognized at the boundary of the stage.

도 4를 참조하면 일 실시예로, 제어부(130)가, 피사체의 제스쳐가 인식된 위치가 상기 분할된 스테이지의 경계영역인 경우, 피사체의 제스쳐와, 피사체의 제스쳐가 인식된 경계영역에 따라 대응되는 제어신호를 생성하는 단계를 더 포함할 수 있다.Referring to FIG. 4, according to an embodiment, when the position where the gesture of the subject is recognized is the boundary area of the divided stage, the controller 130 responds according to the boundary area in which the gesture of the subject and the gesture of the subject are recognized. It may further include the step of generating a control signal.

예를 들어, 위에서 예시한 것과 같이 두번째 손가락을 펼치는 제스쳐가 디스플레이 장치(600)로 출력되고 있는 프레젠테이션의 페이지 제어이고, 제1스테이지에 제스쳐가 입력되면 이전 페이지로 이동, 제2스테이지에 제스쳐가 입력되면 다음 페이지로 이동과 같이 제어신호가 구분될 수 있다.For example, as illustrated above, the gesture of spreading the second finger is the page control of the presentation being output to the display device 600, and when the gesture is input to the first stage, it moves to the previous page, and the gesture is input to the second stage. If it is, the control signal can be classified as moving to the next page.

그리고, 제어부(130)는 제1스테이지와 제2스테이지의 경계에 제스쳐가 입력되면 프레젠테이션의 자동재생을 동작 또는 정지하는 제어신호를 생성할 수 있다.In addition, when a gesture is input at a boundary between the first stage and the second stage, the controller 130 may generate a control signal for operating or stopping the automatic playback of the presentation.

이때, 경계선의 영역은 기 설정된 소정의 폭을 가질 수 있으며, 확장된 실시예로 라이다(20)에 레이저 장치가 2개 마련되어 2개의 레이저 장치가 가이드광을 조사하여 좌측은 제1스테이지, 우측은 제2스테이지, 그리고 2개의 가이드광 사이는 경계영역으로 구분될 수 있다.At this time, the area of the boundary line may have a predetermined predetermined width, and in the expanded embodiment, two laser devices are provided on the lidar 20, and two laser devices irradiate guide light, so that the left side is the first stage and the right side. May be divided into a second stage and a boundary area between the two guide lights.

도 5는 피사체의 제스쳐가 제1스테이지에서 제2스테이지로 이동된 것을 예시한 도면이다.5 is a diagram illustrating that the gesture of the subject is moved from the first stage to the second stage.

도 5를 참조하면, 일 실시예로 피사체의 제스쳐가 2개 이상의 스테이지를 이동한 것으로 인식된 경우, 제어부(130)가 피사체의 제스쳐와 제스쳐 수행중에 이동된 스테이지의 순서를 고려하여 그에 대응되는 제어신호를 생성하는 단계를 더 포함할수 있다.Referring to FIG. 5, in one embodiment, when it is recognized that a gesture of an object moves two or more stages, the control unit 130 considers the sequence of the gesture and the stage moved during the gesture execution, and controls corresponding thereto. The method may further include generating a signal.

예를 들어, 도 5와 같이 사용자가 두번째 손가락이 펼쳐져 있는 제스쳐를 입력하되, 제1스테이지에서 제2스테이지로 이동하며 제스쳐를 입력한 경우, 제어부(130)가 위와 다르게 또 다른 제어신호를 생성하는 것을 의미한다.For example, as illustrated in FIG. 5, when the user inputs a gesture in which the second finger is spread, but moves from the first stage to the second stage and inputs the gesture, the controller 130 generates a different control signal differently from the above. Means

보다 상세하게는, 디스플레이 장치(600)로 출력되고 있는 프레젠테이션에 대한 제어인 경우, 도 5와 같은 제스쳐가 제1스테이지에서 제2스테이지로 이동하는 것으로 인식되면, 제어부(130)가 프레젠테이션의 페이지를 2페이지 다음으로 넘기는 제어신호가 생성할 수 있다.More specifically, when it is recognized that the gesture shown in FIG. 5 moves from the first stage to the second stage in the case of control of the presentation being output to the display device 600, the controller 130 displays the page of the presentation. A control signal that turns to the next 2 pages can be generated.

이와 반대로, 도 5와 같은 제스쳐가 제2스테이지에서 제1스테이지로 이동하는 것으로 인식되면, 제어부(130)가 프레젠테이션의 페이지를 2페이지 이전으로 넘기는 제어신호를 생성할 수 있다.Conversely, when it is recognized that the gesture shown in FIG. 5 moves from the second stage to the first stage, the control unit 130 may generate a control signal for turning the page of the presentation to two pages or more.

또한, 위에서는 2개의 스테이지에 대해서만 예시했을 뿐, 3개 혹은 4개의 스테이지에서도 적용될 수 있다.Also, only the two stages are exemplified above, and can be applied to three or four stages.

예를 들어, 제어부(130)는, 사용자의 제스쳐가 제1스테이지, 제2스테이지, 제3스테이지의 순서로 이동되었다면 또 다른 제어신호를 생성할 수 있고, 이와 다르게 제1스테이지, 제3스테이지, 제2스테이지의 순서로 이동되었다면 이와 또 다른 제어신호를 생성할 수 있다.For example, the controller 130 may generate another control signal if the user's gesture is moved in the order of the first stage, the second stage, and the third stage. Alternatively, the first stage, the third stage, If it is moved in the order of the second stage, another control signal can be generated.

도 6은 라이다(20)를 통해 인식된 피사체가 사용자의 왼손인 경우를 예시한 도면이다.6 is a diagram illustrating a case in which the subject recognized through the lidar 20 is the left hand of the user.

도 6을 참조하면, 일 실시예로 S520단계는, 제어부(130)가 인식된 피사체의 제스쳐 정보를 통해 피사체가 사용자의 오른손인지 왼손인지를 판단하는 단계와, 제어부(130)가 피사체가 사용자의 오른손인지 왼손인지의 정보, 피사체의 제스쳐 정보, 및 피사체의 제스쳐가 인식된 스테이지 정보에 따라서 제어신호를 생성하는 단계를 더 포함할 수 있다.Referring to FIG. 6, in step S520, in one embodiment, the controller 130 determines whether the subject is the user's right or left hand through gesture information of the recognized subject, and the controller 130 determines whether the subject is the user's The method may further include generating a control signal according to whether the information is a right hand or a left hand, gesture information of the subject, and stage information on which the gesture of the subject is recognized.

예를 들어, 도 6은 도 3과 동일한 제스쳐 정보가 입력되고 있지만, 도 3은 사용자의 오른손을 통해 제스쳐 정보가 입력되고 있고, 도 6은 사용자의 왼손을 통해 제스쳐 정보가 입력되고 있다.For example, in FIG. 6, the same gesture information as in FIG. 3 is input, but in FIG. 3, gesture information is input through the user's right hand, and in FIG. 6, gesture information is input through the user's left hand.

이와 같이, 오른손, 왼손에 따라서 제어신호가 또 다시 구분되기 때문에, 더욱 다양한 제어신호를 적용할 수 있다는 장점이 있다.As described above, since the control signal is further classified according to the right hand and the left hand, there is an advantage that more various control signals can be applied.

그리고, 피사체 정보를 통해 사용자의 오른손, 왼손 여부를 판단하는 것은 라이다(20)를 통해 스캐닝된 피사체 정보에서 사용자의 손가락의 모양, 손가락이 접힌 모양, 손으로부터 연장된 팔의 각도 등을 이용하여 판단할 수 있다.Further, it is determined whether the user's right hand or left hand is based on the object information, using the shape of the user's finger, the shape of the finger folded, the angle of the arm extended from the hand, etc. in the object information scanned through the liar 20. I can judge.

도 7은 라이다(20)를 통해 인식된 피사체가 사용자의 양손인 경우를 예시한 도면이다.7 is a diagram illustrating a case in which the subject recognized through the lidar 20 is both hands of the user.

도 7을 참조하면, 일 실시예로 제어부(130)가 상기 인식된 피사체가 사용자의 양손인 것으로 판단되는 경우, 피사체의 왼손 제스쳐 정보, 왼손 제스쳐가 인식된 스테이지 정보, 피사체의 오른손 제스쳐 정보, 및 오른손 제스쳐가 인식된 스테이지 정보에 따라서 제어신호를 생성하는 단계를 더 포함할 수 있다.Referring to FIG. 7, in one embodiment, when the controller 130 determines that the recognized subject is both hands of the user, left-hand gesture information of the subject, stage information of the left-hand gesture recognition, right-hand gesture information of the subject, and The right hand gesture may further include generating a control signal according to the recognized stage information.

보다 상세하게 예시하면, 사용자가 왼손으로 제1스테이지에 제1제스쳐를 입력하고, 오른손으로 제2스테이지에 제1제스쳐를 입력하면, 제1제어신호가 생성될 수 있다.In more detail, when the user inputs the first gesture to the first stage with the left hand and the first gesture to the second stage with the right hand, the first control signal may be generated.

그리고, 사용자가 왼손으로 제1스테이지에 제2제스쳐를 입력하고, 오른손으로 제2스테이지에 제1제스쳐를 입력하면, 제2제어신호가 생성될 수 있다.Then, when the user inputs the second gesture to the first stage with the left hand and the first gesture to the second stage with the right hand, a second control signal may be generated.

그리고, 사용자가 왼손으로 제1스테이지에 제1제스쳐를 입력하고, 오른손으로 제2스테이지에 제2제스쳐를 입력하면, 제3제어신호가 생성될 수 있다.Then, when the user inputs the first gesture to the first stage with the left hand and the second gesture to the second stage with the right hand, a third control signal may be generated.

그리고, 사용자가 왼손으로 제1스테이지에 제2제스쳐를 입력하고, 오른손으로 제2스테이지에 제2제스쳐를 입력하면, 제4제어신호가 생성될 수 있다.Then, when the user inputs the second gesture to the first stage with the left hand and the second gesture to the second stage with the right hand, a fourth control signal may be generated.

위와 같이, 단 두종류의 제스쳐만으로도 4 종류의 제어신호를 입력할 수 있기 때문에 한정적인 제스쳐를 사용하더라도 다양한 제어신호를 생성하여 대상물을 제어할 수 있게 된다.As described above, since only four types of control signals can be input with only two types of gestures, it is possible to control various objects by generating various control signals even if a limited gesture is used.

또한, 분할된 스테이지가 많을 수록, 제스쳐의 종류가 많을 수록 훨씬 많은 종류의 제어신호를 생성할 수 있게 된다.In addition, the more divided stages, the more types of gestures, the more control signals can be generated.

도 8은 라이다(20)를 통해 인식된 피사체의 거리에 따라 서로 다른 제어신호가 생성되는 것을 예시한 도면이다.8 is a diagram illustrating that different control signals are generated according to the distance of a subject recognized through the lidar 20.

도 8을 참조하면, 일 실시예로 제어부(130)가 피사체의 제스쳐 정보를 통해 피사체의 크기정보를 추출하는 단계, 피사체의 크기정보를 통해 라이다(20)와 피사체 간의 수직거리를 산출하는 단계 및 피사체의 제스쳐, 피사체의 제스쳐가 인식된 스테이지, 라이다(20)와 피사체 간의 수직거리에 따라서 제어신호를 생성하는 단계를 더 포함할 수 있다.Referring to FIG. 8, in one embodiment, the control unit 130 extracts the size information of the subject through gesture information of the subject, and calculates the vertical distance between the lidar 20 and the subject through the size information of the subject. And generating a control signal according to a gesture of the subject, a stage in which the gesture of the subject is recognized, and a vertical distance between the lidar 20 and the subject.

위에서 도 2 내지 도 7을 통해 제1스테이지, 제2스테이지로 좌우로 분할된 것을 설명하였다.2 to 7 above, the first and second stages were divided into left and right sides.

이때, 피사체와 라이다(20)의 거리에 따라서도 제어신호를 다르게 할 수 있는 것을 예시하고 있다.At this time, it is exemplified that the control signal may be different depending on the distance between the subject and the lidar 20.

도 8과 같이 제1위치(410)에서 제1제스쳐 정보가 입력되는 것과 제2위치(420)에서 제1제스쳐 정보가 입력되는 것은, 동일한 제스쳐 정보이지만 피사체와 라이다(20)와의 거리가 다르기 때문에 서로 다른 제어신호가 생성된다.8, the first gesture information is input at the first position 410 and the first gesture information at the second position 420 is the same gesture information, but the distance between the subject and the liar 20 is different. Therefore, different control signals are generated.

또한, 추출 단계는, 산출부(170)가 라이다(20)를 통해 인식된 피사체의 정보를 통해 피사체의 실제크기를 산출하는 단계를 더 포함할 수 있다.In addition, the extraction step may further include a step of calculating the actual size of the subject through the information of the subject recognized by the calculator 170 through the lidar 20.

그리고, 수직거리 산출 단계는, 산출부(170)가 라이다(20)를 통해 인식된 피사체의 크기정보와 피사체의 실제크기 정보를 통해 라이다(20)와 피사체 간의 수직거리를 산출할 수 있다.In addition, in the vertical distance calculation step, the calculator 170 may calculate the vertical distance between the lidar 20 and the subject through the size information of the subject recognized through the lidar 20 and the actual size information of the subject. .

이를 통해서, 산출부(170)가 피사체(사용자의 손)의 실제크기를 산출하고, 라이다(20)를 통해 스캐닝되는 피사체(사용자의 손)의 크기정보와 실제크기 정보를 비교하여 라이다(20)와 피사체 간의 수직거리를 산출할 수 있다.Through this, the calculation unit 170 calculates the actual size of the subject (the user's hand) and compares the size information of the subject (the user's hand) and the actual size information scanned through the lidar 20 to the lidar ( 20) and the vertical distance between the subject can be calculated.

이때, 디스플레이 장치(600) 상의 위치를 기준으로 산출해야 하기 때문에, 라이다(20)와 피사체의 직선거리를 이용하지 않고 수직거리를 이용하여, 디스플레이 장치(600) 상의 피사체 위치를 산출할 수 있게 된다.In this case, since the position on the display device 600 needs to be calculated as a reference, the object position on the display device 600 can be calculated using the vertical distance without using the linear distance between the lidar 20 and the subject. do.

일 실시예로, 제어부(130)가 라이다(20)를 통해 스캐닝되는 대상에서 피사체를 추출하여 특정하는 하는 단계와, 제어부(130)가 라이다(20)를 통해 스캐닝된 대상에서 상기 특정된 피사체를 추적하여 피사체의 크기가 가변하는 것을 보정하는 단계를 더 포함할 수 있다.In one embodiment, the control unit 130 extracts and specifies the subject from the object scanned through the lidar 20, and the control unit 130 specifies the specified object from the object scanned through the lidar 20. The method may further include correcting that the size of the subject varies by tracking the subject.

보다 상세하게는, 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법은 라이다의 스캐닝 영역에서 피사체를 특정하여 인식하고, 피사체가 특정되면 라이다와 피사체의 거리에 따라서 피사체의 크기가 가변하는 것을 보정하여 피사체를 특정할 수 있다.More specifically, the control method of the motion recognition device according to the recognition position of the gesture according to the embodiment of the present invention recognizes and recognizes an object in the scanning area of the lidar, and if the object is specified, according to the distance between the lidar and the object The subject can be identified by correcting that the size of the subject is variable.

예를 들어, 사용자가 오른손을 이용하여 제스쳐를 취할 경우 제어부(130)가 사용자의 오른손을 피사체로 특정하고, 라이다를 통해 스캐닝되는 데이터에서 특정된 피사체인 오른손을 추적하여 제스쳐를 인식하고, 라이다와 오른손의 거리에 따라 변화하는 오른손의 크기를 보정한다.For example, when the user takes a gesture using the right hand, the controller 130 identifies the user's right hand as the subject, recognizes the gesture by tracking the right hand as the specified subject from the data scanned through the lidar, and Correct the size of the right hand, which changes according to the distance between Ida and the right hand.

또한, 제어부(130)는 사용자의 오른손이 피사체로 특정되었기 때문에, 발, 머리 등과 같이 오른손이 아닌 다른 신체 혹은 다른 물체가 인식되더라도 대상이 피사체가 아님을 인식할 수 있다.In addition, since the user's right hand is specified as a subject, the controller 130 may recognize that the target is not a subject even if a body or other object other than the right hand is recognized, such as a foot or a head.

따라서, 위와 같이 제어부(130)에서 피사체를 인식하여 주기 때문에, 인식에 오류가 발생하지 않아 사용자에게 움직임의 자율성을 보장할 수 있다.Therefore, since the subject is recognized by the controller 130 as described above, since no error occurs in recognition, it is possible to guarantee the autonomy of movement to the user.

도 9는 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 서버(100)의 블록도이다.9 is a block diagram of a control server 100 of a motion recognition device according to a recognition position of a gesture according to an embodiment of the present invention.

도 9를 참조하면, 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 서버(100)는 영역 분할부(110), 제어부(130), 수신부(150) 및 산출부(170)를 포함한다.Referring to FIG. 9, the control server 100 of the motion recognition device according to the recognition position of the gesture according to the embodiment of the present invention includes an area division unit 110, a control unit 130, a reception unit 150, and a calculation unit 170 ).

다만, 몇몇 실시예에서 서버(100)는 도 9에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수도 있다.However, in some embodiments, the server 100 may include fewer components or more components than the components illustrated in FIG. 9.

본 발명의 주체가 서버(100)가 되는 경우, 서버(100)가 라이다(20)로부터 피사체의 제스쳐 정보, 스테이지 정보를 수신하고 각종 산출, 제어 동작은 서버(100)에서 수행하기 때문에 라이다(20)의 크기를 최소화할 수 있다는 이점이 있다.When the subject of the present invention becomes the server 100, the server 100 receives the gesture information and the stage information of the subject from the lidar 20, and various calculation and control operations are performed by the server 100. There is an advantage that the size of (20) can be minimized.

영역 분할부(110)는 라이다(20)의 스캐닝 영역을 두 개 이상의 스테이지로 분할한다.The region dividing unit 110 divides the scanning region of the lidar 20 into two or more stages.

수신부(150)는 라이다(20)를 통해 인식된 피사체의 제스쳐 정보 및 피사체의 제스쳐가 인식된 스테이지 정보를 수신한다.The receiver 150 receives gesture information of the subject recognized through the lidar 20 and stage information in which the gesture of the subject is recognized.

제어부(130)는 피사체의 제스쳐 정보와, 피사체의 제스쳐가 인식된 스테이지 정보에 따라 대응되는 제어신호를 생성한다.The control unit 130 generates a control signal corresponding to the gesture information of the subject and stage information in which the gesture of the subject is recognized.

그리고, 제어부(130)는 생성된 제어신호를 서버(100)와 연결되어 있는 장치, 컴퓨터로 전송하여 대상체를 제어할 수 있게 된다.In addition, the control unit 130 may control the object by transmitting the generated control signal to a device connected to the server 100 and a computer.

이상으로 설명한 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 서버(100)는 도 1 내지 도 8을 통해 설명한 방법과 발명의 카테고리만 다를 뿐, 동일한 내용이므로 중복되는 설명, 예시는 생략하도록 한다.The control server 100 of the motion recognition device according to the recognition position of the gesture according to the embodiment of the present invention described above is only the method and the category of the invention described through FIGS. Examples are omitted.

도 10은 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 장치(10)의 블록도이다.10 is a block diagram of a control apparatus 10 of a motion recognition device according to a recognition position of a gesture according to an embodiment of the present invention.

도 10을 참조하면, 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 장치(10)는 영역 분할부(110), 제어부(130), 수신부(150) 및 산출부(170)를 포함한다.Referring to FIG. 10, the control apparatus 10 of the motion recognition device according to the recognition position of the gesture according to the embodiment of the present invention includes an area division unit 110, a control unit 130, a reception unit 150, and a calculation unit 170 ).

다만, 몇몇 실시예에서 서버(100)는 도 10에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수도 있다.However, in some embodiments, the server 100 may include fewer components or more components than the components illustrated in FIG. 10.

본 발명의 주체가 제어 장치(10)가 되는 경우, 도 9와 다르게 서버(100)를 필요로 하지 않고, 제어 장치(10)가 라이다(20)를 포함하여 구성되기 때문에 서버(100)와의 통신없이 수행될 수 있다는 이점이 있다.When the subject of the present invention becomes the control device 10, unlike the FIG. 9, the server 100 is not required, and since the control device 10 is configured to include the lidar 20, the server 100 is The advantage is that it can be performed without communication.

또한, 라이다(20)는 제어 장치(10) 내에 구비될 수도 있고, 별도로 구비되어 제어 장치(10)와 근거리 통신을 통해서 연결될 수 있다.In addition, the lidar 20 may be provided in the control device 10 or may be separately provided to be connected to the control device 10 through short-range communication.

이와 같은 사항들은 본 발명의 실시자가 상황에 따라서 용이하게 선택하도록 한다.Such matters can be easily selected by the practitioner of the present invention depending on the situation.

영역 분할부(110)는 라이다(20)의 스캐닝 영역을 두 개 이상의 스테이지로 분할한다.The region dividing unit 110 divides the scanning region of the lidar 20 into two or more stages.

수신부(150)는 라이다(20)를 통해 인식된 피사체의 제스쳐 정보 및 피사체의 제스쳐가 인식된 스테이지 정보를 수신한다.The receiver 150 receives gesture information of the subject recognized through the lidar 20 and stage information in which the gesture of the subject is recognized.

제어부(130)는 피사체의 제스쳐 정보와, 피사체의 제스쳐가 인식된 스테이지 정보에 따라 대응되는 제어신호를 생성한다.The control unit 130 generates a control signal corresponding to the gesture information of the subject and stage information in which the gesture of the subject is recognized.

그리고, 제어부(130)는 생성된 제어신호를 서버(100)와 연결되어 있는 장치, 컴퓨터로 전송하여 대상체를 제어할 수 있게 된다.In addition, the control unit 130 may control the object by transmitting the generated control signal to a device connected to the server 100 and a computer.

이상으로 설명한 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 장치(10)는 도 1 내지 도 8을 통해 설명한 방법과 발명의 카테고리만 다를 뿐, 동일한 내용이므로 중복되는 설명, 예시는 생략하도록 한다.The control device 10 of the motion recognition device according to the gesture recognition position according to the embodiment of the present invention described above is only the method and the category of the invention described through FIGS. Examples are omitted.

이상에서 전술한 본 발명의 일 실시예에 따른 방법은, 하드웨어인 서버와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The method according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a server that is hardware, and stored in a medium.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-described program is C, C++, JAVA, machine language, etc., in which a processor (CPU) of the computer can be read through a device interface of the computer in order for the computer to read the program and execute the methods implemented as a program. It may include a code (Code) coded in the computer language of the. Such code may include functional code related to a function or the like that defines necessary functions for executing the above methods, and control code related to an execution procedure necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, the code may further include a memory reference-related code as to which location (address address) of the internal or external memory of the computer should be referred to additional information or media necessary for the computer's processor to perform the functions. have. Also, when the processor of the computer needs to communicate with any other computer or server in the remote to execute the functions, the code can be used to communicate with any other computer or server in the remote using the communication module of the computer. It may further include a communication-related code for whether to communicate, what information or media to transmit and receive during communication, and the like.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium refers to a medium that stores data semi-permanently and that can be read by a device, rather than a medium that stores data for a short time, such as registers, caches, and memory. Specifically, examples of the medium to be stored include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. That is, the program may be stored in various recording media on various servers that the computer can access, or various recording media on the computer of the user. In addition, the medium may be distributed over a computer system connected through a network to store computer readable codes in a distributed manner.

본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in connection with an embodiment of the present invention may be implemented directly in hardware, a software module executed by hardware, or a combination thereof. Software modules include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside on any type of computer readable recording medium well known in the art.

이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.The embodiments of the present invention have been described above with reference to the accompanying drawings, but a person skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing its technical spirit or essential features. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive.

10: 제어 장치
20: 라이다
100: 서버
110: 영역 분할부
130: 제어부
150: 수신부
170: 산출부
600: 디스플레이 장치
10: control device
20: Lida
100: server
110: area division
130: control unit
150: receiver
170: calculation unit
600: display device

Claims (11)

컴퓨터에 의해 수행되는 방법으로,
라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하는 단계;
상기 라이다를 통해 인식된 피사체의 제스쳐 정보 및 상기 피사체의 제스쳐가 인식된 스테이지 정보를 수신하는 단계; 및
상기 피사체의 제스쳐 정보와, 상기 피사체의 제스쳐가 인식된 스테이지 정보에 따라 대응되는 제어신호를 생성하는 단계;를 포함하는,
제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법.
In a way that is performed by a computer,
Dividing the scanning area of the lidar into two or more stages;
Receiving gesture information of a subject recognized through the lidar and stage information in which the gesture of the subject is recognized; And
Includes; generating a control signal corresponding to the gesture information of the subject, and the stage information in which the gesture of the subject is recognized;
A method of controlling a motion recognition device according to a recognition position of a gesture.
제1항에 있어서,
상기 분할 단계는,
상기 라이다가 설치된 디스플레이 장치를 기준으로 가로 또는 세로로 상기 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하는 것인,
제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법.
According to claim 1,
The division step,
The scanning area of the lidar is divided into two or more stages horizontally or vertically based on the display device on which the lidar is installed.
A method of controlling a motion recognition device according to a recognition position of a gesture.
제1항 또는 제2항에 있어서,
레이저 장치를 통해 상기 분할된 스테이지 간의 경계에 가이드 광을 조사하는 단계;를 더 포함하는,
제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법.
The method according to claim 1 or 2,
Further comprising the step of irradiating a guide light to the boundary between the divided stages through a laser device;
A method of controlling a motion recognition device according to a recognition position of a gesture.
제3항에 있어서,
상기 인식된 피사체의 제스쳐에 할당된 제어신호가 없을 경우, 상기 가이드 광을 점멸하는 단계;를 더 포함하는,
제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법.
According to claim 3,
Further comprising the step of flashing the guide light when there is no control signal assigned to the gesture of the recognized subject;
A method of controlling a motion recognition device according to a recognition position of a gesture.
제1항에 있어서,
상기 피사체의 제스쳐가 인식된 위치가 상기 분할된 스테이지의 경계영역인 경우, 상기 피사체의 제스쳐 정보와, 상기 피사체의 제스쳐가 인식된 경계영역에 따라 대응되는 제어신호를 생성하는 단계;를 더 포함하는,
제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법.
According to claim 1,
And generating a control signal corresponding to the gesture information of the subject and a boundary region in which the gesture of the subject is recognized when the location where the gesture of the subject is recognized is a boundary region of the divided stage. ,
A method of controlling a motion recognition device according to a recognition position of a gesture.
제1항에 있어서,
상기 피사체의 제스쳐가 2개 이상의 스테이지를 이동한 것으로 인식된 경우, 상기 피사체의 제스쳐와 상기 제스쳐 수행중에 이동된 스테이지 순서를 고려하여 그에 대응되는 제어신호를 생성하는 단계;를 더 포함하는,
제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법.
According to claim 1,
Further comprising, when the gesture of the subject is recognized as moving two or more stages, generating a control signal corresponding to the gesture of the subject and the stage order moved during the gesture execution, and corresponding thereto.
A method of controlling a motion recognition device according to a recognition position of a gesture.
제1항에 있어서,
상기 생성 단계는,
상기 인식된 피사체의 제스쳐 정보를 통해 상기 피사체가 사용자의 오른손인지 왼손인지를 판단하는 단계; 및
상기 피사체가 사용자의 오른손인지 왼손인지의 정보, 상기 피사체의 제스쳐 정보, 및 상기 피사체의 제스쳐가 인식된 스테이지 정보에 따라서 제어신호를 생성하는 단계;를 더 포함하는,
제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법.
According to claim 1,
The generating step,
Determining whether the subject is the user's right or left hand through gesture information of the recognized subject; And
Further comprising the step of generating a control signal according to the information of whether the subject is the user's right or left hand, gesture information of the subject, and stage information in which the gesture of the subject is recognized.
A method of controlling a motion recognition device according to a recognition position of a gesture.
제1항에 있어서,
상기 생성 단계는,
상기 인식된 피사체가 사용자의 양손인 경우, 상기 피사체의 왼손 제스쳐 정보, 상기 왼손 제스쳐가 인식된 스테이지 정보, 상기 피사체의 오른손 제스쳐 정보, 및 상기 오른손 제스쳐가 인식된 스테이지 정보에 따라서 제어신호를 생성하는 단계;를 더 포함하는,
제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법.
According to claim 1,
The generating step,
When the recognized subject is both hands of a user, a control signal is generated according to left-hand gesture information of the subject, stage information on which the left-hand gesture is recognized, right-hand gesture information on the subject, and stage information on which the right-hand gesture is recognized. Step; further comprising,
A method of controlling a motion recognition device according to a recognition position of a gesture.
라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하는 영역 분할부;
상기 라이다를 통해 인식된 피사체의 제스쳐 정보 및 상기 피사체의 제스쳐가 인식된 스테이지 정보를 수신하는 수신부; 및
상기 피사체의 제스쳐 정보와, 상기 피사체의 제스쳐가 인식된 스테이지 정보에 따라 대응되는 제어신호를 생성하는 제어부;를 포함하는,
제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 서버.
An area divider for dividing the scanning area of the lidar into two or more stages;
A receiver configured to receive gesture information of the subject recognized through the lidar and stage information on which the gesture of the subject is recognized; And
Includes a control unit for generating a control signal corresponding to the gesture information of the subject and stage information in which the gesture of the subject is recognized.
The control server of the motion recognition device according to the recognition position of the gesture.
라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하는 영역 분할부;
상기 라이다를 통해 인식된 피사체의 제스쳐 정보 및 상기 피사체의 제스쳐가 인식된 스테이지 정보를 수신하는 수신부; 및
상기 피사체의 제스쳐 정보와, 상기 피사체의 제스쳐가 인식된 스테이지 정보에 따라 대응되는 제어신호를 생성하는 제어부;를 포함하는,
제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 장치.
An area divider for dividing the scanning area of the lidar into two or more stages;
A receiver configured to receive gesture information of the subject recognized through the lidar and stage information on which the gesture of the subject is recognized; And
Includes a control unit for generating a control signal corresponding to the gesture information of the subject and stage information in which the gesture of the subject is recognized.
Control device for motion recognition device according to the recognition position of the gesture.
하드웨어인 컴퓨터와 결합되어, 제1항 내지 제10항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된,
제스쳐의 인식 위치에 따른 모션 인식 기기 프로그램.


A hardware, coupled to a computer, stored in a medium to execute the method of any one of claims 1 to 10,
Motion recognition device program according to the recognition position of the gesture.


KR1020190025055A 2019-03-05 2019-03-05 Method, server, device and program for control of motion recognition device according to recognition position of gesture KR20200075707A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190025055A KR20200075707A (en) 2019-03-05 2019-03-05 Method, server, device and program for control of motion recognition device according to recognition position of gesture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190025055A KR20200075707A (en) 2019-03-05 2019-03-05 Method, server, device and program for control of motion recognition device according to recognition position of gesture

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180164531A Division KR101956608B1 (en) 2018-12-18 2018-12-18 Method, server, device and program for control of motion recognition device according to recognition position of gesture

Publications (1)

Publication Number Publication Date
KR20200075707A true KR20200075707A (en) 2020-06-26

Family

ID=71136413

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190025055A KR20200075707A (en) 2019-03-05 2019-03-05 Method, server, device and program for control of motion recognition device according to recognition position of gesture

Country Status (1)

Country Link
KR (1) KR20200075707A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102233395B1 (en) * 2020-10-12 2021-03-30 (주)투핸즈인터랙티브 Augmented reality interactive sports apparatus using lidar sensors

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102233395B1 (en) * 2020-10-12 2021-03-30 (주)투핸즈인터랙티브 Augmented reality interactive sports apparatus using lidar sensors
WO2022080548A1 (en) * 2020-10-12 2022-04-21 (주)투핸즈인터랙티브 Augmented reality interactive sports device using lidar sensors
CN115768532A (en) * 2020-10-12 2023-03-07 双手互动有限公司 Augmented reality interactive movement device using laser radar sensor
CN115768532B (en) * 2020-10-12 2023-07-14 双手互动有限公司 Augmented reality interactive motion device using laser radar sensor
US11850499B2 (en) 2020-10-12 2023-12-26 Twohandsinteractive Co., Ltd. Augmented reality based interactive sports device using LiDAR sensor

Similar Documents

Publication Publication Date Title
US11255972B2 (en) Actuated optical element for light beam scanning device
EP3259615B1 (en) Actuated optical element for light beam scanning device
US20160245903A1 (en) Dynamic beam spot size for light beam scanning device
US8009865B2 (en) Apparatus, method, and medium for tracking gesture
KR101954855B1 (en) Use of intensity variations of light patterns for depth mapping of objects in a volume
US10614322B2 (en) Object recognition device
US20070058838A1 (en) Object position detecting apparatus, map creating apparatus, autonomous mobile apparatus, object position detecting method, and computer program product for object position detection
US8723800B2 (en) Virtual projecting input system and input detecting method thereof
WO2012124730A1 (en) Detection device, input device, projector, and electronic apparatus
WO2014200589A9 (en) Determining positional information for an object in space
KR20110005738A (en) Interactive input system and illumination assembly therefor
KR101956608B1 (en) Method, server, device and program for control of motion recognition device according to recognition position of gesture
US20230051900A1 (en) Distance measurement apparatus, mirror control method, and computer-readable recording medium storing program
US9898092B2 (en) Input apparatus
KR20200075707A (en) Method, server, device and program for control of motion recognition device according to recognition position of gesture
JP5556317B2 (en) Object recognition device
KR101071864B1 (en) Touch and Touch Gesture Recognition System
US11899113B2 (en) Vehicle position estimation apparatus
US20160004385A1 (en) Input device
WO2016119840A1 (en) Light point identification method
US20180307302A1 (en) Electronic device and method for executing interactive functions
JP2007192755A (en) Range finder
JP2020165985A (en) Information processing device, control method, program, and storage medium
JP6171502B2 (en) Projector and electronic device having projector function
WO2023112884A1 (en) Ranging device, determining device, determining method, and program