KR101956608B1 - 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법, 서버, 기기 및 프로그램 - Google Patents

제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법, 서버, 기기 및 프로그램 Download PDF

Info

Publication number
KR101956608B1
KR101956608B1 KR1020180164531A KR20180164531A KR101956608B1 KR 101956608 B1 KR101956608 B1 KR 101956608B1 KR 1020180164531 A KR1020180164531 A KR 1020180164531A KR 20180164531 A KR20180164531 A KR 20180164531A KR 101956608 B1 KR101956608 B1 KR 101956608B1
Authority
KR
South Korea
Prior art keywords
gesture
subject
recognized
information
stage
Prior art date
Application number
KR1020180164531A
Other languages
English (en)
Inventor
이탁건
Original Assignee
코어다 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코어다 주식회사 filed Critical 코어다 주식회사
Priority to KR1020180164531A priority Critical patent/KR101956608B1/ko
Application granted granted Critical
Publication of KR101956608B1 publication Critical patent/KR101956608B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법에 관한 것으로, 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하고, 인식되는 피사체의 제스쳐 정보와 스테이지 정보를 함께 고려하여 제어신호를 생성한다.

Description

제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법, 서버, 기기 및 프로그램 {Method, server, device and program for control of motion recognition device according to recognition position of gesture}
본 발명은 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법에 관한 것이다.
모션 인식 기기는 사물이나 사람의 움직임을 센서를 이용해 디지털로 옮기는 기기를 의미한다. 모션 인식의 방법으로는 기계식, 자기식, 광학식 등으로 분류된다.
한편, 라이다(Light detection and ranging; LiDAR)는 펄스 레이저광을 대기 중에 발사해 그 반사체 또는 산란체를 이용하여 거리 또는 대기현상 등을 측정하는 장치로서, 레이저 레이더라고도 한다. 반사광의 시간측정은 클럭펄스로 계산하며, 그 진동수 30MHz로 5cm, 150MHz로 1m의 분해능을 가져 기존의 카메라나 센서보다 월등한 탐지효율을 보인다.
따라서, 모션 인식 기기에 라이다의 원리를 적용하는 경우, 모션의 탐지 효율이 높아져 정밀한 모션 인식이 가능할 것이다.
또한, 라이다의 특성상 센싱된 타겟의 위치를 정확하게 파악할 수 있다는 장점이 있는데, 이를 이용하는 구체적인 시도는 이루어지지 않고 있다.
이와 같은 기술이 적용될 경우, 동일한 제스쳐라도 다른 위치에서 인식되면 서로 다른 제어신호를 발생시킬 수 있기 때문에 한정된 제스쳐를 통해 보다 다양한 제어신호를 생성할 수 있게 되지만, 이와 관련된 문헌은 현재 공개되어 있지 않은 실정이다.
상술한 바와 같은 문제점을 해결하기 위한 본 발명은 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하고, 인식되는 피사체의 제스쳐 정보와 스테이지 정보를 함께 고려하여 제어신호를 생성하는, 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법을 제공할 수 있다.
또한, 본 발명은 라이다를 통해 스캐닝 인식되는 사용자의 손의 오른손, 왼손 여부를 판단하여 그에 따라 제어신호를 결정하는 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법을 제공할 수 있다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법은, 컴퓨터에 의해 수행되는 방법으로, 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하는 단계; 상기 라이다를 통해 인식된 피사체의 제스쳐 정보 및 상기 피사체의 제스쳐가 인식된 스테이지 정보를 수신하는 단계; 및 상기 피사체의 제스쳐 정보와, 상기 피사체의 제스쳐가 인식된 스테이지 정보에 따라 대응되는 제어신호를 생성하는 단계;를 포함한다.
또한, 상기 분할 단계는, 상기 라이다가 설치된 디스플레이 장치를 기준으로 가로 또는 세로로 상기 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하는 것이다.
또한, 레이저 장치를 통해 상기 분할된 스테이지 간의 경계에 가이드 광을 조사하는 단계;를 더 포함할 수 있다.
또한, 상기 인식된 피사체의 제스쳐에 할당된 제어신호가 없을 경우, 상기 가이드 광을 점멸하는 단계;를 더 포함할 수 있다.
또한, 상기 피사체의 제스쳐가 인식된 위치가 상기 분할된 스테이지의 경계영역인 경우, 상기 피사체의 제스쳐 정보와, 상기 피사체의 제스쳐가 인식된 경계영역에 따라 대응되는 제어신호를 생성하는 단계;를 더 포함할 수 있다.
또한, 상기 피사체의 제스쳐가 2개 이상의 스테이지를 이동한 것으로 인식된 경우, 상기 피사체의 제스쳐와 상기 제스쳐 수행중에 이동된 스테이지 순서를 고려하여 그에 대응되는 제어신호를 생성하는 단계;를 더 포함할 수 있다.
또한, 상기 생성 단계는, 상기 인식된 피사체의 제스쳐 정보를 통해 상기 피사체가 사용자의 오른손인지 왼손인지를 판단하는 단계; 및 상기 피사체가 사용자의 오른손인지 왼손인지의 정보, 상기 피사체의 제스쳐 정보, 및 상기 피사체의 제스쳐가 인식된 스테이지 정보에 따라서 제어신호를 생성하는 단계;를 더 포함할 수 있다.
또한, 상기 생성 단계는, 상기 인식된 피사체가 사용자의 양손인 경우, 상기 피사체의 왼손 제스쳐 정보, 상기 왼손 제스쳐가 인식된 스테이지 정보, 상기 피사체의 오른손 제스쳐 정보, 및 상기 오른손 제스쳐가 인식된 스테이지 정보에 따라서 제어신호를 생성하는 단계;를 더 포함할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 서버는, 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하는 영역 분할부; 상기 라이다를 통해 인식된 피사체의 제스쳐 정보 및 상기 피사체의 제스쳐가 인식된 스테이지 정보를 수신하는 수신부; 및 상기 피사체의 제스쳐 정보와, 상기 피사체의 제스쳐가 인식된 스테이지 정보에 따라 대응되는 제어신호를 생성하는 제어부;를 포함한다.
상술한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 장치는, 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하는 영역 분할부; 상기 라이다를 통해 인식된 피사체의 제스쳐 정보 및 상기 피사체의 제스쳐가 인식된 스테이지 정보를 수신하는 수신부; 및 상기 피사체의 제스쳐 정보와, 상기 피사체의 제스쳐가 인식된 스테이지 정보에 따라 대응되는 제어신호를 생성하는 제어부;를 포함한다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.
상기와 같은 본 발명에 따르면, 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하고, 인식되는 피사체의 제스쳐 정보와 스테이지 정보를 함께 고려하여 제어신호를 생성하기 때문에, 적은 수의 제스쳐 정보로도 다양한 제어신호를 생성할 수 있다는 장점이 있다.
또한, 본 발명은 위의 효과와 함께 사용자의 손의 오른손, 왼손 여부를 결정하여 제어신호를 결정하기 때문에, 더 다양한 제어신호를 생성할 수 있다는 장점이 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법의 흐름도이다.
도 2는 라이다의 스캐닝 영역을 두 개의 스테이지로 분할한 것을 예시한 도면이다.
도 3은 레이저 장치가 스테이지 간의 경계에 가이드 광을 조사하는 것을 예시한 도면이다.
도 4는 피사체의 제스쳐가 스테이지의 경계에서 인식된 것을 예시한 도면이다.
도 5는 피사체의 제스쳐가 제1스테이지에서 제2스테이지로 이동된 것을 예시한 도면이다.
도 6은 라이다를 통해 인식된 피사체가 사용자의 왼손인 경우를 예시한 도면이다.
도 7은 라이다를 통해 인식된 피사체가 사용자의 양손인 경우를 예시한 도면이다.
도 8은 라이다를 통해 인식된 피사체의 거리에 따라 서로 다른 제어신호가 생성되는 것을 예시한 도면이다.
도 9는 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 서버의 블록도이다.
도 10은 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 장치의 블록도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
설명에 앞서 본 명세서에서 사용하는 용어의 의미를 간략히 설명한다. 그렇지만 용어의 설명은 본 명세서의 이해를 돕기 위한 것이므로, 명시적으로 본 발명을 한정하는 사항으로 기재하지 않은 경우에 본 발명의 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.
모션 인식 기기(20)는 피사체의 거리, 좌표를 획득하여 피사체의 모션을 인식할 수 있다.
본 발명의 모션 인식 기기(20)로서 다양한 종래의 기술이 이용될 수 있다. 다만, 본 발명의 모션 인식 기기(20)로서 라이다를 이용하는 것이 바람직할 수 있다.
라이다(Light detection and ranging; LiDAR)는 레이저와 같은 광원을 이용하며, 피사체에서 반사된 뒤 센서로 돌아오기까지의 시간을 측정하여 피사체의 거리, 좌표를 획득할 수 있다.
한편, 본 발명의 모션 인식 기기(20)로서 일반적인 비레이저광을 출사할 수 있다. 본 발명의 모션 인식 기기(20)는 근거리 피사체의 거리, 좌표를 획득하는 용도로 많이 사용되기 때문에, 광밀도가 높은 레이저대신 일반 LED(Light emitting diode)를 이용하여도 근거리 영역의 스캐닝에 문제가 없으며 오히려 레이저광보다 정밀한 트래킹이 가능하기 때문이다.
또한, 본 발명의 실시예에 따른 모션 인식 기기(20)는 광원으로 LED뿐만 아니라, VCSEL 또는 레이저를 적용하여 트래킹을 수행할 수도 있다.
대표적인 예로, 터치 패널이 구비되어 있지 않은 모니터, TV와 같은 디스플레이 장치에 모션 인식 기기(20)를 설치하여, 해당 모니터, TV에 터치 기능이 삽입된 것과 같은 효과가 발휘되도록 하는 것이 있다.
도 1은 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법의 흐름도이고, 도 2 내지 도 9은 도 1의 설명을 돕기 위한 도면으로, 본 발명의 실시예에 따른 다양한 상황이 예시되어 있다.
이하, 도 1 내지 도 9를 참조하여, 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법에 대해서 설명하도록 한다.
본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법의 주체는 컴퓨터로, 서버(100)가 될 수도 있고 제어 장치(10)가 될 수도 있다.
먼저, 영역 분할부(110)가 라이다(20)의 스캐닝 영역을 두 개 이상의 스테이지로 분할한다. (S500단계)
보다 상세하게는, 영역 분할부(110)는 라이다(20)가 설치된 디스플레이 장치(600)를 기준으로 가로 또는 세로로, 라이다(20)의 스캐닝 영역을 두 개 이상의 스테이지로 분할한다.
도 2는 라이다(20)의 스캐닝 영역을 두 개의 스테이지로 분할한 것을 예시한 도면이다.
간단한 예시로, 도 2와 같이 영역 분할부(110)는 라이다(20)로부터 직교 방향, 즉 디스플레이 장치(600)를 세로 기준으로 하여 양 옆으로 라이다(20)의 스캐닝 영역을 두 개로 분할할 수 있다.
물론, 영역 분할부(110)는 스캐닝 영역을 3개 또는 그 이상으로 분할할 수도 있고, 디스플레이 장치(600)를 가로 기준으로 하여 위 아래로 분할할 수도 있으며, 대각선 방향으로 분할할 수도 있다.
본 발명의 실시예에서는 사용자가 사용하기 제일 쉽다는 면과 설명의 편의를 고려하여 도 2와 같이 양옆 2개로 분할한 것으로 예시하도록 한다.
도 2와 같이 S500단계에서 영역 분할부(110)가 라이다(20)의 스캐닝 영역을 상기 라이다(20)가 설치된 디스플레이 장치(600)를 기준으로 세로로 라이다(20)의 스캐닝 영역을 제1스테이지 및 제2스테이지로 분할하였다.
또한, S500단계는, 레이저 장치를 통해 상기 분할된 스테이지 간의 경계에 가이드광을 조사하는 단계를 더 포함할 수 있다.
도 3은 레이저 장치가 스테이지 간의 경계에 가이드 광을 조사하는 것을 예시한 도면이다.
영역 분할이 익숙하지 않은 사용자의 경우에는 경계선이 어디인지 정확히 알지 못하는 경우가 있을 수 있다. 따라서, 도 3과 같이 레이저 장치를 통해 디스플레이 장치(600)와 평행하게 가이드광을 조사함으로써, 사용자에게 스테이지 경계를 알려줄 수 있다.
또한, 레이저 장치는 라이다(20)와 함께 구비되어 도 3과 같이 가이드광을 조사할 수도 있고, 별개로 구비되어 디스플레이 장치(600)에 설치될 수도 있다.
예를 들어, 라이다(20)가 도 3과 같이 디스플레이 장치(600)의 상단 중앙에 설치된 반면, 스테이지는 상, 하로 구분된 경우에는 레이저 장치가 디스플레이 장치(600)의 측면 중앙에 설치되어 가로 방향으로 가이드광을 조사하도록 한다.
S500단계 다음으로, 수신부(150)가, 라이다(20)가 인식한 피사체의 제스쳐 정보 및 피사체의 제스쳐가 인식된 스테이지 정보를 수신한다. (S520단계)
보다 상세하게는, 수신부(150)가 라이다(20)를 통해 인식된 피사체의 제스쳐에 대한 정보와 피사체가 인식된 스테이지에 대한 정보를 수신하는 것을 의미한다.
도 3을 참조하면, 수신부(150)가 피사체의 제스쳐 정보로 사용자의 두번째 손가락이 펼쳐져 있는 제스쳐 정보를 수신하였다.
그리고, 사용자가 제1스테이지에서 제스쳐를 취했기 때문에, 수신부(150)는 해당 제스쳐가 제1스테이지에서 입력되었다는 정보를 수신하게 된다.
S520단계 다음으로, 제어부(130)가 피사체의 제스쳐와, 피사체가 인식된 스테이지에 따라 대응되는 제어신호를 생성한다. (S540단계)
도 3을 참조하여 예를 들면, 제어부(130)는 사용자의 두번째 손가락이 펼쳐져 있는 제스쳐 정보와 제1스테이지 정보를 함께 매칭하여 제어신호를 결정하게 된다.
만약, 사용자가 디스플레이 장치(600)의 우측, 즉 제2스테이지에서 제스쳐를 취했다면, 제어부(130)는 위와 다른 제어신호가 생성하게 된다.
예를 들어, 두번째 손가락을 펼치는 제스쳐가 디스플레이 장치(600)로 출력되고 있는 프레젠테이션의 페이지 제어이고, 제1스테이지에 제스쳐가 입력되면 이전 페이지로 이동, 제2스테이지에 제스쳐가 입력되면 다음 페이지로 이동과 같이 제어신호가 구분될 수 있다.
이와 같이, 제어부(130)는 제스쳐 정보와 스테이지 정보를 함께 고려하여 그에 대응되는 제어신호를 생성하고, 디스플레이 장치(600) 또는 디스플레이 장치(600)를 출력하고 있는 컴퓨터 등으로 제어신호를 전송하게 된다.
일 실시예로, 제어부(130)는 라이다(20)를 통해 인식된 피사체의 제스쳐에 할당된 제어신호가 없을 경우, 가이드광을 점멸하는 단계를 더 포함할 수 있다.
보다 상세하게는, 제어부(130)는 사용자로부터 반복적으로 동일한 제스쳐가 입력되고, 해당 제스쳐에 할당된 제어신호가 없을 경우, 사용자가 제스쳐를 착각하고 있는 것이라고 판단하고 가이드광을 점멸하도록 한다.
도 4는 피사체의 제스쳐가 스테이지의 경계에서 인식된 것을 예시한 도면이다.
도 4를 참조하면 일 실시예로, 제어부(130)가, 피사체의 제스쳐가 인식된 위치가 상기 분할된 스테이지의 경계영역인 경우, 피사체의 제스쳐와, 피사체의 제스쳐가 인식된 경계영역에 따라 대응되는 제어신호를 생성하는 단계를 더 포함할 수 있다.
예를 들어, 위에서 예시한 것과 같이 두번째 손가락을 펼치는 제스쳐가 디스플레이 장치(600)로 출력되고 있는 프레젠테이션의 페이지 제어이고, 제1스테이지에 제스쳐가 입력되면 이전 페이지로 이동, 제2스테이지에 제스쳐가 입력되면 다음 페이지로 이동과 같이 제어신호가 구분될 수 있다.
그리고, 제어부(130)는 제1스테이지와 제2스테이지의 경계에 제스쳐가 입력되면 프레젠테이션의 자동재생을 동작 또는 정지하는 제어신호를 생성할 수 있다.
이때, 경계선의 영역은 기 설정된 소정의 폭을 가질 수 있으며, 확장된 실시예로 라이다(20)에 레이저 장치가 2개 마련되어 2개의 레이저 장치가 가이드광을 조사하여 좌측은 제1스테이지, 우측은 제2스테이지, 그리고 2개의 가이드광 사이는 경계영역으로 구분될 수 있다.
도 5는 피사체의 제스쳐가 제1스테이지에서 제2스테이지로 이동된 것을 예시한 도면이다.
도 5를 참조하면, 일 실시예로 피사체의 제스쳐가 2개 이상의 스테이지를 이동한 것으로 인식된 경우, 제어부(130)가 피사체의 제스쳐와 제스쳐 수행중에 이동된 스테이지의 순서를 고려하여 그에 대응되는 제어신호를 생성하는 단계를 더 포함할수 있다.
예를 들어, 도 5와 같이 사용자가 두번째 손가락이 펼쳐져 있는 제스쳐를 입력하되, 제1스테이지에서 제2스테이지로 이동하며 제스쳐를 입력한 경우, 제어부(130)가 위와 다르게 또 다른 제어신호를 생성하는 것을 의미한다.
보다 상세하게는, 디스플레이 장치(600)로 출력되고 있는 프레젠테이션에 대한 제어인 경우, 도 5와 같은 제스쳐가 제1스테이지에서 제2스테이지로 이동하는 것으로 인식되면, 제어부(130)가 프레젠테이션의 페이지를 2페이지 다음으로 넘기는 제어신호가 생성할 수 있다.
이와 반대로, 도 5와 같은 제스쳐가 제2스테이지에서 제1스테이지로 이동하는 것으로 인식되면, 제어부(130)가 프레젠테이션의 페이지를 2페이지 이전으로 넘기는 제어신호를 생성할 수 있다.
또한, 위에서는 2개의 스테이지에 대해서만 예시했을 뿐, 3개 혹은 4개의 스테이지에서도 적용될 수 있다.
예를 들어, 제어부(130)는, 사용자의 제스쳐가 제1스테이지, 제2스테이지, 제3스테이지의 순서로 이동되었다면 또 다른 제어신호를 생성할 수 있고, 이와 다르게 제1스테이지, 제3스테이지, 제2스테이지의 순서로 이동되었다면 이와 또 다른 제어신호를 생성할 수 있다.
도 6은 라이다(20)를 통해 인식된 피사체가 사용자의 왼손인 경우를 예시한 도면이다.
도 6을 참조하면, 일 실시예로 S520단계는, 제어부(130)가 인식된 피사체의 제스쳐 정보를 통해 피사체가 사용자의 오른손인지 왼손인지를 판단하는 단계와, 제어부(130)가 피사체가 사용자의 오른손인지 왼손인지의 정보, 피사체의 제스쳐 정보, 및 피사체의 제스쳐가 인식된 스테이지 정보에 따라서 제어신호를 생성하는 단계를 더 포함할 수 있다.
예를 들어, 도 6은 도 3과 동일한 제스쳐 정보가 입력되고 있지만, 도 3은 사용자의 오른손을 통해 제스쳐 정보가 입력되고 있고, 도 6은 사용자의 왼손을 통해 제스쳐 정보가 입력되고 있다.
이와 같이, 오른손, 왼손에 따라서 제어신호가 또 다시 구분되기 때문에, 더욱 다양한 제어신호를 적용할 수 있다는 장점이 있다.
그리고, 피사체 정보를 통해 사용자의 오른손, 왼손 여부를 판단하는 것은 라이다(20)를 통해 스캐닝된 피사체 정보에서 사용자의 손가락의 모양, 손가락이 접힌 모양, 손으로부터 연장된 팔의 각도 등을 이용하여 판단할 수 있다.
도 7은 라이다(20)를 통해 인식된 피사체가 사용자의 양손인 경우를 예시한 도면이다.
도 7을 참조하면, 일 실시예로 제어부(130)가 상기 인식된 피사체가 사용자의 양손인 것으로 판단되는 경우, 피사체의 왼손 제스쳐 정보, 왼손 제스쳐가 인식된 스테이지 정보, 피사체의 오른손 제스쳐 정보, 및 오른손 제스쳐가 인식된 스테이지 정보에 따라서 제어신호를 생성하는 단계를 더 포함할 수 있다.
보다 상세하게 예시하면, 사용자가 왼손으로 제1스테이지에 제1제스쳐를 입력하고, 오른손으로 제2스테이지에 제1제스쳐를 입력하면, 제1제어신호가 생성될 수 있다.
그리고, 사용자가 왼손으로 제1스테이지에 제2제스쳐를 입력하고, 오른손으로 제2스테이지에 제1제스쳐를 입력하면, 제2제어신호가 생성될 수 있다.
그리고, 사용자가 왼손으로 제1스테이지에 제1제스쳐를 입력하고, 오른손으로 제2스테이지에 제2제스쳐를 입력하면, 제3제어신호가 생성될 수 있다.
그리고, 사용자가 왼손으로 제1스테이지에 제2제스쳐를 입력하고, 오른손으로 제2스테이지에 제2제스쳐를 입력하면, 제4제어신호가 생성될 수 있다.
위와 같이, 단 두종류의 제스쳐만으로도 4 종류의 제어신호를 입력할 수 있기 때문에 한정적인 제스쳐를 사용하더라도 다양한 제어신호를 생성하여 대상물을 제어할 수 있게 된다.
또한, 분할된 스테이지가 많을 수록, 제스쳐의 종류가 많을 수록 훨씬 많은 종류의 제어신호를 생성할 수 있게 된다.
도 8은 라이다(20)를 통해 인식된 피사체의 거리에 따라 서로 다른 제어신호가 생성되는 것을 예시한 도면이다.
도 8을 참조하면, 일 실시예로 제어부(130)가 피사체의 제스쳐 정보를 통해 피사체의 크기정보를 추출하는 단계, 피사체의 크기정보를 통해 라이다(20)와 피사체 간의 수직거리를 산출하는 단계 및 피사체의 제스쳐, 피사체의 제스쳐가 인식된 스테이지, 라이다(20)와 피사체 간의 수직거리에 따라서 제어신호를 생성하는 단계를 더 포함할 수 있다.
위에서 도 2 내지 도 7을 통해 제1스테이지, 제2스테이지로 좌우로 분할된 것을 설명하였다.
이때, 피사체와 라이다(20)의 거리에 따라서도 제어신호를 다르게 할 수 있는 것을 예시하고 있다.
도 8과 같이 제1위치(410)에서 제1제스쳐 정보가 입력되는 것과 제2위치(420)에서 제1제스쳐 정보가 입력되는 것은, 동일한 제스쳐 정보이지만 피사체와 라이다(20)와의 거리가 다르기 때문에 서로 다른 제어신호가 생성된다.
또한, 추출 단계는, 산출부(170)가 라이다(20)를 통해 인식된 피사체의 정보를 통해 피사체의 실제크기를 산출하는 단계를 더 포함할 수 있다.
그리고, 수직거리 산출 단계는, 산출부(170)가 라이다(20)를 통해 인식된 피사체의 크기정보와 피사체의 실제크기 정보를 통해 라이다(20)와 피사체 간의 수직거리를 산출할 수 있다.
이를 통해서, 산출부(170)가 피사체(사용자의 손)의 실제크기를 산출하고, 라이다(20)를 통해 스캐닝되는 피사체(사용자의 손)의 크기정보와 실제크기 정보를 비교하여 라이다(20)와 피사체 간의 수직거리를 산출할 수 있다.
이때, 디스플레이 장치(600) 상의 위치를 기준으로 산출해야 하기 때문에, 라이다(20)와 피사체의 직선거리를 이용하지 않고 수직거리를 이용하여, 디스플레이 장치(600) 상의 피사체 위치를 산출할 수 있게 된다.
일 실시예로, 제어부(130)가 라이다(20)를 통해 스캐닝되는 대상에서 피사체를 추출하여 특정하는 하는 단계와, 제어부(130)가 라이다(20)를 통해 스캐닝된 대상에서 상기 특정된 피사체를 추적하여 피사체의 크기가 가변하는 것을 보정하는 단계를 더 포함할 수 있다.
보다 상세하게는, 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법은 라이다의 스캐닝 영역에서 피사체를 특정하여 인식하고, 피사체가 특정되면 라이다와 피사체의 거리에 따라서 피사체의 크기가 가변하는 것을 보정하여 피사체를 특정할 수 있다.
예를 들어, 사용자가 오른손을 이용하여 제스쳐를 취할 경우 제어부(130)가 사용자의 오른손을 피사체로 특정하고, 라이다를 통해 스캐닝되는 데이터에서 특정된 피사체인 오른손을 추적하여 제스쳐를 인식하고, 라이다와 오른손의 거리에 따라 변화하는 오른손의 크기를 보정한다.
또한, 제어부(130)는 사용자의 오른손이 피사체로 특정되었기 때문에, 발, 머리 등과 같이 오른손이 아닌 다른 신체 혹은 다른 물체가 인식되더라도 대상이 피사체가 아님을 인식할 수 있다.
따라서, 위와 같이 제어부(130)에서 피사체를 인식하여 주기 때문에, 인식에 오류가 발생하지 않아 사용자에게 움직임의 자율성을 보장할 수 있다.
도 9는 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 서버(100)의 블록도이다.
도 9를 참조하면, 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 서버(100)는 영역 분할부(110), 제어부(130), 수신부(150) 및 산출부(170)를 포함한다.
다만, 몇몇 실시예에서 서버(100)는 도 9에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수도 있다.
본 발명의 주체가 서버(100)가 되는 경우, 서버(100)가 라이다(20)로부터 피사체의 제스쳐 정보, 스테이지 정보를 수신하고 각종 산출, 제어 동작은 서버(100)에서 수행하기 때문에 라이다(20)의 크기를 최소화할 수 있다는 이점이 있다.
영역 분할부(110)는 라이다(20)의 스캐닝 영역을 두 개 이상의 스테이지로 분할한다.
수신부(150)는 라이다(20)를 통해 인식된 피사체의 제스쳐 정보 및 피사체의 제스쳐가 인식된 스테이지 정보를 수신한다.
제어부(130)는 피사체의 제스쳐 정보와, 피사체의 제스쳐가 인식된 스테이지 정보에 따라 대응되는 제어신호를 생성한다.
그리고, 제어부(130)는 생성된 제어신호를 서버(100)와 연결되어 있는 장치, 컴퓨터로 전송하여 대상체를 제어할 수 있게 된다.
이상으로 설명한 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 서버(100)는 도 1 내지 도 8을 통해 설명한 방법과 발명의 카테고리만 다를 뿐, 동일한 내용이므로 중복되는 설명, 예시는 생략하도록 한다.
도 10은 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 장치(10)의 블록도이다.
도 10을 참조하면, 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 장치(10)는 영역 분할부(110), 제어부(130), 수신부(150) 및 산출부(170)를 포함한다.
다만, 몇몇 실시예에서 서버(100)는 도 10에 도시된 구성요소보다 더 적은 수의 구성요소나 더 많은 구성요소를 포함할 수도 있다.
본 발명의 주체가 제어 장치(10)가 되는 경우, 도 9와 다르게 서버(100)를 필요로 하지 않고, 제어 장치(10)가 라이다(20)를 포함하여 구성되기 때문에 서버(100)와의 통신없이 수행될 수 있다는 이점이 있다.
또한, 라이다(20)는 제어 장치(10) 내에 구비될 수도 있고, 별도로 구비되어 제어 장치(10)와 근거리 통신을 통해서 연결될 수 있다.
이와 같은 사항들은 본 발명의 실시자가 상황에 따라서 용이하게 선택하도록 한다.
영역 분할부(110)는 라이다(20)의 스캐닝 영역을 두 개 이상의 스테이지로 분할한다.
수신부(150)는 라이다(20)를 통해 인식된 피사체의 제스쳐 정보 및 피사체의 제스쳐가 인식된 스테이지 정보를 수신한다.
제어부(130)는 피사체의 제스쳐 정보와, 피사체의 제스쳐가 인식된 스테이지 정보에 따라 대응되는 제어신호를 생성한다.
그리고, 제어부(130)는 생성된 제어신호를 서버(100)와 연결되어 있는 장치, 컴퓨터로 전송하여 대상체를 제어할 수 있게 된다.
이상으로 설명한 본 발명의 실시예에 따른 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 장치(10)는 도 1 내지 도 8을 통해 설명한 방법과 발명의 카테고리만 다를 뿐, 동일한 내용이므로 중복되는 설명, 예시는 생략하도록 한다.
이상에서 전술한 본 발명의 일 실시예에 따른 방법은, 하드웨어인 서버와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
10: 제어 장치
20: 라이다
100: 서버
110: 영역 분할부
130: 제어부
150: 수신부
170: 산출부
600: 디스플레이 장치

Claims (11)

  1. 컴퓨터에 의해 수행되는 방법으로,
    라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하는 단계;
    레이저 장치를 통해 분할된 스테이지 간의 경계에 가이드 광을 조사하는 단계;
    상기 라이다를 통해 인식된 피사체의 제스쳐 정보 및 상기 피사체의 제스쳐가 인식된 스테이지 정보를 수신하는 단계;
    상기 피사체의 제스쳐 정보와, 상기 피사체의 제스쳐가 인식된 스테이지 정보에 따라 대응되는 제어신호를 생성하는 단계; 및
    상기 피사체의 제스쳐가 인식된 위치가 분할된 스테이지의 경계영역인 경우, 상기 피사체의 제스쳐 정보와 상기 피사체의 제스쳐가 인식된 경계영역에 대응되는 제어신호를 생성하는 단계;를 포함하는,
    제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법.
  2. 제1항에 있어서,
    상기 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하는 단계는,
    상기 라이다가 설치된 디스플레이 장치를 기준으로 가로 또는 세로로 상기 라이다의 스캐닝 영역을 두 개 이상의 스테이지로 분할하는 것인,
    제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법.
  3. 삭제
  4. 제1항에 있어서,
    상기 라이다를 통해 인식된 피사체의 제스쳐에 할당된 제어신호가 없을 경우, 상기 가이드 광을 점멸하는 단계;를 더 포함하는,
    제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법.
  5. 삭제
  6. 제1항에 있어서,
    상기 피사체의 제스쳐가 두 개 이상의 스테이지를 이동한 것으로 인식된 경우, 상기 피사체의 제스쳐와 상기 피사체의 제스쳐 수행중에 이동된 스테이지 순서를 고려하여 그에 대응되는 제어신호를 생성하는 단계;를 더 포함하는,
    제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법.
  7. 제1항에 있어서,
    상기 라이다를 통해 인식된 피사체의 제스쳐 정보 및 상기 피사체의 인식된 스테이지 정보에 따라 제어신호를 생성하는 단계는,
    상기 라이다를 통해 인식된 피사체의 제스쳐 정보를 통해 상기 피사체가 사용자의 오른손인지 왼손인지를 판단하는 단계; 및
    상기 피사체가 사용자의 오른손인지 왼손인지의 정보, 상기 피사체의 제스쳐 정보, 및 상기 피사체의 제스쳐가 인식된 스테이지 정보에 따라서 제어신호를 생성하는 단계;를 더 포함하는,
    제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법.
  8. 제1항에 있어서,
    상기 라이다를 통해 인식된 피사체의 제스쳐 정보 및 상기 피사체의 인식된 스테이지 정보에 따라 제어신호를 생성하는 단계는,
    상기 라이다를 통해 인식된 피사체가 사용자의 양손인 경우, 상기 피사체의 왼손 제스쳐 정보, 상기 왼손 제스쳐가 인식된 스테이지 정보, 상기 피사체의 오른손 제스쳐 정보, 및 상기 오른손 제스쳐가 인식된 스테이지 정보에 따라서 제어신호를 생성하는 단계;를 더 포함하는,
    제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법.
  9. 삭제
  10. 삭제
  11. 하드웨어인 컴퓨터와 결합되어, 제1항, 제2항, 제4항, 제6항 내지 제8항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 모션 인식 기기 프로그램.


KR1020180164531A 2018-12-18 2018-12-18 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법, 서버, 기기 및 프로그램 KR101956608B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180164531A KR101956608B1 (ko) 2018-12-18 2018-12-18 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법, 서버, 기기 및 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180164531A KR101956608B1 (ko) 2018-12-18 2018-12-18 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법, 서버, 기기 및 프로그램

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190025055A Division KR20200075707A (ko) 2019-03-05 2019-03-05 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법, 서버, 기기 및 프로그램

Publications (1)

Publication Number Publication Date
KR101956608B1 true KR101956608B1 (ko) 2019-06-24

Family

ID=67056095

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180164531A KR101956608B1 (ko) 2018-12-18 2018-12-18 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법, 서버, 기기 및 프로그램

Country Status (1)

Country Link
KR (1) KR101956608B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110531372A (zh) * 2019-07-19 2019-12-03 上海航天控制技术研究所 一种合作目标位置与姿态的估计方法
WO2022114300A1 (ko) * 2020-11-27 2022-06-02 변주영 전자장치 및 라이다 센서를 이용한 전자장치 제어 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140035271A (ko) * 2012-09-13 2014-03-21 삼성전자주식회사 제스쳐 인식 방법 및 시스템
KR20140112316A (ko) * 2013-03-13 2014-09-23 모젼스랩(주) 모션인식을 이용한 스마트 디바이스 제어 장치 및 방법
KR20160099267A (ko) * 2015-02-12 2016-08-22 연세대학교 산학협력단 3차원 애니메이션 컨텐츠 저작 장치 및 그 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140035271A (ko) * 2012-09-13 2014-03-21 삼성전자주식회사 제스쳐 인식 방법 및 시스템
KR20140112316A (ko) * 2013-03-13 2014-09-23 모젼스랩(주) 모션인식을 이용한 스마트 디바이스 제어 장치 및 방법
KR20160099267A (ko) * 2015-02-12 2016-08-22 연세대학교 산학협력단 3차원 애니메이션 컨텐츠 저작 장치 및 그 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110531372A (zh) * 2019-07-19 2019-12-03 上海航天控制技术研究所 一种合作目标位置与姿态的估计方法
WO2022114300A1 (ko) * 2020-11-27 2022-06-02 변주영 전자장치 및 라이다 센서를 이용한 전자장치 제어 방법

Similar Documents

Publication Publication Date Title
KR101891907B1 (ko) 거리 측정 장치 및 시차 연산 시스템
JP6019959B2 (ja) 物体検出装置、物体検出プログラムおよび車両
JP4352034B2 (ja) 物体位置検出装置、地図作成装置、自律移動装置、物体位置検出方法および物体位置検出プログラム
KR101956608B1 (ko) 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법, 서버, 기기 및 프로그램
WO2016181854A1 (ja) ガス濃度測定装置
KR20130131464A (ko) 측정 장치와 접촉하지 않고 기능하는 제스처 측정 트리거링을 갖는 전자-광학 거리 측정 장치
KR20170120655A (ko) 볼륨 내 물체의 심도 맵핑을 위한 광 패턴의 강도 변화의 사용
EP3279691B1 (en) Rangefinder based on parallax calculation
US10140722B2 (en) Distance measurement apparatus, distance measurement method, and non-transitory computer-readable storage medium
CN104583904A (zh) 用于输入对机动车部件的控制命令的方法
WO2017138155A1 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
US20230051900A1 (en) Distance measurement apparatus, mirror control method, and computer-readable recording medium storing program
JP6804949B2 (ja) 制御装置、測定装置、およびコンピュータプログラム
US9898092B2 (en) Input apparatus
KR20200075707A (ko) 제스쳐의 인식 위치에 따른 모션 인식 기기의 제어 방법, 서버, 기기 및 프로그램
US10782409B2 (en) Technologies for LIDAR based moving object detection
JP7499379B2 (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
US20220411258A1 (en) Distance measurement apparatus, angle-of-view control method, and computer-readable recording medium storing program
US20220244392A1 (en) High resolution lidar scanning
US11899113B2 (en) Vehicle position estimation apparatus
US11119214B2 (en) Triangulation sensing system and method with triangulation light extended focus range using variable focus lens
JP2007192755A (ja) 測距装置
US11048964B2 (en) Survey data processing device, survey data processing method, and survey data processing program
JP2017125764A (ja) 物体検出装置、及び物体検出装置を備えた画像表示装置
CN108205126B (zh) 激光测距器