KR102672302B1 - APPARATUS AND METHOD FOR CALIBRATION USING 3D ToF SENSOR AND LINE SLIT - Google Patents

APPARATUS AND METHOD FOR CALIBRATION USING 3D ToF SENSOR AND LINE SLIT Download PDF

Info

Publication number
KR102672302B1
KR102672302B1 KR1020170016906A KR20170016906A KR102672302B1 KR 102672302 B1 KR102672302 B1 KR 102672302B1 KR 1020170016906 A KR1020170016906 A KR 1020170016906A KR 20170016906 A KR20170016906 A KR 20170016906A KR 102672302 B1 KR102672302 B1 KR 102672302B1
Authority
KR
South Korea
Prior art keywords
sensor
calibration
coordinates
reference point
screen
Prior art date
Application number
KR1020170016906A
Other languages
Korean (ko)
Other versions
KR20180091558A (en
Inventor
박미룡
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020170016906A priority Critical patent/KR102672302B1/en
Publication of KR20180091558A publication Critical patent/KR20180091558A/en
Application granted granted Critical
Publication of KR102672302B1 publication Critical patent/KR102672302B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • G06T3/067Reshaping or unfolding 3D tree structures onto 2D planes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명의 일실시예에 의한 캘리브레이션 장치가 수행하는 캘리브레이션 방법에 있어서, 프로젝트에 의해 표시되는 화면에서, 3D 센서를 이용하여 상기 표시된 화면을 인지하는 단계; 상기 인지된 화면에서, 캘리브레이션을 실행하기 위해 설정되는 기준점의 위치에 대한 3차원 좌표를 2차원 좌표로 변환하는 단계; 사용자에 의해 상기 기준점의 주변에 포인터가 입력되는 경우, 상기 입력된 포인터의 위치에 대한 3차원 좌표를 2차원 좌표로 변환하는 단계; 및 상기 기준점의 위치에 대한 2차원 좌표와 상기 포인터의 위치에 대한 2차원 좌표를 비교하여 3D 센서의 회전 각도를 계산하는 단계; 상기 계산된 회전 각도에 따라 3D 센서의 회전을 제어하는 단계를 포함하는 캘리브레이션 방법일 수 있다.A calibration method performed by a calibration device according to an embodiment of the present invention includes the steps of recognizing a screen displayed by a project using a 3D sensor; Converting, in the recognized screen, three-dimensional coordinates of the position of a reference point set to perform calibration into two-dimensional coordinates; When a pointer is input around the reference point by a user, converting three-dimensional coordinates of the position of the input pointer into two-dimensional coordinates; and calculating a rotation angle of the 3D sensor by comparing two-dimensional coordinates for the location of the reference point and two-dimensional coordinates for the location of the pointer. It may be a calibration method that includes controlling the rotation of the 3D sensor according to the calculated rotation angle.

Description

3D ToF 센서를 이용한 캘리브레이션 방법 및 장치{APPARATUS AND METHOD FOR CALIBRATION USING 3D ToF SENSOR AND LINE SLIT}Calibration method and device using 3D ToF sensor {APPARATUS AND METHOD FOR CALIBRATION USING 3D ToF SENSOR AND LINE SLIT}

본 발명은 3D ToF 센서를 이용한 캘리브레이션 방법 및 장치에 관한 것으로, 보다 구체적으로는 3D ToF 센서를 통해 인지된 화면을 2차원 좌표로 변환하고, 3D ToF 센서의 회전을 통해 캘리브레이션을 실행하는 방법 및 장치에 관한 것이다.The present invention relates to a calibration method and device using a 3D ToF sensor. More specifically, a method and device for converting a screen recognized through a 3D ToF sensor into two-dimensional coordinates and performing calibration through rotation of the 3D ToF sensor. It's about.

현재 컴퓨터와 인간의 상호 작용을 도와주는 입력 장치로서 키보드마우스터치 패널등이 시용되고 있다. 마우스와 터치 패널이 제조될 경우, 캘리브레이션은 제조시점에서 이루어져 사용자에 의해 별도의 조정이 필요하지 않다. Currently, keyboards, mice, touch panels, etc. are being used as input devices that help interact between computers and humans. When a mouse and touch panel are manufactured, calibration is performed at the time of manufacture and no separate adjustment by the user is required.

프로젝트등에 의해 표시되는 화면은, 컴퓨터노트북등과 달리 마우스와 같은 입력 장치의 캘리브레이션을 위해 사용자의 별도 조정이 필요하다. The screen displayed by the project, etc., unlike a computer laptop, requires separate adjustment by the user to calibrate an input device such as a mouse.

본 발명은 프로젝트등에 의해 표시되는 화면에서 마우스와 같은 입력 장치를 조정하는 캘리브레이션 방법 및 장치를 제공한다.The present invention provides a calibration method and device for adjusting an input device such as a mouse on a screen displayed by a project, etc.

본 발명은 3D ToF 센서를 이용하여 화면을 인식함으로써, 마우스와 같은 입력 장치를 조정하는 캘리브레이션 방법 및 장치를 제공한다.The present invention provides a calibration method and device for adjusting an input device such as a mouse by recognizing the screen using a 3D ToF sensor.

본 발명의 일실시예로서, 캘리브레이션 장치가 수행하는 캘리브레이션 방법에 있어서, 프로젝트에 의해 표시되는 화면에서, 3D 센서를 이용하여 상기 표시된 화면을 인지하는 단계; 상기 인지된 화면에서, 캘리브레이션을 실행하기 위해 설정되는 기준점의 위치에 대한 3차원 좌표를 2차원 좌표로 변환하는 단계; 사용자에 의해 상기 기준점의 주변에 포인터가 입력되는 경우, 상기 입력된 포인터의 위치에 대한 3차원 좌표를 2차원 좌표로 변환하는 단계; 및 상기 기준점의 위치에 대한 2차원 좌표와 상기 포인터의 위치에 대한 2차원 좌표를 비교하여 3D 센서의 회전 각도를 계산하는 단계; 상기 계산된 회전 각도에 따라 3D 센서의 회전을 제어하는 단계를 포함하는 캘리브레이션 방법일 수 있다.As an embodiment of the present invention, a calibration method performed by a calibration device includes the steps of recognizing a screen displayed by a project using a 3D sensor; Converting, in the recognized screen, three-dimensional coordinates of the position of a reference point set to perform calibration into two-dimensional coordinates; When a pointer is input around the reference point by a user, converting three-dimensional coordinates of the position of the input pointer into two-dimensional coordinates; and calculating a rotation angle of the 3D sensor by comparing two-dimensional coordinates for the location of the reference point and two-dimensional coordinates for the location of the pointer. It may be a calibration method that includes controlling the rotation of the 3D sensor according to the calculated rotation angle.

상기 2차원 좌표로 변환은, 화면의 좌측 상단 또는 우측 상단에 위치한 ToF 방식을 이용하는 3D 센서를 통해, 3D 센서의 내부에 설치된 2D Line Slit을 이용하여 2차원 좌표로 변환하는 캘리브레이션 방법일 수 있다. The conversion to 2D coordinates may be a calibration method of converting to 2D coordinates using a 2D Line Slit installed inside the 3D sensor through a 3D sensor using a ToF method located at the upper left or upper right of the screen.

상기 2차원 좌표로 변환은, 화면의 좌측 상단 또는 우측 상단에 위치한 ToF 방식을 이용하는 3D 센서를 통해, 3D 센서의 외부에 설치된 2D Line Slit을 이용하여 2차원 좌표로 변환하는 캘리브레이션 방법일 수 있다.The conversion to 2D coordinates may be a calibration method of converting to 2D coordinates using a 2D Line Slit installed outside the 3D sensor through a 3D sensor using a ToF method located at the upper left or upper right of the screen.

상기 캘리브레이션의 기준점은, 4개의 기준점을 설정하는 캘리브레이션 방법일 수 있다.The reference point of the calibration may be a calibration method that sets four reference points.

본 발명의 일실시예로서, 캘리브레이션 장치에 있어서, 상기 캘리브레이션 장치는 프로세서를 포함하고, 상기 프로세서는, 프로젝트에 의해 표시되는 화면에서, 3D 센서를 이용하여 상기 표시된 화면을 인지하고, 상기 인지된 화면에서, 캘리브레이션을 실행하기 위해 설정되는 기준점의 위치에 대한 3차원 좌표를 2차원 좌표로 변환하고, 사용자에 의해 상기 기준점의 주변에 포인터가 입력되는 경우, 상기 입력된 포인터의 위치에 대한 3차원 좌표를 2차원 좌표로 변환하며, 상기 기준점의 위치에 대한 2차원 좌표와 상기 포인터의 위치에 대한 2차원 좌표를 비교하여 3D 센서의 회전 각도를 계산하고, 상기 계산된 회전 각도에 따라 3D 센서의 회전을 제어하는 캘리브레이션 장치 일 수 있다.In an embodiment of the present invention, in a calibration device, the calibration device includes a processor, and the processor recognizes the displayed screen using a 3D sensor on a screen displayed by a project, and displays the recognized screen. In, 3D coordinates for the location of the reference point set to perform calibration are converted into 2D coordinates, and when a pointer is input around the reference point by the user, 3D coordinates for the location of the input pointer Convert to two-dimensional coordinates, calculate the rotation angle of the 3D sensor by comparing the two-dimensional coordinates for the location of the reference point and the two-dimensional coordinates for the location of the pointer, and rotate the 3D sensor according to the calculated rotation angle. It may be a calibration device that controls .

상기 2차원 좌표로 변환은, 화면의 좌측 상단 또는 우측 상단에 위치한 ToF 방식을 이용하는 3D 센서를 통해, 3D 센서의 내부에 설치된 2D Line Slit을 이용하여 2차원 좌표로 변환하는 캘리브레이션 장치일 수 있다.The conversion to 2D coordinates may be a calibration device that converts to 2D coordinates using a 2D Line Slit installed inside the 3D sensor through a 3D sensor using a ToF method located at the top left or top right of the screen.

상기 2차원 좌표로 변환은, 화면의 좌측 상단 또는 우측 상단에 위치한 ToF 방식을 이용하는 3D 센서를 통해, 3D 센서의 외부에 설치된 2D Line Slit을 이용하여 2차원 좌표로 변환하는 캘리브레이션 장치일 수 있다.The conversion to 2D coordinates can be done through a 3D sensor using a ToF method located at the top left or top right of the screen, and a calibration device that converts to 2D coordinates using a 2D Line Slit installed outside the 3D sensor.

상기 캘리브레이션의 기준점은, 4개의 기준점을 설정하는 캘리브레이션 장치일 수 있다.The reference point of the calibration may be a calibration device that sets four reference points.

본 발명의 일실시예에 따르면, 프로젝트등에 의해 표시되는 화면에서 마우스와 같은 입력 장치를 조정하는 캘리브레이션 방법 및 장치를 제공할 수 있다.According to one embodiment of the present invention, a calibration method and device for adjusting an input device such as a mouse on a screen displayed by a project, etc. can be provided.

본 발명의 일실시예에 따르면, 3D ToF 센서를 이용하여 화면을 인식함으로써, 마우스와 같은 입력 장치를 조정하는 캘리브레이션 방법 및 장치를 제공할 수 있다.According to an embodiment of the present invention, a calibration method and device for adjusting an input device such as a mouse can be provided by recognizing the screen using a 3D ToF sensor.

도 1은 본 발명의 일실시예에 따라 3D 센서가 프로젝트에 의한 화면을 인지하는 것을 도시한 도면이다.
도 2는 본 발명의 일실시예에 따라 3D 센서가 기울어지지 않은 상태에서 정상적인 캘리브레이션을 실행한 결과를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따라 3D 센서가 기울어진 상태에서 캘리브레이션을 실행한 결과를 도시한 도면이다.
도 4는 본 발명의 일실시예에 따라, 기울어진 3D 센서를 회전하는 것을 도시한 도면이다.
Figure 1 is a diagram showing a 3D sensor recognizing a screen by a project according to an embodiment of the present invention.
Figure 2 is a diagram showing the results of normal calibration in a state where the 3D sensor is not tilted according to an embodiment of the present invention.
Figure 3 is a diagram showing the results of performing calibration with the 3D sensor tilted according to an embodiment of the present invention.
Figure 4 is a diagram illustrating rotation of an inclined 3D sensor according to an embodiment of the present invention.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일실시예에 따라 3D 센서가 프로젝트에 의한 화면을 인지하는 것을 도시한 도면이다.Figure 1 is a diagram showing a 3D sensor recognizing a screen by a project according to an embodiment of the present invention.

캘리브레이션(Calibration)은, 화면위치와 같은 특성을 조절하여 기기에서 일정하게 실행되는 것을 의미할 수 있다. 일례로, 캘리브레이션은 마우스와 같은 위치의 입력 장치를 위해 실행 될 수 있다. 마우스의 캘리브레이션은 마우스에 의해 입력되는 위치와 사용자가 원하는 위치의 차이를 조절할 수 있다. Calibration may mean that characteristics such as screen position are adjusted and executed consistently on the device. As an example, calibration may be performed for a positioned input device such as a mouse. Mouse calibration can adjust the difference between the position input by the mouse and the user's desired position.

프로젝트는 영상 출력 장치에 연결되어, 영상 출력 장치에 나타난 화면을 사용자가 선택한 다른 임의의 장소에 투사하는 기기일 수 있다. 그리고, 프로젝트는 원격에서 빔을 투사하여 모니터와 같은 영상 출력 장치의 화면을 표시하는 기기일 수 있다. 일례로, 프로젝트(107)는 영상 출력 장치에 연결되고 원격에서 빔을 투사하여, 모니터와 같은 영상 출력 장치에 나타난 화면을 임의의 장소에 표시하는 기기일 수 있다. 그래서, 화면(100)은 프로젝트(107)에 의해 표시될 수 있다.A projector may be a device that is connected to a video output device and projects the screen displayed on the video output device to any other location selected by the user. Additionally, the projector may be a device that projects a beam remotely and displays the screen of an image output device such as a monitor. For example, the projector 107 may be a device that is connected to an image output device and projects a beam remotely to display a screen displayed on an image output device such as a monitor in a random location. So, screen 100 can be displayed by project 107.

3D 센서는 프로젝트에 의해 표시되는 화면을 인지하는 기기일 수 있다. 3D 센서는 입체감을 가지는 3D 형태로 정보를 획득하고, 용도에 맞게 분석가공할 수 있도록 도와주는 기기일 수 있다. 일례로, 3D 센서(106)는 프로젝트(107)에 의해 표시되는 화면(100)을 입체감을 가지는 3D 형태로 정보를 획득하는 기기일 수 있다. A 3D sensor may be a device that recognizes the screen displayed by the project. A 3D sensor may be a device that helps obtain information in a 3D form with a three-dimensional effect and analyze and process it according to the purpose. For example, the 3D sensor 106 may be a device that obtains information from the screen 100 displayed by the projector 107 in a 3D form with a three-dimensional effect.

캘리브레이션 장치는 설정된 기준점의 위치와 사용자에 의해 입력된 포인터의 위치를 비교할 수 있다. 이 때, 비교결과가 다른 경우는 3D 센서(106)의 회전을 한 후, 다시 캘리브레이션을 실행할 수 있다. 일례로, 캘리브레이션 장치는 화면(100)에서 X1~X4 기준점(101~104)의 위치를 설정할 수 있다. 포인터(105)는 사용자에 의해 입력된 위치를 나타낼 수 있다. 캘리브레이션 장치는 설정된 기준점의 위치와 포인터(105)에 의한 위치를 비교할 수 있다. 이 때, 비교결과가 다른 경우, 비교결과에 따라 3D 센서(106)를 회전하고, 다시 캘리브레이션을 실행할 수 있다. The calibration device can compare the position of the set reference point with the position of the pointer input by the user. At this time, if the comparison results are different, the 3D sensor 106 can be rotated and then calibration can be performed again. For example, the calibration device can set the positions of the X1 to X4 reference points (101 to 104) on the screen 100. The pointer 105 may indicate a location input by the user. The calibration device can compare the position of the set reference point with the position of the pointer 105. At this time, if the comparison results are different, the 3D sensor 106 can be rotated according to the comparison results and calibration can be performed again.

도 2는 본 발명의 일실시예에 따라 3D 센서가 기울어지지 않은 상태에서 정상적인 캘리브레이션을 실행한 결과를 도시한 도면이다.Figure 2 is a diagram showing the results of normal calibration in a state where the 3D sensor is not tilted according to an embodiment of the present invention.

화면(100)은 3D 센서의 하나인, 3D ToF 센서를 통해 인지될 수 있다. 3D ToF 센서는 신호를 송신하는 송신부, 신호를 수신하는 수신부를 같은 장치 내에서 구현하여 실행될 수 있다. 3D ToF 센서의 송신부는 특정 주파수(f)로 변조된 신호를 송신할 수 있다. 3D ToF 센서의 수신부는 화면에 반사되어 돌아오는 신호를 수신할 수 있다. 이 때, 3D ToF 센서는 신호가 화면까지 왕복하는 시간에 의한 위상변화를 감지하여, 수학식 1과 같이 3D ToF 센서와 화면 사이의 거리를 계산할 수 있다. The screen 100 can be recognized through a 3D ToF sensor, which is one of the 3D sensors. The 3D ToF sensor can be implemented by implementing a transmitter that transmits a signal and a receiver that receives the signal within the same device. The transmitter of the 3D ToF sensor can transmit a signal modulated with a specific frequency (f). The receiver of the 3D ToF sensor can receive signals that are reflected on the screen and returned. At this time, the 3D ToF sensor can detect the phase change due to the time it takes for the signal to travel back and forth to the screen, and calculate the distance between the 3D ToF sensor and the screen as shown in Equation 1.

Figure 112017012733413-pat00001
Figure 112017012733413-pat00001

d는 측정거리, c는 빛의 속도, f는 변조된 신호의 주파수, n은 위상 주기가 반복되면서 생기는 상수,

Figure 112017012733413-pat00002
는 수신한 신호의 위상을 의미할 수 있다. d is the measurement distance, c is the speed of light, f is the frequency of the modulated signal, n is a constant resulting from the repetition of the phase cycle,
Figure 112017012733413-pat00002
may mean the phase of the received signal.

일례로, 신호는 3D 센서(106)의 하나인 3D ToF 센서의 송신부에서 특정 주파수(f)로 변조되어 전송되고, 화면(100)에 반사되어 3D ToF 센서의 수신부에서 수신될 수 있다. 그러면, 3D ToF 센서에서 화면(100)까지의 거리는 변조된 신호의 주파수 f, 수신한 신호의 위상

Figure 112017012733413-pat00003
등을 이용하여 계산될 수 있다. 그래서, 3D ToF 센서는 프로젝트에 의해 표시되는 화면(100)을 인지할 수 있다.For example, the signal may be modulated and transmitted at a specific frequency (f) from the transmitter of the 3D ToF sensor, which is one of the 3D sensors 106, and reflected on the screen 100 to be received at the receiver of the 3D ToF sensor. Then, the distance from the 3D ToF sensor to the screen 100 is the frequency f of the modulated signal and the phase of the received signal.
Figure 112017012733413-pat00003
It can be calculated using, etc. So, the 3D ToF sensor can recognize the screen 100 displayed by the projector.

3D 센서(106)에 의해 인지된 화면에서, 기준점으로 설정된 위치의 2차원 좌표는 포인터(105)의 위치에 대한 2차원 좌표와 동일할 수 있다. 이 때, 포인터는 사용자에 의한 입력을 나타내는 표시일 수 있다. 그래서, 3D 센서(106)는 캘리브레이션 장치에 의해 회전하지 않을 수 있다. 일례로, 사용자에 의한 포인터의 위치(201~204)는 X1~X4 기준점과의 구별을 쉽게 하기 위해, 원형(201~204)로 표시되었다. 캘리브레이션 장치는 설정된 X1~X4 기준점(101~104)을 화면(100)에 표시할 수 있다. 포인터의 위치(201~204)에 대한 2차원 좌표는 X1~X4 기준점(101~104)의 위치에 대한 2차원 좌표와 동일할 수 있다. 그러면, 3D 센서(106)는 캘리브레이션 장치에 의해 회전하지 않을 수 있다.In the screen recognized by the 3D sensor 106, the two-dimensional coordinates of the location set as the reference point may be the same as the two-dimensional coordinates of the location of the pointer 105. At this time, the pointer may be a sign indicating input by the user. So, the 3D sensor 106 may not be rotated by the calibration device. For example, the position of the pointer (201 to 204) by the user is displayed as a circle (201 to 204) to easily distinguish it from the X1 to X4 reference points. The calibration device can display set X1 to X4 reference points (101 to 104) on the screen 100. The two-dimensional coordinates for the position of the pointer (201 to 204) may be the same as the two-dimensional coordinates for the positions of the X1 to X4 reference points (101 to 104). Then, the 3D sensor 106 may not be rotated by the calibration device.

위에서 언급한, 기준점의 개수는 복수로 설정될 수 있다. 일례로, 기준점의 개수는 4개로 설정될 수 있다. 그래서, 캘리브레이션 장치는 4개로 설정된 X1~X4 기준점(101~104)의 위치의 2차원 좌표와 포인터의 위치의 2차원 좌표를 각각 비교할 수 있다. 이때, 캘리브레이션 장치는 모든 2차원 좌표가 일치하는 경우, 3D 센서(106)의 회전을 실행하지 않도록 제어할 수 있다.As mentioned above, the number of reference points can be set to multiple. For example, the number of reference points may be set to four. Therefore, the calibration device can compare the two-dimensional coordinates of the positions of the four X1 to X4 reference points (101 to 104) and the two-dimensional coordinates of the pointer positions, respectively. At this time, the calibration device may control not to perform rotation of the 3D sensor 106 when all two-dimensional coordinates match.

도 3은 본 발명의 일실시예에 따라 3D 센서가 기울어진 상태에서 캘리브레이션을 실행한 결과를 도시한 도면이다. Figure 3 is a diagram showing the results of performing calibration with the 3D sensor tilted according to an embodiment of the present invention.

도 2와 비교하여 3D 센서가 기울어진 상태에서 캘리브레이션이 실행된 결과로써, 도 2와 달리 기준점과 사용자에 의한 포인터의 위치는 조금씩 다른 것을 확인할 수 있다. 구체적으로, 사용자에 의한 포인터의 위치(301~304)는 X1~X4 기준점과의 구별을 쉽게 하기 위해, 원형(301~304)으로 표시될 수 있다. 캘리브레이션의 기준점으로 설정되는 위치는 X1~X4 기준점(101~104)로 표시될 수 있다. 도 3은, 3D 센서가 도 2와 비교하여 기울어진 상태에서 캘리브레이션이 실행된 것이다. 그래서 X1~X4 기준점(101~104)과 포인터의 위치(301~304)는 조금씩 다른 위치에 존재할 수 있다.As a result of the calibration being performed with the 3D sensor tilted compared to FIG. 2, it can be seen that, unlike FIG. 2, the position of the reference point and the user's pointer are slightly different. Specifically, the user's pointer positions (301 to 304) may be displayed as circles (301 to 304) to easily distinguish them from the X1 to X4 reference points. The position set as the reference point for calibration may be displayed as the X1 to X4 reference point (101 to 104). Figure 3 shows calibration performed with the 3D sensor tilted compared to Figure 2. Therefore, the X1~X4 reference points (101~104) and the pointer positions (301~304) may exist in slightly different positions.

캘리브레이션의 기준점이 되는 위치는 임의로 설정될 수 있다. 일례로, 화면(100)에서, X1~X4 기준점(101~104)의 위치는 3D 센서(106)에 의해 인지된 화면에서 임의의 위치로 설정될 수 있다. The position that becomes the reference point for calibration can be set arbitrarily. For example, in the screen 100, the positions of the X1 to X4 reference points 101 to 104 may be set to arbitrary positions on the screen recognized by the 3D sensor 106.

도 4는 본 발명의 일실시예에 따라, 기울어진 3D 센서를 회전하는 것을 도시한 도면이다. Figure 4 is a diagram illustrating rotation of an inclined 3D sensor according to an embodiment of the present invention.

캘리브레이션 장치는 3D 센서(106)의 기울어진 각도를 기준점과 포인터의 2차원 좌표를 비교하여 계산할 수 있다. 그래서, 캘리브레이션 장치는 계산된 결과에 따라 3D 센서(106)를 회전시킬 수 있다. 일례로, 3D 센서(106)의 회전 각도는, X1~X4 기준점(101~104)의 위치에 대한 2차원 좌표와 사용자가 입력한 포인터의 위치(401~404)에 대한 2차원 좌표의 차이에 기초하여 계산될 수 있다. 그래서, 계산 결과가 상이한 경우, 3D 센서(106)는 계산된 결과에 따라 회전될 수 있다.The calibration device can calculate the tilt angle of the 3D sensor 106 by comparing the two-dimensional coordinates of the reference point and the pointer. So, the calibration device can rotate the 3D sensor 106 according to the calculated result. For example, the rotation angle of the 3D sensor 106 is the difference between the two-dimensional coordinates for the positions of the X1 to It can be calculated based on So, if the calculation results are different, the 3D sensor 106 may be rotated according to the calculated results.

일례로, X3 기준점(103)의 위치에 대한 3D 센서(106)의 회전 각도를 수학식 2를 이용해 계산해 볼 수 있다. For example, the rotation angle of the 3D sensor 106 with respect to the position of the X3 reference point 103 can be calculated using Equation 2.

Figure 112017012733413-pat00004
Figure 112017012733413-pat00004

Figure 112017012733413-pat00005
는 3D 센서(106)의 기울어진 각도를 의미하고, y는 3D 센서(106)에서 X3 기준점(103)까지의 거리를 의미하며,
Figure 112017012733413-pat00006
는 X3 기준점(103)과 원형(403)의 거리 차이를 의미할 수 있다.
Figure 112017012733413-pat00005
means the tilt angle of the 3D sensor 106, y means the distance from the 3D sensor 106 to the X3 reference point 103,
Figure 112017012733413-pat00006
may mean the distance difference between the X3 reference point 103 and the circle 403.

일례로, 포인터의 좌표와 X3 기준점(103) 좌표의 차이에 따라, 캘리브레이션 장치는 계산한 결과인

Figure 112017012733413-pat00007
값만큼 3D 센서를 좌우로 회전시킬 수 있다. 일례로, 3D 센서가 왼쪽으로 기울어진 경우, 3D 센서는 오른쪽으로
Figure 112017012733413-pat00008
만큼 회전할 수 있다. 일례로, 3D 센서가 오른쪽으로 기울어진 경우, 3D 센서는 왼쪽으로
Figure 112017012733413-pat00009
만큼 회전할 수 있다.For example, according to the difference between the coordinates of the pointer and the coordinates of the X3 reference point (103), the calibration device calculates the
Figure 112017012733413-pat00007
The 3D sensor can be rotated left and right by the value. For example, if the 3D sensor is tilted to the left, the 3D sensor will tilt to the right.
Figure 112017012733413-pat00008
It can rotate as much as For example, if the 3D sensor is tilted to the right, the 3D sensor will tilt to the left.
Figure 112017012733413-pat00009
It can rotate as much as

한편, 본 발명에 따른 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성되어 마그네틱 저장매체, 광학적 판독매체, 디지털 저장매체 등 다양한 기록 매체로도 구현될 수 있다.Meanwhile, the method according to the present invention is written as a program that can be executed on a computer and can be implemented in various recording media such as magnetic storage media, optical read media, and digital storage media.

본 명세서에 설명된 각종 기술들의 구현들은 디지털 전자 회로조직으로, 또는 컴퓨터 하드웨어, 펌웨어, 소프트웨어로, 또는 그들의 조합들로 구현될 수 있다. 구현들은 데이터 처리 장치, 예를 들어 프로그램가능 프로세서, 컴퓨터, 또는 다수의 컴퓨터들의 동작에 의한 처리를 위해, 또는 이 동작을 제어하기 위해, 컴퓨터 프로그램 제품, 즉 정보 캐리어, 예를 들어 기계 판독가능 저장 장치(컴퓨터 판독가능 매체) 또는 전파 신호에서 유형적으로 구체화된 컴퓨터 프로그램으로서 구현될 수 있다. 상술한 컴퓨터 프로그램(들)과 같은 컴퓨터 프로그램은 컴파일된 또는 인터프리트된 언어들을 포함하는 임의의 형태의 프로그래밍 언어로 기록될 수 있고, 독립형 프로그램으로서 또는 모듈, 구성요소, 서브루틴, 또는 컴퓨팅 환경에서의 사용에 적절한 다른 유닛으로서 포함하는 임의의 형태로 전개될 수 있다. 컴퓨터 프로그램은 하나의 사이트에서 하나의 컴퓨터 또는 다수의 컴퓨터들 상에서 처리되도록 또는 다수의 사이트들에 걸쳐 분배되고 통신 네트워크에 의해 상호 연결되도록 전개될 수 있다.Implementations of the various techniques described herein may be implemented in digital electronic circuitry, or in computer hardware, firmware, software, or combinations thereof. Implementations may include a computer program product, i.e., an information carrier, e.g., machine-readable storage, for processing by or controlling the operation of a data processing device, e.g., a programmable processor, a computer, or multiple computers. It may be implemented as a computer program tangibly embodied in a device (computer-readable medium) or a radio signal. Computer programs, such as the computer program(s) described above, may be written in any form of programming language, including compiled or interpreted languages, and may be written as a stand-alone program or as a module, component, subroutine, or part of a computing environment. It can be deployed in any form, including as other units suitable for use. The computer program may be deployed for processing on one computer or multiple computers at one site or distributed across multiple sites and interconnected by a communications network.

컴퓨터 프로그램의 처리에 적절한 프로세서들은 예로서, 범용 및 특수 목적 마이크로프로세서들 둘 다, 및 임의의 종류의 디지털 컴퓨터의 임의의 하나 이상의 프로세서들을 포함한다. 일반적으로, 프로세서는 판독 전용 메모리 또는 랜덤 액세스 메모리 또는 둘 다로부터 명령어들 및 데이터를 수신할 것이다. 컴퓨터의 요소들은 명령어들을 실행하는 적어도 하나의 프로세서 및 명령어들 및 데이터를 저장하는 하나 이상의 메모리 장치들을 포함할 수 있다. 일반적으로, 컴퓨터는 데이터를 저장하는 하나 이상의 대량 저장 장치들, 예를 들어 자기, 자기-광 디스크들, 또는 광 디스크들을 포함할 수 있거나, 이것들로부터 데이터를 수신하거나 이것들에 데이터를 송신하거나 또는 양쪽으로 되도록 결합될 수도 있다. 컴퓨터 프로그램 명령어들 및 데이터를 구체화하는데 적절한 정보 캐리어들은 예로서 반도체 메모리 장치들, 예를 들어, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 롬(ROM, Read Only Memory), 램(RAM, Random Access Memory), 플래시 메모리, EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 등을 포함한다. 프로세서 및 메모리는 특수 목적 논리 회로조직에 의해 보충되거나, 이에 포함될 수 있다.Processors suitable for processing computer programs include, by way of example, both general-purpose and special-purpose microprocessors, and any one or more processors of any type of digital computer. Typically, a processor will receive instructions and data from read-only memory or random access memory, or both. Elements of a computer may include at least one processor that executes instructions and one or more memory devices that store instructions and data. Generally, a computer may include one or more mass storage devices that store data, such as magnetic, magneto-optical disks, or optical disks, receive data from, transmit data to, or both. It can also be combined to make . Information carriers suitable for embodying computer program instructions and data include, for example, semiconductor memory devices, magnetic media such as hard disks, floppy disks, and magnetic tapes, and Compact Disk Read Only Memory (CD-ROM). ), optical media such as DVD (Digital Video Disk), magneto-optical media such as Floptical Disk, ROM (Read Only Memory), RAM , Random Access Memory), flash memory, EPROM (Erasable Programmable ROM), and EEPROM (Electrically Erasable Programmable ROM). The processor and memory may be supplemented by or included in special purpose logic circuitry.

또한, 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용매체일 수 있고, 컴퓨터 저장매체 및 전송매체를 모두 포함할 수 있다.Additionally, computer-readable media can be any available media that can be accessed by a computer, and can include both computer storage media and transmission media.

본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.Although this specification contains details of numerous specific implementations, these should not be construed as limitations on the scope of any invention or what may be claimed, but rather as descriptions of features that may be unique to particular embodiments of particular inventions. It must be understood. Certain features described herein in the context of individual embodiments may also be implemented in combination in a single embodiment. Conversely, various features described in the context of a single embodiment can also be implemented in multiple embodiments individually or in any suitable sub-combination. Furthermore, although features may be described as operating in a particular combination and initially claimed as such, one or more features from a claimed combination may in some cases be excluded from that combination, and the claimed combination may be a sub-combination. It can be changed to a variant of a sub-combination.

마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 장치 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 장치들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징 될 수 있다는 점을 이해하여야 한다.Likewise, although operations are depicted in the drawings in a particular order, this should not be construed as requiring that those operations be performed in the particular order or sequential order shown or that all of the depicted operations must be performed to obtain desirable results. In certain cases, multitasking and parallel processing may be advantageous. Additionally, the separation of various device components in the above-described embodiments should not be construed as requiring such separation in all embodiments, and the described program components and devices may generally be integrated together into a single software product or packaged into multiple software products. You must understand that it is possible.

한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.Meanwhile, the embodiments of the present invention disclosed in the specification and drawings are merely provided as specific examples to aid understanding, and are not intended to limit the scope of the present invention. It is obvious to those skilled in the art that in addition to the embodiments disclosed herein, other modifications based on the technical idea of the present invention can be implemented.

100: 화면
101~104: 기준점
105: 포인터
106: 3D 센서
107: 프로젝트
100: screen
101~104: Reference point
105: pointer
106: 3D sensor
107: Project

Claims (8)

캘리브레이션 장치가 수행하는 캘리브레이션 방법에 있어서,
프로젝트에 의해 표시되는 화면에서, 3D 센서를 이용하여 상기 표시된 화면을 인지하는 단계;
상기 인지된 화면에서, 캘리브레이션을 실행하기 위해 설정되는 기준점의 위치에 대한 3차원 좌표를 2차원 좌표로 변환하는 단계;
사용자에 의해 상기 기준점의 주변에 포인터가 입력되는 경우, 상기 입력된 포인터의 위치에 대한 3차원 좌표를 2차원 좌표로 변환하는 단계;
상기 기준점의 위치에 대한 2차원 좌표와 상기 포인터의 위치에 대한 2차원 좌표를 비교하여 3D 센서의 회전 각도를 계산하는 단계; 및
상기 계산된 회전 각도에 따라 3D 센서의 회전을 제어하는 단계
를 포함하고,
상기 3D 센서의 회전 각도를 계산하는 단계는,
수학식 2를 이용하여 3D 센서의 회전 각도를 계산하는 캘리브레이션 방법.
[수학식 2]

이때, 는 상기 3D 센서의 기울어진 각도이고, y는 상기 3D 센서에서 상기 기준점의 위치에 대한 2차원 좌표까지의 거리이며, 는 상기 기준점의 위치에 대한 2차원 좌표과 상기 포인터의 위치 간의 거리 차이이다.
In the calibration method performed by the calibration device,
On a screen displayed by a project, recognizing the displayed screen using a 3D sensor;
Converting, in the recognized screen, three-dimensional coordinates of the position of a reference point set to perform calibration into two-dimensional coordinates;
When a pointer is input around the reference point by a user, converting three-dimensional coordinates of the position of the input pointer into two-dimensional coordinates;
Comparing the two-dimensional coordinates of the location of the reference point and the two-dimensional coordinates of the pointer to calculate the rotation angle of the 3D sensor; and
Controlling the rotation of the 3D sensor according to the calculated rotation angle
Including,
The step of calculating the rotation angle of the 3D sensor is,
A calibration method that calculates the rotation angle of a 3D sensor using Equation 2.
[Equation 2]

At this time, is the tilt angle of the 3D sensor, y is the distance from the 3D sensor to the two-dimensional coordinate of the location of the reference point, is the distance difference between the two-dimensional coordinates of the location of the reference point and the location of the pointer.
제1항에 있어서,
상기 2차원 좌표로 변환하는 단계는,
화면의 좌측 상단 또는 우측 상단에 위치한 ToF 방식을 이용하는 3D 센서의 내부에 설치된 2D Line Slit을 이용하여 2차원 좌표로 변환하는 캘리브레이션 방법.
According to paragraph 1,
The step of converting to two-dimensional coordinates is,
A calibration method that converts to 2D coordinates using a 2D Line Slit installed inside a 3D sensor using the ToF method located at the top left or top right of the screen.
제1항에 있어서,
상기 2차원 좌표로 변환은,
화면의 좌측 상단 또는 우측 상단에 위치한 ToF 방식을 이용하는 3D 센서의 외부에 설치된 2D Line Slit을 이용하여 2차원 좌표로 변환하는 캘리브레이션 방법.
According to paragraph 1,
The conversion to the two-dimensional coordinates is,
A calibration method that converts to 2D coordinates using a 2D Line Slit installed outside of a 3D sensor using the ToF method located at the top left or top right of the screen.
제1항에 있어서,
상기 캘리브레이션의 기준점은, 4개의 기준점을 설정하는 캘리브레이션 방법.
According to paragraph 1,
The reference point of the calibration is a calibration method that sets four reference points.
캘리브레이션 장치에 있어서,
프로젝트에 의해 표시되는 화면에서, 3D 센서를 이용하여 상기 표시된 화면을 인지하고, 상기 인지된 화면에서, 캘리브레이션을 실행하기 위해 설정되는 기준점의 위치에 대한 3차원 좌표를 2차원 좌표로 변환하고, 사용자에 의해 상기 기준점의 주변에 포인터가 입력되는 경우, 상기 입력된 포인터의 위치에 대한 3차원 좌표를 2차원 좌표로 변환하며, 상기 기준점의 위치에 대한 2차원 좌표와 상기 포인터의 위치에 대한 2차원 좌표를 비교하여 3D 센서의 회전 각도를 계산하고, 상기 계산된 회전 각도에 따라 3D 센서의 회전을 제어하는 프로세서
를 포함하고,
상기 프로세서는,
수학식 2를 이용하여 3D 센서의 회전 각도를 계산하는 캘리브레이션 장치.
[수학식 2]

이때, 는 상기 3D 센서의 기울어진 각도이고, y는 상기 3D 센서에서 상기 기준점의 위치에 대한 2차원 좌표까지의 거리이며, 는 상기 기준점의 위치에 대한 2차원 좌표과 상기 포인터의 위치 간의 거리 차이이다.
In the calibration device,
On the screen displayed by the project, the displayed screen is recognized using a 3D sensor, and in the recognized screen, the 3D coordinates of the position of the reference point set to perform calibration are converted into 2D coordinates, and the user When a pointer is input around the reference point, the 3D coordinates for the input location of the pointer are converted into 2D coordinates, and the 2D coordinates for the location of the reference point and the 2D coordinates for the location of the pointer are converted into two-dimensional coordinates for the location of the reference point. A processor that compares coordinates to calculate the rotation angle of the 3D sensor and controls the rotation of the 3D sensor according to the calculated rotation angle.
Including,
The processor,
A calibration device that calculates the rotation angle of a 3D sensor using Equation 2.
[Equation 2]

At this time, is the tilt angle of the 3D sensor, y is the distance from the 3D sensor to the two-dimensional coordinate of the location of the reference point, is the distance difference between the two-dimensional coordinates of the location of the reference point and the location of the pointer.
제5항에 있어서,
상기 프로세서는,
화면의 좌측 상단 또는 우측 상단에 위치한 ToF 방식을 이용하는 3D 센서의 내부에 설치된 2D Line Slit을 이용하여 2차원 좌표로 변환하는 캘리브레이션 장치.
According to clause 5,
The processor,
A calibration device that converts to 2D coordinates using a 2D Line Slit installed inside a 3D sensor using the ToF method located at the top left or top right of the screen.
제5항에 있어서,
상기 프로세서는,
화면의 좌측 상단 또는 우측 상단에 위치한 ToF 방식을 이용하는 3D 센서의 외부에 설치된 2D Line Slit을 이용하여 2차원 좌표로 변환하는 캘리브레이션 장치.
According to clause 5,
The processor,
A calibration device that converts to 2D coordinates using a 2D Line Slit installed on the outside of a 3D sensor using the ToF method located at the top left or top right of the screen.
제5항에 있어서,
상기 캘리브레이션의 기준점은, 4개의 기준점을 설정하는 캘리브레이션 장치.
According to clause 5,
The reference point of the calibration is a calibration device that sets four reference points.
KR1020170016906A 2017-02-07 2017-02-07 APPARATUS AND METHOD FOR CALIBRATION USING 3D ToF SENSOR AND LINE SLIT KR102672302B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170016906A KR102672302B1 (en) 2017-02-07 2017-02-07 APPARATUS AND METHOD FOR CALIBRATION USING 3D ToF SENSOR AND LINE SLIT

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170016906A KR102672302B1 (en) 2017-02-07 2017-02-07 APPARATUS AND METHOD FOR CALIBRATION USING 3D ToF SENSOR AND LINE SLIT

Publications (2)

Publication Number Publication Date
KR20180091558A KR20180091558A (en) 2018-08-16
KR102672302B1 true KR102672302B1 (en) 2024-06-05

Family

ID=63443571

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170016906A KR102672302B1 (en) 2017-02-07 2017-02-07 APPARATUS AND METHOD FOR CALIBRATION USING 3D ToF SENSOR AND LINE SLIT

Country Status (1)

Country Link
KR (1) KR102672302B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065522A (en) * 2006-09-06 2008-03-21 Seiko Epson Corp Information display system and pointing control method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130041440A (en) * 2011-10-17 2013-04-25 삼성전자주식회사 Image processing apparatus and method thereof
KR101862199B1 (en) * 2012-02-29 2018-05-29 삼성전자주식회사 Method and Fusion system of time-of-flight camera and stereo camera for reliable wide range depth acquisition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065522A (en) * 2006-09-06 2008-03-21 Seiko Epson Corp Information display system and pointing control method

Also Published As

Publication number Publication date
KR20180091558A (en) 2018-08-16

Similar Documents

Publication Publication Date Title
CN109211298B (en) Sensor calibration method and device
US11686815B2 (en) Character recognition in air-writing based on network of radars
US10107914B2 (en) Actuated optical element for light beam scanning device
US9921299B2 (en) Dynamic beam spot size for light beam scanning device
US7725288B2 (en) Method and system for object control
US9513768B2 (en) Generation of depth images based upon light falloff
US10775483B1 (en) Apparatus for detecting and recognizing signals and method thereof
US9903941B2 (en) Time of flight camera device and method of driving the same
KR102021531B1 (en) Apparatus for micro hand motion recognition using continuous wave radar and method thereof
CN107637076B (en) Electronic device and control method thereof
WO2016134321A1 (en) Actuated optical element for light beam scanning device
EP3008486A1 (en) Depth map correction using lookup tables
JP2003177867A (en) Pointer display method, pointing device, and its host device
KR20210060844A (en) Method and apparatus for measuting position of three dimensions using radar sensor
KR102672302B1 (en) APPARATUS AND METHOD FOR CALIBRATION USING 3D ToF SENSOR AND LINE SLIT
US20210041565A1 (en) Sensor control apparatus, vehicle, sensing method, and computer readable medium
US20160266647A1 (en) System for switching between modes of input in response to detected motions
US11086000B2 (en) Method for tracking trajectory of an object with time of flight sensor and related device
US11620846B2 (en) Data processing method for multi-sensor fusion, positioning apparatus and virtual reality device
CN108762527A (en) A kind of recognition positioning method and device
BR112019022594A2 (en) radar-based force sensing
US9652081B2 (en) Optical touch system, method of touch detection, and computer program product
JP2020098217A (en) Measuring device, controller, control method, and program
US20150316991A1 (en) Motion recognition method
JP6575882B2 (en) INPUT SYSTEM, INFORMATION PROCESSING DEVICE, CONTROL METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right