KR101624505B1 - 3-d 포인팅 감지 장치 및 방법 - Google Patents

3-d 포인팅 감지 장치 및 방법 Download PDF

Info

Publication number
KR101624505B1
KR101624505B1 KR1020090090383A KR20090090383A KR101624505B1 KR 101624505 B1 KR101624505 B1 KR 101624505B1 KR 1020090090383 A KR1020090090383 A KR 1020090090383A KR 20090090383 A KR20090090383 A KR 20090090383A KR 101624505 B1 KR101624505 B1 KR 101624505B1
Authority
KR
South Korea
Prior art keywords
image
light source
position
direction
light
Prior art date
Application number
KR1020090090383A
Other languages
English (en)
Other versions
KR20110032740A (ko
Inventor
김상현
이형욱
방원철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090090383A priority Critical patent/KR101624505B1/ko
Publication of KR20110032740A publication Critical patent/KR20110032740A/ko
Application granted granted Critical
Publication of KR101624505B1 publication Critical patent/KR101624505B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations

Abstract

3-D 포인팅 감지 장치가 제공된다. 상기 장치는 광조사부 내의 제1 광원 및 제2 광원을 촬영하여, 상기 제1 광원의 상 및 상기 제2 광원의 상을 포함한 영상을 생성하는 영상 생성부를 포함한다. 상기 영상은 적외선 영상일 수 있다. 그리고, 상기 장치는, 상기 영상에 포함된 상기 제1 광원의 상의 크기와 상기 제2 광원의 상의 크기 사이의 차이를 이용하여, 상기 광조사부의 방향을 계산하는 방향 계산부를 더 포함한다.
3-D 포인팅, 모션 트랙킹, 모션 센싱, 3-D 위치 추적

Description

3-D 포인팅 감지 장치 및 방법{3-D POINTING DETECTION APPARATUS AND METHOD}

3-Dimension(3-D) 위치와 방향이 계산되어, 모션 트랙킹, 휴먼 모션 센싱, 유저 인터페이싱, 포인팅 감지 등의 기술 분야에 활용될 수 있다.

특정 기기가 공간 상에서 어떤 위치에 있으며, 또한 어떤 방향을 지시하고 있는 지에 관한 정보가 계산된다면, 이는 다양한 분야에 응용될 수 있다.

이를 테면, 계산된 상기 특정 기기의 위치 및/또는 방향은, 가상 세계(virtual world) 및 비디오 게임에서 활용될 수 있는 사용자 입력 정보로 활용될 수 있다. 또한, 전자 기기를 제어하기 위한 포인팅 또는 컨트롤 입력으로 활용될 수도 있다.

그 밖에도, 모션 트랙킹, 휴먼 모션 센싱 등을 이용하여, 유비쿼터스 환경의 유저 인터페이스에서 활용될 수 있다. 특정 기기가 공간 상에서 어떤 위치에 있는 지의 정보는 3-D 위치 정보로, 어떤 방향을 지시하고 있는 지에 관한 정보를 방향 정보로 표현될 수 있다.

이 경우, 상기 3-D 위치 정보 및/또는 방향 정보를 계산하기 위해 상기 특 정 기기가 빛, 이를테면 적외선 등을 발신하는 것을, 이하에서는 3-D 포인팅이라 한다.

3-D 위치 정보 및/또는 방향 정보의 계산을 위해 관성 센서 등이 활용되는 경우도 있으나, 생산 단가를 높이게 되므로, 별도의 관성 센서 등의 부가 요소 없이 3-D 포인팅을 감지하여 3-D 위치 정보 및/또는 방향 정보를 계산하는 경우 산업적 활용도가 높을 수 있다.

3-D 포인팅을 감지함으로써, 3-D 위치 및 방향을 계산할 수 있는 3-D 포인팅 감지 장치 및 방법이 제공된다.

특히, 관성 센서와 같은 별도의 구성 요소 없이 적외선 포인팅 및 그 감지의 과정을 통해, 3-D 위치뿐 아니라 기기의 포인팅 방향을 정확히 계산할 수 있는 3-D 포인팅 감지 장치 및 방법이 제공된다.

한편, 기존의 전자 기기 리모컨의 적외선 발신부를 3-D 포인팅에 활용하고, 이를 이용하여 3-D 위치 및 방향을 계산할 수 있는 3-D 포인팅 감지 장치 및 방법이 제공된다.

본 발명의 일측에 따르면, 광조사부 내의 제1 광원 및 제2 광원을 촬영하여, 상기 제1 광원의 상 및 상기 제2 광원의 상을 포함한 영상을 생성하는 영상 생성부, 및 상기 영상에 포함된 상기 제1 광원의 상의 크기와 상기 제2 광원의 상의 크기 사이의 차이를 이용하여, 상기 광조사부의 방향을 계산하는 방향 계산부를 포함하는, 3-D 포인팅 감지 장치가 제공된다.

여기서, 상기 방향 계산부는, 상기 영상에 포함된 상기 제1 광원의 상의 위치, 상기 제2 광원의 상의 위치, 및 상기 제1 광원의 상의 크기와 상기 제2 광원의 상의 크기 사이의 차이를 이용하여, 상기 광조사부의 방향을 계산할 수 있다.

한편, 상기 3-D 포인팅 감지 장치는, 상기 영상에 포함된 상기 제1 광원의 상의 위치와 상기 제2 광원의 상의 위치를 이용하여 상기 광조사부의 위치를 계산하는 위치 계산부를 더 포함할 수 있다.

이 경우, 상기 위치 계산부는, 상기 영상에 포함된 상기 제1 광원의 상의 위치, 상기 제2 광원의 상의 위치, 및 상기 방향 계산부가 계산한 상기 광조사부의 방향을 이용하여, 상기 광조사부의 위치를 계산한다.

본 발명의 일부 실시예에 따르면, 상기 영상은, 상기 영상 생성부가 상기 제1 광원 및 상기 제2 광원을 촬영하여 생성한 적외선 영상이다.

이 경우, 상기 영상 생성부는, 상기 제1 광원 및 상기 제2 광원을 촬영한 후, 적외선 파장 이외의 빛을 필터 아웃 하여, 적외선 영상을 생성할 수 있다. 한편, 상기 영상 생성부의 감광(light detection) 소자가 적외선에만 반응하는 것으로 채용되는 경우, 상기 필터 아웃 과정은 당연히 생략될 수 있다.

본 발명의 일 실시예에 따르면, 상기 광조사부는 기존의 전자 기기를 컨트롤 하는 리모컨 내에서 구현될 수 있다. 즉, 상기 제1 광원 및 상기 제2 광원 중 적어도 하나는, 전자 기기를 컨트롤하는 리모컨의 적외선 발신부이고, 상기 리모컨 의 적외선 발신부는 상기 광조사부의 방향 계산을 위한 적외선을 발신하는 경우와 상기 전자 기기를 컨트롤하는 제어 신호를 발신하는 경우에, 서로 다른 코드로 인코딩하여 송신한다.

이 경우, 상기 영상 생성부는, 상기 리모컨의 적외선 발신부를 촬영하고, 디코딩하여, 상기 광조사부의 방향 계산을 위한 적외선으로 판단되는 경우에 상기 영상을 생성할 수 있다.

한편, 상기 방향 계산부는, 상기 영상에 포함된 상기 제1 광원의 상의 크기와 상기 제2 광원의 상의 크기 사이의 차이와 함께, 상기 제1 광원의 상의 밝기(적외선의 Intensity, 이하 같다)와 상기 제2 광원의 상의 밝기 사이의 차이를 이용하여 상기 광조사부의 방향을 계산할 수도 있다.

본 발명의 다른 일 측에 따르면, 광조사부 내의 제1 광원 및 제2 광원을 촬영하여, 상기 제1 광원의 상 및 상기 제2 광원의 상을 포함한 영상을 생성하는 영상 생성부, 및 상기 영상에 포함된 상기 제1 광원의 상의 밝기와 상기 제2 광원의 상의 밝기 사이의 차이를 이용하여, 상기 광조사부의 방향을 계산하는 방향 계산부를 포함하는, 3-D 포인팅 감지 장치가 제공된다.

이 경우, 상기 방향 계산부는, 상기 영상에 포함된 상기 제1 광원의 상의 위치, 상기 제2 광원의 상의 위치, 및 상기 제1 광원의 상의 밝기와 상기 제2 광원의 상의 밝기 사이의 차이를 이용하여, 상기 광조사부의 방향을 계산할 수 있다.

또한, 상기 3-D 포인팅 감지 장치는, 상기 영상에 포함된 상기 제1 광원의 상의 위치와 상기 제2 광원의 상의 위치를 이용하여, 상기 광조사부의 위치를 계산 하는 위치 계산부를 더 포함할 수 있다.

본 발명의 또 다른 일측에 따르면, 광조사부 내의 제1 광원 및 제2 광원을 촬영하여, 상기 제1 광원의 상 및 상기 제2 광원의 상을 포함한 영상을 생성하는 단계, 및 상기 영상에 포함된 상기 제1 광원의 상의 크기와 상기 제2 광원의 상의 크기 사이의 차이를 이용하여, 상기 광조사부의 방향을 계산하는 단계를 포함하는, 3-D 포인팅 감지 방법이 제공된다.

관성 센서와 같은 별도의 센서를 포함하지 않아서 낮은 생산 단가를 유지하면서도, 정확한 3-D 위치 및 방향이 계산될 수 있다.

기존의 전자 기기의 컨트롤을 위해 사용되는 리모컨 내의 적외선 발신부를 그대로 활용하여, 3-D 위치 및 방향 계산이 수행될 수 있다.

이하에서, 본 발명의 일부 실시예를, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 이하에서 설명되는 일부 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.

도 1은 본 발명의 일 실시예에 따라, 광조사부(150)로부터 3-D 포인팅 감지 장치(100)에 제1 광원(151) 및 제2 광원(152)의 상이 맺히는 모습을 도시하는 개념도이다.

3-D 포인팅 감지 장치(100)는 광조사부(150) 내에 포함된 제1 광원(151) 및 제2 광원(152)를 촬영하여, 상기 광 조사부(150)의 3-D 위치 및 방향을 계산한다.

상기 제1 광원(151)로부터 조사된 빛과 상기 제2 광원(152)로부터 조사된 빛이 각각 홀(hole)(140)을 통과하면, 제1 광원의 상(110) 및 제2 광원의 상(120)이 맺힌다. 단, 상기 홀(140)은 제1 광원(151) 및 제2 광원(152)의 빛의 진행과 상이 맺히는 과정을 설명하기 위해 도입된 것이며, 실제 구현에 있어서는 렌즈, 수광 패널의 외측면 등 다양한 형태의 실시예에 의해 구현될 수 있다.

여기서, 상기 제1 광원(151)이 조사한 빛과 상기 제2 광원(152)이 조사한 빛은 각각 적외선(Infra Red; IR)일 수 있다. 이하에서는 상기 적외선의 실시예를 자주 언급하지만, 본 발명이 이에 한정되어 해석되어서는 안 되며, 상기 제1 광원(151)이 조사한 빛 및/또는 상기 제2 광원(152)이 조사한 빛은 임의의 파장을 갖는 빛일 수 있다.

한편, 상기 적외선의 실시예에서, 광조사부(150)는 기존의 전자 기기 컨트롤을 위해 적외선 형태의 컨트롤 신호를 발신하는 리모컨에 의해 구현될 수 있다. 이 경우, 상기 제1 광원(151) 및 상기 제2 광원(152) 중 적어도 하나는 전자 기기 리모컨의 적외선 발신부인 IR LED일 수 있다.

이렇게 상기 제1 광원(151) 및 상기 제2 광원(152) 중 적어도 하나가 리모컨의 적외선 발신부인 경우, 3-D 포인팅을 위한 적외선은 상기 전자 기기의 컨트롤을 위한 컨트롤 신호와는 다른 타입의 코드를 이용하여 인코딩 될 수 있다.

그리고 이 경우, 3-D 포인팅 감지 장치(100)는 수신한 적외선을 디코딩하여, 수신된 적외선이 3-D 포인팅 신호인지, 통상적인 전자 기기에 대한 컨트롤 신 호(이를 테면, 전원의 온/오프, 채널/볼륨의 조절, 아라비아 숫자(digit) 입력 신호)인지의 여부를 판단하여, 수신된 적외선이 3-D 포인팅 신호인 경우에만 이를 3-D 위치/방향의 계산에 활용할 수 있다.

이하에서는 3-D 위치 및 방향 계산 과정의 이해를 돕기 위해, 가상의 X축(10), Y축(20) 및 Z축(30)을 상정하여 서술한다.

본 발명의 일 실시예에 따르면, 3-D 포인팅 감지 장치(100)는 제1 광원의 상(110)의 크기와 제2 광원의 상(120)의 크기 차이를 이용하여, 제1 광원(151)의 제2 광원(152)에 대한 위치 벡터(V1)의 방향을 계산한다. 상기 벡터(V1)의 방향이 계산되는 경우, 광조사부(150)의 3-D 방향 또한 계산되는 것으로 볼 수 있다.

벡터 V1이 Y축(20)에 평행하다면, 즉, 벡터 V1과 Y-Z 평면이 이루는 각도가 0이라면, 제1 광원의 상(110)과 제2 광원의 상(120)의 크기는 동일하다. 그러나, 벡터 V1과 Y-Z 평면이 이루는 각도가 0이 아니라면, 제1 광원의 상(110)과 제2 광원의 상(120)의 크기는 동일하지 않다.

도 1의 실시예에서는 제1 광원(151)과 홀(140) 사이의 거리 d1이 제2 광원(152)과 홀(140) 사이의 거리 d2보다 크다. 따라서, 상기 제1 광원의 상(110)의 크기는 제2 광원의 상(120)의 크기보다 작다.

따라서, 제1 광원의 상(110)의 크기와 제2 광원의 상(120) 상의 상대적 크기를 비교하면, 벡터 V1과 Y-Z 평면이 이루는 각도를 알 수 있다.

한편, 제1 광원의 상(110)의 위치와 제2 광원의 상(120)의 위치에 따라 벡터 V1이 X-Y 평면과 이루는 각도의 크기를 할 수 있으며, 따라서, 앞서 계산된 V1 과 Y-Z 평면 사이의 각도와 함께, V1이 3-D 공간 상에서 어느 방향 벡터인지 결정하는 것이 가능해진다.

따라서, 벡터 V1이 결정되며, 이는 광조사부(150)의 방향을 결정하는 데에 활용된다.

이상에서는 3-D 방향을 계산하는 과정이 설명되었으며, 이하에서는 광조사부(150)의 3-D 위치를 결정하는 과정이 설명된다.

직관적으로 도 1을 관찰하면, 광조사부(150) 내에서 제1 광원(151)과 제2 광원(152) 위치의 중간 점(153)과, 홀(140) 사이의 거리인 D가 커질수록, 제1 광원의 상(110)과 제2 광원의 상(120) 사이의 거리 L1은 작아질 것임을 쉽게 예측할 수 있다. 따라서, D가 커지면 L1은 작아지는 관계가 성립된다.

그러나 도 1을 관찰하면 할 수 있듯이, 제1 광원(151), 제2 광원(152) 및 홀(140)이 이루는 삼각형과, 제1 광원의 상(110), 제2 광원의 상(120) 및 홀(140)이 이루는 삼각형은 대칭 또는 닮음꼴이 아니다. 따라서, D가 커질수록 L1이 작아진다고 해서, L1의 측정에 의해 바로 D를 계산할 수 있는 것은 아니다.

즉, 상수(constant)인 제1 광원(151)과 제2 광원(152) 사이의 거리 L2를 알고 있고 L1이 측정된다 하더라도 D를 구하기 위해서는 추가적 정보가 필요하다. 이 추가적 정보가 앞서 계산된 V1 벡터의 방향이다.

3-D 방향 정보인 V1 벡터의 방향을 계산하고, 이를 참조하여 3-D 위치 정보인 D와 점(153)의 위치를 계산하는 과정이 도 2 이하를 참조하여 보다 상세히 후술된다.

도 2는 본 발명의 일 실시예에 따른 3-D 포인팅 감지 장치(200)를 도시한다.

3-D 포인팅 감지 장치(200)는, 영상 생성부(210), 방향 계산부(220) 및 위치 계산부(230)을 포함한다.

영상 생성부(210)는, 제1 광원의 상(110) 및 제2 광원의 상(120)을 포함한 영상을 생성한다.

상기 생성된 영상은 적외선 영상일 수 있다.

이 경우, 영상 생성부(210)는, 적외선을 감지하는 감광 소자를 이용하여 상기 적외선 영상을 생성할 수도 있고, 통상적인 감광 소자(이를 테면 CMOS 또는 CCD 등)를 이용하여 제1 광원(151) 및 제2 광원(152)를 촬영하고, 적외선 성분 이외의 빛의 성분을 필터-아웃 함으로써 상기 적외선 영상을 생성할 수도 있다.

실시예에 따라서는, 영상 생성부(210)은, 1차적으로 생성된 적외선 영상, 또는 적외선 영상 생성 전 단계의 촬영 영상에 대해, 후처리(post-processing) 과정을 수행하여, 후술하는 3-D 방향 및 위치 계산의 정확도를 높일 수 있다.

상기 후처리 과정은 영상 처리(image processing) 분야에서 사용되는 통상적인 후처리 필터링, 노이즈 리덕션 과정 등일 수 있다.

그리고, 방향 계산부(220)는 상기 영상 내에 포함된 제1 광원의 상(110) 및 제2 광원의 상(120)의 크기 차이 및/또는 적외선 intensity 차이를 이용하여, 상기 벡터 V1의 방향을 계산한다. 이 경우, 방향 계산부(220)은 상기 제1 광원의 상(110) 및 제2 광원의 상(120)의 위치를 함께 이용할 수 있다.

방향 계산부(220)가 벡터 V1의 방향을 계산하는 과정은, 도 3 내지 도 5를 참조하여 보다 상세히 후술한다.

그리고, 위치 계산부(230)는 상기 계산된 벡터 V1의 방향, 상기 제1 광원의 상(110)의 위치, 및 상기 제2 광원의 상(120)의 위치를 이용하여, 광 조사부(150)의 3-D 공간 상 위치를 계산한다.

위치 계산부(230)가 3-D 위치를 계산하는 과정은, 도 6을 참조하여 보다 상세히 후술한다.

도3은 도 2의 3-D 포인팅 감지 장치(200) 내에서 생성된 영상(300)을 도시한다.

영상 생성부(210)가 생성한 영상(300)을 참조하면, 제1 광원의 상(110)과 제2 광원의 상(120)의 위치에 의해, 벡터 V1과 X-Y 평면이 이루는 각인 θ1이 계산될 수 있다.

벡터 V1을 Y-Z 평면에 프로젝션(projection) 하면 제1 광원의 상(110)과 제2 광원의 상(120)을 지나는 새로운 P 축(40)의 방향과 같다. 이 P 축(40)은 Y-Z 평면 위에 존재한다. 상기 θ1은 Y 축(20)과 이 P 축(40)이 이루는 각이기도 하다.

그리고, R1과 R2의 크기를 비교하면, 벡터 V1이 Y-Z 평면과 이루는 각인 θ2가 계산된다. 광원이 멀리 있을수록 직경은 작아지므로, R1과 R2의 크기를 비교함으로써 상기 θ2가 계산되는 것이다. 이 벡터 V1의 방향의 계산은, 도 2의 방향 계산부(220)가 영상(300)을 분석함으로써 수행된다.

본 실시예에서는 제1 광원의 상(110)의 직경 R1과 제2 광원의 상(120)의 직경 R2를 비교하여 벡터 V1의 방향을 계산하였다.

그러나, 이와 함께, 또는 이에 대신하여, 상기 제1 광원의 상(110)의 적외선의 intensity와 제2 광원의 상(120)의 intensity를 비교함으로써 동일한 계산을 수행하는 것도 가능하다. 이러한 과정이 도 4를 참조하여 후술된다. 그리고, 상술한 제1 광원의 상(110)의 적외선 intensity 또는 제2 광원의 상(120)의 적외선 intensity는 이하에서 상의 밝기로 표현되기도 한다.

도 4는 도 3의 영상에서, 적외선의 세기(intensity)를 P 축 방향으로 분석한 결과의 일 예이다.

영상(300) 내에서 적외선의 intensity를 P 축 방향으로 분석하여 그래프를 그리면, 도 4의 형태가 될 수 있다. 도 4의 가로 축은 P 축(40)이고, 세로 축은 Intensity 축(50)이다.

적외선 intensity, 또는 적외선 영상의 밝기가 일정하다가 p11과 p12 사이 부근에서 큰 값을 가지고, 다시 작은 값으로 일정하다가 p21과 p22 사이 부군에서 큰 값을 갖는다.

p11, p12, p21 및 p22는 적외선 intensity가 소정의 임계치 Iref 값을 갖는 부분이며, 임계치 Iref를 초과하는 부분은 광원의 상으로 판단될 수 있다.

따라서, p12 - p11의 값이 제1 광원의 상의 직경 R1으로 간주되고, p22 - p21의 값이 제2 광원의 상의 직경 R2로 간주된다.

그리고, intensity의 피크 값들 사이의 거리 L1이 영상(300) 내에서 제1 광 원의 상(110)과 제2 광원의 상(120) 사이의 거리 L1으로 간주될 수 있다.

본 실시예에서는, R1과 R2 값을 비교하는 방법과 함께, 또는 별도로, intensity의 피크 값인 I1과 I2를 비교함으로써 벡터 V1이 Y-Z 평면과 이루는 각인 θ2가 계산된다. 적외선의 intensity는 거리의 제곱에 반비례한다고 알려져 있다. 따라서 광원이 멀리 있을수록 intensity는 거리의 제곱에 반비례하면서 작아지므로, I1과 I2의 크기를 비교함으로써 상기 θ2가 계산되는 것이다. 이 벡터 V1의 방향의 계산 역시, 도 2의 방향 계산부(220)가 영상(300)을 분석함으로써 수행된다.

도 5는 상기한 방법에 의해 도 3의 영상(300)을 이용하여 계산한 벡터 V1과 P 축(40) 사이의 각도 θ2를 도시한다.

벡터 V1과 P 축(40) 사이의 각도는, 벡터 V1과 Y-Z 평면 사이의 각도와 동일한 θ2 이다.

이상에서 방향 계산부(220)이 영상(300)을 분석하여 벡터 V1의 방향을 계산하는 과정이 설명되었다. 상기 벡터 V1의 방향이 계산되면 그에 따라 광 조사부(150)의 3-D 방향도 도출될 수 있다.

이하에서는 상기 계산된 벡터 V1의 방향을 참조하여, 광조사부 내의 점(153)의 3-D 위치를 계산하는 과정을 설명한다.

도 6은 도 5의 각도 θ2를 이용하여 본 발명의 일 실시예에 따른 3-D 포인팅 감지 장치와 광조사부 사이의 거리 D를 계산하는 과정을 설명하기 위한 개념도이다.

본 도 6은 상기 도 1을 X-P 평면 위에서 내려다 본 평면도(Top-view)이다. 단면(600)은 P 축(40)과 평행한 면이므로, 제1 광원의 상(110)과 제2 광원의 상(120)이 단면(600) 위에 있다.

도 1을 참조하여 상술한 바와 같이, 제1 광원(151), 제2 광원(152) 및 홀(140)이 이루는 삼각형은, 제1 광원의 상(110), 제2 광원의 상(120) 및 홀(140)이 이루는 삼각형과 대칭 또는 닮은꼴이 아니다. 예외적으로, 각도 θ2가 0인 경우에만 상기 두 삼각형은 닮은꼴 대칭을 이룬다.

도 2의 위치 계산부(230)는 영상(300) 내에서 제1 광원의 상(110)과 제2 광원의 상(120)을 알고 있고, 또한 홀(140)의 위치를 알고 있으므로, 홀(140)과 제1 광원의 상(110) 사이의 거리인 d1'과 홀(140)과 제2 광원의 상(120) 사이의 거리인 d2'을 계산할 수 있다.

그리고, 위치 계산부(230)은, 방향 계산부(220)가 계산한 각도 θ2를 이용하여, 제1 광원의 상(110)으로부터, 제2 광원의 상(120)과 홀(140) 사이 선분 사이를 잇는, 제1 광원(151)과 제2 광원(152) 사이의 직선과 평행한 직선의 길이 L1'을 계산할 수 있다.

이제 이 L1' 길이의 직선에 의해, 제1 광원(151), 제2 광원(152) 및 홀(140)이 이루는 삼각형과 닮은꼴 대칭의 삼각형이 생겼다.

그리고, 위치 계산부(230)은, 이렇게 계산된 이 L1'의 길이의 직선의 중간 값과 홀(140) 사이의 거리인 D"를 계산한다.

그러면, 하기 수학식의 관계가 성립된다.

[수학식 1]

L1' : L2 = D" : D

상기 비례식의 결과에 따라, D 값은 아래 식에 의해 계산된다.

[수학식 2]

D = (D" * L2) / L1'

L2는 고정된 상수이고, D" 과 L1'은 앞선 과정에 의해 계산되었으므로, 위치 계산부(230)은 상기 수학식 2를 이용하여 D 값을 계산할 수 있다.

물론, 거리 D 뿐만 아니라, 점(153)의 3-D 공간 상 위치가 정확히 계산되므로, 광조사부(150)의 위치가 계산되는 것이다.

이러한 과정을 통하여, 광조사부가 3-D 공간 상의 어느 위치에서 어떤 방향을 향해 3-D 포인팅을 하고 있는지가 3-D 포인팅 감지 장치(200)에 의해 계산된다.

따라서 별도의 관성 센서가 없이, IR LED 두 개의 포인팅을 감지함으로써 광조사부(150)의 3-D 위치 및 방향이 감지될 수 있다. 이는 관성 센서를 도입하는 것에 비해 생산 단가를 크게 낮추게 된다.

도 7은 본 발명의 일 실시예에 따른 3-D 포인팅 감지 방법을 도시하는 흐름도이다.

단계(S710)에서 영상 생성부(210)에 의해 적외선 영상이 생성된다.

상기 적외선 영상은 제1 광원(151) 및 제2 광원(152)를 촬영하고, 필요한 경우 적외선 성분 이외의 빛의 성분을 필터-아웃 함으로써 생성된다.

실시예에 따라서는, 단계(S720)에서 후처리(post-processing) 과정을 거칠 수 있다. 상기 후처리 과정은 영상 처리(image processing) 분야에서 사용되는 통상적인 후처리 필터링, 노이즈 리덕션 과정 등일 수 있다.

그리고, 단계(S730)에서, 방향 계산부(220)에 의해 상기 θ1 및 θ2가 계산되고, 따라서 벡터 V1의 방향이 계산된다.

벡터 V1의 방향을 계산하는 상세한 과정은, 도 3 내지 도 5를 참조하여 상술한 바와 같다.

그리고, 단계(S740)에서 상기 계산된 벡터 V1의 방향을 이용하여, 광 조사부(150)의 3-D 공간 상 위치가 위치 계산부(230)에 의해 계산된다.

위치 계산부(230)에 의해 3-D 위치가 계산되는 보다 상세한 과정은, 도 6을 참조하여 상술한 바와 같다.

이상에서, 3-D 포인팅을 감지하여, 광조사부의 3-D 위치 및 방향을 계산하는 과정이 설명되었다. 이상의 과정에서, 적외선 영상 생성을 위해 촬영되는 제1 광원(151) 및 제2 광원(152) 중 적어도 하나는, 통상적인 전자 기기의 원격 컨트롤을 수행하는 리모컨의 IR LED에 의해 구현될 수 있음은 상기한 바와 같다.

그리고 이 과정에서, IR LED로부터 조사되는 적외선이, 3-D 위치/방향의 트랙킹을 위한 신호인지, 또는 통상적인 전자 기기를 컨트롤 하는 신호인지의 여부는, 인코딩-디코딩 과정에 사용된 코딩 타입에 의해 판별될 수 있음은 앞서 설명된 바와 같다.

본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

도 1은 본 발명의 일 실시예에 따라, 광조사부로부터 3-D 포인팅 감지 장치에 제1 광원 및 제2 광원의 상이 맺히는 모습을 도시하는 개념도이다.

도 2는 본 발명의 일 실시예에 따른 3-D 포인팅 감지 장치를 도시한다.

도3은 도 2의 3-D 포인팅 감지 장치 내에서 생성된 영상을 도시한다.

도 4는 도 3의 영상에서, 적외선의 세기(intensity)를 P 축 방향으로 분석한 결과의 일 예이다.

도 5는 도 3의 영상을 이용하여 계산한 벡터 V1과 P축 사이의 각도 θ2를 도시한다.

도 6은 도 5의 각도 θ2를 이용하여 본 발명의 일 실시예에 따른 3-D 포인팅 감지 장치와 광조사부 사이의 거리 D를 계산하는 과정을 설명하기 위한 개념도이다.

도 7은 본 발명의 일 실시예에 따른 3-D 포인팅 감지 방법을 도시하는 흐름도이다.

Claims (20)

  1. 광조사부 내의 제1 광원 및 제2 광원을 촬영하여, 상기 제1 광원의 상 및 상기 제2 광원의 상을 포함한 영상을 생성하는 영상 생성부; 및
    상기 영상에 포함된 상기 제1 광원의 상의 위치, 상기 제2 광원의 상의 위치 및 상기 제1 광원의 상의 크기와 상기 제2 광원의 상의 크기 사이의 차이를 이용하여 상기 제1 광원 및 상기 제2 광원 사이의 벡터의 방향을 계산하고, 상기 벡터의 방향에 기초하여 상기 광조사부의 방향을 계산하는 방향 계산부
    를 포함하며,
    상기 방향 계산부는, 상기 제1 광원의 상의 크기와 상기 제2 광원의 상의 크기 사이의 차이를 이용하여 상기 영상 생성부의 제1 평면에 대한 상기 벡터의 제1 각도를 계산하고, 상기 제1 광원의 상의 위치와 상기 제2 광원의 상의 위치를 이용하여 상기 영상 생성부의 제2 평면에 대한 상기 벡터의 제2 각도를 계산하며, 상기 제1 각도 및 상기 제2 각도에 기초하여 상기 벡터의 방향을 계산하는, 3-D 포인팅 감지 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 영상에 포함된 상기 제1 광원의 상의 위치와 상기 제2 광원의 상의 위치를 이용하여, 상기 광조사부의 위치를 계산하는 위치 계산부를 더 포함하는, 3-D 포인팅 감지 장치.
  4. 제3항에 있어서,
    상기 위치 계산부는, 상기 영상에 포함된 상기 제1 광원의 상의 위치, 상기 제2 광원의 상의 위치, 및 상기 방향 계산부가 계산한 상기 광조사부의 방향을 이용하여, 상기 광조사부의 위치를 계산하는, 3-D 포인팅 감지 장치.
  5. 제1항에 있어서,
    상기 영상은, 상기 영상 생성부가 상기 제1 광원 및 상기 제2 광원을 촬영하여 생성한 적외선 영상인, 3-D 포인팅 감지 장치.
  6. 제5항에 있어서,
    상기 영상 생성부는, 상기 제1 광원 및 상기 제2 광원을 촬영한 후, 적외선 파장 이외의 빛을 필터 아웃 하여, 적외선 영상을 생성하는, 3-D 포인팅 감지 장치.
  7. 제5항에 있어서,
    상기 제1 광원 및 상기 제2 광원 중 적어도 하나는, 전자 기기를 컨트롤하는 리모컨의 적외선 발신부이고, 상기 리모컨의 적외선 발신부는 상기 광조사부의 방향 계산을 위한 적외선을 발신하는 경우와 상기 전자 기기를 컨트롤하는 제어 신호를 발신하는 경우에, 서로 다른 코드로 인코딩하여 송신하고,
    상기 영상 생성부는, 상기 리모컨의 적외선 발신부를 촬영하고, 디코딩하여, 상기 광조사부의 방향 계산을 위한 적외선으로 판단되는 경우에 상기 영상을 생성하는, 3-D 포인팅 감지 장치.
  8. 제1항에 있어서,
    상기 방향 계산부는, 상기 영상에 포함된 상기 제1 광원의 상의 크기와 상기 제2 광원의 상의 크기 사이의 차이, 및 상기 제1 광원의 상의 밝기와 상기 제2 광원의 상의 밝기 사이의 차이를 이용하여 상기 광조사부의 방향을 계산하는, 3-D 포인팅 감지 장치.
  9. 광조사부 내의 제1 광원 및 제2 광원을 촬영하여, 상기 제1 광원의 상 및 상기 제2 광원의 상을 포함한 영상을 생성하는 영상 생성부; 및
    상기 영상에 포함된 상기 제1 광원의 상의 위치, 상기 제2 광원의 상의 위치 및 상기 제1 광원의 상의 밝기와 상기 제2 광원의 상의 밝기 사이의 차이를 이용하여 상기 제1 광원 및 상기 제2 광원 사이의 벡터의 방향을 계산하고, 상기 벡터의 방향에 기초하여 상기 광조사부의 방향을 계산하는 방향 계산부
    를 포함하며,
    상기 방향 계산부는, 상기 제1 광원의 상의 밝기와 상기 제2 광원의 상의 밝기 사이의 차이를 이용하여 상기 영상 생성부의 제1 평면에 대한 상기 벡터의 제1 각도를 계산하고, 상기 제1 광원의 상의 위치와 상기 제2 광원의 상의 위치를 이용하여 상기 영상 생성부의 제2 평면에 대한 상기 벡터의 제2 각도를 계산하며, 상기 제1 각도 및 상기 제2 각도에 기초하여 상기 벡터의 방향을 계산하는, 3-D 포인팅 감지 장치.
  10. 삭제
  11. 제9항에 있어서,
    상기 영상에 포함된 상기 제1 광원의 상의 위치와 상기 제2 광원의 상의 위치를 이용하여, 상기 광조사부의 위치를 계산하는 위치 계산부를 더 포함하는, 3-D 포인팅 감지 장치.
  12. 제11항에 있어서,
    상기 위치 계산부는, 상기 영상에 포함된 상기 제1 광원의 상의 위치, 상기 제2 광원의 상의 위치, 및 상기 방향 계산부가 계산한 상기 광조사부의 방향을 이용하여, 상기 광조사부의 위치를 계산하는, 3-D 포인팅 감지 장치.
  13. 제9항에 있어서,
    상기 영상은, 상기 영상 생성부가 상기 제1 광원 및 상기 제2 광원을 촬영하여 생성한 적외선 영상인, 3-D 포인팅 감지 장치.
  14. 광조사부 내의 제1 광원 및 제2 광원을 촬영하여, 상기 제1 광원의 상 및 상기 제2 광원의 상을 포함한 영상을 생성하는 단계;
    상기 영상에 포함된 상기 제1 광원의 상의 크기와 상기 제2 광원의 상의 크기 사이의 차이를 이용하여 상기 제1 광원 및 상기 제2 광원 사이의 벡터의 방향을 계산하는 단계; 및
    상기 벡터의 방향에 기초하여 상기 광조사부의 방향을 계산하는 단계
    를 포함하며,
    상기 제1 광원 및 상기 제2 광원 사이의 벡터의 방향을 계산하는 단계는,
    상기 제1 광원의 상의 크기와 상기 제2 광원의 상의 크기 사이의 차이를 이용하여 영상 생성부의 제1 평면에 대한 상기 벡터의 제1 각도를 계산하는 단계;
    상기 제1 광원의 상의 위치와 상기 제2 광원의 상의 위치를 이용하여 상기 영상 생성부의 제2 평면에 대한 상기 벡터의 제2 각도를 계산하는 단계; 및
    상기 제1 각도 및 상기 제2 각도에 기초하여 상기 벡터의 방향을 계산하는 단계
    를 포함하는, 3-D 포인팅 감지 방법.
  15. 삭제
  16. 제14항에 있어서,
    상기 영상에 포함된 상기 제1 광원의 상의 위치와 상기 제2 광원의 상의 위치를 이용하여, 상기 광조사부의 위치를 계산하는 단계를 더 포함하는, 3-D 포인팅 감지 방법.
  17. 제16항에 있어서,
    상기 위치 계산 단계는,
    상기 영상에 포함된 상기 제1 광원의 상의 위치, 상기 제2 광원의 상의 위치, 및 상기 계산된 상기 광조사부의 방향을 이용하여 상기 광조사부의 위치를 계산하는, 3-D 포인팅 감지 방법.
  18. 제14항에 있어서,
    상기 영상 생성 단계는,
    상기 제1 광원 및 상기 제2 광원을 촬영하여 영상을 생성하는 단계; 및
    상기 촬영한 후, 적외선 파장 이외의 빛을 필터 아웃 하여, 상기 영상을 적외선 영상으로 생성하는 후처리 단계
    를 포함하는, 3-D 포인팅 감지 방법.
  19. 제18항에 있어서,
    상기 제1 광원 및 상기 제2 광원 중 적어도 하나는, 전자 기기를 컨트롤하는 리모컨의 적외선 발신부이고, 상기 리모컨의 적외선 발신부는 상기 광조사부의 방향 계산을 위한 적외선을 발신하는 경우와 상기 전자 기기를 컨트롤하는 제어 신호를 발신하는 경우에, 서로 다른 코드로 인코딩하여 송신하고,
    상기 영상 생성 단계는,
    상기 리모컨의 적외선 발신부를 촬영하여 적외선 성분을 인식하는 단계; 및
    상기 인식된 적외선 성분을 디코딩하여, 상기 광조사부의 방향 계산을 위한 적외선으로 판단되는 경우에 상기 영상을 생성하는 단계
    를 포함하는, 3-D 포인팅 감지 방법.
  20. 제14항, 제16항 내지 제19항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한, 컴퓨터 판독 가능 기록매체.
KR1020090090383A 2009-09-24 2009-09-24 3-d 포인팅 감지 장치 및 방법 KR101624505B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090090383A KR101624505B1 (ko) 2009-09-24 2009-09-24 3-d 포인팅 감지 장치 및 방법

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020090090383A KR101624505B1 (ko) 2009-09-24 2009-09-24 3-d 포인팅 감지 장치 및 방법
US12/662,553 US8773531B2 (en) 2009-09-24 2010-04-22 Three-dimensional pointing sensing apparatus and method

Publications (2)

Publication Number Publication Date
KR20110032740A KR20110032740A (ko) 2011-03-30
KR101624505B1 true KR101624505B1 (ko) 2016-05-26

Family

ID=43756304

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090090383A KR101624505B1 (ko) 2009-09-24 2009-09-24 3-d 포인팅 감지 장치 및 방법

Country Status (2)

Country Link
US (1) US8773531B2 (ko)
KR (1) KR101624505B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101984504B1 (ko) * 2012-02-29 2019-09-03 삼성전자주식회사 정밀한 3차원 위치 및 방향을 추정하는 시스템 및 방법
CN103727899B (zh) * 2013-12-31 2015-07-01 京东方科技集团股份有限公司 一种电视系统中检测遥控器旋转角度的方法及电视系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020160840A1 (en) * 2001-04-26 2002-10-31 Morkris Peter W. Video game position and orientation detection system
JP2005275346A (ja) 2004-02-24 2005-10-06 Matsushita Electric Works Ltd ポインタ装置
US20060215178A1 (en) * 2005-03-28 2006-09-28 Fuji Xerox Co., Ltd. Position measurement system

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4578674A (en) * 1983-04-20 1986-03-25 International Business Machines Corporation Method and apparatus for wireless cursor position control
US5390022A (en) * 1992-04-07 1995-02-14 Canon Kabushiki Kaisha Displacement information detection apparatus for receiving a divergent light beam
JP3400485B2 (ja) * 1993-03-23 2003-04-28 株式会社ワコム 光学式位置検出装置および光学式座標入力装置
US5920660A (en) * 1995-04-05 1999-07-06 Hitachi Medical Corporation Tomogram interpolation method for executing interpolation calculation by using pixel values on projection line
US5867146A (en) * 1996-01-17 1999-02-02 Lg Electronics Inc. Three dimensional wireless pointing device
JP3296968B2 (ja) * 1996-04-26 2002-07-02 ヤマハ発動機株式会社 基準位置決定方法
US7064842B1 (en) * 1999-01-13 2006-06-20 Olympus Optical Co., Ltd. Optical displacement sensor and optical encoder
US6990639B2 (en) * 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
JP2004088757A (ja) * 2002-07-05 2004-03-18 Toshiba Corp 3次元画像表示方法、及びその装置、光方向検出器、光方向検出方法
US7627139B2 (en) * 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US8019121B2 (en) * 2002-07-27 2011-09-13 Sony Computer Entertainment Inc. Method and system for processing intensity from input devices for interfacing with a computer program
JP4218952B2 (ja) * 2003-09-30 2009-02-04 キヤノン株式会社 データ変換方法及び装置
JP2005331784A (ja) * 2004-05-20 2005-12-02 Fuji Xerox Co Ltd 光学レンズ系およびこれを用いた位置計測システム
HU0401034D0 (en) * 2004-05-24 2004-08-30 Ratai Daniel System of three dimension induting computer technology, and method of executing spatial processes
JP2006189701A (ja) * 2005-01-07 2006-07-20 Pentax Corp 二次元位置検出装置
US7473884B2 (en) * 2005-04-21 2009-01-06 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Orientation determination utilizing a cordless device
US7609249B2 (en) * 2005-04-21 2009-10-27 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Position determination utilizing a cordless device
KR100643470B1 (ko) * 2005-09-29 2006-10-31 엘지전자 주식회사 휴대용 단말기의 그래픽 신호 표시장치 및 방법
EP1946243A2 (en) * 2005-10-04 2008-07-23 Intersense, Inc. Tracking objects with markers
US8139029B2 (en) * 2006-03-08 2012-03-20 Navisense Method and device for three-dimensional sensing
JP4798705B2 (ja) * 2006-03-23 2011-10-19 任天堂株式会社 位置算出装置、位置算出プログラム、ゲーム装置、およびゲームプログラム
JP5204381B2 (ja) * 2006-05-01 2013-06-05 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステム及びゲーム処理方法
JP4884867B2 (ja) * 2006-07-25 2012-02-29 任天堂株式会社 情報処理装置および情報処理プログラム
JP5132131B2 (ja) * 2006-11-17 2013-01-30 任天堂株式会社 ポインティング装置の調整プログラムおよびポインティング装置
JP4861855B2 (ja) * 2007-02-15 2012-01-25 ゼロプラス テクノロジー コーポレッド リミテッド 指示位置演算システム、指示体及びゲームシステム
JP4861854B2 (ja) * 2007-02-15 2012-01-25 ゼロプラス テクノロジー コーポレッド リミテッド 指示位置演算システム、指示体及びゲームシステム
JP4405525B2 (ja) * 2007-03-29 2010-01-27 株式会社東芝 三次元光線取得装置
JP4784555B2 (ja) * 2007-05-25 2011-10-05 トヨタ自動車株式会社 形状評価方法、形状評価装置および三次元検査装置
KR100936816B1 (ko) * 2007-05-26 2010-01-14 이문기 카메라와 마크 출력에의한 포인팅 장치
US8249807B1 (en) * 2007-08-22 2012-08-21 University Of South Florida Method for determining critical points in location data generated by location-based applications
JP4404927B2 (ja) * 2007-10-10 2010-01-27 シャープ株式会社 表示システムおよび指示位置の検出方法
US9285459B2 (en) * 2008-05-09 2016-03-15 Analog Devices, Inc. Method of locating an object in 3D
TWI380002B (en) * 2008-09-10 2012-12-21 Sunplus Mmedia Inc Light source detection device and method for detecting light source
US8884876B2 (en) * 2008-10-27 2014-11-11 Autodesk, Inc. Spatially-aware projection pen interface
US8447563B2 (en) * 2009-03-31 2013-05-21 The United States Of America As Represented By The Secretary Of The Navy Method and system for determination of detection probability or a target object based on a range

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020160840A1 (en) * 2001-04-26 2002-10-31 Morkris Peter W. Video game position and orientation detection system
JP2005275346A (ja) 2004-02-24 2005-10-06 Matsushita Electric Works Ltd ポインタ装置
US20060215178A1 (en) * 2005-03-28 2006-09-28 Fuji Xerox Co., Ltd. Position measurement system

Also Published As

Publication number Publication date
US20110069167A1 (en) 2011-03-24
KR20110032740A (ko) 2011-03-30
US8773531B2 (en) 2014-07-08

Similar Documents

Publication Publication Date Title
US8773514B2 (en) Accurate 3D object reconstruction using a handheld device with a projected light pattern
JP6110573B2 (ja) 仮想現実システムの較正
US20090296991A1 (en) Human interface electronic device
US9030529B2 (en) Depth image acquiring device, system and method
JP5204785B2 (ja) 画像処理装置、撮影装置、再生装置、集積回路及び画像処理方法
US8929608B2 (en) Device and method for recognizing three-dimensional position and orientation of article
US20110234481A1 (en) Enhancing presentations using depth sensing cameras
KR101879478B1 (ko) 레이저 깊이 지도 레인지를 확대하는 방법
JP6193390B2 (ja) 構造化された光のアクティブ深度検知システムにおける光源電力の動的調整
US9155675B2 (en) Portable robotic device
US9646384B2 (en) 3D feature descriptors with camera pose information
Barth et al. Estimating the driving state of oncoming vehicles from a moving platform using stereo vision
Goncalves et al. A visual front-end for simultaneous localization and mapping
US20020085097A1 (en) Computer vision-based wireless pointing system
CN105393079B (zh) 基于上下文的深度传感器控制
EP2733585B1 (en) Remote manipulation device and method using a virtual touch of a three-dimensionally modeled electronic device
JP6198230B2 (ja) 深度カメラを使用した頭部姿勢トラッキング
EP3008488B1 (en) Lidar-based classification of object movement
US20060140450A1 (en) Human tracking apparatus and method, storage medium storing program executing the method, and mobile electronic system including the apparatus
EP2614405A1 (en) Depth camera based on structured light and stereo vision
WO2013159686A1 (en) Three-dimensional face recognition for mobile devices
JPWO2005038710A1 (ja) 移動体動き算出方法および装置、並びにナビゲーションシステム
JP5655095B2 (ja) デプスカメラの互換性
KR20160088909A (ko) 모바일 디바이스에서의 slam
US9990726B2 (en) Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190422

Year of fee payment: 4