KR101695727B1 - Position detecting system using stereo vision and position detecting method thereof - Google Patents

Position detecting system using stereo vision and position detecting method thereof Download PDF

Info

Publication number
KR101695727B1
KR101695727B1 KR1020100131827A KR20100131827A KR101695727B1 KR 101695727 B1 KR101695727 B1 KR 101695727B1 KR 1020100131827 A KR1020100131827 A KR 1020100131827A KR 20100131827 A KR20100131827 A KR 20100131827A KR 101695727 B1 KR101695727 B1 KR 101695727B1
Authority
KR
South Korea
Prior art keywords
infrared
light sources
interface means
image
distance
Prior art date
Application number
KR1020100131827A
Other languages
Korean (ko)
Other versions
KR20120070318A (en
Inventor
이승계
구형준
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020100131827A priority Critical patent/KR101695727B1/en
Publication of KR20120070318A publication Critical patent/KR20120070318A/en
Application granted granted Critical
Publication of KR101695727B1 publication Critical patent/KR101695727B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information

Abstract

본 발명은, 영상을 표시하는 표시장치와; 명령을 입력 받고 표시장치로 적외선을 출사 하는 인터페이스 수단과; 적외선을 촬영하여 적어도 하나의 적외선 영상을 생성하는 적어도 하나의 적외선 카메라와; 적어도 하나의 적외선 영상을 분석하여 인터페이스 수단의 위치정보를 검출하는 제어부를 포함하는 위치검출 시스템을 제공한다.The present invention provides a display device comprising: a display device for displaying an image; Interface means for receiving an instruction and outputting infrared rays to a display device; At least one infrared camera for photographing an infrared ray to generate at least one infrared ray image; And a control unit for analyzing at least one infrared image and detecting position information of the interface means.

Description

스테레오 비전을 이용한 위치검출 시스템 및 위치검출 방법 {POSITION DETECTING SYSTEM USING STEREO VISION AND POSITION DETECTING METHOD THEREOF}TECHNICAL FIELD [0001] The present invention relates to a position detection system and a position detection method using stereo vision,

본 발명은 위치검출 시스템에 관한 것으로, 더욱 상세하게는 적외선에 의한 스테레오 비전을 이용한 위치검출 시스템 및 위치검출 방법에 관한 것이다.
The present invention relates to a position detection system, and more particularly, to a position detection system and a position detection method using stereo vision by infrared rays.

기존의 텔레비전에서는 아직까지 리모컨 등을 이용한 유저 인터페이스(user interface: UI)가 주를 이루고 있지만, 스마트폰(smart phone) 등의 발달로 스마트 텔레비전과 같은 통합적인 컴퓨터 또는 텔레비전 시스템이 연구 개발됨에 따라, 이러한 통합 시스템에 적용할 수 있는 새로운 방식의 유저 인터페이스가 요구 되고 있다. In the conventional television, a user interface (UI) using a remote controller is still dominant. However, due to the development of a smart phone and the like, an integrated computer or television system such as a smart television has been researched and developed, A new user interface that can be applied to such an integrated system is required.

이러한 통합 시스템에 적용할 수 있는 새로운 유저 인터페이스로 몇 가지가 제안되고 있는데, 예를 들어 음성을 감지하여 명령을 인식하는 유저 인터페이스, 제스처(gesture)를 감지하여 명령을 인식하는 유저 인터페이스, 동작인식 센서가 내장된 물체를 사용하여 명령을 인식하는 유저 인터페이스 등이 제안되었으며, 스마트폰의 애플리케이션(application)을 다운로드(download) 하여 리모컨처럼 이용하는 방식도 제안되었다. Several new user interfaces that can be applied to such an integrated system have been proposed. For example, there are a user interface for recognizing a command by sensing a voice, a user interface for recognizing a command by sensing a gesture, And a user interface for recognizing commands by using an embedded object, and a method of downloading an application of a smart phone and using the remote control as a remote control has been proposed.

이중에서 사용자의 제스처를 감지하여 명령을 인식하는 유저 인터페이스의 경우, 인간의 움직임이라는 가장 친숙하고 직관적인 수단을 이용하여 통합 시스템의 제어를 가능하게 하는 것으로 리모컨 이후의 새로운 유저 인터페이스로 각광받고 있다. In the case of a user interface for recognizing a gesture of a user and recognizing a command, the user interface is able to be controlled by using the most familiar and intuitive means of human motion.

이러한 제스처를 이용한 유저 인터페이스는 몇 가지 방식으로 구분되는데, 구체적으로 일반적인 CCD(charge coupled device) 카메라를 이용하는 방식(single camera: SC), TOF(time-of-flight) 카메라로 대표되는 깊이 카메라를 이용하는 방식(depth camera: DC), 스테레오 비전(stereo vision)의 삼각측량법으로 깊이 정보(측정부와 대상물 사이의 거리 정보)를 구하는 방식(stereo camera: STC) 등이 있다. The user interface using such a gesture is divided into several methods. Specifically, a user interface using a depth camera represented by a single CCD (charge coupled device) camera or a time-of-flight (TOF) And a stereo camera (STC) for obtaining depth information (distance information between the measuring unit and the object) using a triangulation method of depth camera (DC) and stereo vision.

여기서, CCD 카메라를 이용하는 방식은 가장 저가로 구축이 가능하지만, 깊이 정보 없이 단순한 영상정보 만으로 인식하는 방식이어서 다른 방식에 비해 제스처의 검출이 난해한 단점이 있다. Here, the method using the CCD camera can be constructed at the lowest cost, but it is a method of recognizing only the image information without depth information, and thus it is difficult to detect the gesture compared to other methods.

반면에, 깊이 카메라를 이용하는 방식이나 스테레오 비전을 이용하는 방식은, 깊이 정보를 이용하여 사용자와 배경을 용이하게 분리할 수 있으므로, 제스처를 보다 정확하게 검출할 수 있는 장점이 있다. On the other hand, the method using the depth camera or the method using the stereo vision has an advantage that the gesture can be detected more accurately because the user and the background can be easily separated using the depth information.

그런데, 깊이 카메라를 이용하는 방식은 정확성이 우수한 반면, TOF 카메라와 같은 고가의 깊이 카메라를 채용해야 하므로 상용화에 어려움이 있다. However, the method using a depth camera is excellent in accuracy, but it is difficult to commercialize it because an expensive depth camera such as a TOF camera should be employed.

이와 달리 스테레오 비전을 이용하는 방식은 일반적인 CCD 카메라 2개를 이용하여 삼각측량법으로 깊이 정보를 구하는 것이 가능하므로, 비용이 저렴하다는 장점이 있다. On the other hand, the stereovision method is advantageous in that the depth information can be obtained by triangulation method using two general CCD cameras, which is inexpensive.

하지만, 스테레오 비전은 외부광의 변화와 같은 환경변화에는 취약한 문제점이 있고, 깊이 정보 검출을 위한 탐색 및 비교과정에 많은 양의 계산을 필요로 함에 따라 깊이 정보 검출에 장시간이 소요되고 정확성이 떨어지는 문제가 있다.
However, stereo vision is vulnerable to environmental changes such as changes in external light, and requires a large amount of computation for searching and comparing the depth information. Therefore, it takes a long time to detect the depth information and the accuracy is low have.

본 발명은, 적외선 광원 주변부에 대한 탐색 및 비교에 의하여 깊이 정보를 산출함으로써, 인터페이스 수단의 위치정보를 신속하고 정확하게 검출하는 스테레오 비전을 이용한 위치검출 시스템 및 위치검출 방법을 제공하는데 그 목적이 있다.An object of the present invention is to provide a position detection system and a position detection method using stereo vision that quickly and accurately detects position information of an interface means by calculating depth information by searching and comparing with a peripheral portion of an infrared light source.

또한, 본 발명은, 다수의 적외선 광원 및 적외선 카메라를 이용하여 깊이 정보를 산출함으로써, 인터페이스 수단의 위치정보 외에도 인터페이스 수단의 움직임까지 신속하고 정확하게 검출하는 스테레오 비전을 이용한 위치검출 시스템 및 위치검출 방법을 제공하는데 다른 목적이 있다.
The present invention also provides a position detection system and a position detection method using stereo vision that quickly and accurately detects the movement of the interface means in addition to the position information of the interface means by calculating depth information using a plurality of infrared light sources and an infrared camera There are other purposes to provide.

상기의 목적을 달성하기 위하여, 본 발명은, 영상을 표시하는 표시장치와; 명령을 입력 받고 상기 표시장치로 적외선을 출사 하는 인터페이스 수단과; 상기 적외선을 촬영하여 적어도 하나의 적외선 영상을 생성하는 적어도 하나의 적외선 카메라와; 상기 적어도 하나의 적외선 영상을 분석하여 상기 인터페이스 수단의 위치정보를 검출하는 제어부를 포함하는 위치검출 시스템을 제공한다.In order to achieve the above object, the present invention provides a display device comprising: a display device for displaying an image; Interface means for receiving an instruction and outputting infrared rays to the display device; At least one infrared camera for photographing the infrared ray to generate at least one infrared ray image; And a controller for analyzing the at least one infrared image and detecting position information of the interface means.

여기서, 상기 인터페이스 수단은 상기 적외선을 출사 하는 적외선 광원을 포함하고, 상기 적어도 하나의 적외선 카메라는 상기 표시장치에 장착된 제1 및 제2적외선 카메라이고, 상기 적어도 하나의 적외선 영상은 상기 적외선 광원에 대응되는 제1 및 제2영상광원을 각각 포함하는 제1 및 제2적외선 영상일 수 있다. Wherein the interface means comprises an infrared light source for emitting the infrared rays, wherein the at least one infrared camera is a first and a second infrared camera mounted on the display device, and the at least one infrared image is transmitted to the infrared light source And may be first and second infrared images each including a corresponding first and second image light sources.

그리고, 상기 제어부는, 상기 제1 및 제2적외선 카메라 사이의 거리와, 상기 제1 및 제2적외선 카메라 각각의 초점거리와, 상기 제1 및 제2영상광원 사이의 거리로부터, 상기 표시장치와 상기 인터페이스 수단 사이의 거리 및 상기 인터페이스 수단의 좌표를 산출할 수 있다. The control unit may control the display unit and the display unit based on a distance between the first and second infrared cameras and a focal distance of each of the first and second infrared cameras and a distance between the first and second image light sources, The distance between the interface means and the coordinates of the interface means can be calculated.

또한, 상기 인터페이스 수단은 각각이 상기 적외선을 출사 하는 제1 및 제2적외선 광원을 포함하고, 상기 적어도 하나의 적외선 카메라는 상기 표시장치에 장착된 적외선 카메라이고, 상기 적어도 하나의 적외선 영상은 상기 제1 및 제2적외선 광원에 각각 대응되는 제1 및 제2영상광원을 포함하는 적외선 영상일 수 있다. In addition, the interface means may include first and second infrared light sources for emitting the infrared rays, wherein the at least one infrared camera is an infrared camera mounted on the display device, and the at least one infrared image is an infrared 1 and the first and second image light sources corresponding to the first and second infrared light sources, respectively.

그리고, 상기 제어부는, 상기 적외선 카메라의 초점거리와, 상기 제1 및 제2적외선 광원 사이의 거리와, 상기 제1 및 제2영상광원 사이의 거리로부터, 상기 표시장치와 상기 인터페이스 수단 사이의 거리 및 상기 인터페이스 수단의 좌표를 산출할 수 있다. The controller may calculate a distance between the display device and the interface means from a focal distance of the infrared camera, a distance between the first and second infrared light sources, and a distance between the first and second image light sources, And the coordinates of the interface means can be calculated.

또한, 상기 인터페이스 수단은 각각이 상기 적외선을 출사 하는 3개 이상의 적외선 광원을 포함하고, 상기 적어도 하나의 적외선 카메라는 상기 표시장치에 장착된 적외선 카메라이고, 상기 적어도 하나의 적외선 영상은 상기 3개 이상의 적외선 광원에 각각 대응되는 3개 이상의 영상광원을 포함하는 적외선 영상일 수 있다. The at least one infrared camera may be an infrared camera mounted on the display device, and the at least one infrared image may include three or more infrared light sources, And may be an infrared image including three or more image light sources respectively corresponding to the infrared light sources.

그리고, 상기 제어부는, 상기 적외선 카메라의 초점거리와, 상기 3개 이상의 적외선 광원 사이의 거리와, 상기 3개 이상의 영상광원 사이의 거리로부터, 상기 표시장치와 상기 인터페이스 수단 사이의 거리, 상기 인터페이스 수단의 좌표를 산출하고, 상기 인터페이스 수단의 평행이동 및 회전을 검출할 수 있다. The control unit may determine a distance between the display device and the interface means based on a focal distance of the infrared camera, a distance between the three or more infrared light sources, and a distance between the three or more image light sources, And the parallel movement and rotation of the interface means can be detected.

한편, 본 발명은, 인터페이스 수단이 명령을 입력 받고 적외선을 출사하는 단계와; 적어도 하나의 적외선 카메라가 상기 적외선을 촬영하여 적어도 하나의 적외선 영상을 생성하는 단계와; 제어부가 상기 적어도 하나의 적외선 영상을 분석하여 상기 인터페이스 수단의 위치정보를 검출하는 단계를 포함하는 위치검출 방법을 제공한다.On the other hand, the present invention is characterized in that the interface means receives a command and emits an infrared ray; At least one infrared camera capturing the infrared ray to generate at least one infrared ray image; And a controller for analyzing the at least one infrared image to detect position information of the interface means.

여기서, 상기 인터페이스 수단은 각각이 상기 적외선을 출사 하는 3개 이상의 적외선 광원을 포함하고, 상기 적어도 하나의 적외선 카메라는 상기 표시장치에 장착된 적외선 카메라이고, 상기 적어도 하나의 적외선 영상은 상기 3개 이상의 적외선 광원에 각각 대응되는 3개 이상의 영상광원을 포함하는 적외선 영상일 수 있다.Wherein the interface means comprises three or more infrared light sources each emitting the infrared rays, the at least one infrared camera is an infrared camera mounted on the display device, and the at least one infrared image is the infrared And may be an infrared image including three or more image light sources respectively corresponding to the infrared light sources.

그리고, 상기 제어부가 상기 인터페이스 수단의 위치정보를 검출하는 단계는, 상기 제어부가, 상기 적외선 카메라의 초점거리와, 상기 3개 이상의 적외선 광원 사이의 거리와, 상기 3개 이상의 영상광원 사이의 거리로부터, 상기 표시장치와 상기 인터페이스 수단 사이의 거리 및 상기 인터페이스 수단의 좌표를 산출하는 단계와; 상기 제어부가, 상기 3개 이상의 영상광원 사이의 거리의 변화로부터, 상기 인터페이스 수단의 평행이동 및 회전을 검출하는 단계를 포함할 수 있다.
The control unit may detect the position information of the interface unit based on at least one of a focal distance of the infrared camera, a distance between the three or more infrared light sources, and a distance between the three or more image light sources Calculating a distance between the display device and the interface means and coordinates of the interface means; The control unit may include a step of detecting parallel movement and rotation of the interface means from a change in the distance between the three or more image light sources.

본 발명에 따른 위치검출 시스템 및 위치검출 방법에서는, 적외선 광원 주변부에 대한 탐색 및 비교에 의하여 깊이 정보를 산출함으로써, 비용증가 없이 인터페이스 수단의 위치정보를 신속하고 정확하게 검출할 수 있다. In the position detection system and the position detection method according to the present invention, the depth information is calculated by searching and comparing the peripheral part of the infrared light source, so that the position information of the interface means can be quickly and accurately detected without increasing the cost.

또한, 다수의 적외선 광원 및 적외선 카메라를 이용하여 깊이 정보를 산출함으로써, 인터페이스 수단의 위치정보 외에도 인터페이스 수단의 움직임까지 신속하고 정확하게 검출할 수 있다.
Further, by calculating depth information using a plurality of infrared light sources and an infrared camera, it is possible to quickly and accurately detect the movement of the interface means in addition to the positional information of the interface means.

도 1은 본 발명의 제1실시예에 따른 스테레오 비전을 이용한 위치검출 시스템을 도시한 사시도.
도 2는 본 발명의 제1실시예에 따른 스테레오 비전을 이용한 위치검출 시스템에서의 위치검출 방법을 설명하기 위한 도면.
도 3은 본 발명의 제2실시예에 따른 스테레오 비전을 이용한 위치검출 시스템을 도시한 사시도.
도 4는 본 발명의 제2실시예에 따른 스테레오 비전을 이용한 위치검출 시스템에서의 위치검출 방법을 설명하기 위한 도면.
도 5는 본 발명의 제3실시예에 따른 스테레오 비전을 이용한 위치검출 시스템을 도시한 사시도.
도 6a 내지 도 6f는 본 발명의 제3실시예에 따른 스테레오 비전을 이용한 위치검출 시스템에서의 인터페이스 수단의 움직임에 따른 영상광원의 위치 변화를 도시한 도면.
1 is a perspective view showing a position detection system using stereo vision according to a first embodiment of the present invention;
2 is a diagram for explaining a position detection method in a position detection system using stereo vision according to the first embodiment of the present invention.
3 is a perspective view showing a position detection system using stereo vision according to a second embodiment of the present invention;
4 is a view for explaining a position detection method in a position detection system using stereo vision according to a second embodiment of the present invention.
FIG. 5 is a perspective view showing a position detection system using stereo vision according to a third embodiment of the present invention; FIG.
6A to 6F are diagrams illustrating a positional change of an image light source according to movement of an interface means in a position detection system using stereo vision according to a third embodiment of the present invention.

이하, 도면을 참조하여 본 발명의 실시예를 설명한다.Hereinafter, embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 제1실시예에 따른 스테레오 비전을 이용한 위치검출 시스템을 도시한 사시도이다. 1 is a perspective view showing a position detection system using stereo vision according to a first embodiment of the present invention.

도 1에 도시한 바와 같이, 위치검출 시스템(10)은, 영상을 표시하는 표시장치(20)와, 표시장치(20)를 제어하기 위한 명령이 입력되는 인터페이스 수단(30)과, 표시장치(20)에 배치되는 다수의 적외선 카메라(40)와, 표시장치(20) 및 다수의 적외선 카메라(40)에 연결되는 제어부(60)를 포함한다. 1, the position detection system 10 includes a display device 20 for displaying an image, an interface means 30 for inputting a command for controlling the display device 20, And a control unit 60 connected to the display device 20 and the plurality of infrared cameras 40. The infrared camera 40 includes a plurality of infrared cameras 40,

표시장치(20)는 영상을 표시하는 동시에, 인터페이스 수단(30)을 통하여 인식된 명령의 실행결과 등을 표시한다. The display device 20 displays an image and displays the execution result of the recognized command through the interface means 30.

인터페이스 수단(30)은 표시장치(20)의 전면으로 이격되어 배치되며, 사용자의 명령을 입력 받아 표시장치(20)에 전달하는데, 이를 위하여 적외선(infrared: IR) 광원(32)을 포함한다. The interface means 30 is disposed on the front surface of the display device 20 and receives an instruction of the user and transmits the received command to the display device 20. The interface means 30 includes an infrared (IR) light source 32 for this purpose.

즉, 적외선을 출사하는 인터페이스 수단(30)은 사용자의 제스처에 따라 변경된 위치에서 적외선을 출사함으로써, 제스처에 대응되는 위치정보를 다수의 적외선 카메라(40)에 전달한다. That is, the interface means 30 for emitting infrared rays emits infrared rays at the changed position according to the gesture of the user, thereby transmitting the position information corresponding to the gesture to the plurality of infrared cameras 40.

여기서, 인터페이스 수단(30)의 위치정보는 인터페이스 수단(30)의 임의의 지점의 3차원 좌표를 의미할 수 있으며, 예를 들어 적외선 광원(32)의 3차원 좌표일 수 있다. Here, the positional information of the interface means 30 may mean the three-dimensional coordinates of an arbitrary point of the interface means 30, for example, the three-dimensional coordinates of the infrared light source 32.

다수의 적외선 카메라(40)는 인터페이스 수단(30)으로부터 출사되는 적외선을 촬영하여 제어부(60)로 전달하는데, 이를 위하여 다수의 적외선 카메라(40)는 제1 및 제2적외선 카메라(42, 44)를 포함한다.A plurality of infrared cameras 40 capture the infrared rays emitted from the interface means 30 and transmit the infrared rays to the controller 60. The infrared cameras 40 include first and second infrared cameras 42 and 44, .

즉, 제1 및 제2적외선 카메라(42, 44)는 인터페이스 수단(30)의 적외선 광원(32)으로부터 출사되는 적외선을 촬영하여 각각 제1 및 제2적외선 영상(도 2)을 생성하고, 생성된 제1 및 제2적외선 영상을 제어부(60)로 전달한다. That is, the first and second infrared cameras 42 and 44 take the infrared rays emitted from the infrared light source 32 of the interface means 30 to generate first and second infrared images (FIG. 2) And transmits the first and second infrared images to the controller 60.

이때, 제1 및 제2적외선 카메라(42, 44)가 생성한 제1 및 제2적외선 영상은, 인터페이스 수단(30)으로부터 제1 및 제2적외선 카메라(42, 44) 각각의 초점거리만큼 이격된 가상의 촬영면(50)에 생성되는 것으로 생각할 수 있으며, 제1 및 제2적외선 영상은 각각 적외선 광원(32)에 대응되는 제1 및 제2영상광원(52, 54)을 포함한다.At this time, the first and second infrared images generated by the first and second infrared cameras 42 and 44 are separated from the interface means 30 by the focal distances of the first and second infrared cameras 42 and 44, respectively And the first and second infrared images include first and second image light sources 52 and 54 corresponding to the infrared light source 32, respectively.

제어부(60)는 제1 및 제2적외선 영상을 분석하여 인터페이스 수단(30)의 위치정보를 검출하고, 검출된 위치정보를 분석하여 사용자의 제스처를 인식하는 부분으로서, 표시장치(20)에 내장될 수 있다.The control unit 60 analyzes the first and second infrared images to detect the position information of the interface means 30 and analyzes the detected position information to recognize the gesture of the user. .

그리고, 제어부(60)는 인식된 제스처에 따라 사용자의 명령을 실행하여 실행결과를 표시장치(20)를 통해 출력할 수 있다.Then, the control unit 60 can execute the command of the user according to the recognized gesture and output the execution result through the display device 20. [

여기서, 제어부(60)는, 다수의 적외선 카메라(40)가 생성한 적외선 영상을 스테레오 비전(stereo vision)의 원리를 이용하여 분석함으로써 인터페이스 수단(30)의 위치정보를 산출하는데, 제1 및 제2적외선 카메라(42, 44) 사이의 거리와, 제1 및 제2적외선 카메라(42, 44) 각각의 초점거리와, 제1 및 제2적외선 영상의 제1 및 제2영상광원(52, 54) 사이의 거리로부터 인터페이스 수단(30)의 좌표를 산출할 수 있다. Here, the control unit 60 calculates the position information of the interface means 30 by analyzing the infrared images generated by the plurality of infrared cameras 40 by using the principle of stereo vision. The distance between the first and second infrared cameras 42 and 44 and the focal length of each of the first and second infrared cameras 42 and 44 and the distance between the first and second image light sources 52 and 54 The coordinates of the interface means 30 can be calculated.

즉, 제1 및 제2적외선 카메라(42, 44) 사이의 거리가 b이고, 제1 및 제2적외선 카메라(42, 44) 각각의 초점거리가 f이고, 제1 및 제2영상광원(52, 54) 사이의 거리가 g인 경우, 제1 및 제2적외선 카메라(42, 44)가 장착된 표시장치(20)와 촬영면(50)은 서로 평행하므로 적외선 광원(32)을 꼭지점으로 하여 서로 마주보는 두 삼각형은 닮은꼴이 된다. That is, if the distance between the first and second infrared cameras 42 and 44 is b, the focal distance of each of the first and second infrared cameras 42 and 44 is f, and the first and second image light sources 52 The display device 20 on which the first and second infrared cameras 42 and 44 are mounted and the photographing surface 50 are parallel to each other so that the infrared light source 32 is a vertex Two triangles facing each other are similar.

따라서, 다음과 같은 비례식이 성립하고, 이로부터 제1 및 제2적외선 카메라(42, 44)가 장착된 표시장치(20)와 인터페이스 수단(30) 사이의 거리(d)를 산출할 수 있다. Accordingly, the following proportional expression is established, from which the distance d between the display device 20 on which the first and second infrared cameras 42 and 44 are mounted and the interface means 30 can be calculated.

b : g = d : fb: g = d: f

d = (bf / g)d = (bf / g)

그리고, 제1 및 제2적외선 카메라(42, 44)의 좌표와, 표시장치(20)와 인터페이스 수단(30) 사이의 거리(d)로부터 인터페이스 수단(30)의 좌표를 산출할 수 있다. The coordinates of the interface means 30 can be calculated from the coordinates of the first and second infrared cameras 42 and 44 and the distance d between the display device 20 and the interface means 30. [

여기서, 제1 및 제2적외선 카메라(42, 44)의 좌표 및 초점거리는 미리 설정되어 알고 있는 값이므로, 제1 및 제2적외선 카메라(42, 44)가 생성한 제1 및 제2적외선 영상으로부터 제1 및 제2영상광원(52, 54) 사이의 거리(g)를 추출하면, 인터페이스 수단(30)의 위치정보를 산출할 수 있다.
Since the coordinates and the focal length of the first and second infrared cameras 42 and 44 are predetermined and known values, the first and second infrared cameras 42 and 44 generate the first and second infrared images When the distance g between the first and second image light sources 52 and 54 is extracted, the position information of the interface means 30 can be calculated.

제1 및 제2적외선 영상의 제1 및 제2영상광원(52, 54) 사이의 거리(g)는 시차라고도 표현하는데, 이러한 시차를 추출하는 방법에 대하여 도면을 참조하여 설명한다.The distance g between the first and second image light sources 52 and 54 of the first and second infrared images is also referred to as a time difference. A method of extracting the time difference will be described with reference to the drawings.

도 2는 본 발명의 제1실시예에 따른 스테레오 비전을 이용한 위치검출 시스템에서의 위치검출 방법을 설명하기 위한 도면으로, 도 1을 함께 참조하여 설명한다.FIG. 2 is a view for explaining a position detection method in a position detection system using stereo vision according to a first embodiment of the present invention, and will be described with reference to FIG.

도 2에 도시한 바와 같이, 제1 및 제2적외선 카메라(42, 44)가 생성한 제1 및 제2적외선 영상은 각각 인터페이스 수단(30)의 적외선 광원(32)에 대응되는 제1 및 제2영상광원(52, 54)을 포함한다. 2, the first and second infrared images generated by the first and second infrared cameras 42 and 44 are respectively transmitted to the infrared light sources 32 of the interface means 30, 2 image light sources 52 and 54, respectively.

실제로 제1 및 제2적외선 영상은 적외선을 출사하는 제1 및 제2영상광원(52, 54)을 제외한 부분이 검은색으로 표시되지만 설명의 편의상 흰색으로 표시하였다.Actually, the first and second infrared images are displayed in black except for the first and second image light sources 52 and 54 for emitting infrared rays, but they are shown in white for convenience of explanation.

여기서, 제1적외선 영상에서 윈도우(WD)를 설정하는데, 예를 들어 제1영상광원(52)을 포함하도록 가로 M화소 세로 N화소의 크기(M X N)로 윈도우(WD)를 설정할 수 있다. Here, the window WD may be set in the first infrared image, for example, the size (M X N) of the width M pixels and the length N pixels so as to include the first image light source 52.

그리고, 설정된 윈도우(WD)를 기준으로 제1적외선 영상을 탐색하여 제1영상광원(52)의 화소좌표를 검출하고, 제2적외선 영상을 비교탐색 하여 제1영상광원(52)과 동일한 영역을 추출함으로써 제2영상광원(54)의 화소좌표를 검출한다.Then, the first infrared ray image is searched based on the set window WD to detect the pixel coordinates of the first image light source 52, and the second infrared image is compared and searched to find the same area as the first image light source 52 The pixel coordinates of the second image light source 54 are detected.

구체적으로, 윈도우(WD)를 가로방향인 제1방향을 따라 제1이동거리(d1)만큼 이동하면서 제1 및 제2적외선 영상을 비교하여 탐색하고, 1행에 대한 비교탐색이 완료되면 윈도우(WD)를 세로방향인 제2방향을 따라 제2이동거리(d2)만큼 이동한 후 다시 제1방향을 따라 제1이동거리(d1)만큼 이동하면서 제1 및 제2적외선 영상을 비교하여 탐색한다. Specifically, the first and second infrared images are compared and searched while the window WD is moved by the first movement distance d1 along the first direction in the horizontal direction, and when the comparison search for one row is completed, WD by a second movement distance d2 along a second direction in the vertical direction and then moves along the first direction by a first movement distance d1 to compare and search the first and second infrared images .

여기서, 제1이동거리(d1)는 윈도우(WD)의 제1방향의 폭(M)보다 작은 값일 수 있으며, 제2이동거리(d2)는 윈도우(WD)의 제2방향의 높이(N)보다 작은 값일 수 있다. Here, the first movement distance d1 may be a value smaller than the width M of the window WD in the first direction, and the second movement distance d2 may be the height N in the second direction of the window WD. Lt; / RTI >

따라서, 제1 및 제2방향으로 이웃하는 윈도우(WD)는 서로 중첩되도록 탐색할 수 있다. Accordingly, neighboring windows WD in the first and second directions can be searched so as to overlap with each other.

이러한 비교탐색 방법을 템플레이트 매칭(template matching)이라고 하는데, 가시광(visible light)을 이용하여 템플레이트 매칭으로 시차를 구하는 경우에는 제1 및 제2가시광 영상 전체에 대하여 비교탐색을 수행하여야 하므로 계산량이 방대해지지만, 본 발명의 제1실시예에서는, 적외선을 이용하여 템플레이트 매칭으로 시차를 구하므로 제1 및 제2적외선 영상의 일부에 대해서만 비교탐색을 수행하여 시차를 산출할 수 있으며 그 결과 인터페이스 수단(30)의 위치정보를 신속히 검출할 수 있다. This comparison search method is called template matching. In case of finding the parallax by template matching using visible light, the comparison search must be performed for all of the first and second visible light images, so that the calculation amount becomes enormous In the first embodiment of the present invention, since the parallax is determined by template matching using infrared rays, the parallax can be calculated by performing a comparative search only on a part of the first and second infrared images. As a result, It is possible to detect the position information of the position information of the target position.

즉, 제1 및 제2적외선 영상에서는 적외선 광원(32)에 대응되는 제1 및 제2영상광원(52, 54)만이 표시되어 주변 배경으로부터 제1 및 제2영상광원(52, 54)이 용이하게 분리되므로, 제1 및 제2영상광원(52, 54)을 포함하는 일부 영역만을 비교탐색 하여도 시차를 산출할 수 있으며, 그에 따라 비교탐색을 위한 계산량을 대폭 삭감할 수 있다.That is, in the first and second infrared images, only the first and second image light sources 52 and 54 corresponding to the infrared light source 32 are displayed and the first and second image light sources 52 and 54 are easily The parallax can be calculated even if only a part of the area including the first and second image light sources 52 and 54 is searched for, thereby greatly reducing the calculation amount for comparison search.

예를 들어, 제1 및 제2적외선 영상이 각각 가로 및 세로의 W X H 개의 화소로 구성된 경우, 제1 및 제2적외선 영상 중 가로 및 세로의 w X h 개의 화소(w ≤ W, h ≤ H)로 구성된 일부 영역을 비교탐색 하여 제1 및 제2영상광원(52, 54) 사이의 거리(g)를 추출할 수 있다.For example, when the first and second infrared images are composed of WXH pixels of width and width, respectively, w x H pixels (w? W, h? H) of the width and height of the first and second infrared images, And the distance g between the first and second image light sources 52 and 54 can be extracted.

또한, 가시광(visible light)을 이용하여 템플레이트 매칭으로 시차를 구하는 경우에는 대부분 가시광인 외부광의 간섭에 의하여 정확한 시차 산출에 어려움이 있지만, 본 발명의 제1실시예에서는, 적외선을 이용하여 템플레이트 매칭으로 시차를 구하므로 외부광의 간섭을 배제할 수 있으며 그 결과 인터페이스 수단(30)의 위치정보를 정확하게 검출할 수 있다. In addition, when the parallax is determined by template matching using visible light, it is difficult to accurately calculate the parallax by the interference of external light, which is mostly visible light. However, in the first embodiment of the present invention, It is possible to eliminate the interference of the external light because the parallax is determined. As a result, the position information of the interface means 30 can be accurately detected.

즉, 가시광인 외부광은 시차 산출에 있어서 일종의 잡음(noise)로 작용하여 경우에 따라 제1 및 제2영상광원(52, 54)의 화소좌표를 검출하지 못하는 경우까지 발생하지만, 적외선은 가시광인 외부광에 의하여 간섭 받지 않으므로 제1 및 제2영상광원(52, 54)의 화소좌표를 정확하게 검출하여 인터페이스 수단(30)의 위치정보를 정확하게 검출할 수 있다.
That is, the external light, which is visible light, acts as a kind of noise in the calculation of the parallax and occurs until the pixel coordinates of the first and second image light sources 52 and 54 can not be detected in some cases. However, It is possible to accurately detect the pixel coordinates of the first and second image light sources 52 and 54 and accurately detect the position information of the interface means 30 because they are not interfered by external light.

한편, 다른 실시예에서는 하나의 적외선 카메라와 다수의 적외선 광원을 이용하여 위치검출 시스템을 구성할 수 있는데, 이를 도면을 참조하여 설명한다. In another embodiment, a position detection system can be constructed using one infrared camera and a plurality of infrared light sources, which will be described with reference to the drawings.

도 3은 본 발명의 제2실시예에 따른 스테레오 비전을 이용한 위치검출 시스템을 도시한 사시도이다. 3 is a perspective view illustrating a position detection system using stereo vision according to a second embodiment of the present invention.

도 3에 도시한 바와 같이, 위치검출 시스템(110)은, 영상을 표시하는 표시장치(120)와, 표시장치(120)를 제어하기 위한 명령이 입력되는 인터페이스 수단(130)과, 표시장치(120)에 배치되는 적외선 카메라(140)와, 표시장치(120) 및 적외선 카메라(140)에 연결되는 제어부(160)를 포함한다. 3, the position detection system 110 includes a display device 120 for displaying an image, an interface means 130 for inputting a command for controlling the display device 120, And a control unit 160 connected to the display device 120 and the infrared camera 140. The control unit 160 controls the display unit 120 and the infrared camera 140,

표시장치(120)는 영상을 표시하는 동시에, 인터페이스 수단(130)을 통하여 인식된 명령의 실행결과 등을 표시한다. The display device 120 displays an image and displays the execution result of the recognized command through the interface means 130. [

인터페이스 수단(130)은 사용자의 명령을 입력 받아 표시장치(120)에 전달하는데, 이를 위하여 제1 및 제2적외선(infrared: IR) 광원(132, 134)을 포함한다. The interface means 130 receives a user command and transmits the received command to the display device 120. The interface means 130 includes first and second infrared (IR) light sources 132 and 134.

즉, 적외선을 출사하는 인터페이스 수단(130)의 제1 및 제2적외선 광원(132, 134)은 사용자의 제스처에 따라 변경된 위치에서 적외선을 출사함으로써, 제스처에 대응되는 위치정보를 적외선 카메라(140)에 전달한다. That is, the first and second infrared light sources 132 and 134 of the interface means 130 for emitting infrared rays emit infrared rays at the changed positions according to the gesture of the user, so that the position information corresponding to the gesture is transmitted to the infrared camera 140, .

여기서, 인터페이스 수단(130)의 위치정보는 인터페이스 수단(130)의 임의의 지점의 3차원 좌표를 의미할 수 있으며, 예를 들어 제1 및 제2적외선 광원(132, 134) 중 하나의 3차원 좌표일 수 있다. The position information of the interface means 130 may mean three-dimensional coordinates of an arbitrary point of the interface means 130. For example, the three-dimensional coordinates of one of the first and second infrared light sources 132 and 134 Coordinates.

적외선 카메라(140)는 인터페이스 수단(130)의 제1 및 제2적외선 광원(132, 134)으로부터 출사되는 적외선을 촬영하여 적외선 영상을 생성하고, 생성된 적외선 영상을 제어부(160)로 전달한다.The infrared camera 140 generates an infrared image by capturing infrared rays emitted from the first and second infrared light sources 132 and 134 of the interface unit 130 and transmits the generated infrared image to the controller 160.

이때, 적외선 카메라(140)가 생성한 적외선 영상은, 인터페이스 수단(130)으로부터 적외선 카메라(140)의 초점거리만큼 이격된 가상의 촬영면(150)에 생성되는 것으로 생각할 수 있으며, 적외선 영상은 제1 및 제2적외선 광원(132, 134)에 대응되는 제1 및 제2영상광원(152, 154)을 포함한다.At this time, the infrared image generated by the infrared camera 140 may be thought to be generated on the virtual photographing surface 150 separated from the interface means 130 by the focal distance of the infrared camera 140, And first and second image light sources 152 and 154 corresponding to the first and second infrared light sources 132 and 134, respectively.

제어부(160)는 적외선 영상을 분석하여 인터페이스 수단(130)의 위치정보를 검출하고, 검출된 위치정보를 분석하여 사용자의 제스처를 인식하는 부분으로서, 표시장치(120)에 내장될 수 있다.The control unit 160 may be embedded in the display device 120 as a part that analyzes the infrared image and detects the position information of the interface unit 130 and analyzes the detected position information to recognize the gesture of the user.

그리고, 제어부(160)는 인식된 제스처에 따라 사용자의 명령을 실행하여 실행결과를 표시장치(120)를 통해 출력할 수 있다.The control unit 160 may execute a command of the user according to the recognized gesture and output the execution result through the display device 120. [

여기서, 제어부(160)는, 적외선 카메라(140)가 생성한 적외선 영상을 스테레오 비전(stereo vision)의 원리를 이용하여 분석함으로써 인터페이스 수단(130)의 위치정보를 산출하는데, 적외선 카메라(140)의 초점거리와, 제1 및 제2적외선 광원(132, 134) 사이의 거리와, 적외선 영상의 제1 및 제2영상광원(152, 154) 사이의 거리로부터 인터페이스 수단(130)의 좌표를 산출할 수 있다. The control unit 160 calculates the position information of the interface unit 130 by analyzing the infrared image generated by the infrared camera 140 using the principle of stereo vision. The coordinates of the interface means 130 are calculated from the focal distance and the distance between the first and second infrared light sources 132 and 134 and the distance between the first and second image light sources 152 and 154 of the infrared image .

즉, 적외선 카메라(140)의 초점거리가 f이고, 제1 및 제2적외선 광원(132, 134) 사이의 거리가 b이고, 적외선 영상의 제1 및 제2영상광원(152, 154) 사이의 거리가 g인 경우, 인터페이스 수단(130)과 촬영면(150)은 서로 평행하므로 적외선 카메라(140)를 꼭지점으로 하여 중첩하는 두 삼각형은 닮은꼴이 된다. That is, when the focal distance of the infrared camera 140 is f, the distance between the first and second infrared light sources 132 and 134 is b, and the distance between the first and second image light sources 152 and 154 of the infrared image When the distance is g, since the interface means 130 and the photographing surface 150 are parallel to each other, the two triangles overlapping with the infrared camera 140 as apexes are similar to each other.

따라서, 다음과 같은 비례식이 성립하고, 이로부터 적외선 카메라(140)가 장착된 표시장치(120)와 인터페이스 수단(130) 사이의 거리(d)를 산출할 수 있다. Accordingly, the following proportional expression is established, from which the distance d between the display device 120 on which the infrared camera 140 is mounted and the interface means 130 can be calculated.

b : g = d : (d + f)b: g = d: (d + f)

d = (b(d + f) / g)d = (b (d + f) / g)

그리고, 적외선 카메라(140)의 좌표와, 표시장치(120)와 인터페이스 수단(130) 사이의 거리(d)로부터 인터페이스 수단(130)의 좌표를 산출할 수 있다. The coordinates of the interface means 130 can be calculated from the coordinates of the infrared camera 140 and the distance d between the display device 120 and the interface means 130. [

여기서, 적외선 카메라(140)의 좌표 및 초점거리는 미리 설정되어 알고 있는 값이므로, 적외선 카메라(140)가 생성한 적외선 영상으로부터 제1 및 제2영상광원(152, 154) 사이의 거리(g)를 추출하면, 인터페이스 수단(130)의 위치정보를 산출할 수 있다.
Since the coordinates and the focal length of the infrared camera 140 are predetermined and known values, the distance g between the first and second image light sources 152 and 154 is calculated from the infrared image generated by the infrared camera 140 as The position information of the interface means 130 can be calculated.

적외선 영상의 제1 및 제2영상광원(152, 154) 사이의 거리(g)는 시차라고도 표현하는데, 이러한 시차를 추출하는 방법에 대하여 도면을 참조하여 설명한다.The distance g between the first and second image light sources 152 and 154 of the infrared image is also referred to as a time difference. A method of extracting the time difference will be described with reference to the drawings.

도 4는 본 발명의 제2실시예에 따른 스테레오 비전을 이용한 위치검출 시스템에서의 위치검출 방법을 설명하기 위한 도면으로, 도 3을 함께 참조하여 설명한다.FIG. 4 is a view for explaining a position detection method in a position detection system using stereo vision according to a second embodiment of the present invention, and will be described with reference to FIG.

도 4에 도시한 바와 같이, 적외선 카메라(140)가 생성한 적외선 영상은 인터페이스 수단(130)의 제1 및 제2적외선 광원(132, 134)에 대응되는 제1 및 제2영상광원(152, 154)을 포함한다. 4, the infrared image generated by the infrared camera 140 is transmitted to the first and second image light sources 152 and 152 corresponding to the first and second infrared light sources 132 and 134 of the interface unit 130, 154).

여기서, 적외선 영상에서 윈도우(WD)를 설정하는데, 예를 들어 제1영상광원(152)을 포함하도록 가로 M화소 세로 N화소의 크기(M X N)로 윈도우(WD)를 설정할 수 있다. Here, the window WD may be set in the infrared image, for example, the size (M X N) of the horizontal M pixels and the vertical N pixels so as to include the first image light source 152.

그리고, 설정된 윈도우(WD)를 기준으로 적외선 영상을 탐색하여 제1영상광원(152)의 화소좌표를 검출하고, 제1영상광원(152)과 동일한 화소좌표를 추출함으로써 제2영상광원(154)의 화소좌표를 검출한다.The second image light source 154 detects the pixel coordinates of the first image light source 152 by extracting the same pixel coordinates as the first image light source 152 by searching an infrared image based on the set window WD, As shown in Fig.

구체적으로, 윈도우(WD)를 가로방향인 제1방향을 따라 제1이동거리(d1)만큼 이동하면서 적외선 영상을 비교하여 탐색하고, 1행에 대한 비교탐색이 완료되면 윈도우(WD)를 세로방향인 제2방향을 따라 제2이동거리(d2)만큼 이동한 후 다시 제1방향을 따라 제1이동거리(d1)만큼 이동하면서 적외선 영상을 비교하여 탐색한다. Specifically, the infrared image is compared and searched while moving the window WD by the first movement distance d1 along the first direction in the horizontal direction, and when the comparison search for one row is completed, the window WD is moved in the vertical direction The second moving distance d2, and then the first moving distance d1 is compared with the infrared image while moving.

여기서, 제1이동거리(d1)는 윈도우(WD)의 제1방향의 폭(M)보다 작은 값일 수 있으며, 제2이동거리(d2)는 윈도우(WD)의 제2방향의 높이(N)보다 작은 값일 수 있다. Here, the first movement distance d1 may be a value smaller than the width M of the window WD in the first direction, and the second movement distance d2 may be the height N in the second direction of the window WD. Lt; / RTI >

따라서, 제1 및 제2방향으로 이웃하는 윈도우(WD)는 서로 중첩되도록 탐색할 수 있다. Accordingly, neighboring windows WD in the first and second directions can be searched so as to overlap with each other.

가시광(visible light)을 이용하여 템플레이트 매칭으로 시차를 구하는 경우에는 적외선 영상 전체에 대하여 비교탐색을 수행하여야 하므로 계산량이 방대해지지만, 본 발명의 제2실시예에서는, 적외선을 이용하여 템플레이트 매칭으로 시차를 구하므로 적외선 영상의 일부에 대해서만 비교탐색을 수행하여 시차를 산출할 수 있으며 그 결과 인터페이스 수단(130)의 위치정보를 신속히 검출할 수 있다. In the case of obtaining a parallax by template matching using a visible light, a comparative search is required to be performed on the entire infrared ray image, so that the calculation amount becomes large. However, in the second embodiment of the present invention, The parallax can be calculated by performing a comparative search only for a part of the infrared ray image, and as a result, the position information of the interface means 130 can be detected quickly.

즉, 적외선 영상에서는 제1 및 제2적외선 광원(132, 134)에 대응되는 제1 및 제2영상광원(152, 154)만이 표시되어 주변 배경으로부터 제1 및 제2영상광원(152, 154)이 용이하게 분리되므로, 제1 및 제2영상광원(152, 154)을 포함하는 일부 영역만을 비교탐색 하여도 시차를 산출할 수 있으며, 그에 따라 비교탐색을 위한 계산량을 대폭 삭감할 수 있다.That is, in the infrared image, only the first and second image light sources 152 and 154 corresponding to the first and second infrared light sources 132 and 134 are displayed, and the first and second image light sources 152 and 154, It is possible to calculate the parallax even if only a partial region including the first and second image light sources 152 and 154 is searched for comparatively, thereby greatly reducing the calculation amount for the comparative search.

예를 들어, 적외선 영상이 가로 및 세로의 W X H 개의 화소로 구성된 경우, 적외선 영상 중 가로 및 세로의 w X h 개의 화소(w ≤ W, h ≤ H)로 구성된 일부 영역을 비교탐색 하여 제1 및 제2영상광원(152, 154) 사이의 거리(g)를 추출할 수 있다.For example, when an infrared image is composed of WXH pixels in the horizontal and vertical directions, a partial area composed of w x h pixels (w ≤ W, h ≤ H) in the horizontal and vertical directions of the infrared image is compared and searched, The distance g between the second image light sources 152 and 154 can be extracted.

또한, 가시광(visible light)을 이용하여 템플레이트 매칭으로 시차를 구하는 경우에는 대부분 가시광인 외부광의 간섭에 의하여 정확한 시차 산출에 어려움이 있지만, 본 발명의 제2실시예에서는, 적외선을 이용하여 템플레이트 매칭으로 시차를 구하므로 외부광의 간섭을 배제할 수 있으며 그 결과 인터페이스 수단(130)의 위치정보를 정확하게 검출할 수 있다. In addition, when the parallax is obtained by template matching using visible light, it is difficult to calculate accurate parallax by interference of external light, which is mostly visible light. In the second embodiment of the present invention, however, Since the parallax is determined, the interference of external light can be eliminated, and as a result, the position information of the interface means 130 can be accurately detected.

즉, 가시광인 외부광은 시차 산출에 있어서 일종의 잡음(noise)로 작용하여 경우에 따라 제1 및 제2영상광원(152, 154)의 화소좌표를 검출하지 못하는 경우까지 발생하지만, 적외선은 가시광인 외부광에 의하여 간섭 받지 않으므로 제1 및 제2영상광원(152, 154)의 화소좌표를 정확하게 검출하여 인터페이스 수단(130)의 위치정보를 정확하게 검출할 수 있다.
That is, the external light, which is visible light, acts as noise in the parallax calculation, and when the pixel coordinates of the first and second image light sources 152 and 154 can not be detected in some cases, the infrared light is visible light It is possible to accurately detect the pixel coordinates of the first and second image light sources 152 and 154 and precisely detect the position information of the interface means 130 because it is not interfered by external light.

한편, 또 다른 실시예에서는 하나의 적외선 카메라와 3개 이상의 적외선 광원을 이용하여 위치검출 시스템을 구성할 수 있는데, 이를 도면을 참조하여 설명한다. Meanwhile, in another embodiment, a position detection system can be configured using one infrared camera and three or more infrared light sources, which will be described with reference to the drawings.

도 5는 본 발명의 제3실시예에 따른 스테레오 비전을 이용한 위치검출 시스템을 도시한 사시도이다. 5 is a perspective view showing a position detection system using stereo vision according to a third embodiment of the present invention.

도 5에 도시한 바와 같이, 위치검출 시스템(210)은, 영상을 표시하는 표시장치(220)와, 표시장치(220)를 제어하기 위한 명령이 입력되는 인터페이스 수단(230)과, 표시장치(220)에 배치되는 적외선 카메라(240)와, 표시장치(220) 및 적외선 카메라(240)에 연결되는 제어부(260)를 포함한다. 5, the position detection system 210 includes a display device 220 for displaying an image, an interface means 230 for inputting a command for controlling the display device 220, And a control unit 260 connected to the display device 220 and the infrared camera 240.

표시장치(220)는 영상을 표시하는 동시에, 인터페이스 수단(230)을 통하여 인식된 명령의 실행결과 등을 표시한다. The display device 220 displays an image and displays the execution result of the recognized command through the interface means 230. [

인터페이스 수단(230)은 사용자의 명령을 입력 받아 표시장치(220)에 전달하는데, 이를 위하여 제1 내지 제4적외선(infrared: IR) 광원(232, 234, 236, 238)을 포함한다. The interface means 230 receives the user's commands and transmits them to the display device 220. To this end, the interface means 230 include first to fourth infrared (IR) light sources 232, 234, 236 and 238.

즉, 적외선을 출사하는 인터페이스 수단(230)의 제1 내지 제4적외선 광원(232, 234, 236, 238)은 사용자의 제스처에 따라 변경된 위치에서 적외선을 출사함으로써, 제스처에 대응되는 위치정보를 적외선 카메라(240)에 전달한다. That is, the first to fourth infrared light sources 232, 234, 236 and 238 of the interface means 230 for emitting infrared rays emit infrared rays at the changed positions according to the gesture of the user, To the camera (240).

여기서, 인터페이스 수단(230)의 위치정보는 인터페이스 수단(230)의 임의의 지점의 3차원 좌표를 의미할 수 있으며, 예를 들어 제1 내지 제4적외선 광원(232, 234, 236, 238) 중 하나의 3차원 좌표일 수 있다. The position information of the interface means 230 may mean three-dimensional coordinates of an arbitrary point of the interface means 230. For example, the position information of the first to fourth infrared light sources 232, 234, 236 and 238 And may be one three-dimensional coordinate.

적외선 카메라(240)는 인터페이스 수단(230)의 제1 내지 제4적외선 광원(232, 234, 236, 238)으로부터 출사되는 적외선을 촬영하여 적외선 영상을 생성하고, 생성된 적외선 영상을 제어부(260)로 전달한다.The infrared camera 240 generates an infrared image by capturing infrared rays emitted from the first to fourth infrared light sources 232, 234, 236 and 238 of the interface unit 230 and outputs the generated infrared image to the control unit 260. [ .

이때, 적외선 카메라(240)가 생성한 적외선 영상은, 인터페이스 수단(230)으로부터 적외선 카메라(240)의 초점거리만큼 이격된 가상의 촬영면(250)에 생성되는 것으로 생각할 수 있으며, 적외선 영상은 제1 내지 제4적외선 광원(232, 234, 236, 238)에 대응되는 제1 내지 제4영상광원(252, 254, 256, 258)을 포함한다.At this time, the infrared image generated by the infrared camera 240 can be thought to be generated on the virtual photographing surface 250 separated from the interface means 230 by the focal distance of the infrared camera 240, 254, 256, and 258 corresponding to the first through fourth infrared light sources 232, 234, 236, and 238, respectively.

제어부(260)는 적외선 영상을 분석하여 인터페이스 수단(230)의 위치정보를 검출하고, 검출된 위치정보를 분석하여 사용자의 제스처를 인식하는 부분으로서, 표시장치(220)에 내장될 수 있다.The control unit 260 may be embedded in the display device 220 as a part that analyzes the infrared image and detects the position information of the interface unit 230 and analyzes the detected position information to recognize the gesture of the user.

그리고, 제어부(260)는 인식된 제스처에 따라 사용자의 명령을 실행하여 실행결과를 표시장치(220)를 통해 출력할 수 있다.The control unit 260 may execute a command of the user according to the recognized gesture and output the execution result through the display device 220. [

여기서, 제어부(260)는, 적외선 카메라(240)가 생성한 적외선 영상을 스테레오 비전(stereo vision)의 원리를 이용하여 분석함으로써 인터페이스 수단(230)의 위치정보를 산출하는데, 적외선 카메라(240)의 초점거리와, 제1 내지 제4적외선 광원(232, 234, 236, 238) 중 2개 사이의 거리와, 적외선 영상의 제1 내지 제4영상광원(252, 254, 256, 258) 중 2개 사이의 거리로부터 인터페이스 수단(230)의 좌표를 산출할 수 있다. The control unit 260 calculates the position information of the interface unit 230 by analyzing the infrared image generated by the infrared camera 240 using the principle of stereo vision. The focal length and the distance between two of the first to fourth infrared light sources 232, 234, 236 and 238 and the distance between two of the first to fourth image light sources 252, 254, 256, and 258 of the infrared image The coordinates of the interface means 230 can be calculated.

예를 들어, 적외선 카메라(240)의 초점거리가 f이고, 제1 및 제2적외선 광원(232, 234) 사이의 거리가 b이고, 적외선 영상의 제1 및 제2영상광원(252, 254) 사이의 거리가 g인 경우, 다음과 같은 비례식에 의하여 적외선 카메라(240)가 장착된 표시장치(220)와 인터페이스 수단(230) 사이의 거리(d)를 산출할 수 있다. For example, if the focal length of the infrared camera 240 is f, the distance between the first and second infrared light sources 232 and 234 is b, the first and second image light sources 252 and 254 of the infrared image, The distance d between the display device 220 on which the infrared camera 240 is mounted and the interface means 230 can be calculated by the following proportional expression.

b : g = d : (d + f)b: g = d: (d + f)

d = (b(d + f) / g)d = (b (d + f) / g)

도 5에서는 제1 및 제2영상광원(252, 254) 사이의 거리(g)를 이용하여 표시장치(220)와 인터페이스 수단(230) 사이의 거리(d)를 산출하는 것을 예로 들었으나, 동일한 방법으로 제1 내지 제4적외선 광원(232, 234, 236, 238) 중 임의의 2개로부터 수 있다. 5, the distance d between the display device 220 and the interface means 230 is calculated using the distance g between the first and second image light sources 252 and 254, From any two of the first to fourth infrared light sources 232, 234, 236, and 238. [

적외선 영상으로부터 표시장치(220)와 인터페이스 수단(230) 사이의 거리(d)를 산출하는 방법은 제2실시예와 동일하므로, 이에 대한 설명은 생략한다. The method of calculating the distance d between the display device 220 and the interface means 230 from the infrared image is the same as that of the second embodiment, and a description thereof will be omitted.

이와 같이, 본 발명의 제3실시예에서는, 적외선을 이용하여 템플레이트 매칭으로 시차를 구하므로 적외선 영상의 일부에 대해서만 비교탐색을 수행하여 대폭 삭감된 계산량으로 시차를 산출할 수 있으며 그 결과 인터페이스 수단(230)의 위치정보를 신속히 검출할 수 있다. As described above, in the third embodiment of the present invention, since the parallax is obtained by template matching using infrared rays, the parallax can be calculated with a calculation amount greatly reduced by performing a comparative search only on a part of the infrared image, 230 can be detected quickly.

또한, 적외선을 이용하여 템플레이트 매칭으로 시차를 구하므로 외부광의 간섭을 배제할 수 있으며 그 결과 인터페이스 수단(130)의 위치정보를 정확하게 검출할 수 있다.
In addition, because the parallax is determined by template matching using infrared rays, the interference of external light can be eliminated, and as a result, the position information of the interface means 130 can be accurately detected.

그리고, 본 발명의 제3실시예에서는 3개 이상의 적외선 광원을 사용함에 따라 인터페이스 수단의 다양한 움직임을 검출할 수 있는데, 이를 도면을 참조하여 설명한다. In the third embodiment of the present invention, various motions of the interface means can be detected by using three or more infrared light sources, which will be described with reference to the drawings.

도 6a 내지 도 6f는 본 발명의 제3실시예에 따른 스테레오 비전을 이용한 위치검출 시스템에서의 인터페이스 수단의 움직임에 따른 영상광원의 위치 변화를 도시한 도면으로, 도 5를 함께 참조하여 설명한다. FIGS. 6A to 6F are diagrams illustrating a positional change of an image light source according to movement of an interface means in a stereo vision-based position detection system according to a third embodiment of the present invention, with reference to FIG.

도 6a 및 도 6b에 도시한 바와 같이, 인터페이스 수단(230)이 X축 또는 Y축을 따라 (+) 또는 (-)방향으로 평행 이동할 경우, 제1 내지 제4영상광원(252, 254, 256, 258)은 서로 동일한 이격 거리를 유지하면서 X축 또는 Y축을 따라 평행 이동한다.6A and 6B, the first to fourth image light sources 252, 254, 256, and 254 are disposed in parallel when the interface means 230 moves in the positive or negative direction along the X axis or the Y axis, 258 move in parallel along the X or Y axis while maintaining the same distance apart.

따라서, 제1 내지 제4영상광원(252, 254, 256, 258) 중 2개 사이의 거리(g)가 동일하게 유지되면서 평행 이동 된다는 사실로부터 인터페이스 수단(230)의 X축 또는 Y축 평행 이동을 정확하게 검출할 수 있으며, 이것은 제1 내지 제4영상광원(252, 254, 256, 258) 중 선택된 2개 사이의 거리(g)로부터 산출된 표시장치(220)와 인터페이스 수단(230) 사이의 거리(d)가 모두 동일하고 변하지 않음을 의미한다.Accordingly, from the fact that the distance g between two of the first to fourth image light sources 252, 254, 256, and 258 remains the same and is translated in parallel, the X- or Y- Which is calculated from the distance g between two selected ones of the first to fourth image light sources 252, 254, 256 and 258 and between the display device 220 and the interface means 230 (D) are all the same and do not change.

도 6c에 도시한 바와 같이, 인터페이스 수단(230)이 Z축을 따라 (+) 또는 (-)방향으로 평행 이동할 경우, 제1 내지 제4영상광원(252, 254, 256, 258) 사이의 이격거리는 증가하거나 감소한다. 6 (c), when the interface means 230 is moved in the (+) or (-) direction along the Z axis, the distance between the first to fourth image light sources 252, 254, 256, Increase or decrease.

예를 들어, 인터페이스 수단(230)이 Z축을 따라 (+)방향으로 평행 이동할 경우, 제1 내지 제4영상광원(252, 254, 256, 258) 중 임의의 2개 사이의 거리(g)는 모두 증가하고, 인터페이스 수단(230)이 Z축을 따라 (-)방향으로 평행 이동할 경우, 제1 내지 제4영상광원(252, 254, 256, 258) 중 임의의 2개 사이의 거리(g)는 모두 감소한다. The distance g between any two of the first through fourth image light sources 252, 254, 256, and 258, for example, And the distance g between any two of the first to fourth image light sources 252, 254, 256, 258 increases when the interface means 230 moves in the negative direction along the Z axis All decrease.

따라서, 제1 내지 제4영상광원(252, 254, 256, 258) 중 2개 사이의 거리(g)가 전부 증가하거나 전부 감소한다는 사실로부터 인터페이스 수단(230)의 Z축 평행 이동을 정확하게 검출할 수 있으며, 이것은 제1 내지 제4영상광원(252, 254, 256, 258) 중 2개 사이의 거리(g)로부터 산출된 표시장치(220)와 인터페이스 수단(230) 사이의 거리(d)가 모두 동일하면서 감소하거나(표시장치(220)와 인터페이스 수단(230)이 가까워질 경우) 증가하는 것(표시장치(220)와 인터페이스 수단(230)이 멀어질 경우)을 의미한다. Accordingly, it is possible to accurately detect the Z-axis parallel movement of the interface means 230 from the fact that the distance g between two of the first to fourth image light sources 252, 254, 256, and 258 increases or decreases all This is because the distance d between the display device 220 and the interface means 230 calculated from the distance g between two of the first to fourth image light sources 252, 254, 256 and 258 is (When the display device 220 and the interface means 230 approach each other) or increase (when the display device 220 and the interface means 230 approach each other).

도 6d에 도시한 바와 같이, 인터페이스 수단(230)이 X축을 기준으로 시계 또는 반시계 방향으로 회전할 경우, 제1 및 제2영상광원(252, 254) 사이의 거리와 제3 및 제4영상광원(256, 258) 사이의 거리는 서로 반대로 증가하거나 감소한다. 6D, when the interface means 230 rotates clockwise or counterclockwise with respect to the X axis, the distance between the first and second image light sources 252 and 254 and the distance between the third and fourth images 252 and 254, The distances between the light sources 256 and 258 increase or decrease inversely.

예를 들어, 인터페이스 수단(230)이 X축을 따라 시계 방향으로 회전할 경우, 제1 및 제2영상광원(252, 254) 사이의 거리는 증가하고, 제3 및 제4영상광원(256, 258) 사이의 거리는 감소한다. For example, when the interface means 230 rotates clockwise along the X axis, the distance between the first and second image light sources 252, 254 increases and the third and fourth image light sources 256, Lt; / RTI > decreases.

따라서, 제1 및 제2영상광원(252, 254) 사이의 거리와 제3 및 제4영상광원(256, 258) 사이의 거리의 반대되는 증감으로부터 인터페이스 수단(230)의 X축 회전을 정확하게 검출할 수 있으며, 이것은 제1 및 제2영상광원(252, 254) 사이의 거리(g)로부터 산출된 표시장치(220)와 인터페이스 수단(230) 사이의 거리(d)와, 제3 및 제4영상광원(256, 258) 사이의 거리(g)로부터 산출된 표시장치(220)와 인터페이스 수단(230) 사이의 거리(d)가 서로 반대로 감소 및 증가함을 의미한다. Therefore, it is possible to accurately detect the X-axis rotation of the interface means 230 from the opposite increase or decrease in the distance between the first and second image light sources 252 and 254 and the distance between the third and fourth image light sources 256 and 258 Which is a distance d between the display device 220 and the interface means 230 calculated from the distance g between the first and second image light sources 252 and 254 and the distance d between the display device 220 and the interface means 230, Means that the distance d between the display device 220 and the interface means 230 calculated from the distance g between the image light sources 256 and 258 decreases and increases as opposed to each other.

도 6e에 도시한 바와 같이, 인터페이스 수단(230)이 Y축을 기준으로 시계 또는 반시계 방향으로 회전할 경우, 제1 및 제4영상광원(252, 258) 사이의 거리와 제2 및 제3영상광원(254, 256) 사이의 거리는 서로 반대로 증가하거나 감소한다. 6E, when the interface means 230 rotates clockwise or counterclockwise with respect to the Y axis, the distance between the first and fourth image light sources 252 and 258 and the distance between the second and third images 252 and 258, The distances between the light sources 254 and 256 increase or decrease inversely.

예를 들어, 인터페이스 수단(230)이 Y축을 따라 시계 방향으로 회전할 경우, 제2 및 제3영상광원(252, 256) 사이의 거리는 증가하고, 제1 및 제4영상광원(252, 258) 사이의 거리는 감소한다. For example, when the interface means 230 rotates clockwise along the Y axis, the distance between the second and third image light sources 252, 256 increases and the distance between the first and fourth image light sources 252, Lt; / RTI > decreases.

따라서, 제1 및 제4영상광원(252, 258) 사이의 거리와 제2 및 제3영상광원(254, 256) 사이의 거리의 반대되는 증감으로부터 인터페이스 수단(230)의 Y축 회전을 정확하게 검출할 수 있으며, 이것은 제1 및 제4영상광원(252, 258) 사이의 거리(g)로부터 산출된 표시장치(220)와 인터페이스 수단(230) 사이의 거리(d)와, 제2 및 제3영상광원(254, 256) 사이의 거리(g)로부터 산출된 표시장치(220)와 인터페이스 수단(230) 사이의 거리(d)가 서로 반대로 감소 및 증가함을 의미한다. Accordingly, it is possible to accurately detect the Y-axis rotation of the interface means 230 from the opposite increase or decrease in the distance between the first and fourth image light sources 252 and 258 and the distance between the second and third image light sources 254 and 256 Which is a distance d between the display device 220 and the interface means 230 calculated from the distance g between the first and fourth image light sources 252 and 258 and the distance d between the display device 220 and the interface means 230, Means that the distance d between the display device 220 and the interface means 230 calculated from the distance g between the image light sources 254 and 256 decreases and increases as opposed to each other.

도 6f에 도시한 바와 같이, 인터페이스 수단(230)이 Z축을 기준으로 시계 또는 반시계 방향으로 회전할 경우, 제1 내지 제4영상광원(252, 254, 256, 258)은 서로 동일한 이격 거리를 유지하면서 Z축을 기준으로 회전한다. 6F, when the interface means 230 rotates clockwise or counterclockwise with respect to the Z axis, the first to fourth image light sources 252, 254, 256, and 258 have the same distance from each other While rotating with respect to the Z axis.

따라서, 제1 내지 제4영상광원(252, 254, 256, 258) 중 2개 사이의 거리(g)가 동일하게 유지되면서 회전 된다는 사실로부터 인터페이스 수단(230)의 Z축 회전을 정확하게 검출할 수 있으며, 이것은 제1 내지 제4영상광원(252, 254, 256, 258) 중 선택된 2개 사이의 거리(g)로부터 산출된 표시장치(220)와 인터페이스 수단(230) 사이의 거리(d)가 모두 동일하고 변하지 않음을 의미한다.Therefore, it is possible to accurately detect the Z-axis rotation of the interface means 230 from the fact that the distance g between the two of the first to fourth image light sources 252, 254, 256, and 258 is maintained to be the same This is because the distance d between the display device 220 and the interface means 230 calculated from the distance g between two selected ones of the first to fourth image light sources 252, 254, 256 and 258 is They are all the same and do not change.

이상과 같이, 본 발명의 제3실시예에 따른 스테레오 비전을 이용한 위치검출 시스템에서는, 4개의 적외선 광원을 이용하여 인터페이스 수단(230)의 복잡한 움직임을 구분 검출할 수 있으며, 이에 따라 인터페이스 수단(230)을 X축, Y축 또는 Z축으로 자유롭게 움직임으로써 다양한 명령을 구분 표현할 수 있다. As described above, in the position detection system using stereovision according to the third embodiment of the present invention, complex motions of the interface means 230 can be discriminated and detected by using four infrared light sources, so that the interface means 230 ) Can be freely moved in the X-axis, Y-axis, or Z-axis to divide and express various commands.

예를 들어, 인터페이스 수단(230)을 X축 또는 Y축을 따라 평행 이동시킴으로써 마우스의 이동 동작에 대응되는 명령을 입력할 수 있으며, 인터페이스 수단(230)을 Z축을 따라 평행이동 시킴으로써 마우스의 클릭(click) 동작에 대응되는 명령을 입력할 수 있다. For example, a command corresponding to a movement operation of the mouse can be inputted by parallelly moving the interface means 230 along the X axis or the Y axis. By moving the interface means 230 in parallel along the Z axis, ) Operation can be input.

한편, 이러한 인터페이스 수단(230)의 다양한 동작은 3개 이상의 적외선 광원을 사용하여 검출할 수 있는데, 예를 들어 제1 내지 제3적외선 광원을 인터페이스 수단(230)에 이등변 삼각형 형태로 배치함으로써 인터페이스 수단(230)의 평행 이동 및 회전 등의 다양한 동작을 검출할 수 있다.
For example, by arranging the first to third infrared light sources in the form of an isosceles triangle in the interface means 230, the interface means 230 can be operated by using three or more infrared light sources. Such as parallel movement and rotation, of the display unit 230.

본 발명은 상기 실시예로 한정되지 않고, 본 발명의 취지를 벗어나지 않는 한도 내에서 다양하게 변경하여 실시할 수 있다.
The present invention is not limited to the above-described embodiments, and various modifications may be made without departing from the spirit of the present invention.

10: 위치검출 시스템 20: 표시장치
30: 인터페이스 수단 40: 적외선 카메라
50: 촬영면 60: 제어부
10: Position detecting system 20: Display device
30: Interface means 40: Infrared camera
50: photographing surface 60:

Claims (10)

영상을 표시하는 표시장치와;
명령을 입력 받고 상기 표시장치로 적외선을 출사 하는 인터페이스 수단과;
상기 적외선을 촬영하여 제1 및 제2영상광원을 포함하는 적어도 하나의 적외선 영상을 생성하는 적어도 하나의 적외선 카메라와;
상기 적어도 하나의 적외선 영상을 분석하여 상기 인터페이스 수단의 위치정보를 검출하는 제어부
를 포함하고,
상기 제어부는,
상기 제1영상광원을 포함하도록 윈도우를 설정하고,
상기 윈도우를 제1 및 제2방향을 따라 중첩되도록 이동하면서 상기 적어도 하나의 적외선 영상을 비교탐색하여 상기 제1 및 제2영상광원의 화소좌표를 검출하는 위치검출 시스템.
A display device for displaying an image;
Interface means for receiving an instruction and outputting infrared rays to the display device;
At least one infrared camera for photographing the infrared ray to generate at least one infrared ray image including the first and second image light sources;
A controller for analyzing the at least one infrared image and detecting position information of the interface means,
Lt; / RTI >
Wherein,
Setting a window to include the first image light source,
Wherein the pixel coordinates of the first and second image light sources are detected by comparing the at least one infrared image while moving the window so as to overlap the first and second directions.
제 1 항에 있어서,
상기 인터페이스 수단은 상기 적외선을 출사 하는 적외선 광원을 포함하고, 상기 적어도 하나의 적외선 카메라는 상기 표시장치에 장착된 제1 및 제2적외선 카메라이고, 상기 적어도 하나의 적외선 영상은 상기 적외선 광원에 대응되는 상기 제1 및 제2영상광원을 각각 포함하는 제1 및 제2적외선 영상인 위치검출 시스템.
The method according to claim 1,
Wherein the interface means comprises an infrared light source emitting the infrared rays, the at least one infrared camera being first and second infrared cameras mounted on the display device, the at least one infrared image being associated with the infrared light source Wherein the first and second infrared images include the first and second image light sources, respectively.
제 2 항에 있어서,
상기 제어부는, 상기 제1 및 제2적외선 카메라 사이의 거리(b)와, 상기 제1 및 제2적외선 카메라 각각의 초점거리(f)와, 상기 제1 및 제2영상광원 사이의 거리(g)로부터, 상기 표시장치와 상기 인터페이스 수단 사이의 거리(d) 및 상기 인터페이스 수단의 좌표를 산출하고,
상기 표시장치와 상기 인터페이스 수단 사이의 거리(d)는 식 d=(bf/g)에 따라 산출되는 위치검출 시스템.
3. The method of claim 2,
Wherein the controller calculates the distance between the first and second infrared cameras, the focal distance of each of the first and second infrared cameras, and the distance between the first and second image light sources, g (D) between the display device and the interface means and the coordinates of the interface means,
Wherein the distance d between the display device and the interface means is calculated according to the formula d = (bf / g).
제 1 항에 있어서,
상기 인터페이스 수단은 각각이 상기 적외선을 출사 하는 제1 및 제2적외선 광원을 포함하고, 상기 적어도 하나의 적외선 카메라는 상기 표시장치에 장착된 적외선 카메라이고, 상기 적어도 하나의 적외선 영상은 상기 제1 및 제2적외선 광원에 각각 대응되는 상기 제1 및 제2영상광원을 포함하는 적외선 영상인 위치검출 시스템.
The method according to claim 1,
Wherein the at least one infrared camera is an infrared camera mounted on the display device and the at least one infrared image is an infrared camera attached to the first and second infrared light sources, And the first and second image light sources corresponding to the first and second infrared light sources, respectively.
제 4 항에 있어서,
상기 제어부는, 상기 적외선 카메라의 초점거리(f)와, 상기 제1 및 제2적외선 광원 사이의 거리(b)와, 상기 제1 및 제2영상광원 사이의 거리(g)로부터, 상기 표시장치와 상기 인터페이스 수단 사이의 거리(d) 및 상기 인터페이스 수단의 좌표를 산출하고,
상기 표시장치와 상기 인터페이스 수단 사이의 거리(d)는 식 d=[bf/(g-b)]에 따라 산출되는 위치검출 시스템.
5. The method of claim 4,
Wherein the control unit is configured to calculate the distance d between the first infrared light source and the second infrared light source from the focal distance f of the infrared camera to the distance b between the first and second infrared light sources, (D) between the interface means and the coordinates of the interface means,
(D) between the display device and the interface means is calculated according to the formula d = [bf / (gb)].
제 1 항에 있어서,
상기 인터페이스 수단은 각각이 상기 적외선을 출사 하는 3개 이상의 적외선 광원을 포함하고, 상기 적어도 하나의 적외선 카메라는 상기 표시장치에 장착된 적외선 카메라이고, 상기 적어도 하나의 적외선 영상은 상기 3개 이상의 적외선 광원에 각각 대응되는 3개 이상의 영상광원을 포함하는 적외선 영상인 위치검출 시스템.
The method according to claim 1,
Wherein the at least one infrared camera is an infrared camera mounted on the display device and the at least one infrared image is transmitted to the three or more infrared light sources And an infrared ray image including three or more image light sources respectively corresponding to the plurality of image light sources.
제 6 항에 있어서,
상기 제어부는, 상기 적외선 카메라의 초점거리(f)와, 상기 3개 이상의 적외선 광원 사이의 거리와, 상기 3개 이상의 영상광원 사이의 거리로부터, 상기 표시장치와 상기 인터페이스 수단 사이의 거리(d), 상기 인터페이스 수단의 좌표를 산출하고, 상기 인터페이스 수단의 평행이동 및 회전을 검출하고,
상기 표시장치와 상기 인터페이스 수단 사이의 거리(d)는, 상기 3개 이상의 적외선 광원 중 2개 사이의 거리(b), 상기 3개 이상의 영상광원 중 2개 사이의 거리(g)로부터 식 d=[bf/(g-b)]에 따라 산출되는 위치검출 시스템.
The method according to claim 6,
(D) between the display device and the interface means from the focal distance (f) of the infrared camera, the distance between the three or more infrared light sources, and the distance between the three or more image light sources, , Calculating coordinates of the interface means, detecting parallel movement and rotation of the interface means,
Wherein a distance d between the display device and the interface means is calculated from a distance b between two of the three or more infrared light sources and a distance g between two of the three or more image light sources, [bf / (gb)].
인터페이스 수단이 명령을 입력 받고 적외선을 출사하는 단계와;
적어도 하나의 적외선 카메라가 상기 적외선을 촬영하여 제1 및 제2영상광원을 포함하는 적어도 하나의 적외선 영상을 생성하는 단계와;
제어부가 상기 적어도 하나의 적외선 영상을 분석하여 상기 인터페이스 수단의 위치정보를 검출하는 단계
를 포함하고,
상기 제어부가 상기 인터페이스 수단의 위치정보를 검출하는 단계는,
상기 제어부가 상기 제1영상광원을 포함하도록 윈도우를 설정하는 단계와;
상기 제어부가 상기 윈도우를 제1 및 제2방향을 따라 중첩되도록 이동하면서 상기 적어도 하나의 적외선 영상을 비교탐색하여 상기 제1 및 제2영상광원의 화소좌표를 검출하는 단계
를 포함하는 위치검출 방법.
The interface means receiving the command and emitting infrared light;
At least one infrared camera captures the infrared light to generate at least one infrared image including the first and second image light sources;
The control unit analyzes the at least one infrared image and detects the position information of the interface unit
Lt; / RTI >
Wherein the step of detecting the position information of the interface means comprises:
Setting a window such that the control unit includes the first image light source;
Detecting the pixel coordinates of the first and second image light sources by comparing the at least one infrared image while moving the window so that the window overlaps the first and second directions;
.
제 8 항에 있어서,
상기 인터페이스 수단은 각각이 상기 적외선을 출사 하는 3개 이상의 적외선 광원을 포함하고, 상기 적어도 하나의 적외선 카메라는 표시장치에 장착된 적외선 카메라이고, 상기 적어도 하나의 적외선 영상은 상기 3개 이상의 적외선 광원에 각각 대응되는 3개 이상의 영상광원을 포함하는 적외선 영상인 위치검출 방법.
9. The method of claim 8,
Wherein the at least one infrared camera is an infrared camera mounted on a display device and the at least one infrared image is transmitted to the three or more infrared light sources Wherein the infrared ray image includes three or more image light sources corresponding to each other.
제 9 항에 있어서,
상기 제어부가 상기 인터페이스 수단의 위치정보를 검출하는 단계는,
상기 제어부가, 상기 적외선 카메라의 초점거리(f)와, 상기 3개 이상의 적외선 광원 사이의 거리와, 상기 3개 이상의 영상광원 사이의 거리로부터, 상기 표시장치와 상기 인터페이스 수단 사이의 거리(d) 및 상기 인터페이스 수단의 좌표를 산출하는 단계와;
상기 제어부가, 상기 3개 이상의 영상광원 사이의 거리의 변화로부터, 상기 인터페이스 수단의 평행이동 및 회전을 검출하는 단계
를 포함하고,
상기 표시장치와 상기 인터페이스 수단 사이의 거리(d)는, 상기 3개 이상의 적외선 광원 중 2개 사이의 거리(b), 상기 3개 이상의 영상광원 중 2개 사이의 거리(g)로부터 식 d=bf/(g-b)에 따라 산출되는 위치검출 방법.
10. The method of claim 9,
Wherein the step of detecting the position information of the interface means comprises:
(D) between the display device and the interface means from the focal distance (f) of the infrared camera, the distance between the three or more infrared light sources, and the distance between the three or more image light sources, And calculating coordinates of the interface means;
Wherein the control unit detects parallel movement and rotation of the interface means from a change in the distance between the three or more image light sources
Lt; / RTI >
Wherein a distance d between the display device and the interface means is calculated from a distance b between two of the three or more infrared light sources and a distance g between two of the three or more image light sources, bf / (gb).
KR1020100131827A 2010-12-21 2010-12-21 Position detecting system using stereo vision and position detecting method thereof KR101695727B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100131827A KR101695727B1 (en) 2010-12-21 2010-12-21 Position detecting system using stereo vision and position detecting method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100131827A KR101695727B1 (en) 2010-12-21 2010-12-21 Position detecting system using stereo vision and position detecting method thereof

Publications (2)

Publication Number Publication Date
KR20120070318A KR20120070318A (en) 2012-06-29
KR101695727B1 true KR101695727B1 (en) 2017-01-12

Family

ID=46688201

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100131827A KR101695727B1 (en) 2010-12-21 2010-12-21 Position detecting system using stereo vision and position detecting method thereof

Country Status (1)

Country Link
KR (1) KR101695727B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103544693B (en) * 2013-04-11 2017-05-10 Tcl集团股份有限公司 Method and system for extracting foreground object

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213197A (en) * 2006-02-08 2007-08-23 Matsushita Electric Ind Co Ltd Coordinate designation device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11161415A (en) * 1997-11-28 1999-06-18 Seiko Epson Corp Method and device for input
KR100856573B1 (en) * 2006-12-27 2008-09-04 주식회사 엠씨넥스 A remote pointing system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213197A (en) * 2006-02-08 2007-08-23 Matsushita Electric Ind Co Ltd Coordinate designation device

Also Published As

Publication number Publication date
KR20120070318A (en) 2012-06-29

Similar Documents

Publication Publication Date Title
US9207773B1 (en) Two-dimensional method and system enabling three-dimensional user interaction with a device
US8723789B1 (en) Two-dimensional method and system enabling three-dimensional user interaction with a device
US8773512B1 (en) Portable remote control device enabling three-dimensional user interaction with at least one appliance
US10091489B2 (en) Image capturing device, image processing method, and recording medium
WO2013035554A1 (en) Method for detecting motion of input body and input device using same
US8971565B2 (en) Human interface electronic device
US9001208B2 (en) Imaging sensor based multi-dimensional remote controller with multiple input mode
EP2733585A2 (en) Remote manipulation device and method using a virtual touch of a three-dimensionally modeled electronic device
CN109840950B (en) Method for obtaining real-size 3D model and surveying device
JP2015532077A (en) Method for determining the position and orientation of an apparatus associated with an imaging apparatus that captures at least one image
US11669173B2 (en) Direct three-dimensional pointing using light tracking and relative position detection
US10310619B2 (en) User gesture recognition
TWI489326B (en) Operating area determination method and system
JP6129363B2 (en) Interactive system, remote control and operation method thereof
US20150084853A1 (en) Method and System for Mapping for Movement Trajectory of Emission Light Source Application Trajectory Thereof
CN103677240A (en) Virtual touch interaction method and equipment
JP2012238293A (en) Input device
JP2019215811A (en) Projection system, image processing apparatus, and projection method
US10509513B2 (en) Systems and methods for user input device tracking in a spatial operating environment
JP2015212927A (en) Input operation detection device, image display device including input operation detection device, and projector system
KR101695728B1 (en) Display system including stereo camera and position detecting method using the same
KR101695727B1 (en) Position detecting system using stereo vision and position detecting method thereof
JP6555958B2 (en) Information processing apparatus, control method therefor, program, and storage medium
JP2018055257A (en) Information processing device, control method thereof, and program
JP2013109538A (en) Input method and device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant