KR200461366Y1 - Pointing Apparatus Using Image - Google Patents

Pointing Apparatus Using Image Download PDF

Info

Publication number
KR200461366Y1
KR200461366Y1 KR2020100005775U KR20100005775U KR200461366Y1 KR 200461366 Y1 KR200461366 Y1 KR 200461366Y1 KR 2020100005775 U KR2020100005775 U KR 2020100005775U KR 20100005775 U KR20100005775 U KR 20100005775U KR 200461366 Y1 KR200461366 Y1 KR 200461366Y1
Authority
KR
South Korea
Prior art keywords
camera
image
pixels
display unit
coordinates
Prior art date
Application number
KR2020100005775U
Other languages
Korean (ko)
Other versions
KR20100006346U (en
Inventor
정헌석
Original Assignee
정헌석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정헌석 filed Critical 정헌석
Priority to KR2020100005775U priority Critical patent/KR200461366Y1/en
Publication of KR20100006346U publication Critical patent/KR20100006346U/en
Application granted granted Critical
Publication of KR200461366Y1 publication Critical patent/KR200461366Y1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Abstract

본 고안은 영상으로부터 동작 인식을 이용한 포인팅 장치에 관한 것으로서, 출력대상 영상을 표시하는 표시부; 고정되어 일정한 영역을 실시간으로 촬영하는 카메라; 및 카메라에 의해 촬영된 실시간 영상에서 배경 픽셀과 영역에 진입한 대상물 픽셀을 분리하고, 대상물 픽셀이 위치에 따라 복수의 그룹으로 분류되는지 여부를 판단하며, 대상물 픽셀이 하나의 그룹으로 특정되는 경우 하나의 그룹의 실시간 영상 내의 좌표를 추출하고 실시간 영상 내의 좌표를 표시부 내의 좌표로 변환하여 표시부에서 표시부 내의 좌표에 포인터를 위치시키고, 대상물 픽셀이 복수의 그룹으로 분류되는 경우 각각의 그룹에 대하여 실시간 영상 내의 좌표를 추출하고 각각의 실시간 영상 내의 좌표를 표시부 내의 좌표로 변환하여 표시부에서 표시부 내의 좌표에 복수의 포인터를 위치시키는 제어부;를 포함하는 포인팅 장치를 제공한다.The present invention relates to a pointing device using motion recognition from an image, comprising: a display unit displaying an output target image; A camera which is fixed and captures a certain area in real time; And separating the background pixel and the object pixel entering the region from the real-time image photographed by the camera, and determining whether the object pixel is classified into a plurality of groups according to the position, and when the object pixel is specified as one group, Extract the coordinates in the real-time image of the group of and convert the coordinates in the real-time image to the coordinates in the display unit, position the pointer on the coordinates in the display unit in the display unit, and if the object pixels are classified into a plurality of groups, And a control unit for extracting the coordinates and converting the coordinates in each of the real-time images into coordinates in the display unit so that the display unit places a plurality of pointers in the coordinates in the display unit.

Description

영상을 이용한 포인팅 장치{Pointing Apparatus Using Image}Pointing Apparatus Using Image}

본 고안은 포인팅 장치에 관한 것으로서, 보다 상세하게는 영상으로부터 동작 인식을 이용한 포인팅 장치에 관한 것이다.The present invention relates to a pointing device, and more particularly, to a pointing device using motion recognition from an image.

컴퓨터 등의 많은 전자장치는 GUI 환경을 갖추고 있고, 포인터를 이용하여 작동을 제어한다. 화면 상의 포인터는 마우스, 키보드의 방향키, 조이스틱, 터치 스크린 등을 이용하여 이동시킬 수 있다.Many electronic devices such as computers have a GUI environment and use pointers to control their operation. The pointer on the screen can be moved using a mouse, a direction key of a keyboard, a joystick, a touch screen, and the like.

많은 대중들이 사용하는 안내용 단말기, 판매용 단말기 또는 키오스크는 사용자가 조작할 별도의 장치를 필요로 하지 않는 터치스크린 방식이 많이 사용된다. 터치스크린 방식은 많은 대중들이 스크린을 접촉하기 때문에 위생상 문제점이 있다. 또한, 이용자가 스크린에 최대한 근접하여야 하고, 이에 따라 스크린의 크기가 제한되는 단점이 있다. 이러한 문제점은 마우스, 키보드, 조이스틱과 같은 다른 입력 방식도 동일하다.As a guide terminal, a sales terminal, or a kiosk used by many people, a touch screen type that does not require a separate device for a user to use is widely used. The touch screen method is a hygiene problem because many people touch the screen. In addition, the user should be as close as possible to the screen, there is a disadvantage that the size of the screen is limited. The same problem applies to other input methods such as a mouse, keyboard, and joystick.

한편, 다수의 관람자들이 볼 수 있게 큰 화면이 요구되고 프로젝터 방식의 화면이 사용되는 프리젠테이션에서 진행자는 마우스 등의 포인팅 장치를 이용하여 화면의 포인터를 제어한다. 마우스 등의 포인팅 장치는 많은 사람들이 접촉하기 때문에 위생상 문제점이 있다. 또한, 마우스 등의 포인팅 장치는 진행자의 움직임을 제한한다.Meanwhile, in a presentation in which a large screen is required for a large number of viewers and a projector screen is used, the presenter controls the pointer of the screen by using a pointing device such as a mouse. A pointing device such as a mouse has a hygienic problem because many people contact it. In addition, a pointing device such as a mouse restricts the movement of the presenter.

본 고안은 앞서 본 종래기술의 문제점을 해결하기 위하여 안출된 것으로, 본 고안의 목적은 사용자의 손 등과 같은 대상물의 움직임으로 포인트를 이동시켜 포인팅을 위한 별도의 장치를 사용하거나 접촉할 필요가 없는 포인팅 장치와 방법을 제공하는 것이다. The present invention has been devised to solve the problems of the prior art, the object of the present invention is to move the point by the movement of an object such as a user's hand, using a separate device for pointing or do not need to touch It is to provide an apparatus and method.

본 고안의 다른 목적은, 제어부가 대상물의 크기(또는 대상물로 분류되는 픽셀의 수)에 기초하여 카메라로부터 대상물까지의 거리를 추출하여 대상물의 3차원 움직임을 재현할 수 있도록 하여 3차원 게임이나 콘텐츠의 제어에 사용될 수 있는 포인팅 장치와 방법을 제공하는 것이다. Another object of the present invention is to allow the control unit to extract the distance from the camera to the object based on the size of the object (or the number of pixels classified as the object) to reproduce the three-dimensional motion of the object, such as a three-dimensional game or content It is to provide a pointing device and method that can be used to control the.

본 고안의 또 다른 목적은, 적외선카메라와 적외선 발광기를 구비하여 카메라의 촬영 영역내에 사용자의 손, 팔 뿐만 아니라 다른 신체 부위가 진입한 경우에도 반사되는 적외선의 세기를 판단하여 사용자의 손, 팔, 신체부위를 구분하여 사용자의 손, 팔의 경우에만 반응하도록 하는 포인팅 장치와 방법을 제공하는 것이다. Still another object of the present invention is to provide an infrared camera and an infrared light emitter to determine the intensity of infrared rays reflected when the user enters not only the user's hand and arm but also other body parts in the photographing area of the camera. The present invention provides a pointing device and a method for classifying body parts so as to respond only to a user's hand or arm.

본 고안의 또 다른 목적은, 제어부가 반사되는 적외선의 세기에 기초하여 카메라로부터 대상물까지의 거리를 추출하여 대상물의 3차원 움직임을 재현할 수 있도록 하여 3차원 게임이나 콘텐츠의 제어에 사용될 수 있는 포인팅 장치와 방법을 제공하는 것이다.Still another object of the present invention is to point out that the control unit extracts the distance from the camera to the object based on the intensity of the reflected infrared rays so as to reproduce the three-dimensional movement of the object. It is to provide an apparatus and method.

본 고안의 또 다른 목적은, 카메라와 적외선발광기는 상호 이격되게 설치되어 적외선 발광기의 적외선 조사방향은 사용자와 손과 팔 등의 대상물을 향하도록 하고 신체의 다른 부위를 포함하지 않도록 하여 대상물과 다른 신체부위를 쉽게 구분할 수 있도록 하는 포인팅 장치와 방법을 제공하는 것이다. Another object of the present invention, the camera and the infrared emitters are installed to be spaced apart from each other so that the infrared irradiation direction of the infrared emitters are directed toward the object, such as the user, hands and arms, so as not to include other parts of the body and the other body It is to provide a pointing device and a method for easily identifying the site.

본 고안의 또 다른 목적은, 열화상카메라를 구비하여 사물의 온도 정보를 추출하고 사용자가 손과 팔을 사용할 때 체온에 해당하는 픽셀만을 추출함으로서 용이하게 촬영영상에서 대상물을 추출할 수 있는 포인팅 장치와 방법을 제공하는 것이다. Still another object of the present invention is to provide a thermal imaging camera that extracts temperature information of an object and when a user uses a hand and an arm, a pointing device that can easily extract an object from a captured image by extracting only pixels corresponding to body temperature. And to provide a way.

본 고안의 또 다른 목적은, 대상물로 판단되는 1 이상의 픽셀들이 인접한 경우 이들을 동일한 그룹으로 묶고 이와 같은 과정을 반복적으로 진행하여 2이상의 대상물을 각각의 그룹으로 지정하여 사용자의 두 손과 팔 등과 같은 복수의 대상물의 움직임을 복수의 포인트의 움직임으로 동기화시키고 제어할 수 있는 포인팅 장치와 방법을 제공하는 것이다. Another object of the present invention, when one or more pixels determined to be an object is adjacent to each other, grouping them into the same group and repeating the same process to assign two or more objects to each group, such as the user's two hands and arms, etc. It is to provide a pointing device and method capable of synchronizing and controlling the movement of a target of the object to the movement of a plurality of points.

상술한 목적을 달성하기 위해 본 고안은, 출력대상 영상을 표시하는 표시부;고정되어 일정한 영역을 실시간으로 촬영하는 카메라; 및 카메라에 의해 촬영된 실시간 영상에서 배경과 상기 영역에 진입한 대상물을 분리하고, 실시간 영상 내에서 대상물의 제 1 좌표를 추출하며, 제 1 좌표를 표시부 내의 제 2 좌표로 변환하고, 표시부에 표시되는 포인터를 제 2 좌표로 이동시키는 제어부;를 포함하는 영상을 이용한 포인팅 장치를 제공한다.In order to achieve the above object, the present invention, a display unit for displaying an output target image; a fixed and real-time camera to shoot a certain area; And separating an object entering the area from the background from the real-time image photographed by the camera, extracting a first coordinate of the object in the real-time image, converting the first coordinate into a second coordinate in the display unit, and displaying the same on the display unit. It provides a pointing device using an image comprising a; control unit for moving the pointer to the second coordinate.

제 1 좌표는 상기 대상물의 최상측의 최좌측 좌표로 하는 것이 바람직하다.It is preferable to make 1st coordinate the leftmost coordinate of the uppermost side of the said object.

제어부는, 카메라에 의해 사전에 촬영된 초기 영상을 저장하고, 초기 영상과 실시간 영상의 차영상의 픽셀 중 픽셀값이 소정의 제 1 임계 범위 외인 픽셀들을 대상물로 판단할 수 있다. 제 1 임계 범위의 상한의 절대값과 하한의 절대값은 서로 다를 수 있다. 제 1 임계 범위는 차영상의 복수의 색상 채널 각각에 대하여 설정되고, 제어부는 차영상의 픽셀 중 복수의 색상 채널 중 적어도 하나의 색도값이 제 1 임계 범위 외인 픽셀들을 대상물로 판단할 수 있다. 대상물로 판단된 픽셀 중 인접한 픽셀들의 픽셀값이 제 1 임계 범위 내인 픽셀을 대상물에서 제외하는 것이 바람직하다. 초기 영상은 카메라에 의해 촬영된 영상이 소정의 제 1 시간 동안 변화가 없을 때의 영상으로 한다. 제 1 임계 범위는 초기 영상의 각각의 픽셀의 픽셀값에 기초하여 서로 다르게 설정될 수 있다.The controller may store the initial image photographed by the camera in advance, and determine that the pixel of the pixel of the difference image of the initial image and the real-time image is outside the first threshold range as the object. The absolute value of the upper limit and the absolute value of the lower limit of the first threshold range may be different from each other. The first threshold range is set for each of the plurality of color channels of the difference image, and the controller may determine that the pixels having at least one chromaticity value among the plurality of color channels among the pixels of the difference image are outside the first threshold range. It is preferable to exclude from the object a pixel whose pixel value of adjacent pixels among the pixels determined as the object is within the first threshold range. The initial image is an image when the image photographed by the camera has not changed for a predetermined first time. The first threshold range may be set differently based on the pixel value of each pixel of the initial image.

또는, 제어부는, 실시간 영상의 픽셀 중 픽셀값이 소정의 제 2 임계 범위 내인 픽셀들을 대상물로 판단할 수 있다. Alternatively, the controller may determine, as an object, pixels having a pixel value within a predetermined second threshold range among pixels of the real time image.

제어부는 카메라의 픽셀 중에서 등간격으로 추출된 복수의 추적 픽셀을 기준으로 상기 대상물을 분리할 수 있다.The controller may separate the object based on a plurality of tracking pixels extracted at equal intervals from among the pixels of the camera.

포인팅 장치는 적외선 발광기를 더 포함하고, 카메라는 적외선 카메라인 것을 특징으로 한다. 적외선 발광기의 조사 거리 또는 조사 각도를 조정하여 카메라의 촬영 영역이 정해질 수 있다.The pointing device further comprises an infrared light emitter, and the camera is an infrared camera. The photographing area of the camera may be determined by adjusting the irradiation distance or the irradiation angle of the infrared light emitter.

또는, 카메라는 열화상 카메라일 수 있다.Alternatively, the camera may be a thermal imaging camera.

제어부는 대상물의 크기 또는 측정된 강도에 기초하여 카메라와 대상물 사이의 거리를 측정하고, 측정된 거리에 기초하여 포인터를 제어할 수 있다.The controller may measure the distance between the camera and the object based on the size or the measured intensity of the object, and control the pointer based on the measured distance.

제어부는 대상물 픽셀이 위치에 따라 복수의 그룹으로 분류되는지 여부를 판단하며, 대상물 픽셀이 복수의 그룹으로 분류되는 경우 각각의 그룹에 대하여 실시간 영상 내의 좌표를 추출하고 각각의 실시간 영상 내의 좌표를 표시부 내의 좌표로 변환하여 표시부에서 표시부 내의 좌표에 복수의 포인터를 위치시킬 수 있다.The controller determines whether or not the object pixel is classified into a plurality of groups according to the position. When the object pixel is classified into a plurality of groups, the controller extracts coordinates in the real-time image for each group and displays the coordinates in each real-time image in the display unit. By converting the coordinates, the plurality of pointers may be positioned at the coordinates in the display unit.

인접한 2개의 픽셀이 모두 대상물로 분리되는 경우, 인접한 2개의 픽셀이 하나의 그룹에 포함되는 것으로 판단하는 것이 바람직하다.When all two adjacent pixels are separated into objects, it is preferable to determine that two adjacent pixels are included in one group.

복수의 포인터는 멀티포인팅을 위한 포인터로 사용되거나, 복수의 오브젝트의 드래그, 또는 오브젝트의 확대 또는 축소를 위한 포인터로 사용되는 것을 특징으로 하는 영상을 이용한 포인팅 장치.A plurality of pointers are used as a pointer for multi-pointing, a pointing device using an image, characterized in that used as a pointer for dragging a plurality of objects, or enlargement or reduction of an object.

본 고안은 사용자의 손 등과 같은 대상물의 움직임으로 포인트를 이동시켜 포인팅을 위한 별도의 장치를 사용하거나 접촉할 필요가 없는 효과를 가진다. The present invention has the effect of not having to use or touch a separate device for pointing by moving a point by the movement of an object such as a user's hand.

본 고안은, 제어부가 대상물의 크기(또는 대상물로 분류되는 픽셀의 수)에 기초하여 카메라로부터 대상물까지의 거리를 추출하여 대상물의 3차원 움직임을 재현할 수 있도록 하여 3차원 게임이나 콘텐츠의 제어에 사용될 수 있는 효과를 얻을 수 있다.The present invention allows the control unit to extract the distance from the camera to the object based on the size of the object (or the number of pixels classified as the object) to reproduce the three-dimensional movement of the object, thereby controlling the three-dimensional game or content. An effect that can be used can be obtained.

본 고안은, 적외선카메라와 적외선 발광기를 구비하여 카메라의 촬영 영역내에 사용자의 손, 팔 뿐만 아니라 다른 신체 부위가 진입한 경우에도 반사되는 적외선의 세기를 판단하여 사용자의 손, 팔, 신체부위를 구분하여 사용자의 손, 팔의 경우에만 반응하도록 할 수 있는 효과를 가진다.The present invention is equipped with an infrared camera and an infrared light emitter to distinguish the user's hand, arm, and body parts by judging the intensity of infrared rays reflected when the user's hands and arms as well as other body parts enter the camera's shooting area. It has an effect that can respond only to the user's hand, arm.

본 고안은, 제어부가 반사되는 적외선의 세기에 기초하여 카메라로부터 대상물까지의 거리를 추출하여 대상물의 3차원 움직임을 재현할 수 있도록 하여 3차원 게임이나 콘텐츠의 제어에 사용될 수 있는 효과를 도모할 수 있다.The present invention allows the controller to extract the distance from the camera to the object based on the intensity of the reflected infrared rays to reproduce the three-dimensional movement of the object, thereby achieving an effect that can be used to control the three-dimensional game or content. have.

본 고안은, 카메라와 적외선발광기는 상호 이격되게 설치되어 적외선 발광기의 적외선 조사방향은 사용자와 손과 팔 등의 대상물을 향하도록 하고 신체의 다른 부위를 포함하지 않도록 하여 대상물과 다른 신체부위를 쉽게 구분할 수 있도록 하는 효과를 가진다.The present invention, the camera and the infrared emitters are installed to be spaced apart from each other so that the infrared irradiation direction of the infrared emitters toward the user and the object, such as hands and arms, and do not include other parts of the body to easily distinguish the object and other body parts It has the effect of making it possible.

본 고안은, 열화상카메라를 구비하여 사물의 온도 정보를 추출하고 사용자가 손과 팔을 사용할 때 체온에 해당하는 픽셀만을 추출함으로서 용이하게 촬영영상에서 대상물을 추출할 수 있는 효과를 도모할 수 있다.The present invention is equipped with a thermal imaging camera to extract the temperature information of the object and when using the user's hands and arms only by extracting the pixels corresponding to the body temperature can achieve an effect that can easily extract the object from the captured image .

본 고안은, 대상물로 판단되는 1 이상의 픽셀들이 인접한 경우 이들을 동일한 그룹으로 묶고 이와 같은 과정을 반복적으로 진행하여 2이상의 대상물을 각각의 그룹으로 지정하여 사용자의 두 손과 팔 등과 같은 복수의 대상물의 움직임을 복수의 포인트의 움직임으로 동기화시키고 제어할 수 있는 효과를 가진다.In the present invention, when one or more pixels determined to be objects are adjacent to each other, they are grouped into the same group and the same process is repeatedly performed to assign two or more objects to each group to move a plurality of objects such as two hands and arms of a user. It has the effect of synchronizing and controlling the movement of a plurality of points.

본 고안은, 사용자가 비접촉식으로 포인터를 이동하고 클릭을 할 수 있다. 특히, 많은 불특정 대중이 사용하는 곳에서 사용될 수 있고, 영상을 이용하면서도 블루스크린과 같은 추가 장치를 요구하지 않는 단순한 구조를 제공한다는 효과를 얻을 수 있다.The present invention allows the user to move and click the pointer in a non-contact manner. In particular, it can be used where many unspecified publics use, and the effect is to provide a simple structure that uses video but does not require additional devices such as blue screens.

본 고안은, 추출된 추적 픽셀을 이용하는 경우 내장된 하드웨어의 성능을 크게 저하시키지 않고, 불량 픽셀에 의한 오류를 제거할 수 있는 효과를 얻을 수 있다. According to the present invention, when the extracted tracking pixel is used, it is possible to obtain an effect of eliminating errors caused by bad pixels without significantly reducing the performance of the embedded hardware.

도 1은 본 고안에 따른 영상을 이용한 포인팅 장치의 제 1 실시예로서 안내용 단말기의 사시도,
도 2는 도 1의 안내용 단말기의 블럭 구성도,
도 3a 내지 3e는 도 1의 실시예를 도시하는 측면도,
도 4는 본 고안에 따른 영상을 이용한 포인팅 방법의 실시예의 흐름도,
도 5는 본 고안에 따른 영상을 이용한 포인팅 방법 실시예의 작동 원리를 설명하기 위한 도면,
도 6a 및 6b는 도 1의 안내용 단말기의 작동예를 설명하기 위한 평면도,
도 7a 및 7b는 도 1의 안내용 단말기의 작동예를 설명하기 위한 측면도,
도 8은 본 고안에 따른 영상을 이용한 포인팅 장치의 제 2 실시예로서 안내용 단말기의 일예의 측면도, 및
도 9는 제 2 실시예로서 안내용 단말기의 일예의 평면도,
도 10은 제 4 실시예에서 픽셀의 예시도,
도 11은 제 4 실시예에서 멀티 포인팅 작업 화면의 예시도, 및
도 12는 제 4 실시예에서 복수의 창을 드래그하는 화면의 예시도.
1 is a perspective view of a guidance terminal as a first embodiment of a pointing device using an image according to the present invention,
FIG. 2 is a block diagram of the guidance terminal of FIG. 1;
3A-3E are side views illustrating the embodiment of FIG. 1,
4 is a flowchart of an embodiment of a pointing method using an image according to the present invention;
5 is a view for explaining the principle of operation of the pointing method embodiment using an image according to the present invention,
6A and 6B are plan views illustrating an operation example of the guide terminal of FIG. 1;
7A and 7B are side views for explaining an operation example of the guide terminal of FIG. 1;
8 is a side view of an example of a guidance terminal as a second embodiment of a pointing device using an image according to the present invention, and
9 is a plan view of an example of a guide terminal as a second embodiment;
10 is an exemplary diagram of a pixel in the fourth embodiment,
11 is an exemplary view of a multi-pointing work screen in the fourth embodiment, and
12 is an exemplary view of a screen for dragging a plurality of windows in the fourth embodiment.

이하에서는 첨부한 도면을 참조하여 본 고안의 실시예를 기술한다. 본 고안의 추가적인 구성과 효과는 이하에서 보다 상세하게 기술될 것이다. 그러나, 이하의 실시예는 본 고안을 설명하기 위한 것으로서 본 고안은 실시예에 의해 제한되지 않는다.Hereinafter, with reference to the accompanying drawings will be described an embodiment of the present invention. Additional configurations and effects of the present invention will be described in more detail below. However, the following examples are intended to illustrate the present invention and the present invention is not limited by the examples.

<제 1 실시예><First Embodiment>

도 1은 본 고안에 따른 포인팅 장치의 제 1 실시예로서 안내용 단말기(100)의 사시도이고, 도 2는 안내용 단말기(100)의 블럭 구성도이다. 1 is a perspective view of a guiding terminal 100 as a first embodiment of a pointing device according to the present invention, Figure 2 is a block diagram of the guiding terminal 100.

도 1 및 도 2를 참조하면, 안내용 단말기(100)는 케이스(110)의 표면에 노출된 표시부(120), 표시부(120)의 전면의 상측 또는 하측에 설치되는 카메라(130), 케이스(110)의 내면에 설치되는 제어부(140)를 포함한다.1 and 2, the guide terminal 100 may include a display unit 120 exposed on the surface of the case 110, a camera 130 installed on an upper side or a lower side of a front surface of the display unit 120, and a case ( The control unit 140 is installed on the inner surface of the 110.

표시부(120)는 사용자에게 정보를 제공하기 위한 장치로서, 종래기술에 따른 다양한 모니터가 사용될 수 있다. 표시부(120)는 제어부와 연결되어, 제어부의 지시에 따른 화면을 출력한다.The display unit 120 is a device for providing information to a user, and various monitors according to the prior art may be used. The display unit 120 is connected to the control unit and outputs a screen according to the instruction of the control unit.

카메라(130)는 사용자의 손 움직임을 촬영할 수 있는 디지털 카메라이다. 안내용 단말기에 관한 본 실시예에서는 카메라(130)가 표시부(120)의 전면의 상측 또는 하측에 고정 설치되는 것이 바람직하지만, 본 고안은 이에 제한되지 않고, 표시부(120)를 육안으로 확인할 수 있는 장소에 사용자가 위치할 때, 사용자의 손 움직임을 용이하게 관측할 수 있는 위치에 카메라(130)는 설치될 수 있다. 예를 들어 프리젠테이션을 위해 사용되는 경우, 사용자는 관람자의 시선을 방해하지 않고 화면을 볼 수 있는 장소에 위치하고, 카메라는 사용자의 손 위치에 상응하게 설치된다.The camera 130 is a digital camera capable of capturing a user's hand movements. In the present embodiment of the guidance terminal, the camera 130 is preferably fixed to the upper side or the lower side of the front of the display unit 120, but the present invention is not limited thereto, and the display unit 120 can be visually confirmed. When the user is located at a place, the camera 130 may be installed at a position where the user's hand movement can be easily observed. When used for presentation, for example, the user is located in a place where the screen can be seen without disturbing the viewer's gaze, and the camera is installed corresponding to the position of the user's hand.

사용자와 표시부(120) 사이의 일정 영역의 공간을 연속 촬영한다. 그리하여, 사용자가 손을 움직이면 카메라(130)는 영역 내로 진입한 손을 촬영한다. 본 고안에서 카메라(130)의 반대 방향에는 블루스크린 등과 같은 별도의 배경막이 설치되지 않는다.The space in a predetermined area between the user and the display unit 120 is continuously photographed. Thus, when the user moves the hand, the camera 130 photographs the hand entered into the area. In the present invention, a separate backdrop such as a blue screen is not installed in the opposite direction of the camera 130.

제어부(140)는, 카메라(130)로부터 촬영된 영상을 수신하고 분석하여 카메라(130)의 촬영 영역 내로 진입한 사용자의 손의 위치를 포인팅 데이터로 변환하고, 이를 사전에 저장된 데이터와 함께 표시부(120)로 전송하는 CPU(141)와 표시부(120)에 표시할 데이터와 카메라(130)에서 촬영된 영상을 분석하기 위한 프로그램 및 데이터가 저장된 메모리(142)를 포함한다. The controller 140 receives and analyzes the captured image from the camera 130 to convert the position of the user's hand that has entered the shooting area of the camera 130 into pointing data and displays the display unit together with previously stored data. The memory 142 includes a CPU 141 transmitted to the 120 and a program and data for analyzing data to be displayed on the display 120 and an image captured by the camera 130.

도 3a 내지 3e를 참조하면, 사용자는 표시부(120)에서 소정의 간격 이격된 위치에 서서 안내용 단말기(100)를 조작한다. 도 3a에서 카메라(130)는 표시부(120)의 전면 천장에 설치되어 수직 하방향을 촬영하거나 전면 바닥에 설치되어 수직 상방향을 촬영한다. 도 3a의 경우 영역 내로 진입한 사용자의 손을 용이하게 촬영할 수 있다. 도 3b에서 카메라(130)는 표시부(120)의 하측에 상측으로 기울어진 각도로 설치되어 촬영한다. 도 3b의 경우 도 3a에 비해 장비 설치 및 유지 보수가 간편하나 사용자의 손이 아닌 다른 신체 부위에 의해 간섭받을 염려가 있다. 도 3c에서 카메라(130)는 표시부(120)의 하측으로 기울어진 각도로 설치되고 카메라(130)의 하측에는 거울(150)이 설치되어 촬영 영역이 확보된다. 도 3c의 경우 카메라(130)가 노출되는 것을 최대한 막을 수 있다. 도 3d에서 카메라(130)는 표시부(120)의 전면에 설치된 별도의 단상(160) 내에 설치된다. 단상(160)의 상면은 투명 또는 반투명하다. 도 3d의 경우 사용자가 더 직관적으로 안내용 단말기(100)를 조작할 수 있다. 사용자의 편의를 위해 단상이 요구될 때 사용될 수 있다. 도 3e에서 표시부(120)는 기울어져 설치되고 카메라(130)는 표시부(120)의 하단에 설치되어 수직 상방향을 촬영한다. 도 3a, 3d의 경우에서처럼 다른 신체 부위에 의해 간섭받을 염려가 적고, 도 3b, 3c의 경우에서처럼 장비 설치 및 유지 보수가 간편하다. 도 3a 내지 3e에서 볼 수 있는 바와 같이, 카메라(130)는 표시부(120) 등과 이격되어 설치되거나 일체로 설치될 수 있다.3A to 3E, the user operates the guide terminal 100 at a position spaced apart from the display unit 120 by a predetermined interval. In FIG. 3A, the camera 130 is installed on the front ceiling of the display unit 120 to photograph the vertical downward direction, or is installed on the front bottom to photograph the vertical upward direction. In the case of FIG. 3A, a user's hand that has entered the area may be easily photographed. In FIG. 3B, the camera 130 is photographed by being installed at an angle inclined upward toward the lower side of the display unit 120. In the case of Figure 3b is easy to install and maintain the equipment compared to Figure 3a, but there is a fear of interference by other body parts than the user's hand. In FIG. 3C, the camera 130 is installed at an angle inclined to the lower side of the display unit 120, and a mirror 150 is installed below the camera 130 to secure a photographing area. In the case of FIG. 3C, the camera 130 may be prevented from being exposed to the maximum. In FIG. 3D, the camera 130 is installed in a separate single phase 160 installed in the front of the display unit 120. The upper surface of the single phase 160 is transparent or translucent. In the case of FIG. 3D, the user may operate the guide terminal 100 more intuitively. It can be used when a single phase is required for the convenience of the user. In FIG. 3E, the display unit 120 is inclined and the camera 130 is installed at the lower end of the display unit 120 to capture the vertical upward direction. 3A and 3D, as in the case of FIG. 3B and 3C, it is less likely to be interfered with by other body parts, and the equipment is easy to install and maintain. As shown in FIGS. 3A to 3E, the camera 130 may be spaced apart from the display unit 120 or the like, or may be integrally installed.

이하에서는, 상술한 구성을 가진 안내용 단말기(100)에서 포인팅 방법을 기술한다.Hereinafter, a pointing method will be described in the guide terminal 100 having the above-described configuration.

도 4는 본 고안에 따른 포인팅 방법을 설명하기 위한 순서도이다. 도 5는 도 4의 순서도를 설명하기 위한 도면이다.4 is a flowchart illustrating a pointing method according to the present invention. FIG. 5 is a diagram for describing the flowchart of FIG. 4.

도 4를 참조하면, 카메라(130)는 일정 영역을 연속 촬영한다(S10 단계).Referring to FIG. 4, the camera 130 continuously photographs a predetermined area (S10).

카메라(130)에 의해 촬영된 영상은 제어부(140)로 전송되고, 제어부(140)는 촬영된 영상에서 배경과 영역 내로 진입한 대상물(손, 팔 등)을 분리한다(S20 단계).The image photographed by the camera 130 is transmitted to the controller 140, and the controller 140 separates an object (a hand, an arm, etc.) entering the area from the background from the photographed image (S20).

일실시예에 따르면, 배경과 대상물은 사전에 준비되어 저장된 초기 영상과 실시간으로 촬영된 영상을 비교하여 분리된다. According to an embodiment, the background and the object are separated by comparing an image captured in real time with an initial image prepared and stored in advance.

초기 영상은 사전에 대상물이 없는 배경만을 촬영한 영상이고, 각 픽셀에 대하여 소정의 색도값(RGB 또는 CMYK)을 가진다. 이러한 초기 영상은 카메라(130)에 의해 촬영된 동영상의 각 프레임의 색도값이 일정 시간 동안 변화가 없을 때, 카메라(130)에 의해 촬영된 영역 내에 배경만이 존재한다고 판단하여 초기 영상으로 할 수 있다. 이러한 초기 영상은 야외에서와 같이 시간에 따라 환경이 변하는 경우에는 수시로 업데이트될 수 있다.The initial image is an image photographing only a background without an object in advance, and has a predetermined chromaticity value (RGB or CMYK) for each pixel. When the chromaticity value of each frame of the video photographed by the camera 130 does not change for a predetermined time, the initial image may be determined as the initial image by determining that only the background exists in the area photographed by the camera 130. have. The initial image may be updated from time to time when the environment changes over time, such as outdoors.

카메라(130)에 의해 초기 영상에서 실시간으로 촬영된 영상을 뺀 차영상이 구해진다. 그리고, 차영상의 색도값이 소정의 제 1 임계 범위 내인 경우는 배경으로 분류되고 제 1 임계 범위 외인 경우에는 카메라(130)가 촬영하는 영역 내로 진입한 대상물(손, 팔 등)로 분류된다. 예를 들면, 한 픽셀의 초기 영상의 RGB값이 (196,196,204)이고 실시간 영상의 RGB값이 (102,62,70)인 경우, 차영상의 RGB값은 (92,134,134)이며, 차영상의 RGB값이 제 1 임계 범위 내인지가 판단된다. The difference image obtained by subtracting the image captured in real time from the initial image is obtained by the camera 130. When the chromaticity value of the difference image is within a predetermined first threshold range, it is classified as a background, and when it is outside the first threshold range, it is classified as an object (a hand, an arm, etc.) that has entered the area photographed by the camera 130. For example, when the RGB value of the initial image of one pixel is (196,196,204) and the RGB value of the real time image is (102,62,70), the RGB value of the difference image is (92,134,134), and the RGB value of the difference image is It is determined whether it is within a first threshold range.

제 1 임계 범위는 각각의 색상 채널(RGB)별로 설정된다. 그리고, 각각의 색상 채널에 대한 제 1 임계 범위는 서로 다를 수 있다. 차영상의 한 픽셀의 색상 채널 중 적어도 하나의 색도값이 제 1 임계 범위 외인 경우 그 픽셀은 대상물로 분류된다. 예를 들면, 차영상의 한 픽셀의 RGB값 중 R값은 제 1 임계 범위 외이고, G값 및 B값은 제 1 임계 범위 내인 경우, 그 픽셀은 대상물로 분류된다.The first threshold range is set for each color channel RGB. In addition, the first threshold range for each color channel may be different. If the chromaticity value of at least one of the color channels of one pixel of the difference image is outside the first threshold range, the pixel is classified as an object. For example, when the R value among the RGB values of one pixel of the difference image is outside the first threshold range, and the G and B values are within the first threshold range, the pixel is classified as an object.

제 1 임계 범위는 그 절대값이 같은 양의 상한값과 음의 하한값을 가질 수 있다. 또는 제 1 임계 범위는 그 절대값이 서로 다른 상한값과 하한값을 가질 수 있다. 이때, 상한값이 반드시 양의 값이고 하한값이 반드시 음의 값일 필요는 없다. 예를 들면, 초기 영상에서 촬영된 배경이 밝고 대상물은 어두운 경우, 제 1 임계 범위의 상한값과 하한값은 모두 양의 값일 수 있다. 즉, 초기 영상으로부터 실시간 영상의 색도값이 증가한 경우와 감소한 경우의 임계값을 서로 다르게 설정할 수 있다. 상술한 바와 같이, 상한값과 하한값은 주변 환경, 배경의 밝기로부터 정해질 수 있다. The first threshold range may have a positive upper limit and a negative lower limit with the same absolute value. Alternatively, the first threshold range may have an upper limit value and a lower limit value at which absolute values are different from each other. At this time, the upper limit value is necessarily a positive value and the lower limit value is not necessarily a negative value. For example, when the background photographed in the initial image is bright and the object is dark, both the upper limit value and the lower limit value of the first threshold range may be positive values. That is, the threshold value when the chroma value of the real time image increases and decreases from the initial image may be set differently. As described above, the upper limit value and the lower limit value may be determined from the brightness of the surrounding environment and the background.

또한, 각 픽셀의 제 1 임계 범위는 서로 다르게 설정될 수 있다. 초기 영상(배경)에서 각 픽셀의 색도값은 서로 다를 수 있다. 색도값이 서로 다른 픽셀에 대하여 서로 같은 제 1 임계 범위를 설정하는 경우, 각 픽셀에 대하여 대상물을 판단하는 민감도는 서로 다를 수 있다. 예를 들면, 배경이 상대적으로 밝은 부분과 어두운 부분으로 나누어진 경우, 어두운 부분을 기준으로 제 1 임계 범위를 설정할 때 밝은 부분은 주변 환경에 따른 색도값의 변화에도 민감하게 반응하고, 밝은 부분을 기준으로 제 1 임계 범위를 설정할 때 어두운 부분은 대상물의 진입에 의한 색도값의 변화에도 반응하지 않을 수 있다. 따라서, 밝은 부분은 제 1 임계 범위를 상대적으로 넓게 설정하고 어두은 부분은 제 1 임계 범위를 상대적으로 좁게 설정하는 것이 바람직하다.In addition, the first threshold range of each pixel may be set differently. In the initial image (background), chromaticity values of each pixel may be different. When the same first threshold range is set for pixels having different chromaticity values, sensitivity for determining an object may be different for each pixel. For example, if the background is divided into relatively bright and dark parts, when setting the first threshold range based on the dark parts, the bright parts are sensitive to changes in chromaticity values according to the surrounding environment, When setting the first threshold range as a reference, the dark portion may not respond to a change in chromaticity value due to the entry of the object. Therefore, it is preferable that the light portion sets the first threshold range relatively wide and the dark part sets the first threshold range relatively narrow.

다른 실시예에 따르면, 배경과 대상물은 초기 영상 없이 카메라(130)에 의해 촬영된 실시간 영상에 기초하여 분리된다. 즉, 카메라(130)에 의해 촬영된 영상의 픽셀 중 색도값이 소정의 제 2 임계 범위 내인 픽셀이 카메라(130)가 촬영하는 영역 내로 진입한 대상물로 분류된다. 예를 들면, 실시간 영상의 한 픽셀의 RGB값이 (102,62,70)인 경우 RGB값이 제 2 임계 범위 내인지 여부가 판단된다. 제 2 임계 범위는 피부색에 기초하여 정해진다. 이러한 경우, 초기 영상을 이용하지 않는 장점이 있으나, 사용자가 장갑 등을 착용하고 작동하는 경우 오작동을 일으킬 우려가 있다.According to another embodiment, the background and the object are separated based on the real-time image captured by the camera 130 without the initial image. That is, among the pixels of the image photographed by the camera 130, pixels whose chromaticity values are within a predetermined second threshold range are classified as objects that enter the area photographed by the camera 130. For example, when the RGB value of one pixel of the real-time image is (102, 62, 70), it is determined whether the RGB value is within the second threshold range. The second threshold range is determined based on skin color. In this case, although there is an advantage that the initial image is not used, there is a risk of malfunction when the user operates while wearing gloves or the like.

제 2 임계 범위는 각각의 색상 채널(RGB)별로 설정된다. 그리고, 각각의 색상 채널에 대한 제 2 임계 범위는 서로 다를 수 있다. 실시간 영상의 한 픽셀의 색상 채널 모두의 색도값이 제 2 임계 범위 내인 경우 그 픽셀은 대상물로 분류된다. 예를 들면, 실시간 영상의 한 픽셀의 RGB값 중 R값은 제 2 임계 범위 내이고, G값 및 B값은 제 2 임계 범위 외인 경우, 그 픽셀은 배경으로 분류된다.The second threshold range is set for each color channel RGB. And, the second threshold range for each color channel may be different. If the chromaticity values of all the color channels of one pixel of the real-time image are within the second threshold range, the pixel is classified as an object. For example, when the R value of the RGB value of one pixel of the real time image is within the second threshold range, and the G value and the B value are outside the second threshold range, the pixel is classified as a background.

상술한 바와 같이 색도값을 이용하여 배경과 대상물을 분리하는 경우, 불량 픽셀에 의해 배경과 대상물을 잘못 분리하는 경우가 생길 수 있다. 그러므로, 바람직하게는 대상물로 분류된 픽셀 중 주변의 픽셀들이 모두 배경으로 분류된 것들은 대상물이 아닌 것으로 판단한다. As described above, when the background and the object are separated by using the chromaticity value, the background and the object may be incorrectly separated by the bad pixel. Therefore, it is preferable that all of the pixels surrounding the background classified among the pixels classified as the object are not the object.

배경과 대상물이 분리되면, 촬영된 프레임 내에서 대상물의 좌표가 추출된다(S30 단계). 좌표는 손끝의 위치의 좌표인 것이 바람직하다. 손끝의 좌표는 대상물로 분류된 픽셀 중 가장 상측의 픽셀의 좌표로 정해지고, 최상측의 픽셀이 복수개인 경우 최상측의 픽셀 중 가장 좌측의 픽셀의 좌표로 정해진다(오른손잡이를 기준으로 정해짐).When the background and the object are separated, the coordinates of the object are extracted in the captured frame (S30). The coordinate is preferably the coordinate of the position of the fingertip. The coordinates of the fingertips are determined by the coordinates of the uppermost pixel among the pixels classified as the object, and when there are a plurality of the uppermost pixels, the coordinates of the leftmost pixel of the uppermost pixel are determined (based on the right-handedness). ).

상기 대상물 분리 및 좌표 추출 단계(S20 및 S30 단계)는 모든 픽셀에 대하여 실행될 수 있으나, 실행 시간 및 제어부(140)의 부하를 감소시키기 위해서 소정의 추적 픽셀에 대하여만 실행될 수도 있다. 예를 들면, 카메라(130)의 픽셀이 706432(1024X768)개인 경우, 상기 S20 및 S30 단계는 등간격으로 배열된 768(32X24)개의 추적 픽셀에 대해서만 실행될 수 있다.The object separation and coordinate extraction step (steps S20 and S30) may be performed for all pixels, but may be performed only for a predetermined tracking pixel in order to reduce the execution time and the load of the controller 140. For example, if the pixels of the camera 130 are 706432 (1024X768), the steps S20 and S30 may be performed only for 768 (32X24) tracking pixels arranged at equal intervals.

카메라(130)에서 촬영된 프레임 내에서 좌표는 표시부(120) 내의 좌표로 변환된다(S40 단계). 카메라(130)에 의해 촬영된 영역은 표시부(120)로 일대일로 대응된다. 예를 들면, 손끝의 좌표가 프레임 내의 32X24개의 픽셀에 의해 추출되는 경우, 32X24 픽셀 중 (1,1) 픽셀은 표시부(120)의 가장 상측의 가장 좌측으로, (32,24) 픽셀은 표시부(120)의 가장 하측의 가장 우측으로 대응된다. 제어부(140)는 변환된 표시부(120) 내의 좌표로 포인터를 이동시킨다. Coordinates in the frame photographed by the camera 130 are converted into coordinates in the display unit 120 (step S40). The area photographed by the camera 130 corresponds to the display unit 120 one-to-one. For example, when the coordinates of the fingertip are extracted by 32 × 24 pixels in a frame, (1,1) pixels among the 32 × 24 pixels are the leftmost of the uppermost part of the display unit 120, and (32,24) pixels are displayed on the display unit ( It corresponds to the bottommost right side of 120). The controller 140 moves the pointer to the coordinates in the converted display unit 120.

상술한 바와 같이, 사용자는 터치스크린, 마우스 등을 이용하지 않고, 카메라(130)가 촬영하는 영역에 손을 움직여서 포인터를 이동시킬 수 있다.As described above, the user may move the pointer by moving a hand in an area photographed by the camera 130 without using a touch screen or a mouse.

도 6a 및 6b는 상술한 안내용 단말기(100)를 이용하여 포인터를 제어하는 것을 예시하는 도면이다. 도 6a 및 6b는 일예로써 카메라(130)가 하측에 설치되어 있는 경우의 평면도이다.6A and 6B are diagrams illustrating controlling a pointer by using the above-described guide terminal 100. 6A and 6B are plan views when the camera 130 is installed below as an example.

도 6a 및 6b를 참조하면, 사용자는 자신의 손을 카메라 촬상 영역(170) 내에서 수평으로 이동시켜 표시부(120) 내에서 포인터(121)를 이동시킨다. 카메라 촬상 영역(170)은 표시부(120) 내에서 포인터(121)의 이동에 기초하여 사용자가 직관적으로 지득하거나, 도 3d에서와 같이 단상(160)과 같은 기구에 의하여 제한될 수 있다. 도 6a에서 사용자가 자신의 손을 카메라 촬상 영역(170)의 좌측 전부로 이동시키면, 포인터(121)는 표시부(120)의 좌측 상부로 이동한다. 도 6b에서 사용자가 자신의 손을 카메라 촬상 영역(170)의 우측 후부로 이동시키면, 포인터(121)는 표시부(120)의 우측 하부로 이동한다.6A and 6B, the user moves his or her hand horizontally in the camera imaging area 170 to move the pointer 121 in the display unit 120. The camera imaging area 170 may be intuitively acquired by the user based on the movement of the pointer 121 in the display unit 120 or may be limited by a mechanism such as the single phase 160 as shown in FIG. 3D. In FIG. 6A, when the user moves his hand to the left side of the camera imaging area 170, the pointer 121 moves to the upper left side of the display unit 120. In FIG. 6B, when the user moves his hand to the right rear side of the camera imaging area 170, the pointer 121 moves to the lower right side of the display unit 120.

도 7a 및 7b는 상술한 안내용 단말기(100)를 이용하여 포인터를 제어하는 것을 예시하는 도면이다. 도 6a 및 6b는 일예로써 카메라(130)가 하측에 설치되어 있는 경우의 평면도이다.7A and 7B are diagrams illustrating controlling a pointer by using the above-described guide terminal 100. 6A and 6B are plan views when the camera 130 is installed below as an example.

도 6a 및 6b에서 사용자는 자신의 손을 카메라 촬상 영역(170) 내에서 수평으로 이동시키는 것을 도시하였지만, 도 7a 및 7b에서 사용자는 자신의 팔의 경사를 바꿈으로써 포인터(121)를 이동시킨다. 도 7a에서 사용자가 자신의 손을 수평으로 하면 포인터(121)는 표시부(120)의 상측으로 이동하고, 도 7b에서 사용자가 자신의 손을 기울이면 포인터(121)는 표시부(120)의 하측으로 이동한다.6A and 6B illustrate the user moving his hand horizontally within the camera imaging area 170, while in FIGS. 7A and 7B the user moves the pointer 121 by changing the inclination of his arm. In FIG. 7A, when the user makes his hand horizontal, the pointer 121 moves to the upper side of the display unit 120. In FIG. 7B, when the user tilts his hand, the pointer 121 moves to the lower side of the display unit 120. Move.

한편, 제어부(140)는 대상물의 크기(또는 대상물로 분류되는 픽셀의 수)에 기초하여 카메라(130)로부터 대상물까지의 거리를 추출할 수 있다. 대상물의 실제 크기를 알 수 없기 때문에, 이때 거리는 절대적인 값이 아니라 각 프레임 사이에서 상대적 값이다. 측정된 거리는 대상물의 3차원 움직임을 재현하기 위해 사용될 수 있고, 3차원 게임이나 콘텐츠의 제어에 사용될 수 있다.The controller 140 may extract a distance from the camera 130 to the object based on the size of the object (or the number of pixels classified as the object). Since the actual size of the object is unknown, the distance is not an absolute value but a relative value between each frame. The measured distance can be used to reproduce the three-dimensional movement of the object, and can be used to control the three-dimensional game or content.

한편, 사용자는 포인터를 이동시키는 것을 원할 뿐만 아니라, 원하는 포인터의 위치에서 클릭을 하여야 한다. 제어부(140)는 상술한 바와 같이 결정된 포인터의 위치가 소정의 시간(예를 들면, 1초) 동안 변하지 않으면 사용자가 그 위치에서 클릭을 원하는 것으로 판단한다. 한편, 카메라(130) 프레임 내에서 추적 픽셀의 수가 많고 빽빽하게 배열된 경우 손떨림 등에 의하여 포인터의 위치가 미세하게 변할 수 있다. 이러한 경우에는 소정의 시간 동안 포인터의 위치가 소정의 범위 내에 머물 때 사용자가 클릭을 원하는 것으로 판단한다. On the other hand, the user wants not only to move the pointer but also to click at the desired position of the pointer. If the position of the pointer determined as described above does not change for a predetermined time (for example, 1 second), the controller 140 determines that the user wants to click at the position. On the other hand, when the number of tracking pixels in the camera 130 frame is arranged in a large number, the position of the pointer may be minutely changed due to camera shake. In this case, it is determined that the user wants to click when the position of the pointer remains within a predetermined range for a predetermined time.

또는, 제어부(140)가 카메라(130)로부터 대상물까지의 거리를 추출할 수 있는 경우, 제어부(130)는 사용자가 신체를 카메라(130)의 촬영 방향으로 움직일 때 사용자가 클릭을 원하는 것으로 판단할 수 있다.
Alternatively, when the controller 140 can extract the distance from the camera 130 to the object, the controller 130 may determine that the user wants to click when the user moves the body in the shooting direction of the camera 130. Can be.

<제 2 실시예>&Lt; Embodiment 2 >

도 8은 본 고안에 따른 포인팅 장치의 제 2 실시예로서 안내용 단말기의 측면도이다. 제 2 실시예에 따른 안내용 단말기의 구성은 제 1 실시예와 동일하며, 다만 카메라(130)는 적외선 카메라이고, 적외선을 발광하는 적외선 발광기(180)를 더 포함한다.8 is a side view of a guidance terminal as a second embodiment of a pointing device according to the present invention. The configuration of the guide terminal according to the second embodiment is the same as that of the first embodiment, except that the camera 130 is an infrared camera and further includes an infrared light emitter 180 for emitting infrared light.

카메라(130)는 적외선만을 검출하는 센서를 이용하거나 적외선만을 통과시키는 필터를 이용하여 구성된다.The camera 130 is configured by using a sensor that detects only infrared rays or a filter that passes only infrared rays.

적외선 발광기(180)는 카메라(130)에 의해 촬상되는 파장대의 적외선을 방출한다. The infrared light emitter 180 emits infrared rays of the wavelength band photographed by the camera 130.

그리고, 제어부(140)는 카메라(130)에서 촬영된 실시간 적외선 영상에서 소정의 제 3 임계값 이상인 픽셀만을 추출하여 표시부(120) 내의 포인터를 이동시킨다.The controller 140 extracts only pixels having a predetermined third or more threshold value from the real-time infrared image captured by the camera 130 and moves the pointer in the display unit 120.

도 8을 참조하면, 적외선 발광기(180)는 카메라(130)에 인접하여 설치되고, 적외선 발광기(180)로부터 적외선이 조사되는 영역은 카메라(130)의 촬상 영역과 거의 일치한다. 카메라 촬상 영역(170) 내로 피사체가 진입할 때, 피사체에 조사되는 적외선의 세기는 적외선 발광기(180)로부터 피사체까지의 거리가 증가함에 따라 감소하고, 피사체에서 반사된 적외선이 카메라(130)에서 측정되는 세기는 카메라(130)로부터 피사체까지의 거리가 증가함에 따라 감소한다. 카메라(130)와 적외선 발광기(180)가 인접하여 설치되므로, 카메라(130)에서 측정되는 적외선의 강도는 피사체까지의 거리가 증가함에 따라 감소한다. Referring to FIG. 8, an infrared light emitter 180 is installed adjacent to the camera 130, and an area irradiated with infrared light from the infrared light emitter 180 substantially corresponds to an imaging area of the camera 130. When the subject enters the camera imaging area 170, the intensity of the infrared rays irradiated on the subject decreases as the distance from the infrared emitter 180 to the subject increases, and the infrared rays reflected from the subject are measured by the camera 130. The intensity is reduced as the distance from the camera 130 to the subject increases. Since the camera 130 and the infrared light emitter 180 are installed adjacent to each other, the intensity of the infrared light measured by the camera 130 decreases as the distance to the subject increases.

도 8에서와 같이, 카메라(130)의 촬상 영역 내에 사용자의 손, 팔뿐만 아니라 다른 신체 부위도 진입할 수 있다. 하지만, 다른 신체 부위에서 반사되는 적외선의 세기에 비하여 사용자의 손, 팔에서 반사되는 적외선의 세기가 강하므로, 다른 신체 부위에서 반사되는 적외선의 세기와 사용자의 손, 팔에서 반사되는 적외선의 세기를 구분할 수 있도록 제 3 임계값을 설정한다. 도 8에서 제 3 임계값 이상으로 촬영되는 부분이 카메라 촬상 영역(170)으로 정해진다. 그러므로, 제 2 실시예에서 제어부는 제 3 임계값 이상인 부분만을 추출하므로, 제어부(140)는 배경뿐만 아니라 사용자의 손, 팔이 아닌 다른 신체 부위도 용이하게 분리할 수 있다. 제어부는 사용자의 손, 팔의 좌표를 추출하고, 이를 표시부(120) 내의 좌표로 변환하며, 포인터를 변환된 좌표에 따라 표시부(120) 내에서 이동시킨다.As shown in FIG. 8, not only the user's hand and arm but also other body parts may enter the imaging area of the camera 130. However, since the intensity of infrared rays reflected from the user's hand and arm is stronger than the intensity of infrared rays reflected from other body parts, the intensity of the infrared rays reflected from other body parts and the intensity of infrared rays reflected from the user's hand and arm The third threshold value is set so that it can be distinguished. In FIG. 8, the portion photographed above the third threshold is defined as the camera imaging area 170. Therefore, in the second embodiment, since the control unit extracts only the portion that is greater than or equal to the third threshold value, the control unit 140 can easily separate not only the background but also other body parts other than the user's hand and arm. The control unit extracts the coordinates of the user's hand and arm, converts the coordinates into the coordinates in the display unit 120, and moves the pointer in the display unit 120 according to the converted coordinates.

그리고, 제어부(140)는 반사되는 적외선의 세기에 기초하여 카메라(130)와 대상물까지의 거리를 측정할 수 있다. 카메라(130)와 적외선 발광기(180)의 위치 및 적외선 발광기(180)의 광도는 사전에 알 수 있으므로, 이때 측정되는 거리는 절대적인 값일 수 있다. 측정된 거리는 대상물의 3차원 움직임을 재현하기 위해 사용될 수 있고, 3차원 게임이나 콘텐츠의 제어, 클릭 등을 위해 사용될 수 있다. 제 1 실시예에서와 같이 대상물의 크기로 거리를 측정하는 것도 가능하다.The controller 140 may measure the distance between the camera 130 and the object based on the intensity of the reflected infrared light. Since the position of the camera 130 and the infrared light emitter 180 and the luminous intensity of the infrared light emitter 180 may be known in advance, the measured distance may be an absolute value. The measured distance can be used to reproduce the three-dimensional movement of the object, and can be used for the three-dimensional game, the control of the content, the click, and the like. It is also possible to measure the distance by the size of the object as in the first embodiment.

한편, 도 8에서 카메라(130)와 적외선 발광기(180)는 인접하여 설치되는 것으로 도시되었지만, 카메라(130)와 적외선 발광기(180)는 서로 이격되어 설치되는 것도 가능하다. 도 9를 참조하면, 카메라(130)의 촬영 방향은 사용자의 손, 팔뿐만 아니라 다른 신체 부위도 포함하지만, 카메라(130)와 이격된 적외선 발광기(180)의 적외선 조사 방향은 사용자의 다른 신체 부위를 포함하지 않는다. 그리하여, 카메라(130)에 의해 실제로 촬영되는 영역은 도 9의 카메라 촬상 영역(170)으로 정해진다. 표시부(120)에 대응되는 촬영 영역은 카메라 촬상 영역(170) 내에서 정해진다. 이러한 경우, 사용자의 손, 팔과 다른 신체 부위를 구분하는 것이 더욱 용이하여진다. 도 9에서 카메라(130)와 적외선 발광기(180)의 위치는 변경될 수 있다.
Meanwhile, although the camera 130 and the infrared light emitter 180 are shown to be installed adjacent to each other in FIG. 8, the camera 130 and the infrared light emitter 180 may be spaced apart from each other. Referring to FIG. 9, the photographing direction of the camera 130 includes not only a user's hand and arm but also other body parts, but an infrared irradiation direction of the infrared light emitter 180 spaced apart from the camera 130 indicates another body part of the user. Does not include Thus, the area actually photographed by the camera 130 is defined as the camera imaging area 170 of FIG. 9. The photographing area corresponding to the display unit 120 is determined in the camera imaging area 170. In this case, it becomes easier to distinguish the user's hands, arms and other body parts. In FIG. 9, the positions of the camera 130 and the infrared light emitter 180 may be changed.

<제 3 실시예>Third Embodiment

제 3 실시예에 따른 안내용 단말기의 구성은 제 1 실시예와 동일하며, 다만 카메라(130)는 열화상 카메라이다.The configuration of the guide terminal according to the third embodiment is the same as that of the first embodiment, except that the camera 130 is a thermal imaging camera.

본 실시예에서 카메라(130)는 카메라 촬상 영역(170) 내의 사물의 온도 정보를 추출한다. 그리하여, 사용자가 손을 사용할 때, 체온에 해당하는 픽셀만을 추출하고, 이로써 대상물에 해당하는 픽셀을 용이하게 추출할 수 있다.In the present embodiment, the camera 130 extracts temperature information of an object in the camera imaging area 170. Thus, when the user uses the hand, only the pixels corresponding to the body temperature can be extracted, thereby easily extracting the pixels corresponding to the object.

그리고, 제어부(140)는 열화상 영상의 세기에 기초하여 카메라(130)와 대상물까지의 거리를 측정할 수 있다. 이때 측정되는 거리는 절대적인 값일 수 있다. 측정된 거리는 대상물의 3차원 움직임을 재현하기 위해 사용될 수 있고, 3차원 게임이나 콘텐츠의 제어, 클릭 등을 위해 사용될 수 있다. 제 1 실시예에서와 같이 대상물의 크기로 거리를 측정하는 것도 가능하다.The controller 140 may measure the distance between the camera 130 and the object based on the intensity of the thermal image. In this case, the measured distance may be an absolute value. The measured distance can be used to reproduce the three-dimensional movement of the object, and can be used for the three-dimensional game, the control of the content, the click, and the like. It is also possible to measure the distance by the size of the object as in the first embodiment.

본 실시예에 의한 경우, 열화상 카메라를 이용함으로써, 용이하게 신체에 해당하는 픽셀을 분리할 수 있고, 제 1 실시예에 비하여 주변 조명의 영향에서 자유로우며, 제 2 실시예에 기재된 적외선 발광기 등의 추가 구성이 필요하지 않다. 또한, 의복에 둘러싸인 동체 등에 의한 영향을 적게 받으므로, 손의 움직임만을 용이하게 포착할 수 있다.
According to the present embodiment, by using the thermal imaging camera, pixels corresponding to the body can be easily separated, and free from the influence of ambient lighting as compared with the first embodiment, and the infrared light emitter described in the second embodiment, etc. No additional configuration is required. In addition, since it is less influenced by a fuselage or the like surrounded by clothing, only hand movements can be easily captured.

<제 4 실시예><Fourth Embodiment>

상술한 제 1 실시예 내지 제 3 실시예에 따른 포인팅 장치는 복수의 포인터를 제어하기 위하여 제공될 수 있다. 상술한 실시예에서 사용자는 하나의 손, 팔을 카메라 촬상 영역(170) 내에 진입시켜 하나의 포인터를 제어하였지만, 본 실시예에서 사용자는 양손, 양팔을 카메라 촬상 영역(170) 내에 진입시켜 2개의 포인터를 제어할 수 있다.The pointing device according to the first to third embodiments described above may be provided to control a plurality of pointers. In the above-described embodiment, the user enters one hand and arm into the camera imaging area 170 to control one pointer. However, in the present embodiment, the user enters both hands and both arms into the camera imaging area 170 so that two points are controlled. You can control the pointer.

본 실시예에서, 제어부(140)는 카메라(130)에 의해 촬영된 영상에서 대상물로 판단된 픽셀을 하나 이상의 그룹으로 분류하여 관리한다. 2개의 인접한 픽셀이 모두 대상물로 판단되는 경우 그 2개의 인접한 픽셀은 하나의 그룹에 속하는 것으로 판단한다. 이러한 방식으로 그룹을 확장하여 하나의 그룹에 포함되는 모든 픽셀을 판단한다. In the present embodiment, the controller 140 classifies and manages pixels determined as objects in the image photographed by the camera 130 into one or more groups. If it is determined that two adjacent pixels are all objects, it is determined that the two adjacent pixels belong to one group. In this way, the group is expanded to determine all pixels included in one group.

예를 들면, (50, 100) 픽셀이 대상물로 판단되고 (50, 100) 픽셀에 대하여 그룹 식별자 'A'가 지정될 때, (51, 100) 픽셀이 대상물로 판단되는 경우 (51, 100) 픽셀 또한 그룹 식별자 'A'가 지정되며, 이후 (51, 101) 픽셀이 대상물로 판단되는 경우 (51, 101) 픽셀도 그룹 식별자 'A'가 지정되고, 이러한 방식으로 (50, 100) 픽셀에 연결되는 픽셀들이 그룹 'A'로 지정된다. 한편, (200, 100) 픽셀이 대상물로 판단되고, (200, 100) 픽셀 및 이와 연결되는 픽셀들이 그룹 'A'에 속하는 픽셀들에 인접하지 않는 경우(즉, (50, 100) 픽셀에 연결되지 않는 경우), (200, 100) 픽셀 및 이와 연결되는 픽셀들은 별개의 그룹 식별자 'B'로 지정된다(도 10 참조). For example, when (50, 100) pixels are determined to be an object and when the group identifier 'A' is specified for (50, 100) pixels, (51, 100) pixels are determined to be an object (51, 100) The pixel is also assigned a group identifier 'A', and when (51, 101) pixels are determined to be objects, the (51, 101) pixels are also assigned a group identifier 'A', and in this way The pixels to be connected are assigned to the group 'A'. On the other hand, if (200, 100) pixels are determined to be an object, and (200, 100) pixels and the pixels connected thereto are not adjacent to the pixels belonging to the group 'A' (that is, connected to (50, 100) pixels) If not), the (200, 100) pixels and the pixels connected thereto are designated with a separate group identifier 'B' (see FIG. 10).

이러한 그룹 지정 과정은 상술한 불량 픽셀 제거 과정을 포함할 수 있다. 즉, 대상물로 분류된 픽셀의 인접한 픽셀들이 모두 배경으로 분류되는 경우, 인접한 픽셀들이 대상물로 분류되는 경우에만 인접한 픽셀들이 동일한 그룹으로 지정되므로 대상물로 분류되는 인접 픽셀이 없는 픽셀에는 그룹이 지정되지 않고, 그룹이 지정되지 않은 픽셀은 불량 픽셀로 판단할 수 있다.This group designation process may include the bad pixel removal process described above. That is, when all adjacent pixels of the pixel classified as the object are classified as the background, the adjacent pixels are assigned to the same group only when the adjacent pixels are classified as the object, and therefore, no group is assigned to the pixel having no adjacent pixel classified as the object. , The pixel to which the group is not designated may be determined as a bad pixel.

대상물로 판단된 픽셀이 모두 하나의 그룹에 포함되는 경우, 이후의 과정은 제 1 실시예 내지 제 3 실시예에 기재된 바와 같다.When all the pixels determined to be the object are included in one group, the following process is as described in the first to third embodiments.

대상물로 판단된 픽셀이 복수의 그룹으로 분류되는 경우, 제어부(140)는 각각의 그룹에 해당하는 좌표를 표시부(120)의 좌표로 변환하고, 변환된 복수의 표시부(120)의 좌표에 복수의 포인터를 위치시킨다. When the pixel determined as the object is classified into a plurality of groups, the controller 140 converts coordinates corresponding to each group into coordinates of the display unit 120, and converts a plurality of coordinates into coordinates of the plurality of converted display units 120. Position the pointer.

이러한 그룹 분류는 동영상의 각 프레임에 대하여 실행된다. 그리고, 각 프레임에서 분류된 그룹 사이에 연속성이 있으면, 이들은 같은 그룹으로 지정된다. 연속성은 좌표 변화가 소정의 임계값 내에 있는 경우 연속성이 있는 것으로 판단한다. 그리하여, 각각의 포인터는 연속적으로 표시부(120)에서 이동할 수 있다. This group classification is performed for each frame of the video. And if there is continuity between the groups classified in each frame, they are assigned to the same group. Continuity is determined to be continuity if the coordinate change is within a predetermined threshold. Thus, each pointer may move on the display 120 in succession.

한편, 사용자가 초기에 하나의 손만을 사용하고 표시부(120)에 하나의 포인터만이 표시되는 중에, 사용자가 다른 손을 사용할 수 있다. 이러한 경우 연속성 없이 새롭게 생성된 그룹에 대하여는 새로운 그룹이 부여되고, 표시부(120)에는 새로운 그룹에 따른 새로운 포인터가 생성된다.Meanwhile, while the user initially uses only one hand and only one pointer is displayed on the display unit 120, the user may use the other hand. In this case, a new group is assigned to a newly created group without continuity, and a new pointer according to the new group is created in the display unit 120.

또한, 유사하게, 복수의 포인터 중 일부가 표시부(120) 내에서 사라지는 것도 가능하다. 예를 들면, 사용자가 2개의 손을 이용하여 2개의 포인터를 제어하던 중 하나의 손을 카메라 촬영 영역(170) 외부로 빼는 경우, 대상물로 인식되는 픽셀들은 하나의 그룹에만 속하게 되고, 표시부(120) 내의 2개의 포인터 중 하나는 사라지게 된다. 또는, 2개의 손을 이용하여 2개의 포인터를 제어하던 중 2개의 손을 겹치는 경우, 2개의 그룹으로 분류되던 픽셀들은 하나의 그룹에만 속하게 되고, 표시부(120) 내의 2개의 포인터 중 하나는 사라지게 된다. 본 고안에서 대상물의 좌표는 최상측의 최좌측의 좌표로 정해지는 것이 바람직할 때, 2개의 포인터 중 상측 또는 좌측에 있는 포인터가 남게 되고 하측 또는 우측에 있는 포인터가 사라지게 될 것이다.Similarly, some of the plurality of pointers may disappear within the display unit 120. For example, when a user controls two pointers using two hands and pulls one of the hands out of the camera photographing area 170, the pixels recognized as objects belong to only one group and the display unit 120. One of the two pointers in) disappears. Alternatively, when two hands are overlapped while controlling two pointers using two hands, pixels classified into two groups belong to only one group, and one of the two pointers in the display unit 120 disappears. . In the present invention, when the coordinate of the object is preferably set to the leftmost coordinate on the uppermost side, the pointer on the upper side or the left side of the two pointers will be left and the pointer on the lower side or the right side will disappear.

이러한 복수의 포인터는 멀티포인터로서 사용될 수 있다. 예로서 도 11을 참조하면, 사용자가 워드프로세서, 스프레드시트, 프리젠테이션, 이미지 프로세서 등의 프로그램을 실행할 때, 하나의 포인터(121a)는 작업 영역(191)에 위치시키고 다른 하나의 포인터(121b)는 메뉴 영역(192)에 위치시킬 수 있다. 또는, 사용자가 복수의 창에서 작업을 할 때, 각각의 창에 각각의 포인터를 위치시킬 수 있다. 그리하여, 사용자가 포인터를 수시로 이동시키는 수고를 경감시킬 수 있다. 종래기술에 따른 멀티포인터는 마우스와 같은 포인터 이동 장치 1개를 이용하여 실행되었지만, 본 고안에서는 2개의 손을 이용하여 멀티포인터를 제어하여 제어가 용이하다.Such a plurality of pointers may be used as multi-pointers. For example, referring to FIG. 11, when a user executes a program such as a word processor, a spreadsheet, a presentation, an image processor, one pointer 121a is positioned in the work area 191 and the other pointer 121b is used. May be located in the menu area 192. Alternatively, when the user works in a plurality of windows, each pointer may be placed in each window. Thus, the trouble of the user moving the pointer from time to time can be reduced. Although the multi-pointer according to the related art is implemented using one pointer moving device such as a mouse, in the present invention, the control is easily performed by controlling the multi-pointer using two hands.

또는, 이러한 복수의 포인터는 오브젝트의 이동, 확대 또는 축소를 위해서 사용될 수 있다. 예로서 도 12를 참조하면, 사용자가 복수의 오브젝트를 이동시킬 때, 각각의 오브젝트(193, 194)에 각각의 포인터(121a, 121b)를 위치시키고, 각각의 포인터(121a, 121b)를 이동시켜 각각의 오브젝트(193, 194)를 이동시킬 수 있다. 다른 예로서 사용자가 오브젝트를 확대 또는 축소할 때, 오브젝트의 하나의 모서리에 하나의 포인터를 위치시키고 하나의 모서리의 대각 방향 모서리에 다른 포인터를 위치시킨 후, 포인터들을 이동시켜 오브젝트의 크기를 확대하거나 축소할 수 있다.Alternatively, the plurality of pointers may be used to move, enlarge or reduce the object. For example, referring to FIG. 12, when a user moves a plurality of objects, each of the pointers 121a and 121b is positioned at each of the objects 193 and 194, and the respective pointers 121a and 121b are moved. Each object 193, 194 can be moved. As another example, when a user zooms in or out of an object, places one pointer at one corner of the object, another pointer at a diagonal corner of one corner, and then moves the pointers to enlarge the size of the object or Can be shrunk.

상술한 복수의 포인터는 오작동의 우려를 감소시키기 위해 복수의 포인터가 요구되는 상황에서만 발생하는 것이 가능하다.The above-mentioned plurality of pointers can be generated only in a situation in which a plurality of pointers are required to reduce the risk of malfunction.

상술한 기술에서 사용자가 2개의 손을 이용하여 2개의 포인터를 제어하는 것에 대하여 기술하였지만, 본 고안은 이에 제한되지 않고 2개 이상의 포인터를 제어할 수 있다. 예를 들면, 복수의 사용자가 각자의 신체를 이용하는 경우 2개 이상인 다수의 포인터를 제어하는 것이 가능하다. 이는 하나의 화면을 이용하여 다수의 사용자가 협동 작업을 하거나 게임을 할 수 있게 하는 새로운 환경을 제공한다.
Although the above description has been made of the user controlling two pointers using two hands, the present invention is not limited thereto and can control two or more pointers. For example, when a plurality of users use their bodies, it is possible to control two or more pointers. This provides a new environment that allows multiple users to collaborate or play games using one screen.

상술한 실시예에서 안내용 단말기에 대하여 기술하였지만 이는 일예일 뿐이고, 본 고안은 판매용 단말기, 키오스크, 프리젠테이션 장치, 광고 장치 등 다양한 장치에 적용될 수 있다.In the above-described embodiment, the guide terminal is described, but this is only an example, and the present invention may be applied to various devices such as a sales terminal, a kiosk, a presentation device, an advertisement device, and the like.

비록 본 고안이 상술한 바람직한 실시예와 관련하여 설명되었지만, 본 고안의 요지와 범위로부터 벗어남이 없이 다양한 수정 및 변형이 가능한 것은 당업자라면 용이하게 인식할 수 있을 것이며, 이러한 변경 및 수정은 모두 첨부된 특허청구의 범위에 속함은 자명하다.Although the present invention has been described in connection with the above-described preferred embodiments, it will be readily apparent to those skilled in the art that various modifications and variations are possible without departing from the spirit and scope of the present invention, all of which are attached to the appended claims. It is obvious that it belongs to the scope of the claims.

100: 안내용 단말기
110: 케이스
120: 표시부
121: 포인터
130: 카메라
140: 제어부
141: CPU
142: 메모리
150: 거울
160: 단상
170: 카메라 촬상 영역
180: 적외선 발광기
100: information terminal
110: case
120: display unit
121: pointer
130: camera
140:
141: CPU
142: memory
150: mirror
160: single phase
170: camera imaging area
180: infrared emitter

Claims (15)

출력대상 영상을 표시하는 표시부;
고정되어 일정한 영역을 실시간으로 촬영하는 카메라;
상기 카메라에 의해 촬영된 실시간 영상에서 배경과 상기 영역에 진입한 대상물을 분리하고, 상기 실시간 영상 내에서 상기 대상물의 제 1 좌표를 추출하며, 상기 제 1 좌표를 상기 표시부 내의 제 2 좌표로 변환하고, 상기 표시부에 표시되는 포인터를 상기 제 2 좌표로 이동시키는 제어부; 및
적외선 발광기를 포함하고,
상기 카메라는 적외선 카메라이고, 상기 제어부는 사용자의 손과 팔 등의 대상물과 신체의 다른 부위로부터 반사되는 적외선 세기에 기초하여 사용자의 손과 팔 등의 대상물과 신체의 다른 부위를 구분하여 반응하도록 하는 영상을 이용한 포인팅 장치.
A display unit which displays an output target image;
A camera which is fixed and captures a certain area in real time;
Separating a background and an object entering the area from the real-time image photographed by the camera, extracting a first coordinate of the object in the real-time image, converting the first coordinate into a second coordinate in the display unit, and A controller configured to move the pointer displayed on the display unit to the second coordinates; And
Includes an infrared light emitter,
The camera is an infrared camera, and the controller distinguishes and reacts an object such as a user's hand and an arm and other parts of the body based on an infrared ray intensity reflected from an object such as a user's hand and arm and other parts of the body. Pointing device using images.
제 1 항에 있어서,
상기 제어부는, 상기 카메라에 의해 사전에 촬영된 초기 영상을 저장하고, 상기 초기 영상과 상기 실시간 영상의 차영상의 픽셀 중 픽셀값이 소정의 제 1 임계 범위 외인 경우, 그 픽셀들을 상기 대상물로 판단하는 것을 특징으로 하는 영상을 이용한 포인팅 장치.
The method of claim 1,
The controller may store the initial image photographed by the camera in advance, and if the pixel value among the pixels of the difference image between the initial image and the real-time image is outside a predetermined first threshold range, determine the pixels as the object. Pointing device using an image, characterized in that.
제 2 항에 있어서,
상기 제 1 임계 범위의 상한의 절대값과 하한의 절대값은 서로 다른 것을 특징으로 하는 영상을 이용한 포인팅 장치.
The method of claim 2,
Pointing device using an image, characterized in that the absolute value of the upper limit and the lower limit of the first threshold range is different.
제3항에 있어서,
상기 제 1 임계 범위는 상기 차영상의 복수의 색상 채널 각각에 대하여 설정되고,
상기 제어부는 상기 차영상의 픽셀 중 복수의 색상 채널 중 적어도 하나의 색도값이 상기 제 1 임계 범위 외인 경우 그 픽셀들을 상기 대상물로 판단하는 것을 특징으로 하는 영상을 이용한 포인팅 장치.
The method of claim 3,
The first threshold range is set for each of the plurality of color channels of the difference image,
And the controller determines the pixels as the object when the chromaticity value of at least one of the plurality of color channels among the pixels of the difference image is outside the first threshold range.
제 4 항에 있어서,
상기 제 1 임계 범위는 상기 초기 영상의 각각의 픽셀의 픽셀값에 기초하여 서로 다르게 설정되는 것을 특징으로 하는 영상을 이용한 포인팅 장치.
The method of claim 4, wherein
The first threshold range is set differently based on a pixel value of each pixel of the initial image.
제 1 항에 있어서,
상기 제어부는, 상기 실시간 영상의 픽셀 중 픽셀값이 소정의 제 2 임계 범위 내인 픽셀들을 상기 대상물로 판단하는 것을 특징으로 하는 영상을 이용한 포인팅 장치.
The method of claim 1,
The control unit is a pointing device using an image, characterized in that the pixel value of the pixel of the real-time image is within the predetermined second threshold range to determine the object.
제 1 항에 있어서,
상기 제어부는 상기 카메라의 픽셀 중에서 등간격으로 추출된 복수의 추적 픽셀을 기준으로 상기 대상물을 분리하는 것을 특징으로 하는 영상을 이용한 포인팅 장치.
The method of claim 1,
The control unit is a pointing device using an image, characterized in that for separating the object based on a plurality of tracking pixels extracted at equal intervals among the pixels of the camera.
삭제delete 삭제delete 제 1 항에 있어서, 상기 제어부는 카메라로부터 대상물까지의 거리를 추출하여 대상물의 3차원 움직임을 재현할 수 있는 영상을 이용한 포인팅 장치.The pointing device of claim 1, wherein the controller is configured to extract a distance from a camera to an object to reproduce a three-dimensional motion of the object. 제 1 항에 있어서,
카메라와 적외선 발광기는 상호 이격되게 설치되되, 적외선 발광기의 적외선 조사방향은 대상물을 향하도록 하고 신체의 다른 부위를 포함하지 않도록 하여 대상물과 신체의 다른 부위를 쉽게 구분할 수 있는 영상을 이용한 포인팅 장치.
The method of claim 1,
A camera and an infrared light emitter are installed to be spaced apart from each other, the infrared irradiation direction of the infrared light emitter pointing to the object and do not include other parts of the body pointing device using an image that can easily distinguish the object and other parts of the body.
삭제delete 제 1 항에 있어서,
상기 제어부는 상기 카메라에 의해 촬영된 영상에서 대상물로 판단된 픽셀들이 상호 인접한 경우 동일한 그룹으로 그리고 상호 인접하지 아니한 경우에는 다른 그룹으로 지정 분류하여 대상물들의 픽셀을 복수의 그룹으로 분류하고 각각의 그룹에 대하여 실시간 영상 내의 좌표를 추출하고 각각의 실시간 영상 내의 좌표를 상기 표시부 내의 좌표로 변환하여 상기 표시부에서 상기 표시부 내의 좌표에 복수의 포인터를 위치시켜 복수의 대상물의 움직임을 복수의 포인트의 움직임으로 동기화시킬 수 있는 영상을 이용한 포인팅 장치.
The method of claim 1,
The controller classifies the pixels of the objects into a plurality of groups by classifying and classifying the pixels of the objects into the same group when the pixels determined to be objects in the image photographed by the camera are adjacent to each other and in a different group when they are not adjacent to each other. Extract coordinates in the real-time image and convert coordinates in each real-time image into coordinates in the display unit so that the plurality of pointers are positioned at the coordinates in the display unit in the display unit to synchronize the movement of the plurality of objects with the movement of the plurality of points. Pointing device using video.
삭제delete 삭제delete
KR2020100005775U 2010-06-03 2010-06-03 Pointing Apparatus Using Image KR200461366Y1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR2020100005775U KR200461366Y1 (en) 2010-06-03 2010-06-03 Pointing Apparatus Using Image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR2020100005775U KR200461366Y1 (en) 2010-06-03 2010-06-03 Pointing Apparatus Using Image

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020080055844A Division KR20090090980A (en) 2008-02-21 2008-06-13 Pointing apparatus using image

Publications (2)

Publication Number Publication Date
KR20100006346U KR20100006346U (en) 2010-06-23
KR200461366Y1 true KR200461366Y1 (en) 2012-07-09

Family

ID=44451807

Family Applications (1)

Application Number Title Priority Date Filing Date
KR2020100005775U KR200461366Y1 (en) 2010-06-03 2010-06-03 Pointing Apparatus Using Image

Country Status (1)

Country Link
KR (1) KR200461366Y1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6729297B2 (en) * 2016-10-27 2020-07-22 セイコーエプソン株式会社 Projector, projection system and detection light irradiation device

Also Published As

Publication number Publication date
KR20100006346U (en) 2010-06-23

Similar Documents

Publication Publication Date Title
US11546505B2 (en) Touchless photo capture in response to detected hand gestures
US11470377B2 (en) Display apparatus and remote operation control apparatus
US10659681B2 (en) Information processing apparatus, information processing method, and program
TWI534661B (en) Image recognition device and operation determination method and computer program
US8818027B2 (en) Computing device interface
KR101347232B1 (en) Image Recognition Apparatus, Operation Determining Method, and Computer-Readable Medium
US9778748B2 (en) Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program
US20120056989A1 (en) Image recognition apparatus, operation determining method and program
US20080252596A1 (en) Display Using a Three-Dimensional vision System
WO2012124730A1 (en) Detection device, input device, projector, and electronic apparatus
TW201109998A (en) Gesture recognition method and interactive system using the same
KR101989998B1 (en) Input system for a computer incorporating a virtual touch screen
CN111527468A (en) Air-to-air interaction method, device and equipment
JP2012238293A (en) Input device
US20130162518A1 (en) Interactive Video System
JP2024029047A (en) Display detection apparatus, method therefor, and computer readable medium
US11112961B2 (en) Information processing system, information processing method, and program for object transfer between devices
KR20090090980A (en) Pointing apparatus using image
KR101426378B1 (en) System and Method for Processing Presentation Event Using Depth Information
KR200461366Y1 (en) Pointing Apparatus Using Image
CN107430841B (en) Information processing apparatus, information processing method, program, and image display system
JP2013134549A (en) Data input device and data input method
JP2012226507A (en) Emitter identification device, emitter identification method and emitter identification program
KR101957417B1 (en) Motion recognition control system and method for separately displaying shot image
Reiter et al. Design and implementation of a widget set for steerable projector-camera units

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
REGI Registration of establishment
LAPS Lapse due to unpaid annual fee