KR101335394B1 - Screen touch apparatus at long range using 3D position of eyes and pointy object - Google Patents

Screen touch apparatus at long range using 3D position of eyes and pointy object Download PDF

Info

Publication number
KR101335394B1
KR101335394B1 KR1020120011584A KR20120011584A KR101335394B1 KR 101335394 B1 KR101335394 B1 KR 101335394B1 KR 1020120011584 A KR1020120011584 A KR 1020120011584A KR 20120011584 A KR20120011584 A KR 20120011584A KR 101335394 B1 KR101335394 B1 KR 101335394B1
Authority
KR
South Korea
Prior art keywords
screen
pointy
axis
point
gesture
Prior art date
Application number
KR1020120011584A
Other languages
Korean (ko)
Other versions
KR20130090458A (en
Inventor
안지윤
이종배
Original Assignee
크레신 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 크레신 주식회사 filed Critical 크레신 주식회사
Priority to KR1020120011584A priority Critical patent/KR101335394B1/en
Publication of KR20130090458A publication Critical patent/KR20130090458A/en
Application granted granted Critical
Publication of KR101335394B1 publication Critical patent/KR101335394B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 3차원 공간에서 스크린을 제어할 수 있는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치에 관한 것으로, 특히 포인티 오브젝트를 이용하여 3차원 공간에서 입력한 실제 명령과 그 외 무의미한 움직임을 정확하게 구별할 수 있어서 오동작을 방지할 수 있음은 물론, 사용자가 다양한 명령을 입력할 수 있도록 다양한 움직임을 명령으로 입력받고 서로 구별할 수 있는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치에 관한 것이다.The present invention relates to a point screen object that can control a screen in a three-dimensional space and a remote screen touch device using three-dimensional position information of an eye. In particular, an actual command input in a three-dimensional space using a point object and its It is possible to accurately distinguish external meaningless movements, to prevent malfunctions, and to receive various movements as commands so that users can input various commands, and pointy objects and three-dimensional position information of the eyes that can be distinguished from each other. It relates to a long-screen touch device used.

Description

포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치{Screen touch apparatus at long range using 3D position of eyes and pointy object}Screen touch apparatus at long range using 3D position of eyes and pointy object}

본 발명은 포인티 오브젝트를 이용하여 3차원 공간에서 입력한 실제 명령과 그 외 무의미한 움직임을 정확하게 구별할 수 있어서 오동작을 방지할 수 있는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치에 관한 것이다.The present invention can accurately distinguish between actual commands input in a three-dimensional space and other meaningless movements using a pointy object to prevent malfunctions. It is about.

또한, 본 발명은 저해상도의 포인팅 장치로서 사용할 수 있음은 물론, 사용자가 다양한 명령을 입력할 수 있도록 다양한 움직임을 명령으로 입력받고 서로 구별할 수 있는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치에 관한 것이다.
In addition, the present invention can be used as a low-resolution pointing device, as well as a long distance using the three-dimensional position information of the eye and the pointy object that can receive a variety of movements as a command so that the user can input a variety of commands and distinguish from each other It relates to a screen touch device.

최근 개인용/업무용 PC, 게임용 콘솔장치 및 스마트 폰 등은 그에 탑재된 컴퓨팅 장치의 성능이 향상됨에 따라 사용자 인터페이스(UI: User Interface)도 점차 발전하고 있으며, 그 중에는 3차원 공간에서의 움직임을 분석하여 이를 특유의 명령으로 인식하는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치도 제공되고 있다.Recently, as the performance of computing devices mounted on personal / business PCs, game console devices, and smart phones has improved, user interfaces (UIs) have been gradually developed, among them, by analyzing movements in three-dimensional space. A remote screen touch device using a pointy object and three-dimensional position information of the eye that recognizes this as a unique command is also provided.

예컨대, 한국등록특허 제374346호 '영상을 이용한 머리의 위치 및 방향을 추적하는 방법'에서는 주시선과 의도적인 눈 깜빡임을 이용하여 인간과 컴퓨터 간의 상호 인터페이스를 조종할 수 있는 시스템을 보다 실용적으로 적용할 수 있도록 머리 움직임 추적 방법을 제공하고 있다.For example, in Korean Patent No. 374346, 'Method for tracking the position and direction of the head using images', the system that can control the mutual interface between human and computer using gaze and intentional blinking is more practically applied. It provides a way to track head movements.

또한, 한국공개특허 제2009-93220호 '적외선 카메라를 이용한 공간 터치 스크린'에서는 사용자의 손동작을 3차원 데이터로 인식하고 이를 기준으로 기 설정된 시스템 운영에 따른 손동작 데이터와 비교하여 해당 명령에 따른 동작을 수행하는 방법을 제공하고 있다.In addition, Korean Laid-Open Patent No. 2009-93220 'Spatial Touch Screen Using Infrared Camera' recognizes a user's hand motion as 3D data and compares the hand motion data according to a preset system operation based on the user's hand motion. It provides a way to do it.

또한, 한국공개특허 제2011-37053호 '영상센서를 이용한 3차원 공간 터치 입력장치의 제어방법'에서는 출력화면 제어장치가 영상센서에서 촬영한 영상을 분석하여 어느 사용자가 그 사용자의 손 또는 지시봉을 이용하여 수행한 출력화면 제어신호를 제공하고 있다.In addition, in Korean Patent Application Publication No. 2011-37053, "Control Method of 3D Spatial Touch Input Device Using Image Sensor," an output screen controller analyzes an image taken by the image sensor, and a user controls the user's hand or indicator rod. It provides the output screen control signal performed by using

그러나, 이상과 같은 종래 기술들에서는 3차원 공간에서 사용자가 입력하는 명령을 분석하고 이를 스크린 화면에 반영하기는 하지만, 실제 사용자가 명령을 입력하고자 움직이는 경우와 그 외 무의미한 움직임을 정확히 구분할 수 없어서 정밀하게 명령을 입력받지 못한다는 문제점이 있었다.However, in the conventional technologies as described above, although the command input by the user in the three-dimensional space is analyzed and reflected on the screen screen, it is impossible to accurately distinguish the case where the actual user moves to input the command and other meaningless movements. There was a problem that the command is not received.

또한, 사용자가 입력할 수 있는 명령에는 손가락을 일측에서 타측으로 움직임에 따른 볼륨 조절, 영상물의 플레이 위치 조절 및 책장 넘김 등과 같은 비교적 단순한 것뿐이고, 좀더 다양한 명령은 제공하지 않았으며, 이러한 문제점은 이상과 같이 무의미한 움직임을 정확히 구분하지 못함에 따라 더욱 심각하였다.
In addition, the commands that can be input by the user are relatively simple, such as adjusting the volume according to the movement of the finger from one side to the other side, adjusting the play position of the video, and turning the bookshelf, and have not provided more various commands. It was more serious as it could not accurately distinguish meaningless movements.

본 발명은 전술한 바와 같은 문제점을 해결하기 위해 제안된 것으로, 포인티 오브젝트를 이용하여 3차원 공간에서 입력한 실제 명령과 그 외 무의미한 움직임을 정확하게 구별할 수 있어서 오동작을 방지할 수 있는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치를 제공하고자 한다.The present invention has been proposed to solve the above-described problems. A pointy object capable of accurately distinguishing an actual command input from a three-dimensional space and other meaningless movements using a pointy object can prevent malfunction. To provide a remote screen touch device using three-dimensional location information of the eye.

또한, 본 발명은 저해상도의 포인팅 장치로서 사용할 수 있음은 물론, 사용자가 다양한 명령을 입력할 수 있도록 다양한 움직임을 명령으로 입력받고 서로 구별할 수 있는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치를 제공하고자 한다.
In addition, the present invention can be used as a low-resolution pointing device, as well as a long distance using the three-dimensional position information of the eye and the pointy object that can receive a variety of movements as a command so that the user can input a variety of commands and distinguish from each other To provide a screen touch device.

이를 위해, 본 발명에 따른 3차원 공간 터치장치는 상기 스크린에 설치된 영상획득장치에서 촬상한 사용자의 영상을 입력받아 신호처리하는 영상 처리부와; 상기 신호처리된 사용자의 영상으로부터 사용자의 눈과 포인티 오브젝트(pointy object)의 끝단의 현재 위치를 각각 3차원 좌표로 산출하는 좌표 산출부와; 상기 좌표가 산출된 사용자의 눈과 포인티 오브젝트의 끝단을 두 점으로 하는 연결선의 연장선상에 위치한 스크린의 좌표를 실시간으로 분석하여 사용자의 제스처를 분석하는 제스처 분석부; 및 상기 분석된 제스처를 사용자 입력장치를 통한 제어명령으로 변환하여 실행시키는 제어부;를 포함하되, 상기 제스처 분석부는 상기 포인티 오브젝트의 Z축 변위가 X축 변위 또는 Y축 변위보다 큰 경우 3차원 공간상에서 상기 스크린을 클릭하여 현재 화면을 선택 및 활성화한 것으로 분석하고 상기 X축 변위 또는 Y축 변위만큼의 이동을 실행명령으로서 분석하는 것을 특징으로 한다.To this end, the three-dimensional spatial touch device according to the present invention includes an image processing unit for receiving a signal of the user image captured by the image acquisition device installed on the screen; A coordinate calculation unit configured to calculate a current position of a user's eye and a pointy object's end in three-dimensional coordinates from the signal-processed user's image; A gesture analyzer configured to analyze a user's gesture by analyzing coordinates of a screen located on an extension line of a connection line having two points of the user's eyes and the point of the point object, the coordinates of which are calculated; And a controller for converting and analyzing the analyzed gesture into a control command through a user input device, wherein the gesture analyzer comprises a three-dimensional space when the Z-axis displacement of the pointy object is greater than the X-axis displacement or the Y-axis displacement. The screen is analyzed by selecting and activating the current screen by clicking on the screen, and analyzing the movement by the X-axis displacement or the Y-axis displacement as an execution command.

이때, 상기 제스처 분석부는 상기 Z축 변위만큼 다시 Z축 방향으로 되돌아온 경우 상기 스크린을 클릭한 것으로 분석하는 것이 바람직하다.In this case, when the gesture analyzing unit returns to the Z-axis direction by the Z-axis displacement, it is preferable to analyze that the screen is clicked.

또한, 상기 제스처 분석부는 상기 포인티 오브젝트의 Z축 변위가 X축 변위 또는 Y축 변위보다 크도록 움직인 후 설정된 시간 동안 정지한 경우는 드래그 앤 드롭을 위한 그랩을 선택한 것으로 분석하는 것이 바람직하다.In addition, the gesture analyzer may analyze that the grab for drag and drop is selected when the Z-axis displacement of the pointy object moves to be greater than the X-axis displacement or the Y-axis displacement, and then stops for a predetermined time.

또한, 상기 제스처 분석부는 상기 클릭과 드래그 앤 드롭을 위한 그랩을 정의하는 상기 포인티 오브젝트의 제스처를 각각 복수개 구비하고, 그 중 어느 하나의 제스처가 이루어지면 클릭 또는 그랩으로 분석하는 것이 바람직하다.The gesture analyzer may be provided with a plurality of gestures of the point object defining the grabs for the click and drag and drop, and if any one of the gestures is made, the gesture analyzer may analyze the click or grab.

또한, 상기 제스처 분석부는 상기 가용영역을 X축과 Y축을 기준으로 복수개의 서브 가용영역으로 나누고, 상기 포인티 오브젝트로 인식된 2개의 포인티 오브젝트가 상기 서브 가용영역 내에서 동일한 단위 Z축 영역에 들어온 경우 드래그 앤 드롭을 위한 그랩으로 분석하는 것이 바람직하다.The gesture analyzer divides the usable area into a plurality of sub availability areas based on the X axis and the Y axis, and two point objects recognized as the point object are located in the same unit Z axis area within the sub availability area. When entering, it is desirable to analyze the grab for drag and drop.

또한, 상기 제스처 분석부는 상기 포인티 오브젝트로 인식된 2개의 포인티 오브젝트가 상기 서브 가용 영역에서 다른 서브 가용영역으로 움직이면 상기 그랩된 대상을 이동시키고, 상기 2개의 포인티 오브젝트가 상기 다른 서브 가용영역 내에서 서로 다른 단위 Z축 영역에 위치하는 경우 상기 그랩을 릴리즈(release)한 것으로 분석하는 것이 바람직하다.The gesture analyzer may move the grabbed object when two point objects recognized as the point objects move from the sub availability area to another sub availability area, and the two point objects may be moved to the other sub availability area. In the case where it is located in different unit Z-axis regions, it is preferable to analyze that the grab is released.

또한, 상기 제스처 분석부는 상기 가용영역 외에서의 상기 포인티 오브젝트의 제스처는 입력으로 인식하지 않는 것이 바람직하다.Also, the gesture analyzer may not recognize a gesture of the pointy object outside the available area as an input.

또한, 상기 제스처 분석부는 복수의 사용자의 눈을 각각 꼭지점으로 하는 복수의 가용영역을 인식하되, 상기 각각의 가용영역에서 움직이는 포인티 오브젝트는 사용자를 구분하지 않고 모두 입력으로 분석하는 것이 바람직하다.In addition, the gesture analyzer recognizes a plurality of available areas, each of which is a vertex of the eyes of a plurality of users, it is preferable to analyze all of the pointy objects moving in each of the available areas as input without distinguishing the user.

또한, 상기 제스처 분석부는 사용자의 손가락 및 물건을 포인티 오브젝트로 인식하되, 상기 물건은 세로 길이가 가로 길이에 비해 3배 이상 길고, 상기 물건의 길이는 5Cm 이상인 경우 포인티 오브젝트로 인식하는 것이 바람직하다.The gesture analyzer may recognize a user's finger and an object as a pointy object, but the object may be recognized as a pointy object when the length of the object is longer than three times longer than the width and the length of the object is 5 cm or more. Do.

또한, 상기 포인티 오브젝트의 끝점은 상기 가용영역 내에서 Y축 방향에 대해서는 최상점에 위치함과 동시에 Z축 방향에 대해서는 최하점에 위치한 지점으로 인식되는 것이 바람직하다.In addition, the end point of the pointy object may be recognized as a point located at the highest point in the Y axis direction and at the lowest point in the Z axis direction in the available area.

또한, 상기 포인티 오브젝트의 끝점은 상기 가용영역 내에 위치하는 포인티 오브젝트의 Y축 방향 위치 데이터에 15% 내지 25%의 가중치를 두어 산출되는 것이 바람직하다.The end point of the pointy object is preferably calculated by giving a weight of 15% to 25% to the Y-axis position data of the pointy object located in the available area.

또한, 상기 제스처 분석부는 상기 스크린의 X축 길이에 대한 10% 내지 20%의 길이에 해당하는 영역을 상기 스크린의 좌측 에지 부분과, 상기 스크린의 우측 에지 부분 및 상기 스크린의 상측 에지 또는 하측 에지 부분 중 어느 한 곳에 각각 에지 인식 영역으로 할당하는 것이 바람직하다.The gesture analyzer may further include a left edge portion of the screen, a right edge portion of the screen, and an upper edge or lower edge portion of the screen corresponding to a length of 10% to 20% of the length of the X axis of the screen. It is preferable to assign each of the edge recognition regions to any one of them.

또한, 상기 제스처 분석부는 상기 포인티 오브젝트가 상기 스크린의 좌측 외부로부터 들어와 상기 좌측 에지 인식 영역과 우측 에지 인식 영역을 순차로 통과하면 우측 이동으로 분석하고, 상기 포인티 오브젝트가 상기 스크린의 우측 외부로부터 들어와 상기 우측 에지 인식 영역과 좌측 에지 인식 영역을 순차로 통과하면 좌측 이동으로 분석하는 것이 바람직하다.In addition, the gesture analyzer analyzes the right object when the pointy object enters from the left outside of the screen and sequentially passes through the left edge recognition area and the right edge recognition area, and the point object is from the right outside of the screen. For example, when the right edge recognition region and the left edge recognition region pass sequentially, it is preferable to analyze the left movement.

또한, 상기 제스처 분석부는 상기 포인티 오브젝트가 상기 스크린의 상측 외부로부터 들어와 상기 하측 에지 인식 영역을 통과하면 하측 이동으로 분석하고, 상기 포인티 오브젝트가 상기 스크린의 하측 외부로부터 들어와 상기 상측 에지 인식 영역을 통과하면 상측 이동으로 분석하는 것이 바람직하다.
In addition, the gesture analyzer may analyze the pointy object as moving downward when the pointy object enters from the outside of the screen and passes through the bottom edge recognition area, and the pointy object enters from the bottom outside of the screen to analyze the upper edge recognition area. If it passes, it is preferable to analyze by upward movement.

이상과 같은 본 발명에 따른 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치에 의하면 무의미한 움직임의 가능성이 매우 적은 Z축 움직임을 기준으로 클릭을 인식하고 그 후 X축과 Y축 움직임을 명령으로 입력받게 한다. According to the far screen touch apparatus using the three-dimensional position information of the point object and the eye according to the present invention as described above, the click is recognized based on the Z-axis movement, which is very unlikely to be meaningless. To be entered as a command.

따라서, 포인티 오브젝트를 이용하여 3차원 공간에서 입력한 실제 명령과 그 외 무의미한 움직임을 정확하게 구별할 수 있어서 오동작을 방지할 수 있게 한다. Therefore, the point object can be accurately distinguished from the actual command input in the three-dimensional space and other meaningless movements, thereby preventing malfunction.

또한, 저해상도의 포인팅 장치로서 사용할 수 있으면서도, 종전보다 다양한 명령을 정의하여 제공함과 동시에 이상과 같이 무의미한 움직임과 실제 명령을 정확히 구분할 수 있으므로, 다양한 움직임을 명령으로 입력받아 이를 서로 정확히 구별함으로써 사용자가 다양한 명령을 입력할 수 있게 한다.
In addition, it can be used as a low-resolution pointing device, and it is possible to define and provide various commands than before, and at the same time, it is possible to accurately distinguish meaningless motion from actual commands as described above. Allows you to enter a command.

도 1은 본 발명에 따른 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치가 적용되는 일 예를 나타낸 것이다.
도 2는 본 발명에 따른 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치를 나타낸 블럭도이다.
도 3은 본 발명에 따른 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치의 X축과 Y축을 정의한 도이다.
도 4는 본 발명에 따른 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치의 가용영역을 정의한 도이다.
도 5는 본 발명에 따른 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치의 좌표 설정방법을 나타낸 도이다.
도 6은 본 발명에 따른 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치의 클릭 방법을 나타낸 도이다.
도 7은 본 발명에 따른 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치에서 인식 가능한 명령들을 정의한 것이다.
도 8은 본 발명에 따른 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치의 드래그 앤 드롭을 위한 서브 가용 영역을 나타낸 도이다.
도 9는 본 발명에 따른 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치의 에지 인식 영역을 이용한 명령 입력 방법을 나타낸 도이다.
1 illustrates an example in which a far screen touch device using a pointy object and three-dimensional position information of an eye according to the present invention is applied.
2 is a block diagram illustrating a far screen touch device using three-dimensional position information of a pointy object and an eye according to the present invention.
3 is a diagram illustrating an X-axis and a Y-axis of a long-screen touch device using three-dimensional position information of a pointy object and an eye according to the present invention.
4 is a diagram illustrating an available area of a remote screen touch device using the pointy object and the 3D position information of the eye according to the present invention.
5 is a diagram illustrating a coordinate setting method of a far screen touch device using three-point location information of a pointy object and an eye according to the present invention.
6 is a diagram illustrating a click method of a remote screen touch device using three-point location information of a pointy object and an eye according to the present invention.
FIG. 7 defines commands recognizable in a far screen touch device using a pointy object and three-dimensional position information of an eye according to the present invention.
FIG. 8 is a diagram illustrating a sub-available area for drag and drop of a long screen touch device using a pointy object and three-dimensional position information of an eye according to the present invention.
FIG. 9 is a diagram illustrating a command input method using an edge recognition area of a far screen touch device using a pointy object and three-dimensional position information of an eye according to the present invention.

이하, 본 발명의 바람직한 실시예에 따른 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치에 대해 상세히 설명한다.Hereinafter, a remote screen touch device using the pointy object and the 3D position information of the eye according to an exemplary embodiment of the present invention will be described in detail.

본 발명에서 포인티 오브젝트(pointy object)는 사용자의 손가락을 포함하여 끝이 뾰족한 물체를 의미하고, 설명의 편의상 사용자의 손가락을 예시하여 본 발명을 설명하지만 이에 한정되는 것은 아니다. In the present invention, a pointy object means a pointed object including a user's finger, and the present invention is illustrated by illustrating a user's finger for convenience of description, but is not limited thereto.

또한, 이하에서는 컴퓨터 및 상기 컴퓨터에 설치된 영상획득장치를 이용하여 3차원 공간에서의 사용자 명령을 입력받는 것을 예로 들어 설명한다. 그러나, 본 발명은 이에 한정하지 아니하고 영상획득장치와 컴퓨팅 기능만 있으면 스마트 폰 등과 같은 다양한 단말장치에서도 적용가능함은 자명할 것이다.
In the following description, a user command in a three-dimensional space is input using a computer and an image acquisition apparatus installed in the computer. However, the present invention is not limited thereto, and it will be apparent that the present invention can be applied to various terminal devices such as a smart phone as long as it has an image acquisition device and a computing function.

먼저, 도 1에 일 예로 도시된 바와 같이, 본 발명이 적용될 수 있는 구성으로서 화면이 표시되도록 스크린(111)을 제공하는 모니터(110)와, 상기 모니터(110)의 에지 부분 등에 부착되어 있거나 인접 설치된 영상획득장치(120, 130) 및 본 발명의 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치를 갖는 컴퓨터 본체(140)를 포함한다.
First, as shown in FIG. 1 as an example, as a configuration to which the present invention can be applied, a monitor 110 that provides a screen 111 so that a screen is displayed, and is attached to or adjacent to an edge portion of the monitor 110. Computer body 140 having the installed image acquisition device (120, 130) and the remote screen touch device using the three-dimensional position information of the eye and the point object of the present invention.

모니터(110)는 이하에서 설명할 본 발명의 스크린(111)을 제공하는 것으로 여기서는 본 발명이 컴퓨터 시스템에 적용된 것을 일 실시예로 들었기 때문에 모니터(110)를 예로 들었지만, 상기 스크린(111)은 스마트 폰(미도시)의 디스플레이장치나 영상 투사용 화이트 보드(혹은, 화이트 스크린), 가정용이나 기업용 텔레비젼 등을 비롯하여 그 외 다양한 영상표지장치를 포함한다.
The monitor 110 provides a screen 111 of the present invention, which will be described below. Here, the monitor 110 is taken as an example because the present invention is applied to a computer system. It includes a display device of a smart phone (not shown), a white board for projecting an image (or a white screen), a home or business television, and various other image display devices.

영상획득장치(120, 130)는 하나만 있어도 본 발명을 구현할 수 있지만, 도시된 바와 같이 2개를 구비하거나 혹은 더 나아가 3개 이상의 복수개를 구비할 수 있으며, 복수개를 구비한 경우에는 사용자의 움직임을 동시에 촬상하여 각각 이미지를 제공함으로써 더욱 정밀하게 3차원 공간 터치 명령을 분석할 수 있게 한다.Although only one image acquisition device (120, 130) can implement the present invention, as shown, two or more may be provided with a plurality of three or more, if provided with a plurality of user movements By simultaneously capturing and providing each image, it is possible to analyze three-dimensional space touch commands more precisely.

예컨대, 영상획득장치(120, 130)로서 MS™의 XBOX 비디오 게임 콘솔용 모션 센싱 입력장치인 Kinect(120)의 TOF(Time of Flight) 카메라(121) 및 웹 캠(130)을 각각 구비하면, TOF 카메라(121)로는 640×480의 해상도를 제공하고, 웹 캠(130)의 RGB 카메라로는 1280×720 고해상도를 제공할 수 있게 된다. 따라서, 이들 모두를 사용하면 더욱 정확한 영상을 획득할 수 있다.
For example, when the image acquisition apparatuses 120 and 130 are provided with a time of flight (TOF) camera 121 and a web cam 130 of Kinect 120, which are motion sensing input devices for the XBOX video game console of MS ™, respectively, The TOF camera 121 may provide a resolution of 640 × 480, and the RGB cam of the web cam 130 may provide a 1280 × 720 high resolution. Therefore, using both of them enables more accurate image acquisition.

컴퓨터 본체(140)는 그 내부에 본 발명의 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치를 탑재한다. The computer main body 140 is equipped with a remote screen touch device using the three-dimensional position information of the eye and the point object of the present invention therein.

도 2에 도시된 바와 같이, 본 발명의 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치는 영상획득장치(120, 130)에서 촬상한 영상을 I/O 인터페이스(141a)를 통해 입력받아 신호처리하는 영상 처리부(141)와, 신호처리된 영상으로부터 사용자의 눈과 포인티 오브젝트(pointy object)의 현재 위치를 각각 3차원 좌표로 산출하는 좌표 산출부(142)를 포함한다.As shown in FIG. 2, the far screen touch device using the pointy object and three-dimensional position information of the eye of the present invention uses the I / O interface 141a to capture an image captured by the image acquisition apparatuses 120 and 130. The image processing unit 141 receives and receives a signal and a coordinate calculation unit 142 calculates a current position of a user's eyes and a pointy object from the signal processed image as 3D coordinates, respectively.

또한, 눈과 포인티 오브젝트의 연장선상에 위치한 스크린(111)의 좌표를 실시간으로 분석하여 사용자의 제스처를 분석하는 제스처 분석부(143)와, 각종 설정정보를 저장하는 설정 메모리(144) 및 분석된 제스처를 사용자 입력장치(키보드나 마우스)를 통한 제어명령으로 변환하여 실행시키는 제어부(145)를 포함한다.In addition, the gesture analyzer 143 analyzes the user's gestures by analyzing the coordinates of the screen 111 located on the extension line of the eye and the point object in real time, the setting memory 144 that stores various setting information, and the analysis. And a controller 145 for converting the executed gesture into a control command through a user input device (keyboard or mouse) and executing the same.

다만, 이상에서는 영상 처리부(141)와, 좌표 산출부(142)와, 제스처 분석부(143) 및 제어부(145)를 구분하고 각각 고유의 역할을 하는 것으로 설명하였지만, 최근에는 디지털 신호처리 기술의 발달로 이들 중 어느 한 구성에서 모든 처리가 가능함은 자명할 것이다.
In the above description, the image processor 141, the coordinate calculator 142, the gesture analyzer 143, and the controller 145 are distinguished from each other and have a unique role. It will be apparent that with development all treatments in either of these configurations are possible.

한편, 이상과 같은 구성으로 이루어진 본 발명은 도 3 및 도 4에 도시된 바와 같이 가용영역(111a)을 설정한 후, 설정된 가용영역(111a) 내에서 행해지는 포인티 오브젝트의 움직임(즉, 제스처)을 영상획득장치(120, 130)에 의해 획득하고, 좌표 산출부(142)에서 좌표를 산출하고, 좌표가 변환된 움직임을 제스처 분석부(143)에서 정의된 행동별로 분석한다.
Meanwhile, according to the present invention having the above-described configuration, after setting the available area 111a as shown in FIGS. 3 and 4, the movement of the pointy object (that is, the gesture) performed in the set available area 111a is performed. ) Is obtained by the image acquisition apparatuses 120 and 130, the coordinates are calculated by the coordinate calculator 142, and the motions of which the coordinates are converted are analyzed for each action defined by the gesture analyzer 143.

이를 위해, 가용영역(111a)은 스크린(111)을 밑변으로 하고, 스크린(111)으로부터 Z축 방향으로 이격된 사용자의 눈(e)을 꼭지점으로 하는 사각뿔 형상의 영역으로 정의된다. 따라서, 사용자 눈(e)의 위치가 변하면 꼭지점 역시 변하는 것이므로 정의된 바와 같이 가용영역(111a)도 실시간으로 바뀌게 된다.To this end, the usable area 111a is defined as a quadrangular pyramid-shaped area having the screen 111 as the base and a vertex of the user's eye e spaced apart from the screen 111 in the Z-axis direction. Therefore, since the vertex is also changed when the position of the user's eye e changes, the available area 111a is also changed in real time as defined.

다만, 영상획득장치(120, 130)가 스크린(111)의 상단 에지로부터 상측으로 이격 설치된 경우에는 스크린(111)의 상단 에지와 영상획득장치(120, 130)의 상대 위치나 스크린(111)의 상단 에지로부터 영상획득장치(120, 130)까지의 절대 거리를 입력받아서 스크린(111)과 영상획득장치(120, 130)의 위치가 불일치함에 따른 값을 자동으로 보정해야 할 것이다.
However, when the image acquisition apparatuses 120 and 130 are spaced apart upward from the upper edge of the screen 111, the upper edge of the screen 111 and the relative position of the image acquisition apparatuses 120 and 130 or the screen 111 The absolute distance from the upper edge to the image acquisition apparatuses 120 and 130 should be input and automatically corrected based on a mismatch between the positions of the screen 111 and the image acquisition apparatuses 120 and 130.

또한, 눈(e)은 왼쪽 눈 또는 오른쪽 눈 중 어느 것이든 설정 가능하고, 그 설정환경은 설정 메모리(144)에 저장됨으로써 설정된 눈(e)을 기준으로 가용영역(111a)을 설정하고 설정 메모리(144)에 저장한다. In addition, the eye (e) can be set to either the left eye or the right eye, and the setting environment is stored in the setting memory 144 to set the available area 111a based on the set eye (e) and set the setting memory. Save to 144.

일반적으로 오른손 잡이는 오른쪽 눈으로 설정하는 것이 편하고, 왼손 잡이는 왼쪽 눈으로 설정하는 것이 3차원 공간 명령을 입력하기에 편리하므로 사용자가 자신에게 적합한 환경을 설정한다.
In general, it is convenient to set the right-handed to the right eye, and the left-handed to the left eye is convenient for inputting three-dimensional space commands, so the user sets an environment suitable for him.

또한, 가용영역(111a)을 정의하고 위치를 환산하기 위해서, 일 예로 밑변을 구성하는 스크린(111)의 X축 길이는 X축의 픽셀(pixel) 수로 정의되고, 스크린(111)의 Y축 길이는 Y축의 픽셀 수로 정의되고, 상기 X축과 Y축으로 정의된 스크린(111)을 밑변으로 하는 꼭지점은 영상획득장치(120, 130)를 통해 구별가능한 해상도를 단위 거리(예: 1Cm 단위)로 하여 스크린(111)으로부터 Z축 방향으로 이격된 눈(e)까지의 거리로 정의되며, 이를 기준으로 좌표 산출부(142)에서 좌표를 산출한다.In addition, in order to define the usable area 111a and convert the position, for example, the X-axis length of the screen 111 constituting the bottom side is defined by the number of pixels on the X-axis, and the Y-axis length of the screen 111 is A vertex defined by the number of pixels on the Y axis and having the bottom side of the screen 111 defined by the X and Y axes is defined as a unit distance (for example, 1 cm unit) using a resolution that can be distinguished through the image acquisition apparatuses 120 and 130. It is defined as the distance from the screen 111 to the eye (e) spaced in the Z-axis direction, the coordinate calculation unit 142 calculates the coordinates based on this.

다만, 사용자의 눈(e)을 직접 감지하지 못한 경우에는 촬상된 얼굴(F) 중 평균적인 위치를 이용하여 대략적으로 눈(e)을 추적(혹은, 예측)한다.
However, when the user's eye (e) is not directly detected, the eye (e) is approximately tracked (or predicted) using an average position of the photographed face (F).

또한, 제스처 분석부(143)는 복수의 사용자의 눈(e)을 각각 꼭지점으로 하는 복수의 가용영역(111a)을 인식하되, 각각의 가용영역(111a)에서 움직이는 포인티 오브젝트는 사용자를 구분하지 않고 모두 입력으로 분석한다. In addition, the gesture analyzer 143 recognizes a plurality of available areas 111a having the vertices of the eyes e of the plurality of users, respectively, but a point object moving in each of the available areas 111a does not distinguish a user. Analyze all as input without.

즉, 사용자별로 가용영역(111a)을 각각 할당하되, 어느 일인이 타인에게 할당된 가용영역(111a) 내에서 자신의 포인티 오브젝트를 움직이더라도 이를 명령으로 인식함으로써 협력이나 도움이 필요한 게임 등도 원활하게 실행할 수 있도록 한다.In other words, each user is assigned an available area (111a), even if one person moves his own pointy object within the available area (111a) assigned to others by smoothly recognizes this as a command, such as games that require cooperation or help smoothly Make it work.

동시에 할당 가능한 가용영역(111a)은 3개로서 3명의 사용자에 의한 3차원 공간 명령을 동시에 입력받도록 하는 것이 바람직한데, 동시에 너무 많은 사용자를 인식하고 각각 가용영역(111a)을 할당하면 영상신호, 좌표 및 제스처의 분석을 위한 신호처리에 과도한 리소스를 할당하게 되고, 너무 적으면 다중 접속 게임 등을 할 수 없게 된다.
At the same time, it is preferable that three usable spaces 111a can be simultaneously inputted by three users by three users. At the same time, when too many users are recognized and each of the available spaces 111a is allocated, an image signal and coordinates are allocated. And excessive resources are allocated to the signal processing for the analysis of the gesture, if too few can not play a multi-access game.

또한, 포인티 오브젝트는 사용자의 손가락을 기본으로 설정하되, 사용자가 볼펜이나 막대 등을 들고 있는 경우에는 이러한 물건도 포인티 오브젝트로 인식할 수 있게 한다. 이를 위해 상기 물건은 세로 길이가 가로 길이에 비해 3배 이상 길고, 길이는 5Cm 이상인 경우에만 포인티 오브젝트로서 인식될 수 있게 설정된다. In addition, the pointy object is based on the user's finger, but if the user is holding a ballpoint pen or a bar, such objects can be recognized as a pointy object. To this end, the object is set to be recognized as a pointy object only when the vertical length is three times longer than the horizontal length and the length is 5 cm or more.

물론, 이러한 경우에도 상술한 바와 같이 포인티 오브젝트의 X축 변위나 Y축 변위보다 Z축 변위가 커서 스크린이 활성화된 경우에만 그 포인티 오브젝트의 X축 변위나 Y축 변위의 움직임을 3차원 공간 명령으로 인식할 수 있도록 한다.Of course, even in this case, as described above, the movement of the X-axis displacement or the Y-axis displacement of the pointy object is only performed when the screen is activated because the Z-axis displacement is larger than the X-axis displacement or the Y-axis displacement of the pointy object. To be recognized as a command.

또한, 포인티 오브젝트 중 손가락의 끝점이나 물건의 끝점을 인식하여 이를 한 점으로 하는 공간상 좌표로 인식하고, 여러 개의 포인티 오브젝트가 감지된 경우에는 각각의 포인티 오브젝트를 3차원 공간 명령을 위한 포인티 오브젝트로 인식한다. 물론, 설정에 따라서는 인식된 여러 개의 포인티 오브젝트들 중 설정된 갯수 만큼 먼저 인식된 포인티 오브젝트만을 사용하는 등 다양한 응용도 가능하다.Also, it recognizes the end point of a finger or the end point of an object among the pointy objects and recognizes it as spatial coordinates as one point, and when several pointy objects are detected, each pointy object is used for 3D space command. Recognize it as a pointy object. Of course, depending on the configuration, various applications are possible, such as using only the recognized point object as many as the set number of the recognized point objects.

따라서, 좌표 산출부(142)에서 사용자 눈(e)의 좌표와 포인티 오브젝트의 좌표를 각각 계산하고, 이 두 점을 연결한 선을 스크린(111)까지 연장한 연장선이 스크린(111)과 만나는 점을 시작점으로 하며, 포인티 오브젝트가 움직임에 따라 상기 연장선과 스크린(111)이 만나는 시작점이 변경되면 이를 계속 분석하여 포인티 오브젝트의 움직임을 인식할 수 있게 한다.
Accordingly, the coordinate calculation unit 142 calculates the coordinates of the user's eye e and the coordinates of the pointy object, respectively, and an extension line extending from a line connecting these two points to the screen 111 meets the screen 111. The point is a starting point, and when the starting point where the extension line meets the screen 111 changes as the point object moves, it is continuously analyzed to recognize the movement of the point object.

이상과 같이 포인티 오브젝트의 끝점 좌표를 3차원 공간상에서 찾아내는 방법으로는 다양한 방법이 있지만 일 예로 아래와 같은 의사코드를 사용할 수 있다.As described above, there are various methods for finding the end point coordinates of the pointy object in three-dimensional space, but the following pseudo code can be used as an example.

[의사코드][Doctor code]

//Pseudo Code// Pseudo Code

//within Active Region// within Active Region

if( isMax((Pixel.Y*1.2)+(-1*Pixel.Z)) )if (isMax ((Pixel.Y * 1.2) + (-1 * Pixel.Z)))

{{

PointyObject_Point = Pixel;      PointyObject_Point = Pixel;

}}

//---------------------------------// ---------------------------------

즉, 도 5에 도시된 바와 같이 가용영역(110a) 내에서 포인티 오브젝트로 사용되는 사용자의 손가락의 끝점은 그 외 다른 손가락(접힌 손가락) 등과 비교하여 Y축 방향(스크린의 하단부터 상측 방향)에 대해서는 최상점에 위치함과 동시에 Z축 방향(스크린으로부터 눈을 향하는 방향)에 대해서는 최하점에 위치하게 된다.That is, as shown in FIG. 5, the end point of the user's finger used as the point object in the usable area 110a is Y-axis direction (from the bottom of the screen to the top) in comparison with other fingers (folded fingers) and the like. It is located at the highest point with respect to, and at the lowest point with respect to the Z-axis direction (direction from the screen to the eye).

이는, 3차원 명령 입력시 포인티 오브젝트로 사용되는 손가락의 끝점이 스크린(111)을 바라보도록 위치시킬 경우 손가락의 구조상 자연스럽게 위 두 가지 조건을 만족하는 것이 보통이기 때문이다.This is because when the end point of the finger used as the point object is positioned to face the screen 111 when the 3D command is input, the above two conditions are naturally satisfied due to the structure of the finger.

그러나, 손가락의 끝점이 위 두 가지 조건을 모두 만족시키지 못하는 위치에 있게 되는 경우를 완전히 배제할 수는 없고, 이러한 상황은 손가락의 끝점이 Z축 방향에 대해서 최하점에 있지 못할 경우보다 Y축 방향에 대해서 최상점이 있지 못할 경우가 더 적다.However, it is not possible to completely exclude the case where the end point of the finger is in a position that does not satisfy both of the above conditions, and this situation is in the Y-axis direction than when the end point of the finger is not at the lowest point in the Z-axis direction. There are fewer cases where there is no top point.

따라서, 상기 Y축 방향 위치 데이터에 15% 내지 25%의 가중치를 두며, 일 예로 20%의 가중치를 주는 경우에는 이상과 같이 '(Pixel.Y*1.2)'를 의사코드에 적용함으로서 연산과정을 줄이면서도 더욱 확실하게 손가락 끝점의 좌표를 분석하고, 이와 같은 방식으로 분석된 좌표로 클릭과, 그랩 및 릴리즈 등도 판별한다.
Therefore, in the case of giving a weight of 15% to 25% to the Y-axis position data, and an example of giving a weight of 20% as an example, the operation process is applied by applying '(Pixel.Y * 1.2)' to the pseudo code as described above. The coordinates of the fingertips are reduced and more reliably analyzed, and the coordinates analyzed in this way also determine clicks, grabs, and releases.

한편, 이상과 같은 구성으로 이루어진 본 발명의 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치에 있어서, 제스처 분석부(143)는 포인티 오브젝트의 Z축 변위가 X축 변위 또는 Y축 변위보다 큰 경우 3차원 공간에서 스크린(111)을 클릭하여 현재 화면을 선택 및 활성화한 것으로 분석하고 X축 변위 또는 Y축 변위만큼의 이동을 분석한다.On the other hand, in the far-screen touch device using the three-point position information of the eye and the pointy object of the present invention having the configuration as described above, the gesture analysis unit 143 is the Z-axis displacement or Y-axis displacement of the pointy object If it is larger than the axial displacement, the screen 111 is clicked in the three-dimensional space, and the current screen is selected and activated.

예컨대, 도 6의 (a)에 도시된 바와 같이 손가락을 움직인 경우, 실선으로 도시한 X축 움직임은 점선으로 표시한 X축 변위를 갖고, 실선으로 도시한 Y축 움직임은 점선으로 표시한 Y축 변위를 갖는데, 이때 Z축 변위는 X축 변위나 Y축 변위와 비교하여 어느 경우나 작다.For example, when a finger is moved as shown in Fig. 6A, the X-axis movement shown by the solid line has the X-axis displacement shown by the dotted line, and the Y-axis movement shown by the solid line is Y indicated by the dotted line. It has an axial displacement, where the Z-axis displacement is small in either case compared to the X-axis displacement or the Y-axis displacement.

이러한 경우는 3차원 공간 명령을 입력하기 위해 원격에서 손가락으로 스크린(111)을 터치하여 클릭 및 활성화시킨 것이 아닌 단순히 무의미한 움직임으로 분석함으로써 명령을 입력받지 않고 무시한다. 이는, 실수나 무의식 상태에서는 손가락을 좌우로 움직일 가능성이 매우 크지만 스크린(111) 쪽으로 이동시킬 가능성은 매우 적기 때문이다.In this case, the command is ignored without being input by simply analyzing meaningless movements instead of clicking and activating the screen 111 with a finger to remotely input a 3D space command. This is because, in a real or unconscious state, the possibility of moving the finger left and right is very high, but the possibility of moving the finger toward the screen 111 is very small.

따라서, 본 발명은 무의미한 움직임의 가능성이 매우 적은 Z축 움직임을 기준으로 클릭을 인식하고 그 후 X축과 Y축 움직임을 명령으로 입력받으므로, 3차원 공간에서 입력한 실제 명령과 그 외 무의미한 움직임을 정확하게 구별할 수 있어서 오동작을 방지한다. Therefore, the present invention recognizes the click on the basis of Z-axis movement, which is very unlikely to have meaningless movement, and then receives the X-axis and Y-axis movements as commands, and thus, the actual commands and other meaningless movements input in three-dimensional space. Can be correctly distinguished to prevent malfunction.

반면, 도 6의 (b)와 같이 Z축 변위가 X축 변위나 Y축 변위보다 큰 경우에는 클릭(혹은, 트리거)된 것으로 인식하고, 설정환경에 따라 다음번에 입력된 포인티 오브젝트의 X축 및/또는 Y축 움직임을 명령으로 입력받거나, 설정된 시간 내에서 입력된 포인티 오브젝트의 X축 및/또는 Y축 움직임을 명령으로 입력받는다.On the other hand, when the Z-axis displacement is larger than the X-axis displacement or the Y-axis displacement as shown in (b) of FIG. 6, it is recognized as being clicked (or triggered), and the X-axis of the next input point object according to the setting environment And / or receive Y-axis movement as a command, or receive X-axis and / or Y-axis movement of the input point object within a predetermined time.

나아가, 이상과 같이 Z축 변위만큼 움직인 후 다시 Z축 방향으로 되돌아온 경우에만 스크린(111)을 클릭한 것으로 분석하면 더욱더 확실하게 클릭과 무의미한 움직임을 구별할 수 있을 것이다.Furthermore, if the screen 111 is analyzed as being clicked only when it is moved by the Z-axis displacement and then returned to the Z-axis direction as described above, the click and the meaningless movement may be more surely distinguished.

다만, 영상획득장치(120, 130)의 일 예로 언급한 Kinect(120)의 깊이 센서(Depth Sensor)는 11bit로 작동하고, Z축 해상도는 1Cm 정도이므로 이러한 경우에는 약간의 오차를 고려하여 최소한 1.5Cm 이상의 Z축 변위가 있는 경우에만 클릭으로 인식하는 등 영상획득장치(120, 130)의 성능에 따라 그 기준은 다소 변경될 것이다.
However, the depth sensor of the Kinect 120 mentioned as an example of the image acquisition apparatuses 120 and 130 operates at 11 bits, and the Z-axis resolution is about 1 cm, so in this case, at least 1.5 in consideration of some error. The criterion may be changed according to the performance of the image acquisition apparatuses 120 and 130, such as a recognition only by clicking when there is a Z-axis displacement of more than Cm.

다음, 도 7에 도시된 바와 같이, 본 발명은 클릭을 위한 포인티 오브젝트의 제스처와 드래그 앤 드롭(drag & drop)시 사용되는 그랩(grap)을 위한 포인티 오브젝트의 제스처를 각각 복수개 정의하고 이들 중 어느 하나의 제스처가 있으면 제스처 분석부(143)에서 클릭 또는 그랩으로 인식한다.Next, as shown in FIG. 7, the present invention defines a plurality of gestures of a pointy object for a click and a gesture of a pointy object for a grap used during drag and drop. If any one of the gestures is detected by the gesture analyzer 143 as a click or grab.

예컨대, 클릭 그룹에 해당하는 도 7의 'C1'과 같이 손가락을 스크린(111)으로부터 멀어지도록 후퇴시킨 후 다시 크게 앞으로 전진시키거나, 'C2'와 같이 손가락을 스크린(111)으로부터 멀어지도록 후퇴시킨 후 다시 작게 앞으로 전진시키거나, 'C3'와 같이 손가락을 뒤로 후퇴시키지 않고 그 상태에서 앞으로 크게 전진시키거나, 혹은 'C4'와 같이 손가락을 뒤로 후퇴시켰다가 약간의 댐핑(damping) 동작을 하는 경우 중 어느 하나이기만 하면 이들 간의 차별 없이 클릭으로 인식한다.For example, as shown in 'C1' of FIG. 7 corresponding to the click group, the finger is retracted to move away from the screen 111 and then moved forward again again, or the finger is moved back to move away from the screen 111 as 'C2'. If you move forward small again afterwards, or move forward largely in that state without retreating your finger like 'C3', or do a slight damping motion after your finger retreats like 'C4'. Any one of them is recognized as a click without any discrimination between them.

또한, 그랩 그룹에 해당하는 도 7의 'g1'과 같이 손가락을 스크린(111)으로부터 멀어지도록 약간 후퇴시킨 후 다시 크게 앞으로 전진('C1'과는 변위가 다름)시키거나, 'g2'와 같이 손가락을 약간 후퇴시킨 후 다시 약간 앞으로 전진시키거나, 혹은 'g3'와 같이 손가락을 전방으로 전진시킨 후 설정된 시간 동안 그 상태를 유지(즉, 정지)시키는 경우 중 어느 하나이기만 하면 이들 간의 차별 없이 그랩으로 인식한다.In addition, as shown by 'g1' of FIG. 7 corresponding to the grab group, the finger is slightly retracted away from the screen 111, and then moved forward again greatly (the displacement is different from 'C1'), or as in 'g2'. Grab the finger without any discrimination, as long as the finger is retracted slightly and then forward again slightly, or if the finger is moved forward, such as 'g3', and the state is maintained (ie, stopped) for a set time. To be recognized.

또한, 도 7의 'r1'과 같이 릴리즈(release)는 손가락을 전방에서 후방으로 약간 잡아당긴 후 그 상태를 잠시 유지하는 하는 것으로 정의된다. 릴리즈는 가급적 통일된 하나의 동작으로 정의되는 것이 어떠한 상태에서도 동일하게 릴리즈 동작을 수행할 수 있어서 편리할 것이다.In addition, as shown in 'r1' of FIG. 7, the release is defined as holding the finger slightly from the front to the rear and holding the state for a while. A release is conveniently defined as one unified operation so that it can perform the same release operation under any conditions.

다만, 이상과 같은 동작을 위한 지속시간(time duration)은 클릭 동작의 경우는 대략 500ms, 그랩과 릴리즈는 대략 300ms 정도로 설정하되, 필요에 따라서는 향후 재정의할 수 있는 것이 바람직하다. 또한, 손가락을 후진하고 전진하는 변위량 역시 테스트를 통해 유동적으로 재정의할 수 있는 것이 바람직할 것이다.
However, a time duration for the above operation may be set to about 500 ms in case of a click operation and about 300 ms in grab and release, but may be overridden in the future if necessary. In addition, it may be desirable to be able to redefine the amount of displacement of the finger backwards and forwards through the test.

다음, 본 발명의 그랩 동작은 이상과 같이 포인티 오브젝트인 하나의 손가락(혹은, 물건)으로 할 수 있지만, 그 외 엄지와 검지를 이용하는 등 두 개의 손가락을 이용하여 하거나, 혹은 각각이 포인티 오브젝인 손가락과 물건을 혼합하여 할 수도 있다.Next, the grab operation of the present invention can be performed with one finger (or object), which is a point object, as described above, but with two fingers such as using a thumb and index finger, or a point of object You can also mix objects with your fingers.

이를 위해, 본 발명은 도 8에 도시된 바와 같이 가용영역(111a)을 X축과 Y축을 기준으로 복수개의 서브 가용영역(111b)으로 나누고, 2개의 포인티 오브젝트가 서브 가용영역(111b) 내에서 동일한 단위 Z축 영역에 들어온 경우 제스처 분석부(143)에서 드래그 앤 드롭을 위한 그랩으로 분석한다.To this end, the present invention divides the usable area 111a into a plurality of sub availability areas 111b based on the X-axis and the Y-axis, as shown in FIG. 8, and two point objects are located within the sub-availability area 111b. In the same unit Z-axis area, the gesture analysis unit 143 analyzes the grab for drag and drop.

또한, 스크린(111)에 디스플레이된 아이콘(icon) 등을 그랩 후에는 다른 위치로 이동시킬 수 있어야 하므로, 제스처 분석부(143)는 2개의 포인티 오브젝트가 하나의 서브 가용영역(111b)에서 다른 서브 가용영역(111b)으로 움직이면 그에 동기해서 그랩된 대상을 이동시킨다.In addition, since an icon or the like displayed on the screen 111 should be able to be moved to another position after grabbing, the gesture analyzer 143 may indicate that two pointy objects are different in one sub-available region 111b. Moving to the sub-available region 111b moves the grabbed object in synchronization with it.

또한, 아이콘(icon) 등을 그랩 후 이동시킴으로써 2개의 포인티 오브젝트가 상기 다른 서브 가용영역(111b)으로 움직이고, 그 상태에서 2개의 포인티 오브젝트가 서로 멀어져서 서로 다른 단위 Z축 영역에 위치하는 경우 그랩을 릴리즈한 것으로 분석함으로써 드래그 앤 드롭을 종료한다.Also, by grabbing and moving an icon or the like, two pointy objects move to the other sub-available region 111b, and in this state, the two pointy objects move away from each other and are located in different unit Z-axis regions. In this case, the drag and drop ends by analyzing the grab released.

다만, 본 발명은 2개의 포인티 오브젝트가 동일한 서브 가용영역(111b) 내에 위치하기만 하면 그랩으로 인식하므로, 2개의 포인티 오브젝트가 서로 떨어진 상태에 있는 경우는 물론, 2개의 포인티 오브젝트가 서로 접촉된 경우(예: 엄지와 검지의 손가락 끝을 서로 맞닿게 하여 동그란 원을 그린 경우 등)도 그랩으로 인식될 것이다.
However, the present invention recognizes the grab points as long as the two point objects are located in the same sub-availability region 111b. Therefore, the two point objects may be separated from each other, and the two point objects may be separated from each other. A touch will also be recognized as a grab, for example if you draw a round circle with the thumb and index fingertips touching each other.

이상과 같이 본 발명은 다양한 방식의 클릭 및 그랩이나 릴리즈 등을 위한 3차원 공간 명령을 입력받을 수 있도록 하고, 이때 사용자의 무의미한 움직임과 실제 명령을 정밀하게 구별함으로써 오조작을 방지하고 사용자에게 편리한 사용환경을 제공한다.As described above, the present invention enables to receive a three-dimensional space command for various types of clicks and grabs or releases, and prevents misoperation by precisely distinguishing the user's meaningless movement from the actual command, and is convenient for the user. Provide an environment.

그러나, 이상과 같은 명령 이외에 단순하지만 영상 플레이어, 음성 플레이어, 디지털 북 및 프리젠테이션 등과 같은 각종 콘텐츠를 실행하기에 필수적인 3차원 공간 명령도 입력받을 수 있어야 하며, 이때도 사용자의 무의미한 움직임과 실제 명령을 정밀하게 구별할 수 있어야 한다.
However, in addition to the above commands, it should be able to receive three-dimensional spatial commands that are simple but essential for executing various contents such as video players, voice players, digital books, and presentations. It should be able to distinguish precisely.

이를 위해, 본 발명의 제스처 분석부(143)는 스크린(111)의 X축 길이에 대한 10% 내지 20%의 길이에 해당하는 영역을 스크린(111)의 좌측 에지 부분과, 스크린(111)의 우측 에지 부분 및 스크린(111)의 하측 에지에 각각 에지 인식 영역으로서 할당한다. 물론, 도시되지는 않았지만 상기 스크린(111)의 하측 에지와 마찬가지 방식으로 스크린(111)의 상측 에지에도 에지 인식 영역으로 할당할 수 있다.To this end, the gesture analyzer 143 of the present invention may include a region corresponding to the length of 10% to 20% of the length of the X-axis of the screen 111 and the left edge portion of the screen 111 and the screen 111. Each of the right edge portion and the lower edge of the screen 111 is allocated as an edge recognition area. Although not shown, the upper edge of the screen 111 may be allocated as an edge recognition area in the same manner as the lower edge of the screen 111.

예컨대, 도 9의 (a)에 도시된 바와 같이 스크린(111)의 X축 길이(즉, 가로 길이)에 대한 15%의 길이에 해당하는 영역을 좌측 에지, 우측 에지, 상측 에지 및하측 에지에 할당하여 각각 좌측 에지 인식 영역, 우측 에지 인식 영역, 상측 에지 인식 영역 및 하측 에지 인식 영역으로 사용한다.
For example, as shown in FIG. 9A, an area corresponding to 15% of the length of the X-axis length (that is, the horizontal length) of the screen 111 is disposed at the left edge, the right edge, the upper edge, and the lower edge. It allocates and uses it as a left edge recognition area, a right edge recognition area, an upper edge recognition area, and a lower edge recognition area, respectively.

따라서, 도 9의 (b)에 도시된 바와 같이 포인티 오브젝트가 스크린(111)의 좌측 외부로부터 들어온 후 좌측 에지 인식 영역과 우측 에지 인식 영역을 순차로 통과하면 제스처 분석부(143)는 우측 이동으로 분석하고 제어부(145)는 그에 대응하는 명령을 실행한다.Therefore, as illustrated in FIG. 9B, when the pointy object passes through the left edge recognition area and the right edge recognition area sequentially after entering from the left outside of the screen 111, the gesture analyzer 143 moves to the right. The controller 145 executes a command corresponding thereto.

실행 명령으로는 현재 동영상 플레이어가 실행 중이고 플레이 버튼이 클릭되어 있는 경우라면 동영상 프레임을 뒤쪽으로 이동시키는 것이 될 것이고, e-book 이라면 다음 페이지로 넘기는 것이 될 것이다.The execution command would be to move the video frame backward if the video player is currently running and the play button is clicked, or to the next page if it is an e-book.

반대로, 포인티 오브젝트가 스크린(111)의 우측 외부로부터 들어온 후 우측 에지 인식 영역과 좌측 에지 인식 영역을 순차로 통과하면 제스처 분석부(143)는 좌측 이동으로 분석하고 제어부(145)는 그에 대응하는 명령을 실행한다.On the contrary, if the pointy object enters from the right outside of the screen 111 and passes through the right edge recognition region and the left edge recognition region in sequence, the gesture analyzer 143 analyzes the left movement and the controller 145 corresponds to the left edge recognition region. Run the command.

또한, 이상과 유사하게 제스처 분석부(143)는 포인티 오브젝트가 스크린(111)의 상측 외부로부터 들어와 하측 에지 인식 영역을 통과하면 하측 이동으로 분석하고, 제어부(145)는 그에 대응하는 명령을 실행한다.In addition, similarly to the above, the gesture analyzer 143 analyzes the downward movement when the pointy object enters from the outside of the upper side of the screen 111 and passes through the lower edge recognition area, and the controller 145 executes a corresponding command. do.

반대로, 제스처 분석부(143)는 포인티 오브젝트가 스크린(111)의 하측 외부로부터 들어와 상측 에지 인식 영역을 통과하면 상측 이동으로 분석하고, 제어부(145)는 그에 대응하는 명령을 실행한다.In contrast, the gesture analyzer 143 analyzes the upper object when the pointy object enters from the lower outside of the screen 111 and passes through the upper edge recognition area, and the controller 145 executes a corresponding command.

이러한 상·하이동 실행 명령으로는 음악 플레이어를 실행 중이고 도 9의 (c) 등과 같은 방식으로 소리 버튼이 클릭되어 있는 상태라면 볼륨을 높이거나 낮추는 것이 될 것이다. 물론, 소리 버튼이 클릭되지 않아서 비활성화된 상태라면 상위 리스트의 곡이나 하위 리스트의 곡을 선택하는 것 등이 될 수도 있을 것이다.
If the music player is running and the sound button is clicked in the same manner as in FIG. 9 (c) or the like, the volume up / down movement command will be increased or decreased. Of course, if the sound button is inactive because it is not clicked, it may be to select a song of the upper list or a song of the lower list.

이상에서와 같이 본 발명은 제스처 분석부(143)에서 분석한 포인티 오브젝트의 제스처를 3차원 공간 명령으로 처리하고, 제어부(145)에서는 이를 키보드(146) 또는 마우스(147)를 통한 사용자 입력으로 인식하여 스크린(111)에 표시될 화면(즉, 각종 콘텐츠의 실행)을 1:1로 맵핑하여 제어한다.
As described above, the present invention processes the gesture of the pointy object analyzed by the gesture analyzer 143 as a three-dimensional space command, and the controller 145 uses the user input through the keyboard 146 or the mouse 147. The screen to be recognized and displayed on the screen 111 (that is, execution of various contents) is controlled by mapping 1: 1.

이상, 본 발명의 특정 실시예에 대하여 상술하였다. 그러나, 본 발명의 사상 및 범위는 이러한 특정 실시예에 한정되는 것이 아니라, 본 발명의 요지를 변경하지 않는 범위 내에서 다양하게 수정 및 변형이 가능하다는 것을 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이해할 것이다. The specific embodiments of the present invention have been described above. It is to be understood, however, that the scope and spirit of the present invention is not limited to these specific embodiments, and that various modifications and changes may be made without departing from the spirit of the present invention. If you have, you will understand.

따라서, 이상에서 기술한 실시예들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이므로, 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 하며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
Therefore, it should be understood that the above-described embodiments are provided so that those skilled in the art can fully understand the scope of the present invention. Therefore, it should be understood that the embodiments are to be considered in all respects as illustrative and not restrictive, The invention is only defined by the scope of the claims.

110: 모니터 111: 스크린
111a: 가용영역 111b: 서브 가용영역
120, 130: 영상획득장치 140: 컴퓨터 본체
141: 영상 처리부 141a: I/O 인터페이스
142: 좌표 산출부 143: 제스처 분석부
144: 설정 메모리 145: 제어부
146: 키보드 147: 마우스
110: monitor 111: screen
111a: Availability Zone 111b: Sub Availability Zone
120, 130: image acquisition device 140: computer main body
141: image processor 141a: I / O interface
142: coordinate calculation unit 143: gesture analysis unit
144: setting memory 145: control unit
146: keyboard 147: mouse

Claims (14)

스크린의 X축과 Y축을 밑변으로 하고 상기 스크린으로부터 Z축 방향으로 이격된 사용자의 눈을 꼭지점으로 하는 가용영역 내에서 행해지는 사용자의 제스처를 3차원 터치 입력으로 제공함에 있어서,
상기 스크린에 설치된 영상획득장치에서 촬상한 사용자의 영상을 입력받아 신호처리하는 영상 처리부와;
상기 신호처리된 사용자의 영상으로부터 사용자의 눈과 포인티 오브젝트(pointy object)의 끝단의 현재 위치를 각각 3차원 좌표로 산출하는 좌표 산출부와;
상기 좌표가 산출된 사용자의 눈과 포인티 오브젝트의 끝단을 두 점으로 하는 연결선의 연장선상에 위치한 스크린의 좌표를 실시간으로 분석하여 사용자의 제스처를 분석하는 제스처 분석부; 및
상기 분석된 제스처를 사용자 입력장치를 통한 제어명령으로 변환하여 실행시키는 제어부;를 포함하되,
상기 제스처 분석부는 상기 포인티 오브젝트의 Z축 변위가 X축 변위 또는 Y축 변위보다 큰 경우 3차원 공간상에서 상기 스크린을 클릭하여 현재 화면을 선택 및 활성화한 것으로 분석하고 상기 X축 변위 또는 Y축 변위만큼의 이동을 실행명령으로서 분석하고,
상기 제스처 분석부는 사용자의 손가락 및 물건을 포인티 오브젝트로 인식하되, 상기 물건은 세로 길이가 가로 길이에 비해 3배 이상 길고, 상기 물건의 길이는 5Cm 이상인 경우 포인티 오브젝트로 인식하며,
상기 포인티 오브젝트의 끝점은 상기 포인티 오브젝트 전체 중 상기 가용영역 내에서 Y축 방향에 대해서는 최상점인 지점임과 동시에 Z축 방향에 대해서는 최하점인 지점을 찾아 결정되되,
상기 포인티 오브젝트의 끝점은 상기 가용영역 내에 위치하는 포인티 오브젝트 전체의 Y축 방향 위치 데이터와 Z축 방향 위치 데이터 중 상기 Y축 방향 위치 데이터에 15% 내지 25%의 가중치를 두어 산출되는 것을 특징으로 하는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치.
In providing a three-dimensional touch input of the user's gesture that is performed in an available area having the vertex of the user's eye spaced apart from the screen in the Z-axis direction and the Y-axis of the screen,
An image processing unit which receives and processes an image of a user captured by an image acquisition device installed on the screen;
A coordinate calculation unit configured to calculate a current position of a user's eye and a pointy object's end in three-dimensional coordinates from the signal-processed user's image;
A gesture analyzer configured to analyze a user's gesture by analyzing coordinates of a screen located on an extension line of a connection line having two points of the user's eyes and the point of the point object, the coordinates of which are calculated; And
And a controller for converting and executing the analyzed gesture into a control command through a user input device.
If the Z-axis displacement of the pointy object is greater than the X-axis displacement or the Y-axis displacement, the gesture analysis unit analyzes that the current screen is selected and activated by clicking the screen in three-dimensional space, and the X-axis displacement or the Y-axis displacement Analyze as many movement commands as
The gesture analysis unit recognizes a user's finger and an object as a pointy object, and the object is recognized as a pointy object when the length of the object is longer than three times longer than the width and the length of the object is 5 cm or more.
An end point of the pointy object is determined by finding a point that is the highest point in the Y-axis direction and the lowest point in the Z-axis direction in the available area of the entire pointy object.
An end point of the pointy object is calculated by giving a weight of 15% to 25% to the Y-axis position data among the Y-axis position data and the Z-axis position data of the entire pointy object located in the available area. Far screen touch device using a three-point location information of the eye and the point object.
제1항에 있어서,
상기 제스처 분석부는 상기 Z축 변위만큼 다시 Z축 방향으로 되돌아온 경우 상기 스크린을 클릭한 것으로 분석하는 것을 특징으로 하는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치.
The method of claim 1,
And the gesture analyzer analyzes that the screen is clicked upon returning back to the Z-axis direction by the Z-axis displacement. 3.
제1항에 있어서,
상기 제스처 분석부는 상기 포인티 오브젝트의 Z축 변위가 X축 변위 또는 Y축 변위보다 크도록 움직인 후 설정된 시간 동안 정지한 경우는 드래그 앤 드롭을 위한 그랩을 선택한 것으로 분석하는 것을 특징으로 하는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치.
The method of claim 1,
The gesture analyzer analyzes that the grab for drag and drop is selected when the Z-axis displacement of the pointy object moves to be greater than the X-axis displacement or the Y-axis displacement, and then stops for a predetermined time. Remote screen touch device using three-dimensional location information of objects and eyes.
제1항에 있어서,
상기 클릭을 위한 상기 포인티 오브젝트의 제스처는 복수개이고, 상기 제스처 분석부는 그 중 어느 하나의 제스처가 이루어지면 클릭으로 인식하며,
드래그 앤 드롭을 위한 그랩을 정의하는 상기 포인티 오브젝트의 제스처는 복수개이고, 상기 제스처 분석부는 그 중 어느 하나의 제스처가 이루어지면 상기 그랩으로 인식하는 것을 특징으로 하는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치.
The method of claim 1,
The point object has a plurality of gestures for the click, the gesture analysis unit recognizes as a click when any one of the gestures,
There are a plurality of gestures of the pointy object defining a grab for drag and drop, and the gesture analyzer recognizes the grab when one of the gestures is made. Remote screen touch device using information.
제1항에 있어서,
상기 가용영역의 밑변(즉, 스크린)은 상기 가용영역의 밑변이 복수개의 구역으로 구획된 복수개의 서브 가용영역으로 이루어지고,
상기 제스처 분석부는 상기 포인티 오브젝트로 인식된 2개의 포인티 오브젝트 모두 단위 Z축 영역(여기서, 상기 단위 Z축 영역은 설정된 단위 길이를 갖는 Z축 방향의 일정 구간을 의미함)에 들어온 경우 드래그 앤 드롭을 위한 그랩으로 분석하는 것을 특징으로 하는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치.
The method of claim 1,
The bottom side (ie, screen) of the usable area consists of a plurality of sub-available areas where the bottom side of the available area is divided into a plurality of zones,
When the gesture analyzer enters a unit Z-axis region (in which the unit Z-axis region means a predetermined section in the Z-axis direction having a set unit length), both of the two pointy objects recognized as the pointy objects are dragged and dropped. Far screen touch device using the three-dimensional position information of the eye and the pointy object, characterized in that the grab for drop analysis.
제5항에 있어서,
상기 제스처 분석부는 상기 포인티 오브젝트로 인식된 2개의 포인티 오브젝트가 상기 서브 가용 영역에서 다른 서브 가용영역으로 움직이면 상기 그랩된 대상을 이동시키고, 상기 2개의 포인티 오브젝트 중 어느 하나가 상기 단위 Z축 영역에서 벗어난 경우 상기 그랩을 릴리즈(release)한 것으로 분석하는 것을 특징으로 하는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치.
The method of claim 5,
The gesture analyzer may move the grabbed object when two point objects recognized as the point objects move from the sub available area to another sub available area, and one of the two point objects is the unit Z axis. A far-point touch device using three-dimensional position information of a pointy object and an eye, characterized in that the grab is released when released from the area.
제1항에 있어서,
상기 제스처 분석부는 상기 가용영역 외에서의 상기 포인티 오브젝트의 제스처는 입력으로 인식하지 않는 것을 특징으로 하는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치.
The method of claim 1,
And the gesture analyzer does not recognize the gesture of the pointy object outside the available area as an input. 3.
제1항에 있어서,
상기 제스처 분석부는 복수의 사용자의 눈을 각각 꼭지점으로 하는 복수의 가용영역을 인식하되, 상기 각각의 가용영역에서 움직이는 포인티 오브젝트는 사용자를 구분하지 않고 모두 입력으로 분석하는 것을 특징으로 하는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치.
The method of claim 1,
The gesture analyzer recognizes a plurality of available areas each of which the eyes of the plurality of users are as vertices, and the point object moving in each of the available areas is analyzed as input without distinguishing the user. And remote screen touch device using 3D location information of eyes.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 제스처 분석부는 상기 스크린의 X축 길이에 대한 10% 내지 20%의 길이에 해당하는 영역을 상기 스크린의 좌측 에지 부분에 에지 인식 영역으로 할당하고, 상기 스크린의 X축 길이에 대한 10% 내지 20%의 길이에 해당하는 영역을 상기 스크린의 우측 에지 부분에 에지 인식 영역으로 할당하며, 상기 스크린의 X축 길이에 대한 10% 내지 20%의 길이에 해당하는 영역을 상기 스크린의 상측 에지 또는 하측 에지 부분 중 어느 한 곳에 에지 인식 영역으로 할당하는 것을 특징으로 하는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치.
The method of claim 1,
The gesture analyzer assigns an area corresponding to a length of 10% to 20% of the length of the X axis of the screen as an edge recognition area to the left edge of the screen, and 10% to 20% of the length of the X axis of the screen. An area corresponding to the length of% is assigned to the right edge portion of the screen as an edge recognition area, and an area corresponding to the length of 10% to 20% of the length of the X axis of the screen is the upper edge or the lower edge of the screen. A far screen touch device using three-dimensional position information of a pointy object and an eye, wherein an edge recognition area is assigned to one of the parts.
제12항에 있어서,
상기 제스처 분석부는 상기 포인티 오브젝트가 상기 스크린의 좌측 외부로부터 들어와 상기 좌측 에지 인식 영역과 우측 에지 인식 영역을 순차로 통과하면 상기 포인티 오브젝트의 우측 이동으로 분석하고, 상기 포인티 오브젝트가 상기 스크린의 우측 외부로부터 들어와 상기 우측 에지 인식 영역과 좌측 에지 인식 영역을 순차로 통과하면 상기 포인티 오브젝트의 좌측 이동으로 분석하는 것을 특징으로 하는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치.
The method of claim 12,
The gesture analyzer may analyze the movement of the pointy object when the pointy object enters from the outside of the left side of the screen and sequentially passes through the left edge recognition area and the right edge recognition area. And a three-dimensional position information of a pointy object and an eye, wherein the pointy object is analyzed by moving leftward when the right edge recognition area and the left edge recognition area are sequentially passed from the right outside.
제12항에 있어서,
상기 제스처 분석부는 상기 포인티 오브젝트가 상기 스크린의 상측 외부로부터 들어와 상기 하측 에지 인식 영역을 통과하면 상기 포인티 오브젝트의 하측 이동으로 분석하고, 상기 포인티 오브젝트가 상기 스크린의 하측 외부로부터 들어와 상기 상측 에지 인식 영역을 통과하면 상기 포인티 오브젝트의 상측 이동으로 분석하는 것을 특징으로 하는 포인티 오브젝트와 눈의 3차원 위치정보를 이용한 원거리 스크린 터치장치.
The method of claim 12,
The gesture analyzer may analyze the pointy object as a lower movement of the pointy object when the pointy object enters from the outside of the screen and passes through the lower edge recognition area, and the pointy object may enter from the bottom outside of the screen. And a three-dimensional position information of the eye and the eye of the eye, characterized in that the analysis is performed by moving upward of the pointy object when passing through the recognition region.
KR1020120011584A 2012-02-06 2012-02-06 Screen touch apparatus at long range using 3D position of eyes and pointy object KR101335394B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120011584A KR101335394B1 (en) 2012-02-06 2012-02-06 Screen touch apparatus at long range using 3D position of eyes and pointy object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120011584A KR101335394B1 (en) 2012-02-06 2012-02-06 Screen touch apparatus at long range using 3D position of eyes and pointy object

Publications (2)

Publication Number Publication Date
KR20130090458A KR20130090458A (en) 2013-08-14
KR101335394B1 true KR101335394B1 (en) 2013-12-03

Family

ID=49216037

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120011584A KR101335394B1 (en) 2012-02-06 2012-02-06 Screen touch apparatus at long range using 3D position of eyes and pointy object

Country Status (1)

Country Link
KR (1) KR101335394B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9886096B2 (en) 2015-09-01 2018-02-06 Samsung Electronics Co., Ltd. Method and apparatus for processing three-dimensional (3D) object based on user interaction

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102310994B1 (en) 2014-11-25 2021-10-08 삼성전자주식회사 Computing apparatus and method for providing 3-dimensional interaction
WO2016200197A1 (en) * 2015-06-10 2016-12-15 (주)브이터치 Method and apparatus for detecting gesture in user-based spatial coordinate system
CN109407831A (en) * 2018-09-28 2019-03-01 维沃移动通信有限公司 A kind of exchange method and terminal

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110037053A (en) * 2009-10-05 2011-04-13 (주)휴비드씨엔에스 The user interface apparatus and method for 3d space-touch using multiple imaging sensors

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110037053A (en) * 2009-10-05 2011-04-13 (주)휴비드씨엔에스 The user interface apparatus and method for 3d space-touch using multiple imaging sensors

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Antonis Argyros et al.,‘Vision-based interpretation of hand gestures for remote control of a computer mouse’, International Workshop on Human-Computer Interaction(HCI 2006), Austria, 13 May, 2006.
Antonis Argyros et al.,'Vision-based interpretation of hand gestures for remote control of a computer mouse', International Workshop on Human-Computer Interaction(HCI 2006), Austria, 13 May, 2006. *
Takaomi Hisamatsu et al.,‘A novel click-free interaction technique for large-screen interfaces’, Proceedings of the 7th Asia-Pacific Conference on Computer-Human Interface(APCHI 2006), October, 2006.
Takaomi Hisamatsu et al.,'A novel click-free interaction technique for large-screen interfaces', Proceedings of the 7th Asia-Pacific Conference on Computer-Human Interface(APCHI 2006), October, 2006. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9886096B2 (en) 2015-09-01 2018-02-06 Samsung Electronics Co., Ltd. Method and apparatus for processing three-dimensional (3D) object based on user interaction

Also Published As

Publication number Publication date
KR20130090458A (en) 2013-08-14

Similar Documents

Publication Publication Date Title
US11983326B2 (en) Hand gesture input for wearable system
US11874970B2 (en) Free-space user interface and control using virtual constructs
EP2972669B1 (en) Depth-based user interface gesture control
US9569010B2 (en) Gesture-based human machine interface
US9292083B2 (en) Interacting with user interface via avatar
KR101979317B1 (en) System and method for close-range movement tracking
EP2620849B1 (en) Operation input apparatus, operation input method, and program
US20130307765A1 (en) Contactless Gesture-Based Control Method and Apparatus
US20110298708A1 (en) Virtual Touch Interface
CN104246682A (en) Enhanced virtual touchpad and touchscreen
US10180714B1 (en) Two-handed multi-stroke marking menus for multi-touch devices
JP2006209563A (en) Interface device
KR20130105725A (en) Computer vision based two hand control of content
WO2010032268A2 (en) System and method for controlling graphical objects
KR101335394B1 (en) Screen touch apparatus at long range using 3D position of eyes and pointy object
Wilson et al. Flowmouse: A computer vision-based pointing and gesture input device
WO2015091638A1 (en) Method for providing user commands to an electronic processor and related processor program and electronic circuit.
KR20160097410A (en) Method of providing touchless input interface based on gesture recognition and the apparatus applied thereto
US20230085330A1 (en) Touchless image-based input interface
US9940900B2 (en) Peripheral electronic device and method for using same
JP6008904B2 (en) Display control apparatus, display control method, and program
Prabhakar et al. Comparison of three hand movement tracking sensors as cursor controllers
KR101506197B1 (en) A gesture recognition input method using two hands
US20150323999A1 (en) Information input device and information input method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161129

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171128

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181127

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191127

Year of fee payment: 7