KR20150040580A - virtual multi-touch interaction apparatus and method - Google Patents

virtual multi-touch interaction apparatus and method Download PDF

Info

Publication number
KR20150040580A
KR20150040580A KR20130119271A KR20130119271A KR20150040580A KR 20150040580 A KR20150040580 A KR 20150040580A KR 20130119271 A KR20130119271 A KR 20130119271A KR 20130119271 A KR20130119271 A KR 20130119271A KR 20150040580 A KR20150040580 A KR 20150040580A
Authority
KR
South Korea
Prior art keywords
touch
user
unit
virtual
hand
Prior art date
Application number
KR20130119271A
Other languages
Korean (ko)
Other versions
KR102147430B1 (en
Inventor
김혜미
김용완
양웅연
김기홍
이길행
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020130119271A priority Critical patent/KR102147430B1/en
Publication of KR20150040580A publication Critical patent/KR20150040580A/en
Application granted granted Critical
Publication of KR102147430B1 publication Critical patent/KR102147430B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Abstract

The suggested are a virtual space multi-touch interaction device capable of recognizing a moment when the finger of a user touches a virtual object visualized through a wearable display which can provide cubic images and providing touch feedback as well as visual interactions for the user and a method thereof. The suggested device includes: a visualization unit which outputs a virtual image; a virtual space multi-touch recognition unit which recognizes multi-touches through detection of finger tips and movements of the user for the virtual image visualized by the visualization unit; and a touch feedback providing unit which provides touch feedback corresponding multi-touches of the user recognized by the virtual space multi-touch recognition unit.

Description

가상 공간 멀티 터치 인터랙션 장치 및 방법{virtual multi-touch interaction apparatus and method}[0001] The present invention relates to a virtual multi-touch interaction apparatus and method,

본 발명은 가상 공간 멀티 터치 인터랙션 장치 및 방법에 관한 것으로, 보다 상세하게는 착용형 디스플레이 가시화 객체와의 실감나는 멀티 터치 인터랙션을 가능하게 하는 가상 공간 멀티 터치 인터랙션 장치 및 방법에 관한 것이다.The present invention relates to a virtual space multi-touch interaction apparatus and method, and more particularly, to a virtual space multi-touch interaction apparatus and method that enable realistic multi-touch interaction with a wearable display visualization object.

기존의 리모컨이나 키보드, 마우스와 같은 입력 장치들은 추가 장치를 필요로 하거나 사용자가 메뉴를 제어하는 데 있어 평면적이고 비직관적이다. Input devices such as conventional remote controls, keyboards, and mice require additional devices or are flat and non-intuitive for the user to control the menu.

기존에 개발되고 있는 제스쳐 기반의 인터페이스는 직관적인 제어 동작을 제공하여 이런 문제를 해결한다는 장점이 있으나, 사용자가 가상의 물체와의 접촉 여부까지 정밀하게 느끼지는 못한다. The existing gesture-based interface provides an intuitive control operation to solve this problem, but the user can not feel precisely whether or not the contact with a virtual object occurs.

또한, 사용자 터치 여부에 따른 시각적 피드백으로 콘텐츠와 상호작용하지만, 실감 인터페이스를 위해서는 실제와 동일하게 시각뿐만 아니라 촉각 피드백도 제공되어야 한다.In addition, the user interacts with the content through visual feedback based on whether or not the user touches the touch screen.

관련 선행기술로는, 3차원 TOF 센서, 3차원 무안경 디스플레이, 및 센서와 디스플레이에 연결된 컴퓨터를 포함하는 3차원 가상 터치 HMI시스템 및 동작 방법에 대한 내용이, 미국공개특허 제2012-0306795호(METHOD AND SYSTEM FOR THREE-DIMENSIONAL VIRTUAL-TOUCH INTERFACE)에 개시되었다.Relevant prior art teaches a three-dimensional virtual touch HMI system and method of operation that includes a three-dimensional TOF sensor, a three-dimensional non-eyeglass display, and a computer coupled to the sensor and the display are described in U. S. Patent Publication No. 2012-0306795 METHOD AND SYSTEM FOR THREE-DIMENSIONAL VIRTUAL-TOUCH INTERFACE).

미국공개특허번호 제2012-0306795호에서, 3차원 TOF 센서는 3차원 센서 공간 내에서 사용자 객체를 인식하고, 3차원 무안경 디스플레이는 3차원 디스플레이 공간 내에서 영상을 가시화하고, 컴퓨터는 사용자 객체의 위치를 지도화한다.In US Patent Publication No. 2012-0306795, a three-dimensional TOF sensor recognizes a user object in a three-dimensional sensor space, a three-dimensional non-eyeglass display visualizes an image in a three-dimensional display space, Map the location.

상술한 미국공개특허번호 제2012-0306795호의 발명은 사용자의 가상 터치에 대한 촉각 피드백을 제공하지는 않는다.The above-described invention of U. S. Patent Publication No. < RTI ID = 0.0 > 2012-0306795 < / RTI > does not provide tactile feedback to a user's virtual touch.

다른 선행기술로는, 3차원스캐너에서 입력받은 3차원좌표영상을 이용하여 신체부위를 인식한 후 사용자의 제스처인식을 통하여 가상터치스크린의 생성을 할 수 있으며, 가상터치스크린에서 사용자의 손이나 손가락의 제어에 의하여 모니터화면에 나타난 커서의 움직임으로 모니터화면의 제어를 손쉽게 할 수 있는 내용이, 대한민국등록특허 제1242848호(가상터치스크린을 생성과 제어하는 장치)에 개시되었다.In another prior art, a three-dimensional coordinate image input from a three-dimensional scanner is used to recognize a body part, and then a virtual touch screen can be generated through a user's gesture recognition. In a virtual touch screen, Korean Patent No. 1242848 (a device for generating and controlling a virtual touch screen) has been disclosed in which a monitor screen can be easily controlled by the movement of a cursor displayed on a monitor screen under the control of the controller.

대한민국등록특허 제1242848호에 개시된 발명은, 기존의 제스처인식에서 불분명한 제스처의 동작으로 인한 제스처 인식의 오류, 거실과 같은 다수의 사용자가 있는 자유로운 장소에서 제스처인식의 제어로 인한 부자연스러운 활동 등을 감소시키며, 제스처를 이용한 모니터화면의 제어를 더욱 간편하게 실시할 수 있다.The invention disclosed in Korean Patent No. 1242848 is based on the fact that the gesture recognition error due to the operation of the gesture unclear in the conventional gesture recognition and the unnatural activity due to the control of the gesture recognition in a free place where a large number of users such as the living room are present And it is possible to more easily control the monitor screen using the gesture.

그러나, 상술한 대한민국등록특허 제1242848호에 개시된 발명에서는 손가락 끝점 검출 방법에 대한 구체적인 설명이 없을 뿐만 아니라 사용자의 가상 터치에 대한 촉각 피드백 제공에 대한 설명이 없다.However, in the above-described invention disclosed in Korean Patent No. 1242848, there is no description of the fingertip detection method, and there is no description of tactile feedback for the virtual touch of the user.

또다른 선행기술로는, 원격지에서 사용자의 움직임(제스처)을 통한 가상 터치를 이용하여 전자기기의 구동조작을 디스플레이 장치의 유무와 상관없이 기존 리모컨을 이용하여 구동 조작되는 모든 전자기기에 적용되어 제어할 수 있는 내용이, 대한민국등록특허 제1235432호(3차원 모델링된 전자기기의 가상터치를 이용한 원격 조작 장치 및 방법)에 개시되었다.As another prior art, a driving operation of an electronic device using a virtual touch through a user's movement (gesture) at a remote place is applied to all electronic devices driven by a conventional remote controller, regardless of the presence or absence of a display device, The contents that can be made are disclosed in Korean Patent No. 1235432 (remote control apparatus and method using virtual touch of three-dimensionally modeled electronic device).

상술한 대한민국등록특허 제1235432호의 발명은 사용자의 가상 터치에 대한 촉각 피드백을 제공하지는 않는다.The above-mentioned Korean Patent No. 1235432 does not provide tactile feedback for the virtual touch of a user.

또다른 선행기술로는, 특수 장비를 부착하지 않은 사용자의 맨손을 컬러 정보 및 깊이 정보에 기반하여 검출 및 추적할 수 있고, 손 끝점 검출을 통해 손가락 개수를 인식할 수 있으며, 이로부터 다양하고 의미있는 손동작 인식이 가능하게 되어 자연스러운 사용자 인터페이스를 구축할 수 있는 내용이, 대한민국공개특허 제2012-0134488호(제스처 인식 기반 사용자 상호 작용 방법 및 이를 위한 장치)에 개시되었다.Another prior art is to detect and track the bare hands of a user without special equipment based on the color information and the depth information and to recognize the number of fingers by detecting the end point of the finger, Korean Patent Publication No. 2012-0134488 (Gesture recognition-based user interaction method and device therefor) discloses a technique for enabling a user to recognize a hand gesture and building a natural user interface.

상술한 대한민국공개특허 제2012-0134488호의 발명은 손가락 끝점 검출 및 제스쳐 인식을 가능하지만, 가상 공간에 대한 터치 여부 인식은 불가능하고 사용자의 가상 터치에 대한 촉각 피드백을 제공하지 않는다.Although the above-described Korean Patent Laid-Open Publication No. 2012-0134488 allows finger end point detection and gesture recognition, it is impossible to recognize whether the virtual space is touched or not, and does not provide tactile feedback on the virtual touch of the user.

본 발명은 상기한 종래의 문제점을 해결하기 위해 제안된 것으로, 입체 영상 제공이 가능한 착용형 디스플레이를 통해 가시화되는 가상물체와 사용자의 손가락이 터치하는 순간을 인식하고, 사용자에게 시각적 상호작용과 동시에 촉각 피드백을 함께 제공할 수 있는 가상 공간 멀티 터치 인터랙션 장치 및 방법을 제공함에 그 목적이 있다.Disclosure of Invention Technical Problem [8] Accordingly, the present invention has been made to solve the above-mentioned problems occurring in the prior art, and it is an object of the present invention to recognize a moment when a virtual object and a user's finger are touched through a wearable display capable of providing a stereoscopic image, The present invention provides a virtual space multi-touch interaction apparatus and method capable of providing feedback together.

상기와 같은 목적을 달성하기 위하여 본 발명의 바람직한 실시양태에 따른 가상 공간 멀티 터치 인터랙션 장치는, 가상 영상을 출력하는 가시화부; 상기 가시화부를 통해 가시화되는 가상 영상에 대한 사용자의 손가락 끝점 검출 및 움직임 검출을 통해 멀티 터치를 인식하는 가상 공간 멀티 터치 인식부; 및 상기 가상 공간 멀티 터치 인식부에 의해 인식된 사용자의 멀티 터치에 상응하는 터치 피드백을 제공하는 터치 피드백 제공부;를 포함한다.According to an aspect of the present invention, there is provided a virtual space multi-touch interaction apparatus including: a visualization unit for outputting virtual images; A virtual space multi-touch recognition unit for recognizing a multi-touch through a user's fingertip detection and motion detection of a virtual image visualized through the visualization unit; And a touch feedback providing unit for providing touch feedback corresponding to the multi-touch of the user recognized by the virtual space multi-touch recognizing unit.

바람직하게, 상기 가상 공간 멀티 터치 인식부는, 상기 사용자를 촬영함에 따른 컬러영상 및 깊이정보를 획득하는 컬러영상/깊이정보 획득부; 상기 사용자의 전신 관절에 대한 회전 및 움직임을 추적하는 신체 관절 추적부; 상기 컬러영상 및 깊이정보로부터 해당 사용자의 손 영역을 검출하는 손 영역 검출부; 상기 손 영역 검출부에 의해 검출되는 손 영역의 손 윤곽선상에 존재하는 픽셀의 곡률 계산값으로부터 손가락 끝점을 검출하는 손가락 끝점 정보 검출부; 상기 손가락 끝점 정보 검출부로부터의 정보를 근거로 상기 사용자가 상기 가상 영상을 터치하였는지를 인식하는 가상 터치 인식부; 및 상기 신체 관절 추적부의 결과 및 상기 가상 터치 인식부의 결과에 근거하여 상기 사용자가 상기 가상 영상에 손가락을 터치한 터치 포인트에 대한 해당 사용자의 제스쳐를 인식하는 멀티 터치 제스쳐 인식부;를 포함할 수 있다.Preferably, the virtual space multi-touch recognition unit includes: a color image / depth information acquisition unit for acquiring a color image and depth information as the user photographs; A body joint tracker for tracking the rotation and movement of the user's body joint; A hand region detecting unit for detecting a hand region of the user from the color image and the depth information; A finger end point information detecting unit for detecting a finger end point from a calculated curvature value of a pixel existing on a hand outline of a hand region detected by the hand region detecting unit; A virtual touch recognition unit for recognizing whether the user has touched the virtual image based on information from the finger end point information detection unit; And a multi-touch gesture recognition unit for recognizing a gesture of the user corresponding to the touch point on which the user has touched the virtual image based on the result of the body joint tracking unit and the result of the virtual touch recognition unit .

바람직하게, 상기 손 영역 검출부는 상기 컬러영상 및 깊이정보에 대해 상기 신체 관절 추적부에서 획득한 추적 결과값을 기반으로 손 영역을 검출하되, 상기 깊이정보를 근거로 추적된 손 좌표를 중심으로 일정 크기의 영역내에 있는 픽셀중 깊이값이 임계치보다 작은 값을 가지는 픽셀을 모아 손 영역을 검출할 수 있다.Preferably, the hand region detection unit detects a hand region based on the tracking result value acquired by the body joint tracking unit with respect to the color image and the depth information, It is possible to collect the pixels having the depth value smaller than the threshold value among the pixels within the size range to detect the hand area.

바람직하게, 상기 손 영역 검출부는 상기 컬러영상 및 깊이정보에 대해 상기 신체 관절 추적부에서 획득한 추적 결과값을 기반으로 손 영역을 검출하되, 상기 컬러영상에서 얼굴을 검출한 후 얼굴의 3차원 위치 정보를 바탕으로 얼굴과 손과의 3차원 위치에 관한 사전지식을 활용하여 검출할 수 있다.Preferably, the hand region detection unit detects a hand region based on a tracking result value obtained by the body joint tracking unit with respect to the color image and depth information, and detects a face in the color image, Based on the information, it can be detected using the prior knowledge about the three-dimensional position of the face and the hand.

바람직하게, 상기 손가락 끝점 정보 검출부는, 상기 검출된 손 영역의 손 윤곽선을 따라 존재하는 각 픽셀에서 양방향으로 떨어진 각각의 픽셀간의 방향벡터를 계산하여 두 방향벡터의 각도가 임계치 이상이 되면 손가락 끝점의 후보로 인식하고, 상기 인식된 손가락 끝점의 후보의 좌표를 중심으로 관심영역을 설정하고 상기 컬러영상/깊이정보 획득부에서 얻어진 깊이맵으로부터 상기 관심영역 내 배경을 제외한 손 영역의 깊이값 평균을 구하여 이를 손가락 끝점의 깊이 정보로 대응시킬 수 있다.Preferably, the fingertip information detecting unit calculates a direction vector between each pixel separated in both directions in each pixel existing along the hand contour of the detected hand region, and when the angle of the two direction vectors becomes equal to or more than the threshold value, And sets a region of interest around the coordinates of the recognized finger end point. The depth value average of the hand region excluding the background in the region of interest is obtained from the depth map obtained by the color image / depth information obtaining unit It can correspond to the depth information of the finger end point.

바람직하게, 상기 멀티 터치 제스쳐 인식부는 터치 지속시간, 움직임 허용 오차, 움직임 모멘텀 벡터, 터치 포인트간 거리, 및 터치 포인트 간 중점 기울기를 인식 파라미터로 사용할 수 있다.Preferably, the multi-touch gesture recognition unit may use a touch duration, a motion tolerance, a motion moment vector, a distance between touch points, and a midpoint slope between touch points as recognition parameters.

바람직하게, 상기 가상 공간 멀티 터치 인식부는, 상기 컬러영상 및 깊이정보를 근거로 다수 사용자중에서 가장 전방에 위치한 사용자를 주 사용자로 선정하는 다수 사용자 처리부를 추가로 포함할 수 있다.Preferably, the virtual space multi-touch recognizing unit may further include a plurality of user processing units for selecting a user located at the forefront among the plurality of users as a main user based on the color image and the depth information.

바람직하게, 상기 가시화부는 얼굴 착용형 입체 디스플레이로 구성될 수 있다.Preferably, the visualization unit may be configured as a face wearable stereoscopic display.

바람직하게, 상기 터치 피드백 제공부는 무선 통신을 통해 해당 사용자에게 촉각 피드백을 제공할 수 있다.Preferably, the touch feedback providing unit may provide tactile feedback to the user through wireless communication.

한편, 본 발명의 바람직한 실시양태에 따른 가상 공간 멀티 터치 인터랙션 방법은, 가상 공간 멀티 터치 인식부가, 가시화부를 통해 가시화되는 가상 영상에 대한 사용자의 손가락 끝점 검출 및 움직임 검출을 통해 멀티 터치를 인식하는 단계; 및 터치 피드백 제공부가, 상기 사용자의 멀티 터치를 인식하는 단계에 의해 인식된 사용자의 멀티 터치에 상응하는 터치 피드백을 제공하는 단계;를 포함한다.Meanwhile, in the virtual space multi-touch interaction method according to the preferred embodiment of the present invention, the virtual space multi-touch recognition unit recognizes the multi-touch through the finger end point detection and motion detection of the virtual image visualized through the visualization unit ; And providing the touch feedback providing unit with touch feedback corresponding to the multi-touch of the user recognized by recognizing the multi-touch of the user.

이러한 구성의 본 발명에 따르면, 사용자 입력을 위한 추가 장치를 소지하지 않고 맨손으로 입체 착용형 디스플레이를 통해 나타난 2D가 아닌 입체 영상의 가상 객체를 보면서 터치를 할 수 있다. According to the present invention having such a configuration, it is possible to perform a touch while viewing a virtual object of a non-2D stereoscopic image displayed through a stereoscopic display with a bare hand without having an additional device for user input.

또한, 촉각 피드백 장치를 통해 터치에 따른 촉각 피드백을 함께 제공받음으로써 2D 디스플레이의 화면을 터치하는 것보다 훨씬 넓은 공간을 자유롭고 실감나게 터치할 수 있는 장점이 있다.In addition, by receiving tactile feedback along with a touch through a tactile feedback device, it is possible to freely and freely touch a space much wider than touching the screen of the 2D display.

도 1은 본 발명의 실시예에 따른 가상 공간 멀티 터치 인터랙션 장치가 구현된 착용형 디스플레이 가시화 장치의 일예를 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 가상 공간 터치의 개념을 보여주는 도면이다.
도 3은 본 발명의 실시예에 따른 가상 공간 멀티 터치 인터랙션 장치의 구성도이다.
도 4는 도 3에 도시된 터치 패드백 제공부의 동작 설명에 채용되는 도면이다.
도 5는 도 3에 도시된 가상 공간 멀티 터치 인식부의 내부 구성도이다.
도 6은 도 5에 도시된 신체 관절 추적부에서의 신체 관절 추척시 적용되는 관절 위치를 예시한 도면이다.
도 7은 도 5에 도시된 손가락 끝점 정보 검출부의 동작 설명에 채용되는 도면이다.
도 8은 본 발명의 실시예에 따른 가상 공간 멀티 터치 인터랙션 방법을 설명하는 플로우차트이다.
도 9는 도 8에 도시된 가상 공간 멀티 터치 인식 과정을 세부적으로 설명하는 플로우차트이다.
도 10은 도 9에 도시된 멀티 터치 제스쳐 인식 과정을 세부적으로 설명하는 플로우차트이다.
1 is a view illustrating an example of a wearable display visualization apparatus implementing a virtual space multi-touch interaction apparatus according to an embodiment of the present invention.
2 is a diagram illustrating a concept of a virtual space touch according to an embodiment of the present invention.
3 is a configuration diagram of a virtual space multi-touch interaction apparatus according to an embodiment of the present invention.
FIG. 4 is a diagram for explaining an operation of the touch pad bag providing unit shown in FIG.
FIG. 5 is an internal configuration diagram of the virtual space multi-touch recognition unit shown in FIG.
FIG. 6 is a view illustrating joint positions applied to the body joint tracking in the body joint tracker shown in FIG. 5. FIG.
7 is a diagram for explaining the operation of the fingertip information detecting unit shown in Fig.
FIG. 8 is a flowchart illustrating a virtual space multi-touch interaction method according to an embodiment of the present invention.
FIG. 9 is a flowchart detailing the virtual space multi-touch recognition process shown in FIG.
FIG. 10 is a flowchart detailing the multi-touch gesture recognition process shown in FIG.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the relevant art and are to be interpreted in an ideal or overly formal sense unless explicitly defined in the present application Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the present invention, the same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

도 1은 본 발명의 실시예에 따른 가상 공간 멀티 터치 인터랙션 장치가 구현된 착용형 디스플레이 가시화 장치의 일예를 나타낸 도면이고, 도 2는 본 발명의 실시예에 따른 가상 공간 터치의 개념을 보여주는 도면이다. FIG. 1 is a view showing an example of a wearable display visualization apparatus implementing a virtual space multi-touch interaction apparatus according to an embodiment of the present invention, and FIG. 2 is a view showing a concept of a virtual space touch according to an embodiment of the present invention .

본 발명이 제시하는 가상 공간 멀티 터치 인터랙션을 위해서는 사용자에게 자신의 신체가 보이는 상황에서 가상 콘텐츠를 합성하여 제시할 필요가 있다. 이를 위하여 착용형 디스플레이 가시화 장치에서는 현실 영상과 가상 영상을 혼합하여 출력하는 가시화 기술 중에서 직관적인 거리감 및 부가적인 영상 처리에 의한 지연 효과가 적은 광학식 투시 방식(optical see-through)의 착용형 디스플레이로 제안된 시스템을 구성한다. In order to realize the virtual space multi-touch interaction proposed by the present invention, it is necessary for a user to synthesize and present virtual contents in a situation where his / her body is visible. For this purpose, the wearable display visualization device proposes a wearable display of an optical see-through, which has an intuitive sense of distance and a small delay effect due to additional image processing among visualization techniques that output mixed reality images and virtual images. .

즉, 도 1에서와 같이 광학계를 통해서 관찰되는 사용자의 시각 공간에 입체 영상 콘텐츠를 가시화시키는 경우, 사용자는 자신의 주변에 존재하는 가상 콘텐츠(예를 들어, 3차원 메뉴)를 자연스럽게 손가락으로 터치함으로써 인터랙션이 가능해진다. 도 1의 착용형 디스플레이 가시화 장치에서 디스플레이부(1a, 1b)는 본 발명의 실시예에 따른 가상 공간 멀티 터치 인터랙션 장치의 착용형 디스플레이 가시화부(10)의 구성요소가 될 수 있다. 도 1에서, 미설명 부호 2는 사용자의 머리 및 손을 추적하기 위한 카메라이고, 미설명 부호 3은 카메라 트래킹을 위한 센서 마커이다.That is, when the stereoscopic image content is visualized in the user's visual space through the optical system as shown in FIG. 1, the user naturally touches the virtual content (for example, a three-dimensional menu) Interaction becomes possible. In the wearable display visualization apparatus of FIG. 1, the display units 1a and 1b may be components of the wearable display visualization unit 10 of the virtual space multi-touch interaction apparatus according to the embodiment of the present invention. In FIG. 1, reference numeral 2 denotes a camera for tracking the user's head and hands, and reference numeral 3 denotes a sensor marker for camera tracking.

착용형 디스플레이를 적용하여 가상 공간 멀티터치 인터랙션을 구현할 때, 사용자 주변에 배치된 가상 콘텐츠의 위치는 사용자 영역을 기준으로 항상 일정한 3차원 공간에 배치할 수도 있고, 사용자와는 독립적으로(즉, 현실의 사물이 위치하는 것처럼) 배경 공간에 절대적인 위치로 고정시킬 수도 있다. 본 발명에서는 후자의 방법을 채택하는데, 후자의 방법을 구현하기 위해서는 사용자의 시선 움직임을 실시간에 추적하여 가상 콘텐츠의 제어에 반영해야 한다. 시선 움직임을 실시간에 추적하기 위해서는 헤드 트래킹(head tracking) 기술을 부가적으로 적용하면 가능하다. 대표적으로, 카메라 기반의 영상 센서와 자이로/가속도계/전자나침반을 활용하여 사용자 머리의 6자유도(6DOF; 6 degree of freedom, 위치 x/y/z, 자세 pitch/yaw/roll) 정보를 추적해서 몰입감을 향상시킬 수 있다.When the virtual space multi-touch interaction is implemented by applying the wearable display, the position of the virtual contents arranged around the user can be always arranged in a fixed three-dimensional space based on the user area, or independently of the user It may be fixed to an absolute position in the background space. In the present invention, the latter method is adopted. In order to implement the latter method, the user's gaze movement must be tracked in real time and reflected in the control of the virtual content. In order to track eye movement in real time, it is possible to apply head tracking technology additionally. Typically, we use a camera-based image sensor and a gyro / accelerometer / electronic compass to track 6 degrees of freedom (6 degrees of freedom, position x / y / z, attitude pitch / yaw / roll) The immersion feeling can be improved.

도 1에 예시된 착용형 디스플레이 가시화 장치는 본 발명이 구현된 실시 사례라고 할 수 있다. 도 1에 예시된 착용형 디스플레이 가시화 장치(즉, 광학식 투시를 지원하는 안경형 디스플레이(EGD; Eye Glasses-type Display) 2.0)은 고해상도(SXGA급, 1280x1024)의 OLED패널을 활용하여 2채널 기반 입체 영상을 양안(binocular) 방식으로 출력한다. 또한, 도 1에 예시된 착용형 디스플레이 가시화 장치는 대략 150g 정도의 착용부 내부에 높은 해상도의 영상 출력 모듈(도시 생략)과 약 41°의 시야각을 지원하고, 2대의 USB 카메라(2)와 헤드 트래킹 센서(도시 생략)를 내장하였다. The wearable display visualization device illustrated in FIG. 1 is an embodiment in which the present invention is implemented. The wearable display visualization device (i.e., eyeglass-type display (EGD 2.0) supporting optical vision shown in FIG. 1) utilizes an OLED panel of high resolution (SXGA class, 1280x1024) In a binocular manner. In addition, the wearable display visualization device illustrated in FIG. 1 supports a high-resolution video output module (not shown) and a viewing angle of about 41 degrees in a wearing portion of about 150 g, and supports two USB cameras 2, And a tracking sensor (not shown).

사용자가 도 1에 예시된 착용형 디스플레이 가시화 장치를 얼굴에 착용하면 도 2에서와 같이 사용자는 자신의 주변 공간에 가시화되는 입체 영상을 체험할 수 있다.When the user wears the wearable display visualizing device illustrated in FIG. 1 on his / her face, the user can experience a stereoscopic image that is visible in the surrounding space as shown in FIG.

도 3은 본 발명의 실시예에 따른 가상 공간 멀티 터치 인터랙션 장치의 구성도이고, 도 4는 도 3에 도시된 터치 패드백 제공부의 동작 설명에 채용되는 도면이다.FIG. 3 is a block diagram of a virtual space multi-touch interaction apparatus according to an embodiment of the present invention, and FIG. 4 is a diagram for explaining an operation of the touch pad bag providing unit shown in FIG.

본 발명의 실시예에 따른 가상 공간 멀티 터치 인터랙션 장치는 착용형 디스플레이 가시화부(10), 가상 공간 멀티 터치 인식부(20), 및 터치 피드백 제공부(30)를 포함한다. 착용형 디스플레이 가시화부(10), 가상 공간 멀티 터치 인식부(20), 및 터치 피드백 제공부(30)는 도 1에 예시한 착용형 디스플레이 가시화 장치에 설치될 수 있다.The virtual space multi-touch interaction apparatus according to an embodiment of the present invention includes a wearable display visualization unit 10, a virtual space multi-touch recognition unit 20, and a touch feedback unit 30. The wearable display visualization unit 10, the virtual space multi-touch recognition unit 20, and the touch feedback unit 30 may be installed in the wearable display visualization apparatus illustrated in FIG.

착용형 디스플레이 가시화부(10)는 현실 영상과 가상 영상을 혼합하여 출력할 수 있다. 착용형 디스플레이 가시화부(10)는 상술한 도 1의 착용형 디스플레이 가시화 장치의 디스플레이부(1a, 1b), 영상 출력 모듈(도시 생략), USB 카메라(2), 및 헤드 트래킹 센서(도시 생략)를 포함한다고 볼 수 있다. 착용형 디스플레이 가시화부(10)는 본 발명의 특허청구범위에 기재된 가시화부의 일 예가 될 수 있다.The wearable display visualization unit 10 can mix the real image and the virtual image and output the mixed image. The wearable display visualization unit 10 includes display units 1a and 1b, a video output module (not shown), a USB camera 2, and a head tracking sensor (not shown) of the wearable display visualization apparatus of FIG. . The wearable display visualization unit 10 may be an example of the visualization unit described in the claims of the present invention.

가상 공간 멀티 터치 인식부(20)는 착용형 디스플레이 가시화부(10)를 통해 가시화되는 가상 영상에 대한 사용자의 멀티 터치를 인식한다. 가상 공간 멀티 터치 인식부(20)는 착용형 디스플레이 가시화부(10)를 통해 가시화된 가상 영상을 제어하고 상호작용하도록 한다. 가상 공간 멀티 터치 인식부(20)의 내부 구성에 대해서는 후술하기로 한다.The virtual space multi-touch recognition unit 20 recognizes a user's multi-touch on a virtual image that is visualized through the wearable display visualization unit 10. [ The virtual space multi-touch recognition unit 20 controls and interacts with the virtual images visualized through the wearable display visualization unit 10. [ The internal configuration of the virtual space multi-touch recognition unit 20 will be described later.

터치 피드백 제공부(30)는 가상 공간 멀티 터치 인식부(20)에 의해 인식된 사용자의 멀티 터치에 상응하는 터치 피드백을 해당 사용자에게 제공한다. 다시 말해서, 터치 피드백 제공부(30)는 가상 공간 멀티 터치 인식부(20)에서 최종적으로 획득한 인식 결과에 따른 터치 피드백을 제공하기 위해, 손가락이 가상 영상(보다 구체적으로는 가상 평면)을 터치했을 때 터치 피드백 장치를 통해 실제 평면을 만지는 듯한 느낌을 제공한다. 터치 피드백 장치의 일실시예로는 사용자의 손목에 착용하는 스마트 기기 기반의 와치(watch)와 같은 장치(30a; 도 4 참조)가 있을 수 있다. 즉, 터치 피드백 제공부(30)는 장치(30a)를 이용하여 진동과 같은 효과를 통해 터치 피드백을 제공한다. The touch feedback providing unit 30 provides touch feedback corresponding to the multi-touch of the user recognized by the virtual space multi-touch recognizing unit 20 to the user. In other words, in order to provide touch feedback according to the recognition result finally obtained by the virtual space multi-touch recognition unit 20, the touch feedback providing unit 30 causes the finger to touch the virtual image (more specifically, The touch feedback device provides a feeling of touching the actual plane. One embodiment of the touch feedback device may be a device 30a (see FIG. 4) such as a smart device-based watch worn on the user's wrist. That is, the touch feedback providing unit 30 uses the device 30a to provide touch feedback through an effect such as vibration.

보다 구체적으로, 터치 피드백 제공부(30)는 다음과 같은 터치 피드백 제공 방법을 사용할 수 있다. 즉, 터치 피드백 제공부(30)는 가상 공간 멀티 터치 인식부(20)로부터 가상 평면과 손가락 끝점 교차 여부의 결과를 받으면 스마트기기에서 구동되고 있는 터치 위젯으로 블루투스와 같은 무선 전송 프로토콜을 통해 왼손, 오른손, 가상 평면으로의 손가락 침투깊이, 멀티 터치 제스쳐 타입 등의 데이터를 전송할 수 있다. More specifically, the touch feedback providing unit 30 may use the following method of providing a touch feedback. That is, when the touch feedback providing unit 30 receives the result of the virtual plane and the finger end point intersection from the virtual space multi-touch recognizing unit 20, the touch feedback providing unit 30 transmits the touch widget to the touch widget through the wireless transmission protocol such as Bluetooth, A right hand, a finger penetration depth into a virtual plane, and a multi-touch gesture type.

스마트기기 와치에서 구동되고 있는 터치 위젯에서는 전송받은 왼손, 오른손 정보를 구별하여 개별적으로 사용자에게 피드백한다. 침투 깊이에 따라 진동의 강도를 비례하여 사용자가 어느 정도의 강도로 가상 평면을 터치하는지도 터치 피드백으로 느낄 수 있게 할 수 있다. 또한, 멀티 터치 제스쳐의 종류 및 각 손가락 종류에 따라서도 주파수와 같은 진동 패턴을 서로 다르게 피드백하여 다양한 터치 효과를 제공할 수 있다.In the touch widget running on the smart device watch, the received left and right hand information are separately distinguished and fed back to the user. The intensity of the vibration is proportional to the depth of penetration, so that the user can feel the touch of the virtual plane with the intensity of the touch by the degree of intensity. Also, depending on the type of the multi-touch gesture and each finger type, it is possible to provide a variety of touch effects by feeding different vibration patterns such as frequency.

도 5는 도 3에 도시된 가상 공간 멀티 터치 인식부(20)의 내부 구성도이고, 도 6은 도 5에 도시된 신체 관절 추적부(22)에서의 신체 관절 추척시 적용되는 관절 위치를 예시한 도면이고, 도 7은 도 5에 도시된 손가락 끝점 정보 검출부(25)의 동작 설명에 채용되는 도면이다.FIG. 5 is an internal configuration view of the virtual space multi-touch recognition unit 20 shown in FIG. 3, and FIG. 6 is a view showing an example of a joint position applied when tracking a body joint in the body joint tracking unit 22 shown in FIG. And FIG. 7 is a diagram used for explaining the operation of the finger endpoint information detecting unit 25 shown in FIG.

가상 공간 멀티 터치 인식부(20)는 컬러영상/깊이정보 획득부(21), 신체 관절 추적부(22), 다수 사용자 처리부(23), 손 영역 검출부(24), 손가락 끝점 정보 검출부(25), 가상 터치 인식부(26), 및 멀티 터치 제스쳐 인식부(27)를 포함한다.The virtual space multi-touch recognition unit 20 includes a color image / depth information acquisition unit 21, a body joint tracking unit 22, a multiple user processing unit 23, a hand area detection unit 24, a finger end point information detection unit 25, A virtual touch recognition unit 26, and a multi-touch gesture recognition unit 27. [

컬러영상/깊이정보 획득부(21)는 사용자를 촬영함에 따른 해당 사용자에 대한 컬러영상 및 깊이정보를 획득한다. 다시 말해서, 컬러영상/깊이정보 획득 장비(도시 생략)를 활용하는 컬러/깊이정보 획득부(21)는 사용자의 상반신이 충분히 획득될 수 있는 임의의 위치에 부착된 컬러영상/깊이정보 획득 장비를 활용하여 사용자의 컬러영상 및 깊이정보를 획득할 수 있다. 일실시예로 본 발명의 실시예에서는 마이크로소프트(Microsoft)사의 키넥트(Kinect)를 사용하였다. 이 장비를 활용함으로써 깊이정보뿐만 아니라 그에 해당하는 컬러영상을 동시에 획득할 수 있다. 이때, 컬러영상을 획득하는 CMOS 센서(도시 생략)와 깊이정보 획득 모듈(도시 생략)의 고정된 상대적 위치관계를 통해 컬러영상과 깊이정보가 캘리브레이션(calibration)된 값을 실시간으로 제공해준다. 여기서, CMOS 센서와 깊이정보 획득 모듈은 도시하지 않았지만, 키넥트(Kinect)에 설치되어 있는 것으로 이해하면 된다.The color image / depth information obtaining unit 21 obtains the color image and depth information for the user according to the photographing of the user. In other words, the color / depth information acquiring unit 21 utilizing the color image / depth information acquiring apparatus (not shown) includes a color image / depth information acquiring apparatus attached at an arbitrary position where the user's upper body can be sufficiently obtained The color image and the depth information of the user can be obtained. In one embodiment of the present invention, Kinect, a Microsoft company, was used. By using this equipment, not only the depth information but also corresponding color images can be acquired at the same time. At this time, a calibrated value of color image and depth information is provided in real time through a fixed relative positional relationship between a CMOS sensor (not shown) for acquiring a color image and a depth information acquiring module (not shown). Here, although not shown, the CMOS sensor and the depth information acquisition module are understood to be installed in a Kinect.

신체 관절 추적부(22)는 컬러영상/깊이정보 획득부(21)로부터의 컬러영상 및 깊이정보를 근거로 해당 사용자의 전신 관절에 대한 회전 및 움직임을 추적한다. 다시 말해서, 신체 관절 추적부(22)는 키넥트(Kinect)와 Kinect SDK 또는 OpenNI 라이브러리를 활용하여 키넥트 앞에 선 사용자의 컬러영상 및 깊이정보를 동시에 획득할 수 있다. 뿐만 아니라 신체 관절 추적부(22)는 사용자의 전신 관절에 대한 회전 및 위치 움직임 정보를 실시간으로 제공받을 수 있다. 예를 들어, 신체 관절 추적부(22)는 도 6에 예시된 바와 같이 머리, 목, 어깨, 팔꿈치, 무릎 등 15관절의 위치와 회전값을 30fps의 속도로 얻을 수 있다.The body joint tracking unit 22 tracks the rotation and movement of the user's body joint based on the color image and the depth information from the color image / depth information obtaining unit 21. [ In other words, the body joint tracker 22 can simultaneously acquire the color image and the depth information of the user in front of the keynote using the Kinect and the Kinect SDK or the OpenNI library. In addition, the body joint tracking unit 22 can receive rotation and position motion information of the user's whole body joint in real time. For example, as illustrated in FIG. 6, the body joint tracker 22 can obtain the positions and the rotation values of 15 joints such as head, neck, shoulder, elbow, and knee at a speed of 30 fps.

다수 사용자 처리부(23)는 컬러영상 및 깊이정보를 근거로 다수 사용자중에서 가장 전방에 위치한 사용자를 주 사용자로 선정한다. 다시 말해서, 다수 사용자 처리부(23)는 Kinect SDK 또는 OpenNI에서 제공하는 사용자 검출 정보(예컨대, 컬러영상 및 깊이정보)를 바탕으로 검출된 다수 사용자 가운데 가장 전방에 위치한 사용자를 주 사용자로 선정하여 동시 발생하거나 방해가 되는 제스쳐를 사전에 차단할 수 있다. 다수 사용자 처리부(23)는 사용자로 검출된 영역 내 신체 관절 추적 결과의 토소(torso) 값을 획득하여 가장 작은 깊이값을 가지는 사용자를 주 사용자로 선정한다. 제스쳐를 입력하는 사용자가 한 명이거나 두 명 이상일 수 있는데, 두 명 이상인 경우에는 가장 전방에 위치한 사용자의 제스쳐를 선별하여 멀티 터치 인터랙션을 수행하고자 하기 위함이다.The multi-user processing unit 23 selects the most forward user among the plurality of users as the main user based on the color image and the depth information. In other words, the multi-user processing unit 23 selects the most forward user among the plurality of users detected based on the user detection information (for example, color image and depth information) provided by the Kinect SDK or OpenNI as a main user, Or interfere with the gesture can be blocked in advance. The multiple user processing unit 23 obtains the torso value of the body joint tracking result in the region detected by the user and selects the user having the smallest depth value as the main user. If there are two or more users who input a gesture, the gesture of the frontmost user is selected to perform the multi-touch interaction.

손 영역 검출부(24)는 컬러영상 및 깊이정보를 근거로 해당 사용자의 손 영역을 검출한다. 다시 말해서, 손 영역 검출부(24)는 컬러영상 및 깊이정보로부터 사용자의 손 위치를 매 프레임마다 검출하여 사용자의 양손을 추적한다. 컬러영상 및 깊이정보를 근거로 사용자의 손 위치를 검출하는 일실시예로 본 발명의 실시예에서는 신체 관절 추적부(22)에서 획득한 사용자 전신 추적 결과값을 기반으로 손영역을 검출한다. 즉, 손 영역 검출부(24)는 깊이영상(즉, 깊이정보를 포함하는 영상)에서 추적된 손 좌표를 중심으로 일정 크기의 영역 내에 있는 픽셀 중 깊이값이 임계치보다 작은 값을 가지는 픽셀을 모아 손 영역을 검출한다.The hand region detection unit 24 detects the hand region of the user based on the color image and the depth information. In other words, the hand region detection unit 24 detects the position of the user's hand from the color image and depth information every frame and tracks both hands of the user. In an embodiment of the present invention, a hand region is detected on the basis of a user's whole body tracking result value acquired by the body joint tracking unit 22. That is, the hand region detecting unit 24 collects pixels having a depth value smaller than the threshold value among the pixels within a predetermined size region centering on the hand coordinates tracked in the depth image (i.e., the image including the depth information) Area.

또다른 일 실시예로, 손 영역 검출부(24)는 컬러영상에서 얼굴을 검출한 후, 얼굴의 3차원 위치 정보를 바탕으로 얼굴과 손과의 3차원 위치에 관한 사전지식을 활용하여 검출할 수 있다. 즉, 얼굴 검출후 손 검출시, 얼굴에서 전방으로 제 1 임계값 이상 떨어지고 최대한 손을 뻗었을 때 손과 얼굴간의 z축 거리를 제 2 임계값으로 설정하여 이 영역 내에 위치하는 객체를 손 후보군으로 선정한다. 이 후보군을 기준으로 연결 요소(connected component) 기법을 이용하여 데이터들을 연결시켜 준다. 최종적으로 영역 내 가장 큰 2개의 요소(component)를 손이라고 가정한다. 이때 검출된 영역에서 팔 영역을 최소화하기 위해 카메라로부터 가장 가까운 손의 깊이로부터 임계값 이하의 영역만을 손 영역으로 검출한다.In another embodiment, the hand region detection unit 24 detects a face in a color image, and then detects the face using the prior knowledge of the three-dimensional position of the face and the hand based on the three-dimensional position information of the face have. That is, when the hand is detected after detecting the face, the distance between the hand and the face is set to the second threshold value when the hand reaches the first threshold value from the face forward to the maximum, and the object positioned in this area is selected as the hand candidate . Connected data is connected using the connected component method based on this candidate group. Finally, the two largest components in the region are assumed to be hands. At this time, in order to minimize the arm region in the detected region, only the region below the threshold value is detected as the hand region from the depth of the hand closest to the camera.

손가락 끝점 정보 검출부(25)는 손 영역 검출부(24)에 의해 검출되는 손 영역의 손 윤곽선상에 존재하는 픽셀의 곡률 계산값으로부터 손가락 끝점을 검출한다. 다시 말해서, 손가락 끝점 정보 검출부(25)는 손가락이 가늘고 긴 형태학적 사전 지식을 활용하여 손 윤곽선 상에 존재하는 픽셀의 곡률 계산값으로부터 손가락 끝점을 검출한다. 일실시예로, 검출된 손 영상으로부터 손이 검출된 영역과 그렇지 않은 영역을 이진화 영상으로 변환한 후 그 윤곽선(즉, 손가락 윤곽선을 포함하는 손 윤곽선)을 검출하고, 검출된 손 윤곽선을 따라 존재하는 각 픽셀에서 양방향으로 떨어진 각각의 픽셀간의 방향벡터를 계산하여 두 방향벡터의 각도가 임계치 이상이 되면 손가락 끝점의 후보로 인식한다. 아래의 수학식 1은 손 윤곽선을 이루는 두 벡터의 각도를 구하는 수식이다.The finger end point information detection unit 25 detects a finger end point from the calculated curvature of a pixel existing on the hand outline of the hand region detected by the hand region detection unit 24. [ In other words, the finger end-point information detecting unit 25 detects the finger end point from the curvature calculation value of the pixel existing on the hand contour by utilizing the morphological prior knowledge of the finger. In one embodiment, after detecting a hand region from a detected hand image and converting the region into a binary image, the contour (i.e., the hand contour including the finger contour) is detected, and the detected contour And calculates the direction vector between each pixel separated in both directions in each pixel, and if the angle of the two direction vectors becomes equal to or more than the threshold, it is recognized as a candidate of the finger end point. Equation 1 below is a formula for obtaining the angles of two vectors forming a hand contour.

Figure pat00001
Figure pat00001

수학식 1에서, P는 손 윤곽선(보다 구체적으로는 손가락 윤곽선) 상의 한점을 의미하고, Pi(i=1, 2)는 곡률을 계산하려는 손가락 윤곽선 상의 한 점에서 일정 거리만큼 서로 반대 방향으로 떨어져 있는 윤곽선 상의 두 점을 의미한다. θ는

Figure pat00002
Figure pat00003
가 이루는 각도를 의미한다. P (i = 1, 2) denotes a point on the contour of the finger to which the curvature is to be calculated, and P (i = 1, 2) Means two points on the outline. θ is
Figure pat00002
Wow
Figure pat00003
.

손가락 끝점 후보가 손가락 윤곽선의 픽셀을 따라 연속하여 나타날 경우 연속된 픽셀들 중 중간에 위치한 픽셀을 손가락 끝점으로 설정한다. If the finger endpoint candidate appears consecutively along the pixel of the finger contour, the pixel located in the middle of the consecutive pixels is set as the finger endpoint.

이렇게 검출된 손가락 끝점의 깊이값을 컬러영상/깊이정보 획득부(21)에서 얻어진 깊이맵에 해당 좌표를 대응하여 획득할 수 있으나, 윤곽선 부분의 깊이값은 윤곽선에서 발생하는 깊이값의 불연속성으로 인해 충분히 신뢰할 수 없다. 또한, 본 발명의 일실시예로 제시한 컬러영상/깊이정보 획득 장치인 키넥트는 깊이맵의 윤곽선이 정밀하지 못해 더욱 그러하다. 이러한 문제를 개선하기 위하여 본 발명의 실시예에서는 도 7에 예시한 바와 같이 손가락 끝점의 2차원 좌표를 중심으로 일정 크기의 관심영역(21a)을 설정하고 컬러영상/깊이정보 획득부(21)에서 얻어진 깊이맵으로부터 관심영역(21a)내의 배경을 제외한 손 영역의 깊이값 평균을 구하여 이를 손가락 끝점(21b)의 깊이 정보로 대응시킨다. 도 7의 (a)는 카메라를 통해 촬영된 컬러영상의 예이다. 도 7의 (b)는 도 7의 (a)에서 관심영역(21a)으로 설정되는 부분을 예시한 도면이다. 도 7의 (c)는 도 7의 (b)에서 손가락 끝점(21b)을 예시한 도면이다.The detected depth values of the fingertip points can be obtained in correspondence with the corresponding coordinates in the depth map obtained by the color image / depth information obtaining section 21, but the depth values of the outline portions can be obtained due to the discontinuity of the depth values occurring in the outline It is not reliable enough. Further, the color image / depth information acquiring device, which is an embodiment of the present invention, is not so precise because the outline of the depth map is not precise. In order to solve such a problem, in the embodiment of the present invention, as shown in FIG. 7, the interest area 21a having a certain size is set around the two-dimensional coordinate of the finger end point, and the color image / depth information obtaining unit 21 The depth value average of the hand region excluding the background in the ROI 21a is obtained from the obtained depth map and is corresponded to the depth information of the finger end point 21b. 7A is an example of a color image photographed through a camera. FIG. 7B is a diagram illustrating a portion set as the region of interest 21a in FIG. 7A. Fig. 7C is a diagram illustrating the finger end point 21b in Fig. 7B.

가상 터치 인식부(26)는 손가락 끝점 정보 검출부(25)로부터의 정보를 근거로 사용자가 가상 영상을 터치하였는지를 인식한다. 다시 말해서, 가상 터치 인식부(26)는 사용자가 설정해둔 가상 영상(보다 구체적으로는 가상 평면)을 손가락으로 터치했는지 여부를 인식한다. 먼저, 가상 평면을 설정할 수 있는 파라미터를 제시한다. 키넥트로부터 Z축 방향으로 얼마나 떨어졌는지, X축을 중심으로 평면이 얼마만큼 기울어졌는지를 사용자가 자유롭게 설정할 수 있도록 파라미터로 제시한다. 이렇게 제시되는 가상 평면은 하나만 존재할 수도 있고, 경우에 따라서는 사용자를 둘러싼 다수의 평면으로 표현될 수도 있다. 다수의 평면으로 표현하기 위하여 사용자 또는 키넥트를 중심으로 X, Y, Z 방향으로 원하는 공간만큼의 영역을 나누어 각 영역마다 가상 평면 설정 파라미터를 통해 평면을 설정할 수 있다. 사용자가 손가락을 뻗어 가상 평면을 터치하는 경우 손가락 끝점의 3차원 좌표가 가상 평면으로 인해 나누어지는 두 공간 중 한 공간에서 다른 공간으로 넘어가게 되는데, 이와 같이 공간을 넘어간 경우 사용자가 가상 평면을 터치했음으로 인식할 수 있다.The virtual touch recognition unit 26 recognizes whether the user has touched the virtual image based on the information from the finger end point information detection unit 25. [ In other words, the virtual-touch recognition unit 26 recognizes whether or not the virtual image (more specifically, the virtual plane) set by the user is touched with a finger. First, a parameter to set the virtual plane is presented. The parameters are presented to allow the user to freely set how much the plane deviates about the X axis from the Kinect in the Z axis direction. Only one virtual plane may be present, and in some cases it may be represented by a plurality of planes surrounding the user. In order to represent a plurality of planes, it is possible to divide an area corresponding to a desired space in the X, Y, and Z directions around the user or the key knot, and set the plane through the virtual plane setting parameter for each area. When a user extends a finger and touches the virtual plane, the three-dimensional coordinates of the finger end point are passed from one space to another space divided by the virtual plane. If the user goes beyond the space, the virtual plane is touched .

멀티 터치 제스쳐 인식부(27)는 신체 관절 추적부(22)의 결과 및 가상 터치 인식부(26)의 결과에 근거하여 사용자가 가상 영상에 손가락을 터치한 터치 포인트에 대한 해당 사용자의 제스쳐를 인식한다. The multi-touch gesture recognition unit 27 recognizes the user's gesture with respect to the touch point on which the user has touched the virtual image based on the result of the body joint tracking unit 22 and the result of the virtual touch recognition unit 26 do.

이번에는, 도 8의 플로우차트를 참조하여, 본 발명의 실시예에 따른 가상 공간 멀티 터치 인터랙션 방법을 설명한다.Next, a virtual space multi-touch interaction method according to an embodiment of the present invention will be described with reference to the flowchart of Fig.

먼저, S10에서, 착용형 디스플레이 가시화부(10)는 사용자의 시각 공간에 입체 영상 콘텐츠를 가시화시킨다.First, in S10, the wearable display visualization unit 10 visualizes the stereoscopic image content in the user's visual space.

이어, S20에서, 사용자가 자신의 주변에 존재하는 가상 콘텐츠(예; 3차원 메뉴)를 손가락으로 터치하여 소정의 제스쳐를 입력한다.Then, in S20, the user inputs a predetermined gesture by touching a virtual content (e.g., a three-dimensional menu) existing in the vicinity of the user with a finger.

그에 따라, S30에서, 가상 공간 멀티 터치 인식부(20)는 착용형 디스플레이 가시화부(10)를 통해 가시화되는 가상 영상에 대한 사용자의 멀티 터치를 인식하고, 그 결과를 터치 피드백 제공부(30)에게로 보낸다.Accordingly, in S30, the virtual space multi-touch recognition unit 20 recognizes the user's multi-touch on the virtual image visualized through the wearable display visualization unit 10 and outputs the result to the touch feedback providing unit 30, .

S40에서, 터치 피드백 제공부(30)는 가상 공간 멀티 터치 인식부(20)에서 최종적으로 획득한 인식 결과에 따른 터치 피드백을 제공한다. 예를 들어, 손목에 착용하는 스마트 기기 기반의 와치와 같은 장치를 이용하여 진동과 같은 효과를 통해 터치 피드백을 제공함으로써, 인터랙티브 실감 콘텐츠를 제공할 수 있게 된다.In step S40, the touch feedback providing unit 30 provides touch feedback according to the recognition result finally obtained by the virtual space multi-touch recognizing unit 20. [ For example, interactive feedback can be provided by providing touch feedback through effects such as vibration using a device such as a smart device-based watch that is worn on the wrist.

도 9는 도 8에 도시된 가상 공간 멀티 터치 인식 과정(S30)을 세부적으로 설명하는 플로우차트이다.FIG. 9 is a flowchart detailing the virtual space multi-touch recognition process (S30) shown in FIG.

사용자 제스쳐가 입력(S20)됨에 따라, S31에서 컬러영상/깊이정보 획득부(21)는 사용자의 상반신이 충분히 획득될 수 있는 임의의 위치에 부착된 컬러영상/깊이정보 획득 장비를 활용하여 사용자를 촬영한 컬러영상 및 깊이정보를 획득한다.As the user gesture is input S20, the color image / depth information obtaining unit 21 in S31 utilizes the color image / depth information obtaining apparatus attached at an arbitrary position where the upper half of the user can be sufficiently obtained, And acquires the captured color image and depth information.

S32에서, 신체 관절 추적부(22)는 키넥트(Kinect)와 Kinect SDK 또는 OpenNI 라이브러리를 활용하여 키넥트 앞에 선 사용자의 컬러영상 및 깊이정보를 획득할 뿐만 아니라, 사용자의 전신 관절에 대한 회전 및 위치 움직임 정보를 실시간으로 제공받는다.At S32, the body joint tracker 22 acquires the color image and depth information of the user in front of the keynote using the Kinect and the Kinect SDK or the OpenNI library, and rotates and rotates the user ' Location motion information is provided in real time.

이어, S33에서, 다수 사용자 처리부(23)는 동시에 발생하는 제스쳐 또는 방해가 되는 제스쳐를 사전에 차단하기 위해, Kinect SDK 또는 OpenNI에서 제공하는 사용자 검출 정보(예컨대, 컬러영상 및 깊이정보)를 바탕으로 검출된 다수 사용자 가운데 가장 전방에 위치한 사용자를 주 사용자로 선정한다.Then, in step S33, the multi-user processing unit 23 determines whether or not the user detection information (for example, the color image and the depth information) provided by the Kinect SDK or OpenNI to block the gesture or obstructing gesture occurring at the same time And selects the most forward user among the detected multiple users as the main user.

S34에서, 손 영역 검출부(24)는 주 사용자의 컬러영상 및 깊이정보로부터 해당 주 사용자의 손 영역을 매 프레임마다 검출한다.In S34, the hand region detecting section 24 detects the hand region of the corresponding main user from each color image and depth information of the main user every frame.

이후, S35에서, 손가락 끝점 정보 검출부(25)는 손가락이 가늘고 긴 형태학적 사전 지식을 활용하여 손 윤곽선 상에 존재하는 픽셀의 곡률 계산값으로부터 손가락 끝점을 검출한다.Then, in S35, the finger endpoint information detection unit 25 detects a finger end point from the curvature calculation value of the pixel existing on the hand contour by utilizing the morphological prior knowledge of the finger.

S36에서, 가상 터치 인식부(26)는 해당 사용자(즉, 주 사용자)가 설정해둔 가상 평면을 손가락으로 터치하였는지를 인식하고, 그 결과를 멀티 터치 제스쳐 인식부(27)에게로 보낸다.In step S36, the virtual touch recognition unit 26 recognizes whether the virtual plane set by the user (i.e., the main user) has been touched with a finger, and sends the result to the multi-touch gesture recognition unit 27. [

터치가 발생한 것으로 인식된 경우, S37에서 멀티 터치 제스쳐 인식부(27)는 다수의 터치 포인트를 근거로 해당 사용자가 의도한 제스쳐가 어떤 것인지를 판단한다.If it is recognized that a touch has occurred, the multi-touch gesture recognition unit 27 determines in step S37 whether the gesture is intended by the user based on the plurality of touch points.

마지막으로, S38에서, 멀티 터치 제스쳐 인식부(27)는 인식 결과에 상응하는 터치 피드백을 사용자에게 제공할 수 있도록 하기 위해, 인식 결과를 터치 피드백 제공부(30)에게로 보낸다.Finally, in step S38, the multi-touch gesture recognition unit 27 sends the recognition result to the touch feedback providing unit 30 so that the touch feedback corresponding to the recognition result can be provided to the user.

도 10은 도 9에 도시된 멀티 터치 제스쳐 인식 과정(S37)을 세부적으로 설명하는 플로우차트이다.FIG. 10 is a flowchart detailing the multi-touch gesture recognition process (S37) shown in FIG.

먼저, 멀티 터치 제스쳐 인식부(27)는 터치 포인트가 하나인지 두 개 이상의 다수의 터치 포인트인지를 판별한다(S50). 멀티 터치 제스쳐 인식부(27)에서 사용하는 인식 파라미터들로는 터치 지속시간, 움직임 허용 오차, 움직임 모멘텀 벡터, 터치 포인트간 거리, 터치 포인트 간 중점 기울기 등을 사용한다. First, the multi-touch gesture recognition unit 27 determines whether there is one touch point or two or more touch points (S50). The recognition parameters used in the multi-touch gesture recognition unit 27 include a touch duration, a motion tolerance, a motion momentum vector, a distance between touch points, and a midpoint slope between touch points.

만약, 터치 포인트가 하나일 경우 미리 정해진 터치 지속시간(th1, th2) 및 관심 객체의 터치 판별 영역(터치 평면 영역)을 기준으로 클릭 제스쳐와 더 많은 지속시간을 가지는 지속적 누름(Press and Hold)인지를 판별한다. 여기서, 터치 지속시간(th1)이 예를 들어 1초로 정해졌다면 터치 지속시간(th2)은 예를 들어 3초로 정해질 수 있다. 터치 지속시간(th1, th2)은 필요에 따라 조정가능하다. 그에 따라, 터치가 터치 지속시간(th1)과 터치 지속시간(th2) 동안에 행해지고 해당 터치 포인트가 관심 객체의 터치 판별 영역내에 존재한다면(S51 ~ S53) 해당 사용자의 제스쳐는 클릭 제스쳐인 것으로 판별한다(S54). 한편, 해당 터치 포인트가 관심 객체의 터치 판별 영역내에 존재하지만 터치가 터치 지속시간(th2)보다 오래 행해지고 있다면 지속적 누름(Press and Hold)으로 판별한다(S55).If there is one touch point, it is determined whether or not the touch gesture and the press gesture are pressed and held based on the predetermined touch duration (th1, th2) and the touch discrimination area (touch plane area) . Here, if the touch duration time th1 is set to, for example, 1 second, the touch duration time th2 may be set to, for example, 3 seconds. The touch duration (th1, th2) can be adjusted as needed. Accordingly, the touch is performed during the touch duration time th1 and the touch duration time th2, and if the touch point exists within the touch discrimination area of the object of interest (S51 to S53), the gesture of the user is determined to be a click gesture S54). On the other hand, if the touch point exists in the touch discrimination area of the object of interest, but the touch is performed longer than the touch duration time th2, it is determined that the touch point is pressed and held (S55).

또한, 단일 터치 포인트 제스쳐중에 해당 터치가 터치 지속시간(th1)보다 짧게 행해지고 해당 터치 또는 터치 포인트에 대한 움직임 허용 오차가 특정값(th3) 이상이며 터치 포인트가 이동중일 경우(S51, S56, S57)에는 움직임 모멘텀 벡터 파라미터를 기준으로 가벼운 빠른 움직임이면(S58) 플릭(flick) 제스쳐로 판별한다(S59). 여기서, 플릭(flick)은 짧고 빠른 직선적 이동을 의미한다고 볼 수 있으므로, 플릭(flick) 제스쳐는 사용자가 손가락을 사용하여 짧고 빠르게 직선적 이동을 행하는 행위를 의미한다고 할 수 있다. 한편, 단일 터치 포인트 제스쳐중에 해당 터치가 터치 지속시간(th1)보다 짧게 행해지고 해당 터치 또는 터치 포인트에 대한 움직임 허용 오차가 특정값(th3) 이상이며 터치 포인트가 이동중일 경우(S51, S56, S57)에는 움직임 모멘텀 벡터 파라미터를 기준으로 일정한 모멘텀으로 움직이면(S58) 드래그 제스쳐로 판별한다(S60). 더욱 안정한 드래그와 플릭 제스쳐 판별을 위해서는 가상 평면과 손가락 끝점의 침투 깊이를 반영하는 방법도 있다. If the corresponding touch is made shorter than the touch duration t1 and the motion tolerance for the touch or touch point is greater than or equal to a specific value th3 and the touch point is moving (S51, S56, S57) (S58), it is determined as a flick gesture based on the motion momentum vector parameter (S59). Here, since a flick can be regarded as a short and fast linear movement, a flick gesture can be said to mean a movement in which a user performs a short and fast linear movement using a finger. If the touch is made shorter than the touch duration t1 and the motion tolerance for the touch or touch point is greater than or equal to a specific value th3 and the touch point is moving (S51, S56, S57) (S58), the drag gesture is determined (S60). For more stable drag and flick gesture discrimination, there is also a way to reflect the penetration depth of the virtual plane and fingertip.

한편, 터치 포인트가 두 개 이상의 경우(예컨대, 두 개), 해당 터치들 또는 터치 포인트들에 대한 움직임 허용 오차가 특정값(th3) 이하이면(S61에서 "No") 투핑거 탭 제스쳐로 판별한다(S62).On the other hand, if there are two or more touch points (for example, two) and the motion tolerance for the corresponding touches or touch points is less than the specific value th3 ("No" in S61) (S62).

그리고, 터치 포인트가 두 개 이상의 경우, 해당 터치들 또는 터치 포인트들에 대한 움직임 허용 오차가 특정값(th3) 이상일 경우는 터치 포인트간 거리에 따라 줌인, 줌아웃으로 판별한다. 다시 말해서, 해당 터치들 또는 터치 포인트들에 대한 움직임 허용 오차가 특정값(th3) 이상이고(S61에서 "Yes") 터치 포인트간의 거리가 넓어지게 되면(S63에서 "Yes") 줌인 제스쳐로 판별한다(S64). 해당 터치들 또는 터치 포인트들에 대한 움직임 허용 오차가 특정값(th3) 이상이고(S61에서 "Yes") 터치 포인트간의 거리가 짧아지면(S63에서 "No") 줌아웃 제스쳐로 판별한다(S65). If there are two or more touch points and the motion tolerance for the corresponding touches or touch points is equal to or greater than the specific value th3, it is determined by zooming in or zooming out according to the distance between the touch points. In other words, when the movement tolerance for the corresponding touches or touch points is equal to or greater than the specific value th3 ("Yes" at S61) and the distance between the touch points becomes wider ("Yes" at S63) (S64). If the movement tolerance for the corresponding touches or touch points is equal to or greater than the specific value th3 ("Yes" in S61) and the distance between the touch points becomes shorter ("No" in S63), it is determined as a zoom-out gesture (S65).

또한, 터치 포인트가 두 개 이상이고 해당 터치들 또는 터치 포인트들에 대한 움직임 허용 오차가 특정값(th3) 이상인 상태에서, 터치 포인트간 중점 기울기를 매 프레임마다 측정(S66)하여 멀티터치 회전 제스쳐에 반영한다(S67). In addition, when there are two or more touch points and the motion tolerance for the corresponding touches or touch points is equal to or greater than the specific value th3, a midpoint tilt between touch points is measured for each frame (S66) (S67).

이상에서와 같이 도면과 명세서에서 최적의 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로, 본 기술 분야의 통상의 지식을 가진자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.As described above, an optimal embodiment has been disclosed in the drawings and specification. Although specific terms have been employed herein, they are used for purposes of illustration only and are not intended to limit the scope of the invention as defined in the claims or the claims. Therefore, those skilled in the art will appreciate that various modifications and equivalent embodiments are possible without departing from the scope of the present invention. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

10 : 착용형 디스플레이 가시화부
20 : 가상 공간 멀티 터치 인식부
21 : 컬러영상/깊이정보 획득부 22 : 신체 관절 추적부
23 : 다수 사용자 처리부 24 : 손 영역 검출부
25 : 손가락 끝점 정보 검출부 26 : 가상 터치 인식부
27 : 멀티 터치 제스쳐 인식부
30 : 터치 피드백 제공부
10: Wearable display visualization part
20: virtual space multi-touch recognition unit
21: color image / depth information acquisition unit 22: body joint tracking unit
23: multiple user processing unit 24: hand area detecting unit
25: finger end point information detection unit 26: virtual touch recognition unit
27: Multi-touch gesture recognition unit
30:

Claims (17)

가상 영상을 출력하는 가시화부;
상기 가시화부를 통해 가시화되는 가상 영상에 대한 사용자의 손가락 끝점 검출 및 움직임 검출을 통해 멀티 터치를 인식하는 가상 공간 멀티 터치 인식부; 및
상기 가상 공간 멀티 터치 인식부에 의해 인식된 사용자의 멀티 터치에 상응하는 터치 피드백을 제공하는 터치 피드백 제공부;를 포함하는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 장치.
A visualization unit for outputting a virtual image;
A virtual space multi-touch recognition unit for recognizing a multi-touch through a user's fingertip detection and motion detection of a virtual image visualized through the visualization unit; And
And a touch feedback unit for providing touch feedback corresponding to the multi-touch of the user recognized by the virtual space multi-touch recognition unit.
청구항 1에 있어서,
상기 가상 공간 멀티 터치 인식부는,
상기 사용자를 촬영함에 따른 컬러영상 및 깊이정보를 획득하는 컬러영상/깊이정보 획득부;
상기 사용자의 전신 관절에 대한 회전 및 움직임을 추적하는 신체 관절 추적부;
상기 컬러영상 및 깊이정보로부터 해당 사용자의 손 영역을 검출하는 손 영역 검출부;
상기 손 영역 검출부에 의해 검출되는 손 영역의 손 윤곽선상에 존재하는 픽셀의 곡률 계산값으로부터 손가락 끝점을 검출하는 손가락 끝점 정보 검출부;
상기 손가락 끝점 정보 검출부로부터의 정보를 근거로 상기 사용자가 상기 가상 영상을 터치하였는지를 인식하는 가상 터치 인식부; 및
상기 신체 관절 추적부의 결과 및 상기 가상 터치 인식부의 결과에 근거하여 상기 사용자가 상기 가상 영상에 손가락을 터치한 터치 포인트에 대한 해당 사용자의 제스쳐를 인식하는 멀티 터치 제스쳐 인식부;를 포함하는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 장치.
The method according to claim 1,
Wherein the virtual space multi-
A color image / depth information acquisition unit for acquiring color image and depth information as the user photographs;
A body joint tracker for tracking the rotation and movement of the user's body joint;
A hand region detecting unit for detecting a hand region of the user from the color image and the depth information;
A finger end point information detecting unit for detecting a finger end point from a calculated curvature value of a pixel existing on a hand outline of a hand region detected by the hand region detecting unit;
A virtual touch recognition unit for recognizing whether the user has touched the virtual image based on information from the finger end point information detection unit; And
And a multi-touch gesture recognition unit for recognizing a gesture of the user corresponding to the touch point on which the user has touched the virtual image based on the result of the body joint tracking unit and the result of the virtual touch recognition unit Virtual space multi-touch interaction device.
청구항 2에 있어서,
상기 손 영역 검출부는 상기 컬러영상 및 깊이정보에 대해 상기 신체 관절 추적부에서 획득한 추적 결과값을 기반으로 손 영역을 검출하되, 상기 깊이정보를 근거로 추적된 손 좌표를 중심으로 일정 크기의 영역내에 있는 픽셀중 깊이값이 임계치보다 작은 값을 가지는 픽셀을 모아 손 영역을 검출하는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 장치.
The method of claim 2,
Wherein the hand region detection unit detects a hand region on the basis of the tracking result value acquired by the body joint tracking unit with respect to the color image and the depth information, Detecting a hand region by collecting pixels having a depth value smaller than a threshold value among the pixels in the virtual space.
청구항 2에 있어서,
상기 손 영역 검출부는 상기 컬러영상 및 깊이정보에 대해 상기 신체 관절 추적부에서 획득한 추적 결과값을 기반으로 손 영역을 검출하되, 상기 컬러영상에서 얼굴을 검출한 후 얼굴의 3차원 위치 정보를 바탕으로 얼굴과 손과의 3차원 위치에 관한 사전지식을 활용하여 검출하는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 장치.
The method of claim 2,
Wherein the hand region detection unit detects a hand region based on a tracking result value obtained by the body joint tracker with respect to the color image and depth information, detects a face from the color image, Dimensional space between the face and the hand by using a prior knowledge about the three-dimensional position of the face and the hand.
청구항 2에 있어서,
상기 손가락 끝점 정보 검출부는, 상기 검출된 손 영역의 손 윤곽선을 따라 존재하는 각 픽셀에서 양방향으로 떨어진 각각의 픽셀간의 방향벡터를 계산하여 두 방향벡터의 각도가 임계치 이상이 되면 손가락 끝점의 후보로 인식하고, 상기 인식된 손가락 끝점의 후보의 좌표를 중심으로 관심영역을 설정하고 상기 컬러영상/깊이정보 획득부에서 얻어진 깊이맵으로부터 상기 관심영역 내 배경을 제외한 손 영역의 깊이값 평균을 구하여 이를 손가락 끝점의 깊이 정보로 대응시키는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 장치.
The method of claim 2,
The fingertip information detecting unit calculates a direction vector between each pixel separated in both directions in each pixel existing along the hand contour of the detected hand region, and when the angle of the two direction vectors is equal to or more than the threshold value, Sets a region of interest centered on the coordinates of the recognized finger endpoint, obtains an average depth value of a hand region excluding a background in the region of interest from a depth map obtained by the color image / depth information obtaining unit, With the depth information of the virtual space.
청구항 2에 있어서,
상기 멀티 터치 제스쳐 인식부는 터치 지속시간, 움직임 허용 오차, 움직임 모멘텀 벡터, 터치 포인트간 거리, 및 터치 포인트 간 중점 기울기를 인식 파라미터로 사용하는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 장치.
The method of claim 2,
Wherein the multi-touch gesture recognition unit uses a touch duration, a motion tolerance, a motion moment vector, a distance between touch points, and a midpoint slope between touch points as recognition parameters.
청구항 2에 있어서,
상기 가상 공간 멀티 터치 인식부는,
상기 컬러영상 및 깊이정보를 근거로 다수 사용자중에서 가장 전방에 위치한 사용자를 주 사용자로 선정하는 다수 사용자 처리부를 추가로 포함하는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 장치.
The method of claim 2,
Wherein the virtual space multi-
Further comprising a multi-user processing unit for selecting a user positioned at the forefront among a plurality of users as a main user based on the color image and the depth information.
청구항 1에 있어서,
상기 가시화부는 얼굴 착용형 입체 디스플레이로 구성되는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 장치.
The method according to claim 1,
Wherein the visualization unit comprises a face wearable stereoscopic display.
청구항 1에 있어서,
상기 터치 피드백 제공부는 무선 통신을 통해 해당 사용자에게 촉각 피드백을 제공하는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 장치.
The method according to claim 1,
Wherein the touch feedback providing unit provides tactile feedback to the user through wireless communication.
가상 공간 멀티 터치 인식부가, 가시화부를 통해 가시화되는 가상 영상에 대한 사용자의 손가락 끝점 검출 및 움직임 검출을 통해 멀티 터치를 인식하는 단계; 및
터치 피드백 제공부가, 상기 사용자의 멀티 터치를 인식하는 단계에 의해 인식된 사용자의 멀티 터치에 상응하는 터치 피드백을 제공하는 단계;를 포함하는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 방법.
A virtual space multi-touch recognition unit recognizing a multi-touch through a finger end point detection and motion detection of a virtual image visualized through a visualization unit; And
And providing the touch feedback providing unit with touch feedback corresponding to the multi-touch of the user recognized by the step of recognizing the multi-touch of the user.
청구항 10에 있어서,
상기 멀티 터치를 인식하는 단계는,
상기 사용자를 촬영함에 따른 컬러영상 및 깊이정보를 획득하는 단계;
상기 사용자의 전신 관절에 대한 회전 및 움직임을 추적하는 단계;
상기 컬러영상 및 깊이정보로부터 해당 사용자의 손 영역을 검출하는 단계;
상기 손 영역의 손 윤곽선상에 존재하는 픽셀의 곡률 계산값으로부터 손가락 끝점을 검출하는 단계;
상기 손가락 끝점을 검출하는 단계에 의한 정보를 근거로 상기 사용자가 상기 가상 영상을 터치하였는지를 인식하는 단계; 및
상기 회전 및 움직임을 추적하는 단계의 결과 및 상기 가상 영상을 터치하였는지를 인식하는 단계의 결과에 근거하여 상기 사용자가 상기 가상 영상에 손가락을 터치한 터치 포인트에 대한 해당 사용자의 제스쳐를 인식하는 단계;를 포함하는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 방법.
The method of claim 10,
The step of recognizing the multi-
Obtaining color image and depth information as the user photographs;
Tracking rotation and movement of the user's whole body joint;
Detecting a hand region of the user from the color image and the depth information;
Detecting a fingertip from a calculated curvature of a pixel on a hand contour line of the hand region;
Recognizing whether the user has touched the virtual image based on the information by the step of detecting the fingertip; And
Recognizing a user's gesture with respect to a touch point on which the user has touched the virtual image based on a result of the step of tracking the rotation and movement and a result of recognizing whether the virtual image is touched; Wherein the virtual space is a virtual space.
청구항 11에 있어서,
상기 손 영역을 검출하는 단계는 상기 컬러영상 및 깊이정보에 대해 상기 사용자의 전신 관절에 대한 회전 및 움직임을 추적하는 단계에서 획득한 추적 결과값을 기반으로 손 영역을 검출하되, 상기 깊이정보를 근거로 추적된 손 좌표를 중심으로 일정 크기의 영역내에 있는 픽셀중 깊이값이 임계치보다 작은 값을 가지는 픽셀을 모아 손 영역을 검출하는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 방법.
The method of claim 11,
The step of detecting the hand region may include detecting a hand region based on a tracking result value acquired in the step of tracking rotation and movement of the user's body joint with respect to the color image and depth information, Detecting a hand region by collecting pixels having a depth value smaller than a threshold value among pixels within a predetermined size region centered on the hand coordinates traced by the user.
청구항 11에 있어서,
상기 손 영역을 검출하는 단계는 상기 컬러영상 및 깊이정보에 대해 상기 사용자의 전신 관절에 대한 회전 및 움직임을 추적하는 단계에서 획득한 추적 결과값을 기반으로 손 영역을 검출하되, 상기 컬러영상에서 얼굴을 검출한 후 얼굴의 3차원 위치 정보를 바탕으로 얼굴과 손과의 3차원 위치에 관한 사전지식을 활용하여 검출하는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 방법.
The method of claim 11,
Wherein the step of detecting the hand region comprises detecting a hand region based on a tracking result value obtained in the step of tracking rotation and movement of the user's body joint with respect to the color image and depth information, And detecting the position of the virtual space using the prior knowledge of the three-dimensional position of the face and the hand based on the three-dimensional position information of the face.
청구항 11에 있어서,
상기 손가락 끝점을 검출하는 단계는 상기 검출된 손 영역의 손 윤곽선을 따라 존재하는 각 픽셀에서 양방향으로 떨어진 각각의 픽셀간의 방향벡터를 계산하여 두 방향벡터의 각도가 임계치 이상이 되면 손가락 끝점의 후보로 인식하고, 상기 인식된 손가락 끝점의 후보의 좌표를 중심으로 관심영역을 설정하고 상기 컬러영상 및 깊이정보를 획득하는 단계에서 얻어진 깊이맵으로부터 상기 관심영역 내 배경을 제외한 손 영역의 깊이값 평균을 구하여 이를 손가락 끝점의 깊이 정보로 대응시키는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 방법.
The method of claim 11,
The step of detecting the fingertip point may include calculating a direction vector between each pixel separated in both directions in each pixel existing along the hand contour of the detected hand region, and if the angle of the two directional vectors is greater than or equal to the threshold value, And sets the ROI around the coordinates of the recognized finger end point and obtains the depth value average of the hand region excluding the background in the ROI from the ROI obtained in the step of obtaining the ROI and the ROI And associating it with depth information of a finger end point.
청구항 11에 있어서,
상기 사용자의 제스쳐를 인식하는 단계는 터치 지속시간, 움직임 허용 오차, 움직임 모멘텀 벡터, 터치 포인트간 거리, 및 터치 포인트 간 중점 기울기를 인식 파라미터로 사용하는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 방법.
The method of claim 11,
Wherein the step of recognizing the user's gesture uses a touch duration, a motion tolerance, a motion momentum vector, a distance between touch points, and a midpoint slope between touch points as recognition parameters.
청구항 11에 있어서,
상기 멀티 터치를 인식하는 단계는, 상기 컬러영상 및 깊이정보를 근거로 다수 사용자중에서 가장 전방에 위치한 사용자를 주 사용자로 선정하는 단계를 추가로 포함하는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 방법.
The method of claim 11,
Wherein the step of recognizing the multi-touch further comprises the step of selecting a user positioned at the forefront among a plurality of users as a main user based on the color image and the depth information.
청구항 10에 있어서,
상기 터치 피드백을 제공하는 단계는 무선 통신을 통해 해당 사용자에게 촉각 피드백을 제공하는 것을 특징으로 하는 가상 공간 멀티 터치 인터랙션 방법.
The method of claim 10,
Wherein the step of providing the touch feedback provides tactile feedback to a user via wireless communication.
KR1020130119271A 2013-10-07 2013-10-07 virtual multi-touch interaction apparatus and method KR102147430B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130119271A KR102147430B1 (en) 2013-10-07 2013-10-07 virtual multi-touch interaction apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130119271A KR102147430B1 (en) 2013-10-07 2013-10-07 virtual multi-touch interaction apparatus and method

Publications (2)

Publication Number Publication Date
KR20150040580A true KR20150040580A (en) 2015-04-15
KR102147430B1 KR102147430B1 (en) 2020-08-24

Family

ID=53031886

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130119271A KR102147430B1 (en) 2013-10-07 2013-10-07 virtual multi-touch interaction apparatus and method

Country Status (1)

Country Link
KR (1) KR102147430B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101639065B1 (en) 2015-06-22 2016-07-13 한국과학기술연구원 System for registration of virtual space and real space, method for registering display apparatus and image sensor, and electronic device registered using the method
KR101661991B1 (en) * 2015-06-05 2016-10-04 재단법인 실감교류인체감응솔루션연구단 Hmd device and method for supporting a 3d drawing with a mobility in the mixed space
KR20160148769A (en) * 2015-06-16 2016-12-27 엘지디스플레이 주식회사 Stereoscopic image display device having function of space touch
KR101708455B1 (en) * 2015-09-08 2017-02-21 엠더블유엔테크 주식회사 Hand Float Menu System
JP2018518784A (en) * 2015-05-15 2018-07-12 アシーア インコーポレイテッドAtheer, Inc. Method and apparatus for applying free space input for surface limited control
CN109240498A (en) * 2018-08-30 2019-01-18 Oppo广东移动通信有限公司 Exchange method, device, wearable device and storage medium
KR20200001871A (en) * 2018-06-28 2020-01-07 한국과학기술연구원 System and Method for 3D Interaction Visualization of Virtual Space
CN112083801A (en) * 2020-07-24 2020-12-15 青岛小鸟看看科技有限公司 Gesture recognition system and method based on VR virtual office
KR102283301B1 (en) 2020-12-31 2021-07-29 더에이치알더 주식회사 Apparatus and Method for Providing real time comunication platform based on XR
KR20230007109A (en) * 2021-07-05 2023-01-12 주식회사 피앤씨솔루션 Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120052783A (en) * 2010-11-16 2012-05-24 한국전자통신연구원 Apparatus for managing a reconfigurable platform for virtual reality based training simulator
KR20120134488A (en) * 2011-06-02 2012-12-12 한국전자통신연구원 Method of user interaction based gesture recognition and apparatus for the same
KR20130068191A (en) * 2011-12-14 2013-06-26 한국전자통신연구원 3d interface device and method based motion tracking of user

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120052783A (en) * 2010-11-16 2012-05-24 한국전자통신연구원 Apparatus for managing a reconfigurable platform for virtual reality based training simulator
KR20120134488A (en) * 2011-06-02 2012-12-12 한국전자통신연구원 Method of user interaction based gesture recognition and apparatus for the same
KR20130068191A (en) * 2011-12-14 2013-06-26 한국전자통신연구원 3d interface device and method based motion tracking of user

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018518784A (en) * 2015-05-15 2018-07-12 アシーア インコーポレイテッドAtheer, Inc. Method and apparatus for applying free space input for surface limited control
US10032313B2 (en) 2015-06-05 2018-07-24 Center Of Human-Centered Interaction For Coexistence Head-mounted device and method of enabling non-stationary user to perform 3D drawing interaction in mixed-reality space
KR101661991B1 (en) * 2015-06-05 2016-10-04 재단법인 실감교류인체감응솔루션연구단 Hmd device and method for supporting a 3d drawing with a mobility in the mixed space
KR20160148769A (en) * 2015-06-16 2016-12-27 엘지디스플레이 주식회사 Stereoscopic image display device having function of space touch
KR101639065B1 (en) 2015-06-22 2016-07-13 한국과학기술연구원 System for registration of virtual space and real space, method for registering display apparatus and image sensor, and electronic device registered using the method
US9838587B2 (en) 2015-06-22 2017-12-05 Center Of Human-Centered Interaction For Coexistence System for registration of virtual space and real space, method for registering display apparatus and image sensor, and electronic device registered using the method
KR101708455B1 (en) * 2015-09-08 2017-02-21 엠더블유엔테크 주식회사 Hand Float Menu System
KR20200001871A (en) * 2018-06-28 2020-01-07 한국과학기술연구원 System and Method for 3D Interaction Visualization of Virtual Space
CN109240498A (en) * 2018-08-30 2019-01-18 Oppo广东移动通信有限公司 Exchange method, device, wearable device and storage medium
CN109240498B (en) * 2018-08-30 2021-08-20 Oppo广东移动通信有限公司 Interaction method and device, wearable device and storage medium
CN112083801A (en) * 2020-07-24 2020-12-15 青岛小鸟看看科技有限公司 Gesture recognition system and method based on VR virtual office
KR102283301B1 (en) 2020-12-31 2021-07-29 더에이치알더 주식회사 Apparatus and Method for Providing real time comunication platform based on XR
KR20230007109A (en) * 2021-07-05 2023-01-12 주식회사 피앤씨솔루션 Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture

Also Published As

Publication number Publication date
KR102147430B1 (en) 2020-08-24

Similar Documents

Publication Publication Date Title
KR102147430B1 (en) virtual multi-touch interaction apparatus and method
KR101791366B1 (en) Enhanced virtual touchpad and touchscreen
CN108469899B (en) Method of identifying an aiming point or area in a viewing space of a wearable display device
US9972136B2 (en) Method, system and device for navigating in a virtual reality environment
EP3311249B1 (en) Three-dimensional user input
JP5167523B2 (en) Operation input device, operation determination method, and program
EP2480955B1 (en) Remote control of computer devices
US20150220158A1 (en) Methods and Apparatus for Mapping of Arbitrary Human Motion Within an Arbitrary Space Bounded by a User's Range of Motion
CN114080585A (en) Virtual user interface using peripheral devices in an artificial reality environment
CN110647237A (en) Gesture-based content sharing in an artificial reality environment
US20140015831A1 (en) Apparatus and method for processing manipulation of 3d virtual object
US20110148755A1 (en) User interface apparatus and user interfacing method based on wearable computing environment
KR101747892B1 (en) Method of user interaction based gesture recognition and apparatus for the same
JP2010108500A (en) User interface device for wearable computing environmental base, and method therefor
US20190050132A1 (en) Visual cue system
JP6344530B2 (en) Input device, input method, and program
WO2013190538A1 (en) Method for touchless control of a device
KR20160096392A (en) Apparatus and Method for Intuitive Interaction
WO2018146922A1 (en) Information processing device, information processing method, and program
JP2010205031A (en) Method, system and program for specifying input position
TW201439813A (en) Display device, system and method for controlling the display device
JP2016126687A (en) Head-mounted display, operation reception method, and operation reception program
Cheng et al. Estimating virtual touchscreen for fingertip interaction with large displays
US20130187890A1 (en) User interface apparatus and method for 3d space-touch using multiple imaging sensors
Arslan et al. E-Pad: Large display pointing in a continuous interaction space around a mobile device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant