KR20050060606A - Device and method for interaction between human and computer - Google Patents

Device and method for interaction between human and computer Download PDF

Info

Publication number
KR20050060606A
KR20050060606A KR1020030092275A KR20030092275A KR20050060606A KR 20050060606 A KR20050060606 A KR 20050060606A KR 1020030092275 A KR1020030092275 A KR 1020030092275A KR 20030092275 A KR20030092275 A KR 20030092275A KR 20050060606 A KR20050060606 A KR 20050060606A
Authority
KR
South Korea
Prior art keywords
hand
computer interaction
image
human computer
movement
Prior art date
Application number
KR1020030092275A
Other languages
Korean (ko)
Inventor
이일로
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020030092275A priority Critical patent/KR20050060606A/en
Publication of KR20050060606A publication Critical patent/KR20050060606A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 휴먼 컴퓨터 인터렉션 장치 및 방법에 관한 것으로, 더욱 자세하게는 손바닥 전체의 영상을 획득할 수 있고 손목의 움직임에 독립적인 한 개의 영상센서와 두 개의 비접촉식 광 마커(marker)를 이용하여 3차원의 손 모양 및 손의 공간 변위를 컴퓨터로 입력할 수 있는 휴먼 컴퓨터 인터렉션 장치 및 방법에 관한 것이다.The present invention relates to a human computer interaction apparatus and method, and more particularly to a three-dimensional image using one image sensor and two non-contact optical markers capable of acquiring images of the entire palm and independent of wrist movement. A human computer interaction apparatus and method capable of inputting a hand shape and a spatial displacement of a hand into a computer.

본 발명에 따른 휴먼 컴퓨터 인터렉션(Human Computer Interation) 장치는, 임의의 이동이나 움직임에서 손 영상을 획득하는 영상 센서와, 손 끝에서부터 상기 영상 센서까지의 거리를 추정할 수 있게 비접촉식 광 마크를 손바닥위에 투사하는 광원과, 상기 영상센서를 손목의 움직임에 영향을 받지 않도록 손바닥 위에 지지해주는 지지대을 포함하는 것을 특징으로 한다.The human computer interaction apparatus according to the present invention comprises an image sensor for acquiring a hand image at any movement or movement, and a non-contact optical mark on the palm of the hand so that the distance from the fingertip to the image sensor can be estimated. And a support for supporting the light source to project and the image sensor on the palm of the hand so as not to be affected by the movement of the wrist.

또한, 본 발명에 따른 휴먼 컴퓨터 인터렉션 방법은, 손 모양 영상 데이타를 이용하여 손 모양을 추정하는 손 모양 추정 단계와, 상기 손 모양 추정 단계의 데이타를 이용하여 컴퓨터상에서 손 모양을 복원하는 손 모양 복원 단계와, 상기 손 모양 영상 데이타 중 배경 영상 데이타를 이용하여 손의 공간 변위를 추정하는 손 공간 변위 추정 단계를 포함하는 것을 특징으로 한다.In addition, the human computer interaction method according to the present invention comprises a hand shape estimation step of estimating a hand shape using hand image data, and a hand shape restoration for restoring a hand shape on a computer using the data of the hand shape estimation step. And a hand space displacement estimating step of estimating a space displacement of a hand using background image data among the hand image data.

Description

휴먼 컴퓨터 인터렉션 장치 및 방법{Device and Method for Interaction between Human and Computer}Device and method for interaction between human and computer

본 발명은 손바닥 전체의 영상을 획득할 수 있고 손목의 움직임에 독립적인 한 개의 영상센서와 두 개의 비접촉식 광 마커(marker)를 이용하여 3차원의 손 모양 및 손의 공간 변위를 컴퓨터로 입력할 수 있는 휴먼 컴퓨터 인터렉션 장치 및 방법에 관한 것이다.According to the present invention, an image of the entire palm can be obtained and a three-dimensional hand shape and a spatial displacement of the hand can be input to a computer by using an image sensor and two non-contact optical markers independent of wrist movement. The present invention relates to a human computer interaction apparatus and method.

컴퓨터와 통신 기술의 비약적인 발전에도 불구하고 휴먼 컴퓨터 인터렉션 (Human Computer Interaction, 이하 'HCI' 라 한다) 방법들은 여전히 사용하기에 불편하며 마우스와 키보드로 대표되는 기존의 HCI 방법들은 인간의 직관적이고 풍부한 표현을 효과적으로 전달하는데 있어서 한계에 이르렀다. 특히 이동(mobile) 환경에서 많은 제약이 있다. 현재 여러 가지 새로운 입력장치들이 개발되고 있으며 그 중에서도 가장 보편적인 입력 방법은 손의 모양과 변위를 입력 값으로 사용하는 것이다.Despite the quantum leap in computer and communication technology, human computer interaction (HCI) methods are still inconvenient to use, and traditional HCI methods represented by a mouse and keyboard are intuitive and rich in human expression. Has reached its limit in effectively communicating There are many limitations, especially in mobile environments. Currently, many new input devices are being developed, and the most common input method is to use hand shape and displacement as input values.

손의 모양과 변위를 입력 값으로 사용하는 HCI 중에서 가장 일반적인 방법은 각 손가락 관절에 가변 저항을 부착하여 저항 값의 변화를 감지하여 관절의 움직임을 추정하는 방법과 장갑 안에 광섬유를 손가락과 일직선으로 부착한 후 입력되는 빛의 양과 출력으로 얻어지는 빛의 양을 비교하여 반사율과 굴절율로써 손가락 관절의 움직임을 추정하는 방법 그리고 가속도계를 손 끝이나 손가락 가운데 부착하여 손가락과 손 전체의 움직임을 감지해내는 방법 등의 글로브 기반 방법들이 있다. The most common method of HCI using hand shape and displacement as input value is to attach variable resistor to each finger joint to detect the change of resistance value to estimate joint movement and to attach optical fiber in the glove to the finger Then, by comparing the amount of light input and the amount of light obtained from the output, the method of estimating the movement of the finger joint by reflectance and refraction index, and by attaching an accelerometer to the tip of the finger or the middle of the finger to detect the movement of the finger and the whole hand, etc. Are globe-based methods.

그러나, 이러한 방식은 장갑을 착용해야 하기 때문에 거추장스럽고 센서들이 관절과 밀착되어야 하는 특성 때문에 사용자의 자연스러운 손 입력을 방해하며 장시간 사용시 상당히 불편하다는 문제가 있다. 또한, 가속도 센서, 광섬유 등의 센서들을 이용함으로 인하여 컨트롤러 등 부수 장비가 필요하여 장비가격이 높다는 문제점이 있다. However, this method has a problem that it is cumbersome because the glove has to be worn, and the sensor is in close contact with the joint, thereby preventing the user's natural hand input and being considerably uncomfortable when used for a long time. In addition, there is a problem in that the equipment price is high due to the need for additional equipment such as a controller due to the use of sensors such as acceleration sensors and optical fibers.

이러한 글로브 기반 방법들의 문제점을 개선하기 위하여 영상 센서를 이용하여 손의 영상을 획득하여 손의 특징 값들을 찾아내고 손 움직임을 추정해내는 비젼 기반의 비접촉식 HCI 기술들이 활발하게 개발되어 왔다. In order to improve the problems of the globe-based methods, vision-based non-contact HCI technologies have been actively developed to acquire the image of the hand using an image sensor, find the feature values of the hand, and estimate the hand movement.

그러나, 이러한 비젼 기반 방식은 공간상에 고정된 카메라를 이용하므로 착용 및 이동이 불가능하다는 문제가 있다. However, such a vision-based method has a problem in that wearing and moving are impossible because a fixed camera is used in space.

이러한 문제를 해결하려는 또 다른 시도가 있어 왔다. 상술한 비젼 기반의 방법의 문제점을 고려하여 손목에 부착된 카메라를 통해 세 손가락의 변화를 감지하여 7가지 부호를 입력할 수 있는 방법을 개발되었다.There has been another attempt to solve this problem. In consideration of the problems of the vision-based method described above, a method of inputting seven codes by detecting a change of three fingers through a camera attached to a wrist has been developed.

그러나, 이는 몇 가지 부호화만 가능할 뿐 손의 모양을 입력할 수 없으며 손목에 카메라를 착용하므로 손목의 움직임에 종속적인 결과를 얻을 수 밖에 없어서 의도되지 않은 결과를 얻게 되는 문제점이 있었다. However, this is only a few encodings can not input the shape of the hand, wearing a camera on the wrist, there is a problem that can not get the result unintentional because you have to get a result dependent on the movement of the wrist.

본 발명의 목적은 영상 센서와 비접촉식 광 마커를 사용함으로써 기존의 방법에 비해 착용의 불편함을 대폭 경감시킨 휴먼 컴퓨터 인터렉션 장치을 제공하는 것이다.SUMMARY OF THE INVENTION An object of the present invention is to provide a human computer interaction apparatus which greatly reduces the discomfort of wearing by using an image sensor and a non-contact optical marker.

본 발명의 또 다른 목적은 하나의 영상센서만을 사용하여 손의 3차원적인 움직임을 추정할 수 있는 휴먼 컴퓨터 인터렉션 장치를 제공하는 것이다.Still another object of the present invention is to provide a human computer interaction apparatus capable of estimating a three-dimensional movement of a hand using only one image sensor.

본 발명의 또 다른 목적은 영상 센서와 비접촉식 광 마커를 이용하여 구조가 간단하고 실용적이며 경제적인 휴먼 컴퓨터 인터렉션 장치를 제공하는 것이다. It is still another object of the present invention to provide a human computer interaction apparatus which is simple in structure, practical and economical by using an image sensor and a non-contact optical marker.

본 발명의 또 다른 목적은 이동(mobile) 환경하에서의 휴대가 간편하고 착용이 편리한 휴먼 컴퓨터 인터렉션 장치을 제공하는 것이다.It is still another object of the present invention to provide a human computer interaction device that is easy to carry and wear in a mobile environment.

본 발명의 또 다른 목적은 임의의 손 모양 및 변위를 컴퓨터상에서 복원이 가능한 휴먼 컴퓨터 인터렉션 방법을 제공하는 것이다.It is still another object of the present invention to provide a human computer interaction method capable of restoring any hand shape and displacement on a computer.

본 발명에 따른 휴먼 컴퓨터 인터렉션(Human Computer Interation) 장치는, 임의의 이동이나 움직임에서 손 영상을 획득하는 영상 센서와, 손 끝에서부터 상기 영상 센서까지의 거리를 추정할 수 있게 비접촉식 광 마크를 손바닥위에 투사하는 광원과, 상기 영상센서를 손목의 움직임에 영향을 받지 않도록 손바닥 위에 지지해주는 지지대를 포함하는 것을 특징으로 한다.The human computer interaction apparatus according to the present invention comprises an image sensor for acquiring a hand image at any movement or movement, and a non-contact optical mark on the palm of the hand so that the distance from the fingertip to the image sensor can be estimated. And a support to support the light source to project and the image sensor on the palm of the wrist so as not to be affected by the movement of the wrist.

또한, 본 발명에 따른 손의 모양과 변위를 입력 값으로 사용하는 휴먼 컴퓨터 인터렉션 방법은, 손 모양 영상 데이타를 이용하여 손 모양을 추정하는 손 모양 추정 단계와, 상기 손 모양 추정 단계의 데이타를 이용하여 컴퓨터상에서 손 모양을 복원(reproduce)하는 손 모양 복원 단계와, 상기 손 모양 영상 데이타 중 배경 영상 데이타를 이용하여 손의 공간 변위를 추정하는 손 공간 변위 추정 단계를 포함하는 것을 특징으로 한다.In addition, the human computer interaction method using the shape and the displacement of the hand according to the present invention as input values, the hand shape estimation step of estimating the hand shape using the hand image data, and using the data of the hand shape estimation step And a hand restoring step of reproducing a hand shape on a computer, and a hand space displacement estimating step of estimating a spatial displacement of a hand using background image data among the hand image data.

또한, 본 발명에 따른 휴먼 컴퓨터 인터렉션 방법은, 상기 손 모양 추정 단계가 색 영상 분할(segmentation)된 2차원 손 영상으로부터 얻어진 1차원의 손가락 높이 정보를 얻는 손가락 높이 정보 획득 단계와, 두 개의 광 마크로부터 손가락 깊이 정보를 얻는 손가락 깊이 정보 획득 단계와, 상기의 손가락 높이 정보와 깊이 정보를 조합하여 손 모양을 예측하는 손 모양 예측 단계를 포함하는 것을 특징으로 한다.In addition, the human computer interaction method according to the present invention includes a finger height information obtaining step of obtaining one-dimensional finger height information obtained from a two-dimensional hand image in which the hand shape estimation step is a color image segmentation, and two optical marks. And finger depth information obtaining step of obtaining finger depth information from the hand and predicting a hand shape by combining the finger height information and the depth information.

또한, 본 발명에 따른 휴먼 컴퓨터 인터렉션 방법은, 상기 손 모양 복원 단계가 여러 가지 제약 조건들에 의해 구성되는 3차원 손 모델의 파라미터 (parameter)를 상기 손 모양 추정 단계에서 추출된 손 모양의 특징 값들과 매핑(mapping)하여 컴퓨터상에서 손 모양을 복원(reproduce)하는 것을 특징으로 한다.In addition, in the human computer interaction method according to the present invention, the hand shape feature values extracted in the hand shape estimating step may include parameters of the 3D hand model in which the hand restoring step is configured by various constraints. Mapping and reproducing the shape of the hand (reproduce) on the computer.

또한, 본 발명에 따른 휴먼 컴퓨터 인터렉션 방법은, 상기 손 공간 변위 추정 단계가 상기 손 모양 추전 단계에서 사용된 배경영상의 움직임 벡터를 블록매칭(block matching) 방법으로 추정해낸 후 상기 배경영상의 움직임 벡터의 역방향 벡터를 계산하여 손의 공간 변위를 추정하는 것을 특징으로 한다.In addition, in the human computer interaction method according to the present invention, the motion space of the background image is estimated after the hand space displacement estimation step estimates the motion vector of the background image used in the hand shape propagation step by a block matching method. It is characterized by estimating the spatial displacement of the hand by calculating the reverse vector of.

이하에서는, 상술한 본 발명의 특징을 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, with reference to the accompanying drawings, the features of the present invention described above will be described in detail.

도 1은 본 발명에 따른 휴먼 컴퓨터 인터렉션 장치 구성도이다.1 is a block diagram of a human computer interaction apparatus according to the present invention.

도 1에서 보는 바와 같이, 본 발명에 따른 휴먼 컴퓨터 인터렉션 장치는 손과 배경 영상을 획득해 낼 수 있는 한 개의 영상센서, 서로 비스듬한 각을 가지며 일정 거리에서 일직선의 형태로 교차하는 두 평면 광을 만들어 내는 두 개의 비접촉식 마커, 그리고 영상 센서가 손목의 움직임에 영향을 받지 않고 영상을 얻어 낼 수 있도록 손바닥 위에 고정시키는 지지대로 구성되어 있다.As shown in FIG. 1, the human computer interaction apparatus according to the present invention has one image sensor capable of acquiring a hand and a background image, and has two planar light beams that cross each other in a straight line at oblique angles at a predetermined distance. It consists of two non-contact markers and a support that is fixed on the palm of the hand so that the image sensor can capture the image without being affected by wrist movement.

상술한 바와 같이, 본 발명에 따른 휴먼 컴퓨터 인터렉션 장치는 영상 센서를 한 개만 사용하므로 두 개를 사용하는 경우보다 부품 수가 줄었다. 또한, 본 발명에 따른 휴먼 컴퓨터 인터렉션 장치는 비 접촉식 마커를 사용하므로 접촉식 마커보다 사용이 간편하다. 또한, 본 발명에 따른 휴먼 컴퓨터 인터렉션 장치는 영상 센서를 손바닥 위에 지지대로 고정시키므로 손목의 움직임에 영향을 받지 않아 손 모양 및 변위의 변화를 종래의 경우보다 정확히 복원할 수 있다. As described above, since the human computer interaction apparatus according to the present invention uses only one image sensor, the number of parts is reduced compared to the case of using two. In addition, the human computer interaction apparatus according to the present invention is easier to use than the contact marker because it uses a non-contact marker. In addition, since the human computer interaction apparatus according to the present invention fixes the image sensor to the support on the palm of the hand, it is not affected by the movement of the wrist so that the change in the shape of the hand and the displacement can be restored more accurately than in the conventional case.

본 발명에 따른 휴먼 컴퓨터 인터렉션 방법은 크게 세 단계로 구분 된다.Human computer interaction method according to the present invention is largely divided into three steps.

첫 번째 단계는 색 영상 분할(segmentation)된 2차원 영상으로부터 얻어진 1차원의 손가락 높이 정보를 얻고 1차원의 손가락 높이 정보와 두 개의 광 마크로부터 얻어지는 깊이 정보를 조합하여 손 모양을 예측하는 손 모양 추정 단계이다.The first step is to estimate hand shape by obtaining one-dimensional finger height information from color image segmented two-dimensional image and combining the one-dimensional finger height information and depth information from two optical marks. Step.

두 번째 단계는 여러 가지 제약 조건들에 의해 구성되는 3차원 손 모델의 파라미터(parameter)를 손 모양 추정 단계에서 추출된 손 모양의 특징 값들과 매핑(mThe second step maps the parameters of the three-dimensional hand model, which is composed of various constraints, with the hand-shaped feature values extracted in the hand estimation step.

apping)하여 컴퓨터상에서 손 모양을 복원(reproduce)하는 손 모양 복원 단계이다.It is a hand restoration step of reproducing a hand shape on a computer by apping.

세 번째 단계는 상기 손 모양 추정 단계에서 사용된 손 모양 영상 중 배경 영상의 움직임 벡터를 블록매칭(block matching) 방법으로 추정해낸 후 배경 영상의 움직임 벡터의 역방향 벡터를 계산하여 손의 공간 변위를 추정하는 손 공간 변위 추정 단계이다.The third step estimates the spatial displacement of the hand by estimating the motion vector of the background image among the hand images used in the hand shape estimation step by block matching method and then calculating the reverse vector of the motion vector of the background image. It is a hand space displacement estimation step.

이하 각 단계를 상세히 설명한다.Each step will be described in detail below.

<1. 손 모양 추정 단계><1. Hand estimation step>

1-1) 손가락 높이 정보 획득 단계(영상 분할)1-1) Finger height information acquisition step (image segmentation)

손 영상의 분할은 밝기 변화에 강인한 YCbCr 컬러 공간상에서 인간의 피부색을 Y값 구간으로 나누고 각 구간의 Cb, Cr 좌표계 상에서 피부색의 영역을 정의한 채도맵(chromatic map)을 사용한다. 또한 Y값이 낮을 경우 손 영상이 잘 추출되지 않는 경우에 이를 보완하기 위해 Y값이 특정 값 이하일 경우에는 손 영상이 항상 존재하는 영역의 색을 표본추출(sampling)하여 영상 분할 과정에 이용한다.The segmentation of the hand image divides the human skin color into Y-value intervals in the YCbCr color space, which is robust to brightness changes, and uses a chromatic map that defines regions of skin color on the Cb and Cr coordinate systems of each interval. In addition, when the Y value is low, in order to compensate for the case where the hand image is not extracted well, when the Y value is less than a specific value, the color of the area where the hand image always exists is used for the image segmentation process.

이는 영상센서가 손에 부착되어 있어서 손 영상의 일부가 항상 전체 영상의 특정 부분에 나타나기 때문에 가능하다. 마지막으로 손에 투사된 두 개의 광 마크는 매우 특징적이므로 RGB 공간상에서 문턱치화(thresholding)를 통하여 간단히 추출한다.This is possible because an image sensor is attached to the hand so that part of the hand image always appears in a specific part of the entire image. Finally, the two light marks projected on the hand are very characteristic and thus simply extracted through thresholding in RGB space.

1-2) 손가락 높이 정보 획득 단계(2D 영상 정보의 1D 히스토그램 변환)1-2) Finger height information acquisition step (1D histogram conversion of 2D image information)

도 2는 손의 특징 값을 추출하는 과정을 나타내는 도면이다.2 is a diagram illustrating a process of extracting feature values of a hand.

도 2에서 보는 바와 같이, 영상 내에서 기울어진 손가락의 각도를 알아내고 영상에서 수직으로 손 영상을 보정하면 도 2(a)와 같은 2차원의 영상정보를 도 2 (b)와 같이 1차원의 히스토그램 정보로 변환시킬 수 있다. 이 때 영상센서로부터 얻어지는 손가락 영상들은 서로 평행하며 손가락이 안으로 굽어지는 움직임에서는 단지 높이의 정보만이 변한다고 가정한다. 손의 기울어진 정도를 알아내기 위해 먼저 분할된 손의 영상에서 에지(edge)를 추출한다. 다음으로 Hough 변환을 이용하여 미리 손가락 영상이 있을 것이라고 미리 예상한 특정 영역에서 기울기 정보를 획득한다. 마지막으로 획득한 각도만큼 영상을 회전시킨 후 x축 투영을 통하여 1차원의 손가락 높이 정보의 히스토그램을 얻어 낸다.As shown in FIG. 2, when the angle of the inclined finger is found in the image and the hand image is corrected vertically in the image, two-dimensional image information as shown in FIG. Can be converted to histogram information. In this case, it is assumed that the finger images obtained from the image sensor are parallel to each other and only the information of the height changes in the movement of bending the finger. In order to determine the degree of inclination of the hand, an edge is first extracted from the image of the divided hand. Next, the gradient information is obtained in a specific area that is predicted to have a finger image in advance by using the Hough transform. Finally, after the image is rotated by the obtained angle, the histogram of the one-dimensional finger height information is obtained through the x-axis projection.

1-3) 손가락 깊이 정보 획득 및 손 모양 예측 단계(손끝 위치의 추정)1-3) Acquisition of Finger Depth Information and Prediction of Hand Shape (Estimate of Fingertip Position)

상술한 1-2) 단계에서 얻은 1차원 히스토그램으로부터 0° ≤ MCPθ ≤ 90° 의 범위를 갖는 중수지절의 각도( MCPθ ) 변화에 따라 도 2(c)과 같은 손끝위치의 변화 그래프를 얻어낼 수 있다. 하지만 이 정보만으로는 손가락이 도 2(c)상의 그래프에서 최고점을 갖는 위치, max_height_angle을 기준으로 카메라에 근접해 있는지 떨어져 있는지를 판단할 수 없다. 즉, 손가락이 접힌 상태인지 펴져 있는 상태인지를 알 수 없다.From the one-dimensional histogram obtained in the above step 1-2), a graph of the change of the fingertip position as shown in FIG. 2 (c) is obtained according to the change of the angle ( MCP θ) of the heavy ground node having a range of 0 ° ≤ MCP θ ≤ 90 °. I can make it. However, this information alone cannot determine whether the finger is close to or away from the camera based on the position of the highest point in the graph on FIG. 2 (c), max_ height _ angle . That is, it is not known whether the finger is folded or extended.

따라서, 본 발명에 따른 휴먼 컴퓨터 인터렉션 방법에서는 손가락과 카메라 사이의 거리정보를 판단하기 위하여 경사를 가진 두 개의 면을 만들어내는 광원을 손가락 위에 투사함으로써 도 2(d)와 같이 각 손가락상에 두 개의 평행한 직선을 만들어 낸다. 여기서 두 직선의 거리 정보는 결국 MCPθ 에 따라 도 2(e)의 그래프와 같은 결과를 갖는다. 사실 두 직선이 만들어낸 거리 정보만으로 손끝의 위치정보를 추정할 수 있으나 도 2(e)에서 보는 바와 같이 일정 영역에서 dead zone이라 명명한 불규칙한 정보의 변화 구간이 나타난다.Therefore, in the human computer interaction method according to the present invention, two light sources on each finger are projected onto the finger by projecting a light source on the finger, which generates two surfaces with inclination to determine the distance information between the finger and the camera. Produce parallel straight lines. Here, the distance information of the two straight lines has the same result as that of the graph of FIG. 2 (e) according to MCP θ. In fact, the location information of the fingertip can be estimated only by the distance information generated by the two straight lines, but as shown in FIG. 2 (e), a change section of irregular information named dead zone appears in a certain area.

따라서, 두 직선의 거리 정보는 단지 손가락 높이 히스토그램이 최고 값을 가질 때의 MCPθ 인 max_height_angle를 기준으로 카메라와 손가락의 원근을 판단하는 기준인 depth_flag를 만들어 내는 역할을 담당 하게 되며 1차원 히스토그램 정보를 주 정보로 사용한다. 도 2(c)의 MCPθ의 변화에 따른 손가락의 높이 히스토그램 그래프는 근사적으로 수식화 될 수 있고 히스토그램의 손끝 높이 값인 curren Therefore, the distance information of the two straight lines plays the role of creating the depth _ flag , which is a criterion for judging the perspective of the camera and the finger based on the max_ height _ angle , which is the MCP θ when the finger height histogram has the highest value. One-dimensional histogram information is used as main information. The height histogram graph of the finger according to the change of MCP θ in FIG. 2 (c) can be approximately formulated and curren which is the height value of the fingertip of the histogram.

t_heightMCP θ 의 관계는 max_height_angle을 기준으로 0과 1값을 갖는 depth_ relationship t_height and MCP θ is depth_ having 0 and 1 values, based on the height max_ angle _

flag 값에 따라 정의된다.Defined according to the flag value.

<2. 손 모양 복원 단계><2. Hand Restoration Steps>

** 3차원 손 모델 복원 **** ** restore three-dimensional hand model

도 3는 관절 각도를 고려한 손가락 측면 개략도이다.3 is a schematic side view of the finger in consideration of the joint angle.

본 발명에 따른 휴먼 컴퓨터 인터렉션 방법은 손의 자유도를 26개로 규정한 J.J. Kuch의 3차원 손 모델을 기본으로 한다. 하지만 손가락의 y축 상 움직임만을 고려하면 손 가락 관절들의 각도 관계를 도 3과 같이 간략하게 나타낼 수 있다. Human computer interaction method according to the present invention is J.J. Based on Kuch's three-dimensional hand model. However, considering only the movement of the finger on the y-axis, the angular relationship between the finger joints may be briefly illustrated as shown in FIG. 3.

따라서, 1차원 히스토그램으로 표현되는 손끝의 높이를 알면 MCPθ 를 추정할 수 있으며 MCPθ 에 의해서 도 3에서와 같이 PIPθ , DIPθ 값을 얻을 수 있다. 결국 손가락의 움직임을 손끝의 높이 정보와 손가락과 카메라 사이의 거리정보를 이용하여 컴퓨터상에서 복원이 가능하다.Therefore, it is possible to estimate the MCP θ know the height of the fingertip, which is represented by the one-dimensional histogram can be obtained and the PIP θ, θ DIP value, as shown in Figure 3 by the MCP θ. Eventually, the movement of the finger can be restored on the computer using the height information of the fingertip and the distance information between the finger and the camera.

엄지 손가락은 4개의 손가락과는 다른 운동방향을 가지고 있다. 화면상에서 관찰 할 경우 대략적으로 엄지 손가락이 횡 방향의 움직임을 가지고 있다는 것을 알 수 있다. 이점에 착안하여 손이 펴져 있는 상태에서 검지 손가락과 엄지 손가락 사이에 사각형의 구역을 만들어 놓고 이곳에 나타나는 피부색 픽셀(pixel)의 개수를 파악하여 엄지손가락의 움직임을 추정할 수 있다.The thumb has a different direction of motion than the four fingers. If you look on the screen, you can see that the thumb has a lateral movement. With this in mind, you can estimate the movement of your thumb by making a square area between your index finger and your thumb while holding your hands open and grasping the number of skin color pixels that appear here.

<3. 손 공간 변위 추정 단계><3. Hand Space Displacement Estimation Step>

** 손의 공간 변위 추정 **** Estimation of hand space displacement **

본 발명에 따른 휴먼 컴퓨터 인터렉션 장치는 손 입력 장치이므로 피드백 등을 고려할 때 정확한 변위의 획득은 중요하지 않으므로 손 움직임을 추정하기 위하여 2차원 영상 블록매칭 방법을 사용한다. Since the human computer interaction apparatus according to the present invention is a hand input apparatus, the accurate displacement acquisition is not important when considering feedback, and thus, a 2D image block matching method is used to estimate the hand movement.

주먹을 쥐었을 경우 배경영상의 움직임 벡터를 추출하여 역으로 손의 움직임을 추정하게 된다. 이는 카메라가 손바닥에 부착되어 있어서 손의 움직임에 따라 영상센서도 종속적으로 움직이기 때문에 가능하다. 움직임 예측은 속도가 빠르며 저화질의 비디오에 좋은 결과를 나타내는 TSS (three step search) 블록매칭 방법이 쓰인다. When the fist is clenched, the motion vector of the background image is extracted and conversely, the motion of the hand is estimated. This is possible because the camera is attached to the palm of the hand so that the image sensor is also dependent on the movement of the hand. Motion prediction is fast and uses a three step search (TSS) block matching method that produces good results for low quality video.

하지만 이 블록매칭에 의해 얻어진 결과는 한 픽셀 단위의 벡터값이므로 손의 움직임에 너무 민감하게 되어 입력장치로 쓰기 어려우므로 영상의 크기를 조정하여 탐색영역(search range)를 크게 만든다. 마지막으로 배경 영상의 블록들에서 얻어진 벡터들 중에서 가장 대표적인 벡터를 역 방향으로 취하여 손의 움직임을 추정할 수 있다.However, the result obtained by the block matching is a vector value of one pixel unit, so it is very sensitive to hand movement and is difficult to use by the input device. Therefore, the size of the image is increased to make the search range larger. Finally, the most representative of the vectors obtained from the blocks of the background image can be taken in the reverse direction to estimate the motion of the hand.

이상에서 설명한 본 발명에 따른 휴먼 컴퓨터 인터렉션 방법을 플로우 차트를 이용하여 전체적인 동작 과정을 설명한다.The overall operation of the human computer interaction method according to the present invention described above will be described using a flowchart.

도 4는 본 발명에 따른 휴먼 컴퓨터 인터렉션 방법의 플로우 차트를 나타낸 도면이다. 도 4에서 보는 바와 같이 본 발명에 따른 휴먼 컴퓨터 인터렉션 방법의 플로우를 다음과 같이 정리할 수 있다.4 is a flowchart illustrating a human computer interaction method according to the present invention. As shown in FIG. 4, the flow of the human computer interaction method according to the present invention can be summarized as follows.

(초기화)(reset)

시스템 구동 초기에 손을 쥐었다 펴면서 손끝의 최소 높이와 최고 높이를 저장한다.Hold your hands early in the system's operation to store the minimum and maximum height of your fingertips.

* 손이 쥐어진 상태 인지 아닌지를 구분하여 Mode를 0과 1로 구분한다.* Mode is divided into 0 and 1 by distinguishing whether or not the hand is held.

- Mode 0 (손의 공간 변위를 추정하는 과정) : 손이 주먹 쥐어진 상태Mode 0 (the process of estimating the spatial displacement of the hand): the hand is clenched

1. 영상을 그레이 영상으로 만드는 등 전처리 과정을 거친다.1. Preprocess the image to gray image.

2. 손의 움직임에 너무 민감한 결과값이 나오지 않도록 영상의 해상도를 떨어 뜨린다.2. Reduce the resolution of the image so that no result is too sensitive to hand movement.

3. 미리 지정한 배경영상 부분에 대하여 블록 매칭 방법을 통해 얻어진 영상의 움직임 벡터들의 대표 벡터를 계산해 낸다. 3. A representative vector of motion vectors of an image obtained by block matching is calculated for a predetermined background image part.

4. 블록 매칭을 통해 얻어진 움직임 벡터의 역방향 벡터를 계산하면 손의 움직임 벡터를 구하게 된다.4. By calculating the inverse vectors of the motion vectors obtained through block matching, the motion vectors of the hands are obtained.

- Mode 1 (손의 모양을 추정하는 과정) : Mode 0 외의 상태 -Mode 1 (the process of estimating the shape of the hand): State other than Mode 0

1. 전체 영상에서 손 영상을 분할시킨다. 1. Segment a hand image from the entire image.

2. 기울어져 있는 손 영상을 Hough 변환하여 기울어진 각도를 얻어 내고 회전시켜 영상에 수직하게 만든다.2. Hough transform the tilted hand image to get the tilted angle and rotate it so that it is perpendicular to the image.

3. 분할된 손 영상에서 손끝의 높이를 초기화에서 얻어진 손끝의 최소, 최고 높이를 참조하여 상대적인 값으로 계산한다. 3. In the segmented hand image, the height of the fingertip is calculated as a relative value by referring to the minimum and maximum height of the fingertip obtained from the initialization.

4. 손 가락 위에 투사된 두 직선으로 나타나는 광 마크 사이의 거리 값으로부터 손끝과 영상센서 사이의 거리를 추정한다.4. Estimate the distance between the fingertip and the image sensor from the distance value between the two light lines projected on the finger.

5. 3번에서 얻은 손끝의 높이 값과 4.에서 추정한 손끝과 영상센서 사이의 거리 값을 조합하여 손끝의 위치를 추정해 낸다.5. Estimate the position of the fingertip by combining the height value of the fingertip obtained in step 3 and the distance value between the fingertip and the image sensor estimated in 4.

6. 도 2에서 나타난 손끝의 위치와 중수지절 각도 사이의 관계를 참조하여 5번에서 추정된 손끝의 위치로부터 각 손가락들의 중수지절 각도를 계산한다.6. From the position of the fingertip estimated in step 5, calculate the metacarpophalangeal angle of each finger by referring to the relationship between the position of the fingertip and the metacarpophalangeal angle shown in FIG.

7. 6번에서 구해진 중수지절의 각도를 3차원의 손 모델에 적용하여 손 모양을 복원한다.7. The shape of the hand is restored by applying the angle of the metastasis obtained in step 6 to the three-dimensional hand model.

본 발명에 따른 휴먼 컴퓨터 인터렉션 장치는 비접촉식 영상 센서 및 마커를 사용하므로 기존의 글로브 방식에 비하여 착용의 편리성 증진시키며 동시에 공간상에 고정된 영상센서를 사용하는 비젼 기반의 방법이 이동시에 사용할 수 없다는 단점을 극복하는 효과가 있다.Since the human computer interaction apparatus according to the present invention uses a non-contact image sensor and a marker, a vision-based method using an image sensor fixed in space cannot be used at the same time as it is more convenient to wear than a conventional globe method. It has the effect of overcoming the disadvantages.

또한, 본 발명에 따른 휴먼 컴퓨터 인터렉션 장치는 한 개의 영상센서만을 사용하여 손의 3차원적인 움직임을 추정할 수 있는 효과가 있다. In addition, the human computer interaction apparatus according to the present invention has the effect of estimating the three-dimensional movement of the hand using only one image sensor.

또한, 본 발명에 따른 휴먼 컴퓨터 인터렉션 장치는 손 입력장치를 장시간 사용하는 경우, 휴대용 기기 등의 손 입력 장치 등에 적용하여 휴대용 단말기기의 입력, 수화 통역기의 입력, 3차원 CAD시스템, 재활 의료기기, 그리고 DTV 입력 등의 분야에 적용하여 착용이 편리하고 휴대가 가능하며 손의 자연스럽고 직관적인 입력을 가능하게 하는 효과를 볼 수 있다. In addition, the human computer interaction apparatus according to the present invention may be applied to a hand input device such as a portable device when the hand input device is used for a long time, the input of a portable terminal device, the input of a sign language interpreter, a 3D CAD system, a rehabilitation medical device, In addition, it can be applied to fields such as DTV input, which is convenient to wear, portable, and enables the natural and intuitive input of the hand.

또한, 본 발명에 따른 휴먼 컴퓨터 인터렉션 장치는 기존의 방법에 비해서 구성이 간단하고 경제적인 효과가 있다.In addition, the human computer interaction apparatus according to the present invention has a simpler and more economical effect than the conventional method.

또한, 본 발명에 따른 휴먼 컴퓨터 인터렉션 방법은 컴퓨터 상에서 임의의 손의 모양 및 변위를 컴퓨터 상에서 복원이 가능하다.In addition, the human computer interaction method according to the present invention can restore the shape and displacement of any hand on the computer.

도 1은 본 발명에 따른 휴먼 컴퓨터 인터렉션 장치 구성도.1 is a block diagram of a human computer interaction apparatus according to the present invention.

도 2는 손의 특징 값을 추출하는 과정을 나타내는 도면.2 is a diagram illustrating a process of extracting feature values of a hand;

도 3는 관절 각도를 고려한 손가락 측면 개략도.Figure 3 is a schematic side view of the finger considering the joint angle.

도 4는 본 발명에 따른 휴먼 컴퓨터 인터렉션 방법의 플로우 차트를 나타낸 도면.4 is a flow chart of a human computer interaction method in accordance with the present invention.

Claims (2)

손의 모양과 변위를 입력 값으로 사용하는 휴먼 컴퓨터 인터렉션 장치에 있어서,In the human computer interaction device using the shape and displacement of the hand as an input value, 상기 휴먼 컴퓨터 인터렉션 장치는 The human computer interaction device 임의의 이동이나 움직임에서 손 영상을 획득하는 영상 센서와, An image sensor for acquiring a hand image in an arbitrary movement or movement, 손 끝에서부터 상기 영상 센서까지의 거리를 추정할 수 있게 비접촉식 광 마크를 손바닥위에 투사하는 광원과,A light source for projecting a non-contact light mark on the palm of the hand so as to estimate the distance from the fingertip to the image sensor; 상기 영상센서를 손목의 움직임에 영향을 받지 않도록 손바닥 위에 지지해주는 지지대Support for supporting the image sensor on the palm of the hand so as not to be affected by the movement of the wrist 를 포함하는 것을 특징으로 하는 휴먼 컴퓨터 인터렉션 장치.Human computer interaction apparatus comprising a. 손의 모양과 변위를 입력 값으로 사용하는 휴먼 컴퓨터 인터렉션 방법에 있어서,In the human computer interaction method using the shape and displacement of the hand as an input value, 상기 휴먼 컴퓨터 인터렉션 방법은The human computer interaction method 손 모양 영상 데이타를 이용하여 손 모양을 추정하는 손 모양 추정 단계와,A hand estimation step of estimating a hand shape using hand image data; 상기 손 모양 추정 단계의 데이타를 이용하여 컴퓨터상에서 손 모양을 복원하는 손 모양 복원 단계와,A hand restoration step of restoring a hand shape on a computer by using the data of the hand shape estimation step; 상기 손 모양 영상 데이타 중 배경 영상 데이타를 이용하여 손의 공간 변위를 추정하는 손 공간 변위 추정 단계 Hand space displacement estimation step of estimating the spatial displacement of the hand using the background image data among the hand image data 를 포함하는 것을 특징으로 하는 휴먼 컴퓨터 인터렉션 방법.Human computer interaction method comprising a.
KR1020030092275A 2003-12-17 2003-12-17 Device and method for interaction between human and computer KR20050060606A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030092275A KR20050060606A (en) 2003-12-17 2003-12-17 Device and method for interaction between human and computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030092275A KR20050060606A (en) 2003-12-17 2003-12-17 Device and method for interaction between human and computer

Publications (1)

Publication Number Publication Date
KR20050060606A true KR20050060606A (en) 2005-06-22

Family

ID=37253293

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030092275A KR20050060606A (en) 2003-12-17 2003-12-17 Device and method for interaction between human and computer

Country Status (1)

Country Link
KR (1) KR20050060606A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100617976B1 (en) * 2004-11-15 2006-08-31 한국과학기술원 Hand-posture database construction, hand-posture recognition, and recording medium
US9223405B2 (en) 2011-03-16 2015-12-29 Electronics And Telecommunications Research Institute Apparatus and method for inputting information based on events
US9460368B2 (en) 2014-01-23 2016-10-04 Samsung Electronics Co., Ltd. Method of learning a parameter to estimate posture of an articulated object and method of estimating posture of an articulated object
WO2021157691A1 (en) * 2020-02-06 2021-08-12 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100617976B1 (en) * 2004-11-15 2006-08-31 한국과학기술원 Hand-posture database construction, hand-posture recognition, and recording medium
US9223405B2 (en) 2011-03-16 2015-12-29 Electronics And Telecommunications Research Institute Apparatus and method for inputting information based on events
US9460368B2 (en) 2014-01-23 2016-10-04 Samsung Electronics Co., Ltd. Method of learning a parameter to estimate posture of an articulated object and method of estimating posture of an articulated object
WO2021157691A1 (en) * 2020-02-06 2021-08-12 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
KR101865655B1 (en) Method and apparatus for providing service for augmented reality interaction
EP2904472B1 (en) Wearable sensor for tracking articulated body-parts
US8274535B2 (en) Video-based image control system
US6147678A (en) Video hand image-three-dimensional computer interface with multiple degrees of freedom
KR101606628B1 (en) Pointing-direction detecting device and its method, program and computer readable-medium
Chua et al. Model-based 3D hand posture estimation from a single 2D image
KR101930652B1 (en) Gait analysis system and computer program recorded on recording medium
NO339941B1 (en) System and method for a gesture-based management system
CN109388233B (en) Transparent display device and control method thereof
US10782780B2 (en) Remote perception of depth and shape of objects and surfaces
JP2018119833A (en) Information processing device, system, estimation method, computer program, and storage medium
JP2004094653A (en) Information input system
US20170243052A1 (en) Book detection apparatus and book detection method
Davis et al. Toward 3-D gesture recognition
WO2019156990A1 (en) Remote perception of depth and shape of objects and surfaces
JP6086474B2 (en) Information terminal equipment
KR20050060606A (en) Device and method for interaction between human and computer
KR101511450B1 (en) Device and method for tracking the movement of an object using ridge data
CN111368675A (en) Method, device and equipment for processing gesture depth information and storage medium
JP2016184203A (en) Pointing input device
Kim et al. Thirdlight: Low-cost and high-speed 3d interaction using photosensor markers
de La Rivière et al. Hand Postures Recognition in Large–Display VR Environments
US8396300B2 (en) Object-end positioning method and system
JP5812414B2 (en) Information terminal equipment
RU2618389C2 (en) Method for contactless controlling mouse cursor

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination