KR20140037741A - A glove apparatus for hand gesture cognition and interaction, and therefor method - Google Patents

A glove apparatus for hand gesture cognition and interaction, and therefor method Download PDF

Info

Publication number
KR20140037741A
KR20140037741A KR1020130025261A KR20130025261A KR20140037741A KR 20140037741 A KR20140037741 A KR 20140037741A KR 1020130025261 A KR1020130025261 A KR 1020130025261A KR 20130025261 A KR20130025261 A KR 20130025261A KR 20140037741 A KR20140037741 A KR 20140037741A
Authority
KR
South Korea
Prior art keywords
optical signals
glove
markers
interaction
marker
Prior art date
Application number
KR1020130025261A
Other languages
Korean (ko)
Other versions
KR101385601B1 (en
Inventor
김재완
김익재
안상철
한규철
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Publication of KR20140037741A publication Critical patent/KR20140037741A/en
Application granted granted Critical
Publication of KR101385601B1 publication Critical patent/KR101385601B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0308Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

A glove apparatus for hand gesture recognition and interaction according to the present invention is characterized by including a lighting unit including k number (k is a natural number equal to or greater than 1) of lighting units for irradiating n number of optical signals (n is a natural number equal to or greater than 1) spatially-split in mutually different patterns, a glove marker unit having the shape of a glove and having m number of markers (m is a natural number equal to or greater than 1) that are attached to a plurality of areas of the glove to detect the optical signals, respectively, irradiated from the lighting unit, and a location information outputting unit for recognizing information of locations of the markers based on the optical signals received from the glove markers and for wirelessly transmitting the information of the location of each recognized marker to the display device. [Reference numerals] (100) Lighting module; (200) Glove marker module; (300) Location information outputting module; (400) Haptic function performing module

Description

손동작 인식 및 인터렉션을 위한 장갑장치 및 방법{A glove apparatus for hand gesture cognition and interaction, and therefor method}A glove apparatus for hand gesture recognition and interaction, and therefor method}

본 발명은 장갑 장치에 부착된 마커들에 따른 손동작 위치정보를 인식하고, 인식된 손동작의 위치정보를 디스플레이 장치에 제공할 수 있도록 하는 기술에 관한 것이다. 본 발명은 하기와 같이 국가연구개발사업에 의해 지원된 발명에 해당한다.The present invention relates to a technology for recognizing hand gesture position information according to markers attached to a glove device, and providing position information of the recognized hand gesture to a display device. The present invention corresponds to an invention supported by a national research and development project as follows.

[과제고유번호] 2N34990[Assignment number] 2N34990

[부처명]교육과학기술부[Ministry of Education] Ministry of Education, Science and Technology

[연구관리전문기관]실감교류인체감응솔루션연구단[Research Management Specialized Organization] Realistic Exchange Human Response Solution Research Group

[연구사업명]원천기술개발사업(글로벌프론티어연구개발사업)[Name of Research Project] Original Technology Development Project (Global Frontier R & D Project)

[연구과제명]객체 인터랙션이 가능한4D+미러월드 생성 기술 개발[Project name] Development of 4D + mirror world generation technology that can interact with objects

[주관기관]한국과학기술연구원[Host] Korea Institute of Science and Technology

[연구기간] 2011.08.23 ~ 2012.08.31.[Research Period] 2011.08.23 ~ 2012.08.31.

근래 IT기기들의 발달과 더불어 신체나 특정 사물의 위치를 실시간으로 인식해서 디지털 정보들과 상호작용(Interaction)의 수단으로 사용하려는 기술적 요구가 증가하고 있다. 대표적인 예로 최근 Microsoft사에서 출시한 KINECT는 사용자의 3차원 움직임을 인식하여 디지털 컨텐츠와 상호작용을 통해 게임을 진행하는 기기이다. 또한 헐리우드 영화 "마이너리티 리포트"에서 소개되었던 것과 같이 허공에서 손의 움직임을 통해 화면속의 디지털정보들을 조작하는 차세대 기술도 G-Speak라는 이름의 기술로 Oblong이라는 회사에 의해 상용화되었다. 향후 3D TV, IP TV등이 발전함과 더불어 화면속의 복잡한 디지털 정보들을 기존의 리모콘으로 조작하기는 어려울 것이며, 원거리에서 사용자의 움직임을 통해 조작해야 할 필요성이 점차 대두되고 있다. Recently, with the development of IT devices, there is an increasing demand for technology to recognize the position of a body or a specific object in real time and use it as a means of interaction with digital information. For example, KINECT, which was recently released by Microsoft, is a device that recognizes user's three-dimensional movements and plays games through interaction with digital contents. Also, as introduced in the Hollywood movie "Minority Report", next-generation technology that manipulates digital information on the screen through hand movements in the air has been commercialized by Oblong under the name of G-Speak. In the future, it is difficult to manipulate complex digital information in the screen with a conventional remote controller in addition to the development of 3D TV and IP TV, and it is becoming increasingly necessary to manipulate the information through the movement of the user from a remote place.

그러나, 종래에 개발된 기술들은 가격대비 위치 측정 성능 측면에서 한계를 지니고 있다. G-Speak의 경우 고가의 적외선 카메라를 여러대 사용하여 손에 부착된 적외선 마커의 위치를 측정하는 방식인데, 측정 정밀도는 높지만 수천만원의 장비가 필요하다. KINECT는 저렴한 TOF(Time of Flight)방식의 3D 측정 카메라를 사용하지만 측정정밀도가 cm단위로 낮고, 원거리에서 손과 같이 작은 물체의 측정 성능은 더욱 떨어진다. 즉, 카메라에 기반한 종래 기술들은 카메라의 성능(픽셀 해상도, 3D 측정 해상도)에 의해 물체의 위치 측정 성능이 결정되기 때문에, 고성능(고해상도, 고속)을 달성하기 위해서는 고가의 카메라가 필요하며 그에 따라 전체 장비의 가격이 동반 상승하는 문제점이 있다. However, conventionally developed techniques have limitations in terms of price-to-location performance. G-Speak uses multiple expensive infrared cameras to measure the position of the infrared marker attached to the hand. The measurement accuracy is high but tens of millions of equipment are required. KINECT uses an inexpensive Time of Flight (TOF) 3D measurement camera, but its measurement accuracy is low in cm, and the measurement performance of small objects such as hands is far worse. In other words, the conventional techniques based on cameras require that a camera be expensive to achieve high performance (high resolution, high speed) because the performance of object positioning is determined by the camera performance (pixel resolution, 3D measurement resolution). There is a problem that the price of the equipment rises together.

본원발명이 해결하고자 하는 과제는 손에 장갑형태의 장치를 착용하고, 장갑에 부착된 마커들(Passive Markers)의 위치에 따른 손동작 위치정보를 인식하고, 인식된 손동작의 위치정보를 디스플레이 장치에 제공하며, 아울러 손동작 위치정보에 따른 디스플레이 장치로부터의 응답신호에 따라 햅틱소자를 통해 사용자에게 촉각 감지 기능을 제공하는 손동작 인식 및 인터렉션을 위한 장갑장치 및 방법에 관한 것이다.The problem to be solved by the present invention is to wear a device in the form of a glove on the hand, to recognize the hand gesture position information according to the position of the markers (Passive Markers) attached to the glove, and to provide the position information of the recognized hand gesture to the display device In addition, the present invention relates to a glove apparatus and method for hand gesture recognition and interaction that provides a tactile sensing function to a user through a haptic element according to a response signal from a display device according to hand gesture position information.

상기의 과제를 해결하기 위해, 본 발명에 따른 손동작 인식 및 인터렉션을 위한 장갑장치는 디스플레이장치에 장착되어 있으며, 서로 다른 패턴으로 공간분할된 n(n은 1보다 크거나 같은 자연수)개의 광신호들을 각각 조사하는 k(k는 1보다 크거나 같은 자연수)개의 조명유닛들을 구비하는 조명부; 장갑 형태를 갖으며, 상기 조명부에서 조사되는 상기 광신호들을 각각 검출하는 m(m은 1보다 크거나 같은 자연수)개의 마커들이 상기 장갑의 복수의 영역에 각각에 부착되어 있는 장갑 마커부; 및 상기 장갑 마커부로부터 수신한 상기 광신호들로부터 상기 마커들 각각의 위치정보를 인식하고, 인식된 상기 마커들 각각의 위치정보를 상기 디스플레이장치로 무선 전송하는 위치정보 출력부를 포함하는 것을 특징으로 한다.In order to solve the above problems, the glove device for hand gesture recognition and interaction according to the present invention is mounted on the display device, and the n (n is a natural number greater than or equal to 1) optical signals divided into spaces in different patterns An illumination unit having k lighting units (k is a natural number greater than or equal to 1) each irradiated; A glove marker having a glove shape and having m markers (m is a natural number greater than or equal to 1) for detecting the optical signals irradiated from the illumination unit, respectively, attached to a plurality of areas of the glove; And a location information output unit for recognizing location information of each of the markers from the optical signals received from the glove marker unit, and wirelessly transmitting the location information of each of the recognized markers to the display device. do.

상기 조명유닛들은 각각 n개의 조명소자들을 구비하고 있으며, 상기 조명소자들은 광원 및 공간분할소자를 각각 포함하는 것을 특징으로 한다.The lighting units are each provided with n lighting elements, and the lighting elements each include a light source and a space dividing element.

상기 공간분할소자는 일정 간격의 바코드 패턴으로 분할된 광투과 영역과 광차단 영역을 갖는 것을 특징으로 한다.The spatial division element has a light transmission region and a light blocking region which are divided into barcode patterns at regular intervals.

상기 조명소자들은 각각 서로 다른 패턴으로 공간분할된 복수의 광신호들을 동시에 조사하는 것을 특징으로 한다.The illumination elements are characterized in that to irradiate a plurality of optical signals that are each divided in a different pattern at the same time.

상기 조명유닛들은 서로 순차적으로 복수의 광신호들을 조사하는 것을 특징으로 한다.The lighting units are characterized by irradiating a plurality of optical signals sequentially with each other.

상기 조명소자들은 각각 서로 다른 편광방향을 갖는 조명 편광필터를 포함하는 것을 특징으로 한다.The illumination elements are characterized in that they comprise an illumination polarization filter having a different polarization direction.

상기 조명소자들은 각각 서로 다른 파장대를 필터링하는 조명 대역통과필터를 포함하는 것을 특징으로 한다.The illumination elements are characterized in that they comprise an illumination bandpass filter for filtering different wavelength bands.

2 차원 위치인식을 위해, 적어도 1쌍의 상기 조명유닛들이 서로 직각 방향을 이루며 상기 디스플레이 장치에 장착되어 있는 것을 특징으로 한다.In order to recognize the two-dimensional position, at least one pair of the lighting unit is characterized in that the perpendicular to each other are mounted on the display device.

3 차원 위치인식을 위해, 적어도 2쌍의 상기 조명유닛들이 서로 직각 방향을 이루며 상기 디스플레이 장치에 장착되어 있는 것을 특징으로 한다.In order to recognize the three-dimensional position, at least two pairs of the lighting units are mounted to the display device at right angles to each other.

상기 조명유닛들은 상기 디스플레이 장치의 프레임 내의 모서리 부분에 장착되어 있는 것을 특징으로 한다.The lighting units are mounted to corner portions in the frame of the display device.

상기 마커들은 각각 상기 광신호들을 수신하기 위한 n개의 포토다이오드들을 포함하는 것을 특징으로 한다.The markers may each include n photodiodes for receiving the optical signals.

상기 마커들은 각각 서로 다른 편광방향을 갖는 n개의 마커 편광필터들을 포함하는 것을 특징으로 한다.The markers may include n marker polarization filters each having a different polarization direction.

상기 마커들은 각각 서로 다른 파장대를 필터링하는 n개의 마커 대역통과필터들을 포함하는 것을 특징으로 한다.The markers may each include n marker bandpass filters that filter different wavelength bands.

상기 마커들은 상기 광신호들을 수신하기 위한 카메라모듈을 각각 포함하는 것을 특징으로 한다.The markers may each include a camera module for receiving the optical signals.

상기 카메라 모듈은 상기 광신호들을 수신하기 위한 이미지 센서에 서로 다른 편광방향을 갖는 n개의 카메라 편광필터들을 장착한 것을 특징으로 한다.The camera module may be equipped with n camera polarization filters having different polarization directions in an image sensor for receiving the optical signals.

상기 카메라 모듈은 상기 광신호들을 수신하기 위한 이미지 센서에 서로 다른 파장대를 필터링하는 n개의 카메라 대역통과필터들을 장착한 것을 특징으로 한다.The camera module is equipped with n camera bandpass filters for filtering different wavelength bands in the image sensor for receiving the optical signals.

상기 위치정보 출력부는, 사전에 규약된 상기 광신호들에 대응하는 이진 코드들과 위치좌표값 간의 테이블정보를 저장하고 있는 메모리; 상기 장갑 마커부에서 제공된 상기 마커들 각각의 위치정보를 산출하는 위치산출모듈; 상기 위치산출모듈에서 산출된 상기 위치정보를 상기 디스플레이장치로 무선전송하는 무선전송모듈; 상기 위치산출모듈 및 상기 무선전송모듈의 동작을 제어하는 제어모듈; 및 상기 위치산출모듈, 상기 무선전송모듈 및 상기 제어모듈의 구동을 위한 전원을 공급하는 전원 공급모듈을 포함하는 것을 특징으로 한다. The location information output unit may include: a memory configured to store table information between binary codes and location coordinate values corresponding to the optical signals previously prescribed; A position calculation module for calculating position information of each of the markers provided by the glove marker unit; A wireless transmission module for wirelessly transmitting the location information calculated by the location calculation module to the display device; A control module for controlling the operation of the position calculating module and the wireless transmission module; And a power supply module for supplying power for driving the position calculation module, the wireless transmission module, and the control module.

상기 위치산출모듈은, 상기 마커들에 대한 각각의 2차원 위치정보 및 3차원 위치정보 중 어느 하나를 산출하는 것을 특징으로 한다.The position calculation module may calculate any one of each of two-dimensional position information and three-dimensional position information of the markers.

상기 손동작 인식 및 인터렉션을 위한 장갑장치는, 상기 위치정보의 전송에 따른 상기 디스플레이 장치로부터의 응답신호에 대응하여 촉각 인지 동작을 수행하는 햅틱 동작부를 더 포함하는 것을 특징으로 한다.The glove device for hand gesture recognition and interaction may further include a haptic operation unit that performs a tactile recognition operation in response to a response signal from the display device according to the transmission of the position information.

상기 디스플레이장치는 디지털 TV, 데스크탑 PC, 태블릿 PC, 노트북 및 스마트폰 중 어느 하나 이상을 포함하는 것을 특징으로 한다.
The display apparatus may include any one or more of a digital TV, a desktop PC, a tablet PC, a notebook computer, and a smartphone.

상기의 과제를 해결하기 위해, 본 발명에 따른 손동작 인식 및 인터렉션을 위한 방법은 디스플레이장치에 장착되어 있으며 서로 다른 패턴으로 공간분할된 n(n은 1보다 크거나 같은 자연수)개의 광신호들을 각각 조사하는 k(k는 1보다 크거나 같은 자연수)개의 조명유닛들을 구비하는 조명부가 상기 광신호들을 각각 조사하는 단계; 장갑 형태를 갖으며 상기 조명부에서 조사되는 상기 광신호들을 각각 검출하는 m(m은 1보다 크거나 같은 자연수)개의 마커들을 구비하는 장갑 마커부가 상기 광신호들을 각각 검출하는 단계; 및 위치정보 출력부가 상기 장갑 마커부로부터 수신한 상기 광신호들로부터 상기 마커들 각각의 위치정보를 인식하고, 인식된 상기 마커들 각각의 위치정보를 상기 디스플레이장치로 무선 전송하는 단계를 포함하는 것을 특징으로 한다.In order to solve the above problems, the method for hand gesture recognition and interaction according to the present invention is mounted on a display device and irradiates n optical signals each of which is spatially divided into different patterns (n is a natural number greater than or equal to 1). Illuminating each of the optical signals by an illumination unit having k (k is a natural number greater than or equal to 1) lighting units; Detecting each of the optical signals by a glove marker having a glove shape and having m markers (m is a natural number greater than or equal to 1) for detecting the optical signals irradiated from the illumination unit; And a location information output unit recognizing location information of each of the markers from the optical signals received from the glove marker unit, and wirelessly transmitting the location information of each of the recognized markers to the display device. It features.

상기 광신호들을 각각 조사하는 단계는, 상기 조명유닛들 각각에 구비되어 있는 n개의 조명소자들은 각각 서로 다른 패턴으로 공간분할된 복수의 광신호들을 동시에 조사하는 것을 특징으로 한다.In the irradiating the optical signals, the n lighting elements provided in each of the lighting units are irradiated simultaneously with a plurality of optical signals that are spatially divided in different patterns.

상기 광신호들을 각각 조사하는 단계는, 상기 조명유닛들은 서로 순차적으로 복수의 광신호들을 조사하는 것을 특징으로 한다.In the step of irradiating the optical signals, the illumination units are characterized in that to sequentially irradiate a plurality of optical signals with each other.

상기 마커들 각각의 위치정보를 인식하는 단계는, 상기 마커들에 대한 각각의 2차원 위치정보 및 3차원 위치정보 중 어느 하나를 인식하는 것을 특징으로 한다.Recognizing the location information of each of the markers, characterized in that to recognize any one of each of the two-dimensional location information and three-dimensional location information for the markers.

상기 손동작 인식 및 인터렉션을 위한 방법은, 햅틱 수행부가 상기 위치정보의 전송에 따른 상기 디스플레이 장치로부터의 응답신호에 대응하여 촉각 인지 동작을 수행하는 단계를 더 포함하는 것을 특징으로 한다.The method for hand gesture recognition and interaction may further include a haptic performer performing a tactile recognition operation in response to a response signal from the display apparatus according to the transmission of the location information.

본 발명에 따르면, 기존 기술들보다 상대적으로 저렴하면서 정밀하게 손동작을 인식하고 햅틱소자를 통해 외부의 신호를 사용자에게 제공함으로써, 사용자는 TV 등의 디스플레이 장치에 대한 제어를 손쉽게 수행할 수 있다. According to the present invention, the user can easily perform control of a display device such as a TV by recognizing a hand gesture and providing an external signal to the user through a haptic element at a relatively cheaper price than existing technologies.

즉, 본 발명은 포토다이오드 어레이 또는 저해상도 고속카메라를 사용해, 공간 위치좌표에 따라 고유의 광신호를 조사하고 이를 포토다이오드 어레이나 카메라로 인식하도록 한다는 점에서, 정확한 위치 인식이 가능하고 비용 절감효과도 얻을 수 있다. That is, the present invention uses a photodiode array or a low-resolution high-speed camera, and irradiates a unique optical signal according to spatial position coordinates and recognizes it as a photodiode array or a camera. You can get it.

도 1은 본 발명에 따른 손동작 인식 및 인터렉션을 위한 장갑장치의 구성 블록도이다.
도 2는 조명부를 구성하는 조명유닛들 중 어느 하나의 조명유닛에 대한 개략적인 참조도이다.
도 3은 도 2에 도시된 조명유닛에 대한 세부 구성요소를 도시한 참조도이다.
도 4는 도 3에 도시된 조명유닛을 구성하는 어느 하나의 조명소자의 구성요소를 예시한 참조도이다.
도 5는 도 2에 도시된 공간분할소자들(P1, P2, …, Pn)의 패턴을 예시한 참조도이다.
도 6은 디스플레이 장치에 장착되어 있는 조명유닛들의 일 예를 나타내는 참조도이다.
도 7은 장갑 마커부와 위치정보 출력부를 예시한 참조도이다.
도 8은 장갑 마커부를 구성하는 마커들 중 어느 하나의 마커에 대한 세부 구성요소를 도시한 참조도이다.
도 9는 도 8에 도시된 마커를 구성하는 마커소자에 대한 일 실시예의 참조도이다.
도 10은 도 8에 도시된 마커에 대한 또 다른 세부 구성요소를 도시한 참조도이다.
도 11은 도 1에 도시된 위치정보 출력부의 세부 구성요소를 나타내는 블록도이다.
도 12는 도 5에 도시된 공간분할소자들을 통해 조사되는 광신호들을 예시한 참조도이다.
도 13은 도 12에 도시된 공간분할소자들을 통해 조사된 광신호들에 대한 장갑 마커부에서의 광신호 감지를 예시한 참조도이다.
도 14는 본 발명에 따른 손동작 인식 및 인터렉션을 위한 방법을 설명하기 위한 일 실시예의 플로차트이다.
1 is a block diagram of a glove device for hand gesture recognition and interaction according to the present invention.
2 is a schematic reference diagram of any one of the lighting units of the lighting unit constituting the lighting unit.
FIG. 3 is a reference view showing detailed components of the lighting unit shown in FIG. 2.
4 is a reference diagram illustrating the components of any one lighting device constituting the lighting unit shown in FIG.
FIG. 5 is a reference diagram illustrating a pattern of spatial division elements P 1 , P 2 ,..., P n shown in FIG. 2.
6 is a reference diagram illustrating an example of lighting units mounted on a display device.
7 is a reference diagram illustrating a glove marker unit and a location information output unit.
FIG. 8 is a reference view showing detailed components of any one of the markers constituting the glove marker unit.
FIG. 9 is a reference diagram of an embodiment of a marker element constituting the marker shown in FIG. 8.
FIG. 10 is a reference diagram showing another detailed component of the marker shown in FIG. 8.
FIG. 11 is a block diagram illustrating detailed components of the location information output unit illustrated in FIG. 1.
FIG. 12 is a reference diagram illustrating optical signals emitted through the space dividing elements illustrated in FIG. 5.
FIG. 13 is a reference diagram illustrating optical signal sensing at an armor marker unit for optical signals emitted through the spatial dividing elements illustrated in FIG. 12.
14 is a flowchart of an embodiment for explaining a method for hand gesture recognition and interaction according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 도면에서 동일한 참조부호는 동일한 구성요소를 지칭하며, 각 구성요소의 크기나 두께는 설명의 명료성을 위하여 과장되어 있을 수 있다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, like reference numerals refer to like elements, and the size and thickness of each element may be exaggerated for clarity of explanation.

도 1은 본 발명에 따른 손동작 인식 및 인터렉션을 위한 장갑장치의 구성 블록도로서, 조명부(100), 장갑 마커부(200), 위치정보 출력부(300) 및 햅틱 수행부(400)로 구성된다. 1 is a block diagram illustrating a glove device for hand gesture recognition and interaction according to the present invention, and includes an illumination unit 100, a glove marker unit 200, a location information output unit 300, and a haptic performing unit 400. .

조명부(100)는 디스플레이장치에 장착되어 있으며, 서로 다른 패턴으로 공간분할된 n(n은 1보다 크거나 같은 자연수)개의 광신호들을 각각 조사하는 k(k는 1보다 크거나 같은 자연수)개의 조명유닛들을 구비하고 있다. 즉, 조명부(100)는 조명유닛 1 내지 조명유닛 k(I1, I2, …, Ik)로 구성된다. The lighting unit 100 is mounted on the display device, and k (k is a natural number greater than or equal to 1) lights irradiating n (n is a natural number greater than or equal to 1) optical signals that are spatially divided into different patterns. Units are provided. That is, the lighting unit 100 is composed of the lighting unit 1 to the lighting unit k (I 1 , I 2 , ..., I k ).

도 2는 조명부를 구성하는 조명유닛들 중 어느 하나의 조명유닛에 대한 개략적인 참조도이다. 조명유닛(I1)은 각기 서로 다른 패턴으로 공간분할된 광신호를 방출하는 n개의 조명소자들(I11, I12, …, I1n)을 포함하며, 조명소자들은 각각 광원 및 공간분할소자를 포함하고 있다. 2 is a schematic reference diagram of any one of the lighting units of the lighting unit constituting the lighting unit. A lighting unit (I 1) are each of the n number of illumination elements to each other, emitting an optical signal the space division in a different pattern comprises (I 11, I 12, ... , I 1n), the illumination elements are, respectively, a light source and a spatial division elements It includes.

도 3은 도 2에 도시된 조명유닛에 대한 세부 구성요소를 도시한 참조도이다. 도 3을 참조하면, 조명유닛(I1)을 이루는 n개의 조명소자들(I11, I12, …, I1n)은 광을 방출하는 n개의 광원들(D1, D2, …, Dn)과 n개의 공간분할소자들(P1, P2, …, Pn)이 각기 짝을 지어 배열된 구성을 가질 수 있다. 또한, n개의 조명 편광필터들 또는 조명 대역통과필터들(F1, F2, F3,... Fn)을 포함한다.FIG. 3 is a reference view showing detailed components of the lighting unit shown in FIG. 2. The n illuminating device 3, the forming the light unit (I 1) (I 11, I 12, ..., I 1n) is the n light sources that emit light (D 1, D 2, ... , D n ) and n spatial division elements P 1 , P 2 ,..., P n may be arranged in pairs. In addition, it includes the n one trillion people polarization filters or light band-pass filter (F 1, F 2, F 3, ... F n).

도 4는 도 3에 도시된 조명유닛을 구성하는 어느 하나의 조명소자(I11)의 구성요소를 예시한 참조도이다. 도 4에 도시된 바와 같이, 광을 방출하는 광원(D1)과, 광원(D1)의 광출사측에 배치되는 조명 편광필터(F1P) 또는 조명 대역통과필터(F1B) 및 공간분할소자(P1)로 구성된다. FIG. 4 is a reference diagram illustrating components of any one lighting element I 11 constituting the lighting unit illustrated in FIG. 3. As shown in FIG. 4, a light source D 1 that emits light, an illumination polarization filter F 1P or an illumination band pass filter F 1B , and a spatial division disposed on the light exit side of the light source D 1 . It is composed of elements (P 1).

광원(D1)을 포함하는 n개의 광원들(D1, D2, …, Dn)은 각각 발광 다이오드(light emitting diode: LED)와 같은 광을 방출하는 발광소자로 구성될 수 있다. n개의 광원들(D1, D2, …, Dn)은 각각 서로 다른 파장대(λ1, λ2, λ3…, λn)의 광원들을 조사할 수 있다.The n light sources comprising a light source (D 1) (D 1, D 2, ..., D n) are respectively light-emitting diodes: may be composed of a light emitting element that emits light, such as (light emitting diode LED). The n light sources D 1 , D 2 ,..., and D n may emit light sources of different wavelength bands λ 1 , λ 2 , λ 3 ..., λ n , respectively.

조명 편광필터(F1P)를 포함하는 n개의 조명 편광필터들(F1P, F2P, F3P,... FnP)은 각각 특정 방향의 선형 편광만을 통과시키는 광학필터이므로, 광원(D1)에서 방출된 광대역의 광은 조명 편광필터(F1P)를 거치면서 특정의 편광을 갖는 광으로 필터링된다. The n one trillion people polarizing filter comprising a light polarizing filter (F 1P) (1P F, F 2P, 3P F, ... F nP), respectively, so the optical filter for passing only the linearly polarized light in a specific direction, a light source (D 1 The light of the broadband emitted from) is filtered by light having a specific polarization while passing through the illumination polarization filter (F 1P ).

한편, 조명소자(I11)는 조명 편광필터들(F1P, F2P, F3P,... FnP) 대신에 조명 대역통과필터들(F1B, F2B, F3B,... FnB)를 구비할 수도 있다. 이때, 조명 대역통과필터들(F1B)를 포함하는 조명 대역통과필터들(F1B, F2B, F3B,... FnB)은 특정 파장대 만을 통과 대역으로 하는 광학필터에 해당하므로, 광원(D1)에서 방출된 광은 조명 대역통과필터들(F1B)를 거치면서 특정 파장대의 광으로 필터링된다. On the other hand, the illumination element I 11 replaces the illumination bandpass filters F 1B , F 2B , F 3B , ... F instead of the illumination polarization filters F 1P , F 2P , F 3P , ... F nP . nB ) may be provided. At this time, since the illumination band-pass filter comprising a lighting-pass filter (F 1B) (F 1B, F 2B, F 3B, ... F nB) corresponds to an optical filter which only a specific wavelength band as the pass band, the light source Light emitted from (D 1 ) is filtered to light of a specific wavelength band through the illumination bandpass filters (F 1B ).

n개의 공간분할소자들(P1, P2, …, Pn)은 일 예로 투명한 필름에 공간분할 패턴이 인쇄되어 형성될 수 있다. 공간분할소자들(P1, P2, …, Pn)은 광원들(D1, D2, …, Dn)의 광출사측에 각각 배치되어 광원들(D1, D2, …, Dn)에서 출사되는 광을 서로 다른 패턴으로 공간분할한다. The n space dividing elements P 1 , P 2 ,..., P n may be formed by, for example, printing a space dividing pattern on a transparent film. The spatial dividing elements P 1 , P 2 ,..., P n are arranged on the light exit side of the light sources D 1 , D 2 ,..., D n , respectively, so that the light sources D 1 , D 2 ,. The light emitted from D n ) is spatially divided into different patterns.

도 5는 도 2에 도시된 공간분할소자들(P1, P2, …, Pn)의 패턴을 예시한 참조도이다. 도 5를 참조하면, 첫번째 공간분할소자(P1)는 공간을 일방향으로 2분할한 1차원 바코드 패턴을 가진다. 이때, 분할된 영역 중 흰색 영역은 광투과 영역이 되고, 흑색 영역은 광차단 영역이 된다. 마찬가지로 두번째 공간분할소자(P2)는 공간을 일방향으로 3분할한 1차원 바코드 패턴을 가지며, 세번째 공간분할소자(P3)는 공간을 일방향으로 4분할한 1차원 바코드 패턴을 가지며, n번째 공간분할소자(Pn)는 공간을 일방향으로 n+1분할한 1차원 바코드 패턴을 가진다. 공간분할소자들(P1, P2, …, Pn)의 최소간격(즉, n번째 공간분할소자(Pn)의 바코드 패턴의 간격)은 결과적으로 검출하고자 하는 위치의 해상도를 결정하게 된다. 따라서, 좀 더 정밀한 위치 추적을 하고자 한다면, 공간분할소자들(P1, P2, …, Pn)의 최소간격을 좀 더 작게 하면 된다. 이러한 공간분할소자들(P1, P2, …, Pn)의 1차원 바코드 패턴은 설명의 편의를 위해 설명한 일 예이며, 이에 한정되는 것은 아니다. 가령, 공간분할소자들(P1, P2, …, Pn)의 패턴은 공간을 2개 방향으로 공간 분할한 2차원 바코드 패턴을 가질 수도 있다. FIG. 5 is a reference diagram illustrating a pattern of spatial division elements P 1 , P 2 ,..., P n shown in FIG. 2. Referring to FIG. 5, the first space dividing element P 1 has a one-dimensional barcode pattern obtained by dividing a space in one direction. At this time, the white region becomes the light transmission region and the black region becomes the light blocking region among the divided regions. Similarly, the second space dividing element P 2 has a one-dimensional barcode pattern obtained by dividing the space three times in one direction, and the third space dividing element P 3 has a one-dimensional barcode pattern obtained by dividing the space four directions in one direction. The dividing element P n has a one-dimensional barcode pattern obtained by dividing a space n + 1 in one direction. The minimum spacing of the space dividing elements P 1 , P 2 ,..., P n (that is, the spacing of the barcode patterns of the nth space dividing element P n ) results in determining the resolution of the position to be detected. . Therefore, if the position tracking is to be more precise, the minimum spacing of the spatial dividing elements P 1 , P 2 ,..., P n may be made smaller. The one-dimensional barcode patterns of the space dividing elements P 1 , P 2 ,..., P n are examples described for convenience of description, but are not limited thereto. For example, the pattern of the space dividing elements P 1 , P 2 ,..., P n may have a two-dimensional barcode pattern in which the space is divided in two directions.

이러한, 조명유닛(I1) 각각의 조명소자들(I11, I12, …, I1n)은 서로 다른 패턴으로 공간분할된 복수의 광신호들을 동시에 장갑 마커부(200)로 조사한다. 한편, k개의 조명유닛들(I1, I2, …, Ik)은 서로 순차적으로 복수의 광신호들을 장갑 마커부(200)로 조사한다. 즉, 단위 조명유닛 내의 복수의 조명소자들은 동시에 광을 조사함으로써, 서로 다른 패턴으로 공간분할된 복수의 광신호들을 출력하고, k개의 조명유닛들(I1, I2, …, Ik) 사이에서는 서로 동시가 아닌 조명유닛 1(I1)부터 조명유닛 k(Ik)까지 순차적으로 광신호들을 장갑 마커부(200)로 조사한다.This is irradiated by the illumination unit (I 1), each of the illumination elements (I 11, I 12, ..., 1n I) are each a plurality of optical signals with different patterns at the same time the space division gloves marker 200. Meanwhile, the k lighting units I 1 , I 2 ,..., I k sequentially irradiate a plurality of optical signals to the glove marker unit 200. That is, the plurality of lighting elements in the unit lighting unit simultaneously emits light, thereby outputting a plurality of optical signals that are spatially divided in different patterns, and between k lighting units I 1 , I 2 ,..., I k . In irradiating light signals sequentially from the lighting unit 1 (I 1 ) to the lighting unit k (I k ), which are not simultaneously with each other, to the armor marker unit 200.

조명부(100)는 디스플레이장치에 장착되어 있다. 여기서, 디스플레이장치는 디지털 TV, 데스크탑 PC, 태블릿 PC, 노트북 또는 스마트폰 등에 해당한다. 특히, 조명부(100)는 2 차원 위치인식을 위해, 적어도 1쌍의 조명유닛들이 서로 직각 방향을 이루며 디스플레이 장치에 장착될 수 있으며, 3 차원 위치인식을 위해, 적어도 2쌍의 상기 조명유닛들이 서로 직각 방향을 이루며 디스플레이 장치에 장착될 수 있다. The lighting unit 100 is mounted on the display device. Here, the display device corresponds to a digital TV, a desktop PC, a tablet PC, a notebook or a smartphone. In particular, the lighting unit 100 may be mounted on the display device with at least one pair of lighting units at right angles to each other for two-dimensional position recognition, and for at least two pairs of the lighting units for each other for three-dimensional position recognition. It may be mounted on the display device at a right angle.

도 6은 디스플레이 장치에 장착되어 있는 조명유닛들의 일 예를 나타내는 참조도이다. 도 6에 도시된 바와 같이, 조명부(100)의 구성요소에 해당하는 조명유닛 1 내지 4(I1, I2, I3, I4)가 디스플레이 장치의 프레임 내의 모서리 부분에 각각 장착되어 있는 것을 확인할 수 있다.6 is a reference diagram illustrating an example of lighting units mounted on a display device. As shown in FIG. 6, lighting units 1 to 4 (I 1 , I 2 , I 3 , and I 4 ) corresponding to the components of the lighting unit 100 are respectively mounted to corner portions within the frame of the display device. You can check it.

2 차원 위치인식을 위해, 1쌍의 조명유닛들 즉, 조명유닛 1 및 2(I1, I2)가 디스플레이 장치의 프레임 상에 서로 직각을 이루면서 장착되어 있거나, 조명유닛 3 및 4(I3, I4)가 디스플레이 장치의 프레임 상에 서로 직각을 이루면서 장착되어 있다. 2 차원 위치를 인식한다는 의미는 적어도 2개의 조명유닛들을 서로 직각으로 배치함으로써, 장갑 마커부(200)에 구부된 각 마커들에 대한 위치를 2차원 공간 상에 2차원 좌표로 확인할 수 있음을 의미한다. For two-dimensional position recognition, a pair of lighting units, that is, lighting units 1 and 2 (I 1 , I 2 ), are mounted on the frame of the display device at right angles to each other, or lighting units 3 and 4 (I 3). , I 4 ) are mounted on the frame of the display device at right angles to each other. Recognizing the two-dimensional position means that by placing at least two lighting units at right angles to each other, the position of each marker bent in the glove marker unit 200 can be confirmed by two-dimensional coordinates in the two-dimensional space. do.

한편, 3 차원 위치인식을 위해, 2쌍의 조명유닛들 즉, 조명유닛 1 및 2(I1, I2)와 조명유닛 3 및 4(I3, I4)가 각각 디스플레이 장치의 프레임 상에 서로 직각을 이루면서 장착되어 있다. 3 차원 위치를 인식한다는 적어도 4개의 조명유닛들을 각각 직각으로 배치함으로써, 장갑 마커부(200)에 구부된 각 마커들에 대한 위치를 3차원 공간 상에 3차원 좌표로 확인할 수 있음을 의미한다.Meanwhile, for three-dimensional position recognition, two pairs of lighting units, that is, lighting units 1 and 2 (I 1 , I 2 ) and lighting units 3 and 4 (I 3 , I 4 ) are respectively placed on the frame of the display device. They are mounted at right angles to each other. By arranging at least four lighting units that recognize three-dimensional positions at right angles, it means that the positions of the respective markers bent in the glove marker unit 200 can be confirmed in three-dimensional coordinates in three-dimensional space.

장갑 마커부(200)는 장갑 형태를 갖으며, 조명부(100)에서 조사되는 광신호들을 각각 검출하는 m(m은 1보다 크거나 같은 자연수)개의 마커들을 장갑의 복수의 영역에 각각에 부착하고 있다.The glove marker unit 200 has a glove shape, and attaches m markers (m is a natural number greater than or equal to 1) to each of the plurality of regions of the glove, respectively detecting the optical signals emitted from the illumination unit 100. have.

도 7은 장갑 마커부와 위치정보 출력부를 예시한 참조도로서, 도 7에 도시된 바와 같이, 장갑 마커부는 손에 착용할 수 있는 장갑 형태를 갖는다. 장갑 마커부(200)는 m개의 마커들(M1, M2, ..., Mm)을 구비하고 있는데, 도 7에 도시된 바와 같이, 마커 1 내지 5(M1, M2, M3, M4, M5)가 장갑의 손가락 부분에 각각 부착되어 있다.FIG. 7 is a reference diagram illustrating a glove marker unit and a location information output unit. As shown in FIG. 7, the glove marker unit has a glove form that can be worn on a hand. The glove marker unit 200 includes m markers M 1 , M 2 ,..., M m , and as shown in FIG. 7, markers 1 to 5 (M 1 , M 2 , M). 3 , M 4 , M 5 ) are attached to the finger portion of the glove, respectively.

m개의 마커들(M1, M2, ..., Mm) 각각은 조명부(100)의 어느 하나 조명유닛으로부터 동시에 조사되는 n개의 광신호들을 수신하기 위한 포토다이오드들과 함께 마커 편광필터들 또는 마커 대역통과필터들을 포함하고 있다. Each of the m markers M 1 , M 2 ,..., M m has marker polarization filters together with photodiodes for receiving n optical signals irradiated simultaneously from any one lighting unit of the lighting unit 100. Or marker bandpass filters.

도 8은 장갑 마커부를 구성하는 마커들 중 어느 하나의 마커 1(M1)에 대한 세부 구성요소를 도시한 참조도이다. 도 8에 도시된 바와 같이, 마커 1(M1)은 n개의 포토다이오드들(PD1, PD2, PD3,..., PDn)과 n개의 마커 편광필터들 또는 마커 대역통과필터들(F1, F2, F3,..., Fn)을 포함하고 있다. FIG. 8 is a reference diagram illustrating detailed components of any one marker 1 (M 1 ) of markers constituting the glove marker unit. As shown in FIG. 8, marker 1 (M 1 ) includes n photodiodes PD 1 , PD 2 , PD 3 ,..., PD n ) and n marker polarization filters or marker bandpass filters. (F 1 , F 2 , F 3 , ..., F n ).

도 9는 도 8에 도시된 마커 1(M1)를 구성하는 마커소자(M11)에 대한 일 실시예의 참조도이다. 마커소자(M11)은 서로 다른 편광방향을 갖는 마커 편광필터(F1P)를 구비하거나, 서로 다른 파장대를 필터링하는 마커 대역통과필터(F1B)를 구비하고 있다. FIG. 9 is a reference diagram of an embodiment of a marker element M 11 constituting marker 1 M 1 shown in FIG. 8. The marker element M 11 includes a marker polarization filter F 1P having different polarization directions or a marker band pass filter F 1B for filtering different wavelength bands.

마커 편광필터(F1P)를 포함하는 n개의 마커 편광필터들(F1P, F2P, F3P,..., FnP)은 도 3에 도시된 조명 편광필터들(F1, F2, F3,..., Fn)의 편광 방향에 대응하는 편광 방향을 갖는 필터로, 입사되는 광신호 중 해당되는 특정 편광 방향의 광신호만을 필터링하여 포토다이오드들로 전달한다. 한편, 마커소자(M11)는 마커 편광필터들(F1P, F2P, F3,..., FnP) 대신에 마커 대역통과필터들(F1B, F2B, F3B,..., FnB)을 구비할 수도 있는데, 마커 대역통과필터들(F1B, F2B, F3B,..., FnB)은 특정 파장대만을 통과대역으로 하는 광학필터이므로, 입사되는 광신호 중 해당되는 파장대역의 광신호만을 필터링하여 포토다이오드들로 전달한다.Marker polarizing filter (F 1P) n the markers polarizing filter that includes (F 1P, F 2P, F 3P, ..., F nP) are illuminated with polarized light filter shown in Fig. 3 (F 1, F 2, A filter having a polarization direction corresponding to the polarization direction of F 3 ,..., F n ), and filters only an optical signal of a corresponding polarization direction among the incident optical signals and transmits the optical signals to the photodiodes. On the other hand, the marker element M 11 is a marker band pass filters F 1B , F 2B , F 3B ,... Instead of marker polarization filters F 1P , F 2P , F 3 ,. , F nB ). Since the marker bandpass filters F 1B , F 2B , F 3B ,..., And F nB are optical filters having only a specific wavelength band as a pass band, among the incident optical signals Only optical signals of the corresponding wavelength band are filtered and transmitted to the photodiodes.

포토다이오드(PD1)을 포함하는 n개의 포토다이오드들(PD1, PD2, PD3,..., PDn)은 각각 어느 하나의 조명유닛으로부터 동시에 조사되는 n개의 광신호들을 각각 수신하기 위한 광센서에 해당한다. 포토다이오드들(PD1, PD2, PD3,..., PDn)은 각각 마커 편광필터들 또는 마커 대역통과필터들에서 필터링된 광신호를 감지한다.N photodiodes of the photodiode (PD 1, PD 2, PD 3, ..., PD n) is to receive each of the n optical signals to be irradiated at the same time from any one of the lighting units, each comprising a (PD 1) Corresponds to the optical sensor for The photodiodes PD 1 , PD 2 , PD 3 ,..., PD n respectively sense the optical signal filtered by the marker polarization filters or the marker bandpass filters.

도 10은 도 8에 도시된 마커(M1)에 대한 또 다른 세부 구성요소를 도시한 참조도이다. 도 10에 도시된 바와 같이, 마커(M1)는 n개의 광신호들을 동시에 수신하기 위한 카메라모듈을 포함하고 있다. 카메라 모듈은 이미지 센서(예를 들어, CCD 등)를 통해 들어오는 광신호를 감지하는 모듈을 의미한다. 이러한, 카메라 모듈은 m개의 마커들(M1, M2, ..., Mm)에 각각 구비되어 있다. 도 10에 도시된 바와 같이, m개의 마커들(M1, M2, ..., Mm)에 각각 구비되어 있는 카메라 모듈은 서로 다른 n개의 광신호들을 수신하기 위해 이미지 센서에 서로 다른 편광방향을 갖는 n개의 카메라 편광필터들(F1P, F2P, F3,..., FnP)을 장착하고 있거나, 서로 다른 파장대를 필터링하는 n개의 카메라 대역통과필터들(F1B, F2B, F3B,..., FnB)을 장착하고 있다. 이에 따라, m개의 카메라 모듈들은 각각 조명부(100)로부터 조사되는 광신호들을 대응하는 편광방향 또는 파장대에 따라 필터링하여 감지한다. FIG. 10 is a reference diagram showing another detailed component of the marker M 1 shown in FIG. 8. As shown in FIG. 10, the marker M 1 includes a camera module for simultaneously receiving n optical signals. The camera module refers to a module that detects an optical signal coming through an image sensor (eg, a CCD). Such a camera module is provided in m markers M 1 , M 2 ,..., M m , respectively. As shown in FIG. 10, a camera module provided in each of the m markers M 1 , M 2 ,..., And M m has different polarizations in the image sensor to receive n different optical signals. N camera bandpass filters F 1B , F 2B equipped with n camera polarization filters F 1P , F 2P , F 3 ,. , F 3B , ..., F nB ) are mounted. Accordingly, the m camera modules respectively detect optical signals emitted from the illumination unit 100 according to the corresponding polarization direction or wavelength band.

장갑 마커부(200)는 조명부(100)에서 조사되는 광신호들을 각각 검출하고, 검출한 광신호들을 유선상으로 연결된 위치정보 출력부(300)로 전송한다. The glove marker unit 200 detects optical signals irradiated from the lighting unit 100 and transmits the detected optical signals to the location information output unit 300 connected in a wired manner.

위치정보 출력부(300)는 장갑 마커부(200)로부터 수신한 광신호들로부터 m개의 마커들(M1, M2, ..., Mm) 각각의 위치정보를 인식하고, 인식된 마커들 각각의 위치정보를 디스플레이장치로 무선 전송한다. The location information output unit 300 recognizes the location information of each of the m markers M 1 , M 2 , ..., M m from the optical signals received from the armor marker 200, and recognizes the location information. Each location information is wirelessly transmitted to the display device.

도 11은 도 1에 도시된 위치정보 출력부의 세부 구성요소를 나타내는 블록도로서, 메모리(310), 위치산출모듈(320), 무선전송모듈(330), 제어모듈(340) 및 전원공급모듈(350)로 구성된다.FIG. 11 is a block diagram illustrating detailed components of the location information output unit illustrated in FIG. 1, and includes a memory 310, a location calculation module 320, a wireless transmission module 330, a control module 340, and a power supply module. 350).

메모리(310)는 사전에 규약된 상기 광신호들에 대응하는 이진 코드들과 위치좌표값 간의 테이블정보를 저장하고 있다. The memory 310 stores table information between binary codes and position coordinate values corresponding to the optical signals, which have been previously regulated.

위치산출모듈(320)은 메모리(310)에 저장되어 있는 테이블 정보를 참조하여 장갑 마커부(200)에서 제공된 마커들 각각의 위치정보를 산출하고, 산출한 결과를 무선전송모듈(320)로 출력한다. The position calculation module 320 calculates the position information of each of the markers provided by the glove marker unit 200 with reference to the table information stored in the memory 310, and outputs the calculated result to the wireless transmission module 320. do.

위치산출모듈(320)의 구체적인 기능은 도 12 및 도 13을 참조하여 설명한다. Specific functions of the position calculation module 320 will be described with reference to FIGS. 12 and 13.

도 12는 도 5에 도시된 공간분할소자들(P1, P2, …, Pn)을 통해 조사되는 광신호들을 예시한 참조도이고, 도 13은 도 12에 도시된 공간분할소자들(P1, P2, …, Pn)을 통해 조사된 광신호들에 대한 장갑 마커부(200)중 어느 하나의 마커에서의 광신호 감지를 예시한 참조도이다.FIG. 12 is a reference diagram illustrating optical signals irradiated through the space dividing elements P 1 , P 2 ,..., P n shown in FIG. 5, and FIG. 13 is a view of the space dividing elements shown in FIG. 12. P 1 , P 2 ,..., P n ) is a reference diagram illustrating the detection of an optical signal at any one marker of the armor marker unit 200 with respect to the optical signals irradiated through P 1 , P 2 ,.

먼저, 조명유닛(I1)은 서로 다른 패턴으로 공간분할된 복수의 광신호들을 동시에 조사한다. 즉, 조명유닛(I1)은 서로 다른 파장대를 가지며 서로 다른 패턴(P1, P2, …, Pn)으로 공간분할된 복수의 광신호들(L11, L13, …, L1n)을 장갑 마커부(200)로 동시에 조사한다. First, the illumination unit I 1 simultaneously irradiates a plurality of optical signals that are spatially divided into different patterns. That is, the illumination unit I 1 has a different wavelength band and a plurality of optical signals L 11 , L 13 ,…, L 1n spatially divided into different patterns P 1 , P 2 ,..., P n . Irradiate simultaneously with the glove marker unit 200.

조명유닛(I1)에서 동시에 조사되는 광신호들은 서로 다른 패턴으로 공간분할되어 있으므로, 이를 검출함으로써 장갑 마커부(200)의 각 마커들(M1, M2, ..., Mm)이 부착된 손가락의 위치 좌표값을 환산할 수 있다. Since the optical signals irradiated simultaneously from the illumination unit I 1 are spatially divided into different patterns, the markers M 1 , M 2 ,. The position coordinate value of the attached finger can be converted.

도 12 및 도 13을 참조하면, 조명유닛(I1)에서 복수의 광신호들(L11, L13, …, L1n)이 동시에 조사하면, 조명유닛(I1)에서 조사되는 복수의 광신호들(L11, L13, …, L1n)은 첫번째 마커(M1)에서 복수의 광신호들(L11, L13, …, L1n)을 동시에 검출한다. 이때, 첫번째 광신호(L11)는 첫번째 공간분할소자(P1)의 바코드 패턴으로 조사되는 바, 첫번째 마커(M1)가 위치하는 곳에서는 첫번째 광신호(L11)가 검출되지 않는다. 즉, 첫번째 마커(M1)가 위치하는 곳에서 첫번째 광신호(L11)는 "0" 신호로 검출될 것이다. 또한, 두번째 공간분할소자(P2)의 바코드 패턴으로 조사되는 두번째 광신호(L12)는 첫번째 마커(M1)가 위치하는 곳에서 "0" 신호로 검출될 것이다. 그러나, 세번째 공간분할소자(P3)의 바코드 패턴으로 조사되는 세번째 광신호(L13)는 첫번째 마커(M1)에서 "1" 신호로 검출될 것이다. 이와 같은 식으로, 첫번째 마커(M1)는 서로 다른 패턴으로 공간분할된 복수의 광신호들(L11, L13, …, L1n)을 검출하고, 검출된 광신호들(L11, L13, …, L1n)의 신호값들을 위치정보 출력부(300)로 전송한다. 복수의 광신호들(L11, L13, …, L1n)이 서로 다른 패턴으로 공간분할되어 있으므로, 만일 첫번째 마커(M1)의 위치가 움직이게 되면, 검출되는 복수의 광신호들(L11, L13, …, L1n)의 신호값들이 바뀌게 될 것이다. 따라서, 검출되는 복수의 광신호들(L11, L13, …, L1n)의 신호값들은 첫번째 마커(M1)의 위치 정보를 갖고 있다. 따라서, 위치정보 출력부(300)는 첫번째 마커(M1)에서 검출된 복수의 광신호들(L11, L13, …, L1n)의 신호값들을 처리하여 이진 코드(예를 들어, 00100)를 생성하며, 생성된 이진 코드를 이용해 사전에 규약된 이진 코드들과 위치좌표값 간의 관계식 또는 참조테이블(Lookup Table)로부터 첫번째 마커(M1)의 위치좌표값을 산출한다. When 12 and 13, a plurality of optical signals from the lighting unit (I 1) (L 11, L 13, ..., L 1n) is irradiated at the same time, a plurality of light irradiated from the lighting unit (I 1) The signals L 11 , L 13 ,..., L 1n simultaneously detect a plurality of optical signals L 11 , L 13 ,..., L 1n at the first marker M 1 . In this case, the first optical signal L 11 is irradiated with the barcode pattern of the first spatial dividing element P 1 , and thus the first optical signal L 11 is not detected where the first marker M 1 is located. That is, where the first marker M 1 is located, the first optical signal L 11 will be detected as a "0" signal. In addition, the second optical signal L 12 irradiated with the barcode pattern of the second space dividing element P 2 will be detected as a "0" signal where the first marker M 1 is located. However, the third optical signal L 13 irradiated with the barcode pattern of the third space dividing element P 3 will be detected as a "1" signal at the first marker M 1 . In the same way, the first marker (M 1) are each of a plurality of optical signal spatial division in a different pattern, and detecting the (L 11, L 13, ... , L 1n), the detected light signal (L 11, L 13 ,..., L 1n ) are transmitted to the location information output unit 300. Since the plurality of optical signals L 11 , L 13 ,..., L 1n are spatially divided into different patterns, if the position of the first marker M 1 is moved, the plurality of optical signals L 11 detected are moved. , L 13 ,…, L 1n ) will be changed. Therefore, the signal values of the plurality of detected optical signals L 11 , L 13 ,..., L 1n have position information of the first marker M 1 . Therefore, the location information output unit 300 processes the signal values of the plurality of optical signals L 11 , L 13 ,..., L 1n detected by the first marker M 1 , and then executes a binary code (for example, 00100). ), And calculates the position coordinate value of the first marker M 1 from a relational expression between the predefined binary codes and the position coordinate values or a lookup table using the generated binary code.

동일한 방식으로, 위치산출모듈(320)은 조명유닛(I1)에서 조사되는 복수의 광신호들(L11, L13, …, L1n)에 대해 나머저 m-1개의 마커들(M2, ..., Mm) 각각에 대한 검출된 광신호들을 이진 코드화하고, 이를 위치 좌표값의 참조 테이블과 비교함으로써, 각 마커들(M2, ..., Mm)의 위치정보를 산출한다. 그 후, 위치산출모듈(320)은 나머지 k-1개의 조명유닛들(I2, …, Ik)에서 순차적으로 조사되는 광신호들에 대한 장갑 마커부(200)의 검출된 광신호들을 각각 이진 코드화하고, 이를 위치 좌표값의 참조 테이블과 비교함으로써, 조명유닛들(I2, …, Ik)에 따른 각 마커들(M2, ..., Mm)의 위치정보를 각각 산출한다.In the same way, the position calculation module 320 is m-1 markers (M 2 ) for the plurality of optical signals L 11 , L 13 ,..., L 1n irradiated from the illumination unit I 1 . , ..., M m ) to calculate the position information of each marker (M 2 , ..., M m ) by binary coding the detected optical signals for each and comparing it with a reference table of position coordinate values. do. Thereafter, the position calculation module 320 respectively detects the detected optical signals of the glove marker unit 200 with respect to the optical signals sequentially irradiated from the remaining k-1 illumination units I 2 ,..., I k . by comparing the binary coded, and this, and the reference table of the position coordinate values, respectively, calculating the position information of the lighting units of each marker according to (I 2, ..., I k ) (M 2, ..., M m) .

위치산출모듈(320)은 마커들에 대한 각각의 2차원 위치정보 또는 3차원 위치정보를 산출한다. 즉, 도 6에 도시된 바와 같이, 1쌍의 조명유닛들 즉, 조명유닛 1 및 2(I1, I2)가 디스플레이 장치의 프레임 상에 서로 직각을 이루면서 장착되어 있거나, 조명유닛 3 및 4(I3, I4)가 디스플레이 장치의 프레임 상에 서로 직각을 이루면서 장착되어 있는 경우에, 1쌍을 이루는 2개의 조명유닛들로부터 각각 조사된 광신호들을 장갑 마커부(200)로부터 수신하면, 위치산출모듈(320)은 각 마커들에 대한 위치를 2차원 공간 상에 2차원 좌표로 확인할 수 있다. 한편, 2쌍의 조명유닛들 즉, 조명유닛 1 및 2(I1, I2)와 조명유닛 3 및 4(I3, I4)가 디스플레이 장치의 프레임 상에 서로 직각을 이루면서 장착되어 있는 경우에, 2쌍을 이루는 4개의 조명유닛들로부터 각각 조사된 광신호들을 장갑 마커부(200)로부터 수신하면, 위치산출모듈(320)은 각 마커들에 대한 위치를 3차원 공간 상에 3차원 좌표로 확인할 수 있다.The position calculation module 320 calculates respective two-dimensional position information or three-dimensional position information for the markers. That is, as shown in Figure 6, a pair of lighting units, that is, lighting units 1 and 2 (I 1 , I 2 ) are mounted on the frame of the display device at right angles to each other, or lighting units 3 and 4 When (I 3 , I 4 ) are mounted on the frame of the display device at right angles to each other, when the optical signals irradiated from the pair of two lighting units are respectively received from the armor marker unit 200, The position calculation module 320 may check the position of each marker in two-dimensional coordinates in a two-dimensional space. Meanwhile, two pairs of lighting units, that is, lighting units 1 and 2 (I 1 , I 2 ) and lighting units 3 and 4 (I 3 , I 4 ) are mounted on the frame of the display device at right angles to each other. On the other hand, when receiving the light signals respectively irradiated from the pair of four lighting units from the armor marker unit 200, the position calculation module 320 is a three-dimensional coordinates on the three-dimensional space for the position of each marker You can check with

무선전송모듈(330)은 위치산출모듈(320)에서 산출된 각 마커들에 대한 위치정보를 디스플레이장치로 무선전송한다. 이를 위해, 무선전송모듈(330)은 위치정보의 무선전송을 위한 무선 송수신신호 감지센서 등을 구비하고 있다.The wireless transmission module 330 wirelessly transmits the position information of each marker calculated by the position calculation module 320 to the display apparatus. To this end, the wireless transmission module 330 is provided with a wireless transmission and reception signal sensor for the wireless transmission of location information.

제어모듈(340)은 메모리(310), 위치산출모듈(320) 및 무선전송모듈(330) 각각의 동작을 제어한다. The control module 340 controls the operations of each of the memory 310, the location calculation module 320, and the wireless transmission module 330.

전원공급모듈(350)은 위치산출모듈(320), 무선전송모듈(330) 및 제어모듈(340)의 구동을 위한 전원을 공급한다.The power supply module 350 supplies power for driving the position calculation module 320, the wireless transmission module 330, and the control module 340.

디스플레이장치는 위치정보 출력부(300)에서 전송된 위치정보에 대응하여, 위치 인식에 따른 디스플레이장치 내의 응답신호를 손동작 인식 및 인터렉션을 위한 장갑장치로 전송한다. 그러면, 장갑 마커부(200)와 함께 구비되어 있는 햅틱 수행부(400)는 위치정보의 전송에 따른 디스플레이 장치로부터의 응답신호에 대응하여 촉각 인지동작을 수행한다. 촉각 인지동작은 장갑장치에 진동이나 힘, 충격 등을 발생시킴으로써 사용자가 촉감 등을 느낄 수 있도록 하는 동작을 의미하는 것이다. 예를 들어, 사용자가 가상의 공은 만지는 인터렉션 동작을 수행하는 경우에, 공 형태의 변위량값을 햅틱 수행부(400)가 수신하면, 햅틱 수행부(400)는 변위량값에 비례하는 촉각 모듈의 전류값을 통해 기계적인 자극을 사용자에게 전달함으로써 실제 공을 만지는 것과 유사한 느낌을 사용자에게 준다.
The display apparatus transmits a response signal in the display apparatus according to the position recognition to the glove apparatus for hand gesture recognition and interaction in response to the position information transmitted from the position information output unit 300. Then, the haptic performing unit 400 provided with the glove marker unit 200 performs a tactile perception operation in response to the response signal from the display device according to the transmission of the position information. The tactile perception motion refers to an operation that allows the user to feel the touch by generating vibration, force, or impact on the glove device. For example, when the user performs an interaction operation of touching a virtual ball, when the haptic performer 400 receives a displacement value in the form of a ball, the haptic performer 400 may determine a tactile module that is proportional to the displacement amount. The mechanical value is transmitted to the user through the current value, giving the user a feeling similar to touching a real ball.

도 14는 본 발명에 따른 손동작 인식 및 인터렉션을 위한 방법을 설명하기 위한 일 실시예의 플로차트이다. 14 is a flowchart of an embodiment for explaining a method for hand gesture recognition and interaction according to the present invention.

디스플레이장치에 장착되어 있으며 서로 다른 패턴으로 공간분할된 n(n은 1보다 크거나 같은 자연수)개의 광신호들을 각각 조사하는 k(k는 1보다 크거나 같은 자연수)개의 조명유닛들을 구비하는 조명부가 상기 광신호들을 각각 조사한다(제400 단계). The lighting unit having k (k is a natural number greater than or equal to 1) light units each of which is mounted on the display device and irradiates n (n is a natural number greater than or equal to 1) optical signals that are spatially divided into different patterns. Each of the optical signals is irradiated (operation 400).

조명부를 구성하는 각각의 조명유닛은 각기 서로 다른 패턴으로 공간분할된 광신호를 방출하는 n개의 조명소자들을 포함하며, 조명소자들은 각각 광원 및 공간분할소자를 포함하고 있다. 또한, n개의 조명 편광필터들 또는 n개의 조명 대역통과필터들을 포함하고 있다. n개의 광원들은 각각 서로 다른 파장대의 광원들을 조사한다. n개의 조명 편광필터들은 각각 특정 방향의 선형 편광만을 통과시키는 광학필터이므로, 광원에서 방출된 광에 대해을 특정의 편광만을 필터링하여 출력한다. 한편, 조명소자들은 각각 조명 편광필터들 대신에 n개의 조명 대역통과필터들를 구비할 수도 있는데, 조명 대역통과필터들은 특정 파장대 만을 통과 대역으로 하는 광학필터에 해당하므로, 광원에서 방출된 광에 대해 특정 파장대의 광으로 필터링하여 출력한다. n개의 공간분할소자들은 n개의 광원들의 광출사측에 각각 배치되어 광원들에서 출사되는 광을 서로 다른 패턴으로 공간분할한다. Each lighting unit constituting the lighting unit includes n lighting elements that emit optical signals that are spatially divided in different patterns, and the lighting elements each include a light source and a space dividing element. In addition, it includes n illumination polarization filters or n illumination bandpass filters. The n light sources irradiate light sources of different wavelength bands, respectively. Since the n illumination polarization filters are optical filters that pass only linearly polarized light in a specific direction, only the specific polarized light is filtered out for the light emitted from the light source. On the other hand, the illumination elements may be provided with n illumination bandpass filters instead of the illumination polarization filters, respectively, since the illumination bandpass filters correspond to optical filters having only a specific wavelength band as a pass band, and thus are specific to light emitted from the light source. Filter by the light of the wavelength band and output. The n space dividing elements are respectively disposed on the light exit sides of the n light sources to spatially divide the light emitted from the light sources into different patterns.

조명유닛을 구성하는 n개의 조명소자들은 서로 다른 패턴으로 공간분할된 n개의 광신호들을 동시에 장갑 마커부로 조사한다. 한편, k개의 조명유닛들 상호간에는 서로 순차적으로 복수의 광신호들을 장갑 마커부로 조사한다. 즉, 단위 조명유닛 내의 복수의 조명소자들은 동시에 광을 조사함으로써, 서로 다른 패턴으로 공간분할된 복수의 광신호들을 출력하고, k개의 조명유닛들 사이에서는 서로 동시가 아닌 조명유닛 1부터 조명유닛 k까지 순차적으로 광신호들을 장갑 마커부로 조사한다.The n illumination elements constituting the illumination unit irradiate n optical signals spatially divided in different patterns with the armor marker portion at the same time. On the other hand, the k lighting units are irradiated with a glove marker unit a plurality of light signals sequentially from each other. That is, the plurality of lighting elements in the unit lighting unit is irradiated with light at the same time, and outputs a plurality of optical signals that are spatially divided in different patterns, and between the lighting unit k from the lighting unit 1 that is not simultaneously with each other between the k lighting units In order to irradiate the optical signal to the armor marker portion sequentially.

제400 단계 후에, 장갑 형태를 갖으며 상기 조명부에서 조사되는 상기 광신호들을 각각 검출하는 m(m은 1보다 크거나 같은 자연수)개의 마커들을 구비하는 장갑 마커부가 상기 광신호들을 각각 검출한다(제402 단계).After operation 400, an armored marker unit having m (m is a natural number greater than or equal to 1) markers each having the shape of a glove and detecting the optical signals emitted from the illumination unit detects the optical signals, respectively. Step 402).

m개의 마커들 각각은 조명부의 어느 하나 조명유닛으로부터 동시에 조사되는 n개의 광신호들을 수신하기 위한 n개의 포토다이오드들과 함께 n개의 마커 편광필터들 또는 n개의 마커 대역통과필터들을 포함하고 있다. Each of the m markers includes n marker polarization filters or n marker bandpass filters together with n photodiodes for receiving n optical signals irradiated simultaneously from either illumination unit of the illumination unit.

n개의 마커 편광필터들은 입사되는 광신호 중 해당되는 특정 편광 방향의 광신호만을 필터링하여 포토다이오드들로 전달한다. 한편, 마커 편광필터들 대신에 n개의 마커 대역통과필터들을 구비할 수도 있는데, 마커 대역통과필터들은 입사되는 광신호 중 해당되는 파장대역의 광신호만을 필터링하여 포토다이오드들로 전달한다.The n marker polarization filters filter only optical signals of a corresponding polarization direction among the incident optical signals and transmit them to the photodiodes. Meanwhile, n marker bandpass filters may be provided in place of the marker polarization filters. The marker bandpass filters filter only the optical signal of a corresponding wavelength band among the incident optical signals and transmit them to the photodiodes.

n개의 포토다이오드들은 각각 어느 하나의 조명유닛으로부터 동시에 조사되는 n개의 광신호들을 각각 수신하기 위한 광센서로서, 각각 마커 편광필터들 또는 마커 대역통과필터들에서 필터링된 광신호를 감지한다.Each of the n photodiodes is an optical sensor for receiving n optical signals irradiated from any one lighting unit at the same time, and detects optical signals filtered by marker polarization filters or marker bandpass filters, respectively.

한편, m개의 마커들은 포토다이오드들을 구비하는 대신에, 각각 카메라모듈을 구비할 수도 있으며, 카메라 모듈은 m개의 마커들에 각각 구비되어 있다. m개의 마커들에 각각 구비되어 있는 카메라 모듈은 서로 다른 n개의 광신호들을 수신하기 위해 이미지 센서에 서로 다른 편광방향을 갖는 n개의 카메라 편광필터들을 장착하고 있거나, 서로 다른 파장대를 필터링하는 n개의 카메라 대역통과필터들을 장착하고 있으며, 이에 따라, 조명부로부터 조사되는 광신호들을 대응하는 편광방향 또는 파장대에 따라 필터링하여 감지한다. On the other hand, m markers may be provided with a camera module, respectively, instead of having photodiodes, the camera module is provided in each of the m markers. Each camera module included in m markers is equipped with n camera polarization filters having different polarization directions in the image sensor to receive n different optical signals, or n cameras filtering different wavelength bands. Band pass filters are mounted, and accordingly, optical signals emitted from the illumination unit are detected by filtering according to a corresponding polarization direction or wavelength band.

장갑 마커부는 조명부에서 조사되는 광신호들을 각각 검출하고, 검출한 광신호들을 위치정보 출력부로 전송한다. The armor marker unit detects optical signals irradiated from the lighting unit, and transmits the detected optical signals to the location information output unit.

제402 단계 후에, 위치정보 출력부가 상기 장갑 마커부로부터 수신한 상기 광신호들로부터 상기 마커들 각각의 위치정보를 인식하고, 인식된 상기 마커들 각각의 위치정보를 상기 디스플레이장치로 무선 전송한다(제404 단계).After operation 402, the location information output unit recognizes location information of each of the markers from the optical signals received from the glove marker unit, and wirelessly transmits location information of each of the recognized markers to the display apparatus ( Step 404).

위치정보 출력부는 사전에 규약된 상기 광신호들에 대응하는 이진 코드들과 위치좌표값 간의 테이블정보를 참조하여 장갑 마커부에서 제공된 마커들 각각의 위치정보를 산출한다. The position information output unit calculates position information of each of the markers provided by the glove marker unit with reference to the table information between the binary codes corresponding to the optical signals previously prescribed and the position coordinate values.

어느 하나의 조명유닛에서 동시에 조사되는 광신호들은 서로 다른 패턴으로 공간분할되어 있으므로, 위치정보 출력부는 장갑 마커부의 각 마커들이 부착된 손가락의 위치 좌표값을 환산할 수 있다. 위치정보 출력부는 각각의 마커들에서 검출된 각 n개의 광신호들의 신호값들을 처리하여 이진 코드를 생성하며, 생성된 이진 코드를 이용해 이진 코드들과 위치좌표값 간의 관계식 또는 참조테이블로부터 각 마커들의 위치좌표값을 산출한다. Since the optical signals irradiated simultaneously by any one lighting unit are spatially divided into different patterns, the position information output unit may convert the position coordinate values of the fingers to which the markers of the glove marker unit are attached. The location information output unit generates a binary code by processing the signal values of the n optical signals detected by the respective markers, and generates the binary code by using the generated binary code. Calculate the position coordinate value.

동일한 방식으로, 위치정보 출력부는 나머지 k-1개의 조명유닛들에서 순차적으로 조사되는 광신호들에 대한 장갑 마커부의 검출된 광신호들을 각각 이진 코드화하고, 이를 위치 좌표값의 참조 테이블과 비교함으로써, 모든 조명유닛들에 따른 각 마커들의 위치정보를 각각 산출한다.In the same manner, the position information output unit binary codes the detected optical signals of the armor marker unit for the optical signals sequentially irradiated from the remaining k-1 lighting units, and compares them with the reference table of the position coordinate values, The position information of each marker according to all the lighting units is respectively calculated.

위치정보 출력부는 마커들에 대한 각각의 2차원 위치정보 또는 3차원 위치정보를 산출한다. 예를 들어, 도 6에 도시된 바와 같이, 1쌍의 조명유닛들 즉, 조명유닛 1 및 2(I1, I2)가 디스플레이 장치의 프레임 상에 서로 직각을 이루면서 장착되어 있거나, 조명유닛 3 및 4(I3, I4)가 디스플레이 장치의 프레임 상에 서로 직각을 이루면서 장착되어 있는 경우에, 위치정보 출력부는 1쌍을 이루는 2개의 조명유닛들로부터 각각 조사된 광신호들을 장갑 마커부로부터 수신하고, 각 마커들에 대한 위치를 2차원 공간 상에 2차원 좌표로 산출한다. 한편, 2쌍의 조명유닛들 즉, 조명유닛 1 및 2(I1, I2)와 조명유닛 3 및 4(I3, I4)가 디스플레이 장치의 프레임 상에 서로 직각을 이루면서 장착되어 있는 경우에, 위치정보 출력부는 2쌍을 이루는 4개의 조명유닛들로부터 각각 조사된 광신호들을 장갑 마커부로부터 수신하고, 각 마커들에 대한 위치를 3차원 공간 상에 3차원 좌표로 산출한다.The location information output unit calculates respective two-dimensional location information or three-dimensional location information for the markers. For example, as shown in FIG. 6, a pair of lighting units, that is, lighting units 1 and 2 (I 1 , I 2 ) are mounted on the frame of the display device at right angles to each other, or the lighting unit 3. And 4 (I 3 , I 4 ) are mounted on the frame of the display device at right angles to each other, the position information output section receives the optical signals irradiated from the pair of two lighting units from the armor marker section. Receive and calculate the position for each marker in two-dimensional coordinates in two-dimensional space. Meanwhile, two pairs of lighting units, that is, lighting units 1 and 2 (I 1 , I 2 ) and lighting units 3 and 4 (I 3 , I 4 ) are mounted on the frame of the display device at right angles to each other. The position information output unit receives the optical signals irradiated from the four lighting units of the two pairs from the armor marker unit, and calculates positions of the respective markers in three-dimensional coordinates in three-dimensional space.

위치정보 출력부는 산출된 각 마커들에 대한 위치정보를 디스플레이장치로 무선전송한다.The location information output unit wirelessly transmits the calculated location information of each marker to the display apparatus.

제404 단계 후에, 햅틱 수행부가 상기 위치정보의 전송에 따른 상기 디스플레이 장치로부터의 응답신호에 대응하여 촉각 인지 동작을 수행한다(제406 단계).After the step 404, the haptic performer performs a tactile recognition operation in response to the response signal from the display device according to the transmission of the location information (step 406).

디스플레이장치는 위치정보 출력부에서 전송된 위치정보에 대응하여, 위치 인식에 따른 디스플레이장치 내의 응답신호를 햅틱 수행부로 전송한다. 그러면, 장갑 마커부와 함께 구비되어 있는 햅틱 수행부는 위치정보의 전송에 따른 디스플레이 장치로부터의 응답신호에 대응하여 촉각 인지동작을 수행한다. 햅틱 수행부는 촉각 인지동작으로서 진동이나 힘, 압력 등을 발생시킴으로써 사용자가 촉감 등을 느낄 수 있도록 한다.
The display apparatus transmits a response signal in the display apparatus according to the position recognition to the haptic performing unit in response to the position information transmitted from the position information output unit. Then, the haptic performing unit provided with the glove marker unit performs a tactile perception operation in response to the response signal from the display device according to the transmission of the position information. The haptic performing unit generates a vibration, force, pressure, etc. as a tactile cognitive motion so that the user can feel the touch.

한편, 상술한 본 발명의 방법발명은 컴퓨터에서 읽을 수 있는 코드/명령들(instructions)/프로그램으로 구현될 수 있다. 예를 들면, 컴퓨터로 읽을 수 있는 기록 매체를 이용하여 상기 코드/명령들/프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는 마그네틱 저장 매체(예를 들어, 롬, 플로피 디스크, 하드디스크, 마그네틱 테이프 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 와 같은 저장 매체를 포함한다. Meanwhile, the method inventions of the present invention described above can be implemented in computer-readable code / instructions / programs. For example, it may be implemented in a general-purpose digital computer that operates the code / instructions / program using a computer-readable recording medium. The computer-readable recording medium includes a storage medium such as a magnetic storage medium (e.g., a ROM, a floppy disk, a hard disk, a magnetic tape, etc.), an optical reading medium (e.g., a CD-ROM, a DVD, .

전술한 본 발명인 손동작 인식 및 인터렉션을 위한 장갑장치 및 방법은 이해를 돕기 위하여 도면에 도시된 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위에 의해 정해져야 할 것이다.The above-described glove device and method for hand gesture recognition and interaction of the present invention have been described with reference to the embodiments shown in the drawings for clarity, but this is merely illustrative, and those skilled in the art will appreciate It will be appreciated that variations and other equivalent embodiments are possible. Accordingly, the true scope of the present invention should be determined by the appended claims.

100: 조명부
200: 장갑 마커부
300: 위치정보 출력부
310: 메모리
320: 위치산출모듈
330: 무선전송모듈
340: 제어모듈
350: 전원공급모듈
400: 햅틱 수행부
100: lighting unit
200: gloves marker portion
300: location information output unit
310: memory
320: position calculation module
330: wireless transmission module
340: control module
350: power supply module
400: haptic performer

Claims (25)

디스플레이장치에 장착되어 있으며, 서로 다른 패턴으로 공간분할된 n(n은 1보다 크거나 같은 자연수)개의 광신호들을 각각 조사하는 k(k는 1보다 크거나 같은 자연수)개의 조명유닛들을 구비하는 조명부;
장갑 형태를 갖으며, 상기 조명부에서 조사되는 상기 광신호들을 각각 검출하는 m(m은 1보다 크거나 같은 자연수)개의 마커들이 상기 장갑의 복수의 영역에 각각에 부착되어 있는 장갑 마커부; 및
상기 장갑 마커부로부터 수신한 상기 광신호들로부터 상기 마커들 각각의 위치정보를 인식하고, 인식된 상기 마커들 각각의 위치정보를 상기 디스플레이장치로 무선 전송하는 위치정보 출력부를 포함하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
Lighting unit mounted on the display device and having k (k is a natural number greater than or equal to 1) light units each of n (n is a natural number greater than or equal to 1) optical signals that are spatially divided into different patterns. ;
A glove marker having a glove shape and having m markers (m is a natural number greater than or equal to 1) for detecting the optical signals irradiated from the illumination unit, respectively, attached to a plurality of areas of the glove; And
And a location information output unit for recognizing location information of each of the markers from the optical signals received from the glove marker unit, and wirelessly transmitting the location information of each of the recognized markers to the display device. Armor device for hand gesture recognition and interaction.
제1항에 있어서,
상기 조명유닛들은 각각 n개의 조명소자들을 구비하고 있으며, 상기 조명소자들은 광원 및 공간분할소자를 각각 포함하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
The method of claim 1,
The lighting units are each provided with n lighting elements, the lighting device comprises a light source and a space dividing element, respectively, gloves for hand gesture recognition and interaction.
제2항에 있어서,
상기 공간분할소자는 일정 간격의 바코드 패턴으로 분할된 광투과 영역과 광차단 영역을 갖는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
3. The method of claim 2,
The space dividing element is a glove device for hand gesture recognition and interaction, characterized in that it has a light transmission area and a light blocking area divided into a bar code pattern at a predetermined interval.
제2항에 있어서,
상기 조명소자들은 각각 서로 다른 패턴으로 공간분할된 복수의 광신호들을 동시에 조사하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
3. The method of claim 2,
The lighting device is a glove device for hand gesture recognition and interaction, characterized in that to irradiate a plurality of optical signals spaced separately in different patterns at the same time.
제1항에 있어서,
상기 조명유닛들은 서로 순차적으로 복수의 광신호들을 조사하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
The method of claim 1,
The lighting unit is a glove device for hand gesture recognition and interaction, characterized in that for irradiating a plurality of optical signals sequentially with each other.
제2항에 있어서,
상기 조명소자들은 각각 서로 다른 편광방향을 갖는 조명 편광필터를 포함하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
3. The method of claim 2,
The lighting device is a glove device for hand gesture recognition and interaction, characterized in that each of the illumination polarization filter having a different polarization direction.
제2항에 있어서,
상기 조명소자들은 각각 서로 다른 파장대를 필터링하는 조명 대역통과필터를 포함하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
3. The method of claim 2,
The lighting device is a glove device for hand gesture recognition and interaction, characterized in that each of the illumination bandpass filter for filtering different wavelength bands.
제1항에 있어서,
2 차원 위치인식을 위해, 적어도 1쌍의 상기 조명유닛들이 서로 직각 방향을 이루며 상기 디스플레이 장치에 장착되어 있는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
The method of claim 1,
At least one pair of the illumination units for the two-dimensional position recognition, the armor device for hand gesture recognition and interaction, characterized in that the perpendicular to each other mounted on the display device.
제1항에 있어서,
3 차원 위치인식을 위해, 적어도 2쌍의 상기 조명유닛들이 서로 직각 방향을 이루며 상기 디스플레이 장치에 장착되어 있는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
The method of claim 1,
At least two pairs of the lighting units to be perpendicular to each other for three-dimensional position recognition is mounted on the display device, the armor device for hand gesture recognition and interaction.
제8항 및 제9항 중 어느 한 항에 있어서,
상기 조명유닛들은 상기 디스플레이 장치의 프레임 내의 모서리 부분에 장착되어 있는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
10. A method according to any one of claims 8 and 9,
The lighting unit is armored device for hand gesture recognition and interaction, characterized in that mounted on the corner portion of the frame of the display device.
제1항에 있어서,
상기 마커들은 각각 상기 광신호들을 수신하기 위한 n개의 포토다이오드들을 포함하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
The method of claim 1,
And the markers each include n photodiodes for receiving the optical signals.
제11항에 있어서,
상기 마커들은 각각 서로 다른 편광방향을 갖는 n개의 마커 편광필터들을 포함하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
12. The method of claim 11,
And the markers each include n marker polarization filters having different polarization directions, respectively.
제11항에 있어서,
상기 마커들은 각각 서로 다른 파장대를 필터링하는 n개의 마커 대역통과필터들을 포함하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
12. The method of claim 11,
And the markers each include n marker bandpass filters for filtering different wavelength bands.
제1항에 있어서,
상기 마커들은 상기 광신호들을 수신하기 위한 카메라모듈을 각각 포함하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
The method of claim 1,
The markers are gloves device for hand gesture recognition and interaction, characterized in that each of the camera module for receiving the optical signals.
제14항에 있어서,
상기 카메라 모듈은 상기 광신호들을 수신하기 위한 이미지 센서에 서로 다른 편광방향을 갖는 n개의 카메라 편광필터들을 장착한 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
15. The method of claim 14,
And the camera module is equipped with n camera polarization filters having different polarization directions in the image sensor for receiving the optical signals.
제14항에 있어서,
상기 카메라 모듈은 상기 광신호들을 수신하기 위한 이미지 센서에 서로 다른 파장대를 필터링하는 n개의 카메라 대역통과필터들을 장착한 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
15. The method of claim 14,
And the camera module is equipped with n camera bandpass filters for filtering different wavelength bands in the image sensor for receiving the optical signals.
제1항에 있어서, 상기 위치정보 출력부는
사전에 규약된 상기 광신호들에 대응하는 이진 코드들과 위치좌표값 간의 테이블정보를 저장하고 있는 메모리;
상기 장갑 마커부에서 제공된 상기 마커들 각각의 위치정보를 산출하는 위치산출모듈;
상기 위치산출모듈에서 산출된 상기 위치정보를 상기 디스플레이장치로 무선전송하는 무선전송모듈;
상기 위치산출모듈 및 상기 무선전송모듈의 동작을 제어하는 제어모듈; 및
상기 위치산출모듈, 상기 무선전송모듈 및 상기 제어모듈의 구동을 위한 전원을 공급하는 전원 공급모듈을 포함하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
According to claim 1, wherein the position information output unit
A memory for storing table information between binary codes and position coordinate values corresponding to the optical signals previously defined;
A position calculation module for calculating position information of each of the markers provided by the glove marker unit;
A wireless transmission module for wirelessly transmitting the location information calculated by the location calculation module to the display device;
A control module for controlling the operation of the position calculating module and the wireless transmission module; And
Armor apparatus for hand gesture recognition and interaction, characterized in that it comprises a power supply module for supplying power for driving the position calculation module, the wireless transmission module and the control module.
제17항에 있어서, 상기 위치산출모듈은
상기 마커들에 대한 각각의 2차원 위치정보 및 3차원 위치정보 중 어느 하나를 산출하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
The method of claim 17, wherein the position calculation module
Glove device for hand gesture recognition and interaction, characterized in that for calculating any one of the two-dimensional and three-dimensional position information for each of the markers.
제1항에 있어서, 상기 손동작 인식 및 인터렉션을 위한 장갑장치는
상기 위치정보의 전송에 따른 상기 디스플레이 장치로부터의 응답신호에 대응하여 촉각 인지 동작을 수행하는 햅틱 동작부를 더 포함하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
The apparatus of claim 1, wherein the glove device for hand gesture recognition and interaction
And a haptic operation unit for performing a tactile recognition operation in response to the response signal from the display device in response to the transmission of the position information.
제1항에 있어서,
상기 디스플레이장치는 디지털 TV, 데스크탑 PC, 태블릿 PC, 노트북 및 스마트폰 중 어느 하나 이상을 포함하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 장갑장치.
The method of claim 1,
The display device is a glove device for hand gesture recognition and interaction, characterized in that it comprises any one or more of a digital TV, desktop PC, tablet PC, notebook and smartphone.
디스플레이장치에 장착되어 있으며 서로 다른 패턴으로 공간분할된 n(n은 1보다 크거나 같은 자연수)개의 광신호들을 각각 조사하는 k(k는 1보다 크거나 같은 자연수)개의 조명유닛들을 구비하는 조명부가 상기 광신호들을 각각 조사하는 단계;
장갑 형태를 갖으며 상기 조명부에서 조사되는 상기 광신호들을 각각 검출하는 m(m은 1보다 크거나 같은 자연수)개의 마커들을 구비하는 장갑 마커부가 상기 광신호들을 각각 검출하는 단계; 및
위치정보 출력부가 상기 장갑 마커부로부터 수신한 상기 광신호들로부터 상기 마커들 각각의 위치정보를 인식하고, 인식된 상기 마커들 각각의 위치정보를 상기 디스플레이장치로 무선 전송하는 단계를 포함하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 방법.
The lighting unit having k (k is a natural number greater than or equal to 1) light units each of which is mounted on the display device and irradiates n (n is a natural number greater than or equal to 1) optical signals that are spatially divided into different patterns. Irradiating the optical signals respectively;
Detecting each of the optical signals by a glove marker having a glove shape and having m markers (m is a natural number greater than or equal to 1) for detecting the optical signals irradiated from the illumination unit; And
And a location information output unit recognizing location information of each of the markers from the optical signals received from the glove marker unit, and wirelessly transmitting the location information of each of the recognized markers to the display device. Method for hand gesture recognition and interaction.
제21항에 있어서, 상기 광신호들을 각각 조사하는 단계는
상기 조명유닛들 각각에 구비되어 있는 n개의 조명소자들은 각각 서로 다른 패턴으로 공간분할된 복수의 광신호들을 동시에 조사하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 방법.
The method of claim 21, wherein the step of irradiating the optical signals respectively
And n lighting elements provided in each of the lighting units irradiate a plurality of optical signals, each of which is spatially divided in different patterns, at the same time.
제21항에 있어서, 상기 광신호들을 각각 조사하는 단계는
상기 조명유닛들은 서로 순차적으로 복수의 광신호들을 조사하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 방법.
The method of claim 21, wherein the step of irradiating the optical signals respectively
And the illumination units irradiate a plurality of optical signals sequentially with each other.
제21항에 있어서, 상기 마커들 각각의 위치정보를 인식하는 단계는
상기 마커들에 대한 각각의 2차원 위치정보 및 3차원 위치정보 중 어느 하나를 인식하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 방법.
The method of claim 21, wherein recognizing location information of each of the markers
Recognizing any one of the two-dimensional and three-dimensional position information for each of the markers for hand gesture recognition and interaction.
제21항에 있어서, 상기 손동작 인식 및 인터렉션을 위한 방법은
햅틱 수행부가 상기 위치정보의 전송에 따른 상기 디스플레이 장치로부터의 응답신호에 대응하여 촉각 인지 동작을 수행하는 단계를 더 포함하는 것을 특징으로 하는 손동작 인식 및 인터렉션을 위한 방법.
22. The method of claim 21, wherein the method for hand gesture recognition and interaction is
And performing a haptic perception operation in response to a response signal from the display device according to the transmission of the position information.
KR1020130025261A 2012-09-17 2013-03-08 A glove apparatus for hand gesture cognition and interaction, and therefor method KR101385601B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120103002 2012-09-17
KR20120103002 2012-09-17

Publications (2)

Publication Number Publication Date
KR20140037741A true KR20140037741A (en) 2014-03-27
KR101385601B1 KR101385601B1 (en) 2014-04-21

Family

ID=50646495

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130025261A KR101385601B1 (en) 2012-09-17 2013-03-08 A glove apparatus for hand gesture cognition and interaction, and therefor method

Country Status (1)

Country Link
KR (1) KR101385601B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150121515A (en) 2014-04-21 2015-10-29 한국기술교육대학교 산학협력단 Exoskeleton-Type Glove

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101688193B1 (en) 2015-09-15 2016-12-20 한국원자력연구원 Data input apparatus and its method for tangible and gestural interaction between human-computer
KR101632550B1 (en) 2015-10-20 2016-06-22 이요훈 IP network based Social Network Service and chat application software system
KR102214322B1 (en) 2018-05-16 2021-02-09 (주)코어센스 Apparatus for providing macro function using gesture recognition and method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050122308A1 (en) * 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
NZ564834A (en) * 2005-07-01 2011-04-29 Sony Pictures Entertainment Representing movement of object using moving motion capture cameras within a volume
WO2008099301A1 (en) 2007-02-14 2008-08-21 Koninklijke Philips Electronics N.V. Feedback device for guiding and supervising physical exercises
GB2458927B (en) 2008-04-02 2012-11-14 Eykona Technologies Ltd 3D Imaging system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150121515A (en) 2014-04-21 2015-10-29 한국기술교육대학교 산학협력단 Exoskeleton-Type Glove

Also Published As

Publication number Publication date
KR101385601B1 (en) 2014-04-21

Similar Documents

Publication Publication Date Title
US10466036B2 (en) Attachable depth and orientation tracker device and method of depth and orientation tracking using focal plane polarization and color camera
US8237656B2 (en) Multi-axis motion-based remote control
TWI443587B (en) Three dimensional dual-mode scanning apparatus and three dimensional dual-mode scanning system
US9208566B2 (en) Speckle sensing for motion tracking
US8587520B2 (en) Generating position information using a video camera
US7976387B2 (en) Free-standing input device
US20100201808A1 (en) Camera based motion sensing system
WO2012126103A1 (en) Apparatus and system for interfacing with computers and other electronic devices through gestures by using depth sensing and methods of use
KR101385601B1 (en) A glove apparatus for hand gesture cognition and interaction, and therefor method
CN101655739B (en) Device for three-dimensional virtual input and simulation
US20210389818A1 (en) System and method for human interaction with virtual objects
US20210279893A1 (en) Interactive entertainment system
US10126123B2 (en) System and method for tracking objects with projected m-sequences
US9285887B2 (en) Gesture recognition system and gesture recognition method thereof
WO2009133412A1 (en) Computer input device
KR101339644B1 (en) An location recognizing apparatus for a dynamic object, and thereof method
WO2016170804A1 (en) User interface device and user interface system
US8760437B2 (en) Sensing system
KR101418872B1 (en) Wireless recognizing apparatus for location of dynamic object in real-time, and thereof method
TWI753452B (en) Projecting a structured light pattern from an apparatus having an oled display screen
You et al. Implementation of an Autostereoscopic Virtual 3D Button in Non-contact Manner Using Simple Deep Learning Network
JP6977991B2 (en) Input device and image display system
Kim et al. Long-range hand gesture interaction based on spatio-temporal encoding
US9977305B2 (en) Spatial information capturing device

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170403

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180409

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190408

Year of fee payment: 6