KR20110115508A - Method and apparatus for user interraction - Google Patents

Method and apparatus for user interraction Download PDF

Info

Publication number
KR20110115508A
KR20110115508A KR1020100132490A KR20100132490A KR20110115508A KR 20110115508 A KR20110115508 A KR 20110115508A KR 1020100132490 A KR1020100132490 A KR 1020100132490A KR 20100132490 A KR20100132490 A KR 20100132490A KR 20110115508 A KR20110115508 A KR 20110115508A
Authority
KR
South Korea
Prior art keywords
image
pattern frame
user interaction
state
output unit
Prior art date
Application number
KR1020100132490A
Other languages
Korean (ko)
Inventor
이동우
손용기
김배선
조일연
정현태
임정묵
신희숙
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to EP20110162471 priority Critical patent/EP2378394A3/en
Priority to US13/087,897 priority patent/US20110254810A1/en
Priority to CN201110121334.0A priority patent/CN102221879B/en
Publication of KR20110115508A publication Critical patent/KR20110115508A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Abstract

본 발명은 사용자 인터랙션 장치 및 방법에 관한 것으로서, 개시된 사용자 인터랙션 장치는 구조영상 패턴 프레임을 출력하는 패턴 프레임 출력부와, 구조영상 패턴 프레임이 포함된 영상을 출력하는 영상 출력부와, 영상 출력부의 출력 영상 중에서 상기 구조영상 패턴 프레임을 캡쳐하는 영상 획득부와, 영상 획득부가 캡쳐한 구조영상 패턴 프레임을 영상 처리하여 사용자 입력을 인식하는 영상 인식부를 포함하며, 사용자가 맨손으로 인터랙션 할 수 있으면서도 캡쳐한 영상에 대한 저연산이 요구되어 인터랙션 처리에 단시간이 필요하고, 이로써 빠른 응답 시간을 제공하며, 패턴 프레임을 사용함에 따라 피부색과 주변광에 대해 강인한 인식성을 발휘하고, 프로젝터의 밝기, 색상, 포커스 등을 빠르게 보정하고 출력 화면을 특정 공간에 신속하고도 정확하게 왜곡 없이 정합시킬 수 있는 이점이 있다.The present invention relates to a user interaction apparatus and method, wherein the disclosed user interaction apparatus includes a pattern frame output unit for outputting a structural image pattern frame, an image output unit for outputting an image including a structural image pattern frame, and an output of the image output unit. An image acquisition unit for capturing the structural image pattern frame from the image, and an image recognition unit for recognizing a user input by processing the structural image pattern frame captured by the image acquisition unit, the captured image while the user can interact with bare hands It requires low computational time and requires a short time for interaction processing, thereby providing fast response time, and by using pattern frame, it shows strong recognition of skin color and ambient light, and projector brightness, color, focus, etc. Quickly calibrate the output screen to a specific space There is an advantage in that it can be accurately matched without distortion.

Description

사용자 인터랙션 장치 및 방법{METHOD AND APPARATUS FOR USER INTERRACTION}Device and method of user interaction {METHOD AND APPARATUS FOR USER INTERRACTION}

본 발명은 사용자 인터랙션 장치 및 방법에 관한 것으로, 더욱 상세하게는 프로젝터와 카메라를 구비한 프로젝션 컴퓨터 등에서 사용자와의 인터랙션을 통해 사용자 입력을 인식하는 사용자 인터랙션 장치 및 그 방법에 관한 것이다.
The present invention relates to a user interaction apparatus and method, and more particularly, to a user interaction apparatus and method for recognizing a user input through interaction with a user in a projection computer having a projector and a camera.

최근에는 기술의 발달로 인하여 프로젝터 및 카메라가 소형화 되어 모바일 기기에 탑재가 되면서 그 활용가치가 더욱 높아지고 있다.Recently, due to the development of technology, projectors and cameras have been miniaturized and mounted on mobile devices, and their use value has increased.

또한 소형 프로젝터 및 카메라를 착용형 형태로 제작하여 목에 걸거나 어깨 등에 장착하고 다양한 서비스 제공을 위한 프로토 타입이 개발되고 있으며, 포터블 형태로 가지고 다니면서 사용 가능한 시스템도 개발되고 있다.In addition, prototypes have been developed for making small projectors and cameras wearable, hanging on the neck or shoulders, and providing various services.

도 1a 및 도 1b는 종래 기술에 따른 착용형 프로젝션 컴퓨터의 사용 예를 나타낸 것으로서, 프로젝터와 같은 출력 수단과 입력을 위한 카메라 등이 함께 구비된 프로젝션 컴퓨터 시스템을 나타내었다.1A and 1B illustrate a usage example of a wearable projection computer according to the related art, which illustrates a projection computer system including an output means such as a projector and a camera for input.

이러한 프로젝션 컴퓨터에서 사용자와의 인터랙션을 하기 위해서는 프로젝션된 영상에서 사용자의 입력을 센싱하고 인식하는 것이 매우 중요하다.In order to interact with the user in such a projection computer, it is very important to sense and recognize the user's input in the projected image.

모바일 환경에서 효율적인 인터랙션을 위해서는 손바닥 또는 테이블에 영상을 투사하고 맨손의 손가락을 이용하여 인터랙션 하는 방법이 효과적인데 이를 모바일 임베디드 시스템에서 수행하기 위해서는 저연산 방식의 인식기술이 요구된다.For efficient interaction in a mobile environment, a method of projecting an image on a palm or a table and using a bare finger to interact is effective. In order to perform this in a mobile embedded system, a low computation type recognition technology is required.

종래 기술에 의하면, 사용자의 포스처 인식을 통한 인터랙션의 인식 성능을 높이기 위해서 칼라 마커 등과 같은 인터랙션 인식 향상 수단을 손 또는 손가락에 물리적으로 착용하는 방식을 이용하였으나, 이는 사용자가 칼라 마커 등과 같은 인터랙션 인식 향상 수단을 휴대하여야 하는 불편한 문제점이 있었다.According to the related art, in order to increase the recognition performance of the interaction through the posture recognition of the user, a method of physically wearing an interaction recognition improving means such as a color marker on the hand or the finger has been used, but the user may recognize the interaction such as the color marker. There was an uncomfortable problem of carrying the improvement means.

이러한 불편함을 해소하기 위하여 맨손(bare-hands)으로 인터랙션 하는 기술도 개발되고 있지만 카메라를 통해 캡쳐한 자연 영상을 영상 처리하여 사용자 입력을 인식하고 있으며, 이 경우에는 자연 영상에서 사용자 입력을 분별하기 위해서는 고도의 연산이 요구되어 인터랙션 처리에 장시간이 필요하고, 임베디드 시스템과 같은 경우에는 빠른 응답 시간을 제공하지 못하는 문제점이 있었다. 특히 손바닥 또는 테이블과 같은 표면에 맨 손가락을 이용하여 터치하는 동작은 인식하는 것은 많은 연산량을 필요로 하는 매우 어려운 기술이다.In order to alleviate this inconvenience, technologies for interacting with bare-hands have also been developed, but natural input captured by the camera is processed to recognize user input, in which case discerning user input from natural video. In order to require a high level of computation, interaction processing requires a long time, and in the case of an embedded system, there is a problem in that it does not provide fast response time. In particular, it is very difficult to recognize a touch operation using a bare finger on a surface such as a palm or a table, which requires a large amount of computation.

또한, 프로젝터를 이용하여 질 좋은 서비스를 제공하기 위해서는 출력 영상의 밝기, 색상, 포커스 등이 잘 맞아야 하고 왜곡이 발생하지 않아야 하며, 이를 위해서는 프로젝터의 밝기, 색상, 포커스 등을 보정(adjustment)하고 출력 화면을 특정 공간에 정확히 정합(matching)시켜야 하는 데, 종래 기술에 의하면 이를 위해서도 고도의 연산이 요구되어 보정이나 정합에 장시간이 요구되는 문제점이 있었다.
In addition, in order to provide quality service using the projector, the brightness, color, focus, etc. of the output image should be well matched, and distortion should not occur. For this purpose, the brightness, color, focus, etc. of the projector should be adjusted and output. It is necessary to exactly match the screen to a specific space. According to the related art, a high level of computation is required for this purpose, and a long time is required for correction or registration.

본 발명은 이와 같은 종래 기술의 문제점을 해결하기 위해 제안한 것으로서, 사용자가 맨손으로 인터랙션 할 수 있으면서도 캡쳐한 영상에 대한 저연산이 요구되어 인터랙션 처리에 단시간이 필요하고, 이로써 빠른 응답 시간을 제공하는 사용자 인터랙션 장치 및 방법을 제공한다.The present invention has been proposed to solve the above problems of the prior art, and the user can interact with the bare hand, but low computation is required for the captured image, which requires a short time in the interaction process, thereby providing a fast response time. Provided is an interaction apparatus and method.

또한 본 발명은 프로젝터의 밝기, 색상, 포커스 등을 빠르게 보정하고 출력 화면을 특정 공간에 신속하고도 정확히 정합시킬 수 있도록 한다.
In addition, the present invention allows to quickly correct the brightness, color, focus, etc. of the projector and to quickly and accurately match the output screen to a specific space.

본 발명의 제 1 관점으로서 사용자 인터랙션 장치는, 구조영상(structured light) 패턴 프레임을 출력하는 패턴 프레임 출력부와, 상기 구조영상 패턴 프레임이 포함된 영상을 출력하는 영상 출력부와, 상기 영상 출력부의 출력 영상 중에서 상기 구조영상 패턴 프레임을 캡쳐하는 영상 획득부와, 상기 영상 획득부가 캡쳐한 상기 구조영상 패턴 프레임을 영상 처리하여 사용자 입력을 인식하는 영상 인식부를 포함할 수 있다.As a first aspect of the present invention, a user interaction apparatus includes a pattern frame output unit configured to output a structured light pattern frame, an image output unit configured to output an image including the structured image pattern frame, and the image output unit. An image acquisition unit may capture the structural image pattern frame from an output image, and an image recognition unit configured to image the structural image pattern frame captured by the image acquisition unit to recognize a user input.

상기 영상 출력부는 상기 구조영상 패턴 프레임의 출력을 위해 추가 장치를 구비하거나 프로젝터를 포함할 수 있다.The image output unit may include an additional device or a projector for outputting the structural image pattern frame.

여기서, 상기 구조영상 패턴 프레임은, 단색 패턴 프레임 또는 칼라 패턴 프레임을 이용할 수 있다.Here, the structure image pattern frame may use a monochrome pattern frame or a color pattern frame.

상기 구조영상 패턴 프레임은, 적외선 패턴 프레임을 이용할 수 있으며, 상기 사용자 인터랙션 장치는, 상기 적외선 패턴 프레임이 포함된 영상을 출력하기 위해 적녹청/적외선 광원을 구동하는 광원 제어부를 더 포함할 수 있다.The structure image pattern frame may use an infrared pattern frame, and the user interaction device may further include a light source controller configured to drive a red / cyan / infrared light source to output an image including the infrared pattern frame.

상기 구조영상 패턴 프레임은, 그리드 형태를 포함할 수 있다.The structure image pattern frame may include a grid shape.

상기 영상 인식부는, 영상 처리한 상기 구조영상 패턴 프레임의 포커스 상태 또는 왜곡 상태 중에서 적어도 하나 이상의 상태를 인식할 수 있으며, 상기 사용자 인터랙션 장치는, 인식된 상기 상태에 따라 상기 영상 출력부에 포함된 광학계의 포커스, 팬 또는 틸트 중에서 적어도 하나 이상을 제어하여 포커스 또는 왜곡 중에서 적어도 하나 이상을 보정하는 광학 제어부를 더 포함할 수 있다.The image recognition unit may recognize at least one or more states of a focus state or a distortion state of the structural image pattern frame processed by the image, and the user interaction apparatus may include an optical system included in the image output unit according to the recognized state. The optical control unit may further include controlling an at least one of focus, pan, or tilt of the optical control unit to correct at least one of focus or distortion.

상기 영상 인식부는, 영상 처리한 상기 구조영상 패턴 프레임의 밝기 상태 또는 색상 상태 중에서 적어도 하나 이상의 상태를 인식할 수 있으며, 상기 영상 출력부는, 인식된 상기 상태에 따라 밝기 상태 또는 색상 상태 중에서 적어도 하나 이상을 보정할 수 있다.
The image recognition unit may recognize at least one or more states of the brightness state or the color state of the structural image pattern frame processed by the image, and the image output unit may include at least one of the brightness state or the color state according to the recognized state. Can be corrected.

본 발명의 제 2 관점으로서 영상 출력부와 영상 획득부를 포함하는 사용자 인터랙션 장치의 사용자 인터랙션 방법은, 상기 영상 출력부를 통해 구조영상 패턴 프레임이 포함된 영상을 출력하는 단계와, 상기 영상 획득부를 이용하여 상기 영상 출력부의 출력 영상 중에서 상기 구조영상 패턴 프레임을 캡쳐하는 단계와, 캡쳐한 상기 구조영상 패턴 프레임을 영상 처리하여 사용자 입력을 인식하는 단계를 포함할 수 있다.According to a second aspect of the present invention, a user interaction method of a user interaction apparatus including an image output unit and an image acquisition unit includes outputting an image including a structure image pattern frame through the image output unit, and using the image acquisition unit. The method may include capturing the structural image pattern frame from the output image of the image output unit and recognizing a user input by image processing the captured structural image pattern frame.

여기서, 상기 구조영상 패턴 프레임은, 단색 패턴 프레임 또는 칼라 패턴 프레임을 이용할 수 있다.Here, the structure image pattern frame may use a monochrome pattern frame or a color pattern frame.

상기 구조영상 패턴 프레임은, 적외선 패턴 프레임을 이용할 수 있으며, 상기 사용자 인터랙션 방법은, 상기 적외선 패턴 프레임이 포함된 영상을 출력하기 위해 적녹청/적외선 광원을 구동하는 단계를 더 포함할 수 있다.The structure image pattern frame may use an infrared pattern frame, and the user interaction method may further include driving a red / cyan / infrared light source to output an image including the infrared pattern frame.

상기 구조영상 패턴 프레임은, 그리드 형태를 포함할 수 있다.The structure image pattern frame may include a grid shape.

상기 사용자 입력을 인식하는 단계는, 영상 처리한 상기 구조영상 패턴 프레임의 포커스 상태 또는 왜곡 상태 중에서 적어도 하나 이상의 상태를 인식할 수 있으며, 상기 사용자 인터랙션 방법은, 인식된 상기 상태에 따라 상기 영상 출력부에 포함된 광학계의 포커스, 팬 또는 틸트 중에서 적어도 하나 이상을 제어하여 포커스 또는 왜곡 중에서 적어도 하나 이상을 보정하는 단계를 더 포함할 수 있다.The recognizing of the user input may include recognizing at least one of a focus state or a distorted state of the structured image pattern frame processed by the image, and the user interaction method includes: the image output unit according to the recognized state; The method may further include correcting at least one of focus or distortion by controlling at least one of focus, pan, or tilt of the optical system included in the optical system.

상기 사용자 입력을 인식하는 단계는, 영상 처리한 상기 구조영상 패턴 프레임의 밝기 상태 또는 색상 상태 중에서 적어도 하나 이상의 상태를 인식할 수 있으며, 상기 사용자 인터랙션 방법은, 인식된 상기 상태에 따라 밝기 상태 또는 색상 상태 중에서 적어도 하나 이상을 보정하는 단계를 더 포함할 수 있다.The recognizing of the user input may include recognizing at least one of a brightness state or a color state of the structured image pattern frame processed by the image, and the user interaction method may include a brightness state or a color according to the recognized state. The method may further include correcting at least one of the states.

상기 사용자 입력을 인식하는 단계는, 상기 영상 획득부가 캡쳐한 상기 영상 출력부의 출력 영상 중에서 상기 구조영상 패턴 프레임을 추출한 후 모양 또는 밝기의 변화를 인식하여 상기 사용자 입력을 인식할 수 있다.
The recognizing of the user input may extract the structural image pattern frame from the output image of the image output unit captured by the image acquisition unit, and then recognize the user input by recognizing a change in shape or brightness.

본 발명의 실시 예에 의하면, 사용자가 맨손으로 인터랙션 할 수 있으면서도 캡쳐한 영상에 대한 저연산이 요구되어 인터랙션 처리에 단시간이 필요하고, 이로써 빠른 응답 시간을 제공한다.According to an embodiment of the present invention, while the user can interact with the bare hand, low computation is required for the captured image, which requires a short time for the interaction process, thereby providing a fast response time.

그리고 패턴 프레임을 사용함에 따라 피부색과 주변광에 대해 강인한 인식성을 발휘한다.And by using pattern frame, it shows strong recognition of skin color and ambient light.

또한 프로젝터의 밝기, 색상, 포커스 등을 빠르게 보정하고 출력 화면을 특정 공간에 신속하고도 정확하게 왜곡 없이 정합시킬 수 있다.You can also quickly calibrate the projector's brightness, color, and focus, and align the output screen quickly and accurately without distortion in a specific space.

이러한 본 발명은 프로젝션 컴퓨터 등의 프로젝터 시스템은 물론이고 영상 출력장치와 영상 획득장치를 구비한 모바일 기기에도 활용할 수 있으며, 특히 주변 광량, 조명, 흔들림 등의 주변 환경 변화가 심한 모바일 기기나 착용형 시스템 또는 저연산 기술이 필요한 소형 임베디드 시스템 등에서 더욱 활용 가치가 높다.
The present invention can be used not only for a projector system, such as a projection computer, but also for a mobile device having an image output device and an image acquisition device, and in particular, a mobile device or a wearable system in which changes in the surrounding environment such as ambient light quantity, lighting, and shaking are severe. It is also more valuable in small embedded systems that require low computational technology.

도 1a 및 도 1b는 종래 기술에 따른 프로젝션 컴퓨터의 사용 예를 나타낸 도면.
도 2는 본 발명의 실시 예에 따른 사용자 인터랙션 장치의 구성도.
도 3 및 도 4는 본 발명의 실시 예에 따른 구조영상 패턴 프레임의 예시 도면.
도 5는 본 발명의 실시 예에 따른 구조영상 패턴 프레임의 삽입 상태 및 캡쳐 상태를 보인 도면.
도 6은 본 발명의 실시 예에 따른 사용자 인터랙션 장치에 의해 캡쳐된 구조영상 패턴 프레임의 예로서, 손가락 터치 동작과 미터치 동작의 변화된 모양을 나타낸 도면.
도 7은 도 6의 영상에서 패턴만 추출된 모습을 나타낸 도면.
도 8은 비평면 또는 기울어진 투사체로 인한 출력 영상 패턴의 왜곡을 나타낸 도면.
도 9는 포커스가 맞지 않는 경우에 캡쳐한 구조영상 패턴 프레임의 모습을 나타낸 도면.
도 10은 본 발명의 실시 예에 따른 프로젝터/카메라 일체형 프로젝션 시스템의 예시도.
도 11은 DLP 방식의 프로젝터 시스템에 RGB/IR 광원을 추가한 상태를 보인 구성도.
도 12 내지 도 14는 본 발명의 실시 예에 따른 구조영상 패턴 프레임의 출력을 위한 프로젝터의 구성도.
도 15는 본 발명의 실시 예에 따른 사용자 인터랙션 방법을 설명하기 위한 흐름도.
1A and 1B show an example of use of a projection computer according to the prior art.
2 is a block diagram of a user interaction apparatus according to an embodiment of the present invention.
3 and 4 are exemplary diagrams of a structural image pattern frame according to an embodiment of the present invention.
5 is a view showing an insertion state and a capture state of the structure image pattern frame according to an embodiment of the present invention.
6 is an example of a structure image pattern frame captured by a user interaction device according to an embodiment of the present invention.
7 is a view showing a state in which only a pattern extracted from the image of FIG.
8 illustrates distortion of an output image pattern due to non-planar or tilted projectiles.
9 is a view showing a structure image pattern frame captured when the focus is out of focus.
10 is an exemplary view of a projector / camera integrated projection system according to an embodiment of the present invention.
11 is a diagram illustrating a state in which an RGB / IR light source is added to a DLP type projector system.
12 to 14 are configuration diagrams of a projector for outputting a structured image pattern frame according to an embodiment of the present invention.
15 is a flowchart illustrating a user interaction method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms, and only the embodiments of the present invention make the disclosure of the present invention complete and the general knowledge in the technical field to which the present invention belongs. It is provided to fully convey the scope of the invention to those skilled in the art, and the present invention is defined only by the scope of the claims.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.

첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. Combinations of each block of the accompanying block diagram and each step of the flowchart may be performed by computer program instructions. These computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment such that instructions executed through the processor of the computer or other programmable data processing equipment may not be included in each block or flowchart of the block diagram. It will create means for performing the functions described in each step. These computer program instructions may be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner, and thus the computer usable or computer readable memory. It is also possible for the instructions stored in to produce an article of manufacture containing instruction means for performing the functions described in each block or flowchart of each step of the block diagram. Computer program instructions may also be mounted on a computer or other programmable data processing equipment, such that a series of operating steps may be performed on the computer or other programmable data processing equipment to create a computer-implemented process to create a computer or other programmable data. Instructions that perform processing equipment may also provide steps for performing the functions described in each block of the block diagram and in each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
Also, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions noted in the blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may sometimes be performed in reverse order according to the corresponding function.

도 2는 본 발명의 실시 예에 따른 사용자 인터랙션 장치의 구성도이다.2 is a block diagram of a user interaction apparatus according to an exemplary embodiment of the present invention.

이에 나타낸 바와 같이 사용자 인터랙션 장치는, 패턴 프레임 출력부(100), 영상 출력부(200), 광원 제어부(300), 광학 제어부(400), 영상 획득부(500), 동기화부(600), 영상 인식부(700) 등을 포함할 수 있으며, 광원 제어부(300), 광학 제어부(400), 동기화부(600)는 구현에 따라서 생략이 가능하다.As shown in the drawing, the user interaction apparatus includes a pattern frame output unit 100, an image output unit 200, a light source control unit 300, an optical control unit 400, an image acquisition unit 500, a synchronization unit 600, and an image. The recognition unit 700 may be included, and the light source control unit 300, the optical control unit 400, and the synchronization unit 600 may be omitted depending on the implementation.

패턴 프레임 출력부(100)는 구조영상 패턴 프레임을 출력한다. 여기서, 구조영상 패턴 프레임은 단색 패턴 프레임, 칼라 패턴 프레임 또는 적외선 패턴 프레임을 이용할 수 있으며, 그리드 형태를 포함할 수 있다.The pattern frame output unit 100 outputs a structural image pattern frame. Here, the structure image pattern frame may use a monochrome pattern frame, a color pattern frame, or an infrared pattern frame, and may include a grid shape.

영상 출력부(200)는 구조영상 패턴 프레임이 포함된 영상을 스크린 등과 같은 표시영역에 투영한다. 이러한 영상 출력부(200)는 영상 인식부(700)가 영상 획득부(500)에 의해 캡쳐된 패턴 프레임의 밝기 상태 및/또는 색상 상태를 인식하면 인식된 상태에 따라 밝기 상태 및/또는 색상 상태를 보정할 수 있다.The image output unit 200 projects an image including a structural image pattern frame onto a display area such as a screen. When the image recognizer 700 recognizes the brightness state and / or the color state of the pattern frame captured by the image acquisition unit 500, the image output unit 200 may display the brightness state and / or the color state according to the recognized state. Can be corrected.

동기화부(600)는 영상 출력부(200)와 영상 획득부(500)의 프레임을 동기화 시킨다.The synchronizer 600 synchronizes the frames of the image output unit 200 and the image acquirer 500.

영상 획득부(500)는 영상 출력부(200)의 출력 영상 중에서 구조영상 패턴 프레임을 캡쳐한다. 여기서, 패턴 프레임 출력부(100)가 입력 영상에 적외선 패턴 프레임을 추가한 경우에 영상 획득부(500)는 적외선 카메라 기능을 구비하여야 한다.The image acquisition unit 500 captures a structural image pattern frame from the output image of the image output unit 200. Here, when the pattern frame output unit 100 adds an infrared pattern frame to the input image, the image acquisition unit 500 should have an infrared camera function.

영상 인식부(700)는 영상 획득부(500)가 캡쳐한 구조영상 패턴 프레임을 영상 처리하여 사용자 입력을 인식한다. 여기서, 패턴 프레임 출력부(100)가 입력 영상에 단색 패턴 프레임 또는 칼라 패턴 프레임을 추가한 경우에 영상 인식부(700)는 영상 처리한 패턴 프레임의 밝기 상태, 색상 상태, 포커스 상태 또는 왜곡 상태 중에서 적어도 하나 이상의 상태 또는 모든 상태를 인식한다.The image recognizer 700 recognizes a user input by image processing the structural image pattern frame captured by the image acquirer 500. Here, when the pattern frame output unit 100 adds a monochromatic pattern frame or a color pattern frame to the input image, the image recognition unit 700 may be configured to select from among the brightness state, color state, focus state, or distortion state of the patterned pattern frame. Recognize at least one or all states or all states.

광학 제어부(400)는 영상 인식부(700)가 구조영상 패턴 프레임의 포커스 상태 또는 왜곡 상태 중에서 적어도 하나 이상의 상태 또는 모든 상태를 인식한 경우에 인식된 상태에 따라 영상 출력부(200)에 포함된 광학계의 포커스, 팬 또는 틸트 중에서 적어도 하나 이상 또는 모두를 제어하여 포커스 또는 왜곡 중에서 적어도 하나 이상 또는 모두를 보정한다.The optical controller 400 is included in the image output unit 200 according to the recognized state when the image recognizer 700 recognizes at least one or all or all states of the focus state or the distortion state of the structural image pattern frame. At least one or all or all of the focus, pan, or tilt of the optical system is controlled to correct at least one or all or all of the focus or distortion.

광원 제어부(300)는 패턴 프레임 출력부(100)가 입력 영상에 적외선 패턴 프레임을 추가하는 경우에 필요한 구성요소로서, 적외선 패턴 프레임을 영상 출력부(200)의 입력 영상에 추가하기 위해 적녹청/적외선 광원을 구동한다.
The light source controller 300 is a component required when the pattern frame output unit 100 adds an infrared pattern frame to an input image. The light source control unit 300 adds an infrared pattern frame to the input image of the image output unit 200. Drive the infrared light source.

도 3 및 도 4는 본 발명의 실시 예에 따른 패턴 프레임의 예시 도면이다.3 and 4 are exemplary views of a pattern frame according to an embodiment of the present invention.

패턴 프레임 출력부(100)가 영상 출력부(200)의 입력 영상에 추가하는 구조영상 패턴 프레임은 그리드 형태를 포함하는 다양한 형태로 실시할 수 있으며, 도 3 및 도 4를 이 중에서 일부의 실시 예를 보인 것이다. 도 3의 구조영상 패턴 프레임과 같이 시작 알림 패턴(111), 끝 알림 패턴(112), RGB 색상 보정 패턴(113), 가로열/세로열/인덱스 패턴(114) 등을 포함할 수 있으며, 도 4와 같이 방송 신호의 색상 조정 화면 형태로 실시할 수도 있다. 특히 기존의 AR(Augmented Reality) 기술에서 많이 사용하는 방식인 마커 형태의 패턴으로 AR 기술을 쉽게 접목 할 수도 있다.The structure image pattern frame added by the pattern frame output unit 100 to the input image of the image output unit 200 may be implemented in various forms including a grid form, and FIG. 3 and FIG. Will be shown. As shown in the structure image pattern frame of FIG. 3, a start notification pattern 111, an end notification pattern 112, an RGB color correction pattern 113, a horizontal column, a vertical column, and an index pattern 114 may be included. As shown in Fig. 4, it may be implemented in the form of a color adjustment screen of the broadcast signal. In particular, AR technology can be easily combined with a marker-type pattern, which is a method commonly used in existing AR (Augmented Reality) technology.

이러한 구조영상 패턴 프레임은 영상 출력부(200)에 의해 출력 영상으로 투영되며, 영상 출력부(200)와 동기화된 영상 획득부(500)에 의해 캡쳐된다.
The structure image pattern frame is projected to the output image by the image output unit 200 and is captured by the image acquisition unit 500 synchronized with the image output unit 200.

도 5에서는 출력 영상에 구조영상 패턴 프레임을 추가하는 모습과 동기화된 영상 획득부가 추가된 구조영상 패턴 프레임을 캡쳐하는 방법에 대해서 도시하고 있다. 구조영상 패턴 프레임은 기 설정 주기에 맞추어서 일반 영상 프레임들 사이에 삽입할 수 있으며, 영상 출력부(200)와 프레임이 동기화된 영상 획득부(500)는 설정 주기에 맞추어서 구조영상 패턴 프레임을 캡쳐한다.FIG. 5 illustrates a method of capturing a structural image pattern frame to which a structure image pattern frame is added to an output image and a synchronized image acquisition unit. The structural image pattern frame may be inserted between normal image frames according to a preset period, and the image output unit 500 in which the image output unit 200 and the frame are synchronized captures the structural image pattern frame according to the preset period. .

구조영상 패턴 프레임으로는 용도에 따라 단색 패턴 프레임, 칼라 패턴 프레임, 적외선 패턴 프레임 등을 사용할 수 있다. 단색 및 칼라 패턴 프레임은 색상 및 밝기 보정에도 사용할 수 있으며, 영상 출력부(200)의 실시 예로 구현할 수 있는 대부분의 프로젝터 모듈을 이용할 수 있다는 장점이 있다. 아울러, 배경과 구별이 쉽게 되는 색의 패턴을 삽입할 수 있다는 장점이 있다. 하지만 출력화면의 품질을 위해서는 구조영상 패턴 프레임이 사용자의 눈에 보이지 않아야 하기에 단위 시간당 삽입할 수 있는 구조영상 패턴 프레임의 횟수에 한계가 있으며, 사용자 입력을 인식하는 품질을 높이기 위해 많은 구조영상 패턴 프레임을 삽입하고자 할 경우에는 고속의 패턴 삽입과 고속의 화면 캡쳐가 요구된다. 적외선 패턴 프레임은 적외선 카메라로 영상을 캡쳐할 때 패턴 영상만을 얻을 수 있어 영상 처리가 더욱 쉽고, 사람의 눈에 보이지 않기 때문에 시간당 삽입할 수 있는 구조영상 패턴 프레임의 횟수에 제한이 거의 없다. 다만 색상, 밝기 보정에 사용이 불가능하고 적녹청 광원뿐만 아니라 적외선을 광원으로 사용하는 프로젝터 모듈에서 사용이 가능하다.As the structure image pattern frame, a monochrome pattern frame, a color pattern frame, an infrared pattern frame, etc. may be used depending on the purpose. Monochromatic and color pattern frames can be used for color and brightness correction, and most projector modules that can be implemented in the embodiment of the image output unit 200 can be used. In addition, there is an advantage that can be inserted into the pattern of the color that is easy to distinguish from the background. However, for the quality of the output screen, since the structural image pattern frame should not be visible to the user, there is a limit to the number of structural image pattern frames that can be inserted per unit time. In order to insert a frame, high speed pattern insertion and high speed screen capture are required. Infrared pattern frames can only obtain pattern images when capturing images with infrared cameras, making image processing easier and are almost invisible to the human eye, so there is almost no limit to the number of structured image pattern frames that can be inserted per hour. However, it cannot be used for color and brightness correction and can be used in projector modules that use infrared light as a light source as well as red-cyan light sources.

본 발명의 실시 예에 같이 구조영상 패턴 프레임을 사용하면 영상 출력부(200)에서 출력되는 일반 영상과 패턴 영상이 출력되는 시간이 다르기 때문에 구조영상 패턴 프레임이 출력되는 시간에만 영상 획득부(500)로부터 이미지를 가져와 영상 처리를 수행하더라도 사용자 입력을 인식할 수 있기 때문에 사용자의 인터랙션 인식에 영향을 미치지 않는다.
When the structure image pattern frame is used as in the embodiment of the present invention, since the time for outputting the pattern image is different from the general image output from the image output unit 200, the image acquisition unit 500 only at the time when the structure image pattern frame is output. Importing an image from an image and performing image processing does not affect the user's interaction recognition because it can recognize user input.

도 6은 본 발명의 실시 예에 따른 사용자 인터랙션 장치에 의해 캡쳐된 패턴 프레임의 예로서, 손가락 터치 동작과 미터치 동작의 변화된 모양을 나타낸 도면이며, 도 7은 도 6의 영상에서 패턴만 추출 된 모습을 나타낸 도면이다.FIG. 6 is an example of a pattern frame captured by a user interaction apparatus according to an exemplary embodiment of the present invention, and illustrates a changed shape of a finger touch gesture and a metric gesture, and FIG. 7 extracts only a pattern from the image of FIG. It is a figure showing the state.

도 6에서 (a)는 손가락 터치 동작 시에 영상 획득부(500)가 캡쳐한 영상이고, (b)는 손가락 미터치 동작 시에 영상 획득부(500)가 캡쳐한 영상이다. 사용자가 손가락으로 손바닥, 테이블과 같은 표면(surface)을 터치하였을 때에는 손가락과 표면(surface)이 거의 동일한 평면상에 위치하므로 영상 인식부(700)에서 패턴만을 추출하면 도 7의 (a)와 같이 손 끝 부분에서의 패턴의 변화(왜곡, 밝기, 두께 등)가 거의 발생하지 않으며, 사용자가 손가락으로 표면을 터치하지 않았을 때에는 손가락과 표면과의 원근 차이로 인하여 영상 인식부(700)에서 패턴만을 추출하면 도 7의 (b)와 같이 패턴의 변화가 발생한다.In FIG. 6, (a) is an image captured by the image acquisition unit 500 during a finger touch operation, and (b) is an image captured by the image acquisition unit 500 during a finger metric operation. When a user touches a surface such as a palm or a table with his or her finger, the finger and the surface are located on the almost same plane, so if only the pattern is extracted from the image recognition unit 700, as shown in FIG. The pattern change (distortion, brightness, thickness, etc.) at the tip of the finger is hardly generated, and when the user does not touch the surface with the finger, only the pattern is recognized by the image recognition unit 700 due to the difference in perspective between the finger and the surface. When extracted, a pattern change occurs as shown in FIG.

이처럼 영상 인식부(700)가 영상 획득부(500)에 의해 캡쳐된 영상으로부터 패턴의 모양 변화를 인식하며, 변환된 패턴의 좌표 정보를 획득하여 손가락의 끝점을 추출할 수 있으며, 이를 바탕으로 터치(touch)/드래그(drag)/터치 아닌 경우(release)를 인식할 수 있다.As such, the image recognizer 700 recognizes the shape change of the pattern from the image captured by the image acquirer 500, obtains coordinate information of the converted pattern, and extracts the end point of the finger. Touch / drag / release can be recognized.

종래에는 카메라 등이 획득한 영상으로부터 손 또는 손가락의 모양을 인식할 때에 피부색 또는 주변 환경에 따라서 인식률의 편차가 많이 발생하였으나, 본 발명에서는 패턴 프레임을 이용하여 영상 획득부가 획득한 영상에서 패턴만을 추출하여 손 또는 손가락의 모양을 인식하기 때문에 피부색 또는 주변 환경의 영향을 적게 받기 때문에 인식률의 편차가 줄어들어서 안정적인 인식 결과를 제공한다.
Conventionally, when the shape of a hand or a finger is recognized from an image acquired by a camera or the like, the recognition rate varies considerably according to the color of the skin or the surrounding environment. Because it recognizes the shape of the hand or finger, it is less affected by the skin color or the surrounding environment, thereby reducing the variation of the recognition rate, thereby providing a stable recognition result.

도 8은 비평면 또는 기울어진 투사체로 인한 출력 영상 패턴의 왜곡을 나타낸 도면이다. 스크린 등의 투사체에 발생된 왜곡 형태를 알기 위해 영상 획득부(500)가 획득한 영상으로부터 패턴을 추출하면 도 8의 (a), (b) 등과 같은 왜곡 영상을 획득할 수 있기 때문에 투사체의 왜곡을 쉽게 인식하고 보정할 수 있다.
8 is a diagram illustrating distortion of an output image pattern due to a non-planar or tilted projectile. Since a pattern is extracted from an image acquired by the image acquisition unit 500 to know a distortion form generated in a projection such as a screen, the projection may be obtained as shown in FIGS. 8A and 8B. Can easily recognize and correct distortion.

도 9는 포커스가 맞지 않는 경우에 캡쳐한 패턴 프레임의 모습을 나타낸 도면이다. 포커스가 맞지 않는 경우에 영상 획득부(500)가 획득한 영상으로부터 패턴을 추출하면 도 9의 예시와 같이 선명하지 않은 패턴이 추출되며, 구조영상 패턴 프레임으로부터 선명한 패턴이 추출될 때까지 포커스를 보정하면 선명한 일반 영상을 투영할 수 있다. 이러한 포커스 보정 과정과 마찬가지로 출력 영상의 밝기나 색상도 쉽게 보정할 수 있다.
9 is a view showing a state of the pattern frame captured when the focus is out of focus. When the image is not in focus, when the image acquisition unit 500 extracts a pattern from the acquired image, an unclear pattern is extracted as illustrated in FIG. 9, and the focus is corrected until a clear pattern is extracted from the structure image pattern frame. You can project a clear general image. Like the focus correction process, the brightness or the color of the output image can be easily corrected.

이하에서는, 도 10 내지 도 14를 참조하여 영상 출력부를 프로젝터로 구현하고, 영상 획득부를 카메라로 구현한 실시 예들에 대해 살펴보기로 한다.
Hereinafter, embodiments of implementing the image output unit as a projector and implementing the image acquisition unit as a camera will be described with reference to FIGS. 10 to 14.

도 10은 본 발명의 실시 예에 따른 프로젝터/카메라 일체형 프로젝션 시스템의 예시도로서, 모바일 기기에 채용한 경우를 나타내었다.FIG. 10 is an exemplary diagram of a projector / camera integrated projection system according to an exemplary embodiment of the present invention, which illustrates a case of employing a mobile device.

도 10의 (a)에서 201은 프로젝터이며, 301은 프로젝터 및 카메라 제어 모듈로서 도 2의 패턴 프레임 출력부(100) 및 동기화부(600)에 해당하고, 401은 포커스 제어 모터로서 도 2의 광학 제어부(400)에 해당하며, 501은 일반 카메라이다.In FIG. 10A, 201 is a projector, 301 is a projector and a camera control module, which corresponds to the pattern frame output unit 100 and the synchronization unit 600 of FIG. 2, and 401 is a focus control motor. Corresponds to the controller 400, 501 is a general camera.

도 10의 (b)에서 203은 프로젝터이며, 303a는 프로젝터 및 카메라 제어 모듈로서 도 2의 패턴 프레임 출력부(100) 및 동기화부(600)에 해당하고, 303b는 적녹청/적외선 광원 제어 모듈로서 도 2의 광원 제어부(300)에 해당하며, 403은 포커스 제어 모터로서 도 2의 광학 제어부(400)에 해당하고, 503a는 일반 카메라이며, 503b는 적외선 카메라이다.In FIG. 10 (b), 203 is a projector, 303a is a projector and a camera control module, and corresponds to the pattern frame output unit 100 and the synchronization unit 600 of FIG. 2, and 303b is a red cyan / infrared light source control module. It corresponds to the light source control unit 300 of FIG. 2, 403 corresponds to the optical control unit 400 of FIG. 2 as a focus control motor, 503a is a general camera, and 503b is an infrared camera.

도 10의 (a) 실시 예에서는 단색 패턴 프레임 또는 칼라 패턴 프레임을 이용할 있으며, 도 10의 (b) 실시 예에서는 단색 패턴 프레임, 칼라 패턴 프레임 또는 적외선 패턴 프레임을 이용할 수 있다.
In the embodiment of FIG. 10A, a monochromatic pattern frame or a color pattern frame may be used. In the embodiment of FIG. 10B, a monochromatic pattern frame, a color pattern frame, or an infrared pattern frame may be used.

도 11은 DLP(Digital Light Processing) 방식의 프로젝터 시스템에 적녹청/적외선 광원을 추가한 상태를 보인 구성도이다. 본 발명의 실시 예에 따른 적외선 패턴 프레임을 이용하기 위해서는 DLP 프로젝터부(205)가 적외선 패턴 프레임이 포함된 출력 영상을 제공할 수 있도록 적녹청/적외선 광원(205a)을 부가하여야 하며, 적녹청/적외선 광원(205a)을 구동하는 광원 제어부(305)는 적외선 패턴 프레임의 삽입에 따라 인가되는 적외선 인에이블 신호에 의해 구동될 수 있다.
FIG. 11 is a diagram illustrating a state in which a red cyan / infrared light source is added to a DLP (Digital Light Processing) type projector system. In order to use the infrared pattern frame according to an embodiment of the present invention, the red-green / infrared light source 205a must be added so that the DLP projector unit 205 can provide an output image including the infrared pattern frame. The light source controller 305 for driving the infrared light source 205a may be driven by an infrared enable signal applied according to the insertion of the infrared pattern frame.

도 12 내지 도 14는 본 발명의 실시 예에 따른 패턴 프레임의 삽입을 위한 프로젝터의 구성도로서, 도 12는 적녹청/적외선 일체형 광원(211)을 포함하는 DLP 방식 프로젝터(210)를 나타낸 것이며, 도 13은 적녹청 광원(221a)과 적외선 광원(221b)이 분리된 DLP 방식 프로젝터(220)를 나타낸 것이고, 적녹청/적외선 일체형 광원(231)을 포함하는 3LCD(three Liquid Crystal) 방식 프로젝터(230)를 나타낸 것이다.12 to 14 are configuration diagrams of a projector for inserting a pattern frame according to an embodiment of the present invention, Figure 12 shows a DLP type projector 210 including a red-cyan / infrared integrated light source 211, FIG. 13 illustrates a DLP type projector 220 in which a red cyan light source 221a and an infrared light source 221b are separated, and a three liquid crystal (3LCD) type projector 230 including a red cyan / infrared light source 231. ).

도 12에서 213a는 청색 통과 필터이고, 213b는 녹색 통과 필터이며, 213c는 적색 통과 필터이고, 213d는 적외선 통과 필터이며, 215는 DMD(Digital Micromirror Device)이고, 217은 프로젝션 렌즈이며, 219는 스크린이다.In FIG. 12, 213a is a blue pass filter, 213b is a green pass filter, 213c is a red pass filter, 213d is an infrared pass filter, 215 is a digital micromirror device (DMD), 217 is a projection lens, and 219 is a screen to be.

도 13에서 222는 프리즘(prism)이며, 223a는 청색 통과 필터이고, 223b는 녹색 통과 필터이며, 223c는 적색 통과 필터이고, 223d는 적외선 통과 필터이며, 225는 DMD이고, 227은 프로젝션 렌즈이며, 229는 스크린이다.In Figure 13, 222 is a prism, 223a is a blue pass filter, 223b is a green pass filter, 223c is a red pass filter, 223d is an infrared pass filter, 225 is a DMD, 227 is a projection lens, 229 is a screen.

도 14에서 223a, 223b 및 223c는 다이크로익 미러(dichroic mirror)이며, 235a, 235b, 235c, 235d, 235e, 235f는 미러이고, 237은 프리즘이며, 237은 프로젝션 렌즈이고, 239는 스크린이다.
In FIG. 14, 223a, 223b, and 223c are dichroic mirrors, 235a, 235b, 235c, 235d, 235e, and 235f are mirrors, 237 are prisms, 237 are projection lenses, and 239 are screens.

도 15는 본 발명의 실시 예에 따른 사용자 인터랙션 방법을 설명하기 위한 흐름도이다.15 is a flowchart illustrating a user interaction method according to an exemplary embodiment of the present invention.

도 2 및 도 15를 참조하여 본 발명의 실시 에에 따른 사용자 인터랙션 장치에 의한 사용자 인터랙션 방법을 시계열적으로 살펴보면 다음과 같다.Referring to FIGS. 2 and 15, the user interaction method by the user interaction apparatus according to the embodiment of the present invention will be described in time series.

먼저, 시스템 초기화 상태에서 동기화부(600)는 영상 출력부(200)와 영상 획득부(500)의 프레임을 동기화 시킨다(S801).First, in the system initialization state, the synchronization unit 600 synchronizes the frames of the image output unit 200 and the image acquisition unit 500 (S801).

그리고, 패턴 프레임 출력부(100)는 영상 출력부(200)의 입력 영상에 기 설정된 주기마다 구조영상 패턴 프레임을 추가하며(S845 및 S847), 영상 출력부(200)는 일반 영상을 출력하다가 설정된 주기마다 구조영상 패턴 프레임을 영상 출력한다(S849). 도 15에서는 이전의 처리 과정에 의해 구조영상 패턴 프레임이 추가된 상황을 기준으로 하여 그 흐름을 나타내고 있기에 단계 S803이 포함되어 있으며, 단계 S845가 단계 S843의 후 순위에 위치하게 나타낸 것이다.In addition, the pattern frame output unit 100 adds the structure image pattern frame at predetermined intervals to the input image of the image output unit 200 (S845 and S847), and the image output unit 200 outputs a general image. The structure image pattern frame is output as an image for each cycle (S849). In FIG. 15, since the flow is shown based on the situation in which the structure image pattern frame is added by the previous process, step S803 is included, and step S845 is positioned after the step S843.

영상 획득부(500)는 구조영상 패턴 프레임이 영상 출력부(200)에 의해 출력된 시점에서 영상 출력부(200)의 출력 영상, 즉 구조영상 패턴 프레임을 캡쳐하여 영상을 획득한다(S811).The image acquisition unit 500 acquires an image by capturing an output image of the image output unit 200, that is, a structural image pattern frame at a point in time when the structural image pattern frame is output by the image output unit 200 (S811).

다음으로, 영상 인식부(700)는 영상 획득부(500)가 캡쳐한 구조영상 패턴 프레임을 영상 처리(S821, S831)하여 사용자 입력을 인식한다(S835). 예컨대, 영상 획득부(500)가 캡쳐한 영상 출력부(200)의 출력 영상 중에서 구조영상 패턴 프레임을 추출한 후에 모양 및/또는 밝기의 변화를 파악하여 사용자 입력을 인식할 수 있다.Next, the image recognition unit 700 recognizes a user input by performing image processing (S821 and S831) on the structure image pattern frame captured by the image acquisition unit 500 (S835). For example, after extracting the structural image pattern frame from the output image of the image output unit 200 captured by the image acquisition unit 500, the shape and / or brightness change may be recognized to recognize a user input.

도 15에서 단계 S813과 S815를 영상 처리에 앞서 수행하는 것은 적외선 패턴 프레임의 경우에는 밝기 또는 색상 상태를 인식할 수 없기 때문이다. 이에, 단색 패턴 프레임이거나 칼라 패턴 프레임인 경우에 영상 인식부(700)는 패턴 프레임의 밝기 및/또는 색상 상태를 인식하여 그 결과를 영상 출력부(200)에게 제공한다(S833).In FIG. 15, the steps S813 and S815 are performed prior to the image processing because the brightness or the color state cannot be recognized in the case of the infrared pattern frame. Thus, in the case of the monochrome pattern frame or the color pattern frame, the image recognition unit 700 recognizes the brightness and / or color state of the pattern frame and provides the result to the image output unit 200 (S833).

아울러, 영상 인식부(700)는 단계 S821 또는 S831에서 영상 처리된 패턴 프레임의 포커스 상태 및/또는 왜곡 상태를 인식하여 광학 제어부(400)에게 전달한다(S837 및 S839).In addition, the image recognition unit 700 recognizes a focus state and / or a distortion state of the pattern frame image-processed in step S821 or S831 and transmits the image to the optical control unit 400 (S837 and S839).

그러면, 영상 획득부(200)는 영상 인식부(700)에 의해 인식된 밝기 및/또는 색상 상태에 따라 밝기 상태 및/또는 색상 상태를 보정하며(S841), 광학 제어부(400)는 영상 인식부(700)에 의해 인식된 포커스 및/또는 왜곡 상태에 따라 영상 출력부(200)에 포함된 광학계의 포커스, 팬 또는 틸트 중에서 적어도 하나 이상을 제어하여 포커스 및/또는 왜곡을 보정한다(S842 및 S843).
Then, the image acquisition unit 200 corrects the brightness state and / or the color state according to the brightness and / or the color state recognized by the image recognition unit 700 (S841), and the optical controller 400 performs the image recognition unit. The focus and / or distortion is corrected by controlling at least one or more of the focus, pan, or tilt of the optical system included in the image output unit 200 according to the focus and / or distortion state recognized by the 700 (S842 and S843). ).

100 : 패턴 프레임 출력부 200 : 영상 출력부
205 : DLP 프로젝터부 205a : 적녹청/적외선 광원
300, 305 : 광원 제어부 400 : 광학 제어부
500 : 영상 획득부 600 : 동기화부
700 : 영상 인식부
100: pattern frame output unit 200: image output unit
205: DLP projector unit 205a: red cyan / infrared light source
300, 305: light source control unit 400: optical control unit
500: image acquisition unit 600: synchronization unit
700: image recognition unit

Claims (13)

구조영상(structured light) 패턴 프레임을 출력하는 패턴 프레임 출력부와,
상기 구조영상 패턴 프레임이 포함된 영상을 출력하는 영상 출력부와,
상기 영상 출력부의 출력 영상 중에서 상기 구조영상 패턴 프레임을 캡쳐하는 영상 획득부와,
상기 영상 획득부가 캡쳐한 상기 구조영상 패턴 프레임을 영상 처리하여 사용자 입력을 인식하는 영상 인식부를 포함하는
사용자 인터랙션 장치.
A pattern frame output unit for outputting a structured light pattern frame,
An image output unit configured to output an image including the structural image pattern frame;
An image acquisition unit for capturing the structural image pattern frame from the output image of the image output unit;
And an image recognition unit configured to image the structure image pattern frame captured by the image acquisition unit to recognize a user input.
User Interaction Device.
제 1 항에 있어서,
상기 구조영상 패턴 프레임은, 단색 패턴 프레임 또는 칼라 패턴 프레임을 이용하는
사용자 인터랙션 장치.
The method of claim 1,
The structured image pattern frame uses a monochrome pattern frame or a color pattern frame.
User Interaction Device.
제 1 항에 있어서,
상기 구조영상 패턴 프레임은, 적외선 패턴 프레임을 이용하며,
상기 사용자 인터랙션 장치는, 상기 적외선 패턴 프레임이 포함된 영상을 출력하기 위해 적녹청/적외선 광원을 구동하는 광원 제어부를 더 포함하는
사용자 인터랙션 장치.
The method of claim 1,
The structure image pattern frame uses an infrared pattern frame,
The user interaction apparatus may further include a light source controller configured to drive a red cyan / infrared light source to output an image including the infrared pattern frame.
User Interaction Device.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 구조영상 패턴 프레임은, 그리드 형태를 포함하는
사용자 인터랙션 장치.
The method according to any one of claims 1 to 3,
The structure image pattern frame includes a grid shape.
User Interaction Device.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 영상 인식부는, 영상 처리한 상기 구조영상 패턴 프레임의 포커스 상태 또는 왜곡 상태 중에서 적어도 하나 이상의 상태를 인식하며,
상기 사용자 인터랙션 장치는, 인식된 상기 상태에 따라 상기 영상 출력부에 포함된 광학계의 포커스, 팬 또는 틸트 중에서 적어도 하나 이상을 제어하여 포커스 또는 왜곡 중에서 적어도 하나 이상을 보정하는 광학 제어부를 더 포함하는
사용자 인터랙션 장치.
The method according to any one of claims 1 to 3,
The image recognition unit recognizes at least one or more of a focus state or a distortion state of the structural image pattern frame processed by the image,
The user interaction apparatus may further include an optical controller configured to correct at least one or more of focus or distortion by controlling at least one or more of focus, pan, or tilt of an optical system included in the image output unit according to the recognized state.
User Interaction Device.
제 1 항 또는 제 2 항에 있어서,
상기 영상 인식부는, 영상 처리한 상기 구조영상 패턴 프레임의 밝기 상태 또는 색상 상태 중에서 적어도 하나 이상의 상태를 인식하며,
상기 영상 출력부는, 인식된 상기 상태에 따라 밝기 상태 또는 색상 상태 중에서 적어도 하나 이상을 보정하는
사용자 인터랙션 장치.
The method according to claim 1 or 2,
The image recognition unit recognizes at least one or more of the brightness state or the color state of the structural image pattern frame processed by the image,
The image output unit corrects at least one of a brightness state or a color state according to the recognized state.
User Interaction Device.
영상 출력부와 영상 획득부를 포함하는 사용자 인터랙션 장치의 사용자 인터랙션 방법으로서,
상기 영상 출력부를 통해 구조영상 패턴 프레임이 포함된 영상을 출력하는 단계와,
상기 영상 획득부를 이용하여 상기 영상 출력부의 출력 영상 중에서 상기 구조영상 패턴 프레임을 캡쳐하는 단계와,
캡쳐한 상기 구조영상 패턴 프레임을 영상 처리하여 사용자 입력을 인식하는 단계를 포함하는
사용자 인터랙션 방법.
A user interaction method of a user interaction apparatus including an image output unit and an image acquisition unit,
Outputting an image including a structural image pattern frame through the image output unit;
Capturing the structural image pattern frame from the output image of the image output unit by using the image acquisition unit;
And recognizing a user input by image processing the captured structural image pattern frame.
User interaction method.
제 7 항에 있어서,
상기 구조영상 패턴 프레임은, 단색 패턴 프레임 또는 칼라 패턴 프레임을 이용하는
사용자 인터랙션 방법.
The method of claim 7, wherein
The structured image pattern frame uses a monochrome pattern frame or a color pattern frame.
User interaction method.
제 7 항에 있어서,
상기 구조영상 패턴 프레임은, 적외선 패턴 프레임을 이용하며,
상기 사용자 인터랙션 방법은, 상기 적외선 패턴 프레임이 포함된 영상을 출력하기 위해 적녹청/적외선 광원을 구동하는 단계를 더 포함하는
사용자 인터랙션 방법.
The method of claim 7, wherein
The structure image pattern frame uses an infrared pattern frame,
The user interaction method may further include driving a red / cyan / infrared light source to output an image including the infrared pattern frame.
User interaction method.
제 7 항 내지 제 9 항 중 어느 한 항에 있어서,
상기 구조영상 패턴 프레임은, 그리드 형태를 포함하는
사용자 인터랙션 방법.
The method according to any one of claims 7 to 9,
The structure image pattern frame includes a grid shape.
User interaction method.
제 7 항 내지 제 9 중 어느 한 항에 있어서,
상기 사용자 입력을 인식하는 단계는, 영상 처리한 상기 구조영상 패턴 프레임의 포커스 상태 또는 왜곡 상태 중에서 적어도 하나 이상의 상태를 인식하며,
상기 사용자 인터랙션 방법은, 인식된 상기 상태에 따라 상기 영상 출력부에 포함된 광학계의 포커스, 팬 또는 틸트 중에서 적어도 하나 이상을 제어하여 포커스 또는 왜곡 중에서 적어도 하나 이상을 보정하는 단계를 더 포함하는
사용자 인터랙션 방법.
The method according to any one of claims 7 to 9,
The recognizing of the user input may include recognizing at least one of a focus state and a distorted state of the structural image pattern frame processed by the image.
The user interaction method may further include correcting at least one or more of focus or distortion by controlling at least one or more of focus, pan, or tilt of an optical system included in the image output unit according to the recognized state.
User interaction method.
제 7 항 또는 제 8 항에 있어서,
상기 사용자 입력을 인식하는 단계는, 영상 처리한 상기 구조영상 패턴 프레임의 밝기 상태 또는 색상 상태 중에서 적어도 하나 이상의 상태를 인식하며,
상기 사용자 인터랙션 방법은, 인식된 상기 상태에 따라 밝기 상태 또는 색상 상태 중에서 적어도 하나 이상을 보정하는 단계를 더 포함하는
사용자 인터랙션 방법.
The method according to claim 7 or 8,
The recognizing of the user input may include recognizing at least one of a brightness state or a color state of the structural image pattern frame processed by the image.
The user interaction method further comprises correcting at least one of a brightness state or a color state according to the recognized state.
User interaction method.
제 6 항에 있어서,
상기 사용자 입력을 인식하는 단계는, 상기 영상 획득부가 캡쳐한 상기 영상 출력부의 출력 영상 중에서 상기 구조영상 패턴 프레임을 추출한 후 모양 또는 밝기의 변화를 인식하여 상기 사용자 입력을 인식하는
사용자 인터랙션 방법.
The method according to claim 6,
The recognizing of the user input may include extracting the structural image pattern frame from the output image of the image output unit captured by the image acquisition unit, and recognizing the user input by recognizing a change in shape or brightness.
User interaction method.
KR1020100132490A 2010-04-15 2010-12-22 Method and apparatus for user interraction KR20110115508A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP20110162471 EP2378394A3 (en) 2010-04-15 2011-04-14 User interface device and method for recognizing user interaction using same
US13/087,897 US20110254810A1 (en) 2010-04-15 2011-04-15 User interface device and method for recognizing user interaction using same
CN201110121334.0A CN102221879B (en) 2010-04-15 2011-04-15 User interface facilities and use it to identify the method for user interactions

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100034644 2010-04-15
KR20100034644 2010-04-15

Publications (1)

Publication Number Publication Date
KR20110115508A true KR20110115508A (en) 2011-10-21

Family

ID=45030166

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100132490A KR20110115508A (en) 2010-04-15 2010-12-22 Method and apparatus for user interraction

Country Status (1)

Country Link
KR (1) KR20110115508A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190008715A (en) * 2017-07-17 2019-01-25 서강대학교산학협력단 Method for generating monochrome permutation structured-light pattern and structured-light system using the method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190008715A (en) * 2017-07-17 2019-01-25 서강대학교산학협력단 Method for generating monochrome permutation structured-light pattern and structured-light system using the method thereof
US10648799B2 (en) 2017-07-17 2020-05-12 Sogang University Research Foundation Method for generating monochrome permutation structured-light pattern and structured-light system using the method thereof

Similar Documents

Publication Publication Date Title
EP2378394A2 (en) User interface device and method for recognizing user interaction using same
JP6364715B2 (en) Transmission display device and control method of transmission display device
KR20120071551A (en) Method and apparatus for user interraction by using structured lights
US9619693B2 (en) Display system, display device, projection device and program
JP7022323B2 (en) Image display system, image display device and control method of image display system
US9367142B2 (en) Eyeglasses attached with projector and method of controlling the same
CN107430324B (en) Digital light projector with invisible light channel
JP6343910B2 (en) Projector and projector control method
CN102457692A (en) Projector and method of controlling projector
JP6701631B2 (en) Display device, display device control method, display system, and program
JP6330292B2 (en) Projector and projector control method
US10638100B2 (en) Projector, multi-projection system, and method for controlling projector
US20160156892A1 (en) Information processing device, image projecting system, and computer program
JP2015037250A (en) Image projection device and presentation system
CN103324022A (en) 3D camera module and handheld device
EP2916201B1 (en) Position detecting device and position detecting method
JP6631014B2 (en) Display system and display control method
US10834323B2 (en) Electronic apparatus, motion sensor, position change detection program, and position change detection method
US20130335643A1 (en) Projection-type image display device and light quantity adjustment method
JP2012181264A (en) Projection device, projection method, and program
JP2016092779A (en) Image projection system, information processing apparatus, information processing method, and program
KR20110115508A (en) Method and apparatus for user interraction
JP6598534B2 (en) Projection apparatus and projection method
KR100660137B1 (en) Input apparatus using a raser pointer and system for offering presentation using the apparatus
US20110234762A1 (en) Apparatus and method for capturing three-dimensional image

Legal Events

Date Code Title Description
A201 Request for examination
SUBM Surrender of laid-open application requested