KR20130078496A - Apparatus and method for controlling electric boards using multiple hand shape detection and tracking - Google Patents

Apparatus and method for controlling electric boards using multiple hand shape detection and tracking Download PDF

Info

Publication number
KR20130078496A
KR20130078496A KR1020110147473A KR20110147473A KR20130078496A KR 20130078496 A KR20130078496 A KR 20130078496A KR 1020110147473 A KR1020110147473 A KR 1020110147473A KR 20110147473 A KR20110147473 A KR 20110147473A KR 20130078496 A KR20130078496 A KR 20130078496A
Authority
KR
South Korea
Prior art keywords
hand
copyboard
user
region
image
Prior art date
Application number
KR1020110147473A
Other languages
Korean (ko)
Other versions
KR101360322B1 (en
Inventor
이찬수
천성용
Original Assignee
영남대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 영남대학교 산학협력단 filed Critical 영남대학교 산학협력단
Priority to KR1020110147473A priority Critical patent/KR101360322B1/en
Publication of KR20130078496A publication Critical patent/KR20130078496A/en
Application granted granted Critical
Publication of KR101360322B1 publication Critical patent/KR101360322B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Abstract

PURPOSE: An electronic board remote control apparatus by detecting and tracing various hand poses and a method thereof are provided to remotely control an electronic board without touching the board by detecting a hand and tracking a hand pose. CONSTITUTION: A camera image acquisition unit (100) photographs a user who is around an electronic board. A Region of Interest (ROI) setup unit (200) sets up the image region, in which a hand is located, out of images photographed by the camera image acquisition unit as an ROI. A hand pose detection unit (300) detects a hand pose using a hierarchical image analysis of the ROI. A control event generation unit (400) generates a designated control event corresponding to the hand pose in order to control the electronic board. An electronic board control unit (500) remotely controls the electronic board based on the control event. [Reference numerals] (100) Camera image acquisition unit; (200) Region of Interest (ROI) setup unit; (300) Hand pose detection unit; (400) Control event generation unit; (500) Electronic board control unit

Description

다양한 손모양 검출 및 추적을 기반으로 한 원격 전자칠판 제어 장치 및 그 방법{APPARATUS AND METHOD FOR CONTROLLING ELECTRIC BOARDS USING MULTIPLE HAND SHAPE DETECTION AND TRACKING}Remote electronic blackboard control device and method thereof based on various hand detection and tracking {APPARATUS AND METHOD FOR CONTROLLING ELECTRIC BOARDS USING MULTIPLE HAND SHAPE DETECTION AND TRACKING}

본 발명은 다양한 손모양의 검출 및 이에 대한 추적을 통하여, 기존의 터치 방식으로만 제공되는 전자칠판 제어에 원격제어 기능을 제공함으로 학습을 전달하는 교수자가 다양한 공간 안에서 전자칠판을 제어할 수 있는 기능을 제공하는 장치 및 그 방법에 관한 것이다.
The present invention provides a remote control function to the electronic blackboard control provided only by the existing touch method through the detection and tracking of various hand shapes, the instructor who delivers learning can control the electronic blackboard in various spaces. It relates to an apparatus and a method for providing the same.

최근에 교육시설을 개선하고자 하는 국가적인 지원과 IT와 결합한 스마트 교육 환경을 구성하고자 하는 수요를 바탕으로, 전자칠판 시장이 크게 팽창하고 있다. 전자칠판 관련 시장은 콘텐츠 시장을 포함할 경우, 1조원 이상의 큰 시장을 형성하고 있으며, 앞으로 더욱 시장이 성장할 것으로 보인다. 이러한 전자 칠판의 핵심 기술은 어떻게 사용자에게 대형스크린에서 효과적인 상호작용을 제공할 것인가의 문제이다. 대부분의 전자칠판 제품은 이러한 문제를 해결하기 위하여 터치 기술을 적용하고 있으며, 최근에는 멀티 터치 기술이 개발되어 적용되고 있다.Recently, the electronic blackboard market is expanding greatly based on national support for improving educational facilities and demand for constructing smart education environment combined with IT. The electronic board-related market forms a large market of more than 1 trillion won, including the content market, and the market is expected to grow further. The core technology of this copyboard is how to provide the user with effective interaction on the large screen. Most electronic blackboard products apply touch technology to solve these problems, and recently, multi-touch technology has been developed and applied.

제스처를 이용한 다양한 사용자 인터페이스에 대한 연구가 진행되고 있으며, 기존의 전자 칠판의 경우에 터치 인식 기술을 바탕으로 한 전자칠판의 경우에는, 실제적인 터치가 일어나지 않을 경우에는 사용자의 입력을 받을 수가 없으며, 따라서 사용자(또는 교수자)와의 상호작용에 제안이 생기게 된다. 이러한 제한을 없애기 위한 여러가지 제안들이 되고 있으나, 대부분의 경우에는 추가적인 도구나 장치가 요구되어 실제 적용에는 어려움이 있다.
Research on various user interfaces using gestures is being conducted, and in the case of an electronic blackboard based on touch recognition technology in the case of a conventional electronic blackboard, when an actual touch does not occur, the user cannot receive input from the user. Thus, suggestions are made for interaction with the user (or instructor). Various proposals have been made to remove this limitation, but in most cases additional tools or devices are required, which makes the application difficult.

본 발명은 전자칠판에 장착된 카메라를 이용하여 사용자의 다양한 손모양을 검출하고 이를 추적함으로써, 다른 도구가 없이도 전자칠판과 사용자의 상호 작용이 가능한 시스템을 제공하고자 한다.The present invention is to provide a system that enables the user to interact with the electronic blackboard without any other tools by detecting and tracking various user shapes using a camera mounted on the electronic blackboard.

본 발명은 일반 카메라 또는 적외선 영역의 카메라에서 사용자의 다양한 손모양을 우선 순위를 두고 검출하고, 연속적인 영상에서 손모양의 검출을 효과적으로 수행하기 위하여 검출 관심영역(ROI: Region Of Interests)을 설정하고, 설정된 관심영역을 바탕으로 한 연속적인 추적을 통한 움직임 검출과, 움직임 및 손모양을 바탕으로 전자칠판과의 효과적인 인터페이스를 제공하기 위한 방법을 제공한다.
The present invention prioritizes various hand shapes of a user in a general camera or an infrared camera, and sets a region of interest (ROI) to effectively detect hand shapes in a continuous image. In addition, the present invention provides a method for detecting the motion through continuous tracking based on the set ROI and providing an effective interface with the copyboard based on the motion and hand shape.

본 발명의 일 측면에 따르면, 원격 전자칠판 제어 장치로서,According to an aspect of the present invention, as a remote electronic blackboard control device,

전자칠판으로부터 원격에 있는 사용자를 촬상하기 위한 카메라 영상획득부;A camera image acquisition unit for photographing a user who is remote from the copyboard;

상기 카메라 영상획득부에 의해 획득된 영상 중 사용자의 손이 위치하는 영역을 관심영역(Region of Interest, ROI)으로 설정하는 관심영역 설정부;A region of interest setting unit configured to set a region where a user's hand is located among regions of the image acquired by the camera image acquisition unit as a region of interest (ROI);

상기 관심영역에 관한 계층적 영상 분석을 통해 사용자가 취한 손 모양을 검출하는 손 모양 검출부; 및A hand shape detector configured to detect a hand shape taken by a user through hierarchical image analysis of the ROI; And

상기 손 모양 검출부에 의해 검출된 손 모양에 상응하여, 상기 전자칠판의 제어를 위한 미리 지정된 제어 이벤트를 생성하는 제어 이벤트 생성부Control event generation unit for generating a predetermined control event for the control of the electronic blackboard corresponding to the hand shape detected by the hand shape detection unit

를 포함하는 제스처 기반의 원격 전자칠판 제어 장치가 제공된다.
There is provided a gesture-based remote electronic blackboard control apparatus comprising a.

일 실시예에서, 상기 생성된 제어 이벤트에 기초하여 상기 전자칠판에 관한 원격 제어를 수행하는 전자칠판 제어부를 더 포함할 수 있다.
The electronic board controller may further include an electronic blackboard controller configured to perform remote control on the electronic blackboard based on the generated control event.

일 실시예에서, 상기 카메라 영상획득부는,In one embodiment, the camera image acquisition unit,

캘리브레이션 루틴(Calibration routine)의 호출을 통해, 사용자가 자신의 위치에서 원거리에 있는 전자칠판을 바라보았을 때의 전자칠판의 크기 및 형상 중 적어도 하나를 확인함으로써, 사용자가 보는 시점 상에서의 사용자의 제스처에 상응하여 적용될 스케일 값을 자동 설정할 수 있다.
By invoking a calibration routine, the user checks at least one of the size and shape of the copyboard when the user looks at the copyboard at a distance from his or her location. Corresponding scale values can be set automatically.

일 실시예에서, 상기 카메라 영상획득부는,In one embodiment, the camera image acquisition unit,

상기 캘리브레이션 루틴의 수행 과정에서 사용자가 취한 미리 지정된 캘리브레이션 제스처에 관한 영상을 분석하여,Analyzing the image related to a predetermined calibration gesture taken by the user in the course of performing the calibration routine,

사각 형상의 전자칠판의 대각선 길이, 2개의 대각선이 교차될 때에 이루는 각의 크기, 각 꼭지점의 위치, 4개의 변 중 적어도 3개의 변의 길이 중 어느 하나 이상을 산출함으로써 사용자가 전자칠판을 바라보았을 때의 전자칠판의 크기 및 형상 중 적어도 하나를 확인하고, 확인 결과에 근거하여 수평축 및 수직축에 관한 상기 스케일 값을 고정 스케일값으로 또는 위치에 따라 스케일 값을 달리하는 스케일 함수 형태로 설정할 수 있다.
When the user looks at the copyboard by calculating one or more of the diagonal length of the rectangular copyboard, the size of the angle formed when the two diagonal lines intersect, the position of each vertex, and the length of at least three of the four sides. At least one of the size and shape of the copyboard of the can be checked, and based on the result of the check, the scale value with respect to the horizontal axis and the vertical axis can be set to a fixed scale value or a scale function in which the scale value varies depending on the position.

일 실시에에서, 상기 카메라 영상획득부는,In one embodiment, the camera image acquisition unit,

PTZ(Pan-Tilt-Zoom) 제어 기능을 포함함으로써, 사용자의 상체가 영상의 중앙부에 들어오도록 카메라에 대한 상/하/좌/우 방향 중 적어도 하나 이상의 방향으로의 회동 또는 줌인(Zoom In)/줌아웃(Zoom Out)을 실행할 수 있다.
Pan-Tilt-Zoom (PTZ) control is included so that the user's torso can be rotated or zoomed in at least one of the up, down, left and right directions with respect to the camera so that the user's upper body enters the center of the image. You can execute Zoom Out.

일 실시예에서, 상기 관심영역 설정부는,In one embodiment, the region of interest setting unit,

기존 검출된 손 위치에 근거하여 관심영역을 설정하거나, 상기 카메라 영상획득부에 의해 획득된 이전 영상과 현재 영상을 비교한 차 영상을 이용하여 움직임이 발생된 영역을 관심영역으로 설정하거나, 또는 피부색 샘플을 이용하여 피부색이 검출되는 영역을 관심 영역으로 설정할 수 있다.
Set the region of interest based on the detected position of the hand, or set the region of movement as the region of interest using the difference image comparing the current image with the previous image acquired by the camera image acquisition unit, or skin color The sample may be used to set a region where skin color is detected as the region of interest.

일 실시에에서, 상기 손 모양 검출부는, 미리 지정된 개개의 손 모양을 검출하기 위한 개별 손 모양 검출기를 포함하되-여기서, 상기 미리 지정된 손 모양은, 이동 커서 손 모양, 실행 손 모양, 선택 이동 손 모양 중 적어도 하나가 포함됨-,In one embodiment, the hand detector comprises an individual hand detector for detecting a predetermined individual hand shape, wherein the predetermined hand shape comprises a moving cursor hand shape, an executing hand shape, a selection moving hand. Contains at least one of the shapes-,

상기 미리 지정된 개개의 손 모양은, 미리 설정된 우선 순위에 근거한 순서대로의 상기 개개의 손 모양을 검출하기 위한 계층적 단계를 거쳐 검출될 수 있다.
The predetermined individual hand gestures may be detected through hierarchical steps for detecting the individual hand gestures in an order based on a preset priority.

일 실시예에서, 상기 손 모양 검출부는,In one embodiment, the hand detection unit,

미리 지정된 선행 제스처가 검출된 이후에 후속하여 상기 실행 손 모양이 검출되는 경우에만, 유효한 실행 손 모양의 검출로 판정할 수 있다.
Only when the execution hand gesture is subsequently detected after a predetermined preceding gesture is detected, it is possible to determine that the detection of a valid execution hand gesture is made.

일 실시예에서, 상기 손 모양 검출부는,In one embodiment, the hand detection unit,

검출된 손 모양을 기초로 해당 손 모양에 따라 발생된 영상 내의 위치 변화량을 계산하되, 계산된 위치 변화량에 상기 설정된 스케일 값을 반영함으로써, 이미지 공간 상에서의 위치 변화가 실제 전자칠판 상에서의 움직임으로 변환될 수 있도록 할 수 있다.
The position change in the image generated according to the hand shape is calculated based on the detected hand shape, and the position change in the image space is converted into the movement on the actual copyboard by reflecting the set scale value in the calculated position change amount. It can be done.

본 발명의 다른 측면에 따르면, 전자칠판을 원격에서 제어하는 방법으로서,According to another aspect of the invention, as a method for remotely controlling the electronic blackboard,

전자칠판으로부터 원격에 있는 사용자를 촬상한 영상을 이용하여, 사용자가 자신의 위치에서 전자칠판을 바라보았을 때의 전자칠판의 크기 및 형상 중 적어도 하나를 확인하고, 사용자가 보는 시점 상에서의 사용자의 제스처에 상응하여 적용될 캘리브레이션 스케일 값을 설정하는 단계;By using an image of a user remote from the copyboard, at least one of the size and shape of the copyboard when the user looks at the copyboard at his / her location is checked, and the user's gesture on the viewing point of the user Setting a calibration scale value to be applied correspondingly;

전자칠판으로부터 원격에 있는 사용자를 촬상한 영상을 이용하여, 획득된 영상 중 사용자의 손이 위치하는 영역을 관심영역으로 설정하는 단계;Setting an area in which the user's hand is located as a region of interest using an image of a user remote from the copyboard;

상기 관심영역에 관한 계층적 영상 분석을 통해 사용자가 취한 손 모양을 검출하는 단계;Detecting a hand shape taken by a user through hierarchical image analysis of the ROI;

상기 검출된 손 모양에 상응하여, 상기 전자칠판의 제어를 위한 미리 지정된 제어 이벤트를 생성하는 단계; 및Generating a predetermined control event for controlling the electronic blackboard corresponding to the detected hand shape; And

상기 생성된 제어 이벤트에 기초하여 상기 전자칠판에 관한 원격 제어를 수행하는 단계를 포함하는 전자칠판 원격 제어 방법이 제공된다.
There is provided an electronic blackboard remote control method comprising performing a remote control on the electronic blackboard based on the generated control event.

본 발명의 실시예에 의하면, 손 검출과 손 움직임 추적을 통하여 전자칠판에 대한 제어를 터치를 하지 않고 원격으로 제어할 수 있다.According to an embodiment of the present invention, the control on the electronic blackboard can be controlled remotely without touching by hand detection and hand movement tracking.

또한 본 발명의 실시예에 의하면, ROI 설정과 계층적인 손모양 검출을 통하여 수행에 필요한 시간을 최소한으로 줄일 수 있는 효과가 있다.In addition, according to the embodiment of the present invention, it is possible to reduce the time required for execution to the minimum through the ROI setting and hierarchical hand shape detection.

또한 본 발명의 실시예에 의하면, 다양한 손모양의 검출을 통하여, 커서의 이동을 통하여 메뉴나 아이콘을 선택할 수 있으며, 선택된 메뉴나 아이콘을 실행하거나 이동할 수 있고, 다양한 손모양을 통하여 선택된 지점에 대한 ZOOM IN/OUT을 수행할 수 있다.
In addition, according to an embodiment of the present invention, through the detection of various hand shapes, the menu or icon can be selected through the movement of the cursor, the menu or icon can be executed or moved, and the selected points can be selected through various hand shapes. ZOOM IN / OUT can be performed.

도 1은 다양한 손모양 기반 전자칠판 제어를 간략히 예시한 블록도.
도 2는 카메라에서 얻은 영상에 대하여 캘리브레이션 및 사람의 상체 검출을 바탕으로 한 대상 영역을 재설정하는 PTZ제어 루틴에 대한 순서도.
도 3은 스캐일링 설정을 위한 선택영역의 크기를 주기 위한 캘리브레이션용 제스처의 예.
도 4는 주어진 영상으로부터 관심영역을 설정하는 과정을 보여주는 순서도.
도 5는 관심영역으로부터 다양한 손모양을 계층적으로 인식하는 과정을 나타내는 순서도.
도 6은 검출된 손모양과 이동량을 바탕으로 이벤트 발생을 나타내는 순서도.
도 7은 손검출을 위한 특징 추출에 사용된 Harr-like 특징 추출의 예.
1 is a block diagram schematically illustrating various hand-based electronic blackboard control.
2 is a flow chart for a PTZ control routine for resetting a target area based on calibration and upper body detection of a person with respect to an image obtained from a camera.
3 is an example of a calibration gesture for giving a size of a selection area for scaling setting.
4 is a flowchart illustrating a process of setting a region of interest from a given image.
5 is a flowchart illustrating a process of hierarchically recognizing various hand shapes from an ROI.
6 is a flowchart showing the occurrence of an event based on the detected hand shape and the amount of movement.
7 is an example of a Harr-like feature extraction used for feature extraction for hand detection.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention may be variously modified and have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail with reference to the accompanying drawings. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In addition, numerals (e.g., first, second, etc.) used in the description of the present invention are merely an identifier for distinguishing one component from another.

또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다", "전송된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나, 직접 접속, 직접 전송될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속, 전송될 수도 있다고 이해되어야 할 것이다.In addition, in this specification, when one component is referred to as "connected", "connected", "transmitted", etc. with another component, the one component is directly connected to the other component, or directly connected It may be directly transmitted, but it is to be understood that unless otherwise stated, it may be connected, connected or transmitted via another component in the middle.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예들를 상세히 설명한다. 본 발명은 전자칠판과의 인터페이스에 중점을 두고 있으나, 전자칠판이 아니더라도 마우스 등을 이용한 인터페이스를 제공하는 다양한 정보기기에서 제스처를 이용한 인터페이스의 방법으로도 적용될 수 있다.Hereinafter, with reference to the accompanying drawings will be described embodiments of the present invention; Although the present invention focuses on an interface with an electronic blackboard, the present invention may be applied to a method of using a gesture in various information devices providing an interface using a mouse, even if the electronic blackboard is not.

도 1은 손모양 기반 전자칠판 제어 블록도이다.1 is a hand-based electronic blackboard control block diagram.

도 1을 참조하면, 손모양 검출을 기반으로 한 원격 전자칠판 제어 장치는 카메라 영상획득부(100), 관심영역 설정부(200), 계층적 손모양 검출부(300), 손모양 인식기반 제어 이벤트 생성부(400) 및 이벤트 기반 전자칠판 제어부(500)를 포함한다. 이하, 위 각 구성부에 대해서는 도 2 ~ 도 7을 참조하여 구체적으로 설명하기로 한다.
Referring to FIG. 1, a remote electronic blackboard control apparatus based on hand shape detection may include a camera image acquisition unit 100, an ROI setting unit 200, a hierarchical hand shape detection unit 300, and a hand recognition recognition based control event. It includes a generation unit 400 and the event-based electronic blackboard control unit 500. Hereinafter, each component will be described in detail with reference to FIGS. 2 to 7.

도 2는 카메라에서 얻은 영상에 대하여 캘리브레이션 및 사람의 상체 검출을 바탕으로 한 대상 영역을 재설정하는 PTZ제어 루틴에 대한 순서도이다. 그리고 도 3은 스캐일링 설정을 위한 선택영역의 크기를 주기 위한 캘리브레이션용 제스처의 예이다. 이하, 도 2 및 도 3을 참조하여 도 1에서의 카메라 영상획득부(100)의 기능 및 역할에 대해 설명한다.2 is a flowchart of a PTZ control routine for resetting a target area based on calibration and detection of a human upper body with respect to an image obtained from a camera. 3 is an example of a calibration gesture for giving a size of a selection area for scaling setting. Hereinafter, the functions and roles of the camera image acquisition unit 100 of FIG. 1 will be described with reference to FIGS. 2 and 3.

카메라 영상획득부(100)는 카메라 모듈(미도시)을 포함하며, 도 2를 참조할 때, 이러한 카메라 모듈을 통해서 영상을 획득할 수 있다[단계 S105 참조].The camera image acquisition unit 100 may include a camera module (not shown), and when referring to FIG. 2, an image may be acquired through the camera module (see step S105).

이후, 카메라 영상획득부(100)는 단계 S110에 따라 캘리브레이션(Calibration) 루틴을 호출한다. 이러한 캘리브레이션 루틴은 사용자의 현재 위치에서 시점상의 움직임을 바탕으로 원거리에 있는 전자 칠판의 크기를 확인하며, 또한 사용자의 일반적인 제스처 움직임을 최소한의 제스처를 통하여 설정하는 과정이다.Thereafter, the camera image acquisition unit 100 calls a calibration routine according to step S110. The calibration routine is a process of checking the size of the copyboard in the distance based on the movement of the viewpoint at the current position of the user, and also setting the general gesture movement of the user through the minimum gesture.

캘리브레이션 루틴이 호출되는 경우, 사용자는 이러한 캘리브레이션을 위한 특정 제스처를 취하게 되며, 카메라 영상획득부(100)는 이에 의해 획득된 영상을 분석함으로써 캘리브레이션을 수행한다[단계 S120 참조].When the calibration routine is called, the user takes a specific gesture for such calibration, and the camera image acquisition unit 100 performs calibration by analyzing the image obtained thereby (see step S120).

단계 S120을 설명하면 다음과 같다.Referring to step S120 as follows.

사용자가 예를 들어 도 3에서 제시한 것과 같이 설정하고자 하는 위치에서 왼쪽 위쪽에서 시작하여 오른쪽 아래쪽으로 움직이는 제스처(움직임)를 취하면, 이러한 제스처를 바탕으로 전자칠판으로부터 원거리에 떨어져 있는 사용자의 위치에서 사용자가 바라볼 때의 전자칠판의 크기를 확인할 수 있다. 일 예로, 카메라 모듈이 전자칠판의 테두리의 임의의 일 위치(ex. 테두리 상단 중앙부)에 설치되어 있다고 가정할 때, 그 카메라 모듈에 의해 위와 같은 사용자의 제스처가 연속적으로 촬상된 복수개의 영상 프레임이 획득되면, 카메라 영상획득부(100)는 그 복수개의 영상 프레임에서 해당 제스처를 트래킹함으로써, 사용자가 바라볼 때의 사각의 전자칠판에서의 대각선 길이 및 대각선 방향의 양쪽 끝점을 확인할 수 있어, 이를 통해 전자칠판의 전체적인 형상 및 크기를 확인할 수 있게 되는 것이다.When the user takes a gesture (movement) starting from the upper left to the lower right at the position to be set as shown in FIG. 3, for example, at the position of the user who is remote from the copyboard based on the gesture. You can check the size of the copyboard when the user looks at it. For example, assuming that the camera module is installed at an arbitrary position of the edge of the copyboard (eg, the upper edge of the edge), a plurality of image frames in which the user's gestures are continuously captured by the camera module are displayed. Once acquired, the camera image acquisition unit 100 can check both end points of the diagonal length and the diagonal direction on the rectangular electronic blackboard when the user looks by tracking the corresponding gestures in the plurality of image frames. The overall shape and size of the copyboard can be confirmed.

물론 이상의 예시에서는, 사용자가 전자칠판의 정면을 바라볼 때를 가정하여 전자칠판의 테두리 상단 중앙부 등의 위치에 카메라 모듈이 설치되는 경우를 가정하였지만, 이외에도 다양한 위치에 설치될 수 있으며, 또한 카메라 모듈은 반드시 전자칠판의 특정 부위에 설치(고정 또는 부착)될 필요도 없음은 물론이다. 즉, 카메라 모듈이 전자칠판과 격리된 위치에 설치되는 경우라 하더라도 사용자의 제스처를 촬상할 수 있는 위치에만 배치/설치된다면 무방하다. 다만 사용자가 전자칠판을 정면에서 바라보는 상태에서의 사용자의 제스처를 측면에서 촬상하는 경우 전자칠판의 크기 계산(확인) 과정이 조금 더 복잡해질 수는 있지만, 이는 소프트웨어적 처리에만 관련된 것이므로 실제 적용에 큰 무리는 없을 것이기 때문이다.Of course, in the above example, it is assumed that the user is looking at the front of the copyboard, the camera module is installed in a position such as the center of the upper edge of the copyboard, but may be installed in various locations in addition to the camera module Of course, it is not necessary to be installed (fixed or attached) to a specific part of the copyboard. That is, even if the camera module is installed in a position separated from the copyboard, it may be disposed / installed only at a position capable of capturing a user's gesture. However, if the user captures the user's gesture in front of the copyboard from the side, the process of calculating the size of the copyboard may be a little more complicated. However, this is only related to software processing. For there will be no great crowd.

다만 이하에서는 본 발명의 이해의 편의 및 설명의 집중을 위해, 카메라 모듈이 전자칠판의 테두리 일 위치에 설치되며, 사용자는 전자칠판을 정면에서 바라본 상태에서 각종 제스처를 취하는 것으로 가정하여 설명하기로 한다.However, hereinafter, for the convenience of understanding and explanation of the present invention, the camera module is installed at the edge of the copyboard, and the user will be described on the assumption that the user takes various gestures while viewing the copyboard from the front. .

또한 이상에서는 사용자가 자신에게 보이는 전자칠판의 왼쪽 위쪽 모서리로부터 오른쪽 아래쪽 모서리로의 대각선 방향의 제스처를 취하는 경우만을 가정하였지만, 이와 반대로 오른쪽 위쪽 모서리로부터 왼쪽 아래쪽 모서리로의 대각선 방향의 제스처를 취하거나, 왼쪽 위쪽 모서리로부터 오른쪽 아래쪽 모서리로의 "ㄱ" 자 제스처 또는 "ㄴ"자 제스처를 취하는 것 등 다양한 제스처가 이용될 수도 있음은 물론이다. 다만 이는 전자칠판이 기울어지지 않아 사용자가 보기에 대체적으로 그 형상이 직사각형 또는 정사각형의 형상을 가지고 있는 상황, 그리고 사용자가 전자칠판을 정면에서 바라보고 있어 전자칠판의 원래 형상(예를 들어, 직사각형 또는 정사각형 형상)이 그대로 유지될 수 있는 상황에서 유용할 수 있다.In addition, the above assumes that the user makes a diagonal gesture from the upper left corner to the lower right corner of the copyboard to the user, but on the contrary, a diagonal gesture from the upper right corner to the lower left corner, Of course, various gestures may be used, such as taking a "-" or "b" -shaped gesture from the upper left corner to the lower right corner. However, this is because the copyboard is not tilted so that the user generally has a rectangular or square shape, and the user looks directly at the copyboard so that the original shape of the copyboard (for example, rectangular or Square shape) may be useful in situations where it may remain.

즉, 만일 전자칠판이 기울어진 경우 사용자 시점에서 볼 때 해당 전자칠판은 윗변/아랫변/좌변/우변 중 어느 하나가 마주보는 변에 비해 길이가 짧은 사다리꼴 형상 또는 어느 2개가 마주보는 각 변에 비해 길이가 짧은 사각형 형상을 가질 수 있다. 또한 만일 사용자가 전자칠판을 측면 방향에서 바라보는 경우 평행사변형 형상 등을 가질 수 있다. 위 경우와 같이 사용자 시점의 차이 또는/및 전자칠판의 기울어짐 등을 고려하기 위해, 도 3에서와 같이, 전자칠판의 왼쪽 위쪽 모서리로부터 대각선 방향으로 오른쪽 아래쪽 모서리로 앞선 설명에서와 같이 제스처를 취한 후, 연이어, 오른쪽 아래쪽 모서리(꼭지점)으로부터 오른쪽 위쪽 모서리를 지나 왼쪽 아래쪽 모서리까지의 대각선 방향에 이르는 제스처를 통해서 전자칠판의 크기 및 형상을 확인할 수 있다. 물론 앞서도 설명한 바와 같이 위 예시에서와는 다른 다양한 제스처가 이용될 수 있음은 자명하다. 이는, 해당 제스처를 통해서 사각 형상의 대각선 길이, 그 2개의 대각선이 이루는 각의 크기, 각 꼭지점의 위치(이는 제스처를 트래킹하였을 때 갑작스럽게 변하는 변곡점의 위치에 대응될 수 있음), 4개의 변 중 적어도 3개의 변의 길이(이는 각 꼭지점 간의 거리를 산출함으로써 가능함) 등 중 적어도 하나의 조합을 산출할 수 있는 제스처라면 어떠한 다양한 제스처라도 무방하기 때문이다. 이하 본 명세서에서는 이와 같은 제스처들을 캘리브레이션 제스처라 명명하기로 한다.That is, if the copyboard is tilted, the copyboard has a trapezoidal shape that is shorter in length than the side facing one of the upper side, the lower side, the left side, and the right side. It may have a short rectangular shape. In addition, if the user looks at the copyboard in the lateral direction it may have a parallelogram shape. In order to take into account the difference between the user's viewpoint and / or the tilt of the copyboard as in the above case, as shown in FIG. 3, the gesture is taken from the upper left corner of the copyboard to the lower right corner diagonally. Subsequently, the size and shape of the copyboard can be confirmed through a gesture ranging from the lower right corner (vertex) to the diagonal direction from the upper right corner to the lower left corner. Of course, as described above, it is obvious that various gestures different from those in the above example may be used. This includes the diagonal length of the square shape, the size of the angle formed by the two diagonal lines, the position of each vertex (which may correspond to the position of the inflection point that suddenly changes when the gesture is tracked), and the four sides. This is because any gesture may be used as long as a gesture capable of calculating a combination of at least one of at least three sides (which is possible by calculating a distance between each vertex) and the like. In the present specification, such gestures will be referred to as calibration gestures.

이와 같은 캘리브레이션 제스처에 의하면, 사용자의 현재 위치에서 사용자의 움직임에 관한 x 축 스케일 요소와 y축 스케일 요소를 설정할 수 있다. 여기서, x축 스케일 값은 sx, y축 스케일 값은 sy로 이하 명명한다. 이는 주어진 전자칠판의 원래 해상도와 측정된 이미지 공간에서의 비를 고려함으로 작성 가능하다. 그리고 기울여진 전자칠판과 같이 위와 아래의 크기 비율이 동일하지 않는 경우에 대해서도 보다 정확한 스케일 값을 얻고자 할 경우에는 y축의 스케일 값을 y축의 각 행에 따라 다른 값을 sy(yi)의 함수와 같은 형식으로 나타낼 수 있다.
According to the calibration gesture, the x-axis scale element and the y-axis scale element related to the movement of the user at the current position of the user can be set. Here, the x-axis scale value is named sx, and the y-axis scale value is named sy. This can be done by considering the ratio of the original resolution of a given copyboard to the measured image space. And if you want to get more accurate scale value even when the size ratio of the top and bottom is not the same as the tilted copyboard, the scale value of the y axis is different from each row of the y axis with the function of sy (yi). Can be represented in the same format.

또한 카메라 모듈에 대한 PTZ(Pan-Tilt-Zoom) 제어가 가능한 경우에는, 최적의 손동작 움직임을 추적하기 위하여, 교수자 또는 사용자의 상체를 검출하고 검출된 상체를 바탕으로, 상체가 영상의 중심에 들어오도록 카메라 모듈을 상/하/좌/우로의 회동 또는/및 줌인, 줌아웃 시킬 수 있다[단계 S125 및 S130 참조]. 예를 들어, 영상 내에 검출된 상체 크기가 전체 영상의 높이의 일정한 비율 가령, 1/4이하인 경우에는 ZOOM IN 기능을 사용하여 보다 큰 영상에서 동작을 추적할 수 있도록 한다. 반대로 사용자가 카메라에서 지나치게 크게 나온 경우, 가령 1/2 이상인 경우에는 ZOOM OUT을 통하여 손의 움직임이 영상을 벗어나지 않도록 한다. 물론 이외에도 상/하/좌/우의 카메라 모듈의 회동을 통한 조정도 가능하다.In addition, when PTZ (Pan-Tilt-Zoom) control of the camera module is possible, the upper body of the instructor or the user is detected and the upper body is centered in the image based on the detected upper body to track optimal hand movements. The camera module can be rotated up / down / left / right or / and zoomed in to zoom out (see steps S125 and S130). For example, when the upper body size detected in the image is a constant ratio of the height of the entire image, for example, less than 1/4, the ZOOM IN function can be used to track the motion in the larger image. On the contrary, if the user comes out of the camera too large, for example, if it is 1/2 or more, the movement of the hand does not leave the image through the ZOOM OUT. Of course, it is also possible to adjust the camera module by rotating the camera module up / down / left / right.

이와 같이 캘리브레이션 초기화나 PTZ 제어가 일어나는 경우에는 움직인 후의 영상을 새로운 손 검출을 위하여 제공하도록 한다. 즉, 앞선 과정의 초기화 및 PTZ 제어를 반복 수행할 수도 있다. 예를 들어, ZOOM IN 또는 ZOOM OUT이 일어났을 경우에는 이에 따라 스케일 요소 sx와 sy를 이에 맞추어 다시 수정하도록 한다. In this way, when calibration initialization or PTZ control occurs, an image after movement is provided for new hand detection. That is, the initialization and PTZ control of the foregoing process may be repeated. For example, when ZOOM IN or ZOOM OUT occurs, the scale elements sx and sy are modified accordingly accordingly.

이상에서는 도 2의 순서도를 기준하여 설명하였지만, 도 2에서 단계 S125 및 단계 S130은, 상황에 따라 또는 설계 구현 방식에 따라 단계 S110 및 단계 S120 이전에 수행되어도 무방하다. 즉, 카메라 영상획득부(100)를 통해 획득된 사용자 촬영 영상을 기준하여 사용자의 상체가 카메라 중앙(즉, 영상의 중앙)에 위치하는지를 먼저 확인하고, 이와 같은 조건이 완비되었을 때 캘리브레이션 과정을 후 수행하는 방식도 가능함을 당업자라면 별도의 구체적 설명이 없더라도 쉽게 이해할 수 있을 것이다.Although described above with reference to the flowchart of FIG. 2, step S125 and step S130 in FIG. 2 may be performed before step S110 and step S120 according to a situation or a design implementation method. That is, based on the user photographed image obtained through the camera image acquisition unit 100, first check whether the upper body of the user is located at the center of the camera (that is, the center of the image), and when the above conditions are completed, the calibration process is performed after It will be apparent to those skilled in the art that the manner of performing the present invention can be easily understood without a detailed description.

상술한 과정에서와 같은 캘리브레이션 초기화 과정이 완료되면, 그때 획득된 영상을 손 검출을 위한 영상으로 관심영역 설정부(200)로 전달한다[단계 S150 참조].
When the calibration initialization process as described above is completed, the acquired image is transferred to the ROI setting unit 200 as an image for hand detection (see step S150).

도 4는 주어진 영상으로부터 관심영역을 설정하는 과정을 보여주는 순서도이다. 이하, 도 4를 참조하여 도 1의 관심영역 설정부(200)의 기능 및 역할을 구체적으로 설명한다.4 is a flowchart illustrating a process of setting a region of interest from a given image. Hereinafter, the function and role of the ROI setting unit 200 of FIG. 1 will be described in detail with reference to FIG. 4.

카메라 영상획득부(100)에서 얻어진 영상은 계층적 손모양 검출부(300)로 전체 영상이 보내지는 대신에, 관심영역 설정부(200)를 통해서 실제 손이 존재할 수 있는 영역에 대해서만 손 검출을 할 수 있도록 함으로써, 그 처리 속도를 향상시킨다. 이 관심영역(ROI 영역)은 도 4에서 보여주는 것과 같이, 이전에 손 검출이 있었던 경우에는 이를 통하여 설정된 관심영역을 그대로 사용하게 되고[단계 S205 및 단계 S210 참조], 만약 그러한 설정된 관심영역이 없는 경우에는 단계 S215 이하의 과정을 통해서 관심영역을 설정한다.Instead of sending the entire image to the hierarchical hand shape detection unit 300, the image obtained by the camera image acquisition unit 100 performs hand detection only in an area where an actual hand may exist through the ROI setting unit 200. By doing so, the processing speed is improved. As shown in FIG. 4, this ROI is used as the ROI set through the hand detection if it was previously detected (see steps S205 and S210). In step S215, a region of interest is set through the following process.

기존에 관심영역이 설정되어 처리되고 있던 경우(즉, 사용자가 전자칠판원격제어를 계속적으로 실행하고 있던 경우)와 달리, 새롭게 관심영역이 설정되어야 하는 경우(즉, 사용자가 전자칠판 원격제어를 시작하고자 하는 경우), 카메라 영상획득부(100)에 의해 획득된 이전 영상 및 현재 영상을 기초로, 1차적으로 현재 영상을 이전 영상과 비교하여 이에 대한 차 영상 영역을 통해 움직임을 추출하고[단계 S215 참조], 움직임이 있으면 움직임이 있는 영역(즉, 차 영상 영역)을 중심으로 관심영역을 설정할 수 있다[단계 S220 참조]. 만약에 움직임을 찾을 수 없을 경우에는 피부색 샘플을 가지고 있어서 피부색이 검출되는 영역 중에 일정한 크기 이상의 영역을 관심 영역으로 설정할 수 있다[단계 S225 및 단계 S230 참조]. 이러한 방법으로 검출을 할 수 없을 경우에는 입력 영상 전체를 관심영역으로 설정할 수도 있다[단계 S240 참조]. 다만, 상술한 단계 S205, S215, S225 과정을 통해서도 관심영역을 검출할 수 없는 경우에 단계 S240과 같이 입력 영상 전체를 관심영역으로 검출하지 않고, 그 다음 입력 영상과 비교하는 과정을 재수행할 수도 있음은 물론이다.Unlike when a region of interest has been set up and is being processed (that is, the user is continuously executing the remote control of the copyboard), when a region of interest must be newly set up (that is, the user starts remote control of the copyboard) To compare the current image with the previous image based on the previous image and the current image acquired by the camera image acquisition unit 100, and extract the motion through the difference image region for this (step S215). If there is motion, the ROI may be set based on the motion area (that is, the difference image area) (see step S220). If no movement is found, a region having a skin color sample can be set as the region of interest among regions where the skin color is detected (see steps S225 and S230). If the detection is not possible in this way, the entire input image may be set as the ROI (see step S240). However, if the ROI cannot be detected through the above-described steps S205, S215, and S225, the entire process of comparing the input image with the next input image may be performed without detecting the entire input image as the ROI as in step S240. Of course.

이와 같이 설정된 검출 대상 영역(즉, 관심영역)이 다음 손 검출을 위하여 사용되게 되며, 이는 계층적 손모양 검출부(300)로 전달된다[단계 S250 참조].The detection subject region (ie, the region of interest) set as described above is used for the next hand detection, which is transmitted to the hierarchical hand shape detecting unit 300 (see step S250).

도 5는 관심영역으로부터 다양한 손모양을 계층적으로 인식하는 과정을 나타내는 순서도이다. 이하, 도 5를 참조하여 도 1의 계층적 손모양 검출부(300)의 기능 및 역할에 대하여 구체적으로 설명한다.5 is a flowchart illustrating a process of hierarchically recognizing various hand shapes from an ROI. Hereinafter, the function and role of the hierarchical hand shape detection unit 300 of FIG. 1 will be described in detail with reference to FIG. 5.

계층적 손모양 검출부(300)는 도 5에 나타낸 것과 같이 단계별로 손모양을 검출하여 여러 종류의 손모양을 검출하는 경우에도 동시에 여러종류의 손모양을 검출하는 것이 아니라, (이러한 경우에는 많은 리소스를 사용하게 되어 반응 속도가 크게 떨어지게 될 수 있음) 검출할 손 모양에 대한 계층 구조를 가지고 있어서, 이러한 계층구조를 바탕으로 검출하도록 하게 된다.The hierarchical hand detection unit 300 does not detect several types of hands at the same time even when detecting hand types by step as shown in FIG. The reaction rate may be greatly reduced.) The hierarchical structure of the shape of the hand to be detected is detected, so that the detection is performed based on the hierarchical structure.

이 때 각각의 손모양은 개별 손모양 검출기(미도시)를 학습하여 사용하할 수 있으며, 개별 손모양 검출기는 케스케이드 아다부스트(Cascade Adaboost) 기반의 손모양 검출기나 그 변형 또는 SVM 기반의 손모양 검출기를 사용할 수 있다. 여기서, 케스케이드 아다부스트를 기반으로 한 손 제스처 인식을 수행하는 경우를 예를 들어 설명하면, 도 7과 같은 Harr-like 특징값을 뽑아내고, 이를 기반으로 케스케이드 아다부스트 학습기를 학습한다. 이 학습을 위하여 각각의 손모양에 대한 포지티브(positive) 영상과 네거티브(negative) 영상을 수백장에서 수천장을 수집하여 학습에 사용한다. 이에 따라 각각의 손모양에 대하여 개별적으로 인식할 수 있는 학습시스템이 말들어 진다. 이를 바탕으로, 학습 후에는 개별 영상에 대하여 손모양을 검출하기 위해서는 각각의 손모양 검출기를 설정된 윈도우 크기와 이에 대한 일정배수의 크기에 대하여 전체 원도우에 대하여 검색함으로 학습한 손모양을 검출하게 된다. 이 때, Harr-like 특징값을 효과적으로 계산하기 위하여 인테그럴 이미지(integral image)가 사용된다. 원하는 다수의 손모양에 대한 학습은 개별적으로 이루어지며, 만약에 개별 손모양을 n개 검출하고자 한다면, 검출 속도는 한 개의 손모양에 비하여 n배 느려지게 된다. 따라서 동시에 모든 손모양을 검출하는 것이 아니라 계층적인 구조를 가지고, 가장 흔히 사용되는 손모양부터 검출하도록 하며, 어떤 손모양의 경우에는 일정한 조건이 만족된 경우에만 검출을 시도하도록 한다.At this time, each hand shape can be used by learning an individual hand detector (not shown), the individual hand detector is a cascade Adaboost-based hand detector or a variant or SVM-based hand shape Detectors can be used. Here, a case of performing a hand gesture recognition based on cascade Adboost will be described, for example. A Harr-like feature value as shown in FIG. 7 is extracted, and a cascade Adapst learner is trained based on this. For this learning, hundreds to thousands of positive and negative images of each hand shape are collected and used for learning. This results in a learning system that can be individually recognized for each hand shape. Based on this, in order to detect the hand shape of the individual image after the learning, each hand shape detector detects the learned hand shape by searching the entire window with respect to the set window size and the size of a predetermined multiple thereof. In this case, an integral image is used to effectively calculate the harr-like feature value. The learning of the desired number of hands is done individually, and if you want to detect n individual hands, the detection speed is n times slower than one hand. Therefore, instead of detecting all the hand shapes at the same time, it has a hierarchical structure and detects the most commonly used hand shapes, and in the case of some hand types, it detects only when certain conditions are satisfied.

일 예로 가장 흔하게 일어나는 커서이동 손모양을 편 손모양(즉, 손을 편상태의 모양)이라고 정의한다면 이러한 편 손모양을 케스케이드 아다부스트 방법에 의하여 검출하게 되고, 검출하게 되면 그 제어를 위하여 손움직임을 계산하여 위치변화를 전달하게 된다[단계 S315 및 단계 S320 참조]. 이는 관심영역 설정부(200)로부터 전달된 관심영역의 영상을 대상으로 커서이동 손모양 검출 루틴을 호출함으로써 시작될 수 있다[단계 S305 및 단계 S310 참조].For example, if the most commonly used cursor movement hand shape is defined as a flat hand shape (ie, the shape of a hand), the single hand shape is detected by the cascade ad-boost method, and when detected, the hand motion is controlled. To transfer the change in position (see step S315 and step S320). This may be started by invoking a cursor movement hand detection routine for an image of the ROI transmitted from the ROI setting unit 200 (see steps S305 and S310).

만약, 이 손모양이 검출되지 않게 되면, 마우스의 더블클릭과 같은 기능에 흔히 사용될 수 있는 실행손 모양을 검출하게 된다[단계 S330 참조]. 실행 손모양은 주먹과 같은 손모양을 설정할 수 있다. 실행손 모양의 검출하기 전에 실행을 위해서는 움직임 제스처가 있는 것을 요구하고 이에 따라 스크로크가 발생한 경우에 대해서만 실행 제스처를 인식하도록 할 수도 있다[단계 S325 참조]. 스트로크 발생이 없었거나 실행손 모양이 검출되지 않은 경우에는 선택이동에 대한 손모양을 검출하게 되며 이 손모양이 검출된 경우에는 손움직임에 따른 위치 변화량을 전달하게 된다[단계 S340 및 단계 S350 참조]. 선택이동 손모양의 일예는 가위 모양의 손모양을 사용할 수 있다.If the hand shape is not detected, the execution hand shape that can be commonly used for a function such as double clicking of a mouse is detected (see step S330). The execution hand shape may set a hand shape such as a fist. It may be required to have a motion gesture for execution before detecting the execution hand shape, and accordingly, the execution gesture may be recognized only when a stroke has occurred (see step S325). If there is no stroke or the execution hand is not detected, the hand shape for the selection movement is detected, and if this hand shape is detected, the position change amount according to the hand movement is transmitted (see steps S340 and S350). . An example of a selective move hand shape may use a scissors hand shape.

또한 여기서, 위치 변화량의 전달의 경우에는 앞선 캘리브레이션 과정에서 획득된 또는 초기화 과정에서 미리 설정된 스케일 값을 곱하여 실제 제어를 위한 변화량을 계산하게 된다. 즉 실제 이미지 영상에서, Δx 만큼의 변화가 발생했다면, 실제 제어를 위하여 전달되는 값은 sx(x축 스케일 값)와 Δx(영상 내에서의 x축 변위)를 곱한 수치만큼의 위치(좌표) 변화를 하게 된다. 마찬가지로 Δy에 대해서도 sy(y축 스케일 값)와 Δy(영상 내에서의 y축 변위)를 곱한 수치만큼의 위치 변화를 하게 된다. 이외에도 추가적으로 제스처를 설정하여 추가적인 제스처, 가령 ZOOM IN/OUT을 위한 제스처를 설정하여 이를 바탕으로 줌 IN/OUT을 손의 움직임을 바탕으로 제어하도록 할 수 있다[단계 S380 참조]. 이와 같이 차례대로 설정된 손모양에 대한 모든 제스처에 대한 인식을 단계적으로 수행하며, 검출된 손모양 또는/및 위치 변화량은 도 1의 손모양 인식 기반 제어 이벤트 생성부(400)로 전달된다[단계 S360, S370, S390 참조]. 혹은 설정된 손모양이 하나도 검출되지 않은 경우에는 NO ACTION 메시지를 전달하게 된다[단계 S390 참조].
In addition, in the case of the transfer of the position change amount, the change amount for the actual control is calculated by multiplying the scale value obtained in the previous calibration process or preset in the initialization process. That is, in the real image, if the change by Δx occurs, the value transmitted for the actual control is the change of the position (coordinate) by the value multiplied by sx (x-axis scale value) and Δx (x-axis displacement in the image). Will be Similarly, for Δy, the position change is made as much as the product of sy (y-axis scale value) and Δy (y-axis displacement in the image). In addition, by setting a gesture, an additional gesture, for example, a gesture for ZOOM IN / OUT may be set to control the zoom IN / OUT based on the movement of the hand based on this (see step S380). As described above, recognition for all gestures for the set hand shapes is performed step by step, and the detected hand shape and / or position change amount is transmitted to the hand recognition recognition control event generating unit 400 of FIG. 1 (step S360). , S370, S390]. Or, if no set hand shape is detected, a NO ACTION message is transmitted (see step S390).

도 6은 검출된 손모양과 이동량을 바탕으로 이벤트 발생을 나타내는 순서도이다. 이하, 도 6을 참조하여 도 1의 손모양 인식 기반 제어 이벤트 생성부(400)의 기능 및 역할에 대해 구체적으로 설명한다.6 is a flowchart showing the occurrence of an event based on the detected hand shape and the amount of movement. Hereinafter, the function and role of the hand recognition based control event generator 400 of FIG. 1 will be described in detail with reference to FIG. 6.

검출된 손모양과 움직임의 변화량은 손모양 인식 기반 제어 이벤트 생성부(400)에서 각각의 손모양에 따른 제어 이벤트를 생성하게 된다. 도 6은 이러한 손모양 제스처의 생성의 일예를 보여준다.The amount of change in the detected hand shape and movement generates a control event according to each hand shape in the hand recognition recognition control event generation unit 400. 6 shows an example of the generation of such a hand gesture.

도 6을 참조하면, 계층적 손모양 검출부(300)에 의해 검출된 손모양이 커서이동 손모양의 경우, 그 검출된 손모양 및 이동량(즉, 위치 변화량)에 근거하여 전자칠판 위에 커서를 이동하기 위하여 사용되는 명령어로 변환된다[단계 S405, S415, S420 참조]. 또한 실행손 모양이 검출된 경우에는 이전 단계의 커서에서 선택된 메뉴나 아이콘에 해당하는 명령어를 수행하게 된다[단계 S425 및 S435 참조]. 그리고 선택이동 손모양의 경우에는 선택된 객체의 위치를 이동시키기 위한 명령어를 생성하도록 하며[단계 S440 및 S445 참조], 추가적인 손모양에 대해서도 대응하는 명령어를 생성하도록 한다[단계 S450 참조].Referring to FIG. 6, when the hand shape detected by the hierarchical hand shape detection unit 300 is a cursor movement hand shape, the cursor is moved on the copyboard based on the detected hand shape and the movement amount (ie, the position change amount). Is converted to an instruction used to perform the operation (see steps S405, S415, S420). In addition, when the execution hand gesture is detected, a command corresponding to the menu or icon selected by the cursor of the previous step is executed (see steps S425 and S435). In the case of the selection moving hand shape, a command for moving the position of the selected object is generated (see steps S440 and S445), and a corresponding command is generated for an additional hand shape (see step S450).

명령어 생성단계에서는 동작에 따라 순차적으로 발생해야 하는 손모양등을 가능 시나리오를 바탕으로 상태 다이어그램으로 구성하여, 이를 바탕으로 손모양 오검출로 인한 오동작을 줄이도록 한다. 명령어 생성은 메시지 형태의 명령어 전달에 의한 방법이나, 해당하는 전자칠판 프로그램의 직접 구동에 의하여 가능하다.In the command generation step, a hand diagram that must occur sequentially according to the operation is configured into a state diagram based on the possible scenarios, and the malfunction caused by the hand shape misdetection is reduced based on this. Command generation can be performed by the method of message transfer or by direct driving of the corresponding copyboard program.

도 1의 이벤트 기반 전자칠판 제어부(500)는, 도 6의 단계 S460에 따라 손모양 인식 기반 제어 이벤트 생성부(400)로부터 각각의 손제스처에 의하여 생성된 명령어를 전달받고, 이와 같이 전달받은 명령어에 기반하여 실제 프로그램에서 수행하도록 한다. 이부분이 제어 이벤트 생성부와 나누어진 것은 전자칠판 업체에 따라서 요구되는 전자 칠판의 사양이나 제공되는 API에 차이가 있기 때문이다. 따라서 설계 구현 방식에 따라 전자칠판 제어부(500)와 제어 이벤트 생성부(400)는 병합 구현될 수도 있다.The event-based copyboard control unit 500 of FIG. 1 receives a command generated by each hand gesture from the hand-shaped recognition-based control event generation unit 400 according to step S460 of FIG. 6, and the command received as described above. Based on the actual program. This part is divided from the control event generator because there is a difference in the specification of the copyboard and the API provided depending on the copyboard manufacturer. Therefore, the electronic blackboard controller 500 and the control event generator 400 may be merged according to the design implementation.

이상에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 쉽게 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the following claims And changes may be made without departing from the spirit and scope of the invention.

Claims (12)

원격 전자칠판 제어 장치로서,
전자칠판으로부터 원격에 있는 사용자를 촬상하기 위한 카메라 영상획득부;
상기 카메라 영상획득부에 의해 획득된 영상 중 사용자의 손이 위치하는 영역을 관심영역(Region of Interest, ROI)으로 설정하는 관심영역 설정부;
상기 관심영역에 관한 계층적 영상 분석을 통해 사용자가 취한 손 모양을 검출하는 손 모양 검출부; 및
상기 손 모양 검출부에 의해 검출된 손 모양에 상응하여, 상기 전자칠판의 제어를 위한 미리 지정된 제어 이벤트를 생성하는 제어 이벤트 생성부
를 포함하는 제스처 기반의 원격 전자칠판 제어 장치.
Remote copyboard control device,
A camera image acquisition unit for photographing a user who is remote from the copyboard;
A region of interest setting unit configured to set a region where a user's hand is located among regions of the image acquired by the camera image acquisition unit as a region of interest (ROI);
A hand shape detector configured to detect a hand shape taken by a user through hierarchical image analysis of the ROI; And
Control event generation unit for generating a predetermined control event for the control of the electronic blackboard corresponding to the hand shape detected by the hand shape detection unit
Gesture-based remote electronic blackboard control device comprising a.
제1항에 있어서,
상기 생성된 제어 이벤트에 기초하여 상기 전자칠판에 관한 원격 제어를 수행하는 전자칠판 제어부를 더 포함하는, 제스처 기반의 원격 전자칠판 제어 장치.
The method of claim 1,
And an electronic blackboard controller for performing remote control on the electronic blackboard based on the generated control event.
제1항에 있어서,
상기 카메라 영상획득부는,
캘리브레이션 루틴(Calibration routine)의 호출을 통해, 사용자가 자신의 위치에서 원거리에 있는 전자칠판을 바라보았을 때의 전자칠판의 크기 및 형상 중 적어도 하나를 확인함으로써, 사용자가 보는 시점 상에서의 사용자의 제스처에 상응하여 적용될 스케일 값을 자동 설정하는,
제스처 기반의 원격 전자칠판 제어 장치.
The method of claim 1,
The camera image acquisition unit,
By invoking a calibration routine, the user checks at least one of the size and shape of the copyboard when the user looks at the copyboard at a distance from his or her location. To automatically set the corresponding scale value,
Gesture based remote copyboard control device.
제3항에 있어서,
상기 카메라 영상획득부는,
상기 캘리브레이션 루틴의 수행 과정에서 사용자가 취한 미리 지정된 캘리브레이션 제스처에 관한 영상을 분석하여,
사각 형상의 전자칠판의 대각선 길이, 2개의 대각선이 교차될 때에 이루는 각의 크기, 각 꼭지점의 위치, 4개의 변 중 적어도 3개의 변의 길이 중 어느 하나 이상을 산출함으로써 사용자가 전자칠판을 바라보았을 때의 전자칠판의 크기 및 형상 중 적어도 하나를 확인하고, 확인 결과에 근거하여 수평축 및 수직축에 관한 상기 스케일 값을 고정 스케일값으로 또는 위치에 따라 스케일 값을 달리하는 스케일 함수 형태로 설정하는,
제스처 기반의 원격 전자칠판 제어 장치.
The method of claim 3,
The camera image acquisition unit,
Analyzing the image related to a predetermined calibration gesture taken by the user in the course of performing the calibration routine,
When the user looks at the copyboard by calculating one or more of the diagonal length of the rectangular copyboard, the size of the angle formed when the two diagonal lines intersect, the position of each vertex, and the length of at least three of the four sides. Checking at least one of the size and shape of the copyboard of the electronic board, and setting the scale value with respect to the horizontal axis and the vertical axis to a fixed scale value or to a scale function in which the scale value varies depending on the position based on the check result;
Gesture based remote copyboard control device.
제3항에 있어서,
상기 카메라 영상획득부는,
PTZ(Pan-Tilt-Zoom) 제어 기능을 포함함으로써, 사용자의 상체가 영상의 중앙부에 들어오도록 카메라에 대한 상/하/좌/우 방향 중 적어도 하나 이상의 방향으로의 회동 또는 줌인(Zoom In)/줌아웃(Zoom Out)을 실행하는,
제스처 기반의 원격 전자칠판 제어 장치.
The method of claim 3,
The camera image acquisition unit,
Pan-Tilt-Zoom (PTZ) control is included so that the user's torso can be rotated or zoomed in at least one of the up, down, left and right directions with respect to the camera so that the user's upper body enters the center of the image. Execute Zoom Out,
Gesture based remote copyboard control device.
제1항에 있어서,
상기 관심영역 설정부는,
기존 검출된 손 위치에 근거하여 관심영역을 설정하거나, 상기 카메라 영상획득부에 의해 획득된 이전 영상과 현재 영상을 비교한 차 영상을 이용하여 움직임이 발생된 영역을 관심영역으로 설정하거나, 또는 피부색 샘플을 이용하여 피부색이 검출되는 영역을 관심 영역으로 설정하는,
제스처 기반의 원격 전자칠판 제어 장치.
The method of claim 1,
The region of interest setting unit,
Set the region of interest based on the detected position of the hand, or set the region of movement as the region of interest using the difference image comparing the current image with the previous image acquired by the camera image acquisition unit, or skin color By using the sample to set the area where the skin color is detected as the region of interest,
Gesture based remote copyboard control device.
제1항에 있어서,
상기 손 모양 검출부는, 미리 지정된 개개의 손 모양을 검출하기 위한 개별 손 모양 검출기를 포함하되-여기서, 상기 미리 지정된 손 모양은, 이동 커서 손 모양, 실행 손 모양, 선택 이동 손 모양 중 적어도 하나가 포함됨-,
상기 미리 지정된 개개의 손 모양은, 미리 설정된 우선 순위에 근거한 순서대로의 상기 개개의 손 모양을 검출하기 위한 계층적 단계를 거쳐 검출되는,
제스처 기반의 원격 전자칠판 제어 장치.
The method of claim 1,
The hand detector includes an individual hand detector for detecting individual predetermined hand shapes, wherein the predetermined hand shape includes at least one of a moving cursor hand shape, an executing hand shape, and a selected moving hand shape. Included-,
The predetermined individual hand gestures are detected through hierarchical steps for detecting the individual hand gestures in an order based on a preset priority.
Gesture based remote copyboard control device.
제7항에 있어서,
상기 실행 손 모양의 검출의 경우, 상기 손 모양 검출부는,
미리 지정된 선행 제스처가 검출된 이후에 후속하여 상기 실행 손 모양이 검출되는 경우에만, 유효한 실행 손 모양의 검출로 판정하는,
제스처 기반의 원격 전자칠판 제어 장치.
The method of claim 7, wherein
In the case of the detection of the execution hand, the hand detection unit,
Only when the execution hand gesture is subsequently detected after a predetermined preceding gesture has been detected, determining as the detection of a valid execution hand gesture,
Gesture based remote copyboard control device.
제3항에 있어서,
상기 손 모양 검출부는,
검출된 손 모양을 기초로 해당 손 모양에 따라 발생된 영상 내의 위치 변화량을 계산하되, 계산된 위치 변화량에 상기 설정된 스케일 값을 반영함으로써, 이미지 공간 상에서의 위치 변화가 실제 전자칠판 상에서의 움직임으로 변환될 수 있도록 하는,
제스처 기반의 원격 전차칠판 제어 장치.
The method of claim 3,
The hand detection unit,
The position change in the image generated according to the hand shape is calculated based on the detected hand shape, and the position change in the image space is converted into the movement on the actual copyboard by reflecting the set scale value in the calculated position change amount. To be,
Gesture-based Remote Chalkboard Control Device.
전자칠판을 원격에서 제어하는 방법으로서,
전자칠판으로부터 원격에 있는 사용자를 촬상한 영상을 이용하여, 사용자가 자신의 위치에서 전자칠판을 바라보았을 때의 전자칠판의 크기 및 형상 중 적어도 하나를 확인하고, 사용자가 보는 시점 상에서의 사용자의 제스처에 상응하여 적용될 캘리브레이션 스케일 값을 설정하는 단계;
전자칠판으로부터 원격에 있는 사용자를 촬상한 영상을 이용하여, 획득된 영상 중 사용자의 손이 위치하는 영역을 관심영역으로 설정하는 단계;
상기 관심영역에 관한 계층적 영상 분석을 통해 사용자가 취한 손 모양을 검출하는 단계;
상기 검출된 손 모양에 상응하여, 상기 전자칠판의 제어를 위한 미리 지정된 제어 이벤트를 생성하는 단계; 및
상기 생성된 제어 이벤트에 기초하여 상기 전자칠판에 관한 원격 제어를 수행하는 단계
를 포함하는 전자칠판 원격 제어 방법.
As a method of remotely controlling the copyboard,
By using an image of a user remote from the copyboard, at least one of the size and shape of the copyboard when the user looks at the copyboard at his / her location is checked, and the user's gesture on the viewing point of the user Setting a calibration scale value to be applied correspondingly;
Setting an area in which the user's hand is located as a region of interest using an image of a user remote from the copyboard;
Detecting a hand shape taken by a user through hierarchical image analysis of the ROI;
Generating a predetermined control event for controlling the electronic blackboard corresponding to the detected hand shape; And
Performing remote control on the electronic blackboard based on the generated control event;
Electronic blackboard remote control method comprising a.
제10항에 있어서,
상기 캘리브레이션 스케일 값을 설정하는 단계는,
상기 캘리브레이션 루틴의 수행 과정에서 사용자가 취한 미리 지정된 캘리브레이션 제스처에 관한 영상을 분석하여,
사각 형상의 전자칠판의 대각선 길이, 2개의 대각선이 교차될 때에 이루는 각의 크기, 각 꼭지점의 위치, 4개의 변 중 적어도 3개의 변의 길이 중 어느 하나 이상을 산출함으로써 사용자가 전자칠판을 바라보았을 때의 전자칠판의 크기 및 형상 중 적어도 하나를 확인하고, 확인 결과에 근거하여 수평축 및 수직축에 관한 상기 스케일 값을 고정 스케일값으로 또는 위치에 따라 스케일 값을 달리하는 스케일 함수 형태로 설정하는 것인,
전자칠판 원격 제어 방법.
The method of claim 10,
The setting of the calibration scale value may include:
Analyzing the image related to a predetermined calibration gesture taken by the user in the course of performing the calibration routine,
When the user looks at the copyboard by calculating one or more of the diagonal length of the rectangular copyboard, the size of the angle formed when the two diagonal lines intersect, the position of each vertex, and the length of at least three of the four sides. Checking at least one of the size and shape of the copyboard of the, and setting the scale value with respect to the horizontal axis and the vertical axis in the form of a scale function of varying the scale value according to the position or position based on the check result,
Blackboard remote control method.
제10항에 있어서,
획득된 영상 중 사용자의 손이 위치하는 영역을 관심영역으로 설정하는 단계는,
기존 검출된 손 위치에 근거하여 관심영역을 설정하거나, 상기 카메라 영상획득부에 의해 획득된 이전 영상과 현재 영상을 비교한 차 영상을 이용하여 움직임이 발생된 영역을 관심영역으로 설정하거나, 또는 피부색 샘플을 이용하여 피부색이 검출되는 영역을 관심 영역으로 설정하는 것인,
전자칠판 원격 제어 방법.
The method of claim 10,
Setting the region of the user's hand as the region of interest in the acquired image,
Set the region of interest based on the detected position of the hand, or set the region of movement as the region of interest using the difference image comparing the current image with the previous image acquired by the camera image acquisition unit, or skin color By using the sample to set the area where the skin color is detected as the region of interest,
Blackboard remote control method.
KR1020110147473A 2011-12-30 2011-12-30 Apparatus and method for controlling electric boards using multiple hand shape detection and tracking KR101360322B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110147473A KR101360322B1 (en) 2011-12-30 2011-12-30 Apparatus and method for controlling electric boards using multiple hand shape detection and tracking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110147473A KR101360322B1 (en) 2011-12-30 2011-12-30 Apparatus and method for controlling electric boards using multiple hand shape detection and tracking

Publications (2)

Publication Number Publication Date
KR20130078496A true KR20130078496A (en) 2013-07-10
KR101360322B1 KR101360322B1 (en) 2014-02-25

Family

ID=48991433

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110147473A KR101360322B1 (en) 2011-12-30 2011-12-30 Apparatus and method for controlling electric boards using multiple hand shape detection and tracking

Country Status (1)

Country Link
KR (1) KR101360322B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170011927A (en) * 2015-07-22 2017-02-02 주식회사 케이티앤씨 Super Wide Angle Camera System for recognizing hand gesture and Transport Video Interface Apparatus used in it

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200073031A (en) 2018-12-13 2020-06-23 주식회사 유엑스팩토리 3D Hand Model Manufacturing Method for Hand Motion Tracking having High Accuracy
KR102228639B1 (en) 2019-08-09 2021-03-16 한국과학기술원 Apparatus and method for tracking hand motion

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100826878B1 (en) * 2006-09-28 2008-05-06 한국전자통신연구원 Hand shafe recognition method and apparatus for thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170011927A (en) * 2015-07-22 2017-02-02 주식회사 케이티앤씨 Super Wide Angle Camera System for recognizing hand gesture and Transport Video Interface Apparatus used in it

Also Published As

Publication number Publication date
KR101360322B1 (en) 2014-02-25

Similar Documents

Publication Publication Date Title
US8339359B2 (en) Method and system for operating electric apparatus
US11650659B2 (en) User input processing with eye tracking
CN108845668B (en) Man-machine interaction system and method
US20200097091A1 (en) Method and Apparatus of Interactive Display Based on Gesture Recognition
KR101809636B1 (en) Remote control of computer devices
US8390577B2 (en) Continuous recognition of multi-touch gestures
Jing et al. Human-computer interaction using pointing gesture based on an adaptive virtual touch screen
WO2014106219A1 (en) User centric interface for interaction with visual display that recognizes user intentions
WO2014201427A1 (en) Systems and methods for performing a device action based on a detected gesture
US20140161309A1 (en) Gesture recognizing device and method for recognizing a gesture
CN105589553A (en) Gesture control method and system for intelligent equipment
CN111527468A (en) Air-to-air interaction method, device and equipment
JP2016224686A (en) Information processing apparatus, control method thereof, program, and storage medium
CN114138121B (en) User gesture recognition method, device and system, storage medium and computing equipment
JP6452369B2 (en) Information processing apparatus, control method therefor, program, and storage medium
KR101360322B1 (en) Apparatus and method for controlling electric boards using multiple hand shape detection and tracking
CN102520794B (en) Gesture recognition system and method
CN111754571A (en) Gesture recognition method and device and storage medium thereof
JP7351130B2 (en) Robust gesture recognition device and system for projector-camera interactive displays using depth cameras and deep neural networks
CN106547339B (en) Control method and device of computer equipment
CN116301551A (en) Touch identification method, touch identification device, electronic equipment and medium
CN107367966B (en) Man-machine interaction method and device
CN114610155A (en) Gesture control method and device, display terminal and storage medium
CN114333056A (en) Gesture control method, system, equipment and storage medium
US20220050528A1 (en) Electronic device for simulating a mouse

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170227

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180201

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190207

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20200113

Year of fee payment: 7