KR101227883B1 - Control device based on user motion/voice and control method applying the same - Google Patents

Control device based on user motion/voice and control method applying the same Download PDF

Info

Publication number
KR101227883B1
KR101227883B1 KR1020110051322A KR20110051322A KR101227883B1 KR 101227883 B1 KR101227883 B1 KR 101227883B1 KR 1020110051322 A KR1020110051322 A KR 1020110051322A KR 20110051322 A KR20110051322 A KR 20110051322A KR 101227883 B1 KR101227883 B1 KR 101227883B1
Authority
KR
South Korea
Prior art keywords
user
voice
face
motion
camera
Prior art date
Application number
KR1020110051322A
Other languages
Korean (ko)
Other versions
KR20120132921A (en
Inventor
김호진
Original Assignee
김호진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김호진 filed Critical 김호진
Priority to KR1020110051322A priority Critical patent/KR101227883B1/en
Publication of KR20120132921A publication Critical patent/KR20120132921A/en
Application granted granted Critical
Publication of KR101227883B1 publication Critical patent/KR101227883B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자 동작 기반 제어장치 및 이에 적용되는 사용자 동작 기반 제어방법이 제공된다. 본 사용자 동작 기반 제어장치는, 카메라를 통해 촬영된 영상을 이용하여 사용자의 얼굴을 인식하고, 인식된 사용자에 대응되는 환경설정 정보를 추출하며, 깊이 측정 센서에 의해 감지된 데이터를 상기 환경설정 정보에 따라 처리할 수 있게 되어, 사용자는 더욱 쉽게 전자 기기를 제어할 수 있게 된다. A user motion based control apparatus and a user motion based control method applied thereto are provided. The user's motion-based control device recognizes a user's face using an image captured by a camera, extracts configuration information corresponding to the recognized user, and uses the data detected by the depth measurement sensor as the configuration information. Can be processed according to, the user can more easily control the electronic device.

Description

사용자 동작/음성 기반 제어장치 및 이에 적용되는 사용자 동작/음성 기반 제어방법 {Control device based on user motion/voice and control method applying the same}Control device based on user motion / voice and control method applied to it {Control device based on user motion / voice and control method applying the same}

사용자 동작/음성 기반 제어장치 및 이에 적용되는 사용자 동작 기반 제어방법에 관한 것으로, 더욱 상세하게는 사용자의 동작을 인식하여 다른 기기를 제어하기 위한 사용자 동작 기반 제어장치 및 이에 적용되는 사용자 동작 기반 제어방법에 관한 것이다. The present invention relates to a user motion / voice based control device and a user motion based control method applied thereto, and more particularly, to a user motion based control device for controlling another device by recognizing a user's motion and a user motion based control method applied thereto. It is about.

기술 수준이나 경제 수준의 향상으로 인해, 방송국에서 송신하는 영상 신호 및 음성 신호를 수신하여 이를 출력하는 텔레비전 수상지의 보급이 일반화되었고, 현재 보급되어지는 텔레비전 수상기는 단순한 방송 데이터의 출력 기능 외에 다양한 부가 기능을 추가로 실행할 수 있는 형태로 진화하고 있다.Due to the improvement of the technical level and the economic level, the spread of the television award receiving and outputting video and audio signals transmitted from broadcasting stations has become popular. Is evolving into a form that can be implemented further.

그리고, 일반적으로 텔레비전 수상기의 채널 선택/볼륨 조절 등은 텔레비전 수상기의 외면에 노출되어 있는 기능 버튼의 입력을 통해 제어되거나 또는 근거리/원거리에서 리모콘을 이용하여 제어된다.In general, channel selection / volume adjustment or the like of the television receiver is controlled through input of a function button exposed on the outer surface of the television receiver or by using a remote controller at a short distance / distance.

즉, 텔레비전을 제어하는 기술은 기계식으로 채널과 볼륨을 조절하여 해당 전기 신호를 발생시키는 방식으로 시작으로, 텔레비전에 PCB 회로판을 접촉하여 버튼을 누름으로써 신호를 전달하는 전자식 방식으로 발전하였고, 또한 최근에는 일반화된 제어 방식인 리모콘을 이용한 제어 방식으로까지 진화하였다.In other words, the technology for controlling television has begun by mechanically adjusting channels and volumes to generate corresponding electric signals, and has developed into an electronic method of transmitting signals by touching a PCB circuit board to a television and pressing a button. Has evolved into a control method using a remote control, which is a generalized control method.

하지만, 현재는 다양한 형태의 사용자 인터페이스가 발전하고 있으며, 그 일환으로 사용자의 동작을 인식하는 사용자 인터페이스가 개발되고 있다. 이에 따라, 텔레비전과 같은 전자 기기를 사용자가 더욱 쉽게 제어하기 위한 방안의 모색이 요청된다. However, various types of user interfaces have been developed at present, and as a part thereof, user interfaces for recognizing a user's operation have been developed. Accordingly, there is a demand for a scheme for a user to more easily control an electronic device such as a television.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 카메라를 통해 촬영된 영상을 이용하여 사용자의 얼굴을 인식하고, 인식된 사용자에 대응되는 환경설정 정보를 추출하며, 깊이 측정 센서에 의해 감지된 데이터를 상기 환경설정 정보에 따라 처리하는 사용자 동작 기반 제어장치 및 이에 적용되는 사용자 동작 기반 제어방법을 제공함에 있다. The present invention has been made to solve the above problems, an object of the present invention is to recognize the user's face using the image taken through the camera, extract the configuration information corresponding to the recognized user, A user motion based control apparatus for processing data sensed by a depth measuring sensor according to the configuration information and a user motion based control method applied thereto.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치는, 피사체를 촬영하는 카메라; 사용자의 동작을 감지하는 깊이 측정 센서; 및 상기 카메라를 통해 촬영된 영상을 이용하여 사용자의 얼굴을 인식하고, 상기 인식된 사용자에 대응되는 환경설정 정보를 추출하며, 상기 깊이 측정 센서에 의해 감지된 데이터를 상기 환경설정 정보에 따라 처리하는 제어부;를 포함한다. According to an embodiment of the present invention for achieving the above object, a user motion-based control device, a camera for photographing a subject; A depth measuring sensor for detecting a user's motion; And recognizing a user's face using the image photographed by the camera, extracting configuration information corresponding to the recognized user, and processing data detected by the depth measurement sensor according to the configuration information. It includes a control unit.

그리고, 상기 환경설정 정보는, 사용자 별 동작에 따른 명령들을 포함하는 사용자 인터페이스 정보를 포함하고, 상기 제어부는, 상기 사용자의 얼굴을 이용해 인식된 사용자에 따라 상기 사용자 인터페이스 정보를 적용할 수도 있다. The environment setting information may include user interface information including commands according to user-specific operations, and the controller may apply the user interface information according to a user recognized using the face of the user.

또한, 사용자의 음성을 입력받는 마이크;를 더 포함하고, 상기 제어부는, 상기 카메라를 통해 촬영된 영상에 포함된 사용자의 얼굴 및 상기 입력된 사용자의 음성을 이용하여 사용자를 인식할 수도 있다. The apparatus may further include a microphone configured to receive a voice of the user, and the controller may recognize the user by using the face of the user included in the image captured by the camera and the input voice of the user.

그리고, 사용자의 음성을 입력받는 마이크;를 더 포함하고, 상기 제어부는, 상기 입력된 사용자의 음성에 대응되는 명령을 생성할 수도 있다. The apparatus may further include a microphone configured to receive a voice of a user, and the controller may generate a command corresponding to the input voice of the user.

그리고, 상기 제어부는, 사용자에 의해 특정 동작에 대응되는 명령어를 설정받을 수도 있다. The controller may receive a command corresponding to a specific operation by the user.

한편, 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어방법은, 카메라를 통해 사용자를 촬영하는 단계; 상기 카메라를 통해 촬영된 영상을 이용하여 사용자의 얼굴을 인식하는 단계; 상기 인식된 사용자에 대응되는 환경설정 정보를 적용하는 단계; 골격 추적 데이터를 이용하여 사용자의 동작을 감지하는 단계; 상기 깊이 측정 센서에 의해 감지된 데이터를 상기 환경설정 정보에 따라 처리하는 단계;를 포함한다. On the other hand, a user motion based control method according to an embodiment of the present invention, the step of photographing the user through the camera; Recognizing a face of a user using an image photographed by the camera; Applying environment setting information corresponding to the recognized user; Detecting a user's motion using the skeleton tracking data; And processing the data sensed by the depth measuring sensor according to the environment setting information.

그리고, 상기 환경설정 정보는, 사용자 별 동작에 따른 명령들을 포함하는 사용자 인터페이스 정보를 포함하고, 상기 환경설정 정보 적용단계는, 상기 사용자의 얼굴을 이용해 인식된 사용자에 따라 상기 사용자 인터페이스 정보를 적용할 수도 있다. The environment setting information may include user interface information including commands according to user-specific operations, and the applying of the environment setting information may include applying the user interface information according to a user recognized using a face of the user. It may be.

또한, 사용자의 음성을 입력받는 단계;를 더 포함하고, 상기 사용자 인식 단계는, 상기 카메라를 통해 촬영된 영상에 포함된 사용자의 얼굴 및 상기 입력된 사용자의 음성을 이용하여 사용자를 인식할 수도 있다.The method may further include receiving a voice of the user, wherein the recognizing of the user may recognize the user by using the face of the user included in the image captured by the camera and the input voice of the user. .

또한, 사용자의 음성을 입력받는 단계; 및 상기 입력된 사용자의 음성에 대응되는 명령어를 생성하는 단계;를 더 포함할 수도 있다. In addition, receiving a user's voice; And generating a command corresponding to the input voice of the user.

그리고, 사용자에 의해 특정 동작/음성에 대응되는 명령어를 설정받는 단계;를 더 포함할 수도 있다. The method may further include receiving a command corresponding to a specific operation / voice by the user.

본 발명의 다양한 실시예에 따르면, 카메라를 통해 촬영된 영상을 이용하여 사용자의 얼굴을 인식하고, 인식된 사용자에 대응되는 환경설정 정보를 추출하며, 깊이 측정 센서에 의해 감지된 데이터를 상기 환경설정 정보에 따라 처리하는 사용자 동작 기반 제어장치 및 이에 적용되는 사용자 동작 기반 제어방법을 제공할 수 있게 되어, 사용자는 더욱 쉽게 전자 기기를 제어할 수 있게 된다. According to various embodiments of the present disclosure, a face of a user may be recognized by using an image photographed by a camera, an environment setting information corresponding to the recognized user may be extracted, and the data detected by a depth measurement sensor may be set. It is possible to provide a user motion based control apparatus for processing according to the information and a user motion based control method applied thereto, so that the user can more easily control the electronic device.

도 1은 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치가 TV에 장착된 상태를 도시한 도면,
도 2는 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치의 구성을 도시한 도면,
도 3은 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어방법을 설명하기 위해 제공되는 흐름도, 그리고,
도 4는 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치가 내장된 TV를 도시한 도면이다.
1 is a diagram illustrating a state in which a user motion based control apparatus is mounted on a TV according to an embodiment of the present invention;
2 is a diagram showing the configuration of a user motion based control apparatus according to an embodiment of the present invention;
3 is a flowchart provided to explain a user motion based control method according to an embodiment of the present invention, and
4 is a diagram illustrating a TV with a built-in user motion control device according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter, with reference to the drawings will be described the present invention in more detail.

도 1은 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치(100)가 TV(200)에 장착된 상태를 도시한 도면이다. 사용자 동작 기반 제어장치(100)는 사용자의 얼굴 및 동작/음성을 감지하고, TV(200)는 감지된 사용자의 얼굴 및 동작/음성에 따라 제어된다. 1 is a diagram illustrating a state in which a user motion based control apparatus 100 is mounted on a TV 200 according to an embodiment of the present invention. The user motion-based control device 100 detects a user's face and motion / voice, and the TV 200 is controlled according to the detected user's face and motion / voice.

도 2는 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치(100)의 구성을 도시한 도면이다. 도 2에 도시된 바와 같이, 사용자 동작 기반 제어장치(100)는 카메라(110), 깊이 측정 센서(120), 마이크(130), 제어부(140) 및 출력부(150)를 포함한다. 또한, 도 2에서는 깊이 측정 센서(120), 카메라(110) 및 마이크(130)가 별개인 것으로 도시되어 있으나, 카메라(110) 및 마이크(130)가 깊이 측정 센서(120)에 내장되어 있는 형태로 구현될 수도 있다. 2 is a diagram illustrating a configuration of a user operation based control apparatus 100 according to an embodiment of the present invention. As shown in FIG. 2, the user motion based control apparatus 100 includes a camera 110, a depth measurement sensor 120, a microphone 130, a controller 140, and an output unit 150. In addition, although the depth measuring sensor 120, the camera 110, and the microphone 130 are illustrated as separate in FIG. 2, the camera 110 and the microphone 130 are embedded in the depth measuring sensor 120. It may be implemented as.

카메라(110)는 피사체를 촬영하고, 촬영된 이미지 신호를 제어부(140)로 제공한다. 카메라(110)는 렌즈를 통과한 빛을 감지하여 피사체의 상에 대한 이미지 신호를 생성한다. 디지털 카메라의 경우는, 촬상 영역에 이미지 센서들이 배열된다. 본 실시예에서 카메라(110)가 디지털 카메라인 경우에 대해 설명한다. 디지털 카메라에 쓰이는 이미지 센서는 보통 크게 CCD(charge coupled devices)와 CMOS(complementary metal oxide semi-conductor)로 나뉘며 방식은 다르지만 기본원리는 동일하다. CCD는 약한 빛에도 민감하게 반응하며 이미지품질이 높아 대부분의 디지털카메라에 사용된다. 하지만 생산 공정이 까다롭고 생산단가가 비싸다는 단점이 있다. 반면, CMOS는 CCD에 비해 생산 단가가 적게 들고 생산과정도 비교적 쉬워 저가형 디지털 카메라의 센서로 많이 사용됐었으며, 최근에는 영상처리기술의 발달로 인하여 고화질 고품질의 이미지 구현이 가능해져 전문가용 DSLR에도 쓰이면서 많이 사용되고 있다. 이와 같은 카메라(110)는 사용자를 촬영하여, 촬영된 사용자에 대한 이미지 신호를 생성하여 제어부(140)로 전송하게 된다. The camera 110 photographs a subject and provides the photographed image signal to the controller 140. The camera 110 detects light passing through the lens and generates an image signal of an image of a subject. In the case of a digital camera, image sensors are arranged in the imaging area. In the present embodiment, a case in which the camera 110 is a digital camera will be described. Image sensors used in digital cameras are generally divided into charge coupled devices (CCD) and complementary metal oxide semi-conductors (CMOS). The method is different but the basic principle is the same. CCDs are sensitive to weak light and have high image quality and are used in most digital cameras. However, there are disadvantages in that the production process is difficult and the production cost is high. On the other hand, CMOS has been used as a sensor for low-cost digital cameras because it has a lower production cost and a relatively easy production process than CCDs. Recently, the development of image processing technology enables high-quality, high-quality images to be used in professional DSLRs. While being used a lot. The camera 110 photographs the user, generates an image signal for the photographed user, and transmits the image signal to the controller 140.

깊이 측정 센서(120)는 특정 영역의 깊이를 측정하여 깊이 데이터를 생성하고, 측정된 깊이 데이터를 이용하여 특정 영역에 포함된 사용자의 골격 추적 데이터 및 깊이 측정 이미지를 생성한다. 여기에서, 깊이 측정 이미지는 특정 영역에 대한 깊이 데이터들의 크기를 특정 색상, 채도, 명암 등으로 이미지화하여 표현한 이미지 데이터를 나타낸다. The depth measurement sensor 120 generates depth data by measuring a depth of a specific area, and generates skeleton tracking data and a depth measurement image of a user included in the specific area by using the measured depth data. Here, the depth measurement image represents image data obtained by expressing the size of the depth data for a specific region in a specific color, saturation, contrast, and the like.

구체적으로, 깊이 측정 센서(120)는 사용자를 스캔하기 위해 특정 영역에 다량의 적외선을 쏜다. 그러면, 사용자의 몸에 닿은 적외선은 다시 반사되서 깊이 측정 센서(120)로 전달된다. 깊이 측정 센서(120)는 반사된 적외선을 픽셀별로 감지하여, 각 픽셀별 깊이를 측정하고, 각 픽셀별 깊이를 이용하여 특정 영역 전체에 대한 깊이 데이터를 생성하게 된다. Specifically, the depth measurement sensor 120 shoots a large amount of infrared light in a specific area to scan the user. Then, the infrared rays hitting the user's body are reflected back to the depth measurement sensor 120. The depth sensor 120 senses the reflected infrared rays for each pixel, measures the depth for each pixel, and generates depth data for the entire specific region using the depth for each pixel.

그 후에, 깊이 측정 센서(120)는 특정 영역에 대한 깊이 데이터를 이용하여 사용자의 골격 추적 데이터를 추출한다. 구체적으로, 깊이 측정 센서(120)는 사용자의 모양으로 튀어 나와 있는 영역을 사용자가 위치한 영역으로 판단하고, 기설정된 골격 및 관절 부분에 해당되는 위치를 추출한다. 그리고, 깊이 측정 센서(120)는 골격 및 관절 부분에 해당되는 위치들을 연결하여 사용자에 대한 골격 추적 데이터를 산출하게 된다. 그 후에, 깊이 측정 센서(120)는 기설정된 골격 및 관절 부분에 해당되는 위치의 움직임을 계속 추적하여 사용자의 동작에 해당되는 골격 추적 데이터를 감지하게 된다. 그 후에, 깊이 측정 센서(120)는 생성된 골격 추적 데이터를 제어부(140)로 전송하게 된다. Thereafter, the depth measurement sensor 120 extracts the skeleton tracking data of the user using the depth data for the specific region. In detail, the depth measuring sensor 120 determines the area protruding in the shape of the user as the area where the user is located, and extracts a position corresponding to a predetermined skeleton and joint part. The depth sensor 120 calculates skeletal tracking data for the user by connecting the positions corresponding to the skeletal and the joint parts. Thereafter, the depth measurement sensor 120 continues to track the movement of the position corresponding to the predetermined skeleton and joint part to detect the skeleton tracking data corresponding to the user's motion. Thereafter, the depth measurement sensor 120 transmits the generated skeleton tracking data to the controller 140.

또한, 깊이 측정 센서(120)는 특정 영역의 깊이 데이터를 측정하여 제어부(140)로 전송하고, 제어부(140)가 사용자의 골격 추적 데이터를 생성할 수도 있다. In addition, the depth measurement sensor 120 may measure depth data of a specific region and transmit the depth data to the controller 140, and the controller 140 may generate skeleton tracking data of the user.

이와 같은 과정을 통해, 깊이 측정 센서(120)는 사용자의 동작을 인식하게 된다. Through this process, the depth measurement sensor 120 recognizes the user's motion.

마이크(130)는 사용자의 음성을 감지하여, 감지된 음성 데이터를 제어부(140)로 전송한다. The microphone 130 detects a user's voice and transmits the detected voice data to the controller 140.

저장부(160)는 다양한 사용자 정보 및 사용자별 환경 설정 정보가 저장되어 있다. 사용자 정보는 사용자 동작 기반 제어장치(100)에 등록된 사용자의 개인정보, 얼굴 정보, 체형 정보 및 음성 정보가 포함되어 있다. The storage unit 160 stores various user information and environment setting information for each user. The user information includes personal information, face information, body shape information, and voice information of a user registered in the user motion based control apparatus 100.

사용자의 개인정보는 사용자 이름, 아이디 등을 포함한다. The user's personal information includes a user name, ID, and the like.

그리고, 얼굴 정보는 사용자의 얼굴 사진 및 얼굴의 특징점 등의 얼굴 인식에 사용되는 정보이다. 얼굴 정보는 촬영된 영상에 포함된 얼굴을 이용하여 사용자를 인식하는데 사용된다. The face information is information used for face recognition such as a face photograph of a user and feature points of a face. Face information is used to recognize a user by using a face included in a captured image.

또한, 사용자 체형 정보는 사용자별 체형에 대한 형태 정보를 나타낸다. 사용자별로 키, 몸무게 등이 다르기 때문에 사용자의 체형 정보를 이용하여 사용자를 인식을 위한 보조 정보로 이용될 수도 있다. 또한, 사용자 체형 정보는 사용자 동작의 인식율을 높이기 위해 사용될 수도 있다. In addition, the user body type information indicates shape information about a body type for each user. Since height and weight are different for each user, the user may be used as auxiliary information for recognizing the user by using the user's body type information. In addition, the user body type information may be used to increase the recognition rate of the user's motion.

그리고, 사용자의 음성 정보는 각 사용자별 음성 정보로 저장된다. 구체적으로, 사용자별 음성 정보는 주파수 대역 및 음색 등에 대해 각각 저장될 수 있다. 그리고, 사용자별 음성 정보는 마이크(130)를 통해 입력된 음성이 누구의 음성인지를 구분해 내는데 사용된다. 또한, 사용자의 음성 정보에는 특정 사용자 음성에 대응되는 명령어들이 포함될 수도 있다. The voice information of the user is stored as voice information for each user. Specifically, user-specific voice information may be stored for frequency bands and tones, respectively. The user-specific voice information is used to distinguish whose voice the voice input through the microphone 130 is. In addition, the voice information of the user may include commands corresponding to a specific user voice.

또한, 사용자별 환경 설정 정보는 각 사용자별로 등록된 사용별 환경 설정 정보이다. 사용자별 환경 설정 정보는 각 사용자별 동작 기반의 사용자 인터페이스 정보를 포함한다. 여기에서, 사용자 인터페이스 정보는 사용자의 동작에 따른 특정 기기의 제어 명령들에 대한 정보를 나타낸다. 같은 동작, 음성의 입력에 대해서도 사용자별로 다른 명령으로 설정될 수 있다. 예를 들어, '만세 동작'이 사용자 A의 경우 사용자별 환경 설정 정보에 볼륨 업 명령으로 설정될 수 있고, 사용자 B의 경우 채널 업 명령으로 설정될 수도 있다. 또한, 사용자 인터페이스 정보는 사용자의 음성에 따른 특정 기기의 제어 명령들 및 사용자의 동작과 음성에 따른 특정 기기의 제어명령들에 대한 정보를 포함할 수도 있다. In addition, the environment setting information for each user is environment setting information for each user registered for each user. The user setting information for each user includes user interface information based on actions for each user. Here, the user interface information represents information on control commands of a specific device according to the user's operation. The same operation and voice input may also be set to different commands for each user. For example, the 'hurray operation' may be set as a volume up command in the user-specific environment setting information for the user A, or may be set as a channel up command for the user B. In addition, the user interface information may include control commands of a specific device according to the voice of the user and information about control commands of the specific device according to the user's operation and voice.

제어부(140)는 카메라(110)를 통해 촬영된 영상을 이용하여 사용자의 얼굴을 인식하고, 인식된 사용자에 대응되는 환경설정 정보를 추출하며, 깊이 측정 센서(120)에 의해 감지된 데이터를 사용자에 대응되는 환경설정 정보에 따라 처리한다. The controller 140 recognizes a user's face using the image photographed by the camera 110, extracts configuration information corresponding to the recognized user, and uses the data sensed by the depth measurement sensor 120. Process according to the environment setting information corresponding to.

구체적으로, 제어부(140)는 카메라(110)를 통해 촬영된 영상 또는 깊이 측정 센서(120)를 통해 추출된 깊이 측정 이미지에서 얼굴을 구분해 낸다. 그리고, 제어부(140)는 촬영된 영상에 포함된 얼굴을 저장부(160)에 저장된 얼굴 정보와 비교하여, 촬영된 영상에 얼굴이 포함된 사용자가 누구인지를 인식하게 된다. 구체적인 얼굴 인식 기술은 아래와 같다. In detail, the controller 140 distinguishes a face from an image photographed by the camera 110 or a depth measurement image extracted by the depth measurement sensor 120. The controller 140 compares the face included in the captured image with the face information stored in the storage 160 to recognize who the user includes the face in the captured image. Specific face recognition technology is as follows.

얼굴을 인식하는 기술은 매우 복잡하고 변수가 많은 기술로서 이의 소프트웨어적인 개발이 최근 많이 이루어지고 있다. 먼저, 카메라가 얼굴의 이미지를 촬영하면 이를 템플릿(Templates)과 비교하는 것으로 얼굴인식기술은 시작된다. Face recognition technology is a very complex and variable technology and its software development has been made a lot recently. First, when the camera captures an image of a face, the face recognition technology is started by comparing the image with templates.

얼굴인식의 근간을 이루는 기술은 두 가지로 구분되어지는데, 첫번째는 얼굴의 각 구성요소의 특징값과 상호관계- 예컨대 코 길이와 눈으로부터의 거리 등을 비교하는 것이고 두번째는 얼굴의 가장 중요한 이미지 데이터- 예컨대 코의 크기등- 를 데이터베이스에 저장되어 있는 얼굴의 데이터와 비교, 매칭시키는 방법이다.The technology underlying the face recognition is divided into two types. The first is to compare the feature values of each component of the face and its interrelationships, such as the nose length and the distance from the eye, and the second most important image data of the face. This is a way to compare and match the size of a nose-for example, with the data of a face stored in a database.

얼굴 인식 기술은 다음과 같이 다양한 방식이 있다. 우선, 얼굴의 기학적인 특징을 이용한 인식기술 (Geometrical feature analysis)을 들 수 있다. 얼굴의 기학적인 특징을 이용한 인식기술은 눈, 코, 입과 같은 얼굴의 특징점들의 위치나 크기 또는 이들간의 거리와 같은 기하학적 인자들만으로도 각 개개인의 얼굴을 인식할 수 있다는 사실에 착안한 것으로서, 이들 기하학적 특징들은 입력화상의 해상도를 낮추었을 때 최종적으로 남는 요소들에 해당된다. 이는 얼굴인식에서 가장 보편적으로 이용하는 방법론이다. Face recognition technology has various methods as follows. First of all, there is a geometrical feature analysis using geometrical features of the face. Recognition technology using the facial features of the face is focused on the fact that each individual's face can be recognized only by geometric factors such as the position and size of the feature points of the face such as eyes, nose and mouth, or the distance between them. Geometric features correspond to the last remaining elements when the resolution of the input image is lowered. This is the most commonly used methodology for face recognition.

또한, Eigenface를 이용한 방법(Eigenface approach)이 있다. Eigenface란 '고유얼굴'이라는 의미를 가지는데 이는 MIT대학의 Sirovich와 Kirby에 의해 제안된 방법이다. 이는, 사람얼굴을 저차원격으로 표현(Low - dimentional representation)할 수 있도록 하여 얼굴이미지의 기본요소를 분석(Principal components analysis)할 수 있도록 한 기술인데, 이 기본요소란 얼굴이미지의 변화를 나타내는 일련의 특징들을 의미하는 것으로, 수학적으로 표현하면 하나의 얼굴 이미지군을 나타내는 공변(共變) 행렬(Covariance matrix)의 Eigenvector를 의미한다. 먼저 위 기본요소들에 입력된 얼굴이미지를 투영시킨 후 이들을 저장된 얼굴이미지의 투영체와 비교하거나 상관시켜 특징들을 추출한다. 이 추출된 특징들을 'Eigenface'또는 'Holon'이라고 하는데 이것을 가중치를 적용한 다중 템플릿 매칭방법으로 분류할 수 있다. There is also an Eigenface approach. Eigenface means 'unique face', a method proposed by Sirovich and Kirby of MIT. It is a technique that enables the low-dimentional representation of a human face to analyze the principal components of the face image. In terms of features, mathematically, it means an Eigenvector of a covariance matrix representing a group of face images. First, the face images inputted to the above basic elements are projected, and the features are extracted by comparing or correlating them with the projections of the stored face images. The extracted features are called 'Eigenface' or 'Holon', which can be classified as weighted multi-template matching.

이외에도, 템플릿 매칭을 이용한 방법(Template matching approach) 및 인공신경망을 이용한 학습형 인식방법(Neural network mapping approach) 등 다양한 얼굴 인식 기술이 있으며, 제어부(240)는 이와 같은 얼굴 인식 기술 중 어느 하나를 이용하여 사용자의 얼굴을 인식하고, 특정 영역 내에서 얼굴의 위치를 산출할 수 있게 된다. In addition, there are various face recognition techniques such as a template matching approach and a neural network mapping approach using an artificial neural network, and the controller 240 uses any one of such face recognition techniques. The user's face is recognized, and the position of the face can be calculated within a specific area.

그 후에, 제어부(140)는 저장된 사용자별 환경설정 정보들 중 인식된 사용자에 대응되는 환경설정 정보를 적용하게 된다. 제어부(140)는 깊이 측정 센서(120)에 의해 감지된 골격 추적 데이터를 이용하여 사용자의 동작의 종류를 파악하게 된다. 따라서, 제어부(140)는 깊이 측정 센서(120)에 의해 감지된 골격 추적 데이터에 따른 사용자의 동작의 종류를 이용하여, 적용된 환경설정 정보에 따라 해당되는 제어 명령을 수행하게 된다. Thereafter, the controller 140 applies the environment setting information corresponding to the recognized user among the stored user setting information for each user. The controller 140 determines the type of the user's motion by using the skeleton tracking data sensed by the depth measuring sensor 120. Therefore, the controller 140 performs a control command corresponding to the applied configuration information by using the type of the user's motion according to the bone tracking data sensed by the depth sensor 120.

또한, 제어부(140)는 마이크(130)를 통해 입력되는 음성 신호가 누구의 음성인지를 구분해낼 수 있다. 구체적으로, 제어부(140)는 마이크(130)를 통해 입력되는 음성신호의 음성 정보(예를 들어, 주파수 대역 및 음색 정보)를 추출한다. 그리고, 제어부(140)는 저장부(160)에 저장된 사용자별 음성 정보를 입력된 음성신호의 음성 정보와 비교하여, 사용자를 구분하게 된다. In addition, the controller 140 may distinguish whose voice the voice signal input through the microphone 130 is. In detail, the controller 140 extracts voice information (eg, frequency band and tone information) of the voice signal input through the microphone 130. The controller 140 compares the user-specific voice information stored in the storage unit 160 with the voice information of the input voice signal to distinguish the user.

이와 같이, 제어부(140)는 얼굴 정보 및 음성 정보를 이용하여 사용자를 인식할 수 있게 된다. 그리고, 제어부(140)는 사용자의 동작에 대한 데이터인 골격 추적 데이터를 이용하여 사용자의 동작에 대응되는 TV(200)에 대한 제어 명령을 선택하게 된다. 또한, 제어부(140)는 사용자의 음성을 이용하여 사용자의 음성에 대응되는 TV(200)에 대한 제어 명령을 생성할 수도 있다. 그리고, 제어부(140)는 사용자의 음성과 동작을 조합하여 TV(200)에 대한 제어 명령을 선택할 수도 있다. As such, the controller 140 may recognize the user by using face information and voice information. In addition, the controller 140 selects a control command for the TV 200 corresponding to the user's motion by using the skeleton tracking data which is data on the user's motion. In addition, the controller 140 may generate a control command for the TV 200 corresponding to the voice of the user using the voice of the user. The controller 140 may select a control command for the TV 200 by combining a user's voice and an operation.

또한, 제어부(140)는 감지된 골격 추적 데이터, 음성 데이터 및 얼굴 정보 중 적어도 하나를 처리하지 않고 바로 TV(200)로 전송할 수도 있다. 이 경우, TV(200)가 직접 골격 추적 데이터, 음성 데이터 및 얼굴 정보 중 적어도 하나를 처리하여 대응되는 제어 명령을 수행하게 된다. In addition, the controller 140 may directly transmit to the TV 200 without processing at least one of the detected skeleton tracking data, voice data, and face information. In this case, the TV 200 directly processes at least one of skeleton tracking data, voice data, and face information to perform a corresponding control command.

또한, 제어부(140)는 사용자에 따른 동작 패턴 및 관련 정보들을 수집하여 저장부(160)에 저장할 수도 있다. 그리고, 제어부(140)는 사용자의 골격 추적 데이터를 산출할 때, 사용자의 동작 패턴에 대해 수집된 데이터를 이용하여 골격 추적 데이터 산출의 정확도를 높일 수도 있다. In addition, the controller 140 may collect an operation pattern and related information according to a user and store the same in the storage 160. In addition, when calculating the skeleton tracking data of the user, the controller 140 may increase the accuracy of the skeleton tracking data calculation using the data collected for the user's operation pattern.

그리고, 제어부(140)는 사용자에 의해 동작에 따른 명령어를 직접 설정할 수도 있다. 구체적으로, 제어부(140)는 깊이 측정 센서(120)를 통해 감지된 사용자의 동작에 대응되는 제어 명령을 사용자의 선택에 따라 설정할 수도 있다. 즉, 사용자는 만세 동작이 채널 업 명령으로 설정되도록 설정할 수도 있다. In addition, the controller 140 may directly set a command according to an operation by the user. In detail, the controller 140 may set a control command corresponding to the user's motion detected by the depth measurement sensor 120 according to the user's selection. That is, the user may set the hurray to be set to the channel up command.

출력부(150)는 제어부(140)에서 출력되는 제어 명령 또는 각종 데이터를 TV(200)로 출력하게 된다. 출력부(150)는 유선 또는 무선으로 데이터를 출력하게 된다. 출력부(150)는 무선일 경우 블루투스 또는 무선랜을 통해 데이터를 TV(200)로 전송하게 된다. The output unit 150 outputs a control command or various data output from the controller 140 to the TV 200. The output unit 150 outputs data by wire or wirelessly. The output unit 150 transmits data to the TV 200 through a Bluetooth or a wireless LAN when wireless.

이와 같은 구조의 사용자 동작 기반 제어장치(100)는 사용자의 동작을 인식하고, 동작에 대응되는 명령을 수행하게 된다. 또한, 사용자 동작 기반 제어장치(100)는 같은 동작, 음성의 입력에 대해서도 사용자별로 다른 명령을 실행시킬 수도 있게 된다. 예를 들어, '만세 동작'이 사용자 A의 경우 사용자별 환경 설정 정보에 볼륨 업 명령으로 설정될 수 있고, 사용자 B의 경우 채널 업 명령으로 설정될 수도 있다. 또한, 사용자 동작 기반 제어장치(100)는 사용자의 음성에 따른 특정 기기의 제어 명령들 및 사용자의 동작과 음성에 따른 특정 기기의 제어명령들을 실행할 수도 있게 된다. The user's motion-based control device 100 having such a structure recognizes a user's motion and performs a command corresponding to the motion. In addition, the user motion based control apparatus 100 may execute different commands for each user even for the same operation and voice input. For example, the 'hurray operation' may be set as a volume up command in the user-specific environment setting information for the user A, or may be set as a channel up command for the user B. In addition, the user motion based control apparatus 100 may execute control commands of a specific device according to a user's voice and control commands of the specific device according to a user's motion and voice.

이하에서는 도 3을 참고하여, 사용자 동작 기반 제어방법에 대해 상세히 설명한다. 도 3은 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어방법을 설명하기 위해 제공되는 흐름도이다. Hereinafter, referring to FIG. 3, a user operation based control method will be described in detail. 3 is a flowchart provided to explain a user motion based control method according to an embodiment of the present invention.

일단, 사용자 동작 기반 제어장치(100)는 카메라를 통해 사용자를 촬영한다(S310). 그러면, 사용자 동작 기반 제어장치(100)는 카메라(110)를 통해 촬영된 영상에서 사용자의 얼굴을 인식한다(S320). 구체적으로, 사용자 동작 기반 제어장치(100)는 카메라(110)를 통해 촬영된 영상 또는 깊이 측정 센서(120)에서 추출된 깊이 측정 이미지에서 얼굴을 구분해 낸다. 그리고, 사용자 동작 기반 제어장치(100)는 촬영된 영상에 포함된 얼굴을 저장부(160)에 저장된 얼굴 정보와 비교하여, 촬영된 영상에 얼굴이 포함된 사용자가 누구인지를 인식하게 된다. First, the user motion based control apparatus 100 photographs the user through the camera (S310). Then, the user's motion-based control device 100 recognizes the user's face in the image captured by the camera 110 (S320). In detail, the user motion-based control apparatus 100 distinguishes a face from an image captured by the camera 110 or a depth measurement image extracted by the depth measurement sensor 120. In addition, the user's motion-based control device 100 compares the face included in the captured image with the face information stored in the storage 160 to recognize who is the user whose face is included in the captured image.

그 후에, 사용자 동작 기반 제어장치(100)는 저장된 사용자별 환경설정 정보들 중 인식된 사용자에 대응되는 환경설정 정보를 적용하게 된다(S330). Thereafter, the user operation based control apparatus 100 applies the environment setting information corresponding to the recognized user among the stored user setting information (S330).

그 다음, 사용자 동작 기반 제어장치(100)는 사용자의 동작을 감지하여 깊이 측정 센서(120)를 통해 골격 추적 데이터를 입력받는다(S340). 그리고, 사용자 동작 기반 제어장치(100)는 골격 추적 데이터를 이용하여 사용자의 동작의 종류를 파악하게 된다(S350). Next, the user motion-based control device 100 detects the user's motion and receives the skeleton tracking data through the depth measurement sensor 120 (S340). In operation S350, the user motion based control apparatus 100 may determine the type of the user's motion using the skeleton tracking data.

그 후에, 사용자 동작 기반 제어장치(100)는 골격 추적 데이터에 따른 사용자의 동작의 종류에 대응되는 적용된 환경설정 정보에 따른 제어 명령을 수행하게 된다(S360). 따라서, 사용자 동작 기반 제어장치(100)는 같은 동작, 음성의 입력에 대해서도 사용자별로 다른 명령을 실행시킬 수도 있게 된다. 예를 들어, '만세 동작'이 사용자 A의 경우 사용자별 환경 설정 정보에 볼륨 업 명령으로 설정될 수 있고, 사용자 B의 경우 채널 업 명령으로 설정될 수도 있다. Thereafter, the user motion-based control device 100 performs a control command according to the applied configuration information corresponding to the type of the user's motion according to the skeleton tracking data (S360). Accordingly, the user operation based control apparatus 100 may execute different commands for each user even for the same operation and voice input. For example, the 'hurray operation' may be set as a volume up command in the user-specific environment setting information for the user A, or may be set as a channel up command for the user B.

또한, 사용자 동작 기반 제어장치(100)는 사용자의 음성에 따른 특정 기기의 제어 명령들 및 사용자의 동작과 음성에 따른 특정 기기의 제어명령들을 실행할 수도 있게 된다. In addition, the user motion based control apparatus 100 may execute control commands of a specific device according to a user's voice and control commands of the specific device according to a user's motion and voice.

또한, 사용자 동작 기반 제어장치(100)는 마이크(130)를 통해 입력되는 음성 신호가 누구의 음성인지를 구분해낼 수 있다. 구체적으로, 사용자 동작 기반 제어장치(100)는 마이크(130)를 통해 입력되는 음성신호의 음성 정보(예를 들어, 주파수 대역 및 음색 정보)를 추출한다. 그리고, 사용자 동작 기반 제어장치(100)는 저장부(160)에 저장된 사용자별 음성 정보를 입력된 음성신호의 음성 정보와 비교하여, 사용자를 구분하게 된다. In addition, the user's motion-based control device 100 may distinguish whose voice the voice signal input through the microphone 130 is. In detail, the user motion based control apparatus 100 extracts voice information (eg, frequency band and tone information) of a voice signal input through the microphone 130. In addition, the user operation-based control apparatus 100 compares the user-specific voice information stored in the storage unit 160 with the voice information of the input voice signal to distinguish the user.

이와 같이, 사용자 동작 기반 제어장치(100)는 얼굴 정보 및 음성 정보를 이용하여 사용자를 인식할 수 있게 된다. 그리고, 사용자 동작 기반 제어장치(100)는 사용자의 동작에 대한 데이터인 골격 추적 데이터를 이용하여 사용자의 동작에 대응되는 TV(200)에 대한 제어 명령을 선택하게 된다. 또한, 사용자 동작 기반 제어장치(100)는 사용자의 음성을 이용하여 사용자의 음성에 대응되는 TV(200)에 대한 제어 명령을 선택할 수도 있다. 그리고, 사용자 동작 기반 제어장치(100)는 사용자의 음성과 동작을 조합하여 TV(200)에 대한 제어 명령을 선택할 수도 있다. As such, the user motion-based control apparatus 100 may recognize the user by using face information and voice information. In addition, the user motion-based control apparatus 100 selects a control command for the TV 200 corresponding to the user's motion by using the skeleton tracking data which is data on the user's motion. In addition, the user operation based control apparatus 100 may select a control command for the TV 200 corresponding to the user's voice using the user's voice. The user motion based control apparatus 100 may select a control command for the TV 200 by combining the voice and the motion of the user.

또한, 사용자 동작 기반 제어장치(100)는 감지된 골격 추적 데이터, 음성 데이터 및 얼굴 정보 중 적어도 하나를 처리하지 않고 바로 TV(200)로 전송할 수도 있다. 이 경우, TV(200)가 직접 골격 추적 데이터, 음성 데이터 및 얼굴 정보 중 적어도 하나를 처리하여 대응되는 제어 명령을 수행하게 된다. In addition, the user's motion-based control device 100 may directly transmit to the TV 200 without processing at least one of the detected skeleton tracking data, voice data, and face information. In this case, the TV 200 directly processes at least one of skeleton tracking data, voice data, and face information to perform a corresponding control command.

또한, 사용자 동작 기반 제어장치(100)는 사용자에 따른 동작 패턴 및 관련 정보들을 수집하여 저장부(160)에 저장할 수도 있다. 그리고, 사용자 동작 기반 제어장치(100)는 사용자의 골격 추적 데이터를 산출할 때, 사용자의 동작 패턴에 대해 수집된 데이터를 이용하여 골격 추적 데이터 산출의 정확도를 높일 수도 있다. In addition, the user motion based control apparatus 100 may collect an operation pattern and related information according to a user and store it in the storage 160. In addition, when calculating the user's skeleton tracking data, the user's motion-based control apparatus 100 may increase the accuracy of calculating the skeleton tracking data by using the data collected for the user's motion pattern.

그리고, 사용자 동작 기반 제어장치(100)는 사용자에 의해 동작에 따른 명령어를 직접 설정할 수도 있다. 구체적으로, 사용자 동작 기반 제어장치(100)는 깊이 측정 센서(120)를 통해 감지된 사용자의 동작에 대응되는 제어 명령을 사용자의 선텍에 따라 설정할 수도 있다. 즉, 사용자는 만세 동작이 채널 업 명령으로 설정되도록 설정할 수도 있다. In addition, the user operation based control apparatus 100 may directly set a command according to the operation by the user. In detail, the user motion based control apparatus 100 may set a control command corresponding to the user's motion detected by the depth measurement sensor 120 according to the user's selection. That is, the user may set the hurray to be set to the channel up command.

이와 같은 과정을 통해, 사용자 동작 기반 제어장치(100)는 사용자의 동작에 따라 TV(200)를 제어할 수 있게 된다. Through such a process, the user operation based control apparatus 100 may control the TV 200 according to the user's operation.

한편, 본 실시예에서는 사용자 동작 기반 제어장치(100)가 TV(200)와 별개의 장치인 것으로 설명하였으나, 이는 일 실시예에 불과하다, 따라서, 도 4에 도시된 바와 같이 사용자 동작 기반 제어장치(100)는 TV(200)의 내부에 내장된 상태로 구현될 수도 있음은 물론이다.Meanwhile, in the present exemplary embodiment, the user motion based control apparatus 100 is described as a separate device from the TV 200, but this is only an example. Thus, as shown in FIG. Of course, the 100 may be embodied as being embedded in the TV 200.

한편, 본 실시예에서는, 제어의 대상이 되는 기기가 TV(200)인 것으로 설명하였으나, TV 외에 다른 기기들도 제어의 대상이 될 수 있음은 물론이다. 또한, 사용자 동작 기반 제어장치(100)는 유선으로 연결된 장치뿐만아니라, 무선으로도 특정 장치를 제어할 수 있음은 물론이다. Meanwhile, in the present embodiment, the device to be controlled is described as the TV 200, but other devices besides the TV may also be to be controlled. In addition, the user motion based control apparatus 100 may control a specific device not only by a wired device but also wirelessly.

한편, 본 실시예에 따른 사용자 동작 기반 제어방법을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다. On the other hand, the technical idea of the present invention can be applied to a computer-readable recording medium containing a computer program for performing a user operation based control method according to the present embodiment. In addition, the technical idea according to various embodiments of the present disclosure may be implemented in the form of computer readable codes recorded on a computer readable recording medium. The computer-readable recording medium is any data storage device that can be read by a computer and can store data. For example, the computer-readable recording medium may be a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical disk, a hard disk drive, or the like. In addition, the computer readable code or program stored in the computer readable recording medium may be transmitted through a network connected between the computers.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

100 : 사용자 동작 기반 제어장치 110 : 카메라
120 : 깊이측정센서 130 ; 마이크
140 : 제어부 150 : 출력부
160 : 저장부
100: user motion based control device 110: camera
120: depth measuring sensor 130; MIC
140: control unit 150: output unit
160:

Claims (10)

피사체를 촬영하는 카메라;
사용자의 동작을 감지하는 깊이 측정 센서; 및
상기 카메라를 통해 촬영된 영상을 이용하여 사용자의 얼굴을 인식하고, 사용자 별로 등록된 환경설정 정보들 중 상기 인식된 사용자에 등록된 환경설정 정보를 추출하며, 상기 깊이 측정 센서에 의해 감지된 사용자의 동작을 추출한 환경설정 정보에 따라 처리하는 제어부;를 포함하고,
상기 환경설정 정보는,
사용자의 동작이 지시하는 제어 명령이, 사용자 별로 구분되어 설정되어 있는 정보인 것을 특징으로 하는 사용자 동작 기반 제어장치.
A camera for photographing a subject;
A depth measuring sensor for detecting a user's motion; And
Recognizing a face of a user using an image photographed by the camera, extracting preference information registered to the recognized user from among preference information registered for each user, and of the user detected by the depth measurement sensor And a controller configured to process according to the configuration information extracted from the operation.
The environment setting information,
And a control command indicated by the user's operation is information set separately for each user.
삭제delete 제1항에 있어서,
사용자의 음성을 입력받는 마이크;를 더 포함하고,
상기 제어부는,
상기 카메라를 통해 촬영된 영상에 포함된 사용자의 얼굴 및 상기 입력된 사용자의 음성을 이용하여 사용자를 인식하는 것을 특징으로 하는 사용자 동작 기반 제어장치.
The method of claim 1,
The microphone further receives a user's voice;
The control unit,
And a user's face based on the user's face included in the image captured by the camera and the input user's voice.
제1항에 있어서,
사용자의 음성을 입력받는 마이크;를 더 포함하고,
상기 제어부는,
상기 입력된 사용자의 음성에 대응되는 명령을 생성하는 것을 특징으로 하는 사용자 동작 기반 제어장치.
The method of claim 1,
The microphone further receives a user's voice;
The control unit,
And generating a command corresponding to the input voice of the user.
제1항에 있어서,
상기 제어부는,
사용자에 의해 특정 동작에 대응되는 명령어를 설정받는 것을 특징으로 하는 사용자 동작 기반 제어장치.
The method of claim 1,
The control unit,
And a command corresponding to a specific operation by the user.
카메라를 통해 사용자를 촬영하는 단계;
상기 카메라를 통해 촬영된 영상을 이용하여 사용자의 얼굴을 인식하는 단계;
사용자 별로 등록된 환경설정 정보들 중, 상기 인식단계에서 인식된 사용자에 등록된 환경설정 정보를 추출하는 단계;
사용자의 동작을 감지하는 단계;
상기 사용자의 동작을 상기 추출단계에서 추출한 환경설정 정보에 따라 처리하는 단계;를 포함하고,
상기 환경설정 정보는,
사용자의 동작이 지시하는 제어 명령이, 사용자 별로 구분되어 설정되어 있는 정보인 것을 특징으로 하는 사용자 동작 기반 제어방법.
Photographing the user through a camera;
Recognizing a face of a user using an image photographed by the camera;
Extracting environment setting information registered to a user recognized in the recognizing step, from among environment setting information registered for each user;
Detecting a user's motion;
And processing the operation of the user according to the configuration information extracted in the extracting step.
The environment setting information,
And a control command indicated by the user's operation is information set separately for each user.
삭제delete 제6항에 있어서,
사용자의 음성을 입력받는 단계;를 더 포함하고,
상기 사용자 인식 단계는,
상기 카메라를 통해 촬영된 영상에 포함된 사용자의 얼굴 및 상기 입력된 사용자의 음성을 이용하여 사용자를 인식하는 것을 특징으로 하는 사용자 동작 기반 제어방법.
The method according to claim 6,
Receiving a user's voice;
The user recognition step,
And a user's face based on a user's face included in the image captured by the camera and the input user's voice.
제6항에 있어서,
사용자의 음성을 입력받는 단계; 및
상기 입력된 사용자의 음성에 대응되는 명령어를 생성하는 단계;를 더 포함하는 것을 특징으로 하는 사용자 동작 기반 제어방법.
The method according to claim 6,
Receiving a voice of a user; And
And generating a command corresponding to the input voice of the user.
제6항에 있어서,
사용자에 의해 특정 동작에 대응되는 명령어를 설정받는 단계;를 더 포함하는 것을 특징으로 하는 사용자 동작 기반 제어방법.
The method according to claim 6,
Receiving a command corresponding to a specific operation by the user; User-based control method further comprising a.
KR1020110051322A 2011-05-30 2011-05-30 Control device based on user motion/voice and control method applying the same KR101227883B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110051322A KR101227883B1 (en) 2011-05-30 2011-05-30 Control device based on user motion/voice and control method applying the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110051322A KR101227883B1 (en) 2011-05-30 2011-05-30 Control device based on user motion/voice and control method applying the same

Publications (2)

Publication Number Publication Date
KR20120132921A KR20120132921A (en) 2012-12-10
KR101227883B1 true KR101227883B1 (en) 2013-01-30

Family

ID=47516376

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110051322A KR101227883B1 (en) 2011-05-30 2011-05-30 Control device based on user motion/voice and control method applying the same

Country Status (1)

Country Link
KR (1) KR101227883B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190013071A (en) * 2017-07-31 2019-02-11 코닉오토메이션 주식회사 Item registry system

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015095164A (en) 2013-11-13 2015-05-18 オムロン株式会社 Gesture recognition device and control method for gesture recognition device
KR20150068112A (en) 2013-12-11 2015-06-19 삼성전자주식회사 Method and electronic device for tracing audio
KR102232485B1 (en) * 2020-07-13 2021-03-29 성균관대학교산학협력단 Distributed tracing-apparatus of traffic line, and method using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070025138A (en) * 2005-08-31 2007-03-08 노성렬 The space projection presentation system and the same method
KR20080075932A (en) * 2007-01-11 2008-08-20 (주)에이치씨아이랩 Apparatus and control method for digital aquarium for recognition of owner by voice and image and for conversational interface and mutually connection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070025138A (en) * 2005-08-31 2007-03-08 노성렬 The space projection presentation system and the same method
KR20080075932A (en) * 2007-01-11 2008-08-20 (주)에이치씨아이랩 Apparatus and control method for digital aquarium for recognition of owner by voice and image and for conversational interface and mutually connection

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190013071A (en) * 2017-07-31 2019-02-11 코닉오토메이션 주식회사 Item registry system
KR102003691B1 (en) * 2017-07-31 2019-07-25 코닉오토메이션 주식회사 Item registry system

Also Published As

Publication number Publication date
KR20120132921A (en) 2012-12-10

Similar Documents

Publication Publication Date Title
JP4906034B2 (en) Imaging apparatus, method, and program
KR101634248B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium
US8831282B2 (en) Imaging device including a face detector
US9747492B2 (en) Image processing apparatus, method of processing image, and computer-readable storage medium
JP4734980B2 (en) Face authentication device and control method therefor, electronic device equipped with face authentication device, face authentication device control program, and recording medium recording the program
JP5706340B2 (en) Method for controlling media by face detection and hot spot movement
JP6011165B2 (en) Gesture recognition device, control method thereof, display device, and control program
US8896626B2 (en) Image capturing apparatus, image processing apparatus, control method thereof and program
US20140037135A1 (en) Context-driven adjustment of camera parameters
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
US8786902B2 (en) Image processing apparatus, method and printer for generating three-dimensional painterly image
KR101227883B1 (en) Control device based on user motion/voice and control method applying the same
JP2007067870A (en) Digital camera system and calibration method of photographing condition
US20150379333A1 (en) Three-Dimensional Motion Analysis System
KR20190063525A (en) portable skin condition measuring device, and the diagnosis and managing system using thereof
CN102542251B (en) Object detection device and subject detection method
KR20170060411A (en) Method and photographing device for controlling the photographing device according to proximity of a user
KR101630281B1 (en) Image processing apparatus
JP2007094535A (en) Authentication system and authentication method
KR101227878B1 (en) Display device and display method based on user motion
JP2014033265A (en) Imaging device, imaging method, and program
KR101227875B1 (en) Display device based on user motion
KR20190063524A (en) portable skin condition measuring device comprising polarizing film, and the diagnosis and managing system using thereof
JP2014067315A (en) Authentication device, authentication method and program therefor
KR20170024715A (en) Object detection apparatus and object detection method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee