KR101227882B1 - control device based on user motion - Google Patents

control device based on user motion Download PDF

Info

Publication number
KR101227882B1
KR101227882B1 KR1020110051330A KR20110051330A KR101227882B1 KR 101227882 B1 KR101227882 B1 KR 101227882B1 KR 1020110051330 A KR1020110051330 A KR 1020110051330A KR 20110051330 A KR20110051330 A KR 20110051330A KR 101227882 B1 KR101227882 B1 KR 101227882B1
Authority
KR
South Korea
Prior art keywords
information
user
depth
specific
control
Prior art date
Application number
KR1020110051330A
Other languages
Korean (ko)
Other versions
KR20120132925A (en
Inventor
김호진
Original Assignee
김호진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김호진 filed Critical 김호진
Priority to KR1020110051330A priority Critical patent/KR101227882B1/en
Publication of KR20120132925A publication Critical patent/KR20120132925A/en
Application granted granted Critical
Publication of KR101227882B1 publication Critical patent/KR101227882B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Selective Calling Equipment (AREA)

Abstract

사용자 동작 기반 제어장치가 제공된다. 본 사용자 동작 기반 제어장치는, 깊이 측정 센서에 의해 감지된 깊이 데이터를 이용하여 사용자에 대한 골격 추적 데이터를 생성하고, 카메라를 통해 촬영된 영상 및 깊이 측정 센서에 의해 감지된 골격 추적 데이터 중 적어도 하나를 이용하여 제어 정보를 생성하여, 외부 기기로 생성된 제어 정보를 전송할 수 있게 되어, 외부 기기는 제어 정보를 이용하여 다양한 기능을 제공할 수 있게 된다.A user motion based control device is provided. The user motion-based control device generates skeleton tracking data for a user using depth data detected by a depth measuring sensor, and at least one of an image captured by a camera and skeletal tracking data detected by a depth measuring sensor. By using the control information to generate the control information can be transmitted to the external device, the external device can provide a variety of functions using the control information.

Description

사용자 동작 기반 제어 장치 {control device based on user motion}Control device based on user motion

사용자 동작 기반 제어장치에 관한 것으로, 더욱 상세하게는 사용자의 골격 추적 데이터를 이용하여 제어 정보를 제공하는 사용자 동작 기반 제어 장치에 관한 것이다. The present invention relates to a user motion based control device, and more particularly, to a user motion based control device for providing control information by using skeleton tracking data of a user.

기술 수준이나 경제 수준의 향상으로 인해, 방송국에서 송신하는 영상 신호 및 음성 신호를 수신하여 이를 출력하는 텔레비전 수상지의 보급이 일반화되었고, 현재 보급되어지는 텔레비전 수상기는 단순한 방송 데이터의 출력 기능 외에 다양한 부가 기능을 추가로 실행할 수 있는 형태로 진화하고 있다.Due to the improvement of the technical level and the economic level, the spread of the television award receiving and outputting video and audio signals transmitted from broadcasting stations has become popular. Is evolving into a form that can be implemented further.

그리고, 일반적으로 텔레비전 수상기의 채널 선택/볼륨 조절 등은 텔레비전 수상기의 외면에 노출되어 있는 기능 버튼의 입력을 통해 제어되거나 또는 근거리/원거리에서 리모콘을 이용하여 제어된다.In general, channel selection / volume adjustment or the like of the television receiver is controlled through input of a function button exposed on the outer surface of the television receiver or by using a remote controller at a short distance / distance.

즉, 텔레비전을 제어하는 기술은 기계식으로 채널과 볼륨을 조절하여 해당 전기 신호를 발생시키는 방식으로 시작으로, 텔레비전에 PCB 회로판을 접촉하여 버튼을 누름으로써 신호를 전달하는 전자식 방식으로 발전하였고, 또한 최근에는 일반화된 제어 방식인 리모콘을 이용한 제어 방식으로까지 진화하였다.In other words, the technology for controlling television has begun by mechanically adjusting channels and volumes to generate corresponding electric signals, and has developed into an electronic method of transmitting signals by touching a PCB circuit board to a television and pressing a button. Has evolved into a control method using a remote control, which is a generalized control method.

하지만, 현재는 다양한 형태의 사용자 인터페이스가 발전하고 있으며, 그 일환으로 사용자의 동작을 인식하는 센서가 개발되고 있다. 이에 따라, 사용자의 동작을 인식하는 센서를 더욱 다양하게 이용하기 위한 방안의 모색이 요청된다. However, at present, various types of user interfaces have been developed, and as a part thereof, sensors for recognizing a user's motion have been developed. Accordingly, a search for a method for more variously using a sensor that recognizes a user's motion is requested.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 깊이 측정 센서에 의해 감지된 깊이 데이터를 이용하여 사용자에 대한 골격 추적 데이터를 생성하고, 카메라를 통해 촬영된 영상 및 깊이 측정 센서에 의해 감지된 골격 추적 데이터 중 적어도 하나를 이용하여 제어 정보를 생성하여, 특정 기기로 생성된 제어 정보를 전송하는 사용자 동작 기반 제어장치를 제공함에 있다. The present invention has been made to solve the above problems, an object of the present invention, by using the depth data sensed by the depth measurement sensor to generate the skeleton tracking data for the user, the image and the image taken through the camera and The present invention provides a user motion-based control apparatus for generating control information using at least one of bone tracking data sensed by a depth measurement sensor and transmitting the generated control information to a specific device.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치는, 피사체를 촬영하는 카메라; 특정 영역의 깊이를 측정하여 깊이 데이터를 생성하는 깊이 측정 센서; 및 상기 깊이 측정 센서에 의해 감지된 깊이 데이터를 이용하여 사용자에 대한 골격 추적 데이터를 생성하고, 상기 카메라를 통해 촬영된 영상 및 상기 깊이 측정 센서에 의해 감지된 골격 추적 데이터 중 적어도 하나를 이용하여 제어 정보를 생성하여, 특정 기기로 생성된 제어 정보를 전송하는 제어부;를 포함한다. According to an embodiment of the present invention for achieving the above object, a user motion-based control device, a camera for photographing a subject; A depth measuring sensor measuring depth of a specific area and generating depth data; And generating skeleton tracking data for the user by using the depth data sensed by the depth measuring sensor, and controlling using at least one of an image captured by the camera and skeletal tracking data detected by the depth measuring sensor. And a controller for generating information and transmitting the generated control information to a specific device.

그리고, 상기 제어 정보는 인원수 정보이고, 상기 제어부는, 상기 골격 추적 데이터를 이용하여 상기 특정 영역에 있는 사용자의 인원수 정보를 산출하고, 상기 인원수 정보를 특정 기기로 전송할 수도 있다. The control information may be headcount information, and the controller may calculate headcount information of a user in the specific area by using the skeleton tracking data and transmit the headcount information to a specific device.

또한, 상기 특정 기기는, 건물의 실내 온도 및 습도 중 적어도 하나를 조절하는 공조 장치이고, 상기 제어부는, 상기 인원수 정보를 상기 공조 장치로 전송하며, 상기 공조장치는, 상기 인원수 정보에 따라 실내 온도 및 습도 중 적어도 하나를 조절할 수도 있다. In addition, the specific device is an air conditioner for adjusting at least one of the room temperature and humidity of the building, the control unit transmits the number of people information to the air conditioner, the air conditioner, the room temperature according to the number of people information And humidity may be adjusted.

그리고, 상기 특정 기기는, 집 또는 건물의 보안을 감시하는 보안장치이고, 상기 제어부는, 상기 인원수 정보를 상기 보안장치로 전송하며, 상기 보안장치는, 상기 인원수 정보가 특정 수를 초과하면 특정 문이 잠기도록 제어할 수도 있다. And, the specific device is a security device for monitoring the security of the house or building, the control unit transmits the number of people information to the security device, the security device, if the number of people information exceeds a specific number specific door You can also control this to lock.

또한, 상기 제어부는, 외부 기기로부터 수신된 영상 데이터 내에 포함된 얼굴을 추출하고, 얼굴에 대응되는 사용자를 인식하며, 인식된 사용자 정보를 상기 외부기기로 전송할 수도 있다. The controller may extract a face included in image data received from an external device, recognize a user corresponding to the face, and transmit the recognized user information to the external device.

그리고, 상기 외부 기기는 초인종 장치이고, 상기 제어부는, 초인종 장치로부터 수신된 영상 데이터 내에 포함된 얼굴을 추출하고, 얼굴에 대응되는 사용자를 인식하며, 인식된 사용자 정보를 상기 초인종 장치로 전송할 수도 있다. The external device may be a doorbell device, and the controller may extract a face included in image data received from the doorbell device, recognize a user corresponding to the face, and transmit the recognized user information to the doorbell device. .

또한, 상기 초인종 장치는, 상기 수신된 사용자 정보에 대응되는 음성 메시지를 출력할 수도 있다. In addition, the doorbell device may output a voice message corresponding to the received user information.

외부기기와 데이터를 유선 또는 무선으로 송수신하는 통신부;를 더 포함하고, 상기 제어부는, 상기 통신부를 통해 생성된 제어 정보를 상기 특정 기기로 전송할 수도 있다. The communication unit may further include a communication unit for transmitting and receiving data to or from the external device via wire or wirelessly. The control unit may transmit the control information generated through the communication unit to the specific device.

본 발명의 다양한 실시예에 따르면, 깊이 측정 센서에 의해 감지된 깊이 데이터를 이용하여 사용자에 대한 골격 추적 데이터를 생성하고, 카메라를 통해 촬영된 영상 및 깊이 측정 센서에 의해 감지된 골격 추적 데이터 중 적어도 하나를 이용하여 제어 정보를 생성하여, 외부 기기로 생성된 제어 정보를 전송하는 사용자 동작 기반 제어장치를 제공할 수 있게 되어, 외부 기기는 제어 정보를 이용하여 다양한 기능을 제공할 수 있게 된다. According to various embodiments of the present disclosure, skeletal tracking data is generated for a user using depth data sensed by a depth measuring sensor, and at least one of an image captured by a camera and skeletal tracking data detected by a depth measuring sensor. By generating control information using one, it is possible to provide a user motion-based control device for transmitting the generated control information to the external device, the external device can provide a variety of functions using the control information.

도 1은 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치가 공조 장치, 보안장치 및 초인종 장치에 제어정보를 제공하는 것를 도시한 도면,
도 2는 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치의 구성을 도시한 도면,
도 3은 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치가 인원수 정보를 공조 장치로 전송하는 경우를 도시한 도면,
도 4는 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치가 인원수 정보를 보안 장치로 전송하는 경우를 도시한 도면,
도 5는 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치가 사용자 정보를 초인종 장치로 전송하는 경우를 도시한 도면, 그리고,
도 6은 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치가 내장된 TV를 도시한 도면이다.
1 is a diagram illustrating a user operation based control device providing control information to an air conditioning device, a security device, and a doorbell device according to an embodiment of the present invention;
2 is a diagram showing the configuration of a user motion based control apparatus according to an embodiment of the present invention;
3 is a diagram illustrating a case where a user motion based control apparatus transmits headcount information to an air conditioning apparatus according to an embodiment of the present invention;
4 is a diagram illustrating a case in which a user motion based control apparatus transmits headcount information to a security apparatus according to an embodiment of the present invention;
5 is a diagram illustrating a case in which a user motion based control apparatus transmits user information to a doorbell device according to an embodiment of the present invention.
6 is a diagram illustrating a TV with a built-in user motion control device according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다. Hereinafter, with reference to the drawings will be described the present invention in more detail.

도 1은 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치(100)가 공조 장치(300), 보안장치(400) 및 초인종 장치(500)에 제어정보를 제공하는 것를 도시한 도면이다. 사용자 동작 기반 제어장치(100)는 사용자의 얼굴 및 동작/음성을 감지하고, TV(200)는 감지된 사용자의 얼굴 및 동작/음성에 따라 제어된다.FIG. 1 is a diagram illustrating a user operation based control apparatus 100 providing control information to an air conditioning apparatus 300, a security apparatus 400, and a doorbell apparatus 500 according to an exemplary embodiment. The user motion-based control device 100 detects a user's face and motion / voice, and the TV 200 is controlled according to the detected user's face and motion / voice.

또한, 도 1에 도시된 바와 같이, 사용자 동작 기반 제어장치(100)는 유무선 통신을 통해 제어 정보를 공조 장치(300), 보안 장치(400) 및 초인종 장치(500) 등의 외부 기기에 전송한다. 여기에서 제어 정보는 외부 기기가 제어되기 위해 필요한 정보이다. In addition, as shown in FIG. 1, the user operation based control apparatus 100 transmits control information to external devices such as the air conditioning apparatus 300, the security apparatus 400, and the doorbell apparatus 500 through wired or wireless communication. . Here, the control information is information necessary for controlling the external device.

예를 들어, 공조 장치(300)는 제어 정보로써 인원수 정보를 수신하고, 공조 장치(300)는 수신된 인원수 정보를 이용하여 실내 온도 및 습도 조절 기능을 수행하게 된다. 여기에서, 인원수 정보는 특정 영역에 포함된 사용자의 인원수에 대한 정보를 나타낸다. 또한, 보안 장치(400)는 제어 정보로써 인원수 정보를 수신하고, 수신된 인원수 정보의 인원 수가 특정 수를 초과하면 현관문이 잠기도록 제어한다. 또한, 초인종 장치(500)는 제어 정보로써 사용자 정보를 수신하고, 수신된 사용자 정보에 대응되는 음성 메시지를 출력한다. 예를 들어, 초인종 장치(500)는 사용자의 이름을 포함하는 음성 메시지를 출력할 수도 있다. For example, the air conditioning apparatus 300 receives headcount information as control information, and the air conditioning apparatus 300 performs room temperature and humidity control functions using the received headcount information. Here, the number of people information indicates information on the number of people included in a specific area. In addition, the security device 400 receives the headcount information as control information, and controls the front door to be locked when the headcount of the received headcount information exceeds a certain number. In addition, the doorbell device 500 receives user information as control information and outputs a voice message corresponding to the received user information. For example, the doorbell device 500 may output a voice message including the user's name.

이와 같이, 제어 정보는 외부 기기가 이용하여 특정 기능을 수행하기 위한 정보이며, 직접적인 제어 명령이 아니며 외부 기기에 의해 이용되는 정보에 해당된다. As such, the control information is information for performing a specific function by the external device, and is not a direct control command but corresponds to information used by the external device.

이와 같이, 사용자 동작 기반 제어장치(100)는 외부 장치에 제어 정보를 제공함으로써, 외부 장치는 더욱 다양한 기능을 수행할 수 있게 된다. As such, the user operation based control apparatus 100 may provide control information to the external device, whereby the external device may perform more various functions.

이하에서는, 도 2를 참고하여, 사용자 동작 기반 제어장치(100)에 대해 설명한다. 도 2는 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치(100)의 구성을 도시한 도면이다. 도 2에 도시된 바와 같이, 사용자 동작 기반 제어장치(100)는 카메라(110), 깊이 측정 센서(120), 마이크(130), 제어부(140), 통신부(150), 및 저장부(160)를 포함한다. 또한, 도 2에서는 깊이 측정 센서(120), 카메라(110) 및 마이크(130)가 별개인 것으로 도시되어 있으나, 카메라(110) 및 마이크(130)가 깊이 측정 센서(120)에 내장되어 있는 형태로 구현될 수도 있다. Hereinafter, referring to FIG. 2, the user motion based control apparatus 100 will be described. 2 is a diagram illustrating a configuration of a user operation based control apparatus 100 according to an embodiment of the present invention. As shown in FIG. 2, the user motion-based control device 100 includes a camera 110, a depth measurement sensor 120, a microphone 130, a controller 140, a communication unit 150, and a storage unit 160. It includes. In addition, although the depth measuring sensor 120, the camera 110, and the microphone 130 are illustrated as separate in FIG. 2, the camera 110 and the microphone 130 are embedded in the depth measuring sensor 120. It may be implemented as.

카메라(110)는 피사체를 촬영하고, 촬영된 이미지 신호를 제어부(140)로 제공한다. 카메라(110)는 렌즈를 통과한 빛을 감지하여 피사체의 상에 대한 이미지 신호를 생성한다. 디지털 카메라의 경우는, 촬상 영역에 이미지 센서들이 배열된다. 본 실시예에서 카메라(110)가 디지털 카메라인 경우에 대해 설명한다. 디지털 카메라에 쓰이는 이미지 센서는 보통 크게 CCD(charge coupled devices)와 CMOS(complementary metal oxide semi-conductor)로 나뉘며 방식은 다르지만 기본원리는 동일하다. CCD는 약한 빛에도 민감하게 반응하며 이미지품질이 높아 대부분의 디지털카메라에 사용된다. 하지만 생산 공정이 까다롭고 생산단가가 비싸다는 단점이 있다. 반면, CMOS는 CCD에 비해 생산 단가가 적게 들고 생산과정도 비교적 쉬워 저가형 디지털 카메라의 센서로 많이 사용됐었으며, 최근에는 영상처리기술의 발달로 인하여 고화질 고품질의 이미지 구현이 가능해져 전문가용 DSLR에도 쓰이면서 많이 사용되고 있다. 이와 같은 카메라(110)는 사용자를 촬영하여, 촬영된 사용자에 대한 이미지 신호를 생성하여 제어부(140)로 전송하게 된다. The camera 110 photographs a subject and provides the photographed image signal to the controller 140. The camera 110 detects light passing through the lens and generates an image signal of an image of a subject. In the case of a digital camera, image sensors are arranged in the imaging area. In the present embodiment, a case in which the camera 110 is a digital camera will be described. Image sensors used in digital cameras are generally divided into charge coupled devices (CCD) and complementary metal oxide semi-conductors (CMOS). The method is different but the basic principle is the same. CCDs are sensitive to weak light and have high image quality and are used in most digital cameras. However, there are disadvantages in that the production process is difficult and the production cost is high. On the other hand, CMOS has been used as a sensor for low-cost digital cameras because it has a lower production cost and a relatively easy production process than CCDs. Recently, the development of image processing technology enables high-quality, high-quality images to be used in professional DSLRs. While being used a lot. The camera 110 photographs the user, generates an image signal for the photographed user, and transmits the image signal to the controller 140.

깊이 측정 센서(120)는 특정 영역의 깊이를 측정하여 깊이 데이터를 생성하고, 측정된 깊이 데이터를 이용하여 특정 영역에 포함된 사용자의 골격 추적 데이터를 생성한다. The depth measurement sensor 120 generates depth data by measuring a depth of a specific area, and generates skeleton tracking data of a user included in the specific area by using the measured depth data.

구체적으로, 깊이 측정 센서(120)는 사용자를 스캔하기 위해 특정 영역에 다량의 적외선을 쏜다. 그러면, 사용자의 몸에 닿은 적외선은 다시 반사되서 깊이 측정 센서(120)로 전달된다. 깊이 측정 센서(120)는 반사된 적외선을 픽셀별로 감지하여, 각 픽셀별 깊이를 측정하고, 각 픽셀별 깊이를 이용하여 특정 영역 전체에 대한 깊이 데이터를 생성하게 된다. Specifically, the depth measurement sensor 120 shoots a large amount of infrared light in a specific area to scan the user. Then, the infrared rays hitting the user's body are reflected back to the depth measurement sensor 120. The depth sensor 120 senses the reflected infrared rays for each pixel, measures the depth for each pixel, and generates depth data for the entire specific region using the depth for each pixel.

그 후에, 깊이 측정 센서(120)는 특정 영역에 대한 깊이 데이터를 이용하여 사용자의 골격 추적 데이터를 추출한다. 구체적으로, 깊이 측정 센서(120)는 사용자의 모양으로 튀어 나와 있는 영역을 사용자가 위치한 영역으로 판단하고, 기설정된 골격 및 관절 부분에 해당되는 위치를 추출한다. 그리고, 깊이 측정 센서(120)는 골격 및 관절 부분에 해당되는 위치들을 연결하여 사용자에 대한 골격 추적 데이터를 산출하게 된다. 그 후에, 깊이 측정 센서(120)는 기설정된 골격 및 관절 부분에 해당되는 위치의 움직임을 계속 추적하여 사용자의 동작에 해당되는 골격 추적 데이터를 감지하게 된다. 그 후에, 깊이 측정 센서(120)는 생성된 골격 추적 데이터를 제어부(140)로 전송하게 된다. Thereafter, the depth measurement sensor 120 extracts the skeleton tracking data of the user using the depth data for the specific region. In detail, the depth measuring sensor 120 determines the area protruding in the shape of the user as the area where the user is located, and extracts a position corresponding to a predetermined skeleton and joint part. The depth sensor 120 calculates skeletal tracking data for the user by connecting the positions corresponding to the skeletal and the joint parts. Thereafter, the depth measurement sensor 120 continues to track the movement of the position corresponding to the predetermined skeleton and joint part to detect the skeleton tracking data corresponding to the user's motion. Thereafter, the depth measurement sensor 120 transmits the generated skeleton tracking data to the controller 140.

또한, 깊이 측정 센서(120)는 특정 영역의 깊이 데이터를 측정하여 제어부(140)로 전송하고, 제어부(140)가 사용자의 골격 추적 데이터를 생성할 수도 있다. In addition, the depth measurement sensor 120 may measure depth data of a specific region and transmit the depth data to the controller 140, and the controller 140 may generate skeleton tracking data of the user.

이와 같은 과정을 통해, 깊이 측정 센서(120)는 사용자의 동작을 감지하게 된다. Through this process, the depth measurement sensor 120 detects a user's motion.

마이크(130)는 사용자의 음성을 감지하여, 감지된 음성 데이터를 제어부(140)로 전송한다. The microphone 130 detects a user's voice and transmits the detected voice data to the controller 140.

통신부(150)는 외부기기와 데이터를 유선 또는 무선으로 송수신한다. 구체적으로, 통신부(150)는 제어부(140)에서 생성된 제어 정보를 외부 기기로 전송하게 된다. 통신부(150)는 근거리 무선 통신 모듈로 무선랜 및 블루투스가 적용될 수도 있다. The communication unit 150 transmits and receives data with an external device via wired or wireless. In detail, the communication unit 150 transmits the control information generated by the control unit 140 to an external device. The communication unit 150 may be a wireless LAN and Bluetooth as a short range wireless communication module.

저장부(160)는 다양한 사용자 정보 및 사용자별 환경정보가 저장되어 있다. 사용자 정보는 사용자 동작 기반 제어장치(100)에 등록된 사용자의 개인정보, 얼굴 정보, 체형 정보 및 음성 정보가 포함되어 있다. The storage unit 160 stores various user information and user-specific environment information. The user information includes personal information, face information, body shape information, and voice information of a user registered in the user motion based control apparatus 100.

사용자의 개인정보는 사용자 이름, 아이디 등을 포함한다. The user's personal information includes a user name, ID, and the like.

그리고, 얼굴 정보는 사용자의 얼굴 사진 및 얼굴의 특징점 등의 얼굴 인식에 사용되는 정보이다. 얼굴 정보는 촬영된 영상에 포함된 얼굴을 이용하여 사용자를 인식하는데 사용된다. The face information is information used for face recognition such as a face photograph of a user and feature points of a face. Face information is used to recognize a user by using a face included in a captured image.

또한, 사용자 체형 정보는 사용자별 체형에 대한 형태 정보를 나타낸다. 사용자별로 키, 몸무게 등이 다르기 때문에 사용자의 체형 정보를 이용하여 사용자를 인식을 위한 보조 정보로 이용될 수도 있다. 또한, 사용자 체형 정보는 사용자 동작의 인식율을 높이기 위해 사용될 수도 있다. In addition, the user body type information indicates shape information about a body type for each user. Since height and weight are different for each user, the user may be used as auxiliary information for recognizing the user by using the user's body type information. In addition, the user body type information may be used to increase the recognition rate of the user's motion.

그리고, 사용자의 음성 정보는 각 사용자별 음성 정보로 저장된다. 구체적으로, 사용자별 음성 정보는 주파수 대역 및 음색 등에 대해 각각 저장될 수 있다. 그리고, 사용자별 음성 정보는 마이크(130)를 통해 입력된 음성이 누구의 음성인지를 구분해 내는데 사용된다. The voice information of the user is stored as voice information for each user. Specifically, user-specific voice information may be stored for frequency bands and tones, respectively. The user-specific voice information is used to distinguish whose voice the voice input through the microphone 130 is.

또한, 사용자별 환경 설정 정보는 각 사용자별로 등록된 사용별 환경 설정 정보이다. 사용자별 환경 설정 정보는 각 사용자별 동작 기반의 사용자 인터페이스 정보를 포함한다. 여기에서, 사용자 인터페이스 정보는 사용자의 동작에 따른 특정 기기의 제어 명령들에 대한 정보를 나타낸다. 같은 동작, 음성의 입력에 대해서도 사용자별로 다른 명령으로 설정될 수 있다. 예를 들어, '만세 동작'이 사용자 A의 경우 사용자별 환경 설정 정보에 볼륨 업 명령으로 설정될 수 있고, 사용자 B의 경우 채널 업 명령으로 설정될 수도 있다. 또한, 사용자 인터페이스 정보는 사용자의 음성에 따른 특정 기기의 제어 명령들 및 사용자의 동작과 음성에 따른 특정 기기의 제어명령들에 대한 정보를 포함할 수도 있다. In addition, the environment setting information for each user is environment setting information for each user registered for each user. The user setting information for each user includes user interface information based on actions for each user. Here, the user interface information represents information on control commands of a specific device according to the user's operation. The same operation and voice input may also be set to different commands for each user. For example, the 'hurray operation' may be set as a volume up command in the user-specific environment setting information for the user A, or may be set as a channel up command for the user B. In addition, the user interface information may include control commands of a specific device according to the voice of the user and information about control commands of the specific device according to the user's operation and voice.

또한, 저장부(160)는 외부 기기별로 필요한 제어 정보의 종류가 분류되어 저장되어 있다. 예를 들어, 저장부(160)는 공조 장치(300) 및 보안 장치(400)에 대한 제어 정보의 종류는 인원수 정보로 저장하고 있고, 초인종 장치(500)에 대한 제어 정보의 종류는 사용자 정보로 저장되어 있다. In addition, the storage unit 160 classifies and stores the types of control information required for each external device. For example, the storage unit 160 stores the type of control information for the air conditioner 300 and the security device 400 as the headcount information, and the type of the control information for the doorbell device 500 is user information. It is stored.

제어부(140)는 사용자 동작 기반 제어장치(100)의 전반적인 동작을 제어한다. 구체적으로, 제어부(140)는 깊이 측정 센서(120)에 의해 감지된 깊이 데이터를 이용하여 사용자에 대한 골격 추적 데이터를 생성한다. 그리고, 카메라(110)를 통해 촬영된 영상 및 깊이 측정 센서(120)에 의해 감지된 골격 추적 데이터 중 적어도 하나를 이용하여 제어 정보를 생성한다. The controller 140 controls the overall operation of the user motion based control apparatus 100. In detail, the controller 140 generates skeleton tracking data for the user by using the depth data sensed by the depth measurement sensor 120. The controller 110 generates control information by using at least one of the image captured by the camera 110 and the skeleton tracking data sensed by the depth measurement sensor 120.

그리고, 제어부(140)는 다양한 외부 기기들 중 특정 기기로 생성된 제어 정보를 전송한다. 구체적으로, 제어부(140)는 제어 정보에 적절한 외부 기기를 선택하여 해당 외부기기로 제어 정보를 전송한다. 예를 들어, 제어부(140)는 제어 정보가 인원수 정보일 경우, 제어 정보를 공조 장치(300) 및 보안 장치(400)로 전송한다. 그리고, 제어 정보가 사용자 정보일 경우, 제어부(140)는 제어 정보를 초인종 장치(500)로 전송한다. In addition, the controller 140 transmits control information generated to a specific device among various external devices. In detail, the controller 140 selects an external device suitable for the control information and transmits the control information to the corresponding external device. For example, when the control information is headcount information, the controller 140 transmits the control information to the air conditioning apparatus 300 and the security apparatus 400. When the control information is user information, the controller 140 transmits the control information to the doorbell device 500.

구체적으로, 제어부(140)는 골격 추적 데이터를 이용하여 특정 영역에 있는 사용자의 인원수 정보를 산출한다. 제어부(140)는 특정 영역에 대한 골격 추적 데이터들에서 인체 형태에 해당되는 것이 몇개인지를 추출하여 인원수 정보를 산출하게 된다. 그리고, 제어부(140)는 인원수 정보를 공조 장치(300) 및 보안 장치(400)로 전송하게 된다. In detail, the controller 140 calculates the headcount information of the user in the specific area by using the skeleton tracking data. The controller 140 calculates the number of people by extracting how many human body shapes correspond to the human body trace data for the specific region. The controller 140 transmits the headcount information to the air conditioning apparatus 300 and the security apparatus 400.

이하에서는, 도 3 및 도 4를 참고하여 공조 장치(300) 및 보안 장치(400)로 인원수 정보가 전송되는 경우에 대해 설명한다. 도 3은 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치(100)가 인원수 정보를 공조 장치(300)로 전송하는 경우를 도시한 도면이다. Hereinafter, a case in which the headcount information is transmitted to the air conditioning apparatus 300 and the security apparatus 400 will be described with reference to FIGS. 3 and 4. 3 is a diagram illustrating a case in which the user operation based control apparatus 100 transmits the headcount information to the air conditioning apparatus 300 according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 사용자 동작 기반 제어장치(100)의 제어부(140)는 특정 영역의 인원수 정보를 산출하여, 인원수 정보를 공조 장치(300)로 전송한다. 그러면, 공조장치(300)는 인원수 정보에 따라 실내 온도 및 습도 중 적어도 하나를 조절한다. 예를 들어, 도 3에 도시된 바와 같이, 인원수 정보가 3명인 경우, 공조장치(300)는 실내온도를 28도로 조절한다. 반면, 인원수 정보가 5명인 경우, 공조장치(300)는 실내온도를 26도로 조절한다. 이와 같이, 공조 장치(300)는 사용자 동작 기반 제어장치(100)를 이용하여 특정 영역의 인원수를 알 수 있고, 인원수가 많을 수록 실내 온도를 낮추게 된다. As shown in FIG. 3, the controller 140 of the user operation based control apparatus 100 calculates the headcount information of a specific area and transmits the headcount information to the air conditioning apparatus 300. Then, the air conditioning apparatus 300 adjusts at least one of room temperature and humidity according to the number of people information. For example, as shown in FIG. 3, when the number of persons information is three, the air conditioning apparatus 300 adjusts the room temperature to 28 degrees. On the other hand, when the number of people information is five people, the air conditioning apparatus 300 adjusts the room temperature to 26 degrees. As such, the air conditioner 300 may know the number of people in a specific area by using the user's operation-based control device 100, and the higher the number of people, the lower the indoor temperature.

도 4는 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치(100)가 인원수 정보를 보안 장치(400)로 전송하는 경우를 도시한 도면이다. 여기에서, 보안 장치(400)는 집 또는 건물의 보안을 감시하는 장치이다. 4 is a diagram illustrating a case in which the user operation based control apparatus 100 transmits the headcount information to the security apparatus 400 according to an embodiment of the present invention. Here, the security device 400 is a device for monitoring the security of the house or building.

도 4에 도시된 바와 같이, 사용자 동작 기반 제어장치(100)의 제어부(140)는 특정 영역의 인원수 정보를 산출하여, 인원수 정보를 보안 장치(400)로 전송한다. 그러면, 보안장치(400)는 상기 인원수 정보가 특정 수를 초과하면 특정 문이 잠기도록 제어한다. 예를 들어, 도 4에 도시된 바와 같이, 인원수 정보가 4명인 경우, 보안장치(400)는 특정 문을 닫는다. 반면, 인원수 정보가 3명인 경우, 보안 장치(400)는 문을 열은 채로 둔다. 이와 같이, 보안 장치(400)는 인원수가 특정 수를 초과하면 특정 문이 잠기도록 제어한다. 즉, 가족의 수가 4명인 경우, 보안장치(400)는 가족 4명이 모두 집에 오면 문을 닫게 되는 것이다. 이와 같이, 보안 장치(400)는 사용자 동작 기반 제어장치(100)를 이용하여 특정 영역의 인원수를 알 수 있고, 특정 인원수를 초과하면 특정 문을 닫게 된다. As shown in FIG. 4, the controller 140 of the user operation based control apparatus 100 calculates the headcount information of a specific area and transmits the headcount information to the security device 400. Then, the security device 400 controls to lock the specific door when the number of people information exceeds a certain number. For example, as shown in FIG. 4, when the number of persons information is four, the security device 400 closes a specific door. On the other hand, when the number of people information is three, the security device 400 is left open the door. As such, the security device 400 controls the specific door to be locked when the number of people exceeds a certain number. That is, if the number of families is four, the security device 400 is to close the door when all four families come to the house. As such, the security device 400 may know the number of people in a specific area by using the user operation-based control device 100, and close the specific door when the number of people exceeds the specific number of people.

다시 도 2에 대해 설명하면, 제어부(140)는 외부기기로부터 수신된 영상 데이터 내에 포함된 얼굴을 추출하고, 얼굴에 대응되는 사용자를 인식하며, 인식된 사용자 정보를 외부기기로 전송하게 된다. 즉, 제어 정보는 사용자 정보가 된다. Referring to FIG. 2 again, the controller 140 extracts a face included in image data received from an external device, recognizes a user corresponding to the face, and transmits the recognized user information to the external device. In other words, the control information becomes user information.

구체적으로, 도 5를 참고하여, 제어 정보가 사용자 정보인 경우를 설명한다. 도 5는 본 발명의 일 실시예에 따른, 사용자 동작 기반 제어장치(100)가 사용자 정보를 초인종 장치(500)로 전송하는 경우를 도시한 도면이다. Specifically, a case in which control information is user information will be described with reference to FIG. 5. FIG. 5 is a diagram illustrating a case in which a user motion based control apparatus 100 transmits user information to a doorbell device 500 according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 초인종 장치(500)는 카메라를 이용하여 사용자를 촬영하여, 사용자에 대한 영상 데이터를 생성한다. 그리고, 초인종 장치(500)는 생성된 영상데이터를 사용자 동작 기반 제어장치(100)로 전송한다. As shown in FIG. 5, the doorbell device 500 photographs a user using a camera to generate image data of the user. In addition, the doorbell device 500 transmits the generated image data to the user motion-based control device 100.

그러면, 사용자 동작 기반 제어장치(100)의 제어부(140)는 수신된 영상 데이터 내에 포함된 얼굴을 추출하고, 얼굴에 대응되는 사용자를 인식한다. 그러면, 제어부(140)는 사용자에 대응되는 사용자 정보를 추출하여, 추출된 사용자 정보를 초인종 장치(500)로 전송한다. 그러면, 초인종 장치(500)는 사용자 정보를 이용하여 사용자의 이름이 포함된 음성 메시지를 출력하게 된다. 예를 들어, 도 5에 도시된 바와 같이, 초인종 장치(500)는 사용자 정보를 통해 현재 사용자가 사용자 A임을 확인할 수 있다. 따라서, 초인종 장치(500)는 사용자의 이름이 포함된 메시지인 "사용자 A님 어서오세요!"라는 음성 메시지를 출력하게 된다. Then, the controller 140 of the user motion based control apparatus 100 extracts a face included in the received image data and recognizes a user corresponding to the face. Then, the controller 140 extracts user information corresponding to the user, and transmits the extracted user information to the doorbell device 500. Then, the doorbell device 500 outputs a voice message including the user's name using the user information. For example, as shown in FIG. 5, the doorbell device 500 may confirm that the current user is the user A through the user information. Therefore, the doorbell device 500 outputs a voice message, "User A Welcome!" Which is a message including the user's name.

이와 같이, 초인종 장치(500)는 사용자 동작 기반 제어장치(100)를 이용하여 특정 영역의 사용자가 누구인지를 알 수 있고, 사용자의 이름이 포함된 음성 메시지를 출력할 수 있게 된다. As described above, the doorbell device 500 may use the user operation-based control device 100 to know who the user is in a specific area, and output a voice message including the user's name.

이와 같은 구조의 사용자 동작 기반 제어장치(100)는 제어 정보를 외부기기로 전송하기 때문에, 외부 기기는 제어 정보를 이용하여 다양한 기능을 수행할 수 있게 된다.Since the user motion-based control apparatus 100 having such a structure transmits control information to an external device, the external device can perform various functions using the control information.

본 실시예에서는 사용자 동작 기반 제어장치(100)가 TV(200)와 별개의 장치인 것으로 설명하였으나, 이는 일 실시예에 불과하다, 따라서, 도 6에 도시된 바와 같이 사용자 동작 기반 제어장치(100)는 TV(200)의 내부에 내장된 상태로 구현될 수도 있음은 물론이다. In the present embodiment, the user motion-based control device 100 is described as a separate device from the TV 200, but this is only an embodiment. Accordingly, as shown in FIG. 6, the user motion-based control device 100 is illustrated. ) May be implemented in a state built into the TV 200.

한편, 본 실시예에 따른 사용자 동작 기반 제어장치의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다. On the other hand, the technical idea of the present invention can be applied to a computer-readable recording medium containing a computer program for performing the function of the user motion-based control device according to the present embodiment. In addition, the technical idea according to various embodiments of the present disclosure may be implemented in the form of computer readable codes recorded on a computer readable recording medium. The computer-readable recording medium is any data storage device that can be read by a computer and can store data. For example, the computer-readable recording medium may be a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical disk, a hard disk drive, or the like. In addition, the computer readable code or program stored in the computer readable recording medium may be transmitted through a network connected between the computers.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

100 : 사용자 동작 기반 제어장치 110 : 카메라
120 : 깊이측정센서 130 ; 마이크
140 : 제어부 150 : 통신부
160 : 저장부
100: user motion based control device 110: camera
120: depth measuring sensor 130; MIC
140: control unit 150: communication unit
160:

Claims (8)

피사체를 촬영하는 카메라;
특정 영역의 깊이를 측정하여 깊이 데이터를 생성하는 깊이 측정 센서; 및
상기 깊이 측정 센서에 의해 감지된 깊이 데이터를 이용하여 사용자에 대한 골격 추적 데이터를 생성하고, 상기 카메라를 통해 촬영된 영상 및 상기 깊이 측정 센서에 의해 감지된 골격 추적 데이터 중 적어도 하나를 이용하여 제어 정보를 생성하여, 특정 기기로 생성된 제어 정보를 전송하는 제어부;를 포함하고,
상기 제어 정보는, 인원수 정보이고,
상기 특정 기기는, 집 또는 건물의 보안을 감시하는 보안장치를 포함하고,
상기 제어부는,
상기 골격 추적 데이터를 이용하여 상기 특정 영역에 있는 사용자의 인원수 정보를 산출하고, 상기 인원수 정보를 상기 보안장치로 전송하며,
상기 보안장치는,
상기 인원수 정보가 특정 수를 초과하면 특정 문이 잠기도록 제어하는 것을 특징으로 하는 사용자 동작 기반 제어장치.
A camera for photographing a subject;
A depth measuring sensor measuring depth of a specific area and generating depth data; And
Skeletal tracking data is generated for the user using depth data sensed by the depth measuring sensor, and control information is generated using at least one of an image captured by the camera and skeletal tracking data detected by the depth measuring sensor. A control unit for generating control information and transmitting the generated control information to a specific device;
The control information is headcount information,
The specific device includes a security device for monitoring the security of the house or building,
The control unit,
Calculating the number of persons information of the user in the specific region by using the skeleton tracking data, and transmitting the number of persons information to the security device,
The security device,
And control the door to be locked when the number of people information exceeds a specific number.
삭제delete 제2항에 있어서,
상기 특정 기기는,
건물의 실내 온도 및 습도 중 적어도 하나를 조절하는 공조 장치를 포함하고,
상기 제어부는,
상기 인원수 정보를 상기 공조 장치로 전송하며,
상기 공조장치는,
상기 인원수 정보에 따라 실내 온도 및 습도 중 적어도 하나를 조절하는 것을 특징으로 하는 사용자 동작 기반 제어장치.
The method of claim 2,
The specific device,
An air conditioning device for regulating at least one of room temperature and humidity in the building,
The control unit,
Transmitting the headcount information to the air conditioning apparatus,
The air conditioning device,
And controlling at least one of room temperature and humidity according to the number of people information.
삭제delete 제1항에 있어서,
상기 제어부는,
외부 기기로부터 수신된 영상 데이터 내에 포함된 얼굴을 추출하고, 얼굴에 대응되는 사용자를 인식하며, 인식된 사용자 정보를 상기 외부기기로 전송하는 것을 특징으로 하는 사용자 동작 기반 제어장치.
The method of claim 1,
The control unit,
And extracting a face included in image data received from an external device, recognizing a user corresponding to the face, and transmitting the recognized user information to the external device.
제5항에 있어서,
상기 외부 기기는 초인종 장치이고,
상기 제어부는,
초인종 장치로부터 수신된 영상 데이터 내에 포함된 얼굴을 추출하고, 얼굴에 대응되는 사용자를 인식하며, 인식된 사용자 정보를 상기 초인종 장치로 전송하는 것을 특징으로 하는 사용자 동작 기반 제어장치.
The method of claim 5,
The external device is a doorbell device,
The control unit,
And extracting a face included in image data received from a doorbell device, recognizing a user corresponding to the face, and transmitting the recognized user information to the doorbell device.
제6항에 있어서,
상기 초인종 장치는,
상기 수신된 사용자 정보에 대응되는 음성 메시지를 출력하는 것을 특징으로 하는 사용자 동작 기반 제어장치.
The method according to claim 6,
The doorbell device,
And outputting a voice message corresponding to the received user information.
제1항에 있어서,
외부기기와 데이터를 유선 또는 무선으로 송수신하는 통신부;를 더 포함하고,
상기 제어부는,
상기 통신부를 통해 생성된 제어 정보를 상기 특정 기기로 전송하는 것을 특징으로 하는 사용자 동작 기반 제어장치.
The method of claim 1,
It further comprises a communication unit for transmitting and receiving data with an external device by wire or wirelessly,
The control unit,
And control information generated by the communication unit to the specific device.
KR1020110051330A 2011-05-30 2011-05-30 control device based on user motion KR101227882B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110051330A KR101227882B1 (en) 2011-05-30 2011-05-30 control device based on user motion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110051330A KR101227882B1 (en) 2011-05-30 2011-05-30 control device based on user motion

Publications (2)

Publication Number Publication Date
KR20120132925A KR20120132925A (en) 2012-12-10
KR101227882B1 true KR101227882B1 (en) 2013-01-31

Family

ID=47516380

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110051330A KR101227882B1 (en) 2011-05-30 2011-05-30 control device based on user motion

Country Status (1)

Country Link
KR (1) KR101227882B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008281241A (en) * 2007-05-09 2008-11-20 Toko Electric Corp Air-conditioning control system
KR20100034843A (en) * 2008-09-25 2010-04-02 (주)엠엑스알커뮤니케이션즈 Method and apparatus for security using three-dimensional(3d) face recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008281241A (en) * 2007-05-09 2008-11-20 Toko Electric Corp Air-conditioning control system
KR20100034843A (en) * 2008-09-25 2010-04-02 (주)엠엑스알커뮤니케이션즈 Method and apparatus for security using three-dimensional(3d) face recognition

Also Published As

Publication number Publication date
KR20120132925A (en) 2012-12-10

Similar Documents

Publication Publication Date Title
KR101800617B1 (en) Display apparatus and Method for video calling thereof
CN105138126B (en) Filming control method and device, the electronic equipment of unmanned plane
US8199208B2 (en) Operation input apparatus, operation input method, and computer readable medium for determining a priority between detected images
EP1703440A2 (en) Face authentication apparatus, contrl method and program, electronic device having the same, and program recording medium
US8675136B2 (en) Image display apparatus and detection method
CN104717423B (en) Camera device, communicator and its control method
KR102655625B1 (en) Method and photographing device for controlling the photographing device according to proximity of a user
JP2008276214A (en) Digital camera
KR101630281B1 (en) Image processing apparatus
JP2007094535A (en) Authentication system and authentication method
US20170045933A1 (en) Communication apparatus, communication method, and computer readable recording medium
KR101227883B1 (en) Control device based on user motion/voice and control method applying the same
KR101227878B1 (en) Display device and display method based on user motion
US20160034252A1 (en) Smart device control
CN107750452A (en) Image processing apparatus
KR101227882B1 (en) control device based on user motion
KR101227875B1 (en) Display device based on user motion
JP5669302B2 (en) Behavior information collection system
CN107317986B (en) Terminal device, information acquisition system, and information acquisition method
CN115249364A (en) Target user determination method, electronic device and computer-readable storage medium
KR20170021237A (en) Information processing apparatus, method, system and computer program
JP7069953B2 (en) Electronic devices, partial identification methods for operation data, and programs
KR102423930B1 (en) Door-Cam comprising Dual Camera
KR102494696B1 (en) Method and device for generating an image
JP2023037377A (en) Imaging apparatus, control method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee