KR20160090650A - Apparatus and method for estimation of user location over a configurable sensor network - Google Patents

Apparatus and method for estimation of user location over a configurable sensor network Download PDF

Info

Publication number
KR20160090650A
KR20160090650A KR1020150010704A KR20150010704A KR20160090650A KR 20160090650 A KR20160090650 A KR 20160090650A KR 1020150010704 A KR1020150010704 A KR 1020150010704A KR 20150010704 A KR20150010704 A KR 20150010704A KR 20160090650 A KR20160090650 A KR 20160090650A
Authority
KR
South Korea
Prior art keywords
camera
user
face
image
depth information
Prior art date
Application number
KR1020150010704A
Other languages
Korean (ko)
Other versions
KR101653281B1 (en
Inventor
임윤섭
최종석
안기진
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020150010704A priority Critical patent/KR101653281B1/en
Publication of KR20160090650A publication Critical patent/KR20160090650A/en
Application granted granted Critical
Publication of KR101653281B1 publication Critical patent/KR101653281B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • G06K9/00201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

An apparatus for estimating user location according to an embodiment of the present invention may include the steps of: acquiring a first image including depth information by photographing a photographing target area by a first camera; acquiring a second image by magnifying and photographing a specific area in the photographing target area by a second camera; detecting a body of a user from the first image, and calculating a three-dimensional location of the body; detecting a face of the user from the second image by controlling a pose of the second camera on the basis of the three-dimensional location of the body, and calculating a three-dimensional location of the face; and estimating the three-dimensional location of the user on the basis of the three-dimensional location of the body and the three-dimensional location of the face. The apparatus of the present invention can calibrate a sensor network automatically.

Description

설정 가능한 센서네트워크에서의 사용자 위치 추정 장치 및 방법{APPARATUS AND METHOD FOR ESTIMATION OF USER LOCATION OVER A CONFIGURABLE SENSOR NETWORK}[0001] APPARATUS AND METHOD FOR ESTIMATION OF USER LOCATION OVER A CONFIGURABLE SENSOR NETWORK [0002]

본 명세서는 사용자 인식 분야에 관한 것으로, 보다 상세하게는, 이종의 카메라로 구성된 센서네트워크에서 촬영된 복수의 영상을 이용하여 사용자의 위치를 추정하는 장치 및 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a user recognition field, and more particularly, to an apparatus and method for estimating a user's position using a plurality of images captured in a sensor network composed of different types of cameras.

센서 기술 및 영상 처리 기술이 발달함에 따라 카메라와 같은 센서에 의해 촬영된 영상으로부터 특정 목표물을 인식하고 위치를 추정하는 기술이 많은 분야에서 사용되고 있다. 예를 들면, 사용자정보기반 로봇서비스를 제공하기 위하여 이러한 목표물 인식 기술이 활용될 수 있다. 또한, 방범 및 위험상황 방지시스템 등 영상보안관리체계에도 이러한 목표물 인식 기술이 활용될 수 있다. As sensor technology and image processing technology are developed, techniques for recognizing a specific target and estimating a position from an image captured by a sensor such as a camera are used in many fields. For example, such a target recognition technique can be utilized to provide a user information based robot service. In addition, such a target recognition technology can be utilized in a video security management system such as a crime prevention and risk situation prevention system.

이러한 특정 목표물을 인식하는 장치는 다양한 환경 또는 다양한 거리에 있는 목표물을 효과적으로 인식할 수 있어야 한다. 그런데, 종래의 목표물 인식 장치들은 단일 센서 또는 동종의 센서들만으로 센서 네트워크를 구성하고, 이를 이용하여 목표물을 인식하는 방법을 택하는데, 이러한 경우, 목표물의 인식 영역이 좁으며, 환경이 자주 바뀌는 실제 환경에서 목표물의 인식률이 떨어지는 문제점을 갖는다. Devices that recognize these particular targets must be able to effectively recognize targets in various environments or at various distances. However, in the conventional target recognition apparatuses, a sensor network is constructed using only a single sensor or a sensor of the same type, and a method of recognizing a target using the sensor network is adopted. In this case, in a case where a target recognition area is narrow, The recognition rate of the target is lowered.

특허공개공보 제10-2009-0022099호Patent Publication No. 10-2009-0022099

이에 본 명세서는 이종의 다중센서들로 구성된 센서 네트워크를 이용하여 사용자를 인식하고 사용자의 위치를 추정하는 사용자 위치 추정 장치 및 방법을 제공하는 것을 그 목적으로 한다. Accordingly, it is an object of the present invention to provide a user location estimation apparatus and method for recognizing a user and estimating a location of a user using a sensor network composed of different kinds of sensors.

또한, 본 명세서는 센서 네트워크를 자동으로 보정하는 사용자 위치 추정 장치 및 방법을 제공하는 것을 그 목적으로 한다.It is also an object of the present invention to provide a user location estimation apparatus and method for automatically correcting a sensor network.

본 명세서의 일 측면에 따르면, 제1 카메라에 의해 촬영대상 영역을 촬영하여 깊이 정보를 포함하는 제1 영상을 획득하는 단계; 제2 카메라에 의해 상기 촬영대상 영역내의 특정 영역을 확대 촬영하여 제2 영상을 획득하는 단계; 상기 제1 영상으로부터 사용자의 몸체를 검출하고, 상기 제1 카메라의 제1 포즈 파라미터 및 상기 몸체의 깊이 정보에 기초하여 상기 몸체의 3차원 위치를 산출하는 단계; 상기 몸체의 3차원 위치에 기초하여 상기 제2 카메라의 포즈를 제어함으로써 상기 제2 영상으로부터 상기 사용자의 얼굴을 검출하고, 상기 제2 카메라의 제1 포즈 파라미터 및 상기 얼굴의 깊이 정보에 기초하여 상기 얼굴의 3차원 위치를 산출하는 단계-상기 얼굴의 깊이 정보는 상기 몸체의 깊이 정보로부터 추정됨-; 및 상기 몸체의 3차원 위치 및 상기 얼굴의 3차원 위치에 기초하여 상기 사용자의 3차원 위치를 추정하는 단계를 포함하는, 사용자 위치 추정 방법을 제공할 수 있다. According to an aspect of the present invention, there is provided a method of capturing an image, comprising: capturing a region to be photographed by a first camera to obtain a first image including depth information; Acquiring a second image by enlarging an image of a specific area within the area to be imaged by a second camera; Detecting a user's body from the first image, calculating a three-dimensional position of the body based on the first pose parameter of the first camera and the depth information of the body; Wherein the face detection unit detects the face of the user from the second image by controlling the pose of the second camera based on the three-dimensional position of the body, and based on the first pose parameter of the second camera and the depth information of the face, Calculating a three-dimensional position of the face, the depth information of the face being estimated from depth information of the body; And estimating the three-dimensional position of the user based on the three-dimensional position of the body and the three-dimensional position of the face.

본 명세서의 일 측면에 따르면, 상기 제1 카메라는 RGB-D 카메라이고, 상기 제2 카메라는 PTZ(pan-tilt-zoom) 카메라일 수 있다.According to an aspect of the present invention, the first camera may be an RGB-D camera, and the second camera may be a pan-tilt-zoom (PTZ) camera.

본 명세서의 일 측면에 따르면, 상기 제1 포즈 파라미터는 상기 RGB-D 카메라의 틸팅(tilting) 각도를 나타내는 파라미터를 포함하고, 상기 제2 포즈 파라미터는 상기 PTZ 카메라의 패닝(panning) 각도, 틸팅(tilting) 각도 및 줌(zoom) 비율을 나타내는 파라미터를 포함할 수 있다. According to an aspect of the present invention, the first pose parameter includes a parameter indicating a tilting angle of the RGB-D camera, and the second pose parameter includes a panning angle of the PTZ camera, tilting angle and zoom ratio.

본 명세서의 일 측면에 따르면, 상기 제1 영상을 획득하는 단계 이전에, 상기 RGB-D 카메라를 이용하여 상기 RGB-D 카메라 및 상기 PTZ 카메라로 구성된 센서 네트워크의 센서 포즈 파라미터를 보정하는 단계를 더 포함하되, 상기 센서 포즈 파라미터는 상기 센서 네트워크의 높이를 나타내는 파라미터를 포함할 수 있다. According to an aspect of the present invention, the step of correcting the sensor pose parameters of the sensor network constituted of the RGB-D camera and the PTZ camera using the RGB-D camera may be performed before the step of acquiring the first image Wherein the sensor pose parameter comprises a parameter indicative of a height of the sensor network.

본 명세서의 일 측면에 따르면, 상기 얼굴의 3차원 위치를 산출하는 단계는, 상기 몸체의 깊이 정보 및 상기 PTZ 카메라의 제2 포즈 파라미터를 이용하여 상기 얼굴의 깊이 정보를 추정할 수 있다. According to an aspect of the present invention, the step of calculating the three-dimensional position of the face may estimate the depth information of the face using the depth information of the body and the second pose parameter of the PTZ camera.

본 명세서의 일 측면에 따르면, 촬영대상 영역을 촬영하여 깊이 정보를 포함하는 제1 영상을 획득하는 제1 카메라; 상기 촬영대상 영역내의 특정 영역을 확대 촬영하여 제2 영상을 획득하는 제2 카메라; 및 상기 제1 카메라 및 상기 제2 카메라를 제어하는 제어부를 포함하되, 상기 제어부는, 상기 제1 영상으로부터 사용자의 몸체를 검출하고, 상기 제1 카메라의 제1 포즈 파라미터 및 상기 몸체의 깊이 정보에 기초하여 상기 몸체의 3차원 위치를 추정하는 제1 위치 추정 모듈; 상기 몸체의 3차원 위치에 기초하여 상기 제2 카메라의 포즈를 제어함으로써 상기 제2 영상으로부터 상기 사용자의 얼굴을 검출하고, 상기 제2 카메라의 제2 포즈 파라미터 및 상기 얼굴의 깊이 정보에 기초하여 상기 얼굴의 3차원 위치를 추정하는 제2 위치 추정 모듈-상기 얼굴의 깊이 정보는 상기 몸체의 깊이 정보로부터 추정됨-; 및 상기 몸체의 3차원 위치 및 상기 얼굴의 3차원 위치에 기초하여 상기 사용자의 3차원 위치를 추정하는 사용자 위치 결정 모듈을 포함하는, 사용자 위치 추정 장치를 제공할 수 있다. According to an aspect of the present invention, there is provided an image processing apparatus comprising: a first camera for photographing a region to be photographed to acquire a first image including depth information; A second camera for acquiring a second image by zooming in on a specific area within the shooting target area; And a controller for controlling the first camera and the second camera, wherein the controller detects a user's body from the first image, and detects a first pose parameter of the first camera and depth information of the body A first position estimation module for estimating a three-dimensional position of the body based on the three-dimensional position of the body; Wherein the face of the user is detected from the second image by controlling the pose of the second camera based on the three-dimensional position of the body, and based on the second pose parameter of the second camera and the depth information of the face, A second position estimation module for estimating a three-dimensional position of a face, the depth information of the face being estimated from depth information of the body; And a user position determination module for estimating the three-dimensional position of the user based on the three-dimensional position of the body and the three-dimensional position of the face.

본 명세서의 일 측면에 따르면, 상기 제1 카메라는 RGB-D 카메라이고, 상기 제2 카메라는 PTZ 카메라일 수 있다. According to an aspect of the present invention, the first camera may be an RGB-D camera, and the second camera may be a PTZ camera.

본 명세서의 일 측면에 따르면, 상기 제1 포즈 파라미터는 상기 RGB-D 카메라의 틸팅(tilting) 각도를 나타내는 파라미터를 포함하고, 상기 제2 포즈 파라미터는 상기 PTZ 카메라의 패닝(panning) 각도, 틸팅(tilting) 각도 및 주밍(zooming) 비율을 나타내는 파라미터를 포함할 수 있다. According to an aspect of the present invention, the first pose parameter includes a parameter indicating a tilting angle of the RGB-D camera, and the second pose parameter includes a panning angle of the PTZ camera, tilting angle and a parameter indicating a zooming ratio.

본 명세서의 일 측면에 따르면, 상기 제어부는, 상기 RGB-D 카메라를 이용하여 상기 RGB-D 카메라 및 상기 PTZ 카메라로 구성된 센서 네트워크의 센서 포즈 파라미터를 보정하는 센서 포즈 파라미터 보정부를 더 포함하되, 상기 센서 포즈 파라미터는 상기 센서 네트워크의 높이를 나타내는 파라미터를 포함할 수 있다. According to an aspect of the present invention, the control unit further includes a sensor pose parameter correcting unit for correcting sensor pose parameters of the sensor network constituted of the RGB-D camera and the PTZ camera using the RGB-D camera, The sensor pose parameter may include a parameter indicative of the height of the sensor network.

본 명세서의 일 측면에 따르면, 제2 위치 산출부는, 상기 몸체의 깊이 정보 및 상기 PTZ 카메라의 제2 포즈 파라미터를 이용하여 상기 얼굴의 깊이 정보를 추정할 수 있다. According to an aspect of the present invention, the second position calculation unit may estimate depth information of the face using the depth information of the body and the second pose parameter of the PTZ camera.

본 명세서에 따르면, 사용자 위치 추정 장치 및 방법은 이종의 다중 센서로 구성된 센서네트워크를 이용하여 사용자를 인식함으로써, 단일의 센서를 이용하는 것에 비해 사용자 인식의 영역이 확대되고, 또한 각 센서의 장점들을 이용해 사용자를 인식할 수 있어 사용자 인식률을 높일 수 있다. According to the present invention, the user location estimation apparatus and method recognize a user by using a sensor network composed of different types of sensors, thereby expanding the area of user recognition as compared to using a single sensor, The user can be recognized and the user recognition rate can be increased.

또한, 사용자 위치 추정 장치 및 방법은 센서네트워크를 자동으로 보정함으로써 설치되는 환경에 관계없이 자동적으로 센서네트워크의 시스템 파라미터를 획득할 수 있어 비교적 넓은 실내 환경에서 사용자 인식 서비스를 제공할 수 있다.In addition, the user location estimation apparatus and method can automatically acquire system parameters of a sensor network regardless of the installed environment by automatically correcting the sensor network, thereby providing a user recognition service in a relatively wide indoor environment.

도 1은 본 명세서의 일 실시예에 따른, 사용자 위치 추정 장치의 개략도이다.
도 2는 본 명세서의 일 실시예에 따른 사용자 위치 추정 장치의 구성도이다.
도 3은 본 명세서의 일 실시예에 따른 PTZ 카메라의 줌 비율에 따라 PTZ 카메라의 카메라변환행렬의 초점 거리의 변화를 나타내는 그래프이다.
도 4는 본 명세서의 일 실시예에 따른, 사용자 위치 추정 장치가 사용자의 몸체의 깊이 정보와 PTZ 카메라의 포즈 파라미터에 기초하여 얼굴의 깊이 정보를 추정하는 기법을 나타낸다.
도 5는 본 명세서의 일 실시예에 따른 사용자 위치 추정 장치가 센서 네트워크의 센서 포즈 파라미터를 보정하는 방법을 나타낸다.
도 6은 본 명세서의 일 실시예에 따른 사용자 위치 추정 장치에서 센서 네트워크의 동적 파라미터를 변화시킴에 따라 사용자의 몸체 및 얼굴의 3차원 위치 추정의 오차율을 나타내는 표이다.
도 7은 본 명세서의 일 실시예에 따른 센서 네트워크 상에서 사용자의 이동에 따라 몸체의 3차원 위치 좌표, 얼굴의 3차원 위치 좌표 및 오차를 보여주는 도면이다.
도 8은 본 명세서의 일 실시예에 따른 사용자 위치 추정 방법의 순서도이다.
도 9는 본 명세서의 다른 실시예에 따른 사용자 위치 추정 방법의 순서도이다.
1 is a schematic diagram of a user location estimation apparatus according to an embodiment of the present invention.
2 is a block diagram of a user location estimation apparatus according to an embodiment of the present invention.
3 is a graph illustrating a change in focal length of a camera conversion matrix of a PTZ camera according to a zoom ratio of the PTZ camera according to an embodiment of the present invention.
4 illustrates a technique for estimating face depth information based on depth information of a user's body and pose parameters of a PTZ camera, according to an embodiment of the present invention.
FIG. 5 illustrates a method by which a user location estimation apparatus according to an embodiment of the present invention corrects a sensor pose parameter of a sensor network.
FIG. 6 is a table showing error rates of three-dimensional position estimation of the user's body and face by changing the dynamic parameters of the sensor network in the user location estimation apparatus according to an embodiment of the present invention.
FIG. 7 is a view showing three-dimensional position coordinates of a body, three-dimensional position coordinates of a face, and errors according to a user's movement on a sensor network according to an embodiment of the present invention.
8 is a flowchart of a method of estimating a user location according to an embodiment of the present invention.
9 is a flowchart of a method of estimating a user location according to another embodiment of the present invention.

이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시 예를 상세하게 설명하지만, 청구하고자 하는 범위는 실시 예들에 의해 제한되거나 한정되는 것은 아니다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings and the accompanying drawings, but the scope of the claims is not limited or limited by the embodiments.

본 명세서에서 사용되는 용어는 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.As used herein, terms used in the present specification are selected from the general terms that are currently widely used, while taking into consideration the functions, but these may vary depending on the intention or custom of the artisan or the emergence of new techniques. Also, in certain cases, there may be a term selected by the applicant at will, in which case the meaning will be described in the description part of the corresponding specification. Therefore, it is intended that the terminology used herein should be interpreted based on the meaning of the term rather than on the name of the term, and on the entire contents of the specification.

또한, 본 명세서에 기술된 실시예는 전적으로 하드웨어이거나, 부분적으로 하드웨어이고 부분적으로 소프트웨어이거나, 또는 전적으로 소프트웨어인 측면을 가질 수 있다. 본 명세서에서 "부(unit)", "모듈(module)", "장치", "로봇" 또는 "시스템" 등은 하드웨어, 하드웨어와 소프트웨어의 조합, 또는 소프트웨어 등 컴퓨터 관련 엔티티(entity)를 지칭한다. 예를 들어, 부, 모듈, 장치, 로봇 또는 시스템은 플랫폼(platform)의 일부 또는 전부를 구성하는 하드웨어 및/또는 상기 하드웨어를 구동하기 위한 애플리케이션(application) 등의 소프트웨어를 지칭하는 것일 수 있다.
In addition, the embodiments described herein may be wholly hardware, partially hardware, partially software, or entirely software. A "unit", "module", "device", "robot" or "system" or the like in this specification refers to a computer-related entity such as hardware, a combination of hardware and software, . For example, a component, a module, a device, a robot or a system may refer to software such as an application for driving the hardware and / or the hardware constituting part or all of the platform.

도 1은 본 명세서의 일 실시예에 따른, 사용자 위치 추정 장치의 개략도이다. 도 1을 참조하면, 사용자 위치 추정 장치(100)는 제1 카메라(110), 제2 카메라(120) 및 제어부(130)를 포함할 수 있다.1 is a schematic diagram of a user location estimation apparatus according to an embodiment of the present invention. Referring to FIG. 1, the user location estimation apparatus 100 may include a first camera 110, a second camera 120, and a controller 130.

본 명세서에서 사용자 위치 추정 장치(100)는 이종의 카메라로 구성된 센서 네트워크에서, 센서 네트워크 내의 이종의 카메라에 의해 각각 촬영된 제1 영상 및 제2 영상을 이용하여 사용자(10)를 검출하고, 검출된 사용자(10)의 위치를 추정하는 장치를 말한다. 예를 들면, 사용자 위치 추정 장치(100)는 이종의 카메라인 제1 카메라(110)(예컨대, RGB-D 카메라)와 제2 카메라(120)(예컨대, PTZ 카메라)로 구성된 센서 네트워크에서, 제1 카메라(110)에 의해 촬영된 제1 영상(예컨대, RGB-D 영상)으로부터 사용자(10)의 몸체를 검출하고, 제2 카메라(120)에 의해 촬영된 제2 영상(예컨대, PTZ 영상)으로부터 사용자(10)의 얼굴을 검출하고, 검출된 몸체 및 얼굴의 3차원 위치에 기초하여 사용자(10)의 3차원 위치를 추정하는 장치일 수 있다.In this specification, the user location estimation apparatus 100 detects a user 10 using a first image and a second image respectively photographed by different types of cameras in a sensor network in a sensor network composed of different kinds of cameras, And estimates the position of the user 10. For example, the user location estimation apparatus 100 may be configured such that in a sensor network composed of a first camera 110 (e.g., an RGB-D camera) and a second camera 120 (e.g., a PTZ camera) (E.g., an RGB-D image) photographed by the first camera 120 and a second image (e.g., a PTZ image) photographed by the second camera 120, Dimensional position of the user 10 based on the detected body and the three-dimensional position of the face.

도 1에 도시된 것처럼, 사용자 위치 추정 장치(100)의 제1 카메라(110)와 제2 카메라(120)는 동일한 삼각대에 마운팅되어 하나의 센서 네트워크를 구성할 수 있다. 이 경우, 제1 카메라(110)와 제2 카메라(120) 간의 상대적인 위치는 고정될 수 있다. 이러한 사용자 위치 추정 장치(100)는 이종의 카메라로 구성된 센서 네트워크를 이용하기 때문에, 이를 통해 사용자 인식 시스템을 구현하기 위하여 각 카메라 또는 센서 네트워크의 동적이며 제어 가능한 포즈 파라미터들을 정확히 제어할 필요가 있다. As shown in FIG. 1, the first camera 110 and the second camera 120 of the user location estimation apparatus 100 may be mounted on the same tripod to form one sensor network. In this case, the relative position between the first camera 110 and the second camera 120 can be fixed. Since the user location estimation apparatus 100 uses a sensor network composed of different types of cameras, it is necessary to precisely control dynamic and controllable pose parameters of each camera or sensor network in order to implement a user recognition system.

본 명세서에서, 포즈 파라미터는 제1 카메라의 제1 포즈 파라미터, 제2 카메라의 제2 포즈 파라미터 및 센서 네트워크의 센서 포즈 파라미터를 포함할 수 있다. In the present specification, the pose parameter may include a first pose parameter of the first camera, a second pose parameter of the second camera, and a sensor pose parameter of the sensor network.

여기서, 제1 포즈 파라미터는 제1 카메라의 자세를 나타내는 파라미터로서, 예컨대, 제1 카메라의 틸팅 각도(예컨대, 0~90도)를 나타내는 파라미터(

Figure pat00001
)일 수 있다. 또한, 제2 포즈 파라미터는 제2 카메라의 자세를 나타내는 파라미터로서, 예컨대, 제2 카메라의 패닝 각도, 틸팅 각도 및 줌 비율를 나타내는 파라미터들(
Figure pat00002
)일 수 있다. 제1 포즈 파라미터 및 제2 포즈 파라미터는 사용자 위치 추정 장치에 의한 각 카메라에 대한 모터제어에 대한 피드백을 통해 정확한 제1 및 제2 포즈 파라미터 값을 획득할 수 있다. Here, the first pose parameter is a parameter indicative of the attitude of the first camera, for example, a parameter indicating the tilting angle (e.g., 0 to 90 degrees) of the first camera
Figure pat00001
). The second pose parameter is a parameter indicating the pose of the second camera, for example, parameters indicating the panning angle, tilting angle and zoom ratio of the second camera
Figure pat00002
). The first pose parameter and the second pose parameter may obtain correct first and second pose parameter values through feedback to the motor control for each camera by the user position estimation device.

여기서, 센서 포즈 파라미터는 센서 네트워크의 자세를 나타내는 파라미터로서, 예컨대, 센서 네트워크의 높이를 나타내는 파라미터(

Figure pat00003
)일 수 있다. 일 실시예에서, 센서 포즈 파라미터는 미리 보정된(calibarated) 파라미터일 수 있다. 다른 실시예에서, 센서 포즈 파라미터는 보정되지 않은 파라미터일 수 있다. 이 경우, 사용자 위치 추정 장치(100)는 미리 설정된 방법에 따라 센서 포즈 파라미터를 보정할 수 있다. 이에 대하여는, 도 5를 참조하여 이하에서 상세히 설명하도록 한다. Here, the sensor pose parameter is a parameter indicating the posture of the sensor network, for example, a parameter indicating the height of the sensor network
Figure pat00003
). In one embodiment, the sensor pose parameter may be a calibrated parameter. In another embodiment, the sensor pose parameter may be an uncorrected parameter. In this case, the user location estimation apparatus 100 can correct the sensor pose parameter according to a predetermined method. This will be described in detail below with reference to Fig.

제1 카메라(110)는 촬영대상 영역을 촬영하여 3차원의 제1 영상을 획득할 수 있다. 여기서, 촬영대상 영역은 카메라로 촬영이 가능한 영역으로서, 적어도 하나의 오브젝트(object)(예컨대, 사용자(10))가 포함된 영역일 수 있다. 일 실시예에서, 제1 카메라(110)는 제1 카메라의 제1 포즈 파라미터에 따라 다양한 포즈로 동작할 수 있다. 사용자 위치 추정 장치(100)는 제1 포즈 파라미터를 조정하여 제1 카메라의 포즈를 조정함으로써, 다양한 각도에서 촬영된 제1 영상을 획득할 수 있다.The first camera 110 may capture the first region of the three-dimensional image by photographing the region to be photographed. Here, the photographing target area may be an area including at least one object (for example, the user 10), which can be photographed by the camera. In one embodiment, the first camera 110 may operate in various poses depending on the first pose parameter of the first camera. The user position estimation apparatus 100 can adjust the pose of the first camera by adjusting the first pose parameter, thereby obtaining the first image photographed at various angles.

일 실시예에서, 제1 카메라(110)는 적색(R), 녹색(G) 및 청색(B) 픽셀들로 이루어지는 RGB 영상과 제1 카메라(110)에 의해 촬영되는 오브젝트의 깊이 정보(즉, 제1 카메라(110)로부터 오브젝트까지의 거리)를 함께 출력하는 RGB-D 카메라일 수 있다. 그러나 이는 예시적인 것으로서, 제1 카메라(110)는 전하결합소자(Charge Coupled Device) 등 컬러 영상을 얻기 위한 구성과 레이저 센서 등 깊이 영상을 얻기 위한 구성을 포함하는 임의의 카메라일 수 있다.In one embodiment, the first camera 110 includes an RGB image composed of red (R), green (G), and blue (B) pixels, depth information of an object photographed by the first camera 110 And a distance from the first camera 110 to the object). However, the first camera 110 may be an arbitrary camera including a configuration for obtaining a color image such as a charge coupled device and a configuration for obtaining a depth image such as a laser sensor.

제2 카메라(120)는 촬영대상 영역 내의 특정 영역을 확대 촬영하여 2차원의 제2 영상을 획득할 수 있다. 일 실시예에서, 제2 카메라(120)는 패닝(panning), 틸팅(tilting) 및 주밍(zooming)이 가능한 PTZ 카메라일 수 있다. 그러나, 이는 예시적인 것으로, 제2 카메라(120)는 회전이 가능하고, 줌인 또는 줌아웃을 통해 촬영대상물의 확대 또는 축소가 가능한 임의의 카메라일 수 있다.The second camera 120 can acquire a second image in a two-dimensional manner by zooming-photographing a specific region within the region to be photographed. In one embodiment, the second camera 120 may be a PTZ camera capable of panning, tilting, and zooming. However, this is an example, and the second camera 120 can be any camera capable of rotating and zooming in or out of the object to be photographed through zooming in or zooming out.

일 실시예에서, 제2 카메라(120)는 제2 카메라의 제2 포즈 파라미터에 따라 다양한 포즈로 동작할 수 있다. 사용자 위치 추정 장치(100)는 제2 포즈 파라미터를 조정하여 제2 카메라의 포즈를 조정함으로써, 다양한 각도 및 다양한 줌 비율로 촬영된 제2 영상을 획득할 수 있다. In one embodiment, the second camera 120 may operate in various poses depending on the second pose parameter of the second camera. The user location estimation apparatus 100 can adjust the pose of the second camera by adjusting the second pose parameter, thereby obtaining the second image photographed at various angles and various zoom ratios.

제어부(140)는 제1 카메라(110) 및 제2 카메라(120)를 제어할 수 있다. 일 실시예에서, 제어부(140)는 제1 카메라(110) 및 제2 카메라(120)의 포즈를 제어할 수 있다. 이 경우, 제어부(140)는 각 카메라에 연결된 회전 모터, 줌 모터 등을 구동함으로써 각 카메라의 포즈를 제어할 수 있다. 또한, 제어부(140)는 제1 카메라(110)에 의해 촬영된 제1 영상 및 제2 카메라(120)에 의해 촬영된 제2 영상에 기초하여 사용자의 3차원 위치를 추정할 수 있다. 이러한, 제어부(140)에 대하여는 도 2를 참조하여 이하에서 상세히 설명하도록 한다. The control unit 140 may control the first camera 110 and the second camera 120. In one embodiment, the controller 140 may control the pose of the first camera 110 and the second camera 120. [ In this case, the control unit 140 can control the pose of each camera by driving a rotating motor, a zoom motor, and the like connected to each camera. In addition, the controller 140 can estimate the three-dimensional position of the user based on the first image captured by the first camera 110 and the second image captured by the second camera 120. [ The control unit 140 will be described in detail below with reference to FIG.

이하에서는, 제1 카메라가 RGB-D 카메라이고, 제2 카메라가 PTZ 카메라인 경우를 중심으로 실시예들에 대하여 설명하도록 한다. 다만, 이러한 실시예들은 상술한 다른 종류의 제1 카메라 및 제2 카메라에도 동일하게 적용될 수 있다.
Hereinafter, embodiments will be described focusing on the case where the first camera is an RGB-D camera and the second camera is a PTZ camera. However, these embodiments are equally applicable to the first and second cameras of the other types described above.

도 2는 본 명세서의 일 실시예에 따른 사용자 위치 추정 장치의 구성도이다. 도 2를 참조하면, 사용자 위치 추정 장치(100)는 제1 카메라(110), 제2 카메라(120) 및 제어부(130)를 포함할 수 있다. 또한, 제어부(110)는 제1 위치 산출 모듈(131), 제2 위치 산출 모듈(132) 및 사용자 위치 결정 모듈(133)을 포함할 수 있다. 또한, 제어부(130)는 옵셔널한 구성으로서, 센서 포즈 파라미터 보정부(134)를 더 포함할 수 있다. 제1 카메라(110) 및 제 2 카메라(120)에 대한 설명은 도 1에서 상세히 설명하였으므로 이하에서는 이에 대한 자세한 설명은 생략한다. 2 is a block diagram of a user location estimation apparatus according to an embodiment of the present invention. Referring to FIG. 2, the user location estimation apparatus 100 may include a first camera 110, a second camera 120, and a controller 130. The control unit 110 may include a first position calculation module 131, a second position calculation module 132, and a user position determination module 133. In addition, the control unit 130 may further include a sensor pose parameter correcting unit 134 as an optional configuration. Since the first camera 110 and the second camera 120 have been described in detail with reference to FIG. 1, a detailed description thereof will be omitted.

제1 위치 산출 모듈(131)은 RGB-D 카메라의 제1 영상으로부터 사용자의 몸체를 검출할 수 있다. 여기서, 몸체(body)는 사람으로 식별될 수 있는 사용자의 신체 전체 또는 신체의 일부(예컨대, 얼굴, 팔, 다리를 제외한 몸통)를 지칭한다. The first position calculation module 131 may detect the user's body from the first image of the RGB-D camera. Here, the body refers to the entire body of the user or a part of the body (for example, the body excluding the face, arms, and legs) that can be identified as a person.

일 실시예에서, 제1 위치 산출 모듈(131)은 제1 영상의 RGB 영상 및 깊이 정보에 기초하여, 제1 영상에서 오브젝트를 검출하고 검출된 오브젝트가 사용자의 몸체인지 여부를 판단함으로써, 제1 영상으로부터 사용자의 몸체를 검출할 수 있다. 예를 들면, 제1 위치 산출 모듈(131)은 제1 영상의 RGB 영상 및 깊이 정보에 기초하여, 제1 영상에서 움직임이 발생하는 부분 중 소정의 크기 이상인 부분을 오브젝트로 검출하고, 검출된 오브젝트의 형태와 미리 저장된 사용자의 몸체의 형태와 비교하여 검출된 오브젝트가 사용자의 몸체인지 여부를 판단할 수 있다. 다만, 이는 예시적인 것이고, 제1 위치 산출 모듈(131)은 다양한 방법들을 이용하여 제1 영상에서 오브젝트를 검출하고, 검출된 오브젝트가 사용자의 몸체인지 여부를 판단할 수 있다. In one embodiment, the first position calculation module 131 detects an object in the first image based on the RGB image and the depth information of the first image, and determines whether the detected object is the body of the user, The body of the user can be detected from the image. For example, the first position calculation module 131 detects, based on the RGB image and the depth information of the first image, a portion of the first image that is larger than a predetermined size, as an object, It is possible to determine whether the detected object is the user's body by comparing the shape of the user with the shape of the user's body stored in advance. However, this is an exemplary one, and the first position calculation module 131 may detect an object in the first image using various methods and determine whether the detected object is the body of the user.

또한, 제1 위치 산출 모듈(131)은 제1 카메라의 포즈 파라미터 및 몸체의 깊이 정보에 기초하여 몸체의 3차원 위치를 산출할 수 있다. 제1 위치 산출 모듈(131)이 몸체의 3차원 위치를 산출하는 방법에 대하여는 이하에서 수식들을 참조하여서 상세히 설명하도록 한다. In addition, the first position calculation module 131 may calculate the three-dimensional position of the body based on the pose parameter of the first camera and the depth information of the body. A method of calculating the three-dimensional position of the body by the first position calculation module 131 will be described in detail with reference to the following equations.

제2 위치 산출 모듈(132)은 몸체의 3차원 위치에 기초하여 PTZ 카메라의 포즈를 제어함으로써 제2 영상으로부터 사용자의 얼굴을 검출할 수 있다. 일 실시예에서, 제2 위치 산출 모듈(132)은 몸체의 3차원 위치에 기초하여 PTZ 카메라의 포즈 파라미터(예컨대, PTZ 카메라의 줌 비율, 패닝 각도 및 틸팅 각도를 나타내는 파라미터)를 조정함으로써, 사용자의 얼굴 영역을 확대 촬영(예컨대, 줌인 또는 포커싱)하여 제2 영상을 획득하고, 제2 영상으로부터 사용자의 얼굴을 검출할 수 있다. 예를 들면, 제2 위치 산출 모듈(132)은 제2 영상의 2차원 얼굴 영역에 대한 영상과 미리 저장된 사용자의 얼굴의 영상을 비교하여 사용자의 얼굴을 검출할 수 있다. 다만, 이는 예시적인 것이고, 제2 위치 산출 모듈(132)은 다양한 방법들을 이용하여 제2 영상에서 사용자의 얼굴을 검출할 수 있다.The second position calculation module 132 can detect the user's face from the second image by controlling the pose of the PTZ camera based on the three-dimensional position of the body. In one embodiment, the second position calculation module 132 adjusts the pose parameters of the PTZ camera (e.g., the parameters representing the zoom ratio, panning angle, and tilting angle of the PTZ camera) based on the three- (For example, zooming in or focusing) the face region of the face image of the user to obtain the second image, and detect the face of the user from the second image. For example, the second position calculation module 132 may detect a face of a user by comparing an image of a two-dimensional face region of a second image with an image of a user's face stored in advance. However, this is exemplary and the second position calculation module 132 may detect the user's face in the second image using various methods.

또한, 제2 위치 산출 모듈(132)은 제2 카메라의 포즈 파라미터 및 얼굴의 깊이 정보에 기초하여 몸체의 3차원 위치를 산출할 수 있다. 여기서, 얼굴의 깊이 정보는, 도 4를 참조하여 이하에서 상세히 설명될 것처럼, 몸체의 깊이 정보에 기초하여 추정될 수 있다. In addition, the second position calculation module 132 may calculate the three-dimensional position of the body based on the pose parameter of the second camera and the depth information of the face. Here, the depth information of the face can be estimated based on the depth information of the body, as will be described in detail below with reference to Fig.

이하에서는, 수식들을 참조하여, 제1 위치 산출 모듈(131) 및 제2 위치 산출 모듈(132)이 각각 사용자의 몸체 및 얼굴의 3차원 위치를 산출하는 방법에 대하여 설명하고자 한다. 우선, 카메라 환경에서의 픽셀의 2차원 좌표(x)와 이에 대응하는 실 환경에서의 3차원 좌표(X)와의 관계는 아래의 수학식 1로 표현될 수 있다. Hereinafter, with reference to the equations, a description will be made of a method in which the first position calculating module 131 and the second position calculating module 132 calculate the three-dimensional position of the user's body and face, respectively. First, a relationship between a two-dimensional coordinate (x) of a pixel in a camera environment and a corresponding three-dimensional coordinate (X) in a real environment can be expressed by the following equation (1).

Figure pat00004
Figure pat00004

여기서, K는 카메라변환행렬을 나타내고, R은 로테이션행렬을 나타내고, t는 전이 벡터(transitive vector)를 나타낸다. 각 카메라는 고유의 카메라변환행렬을 갖는데, RGB-D 카메라 및 PTZ 카메라는 아래의 수학식 2와 같은 고유의 카메라변환행렬을 갖는다. Here, K denotes a camera conversion matrix, R denotes a rotation matrix, and t denotes a transitive vector. Each camera has its own camera conversion matrix, and the RGB-D camera and the PTZ camera have unique camera conversion matrices as shown in Equation (2) below.

Figure pat00005
Figure pat00005

이때, f ’는 RGB-D 카메라의 초점 거리(focal length)를 의미하고, f 는 PTZ 카메라의 초점거리를 의미한다. 이러한 PTZ 카메라의 줌 비율에 따른 카메라변환행렬은 실험적인 방법을 통해 2차원 식으로 추정가능한데, 도 3은 이러한 PTZ 카메라의 줌 비율에 따라 PTZ 카메라의 카메라변환행렬의 초점 거리의 값이 변화하는 것을 나타내는 그래프이다. 수학식 1과 수학식 2를 통해, 사용자의 몸체의 중심을 나타내는 픽셀의 2차원 좌표

Figure pat00006
를 3차원 지역좌표로 변환하는 식은 아래의 수학식 3과 같고, 사용자의 얼굴의 중심을 나타내는 픽셀의 2차원 좌표
Figure pat00007
를 3차원 지역좌표로 변환하는 식은 아래의 수학식 4와 같다.In this case, f 'denotes the focal length of the RGB-D camera, and f denotes the focal length of the PTZ camera. The camera conversion matrix according to the zoom ratio of the PTZ camera can be estimated in a two-dimensional manner through an experimental method. FIG. 3 shows that the focal distance of the camera conversion matrix of the PTZ camera changes according to the zoom ratio of the PTZ camera FIG. Through equations (1) and (2), two-dimensional coordinates of the pixel representing the center of the user's body
Figure pat00006
Into the three-dimensional local coordinates is expressed by Equation (3) below, and the two-dimensional coordinates of the pixel representing the center of the user's face
Figure pat00007
To the three-dimensional local coordinates is expressed by Equation (4) below.

Figure pat00008
Figure pat00008

Figure pat00009
Figure pat00009

여기서,

Figure pat00010
는 몸체의 중심을 나타내는 픽셀의 깊이 정보를 나타내고,
Figure pat00011
는 얼굴의 중심을 나타내는 픽셀의 깊이 정보를 나타낸다. 여기에, RGB-D 카메라의 제1 포즈 파라미터를 적용하여 사용자의 몸체의 3차원 지역좌표로부터 3차원 글로벌좌표를 획득하는 식은 아래의 수학식 5와 같고, PTZ 카메라의 제2 포즈 파라미터를 적용하여 사용자의 얼굴의 3차원 지역좌표로부터 3차원 글로벌좌표를 획득하는 식은 아래의 수학식 6와 같다. here,
Figure pat00010
Represents the depth information of the pixel representing the center of the body,
Figure pat00011
Represents the depth information of the pixel representing the center of the face. Here, the equation for obtaining the three-dimensional global coordinates from the three-dimensional area coordinates of the user's body by applying the first pose parameter of the RGB-D camera is expressed by Equation (5) below and the second pose parameter of the PTZ camera is applied The equation for obtaining the three-dimensional global coordinates from the three-dimensional local coordinates of the user's face is shown in Equation (6) below.

Figure pat00012
Figure pat00012

Figure pat00013
Figure pat00013

여기서,

Figure pat00014
는 상기 제1 파라미터로서, RGB-D 카메라의 틸팅 각도를 나타내는 파라미터이고,
Figure pat00015
는 상기 제2 파리미터로서, 각각 PTZ 카메라의 줌 비율, 패닝 각도, 틸팅 각도를 나타내는 파라미터들이다. 또한,
Figure pat00016
는 상기 센서 파리미터로서, RGB-D 카메라 및 PTZ 카메라로 구성된 센서 네트워크의 높이를 나타내는 파라미터이다. here,
Figure pat00014
Is a parameter indicating the tilting angle of the RGB-D camera as the first parameter,
Figure pat00015
Are parameters indicating the zoom ratio, panning angle, and tilting angle of the PTZ camera, respectively. Also,
Figure pat00016
Is a parameter indicating the height of the sensor network constituted by the RGB-D camera and the PTZ camera.

제1 위치 산출 모듈(131) 및 제2 위치 산출 모듈(132)은 각각 상술한 수식들을 이용하여 몸체의 3차원 위치 및 얼굴의 3차원 위치를 산출할 수 있다. 다만, RGB-D 카메라에 의해 촬영된 제1 영상은 각 픽셀의 깊이 정보를 포함하므로

Figure pat00017
값은 제1 영상으로부터 직접 추정될 수 있으나, PTZ 카메라에 의해 촬영된 제2 영상은 각 픽셀의 깊이 정보를 포함하고 있지 않으므로
Figure pat00018
값을 제2 영상으로부터 직접적으로 정확히 추정하기는 어렵다. 이에, 도 4에서처럼, 제2 위치 산출 모듈(132)은 다음 식 5를 이용하여
Figure pat00019
값을 추정하고, 이를
Figure pat00020
값으로 이용할 수 있다. The first position calculation module 131 and the second position calculation module 132 can calculate the three-dimensional position of the body and the three-dimensional position of the face using the above-described equations, respectively. However, since the first image captured by the RGB-D camera includes depth information of each pixel
Figure pat00017
Value can be directly estimated from the first image, but the second image captured by the PTZ camera does not include the depth information of each pixel
Figure pat00018
It is difficult to accurately estimate the value directly from the second image. 4, the second position calculation module 132 uses the following Equation 5
Figure pat00019
Quot;
Figure pat00020
Value.

Figure pat00021
Figure pat00021

사용자 위치 결정 모듈(133)은 몸체의 3차원 위치 및 얼굴의 3차원 위치에 기초하여 상기 사용자의 3차원 위치를 추정할 수 있다. 일 실시예에서, 사용자 위치 결정 모듈(133)은 몸체의 3차원 위치 및 얼굴의 3차원 위치의 차를 이용하여 사용자의 3차원 위치를 추정할 수 있다. 이를 통해, 사용자 위치 추정 장치는 사용자의 3차원 위치를 정확하게 추정 가능하므로, 이를 높은 신뢰도의 사용자 정보로 활용할 수 있다. The user position determination module 133 can estimate the three-dimensional position of the user based on the three-dimensional position of the body and the three-dimensional position of the face. In one embodiment, the user position determination module 133 may estimate the user's three-dimensional position using the difference between the three-dimensional position of the body and the three-dimensional position of the face. Accordingly, the user location estimation apparatus can accurately estimate the three-dimensional position of the user, so that it can be utilized as high-reliability user information.

센서 포즈 파라미터 보정부(134)는 RGB-D 카메라를 이용하여 RGB-D 카메라 및 PTZ 카메라로 구성된 센서 네트워크의 센서 포즈 파라미터를 보정할 수 있다. 이에 대하여는, 도 5를 참조하여 이하에서 상세히 설명하도록 한다. The sensor pose parameter correcting unit 134 can correct the sensor pose parameters of the sensor network composed of the RGB-D camera and the PTZ camera using the RGB-D camera. This will be described in detail below with reference to Fig.

도 2는 본 명세서의 일 실시예에 따른 블록도로서, 분리하여 표시한 블록들은 장치의 구성요소들을 논리적으로 구별하여 도시한 것이다. 따라서 상술한 장치의 구성요소들은 장치의 설계에 따라 하나의 칩으로 또는 복수의 칩으로 장착될 수 있다. 이하에서는, 제어부(140)가 사용자 위치 추정 장치(100) 또는 사용자 위치 추정 장치(100)에 포함된 적어도 하나의 구성요소를 제어한다고 표현할 수 있으며, 제어부(140)와 사용자 위치 추정 장치(100)를 동일시하여 설명할 수 있다.
FIG. 2 is a block diagram according to an embodiment of the present invention, wherein blocks separated and shown are logically distinguishing components of the apparatus. Therefore, the components of the above-described apparatus can be mounted as one chip or as a plurality of chips according to the design of the apparatus. Hereinafter, the control unit 140 may be described as controlling at least one component included in the user location estimation apparatus 100 or the user location estimation apparatus 100, and the control unit 140 and the user location estimation apparatus 100 may be referred to as " Can be explained.

도 5는 본 명세서의 일 실시예에 따른 사용자 위치 추정 장치가 센서 네트워크의 센서 포즈 파라미터를 보정하는 방법을 나타낸다. FIG. 5 illustrates a method by which a user location estimation apparatus according to an embodiment of the present invention corrects a sensor pose parameter of a sensor network.

도 5의 왼쪽에 도시된 것처럼, 센서 네트워크의 센서 포즈 파라미터가 미리 보정되지 않은 경우, 사용자 위치 추정 장치는 통해 RGB-D 카메라의 제1 포즈 파라미터를 제어함으로써, RGB-D 카메라가 지면과 수직(틸팅 각도가 90도)이 되도록 조정할 수 있다. 그리고, 도 5의 가운데에 도시된 것처럼, 사용자 위치 추정 장치는 평면 모델에 기반하여 지면을 추출할 수 있다. 그리고, 도 5의 오론쪽에 도시된 것처럼, 사용자 위치 추정 장치는 지면과 RGD-D 카메라의 평균 높이를 미리 설정된 시간 동안 추정함으로써, 센서 포즈 파라미터를 보정할 수 있다. 일 실시예에서, 사용자 위치 추정 장치는 제어부를 통해 상술한 기능을 수행할 수 있다. If the sensor pose parameter of the sensor network is not previously calibrated, as shown on the left side of FIG. 5, the user position estimation device controls the first pose parameter of the RGB-D camera so that the RGB- The tilting angle is 90 degrees). And, as shown in the middle of FIG. 5, the user position estimation device can extract the ground based on the plane model. 5, the user position estimating apparatus can correct the sensor pose parameters by estimating the average height of the ground and the RGD-D camera for a preset time. In one embodiment, the user location estimation apparatus can perform the above-described functions through the control unit.

도 6은 본 명세서의 일 실시예에 따른 센서 네트워크의 동적 파라미터를 변화시킴에 따라 사용자의 몸체 및 얼굴의 3차원 위치 추정의 오차율을 나타내는 표이다. 여기서, 동적 파라미터는 상술한 제1 포즈 파라미터, 제2 포즈 파라미터 및 센서 포즈 파라미터를 포함하는 개념이다.  FIG. 6 is a table showing the error rates of three-dimensional position estimation of the user's body and face as the dynamic parameters of the sensor network are changed according to an embodiment of the present invention. Here, the dynamic parameter is a concept including the above-described first pose parameter, second pose parameter, and sensor pose parameter.

보다 상세하게, 도 6은 제어가능한 5개의 포즈 파라미터 중에서 RGBD 카메라의 틸팅 각도를 나타내는 파라미터인

Figure pat00022
와 센서 네트워크의 높이를 나타내는 파라미터인
Figure pat00023
를 센서 네트워크 상에서 동적으로 변화시킨 경우, 고정된 사용자의 몸체의 3차원 위치와 얼굴의 3차원 위치를 실험적으로 구한 값이다. 이렇게 추정된 사용자의 위치 오차의 평균값은 몸체의 경우 0.19미터이고, 얼굴의 경우 0.25미터를 갖는다.
More specifically, FIG. 6 shows a parameter indicating the tilting angle of the RGBD camera among five pose parameters that can be controlled
Figure pat00022
And a parameter representing the height of the sensor network
Figure pat00023
Dimensional position of the body of the fixed user and the three-dimensional position of the face are experimentally obtained when the robot is dynamically changed on the sensor network. The average value of the estimated position error of the user is 0.19 m for the body and 0.25 m for the face.

도 7은 본 명세서의 일 실시예에 따른 센서 네트워크 상에서 사용자의 이동에 따라 몸체의 3차원 위치 좌표, 얼굴의 3차원 위치 좌표 및 오차를 보여주는 도면이다. 도 7에서 파란색의 “x”표시는 얼굴의 3차원 위치를 나타내고, 빨간색의 “*”는 몸체의 3차원 위치를 나타내고, 둘 사이를 연결하는 선은 얼굴의 3차원 위치와 몸체의 3차원 위치 간의 차이를 나타낸다. 도 7을 참조하면, 얼굴 위치의 오차는 약 0.158미터로 나타난다.
FIG. 7 is a view showing three-dimensional position coordinates of a body, three-dimensional position coordinates of a face, and errors according to a user's movement on a sensor network according to an embodiment of the present invention. In FIG. 7, the blue "x" mark represents the three-dimensional position of the face, the red "*" represents the three-dimensional position of the body, the line connecting the two represents the three- Lt; / RTI > Referring to Fig. 7, the error of the face position is about 0.158 meters.

도 8은 본 명세서의 일 실시예에 따른 사용자 위치 추정 방법의 순서도이다. 도 8에서는 도 1 내지 7에서 설명한 내용과 동일하거나 유사한 부분에 대한 상세한 설명은 생략하도록 한다. 8 is a flowchart of a method of estimating a user location according to an embodiment of the present invention. In FIG. 8, a detailed description of the same or similar parts as those described in FIGS. 1 to 7 will be omitted.

도 8을 참조하면, 사용자 위치 추정 장치는 제1 카메라를 통해 촬영대상 영역을 촬영하여 3차원의 제1 영상을 획득할 수 있다(S10). 여기서, 촬영대상 영역은 카메라로 촬영이 가능한 영역으로서, 적어도 하나의 오브젝트(object)(예컨대, 사용자)가 포함된 영역일 수 있다. 일 실시예에서, 제1 카메라는 제1 카메라의 제1 포즈 파라미터에 따라 다양한 포즈로 동작할 수 있다. 단계(S10)에서, 사용자 위치 추정 장치는 제1 포즈 파라미터를 조정하여 제1 카메라의 포즈를 조정함으로써, 다양한 각도에서 촬영된 제1 영상을 획득할 수 있다.Referring to FIG. 8, the user location estimation apparatus may acquire a first image in three dimensions by photographing a region to be photographed through a first camera (S10). Here, the photographing target area may be an area including at least one object (e.g., a user), which is an area that can be photographed by the camera. In one embodiment, the first camera may operate in various poses depending on the first pose parameter of the first camera. In step S10, the user position estimation device adjusts the first pose parameter to adjust the pose of the first camera, thereby obtaining the first image photographed at various angles.

사용자 위치 추정 장치는 제2 카메라를 통해 촬영대상 영역 내의 특정 영역을 확대 촬영하여 2차원의 제2 영상을 획득할 수 있다. 일 실시예에서, 제2 카메라는 제2 카메라의 제2 포즈 파라미터에 따라 다양한 포즈로 동작할 수 있다. 단계(S20)에서, 사용자 위치 추정 장치는 제2 포즈 파라미터를 조정하여 제2 카메라의 포즈를 조정함으로써, 다양한 각도 및 다양한 줌 비율로 촬영된 제2 영상을 획득할 수 있다.The user location estimation apparatus can acquire a second image in a two-dimensional manner by enlarging a specific region within the region to be photographed through the second camera. In one embodiment, the second camera may operate in various poses depending on the second pose parameter of the second camera. In step S20, the user position estimation device adjusts the second pose parameter to adjust the pose of the second camera, thereby obtaining a second image photographed at various angles and various zoom ratios.

사용자 위치 추정 장치는 제1 영상으로부터 사용자의 몸체를 검출하고, 몸체의 3차원 위치를 산출할 수 있다(S30). 단계(S30)에서, 사용자 위치 추정 장치는 제1 카메라의 제1 영상으로부터 사용자의 몸체를 검출하고, 제1 카메라의 제1 포즈 파라미터 및 몸체의 깊이 정보에 기초하여 상기 몸체의 3차원 위치를 산출할 수 있다.The user position estimation apparatus can detect the user's body from the first image and calculate the three-dimensional position of the body (S30). In step S30, the user position estimation apparatus detects the user's body from the first image of the first camera, calculates the three-dimensional position of the body based on the first pose parameter of the first camera and the depth information of the body can do.

사용자 위치 추정 장치는 제2 영상으로부터 사용자의 얼굴을 검출하고, 얼굴의 3차원 위치를 산출할 수 있다(S40). 단계(S40)에서, 사용자 위치 추정 장치는 몸체의 3차원 위치에 기초하여 제2 카메라의 포즈를 제어함으로써 제2 영상으로부터 상기 사용자의 얼굴을 검출하고, 제2 카메라의 제1 포즈 파라미터 및 얼굴의 깊이 정보에 기초하여 얼굴의 3차원 위치를 산출할 수 있다. 이 경우, 사용자 위치 추정 장치는 상기 몸체의 깊이 정보로부터 얼굴의 깊이 정보를 추정할 수 있다. The user location estimation apparatus can detect the user's face from the second image and calculate the three-dimensional position of the face (S40). In step S40, the user position estimation apparatus detects the user's face from the second image by controlling the pose of the second camera based on the three-dimensional position of the body, and detects the first pose parameter of the second camera and the face The three-dimensional position of the face can be calculated based on the depth information. In this case, the user location estimation apparatus can estimate the depth information of the face from the depth information of the body.

사용자 위치 추정 장치는 몸체의 3차원 위치 및 얼굴의 3차원 위치에 기초하여 상기 사용자의 3차원 위치를 추정할 수 있다(S50).
The user position estimation apparatus can estimate the three-dimensional position of the user based on the three-dimensional position of the body and the three-dimensional position of the face (S50).

도 9는 본 명세서의 다른 실시예에 따른 사용자 위치 추정 방법의 순서도이다. 도 9에서는 도 1 내지 8에서 설명한 내용과 동일하거나 유사한 부분에 대한 상세한 설명은 생략하도록 한다. 이에, 도 9의 단계(S10) 내지 단계(S50)에 대한 설명은 도 8의 단계(S10) 내지 단계(S50)에 대한 설명과 동일하므로 생략하도록 한다.9 is a flowchart of a method of estimating a user location according to another embodiment of the present invention. In FIG. 9, detailed description of the same or similar parts as those described in FIGS. 1 to 8 will be omitted. The description of steps S10 to S50 in FIG. 9 is the same as the description of steps S10 to S50 in FIG. 8, so that the description will be omitted.

도 9를 참조하면, 사용자 위치 추정 장치는 제1 영상을 획득하는 단계(S10) 이전에, RGB-D 카메라를 이용하여 RGB-D 카메라 및 PTZ 카메라로 구성된 센서 네트워크의 센서 포즈 파라미터를 보정하는 단계(S1)를 더 포함할 수 있다. 여기서, 센서 포즈 파라미터는 센서 네트워크의 높이를 나타내는 파라미터일 수 있다. Referring to FIG. 9, before the step S10 of obtaining the first image, the user location estimation apparatus corrects the sensor pose parameters of the sensor network constituted by the RGB-D camera and the PTZ camera using the RGB-D camera (S1). Here, the sensor pose parameter may be a parameter indicating the height of the sensor network.

이에 대하여는 도 5에서 설명된 것처럼, 센서 네트워크의 센서 포즈 파라미터가 미리 보정되지 않은 경우, 사용자 위치 추정 장치는 통해 RGB-D 카메라의 제1 포즈 파라미터를 제어함으로써, RGB-D 카메라가 지면과 수직(틸팅 각도가 90도)이 되도록 조정할 수 있다. 그리고, 사용자 위치 추정 장치는 평면 모델에 기반하여 지면을 추출할 수 있다. 그리고, 사용자 위치 추정 장치는 지면과 RGD-D 카메라의 평균 높이를 미리 설정된 시간 동안 추정함으로써, 센서 포즈 파라미터를 보정할 수 있다.
In contrast, if the sensor pose parameter of the sensor network is not corrected in advance, the user position estimating apparatus controls the first pose parameter of the RGB-D camera, so that the RGB-D camera is perpendicular to the ground The tilting angle is 90 degrees). Then, the user location estimation apparatus can extract the ground based on the plane model. Then, the user location estimation apparatus can correct the sensor pose parameter by estimating the average height of the ground and the RGD-D camera for a predetermined time.

이와 같은, 사용자 위치 추정 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.Such a user location estimation method may be implemented in an application or may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, and the like, alone or in combination. Program instructions that are recorded on a computer-readable recording medium may be those that are specially designed and constructed for the present invention and are known and available to those skilled in the art of computer software.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. A hardware device may be configured to operate as one or more software modules to perform processing in accordance with the present invention, and vice versa.

또한, 이상에서는 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구 범위에서 청구하는 요지를 벗어남이 없이 당해 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It should be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.

또한, 본 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수 있다.In this specification, both the invention and the method invention are explained, and the description of both inventions can be supplemented as necessary.

100: 사용자 위치 추정 장치 110: 제1 카메라
120: 제2 카메라 130: 제어부
100: user position estimation device 110: first camera
120: second camera 130:

Claims (10)

제1 카메라에 의해 촬영대상 영역을 촬영하여 깊이 정보를 포함하는 제1 영상을 획득하는 단계;
제2 카메라에 의해 상기 촬영대상 영역내의 특정 영역을 확대 촬영하여 제2 영상을 획득하는 단계;
상기 제1 영상으로부터 사용자의 몸체를 검출하고, 상기 제1 카메라의 제1 포즈 파라미터 및 상기 몸체의 깊이 정보에 기초하여 상기 몸체의 3차원 위치를 산출하는 단계;
상기 몸체의 3차원 위치에 기초하여 상기 제2 카메라의 포즈를 제어함으로써 상기 제2 영상으로부터 상기 사용자의 얼굴을 검출하고, 상기 제2 카메라의 제1 포즈 파라미터 및 상기 얼굴의 깊이 정보에 기초하여 상기 얼굴의 3차원 위치를 산출하는 단계-상기 얼굴의 깊이 정보는 상기 몸체의 깊이 정보로부터 추정됨-; 및
상기 몸체의 3차원 위치 및 상기 얼굴의 3차원 위치에 기초하여 상기 사용자의 3차원 위치를 추정하는 단계를 포함하는, 사용자 위치 추정 방법.
Capturing an area to be photographed by a first camera to obtain a first image including depth information;
Acquiring a second image by enlarging an image of a specific area within the area to be imaged by a second camera;
Detecting a user's body from the first image, calculating a three-dimensional position of the body based on the first pose parameter of the first camera and the depth information of the body;
Wherein the face detection unit detects the face of the user from the second image by controlling the pose of the second camera based on the three-dimensional position of the body, and based on the first pose parameter of the second camera and the depth information of the face, Calculating a three-dimensional position of the face, the depth information of the face being estimated from depth information of the body; And
Estimating the three-dimensional position of the user based on the three-dimensional position of the body and the three-dimensional position of the face.
제 1 항에 있어서,
상기 제1 카메라는 RGB-D 카메라이고, 상기 제2 카메라는 PTZ 카메라인, 사용자 위치 추정 방법.
The method according to claim 1,
Wherein the first camera is an RGB-D camera and the second camera is a PTZ camera.
제 2 항에 있어서,
상기 제1 포즈 파라미터는 상기 RGB-D 카메라의 틸팅(tilting) 각도를 나타내는 파라미터를 포함하고, 상기 제2 포즈 파라미터는 상기 PTZ 카메라의 패닝(panning) 각도, 틸팅(tilting) 각도 및 줌(zoom) 비율을 나타내는 파라미터를 포함하는, 사용자 위치 추정 방법.
3. The method of claim 2,
Wherein the first pose parameter includes a parameter indicating a tilting angle of the RGB-D camera and the second pose parameter includes a panning angle, a tilting angle, and a zoom angle of the PTZ camera, And a parameter indicative of the ratio.
제 2 항에 있어서,
상기 제1 영상을 획득하는 단계 이전에,
상기 RGB-D 카메라를 이용하여 상기 RGB-D 카메라 및 상기 PTZ 카메라로 구성된 센서 네트워크의 센서 포즈 파라미터를 보정하는 단계를 더 포함하되, 상기 센서 포즈 파라미터는 상기 센서 네트워크의 높이를 나타내는 파라미터를 포함하는, 사용자 위치 추정 방법.
3. The method of claim 2,
Before the step of acquiring the first image,
Further comprising the step of correcting sensor pose parameters of a sensor network composed of the RGB-D camera and the PTZ camera using the RGB-D camera, wherein the sensor pose parameter includes a parameter indicating a height of the sensor network / RTI >
제 2 항에 있어서,
상기 얼굴의 3차원 위치를 산출하는 단계는,
상기 몸체의 깊이 정보 및 상기 PTZ 카메라의 제2 포즈 파라미터를 이용하여 상기 얼굴의 깊이 정보를 추정하는, 사용자 위치 추정 방법.
3. The method of claim 2,
Wherein the step of calculating the three-
And estimating the depth information of the face using the depth information of the body and the second pose parameter of the PTZ camera.
촬영대상 영역을 촬영하여 깊이 정보를 포함하는 제1 영상을 획득하는 제1 카메라;
상기 촬영대상 영역내의 특정 영역을 확대 촬영하여 제2 영상을 획득하는 제2 카메라; 및
상기 제1 카메라 및 상기 제2 카메라를 제어하는 제어부를 포함하되,
상기 제어부는,
상기 제1 영상으로부터 사용자의 몸체를 검출하고, 상기 제1 카메라의 제1 포즈 파라미터 및 상기 몸체의 깊이 정보에 기초하여 상기 몸체의 3차원 위치를 추정하는 제1 위치 추정 모듈;
상기 몸체의 3차원 위치에 기초하여 상기 제2 카메라의 포즈를 제어함으로써 상기 제2 영상으로부터 상기 사용자의 얼굴을 검출하고, 상기 제2 카메라의 제2 포즈 파라미터 및 상기 얼굴의 깊이 정보에 기초하여 상기 얼굴의 3차원 위치를 추정하는 제2 위치 추정 모듈-상기 얼굴의 깊이 정보는 상기 몸체의 깊이 정보로부터 추정됨-; 및
상기 몸체의 3차원 위치 및 상기 얼굴의 3차원 위치에 기초하여 상기 사용자의 3차원 위치를 추정하는 사용자 위치 결정 모듈을 포함하는, 사용자 위치 추정 장치.
A first camera for photographing a region to be photographed to acquire a first image including depth information;
A second camera for acquiring a second image by zooming in on a specific area within the shooting target area; And
And a controller for controlling the first camera and the second camera,
Wherein,
A first position estimation module that detects a user's body from the first image, estimates a three-dimensional position of the body based on the first pose parameter of the first camera and the depth information of the body;
Wherein the face of the user is detected from the second image by controlling the pose of the second camera based on the three-dimensional position of the body, and based on the second pose parameter of the second camera and the depth information of the face, A second position estimation module for estimating a three-dimensional position of a face, the depth information of the face being estimated from depth information of the body; And
And a user positioning module for estimating the three-dimensional position of the user based on the three-dimensional position of the body and the three-dimensional position of the face.
제 6 항에 있어서,
상기 제1 카메라는 RGB-D 카메라이고, 상기 제2 카메라는 PTZ 카메라인, 사용자 위치 추정 장치.
The method according to claim 6,
Wherein the first camera is an RGB-D camera and the second camera is a PTZ camera.
제 7 항에 있어서,
상기 제1 포즈 파라미터는 상기 RGB-D 카메라의 틸팅(tilting) 각도를 나타내는 파라미터를 포함하고, 상기 제2 포즈 파라미터는 상기 PTZ 카메라의 패닝(panning) 각도, 틸팅(tilting) 각도 및 주밍(zooming) 비율을 나타내는 파라미터를 포함하는, 사용자 위치 추정 장치.
8. The method of claim 7,
Wherein the first pose parameter includes a parameter indicating a tilting angle of the RGB-D camera and the second pose parameter includes a panning angle, a tilting angle, and a zooming of the PTZ camera, And a parameter indicative of the ratio.
제 7 항에 있어서,
상기 제어부는,
상기 RGB-D 카메라를 이용하여 상기 RGB-D 카메라 및 상기 PTZ 카메라로 구성된 센서 네트워크의 센서 포즈 파라미터를 보정하는 센서 포즈 파라미터 보정부를 더 포함하되, 상기 센서 포즈 파라미터는 상기 센서 네트워크의 높이를 나타내는 파라미터를 포함하는, 사용자 위치 추정 장치.
8. The method of claim 7,
Wherein,
Further comprising a sensor pose parameter correcting unit for correcting sensor pose parameters of a sensor network constituted by the RGB-D camera and the PTZ camera using the RGB-D camera, wherein the sensor pose parameter is a parameter indicating a height of the sensor network And estimates the position of the user.
제 7 항에 있어서,
제2 위치 산출부는,
상기 몸체의 깊이 정보 및 상기 PTZ 카메라의 제2 포즈 파라미터를 이용하여 상기 얼굴의 깊이 정보를 추정하는, 사용자 위치 추정 장치.
8. The method of claim 7,
The second position calculating unit calculates,
And estimating the depth information of the face using the depth information of the body and the second pose parameter of the PTZ camera.
KR1020150010704A 2015-01-22 2015-01-22 Apparatus and method for estimation of user location over a configurable sensor network KR101653281B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150010704A KR101653281B1 (en) 2015-01-22 2015-01-22 Apparatus and method for estimation of user location over a configurable sensor network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150010704A KR101653281B1 (en) 2015-01-22 2015-01-22 Apparatus and method for estimation of user location over a configurable sensor network

Publications (2)

Publication Number Publication Date
KR20160090650A true KR20160090650A (en) 2016-08-01
KR101653281B1 KR101653281B1 (en) 2016-09-01

Family

ID=56706876

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150010704A KR101653281B1 (en) 2015-01-22 2015-01-22 Apparatus and method for estimation of user location over a configurable sensor network

Country Status (1)

Country Link
KR (1) KR101653281B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200122967A (en) * 2019-04-19 2020-10-28 주식회사 스트리스 System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005233639A (en) * 2004-02-17 2005-09-02 Mitsubishi Electric Corp Stereoscopic camera system and method for camera-to-camera calibration of the system
KR20090022099A (en) 2007-08-29 2009-03-04 엘지전자 주식회사 Method for controling user-interface, and apparatus for implementing the same
KR20090090983A (en) * 2008-02-22 2009-08-26 이병국 Method for extracting spacial coordimates using multiple cameras image
KR20120002723A (en) * 2010-07-01 2012-01-09 (주) 비전에스티 Device and method for recognizing person by using 3 dimensional image information
KR20140045873A (en) * 2012-10-09 2014-04-17 한국전자통신연구원 Apparatus and method for eye tracking

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005233639A (en) * 2004-02-17 2005-09-02 Mitsubishi Electric Corp Stereoscopic camera system and method for camera-to-camera calibration of the system
KR20090022099A (en) 2007-08-29 2009-03-04 엘지전자 주식회사 Method for controling user-interface, and apparatus for implementing the same
KR20090090983A (en) * 2008-02-22 2009-08-26 이병국 Method for extracting spacial coordimates using multiple cameras image
KR20120002723A (en) * 2010-07-01 2012-01-09 (주) 비전에스티 Device and method for recognizing person by using 3 dimensional image information
KR20140045873A (en) * 2012-10-09 2014-04-17 한국전자통신연구원 Apparatus and method for eye tracking

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200122967A (en) * 2019-04-19 2020-10-28 주식회사 스트리스 System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors

Also Published As

Publication number Publication date
KR101653281B1 (en) 2016-09-01

Similar Documents

Publication Publication Date Title
KR102209008B1 (en) Apparatus for estimating camera pose and method for estimating camera pose
JP5961945B2 (en) Image processing apparatus, projector and projector system having the image processing apparatus, image processing method, program thereof, and recording medium recording the program
Levinson et al. Automatic online calibration of cameras and lasers.
US8805021B2 (en) Method and apparatus for estimating face position in 3 dimensions
KR101590530B1 (en) Automatic scene calibration
WO2019114617A1 (en) Method, device, and system for fast capturing of still frame
US9589326B2 (en) Depth image processing apparatus and method based on camera pose conversion
US8798387B2 (en) Image processing device, image processing method, and program for image processing
EP2652948B1 (en) Zooming factor computation
WO2017045315A1 (en) Method and apparatus for determining location information of tracked target, and tracking apparatus and system
CN110567469A (en) Visual positioning method and device, electronic equipment and system
KR101672732B1 (en) Apparatus and method for tracking object
WO2020237565A1 (en) Target tracking method and device, movable platform and storage medium
CN107403447B (en) Depth image acquisition method
JP2007278845A (en) Image processing apparatus and its processing method
CN110751685B (en) Depth information determination method, determination device, electronic device and vehicle
JP5183152B2 (en) Image processing device
KR101705558B1 (en) Top view creating method for camera installed on vehicle and AVM system
US11956537B2 (en) Location positioning device for moving body and location positioning method for moving body
JP2017098613A (en) Imaging apparatus, its control method, and control program
KR101620580B1 (en) Method and system for dectecting run
KR101653281B1 (en) Apparatus and method for estimation of user location over a configurable sensor network
CN107274447B (en) Depth image acquisition device and depth image acquisition method
KR101837269B1 (en) Coordination guide method and system based on multiple marker
KR101828710B1 (en) Apparatus and method for object occlusion detection

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant