KR101609188B1 - Depth camera system of optimal arrangement to improve the field of view - Google Patents

Depth camera system of optimal arrangement to improve the field of view Download PDF

Info

Publication number
KR101609188B1
KR101609188B1 KR1020140120184A KR20140120184A KR101609188B1 KR 101609188 B1 KR101609188 B1 KR 101609188B1 KR 1020140120184 A KR1020140120184 A KR 1020140120184A KR 20140120184 A KR20140120184 A KR 20140120184A KR 101609188 B1 KR101609188 B1 KR 101609188B1
Authority
KR
South Korea
Prior art keywords
depth
depth camera
camera
image
cameras
Prior art date
Application number
KR1020140120184A
Other languages
Korean (ko)
Other versions
KR20160030694A (en
Inventor
원치선
송완빈
윤석민
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020140120184A priority Critical patent/KR101609188B1/en
Publication of KR20160030694A publication Critical patent/KR20160030694A/en
Application granted granted Critical
Publication of KR101609188B1 publication Critical patent/KR101609188B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

복수의 깊이 카메라를 이용하는 깊이 카메라 시스템으로서, 깊이 정보를 갖는 깊이 영상을 획득하는 제1 깊이 카메라; 깊이 정보를 갖는 깊이 영상을 획득하며, 상기 제1 깊이 카메라의 상부에서 상기 제1 깊이 카메라의 뷰 포인트(view point)가 지향하는 방향과는 다른 방향의 뷰 포인트를 갖도록 상기 제1 깊이 카메라에 대해 교차 배치되는 제2 깊이 카메라; 및 상기 제1 깊이 카메라에 의해 획득된 제1 깊이 영상과 상기 제2 깊이 카메라에 의해 획득된 제2 깊이 영상을 이용하여 파노라마 깊이 맵을 생성하는 깊이 맵 영상 처리부를 포함하는 깊이 카메라 시스템이 제공된다.1. A depth camera system using a plurality of depth cameras, comprising: a first depth camera for acquiring a depth image having depth information; Acquiring a depth image having depth information on the first depth camera and having a view point in a direction different from a direction in which the view point of the first depth camera is directed, A second depth camera that is disposed in an intersecting manner; And a depth map image processing unit for generating a panorama depth map using the first depth image obtained by the first depth camera and the second depth image obtained by the second depth camera .

Description

화각의 향상을 위한 최적 배치를 갖는 깊이 카메라 시스템{DEPTH CAMERA SYSTEM OF OPTIMAL ARRANGEMENT TO IMPROVE THE FIELD OF VIEW} [0001] DEPTH CAMERA SYSTEM OF OPTIMAL ARRANGEMENT TO IMPROVE THE FIELD OF VIEW [0002]

본 발명은 화각의 향상을 위한 최적 배치를 갖는 깊이 카메라 시스템에 관한 것이다.
The present invention relates to a depth camera system having an optimal arrangement for improving the angle of view.

로봇 산업의 확대와 함께 실내 환경에서 거리를 측정하여 3D 맵을 구성하는 깊이 카메라에 관한 연구가 많이 이루어지고 있다. 그 중 저렴한 가격으로 최근 폭발적으로 보급이 확대되고 있는 Microsoft 사의 Kinect는 본연의 기능인 게임을 위한 인간 몸동작 인식뿐만이 아니라 실내에 존재하는 다양한 사물의 인식 및 복수의 인간 동작의 인식 분야로 그 응용 분야가 확대되고 있다.With the expansion of the robot industry, there is a lot of research on the depth camera that constructs the 3D map by measuring the distance in the indoor environment. Among them, Microsoft's Kinect, which is expanding in popularity at an affordable price, is not only recognizing the human body motion for the game, which is the original function of the game, but also expanding its application field as recognition of various objects in the room and recognition of plural human motions .

컬러와 깊이 영상을 동시에 취득할 수 있는 Kinect는 수평 화각이 작아 복잡한 실내에 존재하는 다양한 사물이나 복수의 인간 몸동작을 인식하는데 한계가 있다. 따라서 이와 같은 좁은 화각의 문제를 해결하기 위해, 복수의 Kinect를 사용하는 방법이 고안되었다.Kinect, which can acquire both color and depth images at the same time, has a limited horizontal angle of view, which limits the recognition of various objects in a complex room or a plurality of human gestures. Therefore, in order to solve the problem of such narrow angle of view, a method of using a plurality of Kinect has been devised.

종래 기술에 의하면, 세 대의 Kinect 카메라를 사람의 동선에 따라 거리를 두고 설치하여 보다 넓은 영역에서 스켈레톤 트래킹(Skeleton tracking)을 실시하는 방법이 제안되었다. 하지만 이는 여러 사람이 일정 범위 안에 들어와야 한다는 조건을 만족해야 하며 두 사람이 붙어 있을 경우 인식률이 떨어지며 두 깊이 카메라가 겹치는 부분에서 빠르게 지나갈 경우 역시 인식률이 저하되는 단점이 있다. (C.Schonauer et al, "Wide Area Motin Tracking Using Consumer Hardware", ACE 2011)According to the related art, a method has been proposed in which three Kinect cameras are installed at a distance from each other according to human motion, thereby carrying out skeleton tracking in a wider area. However, it should satisfy the condition that several people should come within a certain range, and if two people are attached, the recognition rate is lowered, and if the two depth cameras overlap quickly, the recognition rate also deteriorates. (C. Schonauer et al, "Wide Area Motin Tracking Using Consumer Hardware ", ACE 2011)

다른 종래 기술에 의하면, 복수의 Kinect를 동서남북 네 방향에 설치하여 그 안에 일정 범위 내의 사람을 3D으로 표현할 수 있는 방법이 제안되었다. 그러나 네 대의 Kinect가 한곳을 바라보고 있으므로, 화각 향상을 이룰 수는 없었다. (Dimitrios S. et al, "Real-Time, Full 3-D Reconstruction of Moving Foreground Objects From Multiple Consumer Depth Cameras", IEEE, 2013)According to another conventional technique, a method has been proposed in which a plurality of Kinect are installed in four directions in the east, the south, and the south, and a person within a certain range is represented in 3D. However, since the four Kinect were looking at one place, the angle of field could not be improved. (Dimitrios S. et al, "Real-Time, Full 3-D Reconstruction of Moving Foreground Objects From Multiple Consumer Depth Cameras ", IEEE, 2013)

또한 듀얼 스테레오 카메라에 관한 연구도 진행되었다. 한 기판에 스테레오 카메라 두 대를 설치하여 각각의 스테레오 카메라에서 얻어진 기준 물체에 대한 거리 맵을 서로 매칭시켜 보다 정확한 거리정보를 추출하는 기능이다. 그러나 이 방식에 의하는 경우에도 두 개의 스테레오 카메라를 일자로 배치시켜 거리 맵의 정확도를 향상시킬 수 있으나, 전체적인 화각은 크게 향상 시킬 수 없다. (이병수, "듀얼 스테레오 카메라를 구비한 거리 측정 장치", 한국 특허출원 제10-2009-0056998호)
The research on the dual stereo camera was also carried out. It is a function to install two stereo cameras on one board and to extract more accurate distance information by matching the distance maps of reference objects obtained from each stereo camera. However, even if this method is used, it is possible to improve the accuracy of the distance map by disposing two stereo cameras in a day, but the overall angle of view can not be greatly improved. (Lee, Byung-Soo, "Distance Measuring Apparatus with Dual Stereo Camera", Korean Patent Application No. 10-2009-0056998)

본 발명은 복수의 깊이 카메라를 사용하여 수평 화각을 두배 정도로 확대하고, 복수의 깊이 카메라에 의한 간섭 및 상호 작용에 기인한 깊이 영상의 왜곡을 감소시킬 수 있는 깊이 카메라 시스템을 제공하기 위한 것이다.
The present invention is to provide a depth camera system capable of enlarging a horizontal angle of view to about twice using a plurality of depth cameras and reducing distortion of depth images caused by interference and interaction by a plurality of depth cameras.

본 발명의 일 측면에 따르면, 복수의 깊이 카메라를 이용하는 깊이 카메라 시스템으로서, 깊이 정보를 갖는 깊이 영상을 획득하는 제1 깊이 카메라; 깊이 정보를 갖는 깊이 영상을 획득하며, 상기 제1 깊이 카메라의 상부에서 상기 제1 깊이 카메라의 뷰 포인트(view point)가 지향하는 방향과는 다른 방향의 뷰 포인트를 갖도록 상기 제1 깊이 카메라에 대해 교차 배치되는 제2 깊이 카메라를 포함하는 깊이 카메라 시스템이 제공된다.
According to an aspect of the present invention, there is provided a depth camera system using a plurality of depth cameras, including: a first depth camera for acquiring a depth image having depth information; Acquiring a depth image having depth information on the first depth camera and having a view point in a direction different from a direction in which the view point of the first depth camera is directed, There is provided a depth camera system including a second depth camera that is disposed in an interlaced manner.

일 실시예에서, 상기 제1 깊이 카메라와 상기 제2 깊이 카메라는, 동일한 센서 중심축을 갖도록 X자 형태로 교차 배치될 수 있다.
In one embodiment, the first depth camera and the second depth camera may be arranged in an X-shape to have the same sensor center axis.

일 실시예에서, 상기 제1 깊이 카메라와 상기 제2 깊이 카메라는, 각 깊이 카메라의 수평 화각에 따라 커버되는 깊이 영상 영역 간에 중첩이 최소화되도록 교차 배치될 수 있다.
In one embodiment, the first depth camera and the second depth camera may be cross-positioned so that overlap is minimized between the depth image regions covered by the horizontal angle of view of each depth camera.

일 실시예에서, 상기 제1 깊이 카메라와 상기 제2 깊이 카메라는, 각 깊이 카메라에 의한 깊이 영상에서의 수직 스캔 범위가 서로 일치되도록 수직 정렬될 수 있다.
In one embodiment, the first depth camera and the second depth camera may be vertically aligned so that the vertical scan ranges in the depth image by each depth camera coincide with each other.

일 실시예에서, 상기 제1 깊이 카메라에 의해 획득된 제1 깊이 영상과 상기 제2 깊이 카메라에 의해 획득된 제2 깊이 영상을 이용하여 파노라마 깊이 맵을 생성하는 깊이 맵 영상 처리부를 더 포함할 수 있다.In one embodiment, the apparatus may further include a depth map image processor for generating a panorama depth map using the first depth image acquired by the first depth camera and the second depth image acquired by the second depth camera have.

상기 깊이 맵 영상 처리부는, 상기 제1 깊이 카메라 및 상기 제2 깊이 카메라 간의 중심 교차점을 절단하면서 정면을 바라보는 평면을 기준 평면으로 하여, 상기 제1 깊이 영상 및 상기 제2 깊이 영상의 깊이 값을 보정할 수 있다.
Wherein the depth map image processing unit divides the center depth between the first depth camera and the second depth camera by a plane that faces the front surface as a reference plane, Can be corrected.

일 실시예에서, 상기 깊이 맵 영상 처리부는, 상기 깊이 값 보정을 수행한 이후, 상기 제1 깊이 카메라 및 상기 제2 깊이 카메라의 각각의 뷰 포인트의 차이에 의해 발생하는 원근 왜곡(perspective distortion)을 바로잡는 사영 변환(projective transformation)을 수행할 수 있다.
In one embodiment, the depth map image processing section may calculate a perspective distortion caused by a difference between respective view points of the first depth camera and the second depth camera after performing the depth value correction A corrective projective transformation can be performed.

일 실시예에서, 상기 깊이 맵 영상 처리부는, 상기 파노라마 깊이 맵의 생성을 위해, 상기 사영 변환된 제1 깊이 영상 및 제2 깊이 영상을 이어 붙이는 슈퍼임포징을 수행할 수 있다.
In one embodiment, the depth map image processing unit may perform superimposition in which the projection depth-converted first depth image and the second depth image are connected to generate the panorama depth map.

일 실시예에서, 상기 제1 깊이 카메라 및 상기 제2 깊이 카메라는, 전방위(全方位)의 기준 배경 또는 기준 물체에 관한 깊이 영상을 획득할 수 있도록, 상기 제1 및 제2 깊이 카메라가 탑재되는 기판과의 관계에서 360도 상대 회전 가능하도록 설치될 수 있다.
In one embodiment, the first depth camera and the second depth camera are arranged so that the first and second depth cameras are mounted so as to obtain a depth image with respect to an omnidirectional reference background or reference object And can be installed so as to be relatively rotatable 360 degrees in relation to the substrate.

본 발명의 실시예에 의하면, 복수의 깊이 카메라를 사용하여 수평 화각을 두배 정도로 확대할 수 있는 효과가 있다.According to the embodiment of the present invention, there is an effect that the horizontal angle of view can be doubled by using a plurality of depth cameras.

또한 본 발명의 실시예에 의하면, 복수의 깊이 카메라로부터 취득한 깊이 영상을 서로 자연스럽게 이어 붙임으로써 마치 한대의 깊이 영상 센서로 깊이 파노라마 영상을 취득하는 효과가 있다.
Further, according to the embodiment of the present invention, there is an effect of acquiring the depth panoramic image with a depth image sensor as if by attaching depth images obtained from a plurality of depth cameras to each other naturally.

도 1은 본 발명의 실시예에 따른 깊이 카메라 시스템을 간략히 도시한 도면.
도 2는 본 발명의 실시예에 따른 깊이 카메라 시스템에서 두 대의 깊이 카메라의 배치 형태를 예시한 도면.
도 3은 두 대의 깊이 카메라의 다른 배치와 본 발명의 실시예에 따른 배치와의 차이점을 설명하기 위한 개념도.
도 4 및 도 5는 본 발명의 실시예에 따른 깊이 카메라 시스템에 의할 때의 듀얼 파노라마 깊이 맵을 생성하는 방법에 관한 순서도.
도 6은 본 발명의 실시에예 따른 깊이 카메라 시스템에 의한 듀얼 파노라마 깊이 맵 생성 과정을 설명하기 위한 개념도.
도 7은 본 발명의 실시에예 따른 깊이 카메라 시스템에 의해 생성된 각 깊이 영상과 듀얼 파노라마 깊이 맵 영상을 예시한 도면.
BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 is a simplified view of a depth camera system in accordance with an embodiment of the present invention.
FIG. 2 illustrates an arrangement of two depth cameras in a depth camera system according to an embodiment of the present invention. FIG.
3 is a conceptual diagram for explaining differences between different arrangements of two depth cameras and arrangements according to an embodiment of the present invention;
4 and 5 are flowcharts of a method for generating a dual panorama depth map in a depth camera system according to an embodiment of the present invention.
6 is a conceptual diagram illustrating a process of generating a dual panorama depth map by a depth camera system according to an embodiment of the present invention;
FIG. 7 illustrates dual panorama depth map images and depth images generated by a depth camera system in accordance with an embodiment of the present invention; FIG.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated and described in the drawings. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description of the present invention, detailed description of known related arts will be omitted when it is determined that the gist of the present invention may be unnecessarily obscured. In addition, numerals (e.g., first, second, etc.) used in the description of the present invention are merely an identifier for distinguishing one component from another.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예를 상세히 설명한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 깊이 카메라 시스템을 간략히 도시한 도면이다. 도 2는 본 발명의 실시예에 따른 깊이 카메라 시스템에서 두 대의 깊이 카메라의 배치 형태를 예시한 도면이고, 도 3은 두 대의 깊이 카메라의 다른 배치와 본 발명의 실시예에 따른 배치와의 차이점을 설명하기 위한 개념도이다. 이하, 도 1 내지 도 3을 참조하여, 본 발명의 실시예에 따른 깊이 카메라 시스템에 있어서 복수의 깊이 카메라의 배치 방식에 관하여 설명하기로 한다.FIG. 1 is a view illustrating a depth camera system according to an embodiment of the present invention. Referring to FIG. FIG. 2 is a view illustrating an arrangement of two depth cameras in a depth camera system according to an embodiment of the present invention. FIG. 3 shows the difference between the different arrangement of the two depth cameras and the arrangement according to the embodiment of the present invention FIG. Hereinafter, with reference to Figs. 1 to 3, a method of arranging a plurality of depth cameras in a depth camera system according to an embodiment of the present invention will be described.

도 1 및 도 2를 참조하면, 본 발명의 실시예에 따른 깊이 카메라 시스템(100)은, 깊이 정보를 갖는 깊이 영상을 획득하는 제1 깊이 카메라(110); 깊이 정보를 갖는 깊이 영상을 획득하며, 제1 깊이 카메라(110)의 하부에서 제1 깊이 카메라(110)의 뷰 포인트(view point)가 지향하는 방향과는 다른 방향의 뷰 포인트를 갖도록 제1 깊이 카메라(110)에 대해 교차 배치되는 제2 깊이 카메라(120); 제1 깊이 카메라(110)에 의해 획득된 제1 깊이 영상(111)과 제2 깊이 카메라(120)에 의해 획득된 제2 깊이 영상(121)을 이용하여 파노라마 깊이 맵을 생성하는 깊이 맵 영상 처리부(130)를 포함한다.Referring to FIGS. 1 and 2, a depth camera system 100 according to an embodiment of the present invention includes a first depth camera 110 for acquiring a depth image having depth information; The first depth camera 110 and the second depth camera 110 are positioned at the first depth camera 110 so as to have a view point in a direction different from a direction in which the view point of the first depth camera 110 is directed, A second depth camera 120 cross-positioned relative to the camera 110; A depth map image processor 110 for generating a panorama depth map using the first depth image 111 obtained by the first depth camera 110 and the second depth image 121 obtained by the second depth camera 120, (130).

본 명세서에서는 도 1 및 도 2에 도시된 바와 같이, 두 대의 깊이 카메라가 상하로 교차 배치된 형태를 중심으로 설명하지만, 세 대 이상의 깊이 카메라가 상하로 각각 다른 지향 방향의 뷰 포인트를 가지면서 배치되는 형태로의 확장도 가능함은 물론이다. 다만, 이하에서는 설명의 편의 및 집중을 위해, 도 1 및 도 2의 실시 형태를 중심으로 본 발명의 실시예를 설명하기로 한다.In the present specification, as shown in Figs. 1 and 2, two depth cameras are vertically cross-disposed. However, three or more depth cameras are arranged vertically with their respective view points oriented in different directions It is also possible to expand to the form that it is. Hereinafter, for convenience and concentration of explanation, embodiments of the present invention will be described with reference to the embodiments shown in Figs. 1 and 2. Fig.

화각의 확장을 위해 가장 먼저 생각할 수 있는 배치 방법은 두 대의 깊이 카메라를 도 3의 (a)에서와 같은 방식으로 수평으로 연이어 배치하는 것이다. 이 경우, 다른 직력 배치에 비해 더 큰 수평 화각을 보장할 수 있지만, 그 두 대의 깊이 카메라가 스캔할 수 없는 빈 공간(32)이 발생된다. 또한 두 대의 센서가 서로 좌우로 떨어져서 발생하는 수평 시차(horizontal disparity) 때문에, 센서 바로 앞쪽에 가깝게 위치한 물체의 경우 사람의 눈과 마찬가지로 해당 물체가 두 개로 보이는 왜곡 현상이 발생한다. The first arrangement method that can be considered for the expansion of the angle of view is to arrange the two depth cameras horizontally in the same manner as in Fig. 3 (a). In this case, a larger horizontal angle of view can be ensured compared to other force arrangements, but an empty space 32 is created where the two depth cameras can not scan. Also, due to the horizontal disparity that occurs when the two sensors are separated from each other, distortion of the object, which is located close to the front of the sensor, occurs in the same manner as the human eye.

이에 따라 본 발명의 실시예에서는 수평 화각을 확대하면서도 수평 시차에 의한 왜곡 문제를 해결할 수 있는 배치 방식을 제안한다. 본 발명의 실시예에 의한 배치 방식을 도 2 및 도 3의 (b)를 참조하여 설명하면 아래과 같다. Accordingly, the embodiment of the present invention proposes a layout method that can solve the distortion problem due to horizontal parallax while enlarging the horizontal angle of view. A layout scheme according to an embodiment of the present invention will be described below with reference to FIG. 2 and FIG. 3 (b).

본 발명의 실시예에서, 제1 깊이 카메라(110)와 제2 깊이 카메라(120)는, 동일한 센서 중심축을 갖도록 X자 형태로 교차 배치될 수 있다. 이때, 제1 깊이 카메라와 제2 깊이 카메라는, 각 깊이 카메라의 수평 화각에 따라 커버되는 깊이 영상 영역 간에 중첩이 최소화되도록 교차 배치될 수 있다(도 3의 (b) 참조). 또한, 제1 깊이 카메라와 제2 깊이 카메라는, 각 깊이 카메라에 의한 깊이 영상에서의 수직 스캔 범위가 서로 일치되도록 수직 정렬된다.In an embodiment of the present invention, the first depth camera 110 and the second depth camera 120 may be arranged in an X-shape to have the same sensor center axis. At this time, the first depth camera and the second depth camera can be arranged so as to minimize the overlap between the depth image regions covered according to the horizontal angle of view of each depth camera (see FIG. 3B). In addition, the first depth camera and the second depth camera are vertically aligned so that the vertical scan ranges in the depth image by the depth cameras are matched with each other.

상술한 바와 같은 배치 형태를 갖게 되면, 먼저, 도 3의 (b)와 같이 두 대의 깊이 카메라가 위아래로 수직 정렬 배치되어 있기 때문에, 두 대의 깊이 카메라의 상하 틸트각(Tilt angle)을 조정하여 쉽게 수직 스캔 영역을 일치시킬 수 있는 상태에서 화각을 약 2배 확장하는 효과를 얻을 수 있다. 그리고 수평 시차(horizontal disparity)는 존재하지 않고, 센서와 근접한 위치에서도 사각지대가 발생하지 않는다. 또한 도3의 (a)처럼 겹치는 영역(131)이 발생하지 않으므로 수평 화각을 향상함과 동시에 간섭을 최소화할 수 있다. 그리고 이후 설명될 바이지만, 두 대의 깊이 카메라는 상호 간 수평 시차가 존재하지 않기 때문에, 두 대의 깊이 카메라에서 취득한 깊이 영상을 하나의 영상으로 통합하는 과정이 용이해지게 된다.3 (b), since the two depth cameras are vertically aligned up and down, the vertical tilt angle of the two depth cameras can be adjusted easily It is possible to obtain an effect of expanding the angle of view to about 2 times in a state in which the vertical scan region can be matched. There is no horizontal disparity, and no blind spot is generated even at a position close to the sensor. In addition, since the overlapping region 131 does not occur as shown in FIG. 3A, the horizontal angle of view can be improved and the interference can be minimized. As will be described later, since the two depth cameras have no horizontal parallax, it is easy to integrate the depth images acquired from the two depth cameras into one image.

도 1 내지 도 3에서 명확히 도시되지는 않았지만, 일 실시예에 의할 때, 제1 깊이 카메라(110) 및 제2 깊이 카메라(120)는, 전방위(全方位)의 기준 배경 또는 기준 물체에 관한 깊이 영상을 획득할 수 있도록, 제1 및 제2 깊이 카메라가 탑재되는 기판과의 관계에서 360도 상대 회전 가능하도록 설치될 수 있다. 예를 들어, 제1 및 제2 깊이 카메라와의 관계에서 기판이 전방위 회전되도록 구현되거나, 반대로 기판은 고정되되 제1 및 제2 깊이 카메라가 전방위 회전되도록 구현될 수도 있다.
1 to 3, according to one embodiment, the first depth camera 110 and the second depth camera 120 may be configured to have an omni-directional reference background, So that the first depth camera can be relatively rotated 360 degrees with respect to the substrate on which the first depth camera and the second depth camera are mounted. For example, the substrate may be configured to be rotated in all directions in relation to the first and second depth cameras, or vice versa, and the first and second depth cameras may be rotated in all directions.

도 4 및 도 5는 본 발명의 실시예에 따른 깊이 카메라 시스템에 의할 때의 듀얼 파노라마 깊이 맵을 생성하는 방법에 관한 순서도이다. 그리고 도 6은 본 발명의 실시예에 따른 깊이 카메라 시스템에 의한 듀얼 파노라마 깊이 맵 생성 과정을 설명하기 위한 개념도이고, 도 7은 본 발명의 실시예에 따른 깊이 카메라 시스템에 의해 생성된 각 깊이 영상과 듀얼 파노라마 깊이 맵 영상을 예시한 도면이다.4 and 5 are flowcharts illustrating a method for generating a dual panorama depth map in a depth camera system according to an embodiment of the present invention. 6 is a conceptual diagram illustrating a process of generating a dual panorama depth map by a depth camera system according to an embodiment of the present invention. 2 is a diagram illustrating a dual panorama depth map image.

이하, 도 4 내지 도 7을 참조하여, 본 발명의 실시예에 따른 깊이 카메라 시스템에서의 듀얼 파노라마 깊이 맵 생성 방법에 관하여 설명하기로 한다. 앞서 도 1 내지 도 3에 도시된 바와 같은 배치 형태를 갖는 상태에서, 제1 깊이 카메라 및 제2 깊이 카메라를 통해 각각 획득된 제1 깊이 영상(111)과 제2 깊이 영상(121)을 이용하여 듀얼 파노라마 깊이 맵 영상(도 6의 도면부호 141번 또는 도 7의 (c) 참조)을 생성하는 방법은 아래와 같다.Hereinafter, a method of generating a dual panorama depth map in a depth camera system according to an embodiment of the present invention will be described with reference to FIG. 4 to FIG. 1 to 3, using the first depth image 111 and the second depth image 121 obtained through the first depth camera and the second depth camera, respectively, A method of generating a dual panorama depth map image (refer to reference numeral 141 or FIG. 7 (c) in FIG. 6) is as follows.

먼저 두 대의 깊이 카메라를 통해서 각각 제1 깊이 영상 및 제2 깊이 영상을 획득한다[도 4의 S100 또는 도 5의 S100-1 및 S100-2 참조].First, a first depth image and a second depth image are obtained through two depth cameras, respectively (see S100 in FIG. 4 or S100-1 and S100-2 in FIG. 5).

상하 X자 형태로 배치된 두 대의 깊이 카메라를 통해 제1 및 제2 깊이 영상이 획득되면, 깊이 맵 영상 처리부(130)는, 두 개의 깊이 영상을 깊이 카메라의 센서 배치에 알맞게 기하학적 변환을 수행한다[도 4의 S110 참조]. 이를 보다 구체적으로 설명하면 다음과 같다.When the first depth image and the second depth image are obtained through the two depth cameras arranged in the upper and lower X-shape, the depth map image processing unit 130 performs the geometric transformation suitable for the sensor arrangement of the depth camera (See S110 in Fig. 4). This will be described in more detail as follows.

깊이 맵 영상 처리부(130)는, 먼저, 제1 깊이 카메라(110) 및 제2 깊이 카메라(120) 간의 중심 교차점을 절단하면서 정면을 바라보는 평면을 기준 평면으로 하여, 제1 깊이 영상(111) 및 제2 깊이 영상(121)의 깊이 값을 보정한다[도 5의 S112-1 및 S112-2 참조]. 이는 정면을 바라보는 평면을 기준으로 하여 깊이 값을 보정하여 향후 정면을 바라보는 방향에서의 파노라마 깊이 맵 영상을 생성하기 위한 사전 작업이다.The depth map image processing unit 130 first cuts the center intersection point between the first depth camera 110 and the second depth camera 120 and uses the plane that faces the front as a reference plane, And the depth value of the second depth image 121 (see S112-1 and S112-2 in Fig. 5). This is a preliminary work for generating a panoramic depth map image in the direction of looking forward in the future by correcting the depth value with reference to the front view plane.

이후, 깊이 맵 영상 처리부(130)는, 제1 깊이 카메라(110) 및 제2 깊이 카메라(120)의 각각의 뷰 포인트의 차이에 의해 발생하는 원근 왜곡(perspective distortion)을 바로잡는 사영 변환(perspective distortion)을 수행한다[도 5의 S114-1 및 S114-2 참조].Thereafter, the depth map image processing unit 130 performs a depth image processing operation to correct a perspective distortion caused by a difference between respective view points of the first depth camera 110 and the second depth camera 120 distortion (see S114-1 and S114-2 in Fig. 5).

상술한 바와 같은 기하학적 변환 처리가 완료되면, 깊이 맵 영상 처리부(130)는, 상기 사영 변환된 제1 깊이 영상 및 제2 깊이 영상을 이어 붙이는 슈퍼임포징을 수행함으로써, 듀얼 파노라마 깊이 맵을 생성한다[도 4 및 도 5의 S120 및 S130 참조]. 이에 따라 두 개의 깊이 영상을 하나의 영상으로 만듦으로써 화각이 향상된 듀얼 파노라마 거리 맵을 생성할 수 있다.Upon completion of the geometric transformation process as described above, the depth map image processing unit 130 generates a dual panorama depth map by superimposing the projection-transformed first depth image and the second depth image together (See S120 and S130 in Fig. 4 and Fig. 5). Accordingly, a dual panorama distance map having an improved angle of view can be generated by making two depth images into one image.

상술한 과정을 도 6 및 도 7의 예시를 들어 설명하면 아래와 같다.The above-described process will be described with reference to FIGS. 6 and 7 by way of example.

도 6은 본 발명에서 각각의 깊이 카메라로부터 얻어진 두 개의 깊이 영상을 깊이 맵 영상처리부(130)에서 처리하는 개념도이다. 도 6에서 평행한 두 개의 줄은 두 대의 깊이 카메라와 평행하게 놓여있는 물체 혹은 배경을 뜻한다. 이 실제 물제 또는 배경을 각각의 깊이 카메라가 스캔하여 두 개의 깊이 영상(111, 121)을 생성하게 되는데, 이 때, 실제로 평행한 빨간 줄이 도 6의 깊이 영상(111, 121)처럼 왜곡되어 표현이 된다. 이는 본 발명의 실시예에서 두 대의 깊이 카메라가 각각 좌우로 틀어져 있기 때문이며, 이는 초기치 설정할 때 기하학적 관계를 고려한 깊이 정보의 보정 및 사영 변환을 통해서 두 깊이 영상(111, 121)을 변형시켜 슈퍼임포징시킴으로써 도면부호 141과 같은 듀얼 파노라마 깊이 맵을 생성할 수 있다.FIG. 6 is a conceptual diagram for processing two depth images obtained from each depth camera in the depth map image processing unit 130 according to the present invention. In FIG. 6, the two parallel lines indicate an object or background that lies parallel to the two depth cameras. Each depth camera scans the actual object or the background to generate two depth images 111 and 121. At this time, the parallel red lines are distorted as shown in the depth images 111 and 121 of FIG. 6 . This is because, in the embodiment of the present invention, since the two depth cameras are respectively turned right and left, when the initial values are set, the two depth images 111 and 121 are transformed through correction and projection transformation of the depth information considering the geometric relation, A dual panorama depth map, such as 141, can be generated.

이에 관한 실제 예시 영상이 도 7에 도시되어 있다. 도 7의 (a)와 (b)는 각각의 깊이 카메라의 시점에서 촬영한 깊이 영상이다. 이들 각각의 깊이 영상에 대해 깊이 보정과 사영 변환을 통해 처리하여 두 영상을 서로 맞붙인 깊이 파노라마 영상이 도 7의 (c)에 제시되었다. 예시에서 보듯이 단일 깊이 카메라에 의해 4-5명의 사람을 스캔할 수 있었지만, 본 발명의 실시예에 의할 때 약 8명까지 스캔하여 화각이 확대되었음을 확인할 수 있다.
An actual example image of this is shown in Fig. 7 (a) and 7 (b) are depth images taken at the viewpoint of each depth camera. 7 (c) shows a depth panorama image in which the depth images are processed through depth correction and projection transformation and the two images are stitched together. As shown in the example, 4-5 persons can be scanned by a single depth camera. However, according to the embodiment of the present invention, it is confirmed that the angle of view is enlarged by scanning up to about eight persons.

상기와 같이, 본 발명의 실시예에 따른 복수의 깊이 카메라 배치에 의할 때, 복수의 깊이 카메라에서 얻어진 두 개의 깊이 영상을 이용하여 화각을 최대한으로 넓히면서 센서의 정방향에 위치한 모든 사물이 스캔 가능하며, 깊이 맵 영상처리부에서 깊이 카메라의 기하학적인 배치를 고려하여 사영 변환을 한 후 듀얼 파노라마 깊이 맵 생성을 가능케 한다. 각 깊이 카메라의 본래 화각보다 약 두 배 향상된 듀얼 파노라마 깊이 맵을 얻음으로써 실내에서 3D 재구성을 더 효과적으로 할 수 있으며, 이를 통하여 깊이 카메라를 이용한 실내에서의 물체 추적이나 사람 추출과 같은 여러 가지 어플리케이션에 적용할 수 있다.
As described above, when a plurality of depth cameras are arranged according to the embodiment of the present invention, all the objects located in the forward direction of the sensor can be scanned while maximizing the angle of view using two depth images obtained from the plurality of depth cameras , The depth map image processor can perform the projection transformation considering the geometric arrangement of the depth camera and then generate the dual panorama depth map. By acquiring dual panorama depth maps that are about twice as high as the original depth of field of each depth camera, 3D reconstruction in the room can be more effective, and it can be applied to various applications such as object tracking or human extraction using a depth camera can do.

이상에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 쉽게 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the following claims And changes may be made without departing from the spirit and scope of the invention.

Claims (8)

복수의 깊이 카메라를 이용하는 깊이 카메라 시스템으로서,
깊이 정보를 갖는 깊이 영상을 획득하는 제1 깊이 카메라;
깊이 정보를 갖는 깊이 영상을 획득하며, 상기 제1 깊이 카메라의 상부에서 상기 제1 깊이 카메라의 뷰 포인트(view point)가 지향하는 방향과는 다른 방향의 뷰 포인트를 갖도록 상기 제1 깊이 카메라에 대해 교차 배치되는 제2 깊이 카메라; 및
상기 제1 깊이 카메라에 의해 획득된 제1 깊이 영상과 상기 제2 깊이 카메라에 의해 획득된 제2 깊이 영상을 이용하여 파노라마 깊이 맵을 생성하는 깊이 맵 영상 처리부;를 포함하며,
상기 제1 깊이 카메라와 상기 제2 깊이 카메라는,
동일한 센서 중심축을 갖도록 X자 형태로 교차 배치되되, 각 깊이 카메라의 수평 화각에 따라 커버되는 깊이 영상 영역 간에 중첩이 최소화되며, 각 깊이 카메라에 의한 깊이 영상에서의 수직 스캔 범위가 서로 일치되도록 수직 정렬되어 배치되며,
상기 깊이 맵 영상 처리부는, 상기 제1 깊이 카메라 및 상기 제2 깊이 카메라 간의 중심 교차점을 절단하면서 정면을 바라보는 평면을 기준 평면으로 하여, 상기 제1 깊이 영상 및 상기 제2 깊이 영상의 깊이 값을 보정하는, 깊이 카메라 시스템.
A depth camera system using a plurality of depth cameras,
A first depth camera for acquiring a depth image having depth information;
Acquiring a depth image having depth information on the first depth camera and having a view point in a direction different from a direction in which the view point of the first depth camera is directed, A second depth camera that is disposed in an intersecting manner; And
And a depth map image processor for generating a panorama depth map using the first depth image obtained by the first depth camera and the second depth image acquired by the second depth camera,
Wherein the first depth camera and the second depth camera,
The overlapping is minimized between the depth image regions covered by the horizontal view angle of each depth camera and the vertical scan ranges in the depth image by each depth camera are mutually aligned so as to have the same sensor center axis, Respectively,
Wherein the depth map image processing unit divides the center depth between the first depth camera and the second depth camera by a plane that faces the front surface as a reference plane, Correction, depth camera system.
삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 깊이 맵 영상 처리부는, 상기 깊이 값 보정을 수행한 이후, 상기 제1 깊이 카메라 및 상기 제2 깊이 카메라의 각각의 뷰 포인트의 차이에 의해 발생하는 원근 왜곡(perspective distortion)을 바로잡는 사영 변환(projective transformation)을 수행하는, 깊이 카메라 시스템.
The method according to claim 1,
Wherein the depth map image processing unit is configured to perform a projection transformation process for correcting a perspective distortion caused by a difference between respective view points of the first depth camera and the second depth camera after performing the depth value correction projective transformation.
제6항에 있어서,
상기 깊이 맵 영상 처리부는, 상기 파노라마 깊이 맵의 생성을 위해, 상기 사영 변환된 제1 깊이 영상 및 제2 깊이 영상을 이어 붙이는 슈퍼임포징을 수행하는, 깊이 카메라 시스템.
The method according to claim 6,
Wherein the depth map image processing unit performs superimposing to connect the projection-converted first depth image and the second depth image to generate the panorama depth map.
제1항에 있어서,
상기 제1 깊이 카메라 및 상기 제2 깊이 카메라는, 전방위(全方位)의 기준 배경 또는 기준 물체에 관한 깊이 영상을 획득할 수 있도록, 상기 제1 및 제2 깊이 카메라가 탑재되는 기판과의 관계에서 360도 상대 회전 가능하도록 설치되는, 깊이 카메라 시스템.

The method according to claim 1,
Wherein the first depth camera and the second depth camera are arranged in a relationship with a substrate on which the first and second depth cameras are mounted so as to obtain depth images relating to an omnidirectional reference background or reference object Depth camera system installed to allow relative rotation of 360 degrees.

KR1020140120184A 2014-09-11 2014-09-11 Depth camera system of optimal arrangement to improve the field of view KR101609188B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140120184A KR101609188B1 (en) 2014-09-11 2014-09-11 Depth camera system of optimal arrangement to improve the field of view

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140120184A KR101609188B1 (en) 2014-09-11 2014-09-11 Depth camera system of optimal arrangement to improve the field of view

Publications (2)

Publication Number Publication Date
KR20160030694A KR20160030694A (en) 2016-03-21
KR101609188B1 true KR101609188B1 (en) 2016-04-05

Family

ID=55650872

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140120184A KR101609188B1 (en) 2014-09-11 2014-09-11 Depth camera system of optimal arrangement to improve the field of view

Country Status (1)

Country Link
KR (1) KR101609188B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10848746B2 (en) 2018-12-14 2020-11-24 Samsung Electronics Co., Ltd. Apparatus including multiple cameras and image processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101995344B1 (en) 2019-01-22 2019-07-02 김흥수 A dual depth camera module without blind spot

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007108744A (en) * 2005-10-07 2007-04-26 Sony Taiwan Ltd Imaging apparatus of multiple lens camera system for generating panoramic image
JP2007249967A (en) 2006-03-10 2007-09-27 Sony Taiwan Ltd Perspective correction panning method for wide-angle image
WO2014062663A1 (en) * 2012-10-15 2014-04-24 Intel Corporation System and method for combining data from multiple depth cameras

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007108744A (en) * 2005-10-07 2007-04-26 Sony Taiwan Ltd Imaging apparatus of multiple lens camera system for generating panoramic image
JP2007249967A (en) 2006-03-10 2007-09-27 Sony Taiwan Ltd Perspective correction panning method for wide-angle image
WO2014062663A1 (en) * 2012-10-15 2014-04-24 Intel Corporation System and method for combining data from multiple depth cameras

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10848746B2 (en) 2018-12-14 2020-11-24 Samsung Electronics Co., Ltd. Apparatus including multiple cameras and image processing method

Also Published As

Publication number Publication date
KR20160030694A (en) 2016-03-21

Similar Documents

Publication Publication Date Title
US10469828B2 (en) Three-dimensional dense structure from motion with stereo vision
US20200177866A1 (en) Calibration apparatus, chart for calibration, chart pattern generation apparatus, and calibration method
JP2019536170A (en) Virtually extended visual simultaneous localization and mapping system and method
US20150304617A1 (en) System for performing distortion correction and calibration using pattern projection, and method using the same
JP3349121B2 (en) Stereo camera mounting structure
JP2008102620A (en) Image processing device
TWI584051B (en) Three - dimensional environment system of vehicle and its method
Zhu Omnidirectional stereo vision
US8665304B2 (en) Establishing 3D video conference presentation on 2D display
JP2011182236A (en) Camera calibration apparatus
JP6699427B2 (en) Vehicle display device and vehicle display method
JP2010109452A (en) Vehicle surrounding monitoring device and vehicle surrounding monitoring method
US20170078570A1 (en) Image processing device, image processing method, and image processing program
US20160232705A1 (en) Method for 3D Scene Reconstruction with Cross-Constrained Line Matching
EP4057626A1 (en) Stereo camera apparatus having wide field of view, and depth image processing method using same
JP2006234703A (en) Image processing device, three-dimensional measuring device, and program for image processing device
TWI820246B (en) Apparatus with disparity estimation, method and computer program product of estimating disparity from a wide angle image
US10757345B2 (en) Image capture apparatus
KR101609188B1 (en) Depth camera system of optimal arrangement to improve the field of view
US10802390B2 (en) Spherical omnipolar imaging
EP2966478A1 (en) Symmetrical-type mono-sensor three-dimensional radiation detection and visualisation system and method thereof
Yamaguchi Three dimensional measurement using fisheye stereo vision
WO2015182771A1 (en) Image capturing device, image processing device, image processing method, and computer program
JP6202240B2 (en) Overhead image presentation device
JP2017117357A (en) Three-dimensional object detection device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20190401

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200228

Year of fee payment: 5