KR102310958B1 - Wide viewing angle stereo camera apparatus and depth image processing method using the same - Google Patents

Wide viewing angle stereo camera apparatus and depth image processing method using the same Download PDF

Info

Publication number
KR102310958B1
KR102310958B1 KR1020200104281A KR20200104281A KR102310958B1 KR 102310958 B1 KR102310958 B1 KR 102310958B1 KR 1020200104281 A KR1020200104281 A KR 1020200104281A KR 20200104281 A KR20200104281 A KR 20200104281A KR 102310958 B1 KR102310958 B1 KR 102310958B1
Authority
KR
South Korea
Prior art keywords
image
viewing angle
lens
depth
vertical
Prior art date
Application number
KR1020200104281A
Other languages
Korean (ko)
Inventor
박기영
Original Assignee
(주)아고스비전
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)아고스비전 filed Critical (주)아고스비전
Priority to KR1020200104281A priority Critical patent/KR102310958B1/en
Priority to EP21858491.0A priority patent/EP4057626A4/en
Priority to PCT/KR2021/009844 priority patent/WO2022039404A1/en
Priority to CN202180007726.6A priority patent/CN115191113A/en
Priority to JP2022528968A priority patent/JP7372708B2/en
Priority to US17/405,615 priority patent/US11729367B2/en
Application granted granted Critical
Publication of KR102310958B1 publication Critical patent/KR102310958B1/en
Priority to US18/343,900 priority patent/US20230344979A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • H04N5/2254

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

Disclosed are a stereo camera device having a wide viewing angle and a depth image processing method using the same. According to one embodiment of the present invention, the stereo camera device includes: a reception unit receiving a first image and a second image of a subject photographed through first and second lenses arranged in a vertical direction; a conversion unit converting the received first and second images into a map projection method; and a processing unit extracting the depth of the subject by performing stereo matching on the first image and the second image converted by the map projection method in the vertical direction.

Description

광시야각의 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법 {WIDE VIEWING ANGLE STEREO CAMERA APPARATUS AND DEPTH IMAGE PROCESSING METHOD USING THE SAME}Wide viewing angle stereo camera device and depth image processing method using the same {WIDE VIEWING ANGLE STEREO CAMERA APPARATUS AND DEPTH IMAGE PROCESSING METHOD USING THE SAME}

본 발명은 광시야각의 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법에 관한 것으로, 보다 구체적으로는 두 개의 렌즈 예를 들어, 어안렌즈를 수직 방향으로 배치시켜 수평 시야각과 수직 시야각을 향상시킴으로써, 광시야각을 가지는 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법에 관한 것이다.The present invention relates to a stereo camera device having a wide viewing angle and a depth image processing method using the same, and more particularly, by arranging two lenses, for example, a fisheye lens in a vertical direction, to improve a horizontal viewing angle and a vertical viewing angle, thereby providing a wide viewing angle. To a stereo camera device having a and a depth image processing method using the same.

사람-컴퓨터 인터페이스(Human-Computer Interface)의 구현을 위하여 컬러 영상과 3D 정보인 깊이 맵을 함께 출력하는 RGB-D 카메라에 대한 연구가 많이 이루어지고 있다. 마이크로소프트사가 자사의 게임을 위해 보급하였던 RGB-D 카메라인 Kinect 센서는 복수의 사람의 몸동작 인식 기능을 제공하여 본연의 목적이었던 게임뿐만 아니라 다양한 사람-컴퓨터 인터페이스를 위한 목적으로 사용되었으며, 이후 다양한 RGB-D 카메라 제품이 출시되어 3D 콘텐츠 제작, 자율주행, 로봇 등으로 그 활용 범위를 넓혀 가고 있다.In order to implement a human-computer interface, a lot of research has been done on an RGB-D camera that outputs a color image and a depth map that is 3D information together. The Kinect sensor, an RGB-D camera that Microsoft supplied for its games, provided a function to recognize multiple human gestures and was used for various human-computer interfaces as well as games, which was its original purpose. -D camera products have been released and are expanding the scope of use to 3D content production, autonomous driving, and robots.

RGB-D 카메라는 깊이 정보를 얻는 방식에 따라 스테레오 카메라와 TOF (Time of Flight) 카메라로 구분할 수 있다. 일반적인 스테레오 카메라는 기준선(Baseline)만큼 떨어뜨려 설치된 두 대의 카메라로 구성되며 카메라들 사이의 시점 불일치를 이용하여 깊이 정보를 얻는다. 깊이 정보를 얻기 위해서는 양쪽 카메라의 영상을 비교하는 스테레오 매칭 과정을 거쳐야 하며, 스테레오 매칭 과정의 속도와 정확도를 높이기 위해 패턴광이나 구조광을 사용하기도 한다. TOF 카메라는 2D 영상을 출력하는 일반적인 카메라와 깊이 정보를 제공하는 TOF 센서를 결합한 형태의 카메라이다. TOF 센서는 측정 대상에 레이저 등을 조사한 후 돌아오는 시간을 측정하여 대상물까지의 거리를 측정하는 센서로 일반적으로 스테레오 방식보다 정밀한 거리 정보를 제공하지만, 상대적으로 낮은 공간 해상도(Spatial Resolution)를 제공하며 측정 거리와 사용 환경에도 제약이 존재한다.The RGB-D camera can be divided into a stereo camera and a Time of Flight (TOF) camera according to a method of obtaining depth information. A typical stereo camera consists of two cameras installed as far apart as the baseline, and the depth information is obtained by using the mismatch of viewpoints between the cameras. In order to obtain depth information, it is necessary to go through a stereo matching process that compares images from both cameras, and pattern light or structured light is sometimes used to increase the speed and accuracy of the stereo matching process. A TOF camera is a combination of a general camera that outputs 2D images and a TOF sensor that provides depth information. The TOF sensor measures the distance to the object by measuring the return time after irradiating a laser, etc. There are also restrictions on the measurement distance and the usage environment.

일반적인 카메라들은 직선 투영(Rectilinear Projection)을 위해 설계된 렌즈를 사용한다. 직선 투영에서는 실제 세계에서의 직선이 영상에서도 직선으로 나타나므로 사람이 인지하는 것과 유사한 영상을 얻을 수 있으나, 카메라의 시야각이 넓어질수록 영상 주변에 있는 물체들이 중앙부의 물체들보다 상대적으로 크게 표현되는 문제가 있다. 보통 수평 120도 정도의 시야각까지는 직선 투영 렌즈를 이용하고 그 이상의 시야각이 필요한 경우에는 어안 렌즈(Fisheye Lens)를 사용한다. 어안 렌즈는 실제 세계를 영상에 윈통형 왜곡(Barrel Distortion)이 있는 것처럼 투영하여 180도 이상의 시야각도 영상에 담을 수 있다.Common cameras use lenses designed for rectilinear projection. In linear projection, a straight line in the real world appears as a straight line in the image, so an image similar to that perceived by humans can be obtained. there is a problem. Usually, a straight projection lens is used up to a horizontal viewing angle of about 120 degrees, and a fisheye lens is used when a viewing angle greater than that is required. The fisheye lens projects the real world as if there is Barrel Distortion on the image, and it can be captured in the image with a viewing angle of more than 180 degrees.

RGB-D 카메라의 사용환경이 로봇, 드론, 자율주행차량과 같은 이동체로 확장되면서 넓은 시야각에 대한 요구가 증가하고 있지만, 대부분의 RGB-D 카메라는 직선 투영 렌즈를 이용하므로 수평 120도 이상의 시야각을 제공할 수 없었다. 일부 스테레오 카메라는 어안렌즈를 사용하여 보다 넓은 시야각을 제공하기는 하지만, 어안렌즈 영상에서는 직선투영 영상에서와 같은 1D 탐색을 통한 효율적인 스테레오 매칭이 어렵다는 단점이 있다. 또한, 어안렌즈를 사용하더라도 스테레오 카메라의 기준선(Baseline)과 같은 방향에서 거리 정보를 얻을 수 없으므로 수평 화각은 180도 이내로 제한된다.As the use environment of RGB-D cameras is expanded to moving objects such as robots, drones, and autonomous vehicles, the demand for a wide viewing angle is increasing. could not provide Although some stereo cameras use a fisheye lens to provide a wider viewing angle, there is a disadvantage in that efficient stereo matching through 1D search like in a linear projection image is difficult in a fisheye lens image. Also, even if a fisheye lens is used, distance information cannot be obtained from the same direction as the baseline of the stereo camera, so the horizontal angle of view is limited to within 180 degrees.

본 발명의 실시예들은, 두 개의 렌즈 예를 들어, 어안렌즈를 수직 방향으로 배치시켜 수평 시야각과 수직 시야각을 사람의 시야각인 수평 200도, 수직 130도 이상으로 향상시킨 광시야각을 가지는 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법을 제공한다.Embodiments of the present invention provide a stereo camera device having a wide viewing angle in which two lenses, for example, a fisheye lens, are disposed in a vertical direction to improve a horizontal viewing angle and a vertical viewing angle to 200 degrees horizontally and 130 degrees vertically or more, which are human viewing angles. and a depth image processing method using the same.

본 발명의 일 실시예에 따른 스테레오 카메라 장치는 수직 방향으로 배치된 제1 렌즈와 제2 렌즈를 통해 촬영되는 피사체의 제1 영상과 제2 영상을 수신하는 수신부; 상기 수신된 제1 영상과 제2 영상을 지도 투영법으로 변환하는 변환부; 및 상기 지도 투영법으로 변환된 제1 영상과 제2 영상을 세로 방향으로 스테레오 매칭을 수행함으로써, 상기 피사체의 깊이를 추출하는 처리부를 포함한다.A stereo camera apparatus according to an embodiment of the present invention includes: a receiver configured to receive a first image and a second image of a subject photographed through a first lens and a second lens arranged in a vertical direction; a conversion unit converting the received first and second images into a map projection method; and a processing unit extracting the depth of the subject by performing stereo matching on the first image and the second image converted by the map projection method in the vertical direction.

상기 변환부는 상기 제1 영상과 제2 영상을 등장방형도법(Equirectangular Projection)으로 변환할 수 있다.The converter may convert the first image and the second image into an equirectangular projection.

상기 변환부는 구면 좌표계를 이용하여 등극선(Epipolar line)을 구면의 경도선과 일치시키는 회전 변환을 수행할 수 있다.The transform unit may perform rotational transformation to match an epipolar line with a spherical longitude line using a spherical coordinate system.

상기 처리부는 상기 지도 투영법으로 변환된 제1 영상과 제2 영상을 경도선에 대응하는 수직선을 따라 검색함으로써, 스테레오 매칭을 수행할 수 있다.The processor may perform stereo matching by searching for the first image and the second image converted by the map projection method along a vertical line corresponding to the longitude line.

상기 제1 렌즈와 상기 제2 렌즈는 어안 렌즈를 포함할 수 있다.The first lens and the second lens may include a fisheye lens.

상기 제1 렌즈와 상기 제2 렌즈는 수평 시야각이 180도 이상인 어안 렌즈일 수 있다.The first lens and the second lens may be fisheye lenses having a horizontal viewing angle of 180 degrees or more.

상기 처리부는 상기 추출된 피사체의 깊이를 이용하여 180도 이상의 수평 시야각과 180도 이상의 수직 시야각의 광시야각을 가지는 상기 피사체에 대한 깊이 영상을 획득할 수 있다. The processing unit may obtain a depth image of the subject having a wide viewing angle of a horizontal viewing angle of 180 degrees or more and a vertical viewing angle of 180 degrees or more by using the extracted depth of the object.

상기 수신부는 상기 제1 영상을 촬영하기 위한 이미지 센서와 상기 제2 영상을 촬영하기 위한 이미지 센서를 포함하고, 상기 제1 영상과 상기 제2 영상 각각을 촬영하기 위한 이미지 센서 각각은 가로 길이가 세로 길이보다 긴 직사각형 형태인 경우 수직 시야각보다 넓은 수평 시야각을 얻도록 가로 방향으로 배치될 수 있다.The receiver includes an image sensor for photographing the first image and an image sensor for photographing the second image, and each of the image sensors for photographing the first image and the second image has a horizontal length and a vertical length. In the case of a rectangular shape longer than the length, it may be arranged in a horizontal direction to obtain a horizontal viewing angle wider than a vertical viewing angle.

본 발명의 일 실시예에 따른 깊이 영상 처리 방법은 스테레오 카메라 장치의 영상 처리 방법에 있어서, 수직 방향으로 배치된 제1 렌즈와 제2 렌즈를 통해 촬영되는 피사체의 제1 영상과 제2 영상을 수신하는 단계; 상기 수신된 제1 영상과 제2 영상을 지도 투영법으로 변환하는 단계; 및 상기 지도 투영법으로 변환된 제1 영상과 제2 영상을 세로 방향으로 스테레오 매칭을 수행함으로써, 상기 피사체의 깊이를 추출하는 단계를 포함한다.In the depth image processing method according to an embodiment of the present invention, in the image processing method of a stereo camera device, a first image and a second image of a subject photographed through a first lens and a second lens arranged in a vertical direction are received. to do; converting the received first and second images into a map projection method; and extracting the depth of the subject by performing stereo matching on the first image and the second image converted by the map projection method in the vertical direction.

상기 변환하는 단계는 상기 제1 영상과 제2 영상을 등장방형도법(Equirectangular Projection)으로 변환할 수 있다.The converting may include converting the first image and the second image into an equirectangular projection.

상기 변환하는 단계는 구면 좌표계를 이용하여 등극선(Epipolar line)을 구면의 경도선과 일치시키는 회전 변환을 수행할 수 있다.In the transforming step, rotational transformation in which an epipolar line coincides with a spherical longitude line may be performed using a spherical coordinate system.

상기 추출하는 단계는 상기 지도 투영법으로 변환된 제1 영상과 제2 영상을 경도선에 대응하는 수직선을 따라 검색함으로써, 스테레오 매칭을 수행할 수 있다.In the extracting, stereo matching may be performed by searching for the first image and the second image converted by the map projection method along a vertical line corresponding to the longitude line.

상기 제1 렌즈와 상기 제2 렌즈는 어안 렌즈를 포함할 수 있다.The first lens and the second lens may include a fisheye lens.

상기 제1 렌즈와 상기 제2 렌즈는 수평 시야각이 180도 이상인 어안 렌즈일 수 있다.The first lens and the second lens may be fisheye lenses having a horizontal viewing angle of 180 degrees or more.

나아가, 본 발명의 일 실시예에 따른 영상 처리 방법은 상기 추출된 피사체의 깊이를 이용하여 180도 이상의 수평 시야각과 180도 이상의 수직 시야각의 광시야각을 가지는 상기 피사체에 대한 깊이 영상을 획득하는 단계를 더 포함할 수 있다.Furthermore, the image processing method according to an embodiment of the present invention includes the steps of acquiring a depth image of the subject having a wide viewing angle of 180 degrees or more and a vertical viewing angle of 180 degrees or more by using the extracted depth of the subject. may include more.

상기 수신하는 단계는 상기 제1 영상을 촬영하기 위한 이미지 센서와 상기 제2 영상을 촬영하기 위한 이미지 센서를 이용하여 수직 시야각보다 넓은 수평 시야각을 가지는 상기 제1 영상과 상기 제2 영상을 수신하고, 상기 제1 영상과 상기 제2 영상 각각을 촬영하기 위한 이미지 센서 각각은The receiving includes receiving the first image and the second image having a horizontal viewing angle wider than a vertical viewing angle using an image sensor for photographing the first image and an image sensor for photographing the second image, Each of the image sensors for photographing each of the first image and the second image is

가로 길이가 세로 길이보다 긴 직사각형 형태를 가질 수 있다.It may have a rectangular shape in which the horizontal length is longer than the vertical length.

본 발명의 실시예들에 따르면, 두 개의 렌즈 예를 들어, 어안렌즈를 수직 방향으로 배치시켜 수평 시야각과 수직 시야각을 향상시킴으로써, 광시야각을 가질 수 있다.According to embodiments of the present invention, by arranging two lenses, for example, a fisheye lens in a vertical direction, to improve a horizontal viewing angle and a vertical viewing angle, a wide viewing angle may be obtained.

본 발명의 실시예들에 따르면, 수평 시야각과 수직 시야각을 향상시켜 광시야각을 가짐으로써, 사람의 시야각보다 넓은 RGB-D(depth) 카메라를 구현하고, 이를 통해 근접 객체 검출이 용이할 수 있다.According to embodiments of the present invention, an RGB-D (depth) camera wider than a human's viewing angle is implemented by improving the horizontal and vertical viewing angles to have a wide viewing angle, and through this, it is possible to easily detect a nearby object.

본 발명은 사람보다 넓은 시야각을 제공하여 RGB-D 카메라를 로봇, 차량, 드론과 같은 이동체에 장착하여 사용할 수 있으며, 1m 이내로 근접한 사람의 전신 검출이 가능하여 추종 로봇(Human Following Robot)에 부착하는 경우 추종 대상이 근접해 있어도 전신을 검출할 수 있고, 추종 대상이 이동 방향을 바꾸는 경우에도 시야에서 벗어나지 않으므로 안정적인 추종이 가능해진다. 따라서, 본 발명은 사람-컴퓨터 인터페이스에서 뿐만 아니라 사람-로봇 인터페이스와 각종 이동체에서 활용될 수 있다.The present invention provides a wider viewing angle than a person, so that the RGB-D camera can be mounted on a moving object such as a robot, vehicle, or drone, and it is possible to detect a person who is close within 1 m, so it is attached to a Human Following Robot. In this case, the whole body can be detected even when the following target is close, and stable tracking is possible because the tracking target does not deviate from the field of view even when the moving direction is changed. Accordingly, the present invention can be utilized not only in the human-computer interface, but also in the human-robot interface and various moving objects.

도 1은 본 발명의 일 실시예에 따른 스테레오 카메라 장치에 대한 구성을 나타낸 것이다.
도 2는 본 발명의 스테레오 카메라 장치에서 어안 렌즈의 배치와 수직 시야각보다 넓은 수평 시야각을 얻기 위한 각각의 이미지 센서들 가로 방향 배치와 시야각을 설명하기 위한 일 예시도를 나타낸 것이다.
도 3은 본 발명의 스테레오 카메라 장치에서 등극선 기하를 설명하기 위한 일 예시도를 나타낸 것이다.
도 4는 깊이를 추출하는 방법을 설명하기 위한 일 예시도를 나타낸 것이다.
도 5는 어안 렌즈 영상에 대한 등장방형도법으로의 변환을 설명하기 위한 일 예시도를 나타낸 것이다.
도 6은 같은 크기의 디스패리티에 대한 깊이에 대한 일 예시도를 나타낸 것이다.
도 7은 본 발명의 스테레오 카메라 장치의 시야각을 설명하기 위한 일 예시도를 나타낸 것이다.
도 8은 본 발명의 일 실시예에 따른 스테레오 카메라 장치의 영상 처리 방법에 대한 동작 흐름도를 나타낸 것이다.
1 shows the configuration of a stereo camera device according to an embodiment of the present invention.
2 is a view illustrating an example for explaining the horizontal arrangement and viewing angle of each image sensor to obtain a horizontal viewing angle wider than the placement of the fisheye lens and the vertical viewing angle in the stereo camera device of the present invention.
3 is a view showing an exemplary diagram for explaining the geometry of the isopolar line in the stereo camera device of the present invention.
4 is a diagram illustrating an example for explaining a method of extracting depth.
5 shows an exemplary diagram for explaining the conversion of a fisheye lens image to an equirectangular projection method.
6 is a diagram illustrating an example of a depth for a disparity of the same size.
7 is a view showing an exemplary view for explaining the viewing angle of the stereo camera device of the present invention.
8 is a flowchart illustrating an image processing method of a stereo camera apparatus according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing the embodiments, and is not intended to limit the present invention. As used herein, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and/or "comprising" refers to the presence of one or more other components, steps, operations and/or elements mentioned. or addition is not excluded.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명하고자 한다. 도면 상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. The same reference numerals are used for the same components in the drawings, and repeated descriptions of the same components are omitted.

본 발명의 실시예들은, 두 개의 렌즈 예를 들어, 어안렌즈를 수직 방향으로 배치시켜 수평 시야각과 수직 시야각을 향상시킴으로써, 광시야각을 가질 수 있는 스테레오 카메라 장치를 제공하는 것을 그 요지로 한다.SUMMARY Embodiments of the present invention provide a stereo camera device capable of having a wide viewing angle by improving a horizontal viewing angle and a vertical viewing angle by arranging two lenses, for example, a fisheye lens in a vertical direction.

이 때, 본 발명은 두 개의 어안 렌즈들 각각을 통해 촬영되는 어안 영상들을 지도 투영법 예를 들어, 등장방형도법(Equirectangular Projection)으로 변환한 후 등장방형도법으로 변환된 어안 영상들을 세로 방향 또는 수직 방향으로 스테레오 매칭을 수행함으로써, 어안 영상들에 의해 촬영된 피사체에 대한 깊이를 추출하고, 이렇게 추출된 깊이를 이용하여 광시야각의 영상을 획득할 수 있다.In this case, the present invention converts fisheye images photographed through each of the two fisheye lenses into a map projection method, for example, an equirectangular projection, and then converts the fisheye images converted to an equirectangular projection in a vertical or vertical direction. By performing stereo matching with , it is possible to extract the depth of the subject photographed by the fisheye images, and obtain an image of a wide viewing angle using the extracted depth.

본 발명의 스트레오 카메라 장치는 두 개의 어안 렌즈 또는 어안 렌즈 카메라가 같은 방향을 바라보도록 수직으로 배치되기 때문에 구면 좌표계를 이용하면 등극선(Epipolar line)이 구면의 경도선(자오선)과 일치하게 되고, 어안 렌즈 영상을 등장방형도법으로 변환하면 경도선이 영상에서 수직선으로 표현되므로 수직선을 따라 검색함으로써, 효율적인 스테레오 매칭을 수행할 수 있다.In the stereo camera device of the present invention, since two fisheye lenses or fisheye lens cameras are vertically arranged to face the same direction, if a spherical coordinate system is used, the epipolar line coincides with the spherical longitude line (meridian), and the fisheye When the lens image is converted into an equirectangular projection method, the longitude line is expressed as a vertical line in the image, so efficient stereo matching can be performed by searching along the vertical line.

본 발명의 스테레오 카메라 장치는 위쪽의 어안 렌즈와 아래쪽의 어안 렌즈를 통해 촬영되는 영상들에 대하여 등장방형도법으로 변환된 영상들 간의 각 디스패리티(angular disparity)로부터 피사체에 대한 깊이를 추출 또는 산출할 수 있다.The stereo camera apparatus of the present invention extracts or calculates the depth of the subject from the angular disparity between the images converted to the equirectangular projection with respect to the images taken through the upper fisheye lens and the lower fisheye lens. can

이러한 본 발명에 대하여 도 1 내지 도 8을 참조하여 설명하면 다음과 같다.The present invention will be described with reference to FIGS. 1 to 8 as follows.

도 1은 본 발명의 일 실시예에 따른 스테레오 카메라 장치에 대한 구성을 나타낸 것으로, 스테레오 카메라 장치 또는 시스템에 대한 개념적인 구성을 나타낸 것이다.1 shows a configuration of a stereo camera device according to an embodiment of the present invention, and shows a conceptual configuration of a stereo camera device or system.

도 1을 참조하면, 본 발명의 실시이에 따른 스테레오 카메라 장치(100)는 수신부(110), 변환부(120) 및 처리부(130)를 포함한다.Referring to FIG. 1 , a stereo camera apparatus 100 according to an embodiment of the present invention includes a receiver 110 , a converter 120 , and a processor 130 .

수신부(110)는 수직 방향으로 배치되는 제1 렌즈 예를 들어, 제1 어안 렌즈(또는 제1 어안 렌즈 카메라)와 제2 렌즈 예를 들어, 제2 어안 렌즈(또는 제2 어안 렌즈 카메라)를 통해 촬영되는 피사체의 제1 영상(또는 제1 어안 영상)과 제2 영상(또는 제2 어안 영상)을 수신한다.The receiver 110 receives a first lens disposed in a vertical direction, for example, a first fisheye lens (or a first fisheye lens camera) and a second lens, for example, a second fisheye lens (or a second fisheye lens camera). A first image (or a first fisheye image) and a second image (or a second fisheye image) of the subject to be photographed are received.

예를 들어, 수신부(110)는 도 2에 도시된 바와 같이 수직 방향으로 배치되는 제1 어안 렌즈와 제2 어안 렌즈를 통해 촬영되는 피사체의 제1 어안 영상과 제2 어안 영상을 수신한다. 여기서, 제1 어안 렌즈와 제2 어안 렌즈는 같은 방향을 바라보도록 수직 방향으로 배치되며, 200도 이상의 수평 시야각과 180도 이상의 수직 시야각을 가질 수 있다. 물론, 어안 렌즈 각각은 200도 이상의 수평 시야각과 180도 이상의 수직 시야각으로 제한되거나 한정되지 않으며, 수평 시야각과 수직 시야각을 사용되는 어안 렌즈에 따라 달라질 수 있다.For example, the receiver 110 receives the first fisheye image and the second fisheye image of the subject photographed through the first fisheye lens and the second fisheye lens arranged in the vertical direction as shown in FIG. 2 . Here, the first fisheye lens and the second fisheye lens are vertically disposed to face the same direction, and may have a horizontal viewing angle of 200 degrees or more and a vertical viewing angle of 180 degrees or more. Of course, each of the fisheye lenses is not limited or limited to a horizontal viewing angle of 200 degrees or more and a vertical viewing angle of 180 degrees or more, and the horizontal and vertical viewing angles may vary depending on the fisheye lens used.

나아가, 수신부(110)는 제1 영상을 촬영하기 위한 제1 카메라의 제1 이미지 센서와 제2 영상을 촬영하기 위한 제2 카메라의 제2 이미지 센서가 가로 길이가 세로 길이보다 긴 직사각형 형태인 세로 시야각(또는 수직 시야각)보다 넓은 가로 시야각(또는 수평 시야각)을 얻도록 각각의 이미지 센서는 가로 방향으로 배치될 수 있다. Furthermore, the receiving unit 110 may include a first image sensor of a first camera for capturing a first image and a second image sensor of a second camera for capturing a second image in a rectangular shape in which a horizontal length is longer than a vertical length. Each image sensor may be arranged in a horizontal direction to obtain a horizontal viewing angle (or horizontal viewing angle) that is wider than the viewing angle (or vertical viewing angle).

변환부(120)는 수신부(110)를 통해 수신되는 제1 어안 영상과 제2 어안 영상을 지도 투영법으로 변환한다.The converter 120 converts the first fisheye image and the second fisheye image received through the receiver 110 into a map projection method.

이 때, 변환부(120)는 제1 어안 영상과 제2 어안 영상을 등장방형도법(Equirectangular Projection)으로 변환할 수 있다.In this case, the converter 120 may convert the first fisheye image and the second fisheye image into an equirectangular projection.

여기서, 등장방형도법은 지도 투영법의 하나로, 위도선과 경도선이 각각 수평선과 수직선으로 표현될 수 있다. 예를 들어, 도 3에 도시된 바와 같이, 변환부는 220도의 어안 영상을 등장방형도법으로 변환함으로써, 이퀴렉탱귤러 영상(equirectangular image)으로 변환할 수 있다. 이러한 등장방형도법은 360도 카메라 등에서 기존 직선 투영(Rectilinear Projection) 영상에 담을 수는 없는 넓은 시야각을 담기 위해 사용할 수 있다. 그리고, 180도 이상 시야각의 어안 렌즈 영상을 등장방형도법을 통해 변환하면, 영상의 위 아래 부분이 크게 좌우로 크게 늘어나는 왜곡이 발생할 수 있다.Here, the equirectangular projection method is one of the map projection methods, and the latitude and longitude lines may be expressed as horizontal and vertical lines, respectively. For example, as shown in FIG. 3 , the conversion unit may convert a 220 degree fisheye image into an equirectangular image by converting it into an equirectangular image. This equirectangular projection method can be used to capture a wide viewing angle that cannot be included in a conventional Rectilinear Projection image, such as a 360-degree camera. In addition, when a fisheye lens image having a viewing angle of 180 degrees or more is converted through an equirectangular projection method, distortion may occur in which the upper and lower portions of the image are greatly stretched to the left and right.

나아가, 변환부(120)는 제1 어안 영상과 제2 어안 영상을 등장방형도법으로 변환하기 전에 제1 어안 영상과 제2 어안 영상을 회전시켜 자오선의 방향을 일치시키기 위한 영상 정렬(image rectification)을 수행할 수도 있다. 영상 정렬을 하게 되면, 두 영상 간의 비교가 1차원 탐색으로 단순화 되어 스테레오 매칭의 속도를 높일 수 있다.Furthermore, the converting unit 120 rotates the first fisheye image and the second fisheye image before converting the first fisheye image and the second fisheye image into an equirectangular projection to match the direction of the meridian (image rectification) can also be performed. When the images are aligned, the comparison between the two images is simplified to a one-dimensional search, and the speed of stereo matching can be increased.

처리부(130)는 변환부(120)에 의해 등장방형도법으로 변환된 어안 영상들 즉, 제1 이퀴렉탱귤러 영상과 제2 이퀴렉탱귤러 영상을 세로 방향 또는 수직 방향으로 스테레오 매칭을 수행함으로써, 제1 어안 렌즈와 제2 어안 렌즈를 통해 촬영되는 피사체의 깊이 또는 깊이 맵을 추출한다.The processing unit 130 performs stereo matching on the fisheye images converted to the equirectangular projection by the transformation unit 120 , that is, the first equirectangular image and the second equirectangular image in the vertical or vertical direction. , extracts the depth or depth map of the subject photographed through the first fisheye lens and the second fisheye lens.

이 때, 처리부(130)는 도 4에 도시된 바와 같이, 두 개의 어안 렌즈 또는 어안 렌즈 카메라가 같은 방향을 바라보도록 수직으로 배치되기 때문에 구면 좌표계를 이용하면 등극선(Epipolar line)이 구면의 경도선(자오선)과 일치하게 되고, 어안 렌즈 영상을 등장방형도법으로 변환하면 경도선이 영상에서 수직선으로 표현되므로 수직선을 따라 검색함으로써, 효율적인 스테레오 매칭을 수행할 수 있다.At this time, as shown in FIG. 4 , since the processing unit 130 is vertically disposed so that two fisheye lenses or fisheye lens cameras face the same direction, when using a spherical coordinate system, an epipolar line is a spherical longitude line. (meridian), and converting the fisheye lens image into an equirectangular projection, the longitude line is expressed as a vertical line in the image, so efficient stereo matching can be performed by searching along the vertical line.

그리고, 처리부(130)는 도 5에 도시된 바와 같이, 위쪽의 어안 렌즈와 아래쪽의 어안 렌즈를 통해 촬영되는 영상들에 대하여 등장방형도법으로 변환된 영상들 간의 각 디스패리티(angular disparity) 즉,

Figure 112020087285365-pat00001
1-
Figure 112020087285365-pat00002
0로부터 피사체에 대한 깊이(d)를 추출 또는 산출할 수 있으며, 깊이는 아래 <수학식 1>에 의해 추출 또는 산출될 수 있다.Then, as shown in FIG. 5 , the processing unit 130 determines the angular disparity between the images converted to the equirectangular projection with respect to the images photographed through the upper fisheye lens and the lower fisheye lens, that is,
Figure 112020087285365-pat00001
1 -
Figure 112020087285365-pat00002
The depth d for the subject may be extracted or calculated from 0, and the depth may be extracted or calculated by the following <Equation 1>.

[수학식 1][Equation 1]

Figure 112020087285365-pat00003
Figure 112020087285365-pat00003

여기에서 각 디스패리티가 같더라도 깊이가

Figure 112020087285365-pat00004
1에 따라 달라지는 것을 알 수 있다. 또한, Baseline B와 같은 방향인 위쪽과 아래쪽 예를 들어,
Figure 112020087285365-pat00005
1이 -90도 또는 90도에서는 깊이가 구해지지 않는 것을 확인할 수 있다.Here, even if each disparity is the same, the depth is
Figure 112020087285365-pat00004
It can be seen that 1 depends on Also, upward and downward in the same direction as Baseline B. For example,
Figure 112020087285365-pat00005
1 It can be seen that the depth is not obtained at -90 degrees or 90 degrees.

이 때, 카메라가 바라보는 방향을 Z축, 베이스라인(Baseline)의 방향을 Y축으로 했을 때 같은 크기의 각 디스패리티에 대한 깊이는 도 6에 도시된 바와 같이 달라질 수 있다.At this time, when the direction in which the camera looks is the Z-axis and the direction of the baseline is the Y-axis, the depth of each disparity having the same size may be different as shown in FIG. 6 .

제한적인 시야각의 기존 스테레오에서는 깊이(또는 거리)와 디스패리티의 크기가 반비례 관계에 있다고 근사하여 계산하였었으나, 넓은 시야각을 사용할 때는 상기 수학식 1에서와 같이 깊이와 각 디스패리티는 복잡한 관계를 가지므로 이를 고려해야 한다.In the conventional stereo with a limited viewing angle, the depth (or distance) and the size of the disparity were calculated by approximating that they are in inverse proportion to each other. Therefore, this must be taken into account.

나아가, 처리부(130)는 추출된 피사체의 깊이를 이용하여 180도 이상의 수평 시야각과 180도 이상의 수직 시야각의 광시야각을 가지는 피사체에 대한 영상을 획득할 수 있다.Furthermore, the processor 130 may acquire an image of the subject having a horizontal viewing angle of 180 degrees or more and a wide viewing angle of 180 degrees or more by using the extracted depth of the object.

이와 같이, 본 발명의 실시예에 따른 스테레오 카메라 장치는 두 개의 렌즈 예를 들어, 어안렌즈를 수직 방향으로 배치시켜 수평 시야각과 수직 시야각을 향상시킴으로써, 광시야각을 가질 수 있다. 예를 들어, 본 발명에서 수직 시야각은 최대 180도, 수평 시야각은 180도보다 훨씬 큰 광시야각 RGB-D 카메라 장치를 구현할 수 있다. 여기서, 280도 어안렌즈 사용시 수평 시야각 280도와 수직 시야각 180도 시야각도 가능하다.As described above, the stereo camera apparatus according to an embodiment of the present invention may have a wide viewing angle by arranging two lenses, for example, a fisheye lens, in a vertical direction to improve a horizontal viewing angle and a vertical viewing angle. For example, in the present invention, a wide viewing angle RGB-D camera device with a vertical viewing angle of up to 180 degrees and a horizontal viewing angle of much greater than 180 degrees can be implemented. Here, when a 280 degree fisheye lens is used, a horizontal viewing angle of 280 degrees and a vertical viewing angle of 180 degrees are possible.

또한, 본 발명의 실시예에 따른 스테레오 카메라 장치는 본 발명의 실시예들에 따르면, 수평 시야각과 수직 시야각을 향상시켜 광시야각을 가짐으로써, 사람의 시야각보다 넓은 RGB-D(depth) 카메라를 구현하고, 이를 통해 근접 객체 검출이 용이할 수 있다. 예컨대, 본 발명의 실시예에 따른 스테레오 카메라 장치는 도 7에 도시된 바와 같이, 근접 객체 검출이 용이하기 때문에 1m 이내로 근접한 사람의 전신 검출이 가능한다.In addition, according to embodiments of the present invention, the stereo camera device according to an embodiment of the present invention has a wide viewing angle by improving the horizontal and vertical viewing angles, thereby implementing an RGB-D (depth) camera wider than a human viewing angle. and, through this, it is possible to easily detect a nearby object. For example, as shown in FIG. 7 , in the stereo camera apparatus according to an embodiment of the present invention, since it is easy to detect a nearby object, it is possible to detect a person who is close to the body within 1 m.

또한, 본 발명의 실시예에 따른 스테레오 카메라 장치는 추종 로봇에 부착되는 경우 추종 대상이 근접해 있어도 전신을 검출할 수 있고, 추종 대상이 이동 방향을 바꾸는 경우에도 시야에서 벗어나지 않으므로 안정적인 추종이 가능해진다. 따라서, 본 발명은 사람-컴퓨터 인터페이스에서 뿐만 아니라 사람-로봇 인터페이스와 각종 이동체에서 활용될 수 있다.In addition, when the stereo camera device according to an embodiment of the present invention is attached to a tracking robot, it is possible to detect the whole body even when the following target is close, and stable tracking is possible because the following target does not deviate from the field of view even when the moving direction is changed. Accordingly, the present invention can be utilized not only in the human-computer interface, but also in the human-robot interface and various moving objects.

상술한 바와 같이, 본 발명의 스테레오 카메라 장치는 두 개의 어안 렌즈 또는 어안 렌즈 카메라를 수직 방향 또는 세로 방향으로 배치/하여 촬영한 영상을 등장방형도법(Equirectangular Projection)으로 변환함으로써, 위 아래 영상 간에 효율적인 스테레오 매칭이 가능하고, 이는 아래 세가지 내용을 고려하여 세로 방향으로 배치하는 것에 대한 장점을 이용한 것이다.As described above, the stereo camera device of the present invention converts an image photographed by arranging / photographing two fisheye lenses or fisheye lens cameras in a vertical direction or a vertical direction into an Equirectangular Projection, so that the upper and lower images are efficiently Stereo matching is possible, which takes advantage of the vertical arrangement in consideration of the following three contents.

첫째, 180도 이상 시야각의 어안 스테레오에서는 심지어 두 카메라 간에도 가려짐이 발생한다. 예를 들어, 영상에서 옆 카메라 보인다. 그러므로, 가려짐이 최소화될 수 있도록 카메라들이 배치되어야 한다.First, in fisheye stereo with a field of view greater than 180 degrees, occlusion occurs even between the two cameras. For example, in the video the side camera looks. Therefore, the cameras should be positioned so that occlusion can be minimized.

둘째, 등장방형도법(Equirectangular Projection)을 사용하는 경우 극지방(Pole)에 해당하는 영상의 위쪽과 아래쪽 영역은 실제보다 지나치게 확대되어 표현되는 문제가 있다.Second, when using the Equirectangular Projection, there is a problem in that the upper and lower regions of the image corresponding to the pole are expressed in an excessively enlarged manner than in reality.

셋째, 기존의 제한적인 시야각의 스테레오에서는 깊이의 크기는 디스패리티와 반비례한다고 근사하여 계산하였지만, 시야각이 넓어지면 동일한 크기의 디스패리티에 대해서도 카메라가 바라보는 방향에서부터 스테레오 카메라의 baseline 방향으로 갈 수록 깊이가 작아지므로 정확한 깊이를 얻기 어려워진다.Third, in the existing stereo with limited viewing angle, the depth was calculated by approximating that the size of the depth is inversely proportional to the disparity. becomes smaller, making it difficult to obtain an accurate depth.

또한, 본 발명의 스트레오 카메라 장치는 두 카메라 또는 두 렌즈 간의 간섭이 일어나는 방향과 깊이를 구할 수 없는 방향을 일치시켜 깊이를 구하지 못하는 영역을 최소화시키고, 수평 방향 깊이 맵의 시야각을 180도 이상 늘려 줄 수 있다. 물론, 본 발명의 스트레오 카메라 장치는 280도 어안 렌즈 사용시 수평 방향에 대하여 280도의 깊이 맵을 구할 수 있다.In addition, the stereo camera device of the present invention minimizes the area where depth cannot be obtained by matching the direction in which the interference occurs between two cameras or two lenses and the direction in which the depth cannot be obtained, and increases the viewing angle of the horizontal depth map by 180 degrees or more. can Of course, the stereo camera apparatus of the present invention may obtain a depth map of 280 degrees with respect to the horizontal direction when using a 280 degree fisheye lens.

나아가, 본 발명의 실시예에 따른 스테레오 카메라 장치는 위쪽 카메라와 아래쪽 카메라 중 아래쪽 카메라의 영상을 기준으로 위쪽 카메라 영상을 탐색하여 스테레오 매칭을 수행하게 되면, 가려짐(occlusion)에 의한 홀(hole)이 객체의 아래 방향에 생기게 되는데, 본 발명은 홀이 생기더라도 객체의 아래쪽으로 생기기 때문에 객체 검출 등의 경우에 더 유리할 수 있다.Furthermore, in the stereo camera apparatus according to an embodiment of the present invention, when stereo matching is performed by searching for an upper camera image based on an image of a lower camera among the upper camera and the lower camera, a hole due to occlusion is formed. It occurs in the downward direction of the object, and the present invention may be more advantageous in the case of object detection, etc. because it occurs downward of the object even if a hole is created.

도 8은 본 발명의 일 실시예에 따른 스테레오 카메라 장치의 영상 처리 방법에 대한 동작 흐름도를 나타낸 것으로, 도 1 내지 도 7의 스테레오 카메라 장치에서의 동작 흐름도를 나타낸 것이다.8 is a flowchart illustrating an image processing method of a stereo camera apparatus according to an embodiment of the present invention, and is a flowchart illustrating an operation in the stereo camera apparatus of FIGS. 1 to 7 .

도 8을 참조하면, 본 발명의 실시예에 따른 스테레오 카메라 장치의 영상 처리 방법은 수직 방향으로 배치된 제1 렌즈와 제2 렌즈를 통해 촬영되는 피사체의 제1 영상 예를 들어, 제1 어안 영상과 제2 영상 예를 들어, 제2 어안 영상을 수신한다(S810).Referring to FIG. 8 , in the image processing method of the stereo camera apparatus according to an embodiment of the present invention, a first image of a subject, for example, a first fisheye image, is photographed through a first lens and a second lens arranged in a vertical direction. and a second image, for example, a second fisheye image is received (S810).

단계 S810에 의해 제1 어안 영상과 제2 어안 영상이 수신되면, 수신된 제1 어안 영상과 제2 어안 영상을 지도 투영법으로 변환한다(S820).When the first fisheye image and the second fisheye image are received in step S810, the received first fisheye image and the second fisheye image are converted into a map projection method (S820).

이 때, 단계 S820은 제1 어안 영상과 제2 어안 영상을 등장방형도법(Equirectangular Projection)으로 변환할 수 있다. 또한, 단계 S820은 구면 좌표계를 이용하여 등극선(Epipolar line)을 구면의 경도선과 일치시키도록 변환할 수 있다.In this case, step S820 may convert the first fisheye image and the second fisheye image into an equirectangular projection. Also, in step S820, an epipolar line may be converted to coincide with the longitude line of the spherical surface using the spherical coordinate system.

단계 S820에 의해 제1 어안 영상과 제2 어안 영상이 지도 투영법으로 변환되면, 지도 투영법으로 변환된 제1 어안 영상과 제2 어안 영상을 세로 방향으로 스테레오 매칭을 수행함으로써, 피사체의 깊이를 추출하고, 추출된 피사체의 깊이를 이용하여 180도 이상의 수평 시야각과 180도 이상의 수직 시야각의 광시야각을 가지는 피사체에 대한 깊이 영상을 획득한다(S830, S840).When the first fisheye image and the second fisheye image are converted into the map projection method by step S820, the depth of the subject is extracted by performing stereo matching on the first fisheye image and the second fisheye image converted by the map projection method in the vertical direction, and , a depth image of a subject having a horizontal viewing angle of 180 degrees or more and a wide viewing angle of 180 degrees or more vertical viewing angles is obtained using the extracted depth of the subject (S830 and S840).

이 때, 단계 S830은 상기 지도 투영법으로 변환된 제1 영상과 제2 영상을 경도선에 대응하는 수직선을 따라 검색함으로써, 스테레오 매칭을 수행할 수 있다.In this case, in step S830, stereo matching may be performed by searching for the first image and the second image converted by the map projection method along a vertical line corresponding to the longitude line.

비록, 도 8의 방법에서 그 설명이 생략되었더라도, 도 8을 구성하는 각 단계는 도 1 내지 도 7에서 설명한 모든 내용을 포함할 수 있으며, 이는 이 기술 분야에 종사하는 당업자에게 있어서 자명하다.Although the description of the method of FIG. 8 is omitted, each step constituting FIG. 8 may include all the contents described with reference to FIGS. 1 to 7 , which is apparent to those skilled in the art.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다.  또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.  이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다.  예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다.  또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.  소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다.  소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. may be embodied in The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.  상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.  상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.  컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.  프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.  The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible for those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (16)

수직 방향으로 배치된 제1 렌즈와 제2 렌즈를 통해 촬영되는 피사체의 제1 영상과 제2 영상을 수신하는 수신부;
상기 수신된 제1 영상과 제2 영상을 지도 투영법으로 변환하는 변환부; 및
상기 지도 투영법으로 변환된 제1 영상과 제2 영상을 세로 방향으로 스테레오 매칭을 수행함으로써, 상기 피사체의 깊이를 추출하는 처리부
를 포함하고,
상기 변환부는
상기 제1 영상과 제2 영상을 등장방형도법(Equirectangular Projection)으로 변환하며, 구면 좌표계를 이용하여 등극선(Epipolar line)을 구면의 경도선과 일치시키는 회전 변환을 수행하며,
상기 처리부는
상기 지도 투영법으로 변환된 제1 영상과 제2 영상에서 경도선이 수직선으로 표현되어, 상기 지도 투영법으로 변환된 제1 영상과 제2 영상을 경도선에 대응하는 수직선을 따라 검색함으로써, 스테레오 매칭을 수행하고,
상기 처리부는
상기 추출된 피사체의 깊이를 이용하여 180도 이상의 수평 시야각과 최대 180도의 수직 시야각의 광시야각을 가지는 상기 피사체에 대한 영상을 획득하는 스테레오 카메라 장치.
a receiver configured to receive a first image and a second image of a subject photographed through the first and second lenses arranged in a vertical direction;
a conversion unit converting the received first and second images into a map projection method; and
A processing unit that extracts the depth of the subject by performing stereo matching on the first image and the second image converted by the map projection method in the vertical direction
including,
the conversion unit
The first image and the second image are converted into an Equirectangular Projection, and rotational transformation is performed to match the Epipolar line with the longitude line of the spherical surface using a spherical coordinate system,
the processing unit
In the first image and the second image converted by the map projection method, the longitude line is expressed as a vertical line, and the first image and the second image converted by the map projection method are searched along the vertical line corresponding to the longitude line to perform stereo matching, ,
the processing unit
A stereo camera device for acquiring an image of the subject having a horizontal viewing angle of 180 degrees or more and a wide viewing angle of a maximum vertical viewing angle of 180 degrees using the extracted depth of the subject.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 제1 렌즈와 상기 제2 렌즈는
어안 렌즈를 포함하는 것을 특징으로 하는 스테레오 카메라 장치.
According to claim 1,
The first lens and the second lens
A stereo camera device comprising a fisheye lens.
제5항에 있어서,
상기 제1 렌즈와 상기 제2 렌즈는
수평 시야각이 180도 이상인 어안 렌즈인 것을 특징으로 하는 스테레오 카메라 장치.
6. The method of claim 5,
The first lens and the second lens
A stereo camera device, characterized in that it is a fisheye lens with a horizontal viewing angle of 180 degrees or more.
삭제delete 제1항에 있어서,
상기 수신부는
상기 제1 영상을 촬영하기 위한 이미지 센서와 상기 제2 영상을 촬영하기 위한 이미지 센서를 포함하고,
상기 제1 영상과 상기 제2 영상 각각을 촬영하기 위한 이미지 센서 각각은
가로 길이가 세로 길이보다 긴 직사각형 형태인 경우 수직 시야각보다 넓은 수평 시야각을 얻도록 가로 방향으로 배치되는 것을 특징으로 하는 스테레오 카메라 장치.
According to claim 1,
the receiving unit
An image sensor for photographing the first image and an image sensor for photographing the second image,
Each of the image sensors for photographing each of the first image and the second image is
A stereo camera device, characterized in that it is arranged in a horizontal direction to obtain a horizontal viewing angle wider than a vertical viewing angle when the horizontal length is longer than the vertical length in a rectangular shape.
스테레오 카메라 장치의 영상 처리 방법에 있어서,
수직 방향으로 배치된 제1 렌즈와 제2 렌즈를 통해 촬영되는 피사체의 제1 영상과 제2 영상을 수신하는 단계;
상기 수신된 제1 영상과 제2 영상을 지도 투영법으로 변환하는 단계; 및
상기 지도 투영법으로 변환된 제1 영상과 제2 영상을 세로 방향으로 스테레오 매칭을 수행함으로써, 상기 피사체의 깊이를 추출하는 단계
를 포함하고,
상기 변환하는 단계는
상기 제1 영상과 제2 영상을 등장방형도법(Equirectangular Projection)으로 변환하며, 구면 좌표계를 이용하여 등극선(Epipolar line)을 구면의 경도선과 일치시키는 회전 변환을 수행하며,
상기 추출하는 단계는
상기 지도 투영법으로 변환된 제1 영상과 제2 영상에서 경도선이 수직선으로 표현되어, 상기 지도 투영법으로 변환된 제1 영상과 제2 영상을 경도선에 대응하는 수직선을 따라 검색함으로써, 스테레오 매칭을 수행하고,
상기 추출된 피사체의 깊이를 이용하여 180도 이상의 수평 시야각과 최대 180도의 수직 시야각의 광시야각을 가지는 상기 피사체에 대한 깊이 영상을 획득하는 단계
를 더 포함하는 깊이 영상 처리 방법.
In the image processing method of a stereo camera device,
receiving a first image and a second image of a subject photographed through a first lens and a second lens arranged in a vertical direction;
converting the received first and second images into a map projection method; and
extracting the depth of the subject by performing stereo matching on the first image and the second image converted by the map projection method in the vertical direction
including,
The converting step is
The first image and the second image are converted into an equirectangular projection, and rotational transformation is performed to match the epipolar line with the longitude line of the spherical surface using a spherical coordinate system,
The extraction step
In the first image and the second image converted by the map projection method, the longitude line is expressed as a vertical line, and the first image and the second image converted by the map projection method are searched along the vertical line corresponding to the longitude line to perform stereo matching, ,
obtaining a depth image of the subject having a horizontal viewing angle of 180 degrees or more and a wide viewing angle of a maximum vertical viewing angle of 180 degrees using the extracted depth of the subject
A depth image processing method further comprising a.
삭제delete 삭제delete 삭제delete 제9항에 있어서,
상기 제1 렌즈와 상기 제2 렌즈는
어안 렌즈를 포함하는 것을 특징으로 하는 깊이 영상 처리 방법.
10. The method of claim 9,
The first lens and the second lens
A depth image processing method comprising a fisheye lens.
제13항에 있어서,
상기 제1 렌즈와 상기 제2 렌즈는
수평 시야각이 180도 이상인 어안 렌즈인 것을 특징으로 하는 깊이 영상 처리 방법.
14. The method of claim 13,
The first lens and the second lens
A depth image processing method, characterized in that the horizontal viewing angle is a fisheye lens of 180 degrees or more.
삭제delete 제9항에 있어서,
상기 수신하는 단계는
상기 제1 영상을 촬영하기 위한 이미지 센서와 상기 제2 영상을 촬영하기 위한 이미지 센서를 이용하여 수직 시야각보다 넓은 수평 시야각을 가지는 상기 제1 영상과 상기 제2 영상을 수신하고,
상기 제1 영상과 상기 제2 영상 각각을 촬영하기 위한 이미지 센서 각각은
가로 길이가 세로 길이보다 긴 직사각형 형태를 가지는 것을 특징으로 하는 깊이 영상 처리 방법.
10. The method of claim 9,
The receiving step
receiving the first image and the second image having a horizontal viewing angle wider than a vertical viewing angle using an image sensor for photographing the first image and an image sensor for photographing the second image;
Each of the image sensors for photographing each of the first image and the second image is
A depth image processing method, characterized in that it has a rectangular shape in which a horizontal length is longer than a vertical length.
KR1020200104281A 2020-08-20 2020-08-20 Wide viewing angle stereo camera apparatus and depth image processing method using the same KR102310958B1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020200104281A KR102310958B1 (en) 2020-08-20 2020-08-20 Wide viewing angle stereo camera apparatus and depth image processing method using the same
EP21858491.0A EP4057626A4 (en) 2020-08-20 2021-07-29 Stereo camera apparatus having wide field of view, and depth image processing method using same
PCT/KR2021/009844 WO2022039404A1 (en) 2020-08-20 2021-07-29 Stereo camera apparatus having wide field of view, and depth image processing method using same
CN202180007726.6A CN115191113A (en) 2020-08-20 2021-07-29 Wide-view angle stereo camera device and depth image processing method using same
JP2022528968A JP7372708B2 (en) 2020-08-20 2021-07-29 Wide viewing angle stereo camera device and depth image processing method using the same
US17/405,615 US11729367B2 (en) 2020-08-20 2021-08-18 Wide viewing angle stereo camera apparatus and depth image processing method using the same
US18/343,900 US20230344979A1 (en) 2020-08-20 2023-06-29 Wide viewing angle stereo camera apparatus and depth image processing method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200104281A KR102310958B1 (en) 2020-08-20 2020-08-20 Wide viewing angle stereo camera apparatus and depth image processing method using the same

Publications (1)

Publication Number Publication Date
KR102310958B1 true KR102310958B1 (en) 2021-10-12

Family

ID=78078796

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200104281A KR102310958B1 (en) 2020-08-20 2020-08-20 Wide viewing angle stereo camera apparatus and depth image processing method using the same

Country Status (1)

Country Link
KR (1) KR102310958B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230089235A (en) * 2021-12-13 2023-06-20 (주)아고스비전 Object tracking pan-tilt apparatus based on ultra-wide camera and its operation method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010531490A (en) * 2007-06-20 2010-09-24 トムソン ライセンシング System and method for stereo matching of images
WO2015099169A1 (en) * 2013-12-27 2015-07-02 物産フードサイエンス株式会社 Method for manufacturing sugar having fructose added thereto
JP2016008847A (en) * 2014-06-23 2016-01-18 株式会社日本自動車部品総合研究所 Ranging correction apparatus
KR20170017700A (en) * 2015-08-07 2017-02-15 삼성전자주식회사 Electronic Apparatus generating 360 Degrees 3D Stereoscopic Panorama Images and Method thereof
KR101853269B1 (en) * 2017-04-12 2018-06-14 주식회사 씨오티커넥티드 Apparatus of stitching depth maps for stereo images
KR20180136873A (en) * 2017-06-15 2018-12-26 삼성전자주식회사 Method and apparatus for processing omnidirectional image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010531490A (en) * 2007-06-20 2010-09-24 トムソン ライセンシング System and method for stereo matching of images
WO2015099169A1 (en) * 2013-12-27 2015-07-02 物産フードサイエンス株式会社 Method for manufacturing sugar having fructose added thereto
JP2016008847A (en) * 2014-06-23 2016-01-18 株式会社日本自動車部品総合研究所 Ranging correction apparatus
KR20170017700A (en) * 2015-08-07 2017-02-15 삼성전자주식회사 Electronic Apparatus generating 360 Degrees 3D Stereoscopic Panorama Images and Method thereof
KR101853269B1 (en) * 2017-04-12 2018-06-14 주식회사 씨오티커넥티드 Apparatus of stitching depth maps for stereo images
KR20180136873A (en) * 2017-06-15 2018-12-26 삼성전자주식회사 Method and apparatus for processing omnidirectional image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230089235A (en) * 2021-12-13 2023-06-20 (주)아고스비전 Object tracking pan-tilt apparatus based on ultra-wide camera and its operation method
KR102598630B1 (en) * 2021-12-13 2023-11-07 (주)아고스비전 Object tracking pan-tilt apparatus based on ultra-wide camera and its operation method

Similar Documents

Publication Publication Date Title
KR102462799B1 (en) Method and apparatus for estimating pose
KR101708659B1 (en) Apparatus for recognizing location mobile robot using search based correlative matching and method thereof
EP3547256B1 (en) Extracting a feature descriptor for an image feature
JP6192853B2 (en) Optical flow imaging system and method using ultrasonic depth detection
KR102354299B1 (en) Camera calibration method using single image and apparatus therefor
WO2019127518A1 (en) Obstacle avoidance method and device and movable platform
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
KR20160019497A (en) Interactive and automatic 3-d object scanning method for the purpose of database creation
US11729367B2 (en) Wide viewing angle stereo camera apparatus and depth image processing method using the same
WO2018216341A1 (en) Information processing device, information processing method, and program
KR102072796B1 (en) Method, system and non-transitory computer-readable recording medium for calculating spatial coordinates of a region of interest
KR20140134090A (en) Apparatus and method of processing a depth image using a relative angle between an image sensor and a target object
Li Real-time spherical stereo
CN113537047A (en) Obstacle detection method, obstacle detection device, vehicle and storage medium
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
Tang et al. Design of vertically aligned binocular omnistereo vision sensor
KR102310958B1 (en) Wide viewing angle stereo camera apparatus and depth image processing method using the same
WO2021167189A1 (en) Method and device for multi-sensor data-based fusion information generation for 360-degree detection and recognition of surrounding object
KR102295857B1 (en) Calibration Method for Real-Time Spherical 3D 360 Imaging and Apparatus Therefor
KR20210036574A (en) Method and apparatus for estimating pose
CN108564626B (en) Method and apparatus for determining relative pose angle between cameras mounted to an acquisition entity
Aliakbarpour et al. Multi-sensor 3D volumetric reconstruction using CUDA
KR102430273B1 (en) Wide viewing angle stereo camera- based first person vision system and image processing method using the same
KR102430274B1 (en) Wide viewing angle stereo camera-based people following system and method therefore
Yue-hua Image feature extraction for vision-based uav navigation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant