KR102360522B1 - 시차현상을 활용한 3차원 공간정보 획득 시스템 - Google Patents

시차현상을 활용한 3차원 공간정보 획득 시스템 Download PDF

Info

Publication number
KR102360522B1
KR102360522B1 KR1020210028487A KR20210028487A KR102360522B1 KR 102360522 B1 KR102360522 B1 KR 102360522B1 KR 1020210028487 A KR1020210028487 A KR 1020210028487A KR 20210028487 A KR20210028487 A KR 20210028487A KR 102360522 B1 KR102360522 B1 KR 102360522B1
Authority
KR
South Korea
Prior art keywords
lens
subject
entrance pupil
axis
imaged
Prior art date
Application number
KR1020210028487A
Other languages
English (en)
Inventor
임천석
Original Assignee
한남대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한남대학교 산학협력단 filed Critical 한남대학교 산학협력단
Priority to KR1020210028487A priority Critical patent/KR102360522B1/ko
Application granted granted Critical
Publication of KR102360522B1 publication Critical patent/KR102360522B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • H04N5/2253
    • H04N5/2254

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 카메라와 시차현상을 활용하여 3차원 공간정보를 획득하여 카메라를 통해 보이는 물체가 카메라로부터 어느 정도 멀리 있는지와 같은 3차원 공간정보를 획득할 수 있는 시스템에 관한 것으로, 피사체를 촬영하고, 제1렌즈(110) 및 제2렌즈(120)로 구성되는 카메라(100); 지면에 수평한 x축 및 z축을 기준으로, 제1피사체의 좌표, 제2피사체의 좌표, 제1렌즈(110)의 입사동의 좌표 및 제2렌즈(120)의 입사동의 좌표가 저장되는 데이터베이스(200); 상기 데이터베이스(200)에 저장된 제1피사체의 좌표, 제2피사체의 좌표, 제1렌즈(110)의 입사동의 좌표 및 제2렌즈(120)의 입사동의 좌표를 이용하여, 제1피사체와 제2피사체 사이의 x축 간격, y축 간격 및 z축 간격, 상기 제1피사체가 제1렌즈(110)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00242
, 상기 제2피사체가 제1렌즈(110)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00243
, 상기 제1피사체가 제2렌즈(120)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00244
, 상기 제2피사체가 제2렌즈(120)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00245
, 결상점
Figure 112021025403696-pat00246
와 결상점
Figure 112021025403696-pat00247
사이의 거리
Figure 112021025403696-pat00248
및 결상점
Figure 112021025403696-pat00249
와 결상점
Figure 112021025403696-pat00250
사이의 거리
Figure 112021025403696-pat00251
를 연산하는 제1연산부(310); 및 상기 제1피사체와 대상물체 사이의 z축 간격을 연산하는 제2연산부(320);를 포함하는 시차현상을 활용한 3차원 공간정보 획득 시스템에 관한 것이다.

Description

시차현상을 활용한 3차원 공간정보 획득 시스템{3D spatial information acquisition system using parallax phenomenon}
본 발명은 시차현상을 활용한 3차원 공간정보 획득 시스템에 관한 것이다.
최근 카메라 기술의 동향은 고정식 일안렌즈(single lens)와 렌즈 군을 앞뒤로 밀거나 당기거나 하는 단순한 줌 구동 메커니즘을 벗어나, 멀티렌즈를 사용하거나 렌즈와 로봇 구동메커니즘을 결합하여, 자유로운 회전과 이동이 가능하도록 발전하는 추세이다.
멀티렌즈의 경우, 각각의 렌즈에서 획득한 이미지를 블렌딩하여 합성하는 방식으로 큰 폭의 화질 개선을 이루었는데, 멀티렌즈나 로봇카메라에서는 피사체의 깊이에 따라 이미지센서 상에서 위치나 크기가 제각각인 피사체의 상들이 만들어지기 때문에, 이들을 하나의 이미지로 합성할 때 매끄럽게 연결되지 않거나 이상한 형태가 나타나기도 하며, 이러한 현상을 시차현상이라 하고, 오차 자체를 시차오차라고 한다.
최근에는 이러한 시차오차를 제거하는 방향으로 기술이 발전하고 있지만, 시차오차를 활용하는 기술은 많이 소개되고 있지 않는 실정이다.
한국등록특허공보 제10-0770019호(“스테레오 카메라의 영상왜곡 보정 장치 및 그 방법”, 공고일 2007.10.25.)
본 발명은 상기한 바와 같은 문제점을 해결하기 위해 안출된 것으로, 본 발명에 의한 시차현상을 활용한 3차원 공간정보 획득 시스템의 목적은, 카메라와 시차현상을 활용하여 3차원 공간정보를 획득하여 카메라를 통해 보이는 물체가 카메라로부터 어느 정도 멀리 있는지와 같은 3차원 공간정보를 획득할 수 있는 시스템을 제공함에 있다.
상기한 바와 같은 문제점을 해결하기 위하여 본 발명은, 피사체를 촬영하고, 제1렌즈(110) 및 제2렌즈(120)로 구성되는 카메라(100);
지면에 수평한 x축 및 z축을 기준으로, 제1피사체의 좌표, 제2피사체의 좌표, 제1렌즈(110)의 입사동의 좌표 및 제2렌즈(120)의 입사동의 좌표가 저장되는 데이터베이스(200);
상기 데이터베이스(200)에 저장된 제1피사체의 좌표, 제2피사체의 좌표, 제1렌즈(110)의 입사동의 좌표 및 제2렌즈(120)의 입사동의 좌표를 이용하여, 제1피사체와 제2피사체 사이의 x축 간격, y축 간격 및 z축 간격, 상기 제1피사체가 제1렌즈(110)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00001
, 상기 제2피사체가 제1렌즈(110)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00002
, 상기 제1피사체가 제2렌즈(120)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00003
, 상기 제2피사체가 제2렌즈(120)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00004
, 결상점
Figure 112021025403696-pat00005
와 결상점
Figure 112021025403696-pat00006
사이의 거리
Figure 112021025403696-pat00007
및 결상점
Figure 112021025403696-pat00008
와 결상점
Figure 112021025403696-pat00009
사이의 거리
Figure 112021025403696-pat00010
를 연산하는 제1연산부(310); 및
아래 수학식을 이용하여 상기 제1피사체와 대상물체 사이의 z축 간격을 연산하는 제2연산부(320);를 포함하는 시차현상을 활용한 3차원 공간정보 획득 시스템을 제공한다.
Figure 112021025403696-pat00011
(여기서 D는 제1피사체와 제2피사체 사이의 z축 간격, D’는 제1피사체와 대상물체 사이의 z축 간격,
Figure 112021025403696-pat00012
는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 2가 제1렌즈(110)의 이미지 센서상에서 결상된 x 거리,
Figure 112021025403696-pat00013
는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 2가 제2렌즈(120)의 이미지 센서상에서 결상된 x 거리,
Figure 112021025403696-pat00014
는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 3이 제1렌즈(110)의 이미지 센서상에서 결상된 x 거리,
Figure 112021025403696-pat00015
는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 3이 제2렌즈(120)의 이미지 센서상에서 결상된 x 거리)
본 발명의 일실시예에 있어서, 상기 제2연산부(320)는 하기 수학식을 이용하여 상기 제1피사체와 대상물체 사이의 x축 간격을 연산하는 것을 특징으로 한다.
Figure 112021025403696-pat00016
(
Figure 112021025403696-pat00017
는 제1피사체와 대상물체의 x축 간격,
Figure 112021025403696-pat00018
은 제1렌즈(110)의 입사동과 제1피사체 사이의 z축 간격,
Figure 112021025403696-pat00019
는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 x축 간격)
본 발명의 일실시예에 있어서, 상기 제2연산부(320)는 하기 수학식을 이용하여 상기 대상물체의 높이를 연산하는 것을 특징으로 한다.
Figure 112021025403696-pat00020
(
Figure 112021025403696-pat00021
는 대상물체의 높이,
Figure 112021025403696-pat00022
는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 x축 간격이 0인 경우, object 1과 object 3이 제1렌즈(110)의 이미지 센서상에서 결상된 y 거리,
Figure 112021025403696-pat00023
는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 x축 간격이 0인 경우, object 1과 object 3이 제2렌즈(120)의 이미지 센서상에서 결상된 y 거리)
본 발명의 일실시예에 있어서, 상기 제2연산부(320)는 연산된 대상물체의 x축 좌표정보, y축 좌표정보 및 z축 좌표정보를 상기 카메라(100)를 포함하는 전자기기상에 증강현실 방식으로 출력하는 것을 특징으로 한다.
또한 본 발명은 제1렌즈(110) 및 제2렌즈(120)로 구성되는 카메라(100)에서 피사체를 촬영하는 단계;
지면에 수평한 x축 및 z축을 기준으로, 제1피사체의 좌표, 제2피사체의 좌표, 제1렌즈(110)의 입사동의 좌표 및 제2렌즈(120)의 입사동의 좌표를 데이터베이스(200)에 저장하는 단계;
제1연산부(310)에서, 상기 데이터베이스(200)에 저장된 제1피사체의 좌표, 제2피사체의 좌표, 제1렌즈(110)의 입사동의 좌표 및 제2렌즈(120)의 입사동의 좌표를 이용하여, 제1피사체와 제2피사체 사이의 x축 간격, y축 간격 및 z축 간격, 상기 제1피사체가 제1렌즈(110)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00024
, 상기 제2피사체가 제1렌즈(110)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00025
, 상기 제1피사체가 제2렌즈(120)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00026
, 상기 제2피사체가 제2렌즈(120)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00027
, 결상점
Figure 112021025403696-pat00028
와 결상점
Figure 112021025403696-pat00029
사이의 거리
Figure 112021025403696-pat00030
및 결상점
Figure 112021025403696-pat00031
와 결상점
Figure 112021025403696-pat00032
사이의 거리
Figure 112021025403696-pat00033
를 연산하는 단계; 및
제2연산부(320)에서, 아래 수학식을 이용하여 상기 제1피사체와 대상물체 사이의 z축 간격을 연산하는 단계;를 포함하는 시차현상을 활용한 3차원 공간정보 획득방법을 제공한다.
Figure 112021025403696-pat00034
(여기서 D는 제1피사체와 제2피사체 사이의 z축 간격, D’는 제1피사체와 대상물체 사이의 z축 간격,
Figure 112021025403696-pat00035
는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 2가 제1렌즈(110)의 이미지 센서상에서 결상된 x 거리,
Figure 112021025403696-pat00036
는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 2가 제2렌즈(120)의 이미지 센서상에서 결상된 x 거리,
Figure 112021025403696-pat00037
는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 3이 제1렌즈(110)의 이미지 센서상에서 결상된 x 거리,
Figure 112021025403696-pat00038
는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 3이 제2렌즈(120)의 이미지 센서상에서 결상된 x 거리)
상기한 바와 같은 본 발명의 다양한 실시예에 의한 시차현상을 활용한 3차원 공간정보 획득 시스템에 의하면, 제2연산부에서 공간정보를 알고 있는 제1피사체와 제2피사체 각각의 공간정보를 활용하여, 공간정보를 알고 싶은 대상물체의 위치를 시차현상을 이용하여 연산할 수 있는 효과가 있다.
예를 들면, 스마트폰 카메라의 멀티렌즈로부터 건축이나 토목현장에서 스마트폰만으로 한 번에 전체 피사체의 3차원 공간정보를 획득할 수 있거나 골프장에서 핀까지의 거리가 얼마나 남았는지 쉽게 알아낼 수 있다.
도 1은 본 발명의 일실시예에 의한 멀티렌즈의 시차현상을 활용한 3차원 공간정보 획득 시스템의 블록도이고,
도 2는 시차오차를 설명하기 위해, 서로 다른 두 개의 점(A, B)과 제1렌즈 및 제2렌즈와의 관계의 개략도이며,
도 3은 수학식 2와 수학식 3을 설명하기 위한 서로 다른 두 개의 점(A, B)과 제1렌즈 및 제2렌즈로 나타나는 벡터를 나타낸 개략도이고,
도 4는 수시차오차를 실험·계측하기 위한 피사체와 카메라의 배치 구상도이며,
도 5는 알고자 하는 대상물체의 위치정보를 알기 위한 실험·계측의 구상도이다.
이하 첨부된 도면을 참고하여 본 발명의 일실시예에 의한 멀티렌즈의 시차현상을 활용한 3차원 공간정보 획득 시스템에 관하여 상세히 설명한다.
도 1은 본 발명의 일실시예에 의한 멀티렌즈의 시차현상을 활용한 3차원 공간정보 획득 시스템의 블록도이다.
도 1에 도시된 바와 같이, 본 발명은 서로 다른 위치에 설치된 적어도 두 개 이상의 렌즈를 포함하는 카메라의 시차현상을 활용한 3차원 공간정보 획득 시스템에 관한 것으로서, 카메라(100), 데이터베이스(200), 제1연산부(310) 및 제2연산부(320)를 포함할 수 있다.
본 발명은 피사체를 촬영하고, 제1렌즈(110) 및 제2렌즈(120)로 구성되는 카메라(100);
지면에 수평한 x축 및 z축을 기준으로, 제1피사체의 좌표, 제2피사체의 좌표, 제1렌즈(110)의 입사동의 좌표 및 제2렌즈(120)의 입사동의 좌표가 저장되는 데이터베이스(200);
상기 데이터베이스(200)에 저장된 제1피사체의 좌표, 제2피사체의 좌표, 제1렌즈(110)의 입사동의 좌표 및 제2렌즈(120)의 입사동의 좌표를 이용하여, 제1피사체와 제2피사체 사이의 x축 간격, y축 간격 및 z축 간격, 상기 제1피사체가 제1렌즈(110)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00039
, 상기 제2피사체가 제1렌즈(110)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00040
, 상기 제1피사체가 제2렌즈(120)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00041
, 상기 제2피사체가 제2렌즈(120)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00042
, 결상점
Figure 112021025403696-pat00043
와 결상점
Figure 112021025403696-pat00044
사이의 거리
Figure 112021025403696-pat00045
및 결상점
Figure 112021025403696-pat00046
와 결상점
Figure 112021025403696-pat00047
사이의 거리
Figure 112021025403696-pat00048
를 연산하는 제1연산부(310); 및
아래 수학식을 이용하여 상기 제1피사체와 대상물체 사이의 z축 간격을 연산하는 제2연산부(320);를 포함하는 시차현상을 활용한 3차원 공간정보 획득 시스템에 관한 것이다.
Figure 112021025403696-pat00049
(여기서 D는 제1피사체와 제2피사체 사이의 z축 간격, D’는 제1피사체와 대상물체 사이의 z축 간격,
Figure 112021025403696-pat00050
는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 2가 제1렌즈(110)의 이미지 센서상에서 결상된 x 거리,
Figure 112021025403696-pat00051
는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 2가 제2렌즈(120)의 이미지 센서상에서 결상된 x 거리,
Figure 112021025403696-pat00052
는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 3이 제1렌즈(110)의 이미지 센서상에서 결상된 x 거리,
Figure 112021025403696-pat00053
는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 3이 제2렌즈(120)의 이미지 센서상에서 결상된 x 거리)
상기 카메라(100)는 대상물체를 촬영하는 장치를 의미하며, 적어도 하나 이상의 렌즈를 포함할 수 있다. 카메라(100)는 이미지를 획득할 수 있는 전자기기를 의미하며, 해당 기능을 가지는 전자기기, 예를 들면 스마트폰 내부에 구현될 수 있다.
본 발명에 의한 멀티렌즈의 시차현상을 활용한 3차원 공간정보 획득 시스템을 설명하기 위해서는 배경기술에서 설명했던 시차오차에 대해서 보다 구체적으로 설명해야 한다.
도 2는 시차오차를 설명하기 위해, 서로 다른 두 개의 점(A, B)과 제1렌즈 및 제2렌즈와의 관계를 개략적으로 도시한 것이다.
도 2에 도시된 바와 같이, 서로 다른 두 개의 점(A, B) 각각은 서로 수직한 세 개의 축인 x축, y축, z축으로 위치를 표현할 수 있다. 이때 z축과 x축이 지면에 수평방향으로 서로 수직한 두 축이고, 높이는 y축으로 나타난다.
시차오차는 서로 다른 두 개의 점(A, B) 사이의 z축 거리 차이(
Figure 112021025403696-pat00054
)와 XY평면에서의 위치 차이(
Figure 112021025403696-pat00055
또는 (
Figure 112021025403696-pat00056
)에 의해, 제1렌즈 및 제2렌즈의 이미지 센서상에서 점 A, B에 대한 결상점의 위치 및 길이 편차가 발생하는 현상을 말한다.
시차오차의 또 다른 정의는, 피사체 상의 두 점(A, B)을 기준으로 볼 때, 제1렌즈와 제2렌즈에서 각각 점 A와 B로의 수렴각의 차이(β-α) 또는 두 점 A와 B에서 입사동의 중심점으로의 수렴각의 차이(γLR)로도 주어질 수 있으나, 본 발명에서는 수렴각의 차이보다는 이미지 센서상에 결과로 나타나는 시차오차를 기준으로 설명한다.
아래 수학식 1은 두 이미지 센서를 하나로 겹쳐놓았을 때, 서로 회전하거나 위치이동을 해도 1:1로 맞추어지지 않는 오차량이 존재하게 되면 그 절대크기 편차가 시차오차라는 의미이다.
[수학식 1]
시차오차(Parallax Error)
Figure 112021025403696-pat00057
수학식 1의 시차오차에 대한 정의로부터 도 2를 활용하여 벡터적인 해석과 연산관계를 이용하면 입사동과 출사동 간의 관계로 표현되는 벡터
Figure 112021025403696-pat00058
,
Figure 112021025403696-pat00059
의 스칼라 크기에 대한 시차해석 방정식을 얻게 된다. 아래 수학식 2와 수학식 3은 벡터연산의 결과로 나타나는 시차해석 방정식
Figure 112021025403696-pat00060
Figure 112021025403696-pat00061
이다.
[수학식 2]
Figure 112021025403696-pat00062
[수학식 3]
Figure 112021025403696-pat00063
도 3은 상술한 수학식 2와 수학식 3을 설명하기 위한 서로 다른 두 개의 점(A, B)과 제1렌즈 및 제2렌즈로 나타나는 벡터를 개략적으로 도시한 것이다.
도 3에서 검정색 화살선은 벡터를 의미하고, 이동 전 카메라를 기준으로 한 위치벡터들이다. 회색 선은 카메라 이동(
Figure 112021025403696-pat00064
)에 의한 위치벡터들이다. 각각의 검정색 선들에서 입사동의 중심점으로부터 피사체 상의 점 A까지 떨어진 거리를 벡터
Figure 112021025403696-pat00065
로 표현하고, 점 A로부터 점 B까지의 깊이를 벡터
Figure 112021025403696-pat00066
로 표현하고,
Figure 112021025403696-pat00067
평면상에서 A, B점의 위치벡터를 각각 벡터
Figure 112021025403696-pat00068
(
Figure 112021025403696-pat00069
), 벡터
Figure 112021025403696-pat00070
(
Figure 112021025403696-pat00071
)로 표현하였다.
상술한 벡터
Figure 112021025403696-pat00072
Figure 112021025403696-pat00073
을 이용하면, 서로 다른 A, B점으로부터 입사동(entrance pupil)의 중심으로 향하는 벡터
Figure 112021025403696-pat00074
Figure 112021025403696-pat00075
가 연산관계로 얻어질 수 있으며, 벡터
Figure 112021025403696-pat00076
Figure 112021025403696-pat00077
은 입사동과 출사동(exit pupil)간의 각배율(
Figure 112021025403696-pat00078
) 또는 입사동과 출사동 간의 직경 비(
Figure 112021025403696-pat00079
)에 의해서 벡터
Figure 112021025403696-pat00080
Figure 112021025403696-pat00081
로부터 환산 표현될 수 있다. 예를 들면, 도 3에서 벡터
Figure 112021025403696-pat00082
(
Figure 112021025403696-pat00083
)는 입사동과 출사동 간의 환산관계를 활용하여 조금 더 복잡한 형태의 벡터
Figure 112021025403696-pat00084
으로 표현될 수 있는데, 결과적으로 벡터
Figure 112021025403696-pat00085
Figure 112021025403696-pat00086
으로 주어진다. 한편, 카메라의 이동(
Figure 112021025403696-pat00087
)에 의한 회색선과 관련된 벡터들인
Figure 112021025403696-pat00088
Figure 112021025403696-pat00089
도 동일한 방식으로 입사동과 출사동 간의 직경비로 환산 표현될 수 있다. 그 결과 이미지 센서상에서 피사체 상의 두 점 A, B 간의 거리를 구하기 위한 벡터인
Figure 112021025403696-pat00090
,
Figure 112021025403696-pat00091
는 각각
Figure 112021025403696-pat00092
,
Figure 112021025403696-pat00093
으로 표현되고 최종적으로 이들의 스칼라 크기인 수학식 2와 수학식 3이 얻어진다.
상술한 수학식 2와 수학식 3으로부터 시차오차값을 수학식 1과 같은 정의대로 구하게 되면, 시차오차값은 렌즈의 초점거리, 입사동의 직경, 출사동의 직경과 같은 개별 렌즈의 속성 값에 의존하게 되므로, 시차오차를 재정의할 필요가 있다.
먼저 시차오차를 시차해석 방정식
Figure 112021025403696-pat00094
Figure 112021025403696-pat00095
의 비 비(
Figure 112021025403696-pat00096
)로 정의하게 되면, 개별 렌즈의 속성 값인 출사동에서 상면까지의 거리(
Figure 112021025403696-pat00097
), 입사동의 직경(
Figure 112021025403696-pat00098
), 출사동의 직경(
Figure 112021025403696-pat00099
)이 분모·분자에서 공통인자로 잡히기 때문에 소거될 수 있다. 그런데
Figure 112021025403696-pat00100
Figure 112021025403696-pat00101
의 비로만 시차오차를 정의하게 되면
Figure 112021025403696-pat00102
Figure 112021025403696-pat00103
의 값이 같아 시차오차가 없는 경우에도
Figure 112021025403696-pat00104
이 되어 시차오차 값이 존재하게 되는 논리모순 상황이 발생한다. 이런 상황을 회피하기 위해서는 아래 수학식과 같이 상수 값 1과 시차해석 방정식 비(
Figure 112021025403696-pat00105
)와의 차이로 시차오차를 정의할 필요가 있다.
[수학식 4]
Parallax Error
Figure 112021025403696-pat00106
(단,
Figure 112021025403696-pat00107
)
[수학식 5]
Parallax Error
Figure 112021025403696-pat00108
(단,
Figure 112021025403696-pat00109
)
또한, 시차오차 값의 범위가 0에서 1사이 값을 갖도록 정규화(normalization)할 목적으로
Figure 112021025403696-pat00110
이면 수학식 4를 사용하고
Figure 112021025403696-pat00111
이면 수학식 5를 사용하여 시차오차를 정의한다.
상술한 수학식들을 활용하기 위해서는, 수학식 4로 표현되는 시차오차에 대한 특별한 세 가지 케이스에 대해 살펴본다. 첫째로, 수학식 2와 수학식 3에서 카메라의 이동(
Figure 112021025403696-pat00112
)이 없는 경우
Figure 112021025403696-pat00113
이 되기 때문에 수학식 2와 수학식 3은 동일한 표현식이 되어 시차 오차는 0이 된다. 당연히 카메라의 이동이 없으면 동일한 사진이 얻어져서 시차오차도 없을 것이라는 물리적 상식과 부합한다.
둘째로, 카메라의 이동은 있지만(
Figure 112021025403696-pat00114
,
Figure 112021025403696-pat00115
,
Figure 112021025403696-pat00116
) 피사체 상의 두 점 A, B의 깊이 차이가 없는 경우(
Figure 112021025403696-pat00117
) 시차오차 값은 존재하고 그 값은 아래 수학식으로 표현된다.
[수학식 6]
Parallax Error
Figure 112021025403696-pat00118
Figure 112021025403696-pat00119
Figure 112021025403696-pat00120
수학식 6은 카메라로부터 점 A까지의 거리
Figure 112021025403696-pat00121
과, z축 방향으로의 카메라의 이동량
Figure 112021025403696-pat00122
의 함수로 시차오차가 결정되도록 되어 있다. 수학식 6에서 두 점 A와 B 간의 수평거리(width)와 수직거리(height)를
Figure 112021025403696-pat00123
Figure 112021025403696-pat00124
로 두고
Figure 112021025403696-pat00125
으로 표기하였다. 물리적으로 보면 시차오차는 피사체들 간의 깊이 차이로 발생하는 현상인데 깊이 차이가 없음(
Figure 112021025403696-pat00126
)에도 불구하고 수학식 6에서는 시차오차 값이
Figure 112021025403696-pat00127
에 의존하도록 되어 있다. 이를 해석하기 위해서는
Figure 112021025403696-pat00128
에 주목해야 한다. 렌즈의 이동이
Figure 112021025403696-pat00129
축 방향으로 일어나면 물·상간의 거리가 바뀌기 때문에 이동 전후에 배율 차이가 발생한다. 즉, 배율오차가 발생하게 되는데 수학식 6은 이 효과를
Figure 112021025403696-pat00130
로 표현하고 있다. 그렇기 때문에 수학식 6은 시차오차로 해석하기보다는 배율오차로 보는 편이 맞고, 영상 소프트웨어적으로 일괄 줄이고 늘이고 하는 방식으로 쉽게 제거할 수 있다.
셋째로, 피사체의 거리가 A점과 B점의 깊이 차이보다 카메라로부터 매우 멀리 떨어져 있는 경우(
Figure 112021025403696-pat00131
)이다. 스마트폰 카메라와 같은 평면형 멀티 카메라에서는
Figure 112021025403696-pat00132
이 되기 때문에 수학식 2와 수학식 3이 동등하게 표현되어서 시차오차가 바로 제로로 수렴하게 된다. 이는 카메라로부터 피사체의 거리가 멀리 떨어질수록 깊이 차이에 의한 시차오차가 사라지게 된다는 것이다. 예를 들면, 가까이 있는 사람과 멀리 떨어져 있는 산을 동시에 사진 촬영하게 되면 사람과 산에 대해서는 시차오차가 발생하지만 산 속의 나무들끼리는 시차오차가 발생하지 않는다는 것이다.
수학식 2와 수학식 3에서처럼 복잡하고 난해하게 표현된 시차해석 방정식을 좀 더 편리하고 효과적으로 활용하기 위해 시차오차 값이 수평(
Figure 112021025403696-pat00133
) 방향의 값이거나 수직(
Figure 112021025403696-pat00134
) 방향의 값인 어느 한 케이스만 고려해야 한다. 보통 스마트폰에서 멀티렌즈의 배치가 어느 한 방향으로만 되어 있기 때문에, 이러한 조건을 한정하는 것은 매우 유용하며, 본 발명의 설명에서는 편의를 위해 수평(
Figure 112021025403696-pat00135
) 방향만을 고려한다. 즉, 제1렌즈의 이동이
Figure 112021025403696-pat00136
가 되지만
Figure 112021025403696-pat00137
가 아닌 경우에 해당한다. 그리고 혼돈을 방지하기 위해 수평(
Figure 112021025403696-pat00138
) 방향에 대해서는 시차해석 방정식을
Figure 112021025403696-pat00139
Figure 112021025403696-pat00140
로 표기하기로 한다. 이 둘의 비
Figure 112021025403696-pat00141
을 계산하면 아래 수학식과 같이 훨씬 다루기 좋고 간단한 형태로 표현할 수 있다.
[수학식 7]
Figure 112021025403696-pat00142
Figure 112021025403696-pat00143
또한, 상기한 수학식 7로부터 시차 오차를 아래 수학식과 같이 정의할 수 있다.
[수학식 8]
Parallax Error
Figure 112021025403696-pat00144
수학식 8과 같이 직관적이면서 취급하기 좋은 시차오차에 대한 활용식이 마련되었기 때문에 수학식 8과 연계된 실험·계측 방법을 고안해 본다.
도 4는 수학식 8의 시차오차를 실험·계측하기 위한 피사체와 카메라의 배치 구상도를 나타낸다. 도 4에서 제1피사체(1)와 제2피사체(2)는 막대형 물체이고, 수평방향으로는
Figure 112021025403696-pat00145
만큼 떨어져 있다. 그러면 수학식 8을 조금 조작하여 제1피사체의 수평(
Figure 112021025403696-pat00146
) 방향 위치
Figure 112021025403696-pat00147
는 아래 수학식과 같이 표현할 수 있다.
[수학식 9]
Figure 112021025403696-pat00148
시차오차를 실험, 계측하는 조건으로 제1피사체의 위치와 제1렌즈의 중심점이 서로 일치하도록 두면 수학식 9에서
Figure 112021025403696-pat00149
가 되어 수학식 9는 아래 수학식과 같이 다시 쓰일 수 있다.
[수학식 10]
Figure 112021025403696-pat00150
수학식 10으로 표현되는 시차오차 식은 제1피사체의 위치가 렌즈 입사동의 중심점에 있는 경우에 한해서만 제한적으로 사용될 수 있지만, 3차원 공간 정보획득과 관련해서는 매우 유용한 활용식이 될 것이다.
카메라의 이동에 의해 획득된 두 장의 이미지 사진으로부터 실측의 3차원 공간정보를 획득하기 위해서는 피사체 간의 깊이 차이
Figure 112021025403696-pat00151
로 피사체 간의 수평 폭
Figure 112021025403696-pat00152
를 편미분할 필요가 있으며, 상기한 수학식 10은 이를 가능하게 해 준다.
도 5는 미지의
Figure 112021025403696-pat00153
값, 즉 본 발명에서 알고자 하는 대상물체의 위치정보를 알기 위한 실험·계측의 구상도이다. 시차오차에 대한 사전 실험·계측을 통해 제1피사체(1)와 입사동의 중심점 간의 거리(
Figure 112021025403696-pat00154
), 제1피사체(1)와 제2피사체(2) 간의 깊이(
Figure 112021025403696-pat00155
), 수평방향의 폭(
Figure 112021025403696-pat00156
), 카메라의 이동거리(
Figure 112021025403696-pat00157
),
Figure 112021025403696-pat00158
Figure 112021025403696-pat00159
의 비 값들은 이미 알고 있다고 가정한다. 수학식 10의 양변을 변수
Figure 112021025403696-pat00160
로 편미분하게 되면 아래 수학식과 같이 표현되어진다.
[수학식 11]
Figure 112021025403696-pat00161
수학식 11에서 편미분
Figure 112021025403696-pat00162
가 0이 되는 이유는 피사체 간의 수평 폭
Figure 112021025403696-pat00163
가 피사체 고유의 값이기 때문에 깊이
Figure 112021025403696-pat00164
에 의존하는 변수가 아니라서 0이 된다는 것이다. 수학식 11에서 공통인자를 소거하여 정리하면 다음 수학식과 같이 된다.
[수학식 12]
Figure 112021025403696-pat00165
수학식 12에서 편미분 항을 각각 다음 수학식 13과 수학식 14와 같이 두게 되면 수학식 15로 정리될 수 있다.
[수학식 13]
Figure 112021025403696-pat00166
[수학식 14]
Figure 112021025403696-pat00167
[수학식 15]
Figure 112021025403696-pat00168
수학식 15에서 좌변의 두 번째 항을 우변으로 이항하여
Figure 112021025403696-pat00169
에 대해서 정리하면 수학식 16과 같이 최종 표현식이 얻어진다.
[수학식 16]
Figure 112021025403696-pat00170
수학식 16은 사전적으로 기준물체(제1피사체, 제2피사체)의
Figure 112021025403696-pat00171
값과
Figure 112021025403696-pat00172
Figure 112021025403696-pat00173
의 비 값을 알고 있는 상황에서, 미지 물체인 대상물체(3)의
Figure 112021025403696-pat00174
Figure 112021025403696-pat00175
의 비 값을 이미지 사진으로부터 추출해 내기만 하면 대상물체의 실측 값
Figure 112021025403696-pat00176
을 알아낼 수 있다는 것이다.
카메라로부터 대상물체(3)가 얼마나 떨어져 있는지에 대한 실측값인
Figure 112021025403696-pat00177
을 수학식 16으로부터 계산하기만 하면 대상물체(3)의 실제 폭
Figure 112021025403696-pat00178
도 수학식 17에 의해 구해질 수 있다.
[수학식 17]
Figure 112021025403696-pat00179
그러면 바로 이어서 미지 물체인 대상물체(3)의 실제 높이
Figure 112021025403696-pat00180
값도 수학식 18로 결정할 수 있다.
[수학식 18]
Figure 112021025403696-pat00181
스마트폰 카메라와 같은 광축 대칭형 렌즈에서는 구결면 방향(
Figure 112021025403696-pat00182
방향)과 자오면 방향(
Figure 112021025403696-pat00183
방향)의 배율이 같기 때문에
Figure 112021025403696-pat00184
값과
Figure 112021025403696-pat00185
값 사이에는 비례·평균 관계가 성립한다. 수학식 18은 이 점을 활용하여 유도되었다.
결과적으로 기준물체에 대한 실험·계측법과 두 장의 이미지 사진을 활용하면 실측 정보인
Figure 112021025403696-pat00186
Figure 112021025403696-pat00187
,
Figure 112021025403696-pat00188
이 모두 결정될 수 있다. 즉, 사진 속에 있는 이미지들에 대한 3차원 공간정보가 모두 획득될 수 있게 된다. 기준물체인 제1피사체(1)와 제2피사체(2)에 대한 다양한 실험 값(
Figure 112021025403696-pat00189
,
Figure 112021025403696-pat00190
,
Figure 112021025403696-pat00191
,
Figure 112021025403696-pat00192
,
Figure 112021025403696-pat00193
값)들을 사진 데이터베이스로 많이 확보하면 할수록 미지 물체의 3차원 공간정보가 더욱 신뢰성 있게 획득될 수 있다.
상기 데이터베이스(200)는 상술한 제1피사체 및 제피사체의 위치정보를 포함할 수 있다. 데이터베이스(200)는 상술한 카메라(100)를 포함하는 전자기기에 포함되도록 구성되거나, 카메라(100)를 포함하는 전자기기와 별도로 설치되되, 카메라(100)를 포함하는 전자기기와 상호 통신 가능하게 구성될 수 있다. 카메라(100)를 포함하는 전자기기와 데이터베이스(200)는 상호 통신을 위한 소정의 통신모듈을 각각 포함할 수 있다.
상기 데이터베이스(200)는 지면에 수평한 x축 및 z축을 기준으로, 제1피사체의 좌표, 제2피사체의 좌표, 제1렌즈(110)의 입사동의 좌표 및 제2렌즈(120)의 입사동의 좌표 등을 저장할 수 있다.
상기 제1연산부(310)는 상기 데이터베이스(200)에 저장된 제1피사체와 제2피사체의 좌표를 이용하여 제1피사체와 제2피사체 사이의 x축 간격, y축 간격 및 z축 간격을 연산한다.
또한 제1연산부(310)는 카메라(100)에 포함되는 전자기기의 위치정보를 이용하여, 카메라(100)를 포함되는 전자기기와 제1피사체 사이의 거리, 카메라(100)를 포함하는 전자기기와 제2피사체 사이의 거리를 더 연산할 수 있다.
즉, 제1연산부(310)는 상기 데이터베이스(200)에 저장된 제1피사체의 좌표, 제2피사체의 좌표, 제1렌즈(110)의 입사동의 좌표 및 제2렌즈(120)의 입사동의 좌표를 이용하여, 제1피사체와 제2피사체 사이의 x축 간격, y축 간격 및 z축 간격, 상기 제1피사체가 제1렌즈(110)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00194
, 상기 제2피사체가 제1렌즈(110)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00195
, 상기 제1피사체가 제2렌즈(120)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00196
, 상기 제2피사체가 제2렌즈(120)의 이미지 센서상에 결상되는 결상점
Figure 112021025403696-pat00197
, 결상점
Figure 112021025403696-pat00198
와 결상점
Figure 112021025403696-pat00199
사이의 거리
Figure 112021025403696-pat00200
및 결상점
Figure 112021025403696-pat00201
와 결상점
Figure 112021025403696-pat00202
사이의 거리
Figure 112021025403696-pat00203
를 연산할 수 있다.
상기 제2연산부(320)는 상술했던 수학식 16을 통해 상기 제1피사체와 대상물체 사이의 z축 간격을 연산해, 대상물체의 위치정보 중 일부를 파악한다. 또한, 제2연산부(320)는 상술했던 수학식 17을 통해 대상물체가 제1피사체로부터 x축 방향으로 어느 정도 이격되어 있는지를 연산할 수 있다. 즉, 제2연산부(320)는 수학식 16과 수학식 17을 통해, 평면(지면)상에 대상물체가 카메라(100)로부터 x축과 z축 방향으로 얼마만큼 떨어져 있는지를 파악할 수 있으며, 제2연산부(320)에서 연산된 대상물체가 카메라(100)로부터 얼마만큼 떨어져 있는지에 대한 정보는 카메라(100)에 포함되는 전자기기상에 증강현실 방식으로 출력될 수 있다. 상술한 제2연산부(320)의 동작을 골프의 라운딩시 적용할 경우, 목표지점이 현재 골퍼로부터 어느 정도 떨어져 있는지를 확인할 수 있으며, 특정 물체의 위치를 실시간으로 파악하고자 하는 다양한 분야에 적용할 수 있다.
또한, 제2연산부(320)는 수학식 18을 이용해 대상물체의 높이를 연산할 수 있으며, 연산된 대상물체의 높이정보 또한 증강현실과 같은 방식으로 카메라(100)에 포함되는 전자기기상에 출력될 수 있다.
본 발명은 상기한 실시예에 한정되지 아니하며, 적용범위가 다양함은 물론이고, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 다양한 변형 실시가 가능한 것은 물론이다.
1 : 제1피사체
2 : 제2피사체
3 : 대상물체
100 : 카메라
110 : 제1렌즈 120 : 제2렌즈
200 : 데이터베이스
310 : 제1연산부
320 : 제2연산부

Claims (5)

  1. 피사체를 촬영하고, 제1렌즈(110) 및 제2렌즈(120)로 구성되는 카메라(100);
    지면에 수평한 x축 및 z축을 기준으로, 제1피사체의 좌표, 제2피사체의 좌표, 제1렌즈(110)의 입사동의 좌표 및 제2렌즈(120)의 입사동의 좌표가 저장되는 데이터베이스(200);
    상기 데이터베이스(200)에 저장된 제1피사체의 좌표, 제2피사체의 좌표, 제1렌즈(110)의 입사동의 좌표 및 제2렌즈(120)의 입사동의 좌표를 이용하여, 제1피사체와 제2피사체 사이의 x축 간격, y축 간격 및 z축 간격, 상기 제1피사체가 제1렌즈(110)의 이미지 센서상에 결상되는 결상점
    Figure 112021025403696-pat00204
    , 상기 제2피사체가 제1렌즈(110)의 이미지 센서상에 결상되는 결상점
    Figure 112021025403696-pat00205
    , 상기 제1피사체가 제2렌즈(120)의 이미지 센서상에 결상되는 결상점
    Figure 112021025403696-pat00206
    , 상기 제2피사체가 제2렌즈(120)의 이미지 센서상에 결상되는 결상점
    Figure 112021025403696-pat00207
    , 결상점
    Figure 112021025403696-pat00208
    와 결상점
    Figure 112021025403696-pat00209
    사이의 거리
    Figure 112021025403696-pat00210
    및 결상점
    Figure 112021025403696-pat00211
    와 결상점
    Figure 112021025403696-pat00212
    사이의 거리
    Figure 112021025403696-pat00213
    를 연산하는 제1연산부(310); 및
    아래 수학식을 이용하여 상기 제1피사체와 대상물체 사이의 z축 간격을 연산하는 제2연산부(320);
    를 포함하는 시차현상을 활용한 3차원 공간정보 획득 시스템.
    Figure 112021025403696-pat00214

    (여기서 D는 제1피사체와 제2피사체 사이의 z축 간격, D’는 제1피사체와 대상물체 사이의 z축 간격,
    Figure 112021025403696-pat00215
    는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 2가 제1렌즈(110)의 이미지 센서상에서 결상된 x 거리,
    Figure 112021025403696-pat00216
    는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 2가 제2렌즈(120)의 이미지 센서상에서 결상된 x 거리,
    Figure 112021025403696-pat00217
    는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 3이 제1렌즈(110)의 이미지 센서상에서 결상된 x 거리,
    Figure 112021025403696-pat00218
    는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 3이 제2렌즈(120)의 이미지 센서상에서 결상된 x 거리)
  2. 제1항에 있어서,
    상기 제2연산부(320)는
    하기 수학식을 이용하여 상기 제1피사체와 대상물체 사이의 x축 간격을 연산하는 것을 특징으로 하는 시차현상을 활용한 3차원 공간정보 획득 시스템.
    Figure 112021025403696-pat00219

    (
    Figure 112021025403696-pat00220
    는 제1피사체와 대상물체의 x축 간격,
    Figure 112021025403696-pat00221
    은 제1렌즈(110)의 입사동과 제1피사체 사이의 z축 간격,
    Figure 112021025403696-pat00222
    는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 x축 간격)
  3. 제2항에 있어서,
    상기 제2연산부(320)는
    하기 수학식을 이용하여 상기 대상물체의 높이를 연산하는 것을 특징으로 하는 시차현상을 활용한 3차원 공간정보 획득 시스템.
    Figure 112021025403696-pat00223

    (
    Figure 112021025403696-pat00224
    는 대상물체의 높이,
    Figure 112021025403696-pat00225
    는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 x축 간격이 0인 경우, object 1과 object 3이 제1렌즈(110)의 이미지 센서상에서 결상된 y 거리,
    Figure 112021025403696-pat00226
    는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 x축 간격이 0인 경우, object 1과 object 3이 제2렌즈(120)의 이미지 센서상에서 결상된 y 거리)
  4. 제3항에 있어서,
    상기 제2연산부(320)는
    연산된 대상물체의 x축 좌표정보, y축 좌표정보 및 z축 좌표정보를 상기 카메라(100)를 포함하는 전자기기상에 증강현실 방식으로 출력하는 것을 특징으로 하는 시차현상을 활용한 3차원 공간정보 획득 시스템.
  5. 제1렌즈(110) 및 제2렌즈(120)로 구성되는 카메라(100)에서 피사체를 촬영하는 단계;
    지면에 수평한 x축 및 z축을 기준으로, 제1피사체의 좌표, 제2피사체의 좌표, 제1렌즈(110)의 입사동의 좌표 및 제2렌즈(120)의 입사동의 좌표를 데이터베이스(200)에 저장하는 단계;
    제1연산부(310)에서, 상기 데이터베이스(200)에 저장된 제1피사체의 좌표, 제2피사체의 좌표, 제1렌즈(110)의 입사동의 좌표 및 제2렌즈(120)의 입사동의 좌표를 이용하여, 제1피사체와 제2피사체 사이의 x축 간격, y축 간격 및 z축 간격, 상기 제1피사체가 제1렌즈(110)의 이미지 센서상에 결상되는 결상점
    Figure 112021025403696-pat00227
    , 상기 제2피사체가 제1렌즈(110)의 이미지 센서상에 결상되는 결상점
    Figure 112021025403696-pat00228
    , 상기 제1피사체가 제2렌즈(120)의 이미지 센서상에 결상되는 결상점
    Figure 112021025403696-pat00229
    , 상기 제2피사체가 제2렌즈(120)의 이미지 센서상에 결상되는 결상점
    Figure 112021025403696-pat00230
    , 결상점
    Figure 112021025403696-pat00231
    와 결상점
    Figure 112021025403696-pat00232
    사이의 거리
    Figure 112021025403696-pat00233
    및 결상점
    Figure 112021025403696-pat00234
    와 결상점
    Figure 112021025403696-pat00235
    사이의 거리
    Figure 112021025403696-pat00236
    를 연산하는 단계; 및
    제2연산부(320)에서, 아래 수학식을 이용하여 상기 제1피사체와 대상물체 사이의 z축 간격을 연산하는 단계;
    를 포함하는 시차현상을 활용한 3차원 공간정보 획득방법.
    Figure 112021025403696-pat00237

    (여기서 D는 제1피사체와 제2피사체 사이의 z축 간격, D’는 제1피사체와 대상물체 사이의 z축 간격,
    Figure 112021025403696-pat00238
    는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 2가 제1렌즈(110)의 이미지 센서상에서 결상된 x 거리,
    Figure 112021025403696-pat00239
    는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 2가 제2렌즈(120)의 이미지 센서상에서 결상된 x 거리,
    Figure 112021025403696-pat00240
    는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 3이 제1렌즈(110)의 이미지 센서상에서 결상된 x 거리,
    Figure 112021025403696-pat00241
    는 제1렌즈(110)의 입사동과 제2렌즈(120)의 입사동 사이의 y축 간격이 0인 경우, object 1과 object 3이 제2렌즈(120)의 이미지 센서상에서 결상된 x 거리)
KR1020210028487A 2021-03-04 2021-03-04 시차현상을 활용한 3차원 공간정보 획득 시스템 KR102360522B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210028487A KR102360522B1 (ko) 2021-03-04 2021-03-04 시차현상을 활용한 3차원 공간정보 획득 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210028487A KR102360522B1 (ko) 2021-03-04 2021-03-04 시차현상을 활용한 3차원 공간정보 획득 시스템

Publications (1)

Publication Number Publication Date
KR102360522B1 true KR102360522B1 (ko) 2022-02-08

Family

ID=80252473

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210028487A KR102360522B1 (ko) 2021-03-04 2021-03-04 시차현상을 활용한 3차원 공간정보 획득 시스템

Country Status (1)

Country Link
KR (1) KR102360522B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100770019B1 (ko) 2004-12-06 2007-10-25 한국전자통신연구원 스테레오 카메라의 영상왜곡 보정 장치 및 그 방법
KR20110062417A (ko) * 2009-12-03 2011-06-10 주식회사바텍 고해상도 파노라마 영상 획득 방법 및 장치
KR20120072146A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 파노라마 영상을 이용한 입체 영상 생성 장치 및 방법
KR101341265B1 (ko) * 2006-05-29 2013-12-12 네브테크 비. 브이. 이미지 센서의 이미지 데이터 세트를 처리하는 방법과 시스템, 그 컴퓨터 프로그램 및 그 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100770019B1 (ko) 2004-12-06 2007-10-25 한국전자통신연구원 스테레오 카메라의 영상왜곡 보정 장치 및 그 방법
KR101341265B1 (ko) * 2006-05-29 2013-12-12 네브테크 비. 브이. 이미지 센서의 이미지 데이터 세트를 처리하는 방법과 시스템, 그 컴퓨터 프로그램 및 그 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 기록매체
KR20110062417A (ko) * 2009-12-03 2011-06-10 주식회사바텍 고해상도 파노라마 영상 획득 방법 및 장치
KR20120072146A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 파노라마 영상을 이용한 입체 영상 생성 장치 및 방법

Similar Documents

Publication Publication Date Title
CN108734744B (zh) 一种基于全站仪的远距离大视场双目标定方法
ES2805425T3 (es) Procedimientos y productos de programas informáticos para calibrar sistemas de imagen estéreo mediante el uso de un espejo plano
CN110842940A (zh) 一种建筑测量机器人多传感器融合三维建模方法及系统
CN107560603B (zh) 一种无人机倾斜摄影测量系统及测量方法
CN103278138A (zh) 一种复杂结构薄部件三维位置及姿态的测量方法
JP2009042162A (ja) キャリブレーション装置及びその方法
CN110874854B (zh) 一种基于小基线条件下的相机双目摄影测量方法
CN110264528A (zh) 一种鱼眼镜头双目像机快速自标定方法
CN112229323B (zh) 基于手机单目视觉的棋盘格合作目标的六自由度测量方法及其应用
JP7502440B2 (ja) 環境のトポグラフィを測定するための方法
CN113724337B (zh) 一种无需依赖云台角度的相机动态外参标定方法及装置
CN109102567A (zh) 一种基于重建误差最小化的位姿参数高精度求解方法
CN110675436A (zh) 基于3d特征点的激光雷达与立体视觉配准方法
Mahdy et al. Projector calibration using passive stereo and triangulation
CN113450416B (zh) 一种应用于三目相机立体标定的tcsc方法
CN109493378B (zh) 一种基于单目视觉与双目视觉相结合的垂直度检测方法
CN117434294A (zh) 一种用于无人机的多孔径纯视觉光流测速方法
KR102360522B1 (ko) 시차현상을 활용한 3차원 공간정보 획득 시스템
CN109712200B (zh) 一种基于最小二乘原理及边长推算的双目定位方法及系统
GB2569609A (en) Method and device for digital 3D reconstruction
CN116804537A (zh) 一种双目测距系统及方法
JP2008224323A (ja) ステレオ写真計測装置、ステレオ写真計測方法及びステレオ写真計測用プログラム
CN111145263A (zh) 一种基于车载的摄像机自动标定方法
CN113048985B (zh) 已知相对旋转角度条件下的像机相对运动估计方法
CN110068308B (zh) 一种基于多目相机的测距方法及测距系统

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant