JP2018013462A - 視差情報生成装置、視差情報生成方法、およびプログラム - Google Patents

視差情報生成装置、視差情報生成方法、およびプログラム Download PDF

Info

Publication number
JP2018013462A
JP2018013462A JP2016144995A JP2016144995A JP2018013462A JP 2018013462 A JP2018013462 A JP 2018013462A JP 2016144995 A JP2016144995 A JP 2016144995A JP 2016144995 A JP2016144995 A JP 2016144995A JP 2018013462 A JP2018013462 A JP 2018013462A
Authority
JP
Japan
Prior art keywords
pixel
pixel column
dimensional
partial
column
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016144995A
Other languages
English (en)
Inventor
公啓 妻藤
Kimiaki Saito
公啓 妻藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2016144995A priority Critical patent/JP2018013462A/ja
Publication of JP2018013462A publication Critical patent/JP2018013462A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】複数の画像に基づいて視差情報を取得するための、改善された装置、方法、またはプログラムを提供する。【解決手段】第1の一次元画素列の第1の部分画素列であって、第2の一次元画素列のある第2の部分画素列と長さが等しく隔たりが予め定められた範囲にある第1の部分画素列のうち、最大の長さを有する第1の部分画素列に対して、最大の長さの予め定められた割合以上の長さを有する第1の部分画素列を第3の部分画素列として抽出する120。第3の部分画素列と長さが等しく隔たりが予め定められた範囲にある第2の部分画素列を第4の部分画素列とした場合、第3の部分画素列における第1の画素の位置に対応する第4の部分画素列における位置にある第2の画素に対して、第1の一次元画素列における第1の画素の位置および第2の一次元画素列における第2の画素の位置に基づいて、第1の画素または第2の画素に対する視差情報を生成する130。【選択図】図1

Description

本開示は、視差情報生成装置、視差情報生成方法、およびプログラムに関する。
近年、コンピュータ技術の発展に伴い、ステレオカメラ等の撮影装置によって撮影された画像等のステレオ画像から、被撮影物の三次元座標情報等の空間情報を再構成する技術の重要性が、自動運転等の分野において高まっている。空間情報を再構成するために、ステレオ画像から視差情報を生成する様々な手法が提案されている(非特許文献1)。
Hirschmuller,Heiko,"Accurate and efficient stereo processing by semi−global matching and mutual information",IEEE Conference on Computer Vision and Pattern Recognition(CVPR),San Diego,CA,USA,June 20−26,2005. 吉田裕他,「物体境界情報を失わないSemi−global matching」,第32回日本ロボット学会学術講演会(2014年9月4日−6日)
非特許文献1に記載の手法は、必要とする計算量が比較的少ない等の利点を有する一方で、被撮影物の境界部分の視差情報が曖昧になるという問題がある(非特許文献2)。
本開示は、複数の画像に基づいて視差情報を取得するための、改善された装置、方法、またはプログラムを提供する。
本開示に係る視差情報生成装置は、第1の一次元画素列および第2の一次元画素列を入力する一次元画像入力部と、前記第1の一次元画素列の第1の部分画素列であって、前記第2の一次元画素列のある第2の部分画素列と長さが等しく隔たりが予め定められた範囲にある前記第1の部分画素列のうち、最大の長さを有する前記第1の部分画素列に対して、前記最大の長さの予め定められた割合以上の長さを有する前記第1の部分画素列を第3の部分画素列として抽出する抽出部と、前記第3の部分画素列と長さが等しく隔たりが予め定められた範囲にある前記第2の部分画素列を第4の部分画素列とした場合、前記第3の部分画素列における第1の画素の位置に対応する前記第4の部分画素列における位置にある第2の画素に対して、前記第1の一次元画素列における前記第1の画素の位置および前記第2の一次元画素列における前記第2の画素の位置に基づいて、前記第1の画素または前記第2の画素に対する視差情報を生成する視差情報生成部と、を備える。
第1の実施の形態に係る視差情報生成装置のブロック図である。 第2の実施の形態に係る視差情報生成装置のブロック図である。
以下、本開示の実施の形態を図1および図2に基づいて説明する。
(第1の実施の形態)
図1は、第1の実施の形態に係る視差情報生成装置100のブロック図である。視差情報生成装置100は、一次元画像入力部110と、抽出部120と、視差情報生成部130とを備える。視差情報生成装置100の構成要素の説明に先立ち、構成要素の説明に必要な技術的事項を説明する。
<一次元画像Xと一次元画像Yとの視差情報>
一次元画像Xと一次元画像Yとの視差情報の求め方の一例を説明する。一次元画像Xを構成する画素の個数をnとする。画素x(i=1,…,n)を、一次元画像Xを構成する画素とする。一次元画像Xを、一次元画素列(x,x,…,x)を用いてX=(x,x,…,x)と表すことができる。同様に、一次元画像Yを構成する画素の個数をmとする。画素y(j=1,…,m)を、一次元画像Yを構成する各画素とする。一次元画像Yを、一次元画素列(y,y,…,y)を用いてY=(y,y,…,y)と表すことができる。
次いで、0以上n以下の整数iおよび0以上m以下の整数jに対して、画素列Si,j、値li,j、および二次元整数値ベクトルv(i,j)を次の式(1)−(3)で定義する。
Figure 2018013462
Figure 2018013462
Figure 2018013462
ここで、値Cは予め定められた定数を表す。また、記号
Figure 2018013462
は、長さ0(空)の画素列を表し、記号(x)は1つの画素xからなる画素列を表し、記号∩は2つの画素列の連結(concatenation)を表す。
値gi,jは、隔たりに対応する値である。一例において、gi,j=g(x,y)であり、関数g(x,y)は、画素xおよびyの特徴量の間の隔たりを表す量を値にとる、画素xおよびyの関数である。また、値wi,j=w(x,y)であり、関数w(x,y)は、正の値をとる、画素xおよびyの関数である。
一例において、画素xおよびyのL色空間における座標値が、それぞれc(x)=(c(x),c(x),c(x))およびc(y)=(c(y),c(y),c(y))であるとき、画素xおよびyの関数g(x,y)およびw(x,y)を、次の式(4)−(5)で定義する。
Figure 2018013462
Figure 2018013462
ここで、値Cは、予め定められた定数を表す。特に、値Cおよび値Cが等しい場合、画素列Si,jは、第1の一次元画素列(x,x,…,x)の第1の部分画素列であって、第2の一次元画素列(y,y,…,yj)のある第2の部分画素列と長さが等しく距離がC以下の範囲にある第1の部分画素列のうち、長さが最大のものであり、かつ値li,jはその長さに等しいことは、添字i,jに関する数学的帰納法を用いることにより、容易に証明することができる。
次いで、長さが最大である画素列Si,jを求める。例えば、二次元整数値ベクトルv(i,j)を用いて以下のとおりバックトレースを行う。二次元整数値ベクトル列{(α,β)},k=1,…を、次の式(6)で定義する。
Figure 2018013462
二次元整数値ベクトルv(i,j)の定義から明らかであるように、(α,β)が(0,0)に等しくなるまでは、値α+βは、添字kに対して狭義単調減少数列であり、ある添字kに対して(α,β)が(0,0)に等しくなる。したがって、二次元整数値ベクトル列{(α,β)}は、実際には有限の長さを有する列となることに留意する。二次元整数値ベクトル列{(α,β)}の長さをLとしたときに、5つ組の列T,k=1,…,Lを、次の式(7)で定義する。
Figure 2018013462
ここで、記号
Figure 2018013462
は、長さ0(空)の5つ組の列を表す。関数x(i)は、一次元画像Xの一次元画素列(x,x,…,x)のi番目の位置の画素xを表し、関数y(j)は、一次元画像Yの一次元画素列(y,y,…,y)のj番目の位置の画素yを表す。また、列((α,β,x(α),y(β),β−α))は、5つ組(α,β,x(α),y(β),β−α)からなる長さ1の列であり、記号∩は、2つの列の連結を表す。列Tの第1成分は、一次元画像Xにおける画素の位置αを表している。列Tの第2成分は、一次元画像Yにおける画素の位置βを表している。列Tの第3成分は、一次元画像Xにおける画素x(α)を表している。列Tの第4成分は、一次元画像Yにおける画素y(β)を表している。列Tの第5成分β−αを、当該画素に対応する視差値として求める。このように求めた視差値は、多くの場合に、正確な視差値を表し、さらに、このように視差情報を求めることにより、被撮影物の境界部分の視差情報についても、良好に求めることができる。以上、一次元画像Xおよび一次元画像Yの視差情報の求め方を説明した。
上記において、値Cおよび値Cが共に0に等しい場合、列Tの第3成分または第4成分は、一次元画像Xの一次元画素列(x,x,…,x)と一次元画像Yの一次元画素列(y,y,…,y)とのLCS(Longest Common Subsequence)に一致する。一次元画像Xおよび一次元画像Yに映っている同一の対象物に対応する画素の色座標等の特徴量が、例えば画像を撮影するカメラの個体差や光の当たり具合により、若干異なる場合も考えられる。そのような場合に、値Cおよび値Cを調節することにより、特徴量の異なりをある程度吸収させることができる。
<視差情報生成装置100の構成の説明>
一次元画像入力部110は、第1の一次元画素列(例えば、一次元画素列(x,x,…,x))および第2の一次元画素列(例えば、一次元画素列(y,y,…,y))を入力する。一例において、一次元画像入力部110は、図2を参照して後述される二次元画像分解部220から、第1の一次元画素列および第2の一次元画素列を入力する。他の一例において、一次元画像入力部110は、視差情報生成装置100に接続されたステレオラインカメラ(図示せず)から、第1の一次元画素列および第2の一次元画素列を入力する。
抽出部120は、第1の一次元画素列(例えば、一次元画素列(x,x,…,x))の第1の部分画素列であって、第2の一次元画素列(例えば、一次元画素列(y,y,…,y))のある第2の部分画素列と長さが等しく隔たり(例えば、隔たりに対応する値gi,j)が予め定められた範囲(例えば、値C以下である範囲)にある第1の部分画素列のうち、最大の長さを有する第1の部分画素列(例えば、列Tの第3成分)に対して、最大の長さの予め定められた割合(例えば90%)以上の長さを有する第1の部分画素列(例えば、列Tの第3成分)を第3の部分画素列として抽出する。予め定められた割合には、視差情報生成部130が生成する視差情報に求められる精度を満たす限りに特に制限はないが、例えば60%以上100%以下の間の任意の割合である。
第3の部分画素列と長さが等しく隔たり(例えば、隔たりに対応する値gi,j)が予め定められた範囲(例えば、値C以下である範囲)にある第2の部分画素列(例えば、列Tの第4成分)を第4の部分画素列とした場合、視差情報生成部130は、第3の部分画素列(例えば、列Tの第3成分)における第1の画素(例えば、画素x(α))の位置に対応する第4の部分画素列(例えば、列Tの第4成分)における位置にある第2の画素(例えば、画素y(β))に対して、第1の一次元画素列(例えば、一次元画素列(x,x,…,x))における第1の画素の位置(例えば、整数αで示される位置)および第2の一次元画素列(例えば、一次元画素列(y,y,…,y))における第2の画素の位置(例えば、整数βで示される位置)に基づいて、第1の画素または第2の画素に対する視差情報(例えば、列Tの第1成分および第5成分)を生成する。ここで、2つの画素列(または部分画素列)における対応する位置とは、2つの画素列(または部分画素列)のそれぞれの画素列(または部分画素列)における、同一の位置または同一の添字に対応する位置をいう。
一例において、予め定められた割合は100%である。この場合、例えば第3の部分画素列として列Tの第3成分をとることができる。
一例において、第1の部分画素列と第2の部分画素列との隔たりは、第1の部分画素列および第2の部分画素列の対応する位置にある画素対(例えば、画素xおよび画素yの対)のそれぞれの画素(例えば、画素xおよび画素y)に割り当てられたそれぞれの特徴量(例えば、L色空間における座標値)の間の隔たり(例えば、関数g(x,y)の値)に基づく量である。
一例において、特徴量(例えば、L色空間における座標値)の間の隔たりは特徴量の間の距離であり、第1の部分画素列と第2の部分画素列との隔たりは、画素対のそれぞれの画素に割り当てられたそれぞれの特徴量の間の距離の最大値に等しい。
(第2の実施の形態)
図2は、第2の実施の形態に係る視差情報生成装置200のブロック図である。視差情報生成装置200は、二次元画像入力部210と、二次元画像分解部220と、一次元画像入力部110と、抽出部120と、視差情報生成部130と、三次元情報推定部230とを備える。一次元画像入力部110と、抽出部120と、視差情報生成部130とは、第1の実施の形態に係る視差情報生成装置100が備えるものと同一であるので、説明を省略する。視差情報生成装置200の各構成要素の説明に先立ち、構成要素の説明に必要な技術的事項を説明する。
<二次元画像X’と二次元画像Y’との視差情報>
二次元画像X’と二次元画像Y’との視差情報の求め方の一例を説明する。二次元画像X’と二次元画像Y’は、一例において平行化された(rectified)ステレオ画像である。ステレオカメラで撮影されたステレオ画像の平行化については公知であるので、ここでは説明を省略する。
平行化されたステレオ画像においては、同一の被撮影物の画像内における垂直方向の座標値が同一である。そこで、二次元画像X’および二次元画像Y’に含まれるそれぞれの水平方向の一次元画像であって、垂直方向に同一の座標値を有するそれぞれの一次元画像について、上記のとおり視差情報を生成する。次いで、垂直方向の座標値毎に得られた視差情報を垂直方向に統合することにより、二次元画像X’と二次元画像Y’との視差情報を求めることができる。
<視差情報に基づく三次元情報の生成>
焦点距離fおよび2つのカメラ間距離をbとする。平行化されたステレオ画像において、被撮影点Pが右側画像の位置(u,v)に映っており、かつ左側画像の位置(u,v)に映っているとする。右側画像内の位置(u,v)における視差値がd=u−uであるとする。被撮影点Pの三次元空間における座標値(x,y,z)が、UV−disparity座標値(u,v,d)を用いて、次の式(8)で与えられることが知られている。
Figure 2018013462
したがって、平行化されたステレオ画像に対して、上記のとおり視差情報を生成し、視差情報に含まれる画素の座標値(u,v)および視差値dに対して、上記のとおり座標値(x,y,z)を求めることによって、ステレオカメラによって撮影された被撮影物の3次元空間における座標値を良好に推定することができる。
<視差情報生成装置200の構成の説明>
二次元画像入力部210は、平行化されたステレオ画像である第1の二次元画像(例えば、二次元画像X’)および第2の二次元画像(例えば、二次元画像Y’)を入力する。一例において、二次元画像入力部210は、視差情報生成装置200に接続されたステレオカメラ(図示せず)から、第1の二次元画像および第2の二次元画像を入力する。
二次元画像分解部220は、第1の二次元画像(例えば、二次元画像X’)に含まれ、ステレオ画像の視差方向と平行な方向(例えば、u方向)の第1の一次元画素列(例えば、一次元画素列(x,x,…,x))および第2の二次元画像(例えば、二次元画像Y’)に含まれ、ステレオ画像の視差方向と平行な方向(例えば、u方向)の第2の一次元画素列(例えば、一次元画素列(y,y,…,y))であって、第1の二次元画像および第2の二次元画像において視差方向と垂直な方向(例えば、v方向)の対応する座標値(例えば、同一の座標値)を有する第1の一次元画素列および第2の一次元画素列を、一次元画像入力部110に出力する。
三次元情報推定部230は、視差情報(例えば、各垂直位置vに対する列Tの第1成分および第5成分)に基づいて、例えば式(8)を用いて、ステレオ画像(二次元画像X’および二次元画像Y’)に含まれる被撮影物の三次元空間における座標値(x,y,z)を推定する。ここで、UV−disparity座標値(u,v,d)の値uおよびdは、それぞれ列Tの第1成分および第5成分に対応することに留意する。
本開示は、コンピュータを用いて実施することができる。コンピュータは、例えば、プログラムやデータを記憶するメモリと、プログラムを実行するプロセッサを備え、メモリとプロセッサとがバスを介して接続されている。プロセッサは、スカラ型のプロセッサでも、ベクトル型のプロセッサでもよく、例えば、CPU、GPU、GPGPUが挙げられる。
(その他の実施の形態)
第1の実施の形態においては、色空間として、Lが用いられている。しかしながら、これに代えて、色空間として、HSV,HLS等の他の色空間を用いる実施の形態も考えられる。さらに、これに代えて、モノクロ画像を用いる実施の形態も考えられる。
第1の実施の形態においては、特徴量間の隔たりに対応する値として、画素の色座標に基づく関数が用いられている。これに代えて、特徴量間の隔たりに対応する値として、例えばSobel FilterやScharr Filterを用いて求められる、画素における勾配に基づく関数を用いる実施の形態も考えられる。
第1の実施の形態においては、関数gを定義するためのノルムとして、最大値ノルムが用いられている。これに代えて、関数gを定義するためのノルムとして、L1ノルムやL2ノルム等、他のノルムを用いる実施の形態も考えられる。
第1の実施の形態においては、gi,jとして、関数値が画素xおよびyに依存する関数g(x,y)の値が用いられている。これに代えて、2つの画素列に依存する関数Gを用いて、gi,j=G(Si−1,j−1∩(x),Si−1,j−1∩(y))とする実施の形態も考えられる。
第1の実施の形態においては、視差情報を求めた後、視差情報に含まれない第1の画像の画素を無視している。これに代えて、視差情報に含まれない第1の画像の画素からなる一次元画像と視差情報に含まれる第1の画像の画素に対応する第2の画像の画素以外の第2の画像の画素からなる一次元画像とに対して視差情報を求め、最初に求めた視差情報に追加する実施の形態も考えられる。さらに、この手続きを反復する実施の形態も考えられる。
100 視差情報生成装置
110 一次元画像入力部
120 抽出部
130 視差情報生成部
200 視差情報生成装置
210 二次元画像入力部
220 二次元画像分解部
230 三次元情報推定部

Claims (8)

  1. 第1の一次元画素列および第2の一次元画素列を入力する一次元画像入力部と、
    前記第1の一次元画素列の第1の部分画素列であって、前記第2の一次元画素列のある第2の部分画素列と長さが等しく隔たりが予め定められた範囲にある前記第1の部分画素列のうち、最大の長さを有する前記第1の部分画素列に対して、前記最大の長さの予め定められた割合以上の長さを有する前記第1の部分画素列を第3の部分画素列として抽出する抽出部と、
    前記第3の部分画素列と長さが等しく隔たりが予め定められた範囲にある前記第2の部分画素列を第4の部分画素列とした場合、前記第3の部分画素列における第1の画素の位置に対応する前記第4の部分画素列における位置にある第2の画素に対して、前記第1の一次元画素列における前記第1の画素の位置および前記第2の一次元画素列における前記第2の画素の位置に基づいて、前記第1の画素または前記第2の画素に対する視差情報を生成する視差情報生成部と、
    を備える視差情報生成装置。
  2. 前記予め定められた割合は100%である、請求項1に記載の視差情報生成装置。
  3. 前記第1の部分画素列と前記第2の部分画素列との隔たりは、前記第1の部分画素列および前記第2の部分画素列の対応する位置にある画素対のそれぞれの画素に割り当てられたそれぞれの特徴量の間の隔たりに基づく量である、請求項1または2に記載の視差情報生成装置。
  4. 前記特徴量の間の隔たりは前記特徴量の間の距離であり、前記第1の部分画素列と前記第2の部分画素列との隔たりは、前記画素対のそれぞれの画素に割り当てられたそれぞれの特徴量の間の距離の最大値に等しい、請求項3に記載の視差情報生成装置。
  5. 前記特徴量は、前記画素における色座標値または勾配値である、請求項3または4に記載の視差情報生成装置。
  6. 平行化されたステレオ画像である第1の二次元画像および第2の二次元画像を入力する二次元画像入力部と、
    前記第1の二次元画像に含まれ、前記ステレオ画像の視差方向と平行な方向の第1の一次元画素列および前記第2の二次元画像に含まれ、前記平行な方向の第2の一次元画素列であって、前記第1の二次元画像および前記第2の二次元画像において前記視差方向と垂直な方向の対応する座標値を有する第1の一次元画素列および第2の一次元画素列を、前記一次元画像入力部に出力する二次元画像分解部と、
    前記視差情報に基づいて、前記ステレオ画像に含まれる被撮影物の三次元空間における座標値を推定する、前記三次元情報推定部と、
    を備える、請求項1から5のいずれか一項に記載の視差情報生成装置。
  7. 一次元画像入力部によって、第1の一次元画素列および第2の一次元画素列を入力するステップと、
    抽出部によって、前記第1の一次元画素列の第1の部分画素列であって、前記第2の一次元画素列のある第2の部分画素列と長さが等しく隔たりが予め定められた範囲にある前記第1の部分画素列のうち、最大の長さを有する前記第1の部分画素列に対して、前記最大の長さの予め定められた割合以上の長さを有する前記第1の部分画素列を第3の部分画素列として抽出するステップと、
    視差情報生成部によって、前記第3の部分画素列と長さが等しく隔たりが予め定められた範囲にある前記第2の部分画素列を第4の部分画素列とした場合、前記第3の部分画素列における第1の画素の位置に対応する前記第4の部分画素列における位置にある第2の画素に対して、前記第1の一次元画素列における前記第1の画素の位置および前記第2の一次元画素列における前記第2の画素の位置に基づいて、前記第1の画素または前記第2の画素に対する視差情報を生成するステップと、
    を備える視差情報生成方法。
  8. コンピュータを、
    第1の一次元画素列および第2の一次元画素列を入力する一次元画像入力部と、
    前記第1の一次元画素列の第1の部分画素列であって、前記第2の一次元画素列のある第2の部分画素列と長さが等しく隔たりが予め定められた範囲にある前記第1の部分画素列のうち、最大の長さを有する前記第1の部分画素列に対して、前記最大の長さの予め定められた割合以上の長さを有する前記第1の部分画素列を第3の部分画素列として抽出する抽出部と、
    前記第3の部分画素列と長さが等しく隔たりが予め定められた範囲にある前記第2の部分画素列を第4の部分画素列とした場合、前記第3の部分画素列における第1の画素の位置に対応する前記第4の部分画素列における位置にある第2の画素に対して、前記第1の一次元画素列における前記第1の画素の位置および前記第2の一次元画素列における前記第2の画素の位置に基づいて、前記第1の画素または前記第2の画素に対する視差情報を生成する視差情報生成部と、
    して機能させる、プログラム。
JP2016144995A 2016-07-23 2016-07-23 視差情報生成装置、視差情報生成方法、およびプログラム Pending JP2018013462A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016144995A JP2018013462A (ja) 2016-07-23 2016-07-23 視差情報生成装置、視差情報生成方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016144995A JP2018013462A (ja) 2016-07-23 2016-07-23 視差情報生成装置、視差情報生成方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2018013462A true JP2018013462A (ja) 2018-01-25

Family

ID=61020048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016144995A Pending JP2018013462A (ja) 2016-07-23 2016-07-23 視差情報生成装置、視差情報生成方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2018013462A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116320358A (zh) * 2023-05-19 2023-06-23 成都工业学院 一种视差图像预测装置及方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116320358A (zh) * 2023-05-19 2023-06-23 成都工业学院 一种视差图像预测装置及方法
CN116320358B (zh) * 2023-05-19 2023-12-01 成都工业学院 一种视差图像预测装置及方法

Similar Documents

Publication Publication Date Title
EP3816929B1 (en) Method and apparatus for restoring image
US20210241495A1 (en) Method and system for reconstructing colour and depth information of a scene
KR102483641B1 (ko) 양안 시차 영상의 처리 방법 및 장치
KR101723738B1 (ko) 딕셔너리 학습 기반 해상도 향상 장치 및 방법
CN110462685B (zh) 三维模型重建方法和系统
US11651581B2 (en) System and method for correspondence map determination
TW201436552A (zh) 用於使用至少一較高訊框率之影像流而增加影像流之訊框率之方法及裝置
Natesan Ramamurthy et al. Distributed bundle adjustment
Choi et al. Point cloud deformation for single image 3d reconstruction
US9721348B2 (en) Apparatus and method for raw-cost calculation using adaptive window mask
CN108305281A (zh) 图像的校准方法、装置、存储介质、程序产品和电子设备
CN104796624A (zh) 一种光场编辑传播方法
Barath et al. Relative pose from sift features
JP2014120079A (ja) 陰影情報導出装置、陰影情報導出方法及びプログラム
JP2018013462A (ja) 視差情報生成装置、視差情報生成方法、およびプログラム
CN114757822B (zh) 一种基于双目的人体三维关键点检测方法及系统
Yang et al. Deep Convolutional Grid Warping Network for Joint Depth Map Upsampling
Chang et al. Real-time Hybrid Stereo Vision System for HD Resolution Disparity Map.
JP2018081378A (ja) 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
Bandyopadhyay et al. RectiNet-v2: A stacked network architecture for document image dewarping
JP6384961B2 (ja) カメラキャリブレーション装置、カメラキャリブレーション方法、カメラキャリブレーションプログラム及び記録媒体
Kim et al. Development of 3D body shape creation methodology for obesity information and body shape management for tracking body condition check: body type in their 20s and 30s
CN110969651B (zh) 3d景深估计方法、装置及终端设备
Elasmar Computer vision experiments in crowdsourced astronomy
Yamao et al. A sequential online 3d reconstruction system using dense stereo matching