JP6392742B2 - 最適奥行き決定装置、最適奥行き決定方法及びコンピュータプログラム - Google Patents
最適奥行き決定装置、最適奥行き決定方法及びコンピュータプログラム Download PDFInfo
- Publication number
- JP6392742B2 JP6392742B2 JP2015243240A JP2015243240A JP6392742B2 JP 6392742 B2 JP6392742 B2 JP 6392742B2 JP 2015243240 A JP2015243240 A JP 2015243240A JP 2015243240 A JP2015243240 A JP 2015243240A JP 6392742 B2 JP6392742 B2 JP 6392742B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- image
- contrast
- optimum
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 84
- 238000004590 computer program Methods 0.000 title claims description 3
- 239000002131 composite material Substances 0.000 claims description 99
- 230000008569 process Effects 0.000 claims description 49
- 238000003384 imaging method Methods 0.000 claims description 11
- 238000009499 grossing Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 163
- 239000000203 mixture Substances 0.000 description 32
- 230000015572 biosynthetic process Effects 0.000 description 22
- 238000003786 synthesis reaction Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 18
- 230000009466 transformation Effects 0.000 description 17
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 16
- 238000006243 chemical reaction Methods 0.000 description 16
- 239000011159 matrix material Substances 0.000 description 14
- 238000000605 extraction Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 239000002245 particle Substances 0.000 description 6
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 239000004065 semiconductor Substances 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000007476 Maximum Likelihood Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005295 random walk Methods 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
図13は、従来システムにおいて仮想全天球画像を得るためのシステムを示す図である。図13に示すように、画像処理システム1は、全天球カメラ2と、複数のカメラ3−1、3−2、3−3、・・・、3−N(以下、「カメラ群3」という。)(Nは4以上の整数)と、画像処理装置4と、表示装置5とを備える。画像処理システム1は、競技用コート10内に仮想視点11を設定した場合に、競技用コート10外に設置したカメラ群3によって撮影された画像の合成によって仮想視点11における仮想全天球画像を得る。
図14は、画像処理システム1における画像処理の流れを説明するための図である。図14(A)は、背景画像20の具体例を示す図である。背景画像20には、仮想視点11を中心として全方位(360度)の被写体が撮影されている。背景画像20は、競技用コート10内に人物がいない状態で撮影される画像であるので競技用コート10内には人物が撮影されない。
図1は、本発明における画像処理システム100のシステム構成を示す図である。
画像処理システム100は、全天球カメラ60、複数のカメラ70−1〜70−M(Mは2以上の整数)及び画像処理装置80を備える。なお、以下の説明では、カメラ70−1〜70−Mについて特に区別しない場合には、カメラ70と記載する。
以下、画像処理装置80の具体的な構成について複数の実施形態(第1実施形態〜第4実施形態)を例に説明する。
第1実施形態では、画像処理システム100に2台のカメラ70(カメラ70−1及び70−2)が隣接して備えられている場合を例に説明する。また、以下の説明では、隣接するカメラ70の組(例えば、カメラ70−1と70−2との組)をカメラペアと記載する。
画像処理装置80は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置80は、入力画像記憶部801、合成情報記憶部802、決定部803、最適奥行き記憶部804、背景画像記憶部805、画像合成部806を備える装置として機能する。なお、画像処理装置80の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
合成情報記憶部802は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。合成情報記憶部802は、合成情報テーブルを記憶する。合成情報テーブルは、背景画像に対して画像を重畳するために用いられる情報(以下、「合成情報」という。)を表すレコード(以下、「合成情報レコード」という。)によって構成される。
合成情報テーブルは、合成情報レコードを複数有する。合成情報レコードは、カメラID及び合成情報の各値を有する。カメラIDの値は、カメラ70を識別するための識別情報を表す。例えば、図2におけるカメラID“C1”で識別されるカメラ70はカメラ70−1であり、カメラID“C1”で識別されるカメラ70はカメラ70−1である。
合成情報の値は、同じ合成情報レコードのカメラIDで識別されるカメラ70で撮影された画像(入力画像)から生成される画像を背景画像に重畳するために用いられる情報を表す。合成情報の具体例として、奥行き、抽出領域情報及び変換情報がある。
ある合成情報レコードの抽出領域情報の値は、カメラIDで識別されるカメラ70で撮影された画像(入力画像)から抽出する領域(以下、「抽出領域」という。)に関する情報を表す。抽出領域情報の具体例として、左上座標、幅及び高さがある。左上座標は、抽出領域の左上の座標を表す。幅は、抽出領域の幅を表す。高さは、抽出領域の高さを表す。なお、幅及び高さは、抽出領域の左上座標を基準とし、かつ、仮想視点82を含む範囲に設定される。抽出領域は、背景画像に重畳された画像上において、隣接するカメラ70の画像の間に隙間ができないような領域に設定されることが望ましい。なお、以下の説明では、抽出領域情報に応じて入力画像から抽出された部分領域の画像を部分領域画像と記載する。
決定部803は、入力画像記憶部801に記憶されているカメラペアの入力画像と、合成情報記憶部802に記憶されている合成情報テーブルとを入力とする。決定部803は、入力されたカメラペアの入力画像と合成情報テーブルとに基づいて、各カメラ70の各入力画像の最適奥行きを決定する。ここで、最適奥行きとは、入力画像に撮像されている被写体に関して多重像や消失が他の奥行きに比べて視認しにくい奥行きを表す。
まず決定部803は、合成情報テーブルの1つの奥行き(例えば、奥行き1)に対する抽出領域情報に基づいて、入力画像それぞれから部分領域を抽出することによって各入力画像の部分領域画像を生成する。次に、決定部803は、生成した各入力画像の部分領域画像に対して、合成情報テーブルの1つの奥行き(例えば、奥行き1)に対する変換情報のアフィン変換行列に基づく変形処理を行うことによって各入力画像の部分画像を生成する。次に、決定部803は、生成した各入力画像の部分画像を用いて、各入力画像の最適な奥行きを決定するための合成画像(以下、「奥行き決定用合成画像」という。)を生成する。例えば、決定部803は、変換情報に含まれる重畳情報に基づいて奥行き決定用合成画像を生成する。決定部803は、生成した奥行き決定用合成画像の重複領域に対するコントラストを算出する。本実施形態では、コントラストを輝度差で求める場合を例に説明する。なお、コントラストを輝度差で求める場合には後述する式1が用いられる。決定部803は、上記の処理を全ての奥行き1〜Nに対して行う。そして、決定部803は、全ての奥行き1〜Nにおいて算出したコントラストの中でコントラストが最も大きい奥行き決定用合成画像の奥行きをカメラペアの各入力画像の最適奥行きに決定する。決定部803は、決定したカメラペアの各入力画像の最適奥行きから各カメラ70の各入力画像の最適奥行きを決定する。なお、決定部803は、本実施形態のようにカメラペアが1つの場合には、カメラペアの各入力画像の最適奥行きを各カメラ70の各入力画像の最適奥行きに決定してもよい。カメラペアが複数ある場合の説明は後述する。決定部803は、決定した各カメラ70の各入力画像の最適奥行き情報を最適奥行き記憶部804に記憶させる。決定部803は、以上の処理を各時刻におけるカメラペアの入力画像に対して行う。
最適奥行き情報テーブルは、最適奥行き情報レコードを複数有する。最適奥行き情報レコードは、時刻及び最適奥行きの各値を有する。時刻の値は、入力画像が撮影された時刻を表す。ある最適奥行き情報レコードの最適奥行きの値は、ある時刻に撮影された各カメラ70の入力画像の最適奥行きを表す。
背景画像記憶部805は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。背景画像記憶部805は、全天球カメラ60によって撮影された全天球画像を背景画像として記憶する。
以下の説明では、画像合成部806による上記の全ての処理を画像合成処理ステップと記載する。
図4において、縦軸はコントラストを表し、横軸は奥行きを表す。奥行きの値が0に近いほど仮想視点82からの距離が近い奥行きを表し、奥行きの値が高くなるほど仮想視点82からの距離が遠い奥行きを表す。図4では、円90で示される奥行きdのコントラストが最も大きい。この場合、決定部803は、奥行きdをカメラペアの各入力画像の最適奥行きに決定する。
決定部803は、カメラペアの同時刻における入力画像を入力画像記憶部801から読み出す(ステップS101)。次に、決定部803は、読み出した入力画像と、合成情報記憶部802に記憶されている合成情報テーブルとに基づいて、1つの奥行きに対する変換情報を用いて奥行き決定用合成画像を生成する(ステップS102)。1つの奥行きの選択方法は、処理が行なわれていない奥行きを選択できればどのような補法であってもよい。例えば、決定部803は、仮想視点82に近い奥行から順番に奥行きを選択してもよいし、ランダムに奥行きを選択してもよいし、その他の方法で奥行きを選択してもよい。次に、決定部803は、生成した奥行き決定用合成画像の重複領域のコントラストを以下の式1に基づいて算出する(ステップS103)。なお、式1はコントラストの求め方の一例である。また、式1のLminは画像中の重複領域の最小輝度値を表し、Lmaxは画像中の重複領域の最大輝度値を表す。
一方、全ての奥行きに対してコントラストを算出する処理を行った場合(ステップS104−YES)、決定部803は算出した全ての奥行き対するコントラストに基づいてカメラペアの各入力画像の最適奥行きを決定する(ステップS105)。
なお、以下の説明では、図5のステップS102からステップS105までの処理をカメラペア奥行き決定処理と記載する。
画像処理装置80は、カメラペアの入力画像を用いて全ての奥行きに対する奥行き決定用合成画像を生成する。次に、画像処理装置80は、生成した全ての奥行きに対する奥行き決定用合成画像それぞれからコントラストを算出し、算出したコントラストが最も大きい奥行き決定用合成画像を選択する。コントラストが低い場合には画像がぼやけている可能性が高い。つまり、合成による多重像や消失が発生している画像である可能性が高い。したがって、画像処理装置80は、コントラストが最も大きい奥行き決定用合成画像を選択することによって、多重像や消失が発生していない可能性の高い画像を選択することができる。そのため、複数の撮影装置のそれぞれで撮影された画像の最適な奥行きを決定することが可能になる。
画像処理装置80における入力画像記憶部801、合成情報記憶部802、決定部803及び最適奥行き記憶部804は、最適奥行き決定装置として構成されてもよい。
本実施形態では、カメラペアが1つの場合について説明したが、カメラペアが複数ある場合には各カメラ70には2つの最適奥行きが存在することになる。例えば、あるカメラCi(iは2以上の整数)に関しては(Ci−1,Ci)のペアと(Ci,Ci+1)のペアがあり、それぞれのカメラペアに関して最適奥行きが決定される。そこで、決定部803は、カメラペアが複数ある場合にはそれぞれのペア(例えば、(Ci−1,Ci)のペアと(Ci,Ci+1)のペア)で決定された最適奥行きに基づいてカメラCiの最適奥行きを決定する。この方法としては、2つの最適奥行きのうち仮想視点82に近い奥行をカメラCiの最適奥行きと決定する方法などがある。決定部803は、この処理を全てのカメラペアに対して行うことによってカメラペアが複数ある場合においても各カメラ70の各入力画像の最適奥行きを決定することができる。そして、決定部803は、決定した各カメラ70の各入力画像の最適奥行きの情報を最適奥行き記憶部804に記憶させる。その後、画像合成部806は、画像合成処理ステップを実行してもよいし、合成画像の生成指示が入力されたタイミングで画像合成処理ステップを実行してもよいし、その他のタイミングで画像合成処理ステップを実行してもよい。
また、カメラペアを選ぶ際に、(Ci−1,Ci)のペアと(Ci+1,Ci+2)のペアとするなど1台のカメラ70には2つの最適奥行きが存在しないようにする方法をとってもよい。
第2実施形態では、第1実施形態よりも処理の高速化を実現する。具体的には、第1実施形態ではN個の奥行き全てに対してコントラストを算出する処理が行なわれているのに対して、第2実施形態では、画像処理装置は、第1実施形態よりも少ない奥行きに基づいてカメラペアの各入力画像の最適奥行きを決定する。より具体的には、第2実施形態では、画像処理装置は、処理を繰り返す度に奥行き候補群に含まれる各奥行きの間隔が狭くなるように新たな奥行き候補群を作成し、所定の回数繰り返した時点の最終的な奥行き候補群に含まれる奥行きの中から最適な奥行きを決定する。また、第2実施形態では、第1実施形態と同様に、画像処理システム100に2台のカメラ70(カメラ70−1及び70−2)がカメラペアとして備えられている場合を例に説明する。
まず決定部803aは、N個の奥行きのうち特定の奥行き(例えば、S個の奥行き)を選択する。ここで、特定の奥行きの選択方法としては、等間隔(N/S個置き)に奥行きを選択する方法などが挙げられる。以下、このようなN個の奥行きのうち特定の奥行きを選択する処理を初期処理と記載する。初期処理で選択された奥行きを初期奥行き候補群と記載する。次に、決定部803aは、合成情報テーブルを参照して、初期奥行き候補群に含まれる奥行きそれぞれについて奥行き決定用合成画像を生成し、生成した奥行き決定用合成画像のコントラストを算出する。奥行き決定用合成画像の生成及びコントラストの算出に関する処理については第1実施形態と同様である。この処理によって、決定部803aは、初期奥行き候補群に含まれる各奥行きの奥行き決定用合成画像の生成及びコントラストの算出を行う。そして、決定部803aは、算出したコントラストの中でコントラストが最も大きい奥行きを含む新たな奥行き候補群を作成する。なお、決定部803aは、新たな奥行き候補群を作る際には、コントラストが最も大きかった奥行きが中心になるような範囲から新たな奥行き候補群を作成する。中心になるような範囲は、予め定められる。
決定部803aは、コントラストが最も大きい奥行きと、コントラストが最も大きい奥行きに隣接する奥行きとの間において所定の数の奥行きを選択する。例えば、S3がコントラストが最も大きい奥行きであれば、隣接する奥行きはS2及びS4となる。このように、決定部803aは、コントラストが最も大きい奥行きに隣接する奥行きの間(例えば、S2とS4の間)を「コントラストが最も大きかった奥行きが中心になるような範囲」とする。そして、決定部803aは、「コントラストが最も大きかった奥行きが中心になるような範囲」の中(例えば、S2とS4の間)からT(Tは1以上の整数)個の奥行きを選択する。例えば、T個の奥行きは、合成情報テーブルに記憶されている、コントラストが最も大きい奥行きに隣接する奥行きの間(コントラストが最も大きかった奥行きが中心になるような範囲)の奥行きの中から等間隔に選択されてもよい。その後、決定部803aは、コントラストが最も大きい奥行き(例えば、S3)と、コントラストが最も大きい奥行きに隣接する奥行きの間(例えば、S2及びS4の間)の奥行きの中から選択されたT個の奥行きと、を含む新たな奥行き候補群を作成する。つまり、決定部803aは、T+1個の奥行きを含む新たな奥行き候補群を作成する。
決定部803aは、カメラペアの同時刻における入力画像を入力画像記憶部801から読み出し、入力する(ステップS201)。次に、決定部803aは、N個の奥行きのうちS個の奥行きを選択することによって、初期奥行き候補群を作成する(ステップS202)。具体的には、決定部803aは、予め設定されている複数の奥行きの中から特定の数の奥行きを選択することによって初期奥行き候補群を作成する。なお、初期奥行き候補群を作成する処理は、初期処理にのみ行われる。決定部803aは、読み出した入力画像と、合成情報記憶部802に記憶されている合成情報テーブルとに基づいて、奥行き候補群に含まれる1つの奥行きに対する変換情報を用いて奥行き決定用合成画像を生成する(ステップS203)。決定部803aは、生成した奥行き決定用合成画像の重複領域のコントラストを上記の式1に基づいて算出する(ステップS204)。その後、決定部803aは、奥行き候補群に含まれる奥行きの全てに対してコントラストを算出する処理を行ったか否か判定する(ステップS205)。奥行き候補群に含まれる奥行きの全てに対してコントラストを算出する処理を行っていない場合(ステップS205−NO)、決定部803aは奥行き候補群に含まれる奥行きの全てに対してコントラストを算出する処理を行うまでステップS203及びステップS204の処理を繰り返し実行する。
一方、ステップS206の処理を所定の回数行なった場合(ステップS207−YES)、決定部803aは最終的な奥行き候補群の中でコントラストが最も大きい奥行きをカメラペアの各入力画像の最適奥行きに決定する(ステップS208)。ここで、最終的な奥行き候補群とは、ステップS206の処理を所定の回数行なった時点の奥行き候補群を表す。
また、画像処理装置80aは、第1実施形態と比べて少数の奥行きに基づいた推定を行いながら最適奥行きを決定する。そのため、第1実施形態に比べて処理を高速化することが可能になる。
第2実施形態は、第1実施形態と同様に変形されてもよい。
処理を繰り返す度に新たな奥行き候補群を作成し、作成した新たな候補群から最適解(本実施形態では、最適奥行き)を決定する処理として、Coarse−to−fineな方法や、シンプレックス法などが用いられてもよい。
本実施形態では、ステップS206の処理が所定の回数行なわれた場合にステップS208の処理が実行される例を示したが、ステップS208の処理は記憶されている奥行き候補の最小単位に行き着いた場合に行われてもよい。
本実施形態では、合成情報テーブルに登録されている奥行きの中から選択して奥行き候補群を作成する構成を示したが、決定部803aは合成情報テーブルに登録されている奥行き以外の奥行きを含めて奥行き候補群を作成するように構成されてもよい。例えば、仮想視点82からの距離が1である奥行きα(奥行きα=1)と、仮想視点82からの距離が3である奥行きβ(奥行きβ=3)とが合成情報テーブルに登録されている場合、決定部803aは2つの奥行きの間の奥行きである仮想視点82からの距離が2(奥行きαと奥行きβの間の奥行きγ=2)の奥行きγを含めて奥行き候補群を作成する。このように、合成情報テーブルに登録されている奥行き以外の奥行きを奥行き候補群に含めて用いる場合、決定部803aは合成情報テーブルに登録されている奥行き以外の奥行きの変換情報を登録されている奥行きの変換情報から補間するなどして求める。例えば、変換情報がアフィン変換行列であり、奥行きα=1のときのアフィン変換行列A1j1、奥行きβ=3のときのアフィン変換行列A1j2であるとすると、奥行きαと奥行きβの間の奥行きγのアフィン変換行列の各要素は、A1j1の行列の各要素と、A1j2の行列の各要素とを平均するなどして求めればよい。なお、この例は一例であり、決定部803aは2つの奥行きの間(例えば、奥行きαと奥行きβの間)の奥行きとして複数の奥行きを含めて奥行き候補群を作成してもよい。
(第1の方法)
第1の方法は、コントラストが最も大きい奥行きと、コントラストが最も大きい奥行きに隣接する奥行きそれぞれとの間においてそれぞれ所定の数の奥行きを選択し、選択したそれぞれの所定の数の奥行きと、コントラストが最も大きい奥行きと、を含む新たな奥行き候補群を作成する方法である。以下、具体的に説明する。
まず決定部803aは、上記のように「コントラストが最も大きかった奥行きが中心になるような範囲」を定める。つまり、S3がコントラストが最も大きい奥行きであれば、隣接する奥行きはS2及びS4となり、S2とS4の間が「コントラストが最も大きかった奥行きが中心になるような範囲」になる。ここで、コントラストが最も大きい奥行き(例えば、S3)とコントラストが最も大きい奥行きに隣接する奥行きの一方(例えば、S2)との間を第1範囲とし、コントラストが最も大きい奥行きとコントラストが最も大きい奥行きに隣接する奥行きの他方(例えば、S4)との間を第2範囲とする。次に、決定部803aは、第1範囲においてU(Uは1以上の整数)個の奥行きを選択し、第2範囲においてV(Vは1以上の整数)個の奥行きを選択する。例えば、U個の奥行きは、合成情報テーブルに記憶されている、第1範囲内の奥行きの中から等間隔に選択されてもよい。また、例えば、V個の奥行きは、合成情報テーブルに記憶されている、第2範囲内の奥行きの中から等間隔に選択されてもよい。なお、UとVは同じ値であってもよいし、異なる値であってもよい。その後、決定部803aは、コントラストが最も大きい奥行き(例えば、S3)と、第1範囲の奥行きの中から選択されたU個の奥行きと、第2範囲の奥行きの中から選択されたV個の奥行きと、を含む新たな奥行き候補群を作成する。つまり、決定部803aは、U+V+1個の奥行きを含む新たな奥行き候補群を作成する。
第2の方法は、コントラストが最も大きい奥行きと、コントラストが最も大きい奥行きに隣接する奥行きの一方との間において所定の数の奥行きを選択し、選択した所定の数の奥行きと、コントラストが最も大きい奥行きと、を含む新たな奥行き候補群を作成する方法である。以下、具体的に説明する。
まず決定部803aは、上記のように「コントラストが最も大きかった奥行きが中心になるような範囲」を定める。つまり、S3がコントラストが最も大きい奥行きであれば、隣接する奥行きはS2及びS4となり、S2とS4の間が「コントラストが最も大きかった奥行きが中心になるような範囲」になる。ここで、コントラストが最も大きい奥行き(例えば、S3)とコントラストが最も大きい奥行きに隣接する奥行きの一方(例えば、S2)との間を第3範囲とする。次に、決定部803aは、第3範囲においてZ(Zは1以上の整数)個の奥行きを選択する。例えば、Z個の奥行きは、合成情報テーブルに記憶されている、第3範囲内の奥行きの中から等間隔に選択されてもよい。その後、決定部803aは、コントラストが最も大きい奥行き(例えば、S3)と、第3範囲の奥行きの中から選択されたZ個の奥行きと、を含む新たな奥行き候補群を作成する。つまり、決定部803aは、Z+1個の奥行きを含む新たな奥行き候補群を作成する。
第1実施形態及び第2実施形態では、各時刻における各カメラ70の各入力画像の最適奥行きを決定する構成について説明した。このように決定された最適奥行きに基づいて生成される合成画像(仮想全天球画像)を映像として再生した場合、各時刻における最適奥行きが異なるため違和感のある映像になってしまうおそれがある。そこで、第3実施形態では、画像処理装置は、各時刻における各カメラ70の各入力画像の最適奥行きが時間方向に滑らかに変化するように平滑化(スムージング)処理を行う。また、第3実施形態では、画像処理システム100に複数のカメラペアが存在する場合を例に説明する。
図9において、縦軸は奥行きを表し、横軸は時刻を表す。図9に示す複数の円は各時刻における暫定最適奥行きを表す。なお、図9では、あるカメラ70の各時刻における暫定最適奥行きの例を示している。各時刻において暫定最適奥行きが決定されるため、図9に示す円92のように前後の暫定最適奥行きと大幅にずれている暫定最適奥行きが存在する場合がある。このような場合には、映像として再生すると違和感のある映像になってしまう可能性がある。そこで、決定部803bは、各時刻における暫定最適奥行きの値を時間軸上に並べてなめらかになるようにスムージングする。例えば、決定部803bは、多項式近似することによって各時刻における暫定最適奥行きから、映像として再生した場合に違和感が軽減されるような最適奥行きの推定値を求める。図9に示される線93が多項式近似によって得られた各時刻における最適奥行きの推定値である。決定部803bは、この処理によって得られた各時刻における最適奥行きの推定値をあるカメラ70の各時刻における最適奥行きとして決定する。そして、決定部803bは、決定した最適奥行きで、最適奥行き記憶部804に記憶されている暫定最適奥行きを上書きすることによって最適奥行きを更新する。
決定部803bは、あるカメラペアのある時刻における入力画像を入力画像記憶部801から読み出す(ステップS301)。次に、決定部803bは、読み出した入力画像と、合成情報記憶部802に記憶されている合成情報テーブルとに基づいてカメラペア奥行き決定処理を行う(ステップS302)。決定部803bは、全てのカメラペアの各入力画像の最適奥行きを決定したか否か判定する(ステップS303)。全てのカメラペアの各入力画像の最適奥行きを決定していない場合(ステップS303−NO)、決定部803bは他のカメラペアを選択する(ステップS304)。ここで、選択される他のカメラペアは、カメラペア奥行き決定処理が行なわれていないカメラペアである。その後、決定部803bは、選択した他のカメラペアに対してステップS301からステップS302までの処理を実行する。
一方、ステップS308及びステップS309の処理を全てのカメラ70に対して行った場合(ステップS310−YES)、画像合成部806は画像合成処理ステップを実行する(ステップS311)。
画像処理装置80bは、各時刻における暫定最適奥行きの情報を用いて、各時刻における最適奥行きの値が滑らかになるようにスムージングを行う。これにより、画像処理装置80bは、ある時刻における最適奥行きが他の最適奥行きと大幅にずれている場合であっても前後の時刻における最適奥行きから、大幅にずれている時刻における最適奥行きを補正することができる。そのため、各時刻における入力画像を用いてそれぞれ生成された仮想全天球画像を映像で出力する場合に生じる可能性がある違和感を軽減することが可能になる。
画像処理装置80bにおける入力画像記憶部801、合成情報記憶部802、決定部803b及び最適奥行き記憶部804は、最適奥行き決定装置として構成されてもよい。
本実施形態では、決定部803bが決定部803と同様の処理を行うことによって各カメラ70の各入力画像の最適奥行きを決定する構成を示したが、決定部803bは決定部803aと同様の処理を行うことによって各カメラ70の各入力画像の最適奥行きを決定するように構成されてもよい。
第4実施形態では、仮想全天球画像をリアルタイムに映像として出力する場合について説明する。具体的には、第4実施形態では、ある時刻tにおけるカメラ70の入力画像の最適奥行きを直前の時刻(例えば、時刻t−1、t−2など)の最適奥行きに基づいて決定する。また、第4実施形態では、画像処理システム100に複数のカメラペアが存在する場合を例に説明する。
決定部803cは、時刻tに撮影されたカメラペアの入力画像を入力画像記憶部801から読み出す(ステップS401)。なお、処理開始時には、時刻tは初期時刻である。初期時刻とは全ての時刻における最初の時刻を設定することが一般的であるが、今回導入しているような時系列フィルタリングの考え方は誤差が蓄積して望ましくない値に収束する場合がある(ドリフトと呼ばれている)。このような場合、適当な条件を満たした時、例えば時刻tで最大尤度が閾値以下になった時に時刻t+1を初期時刻としてもよい。
一方、ステップS401からステップ407までの処理を全てのカメラペアに対して行った場合(ステップS408−YES)、決定部803cは時刻tにおけるカメラペアの各入力画像の最適奥行きから各カメラ70の各入力画像の最適奥行きを決定する(ステップS409)。その後、決定部803cは、時刻tにおける各カメラ70の各入力画像の最適奥行きを最適奥行き記憶部804cに記憶させる。その後、画像合成部806は、画像合成処理ステップを実行する(ステップS311)。
画像処理装置80cは、時刻tにおける各カメラ70の入力画像の最適奥行きを過去の時刻(例えば、直前の時刻)の入力画像の最適奥行きから推定する。具体的には、まず画像処理装置80cは、時刻tにおけるカメラペアの各入力画像の奥行きを決定するための奥行き候補群に含まれる奥行きについて予測モデルを用いて奥行きの予想値を算出する。次に、画像処理装置80cは、算出した奥行きの予想値の尤度を算出する。そして、画像処理装置80cは、算出した尤度に基づいて時刻tにおけるカメラペアの入力画像の最適奥行きを決定する。その後、画像処理装置80cは、同様の処理を全てのカメラペアの入力画像に対して行う。そのため、リアルタイムに各カメラ70の入力画像の最適奥行きを決定することが可能になる。
画像処理装置80cにおける入力画像記憶部801、合成情報記憶部802、決定部803c及び最適奥行き記憶部804cは、最適奥行き決定装置として構成されてもよい。
本発明は、全天球画像の場合に限らず、複数のカメラ70で撮影された画像を背景画像に重畳することによって合成画像を生成する場合に適用可能である。
本実施形態では、合成情報テーブルに登録されている幅の値が全てのカメラIDで同じであるが、幅の値はカメラID毎に異なっていてもよいし、一部のカメラIDで異なっていてもよい。
決定部803は、1つの入力画像の所定の領域毎にそれぞれ最適奥行きを決定してもよい。
Claims (5)
- 所定の位置を含む領域が撮影範囲となるように前記所定の位置を含む領域の周囲に設置された少なくとも2つの撮影装置それぞれが撮影した複数の入力画像を用いて、前記所定の位置を仮想的な視点である仮想視点として前記仮想視点からの距離を表す複数の異なる奥行きの合成画像を生成し、生成した複数の合成画像それぞれからコントラストを算出し、算出した前記コントラストに基づいて複数の合成画像のうちコントラストが最も大きい合成画像の奥行きを各入力画像の最適奥行きに決定する決定部を備え、
前記決定部は、コントラストが最も大きい合成画像の奥行きと、前記コントラストが最も大きい合成画像の奥行きの近傍の奥行きとの間において所定数の奥行きを求め、前記コントラストが最も大きい合成画像の奥行きと、選択した所定数の奥行きとを含む新たな奥行き候補群の中からコントラストが最も大きい合成画像の奥行きを決定する処理を実行し、前記処理を所定の回数繰り返し行った時点におけるコントラストが最も大きい合成画像の奥行きを前記最適奥行きに決定する最適奥行き決定装置。 - 前記決定部は、前記撮影装置によって撮影された各時刻における入力画像の最適奥行きを決定し、決定した前記各時刻における最適奥行きの値を暫定最適奥行きとして時系列順に並べ、前記各時刻の暫定最適奥行きの値を時間方向に平滑化することによって得られる各時刻の最適奥行きの推定値を前記撮影装置によって撮影された各時刻における入力画像の最適奥行きに決定する、請求項1に記載の最適奥行き決定装置。
- 前記決定部は、ある時刻において前記撮影装置それぞれで撮影された各入力画像の最適奥行きを、前記ある時刻よりも前の時刻における前記撮影装置の入力画像の最適奥行きに基づいて決定する、請求項1又は2に記載の最適奥行き決定装置。
- 所定の位置を含む領域が撮影範囲となるように前記所定の位置を含む領域の周囲に設置された少なくとも2つの撮影装置それぞれが撮影した複数の入力画像を用いて、前記所定の位置を仮想的な視点である仮想視点として前記仮想視点からの距離を表す複数の異なる奥行きの合成画像を生成し、生成した複数の合成画像それぞれからコントラストを算出し、算出した前記コントラストに基づいて複数の合成画像のうちコントラストが最も大きい合成画像の奥行きを各入力画像の最適奥行きに決定する決定ステップを有し、
前記決定ステップにおいて、コントラストが最も大きい合成画像の奥行きと、前記コントラストが最も大きい合成画像の奥行きの近傍の奥行きとの間において所定数の奥行きを求め、前記コントラストが最も大きい合成画像の奥行きと、選択した所定数の奥行きとを含む新たな奥行き候補群の中からコントラストが最も大きい合成画像の奥行きを決定する処理を実行し、前記処理を所定の回数繰り返し行った時点におけるコントラストが最も大きい合成画像の奥行きを前記最適奥行きに決定する最適奥行き決定方法。 - 所定の位置を含む領域が撮影範囲となるように前記所定の位置を含む領域の周囲に設置された少なくとも2つの撮影装置それぞれが撮影した複数の入力画像を用いて、前記所定の位置を仮想的な視点である仮想視点として前記仮想視点からの距離を表す複数の異なる奥行きの合成画像を生成し、生成した複数の合成画像それぞれからコントラストを算出し、算出した前記コントラストに基づいて複数の合成画像のうちコントラストが最も大きい合成画像の奥行きを各入力画像の最適奥行きに決定する決定ステップをコンピュータに実行させ、
前記決定ステップにおいて、コントラストが最も大きい合成画像の奥行きと、前記コントラストが最も大きい合成画像の奥行きの近傍の奥行きとの間において所定数の奥行きを求め、前記コントラストが最も大きい合成画像の奥行きと、選択した所定数の奥行きとを含む新たな奥行き候補群の中からコントラストが最も大きい合成画像の奥行きを決定する処理を実行し、前記処理を所定の回数繰り返し行った時点におけるコントラストが最も大きい合成画像の奥行きを前記最適奥行きに決定するためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015243240A JP6392742B2 (ja) | 2015-12-14 | 2015-12-14 | 最適奥行き決定装置、最適奥行き決定方法及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015243240A JP6392742B2 (ja) | 2015-12-14 | 2015-12-14 | 最適奥行き決定装置、最適奥行き決定方法及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017112419A JP2017112419A (ja) | 2017-06-22 |
JP6392742B2 true JP6392742B2 (ja) | 2018-09-19 |
Family
ID=59079854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015243240A Active JP6392742B2 (ja) | 2015-12-14 | 2015-12-14 | 最適奥行き決定装置、最適奥行き決定方法及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6392742B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12131491B2 (en) | 2019-05-10 | 2024-10-29 | Nippon Telegraph And Telephone Corporation | Depth estimation device, depth estimation model learning device, depth estimation method, depth estimation model learning method, and depth estimation program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09231408A (ja) * | 1996-02-28 | 1997-09-05 | Matsushita Electric Ind Co Ltd | 動画像合成装置 |
JP3938122B2 (ja) * | 2002-09-20 | 2007-06-27 | 日本電信電話株式会社 | 擬似3次元画像生成装置および生成方法並びにそのためのプログラムおよび記録媒体 |
JP2006053694A (ja) * | 2004-08-10 | 2006-02-23 | Riyuukoku Univ | 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体 |
JP4752031B2 (ja) * | 2004-10-01 | 2011-08-17 | ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティ | 撮像の装置と方法 |
JP5840114B2 (ja) * | 2011-11-30 | 2016-01-06 | 三菱電機株式会社 | 仮想画像を生成する方法 |
JP5414947B2 (ja) * | 2011-12-27 | 2014-02-12 | パナソニック株式会社 | ステレオ撮影装置 |
-
2015
- 2015-12-14 JP JP2015243240A patent/JP6392742B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017112419A (ja) | 2017-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6641163B2 (ja) | オブジェクト追跡装置及びそのプログラム | |
JP6204659B2 (ja) | 映像処理装置及び映像処理方法 | |
JP5820257B2 (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
JP5725953B2 (ja) | 撮像装置及びその制御方法、並びに情報処理装置 | |
JP5569357B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2020129276A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP6308748B2 (ja) | 画像処理装置、撮像装置及び画像処理方法 | |
JP6317635B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
CN106210699B (zh) | 信息处理装置、信息处理装置的控制方法及图像处理系统 | |
JP6392742B2 (ja) | 最適奥行き決定装置、最適奥行き決定方法及びコンピュータプログラム | |
JP6606242B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP6416741B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP6389452B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP6420750B2 (ja) | 合成情報テーブル作成装置、合成情報テーブル作成方法及びコンピュータプログラム | |
JP6426594B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP6392739B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
CN110692235B (zh) | 图像处理装置、图像处理程序及图像处理方法 | |
JP6218220B2 (ja) | 撮像画像処理装置および方法、撮像画像処理プログラム並びに撮像画像処理システム | |
JP5927053B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6416740B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP6346157B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP2018174461A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6450306B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP2015055988A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6416734B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170801 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180704 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180821 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180823 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6392742 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |