JP2017097799A - 画像処理装置、画像処理方法及びコンピュータプログラム - Google Patents
画像処理装置、画像処理方法及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2017097799A JP2017097799A JP2015232336A JP2015232336A JP2017097799A JP 2017097799 A JP2017097799 A JP 2017097799A JP 2015232336 A JP2015232336 A JP 2015232336A JP 2015232336 A JP2015232336 A JP 2015232336A JP 2017097799 A JP2017097799 A JP 2017097799A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- virtual viewpoint
- area
- partial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
図9は、従来システムにおいて仮想全天球画像を得るためのシステムを示す図である。図9に示すように、画像処理システム1は、全天球カメラ2と、複数のカメラ3−1、3−2、3−3、・・・、3−N(以下、「カメラ群3」という。)(Nは4以上の整数)と、画像処理装置4と、表示装置5とを備える。画像処理システム1は、競技用コート10内に仮想視点11を設定した場合に、競技用コート10外に設置したカメラ群3によって撮影された画像の合成によって仮想視点11における仮想全天球画像を得る。
図10は、画像処理システム1における画像処理の流れを説明するための図である。図10(a)は、背景画像20の具体例を示す図である。背景画像20には、仮想視点11を中心として全方位(360度)の被写体が撮影されている。背景画像20は、競技用コート10内に人物がいない状態で撮影される画像であるので競技用コート10内には人物が撮影されない。
図1は、本発明における画像処理システム100のシステム構成を示す図である。
画像処理システム100は、全天球カメラ60、複数のカメラ70−1〜70−M(Mは2以上の整数)及び画像処理装置80を備える。なお、以下の説明では、カメラ70−1〜70−Mについて特に区別しない場合には、カメラ70と記載する。
中間画像生成部802は、画像入力部801から出力された複数の入力画像を入力とする。中間画像生成部802は、入力された複数の入力画像のうち隣接する2台のカメラ70それぞれによって同時刻に撮影された入力画像に基づいて、2視点(2台のカメラ70での撮影位置)の間の撮影位置における画像(以下、「中間画像」という。)を生成する。例えば、中間画像生成部802は、View Morphingを利用することによって中間画像を生成する。中間画像生成部802は、生成した中間画像と、中間画像の生成に利用した複数の入力画像を部分領域抽出部804に出力する。また、中間画像生成部802は、中間画像の生成に利用した複数の入力画像を画像処理部807に出力する。View Morphingは、2視点で撮影された画像と、各画像の対応点を入力として中間画像を生成する手法である。なお、対応点は手動で与えられてもよいし、SURF(Speeded Up Robust Features)やSIFT(Scale-invariant feature transform)などの技術を適用して与えられてもよい。View Morphingの手法は、例えば参考文献1に記載の技術を用いることができる。
[参考文献1]Seitz, S. M., and C. R. Dyer. "View Morphing, 1996.", Siggraph 1996 Conference Proceedings, Annual Conference Series. 1996.
中間画像の生成結果を図2に示す。
図2では、以下に示すカメラ配置の下で生成された中間画像を示している。
カメラ配置は、水平方向に2個以上、かつ、仮想視点82を中心として円周状、かつ、カメラ70の撮影方向として仮想視点82を含むように配置されている。なお、ここで示したカメラ配置は一例であり、カメラ70の撮影方向として仮想視点82を含むように配置されていれば、その他の配置であってもよい。
図2において、画像83はカメラ70−1によって撮影された画像を表し、画像84はカメラ70−2によって撮影された画像を表し、画像85は中間画像を表す。また、光線71及び72は実光線を表し、光線73は仮想光線を表す。ここで、仮想光線とは、仮想的に得られる光線である。実光線が含まれる2視点の各画像を用いて生成される中間画像は、実光線と同様に仮想視点82の位置上を通過する仮想光線を含む。なお、図2では、中間画像が1つの場合を例に示しているが、中間画像は複数生成されてもよい。中間画像の生成数は、事前に中間画像生成部802に入力される。例えば、ユーザが不図示の入力装置を用いて中間画像の生成数を入力してもよい。入力装置は、キーボード、ポインティングデバイス(マウス、タブレット等)、タッチパネル、ボタン等の既存の入力装置を用いて構成される。
抽出領域情報記憶部803は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。抽出領域情報記憶部803は、抽出領域情報テーブルを記憶する。抽出領域情報テーブルは、全天球画像に合成するために各画像(入力画像及び中間画像)から抽出する領域に関する情報を表すレコード(以下、「抽出領域情報レコード」という。)で構成される。
抽出領域情報テーブルは、抽出領域情報レコードを複数有する。抽出領域情報レコードは、画像ID及び抽出領域情報の各値を有する。画像IDの値は、領域の抽出対象となる画像を識別するための識別情報を表す。図3において、画像ID“I1”及び“I10”は、隣り合うカメラ70のそれぞれで撮影された入力画像の識別情報を表す。図3において、画像ID“I2”〜“I9”は、中間画像の識別情報を表す。抽出領域情報の値は、同じ抽出領域情報レコードの画像IDで識別される画像から抽出する領域(以下、「抽出領域」という。)に関する情報を表す。抽出領域情報の具体例として、左上座標、幅及び高さがある。左上座標は、抽出領域の入力画像中での左上の座標を表す。幅は、抽出領域の入力画像中での幅を表す。高さは、抽出領域の入力画像中での高さを表す。なお、幅及び高さは、抽出領域の左上座標を基準とし、かつ、抽出領域中に仮想視点を含む範囲に設定される。
なお、図3では、一つの画像から一つの部分領域を利用する場合の抽出領域情報テーブルを示している。また、後述する図8では、一つの画像から複数の部分領域を利用する場合の抽出領域情報テーブルを示している。図8についての説明は後述するためここでは省略する。
部分領域抽出部804は、中間画像生成部802から出力された中間画像及び入力画像と、抽出領域情報記憶部803に記憶されている抽出領域情報テーブルとを入力とする。部分領域抽出部804は、入力された抽出領域情報テーブルの抽出領域情報に基づいて、入力された各画像(入力画像及び中間画像)から全天球画像に重畳させる仮想視点82の位置を含む部分領域を抽出する。以下、部分領域抽出部804によって抽出された部分領域を部分領域画像と記載する。部分領域抽出部804は、各画像の各部分領域画像を画像合成部806に出力する。
図4では、2視点(カメラ70−1及び70−2)それぞれで撮影された画像83及び画像84と、画像83及び画像84から生成された中間画像85とから部分領域を抽出する処理について説明する。カメラ70−1及び70−2は、図4に示すように仮想視点82の位置を撮影するように設置されている。部分領域抽出部804は、抽出領域情報テーブルに基づいて、各画像(入力画像及び中間画像)から部分領域を抽出する。例えば、部分領域抽出部804は、画像83から部分領域86を抽出する。部分領域抽出部804は、部分領域の抽出の一例として、図4に示すように部分領域を短冊形に抽出する。また、部分領域抽出部804は、画像84から部分領域87を抽出する。そして、部分領域抽出部804は、中間画像85から部分領域88を抽出する。このように、部分領域抽出部804は、抽出領域情報テーブルで予め定められた情報に基づいて部分領域を抽出する。
画像合成部806は、部分領域抽出部804から出力された部分領域画像と、背景画像記憶部805に記憶されている背景画像とを入力とする。画像合成部806は、入力された部分領域画像を、背景画像に重畳することによって合成画像である仮想全天球画像を生成する。より具体的には、画像合成部806は、部分領域画像の画素値で、全天球画像上の部分領域画像が対応する位置の画素値を置き換えることによって全天球画像に部分領域画像を重畳する。画像合成部806は、生成した仮想全天球画像を画像処理部807に出力する。
画像処理部807は、画像合成部806から出力された仮想全天球画像と、中間画像生成部802から出力された入力画像とを入力とする。画像処理部807は、入力された仮想全天球画像に対して入力画像を用いて画像の品質を向上させるための画像処理を行う。
まず、画像合成部806の処理を行う前に以下のような事前処理が行なわれる。
図5において、隣り合うカメラ70をCi、Ci+1とし、それらカメラで撮影した画像をそれぞれIi、Ii+1とする。さらに、あるカメラCiについて、Ciの光学中心と仮想視点82とを結んだ直線上に基準物体(チェスボードやボール)を設置する。そして、その基準物体上の点をpiとしたとき、piの全天球画像上への投影点をq’iとし、Ciの画像Ii上の投影点をqiとする。この時、q’iとqiは対応付いている。そのため、画像合成部806は、あるカメラCiについて合成時にはq’iの画素値としてqiの画素値を利用する。例えば、画像合成部806は、あるカメラCiから抽出した部分領域画像を全天球画像に重畳する場合には、全天球画像上のq’iと部分領域画像に含まれるqiとが重なるように部分領域画像を全天球画像に重畳する。
上記のような対応付けを,部分領域画像に含まれる全てのピクセルについて実施する。
画像合成部806は、上述した対応付けの結果をテーブルとして記憶しておき、中間画像から抽出された部分領域画像を全天球画像に重畳する。画像合成部806は、この処理を部分領域画像全て対して行うことによって仮想全天球画像を生成する。上記の方法によって、生成される仮想全天球画像の具体例を図6に示す。
図6に示されるように、仮想全天球画像90は、全天球画像に対して各画像から抽出された部分領域画像が合成される。なお、図6では、図4に示す各画像83、84及び85のそれぞれから抽出された部分領域画像86、87及び88が仮想全天球画像90上のどの部分に含まれるのかを示している。
まず、画像処理部807(決定部)は、全天球画像に重畳された部分領域画像で構成される領域(以下、「処理対象領域」という。)中から処理対象となる小領域(パッチ)を決定する。この方法としては、処理対象画像の輪郭上に存在し、周辺のエッジの強いパッチから選定する方法などが挙げられる。ここで、決定された小領域をp(X,Y)とする。(X,Y)は、小領域の左上の座標を表す。次に、画像処理部807(検索部)は、決定した小領域p(X,Y)の画素を基に、中間画像の生成元である2視点の入力画像から類似パッチを検索する。類似パッチとは、選択した小領域の画素に最も画素が類似する小領域を表す。画像処理部807は、以下の式に基づいて、類似パッチp(a’,b’)を検索する。
以上で、画像処理部807の処理についての説明を終了する。
画像入力部801は、カメラ70−1及びカメラ70−2それぞれによって撮影された画像を入力する(ステップS101)。画像入力部801は、入力された各入力画像を画像生成部802に出力する。中間画像生成部802は、画像入力部801から出力された各入力画像を入力とする。中間画像生成部802は、入力された各入力画像に基づいて、カメラ70−1及びカメラ70−2の2視点の間の中間画像を生成する(ステップS102)。中間画像生成部802が生成する中間画像の生成数は、事前に入力される。中間画像生成部802は、生成した中間画像及び各入力画像を部分領域抽出部804に出力する。また、中間画像生成部802は、各入力画像を画像処理部807に出力する。次に、部分領域抽出部804は、中間画像生成部802から出力された中間画像及び各入力画像と、領域の抽出数と、抽出領域情報記憶部803に記憶されている抽出領域情報テーブルとを入力とする。部分領域抽出部804は、入力された抽出領域情報テーブルと、領域の抽出数とに基づいて、各入力画像から部分領域を抽出する(ステップS103)。この処理によって、部分領域抽出部804は、各画像から部分領域画像を生成する。部分領域抽出部804は、生成した部分領域画像を画像合成部806に出力する。画像合成部806は、部分領域抽出部804から出力された複数の部分領域画像と、背景画像記憶部805に記憶されている背景画像とを入力とする。画像合成部806は、入力された背景画像に部分領域画像を重畳することによって仮想全天球画像を生成する(ステップS104)。画像合成部806は、生成した仮想全天球画像を画像処理部807に出力する。
処理対象領域全てに対してステップS105からステップS107までの処理を実行している場合(ステップS108−YES)、画像処理装置80は処理を終了する。
一方、処理対象領域全てに対してステップS105からステップS107までの処理を実行していない場合(ステップS108−NO)、画像処理部807はステップS105以降の処理を繰り返し実行する。
画像処理装置80は、隣り合うカメラ70それぞれで撮影された画像に基づいて、隣り合うカメラ70の間の撮影位置における中間視点の画像を生成する。これにより、画像処理装置80は、カメラ70が設置されていない位置からの仮想視点における光線を含む画像を生成する。画像処理装置80は、生成した画像と、カメラ70で撮影された画像とからそれぞれ仮想視点を含む領域を抽出する。そして、画像処理装置80は、抽出した領域を、背景画像に重畳することによって仮想全天球画像を生成する。これにより、多重像や消失の発生を抑制することができる。そのため、複数のカメラで撮影された画像を用いて生成される合成画像の品質低下を抑制することが可能になる。
本実施形態では、背景画像である全天球画像に部分領域画像を重畳する構成を示したが、これは一例であり本発明はこれに限定される必要はない。例えば、本発明は、View Morphingを利用して生成した中間画像を少なくとも1枚用いて部分領域画像を生成し、生成した部分領域画像を並べることが出来ればよい。この場合、画像処理装置80は、背景画像記憶部805を備える必要がない。
本実施形態では、仮想視点82において事前に撮影された全天球画像を合成画像の元となる画像として説明したが、合成画像の元となる画像は何の情報も入っていない黒い画像であってもよい。ここで、何の情報も入っていない黒い画像とは、縦横の画素数が決まっているだけの画像を表す。この場合、画像合成部806は、抽出された部分領域画像を黒い画像に重畳することによって合成画像を生成する。なお、このように構成される場合、画像処理装置80は、背景画像記憶部805を備える必要がない。
本実施形態では、中間画像生成部802は、画像入力部801に入力された入力画像を用いて中間画像を生成する構成を示したが、中間画像生成部802は入力画像が記憶されている記憶部から入力画像を読み出して、読み出した入力画像を入力とすることによって中間画像を生成してもよい。なお、このように構成される場合、記憶部にはカメラ70それぞれによって撮影された入力画像が時系列順に記憶される。
(1)部分領域画像(例えば、短冊形に抽出された画像)を重複させながら重畳する。そして、重複部分は、いずれかの画像の画素値を優先して利用してもよいし、両方の画像の重複部分の画素値の重みづけ平均を利用してもよい。
このように構成される場合、抽出領域情報テーブルにおける幅の値が、隣接する部分領域画像が重複するような値に設定される。
(2)部分領域画像(例えば、短冊形に抽出された画像)を、所定の領域をあけながら重畳する。そして、所定の領域を補完する。
このように構成される場合、抽出領域情報テーブルにおける幅の値が、隣接する部分領域画像が所定の領域を挟むような値に設定される。所定の領域は、例えば所定の領域に隣接する2つの部分領域画像に基づいて、所定の領域の右側に隣接する部分領域画像の左上座標及び左下座標と、所定の領域の左側に隣接する部分領域画像の右上座標及び右下座標とで囲まれる領域を表す。そして、画像処理部807は、所定の領域を、所定の領域に隣接する部分領域画像の生成元である入力画像を用いて補完する。補完には、既存の技術が用いられる。例えば、補完に用いられる処理の一例として、パッチベースの手法が用いられてもよい。また、この方法は、部分領域画像を並べる場合にも適用可能である。
図8は、1つの入力画像から複数の部分領域を抽出する場合に用いられる抽出領域情報テーブルの具体例を示す図である。
図8に示す抽出領域情報テーブルは、抽出領域情報レコードを複数有する。抽出領域情報レコードは、部分領域ID及び抽出領域情報の各値を有する。部分領域IDの値は、抽出する部分領域を識別するための識別情報を表す。抽出領域情報の値は、同じ抽出領域情報レコードの部分領域IDで識別される部分領域に関する情報を表す。抽出領域情報の具体例として、画像ID、左上座標、幅及び高さがある。画像IDは、部分領域IDで識別される部分領域の抽出対象となる画像を識別するための識別情報を表す。左上座標は、抽出する領域の左上の座標を表す。幅は、抽出する領域の幅を表す。幅は、抽出する領域の左上座標を基準とする。高さは、抽出する領域の高さを表す。
また、図8において、抽出領域情報テーブルの2段目に登録されている抽出領域情報レコードは、部分領域IDの値が“P2”、画像IDの値が“I1”、左上座標の値が“(A1,B1)”、幅の値が“C”、高さの値が“D”である。すなわち、部分領域ID“P2”で識別される部分領域を抽出する対象となる画像が画像ID“I1”で識別される画像であり、画像ID“I1”の画像の左上座標(A1,B1)、幅C、高さDで表される領域を抽出することが表されている。
このような抽出領域情報テーブルを用いることによって、部分領域抽出部804は1つの画像から複数の部分領域を抽出する。
[参考文献2]Perez, Patrick, Michel Gangnet, and Andrew Blake. "Poisson image editing."ACM Transactions on Graphics (TOG). Vol. 22. No. 3. ACM, 2003.
まず、画像処理部807は、処理対象領域から処理対象となる小領域(パッチ)p(X,Y)を決定する。次に、画像処理部807は、決定した小領域p(X,Y)の画素を基に、中間画像の生成元である2視点の入力画像から小領域p(X,Y)の変換を許容しながら類似パッチを検索する。変換の例として、拡大・縮小、回転、アフィン変換、ホモグラフィ距離などがある。本実施形態では、どの変換が用いられてもよい。画像処理部807は、以下の式に基づいて、類似パッチp(a’,b’,A’)を検索する。
このように小領域の変換を許容しながら類似パッチを検索することによって、より高品質な仮想全天球画像を生成することが可能になる。なお、画像処理部807は、合成画像の生成元である複数の画像全体を変換して(合成画像側は変換せず)、変換後の画像の中から類似パッチを検索してもよい。この場合、画像処理部807は、逆変換しない状態の類似パッチを探索結果として取得し、取得した類似パッチを合成画像の対応する箇所に重畳する。
画像処理部807は、複数のカメラ70によって撮影された複数の画像から生成された合成画像であれば、どのような合成画像に対しても上記の処理を行ってもよい。
本実施形態では、カメラ70を水平方向に並べた構成を例に説明したが、本発明はカメラ70を縦方向に並べた場合であっても適用可能である。
Claims (5)
- 所定の領域に設定された仮想的な視点を表わす仮想視点を含む画像を撮影する前記仮想視点以外の位置に設けられた撮影方向が異なる複数の撮影装置によって撮影された複数の画像に基づいて、前記複数の撮影装置の間の撮影位置における中間画像を生成する中間画像生成部と、
前記複数の画像及び前記中間画像から前記仮想視点を含む部分領域を抽出する部分領域抽出部と、
抽出された複数の部分領域を用いて合成画像を生成する合成画像生成部と、
を備える画像処理装置。 - 前記部分領域抽出部は、短冊形に前記部分領域を抽出し、
前記合成画像生成部は、抽出された複数の短冊形の部分領域を並べることによって前記合成画像を生成する、請求項1に記載の画像処理装置。 - 前記中間画像の生成元である前記複数の画像を用いて前記合成画像に対して見た目の違和感を低減させる処理を行う画像処理部をさらに備える、請求項1又は2に記載の画像処理装置。
- 所定の領域に設定された仮想的な視点を表わす仮想視点を含む画像を撮影する前記仮想視点以外の位置に設けられた撮影方向が異なる複数の撮影装置によって撮影された複数の画像に基づいて、前記複数の撮影装置の間の撮影位置における中間画像を生成する中間画像生成ステップと、
前記複数の画像及び前記中間画像から前記仮想視点を含む部分領域を抽出する部分領域抽出ステップと、
抽出された複数の部分領域を用いて合成画像を生成する合成画像生成ステップと、
を有する画像処理方法。 - 所定の領域に設定された仮想的な視点を表わす仮想視点を含む画像を撮影する前記仮想視点以外の位置に設けられた撮影方向が異なる複数の撮影装置によって撮影された複数の画像に基づいて、前記複数の撮影装置の間の撮影位置における中間画像を生成する中間画像生成ステップと、
前記複数の画像及び前記中間画像から前記仮想視点を含む部分領域を抽出する部分領域抽出ステップと、
抽出された複数の部分領域を用いて合成画像を生成する合成画像生成ステップと、
をコンピュータに実行させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015232336A JP6416741B2 (ja) | 2015-11-27 | 2015-11-27 | 画像処理装置、画像処理方法及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015232336A JP6416741B2 (ja) | 2015-11-27 | 2015-11-27 | 画像処理装置、画像処理方法及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017097799A true JP2017097799A (ja) | 2017-06-01 |
JP6416741B2 JP6416741B2 (ja) | 2018-10-31 |
Family
ID=58817981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015232336A Active JP6416741B2 (ja) | 2015-11-27 | 2015-11-27 | 画像処理装置、画像処理方法及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6416741B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190129433A (ko) * | 2018-05-11 | 2019-11-20 | 재단법인대구경북과학기술원 | 파노라마 영상 생성 방법 및 그 장치 |
CN113826378A (zh) * | 2019-05-16 | 2021-12-21 | 佳能株式会社 | 布置确定装置、系统、布置确定方法和程序 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003043599A (ja) * | 2001-07-31 | 2003-02-13 | Canon Inc | 立体画像形成方法、立体画像形成システム、プログラム及び記憶媒体 |
US20030235344A1 (en) * | 2002-06-15 | 2003-12-25 | Kang Sing Bing | System and method deghosting mosaics using multiperspective plane sweep |
JP2008217243A (ja) * | 2007-03-01 | 2008-09-18 | Mitsubishi Electric Corp | 画像生成装置 |
JP2013025649A (ja) * | 2011-07-23 | 2013-02-04 | Canon Inc | 画像処理装置及び画像処理方法、プログラム |
-
2015
- 2015-11-27 JP JP2015232336A patent/JP6416741B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003043599A (ja) * | 2001-07-31 | 2003-02-13 | Canon Inc | 立体画像形成方法、立体画像形成システム、プログラム及び記憶媒体 |
US20030235344A1 (en) * | 2002-06-15 | 2003-12-25 | Kang Sing Bing | System and method deghosting mosaics using multiperspective plane sweep |
JP2008217243A (ja) * | 2007-03-01 | 2008-09-18 | Mitsubishi Electric Corp | 画像生成装置 |
JP2013025649A (ja) * | 2011-07-23 | 2013-02-04 | Canon Inc | 画像処理装置及び画像処理方法、プログラム |
Non-Patent Citations (1)
Title |
---|
高橋康輔, 外3名: ""複数カメラ映像を用いた仮想全天球映像合成に関する検討"", 電子情報通信学会技術研究報告, vol. 第115巻, 第76号, JPN6018029259, 1 June 2015 (2015-06-01), JP, pages 43 - 48, ISSN: 0003847909 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190129433A (ko) * | 2018-05-11 | 2019-11-20 | 재단법인대구경북과학기술원 | 파노라마 영상 생성 방법 및 그 장치 |
KR102082277B1 (ko) * | 2018-05-11 | 2020-02-28 | 재단법인대구경북과학기술원 | 파노라마 영상 생성 방법 및 그 장치 |
CN113826378A (zh) * | 2019-05-16 | 2021-12-21 | 佳能株式会社 | 布置确定装置、系统、布置确定方法和程序 |
CN113826378B (zh) * | 2019-05-16 | 2024-05-07 | 佳能株式会社 | 布置确定装置、系统、布置确定方法和存储介质 |
US12010437B2 (en) | 2019-05-16 | 2024-06-11 | Canon Kabushiki Kaisha | Arrangement determination apparatus, system, arrangement determination method, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP6416741B2 (ja) | 2018-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111861879A (zh) | 用于来自低分辨率图像的人类超分辨率的方法和装置 | |
JP6371553B2 (ja) | 映像表示装置および映像表示システム | |
US9361660B2 (en) | Image processing device and method, supplement image generation device and method, program, and recording medium | |
JP7387434B2 (ja) | 画像生成方法および画像生成装置 | |
JP2020129276A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
US10482571B2 (en) | Dual fisheye, hemispherical image projection and stitching method, device and computer-readable medium | |
KR101529820B1 (ko) | 월드 좌표계 내의 피사체의 위치를 결정하는 방법 및 장치 | |
JP6606242B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP6416741B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP6416740B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP7352374B2 (ja) | 仮想視点変換装置及びプログラム | |
JP6392739B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP6389452B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP6426594B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
JP6420750B2 (ja) | 合成情報テーブル作成装置、合成情報テーブル作成方法及びコンピュータプログラム | |
JP5478533B2 (ja) | 全方位画像生成方法、画像生成装置およびプログラム | |
Abbas et al. | A novel projection for omni-directional video | |
JP6450305B2 (ja) | 情報取得装置、情報取得方法及び情報取得プログラム | |
JP6341540B2 (ja) | 情報端末装置、方法及びプログラム | |
Calagari et al. | Sports VR content generation from regular camera feeds | |
JP6416734B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP6450306B2 (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
Chang et al. | A low-complexity image stitching algorithm suitable for embedded systems | |
JP6346157B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
US10989525B2 (en) | Laser guided scanning systems and methods for scanning of symmetrical and unsymmetrical objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170801 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180731 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180918 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181002 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181004 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6416741 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |