JP6606242B2 - 画像処理装置、画像処理方法及びコンピュータプログラム - Google Patents

画像処理装置、画像処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP6606242B2
JP6606242B2 JP2018169915A JP2018169915A JP6606242B2 JP 6606242 B2 JP6606242 B2 JP 6606242B2 JP 2018169915 A JP2018169915 A JP 2018169915A JP 2018169915 A JP2018169915 A JP 2018169915A JP 6606242 B2 JP6606242 B2 JP 6606242B2
Authority
JP
Japan
Prior art keywords
image
partial
region
partial image
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018169915A
Other languages
English (en)
Other versions
JP2018198463A (ja
Inventor
麻理子 五十川
弾 三上
康輔 高橋
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018169915A priority Critical patent/JP6606242B2/ja
Publication of JP2018198463A publication Critical patent/JP2018198463A/ja
Application granted granted Critical
Publication of JP6606242B2 publication Critical patent/JP6606242B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、複数の撮影装置によって撮影された画像の処理技術に関する。
近年、360度のパノラマ画像を撮影できるカメラ(以下、「全天球カメラ」という。)が普及し始めている。全天球カメラによって撮影されたパノラマ画像(以下、「全天球画像」という。)は、所望の視点位置に全天球カメラを設置することで撮影することができる。しかしながら、競技中の競技者の邪魔となるためサッカーコートやバスケットコートなどの競技用コートの中には全天球カメラを設置することができない。そのため、競技用コートの中の所望の視点位置における競技中の全天球画像を撮影することができない。
そこで、全天球カメラを設置することのできない場所に仮想的な視点である仮想視点を設定して、この仮想視点において全天球カメラで撮影したかのような全天球画像を、コートの外側に設置された複数のカメラによって撮影された画像を合成することによって得る技術が提案されている(例えば、非特許文献1参照)。以下の説明において、仮想視点における全天球画像を、仮想全天球画像と記載する。
仮想全天球画像を複数のカメラによって撮影された画像の合成によって得るシステムの具体例について説明する。
図5は、従来システムにおいて仮想全天球画像を得るためのシステムを示す図である。図5に示すように、画像処理システム1は、全天球カメラ2と、複数のカメラ3−1、3−2、3−3、・・・、3−N(以下、「カメラ群3」という。)(Nは4以上の整数)と、画像処理装置4と、表示装置5とを備える。画像処理システム1は、競技用コート10内に仮想視点11を設定した場合に、競技用コート10外に設置したカメラ群3によって撮影された画像の合成によって仮想視点11における仮想全天球画像を得る。
全天球カメラ2は、全天球画像を撮影するカメラである。全天球カメラ2は、競技が行われる前のタイミングで競技用コート10内の仮想視点11の位置に設置される。全天球カメラ2は、仮想視点11の位置から、仮想全天球画像の背景となる画像(以下、「背景画像」という。)を撮影する。全天球カメラ2で撮影された背景画像は、画像処理装置4に入力されて蓄積される。このように、画像処理装置4は、予め背景画像を蓄積する。
競技用コート10の周囲には、カメラ群3が設置されている。カメラ群3は、それぞれ仮想視点11を含む画角となるように競技用コート10の周囲に設置されている。カメラ群3は、仮想視点11を含む領域を撮影する。画像処理装置4は、各カメラ群3によって撮影された画像に対して画像処理を施して、背景画像に画像処理後の画像を合成して仮想全天球画像を生成する。表示装置5は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、CRT(Cathode Ray Tube)ディスプレイ等の画像表示装置である。表示装置5は、画像処理装置4で生成した仮想全天球画像を表示する。
次に、画像処理システム1における画像処理の具体例について図6を用いて説明する。
図6は、画像処理システム1における画像処理の流れを説明するための図である。図6(A)は、背景画像20の具体例を示す図である。背景画像20には、仮想視点11を中心として全方位(360度)の被写体が撮影されている。背景画像20は、競技用コート10内に人物がいない状態で撮影される画像であるので競技用コート10内には人物が撮影されない。
図6(B)は、各カメラ3−1、3−2及び3−3で撮影された画像を示す図である。図6(B)には、左からカメラ3−1で撮影された画像21と、カメラ3−2で撮影された画像22と、カメラ3−3で撮影された画像23とが示されている。画像処理装置4は、画像21〜23のそれぞれから仮想視点11を含む領域211、221、231を抽出する。画像処理装置4は、抽出した領域211、221、231の画像に対して、画像処理を行うことで背景画像20に合成可能な部分画像211a、221a、231aを生成する。
画像処理装置4は、背景画像20に対して部分画像211a、221a、231aを合成することによって仮想全天球画像24を生成する。図6(C)は、画像処理装置4が生成する仮想全天球画像24の例を示す図である。図9(C)に示すように、仮想全天球画像24の所定の領域には部分画像211a、221a、231aが合成されている。そのため、仮想全天球画像24として、競技用コート10上に物体(例えば、人物)が撮影されている画像が生成される。
従来の画像処理システム1は、合成に用いているカメラ群3の光学中心及び仮想視点11において想定する全天球カメラの光学中心はそれぞれ異なる。そのため、合成された仮想全天球画像24は幾何学的に正しくない画像を含む。これを防ぐためには、画像処理装置4は、部分画像211a、221a、231aを、仮想視点11からの距離を示す奥行きの一点で整合性が保たれるよう画像処理を行い背景画像20に合成する必要がある。しかしながら、整合性が保たれる奥行きに存在せずに別の奥行に存在している物体(例えば、人物)の部分画像を合成する場合には、画像処理により奥行きの整合性を保つことができない。このような奥行に整合性のない物体は、仮想全天球画像24において、その画像が分身(多重像)したり、消失したりする現象が発生する。
以下に、図7を用いて仮想全天球画像24において、物体の画像が分身したり、消失したりする現象について説明する。図7は、画像処理システム1における課題を説明するための図である。図7において、撮影範囲41は、カメラ3−1の撮影範囲において図6(B)に示した領域211の撮影範囲を示す。撮影範囲42は、カメラ3−2の撮影範囲において図6(B)に示した領域221の撮影範囲を示す。撮影範囲43は、カメラ3−3の撮影範囲において図6(B)に示した領域231の撮影範囲を示す。また、仮想視点11からの距離(奥行)が異なる3つの物体(例えば、人物)49〜51が存在する。
図7において破線で示している仮想視点11からの第1の距離を示す奥行46は、各撮影範囲41〜43が、重なりなく並んでいる。このような奥行46に位置する被写体49は、その画像が分身したり消失したりすることがなく、奥行に整合性のある被写体である。仮想視点11からの第2の距離を示す奥行47は、各撮影範囲41〜43が、横線部分44に示すように重なっている。このような奥行47に位置する被写体50は、その画像が分身してしまうので、奥行に整合性のない被写体となる。仮想視点11からの第3の距離を示す奥行48は、各撮影範囲41〜43の間が斜線部分45に示すように空いている。このような奥行48に位置する被写体51は、その画像の一部が消失してしまうので、奥行に整合性のない被写体となる。
高橋康輔、外3名、「複数カメラ映像を用いた仮想全天球映像合成に関する検討」、社団法人電子情報通信学会、信学技報、2015年6月、vol.115、no.76、p.43-48
仮想全天球画像において物体が存在する領域は、人が注視する領域(以下、「視聴領域」という。)である可能性が高い。そのため、視聴領域に存在する物体に多重像や消失が発生してしまうと、仮想全天球画像の品質が低下してしまうという問題がある。このような問題は、仮想全天球画像に限らず、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像全てに共通する課題である。
上記事情に鑑み、本発明は、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像の品質低下を抑制する技術の提供を目的としている。
本発明の一態様は、第1の入力画像及び第2の入力画像のいずれとも異なる位置、および、いずれとも異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成部と、前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理部と、を備え、前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、前記画像処理部は、前記所定の領域のうちの前記第1の部分画像寄りの領域である第1範囲については前記第1の入力画像を用いることによって前記第1範囲を補完し、前記所定の領域のうちの前記第2の部分画像寄りの領域である第2範囲については前記第2の入力画像を用いることによって前記第2範囲を補完し、前記所定の領域の中心付近については前記第1の入力画像及び前記第2の入力画像のいずれかを用いることによって補完する画像処理装置である。
本発明の一態様は、第1の入力画像及び第2の入力画像のいずれとも異なる位置、および、いずれとも異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成部と、前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理部と、を備え、前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、前記画像処理部は、前記第1の入力画像の倍率変更後の画像と前記第2の入力画像の倍率変更後の画像とを前記参照画像として用いることによって前記所定の領域を補完する画像処理装置である。
本発明の一態様は、第1の入力画像及び第2の入力画像のいずれとも異なる位置、および、いずれとも異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成ステップと、前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理ステップと、を有し、前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、前記画像処理ステップにおいて、前記所定の領域のうちの前記第1の部分画像寄りの領域である第1範囲については前記第1の入力画像を用いることによって前記第1範囲を補完し、前記所定の領域のうちの前記第2の部分画像寄りの領域である第2範囲については前記第2の入力画像を用いることによって前記第2範囲を補完し、前記所定の領域の中心付近については前記第1の入力画像及び前記第2の入力画像のいずれかを用いることによって補完する画像処理方法である。
本発明の一態様は、第1の入力画像及び第2の入力画像のいずれとも異なる位置、および、いずれとも異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成ステップと、前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理ステップと、を有し、前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、前記画像処理ステップにおいて、前記第1の入力画像の倍率変更後の画像と前記第2の入力画像の倍率変更後の画像とを前記参照画像として用いることによって前記所定の領域を補完する画像処理方法である。
本発明の一態様は、コンピュータを、上記の画像処理装置として機能させるためのコンピュータプログラムである。
本発明により、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像の品質低下を抑制することが可能となる。
本発明における画像処理システム100のシステム構成を示す図である。 合成情報テーブルの具体例を示す図である。 画像処理部807の処理を説明するための図である。 画像処理装置80の処理の流れを示すフローチャートである。 従来システムにおいて仮想全天球画像を得るためのシステムを示す図である。 画像処理システム1における画像処理の流れを説明するための図である。 画像処理システム1における課題を説明するための図である。
以下、本発明の一実施形態を、図面を参照しながら説明する。
図1は、本発明における画像処理システム100のシステム構成を示す図である。
画像処理システム100は、全天球カメラ60、複数のカメラ70−1〜70−M(Mは2以上の整数)及び画像処理装置80を備える。なお、以下の説明では、カメラ70−1〜70−Mについて特に区別しない場合には、カメラ70と記載する。
全天球カメラ60は、撮影対象領域81内の仮想視点82の位置に設置される。撮影対象領域81は、例えばサッカーコートやバスケットコートなどの競技用コートなどである。仮想視点82は、所定の領域(本実施形態では、撮影対象領域81)内に仮想的に設定された視点である。全天球カメラ60は、仮想視点82の位置における全天球画像を撮影する。本実施形態における全天球画像は、仮想視点82を中心として撮影対象領域81全体を含む。全天球カメラ60による処理は、画像処理装置80による処理の開始前に行われる。全天球カメラ60は、撮影した全天球画像を背景画像として画像処理装置80に出力する。
M台のカメラ70−1、70−2、・・・、70−Mは、撮影対象領域81の外側に設けられ、入力画像を動画で撮影するカメラであり、仮想視点82を含む領域を撮影する。図1に示すように、カメラ70−1には仮想視点82の位置上を通過する光線71が入力され、カメラ70−2には仮想視点82の位置上を通過する光線72が入力される。以下、カメラ70に入力される光線を実光線と記載する。図1では示していないが、カメラ70は撮影対象領域81の周囲に設置される。つまり、カメラ70は、それぞれ仮想視点82を含む画角となるように撮影対象領域81の周囲を取り囲むように設置される。図1においてMは、2以上の整数であり、同程度の画質の仮想全天球画像を得ようとするのであれば撮影対象領域81が大きいほど大きな値となる。また、撮影対象領域81の大きさが同じであれば、Mの値が大きい程、合成領域(仮想全天球画像において、M台のカメラ70からの画像を合成した領域)の面積が大きくなり、あるいは合成領域の大きさが同じであれば合成領域における画質が向上す仮想全天球画像の画質を高いものにしようとするほど大きな値となる。
画像処理装置80は、全天球カメラ60によって撮影された全天球画像と、カメラ70によって撮影された画像(以下、「入力画像」という。)とに基づいて仮想全天球画像を生成する。
次に、画像処理装置80の機能構成について説明する。画像処理装置80は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、画像処理プログラムを実行する。画像処理プログラムの実行によって、画像処理装置80は、入力画像記憶部801、オブジェクト解析部802、合成情報記憶部803、部分領域抽出部804、背景画像記憶部805、画像合成部806、画像処理部807を備える装置として機能する。なお、画像処理装置80の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、画像処理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。また、画像処理プログラムは、電気通信回線を介して送受信されてもよい。
入力画像記憶部801は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。入力画像記憶部801は、各カメラ70を識別するためのカメラIDに関連付けて、カメラ70毎の入力画像を時系列順に記憶する。入力画像は、撮影時刻及び動画の画像データを含む。
オブジェクト解析部802は、入力画像記憶部801に記憶されている入力画像を読み出し、入力とする。オブジェクト解析部802は、入力された入力画像に含まれるオブジェクトを検出して、出力する。例えば、オブジェクト解析部802は、隣接する2つのカメラ70の同時刻における入力画像それぞれからオブジェクトを検出する。ここでオブジェクトとは、背景画像に含まれていないが入力画像に含まれている人物、物体(例えばボール)等である。なお、オブジェクトが「人」、「ボール」、「物体A」、「物体B」のいずれに該当するのかを解析・判定する手法としては、公知の画像解析技術が用いられる。例えば、画像の解析により人を検出する技術を開示する文献として以下の参考文献1がある。
[参考文献1]:山内悠嗣、外2名、「[サーベイ論文] 統計的学習手法による人検出」、電子情報通信学会技術研究報告、vol.112、no.197、PRMU2012-43、pp.113-126、2012年9月
合成情報記憶部803は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。合成情報記憶部803は、合成情報テーブルを記憶する。合成情報テーブルは、入力画像から生成される画像を背景画像に重畳するための情報(以下、「合成情報」という。)を表すレコード(以下、「合成情報レコード」という。)によって構成される。
図2は、合成情報テーブルの具体例を示す図である。
合成情報テーブルは、合成情報レコードを複数有する。合成情報レコードは、カメラID、抽出領域情報及び変換情報の各値を有する。カメラIDの値は、カメラ70を識別するための識別情報を表す。例えば、図2におけるカメラID“C1”で識別されるカメラ70はカメラ70−1であり、カメラID“CM”で識別されるカメラ70はカメラ70−Mである。
抽出領域情報の値は、同じ合成情報レコードのカメラIDで識別されるカメラ70で撮影された画像(入力画像)から抽出する領域(以下、「抽出領域」という。)に関する情報を表す。抽出領域情報を矩形とした場合、抽出領域情報の具体例として、左上座標、幅及び高さで表される矩形がある。左上座標は、抽出領域の入力画像中での左上の座標を表す。幅は、抽出領域の幅を表す。高さは、抽出領域の高さを表す。なお、幅及び高さは、抽出領域の左上座標を基準とし、かつ、抽出領域中に仮想視点を含む範囲に設定される。本実施形態における抽出領域情報で示される領域は、隣接するカメラ70(例えば、カメラID“C1”、“C2”で識別されるカメラ70)の入力画像それぞれから抽出された各抽出領域の画像(以下、「部分領域画像」という。)に対して、変換情報に応じた変換を行うことによって生成される各部分画像のそれぞれを背景画像に重畳した際に、各部分画像同士が所定の幅と高さとを有する領域を挟むように設定されている。なお、挟み方としては、各部分画像同士が所定の幅と高さとを有する領域を縦に挟んでもよいし、横に挟んでもよい。
変換情報の値は、同じ合成情報レコードの抽出領域情報に応じて抽出された部分領域画像を部分画像に変換するための情報を表す。部分画像は、部分領域画像を背景画像の対応する領域に違和感なく重畳するために、部分領域画像に対して上記変換情報に応じて拡大、縮小、回転、変形等の変換処理を行うことによって生成される。この変換情報は、例えばアフィン変換行列である。なお、アフィン変換行列には、背景画像において部分画像を重畳する領域を示す情報が含まれる。
アフィン変換行列は、以下に示す方法により予め取得して合成情報記憶部803に記憶される。例えば、仮想視点82から複数種類の距離(奥行)の位置に格子模様のチェスボードを設置して、仮想視点82に設置した全天球カメラ60で撮影したチェスボードを含む画像と、カメラ70で撮影したチェスボードを含む画像とを比較する。そして両画像において、撮影したチェスボードの各格子が対応するように画像を変換するアフィン変換行列を求める。このようにして、チェスボードを設置した奥行に対応したアフィン変換行列を求める。
図2に示される例では、合成情報テーブルには複数の合成情報レコードが登録されている。図2において、合成情報テーブルの最上段に登録されている合成情報レコードは、カメラIDの値が“C1”、左上座標の値が“(A,B)”、幅の値が“C”、高さの値が“D”、変換情報の値が“A1”である。すなわち、カメラID“C1”で識別されるカメラ70−1の入力画像から左上座標(A,B)、幅C、高さDで表される領域を抽出し、抽出された画像に対して“A1”の変換処理を施すことが表されている。
図1に戻って、画像処理装置80の説明を続ける。
部分領域抽出部804は、オブジェクト解析部802から出力された入力画像と、合成情報テーブルの情報とを入力とする。部分領域抽出部804は、入力された合成情報テーブルの情報に基づいて、入力画像から部分領域を抽出することによって部分領域画像を生成し、出力する。
背景画像記憶部805は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。背景画像記憶部805は、全天球カメラ60によって撮影された全天球画像を背景画像として記憶する。
画像合成部806は、合成情報記憶部803に記憶されている合成情報テーブルと、背景画像記憶部805に記憶されている背景画像と、部分領域抽出部804によって生成された部分領域画像とを入力とする。画像合成部806は、部分領域画像に対して、合成情報テーブルに含まれる変換情報のアフィン変換行列に基づいて変換処理を行うことによって部分画像を生成する。画像合成部806は、生成した部分画像をアフィン変換行列に基づいて背景画像に重畳することで仮想全天球画像を生成して出力する。より具体的には、画像合成部806は、部分画像の画素値で、背景画像上の部分画像を重畳する領域の画素値を置き換えることによって背景画像に部分領域画像を重畳することで仮想全天球画像を生成する。
画像処理部807は、画像合成部806によって生成された仮想全天球画像と、入力画像記憶部801に記憶されている入力画像とを入力とする。画像処理部807は、入力された仮想全天球画像において、画像合成部806によって背景画像に重畳された部分画像間の所定の領域(以下、「補完対象領域」という。)を、補完対象領域を挟む2つの部分画像それぞれの生成元である入力画像を用いて補完する。
以下、図3を用いて画像処理部807の具体的な処理について説明する。図3は、画像処理部807の処理を説明するための図である。
図3において、入力画像83−1(第1の入力画像)はカメラ70−1によって撮影された画像であり、入力画像83−2(第2の入力画像)はカメラ70−2によって撮影された画像である。入力画像83−1における領域84は合成情報テーブルに基づいて入力画像83−1から抽出される抽出領域を表し、入力画像83−2における領域85は合成情報テーブルに基づいて入力画像83−2から抽出される抽出領域を表す。そして、抽出領域84で表される領域を入力画像83−1から抽出して生成される部分領域画像及び抽出領域85で表される領域を入力画像83−2から抽出して生成される部分領域画像それぞれに対して、変換情報に応じた変換処理が行なわれることによって部分画像86(第1の部分画像)及び87(第2の部分画像)が生成される。その後、画像合成部806によって、部分画像86及び87がアフィン変換行列で示される背景画像88上の所定の位置に重畳される(図3の下図参照)。ここで、部分画像86が重畳される領域が第1の領域に相当し、部分画像87が重畳される領域が第2の領域に相当する。
上記のように、部分画像86及び87は所定の領域を挟んで重畳される。そのため、背景画像88に重畳された部分画像86及び87の間に所定の領域89が生じる。この所定の領域89が、画像処理部807が補完する補完対象領域である。補完対象領域は、補完対象領域に隣接する2つの部分画像に基づいて、第1の領域に重畳された部分画像(図3では、部分画像86)の左上座標及び左下座標と、第2の領域に重畳された部分画像(図3では、部分画像87)の右上座標及び右下座標とで囲まれる領域を表す。図3に示すように、部分画像86、部分画像87及び補完対象領域は、矩形であり、いずれも高さが同じである。さらに、部分画像86及び部分画像87は、底辺が揃うように配置されている。部分画像86及び部分画像87の底辺が揃うように配置されているため、部分画像86及び部分画像87は補完対象領域を挟んでいる。
画像処理部807は、部分画像86の生成元である入力画像83−1と、部分画像87の生成元である入力画像83−2と、補完対象領域の情報とを入力とし、入力された入力画像83−1及び83−2を参照画像として補完対象領域を補完し、補完対象領域を補完した画像を出力する。ここで、参照画像とは、補完対象領域を補完するために利用される入力画像を表す。具体的には、まず画像処理部807は、背景画像88から補完対象領域と、補完対象領域以外の領域とを共に含む小領域(パッチ)を選択する。この方法としては、補完対象領域の輪郭上に存在するパッチであって、パッチ領域中の補完対象領域以外の領域の画素のエッジ強度が強いパッチから選定する方法などが挙げられる。次に、画像処理部807は、選択したパッチの補完対象領域以外の画素を基に、参照画像から類似パッチを検出する。ここで、類似パッチとは、選択したパッチの画素の画素値と画素値が類似したパッチを表す。そして、画像処理部807は、検出した類似パッチを、選択したパッチに重畳する。つまり、画像処理部807は、類似パッチの画素値で選択したパッチの画素値を置き換える。画像処理部807は、以上の処理を補完対象領域が無くなるまで実行する。
この際、画像処理部807は、補完対象領域 のうちの補完対象領域の中心より部分画像86寄りの領域である第1範囲については、部分画像86の生成元である入力画像83−1を参照画像として用いることによって第1範囲を補完する。また、画像処理部807は、補完対象領域のうちの補完対象領域の中心より部分画像87寄りの領域である第2範囲については、部分画像87の生成元である入力画像83−2を参照画像として用いることによって第2範囲を補完する。また、画像処理部807は、補完対象領域の中心付近については、補完対象領域に隣接する部分画像86及び87それぞれの生成元である入力画像83−1及び入力画像83−2のいずれかを参照画像として用いることによって補完する。参照画像として、各部分画像それぞれの生成元である入力画像を用いる理由は、元画像に近いところから高画質な補完が可能であると考えられるためである。 なお、補完対象領域に隣接する2つの部分画像のうち1つの部分画像においてオブジェクトが含まれない場合、画像処理部807はオブジェクトが含まれる部分画像の生成元である入力画像を参照画像として用いることによって補完対象領域を補完してもよい。
なお、上記の例では、補完手法(コンプリーション手法)としてパッチベースの手法を例に説明したが、補完手法はこれに限定される必要はない。補完手法としては、その他の手法が用いられてもよい。例えば、補完対象領域の画素の、類似パッチ中での該当位置の画素を用いて補完する手法や、複数の類似パッチ中の該当位置の画素の重みづけ平均の画素を用いて補完する手法などがある。
図4は、画像処理装置80の処理の流れを示すフローチャートである。
オブジェクト解析部802は、入力画像記憶部801から隣接するカメラ70(2つのカメラ70)の同時刻における入力画像を読み出す(ステップS101)。次に、オブジェクト解析部802は、読み出した各入力画像を入力とし、入力した各入力画像を解析することによって各入力画像のオブジェクトを検出する(ステップS102)。オブジェクト解析部802は、いずれかの入力画像からオブジェクトが検出されたか否か判定する(ステップS103)。いずれの入力画像からもオブジェクトが検出されなかった場合(ステップS103−NO)、オブジェクト解析部802は隣接する他の組合せのカメラ70の同時刻における入力画像を入力画像記憶部801から読み出す(ステップS104)。その後、ステップS102以降の処理が実行される。
一方、いずれかの入力画像からオブジェクトが検出された場合(ステップS103−YES)、オブジェクト解析部802は入力画像を部分領域抽出部804に出力する。部分領域抽出部804は、オブジェクト解析部802から出力された入力画像と、合成情報記憶部803に記憶されている合成情報テーブルとを入力として、合成情報テーブルで示される部分領域を各入力画像から抽出することによって、入力画像毎の部分領域画像を生成する(ステップS105)。例えば、部分領域抽出部804は、カメラ70−1の入力画像に対して、合成情報テーブルのカメラ70−1に対応する合成情報レコードの抽出領域情報で表される領域を抽出することによって、カメラ70−1の入力画像の部分領域画像を生成する。部分領域抽出部804は、生成した各入力画像の各部分領域画像を画像合成部806に出力する。
画像合成部806は、部分領域抽出部804から出力された各入力画像の各部分領域画像と、合成情報記憶部803に記憶されている合成情報テーブルと、背景画像記憶部805に記憶されている背景画像とを入力とし、合成情報テーブルの変換情報に基づいて、生成された各部分領域画像に対して変換処理を行うことによって各部分画像を生成し、生成した各部分画像を背景画像上の対応する位置に重畳する(ステップS106)。例えば、画像合成部806は、カメラ70−1の入力画像から生成された部分領域画像に対して、合成情報テーブルのカメラ70−1に対応する合成情報レコードの変換情報に応じて変換処理を行うことによって、カメラ70−1の部分領域画像の部分画像を生成し、生成した部分画像を、変換情報に含まれる背景画像において部分画像を重畳する領域を示す情報に基づいて背景画像に重畳する。画像合成部806は、部分画像が重畳された背景画像を画像処理部807に出力する。
画像処理部807は、部分画像が重畳された背景画像と入力画像記憶部801に記憶されている入力画像とを入力とし、入力画像記憶部801に記憶されている背景画像に重畳された各部分画像の生成元である入力画像を用いて、重畳された部分画像間における補完対象領域を補完する(ステップS107)。その後、画像処理部807は、処理対象となる入力画像全てに対して処理が行なわれたか否か判定する(ステップS108)。例えば、画像処理部807は、オブジェクトが検出された入力画像全てに対してステップS105からステップS107までの処理が行なわれたか否か判定する。ここで、処理対象となる入力画像は、入力画像記憶部801に記憶されている入力画像である。
オブジェクトが検出された入力画像全てに対してステップS105からステップS107までの処理が行なわれた場合(ステップS108−YES)、画像処理装置80は処理を終了する。
一方、オブジェクトが検出された入力画像全てに対してステップS105からステップS107までの処理が行なわれていない場合(ステップS108−NO)、画像処理装置80はステップS104の以降の処理を実行する。
以上のように構成された画像処理装置80によれば、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像の品質低下を抑制することが可能になる。以下、この効果について詳細に説明する。
画像処理装置80は、隣り合うカメラ70それぞれで撮影された画像から、各画像が合成時に重ならないような小さい領域を抽出した部分領域画像を生成する。画像処理装置80は、生成した部分領域画像に対して変換処理を行うことによって部分画像を生成し、生成した部分画像を背景画像に重畳する。そして、画像処理装置80は、重畳した部分画像の間における補完対象領域を補完する。この補完対象領域は、2つの画像の重複領域に相当する。つまり、重複領域に相当する領域が、補完対象領域として設定され、補完されるため多重像や消失の発生を抑制することができる。そのため、複数のカメラで撮影された画像を背景画像に合成することによって生成される合成画像の品質低下を抑制することが可能になる。
また、画像処理装置80は、第1の領域に重畳された第1の部分画像寄りの所定の領域における第1範囲については、第1の部分画像の生成元の入力画像を参照画像として用いることによって第1範囲を補完する。さらに、画像処理装置80は、第2の領域に重畳された第2の部分画像寄りの所定の領域における第2範囲については、第2の部分画像の生成元の入力画像を参照画像として用いることによって第2範囲を補完する。このように、各部分画像寄りの所定の領域における範囲について、部分画像の生成元の入力画像を参照画像として用いて補完することによって、より入力画像に類似するように補完することができる。
<変形例>
本発明は、全天球画像の場合に限らず、複数のカメラで撮影された画像を背景画像に重畳することによって合成画像を生成する場合に適用可能である。
本実施形態では、補完対象領域の補完処理に使用する参照画像として、部分画像の生成元である入力画像をそのまま用いる構成を示したが、画像処理部807は参照画像として部分画像の生成元である入力画像の倍率を変更した画像を用いてもよい。例えば、画像処理部807は、参照画像として部分画像の生成元である入力画像を所定分拡大(例えば、10%、20%拡大など)した画像や、入力画像を所定分縮小(例えば、10%、20%縮小など)した画像を用いてもよい。
本実施形態では、合成情報テーブルに登録されている幅の値が全てのカメラIDで同じであるが、幅の値はカメラID毎に異なっていてもよいし、一部のカメラIDで異なっていてもよい。
図3に示した例は一例であり、部分画像及び補完対象領域の形状、部分画像及び補完対象領域の並べ方及び補完対象領域の大きさは図3に示す例に限定される必要はない。例えば、部分画像及び補完対象領域の形状は、いずれも矩形でなくてもよく、必ずしも同じ形状でなくてもよい。ただし、部分画像及び補完対象領域の大きさがパッチサイズより大きいことが必要である。また、部分画像及び補完対象領域は、縦に並べてもよいし、横に並べてもよい。また、補完対象領域の大きさは、部分画像よりも小さくてもよいし、大きくてもよい。このように補完対象領域の大きさは部分画像の大きさには左右されない。その理由は、画質が参照領域に左右されるためである。
補完対象領域の補完の方法は、上記の方法(図3で説明した方法)に限定されない。例えば、画像処理部807は以下のような方法によって補完対象領域を補完してもよい。まず、第1の領域に重畳された部分画像の生成元の入力画像をA、第2の領域に重畳された部分画像の生成元の入力画像をBとして、AとBの大きさをa:bの割合とする。中心部分をA、Bいずれかの入力画像を用いて補完する際、a:bの割合で類似パッチが探索されるように重み付けする。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
60…全天球カメラ,70(70−1〜70−M)…カメラ, 4、80…画像処理装置, 801…入力画像記憶部, 802…オブジェクト解析部, 803…合成情報記憶部, 804…部分領域抽出部, 805…背景画像記憶部, 806…画像合成部, 807…画像処理部

Claims (5)

  1. 第1の入力画像及び第2の入力画像のいずれとも異なる位置、および、いずれとも異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成部と、
    前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理部と、
    を備え、
    前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、
    前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、
    前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、
    前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、
    前記画像処理部は、前記所定の領域のうちの前記第1の部分画像寄りの領域である第1範囲については前記第1の入力画像を用いることによって前記第1範囲を補完し、前記所定の領域のうちの前記第2の部分画像寄りの領域である第2範囲については前記第2の入力画像を用いることによって前記第2範囲を補完し、前記所定の領域の中心付近については前記第1の入力画像及び前記第2の入力画像のいずれかを用いることによって補完する画像処理装置。
  2. 第1の入力画像及び第2の入力画像のいずれとも異なる位置、および、いずれとも異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成部と、
    前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理部と、
    を備え、
    前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、
    前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、
    前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、
    前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、
    前記画像処理部は、前記第1の入力画像の倍率変更後の画像と前記第2の入力画像の倍率変更後の画像とを前記参照画像として用いることによって前記所定の領域を補完する画像処理装置。
  3. 第1の入力画像及び第2の入力画像のいずれとも異なる位置、および、いずれとも異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成ステップと、
    前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理ステップと、
    を有し、
    前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、
    前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、
    前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、
    前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、
    前記画像処理ステップにおいて、前記所定の領域のうちの前記第1の部分画像寄りの領域である第1範囲については前記第1の入力画像を用いることによって前記第1範囲を補完し、前記所定の領域のうちの前記第2の部分画像寄りの領域である第2範囲については前記第2の入力画像を用いることによって前記第2範囲を補完し、前記所定の領域の中心付近については前記第1の入力画像及び前記第2の入力画像のいずれかを用いることによって補完する画像処理方法。
  4. 第1の入力画像及び第2の入力画像のいずれとも異なる位置、および、いずれとも異なる時刻に撮影された画像である背景画像に設定された所定の領域を挟む第1の領域及び第2の領域に対して、第1の入力画像及び第2の入力画像から生成された第1の部分画像及び第2の部分画像を重畳することによって合成画像を生成する合成画像生成ステップと、
    前記第1の入力画像と前記第2の入力画像とを前記所定の領域の補完に利用する参照画像として用いることによって、重畳された前記第1の部分画像と前記第2の部分画像との間の前記所定の領域を補完する画像処理ステップと、
    を有し、
    前記第1の部分画像と前記第2の部分画像は、所定の奥行に位置する同一の被写体が異なる位置から撮像された画像であり、
    前記第1の部分画像及び前記第2の部分画像は、前記被写体の一部を含み、
    前記第1の部分画像に含まれる前記被写体の一部は、前記第2の部分画像に含まれる前記被写体の一部と異なるものであり、
    前記所定の領域は、前記第1の領域及び前記第2の領域に対して、前記第1の部分画像と前記第2の部分画像をそれぞれ重畳した際に、前記第1の部分画像に含まれず、かつ、前記第2の部分画像にも含まれない、前記被写体の一部の領域を含み、
    前記画像処理ステップにおいて、前記第1の入力画像の倍率変更後の画像と前記第2の入力画像の倍率変更後の画像とを前記参照画像として用いることによって前記所定の領域を補完する画像処理方法。
  5. コンピュータを、請求項1又は2に記載の画像処理装置として機能させるためのコンピュータプログラム。
JP2018169915A 2018-09-11 2018-09-11 画像処理装置、画像処理方法及びコンピュータプログラム Active JP6606242B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018169915A JP6606242B2 (ja) 2018-09-11 2018-09-11 画像処理装置、画像処理方法及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018169915A JP6606242B2 (ja) 2018-09-11 2018-09-11 画像処理装置、画像処理方法及びコンピュータプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015216135A Division JP6416734B2 (ja) 2015-11-02 2015-11-02 画像処理装置、画像処理方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2018198463A JP2018198463A (ja) 2018-12-13
JP6606242B2 true JP6606242B2 (ja) 2019-11-13

Family

ID=64662463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018169915A Active JP6606242B2 (ja) 2018-09-11 2018-09-11 画像処理装置、画像処理方法及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6606242B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102111165B1 (ko) * 2019-09-25 2020-05-14 (주)송우인포텍 영상 처리 시스템 및 그 방법
CN114520875B (zh) * 2022-01-28 2024-04-02 西安维沃软件技术有限公司 视频处理方法、装置及电子设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
JP2014057139A (ja) * 2012-09-11 2014-03-27 Olympus Imaging Corp 画像処理装置および画像処理方法
JP5954310B2 (ja) * 2013-12-26 2016-07-20 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2018198463A (ja) 2018-12-13

Similar Documents

Publication Publication Date Title
JP6735592B2 (ja) 画像処理装置及びその制御方法、画像処理システム
WO2012114639A1 (ja) オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
US8055101B2 (en) Subpixel registration
JP2019092076A (ja) 画像処理装置、画像処理方法、及びプログラム
US20190132529A1 (en) Image processing apparatus and image processing method
JP2020129276A (ja) 画像処理装置、画像処理方法、およびプログラム
JP7387434B2 (ja) 画像生成方法および画像生成装置
KR20180092495A (ko) 다중 카메라 영상 내 관심 객체 중심의 베스트 뷰 영상 생성 장치 및 방법
JP6606242B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
US11798233B2 (en) Generation device, generation method and storage medium for three-dimensional model that remove a portion of the three-dimensional model
Pulli et al. Mobile panoramic imaging system
US11574432B2 (en) Image processing apparatus, image processing method, and storage medium
JP6416741B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
WO2009090727A1 (ja) 表示装置
JP6513305B2 (ja) 映像合成装置及び映像合成方法
JP6389452B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP6416740B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP6416734B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP6420750B2 (ja) 合成情報テーブル作成装置、合成情報テーブル作成方法及びコンピュータプログラム
JP6392739B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6426594B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6346157B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
JP6450306B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
Calagari et al. Sports VR content generation from regular camera feeds

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191017

R150 Certificate of patent or registration of utility model

Ref document number: 6606242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150