JP6562197B2 - 画像処理方法および画像処理システム - Google Patents

画像処理方法および画像処理システム Download PDF

Info

Publication number
JP6562197B2
JP6562197B2 JP2015023548A JP2015023548A JP6562197B2 JP 6562197 B2 JP6562197 B2 JP 6562197B2 JP 2015023548 A JP2015023548 A JP 2015023548A JP 2015023548 A JP2015023548 A JP 2015023548A JP 6562197 B2 JP6562197 B2 JP 6562197B2
Authority
JP
Japan
Prior art keywords
image
imaging
images
time
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015023548A
Other languages
English (en)
Other versions
JP2016010144A (ja
Inventor
徹 松延
徹 松延
敏康 杉尾
敏康 杉尾
陽司 柴原
陽司 柴原
悠樹 丸山
悠樹 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to PCT/JP2015/002179 priority Critical patent/WO2015194082A1/ja
Publication of JP2016010144A publication Critical patent/JP2016010144A/ja
Priority to US15/358,297 priority patent/US10277832B2/en
Application granted granted Critical
Publication of JP6562197B2 publication Critical patent/JP6562197B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0096Synchronisation or controlling aspects

Description

本発明は、画像処理方法および画像処理システムに関し、特に、複数の撮像装置による撮像によって得られた複数の画像を用いて被写体の三次元モデルを復元するための画像処理方法および画像処理装置に関する。
コンピュータビジョンの分野における三次元再構成技術では、複数の2次元画像間で対応付けを行い、三次元モデルの復元、つまり、カメラ姿勢または被写体の3次元位置の推定を行う。
例えば、特許文献1では、単眼カメラからの入力動画像の初期数フレームにおいて、特徴点を抽出し、フレームマッチング処理により特徴点位置の対応付けを行う。後続のフレームでは、拡張カルマンフィルタを用いた時系列特徴点追跡により特徴点位置情報を取得する。対応付けられた特徴点を用いてSfM(Structure from Motion)により三次元モデルを復元している。
また、特許文献2では、ステレオカメラで同期撮像した2つの動画像から所定周期で取得したキーフレームで特徴点マッチングを行い、三次元モデルを再構成する。また、特徴点の時間方向の変化を用いて、キーフレーム間の三次元モデルの再構成が可能となる。
さらに、特許文献3では、3台以上の複数カメラ間でキャリブレーションを行い、取得したカメラパラメータにより各カメラ座標系を任意視点の仮想カメラ座標系へ変換する。その仮想カメラ座標系において、座標変換後の画像間のブロックマッチングによる対応付けを行い、距離情報を推定する。推定した距離情報を基に仮想カメラ視点の画像を生成する。
特開2009−237845号公報 特開2012−160937号公報 特開2010−250452号公報
しかしながら、上記特許文献1〜3の技術では、高精度の三次元モデルを容易に復元することができないという問題がある。
そこで、本発明は、高精度の三次元モデルを容易に復元するための画像処理方法および画像処理システムを提供する。
本発明の一態様に係る画像処理方法は、複数の画像に対して処理を行う画像処理方法であって、複数の撮像装置のそれぞれから、当該撮像装置による撮像によって得られた画像を取得し、取得された複数の画像のそれぞれの撮像時刻を取得し、取得された前記複数の画像から、撮像時刻が互いに略一致する複数の画像を選択することにより、選択された複数の画像からなる画像セットを生成する。
なお、この包括的または具体的な態様は、システム、装置、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本発明の画像処理方法および画像処理システムを用いれば、高精度の三次元モデルを容易に復元することができる。
図1Aは、動画像の同期撮像の一例を示す図である。 図1Bは、動画像の非同期撮像の一例を示す図である。 図2は、実施の形態における画像処理装置の構成を示すブロック図である。 図3は、実施の形態における画像処理方法の一例を示すフローチャートである。 図4は、実施の形態における、同期撮像によって得られた複数の動画像を選択する方法の一例を示す図である。 図5Aは、実施の形態における、動画像に含まれる画像であって、同期撮像時間帯の前後の撮像時刻の画像の一例を示す図である。 図5Bは、実施の形態における、2枚のフレーム間において静止している被写体の領域を示す図である。 図6は、実施の形態における、補間フレームの時刻と、補間に使用されるフレームの時刻とを示す図である。 図7は、実施の形態における、等速運動モデルに基づくフレーム補間が行われる場合の、補間フレーム、その前後のフレーム、および動きベクトルのそれぞれの一例を示す図である。 図8は、本実施の形態における、補間フレームの時刻と、補間に使用されるフレームの時刻とを示す図である。 図9は、本実施の形態における、等加速度運動モデルに基づくフレーム補間が行われる場合の、補間フレーム、その前後のフレーム、および動きベクトルのそれぞれの一例を示す図である。 図10Aは、本発明の一態様に係る画像処理方法を示すフローチャートである。 図10Bは、本発明の一態様に係る画像処理システムを示すブロック図である。
(本発明の基礎となった知見)
まず、本発明の一態様における同期撮像を定義する。
図1Aおよび図1Bは、撮像装置の撮像周期と露光時間の一例を示す図である。撮像装置の撮像により画像を取得する際、シャッタが開放されている時間、つまり露光が行われている時間を露光時間という。撮像では、露光時間中にレンズを通して撮像素子にさらされたシーンを含む画像が得られる。例えば、動画像の撮像では、予め定められた撮像周期ごとに露光が繰り返し行われ、その露光が行われる露光時間中に画像が得られる。ここで、図1Aに示すように、撮像装置1と撮像装置2では、露光時間が重複している。これにより2つの撮像装置の撮像により取得された各画像は、同一時刻のシーンを含んでいる。一方、図1Bでは、撮像装置1と撮像装置2では、露光時間の重複がないため、2つの撮像装置の撮像により取得された各画像には、同一時刻のシーンは含まれていない。図1Aのように、同一時刻のシーンを含んだ複数の画像を撮像によって得ることを同期撮像という。一方、図1Bのように、同一時刻のシーンを含んでいない複数の画像を撮像によって得ることを非同期撮像という。
同期撮像が可能であれば、被写体が動いていても、同一時刻の複数フレームを入力とすれば、静止画像と同様の方法により三次元モデルを復元できる。
しかし、複数の撮像装置で撮像する際、各撮像装置において、シャッタを開放するためのトリガ信号の受信に時間差が生じたる場合がある。また、トリガ信号を受信してから実際にシャッタを開放するまでに遅延が生じたり、露光時間に差があることにより、露光時間が重複しない場合がある。露光時間が重複しない場合、つまり撮像時刻にずれが発生する場合であっても、被写体が静止物体であれば三次元モデルの復元が可能である。しかし、露光時間が重複しない場合に、被写体が動物体であれば、各視点の画像内で被写体が時間方向と空間方向の両方にずれているため、画像間の対応付けが困難となり、高精度な三次元モデルの復元ができない。このように、従来の上記特許文献1〜3の技術であっても、高精度の三次元モデルの復元を容易に行うことができないのである。
具体的には、三次元モデルの復元の対象となる被写体が動いている場合、特許文献1のような単眼カメラからの時系列画像では、フレームマッチングが困難となる。また、特許文献3では、キャリブレーション時のみ同期撮像を行うため、特許文献1と同様に、動いている被写体を対象とした高精度の三次元位置推定は困難である。さらに、特許文献2では、2台のカメラ位置関係が固定であるステレオカメラを使用するため、カメラ位置に制約が生じる。
そこで、本発明の一態様に係る画像処理方法は、複数の画像に対して処理を行う画像処理方法であって、複数の撮像装置のそれぞれから、当該撮像装置による撮像によって得られた画像を取得し、取得された複数の画像のそれぞれの撮像時刻を取得し、取得された前記複数の画像から、撮像時刻が互いに略一致する複数の画像を選択することにより、選択された複数の画像からなる画像セットを生成する。
これにより、画像セットには、撮像時刻が互いに略一致する複数の画像が含まれるため、この画像セットを用いれば、高精度の三次元モデルを容易に復元することができる。なお、撮像時刻が互いに略一致するとは、撮像時刻が実質的に一致していることを意味し、撮像時刻が厳密に一致することだけでなく、技術効果的に撮像時刻が一致しているとみなされることも含む。
また、前記画像処理方法は、さらに、前記画像セットに含まれる複数の画像に基づいて、当該複数の画像のそれぞれに対応する撮像装置および被写体のうちの少なくとも一方の状態を三次元的に示す三次元情報を算出してもよい。例えば、前記三次元情報は、前記画像セットに含まれる複数の画像のそれぞれに対応する撮像装置の位置および姿勢のうちの少なくとも一方を前記状態として示す。または、前記三次元情報は、前記画像セットに含まれる複数の画像のそれぞれに対応する被写体の位置および形状のうちの少なくとも一方を前記状態として示す。
これにより、撮像時刻が互いに略一致する複数の画像が三次元情報の算出に用いられるため、高精度の三次元情報を容易に算出することができる。つまり、高精度の三次元モデルを容易に復元することができる。
また、前記画像セットの生成では、取得された前記複数の画像のうちの1つである基準画像と、当該基準画像の撮像のための露光と重複したタイミングの露光による撮像によって得られた画像である少なくとも1つの露光重複画像とを、撮像時刻が互いに略一致する前記複数の画像として選択してもよい。
これにより、画像セットには、基準画像と、その基準画像と露光のタイミングが一致する少なくとも1つの露光重複画像とが含まれる。つまり、同一時刻の被写体が映し出された複数の画像が画像セットに含まれる。したがって、この画像セットを用いれば、より高精度の三次元モデルを容易に復元することができる。
また、前記撮像時刻の取得では、取得された前記複数の画像のうちの何れの露光時間よりも高い時間精度で示される、前記複数の画像のそれぞれの前記撮像時刻を取得してもよい。
これにより、より高精度の三次元モデルを容易に復元することができる。
また、前記画像の取得では、前記複数の撮像装置のそれぞれから、当該撮像装置による撮像によって得られた前記画像を含む画像信号を取得し、前記画像セットの生成では、取得された複数の画像信号から、撮像時刻が互いに略一致する前記複数の画像のそれぞれを含む複数の画像信号を選択することにより、選択された前記複数の画像信号からなる前記画像セットを生成してもよい。例えば、前記画像信号は、複数の画像と、前記複数の画像のそれぞれの撮像時刻を取得するための時刻情報とを含む動画像データであって、前記撮像時刻の取得では、画像信号ごとに、当該画像信号に含まれる前記時刻情報に基づいて、当該画像信号に含まれる前記複数の画像のそれぞれの撮像時刻を取得する。
これにより、動画像データに含まれる複数の画像(例えば複数のピクチャまたはフレーム)のそれぞれの撮像時刻を、その動画像データに含まれる時刻情報に基づいて容易に取得することができる。なお、時刻情報は、例えば、動画像データに含まれる先頭の画像の撮像時刻およびフレームレートを示していてもよく、動画像データに含まれる複数の画像のそれぞれの撮像時刻を示していてもよい。
または、前記画像信号は、画像と、前記画像の撮像時刻を取得するための時刻情報とを含む画像データであって、前記撮像時刻の取得では、画像信号ごとに、当該画像信号に含まれる前記時刻情報に基づいて、当該画像信号に含まれる前記画像の撮像時刻を取得してもよい。
これにより、画像データに含まれる例えば静止画像の撮像時刻を、その画像データに含まれる時刻情報に基づいて容易に取得することができる。
また、前記画像セットの生成では、さらに、前記複数の撮像装置のうちの何れかである処理対象装置から取得された画像である元画像から、当該元画像の撮像時刻と異なる時刻において静止していると推定される被写体が写っている領域の画像を、前記処理対象装置から取得された、前記時刻を撮像時刻とする静止画像として生成し、生成された前記静止画像を含む、前記複数の撮像装置から取得された複数の画像から、撮像時刻が互いに略一致する前記複数の画像を選択してもよい。
これにより、撮像装置から実際に取得された画像だけでなく、生成された静止画像も選択することができ、その結果、画像セットに含まれる、撮像時刻が互いに略一致する画像の数を増やすことできる。したがって、複数の撮像装置のそれぞれから実際に取得された、撮像時刻が互いに略一致する画像の数が少なくても、この画像セットを用いれば、高精度の三次元モデルを容易に復元することができる。
また、前記静止画像の生成では、前記元画像の撮像時刻の前および後のうちの少なくとも一方において、前記処理対象装置による撮像によって得られた少なくとも1つの画像と、前記元画像とを比較することによって、前記元画像から前記領域を特定してもよい。例えば、前記領域の特定では、前記元画像を構成する処理単位ごとに、当該処理単位が前記領域に該当するか否かを判定することによって、前記領域を特定し、前記処理単位は、ブロック、前記元画像に写っているオブジェクト、または、前記オブジェクトが分割されることによって示されるサブオブジェクトである。
これにより、適切な静止画像を生成することができる。したがって、この静止画像を含む画像セットを用いれば、より高精度の三次元モデルを容易に復元することができる。
また、前記画像セットの生成では、さらに、前記複数の撮像装置のうちの何れかである処理対象装置から取得された複数の画像である複数の参照画像に対して補間を行うことより、前記複数の参照画像のそれぞれの撮像時刻と異なる時刻を撮像時刻とする補間画像を、前記処理対象装置から取得された画像として生成し、生成された前記補間画像を含む、前記複数の撮像装置から取得された複数の画像から、撮像時刻が互いに略一致する前記複数の画像を選択してもよい。例えば、前記補間画像の生成では、等速運動モデルに基づいて前記補間画像を生成する。
これにより、撮像装置から実際に取得された画像だけでなく、生成された補間画像も選択することができ、その結果、画像セットに含まれる、撮像時刻が互いに略一致する画像の数を増やすことできる。したがって、複数の撮像装置のそれぞれから実際に取得された、撮像時刻が互いに略一致する画像の数が少なくても、この画像セットを用いれば、高精度の三次元モデルを容易に復元することができる。
また、前記補間画像の生成では、前記複数の参照画像のそれぞれを構成する処理単位ごとに補間を行い、前記処理単位は、ブロック、前記複数の参照画像のそれぞれに写っているオブジェクト、または、前記オブジェクトが分割されることによって示されるサブオブジェクトであってもよい。
これにより、適切な補間画像を生成することができる。したがって、この補間画像を含む画像セットを用いれば、より高精度の三次元モデルを容易に復元することができる。
以下、実施の形態について、図面を用いて詳細に説明する。
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態)
図2は、本実施の形態における画像処理装置200の構成を示すブロック図である。
画像処理装置200は、複数の撮像装置より画像を取得し、同一時刻の被写体が写し出された複数の画像からなる画像セットを作成する装置またはシステムである。なお、複数の撮像装置はそれぞれ、画像を画像データである画像信号に含めて送信する。その画像は、動画像であっても静止画像であってもよい。このような画像処理装置200は、図2に示すように、画像取得部201、時刻情報取得部202、画像セット生成部203、および三次元情報算出部204を備える。
画像取得部201は、複数の撮像装置(撮像装置1〜N)のそれぞれから画像を取得する。各撮像装置と画像取得部201とは、有線の伝送路で接続されていてもよいし、無線の伝送路で接続されていてもよい。また、基地局を経由して接続されていてもよい。例えば、撮像装置は基地局へ画像を無線伝送し、基地局は画像取得部201へ画像を無線伝送する。撮像装置から伝送される画像のフォーマットは、現像を行う前のRAW画像でもよいし、RAW画像を現像したビットマップ画像などのRGB非圧縮画像でもよいし、さらにRGB画像をフォーマット変換したYUV非圧縮画像でもよい。または、そのフォーマットは、H.265/HEVCまたはJPEGなどの画像符号化方式により非圧縮画像を符号化した符号化ストリームでもよい。これらの取得された画像は、三次元情報を計算するために任意に指定されたフォーマットへ変換されてもよい。そのため、画像取得部201は、RAW画像を現像するための画像現像処理部、RGB画像をYUVフォーマットに変換する画像変換部、あるいは符号化ストリームを復号する画像復号部を含んでもよい。また、上述の画像現像処理部、画像変換部、あるいは画像復号部は、画像取得部201と独立して画像処理装置200に備えられてもよい。画像取得部201は、複数の撮像装置のそれぞれから取得された、画像を含む画像データ201Dを、時刻情報取得部202および画像セット生成部203へ出力する。
時刻情報取得部202は、画像取得部201から出力された画像データ201Dから、撮像された時刻、つまり画像の撮像時刻を示す時刻情報202Dを取得する。時刻情報202Dは、露光時間よりも細かい時間精度(または、高い時間精度)の撮像時刻を示し、撮像装置のそれぞれ毎に設定された情報である。例えば、撮像装置は、フレームレート30fps(frame per second)の動画像を得るときには、約33ミリ秒の周期で撮像を行う。その撮像において露光時間を10ミリ秒とする。この場合、時刻情報202Dは、13時41分08秒243ミリ秒というように、10ミリ秒より小さい1ミリ秒精度で撮像時刻を示す。なお、撮像時刻は、露光時間の終点つまりシャッタが閉じた時点でもよいし、露光時間の始点つまりシャッタが開いた時点でもよい。以下では、説明のため、撮像時刻は露光時間の終点とする。
この撮像時刻(または時刻情報202D)は、画像データ201Dに付加されている。具体的には、撮像時刻は、画像ファイルのヘッダ部に付加されていてもよいし、画像データ201Dをトランスポートストリームとしてパケット化して伝送する際の各パケットの先頭に保持されていてもよい。あるいは、撮像時刻は、RTP(Real−time Transport Protocol)パケットに保持されていてもよい。または、撮像時刻は、符号化ストリームのUser data unregistered SEIなどに保持されていてもよい。時刻情報取得部202は、画像ファイルのヘッダ部、トランスポートストリームのパケット、あるいは、復号されたUser data unregistered SEIなどから、時刻情報202Dを取得し、画像セット生成部203へ出力する。なお、上記のように、撮像時刻は、撮像装置から出力された情報であってもよいし、画像処理装置200が画像を受信した時刻に基づいて、時刻合わせまたは調整が行われた時刻であっても良い。
なお、動画像の場合、動画像データである画像データ201Dより取得される時刻情報202Dは、その動画像データに含まれる1フレーム目の撮像開始時刻のみを示してもよいし、フレーム毎の撮像時刻を示してもよい。時刻情報202Dが1フレーム目の撮像開始時刻のみを示す場合、時刻情報取得部202は、さらに、動画像のフレームレートを取得し、1フレーム目に後続する各フレームの撮像時刻を算出する。具体的には、時刻情報取得部202は、T(N)=Clip(T(1)+(1/F)×(N−1))によって、フレームレートから算出された撮像周期の整数倍の時間を、1フレーム目の撮像開始時刻に加算する。
ここで、Nは動画像内のフレーム番号、T(1)は1フレーム目の撮像開始時刻、T(N)はNフレーム目の撮像開始時刻、Fは動画像のフレームレート、Clip()は、必要な時間精度で時刻をクリップ処理する関数である。
画像セット生成部203は、取得した画像データ201Dおよび時刻情報202Dを用いて、撮像時刻が同期した複数の画像からなる集合を、1つの画像セット203Dとして生成し、三次元情報算出部204へ出力する。つまり、画像セット生成部203は、取得された複数の画像から、撮像時刻が互いに略一致する複数の画像を選択することにより、選択された複数の画像からなる画像セット203Dを生成する。撮像時刻が互いに略一致する複数の画像では、その複数の画像のそれぞれの撮像のための露光時間が部分的にまたは全体的に重複している。また、その露光時間は例えば10ミリ秒である。
三次元情報算出部204は、取得した画像セット203Dを用いて、三次元情報を算出し、出力する。三次元情報の算出方法の一例として、三次元情報算出部204は、SfMなどを用いて、撮像装置の姿勢または被写体の三次元モデルを同時に復元する。本来、SfMでは、ある静止したオブジェクトなどの静止シーンを1台の撮像装置の視点を変えながら撮像することによって得られた複数の時系列画像から、三次元再構成を行う。しかし、本実施の形態では、複数の撮像装置のそれぞれの撮像によって得られた、被写体の撮像時刻が同期した複数の画像から、SfMなどを用いることによって、ある時刻(時間範囲)における三次元再構成を行うことが可能になる。
図3は、本実施の形態における画像処理方法の一例を示すフローチャートである。
ステップS301では、画像取得部201は、外部の複数の撮像装置のそれぞれから画像データ201Dを取得し、時刻情報取得部202および画像セット生成部203へ出力する。例えば、画像データ201Dは動画像を含む。
ステップS302では、時刻情報取得部202は、複数の画像データ201Dのそれぞれに含まれる時刻情報202Dを取得し、画像セット生成部203へ出力する。
ステップS303では、画像セット生成部203は、複数の画像データ201Dおよび複数の時刻情報202Dを用いて、同時刻の被写体が写っている複数の画像からなる画像セット203Dを生成し、三次元情報算出部204へ出力する。同時刻とは、例えば、それぞれの画像を得るための露光時間が、所定の時間範囲において、部分的または全体的に重複していることである。
ステップS304では、三次元情報算出部204は、画像セット生成部203が生成した画像セット203Dを用いて被写体の三次元情報を計算し、出力する。
ステップS303の処理について以下、図4を用いて詳細に説明する。
図4は、N台の撮像装置の撮像によって得られたN本の動画像から、撮像時刻が互いに略一致する少なくとも2本以上の動画像を選択する例を示す図である。つまり、この図4は、同期撮像によって得られた複数の動画像を選択する方法の一例を示す。なお、選択される動画像の最大数は、N本でもよいし、三次元情報算出部204に要求された数でもよいし、任意に設定された数でもよい。
画像セット生成部203は、撮像装置の露光時間をTミリ秒として、時刻W時X分Y秒Zミリ秒から時刻W時X分Y秒(Z+T)ミリ秒までの間に、露光が行われた2以上の動画像を、撮像時刻が互いに略一致する少なくとも2本以上の動画像として選択する。つまり、これらの2以上の動画像は同期していると判定され、画像セット203Dに含められる。また、このような時刻W時X分Y秒Zミリ秒から時刻W時X分Y秒(Z+T)ミリ秒までの時間帯を同期撮像時間帯とする。
図4に示すように、同期撮像時間帯は、例えば、複数の撮像装置から選択されたある基準撮像装置の露光時間である動画像1の露光時間とする。なお、同期撮像時間帯は、基準撮像装置のフレームレートに応じた周期で存在する。この場合、画像セット生成部203は、動画像1と、動画像1を出力する基準撮像装置の露光時間と部分的または全体的に重複する露光時間の撮像によって得られた動画像2、3、5・・・とを、選択する。これらの動画像1、2、3、5・・・のうち、ある同期撮像時間帯の撮像により得られたM枚の画像は、画像セット203Dにおけるある時間帯(同期撮像時間帯)の画像群である。なお、M枚は、N枚の内、重複する露光時間の撮像によって得られる動画像の総数を示す。画像セット生成部203は、上述のような選択を各時間帯で行うことにより、時間帯(同期撮像時間帯)ごとに画像群を有する時系列データで構成される画像セット203Dを生成する。三次元情報算出部204は、この画像セット203Dを用いることで三次元再構成を行うことが可能になる。
ここで、画像セット生成部203は、基準撮像装置を選択する場合、解像度、動きボケの少なさ、または符号化歪みの少なさといった画質を指標として選択してもよいし、ランダムに選択してもよい。また、基準撮像装置として固定カメラを使用してもよい。
なお、同期撮像時間帯は、複数の撮像装置の露光時間の平均の時間幅を持つ任意の時間帯であってもよい。図4を例にすると、最も早い時刻に露光時間が始まる動画像4を出力する撮像装置の露光時間と、最も遅い時刻に露光時間が始まる動画像5を出力する撮像装置の露光時間との平均時間が同期撮像時間帯に設定される。この場合は、より多くの撮像装置からの画像が1つの画像セットに含められることが可能になるため、より精度の高い三次元モデルを復元することができる可能性が高い。もちろん、撮像装置における撮像時刻があまりにもバラバラの場合には、適切ではない同期撮像時間帯が設定される場合もある。このため、画像セット生成部203は、撮像時刻または露光時間の差分の大小などに応じて、上述のような同期撮像時間帯の設定方法を用いるか否かを判断してもよい。
なお、同期撮像時間帯の時間幅は、撮像装置の露光時間に限らず、三次元情報の算出の精度を保持するのに必要な時間幅であってもよい。例えば、画像セット生成部203は、基準撮像装置の露光時間を同期撮像時間帯として用いて画像セット203Dを生成する。そして、画像セット生成部203は、生成された画像セット203Dに基づいて三次元再構成が行われた際に、画像が少なすぎて三次元モデルの精度が所定値以下であるか否かを判定する。その精度が所定値以下であると判定すると、画像セット生成部203は、同期撮像時間帯の前後に数ミリ秒増やした時間帯を新たな同期撮像時間帯として用い、改めて画像セット203Dを生成してもよい。逆に、画像セット生成部203は、露光時間が長すぎて画像セット203D内に含まれる画像同士の相関が低くなると判断すると、同期撮像時間帯の前後を数ミリ秒減らした時間帯を、新たな同期撮像時間帯に設定してもよい。
図4の例では、動画像1、動画像2、動画像3、および動画像5・・・が画像セット203Dに含められる。つまり、動画像1、動画像2、動画像3、および動画像5は、同期していると判定され、言い換えれば、同期撮像によって得られた画像と判定され、動画像4は同期していない(非同期)と判定される。
なお、画像セット203Dは、上記で、時間帯(同期撮像時間帯)ごとに画像群を有する時系列データで構成されていると説明した。しかし、画像セット203Dは、ある同期撮像時間帯において、各動画像から抜き出されたフレームの集合であってもよい。つまり、画像セット203Dを、ある時刻に限定して捉えれば、このようにほぼ同時刻の撮像により得られた複数画像の集まりと見ることができる。一方、画像セット203Dを、時間幅を有するデータとして捉えれば、動画像の集合として見ることができる。つまり、その動画像の集合は、各時刻(同期撮像時間帯)において、ほぼ同時刻に撮像された複数画像を有する。
なお、画像セット203Dを動画像の集合とする場合、画像セット生成部203は、まず、同期撮像時間帯に基づいて、複数の動画像からなる画像セット候補を生成する。次に、画像セット生成部203は、画像セット候補の中から、符号化ストリームにおけるGOP(Group Of Pictures)構造が一致している複数の動画像を選択し、その選択された複数の動画像からなる画像セット203Dを生成してもよい。また、画像セット生成部203は、上述の手順とは逆に画像セット203Dを生成してもよい。例えば、画像セット生成部203は、各撮像装置の動画像から、GOP構造がIPBBの動画像を除き、IPPPの複数の動画像のみを選択し、そのIPPPの複数の動画像からなる画像セット候補を生成する。次に、画像セット生成部203は、画像セット候補の中から、同期撮像時間帯に基づいて動画像を選択することによって、画像セット203Dを生成する。
なお、画像セット203Dをフレーム(静止画)の集合とする場合、画像セット生成部203は、まず、同期撮像時間帯に基づいて、複数のフレームからなる画像セット候補を生成する。次に、画像セット生成部203は、画像セット候補の中から、符号化ストリームにおけるピクチャタイプが一致している複数のフレームを選択し、その選択された複数のフレームからなる画像セット203Dを生成してもよい。なお、ピクチャタイプは、例えば、Iピクチャ、PピクチャまたはBピクチャなどである。例えば、画像セット生成部203は、画像セット候補の中からPピクチャおよびBピクチャを除き、複数のIピクチャのみを選択し、その複数のIピクチャからなる画像セット203Dを生成する。また、画像セット生成部203は、上述の手順とは逆に画像セット203Dを生成してもよい。具体的には、画像セット生成部203は、まず、ピクチャタイプが一致する複数のフレームからなる画像セット候補を生成する。次に、画像セット生成部203は、画像セット候補の中から、同期撮像時間帯に基づいて、複数のフレームを選択し、その選択された複数のフレームからなる画像セット203Dを生成する。
なお、画像セット生成部203は、画像処理装置200が撮像装置から動画像を取得した時刻に基づいて、画像セット203Dに含まれる動画像を選択してもよい。具体的には、画像セット生成部203は、画像処理装置200が撮像装置から動画像Xを取得した時刻、つまり撮像装置より伝送された動画像Xが画像処理装置200に到着した時刻と、時刻情報202Dによって示される時刻とを比較する。画像セット生成部203は、それらの時刻の時間差が、任意に設定された時間差以上である場合は、時刻情報202Dの信頼性が低いと判断し、時刻情報202Dに対応する動画像Xを画像セット203Dの選択から除外する。
これにより、複数の撮像装置より取得した複数の動画像から、被写体を撮像した時刻が一致した複数の動画像あるいはフレームからなる画像セットが生成される。したがって、この画像セットを用いて三次元情報を算出することにより、撮像装置の姿勢または被写体の三次元モデルを高精度に復元することができる。
このように本実施の形態では、複数の撮像装置1〜Nのそれぞれから、当該撮像装置による撮像によって得られた画像を取得し、取得された複数の画像のそれぞれの撮像時刻を取得する。さらに、取得されたその複数の画像から、撮像時刻が互いに略一致する複数の画像を選択することにより、選択された複数の画像からなる画像セット203Dを生成する。また、本実施の形態では、さらに、その画像セット203Dに含まれる複数の画像に基づいて、その複数の画像のそれぞれに対応する撮像装置および被写体のうちの少なくとも一方の状態を三次元的に示す三次元情報を算出する。具体的には、この三次元情報は、画像セット203Dに含まれる複数の画像のそれぞれに対応する撮像装置の位置および姿勢のうちの少なくとも一方を示す。または、三次元情報は、画像セット203Dに含まれる複数の画像のそれぞれに対応する被写体の位置および形状のうちの少なくとも一方を示す。
これにより、画像セット203Dには、撮像時刻が互いに略一致する複数の画像が含まれるため、この画像セット203Dを用いれば、高精度の三次元モデルを容易に復元することができる。
また、本実施の形態では、画像セット生成部203は、図4に示すように、取得された複数の画像のうちの1つである基準画像(動画像1)と、基準画像の撮像のための露光と重複したタイミングの露光による撮像によって得られた画像である少なくとも1つの露光重複画像(動画像2、3および5)とを、撮像時刻が互いに略一致する複数の画像として選択する。
これにより、画像セット203Dには、基準画像と、その基準画像と露光のタイミングが一致する少なくとも1つの露光重複画像とが含まれる。つまり、同一時刻の被写体が映し出された複数の画像が画像セット203Dに含まれる。したがって、この画像セット203Dを用いれば、より高精度の三次元モデルを容易に復元することができる。
また、本実施の形態では、時刻情報取得部202は、取得された複数の画像のうちの何れの露光時間よりも高い時間精度で示される各画像の撮像時刻を取得する。これにより、より高精度の三次元モデルを容易に復元することができる。
また、本実施の形態では、画像取得部201は、複数の撮像装置1〜Nのそれぞれから、当該撮像装置による撮像によって得られた画像を含む画像信号(つまり画像データ201D)を取得する。そして、画像セット生成部203は、取得された複数の画像信号から、撮像時刻が互いに略一致する複数の画像のそれぞれを含む複数の画像信号を選択することにより、選択された複数の画像信号からなる画像セット203Dを生成する。具体的には、上述の画像信号は、複数の画像(例えば複数のピクチャまたはフレーム)と、その複数の画像のそれぞれの撮像時刻を取得するための時刻情報202Dとを含む動画像データである。時刻情報取得部202は、画像信号、つまり動画像データごとに、当該画像信号に含まれる時刻情報202Dに基づいて、その画像信号に含まれる複数の画像のそれぞれの撮像時刻を取得する。
これにより、動画像データに含まれる複数の画像(例えば複数のピクチャまたはフレーム)のそれぞれの撮像時刻を、その動画像データに含まれる時刻情報に基づいて容易に取得することができる。なお、時刻情報は、例えば、動画像データに含まれる先頭の画像の撮像時刻およびフレームレートを示していてもよく、動画像データに含まれる複数の画像のそれぞれの撮像時刻を示していてもよい。
また、上述の画像信号は、画像と、その画像の撮像時刻を取得するための時刻情報とを含む画像データ201Dであってもよい。つまり、この場合には、画像は静止画像またはフレームであり、画像データ201Dは静止画像データである。この場合にも、時刻情報取得部202は、画像信号ごとに、その画像信号に含まれる時刻情報に基づいて、その画像信号に含まれる画像の撮像時刻を取得する。これにより、画像データ201Dに含まれる例えば静止画像の撮像時刻を、その画像データ201Dに含まれる時刻情報に基づいて容易に取得することができる。
(変形例1)
ここで、同期撮像により得られた画像(動画像あるいはフレーム)のみを選択すると、画像セット203D内に含まれる画像の数が少なくなり、三次元情報の算出に必要とされる画像、つまり入力データ量が不足する場合がある。
そこで、本変形例では、新たな画像を、同期撮像により得られた画像として生成する。
図5Aは、図4で非同期と判定された動画像4に含まれる、同期撮像時間帯の前後の撮像時刻の画像の一例を示す図である。
2枚のフレーム(画像)のうちの1枚のフレームの撮像時刻は、同期撮像時間帯の前であって、時刻W時X分Y秒(Z−α)ミリ秒(Z−α<Z)である。一方、2枚のフレームのうちの残りのフレームの撮像時刻は、同期撮像時間帯の後であって、時刻W時X分Y秒(Z+T+β)ミリ秒(Z+T+β>Z+T)である。したがって、上述の同期撮像時間帯に基づく選択では、これらの2枚のフレームは画像セット203Dには含まれない。ただし、それらのフレーム内における物体Aの位置、大きさおよび形状などは同一であるため、物体Aは、2枚のフレームのそれぞれの撮像時刻の間は静止している。つまり、仮に、同期撮像時間帯において撮像が行われた場合には、その撮像によって得られるフレームにも、上記2枚のフレームに写っている物体Aと同じ位置、大きさおよび形状で、物体Aが写っていると推定できる。
図5Bは、2枚のフレーム間において静止している被写体の領域を示す図である。
画像セット生成部203は、例えば図5Bに示すように、図5Aの2枚のフレームのうちの一方から、静止している被写体が写っている領域(以下、同期撮像領域または静止領域という)を特定し、その領域の画像を、上述の同期撮像時間帯における撮像によって得られた静止画像として生成する。そして、画像セット生成部203は、画像取得部201によって取得された複数の画像と、その生成された静止画像とから、画像セット203Dを生成する。
具体的には、画像セット生成部203は、N台の撮像装置から取得されたN本の動画像のそれぞれから静止領域(同期撮像領域)を特定し、その静止領域における被写体が同期撮像時間帯でも静止しているか否かを判定する。そして、画像セット生成部203は、静止していると判定された静止領域の画像(静止画像)を抽出して画像セット203Dに含める。
なお、画像セット生成部203は、完全に静止している被写体が写っている領域を静止領域として特定してもよいし、許容範囲内の動き量で動いている被写体が写っている領域を静止領域として特定してもよい。ここでの許容範囲内の動き量とは、任意に指定された動き量でもよいし、三次元情報算出部204が指定した動き量でもよい。さらに、動き量には、画像取得部201が符号化ストリームを復号して取得した動きベクトルを使用してもよい。
なお、同期撮像により得られた複数の画像のみからなる画像セット203Dに対し、非同期の動画像における静止画像を追加してもよい。
具体的な方法としては、画像セット生成部203は、N台の撮像装置から取得されたN本の動画像から、同期撮像時間帯に撮像が行われたK本の動画像を選択し、画像セット203Dに含める。そして、画像セット生成部203は、残りの(N−K)本の動画像のそれぞれにおいて、その動画像に含まれる複数のフレームから所定のフレームを特定する。この所定のフレームは、同期撮像時間帯から撮像周期以内の近い時刻を撮像時刻とするフレームである。次に、画像セット生成部203は、その所定のフレームから静止領域を特定し、その静止領域における被写体が同期撮像時間帯でも静止しているか否かを判定する。そして、画像セット生成部203は、その静止領域における被写体が同期撮像時間帯でも静止していると判定すると、その静止領域の画像を静止画像として画像セット203Dに追加する。
これにより、同期撮像により得られた画像が少なくても、非同期の動画像から、画質が視認されやすい静止領域あるいは動き量が少ない領域の画像を抽出し、三次元情報の算出に利用することができる。したがって、同期ずれを原因とする三次元情報算出での情報量の不足を改善することができる。
このように本変形例では、画像セット生成部203は、さらに、複数の撮像装置のうちの何れかである処理対象装置から取得された画像である元画像から、当該元画像の撮像時刻と異なる時刻において静止していると推定される被写体が写っている領域の画像を、処理対象装置から取得された、その時刻を撮像時刻とする静止画像として生成する。そして、画像セット生成部203は、生成された静止画像を含む、複数の撮像装置から取得された複数の画像から、撮像時刻が互いに略一致する複数の画像を選択する。
これにより、撮像装置から実際に取得された画像だけでなく、生成された静止画像も選択することができ、その結果、画像セット203Dに含まれる、撮像時刻が互いに略一致する画像の数を増やすことできる。したがって、複数の撮像装置のそれぞれから実際に取得された、撮像時刻が互いに略一致する画像の数が少なくても、この画像セット203Dを用いれば、高精度の三次元モデルを容易に復元することができる。
また、本変形例では、画像セット生成部203は、元画像の撮像時刻の前および後のうちの少なくとも一方において、処理対象装置による撮像によって得られた少なくとも1つの画像と、その元画像とを比較することによって、元画像から上述の領域(つまり同期撮像領域または静止領域)を特定する。このとき、画像セット生成部203は、元画像を構成する処理単位ごとに、当該処理単位がその領域に該当するか否かを判定することによって、その領域を特定する。ここで、その処理単位は、ブロック、元画像に写っているオブジェクト、または、そのオブジェクトが分割されることによって示されるサブオブジェクトである。
これにより、適切な静止画像を生成することができる。したがって、この静止画像を含む画像セット203Dを用いれば、より高精度の三次元モデルを容易に復元することができる。
(変形例2)
ここで、撮像装置の台数の問題などにより、動画像または画像の選択、あるいは静止画像の抽出では、三次元情報の算出において入力データ量が不足する場合がある。
そこで、本変形例では、各動画像でフレーム補間を行うことによって、新たな画像(補間フレーム)を生成し、その新たな画像を画像セット203Dに含める。
具体的な方法としては、画像セット生成部203は、N台の撮像装置から取得されたN本の動画像から、同期撮像時間帯に撮像が行われたK本の動画像を選択し、画像セット203Dに含める。そして、画像セット生成部203は、残りの(N−K)本の動画像のそれぞれにおいてフレーム補間を行うことによって、同期撮像時間帯における新たなフレームを補間フレームとして生成し、画像セット203Dに追加する。
なお、フレーム補間を行う際には、同期撮像時間帯の前後のフレーム間では、被写体は等速運動を行っていると仮定して、動き量を線形補間してもよい。
具体的な方法について、図6および図7を用いて説明する。
図6は、動画像Mにおける補間フレームの時刻と、補間に使用されるフレームの時刻とを示す図である。説明のため、補間フレームの時刻Tcは、同期撮像時間帯の中心とされているが、同期撮像時間帯の任意の時刻でもよい。また、同期撮像時間帯の前後にある撮像時刻TaおよびTbのそれぞれのフレームが補間に使用される。
図7は、時刻Ta、Tb、Tcの各フレームおよび動物体の動きベクトルを示す図である。なお、図7では、各フレームに写っている物体Aを静止物体とし、物体Bを動物体とする。
まず、画像セット生成部203は、動画像Mに含まれるフレームF(Ta)とフレームF(Tb)より、フレームF(Tb)における物体Bの動きベクトルMV(Tb)を算出する。フレームF(Ta)は、時刻Taを撮像時刻とするフレームであり、フレームF(Tb)は、時刻Tbを撮像時刻とするフレームである。
なお、画像セット生成部203は、フレームF(Tb)を複数のブロックに分割し、ブロック毎に動きベクトルを算出してもよい。また、画像セット生成部203は、フレームF(Tb)内でオブジェクト抽出を行い、抽出されたオブジェクト毎に動きベクトルを算出してもよい。また、画像セット生成部203は、上記ブロックをさらに細かなサブブロックに分割し、サブブロックごとに動きベクトルを算出してもよい。また、画像セット生成部203は、上記オブジェクトをさらに細かな複数のサブオブジェクトに分割し、サブオブジェクトごとに動きベクトルを算出してもよい。
なお、ここでは、物体Bのような動領域(つまり、動いているオブジェクトが写っている領域)のみに対して動きベクトルを算出したが、領域の動きに関わらずフレーム全体に対して動きベクトルを算出してもよい。
なお、画像セット生成部203は、動画像Mが符号化ストリームとして画像処理装置200へ入力された場合には、復号時に得られるブロック単位の動きベクトルを、物体Bの動きベクトルとして使用してもよい。
次に、フレームF(Ta)とフレームF(Tb)との間において、動物体は等速運動していると仮定される。したがって、画像セット生成部203は、フレームF(Tc)における物体Bの動きベクトルMV(Tc)を、下記の(式1)に基づいて算出する。フレームF(Tc)は、時刻Tcを撮像時刻として想定される補間フレームである。
Figure 0006562197
次に、画像セット生成部203は、この動きベクトルとフレームF(Ta)に基づき、動き補償を行うことによって、フレームF(Tc)を生成する。なお、画像セット生成部203は、動き補償を上述のブロック単位で行ってもよいし、オブジェクト単位で行ってもよい。
ここで、フレーム補間を行う際には、同期撮像時間帯の前後のフレーム間では、被写体は等加速度運動を行っていると仮定して、動き量を補間してもよい。
具体的な方法について、図8および図9を用いて説明する。
図8は、動画像Mにおける補間フレームの時刻と、補間に使用されるフレームの時刻とを示す図である。説明のため、補間フレームの時刻Tcは、同期撮像時間帯の中心とされているが、同期撮像時間帯の任意の時刻でもよい。また、同期撮像時間帯の前後にある撮像時刻Ta、Tb、およびTdのそれぞれのフレームが補間に使用される。
なお、撮像時刻Tdは、撮像時刻Taの1フレーム前の撮像時刻であるが、撮像時刻Tbの1フレーム後の撮像時刻でもよい。あるいは、撮像時刻Tdは、撮像時刻Taの複数フレーム前の撮像時刻、または撮像時刻Tbの複数フレーム後の撮像時刻でもよい。
図9は、時刻Ta、Tb、Tc、Tdの各フレームおよび動物体の動きベクトルを示す図である。なお、図9では、各フレームに写っている物体Aを静止物体とし、物体Bを動物体とする。
まず、画像セット生成部203は、動画像Mに含まれるフレームF(Td)とフレームF(Ta)より、フレーム(Ta)における物体Bの動きベクトルMV(Ta)を算出する。なお。フレームF(Td)は、時刻Tdを撮像時刻とするフレームである。さらに、画像セット生成部203は、フレームF(Ta)とフレームF(Tb)より、フレームF(Tb)における物体Bの動きベクトルMV(Tb)を算出する。なお、画像セット生成部203は、上述の等速運動の場合と同様の処理単位(例えばブロックなど)ごとに動きベクトルを算出してもよい。
画像セット生成部203は、この2つの動きベクトルMV(Ta)とMV(Tb)との差分をとることにより、フレーム(Ta)からフレーム(Tb)間の物体Bの加速度を近似的に求める。ここで、フレームF(Ta)とフレームF(Tb)との間において、動物体は等加速度運動していると仮定される。したがって、画像セット生成部203は、フレームF(Tc)における物体Bの動きベクトルMV(Tc)を、下記の(式2)に基づいて算出する。
Figure 0006562197
次に、画像セット生成部203は、この動きベクトルとフレームF(Ta)に基づき、動き補償を行うことによって、フレームF(Tc)を補間フレームとして生成する。なお、画像セット生成部203は、動き補償を、上述の等速運動の場合と同様の処理単位(ブロックなど)で行ってもよい。
なお、ここでは、フレームF(Ta)を基準にした動きベクトルを算出する例を示したが、フレームF(Td)を基準とし、動き補償にもフレームF(Td)を使用してもよい。
このように本変形例では、画像セット生成部203は、さらに、複数の撮像装置1〜Nのうちの何れかである処理対象装置から取得された複数の画像である複数の参照画像(例えば、フレームF(Ta)またはF(Tb))に対して補間を行うことより、その複数の参照画像のそれぞれの撮像時刻と異なる時刻(例えば時刻Tc)を撮像時刻とする補間画像(例えば、補間フレームF(Tc))を、その処理対象装置から取得された画像として生成する。そして、画像セット生成部203は、生成されたその補間画像を含む、複数の撮像装置1〜Nから取得された複数の画像から、撮像時刻が互いに略一致する複数の画像を選択する。ここで、画像セット生成部203は、等速運動モデルまたは等加速度運動モデルに基づいて補間画像を生成する。
これにより、撮像装置から実際に取得された画像だけでなく、生成された補間画像も選択することができ、その結果、画像セット203Dに含まれる、撮像時刻が互いに略一致する画像の数を増やすことできる。したがって、複数の撮像装置のそれぞれから実際に取得された、撮像時刻が互いに略一致する画像の数が少なくても、この画像セット203Dを用いれば、高精度の三次元モデルを容易に復元することができる。
つまり、被写体を撮像した時刻が一致した十分な数の画像を含む画像セット203Dを用いて三次元情報を算出することにより、撮像装置の姿勢または被写体の三次元モデルといった三次元情報の精度を向上することができる。
また、本変形例では、画像セット生成部203は、複数の参照画像のそれぞれを構成する処理単位ごとに補間を行う。その処理単位は、ブロック、複数の参照画像のそれぞれに写っているオブジェクト、または、そのオブジェクトが分割されることによって示されるサブオブジェクトである。
これにより、適切な補間画像を生成することができる。したがって、この補間画像を含む画像セットを用いれば、より高精度の三次元モデルを容易に復元することができる。
以上、本発明の一態様に係る画像処理方法について、上記実施の形態およびその変形例に基づいて説明したが、本発明は、この実施の形態およびその変形例に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態または変形例に施したものや、実施の形態および各変形例における構成要素を組み合わせて構築される形態も本発明に含まれてもよい。例えば、図10Aおよび図10Bに示す方法およびシステムも本発明に含まれる。
図10Aは、本発明の一態様に係る画像処理方法を示すフローチャートである。
この画像処理方法は、複数の画像に対して処理を行う画像処理方法であって、複数の撮像装置のそれぞれから、当該撮像装置による撮像によって得られた画像を取得するステップS11と、取得された複数の画像のそれぞれの撮像時刻を取得するステップS12と、取得された複数の画像から、撮像時刻が互いに略一致する複数の画像を選択することにより、選択された複数の画像からなる画像セットを生成するステップS13とを含む。
図10Bは、本発明の一態様に係る画像処理システムの構成を示すブロック図である。
この画像処理システム10は、処理回路11と、処理回路11に接続される記憶装置12とを備える。処理回路11は、複数の撮像装置のそれぞれから、当該撮像装置による撮像によって得られた画像を取得して記憶装置12に格納し、取得された複数の画像のそれぞれの撮像時刻を取得し、記憶装置12に格納されている複数の画像から、撮像時刻が互いに略一致する複数の画像を選択することにより、選択された複数の画像からなる画像セットを生成する。
このように、図10Aおよび図10Bに示す画像処理方法または画像処理システム10であっても、上記実施の形態およびその変形例と同様の作用効果を奏することができる。つまり、画像セットには、撮像時刻が互いに略一致する複数の画像が含まれるため、この画像セットを用いれば、高精度の三次元モデルを容易に復元することができる。また、図2に示す三次元情報算出部204は本発明において必須の構成要素ではない。
また、上記実施の形態または各変形例において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記実施の形態および各変形例の画像処理装置または画像処理システムなどを実現するソフトウェアは、図10Aの各ステップをコンピュータに実行させるプログラムである。
なお、以下のような場合も本発明に含まれる。
(1)上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
(2)上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
(3)上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
(4)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray(登録商標) Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。
また、本発明は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
(5)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
本発明は、高精度な三次元モデルの復元を行うことができるという効果を奏し、例えば、三次元再構成を行うシステムまたは装置などに利用することができる。
10 画像処理システム
11 処理回路
12 記憶装置
200 画像処理装置
201 画像取得部
202 時刻情報取得部
203 画像セット生成部
204 三次元情報算出部
201D 画像データ
202D 時刻情報
203D 画像セット

Claims (13)

  1. 複数の画像に対して処理を行う画像処理方法であって、
    複数の撮像装置のそれぞれから、当該撮像装置による撮像によって得られた画像を取得し、
    取得された複数の画像のそれぞれの撮像時刻を取得し、
    取得された前記複数の画像から、撮像時刻が互いに略一致する複数の画像を選択することにより、選択された複数の画像からなる画像セットを生成し、
    前記画像セットの生成では、
    取得された前記複数の画像のうちの1つである基準画像と、当該基準画像の撮像のための露光と重複したタイミングの露光による撮像によって得られた画像である少なくとも1つの露光重複画像とを、撮像時刻が互いに略一致する前記複数の画像として選択する、
    画像処理方法。
  2. 前記画像処理方法は、さらに、
    前記画像セットに含まれる複数の画像に基づいて、当該複数の画像のそれぞれに対応する撮像装置および被写体のうちの少なくとも一方の状態を三次元的に示す三次元情報を算出する
    請求項1に記載の画像処理方法。
  3. 前記三次元情報は、前記画像セットに含まれる複数の画像のそれぞれに対応する撮像装置の位置および姿勢のうちの少なくとも一方を前記状態として示す
    請求項2記載の画像処理方法。
  4. 前記三次元情報は、前記画像セットに含まれる複数の画像のそれぞれに対応する被写体の位置および形状のうちの少なくとも一方を前記状態として示す
    請求項2に記載の画像処理方法。
  5. 前記撮像時刻の取得では、
    取得された前記複数の画像のうちの何れの露光時間よりも高い時間精度で示される、前記複数の画像のそれぞれの前記撮像時刻を取得する
    請求項に記載の画像処理方法。
  6. 前記画像の取得では、
    前記複数の撮像装置のそれぞれから、当該撮像装置による撮像によって得られた前記画像を含む画像信号を取得し、
    前記画像セットの生成では、
    取得された複数の画像信号から、撮像時刻が互いに略一致する前記複数の画像のそれぞれを含む複数の画像信号を選択することにより、選択された前記複数の画像信号からなる前記画像セットを生成する
    請求項1〜の何れか1項に記載の画像処理方法。
  7. 前記画像信号は、複数の画像と、前記複数の画像のそれぞれの撮像時刻を取得するための時刻情報とを含む動画像データであって、
    前記撮像時刻の取得では、
    画像信号ごとに、当該画像信号に含まれる前記時刻情報に基づいて、当該画像信号に含まれる前記複数の画像のそれぞれの撮像時刻を取得する
    請求項に記載の画像処理方法。
  8. 前記画像信号は、画像と、前記画像の撮像時刻を取得するための時刻情報とを含む画像データであって、
    前記撮像時刻の取得では、
    画像信号ごとに、当該画像信号に含まれる前記時刻情報に基づいて、当該画像信号に含まれる前記画像の撮像時刻を取得する
    請求項に記載の画像処理方法。
  9. 複数の画像に対して処理を行う画像処理方法であって、
    複数の撮像装置のそれぞれから、当該撮像装置による撮像によって得られた画像を取得し、
    取得された複数の画像のそれぞれの撮像時刻を取得し、
    取得された前記複数の画像から、撮像時刻が互いに略一致する複数の画像を選択することにより、選択された複数の画像からなる画像セットを生成し、
    前記画像セットの生成では、
    さらに、前記複数の撮像装置のうちの何れかである処理対象装置から取得された画像である元画像から、当該元画像の撮像時刻と異なる時刻において静止していると推定される被写体が写っている領域の画像を、前記処理対象装置から取得された、前記時刻を撮像時刻とする静止画像として生成し、
    生成された前記静止画像を含む、前記複数の撮像装置から取得された複数の画像から、撮像時刻が互いに略一致する前記複数の画像を選択する
    像処理方法。
  10. 前記静止画像の生成では、
    前記元画像の撮像時刻の前および後のうちの少なくとも一方において、前記処理対象装置による撮像によって得られた少なくとも1つの画像と、前記元画像とを比較することによって、前記元画像から前記領域を特定する
    請求項に記載の画像処理方法。
  11. 前記領域の特定では、
    前記元画像を構成する処理単位ごとに、当該処理単位が前記領域に該当するか否かを判定することによって、前記領域を特定し、
    前記処理単位は、ブロック、前記元画像に写っているオブジェクト、または、前記オブジェクトが分割されることによって示されるサブオブジェクトである
    請求項10に記載の画像処理方法。
  12. 処理回路と、前記処理回路に接続される記憶装置とを備える画像処理システムであって、
    前記処理回路は、
    複数の撮像装置のそれぞれから、当該撮像装置による撮像によって得られた画像を取得して前記記憶装置に格納し、
    取得された複数の画像のそれぞれの撮像時刻を取得し、
    前記記憶装置に格納されている前記複数の画像から、撮像時刻が互いに略一致する複数の画像を選択することにより、選択された複数の画像からなる画像セットを生成し、
    前記画像セットの生成では、
    取得された前記複数の画像のうちの1つである基準画像と、当該基準画像の撮像のための露光と重複したタイミングの露光による撮像によって得られた画像である少なくとも1つの露光重複画像とを、撮像時刻が互いに略一致する前記複数の画像として選択する、
    画像処理システム。
  13. 複数の画像に対して処理を行うためのプログラムであって、
    複数の撮像装置のそれぞれから、当該撮像装置による撮像によって得られた画像を取得し、
    取得された複数の画像のそれぞれの撮像時刻を取得し、
    取得された前記複数の画像から、撮像時刻が互いに略一致する複数の画像を選択することにより、選択された複数の画像からなる画像セットを生成することをコンピュータに実行させ、
    前記画像セットの生成では、
    取得された前記複数の画像のうちの1つである基準画像と、当該基準画像の撮像のための露光と重複したタイミングの露光による撮像によって得られた画像である少なくとも1つの露光重複画像とを、撮像時刻が互いに略一致する前記複数の画像として選択する、
    プログラム。
JP2015023548A 2014-06-20 2015-02-09 画像処理方法および画像処理システム Active JP6562197B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2015/002179 WO2015194082A1 (ja) 2014-06-20 2015-04-22 画像処理方法および画像処理システム
US15/358,297 US10277832B2 (en) 2014-06-20 2016-11-22 Image processing method and image processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201462014737P 2014-06-20 2014-06-20
US62/014,737 2014-06-20

Publications (2)

Publication Number Publication Date
JP2016010144A JP2016010144A (ja) 2016-01-18
JP6562197B2 true JP6562197B2 (ja) 2019-08-21

Family

ID=55227391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015023548A Active JP6562197B2 (ja) 2014-06-20 2015-02-09 画像処理方法および画像処理システム

Country Status (2)

Country Link
US (1) US10277832B2 (ja)
JP (1) JP6562197B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3059949A1 (en) * 2015-02-23 2016-08-24 Thomson Licensing Method and apparatus for generating lens-related metadata
WO2017057043A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP6735592B2 (ja) * 2016-04-08 2020-08-05 キヤノン株式会社 画像処理装置及びその制御方法、画像処理システム
US10523918B2 (en) 2017-03-24 2019-12-31 Samsung Electronics Co., Ltd. System and method for depth map
CN110832256A (zh) * 2017-06-22 2020-02-21 松下知识产权经营株式会社 加热烹调器
JP6948175B2 (ja) * 2017-07-06 2021-10-13 キヤノン株式会社 画像処理装置およびその制御方法
WO2019191592A1 (en) * 2018-03-29 2019-10-03 Jabil Inc. Apparatus, system, and method of certifying sensing for autonomous robot navigation
JP7223978B2 (ja) * 2018-05-23 2023-02-17 パナソニックIpマネジメント株式会社 校正装置および校正方法
JP2020086983A (ja) * 2018-11-27 2020-06-04 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN109597432B (zh) * 2018-11-30 2022-03-18 航天时代飞鸿技术有限公司 一种基于车载摄像机组的无人机起降监控方法及系统
CN111860226A (zh) 2020-06-30 2020-10-30 北京百度网讯科技有限公司 用于图像处理的方法、装置、设备以及存储介质
JP2022021367A (ja) 2020-07-22 2022-02-03 キヤノン株式会社 撮像システム、製造システム、情報処理方法、物品の製造方法、プログラム及び記録媒体
US11910103B2 (en) * 2020-07-28 2024-02-20 Eys3D Microelectronics, Co. Electronic system and image aggregation method thereof
EP4303845A1 (en) * 2021-03-02 2024-01-10 Sony Group Corporation Detection device, detection method, and program

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5742291A (en) * 1995-05-09 1998-04-21 Synthonics Incorporated Method and apparatus for creation of three-dimensional wire frames
US6642956B1 (en) * 1998-05-29 2003-11-04 Agilent Technologies, Inc. Digital image processor for a digital camera
AU2003900746A0 (en) * 2003-02-17 2003-03-06 Silverbrook Research Pty Ltd Methods, systems and apparatus (NPS041)
JP4160572B2 (ja) * 2005-03-31 2008-10-01 株式会社東芝 画像処理装置及び画像処理方法
JP5045540B2 (ja) * 2007-05-09 2012-10-10 ソニー株式会社 画像記録装置、画像記録方法、画像処理装置、画像処理方法、音声記録装置および音声記録方法
JP4985516B2 (ja) 2008-03-27 2012-07-25 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2010250452A (ja) 2009-04-14 2010-11-04 Tokyo Univ Of Science 任意視点画像合成装置
JP5746477B2 (ja) * 2010-02-26 2015-07-08 キヤノン株式会社 モデル生成装置、3次元計測装置、それらの制御方法及びプログラム
JP5045827B2 (ja) 2011-02-01 2012-10-10 カシオ計算機株式会社 画像処理装置、画像処理方法、及び、プログラム
JP2012216939A (ja) * 2011-03-31 2012-11-08 Fujifilm Corp 画像処理装置、画像処理方法及びプログラム
JP5718197B2 (ja) * 2011-09-14 2015-05-13 株式会社バンダイナムコゲームス プログラム及びゲーム装置
JP5988563B2 (ja) * 2011-10-25 2016-09-07 キヤノン株式会社 画像処理装置と画像処理装置の制御方法およびプログラムと、情報処理装置と情報処理装置の制御方法およびプログラム
EP2904584B1 (en) * 2012-10-05 2017-08-09 Universidade De Coimbra Method for aligning and tracking point regions in images with radial distortion that outputs motion model parameters, distortion calibration, and variation in zoom

Also Published As

Publication number Publication date
US20170078646A1 (en) 2017-03-16
JP2016010144A (ja) 2016-01-18
US10277832B2 (en) 2019-04-30

Similar Documents

Publication Publication Date Title
JP6562197B2 (ja) 画像処理方法および画像処理システム
EP3447730B1 (en) Three-dimensional reconstruction method
CN110322542B (zh) 重建真实世界3d场景的视图
JP5774889B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
JP5954668B2 (ja) 画像処理装置、撮像装置および画像処理方法
JP5725953B2 (ja) 撮像装置及びその制御方法、並びに情報処理装置
JP5781353B2 (ja) 情報処理装置、情報処理方法、および位置情報のデータ構造
EP1670237A2 (en) Matching un-synchronized image portions
KR101801749B1 (ko) 3차원 복원을 위한 다중시점 영상 디블러링 방법, 이를 수행하기 위한 기록 매체 및 장치
CN111316650A (zh) 三维模型编码装置、三维模型解码装置、三维模型编码方法、以及三维模型解码方法
CN105190688A (zh) 用于查看图像的方法和装置
KR20170087814A (ko) 영상 블러링 제거 방법 및 장치
KR20190077428A (ko) 스트리밍된 메타데이터를 사용한 비디오 프레임 레이트 변환
US20170127039A1 (en) Ultrasonic proximity detection system
US10535193B2 (en) Image processing apparatus, image synthesizing apparatus, image processing system, image processing method, and storage medium
JP2015073185A (ja) 画像処理装置、画像処理方法およびプログラム
JP2017207818A (ja) 画像処理装置、画像処理方法、プログラム
JP2017050731A (ja) 動画像フレーム補間装置、動画像フレーム補間方法及び動画像フレーム補間プログラム
US9538168B2 (en) Determination device and determination method
WO2015194082A1 (ja) 画像処理方法および画像処理システム
JP2009164865A (ja) 映像符号化方法,復号方法,符号化装置,復号装置,それらのプログラムおよびコンピュータ読み取り可能な記録媒体
JP2013150071A (ja) 符号化装置、符号化方法、プログラム及び記憶媒体
JP4519569B2 (ja) 立体mpeg信号同期システム
JP5987899B2 (ja) 生成装置、生成プログラムおよび生成方法
US20200311902A1 (en) Data processing apparatus, data analysis system, data analysis method and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190709

R151 Written notification of patent or utility model registration

Ref document number: 6562197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151