JP6735592B2 - 画像処理装置及びその制御方法、画像処理システム - Google Patents

画像処理装置及びその制御方法、画像処理システム Download PDF

Info

Publication number
JP6735592B2
JP6735592B2 JP2016078436A JP2016078436A JP6735592B2 JP 6735592 B2 JP6735592 B2 JP 6735592B2 JP 2016078436 A JP2016078436 A JP 2016078436A JP 2016078436 A JP2016078436 A JP 2016078436A JP 6735592 B2 JP6735592 B2 JP 6735592B2
Authority
JP
Japan
Prior art keywords
image
objects
image processing
feature point
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016078436A
Other languages
English (en)
Other versions
JP2017188046A (ja
Inventor
松下 明弘
明弘 松下
究 小林
究 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016078436A priority Critical patent/JP6735592B2/ja
Priority to US15/477,425 priority patent/US10666924B2/en
Publication of JP2017188046A publication Critical patent/JP2017188046A/ja
Application granted granted Critical
Publication of JP6735592B2 publication Critical patent/JP6735592B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed

Description

本発明は、複数の撮像画像に基づく画像処理パラメータの導出技術に関するものである。
近年、カメラなどの撮像装置を複数使用して撮影をおこない、例えば視点位置を自由に変更して映像を生成するシステムなどの研究、開発が進められており、スポーツなどにおける応用が期待されている。このようなシステムでは、複数の撮像装置で撮像した映像を重ね合わせたり合成するなどの処理が行われることがある。ただし、複数の撮像装置により得られた画像を好適に合成するためには、それぞれの撮像装置の位置に依存した座標変換パラメータにより画像を変形する必要がある。
そこで、競技場などの撮影対象にマーカなどを設置し、撮像画像上のマーカを認識することにより複数の撮像装置の画像間の対応付けをおこなう方法がある。特許文献1には、発光するパターンを設置してその光を受光することで位置情報を得る手法が開示されている。
特開2005−174148号公報
しかしながら、専用のマーカを使用して画像処理パラメータを算出する方法においては、マーカの設置、撮影、回収などの作業が必要となり手間や時間がかかるという問題がある。
本発明は上述の問題点に鑑みなされたものであり、撮像画像間の座標変換パラメータを好適に導出可能とする技術を提供することを目的とする。
上述の問題点を解決するため、本発明に係る画像処理装置は以下の構成を備える。すなわち、複数の撮像装置により得られる画像を処理する画像処理装置において、前記複数の撮像装置に含まれる第1の撮像装置及び第2の撮像装置それぞれにより得られた画像から複数のオブジェクトを検出する検出手段と、前記第1の撮像装置により得られた第1の画像における前記複数のオブジェクトと、前記第2の撮像装置により得られた第2の画像における前記複数のオブジェクトと、の間の対応関係を示す対応情報を取得する取得手段と、前記第1の画像及び前記第2の画像それぞれにおいて、前記複数のオブジェクトそれぞれの特徴点を検出する特徴点検出手段と、前記第1の画像及び前記第2の画像における前記対応情報および前記複数のオブジェクトの特徴点に基づいて、前記第1の画像における座標を前記第2の画像における座標に変換するための座標変換パラメータを導出する導出手段と、を有し、前記特徴点検出手段は、前記複数のオブジェクトそれぞれに設定される基準点と前記複数のオブジェクトそれぞれの特徴点とを結ぶベクトルを取得し、前記第1の画像及び前記第2の画像における対応するオブジェクトに関して取得されるベクトル間の差分が所定の差分よりも大きい場合、該ベクトルに対応するオブジェクトの特徴点の検出を再度実行する。
本発明によれば、撮像画像間の座標変換パラメータを好適に導出可能とする技術を提供することができる。
画像処理システムの概略構成を示す図である。 撮影された画像及びそれらの合成を説明する図である。 画像処理装置3の内部構成を示すブロック図である。 2つの画像におけるオブジェクトの対応付けを説明する図である。 オブジェクトの対応付けの修正処理を説明する図である。 画像処理を説明するフローチャートである。 画像処理装置を構成するPCのハードウェア構成図である。
以下に、図面を参照して、この発明の好適な実施の形態を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。
(第1実施形態)
本発明に係る画像処理装置の第1実施形態として、競技場に設置された複数のカメラにより撮像された映像を処理する画像処理システムを例に挙げて以下に説明する。
<システム構成>
図1は、第1実施形態における画像処理システムの概略構成を示す図である。競技場1(ここでは、競技場の平面領域であるフィールド部分を意味する)の周囲に、フィールド中央方向を撮影する多数のカメラ2(後述のカメラ2a、2b、2zを含む)が並べて配置されている。多数のカメラ2の各々はデータ伝送のための入出力ハードウェアを備えている。多数のカメラ2は、例えばリング型ネットワークを介して通信可能に接続がされており、当該ネットワークを介して他のカメラへ映像(画像ストリーム)を伝送可能に構成されている。もちろん、バス型などの他のネットワークトポロジにより接続する形態でもよい。
多数のカメラ2のうちの1つ(カメラ2z)は画像処理装置3に接続されており、多数のカメラ2により撮影された全ての映像は画像処理装置3まで伝送される。競技場1では、例えばサッカーなどの競技が行われており、競技場1の中に複数の人間がいるものとする。多数のカメラ2はそれぞれ撮影をおこなっている。
図2は、2つのカメラ(カメラ2aおよびカメラ2b)により撮影された画像の例を示す図である。画像200aはカメラ2aにより撮影された画像、画像200bはカメラ2bにより撮影された画像を示している。図1に示すように、カメラ2aおよびカメラ2bは隣接して設置されており、図2のように視点が若干異なるような画像が得られる。
それぞれのカメラで撮影された画像は、ネットワークを介して画像処理装置3に送信される。画像処理装置3では、受信した複数の画像を用いて、各カメラで撮影された画像を重ね合わせるための座標変換パラメータの算出処理をおこなう。例えば、カメラ2aにより撮影された画像競技場1の地面の領域と、カメラ2bにより撮影された画像競技場1の地面の領域と、を重ね合わせるための座標変換パラメータの算出処理をおこなう。ここでは、座標変換パラメータを算出する動作について説明する。
<画像処理装置の構成>
図3は、画像処理装置3の内部構成を示すブロック図である。図7は、画像処理装置3を構成するPCのハードウェア構成図である。ここでは、画像処理装置3が一般的なパーソナルコンピュータ(PC)300で構成される例を示している。
以下の説明においては、図3に示す画像処理装置3の各機能部をCPUがソフトウェアプログラムを実行することによって実現する形態について説明する。ただし、図3に示す画像処理装置3の各機能部の一部又は全部を、特定用途向け集積回路(ASIC)やFPGAなどのハードウェアにより処理するよう構成してもよい。ここで、FPGAは、field programmable gate arrayの略である。
CPU320は、PC300を統括的に制御する。CPU320は、例えばROM322やハードディスクドライブ(HDD)326に格納された制御プログラムを実行することにより図3に示される各機能部を実現する。
HDD326は、例えば、PC300で利用されるアプリケーションプログラムあるいは各種の制御プログラムを記憶する。また、アプリケーションプログラムあるいは各種の制御プログラムに関連する各種情報を保存する。また、一時的に各種情報を記憶するためにRAM321も利用される。
キーボード325は、ユーザからのデータ入力を受け付ける機能部である。また、ディスプレイ323は、ユーザに各種情報を提供する機能部である。なお、キーボード325やディスプレイ323は必須の構成ではない。すなわち、PC300を、キーボード325やディスプレイ323を備えない構成としてもよい。
通信インタフェース(I/F)324は、図1に示すカメラ2zに接続するためのインタフェースであり、例えば、有線通信又は無線通信のインタフェースである。
データ受信部5は、複数のカメラ2の各々の画像データをネットワークを介して受信する。データ受信部5およびデータ読出部7などのモジュールはデータバス13を介して記録部6に接続されており、必要に応じてデータの書き込みや読み出しをおこなうようになっている。記録部6は、例えばHDD326や、SSD(solid state drive)、またはそれらの組み合わせなどで構成される。データ受信部5で受信された画像データは、データバス13を介していったん記録部6に保存される。
データ読出部7は、カメラ間の画像変換パラメータ算出のために必要な画像を記録部6から読みだす。例えば、カメラ2aで撮影された画像から適当なフレーム画像(例えば画像200a)を読み出す。またカメラ2bで撮影された画像から、カメラ2aの画像と同時刻のフレーム画像(例えば画像200b)を読み出す。そして読み出した画像をオブジェクト検出部8へ送信する。なお、ここでは同時刻のフレーム画像を読み出すとしているが撮影対象のオブジェクトの動きが遅い場合には、多少の時刻差を有するフレーム画像であってもよい。
オブジェクト検出部8は、受信した2つの画像それぞれについて、オブジェクトの検出を行う機能部である。オブジェクト検出については、例えば、背景差分情報を用いる公知の手法を利用する。より具体的には、過去の一定時間の画像を平均するなどの統計処理したものを背景データとして、現在の画像との差分をオブジェクトとする手法である。背景差分情報を用いるオブジェクト検出方法は一般的に良く知られているのでここでは詳細な説明は省く。オブジェクト検出についてはその他にも、特徴量や機械学習を用いる手法などさまざまな手法が知られており、任意の手法が利用可能である。
オブジェクト検出部8では、カメラ2aおよびカメラ2bの各画像について、それぞれ画像200aおよび画像200bに映っている4人の人間がオブジェクトとして、その位置および形状が検出されたものとする。オブジェクト検出部8により検出されたオブジェクト情報は、対応付け処理部9および特徴点検出部10へ送信される。
対応付け処理部9では、カメラ2aおよびカメラ2bの各画像において検出されたオブジェクトの対応付け(対応関係を示す対応情報の生成)をおこなう。対応情報取得の方法としては、例えば公知のブロックマッチング法を用いて実行する。ブロックマッチング法では、画像の中の微小部分を矩形などのブロックとして切り出し、2つのオブジェクトにおいて、ブロックの一致度を評価する。一致度は、例えば、ブロック内の画素ごとの輝度差の合計などとする。そして一致度が一定値より高ければ、2つのブロックが対応している、つまり2つのオブジェクトが対応していると判断する。対応付けの方法としてはその他にも、特徴点検出、特徴量算出、マッチング処理などを組み合わせたさまざまな手法が利用可能である。
ここでは、図4に示したように、カメラ2aおよびカメラ2bの2つの画像に映っているそれぞれ4つのオブジェクト(人間)が、点線で示したように正しく対応付けされたものとする。
特徴点検出部10では、オブジェクト検出部8で検出された各オブジェクトの特徴点を検出する。ここでは、特に、オブジェクト(ここでは人間)の下端の座標を検出する。これは、一般に人間の画像の中で足部分が競技場のフィールド平面に最も近い位置に存在し、足部分はオブジェクトの下端座標である可能性が高いからである。オブジェクト検出部8によりオブジェクトの形状は既知であるため、下端座標は簡単な座標検査処理で検出が可能である。
ここでは、図4に示すように、カメラ2aにより撮影された画像200a内の4個のオブジェクトの下端座標が、それぞれ、(xa0,ya0)、(xa1,ya1)、(xa2,ya2)、(xa3,ya3)として検出されたものとする。同様に、カメラ2bにより撮影された画像200b内の各オブジェクトの下端座標をそれぞれ(xb0,yb0)、(xb1,yb1)、(xb2,yb2)、(xb3,yb3)として検出されたものとする。なお、オブジェクトの下端の検出方法は他にも、例えば靴にマーカなどを装着して、マーカを検出するような方法でもよい。
図4においては、各オブジェクトの下端座標が、画像上で左側の足の先において検出されている。つまり、対応するオブジェクト同士の下端座標が、正しく対応付いている状態となっている。一方、上述したようにカメラ2aとカメラ2bの視点は異なっていため、対応するオブジェクト同士の下端座標が、正しく対応付かない場合がある。
図5は、オブジェクトの対応付けの修正処理を説明する図である。ここでは、あるオブジェクトについて下端座標が、正しく対応付かない場合の例を示している。図5では説明のため、オブジェクトの基準点としての重心から下端座標へのベクトルを併せて示している。
画像200aのオブジェクトにおいては、ベクトル50aで示されたように、下端が画像上の左側の足の先部分となっている。一方、画像200bのオブジェクトにおいては、ベクトル50bで示されたように、下端が画像上の右側の足の先部分となっている。
特徴点検出部10においては、このように2つの画像で異なる位置に特徴点を検出した場合に対応するため、検出結果の検査をおこなう。まず、ベクトル50aとベクトル50bを算出し、両者の一致度を検査する。一致度を判定するための所定の差分としての閾値は、システムごとの条件を考慮し予め定めておく。例えば、被写体の大きさや画像のノイズの程度、カメラの視差量などの条件により適切な値が変わる。
図5に示したようなケースが発生し、比較の結果一致度が低いと判定された場合には、画像200bのオブジェクトの下端座標の検出のやり直しをおこなう。例えば、図5の点線のベクトルで示したように、画像200bのオブジェクトに対し、ベクトル50aを当てはめる。そして検査領域をベクトル50aの終点の近傍に限定し、下端座標の検出を再度実行する。その結果、画像200bのオブジェクトにおいて、左側の足の先部分を下端座標として設定し直すことができる。
なお、ここでは、ベクトルの始点としてオブジェクトの重心を用いたが、その他にも例えば、人間の頭部や、人間に装着されたマーカを検出するなどしてもよい。また他の例として、ベクトル50aとベクトル50bの一致度が低い場合には当該オブジェクトを使用しないようにしてもよい。その場合、上述のような再検出が実行されないため処理負荷が低減されることになる。
対応付け処理部9において処理されたオブジェクトの対応情報、および、特徴点検出部10において処理されたオブジェクトの下端座標の情報は、パラメータ算出部11へ送信される。
<座標変換パラメータの導出>
パラメータ算出部11は、各カメラで撮影された画像を重ね合わせるための座標変換パラメータの算出処理をおこなう。ここでは、カメラ2aにより撮影された画像競技場1の地面の領域と、カメラ2bにより撮影された画像競技場1の地面の領域と、を重ね合わせるための座標変換パラメータの算出処理について説明する。以下の説明においては、座標変換パラメータとしてホモグラフィー行列Hの要素を算出する例について説明するが、他の座標変換パラメータを算出するよう構成してもよい。
ここで、競技場1のフィールドが平面で近似できるものとする。また、各オブジェクトの下端(人間の足部分)がフィールド上にあると仮定する。パラメータ算出部11では、各オブジェクトの下端座標の情報を用いて、座標変換パラメータであるホモグラフィー行列Hの要素を算出する。ホモグラフィー行列Hによる座標変換については公知であるため詳細な説明は省略する。
図4において、画像200aのオブジェクトの下端座標(xa0,ya0)を、画像200bのオブジェクトの下端座標(xb0,yb0)にホモグラフィー行列Hによる変換をおこなう式は次のようになる。
Figure 0006735592
ここでHはホモグラフィー行列である。ホモグラフィー行列は3行3列の行列であり9個の要素を有するが、1つの要素は“1”であるため、実質的な要素(パラメータ)の個数は8つである。
図4における他の3つのオブジェクトの下端座標についても同様に、ホモグラフィー変換をおこなう式は以下の通りとなる。
Figure 0006735592
Figure 0006735592
Figure 0006735592
式(1)〜(4)から、独立した8個の式が得られる。上述の通り、ホモグラフィー行列のパラメータは8個である。そのため、これらの8個の式による連立方程式を解くことで各パラメータが算出され、ホモグラフィー行列Hを求めることが可能である。連立方程式は例えば公知のガウス・ジョルダン法を用いて解くことができる。
パラメータ算出部11は、算出したホモグラフィー行列Hの各パラメータを記録部6に保存する。既にパラメータが保存されている場合には上書きして新しい値に更新する。
上述の処理では、4ペアの下端座標の値を用いてパラメータを算出した。他の方法として、さらに多くのペアを用いてもよい。その場合には、例えば各ペアの座標値を座標変換した結果の誤差の合計を算出し、その値が最小になるようにパラメータを最適化するなどの処理をおこなう。実際には座標のペアは多いほど精度が向上する傾向がある。所望の精度を得るために必要なペアの数は、例えば画像のノイズの程度やカメラの視差量などの条件によって変わるため、システムごとに条件を考慮した上で予め定めておくとよい。
また、下端座標のペアは、ある1つの時刻のフレーム画像の中から選択してもよいし、複数の時刻のフレーム画像、つまり過去のフレーム画像の中から選択してもよい。但し、長い時間が経過した過去の画像においては、現在のカメラ位置とずれが発生している可能性が高くなってくる。そのため、新しいフレーム画像から座標のペアを取得して、ペアの数が所定数以上(例えば4つ)にならない場合に、時間的に新しい順に過去のフレーム画像から不足した分の座標のペアを取得するようにするとよい。なお、上述の説明においては、4ペアを全て下端座標のペアを利用したが、競技場のラインの交点やコーナーなどの特徴点のペアを併せて用いてもよい。
さらに、カメラによっては、レンズ特性などに起因する光学的な歪みなどが画像に含まれるケースがある。その場合には、画像の領域により重み付けを変えてもよい。例えば、画像200cの点線で示したように、画像を複数の領域(ここでは9個の領域)に分割して、各領域の内部において取得する座標のペアの数を予め決めてもよい。
一般的に画像の端部に近いほど(光学系の光軸中心から離れるほど)歪みは大きくなっていく。そのため、画像の端部に近い領域において座標のペアを取得する数を、画像の中央部分において取得する数より少なく設定し、画像の中央部分の重ね合わせの精度をより重視するような処理としてもよい。
以上説明した処理を、カメラ2aとカメラ2bの組み合わせ以外の隣り合うカメラについても実行する。その結果、隣り合うカメラ間のホモグラフィー行列Hが算出され、記録部6に保存される。
<仮想視点画像の生成>
画像生成部12においては、指定された視点からの画像を生成する。カメラ2が設置された位置が視点として指定された場合は、対応するカメラにより撮像された画像を出力する。一方、カメラ2が設置された位置以外が視点(仮想視点)として指定された場合は、前述の処理により算出されたホモグラフィー行列Hを用いて、仮想視点画像を生成する。
ここでは、視点をカメラ2aとカメラ2bの間にしたような画像を生成する場合の例について説明する。ただし、上述したように、他の隣接するカメラ間のホモグラフィー行列Hも算出されている。そのため、カメラ2aとカメラ2bの間以外の任意のカメラ間においても同様に仮想視点画像を生成可能である。
まず、画像生成部12は、データ読出部7を介して、記録部6から必要なフレーム画像(例えば、画像200a)を読み出す。次に、画像生成部12は、画像を座標変換するためのホモグラフィー行列Hを、記録部6から読み出す。ここでは、座標変換前の画像はカメラ2aのものであり、その画像をカメラ2aとカメラ2bとの間の仮想視点からの仮想視点画像へ変換する。そのため、画像生成部12は、カメラ2aの画像をカメラ2bの画像へ変換するためのホモグラフィー行列Hを読み出す。
続いて、画像生成部12は、カメラ2aの画像の全ての画素ごとに、ホモグラフィー変換後の座標を算出する。カメラ2aの画像の画素の座標を(xa,ya)、ホモグラフィー行列をHとすると、ホモグラフィー変換後の座標(xb,yb)を次の計算により算出する。
Figure 0006735592
次に、カメラ2aとカメラ2bの間の仮想視点からの仮想視点画像を生成する。具体的には、算出したxa,ya,xb,ybの値に基づいて、座標変換後の座標(x’,y’)を次の線形補間計算により算出する。
x’=xa*r+xb*(1−r) ・・・(6)
y’=ya*r+yb*(1−r) ・・・(7)
rは補間係数であり、仮想視点をカメラ2aとカメラ2bの間のどの位置にするかを決める係数であり、通常は0<r<1の範囲の値を取る。なお、rが0又は1の場合は、カメラ2a又はカメラ2bからの視点に相当する。例えば、r=0.5として、座標(xa,ya)における画素値を、座標(x’,y’)の画素値として、新しい画像を作成する。
以上の処理を、カメラ2aの画像の全ての画素について処理すると、画像200dに示すように、カメラ2aとカメラ2bとの間のちょうど中間地点を視点とした画像が得られる。さらに、フレームごとにrを少しずつ変化させながらそれぞれ画像を作成することで、時間とともに仮想視点が移動するような映像を作成するようなことも可能である。
<画像処理装置の動作>
図6は、上述の画像処理を説明するフローチャートである。図6(a)は、座標変換パラメータの導出処理を、図6(b)は、仮想視点画像の生成処理を示している。画像処理装置3には、図1に示すように複数のカメラ2からの映像(画像ストリーム)がカメラ2zを介して入力される。
S101では、データ受信部5は、複数のカメラ2により撮像された映像を受信し記録部6に保存する。S102では、データ読出部7は、カメラ間のホモグラフィー行列Hのために必要な画像を記憶装置から読みだす。例えば、カメラ2aによる画像(画像200a)とカメラ2bによる同時刻の画像(画像200b)を読み出す。
S103では、オブジェクト検出部8は、読み出した2つの画像それぞれについて、オブジェクトの検出をおこなう。例えば、画像200aおよび画像200bに対しては、4人の人間がオブジェクトとして、その位置および形状が検出される。
S104では、対応付け処理部9は、ブロックマッチング法などを用いて、2つの画像におけるオブジェクトの対応付けをおこなう。例えば、図4において点線で示すような対応付けが行われる。S105では、特徴点検出部10は、2つの画像における各オブジェクトの特徴点を検出する。例えば、オブジェクトの下端の座標を特徴点として検出する。
S106では、パラメータ算出部11は、上述の対応付けの結果、および、オブジェクトの特徴点の座標を用いて、ホモグラフィー行列Hを算出する。S107では、パラメータ算出部11は、算出したホモグラフィー行列Hを記録部6に保存する。
この一連の処理を、多数のカメラ2における隣接する2つのカメラそれぞれについて実行することにより、任意の視点(水平方向の360度)についての仮想視点画像を生成することが可能となる。
次に、記録部6に保存されたホモグラフィー行列Hを用いて、カメラ2が設置された位置以外から視点である仮想視点からの仮想視点画像の生成の流れについて説明する。
S108では、画像生成部12は、記録部6から必要なフレーム画像を読み出す。なお、必要なフレーム画像とは、生成する仮想視点画像の仮想視点の位置を挟む2つのカメラにより撮影された映像に含まれるフレーム画像である。すなわち、仮想視点位置に基づいて、2つのカメラを選択し、当該2つのカメラにより撮影されたフレーム画像を読み出す。
S109では、画像生成部12は、フレーム画像を座標変換するためのホモグラフィー行列Hを、記録部6から読み出す。すなわち、S108で読み出したフレーム画像を撮影した2つのカメラ間のホモグラフィー行列Hを読み出す。S110では、画像生成部12は、S108で読み出したフレーム画像及びS109で読み出したホモグラフィー行列Hを用いて、仮想視点画像を生成する。具体的には、上述の数式(6)及び(7)による画像の座標変換をおこなうことで生成する。
以上説明したとおり第1実施形態によれば、撮影した映像のみを用いて2次元座標変換のパラメータを導出することが可能となる。すなわち、専用のマーカなどを必要とせず、また計算コストが小さい処理で、複数のカメラ画像間の座標変換パラメータを導出することが可能となる。また、導出した座標変換パラメータを用いて任意の視点からの映像を好適に生成することが可能となる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1 競技場; 2 カメラ; 3 画像処理装置; 4 オブジェクト; 5 データ受信部; 6 記録部; 7 データ読出部; 8 オブジェクト検出部; 9 対応付け処理部; 10 特徴点検出部; 11 パラメータ算出部; 12 画像生成部; 13 データバス

Claims (11)

  1. 複数の撮像装置により得られる画像を処理する画像処理装置であって、
    前記複数の撮像装置に含まれる第1の撮像装置及び第2の撮像装置それぞれにより得られた画像から複数のオブジェクトを検出する検出手段と、
    前記第1の撮像装置により得られた第1の画像における前記複数のオブジェクトと、前記第2の撮像装置により得られた第2の画像における前記複数のオブジェクトと、の間の対応関係を示す対応情報を取得する取得手段と、
    前記第1の画像及び前記第2の画像それぞれにおいて、前記複数のオブジェクトそれぞれの特徴点を検出する特徴点検出手段と、
    前記第1の画像及び前記第2の画像における前記対応情報および前記複数のオブジェクトの特徴点に基づいて、前記第1の画像における座標を前記第2の画像における座標に変換するための座標変換パラメータを導出する導出手段と、
    を有し、
    前記特徴点検出手段は、前記複数のオブジェクトそれぞれに設定される基準点と前記複数のオブジェクトそれぞれの特徴点とを結ぶベクトルを取得し、前記第1の画像及び前記第2の画像における対応するオブジェクトに関して取得されるベクトル間の差分が所定の差分よりも大きい場合、該ベクトルに対応するオブジェクトの特徴点の検出を再度実行する
    ことを特徴とする画像処理装置。
  2. 前記第1の画像及び前記第2の画像の少なくとも一方と前記座標変換パラメータとに基づいて、前記第1の撮像装置及び前記第2の撮像装置それぞれの視点位置とは異なる仮想視点位置に基づく仮想視点画像を生成する生成手段を更に有する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記仮想視点位置は、前記第1の撮像装置の視点位置と前記第2の撮像装置の視点位置との間に存在する
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記仮想視点位置に基づいて、前記複数の撮像装置の中から前記第1の撮像装置及び前記第2の撮像装置を選択する選択手段を更に有する
    ことを特徴とする請求項2又は3に記載の画像処理装置。
  5. 前記基準点は、オブジェクトの重心である
    ことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 前記複数の撮像装置の撮像対象は競技場のフィールドであり、
    前記複数のオブジェクトのそれぞれは人間であり、
    前記特徴点は人間の足部分である
    ことを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  7. 前記検出手段は、前記第1の撮像装置及び前記第2の撮像装置により同時刻に得られた画像に対して前記検出を実行する
    ことを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  8. 前記導出手段は、前記第1の画像及び前記第2の画像における対応する特徴点の個数が所定数以上ある場合に前記導出を実行する
    ことを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  9. 複数の撮像装置により得られる画像を処理する画像処理装置の制御方法であって、
    前記複数の撮像装置に含まれる第1の撮像装置及び第2の撮像装置それぞれにより得られた画像から複数のオブジェクトを検出する検出工程と、
    前記第1の撮像装置により得られた第1の画像における前記複数のオブジェクトと、前記第2の撮像装置により得られた第2の画像における前記複数のオブジェクトと、の間の対応関係を示す対応情報を取得する取得工程と、
    前記第1の画像及び前記第2の画像それぞれにおいて、前記複数のオブジェクトそれぞれの特徴点を検出する特徴点検出工程と、
    前記第1の画像及び前記第2の画像における前記対応情報および前記複数のオブジェクトの特徴点に基づいて、前記第1の画像における座標を前記第2の画像における座標に変換するための座標変換パラメータを導出する導出工程と、
    含み、
    前記特徴点検出工程では、前記複数のオブジェクトそれぞれに設定される基準点と前記複数のオブジェクトそれぞれの特徴点とを結ぶベクトルが取得され、前記第1の画像及び前記第2の画像における対応するオブジェクトに関して取得されるベクトル間の差分が所定の差分よりも大きい場合、該ベクトルに対応するオブジェクトの特徴点の検出が再度実行される
    ことを特徴とする画像処理装置の制御方法。
  10. 複数の撮像装置と、該複数の撮像装置により得られる画像を処理する画像処理装置と、を含む画像処理システムであって、
    前記画像処理装置は、
    前記複数の撮像装置に含まれる第1の撮像装置及び第2の撮像装置それぞれにより得られた画像から複数のオブジェクトを検出する検出手段と、
    前記第1の撮像装置により得られた第1の画像における前記複数のオブジェクトと、前記第2の撮像装置により得られた第2の画像における前記複数のオブジェクトと、の間の対応関係を示す対応情報を取得する取得手段と、
    前記第1の画像及び前記第2の画像それぞれにおいて、前記複数のオブジェクトそれぞれの特徴点を検出する特徴点検出手段と、
    前記第1の画像及び前記第2の画像における前記対応情報および前記複数のオブジェクトの特徴点に基づいて、前記第1の画像における座標を前記第2の画像における座標に変換するための座標変換パラメータを導出する導出手段と、
    を有し、
    前記特徴点検出手段は、前記複数のオブジェクトそれぞれに設定される基準点と前記複数のオブジェクトそれぞれの特徴点とを結ぶベクトルを取得し、前記第1の画像及び前記第2の画像における対応するオブジェクトに関して取得されるベクトル間の差分が所定の差分よりも大きい場合、該ベクトルに対応するオブジェクトの特徴点の検出を再度実行する
    ことを特徴とする画像処理システム。
  11. 請求項1乃至の何れか1項に記載の画像処理装置としてコンピュータを機能させるためのプログラム。
JP2016078436A 2016-04-08 2016-04-08 画像処理装置及びその制御方法、画像処理システム Active JP6735592B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016078436A JP6735592B2 (ja) 2016-04-08 2016-04-08 画像処理装置及びその制御方法、画像処理システム
US15/477,425 US10666924B2 (en) 2016-04-08 2017-04-03 Virtual viewpoint image generation system based on captured images, virtual viewpoint image generation apparatus, and method of controlling same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016078436A JP6735592B2 (ja) 2016-04-08 2016-04-08 画像処理装置及びその制御方法、画像処理システム

Publications (2)

Publication Number Publication Date
JP2017188046A JP2017188046A (ja) 2017-10-12
JP6735592B2 true JP6735592B2 (ja) 2020-08-05

Family

ID=59999575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016078436A Active JP6735592B2 (ja) 2016-04-08 2016-04-08 画像処理装置及びその制御方法、画像処理システム

Country Status (2)

Country Link
US (1) US10666924B2 (ja)
JP (1) JP6735592B2 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6808357B2 (ja) * 2016-05-25 2021-01-06 キヤノン株式会社 情報処理装置、制御方法、及び、プログラム
JP7121470B2 (ja) * 2017-05-12 2022-08-18 キヤノン株式会社 画像処理システム、制御方法、及び、プログラム
JP7104504B2 (ja) * 2017-10-18 2022-07-21 キヤノン株式会社 画像処理システム、画像処理装置、画像伝送方法、及び、プログラム
JP2019103067A (ja) * 2017-12-06 2019-06-24 キヤノン株式会社 情報処理装置、記憶装置、画像処理装置、画像処理システム、制御方法、及びプログラム
JP6427258B1 (ja) * 2017-12-21 2018-11-21 キヤノン株式会社 表示制御装置、表示制御方法
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
JP7233873B2 (ja) 2018-09-19 2023-03-07 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7128107B2 (ja) * 2018-12-26 2022-08-30 オムロン株式会社 画像検査器生成装置、画像検査装置、画像検査器生成プログラム、及び画像検査器生成方法
US10728443B1 (en) 2019-03-27 2020-07-28 On Time Staffing Inc. Automatic camera angle switching to create combined audiovisual file
US10963841B2 (en) 2019-03-27 2021-03-30 On Time Staffing Inc. Employment candidate empathy scoring system
US11127232B2 (en) 2019-11-26 2021-09-21 On Time Staffing Inc. Multi-camera, multi-sensor panel data extraction system and method
US11023735B1 (en) 2020-04-02 2021-06-01 On Time Staffing, Inc. Automatic versioning of video presentations
US11144882B1 (en) 2020-09-18 2021-10-12 On Time Staffing Inc. Systems and methods for evaluating actions over a computer network and establishing live network connections
CN112929218B (zh) * 2021-02-04 2022-09-27 西安热工研究院有限公司 一种工控靶场虚实环境自动生成系统及装置
US11727040B2 (en) 2021-08-06 2023-08-15 On Time Staffing, Inc. Monitoring third-party forum contributions to improve searching through time-to-live data assignments
US11423071B1 (en) 2021-08-31 2022-08-23 On Time Staffing, Inc. Candidate data ranking method using previously selected candidate data
US11907652B2 (en) 2022-06-02 2024-02-20 On Time Staffing, Inc. User interface and systems for document creation

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5729471A (en) * 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US5808695A (en) * 1995-06-16 1998-09-15 Princeton Video Image, Inc. Method of tracking scene motion for live video insertion systems
JP2004246667A (ja) * 2003-02-14 2004-09-02 Keiogijuku 自由視点動画像データ生成方法およびその処理をコンピュータに実行させるためのプログラム
JP2005174148A (ja) * 2003-12-12 2005-06-30 Sony Corp 撮像装置及び方法、撮像システム
US7330584B2 (en) * 2004-10-14 2008-02-12 Sony Corporation Image processing apparatus and method
US8786596B2 (en) * 2008-07-23 2014-07-22 Disney Enterprises, Inc. View point representation for 3-D scenes
US9117310B2 (en) * 2010-04-02 2015-08-25 Imec Virtual camera system
GB2489675A (en) * 2011-03-29 2012-10-10 Sony Corp Generating and viewing video highlights with field of view (FOV) information
US8959555B2 (en) * 2012-07-03 2015-02-17 Lawrence Maxwell Monari Instrumented sports paraphernalia system
US9451162B2 (en) * 2013-08-21 2016-09-20 Jaunt Inc. Camera array including camera modules
WO2015167739A1 (en) * 2014-04-30 2015-11-05 Replay Technologies Inc. System for and method of generating user-selectable novel views on a viewing device
JP6362085B2 (ja) * 2014-05-21 2018-07-25 キヤノン株式会社 画像認識システム、画像認識方法およびプログラム
US9911454B2 (en) * 2014-05-29 2018-03-06 Jaunt Inc. Camera array including camera modules
JP6562197B2 (ja) * 2014-06-20 2019-08-21 パナソニックIpマネジメント株式会社 画像処理方法および画像処理システム
US10008027B1 (en) * 2014-10-20 2018-06-26 Henry Harlyn Baker Techniques for determining a three-dimensional representation of a surface of an object from a set of images
EP3346695A4 (en) * 2015-09-03 2019-04-10 Sony Corporation VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND PROGRAM
US10003786B2 (en) * 2015-09-25 2018-06-19 Intel Corporation Method and system of 3D image capture with dynamic cameras
EP3385457A4 (en) * 2015-11-30 2019-03-13 Sumitomo Heavy Industries, Ltd. PERIPHERAL MONITORING SYSTEM FOR A WORK MACHINE

Also Published As

Publication number Publication date
US20170293413A1 (en) 2017-10-12
US10666924B2 (en) 2020-05-26
JP2017188046A (ja) 2017-10-12

Similar Documents

Publication Publication Date Title
JP6735592B2 (ja) 画像処理装置及びその制御方法、画像処理システム
US11232593B2 (en) Calibration apparatus, calibration system, and calibration method
US10789765B2 (en) Three-dimensional reconstruction method
JP4297197B2 (ja) キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラム
US8941750B2 (en) Image processing device for generating reconstruction image, image generating method, and storage medium
JP6793151B2 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
JP6594170B2 (ja) 画像処理装置、画像処理方法、画像投影システムおよびプログラム
US20200175702A1 (en) Image processing apparatus, three-dimensional shape data generation method, and non-transitory computer readable storage medium
KR101842141B1 (ko) 3차원 스캐닝 장치 및 방법
JP2015162816A (ja) 画像処理装置およびその制御方法
JP6615486B2 (ja) カメラキャリブレーション装置、方法及びプログラム
JP2020077165A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6088864B2 (ja) キャリブレーションシステム、およびキャリブレーション方法
JP6879375B2 (ja) 情報処理装置、長さ測定システム、長さ測定方法およびコンピュータプログラム
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2019168862A5 (ja)
KR102156998B1 (ko) 비디오 시퀀스에서 모션을 감지하기 위한 방법
US11166005B2 (en) Three-dimensional information acquisition system using pitching practice, and method for calculating camera parameters
JP7040511B2 (ja) 情報処理装置および方法
US20210243422A1 (en) Data processing apparatus, data processing method, and program
KR101845612B1 (ko) 투구 연습을 통한 3차원 정보 획득 시스템 및 카메라 파라미터 산출 방법
JP5478533B2 (ja) 全方位画像生成方法、画像生成装置およびプログラム
JP5955003B2 (ja) 画像処理装置および画像処理方法、プログラム
US20210042576A1 (en) Image processing system
JP6579727B1 (ja) 動体検出装置、動体検出方法、動体検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190401

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200714

R151 Written notification of patent or utility model registration

Ref document number: 6735592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151