JP5155971B2 - 画像処理装置及びプログラム - Google Patents

画像処理装置及びプログラム Download PDF

Info

Publication number
JP5155971B2
JP5155971B2 JP2009200682A JP2009200682A JP5155971B2 JP 5155971 B2 JP5155971 B2 JP 5155971B2 JP 2009200682 A JP2009200682 A JP 2009200682A JP 2009200682 A JP2009200682 A JP 2009200682A JP 5155971 B2 JP5155971 B2 JP 5155971B2
Authority
JP
Japan
Prior art keywords
camera angle
image
line block
block
angle data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009200682A
Other languages
English (en)
Other versions
JP2011053816A (ja
Inventor
貴裕 望月
真人 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2009200682A priority Critical patent/JP5155971B2/ja
Publication of JP2011053816A publication Critical patent/JP2011053816A/ja
Application granted granted Critical
Publication of JP5155971B2 publication Critical patent/JP5155971B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像処理装置及びプログラムに関し、特に、カメラ撮影により得られた映像のカメラアングル(カメラにより撮影される領域(カメラ撮影範囲))を特定する技術に関する。
従来、カメラ撮影により得られた映像を画像処理することにより、例えば、表示画面上の2次元画像を別の視点から見た画像に変換する手法が知られている(例えば、特許文献1を参照)。この画像変換手法は、2次元画像を所定面に貼り付けて3次元グラフィックスを生成する際に、設定した消失点に基づいて図形を描き、遠近感を表現して3次元形状を2次元平面状に描く、いわゆるテクスチャマッピング法による透視図の画像合成手法を基本とするものである。
このような画像変換手法を用いた画像処理装置の他、スポーツ競技が行われるフィールドをカメラ撮影し、その映像の画像処理を行い、フィールド内のライン類を基準にして、カメラがフィールド内のどの領域を撮影しているかを示すカメラアングルを特定する装置が提案されている(例えば、非特許文献1を参照)。このカメラアングル特定手法は、放送されたスポーツ映像のフレーム画像を、カメラアングルに相当する画像に変換する際に、例えば、フレーム画像にウィンドウを設定し、ラインを抽出するためのハフ変換を行いながらウィンドウを細かく移動させ、予め設定された画像との間のマッチングをとり、カメラアングルを特定するものである。ここで、ハフ変換は、エッジ検出法の一つであり、点の集合で表された画像の中から線分を抽出する処理、すなわち、画像上で多くの点で構成されている直線を検出し、元の画像を直線だけの画像に変換する処理をいう。
特開平10−49704号公報
中川靖士、"サッカー映像の自動ゲーム分析方法の提案と評価"、[online]、UNISYS TECHNOLOGY REVIEW 第76号、FEB.2003、[平成21年8月28日検索]、インターネット<URL:http://www.unisys.co.jp/tec_info/tr76/7603.pdf>
しかしながら、前述のカメラアングル特定手法では、フレーム画像からラインを抽出するためにハフ変換を行っていることから、画素単位の処理が必要になり処理時間がかかるという問題があった。また、ハフ変換によるライン抽出処理、ウィンドウ移動処理及びマッチング処理による一連の処理は、ライン位置に基づいてカメラアングルを特定する厳密な処理であるから、計算量が膨大になり、計算コストの面で問題があった。
このような手法により特定されたカメラアングルデータは、例えば、インターネット等の通信回線を介して伝送され、WEBを通したスポーツ戦術の立案等のために解析される。カメラアングルデータが通信回線を介して伝送され、所定の目的を実現するために用いられる場合には、カメラアングルを高精度に特定することよりも、リアルタイム性を重視して処理時間及び計算コストを削減することが望ましい。
そこで、本発明は前記課題を解決するためになされたものであり、その目的は、映像を構成するフレーム画像のカメラアングルを、高速に特定することが可能な画像処理装置及びプログラムを提供することにある。
前記目的を達成するために、本発明は、所定のフィールドが撮影された映像のフレーム画像に対し、前記フィールド内の撮影領域であるカメラアングルを特定する画像処理装置において、前記フィールドにカメラの撮影領域が設定され、前記撮影領域が所定数のブロックに分割された場合に、前記フィールド上に配置されたラインを含むブロック群の配置が、前記撮影領域毎の参照カメラアングルデータとして格納された記憶部と、前記フレーム画像を前記所定数と同じ数でブロック画像に分割し、前記ブロック画像毎の画像特徴ベクトルを計算し、前記画像特徴ベクトルに基づいて、前記ブロック画像が、前記フィールド上に配置されたラインを含むラインブロック画像であるか否かを判定し、前記フレーム画像内のラインブロック画像群の配置を示すラインブロック配置データを生成するラインブロック特定部と、前記記憶部に格納された参照カメラアングルデータが示す、前記撮影領域におけるラインブロックの配置、及び、前記ラインブロック特定部により生成されたラインブロック配置データが示す、前記フレーム画像におけるラインブロック画像の配置に基づいて、前記フレーム画像のカメラアングルを特定するカメラアングル特定部と、を備えたことを特徴とする。
また、本発明は、さらに、参照カメラアングルデータ生成部を備え、前記参照カメラアングルデータ生成部が、前記フィールドにカメラの撮影領域を設定し、前記撮影領域を所定数のブロックに分割し、前記ブロックが、前記フィールド上に配置されたラインを含むラインブロックであるか否かを判定し、前記撮影領域内のラインブロック群の配置を示すラインブロック配置データを参照カメラアングルデータとして、前記撮影領域毎にそれぞれ生成し、前記記憶部に格納することを特徴とする。
また、本発明は、前記参照カメラアングルデータ生成部が、前記フィールドに、カメラにより撮影される台形形状の撮影領域を設定し、前記撮影領域の四頂点座標、及び前記撮影領域を所定数に分割した各ブロックの四頂点座標を計算し、前記各ブロックがラインブロックであるか否かを示すフラグを設定し、前記撮影領域の四頂点座標、前記各ブロックの四頂点座標及び前記各ブロックのフラグを参照カメラアングルデータとして、前記撮影領域毎にそれぞれ生成することを特徴とする。
また、本発明は、前記参照カメラアングルデータ生成部が、前記カメラの位置座標、前記台形形状を決める上底、下底及び高さのサイズ、前記撮影領域の配置を制限する位置座標、並びに、前記カメラの位置座標を中心として前記撮影領域を回転させる角度データに基づいて、前記カメラにより撮影される台形形状の撮影領域を前記フィールドに設定することを特徴とする。
また、本発明は、前記カメラアングル特定部が、前記記憶部に格納された撮影領域毎の参照カメラアングルデータと、前記ラインブロック特定部により生成されたラインブロック配置データとの間の類似度を計算し、前記類似度が最大となる参照カメラアングルデータの撮影領域を、前記フレーム画像のカメラアングルとして特定することを特徴とする。
さらに、本発明は、コンピュータを前記画像処理装置として機能させるための画像処理プログラムであることを特徴とする。
以上のように、本発明によれば、フレーム画像におけるラインブロック画像の配置データ、及び予め設定された配置データに基づいてカメラアングルを特定するようにした。これにより、映像を構成するフレーム画像のカメラアングルを特定する際に、従来のハフ変換処理、ウィンドウの細かい移動によるマッチング処理等の厳密な処理が不要になるから、従来に比べて高速に処理することができる。したがって、特定したカメラアングルデータを利用した、例えばスポーツの戦術データを迅速に配信する等の有用なサービスを実現することが可能になる。
本発明の実施形態による画像処理装置の構成を示すブロック図である。 ラインブロック特定部の処理を説明するフローチャートである。 カメラアングル特定部の処理を説明するフローチャートである。 ラインブロック画像特徴ベクトル生成部の処理を説明するフローチャートである。 参照カメラアングルデータ生成部の処理を説明するフローチャートである。 参照カメラアングルデータ生成部の処理のうち、台形を構成するブロックの四頂点座標を計算する処理(ステップS517)の詳細を説明するフローチャートである。 フレーム画像におけるラインブロック画像を説明する図である。 カメラアングルデータを説明する図である。 カメラ撮影範囲を示す台形のパラメータを説明する図である。 ワールド座標空間のy軸上に台形をセットする処理を説明する図である。 ワールド座標空間のy軸上にセットされた台形の上底が上限値Tを超える場合を説明する図である。 台形を回転させてセットする処理を説明する図である。 フィールド領域を含まない台形を除去する処理を説明する図である。 変換係数H_ijを計算する処理を説明する概念図である。
以下、本発明を実施するための形態について、図面を参照して説明する。
〔画像処理装置の構成〕
まず、本発明の実施形態による画像処理装置の構成について説明する。図1は、画像処理装置の構成を示すブロック図である。この画像処理装置1は、スポーツ映像が格納された記憶部2、ラインブロック特定部3、カメラアングル特定部4、ラインブロック画像特徴ベクトルのDB(データベース)が格納される記憶部5、参照カメラアングルデータのDBが格納される記憶部6、ラインブロック画像特徴ベクトル生成部7、参照カメラアングルデータ生成部8、及び、複数のスポーツ映像が格納された記憶部9を備えている。
画像処理装置1は、フィールドを含むスポーツ映像のフレーム画像について、フレーム画像のカメラアングル(フィールド内の撮影領域)を特定し、カメラアングルデータ(フレーム画像がフィールド内のどこの領域の画像であるかの撮影領域を示すデータ)を出力する装置である。
まず、画像処理装置1は、前処理として、ラインブロック画像特徴ベクトル及び参照カメラアングルデータのDBを生成しておく。ここで、ラインブロック画像とは、フィールド画像が分割されたブロック画像のうち、フィールドのラインを含むブロック画像をいう。また、ラインブロック画像特徴ベクトルとは、ラインブロック画像において、RGB平均値、エッジ占有率、エッジ方向ヒストグラム等の特徴量からなるベクトルである。参照カメラアングルデータとは、フレーム画像がフィールド内のどの領域の画像であるかを特定するために、すなわち、カメラアングルを特定するために参照されるデータであり、具体的には、フィールド上にセットした台形の領域(カメラ撮影領域、すなわち、カメラにより撮影されるフィールド上の領域)を複数のブロックに分割し、ラインを含むブロックをラインブロックとした場合に、台形についてラインブロック群の配置を示すデータである。
次に、画像処理装置1は、スポーツ映像を構成するフレーム画像をブロック画像に分割し、前処理において生成したラインブロック画像特徴ベクトルのDBを用いて、ブロック画像がラインブロック画像であるか否かを判定し、フレーム画像のラインブロック配置データを生成する。そして、画像処理装置1は、フレーム画像のラインブロック配置データを用いて、前処理において生成した参照カメラアングルデータのDBを参照することによりカメラアングルを特定し、最も適合する参照カメラアングルデータをカメラアングルデータとして出力する。
図1を参照して、記憶部2には、カメラ撮影により取得した、フィールドを含むスポーツ映像が格納されている。ここで、フィールドとは、スポーツを行う競技の場をいう。以下、サッカーのスポーツ映像を例にして説明する。
ラインブロック特定部3は、記憶部2からスポーツ映像を構成するフレーム画像を読み出し、記憶部5から前処理において生成したラインブロック画像毎のラインブロック画像特徴ベクトルを読み出し、フレーム画像を所定数(M×N個)のブロック画像に分割する。そして、ラインブロック特定部3は、ブロック画像の画像特徴ベクトルを計算し、ブロック画像の画像特徴ベクトルと、前処理において生成したラインブロック画像毎のラインブロック画像特徴ベクトルとの間の類似度を計算し、類似度に基づいて、ブロック画像がラインブロック画像であるか否かを判定する(ラインブロック画像を特定する)。この判定処理を、フレーム画像を構成する全てのブロック画像について行う。ラインブロック特定部3は、フレーム画像についてラインブロック画像群の配置を示すラインブロック配置データを生成し、カメラアングル特定部4に出力する。
カメラアングル特定部4は、ラインブロック特定部3からフレーム画像のラインブロック配置データを入力し、記憶部6から前処理として生成した参照カメラアングルデータを読み出す。そして、カメラアングル特定部4は、フレーム画像のラインブロック配置データが示すラインブロック画像群の配置と、参照カメラアングルデータが示すラインブロック群の配置との間の類似スコアを計算する。カメラアングル特定部4は、その類似スコアが最大となる参照カメラアングルデータを、フレーム画像のカメラアングルデータとして出力する。これにより、カメラアングルが特定される。
記憶部9には、カメラ撮影により取得された、フィールドを含む複数のスポーツ映像が格納されている。これらのスポーツ映像は、ラインブロック画像特徴ベクトルを生成するための元映像である。
ラインブロック画像特徴ベクトル生成部7は、前処理としてラインブロック画像特徴ベクトルを生成する。具体的には、ラインブロック画像特徴ベクトル生成部7は、記憶部9からスポーツ映像を構成するフレーム画像を読み出し、フレーム画像を所定数(M×N個)のブロック画像に分割する。そして、ラインブロック特定部3は、ブロック画像のうちの、フィールドのラインを含むラインブロック画像を切り出し、ラインブロック画像毎にラインブロック画像特徴ベクトルを生成する。ラインブロック特定部3は、スポーツ映像のフレーム画像を分割したラインブロック画像毎に、ラインブロック画像特徴ベクトルを記憶部5に格納する。
記憶部5には、ラインブロック画像特徴ベクトル生成部7により生成された、ラインブロック画像毎のラインブロック画像特徴ベクトルがラインブロック画像特徴DBとして格納される。記憶部5に格納されたラインブロック画像特徴ベクトルは、ラインブロック特定部3に読み出され、フレーム画像を構成するブロック画像がラインブロック画像であるか否かを判定するために用いられる。
参照カメラアングルデータ生成部8は、前処理として参照用カメラアングルデータを生成する。具体的には、参照カメラアングルデータ生成部8は、フィールド上にセットした台形の領域(カメラ撮影領域、すなわちカメラにより撮影されるフィールド上の領域)を所定数(M×N個)のブロックに分割する。そして、参照カメラアングルデータ生成部8は、ブロックがフィールドのラインを含むラインブロックであるか否かを判定し(ラインブロックを特定し)、台形についてラインブロック群の配置を示す参照カメラアングルデータを生成する。参照カメラアングルデータ生成部8は、台形毎に生成した参照カメラアングルデータを記憶部6に格納する。
記憶部6には、参照カメラアングルデータ生成部8により生成された、台形毎の参照カメラアングルデータが参照カメラアングルDBとして格納される。記憶部6に格納された参照カメラアングルデータは、カメラアングル特定部4に読み出され、フレーム画像のカメラアングルを特定するために用いられる。
〔ラインブロック特定部の処理〕
次に、図1の画像処理装置1におけるラインブロック特定部3の処理について説明する。図2は、ラインブロック特定部3の処理を説明するフローチャートである。ラインブロック特定部3は、記憶部2から読み出したフレーム画像をブロック画像に分割し、画像特徴ベクトルを生成し、記憶部5から読み出したラインブロック画像特徴ベクトルとの間の類似度を計算し、類似度に基づいてラインブロック画像を特定してフラグを設定し、フレーム画像についての各ブロック画像のフラグを、ラインブロック画像群の配置を示すラインブロック配置データとしてカメラアングル特定部4に出力する。
図2を参照して、ラインブロック特定部3は、記憶部2からスポーツ映像を構成するフレーム画像を読み出し、フレーム画像のサイズをL_w×L_hに正規化し(ステップS201)、フレーム画像を所定数(M×N個)のブロック画像に分割する(ステップS202)。分割数を定めるM,Nは、予め設定されているものとする。以下のステップS203〜ステップS210の処理は、分割されたブロック画像(i,j)毎に行われる。ここで、i=1,・・・,Mであり、j=1,・・・,Nである。
ラインブロック特定部3は、ブロック画像(i,j)から、RGB平均値、エッジ占有率及びエッジ方向のヒストグラム等の特徴量を計算し(ステップS203)、これらの特徴量からなる画像特徴ベクトルを生成する(ステップS204)。エッジ占有率は、ブロック画像(i,j)に含まれるライン等の輪郭を構成する画素数と、それ以外の画素数との間の比率である。
ラインブロック特定部3は、記憶部5からラインブロック画像毎のラインブロック画像特徴ベクトルを読み出し(ステップS205)、フレーム画像におけるブロック画像(i,j)の画像特徴ベクトルと、記憶部5から読み出したラインブロック画像特徴ベクトルとの間の類似度を計算する(ステップS206)。
ラインブロック特定部3は、ステップS206において計算したラインブロック画像毎の類似度の最大値が、予め設定された閾値以上であるか否かを判定する(ステップS207)。類似度の最大値が閾値以上であると判定した場合(ステップS207:Y)、ブロック画像(i,j)はラインブロック画像であるとして、フラグfL_f(i,j)=1を設定する(ステップS208)。一方、類似度の最大値が閾値以上でないと判定した場合(ステップS207:N)、ブロック画像(i,j)はラインブロック画像でないとして、フラグfL_f(i,j)=0を設定する(ステップS209)。
ラインブロック特定部3は、ステップS208またはステップS209の処理の後、ステップS203〜ステップS209の処理が全てのブロック画像について完了したか否かを判定する(ステップS210)。処理が全てのブロック画像について完了していないと判定した場合(ステップS210:N)、すなわち、i=Mかつj=Nでない場合、iまたはjをインクリメントしてステップS203へ移行し、次のブロック画像について処理を行う。そして、処理が全てのブロック画像について完了したと判定した場合(ステップS210:Y)、すなわち、i=Mかつj=Nの場合、フレーム画像についての各ブロック画像のフラグfL_f(i,j)を、ラインブロック画像群の配置を示すラインブロック配置データとしてカメラアングル特定部4に出力し(ステップS211)、処理を終了する。
図7は、フレーム画像におけるラインブロック画像を説明する図である。図中、全体の画像がフレーム画像であり、縦横の線により囲まれた正方形領域がブロック画像である。フレーム画像は、M×N個のブロック画像に分割されている。分割されたM×N個のブロック画像のうち、斜め線で示した正方形領域の画像がラインブロック画像である。ラインブロック画像には、フィールド上のラインが含まれていることがわかる。ラインブロック画像のフラグfL_f(i,j)=には1が設定され、それ以外のブロック画像のフラグfL_f(i,j)=には0が設定される。
このように、ラインブロック特定部3は、フレーム画像をブロック画像(i,j)に分割し、画像特徴ベクトルを計算し、前処理により生成されたラインブロック画像特徴ベクトルとの間の類似度を計算し、類似度に基づいてラインブロック画像を特定しフラグfL_f(i,j)を設定し、フレーム画像についての各ブロック画像(i,j)のフラグfL_f(i,j)を、ラインブロック画像群の配置を示すラインブロック配置データとしてカメラアングル特定部4に出力するようにした。類似度は、画像特徴ベクトルを比較処理することにより計算されるから、ラインブロック特定部3の処理負荷は低くなり、簡易な手法にて高速に、ラインブロック配置データを生成することができる。
〔カメラアングル特定部の処理〕
次に、図1の画像処理装置1におけるカメラアングル特定部4の処理について説明する。図3は、カメラアングル特定部4の処理を説明するフローチャートである。カメラアングル特定部4は、ラインブロック特定部3から入力したフレーム画像のラインブロック配置データが示すラインブロック画像群の配置と、記憶部6から読み出した参照カメラアングルデータが示すラインブロック群の配置との間の類似スコアを計算し、その類似スコアが最大となる参照カメラアングルデータを選定し、フィールド内の位置を示す、フレーム画像のカメラアングルデータとして出力する。
図3を参照して、カメラアングル特定部4は、ラインブロック特定部3からフレーム画像のラインブロック配置データを入力し(ステップS301)、記憶部6から台形毎の参照カメラアングルデータCA[1]〜CA[N_ca]を読み出す(ステップS302)。ここで、参照カメラアングルデータCA[1]〜CA[N_ca]は、参照カメラアングルデータ生成部8においてセットした台形毎のデータである。各参照カメラアングルデータCA[n]が示すフラグfL_r(i,j)により、台形を構成するブロックがラインブロックであるか否かが区別される(fL_r(i,j)=1の場合はラインブロックであり、fL_r(i,j)=0の場合はラインブロックでない)。参照カメラアングルデータ生成部8において、N_ca個の台形がセットされ、それぞれの台形を構成するブロックについてフラグfL_r(i,j)が設定される。詳細については後述する。
カメラアングル特定部4は、nに1を設定し(ステップS303)、フレーム画像のラインブロック配置データと、参照カメラアングルデータCA[n]との間の類似スコアS[n]を計算する(ステップS304)。具体的には、カメラアングル特定部4は、フレーム画像のラインブロック配置データが示すフラグfL_f(i,j)=1であるブロック画像(i,j)の配置と、参照カメラアングルデータCA[n]が示すフラグfL_r(i,j)=1であるブロック(i,j)の配置との間の類似スコアS[n]を、以下の式により計算する。
S[n]={2.0×(n_rf/N_f)×(n_rf/N_r)}/{(n_rf/N_f)+(n_rf/N_r)}
ここで、N_fは、フレーム画像のラインブロック配置データにおいて、フラグfL_f(i,j)=1であるブロック画像(i,j)の個数である。N_rは、参照カメラアングルデータCA[n]において、フラグfL_r(i,j)=1であるブロック(i,j)の個数である。また、n_rfは、フラグfL_f(i,j)=1かつフラグfL_r(i,j)=1となるブロック画像(i,j)またはブロック(i,j)の個数である。
カメラアングル特定部4は、nに1を加えることによりnをインクリメントし(ステップS305)、nがN_caよりも大きいか否かを判定する(ステップS306)。nがN_caよりも大きいと判定した場合(ステップS306:Y)、ステップS307へ移行し、nがN_caよりも大きくないと判定した場合(ステップS306:N)、ステップS304へ移行し、ステップS304〜ステップS306の処理を行う。これにより、フレーム画像のラインブロック配置データについて、全ての参照カメラアングルデータCA[1]〜CA[N_ca]との間の類似スコアS[n]が計算される。
カメラアングル特定部4は、ステップS306から移行して、類似スコアS[1]〜S[N_ca]のうちの最大の類似スコアS[A]を選定し(ステップS307)、選定した類似スコアS[A]に対応する参照カメラアングルデータCA[A]を、フレーム画像に対応したカメラアングルデータとして出力し(ステップS308)、処理を終了する。
図8は、カメラアングルデータを説明する図である。図中、全体の画像がフレーム画像であり、台形領域がフレーム画像に対応したカメラアングルデータである。台形領域は、M×N個のブロックに分割されている。分割されたM×N個のブロックのうち、斜め線で示したブロックがラインブロックである。ラインブロックには、フィールド上のラインが含まれていることがわかる。後述する参照カメラアングルデータ生成部8において、ラインブロックのフラグには1が設定され、それ以外のブロックのフラグには0が設定される。
このように、カメラアングル特定部4は、ラインブロック特定部3から入力したフレーム画像のラインブロック配置データが示すラインブロック画像群の配置と、記憶部6から読み出した台形毎の参照カメラアングルデータCA[1]〜CA[N_ca]が示すラインブロック群の配置との間の類似スコアS[1]〜S[N_ca]を計算し、その類似スコアが最大となる参照カメラアングルデータCA[A]を選定し、このデータをフィールド内の位置を示す、フレーム画像のカメラアングルデータとして出力するようにした。類似スコアは、配置データを比較処理することにより計算されるから、カメラアングル特定部4の処理負荷は低くなり、簡易な手法にて高速に、フレーム画像のカメラアングルデータを特定することができる。
〔ラインブロック画像特徴ベクトル生成部の処理〕
次に、図1の画像処理装置1におけるラインブロック画像特徴ベクトル生成部7の処理について説明する。図4は、ラインブロック画像特徴ベクトル生成部7の処理を説明するフローチャートである。ラインブロック画像特徴ベクトル生成部7は、前処理として、記憶部9から読み出したフレーム画像をブロック画像に分割し、ブロック画像からフィールドのラインを含むラインブロック画像を切り出し、ラインブロック画像特徴ベクトルを生成し、ラインブロック画像毎のラインブロック画像特徴ベクトルを記憶部5に格納する。
図4を参照して、ラインブロック画像特徴ベクトル生成部7は、記憶部9からスポーツ映像を構成するフレーム画像を読み出し、フレーム画像のサイズをL_w×L_hに正規化し(ステップS401)、フレーム画像を所定数(M×N個)のブロック画像に分割する(ステップS402)。分割数を定めるM,Nは、図2に示したラインブロック特定部3の処理で用いるM,Nと同じ値であり、予め設定されているものとする。
ラインブロック画像特徴ベクトル生成部7は、分割したブロック画像の中から、フィールドのラインを含む画像をラインブロック画像として切り出す(ステップS403)。ラインブロック画像の切り出しは、オペレータの操作により手動にて行われる。また、ステップS401〜ステップS403の処理は、スポーツ映像を構成する全てのフレーム画像について行われる。
ラインブロック画像特徴ベクトル生成部7は、全てのスポーツ映像についての処理が完了したか否かを判定し(ステップS404)、全てのスポーツ映像についての処理が完了したと判定した場合(ステップS404:Y)、すなわち、記憶部9から全てのスポーツ映像を読み出して、ステップS401〜ステップS403の処理が完了した場合、ステップS405へ移行する。一方、全てのスポーツ映像についての処理が完了していないと判定した場合(ステップS404:N)、すなわち、記憶部9から全てのスポーツ映像を読み出していないと判定した場合、ステップS401へ移行し、次のスポーツ映像の読み出しの処理を行う。
ラインブロック画像特徴ベクトル生成部7は、ステップS404から移行して、全てのラインブロック画像について、ラインブロック画像から、RGB平均値、エッジ占有率及びエッジ方向のヒストグラム等の特徴量を計算し(ステップS405)、これらの特徴量からなるラインブロック画像特徴ベクトルを生成し、記憶部5に格納し(ステップS406)、処理を終了する。これにより、記憶部5には、記憶部9に格納された全てのスポーツ映像について、ラインブロック画像毎に生成されたラインブロック画像特徴ベクトルがラインブロック画像特徴DBとして格納される。
このように、ラインブロック画像特徴ベクトル生成部7は、前処理として、記憶部9に格納された全てのスポーツ映像のフレーム画像をブロック画像に分割し、ラインブロック画像を切り出し、ラインブロック画像特徴ベクトルを生成し、ラインブロック画像毎のラインブロック画像特徴ベクトルを記憶部5に格納するようにした。これにより、ラインブロック特定部3は、記憶部5に格納されたラインブロック画像特徴ベクトルを用いて、カメラアングルデータを特定したいフレーム画像に対し、ラインブロック画像群の配置を示すラインブロック配置データを生成することができる。
〔参照カメラアングルデータ生成部の処理〕
次に、図1の画像処理装置1における参照カメラアングルデータ生成部8の処理について説明する。図5は、参照カメラアングルデータ生成部8の処理を説明するフローチャートである。参照カメラアングルデータ生成部8は、前処理として、フィールド上にセットした台形の領域(カメラ撮影領域、すなわちカメラにより撮影されるフィールド上の領域)を所定数のブロックに分割し、ブロックがフィールドのラインを含むラインブロックであるか否かを判定し、台形についてラインブロック群の配置を示す参照カメラアングルデータを生成し、台形毎の参照カメラアングルデータを記憶部6に格納する。
図5を参照して、参照カメラアングルデータ生成部8は、オペレータの操作により、フィールドの中心を原点とするワールド座標空間において、以下のパラメータを入力する(ステップS501)。
(1)仮想カメラ位置(0,y_c)
(2)カメラ撮影範囲である台形の形状を決めるパラメータ:上底のサイズL1、下底のサイズL2、高さh
(3)カメラ撮影範囲の位置を制限するy軸上のパラメータ:下限値B、上限値T
(4)カメラ撮影範囲のシフト幅を決めるパラメータ:シフト幅w
(5)カメラ撮影範囲の回転角のステップを決めるパラメータ:ステップa
図9は、カメラ撮影範囲を示す台形のパラメータ(上底、下底、高さ)を説明する図である。図9に示すように、台形の形状は、パラメータである上底のサイズL1、下底のサイズL2及び高さhにより決められる。この台形の形状は、カメラにより撮影されるフィールド上の範囲(撮影領域)を示しており、カメラに近い箇所よりも遠い箇所の方が撮影範囲は広くなっている。したがって、台形の形状は、カメラに近い箇所の下底のサイズL2よりも、遠い箇所の上底のサイズL1の方が長い(L2<L1)。
図5に戻って、参照カメラアングルデータ生成部8は、nに0をセットし(ステップS502)、ワールド座標空間のy軸上に、カメラ撮影範囲である台形の下底の位置をB+n×wの位置に合わせ、台形をセットする(ステップS503)。この場合、参照カメラアングルデータ生成部8は、上底の中央及び下底の中央がy軸に交差するように、台形をセットする。
図10は、ワールド座標空間のy軸上に台形をセットする処理を説明する図である。図中、仮想カメラ位置がy軸上の(0,y_c)にあり、台形の下底の位置は、y軸上の位置を制限する下限値Bに対して、n×w分上の位置(B+n×wの位置)にあることがわかる。例えばn=0の場合、参照カメラアングルデータ生成部8により、y軸上に、台形の下底の位置が下限値Bの位置に合わせられ、台形がセットされる。
ここで、図10に示すように、x軸及びy軸により表されるワールド座標空間のフィールドには、サッカーの競技が行われる各種ラインが引かれている。各種ラインは、フィールドを区分する直線または曲線であり、例えば、y軸のラインがセンターライン、センターラインの中央の円がセンターサークル、フィールドの四頂点のうちの2頂点を結ぶ、x軸に平行なラインがサイドラインである。
図5に戻って、参照カメラアングルデータ生成部8は、ステップS503においてセットした台形におけるy軸上の上底の位置が上限値Tを超えているか否かを判定する(ステップS504)。上底の位置が上限値Tを超えていると判定した場合(ステップS504:Y)、ステップS514へ移行する。一方、上底の位置が上限値Tを超えていないと判定した場合(ステップS504:N)、ステップS505へ移行する。
図11は、ワールド座標空間のy軸上にセットされた台形の上底が上限値Tを超える場合を説明する図である。図中、台形の下底の位置は、y軸上の位置を制限する下限値Bに対して、n×w分上の位置(B+n×wの位置)にあり、そのときの上底の位置は、上限値Tよりも上にあることがわかる。この場合、処理がステップS514へ移行する。
図5に戻って、参照カメラアングルデータ生成部8は、ステップS504から移行して、iに1をセットし(ステップS505)、ステップS503においてセットした台形を、仮想カメラ位置(0,y_c)を中心として、角度a×iだけ回転させ、新たな位置に台形をセットする(ステップS506)。台形は、後述するステップS507によりiがインクリメントするに伴い、ワールド座標空間において、x軸の負方向へ左回転する。ここで、aは、カメラ撮影範囲の回転角を変化させるときのステップである。
図12は、台形を回転させてセットする処理を説明する図である。図中、y軸上にセットされた台形が、仮想カメラ位置(0,y_c)を中心として角度a×iだけ回転し、回転後の新たな位置にセットされているのがわかる。
図5に戻って、参照カメラアングルデータ生成部8は、iに1を加えることによりiをインクリメントし(ステップS507)、角度a×iが90°よりも大きいか否かを判定する(ステップS508)。角度a×iが90°よりも大きいと判定した場合(ステップS508:Y)、ステップS509へ移行し、角度a×iが90°よりも大きくないと判定した場合(ステップS508:N)、ステップS506へ移行し、ステップS506〜ステップS508の処理を行う。これにより、角度a×i(i=1,2,・・・)毎に台形がセットされる。
参照カメラアングルデータ生成部8は、ステップS508から移行して、iに−1をセットし(ステップS509)、ステップS503においてセットした台形を、仮想カメラ位置(0,y_c)を中心として、角度a×iだけ回転させ、新たな位置に台形をセットする(ステップS510)。台形は、後述するステップS511によりiがデクリメントするに伴い、ワールド座標空間において、x軸の正方向へ右回転する。
参照カメラアングルデータ生成部8は、iに1を減ずることによりiをデクリメントし(ステップS511)、角度a×iが−90°よりも小さいか否かを判定する(ステップS512)。角度a×iが−90°よりも小さいと判定した場合(ステップS512:Y)、ステップS513へ移行し、角度a×iが−90°よりも小さくないと判定した場合(ステップS512:N)、ステップS510へ移行し、ステップS510〜ステップS512の処理を行う。これにより、角度a×i(i=−1,−2,・・・)毎に台形がセットされる。
参照カメラアングルデータ生成部8は、ステップS512から移行して、nに1を加えることによりnをインクリメントし(ステップS513)、ステップS503へ移行してステップS503〜ステップS513の処理を行う。これにより、下底の位置がB+n×wの位置になるように、ワールド座標空間のy軸上に台形がセットされ、所定のステップaにて回転した新たな位置に台形がセットされる。このような台形をセットする処理が、ステップS504の条件を満たすまで繰り返される。
参照カメラアングルデータ生成部8は、ステップS504において、セットした台形の上底の位置が上限値Tを超えていると判定した場合(ステップS504:Y)、ステップS514へ移行し、ステップS504の条件を満たしたときに(上底の位置が上限値Tを超えていると判定したときに)その直前のステップS503においてセットした台形を除去する(ステップS514)。そして、参照カメラアングルデータ生成部8は、ステップS503、ステップS506及びステップS510においてセットした台形の集合のうち、フィールド領域を含まない台形を特定し、特定した台形をその集合から除去する(ステップS515)。
図13は、フィールド領域を含まない台形を除去する処理を説明する図である。図中、点線で示した台形はフィールド領域を含んでいないから、参照カメラアングルデータ生成部8により、セットされた台形の集合から除去される。
図5に戻って、参照カメラアングルデータ生成部8は、ステップS503、ステップS506及びステップS510における台形のセット処理、及び、ステップS514及びステップS515における台形の除去処理により残された台形のそれぞれに対し、以下に示すステップS516〜ステップS520の処理を行い、カメラアングルを特定してカメラアングルデータを出力する。
参照カメラアングルデータ生成部8は、ワールド座標空間において、台形の四頂点座標(X1,Y1)(X2,Y2)(X3,Y3)(X4,Y4)を、ステップS501において入力した各種パラメータ、n及びiを用いて計算する(ステップS516)。
参照カメラアングルデータ生成部8は、台形を所定数(M×N個)のブロックに分割したときの、各ブロック(i,j)の四頂点座標(q_xk(i,j),q_yk(i,j))を計算する(ステップS517)。ここで、i=1,・・・,M、j=1,・・・N、k=1,2,3,4である。
図6は、図5のステップS517の処理、すなわち、台形を構成するブロックの四頂点座標を計算する処理の詳細を説明するフローチャートである。参照カメラアングルデータ生成部8は、ステップS516において計算した台形の四頂点座標(X1,Y1)(X2,Y2)(X3,Y3)(X4,Y4)及びフレーム画像の四頂点座標(0,0)(L_w,0)(0,L_h)(L_w,L_h)から、透視4点問題(P4P問題:Perspective 4−Point Problem)の解法により、変換係数H_ij(i=1,2,3、j=1,2,3)を計算する(ステップS601)。ここで、フレーム画像のサイズは、図2のステップS201及び図4のステップS401の処理に示したようにL_w×L_hであり、フレーム画像の下辺がx軸上にあり、左辺がy軸上にあるとすると、フレーム画像の四頂点座標は、(0,0)(L_w,0)(0,L_h)(L_w,L_h)となる。また、透視4点問題の解法は、2つの座標空間における四頂点座標の対応を求める既存の手法であるから、ここでは詳細な説明を省略する。例えば、特許文献1を参照されたい。
図14は、変換係数H_ijを計算する処理を説明する概念図である。図14において、右側に示したワールド座標空間上の台形と、左側に示したフレーム画像との間で頂点座標の変換規則を示す変換係数H_ijは、台形の四頂点座標のうちの第1の頂点座標(X1,Y1)とフレーム画像の四頂点座標のうちの第1の頂点座標(0,0)との間の変換、台形の四頂点座標のうちの第2の頂点座標(X2,Y2)とフレーム画像の四頂点座標のうちの第2の頂点座標(L_w,0)との間の変換、台形の四頂点座標のうちの第3の頂点座標(X3,Y3)とフレーム画像の四頂点座標のうちの第3の頂点座標(0,L_h)との間の変換、及び、台形の四頂点座標のうちの第4の頂点座標(X4,Y4)とフレーム画像の四頂点座標のうちの第4の頂点座標(L_w,L_h)との間の変換規則として統一的に定められるものである。前述のとおり、変換係数H_ijは、既存の透視4点問題の解法を用いることにより計算される。
図6に戻って、参照カメラアングルデータ生成部8は、フレーム画像を構成するブロック画像(i,j)の四頂点座標(p_xk(i,j),p_yk(i,j))、及びステップS601において計算した変換係数H_ijから、台形を構成するブロックの四頂点座標(q_xk(i,j),q_yk(i,j))を、以下の式により計算する(ステップS602)。以下の式では、(i,j)を省略してある。
q_xk=(H_11×p_xk+H_12×p_yk+H_13)/(H_31×p_xk+H_32×p_yk+H_33)
q_yk=(H_21×p_xk+H_22×p_yk+H_23)/(H_31×p_xk+H_32×p_yk+H_33)
尚、フレーム画像を構成するブロック画像(i,j)の四頂点座標(p_xk(i,j),p_yk(i,j))は、フレーム画像をM×N個のブロック画像に均等に分割したときの座標であるから、フレーム画像の四頂点座標(0,0)(L_w,0)(0,L_h)(L_w,L_h)、M及びNにより計算することができる。
参照カメラアングルデータ生成部8は、全てのブロック(M×N個のブロック)について処理が完了したか否かを判定し(ステップS603)、全てのブロックの処理が完了したと判定した場合(ステップS603:Y)、図5に示すステップS518へ移行する。一方、全てのブロックの処理が完了していないと判定した場合(ステップS603:N)、ステップS602へ移行し、台形を構成する次のブロックの四頂点座標(q_xk(i,j),q_yk(i,j))を計算する。これにより、台形を構成する全てのブロックの四頂点座標が計算される。
図5に戻って、参照カメラアングルデータ生成部8は、ステップS517の処理の後、台形を構成する各ブロック(i,j)がラインを含むラインブロックであるか否かを判定し、ラインブロックである場合、フラグfL_r(i,j)=1を設定し、ラインブロックでない場合、フラグfL_r(i,j)=0を設定する(ステップS518)。具体的には、参照カメラアングルデータ生成部8は、ワールド座標空間において、フィールドのラインの長さ及び配置(スポーツのルールまたは企画により自動的に定まる)と、ブロック(i,j)の四頂点座標(q_xk(i,j),q_yk(i,j))(k=1,2,3,4)との間の位置関係に基づいて、ブロック(i,j)の四頂点座標で囲まれる領域にラインが含まれるか否か(ラインが通過しているか否か)を判定し、その領域にラインが含まれると判定した場合、ブロック(i,j)がラインブロックであるとしてフラグfL_r(i,j)=1を設定し、その領域にラインが含まれないと判定した場合、ブロックがラインブロックでないとしてフラグfL_r(i,j)=0を設定する。
図8に示したように、台形を構成するM×N個のブロックのうち、斜め線で示したラインブロックに対し、フラグfL_r(i,j)=1が設定され、それ以外のブロックに対し、フラグfL_r(i,j)=0が設定される。
図5に戻って、参照カメラアングルデータ生成部8は、ステップS516における台形の四頂点座標(X1,Y1)(X2,Y2)(X3,Y3)(X4,Y4)、ステップS517における台形を構成する各ブロック(i,j)の四頂点座標(q_xk(i,j),q_yk(i,j))、及び、ステップS518における各ブロック(i,j)に設定したフラグfL_r(i,j)=0,1を、台形の参照カメラアングルデータCA[n]として記憶部6に格納する(ステップS519)。ここで、nは、セットした台形の番号(参照カメラアングルデータの番号)であり、1〜N_caである(N_caは台形の数(参照カメラアングルデータの数)である)。
参照カメラアングルデータ生成部8は、セットした全ての台形の処理が完了したか否かを判定し(ステップS520)、全ての台形の処理が完了したと判定した場合(ステップS520:Y)、処理を終了する。一方、全ての台形の処理が完了していないと判定した場合(ステップS520:N)、ステップS516へ移行し、次の台形についてステップS516〜ステップS520の処理を行う。このように、セットした台形毎に参照カメラアングルデータが求められ、台形毎(カメラアングルデータ毎)に付けた番号1〜N_caにより、参照カメラアングルデータCA[1]〜CA[N_ca]として記憶部6に格納される。
尚、ステップS517及びステップS601において計算される変換係数H_ij(i=1,2,3、j=1,2,3)は、台形毎(カメラアングルデータ毎)に定まる値である。
このように、参照カメラアングルデータ生成部8は、前処理として、フィールド上に台形をセットし、台形毎に、台形の四頂点座標(X1,Y1)(X2,Y2)(X3,Y3)(X4,Y4)、台形を構成する各ブロック(i,j)の四頂点座標(q_xk(i,j),q_yk(i,j))、及び、各ブロック(i,j)に対するフラグfL_r(i,j)=0,1を求め、これらのデータを参照カメラアングルデータCA[1]〜CA[N_ca]として記憶部6に格納するようにした。これにより、カメラアングル特定部4は、記憶部6に格納された参照カメラアングルデータCA[1]〜CA[N_ca]を用いて、フレーム画像のカメラアングルを特定することができる。
以上のように、本発明の実施形態による画像処理装置1によれば、ラインブロック画像特徴ベクトル生成部7が、前処理として、予め記憶部9に格納されたスポーツ映像のフレーム画像をブロック画像に分割し、ラインブロック画像を切り出し、ラインブロック画像特徴ベクトルを生成し、参照カメラアングルデータ生成部8が、前処理として、フィールド上に台形をセットし、台形毎に、台形の四頂点座標(X1,Y1)(X2,Y2)(X3,Y3)(X4,Y4)、台形を構成する各ブロック(i,j)の四頂点座標(q_xk(i,j),q_yk(i,j))、及び、各ブロック(i,j)に対するフラグfL_r(i,j)=0,1を求め、これらのデータを参照カメラアングルデータCA[1]〜CA[N_ca]として生成するようにした。そして、ラインブロック特定部3が、カメラアングルを特定する対象であるスポーツ映像のフレーム画像をブロック画像(i,j)に分割し、画像特徴ベクトルを計算し、前処理により生成されたラインブロック画像特徴ベクトルとの間の類似度を計算し、類似度に基づいて、ラインブロック画像群の配置を示すラインブロック配置データを生成し、カメラアングル特定部4が、フレーム画像のラインブロック配置データが示すラインブロック画像群の配置と、前処理により生成された台形毎の参照カメラアングルデータCA[1]〜CA[N_ca]が示すラインブロック群の配置との間の類似スコアS[1]〜S[N_ca]を計算し、その類似スコアが最大となる参照カメラアングルデータCA[A]を特定し、このデータをフレーム画像のカメラアングルデータとして出力するようにした。
これにより、スポーツ映像を構成するフレーム画像のカメラアングルを特定する際に、画像特徴ベクトル間の類似度を計算し、配置データを比較することで、カメラアングルを特定することができるから、従来のハフ変換処理、ウィンドウの細かい移動によるマッチング処理等の厳密な処理が不要になる。したがって、従来に比べて処理負荷は低くなり、簡易な手法にて高速化を実現することができる。さらに、特定したカメラアングルデータを利用して、そのシーンにおける人の分布及び動きを解析したり、戦術を立案したりすることができ、例えばスポーツの戦術データを迅速に配信する等の有用なサービスを実現することが可能になる。
尚、本発明の実施形態による画像処理装置1のハード構成としては、通常のコンピュータを使用することができる。画像処理装置1は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。画像処理装置1に備えたラインブロック特定部3、カメラアングル特定部4、ラインブロック画像特徴ベクトル生成部7及び参照カメラアングルデータ生成部8の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもできる。
以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、図1に示した画像処理装置1は、スポーツ映像を対象として、そのフレーム画像のカメラアングルを特定するようにしたが、本発明はスポーツ映像に限定されるものではなく、ラインを含むフィールドが撮影された映像であればよい。
また、図1に示した画像処理装置1は、記憶部2,5,6,9、ラインブロック特定部3、カメラアングル特定部4、ラインブロック画像特徴ベクトル生成部7及び参照カメラアングルデータ生成部8を備えるようにしたが、画像処理装置1が、記憶部2,5,6、ラインブロック特定部3及びカメラアングル特定部4を備え、他の画像処理装置が、ラインブロック画像特徴ベクトル生成部7、参照カメラアングルデータ生成部8及び記憶部9を備えるようにしてもよい。この場合、画像処理装置1は、他の画像処理装置により生成されたラインブロック画像特徴ベクトル及び参照カメラアングルデータを、通信ネットワークを介して受信し、記憶部5,6にそれぞれ格納する。また、第1の他の画像処理装置が、ラインブロック画像特徴ベクトル生成部7及び記憶部9を備え、第2の他の画像処理装置が、参照カメラアングルデータ生成部8を備え、画像処理装置1との間が通信ネットワークによりそれぞれ接続されるようにしてもよい。
1 画像処理装置
2,5,6,9 記憶部
3 ラインブロック特定部
4 カメラアングル特定部
7 ラインブロック画像特徴ベクトル生成部
8 参照カメラアングルデータ生成部

Claims (6)

  1. 所定のフィールドが撮影された映像のフレーム画像に対し、前記フィールド内の撮影領域であるカメラアングルを特定する画像処理装置において、
    前記フィールドにカメラの撮影領域が設定され、前記撮影領域が所定数のブロックに分割された場合に、前記フィールド上に配置されたラインを含むブロック群の配置が、前記撮影領域毎の参照カメラアングルデータとして格納された記憶部と、
    前記フレーム画像を前記所定数と同じ数でブロック画像に分割し、前記ブロック画像毎の画像特徴ベクトルを計算し、前記画像特徴ベクトルに基づいて、前記ブロック画像が、前記フィールド上に配置されたラインを含むラインブロック画像であるか否かを判定し、前記フレーム画像内のラインブロック画像群の配置を示すラインブロック配置データを生成するラインブロック特定部と、
    前記記憶部に格納された参照カメラアングルデータが示す、前記撮影領域におけるラインブロックの配置、及び、前記ラインブロック特定部により生成されたラインブロック配置データが示す、前記フレーム画像におけるラインブロック画像の配置に基づいて、前記フレーム画像のカメラアングルを特定するカメラアングル特定部と、
    を備えたことを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    さらに、参照カメラアングルデータ生成部を備え、
    前記参照カメラアングルデータ生成部は、前記フィールドにカメラの撮影領域を設定し、前記撮影領域を所定数のブロックに分割し、前記ブロックが、前記フィールド上に配置されたラインを含むラインブロックであるか否かを判定し、前記撮影領域内のラインブロック群の配置を示すラインブロック配置データを参照カメラアングルデータとして、前記撮影領域毎にそれぞれ生成し、前記記憶部に格納する、ことを特徴とする画像処理装置。
  3. 請求項2に記載の画像処理装置において、
    前記参照カメラアングルデータ生成部は、前記フィールドに、カメラにより撮影される台形形状の撮影領域を設定し、前記撮影領域の四頂点座標、及び前記撮影領域を所定数に分割した各ブロックの四頂点座標を計算し、前記各ブロックがラインブロックであるか否かを示すフラグを設定し、前記撮影領域の四頂点座標、前記各ブロックの四頂点座標及び前記各ブロックのフラグを参照カメラアングルデータとして、前記撮影領域毎にそれぞれ生成する、ことを特徴とする画像処理装置。
  4. 請求項2または3に記載の画像処理装置において、
    前記参照カメラアングルデータ生成部は、前記カメラの位置座標、前記台形形状を決める上底、下底及び高さのサイズ、前記撮影領域の配置を制限する位置座標、並びに、前記カメラの位置座標を中心として前記撮影領域を回転させる角度データに基づいて、前記カメラにより撮影される台形形状の撮影領域を前記フィールドに設定する、ことを特徴とする画像処理装置。
  5. 請求項1から4までのいずれか一項に記載の画像処理装置において、
    前記カメラアングル特定部は、前記記憶部に格納された撮影領域毎の参照カメラアングルデータと、前記ラインブロック特定部により生成されたラインブロック配置データとの間の類似度を計算し、前記類似度が最大となる参照カメラアングルデータの撮影領域を、前記フレーム画像のカメラアングルとして特定する、ことを特徴とする画像処理装置。
  6. コンピュータを、請求項1から5までのいずれか一項に記載の画像処理装置として機能させるための画像処理プログラム。
JP2009200682A 2009-08-31 2009-08-31 画像処理装置及びプログラム Active JP5155971B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009200682A JP5155971B2 (ja) 2009-08-31 2009-08-31 画像処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009200682A JP5155971B2 (ja) 2009-08-31 2009-08-31 画像処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2011053816A JP2011053816A (ja) 2011-03-17
JP5155971B2 true JP5155971B2 (ja) 2013-03-06

Family

ID=43942775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009200682A Active JP5155971B2 (ja) 2009-08-31 2009-08-31 画像処理装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5155971B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101328725B1 (ko) 2011-12-29 2013-11-11 전자부품연구원 블롭 감지 장치 및 그 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005182402A (ja) * 2003-12-18 2005-07-07 Hokkaido Univ フィールド領域検出方法、そのシステム、及びプログラム

Also Published As

Publication number Publication date
JP2011053816A (ja) 2011-03-17

Similar Documents

Publication Publication Date Title
CN111066065B (zh) 用于混合深度正则化的系统和方法
US10510148B2 (en) Systems and methods for block based edgel detection with false edge elimination
JP6948175B2 (ja) 画像処理装置およびその制御方法
JP4493679B2 (ja) 対象領域抽出方法および装置ならびにプログラム
JP4770960B2 (ja) 画像検索システム及び画像検索方法
CN107341804B (zh) 点云数据中平面的确定方法及装置、图像叠加方法及设备
JPWO2012096163A1 (ja) 画像処理装置、画像処理方法、及びそのプログラム
JP7159384B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR20170091496A (ko) 양안 시차 영상의 처리 방법 및 장치
JP6610535B2 (ja) 画像処理装置および画像処理方法
JP6020471B2 (ja) 画像処理方法、画像処理装置および画像処理プログラム
JP2018067106A (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
US9171357B2 (en) Method, apparatus and computer-readable recording medium for refocusing photographed image
CN108109148A (zh) 图像立体分配方法、移动终端
KR20190078890A (ko) 그리드 기반의 평면 추정 방법 및 장치
TWI711004B (zh) 圖片處理方法和裝置
JP5155971B2 (ja) 画像処理装置及びプログラム
JP2007122101A (ja) 画像処理装置及び画像処理方法
JP5736285B2 (ja) 被写体の3次元形状を復元する装置、方法およびプログラム
JP5769248B2 (ja) ステレオマッチング処理装置、ステレオマッチング処理方法、及び、プログラム
JP6156922B2 (ja) 三次元データ生成装置、三次元データ生成方法、及びプログラム
CN113256484B (zh) 一种对图像进行风格化处理的方法及装置
JP7195135B2 (ja) 画像処理装置、画像処理装置が行う制御方法およびプログラム
US10430971B2 (en) Parallax calculating apparatus
JP5734080B2 (ja) 情報処理装置、その処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5155971

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250