JP5411806B2 - 画像合成装置およびそのプログラム - Google Patents

画像合成装置およびそのプログラム Download PDF

Info

Publication number
JP5411806B2
JP5411806B2 JP2010119033A JP2010119033A JP5411806B2 JP 5411806 B2 JP5411806 B2 JP 5411806B2 JP 2010119033 A JP2010119033 A JP 2010119033A JP 2010119033 A JP2010119033 A JP 2010119033A JP 5411806 B2 JP5411806 B2 JP 5411806B2
Authority
JP
Japan
Prior art keywords
extraction
video
image
size
cutout
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010119033A
Other languages
English (en)
Other versions
JP2011249962A (ja
Inventor
典明 熊田
大一郎 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2010119033A priority Critical patent/JP5411806B2/ja
Publication of JP2011249962A publication Critical patent/JP2011249962A/ja
Application granted granted Critical
Publication of JP5411806B2 publication Critical patent/JP5411806B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)

Description

本発明は、予め設定されたカメラワークを行うロボットカメラにより異なる被写体を撮影した撮影映像が入力され、被写体ごとの撮影映像を用いて、異なる被写体が同一のフレーム画像に含まれる合成映像を生成する画像合成装置およびそのプログラムに関する。
従来から、例えば、アルペンスキーやスピードスケートのように、選手のタイムを競い合うスポーツ競技の中継が行われている。このとき、選手同士のタイム差をアナウンサが解説し、または、各選手のタイムを画面に表示することが多い。この場合、視聴者には、選手同士がどの程度離れてゴールしたか、視覚的に伝わりにくかった。そこで、異なる時間に撮影した選手同士を1つの映像に合成し、これら選手が同時にスポーツ競技を行っているような映像を視聴者に提供する技術が提案されている(非特許文献1−3参照)。この非特許文献1−3に記載の技術は、同じカメラワークを繰り返すロボットカメラにより、比較したい選手を個別に撮影し、それぞれの映像から選手を切り出して合成することで、比較したい選手同士のタイム差が視覚的に表された合成映像を生成する。
また、比べたい映像同士をマッチングで重ね合わせる技術が提案されている(非特許文献4参照)。この非特許文献4に記載の技術は、映像の中から、選手などの特徴部分を検出し、この特徴部分が重なるように合成映像を生成する。
石川他、「「仮想対決」システムにおけるマスタースレーブ駆動型カメラの動特性」、1998年映像情報メディア学会年次大会予稿集、1998年、p.422 加藤、「長野オリンピックにおける新映像表現技術−仮想対決システム」、計測自動制御学会誌、1999年、Vol.38、No.4 土生他、「仮想対決システム」、兼六館出版株式会社、放送技術、1998年、Vol.51、No.9、pp.70−73 「DartFish」、http://dartfish.co.jp/New/Software/index.html
しかし、非特許文献1−4に記載の技術は、カメラマンが撮影した映像に比べて、合成映像が不自然であるという問題がある。例えば、選手の移動にあわせてパンを行う場合を考える。この場合、熟練したカメラマンは、選手が画面中央ではなく、選手の移動方向に空きが多くなるようなカメラワークで撮影することが多い。一方、非特許文献1−4に記載の技術は、選手の位置を中心として映像を合成するため、熟練したカメラマンが撮影した映像に比べて、画面中央に選手が位置し続けるような不自然な合成映像となり、合成映像の臨場感が低くなってしまう。
そこで、本発明は、臨場感が高い合成映像を生成できる画像合成装置およびそのプログラムを提供することを目的とする。
前記した課題を解決するため、本願第1発明に係る画像合成装置は、予め設定されたカメラワークを行うロボットカメラにより異なる被写体を撮影した撮影映像が入力され、前記被写体ごとの撮影映像を用いて、前記異なる被写体が同一のフレーム画像に含まれる合成映像を生成する画像合成装置であって、切り出し条件入力手段と、映像切り出し手段と、記憶手段と、抽出位置算出手段と、映像補間手段と、映像合成手段と、を備えることを特徴とする。
かかる構成によれば、画像合成装置は、切り出し条件入力手段によって、前記撮影映像における切り出し対象のフレーム画像を一意に示す情報と、当該フレーム画像における切り出し位置および切り出しサイズとを、切り出し条件として入力する。また、画像合成装置は、映像切り出し手段によって、前記切り出し条件入力手段に入力された切り出し条件に基づいて、前記撮影映像ごとに、前記切り出し対象のフレーム画像のそれぞれから、前記切り出し位置および前記切り出しサイズで前記被写体を切り出すことで、切り出し映像を生成する。
また、画像合成装置は、記憶手段によって、カメラマンの撮影技法を統計処理した統計情報を予め記憶する。そして、画像合成装置は、抽出位置算出手段によって、前記記憶手段が記憶する統計情報に基づいて、当該撮影映像における抽出対象のフレーム画像から前記被写体を抽出する位置を示す抽出位置を算出する。さらに、画像合成装置は、映像補間手段によって、前記撮影映像ごとに、前記抽出対象のフレーム画像から、前記抽出位置算出手段が算出した抽出位置および所定の抽出サイズで前記被写体を抽出することで、前記切り出し映像を補間した補間映像を生成する。さらに、画像合成装置は、映像合成手段によって、前記映像補間手段が生成した補間映像に含まれる被写体同士を合成することで、前記異なる被写体が前記同一のフレーム画像に含まれる合成映像を生成する。
つまり、画像合成装置は、カメラマンの撮影技法(カメラワーク)を示す統計情報を用いることで、合成映像にカメラマンの撮影技法を反映させることができる。
また、本願第2発明に係る画像合成装置は、前記記憶手段が、前記統計情報として、前記カメラマンによる撮影開始時間を0および撮影終了時間を1として正規化した時間軸に対する前記カメラマンの操作速度を示す速度曲線を予め記憶し、前記抽出位置算出手段が、前記撮影映像のフレーム画像の時間について、前記撮影映像の開始時間を0および終了時間を1として正規化した抽出時間を求め、前記撮影開始時間から前記抽出時間までの前記時間軸と前記速度曲線とで囲われる部分領域の面積と、前記撮影開始時間から前記撮影終了時間までの前記時間軸と前記速度曲線とで囲われる全領域の面積との面積比を算出し、前記抽出対象のフレーム画像の幅から前記抽出サイズを減算して抽出最大位置を算出すると共に、当該抽出最大位置に前記面積比を乗算した値を前記抽出位置として算出することを特徴とする。
かかる構成によれば、画像合成装置は、カメラマンの操作速度(カメラワーク)を示す速度曲線を用いるため、カメラマンが実際に撮影したような合成映像を生成することができる。
また、本願第3発明に係る画像合成装置は、前記記憶手段が、前記時間軸において0.35以上0.4以下の範囲内で前記カメラマンの操作速度が最高となる前記速度曲線を、予め記憶することを特徴とする。
かかる構成によれば、画像合成装置は、速度曲線がカメラマンの操作速度(カメラワーク)に極めて近似するため、カメラマンが実際に撮影した映像に合成映像をより近づけることができる。
また、本願第4発明に係る画像合成装置は、前記被写体同士の時間差を示す情報が補間パラメータとして入力される補間パラメータ入力手段と、前記補間パラメータ入力手段に入力された時間差を第1の補正係数として前記切り出しサイズに乗じることで、前記切り出しサイズを拡大した前記抽出サイズを算出する抽出サイズ算出手段と、をさらに備えることを特徴とする。
かかる構成によれば、画像合成装置は、被写体同士の時間差が大きくなる程、抽出サイズを拡大する。
また、本願第5発明に係る画像合成装置は、前記補間パラメータ入力手段が、前記ロボットカメラのズーム値が前記補間パラメータとしてさらに入力され、前記抽出サイズ算出手段が、さらに、前記ロボットカメラのズーム値を第2の補正係数として前記切り出しサイズに乗じることで、前記抽出サイズを算出することを特徴とする。
かかる構成によれば、画像合成装置は、撮影映像をズームしながら撮影した場合には抽出サイズを拡大する。
また、本願第6発明に係る画像合成装置は、前記抽出サイズ算出手段が、複数の前記フレーム画像から抽出した前記被写体のサイズ変化率を第3の補正係数として算出すると共に、さらに、前記第3の補正係数を前記切り出しサイズに乗じることで、前記抽出サイズを算出することを特徴とする。
ここで、撮影映像をズームしながら撮影した場合、その撮影映像に含まれる被写体サイズが大きくなる。従って、画像合成装置は、ロボットカメラのズーム値を入力できない環境において、被写体サイズ変化率に基づいて抽出サイズを拡大する。
また、本願第7発明に係る画像合成装置は、前記補間パラメータ入力手段が、前記映像補間手段が前記被写体を抽出する領域である抽出領域の中心点から水平方向および垂直方向に前記被写体の位置ずれ量を示す被写体ずれ量がさらに入力され、前記抽出領域の中心点から水平方向および垂直方向に前記被写体の位置ずれ量を示す被写体ずれ量がさらに入力され、前記補間パラメータ入力手段に入力された被写体ずれ量に基づいて、前記抽出領域の中心点を水平方向および垂直方向に移動させた点を結んだ抽出軌道を算出する抽出軌道算出手段をさらに備え、前記映像補間手段が、前記抽出軌道に基づいて、前記撮影映像から前記被写体を前記抽出軌道に沿うように抽出することを特徴とする。
かかる構成によれば、画像合成装置は、カメラマンが実際に撮影した映像のように、合成映像において被写体の置き位置を変化させることができる。
また、前記した課題を解決するため、本願第8発明に係る画像合成プログラムは、予め設定されたカメラワークを行うロボットカメラにより異なる被写体を撮影した撮影映像が入力され、前記被写体ごとの撮影映像を用いて、前記異なる被写体が同一のフレーム画像に含まれる合成映像を生成するために、カメラマンの撮影技法を統計処理した統計情報を予め記憶する記憶手段を備えるコンピュータを、条件入力手段、映像切り出し手段、抽出位置算出手段、映像補間手段、映像合成手段、として機能させることを特徴とする。
かかる構成によれば、画像合成プログラムは、切り出し条件入力手段によって、前記撮影映像における切り出し対象のフレーム画像を一意に示す情報と、当該フレーム画像における切り出し位置および切り出しサイズとを、切り出し条件として入力する。また、画像合成プログラムは、映像切り出し手段によって、前記切り出し条件入力手段に入力された切り出し条件に基づいて、前記撮影映像ごとに、前記切り出し対象のフレーム画像のそれぞれから、前記切り出し位置および前記切り出しサイズで前記被写体を切り出すことで、切り出し映像を生成する。
また、画像合成プログラムは、抽出位置算出手段によって、前記記憶手段が記憶する統計情報に基づいて、当該撮影映像における抽出対象のフレーム画像から前記被写体を抽出する位置を示す抽出位置を算出する。また、画像合成プログラムは、映像補間手段によって、前記撮影映像ごとに、前記抽出対象のフレーム画像から、前記抽出位置算出手段が算出した抽出位置および所定の抽出サイズで前記被写体を抽出することで、前記切り出し映像を補間した補間映像を生成する。さらに、画像合成プログラムは、映像合成手段によって、前記映像補間手段が生成した補間映像に含まれる被写体同士を合成することで、前記異なる被写体が前記同一のフレーム画像に含まれる合成映像を生成する。
つまり、画像合成プログラムは、カメラマンの撮影技法(カメラワーク)を示す統計情報を用いることで、合成映像にカメラマンの撮影技法を反映させることができる。
本発明は、以下のような優れた効果を奏する。
本願第1,8発明は、カメラマンの撮影技法(カメラワーク)を示す統計情報を用いるため、カメラマンの撮影技法を合成映像に反映させることができ、臨場感が高い合成映像を生成することができる。
本願第2発明は、カメラマンの操作速度(カメラワーク)を示す速度曲線を用いるため、カメラマンが実際に撮影したような合成映像を生成でき、合成映像の臨場感をより高くすることができる。
本願第3発明は、速度曲線がカメラマンの操作速度(カメラワーク)を極めて近似するため、カメラマンが実際に撮影した映像に合成映像をより近づけることができ、合成映像の臨場感をより高くすることができる。
本願第4発明は、被写体同士の時間差が大きくなる程抽出サイズを拡大するため、合成映像に何れかの被写体が含まれないこと、および、合成映像から被写体の一部が欠落することを防止することができる。これによって、本願第4発明は、合成映像の臨場感をより高くすることができる。
本願第5発明は、撮影映像をズームしながら撮影した場合には抽出サイズを拡大するため、カメラマンのズーム操作(カメラワーク)を合成映像に反映させて、カメラマンが実際に撮影したような合成映像を生成でき、合成映像の臨場感をより高くすることができる。
本願第6発明は、ロボットカメラのズーム値を入力できない環境においても、撮影映像をズームしながら撮影した場合には抽出サイズを拡大することができる。これによって、本願第6発明は、カメラマンのズーム操作(カメラワーク)を合成映像に反映させて、カメラマンが実際に撮影したような合成映像を生成でき、合成映像の臨場感をより高くすることができる。
本願第7発明は、カメラマンが実際に撮影した映像のように、合成映像において被写体の置き位置を変化させることができるため、合成映像の臨場感をより高くすることができる。
本発明の実施形態に係る画像合成装置を含む画像合成システムの構成を示すブロック図である。 図1の画像合成装置による合成映像の生成を説明する図であり、(a)は選手Aの撮影映像であり、(b)は選手Bの撮影映像であり、(c)は選手A,Bの合成映像である。 図1の画像合成装置の構成を示すブロック図である。 図3の抽出位置算出手段が算出する抽出位置と、統計情報記憶手段に記憶した速度曲線との関係を示す図であり、(a)は抽出位置を示し、(b)は速度曲線を示している。 図3の抽出位置算出手段による抽出位置の算出を説明する図であり、(a)は抽出位置を示し、(b)は速度曲線を示している。 図3の抽出サイズ算出手段による抽出サイズの算出を説明する図であり、(a)はスタートでの選手A,Bの位置関係を示しており、(b)は前半での選手A,Bの位置関係を示しており、(c)はゴールでの選手A,Bの位置関係を示している。 本発明において、(a)は抽出領域中心点を説明する図であり、(b)は被写体基準点を説明する図である。 図3の抽出軌道算出手段による抽出軌道の算出を説明する図であり、(a)はスタートでの被写体基準点を示しており、(b)は中間での被写体基準点を示しており、(c)はゴールでの被写体基準点を示しており、(d)は被写体基準点を結んだ抽出軌道を示している。 図3の抽出軌道算出手段による抽出軌道の算出について、別の例を説明する図である。 本発明において、補間映像を補足する図であり、(a)はスタート直後の撮影映像であり、(b)はスタート直後の補間映像であり、(c)ゴール直前の撮影映像であり、(d)はゴール直前の補間映像である。 図3の画像合成装置の動作を示すフローチャートである。 本発明の変形例2に係る画像合成装置を説明する図であり、(a)はスタートでの選手A,Bの位置関係を示しており、(b)は前半での選手A,Bの位置関係を示しており、(c)はゴールでの選手A,Bの位置関係を示している。 本発明の変形例3に係る画像合成装置を説明する図であり、(a)はスタートでの選手A,Bの位置関係を示しており、(b)は前半での選手A,Bの位置関係を示しており、(c)はゴールでの選手A,Bの位置関係を示している。
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段及び同一の部材には同一の符号を付し、説明を省略した。
[画像合成システムの構成]
以下、図1および図2を参照して、画像合成システム100の構成について説明する。
画像合成システム100は、例えば、単独でスキーのアルペン競技を行う選手を被写体として撮影し、それぞれの撮影映像に含まれる選手を切り出して、切り出した選手同士を合成した合成映像を生成する。このため、図1に示すように、画像合成システム100は、時間計測器1と、テレビジョン同期信号発生器2と、ロボットカメラ3と、雲台4と、リモート操作器5と、カメラ制御部6と、画像合成装置7とを備える。
時間計測器1は、選手がアルペン競技をスタートしたことを示すスタート信号をテレビジョン同期信号発生器2に入力する。例えば、時間計測器1は、アルペン競技のスタート位置に設置された公式タイムを計測するタイム計測器である。この場合、時間計測器1は、公式タイムの計測を開始するのと同時にスタート信号を生成し、このスタート信号をテレビジョン同期信号発生器2に入力する。
テレビジョン同期信号発生器2は、ロボットカメラ3の撮影タイミングを同期させる同期信号を生成する。具体的には、テレビジョン同期信号発生器2は、時間計測器1からスタート信号が入力され、このスタート信号が入力されたタイミングで同期信号を生成し、この同期信号をカメラ制御部6に出力する。
ロボットカメラ3は、アルペン競技を行う選手を撮影し、その撮影映像を画像合成装置7に出力する。例えば、ロボットカメラ3は、2Kカメラ、4Kカメラ、スーパーハイビジョンカメラなどの高解像度カメラである。また、ロボットカメラ3は、パン、チルト、ズーム、フォーカスなどのカメラワークでロボットカメラ3を駆動可能な雲台4に搭載されている。
雲台4は、後記するリモート操作器5から入力された操作信号、または、後記するカメラ制御部6から入力された制御信号に基づいて、パン、チルト、ズーム、フォーカスなどのカメラワークでロボットカメラ3を駆動する。
リモート操作器5は、カメラマン(不図示)がロボットカメラ3を遠隔操作するときに用いる操作手段(例えば、ジョイスティック)である。ここで、リモート操作器5は、カメラマンの操作に応じてロボットカメラ3を駆動する操作信号を生成し、この操作信号を雲台4に出力する。このとき、リモート操作器5は、この操作信号を、雲台4を介してカメラ制御部6に出力する。
カメラ制御部6は、リモート操作器5から操作信号が入力され、この操作信号を、ロボットカメラ3を駆動する制御信号として、図示を省略したメモリに記憶する。そして、カメラ制御部6は、テレビジョン同期信号発生器2から同期信号が入力されたタイミングで、メモリに記憶した制御信号を雲台4に出力する。
画像合成装置7は、予め設定されたカメラワークを行うロボットカメラ3により異なる選手を撮影した撮影映像が入力され、選手ごとの撮影映像を用いて、異なる選手が同一のフレーム画像に含まれる合成映像を生成する。ここで、例えば、画像合成装置7は、ロボットカメラ3から、図2(a)および図2(b)に示すように、各選手を撮影した撮影映像がそれぞれ入力され、それぞれの撮影映像から、図2(c)に示すように、異なる選手が含まれる合成映像を生成する。
なお、画像合成装置7の構成は、後記する。
[画像合成システムによる合成映像の生成]
以下、図1および図2を参照して、画像合成システム100による合成映像の生成する手順を説明する。
まず、画像合成システム100では、ロボットカメラ3のカメラワークを設定する。例えば、図2(a)に示すように、カメラマンが、リモート操作器5によってロボットカメラ3を遠隔操作し、一人目の選手Aがアルペン競技を行う様子を撮影する。そして、ロボットカメラ3は、選手Aが撮影された撮影映像を画像合成装置7に出力する。このとき、カメラマンは、二人目以降の選手のタイムを考慮し、比較したい全選手が映像に納まるように広い画角およびルーズなカメラワークで選手Aを撮影する。このカメラマンの操作を示す操作信号は、雲台4を介してカメラ制御部6に出力される。そして、カメラ制御部6は、この入力された操作信号を制御信号として記憶する。つまり、カメラ制御部6は、カメラマンが選手Aを撮影したときと同一のカメラワークで、ロボットカメラ3を駆動可能な制御信号を記憶する。
次に、画像合成システム100は、二人目の選手Bがアルペン競技を行う様子を自動撮影する。例えば、時間計測器1は、選手Bがアルペン競技を開始すると同時にスタート信号を生成し、このスタート信号をテレビジョン同期信号発生器2に入力する。すると、テレビジョン同期信号発生器2は、時間計測器1からスタート信号が入力されたタイミングで同期信号を生成し、雲台4を介して、この同期信号をカメラ制御部6に出力する。そして、カメラ制御部6は、テレビジョン同期信号発生器2から同期信号が入力されたタイミングで、記憶した制御信号を雲台4に出力する。つまり、選手Bがアルペン競技を開始したタイミングで、ロボットカメラ3は、カメラマンが選手Aを撮影したのと同一のカメラワークで選手Bを自動撮影する。そして、図2(b)に示すように、ロボットカメラ3は、選手Bを自動撮影した撮影映像を画像合成装置7に出力する。
ここで、画像合成装置7は、図2(a)および図2(b)に示すように、選手Aの撮影映像と、選手Bの撮影映像とをそれぞれ記憶している。これら撮影映像は、同じタイミング、同じ画角および同じカメラワークで撮影されているため、容易に合成することができる。このため、画像合成装置7は、図2(c)に示すように、選手Aと選手Bとのタイム差が視覚的に表現された合成映像を生成することができる。
なお、三人目以降の選手を合成する場合、画像合成システム100は、同様の手順で、三人目以降の選手を自動撮影し、選手Aまたは選手Bと、三人目以降の選手とを合成すればよい。
[画像合成装置の構成]
以下、図3を参照し、画像合成装置7の構成について説明する(適宜図1参照)。
図3に示すように、画像合成装置7は、キーフレーム入力手段(切り出し条件入力手段)71と、映像記憶手段72と、映像切り出し手段73と、切り出し映像記憶手段74と、補間パラメータ入力手段75と、映像補間手段76と、統計情報記憶手段(記憶手段)77と、補間映像記憶手段78と、映像合成手段79とを備える。
キーフレーム入力手段71は、選手Aの撮影映像と、選手Bの撮影映像というように、選手ごとに撮影映像について、フレーム時間と、切り出し位置と、切り出しサイズとをキーフレーム(切り出し条件)として指定(入力)する。ここで、キーフレーム入力手段71は、例えば、オペレータから、重要な場面(シーン)を構成する切り出し対象のフレーム画像と、画面内での選手Aの位置を考慮した切り出し位置と、画面内での選手Aのサイズを考慮した切り出しサイズとが、キーフレームとして指定(入力)される。
フレーム時間は、撮影映像において、切り出し対象のフレーム画像を一意に示すタイムコードなどの情報である。例えば、フレーム時間は、オペレータから指定されたフレーム画像のタイムコードとなる。
切り出し領域は、切り出し対象のフレーム画像から、後記する映像切り出し手段73が切り出す領域(例えば、矩形領域)を示す。
切り出し位置は、切り出し対象のフレーム画像から選手を切り出すときの基準となる位置である。例えば、切り出し領域を矩形領域とした場合、切り出し位置は、矩形領域の左辺となる。
切り出しサイズは、切り出し対象のフレーム画像において、切り出し領域の高さおよび幅である。例えば、切り出し領域を矩形領域とした場合、切り出しサイズは、矩形領域の高さおよび幅となる。
映像記憶手段72は、ロボットカメラ3から入力された撮影映像を記憶するハードディスクなどの記憶装置である。ここで、映像記憶手段72は、例えば、選手Aの撮影映像と、選手Bの撮影映像というように、選手ごとに撮影映像を記憶している。
映像切り出し手段73は、キーフレーム入力手段71からキーフレームが入力される。そして、映像切り出し手段73は、入力されたキーフレームに基づいて、映像記憶手段72に記憶された撮影映像ごとに、切り出し対象のフレーム画像のそれぞれから、切り出し位置および切り出しサイズで選手を切り出すことで、切り出し映像を生成する。ここで、例えば、先頭と最後とのフレーム画像が切り出し対象のフレーム画像として指定されたとして説明する。この場合、映像切り出し手段73は、選手Aの撮影映像における先頭のフレーム画像から、選手Aが含まれる切り出し領域を切り出す。また、映像切り出し手段73は、選手Aの撮影映像における最後のフレーム画像から、選手Aが含まれる切り出し領域を切り出す。そして、映像切り出し手段73は、先頭のフレーム画像から切り出された領域の画像と、最後のフレーム画像から切り出された領域の画像とを時系列に連続させた切り出し映像を生成する。また、映像切り出し手段73は、選手Aと同様に、選手Bの切り出し映像を生成する。その後、映像切り出し手段73は、選手Aの切り出し映像と、選手Bの切り出し映像とを切り出し映像記憶手段74に記憶する。
切り出し映像記憶手段74は、切り出し映像記憶手段74から入力された切り出し映像を記憶するハードディスクなどの記憶装置である。ここで、切り出し映像記憶手段74は、例えば、選手Aの切り出し映像と、選手Bの切り出し映像というように、選手ごとに切り出し映像を記憶している。
補間パラメータ入力手段75は、補間パラメータが入力されると共に、入力された補間パラメータを映像補間手段76に出力する。例えば、補間パラメータ入力手段75は、オペレータから、補間パラメータとして、被写体タイム差と、被写体ズレ量とが入力される。
被写体タイム差(時間差情報)は、撮影映像における任意の時間(例えば、ゴール時などの撮影映像の終了時間)において、選手A,Bなどの選手同士のタイム差を示す情報である。この被写体タイム差は、後記する抽出領域を拡大するために入力する。
被写体ズレ量は、選手A,Bの位置ずれ量を示す情報であり、後記する抽出軌道を算出するために入力する。
映像補間手段76は、抽出位置と、抽出サイズと、抽出軌道とを算出するために、抽出位置算出手段76aと、抽出サイズ算出手段76bと、抽出軌道算出手段76cとを備える。そして、映像補間手段76は、映像記憶手段72に記憶された選手A,Bの撮影映像ごとに、抽出対象のフレーム画像から、抽出位置算出手段76aが算出した抽出位置および抽出サイズ算出手段76bが算出した抽出サイズで、抽出軌道算出手段76cが算出した抽出軌道に沿って選手A,Bを抽出することで、切り出し映像を補間した選手A,Bの補間映像を生成する。つまり、補間映像は、切り出し対象のフレーム画像から切り出した領域の画像と、抽出対象のフレーム画像から抽出した領域の画像とが時系列に連続するものとなる。その後、映像補間手段76は、選手Aの補間映像と、選手Bの補間映像とを切り出し映像記憶手段74に記憶する。
抽出位置算出手段76aは、後記する統計情報記憶手段77が記憶する速度曲線を参照して、部分領域の面積と全領域の面積との面積比を算出し、抽出対象のフレーム画像の幅から抽出サイズを減算して抽出最大位置を算出すると共に、抽出最大位置に面積比を乗算した値を抽出位置として算出する。なお、抽出位置算出手段76aの詳細は、後記する。
抽出領域は、抽出対象のフレーム画像から、映像補間手段76が抽出する領域(例えば、矩形領域)を示す。
抽出位置は、撮影映像における抽出対象のフレーム画像から、選手を抽出するときの基準となる位置である。例えば、抽出領域を矩形領域とした場合、抽出位置は、矩形領域の左辺となる。
抽出対象のフレーム画像は、撮影映像において、切り出し対象のフレーム画像以外のフレーム画像である。
抽出サイズ算出手段76bは、補間パラメータ入力手段75に入力された被写体タイム差(時間差情報)を第1の補正係数として切り出しサイズに乗じることで、切り出しサイズを拡大した抽出サイズを算出する。なお、抽出サイズ算出手段76bの詳細は、後記する。
抽出サイズは、抽出対象のフレーム画像において、抽出領域の高さおよび幅である。例えば、抽出領域を矩形領域とした場合、抽出サイズは、矩形領域の高さおよび幅となる。
抽出軌道算出手段76cは、補間パラメータ入力手段75に入力された被写体ズレ量に基づいて、抽出領域の中心点を水平方向および垂直方向に移動させた点を結んだ抽出軌道を算出する。なお、抽出軌道算出手段76cの詳細は、後記する。
ここで、補間映像を生成する理由について、簡単に説明する。
前記したように、先頭と最後とのフレーム画像が切り出し対象のフレーム画像として指定された場合、切り出し映像は、先頭のフレーム画像から切り出した領域の画像と、最後のフレーム画像から切り出した領域の画像という、2枚の画像だけが含まれている。言い換えるなら、この切り出し映像は、先頭と最後以外の画像が含まれておらず、選手の動きが途切れる極めて不自然なものとなる。このため、映像補間手段76は、切り出し映像で不足している画像、すなわち、先頭と最後以外の画像を補間して、補間映像を生成する。つまり、補間映像は、切り出し映像に含まれる先頭の画像と、切り出し映像で不足する先頭および最後以外の画像と、切り出し映像に含まれる最後の画像とが時系列に連続しており、選手の動きが途切れない自然なものとなる。
統計情報記憶手段77は、統計情報を予め記憶するハードディスクなどの記憶装置である。ここで、統計情報記憶手段77は、統計情報として、図4(b)の速度曲線を予め記憶している。
以下、図4(b)を参照し、速度曲線について詳細に説明する。
まず、熟練した何人かのカメラマンが、水平方向に移動する被写体をパンなどのカメラワークを行いながら撮影する。このとき、撮影開始から撮影終了までの間、各カメラマンがカメラを操作する速度(カメラワークの速度)を測定した測定データを生成する。そして、各カメラマンの測定データの時間軸を、撮影開始時間を0および撮影終了時間を1として正規化し、ガウス分布などの統計処理を行って速度曲線を求める。つまり、図4(b)の速度曲線は、撮影開始時間から撮影終了時間までのどの部分で、どのくらい速度でカメラワークを行ったかを示す曲線となっている。
ここで、前記した統計処理の結果から、熟練したカメラマンは、正規化した時間軸で0.35〜0.4となる部分(ピーク区間)で、カメラワークを最も速くすることがわかった。このため、図4(b)に示すように、最高速度Vmaxが正規化した時間軸において0.35〜0.4となるピーク区間内となる場合、この速度曲線は、熟練したカメラマンのカメラワーク(撮影技法)を近似することになる。
以下、図1に戻り、画像合成装置7の構成について説明を続ける。
補間映像記憶手段78は、映像補間手段76から入力された補間映像を記憶するハードディスクなどの記憶装置である。ここで、補間映像記憶手段78は、例えば、選手Aの補間映像と、選手Bの補間映像というように、選手ごとに補間映像を記憶している。
映像合成手段79は、補間映像記憶手段78に記憶した補間映像に含まれる選手A,Bを合成することで、異なる選手A,Bが含まれる合成映像を生成する。ここで、例えば、映像合成手段79は、選手Bの補間映像から選手Bを切り出して選手Aの補間映像に合成することで、選手A,Bが含まれる背景付き合成映像を生成できる。また、映像合成手段79は、比較対象となる選手Bを半透明で合成してもよい。さらに、映像合成手段79は、この合成映像をデジタルハイビジョン放送規格に準拠した映像信号に変換してもよい。その後、映像合成手段79は、この合成映像を出力する。
<抽出位置算出手段の詳細>
以下、図4,図5を参照し、抽出位置算出手段76aを詳細に説明する。
ここで、説明を簡易にするために、選手Aの動きに合わせて左から右へのパン(カメラワーク)を例に説明する。また、選手Aの撮影映像が時系列に連続する11枚のフレーム画像で構成されているとする。また、先頭のフレーム画像(T0)、および、最後のフレーム画像(T10)が抽出対象のフレーム画像(キーフレーム)として指定されたとする。
抽出位置算出手段76aは、統計情報記憶手段77が記憶する統計情報に基づいて、抽出位置を算出する。まず、抽出位置算出手段76aは、抽出対象のフレーム画像の時間(タイムコード)について、撮影映像の開始時間を0および終了時間を1として正規化して、抽出時間を求める。これによって、抽出時間は、0以上1以下の値となるため、速度曲線の時間軸上で扱うことが可能となる。このため、図4(b)の横軸(時間軸)上に、抽出対象のフレーム画像の時間をT0〜T10と表すことができる。
次に、抽出位置算出手段76aは、キーフレームとして指定されていない抽出対象のフ
レーム画像、つまり、時間T1〜T9のフレーム画像について、抽出位置を算出する。ここで、図4(b)の速度曲線のように、熟練したカメラマンは、ピーク区間でカメラワークを最も速くする。従って、抽出位置算出手段76aは、このカメラワークを近似して抽出位置を算出する。具体的には、図4(a)に示すように、抽出位置算出手段76aは、カメラワークが遅い時間T0からT1では、抽出領域A0と抽出領域A1との距離差が少なくなるように、抽出領域A1における抽出位置を算出する。また、抽出位置算出手段76aは、カメラワークが遅い時間T9からT10でも同様に、抽出領域A9と抽出領域A10との距離差が小さくなるように、抽出領域A9における抽出位置を算出する。その一方、抽出位置算出手段76aは、ピーク区間付近の時間T3からT5では、抽出領域A3からA5までの距離差が大きくなるように、抽出領域A3〜A5における抽出位置を算出する。
なお、図4(a)では、図面を見やすくするため、抽出位置を矩形領域の左辺として、太線で図示した。また、図4(a)では、図面を見やすくするため、各領域A0〜A10を垂直方向にずらして図示したが、通常、各領域A0〜A10は垂直方向において同一位置とする。
以下、図5を参照し、抽出位置の算出方法を具体的に説明する。
ここで、撮影映像の中間(T5)のフレーム画像が抽出対象のフレーム画像であるとき、その抽出位置L5を求める例で説明する。
まず、抽出位置算出手段76aは、時間T5のフレーム画像について、撮影映像の開始時間を0および終了時間を1として正規化し、抽出時間(時間T5)を求める。ここで、抽出時間(時間T5)は、図5(b)の時間軸上で略中央に図示した。
次に、抽出位置を最も右に設定したときでも、抽出領域の幅の分だけ余裕を残すため、下記の式(1)に示すように、抽出最大位置Lmaxを算出する。
Lmax=Wmax−Wini・・・式(1)
なお、式(1)では、Wmaxが映像幅(抽出対象のフレーム画像の幅)であり、Winiが幅減算値である。この幅減算値は、例えば、抽出サイズ(幅)と同じ値とする。
そして、抽出位置算出手段76aは、撮影開始時間(T0)から抽出時間(T5)までの時間軸と速度曲線とで囲われる部分領域の面積、すなわち、図5(b)の濃いドット領域の面積を算出する。また、抽出位置算出手段76aは、撮影開始時間(T0)から撮影終了時間(T10)までの時間軸と速度曲線とで囲われる全領域の面積、すなわち、図5(b)の濃いドット領域と薄いドット領域との面積を算出する。そして、抽出位置算出手段76aは、下記の式(2)に示すように、部分領域と全領域との面積比を算出する。
面積比=部分領域の面積/全領域の面積
=濃いドット領域の面積/(濃いドット領域の面積+薄いドット領域の面積)
・・・式(2)
さらに、抽出位置算出手段76aは、抽出最大位置Lmaxに面積比を乗算した値を抽出位置として算出する。例えば、映像幅Wmax=1920(ピクセル)、幅減算値Wini=60(ピクセル)、部分領域の面積=60、全領域の面積=100の場合を考える。この場合、抽出位置算出手段76aは、前記した式(1)により、抽出最大位置Lmax=1860(ピクセル)を求める。また、抽出位置算出手段76aは、前記した式(2)により、面積比0.6を求める。そして、抽出位置算出手段76aは、抽出最大位置Lmax=1860に面積比=0.6を乗じて、抽出位置L5=1116(ピクセル)を求める。従って、抽出位置算出手段76aは、図5(a)に示すように、抽出位置を撮影映像の左辺からの距離(ピクセル数)で表すことができる。
以上のように、画像合成装置7は、カメラマンのカメラワーク(操作速度)を極めて近似した速度曲線を用いて抽出位置を算出するため、カメラマンのカメラワークが遅くなる程、抽出領域同士の距離差を小さくし、カメラマンのカメラワークが速くなる程、抽出領域同士の距離差を大きくする(図4参照)。これによって、画像合成装置7は、カメラマンのカメラワークを合成映像に反映させて、その合成映像をカメラマンが実際に撮影した映像により近づけることができる。
なお、抽出位置を矩形領域の左辺として説明したが、これに限定されない。例えば、抽出位置は、矩形領域の右辺としてもよい。この場合、抽出基準位置は、撮影映像の右辺とする。
また、例えば、抽出位置は、矩形領域の一辺でなく、矩形領域の左上、右上、左下または右下の何れか一点としてもよい。
なお、パンを例に説明したが、本発明に適用可能なカメラワークは、パンに限定されない。
なお、選手Aの撮影映像に対する抽出位置を算出する例を説明したが、抽出位置算出手段76aは、選手Bの撮影映像についても、同様に抽出位置を算出できるため、その説明を省略する。
なお、先頭のフレーム画像(T0)および最後のフレーム画像(T10)をキーフレームとして指定した例を説明したが、途中のフレーム画像(T1〜T9)をキーフレームとして指定することもできる。例えば、先頭(T0)、中間(T5)および最後(T10)のそれぞれがキーフレームとして指定された場合を考える。この場合、抽出位置算出手段76aは、先頭(T0)から中間(T5)まで、図4および図5の処理を適用して抽出位置を求めてもよい。そして、抽出位置算出手段76aは、中間(T5)から最後(T10)まで、図4および図5の処理を適用して抽出位置を求めてもよい。このようにして、抽出位置算出手段76aは、途中のフレーム画像(T1〜T9)がキーフレームとして指定された場合でも、抽出位置を算出することができる。
<抽出サイズ算出手段の詳細>
以下、図6を参照し、抽出サイズ算出手段76bの詳細について説明する。
例えば、選手Bが選手Aに比べて大きく遅れた場合、この選手Bが抽出領域に含まれずに合成映像に映らない、または、この選手Bの手足などの一部分が抽出領域から欠落することが考えられる。そこで、抽出サイズ算出手段76bは、この選手Bが抽出領域に含まれないこと、および、この選手Bの一部が抽出領域から欠落することを防止するために、抽出領域を拡大する。
具体的には、抽出サイズ算出手段76bは、下記の式(3)を用いて、抽出対象のフレーム画像ごとに、抽出サイズとして、抽出領域の高さHnおよび幅Wnを算出する。
Hn=H0+H0×α・dT×Tn/Ta
Wn=W0+W0×α・dT×Tn/Ta・・・式(3)
なお、式(3)では、被写体タイム差dTが第1の補正係数である。また、定数αは、被写体タイム差dTを調整するための定数であり、0を超えて1以下の値で予め設定される。
つまり、抽出サイズ算出手段76bは、抽出サイズ(高さ)の初期値H0に、定数αと、入力された被写体タイム差dTと、抽出対象のフレーム画像の時間Tnとを乗算し、撮影映像の全時間長Taを除算した値を求める。そして、抽出サイズ算出手段76bは、除算した値を抽出サイズ(高さ)の初期値H0に加算して、時間Tnでの抽出サイズ(高さ)Hnを算出する。ここで、抽出サイズ(高さ)の初期値H0は、例えば、先頭側のキーフレームでの切り出しサイズ(高さ)とする。例えば、スタート時(T0)のフレーム画像がキーフレームとして指定された場合、抽出サイズ(高さ)の初期値H0は、図6(a)に示すように、時間T0のフレーム画像での切り出しサイズ(高さ)となる。
また、抽出サイズ算出手段76bは、抽出サイズ(幅)の初期値W0に、定数αと、入力された被写体タイム差dTと、抽出対象のフレーム画像の時間Tnとを乗算し、撮影映像の全時間長Taを除算した値を求める。そして、抽出サイズ算出手段76bは、除算した値を抽出サイズ(幅)の初期値W0に加算して、時間Tnでの抽出サイズ(幅)Wnを算出する。ここで、抽出サイズ(幅)の初期値W0は、フレーム時間が最も小さくなる先頭側の切り出しサイズ(高さ)と同一とする。例えば、キーフレームとして時間T0のフレーム画像の場合、図6(a)に示すように、時間T0のフレーム画像での切り出しサイズ(幅)と同一とする。
例えば、定数α=0.4、被写体タイム差dT=2(秒)、高さ初期値H0=50(ピクセル)、全時間長Ta=11のとき、図6(b)に示すように、時間T3での抽出サイズ(高さ)H3を算出する例を示す。この場合、抽出サイズ算出手段76bは、式(4)に示すように、時間T3での抽出サイズ(高さ)H3≒61(ピクセル)と算出する。なお、抽出サイズの計算結果は小数点第1位で四捨五入している。
H3=50+50×0.4・2×3/11≒61・・・式(4)
また、例えば、抽出サイズ算出手段76bは、式(5)に示すように、時間T10での抽出サイズ(高さ)H10=90(ピクセル)と算出する(図6(c)参照)。
H10=50+50×0.4・2×11/11=90・・・式(5)
以上のように、画像合成装置7は、抽出領域を拡大することで、大きく遅れた選手Bが抽出領域に含まれないこと、および、この選手Bの一部分が抽出領域から欠落することを防止できる。これによって、画像合成装置7は、合成映像の臨場感をより高くすることができる。
なお、抽出サイズ算出手段76bが抽出領域を拡大すると、補間映像の各フレーム画像は、それぞれのサイズが異なることになる。このため、映像合成手段79は、補間映像の各フレーム画像を、デジタルハイビジョン放送規格に準拠したサイズに変換してもよい。
<抽出軌道算出手段の詳細>
図7〜図9を参照し、選手Aの撮影映像に対する抽出軌道を算出する例で、抽出軌道算出手段76cを詳細に説明する。
ここでは、図7(a)に示すように、抽出領域の中心点を抽出領域中心点と呼ぶ。
そして、抽出軌道算出手段76cは、図7(b)に示すように、撮影映像から選手Aのゼッケンや顔を色領域抽出により検出し、それらの中心点を被写体基準点として求める。つまり、被写体ズレ量は、抽出領域中心点に対する被写体基準点のズレ量を示す。
なお、図7に示すように、抽出領域中心点を基準として、水平方向に右側への被写体ズレ量を+Xとし、左側への被写体ズレ量を−Xとする。また、抽出領域中心点を基準として、垂直方向に上側への被写体ズレ量を+Yとし、下側への被写体ズレ量を−Yとする。
図8(a)に示すように、抽出軌道算出手段76cは、スタート(T0)では、被写体基準点を抽出領域中心点に一致させる。つまり、抽出軌道算出手段76cは、スタート時(T0)では、被写体ズレ量を水平方向および垂直方向にゼロとする。また、図8(b)に示すように、抽出軌道算出手段76cは、中間(T5)では、被写体基準点を抽出領域中心点から、入力された被写体ズレ量の約半分だけ移動させる。そして、図8(c)に示すように、抽出軌道算出手段76cは、ゴール(T10)では、被写体基準点を抽出領域中心点から、入力された被写体ズレ量の分だけ移動させる。
つまり、抽出軌道算出手段76cは、式(6)に示すように、時間が経過する程、被写体基準点Xn,Ynが抽出領域中心点から大きくずれるように、被写体基準点Xn,Ynを算出する。
Xn=X×Tn/Ta
Yn=Y×Tn/Ta・・・式(6)
なお、式(6)では、Xが水平方向での被写体ズレ量、Yが垂直方向での被写体ズレ量、Xnが時間Tnのフレーム画像における被写体基準点(水平方向の位置)、Ynが時間Tnのフレーム画像における被写体基準点(垂直方向の位置)である。
その後、図8(d)に示すように、抽出軌道算出手段76cは、算出した被写体基準点を結んだ抽出軌道を算出する。この抽出軌道に沿った抽出領域では、時間の経過に伴って、選手Aが抽出領域中心点から左上部に移動するというように、抽出領域内で選手Aの置き位置が変化している。一方、抽出領域中心点を追いかけた軌道の場合、この軌道に沿った抽出領域では、時間の経過に関わらず、選手Aが抽出領域中心点から移動せずに、抽出領域内で選手Aの置き位置が変化しない。
以上のように、画像合成装置7は、抽出軌道算出手段76cが算出した抽出軌道に沿って映像補間手段76が補間映像を生成することで、カメラマンが実際に撮影した映像のように、合成映像において選手Aの置き位置を変化させることができる。これによって、画像合成装置7は、合成映像の臨場感をより高くすることができる。
なお、最後(T10)での被写体ズレ量が入力される例を示したが、例えば、中間(T5)のように、最後以外の時間での被写体ズレ量を入力することもできる。この場合、図9に示すように、抽出軌道算出手段76cは、先頭(T0)から中間(T5)までの間では、被写体基準点が抽出領域中心点から徐々にずれ、中間(T5)から最後(T10)までの間で被写体基準点が抽出領域中心点に徐々に収束するような抽出軌道を算出する。
なお、選手Aの撮影映像に対する抽出軌道を算出する例を説明したが、抽出軌道算出手段76cは、選手Bの撮影映像についても、同様に抽出軌道を算出できるため、その説明を省略する。
<補間映像の補足>
以下、図10を参照し、補間映像について補足する。なお、説明を簡易にするため、スタート直後およびゴール直前以外を省略している。
図10(a)に示すように、スタート直後の撮影映像は、山頂付近のスタートゲートから選手Aが滑り出していくフレーム画像が含まれている。ここで、映像補間手段76は、図10(a)のフレーム画像から抽出領域を抽出し、図10(b)の画像を生成したとする。この場合、図10(b)の画像は、図10(a)と同様、スタートゲートから滑り出す選手Aが含まれており、山頂付近の風景が背景となっている。
また、図10(c)に示すように、ゴール直前の撮影映像は、山麓付近のゴールゲートに選手Aが滑り込んで行くフレーム画像が含まれている。ここで、映像補間手段76は、図10(c)のフレーム画像から抽出領域を抽出し、図10(d)の画像を生成したとする。この場合、図10(d)の画像は、図10(c)と同様、ゴールゲートに滑り込む選手Aが含まれており、山麓付近の風景が背景となっている。
そして、映像補間手段76は、これらの画像を時系列で連続させた補間映像を生成する。つまり、映像補間手段76が生成した補間映像は、図10(b)および図10(d)に示すように、時間の経過に伴って、山頂付近の風景から山麓付近の風景というように、背景が変化することになる。従って、画像合成装置7は、映像補間手段76が生成した補間映像を用いることで、スタート直後からゴール直前まで背景が変化して、選手A,Bが同時に滑走しているような合成映像を生成できる。
[画像合成装置の動作]
以下、図11を参照し、画像合成装置7の動作について説明する(適宜図3参照)。
画像合成装置7は、キーフレーム入力手段71によって、キーフレームとして、フレーム時間、切り出し位置および切り出しサイズが入力される。そして、画像合成装置7は、キーフレーム入力手段71によって、入力されたキーフレームを、映像切り出し手段73に出力する(ステップS1)。
また、画像合成装置7は、映像切り出し手段73によって、入力されたキーフレームに基づいて、撮影映像ごとに、切り出し対象のフレーム画像のそれぞれから、切り出し位置および切り出しサイズで選手を切り出すことで、切り出し映像を生成する(ステップS2)。
また、画像合成装置7は、補間パラメータ入力手段75によって、補間パラメータとして、被写体タイム差と、被写体ズレ量とが入力される。そして、画像合成装置7は、補間パラメータ入力手段75によって、入力された補間パラメータを映像補間手段76に出力する(ステップS3)。
また、画像合成装置7は、抽出位置算出手段76aによって、統計情報記憶手段77が記憶する統計情報に基づいて、撮影映像における抽出対象のフレーム画像から選手を抽出する位置を示す抽出位置を算出する。具体的には、画像合成装置7は、抽出位置算出手段76aによって、撮影映像の開始時間を0および終了時間を1として、抽出対象のフレーム画像の時間を正規化して抽出時間を求める。そして、画像合成装置7は、抽出位置算出手段76aによって、前記した式(1)を用いて、抽出最大位置を算出する。さらに、画像合成装置7は、抽出位置算出手段76aによって、撮影開始時間から抽出時間までの時間軸と速度曲線とで囲われる部分領域の面積と、撮影開始時間から撮影終了時間までの時間軸と速度曲線とで囲われる全領域の面積とを算出する。さらに、画像合成装置7は、抽出位置算出手段76aによって、前記した式(2)を用いて、部分領域と全領域との面積比を算出する。さらに、画像合成装置7は、抽出位置算出手段76aによって、抽出最大位置に面積比を乗算した値を抽出位置として算出する(ステップS4)。
また、画像合成装置7は、抽出サイズ算出手段76bによって、補間パラメータ入力手段75に入力された被写体タイム差(時間差情報)に基づいて、抽出サイズを算出する。具体的には、画像合成装置7は、抽出サイズ算出手段76bによって、前記した式(3)を用いて、抽出対象のフレーム画像ごとに、抽出サイズ(高さおよび幅)を算出する(ステップS5)。
また、画像合成装置7は、抽出軌道算出手段76cによって、補間パラメータ入力手段75に入力された被写体ズレ量に基づいて、抽出領域の中心点を結んだ軌道を補正した抽出軌道を算出する。具体的には、画像合成装置7は、抽出軌道算出手段76cによって、前記した式(6)に示すように、時間が経過する程、被写体基準点が抽出領域中心点から大きくずれるように、被写体基準点を算出する。そして、画像合成装置7は、抽出軌道算出手段76cによって、算出した被写体基準点を結んだ抽出軌道を算出する(ステップS6)。
また、画像合成装置7は、映像補間手段76によって、映像記憶手段72に記憶された撮影映像ごとに、抽出対象のフレーム画像から選手を抽出することで、切り出し対象のフレーム画像を補間した補間映像を生成する。つまり、画像合成装置7は、映像補間手段76によって、抽出対象のフレーム画像から、抽出位置算出手段76aが算出した抽出位置および抽出サイズ算出手段76bが算出した抽出サイズで、抽出軌道算出手段76cが算出した抽出軌道に沿って選手を抽出する(ステップS7)。
また、画像合成装置7は、映像合成手段79によって、補間映像記憶手段78に記憶した補間映像に含まれる選手A,Bを合成することで、異なる選手A,Bが同一フレーム画像に含まれる合成映像を生成する(ステップS8)。
以上のように、本発明の実施形態に係る画像合成装置7は、カメラマンの撮影技法を示す速度曲線(統計情報)を用いることで、合成映像にカメラマンの撮影技法を反映させて、臨場感が高い合成映像を生成することができる。
例えば、図4(a)に示すように、画像合成装置7は、カメラマンのカメラワークが遅くなる程抽出領域同士の距離差を小さくし、カメラマンのカメラワークが速くなる程抽出領域同士の距離差を大きくする。このように、画像合成装置7は、カメラマンのカメラワーク(操作速度)を極めて近似した速度曲線を用いて抽出位置を算出するので、合成映像をカメラマンが実際に撮影した映像により近づけることができる。
一方、リニア補間または台形制御などの従来技術を用いて抽出位置を算出した場合、図4(a)において抽出領域A0〜A10までが等間隔になる。この場合、この等間隔の抽出領域A0〜A10に基づいて生成した合成映像は、例えば、選手A,Bが画面の中央に位置し続けるような、カメラマンが実際に撮影した映像とは程遠いものとなり、視聴者に不自然な印象を与える。つまり、画像合成装置7生成した合成映像は、選手A,Bが画面の中央に位置し続けるようなことがなく、従来技術に比べて、視聴者により高い臨場感を与えることができる。
また、画像合成装置7は、アルペン競技の選手がタイムを競うスポーツ中継において、同時に競技を行っていない選手同士を高い精度で合成することができ、選手のタイム差、コース取りおよび選手の姿勢の相違を、視聴者に視覚的に伝えることができる。このため、視聴者が、選手の動きを容易に理解できるようになり、画像合成装置7は、判り易いスポーツ番組の制作に寄与する。また、画像合成装置7は、競技テクニックの分析や強化に役立てることができ、スポーツ業界の発展にも寄与する。
なお、本発明の実施形態では、アルペン競技を例に説明したが、陸上競技、自転車競技、スケート競技などの他のスポーツ競技であってもよい。また、画像合成装置7は、被写体を人間に限定せずに、例えば、自動車レースに適用することも可能である。
なお、本発明の実施形態では、画像合成装置7が抽出サイズ算出手段76bを備えるとして説明したが、抽出サイズ算出手段76bを備えなくともよい。この場合、画像合成装置7は、例えば、入力された切り出しサイズをそのまま抽出サイズとして用いればよい。
なお、本発明の実施形態では、画像合成装置7が抽出軌道算出手段76cを備えるとして説明したが、抽出軌道算出手段76cを備えなくともよい。この場合、画像合成装置7は、抽出軌道を変更することなく補間映像を生成する。
なお、本発明の実施形態では、本発明に係る画像合成装置を独立した装置として説明したが、本発明では、一般的なコンピュータのハードウェア資源を、前記した各手段として協調動作させるプログラムによって実現することもできる。このプログラムは、通信回線を介して配布しても良く、CD−ROMやフラッシュメモリなどの記録媒体に書き込んで配布しても良い。
以上、本発明の実施形態に係る画像合成装置7の構成および動作について説明したが、本発明は、この実施形態に限定されるものではない。
本発明の種々の変形例について、実施形態と異なる点を説明する。
[変形例1:平均タイム差を考慮]
以下、図3に戻り、本発明の変形例1に係る画像合成装置7について説明する。
画像合成装置7は、抽出サイズ算出手段76bが平均タイム差を考慮して抽出サイズを算出する。
具体的には、抽出サイズ算出手段76bは、下記の式(7)を用いて、入力された被写体タイム差dTおよび平均タイム差aveに基づいて、抽出対象のフレーム画像ごとに、抽出サイズとして、抽出領域の高さHnおよび幅Wnを算出する。
Hn=H0+H0×α(dT−ave)×Tn/Ta
Wn=W0+W0×α(dT−ave)×Tn/Ta・・・式(7)
なお、式(7)では、平均タイム差aveは、選手A,Bなどの選手同士のタイム差の平均値を示す情報であり、予め設定されている。
つまり、抽出サイズ算出手段76bは、被写体タイム差dTと平均タイム差aveとの差分値を算出する。そして、抽出サイズ算出手段76bは、抽出サイズ(高さ)の初期値H0に、定数αと、算出した差分値と、抽出対象のフレーム画像の時間Tnとを乗算し、撮影映像の全時間長Taを除算した値を求める。さらに、抽出サイズ算出手段76bは、除算した値を抽出サイズ(高さ)の初期値H0に加算して、時間Tnでの抽出サイズ(高さ)Hnを算出する。
また、抽出サイズ算出手段76bは、抽出サイズ(幅)の初期値W0に、定数αと、前記した差分値と、抽出対象のフレーム画像の時間Tnとを乗算し、撮影映像の全時間長Taを除算した値を求める。そして、抽出サイズ算出手段76bは、除算した値を抽出サイズ(幅)の初期値W0に加算して、時間Tnでの抽出サイズ(幅)Wnを算出する。
例えば、定数α=0.4、被写体タイム差dT=2(秒)、高さ初期値H0=50(ピクセル)、全時間長Ta=11、平均タイム差ave=1(秒)のとき、時間T3での抽出サイズ(高さ)H3を算出する例を示す。この場合、抽出サイズ算出手段76bは、式(8)に示すように、時間T3での抽出サイズ(高さ)H3≒55(ピクセル)と算出する。
H3=50+50×0.4(2−1)×3/11≒55・・・式(8)
また、例えば、抽出サイズ算出手段76bは、式(9)に示すように、時間T10での抽出サイズ(高さ)H10=70(ピクセル)と算出する。
H10=50+50×0.4(2−1)×11/11=70・・・式(9)
以上のように、本発明の変形例1に係る画像合成装置7は、抽出サイズ算出手段76bが平均タイム差を考慮することで、抽出サイズが大きくなりすぎることを防止できる。これによって、画像合成装置7は、合成映像の臨場感をより高くすることができる。
[変形例2:ズームインして撮影映像を撮影、ズーム値の入力あり]
以下、図12を参照し、本発明の変形例2に係る画像合成装置7について説明する(適宜図3参照)。ここで、ロボットカメラ3が選手A,Bをズームインしながら撮影したとする。この場合、図12(a)〜図12(c)に示すように、時間の経過に応じて、選手A,Bが大きくなる。
ロボットカメラ3が、ロボットカメラ3のズーム値を補間パラメータ入力手段75に入力する。このロボットカメラ3のズーム値は、撮影映像の各フレーム画像に対応するように、撮影映像を撮影したときのロボットカメラ3のズーム値を示す情報である。
補間パラメータ入力手段75は、さらに、補間パラメータとして、ロボットカメラ3のズーム値が入力される。そして、補間パラメータ入力手段75は、ロボットカメラ3のズーム値を含めた補間パラメータを映像補間手段76に出力する。
抽出サイズ算出手段76bは、下記の式(10)に示すように、入力された被写体タイム差dTおよびズーム値Znに基づいて、抽出対象のフレーム画像ごとに、抽出サイズとして、抽出領域の高さHn´および幅Wn´を算出する。
Hn´=Zn・β(H0+H0×α・dT×Tn/Ta)
Wn´=Zn・β(W0+W0×α・dT×Tn/Ta)・・・式(10)
なお、式(10)では、Znが時間Tnでのロボットカメラ3のズーム値(第2の補正係数)である。また、定数βは、ズーム値Znを調整するための定数であり、0を超えて1以下の値で予め設定される。
つまり、抽出サイズ算出手段76bは、抽出サイズ(高さ)の初期値H0に、定数αと、入力された被写体タイム差dTと、抽出対象のフレーム画像の時間Tnとを乗算し、撮影映像の全時間長Taを除算した値を求める。そして、抽出サイズ算出手段76bは、この除算した値を抽出サイズ(高さ)の初期値H0に加算して加算値を求める。さらに、抽出サイズ算出手段76bは、この加算値に、ロボットカメラ3のズーム値Znと定数βとを乗算して、時間Tnでの抽出サイズ(高さ)Hn´を算出する。
また、抽出サイズ算出手段76bは、抽出サイズ(幅)の初期値W0に、定数αと、入力された被写体タイム差dTと、抽出対象のフレーム画像の時間Tnとを乗算し、撮影映像の全時間長Taを除算した値を求める。そして、抽出サイズ算出手段76bは、この除算した値を抽出サイズ(幅)の初期値W0に加算して加算値を求める。さらに、抽出サイズ算出手段76bは、この加算値に、ロボットカメラ3のズーム値Znと定数βとを乗算して、時間Tnでの抽出サイズ(高さ)Wn´を算出する。
例えば、定数α=0.4、被写体タイム差dT=2(秒)、高さ初期値H0=50(ピクセル)、全時間長Ta=11、ズーム値Z3=5、定数β=0.3のとき、図12(b)に示すように、時間T3での抽出サイズ(高さ)H3を算出する例を示す。この場合、抽出サイズ算出手段76bは、式(11)に示すように、時間T3での抽出サイズ(高さ)H3´≒92(ピクセル)と算出する。
H3´=5・0.3(50+50×0.4・2×3/11)
≒1.5・61
≒92・・・式(11)
また、例えば、T10のときのズーム値Z10=9とすると、抽出サイズ算出手段76bは、式(12)に示すように、時間T10での抽出サイズ(高さ)H10´=270(ピクセル)と算出する(図12(c)参照)。
H10´=9・0.3(50+50×0.4・2×11/11)
=3・90
=270・・・式(12)
以上のように、本発明の変形例2に係る画像合成装置7は、ズームなどのカメラワークを補間映像に反映することができ、合成映像の臨場感をより高くすることができる。また、画像合成装置7は、大きく遅れた選手Bが抽出領域に含まれないこと、および、この選手Bの一部分が抽出領域から欠落することを防止できる。
[変形例3:ズームインして撮影映像を撮影、ズーム値の入力なし]
以下、図13を参照し、本発明の変形例3に係る画像合成装置7について説明する(適宜図3参照)。ここで、変形例2と同様、ロボットカメラ3が選手A,Bをズームインしながら撮影しているが、変形例2と異なり、ロボットカメラ3のズーム値が入力されないとする。
この場合、図13(a)に示すように、抽出サイズ算出手段76bは、各時間のフレーム画像からエッジ領域抽出処理により選手Aのエッジ領域を抽出し、そのエッジ領域の高さを被写体サイズrnとして算出する。そして、抽出サイズ算出手段76bは、下記の式(13)に示すように、先頭(時間T0)における被写体サイズγ0と、時間Tnにおける被写体サイズγnと、入力された被写体タイム差dTとに基づいて、抽出対象のフレーム画像ごとに、抽出サイズとして抽出領域の高さHn´および幅Wn´を算出する。
なお、選手Aの被写体サイズγnを用いているが、選手Bのサイズを被写体サイズγnとして用いてもよい。
Hn´=(γn/γ0)・(H0+H0×α・dT×Tn/Ta)
Wn´=(γn/γ0)・(W0+W0×α・dT×Tn/Ta)・・・式(13)
なお、式(13)では、γn/γ0が被写体のサイズ変化率(第3の補正係数)である。
つまり、抽出サイズ算出手段76bは、先頭(時間T0)における被写体サイズγ0と、時間Tnにおける被写体サイズγnとの比を、被写体のサイズ変化率として算出する。また、抽出サイズ(高さ)の初期値H0に、定数αと、入力された被写体タイム差dTと、抽出対象のフレーム画像の時間Tnとを乗算し、撮影映像の全時間長Taを除算した値を求める。そして、抽出サイズ算出手段76bは、除算した値を抽出サイズ(高さ)の初期値H0に加算して加算値を求める。さらに、抽出サイズ算出手段76bは、この加算値に被写体のサイズ変化率を乗算して、時間Tnでの抽出サイズ(高さ)Hn´を算出する。
また、抽出サイズ算出手段76bは、抽出サイズ(幅)の初期値W0に、定数αと、入力された被写体タイム差dTと、抽出対象のフレーム画像の時間Tnとを乗算し、撮影映像の全時間長Taを除算した値を求める。そして、抽出サイズ算出手段76bは、除算した値を抽出サイズ(幅)の初期値W0に加算して加算値を求める。さらに、抽出サイズ算出手段76bは、この加算値に被写体のサイズ変化率を乗算して、時間Tnでの抽出サイズ(幅)Wn´を算出する。
例えば、図13(b)に示すように、定数α=0.4、被写体タイム差dT=2(秒)、高さ初期値H0=50(ピクセル)、全時間長Ta=11、先頭(時間T0)における被写体サイズγ0=30、時間T3における被写体サイズγ3=35のとき、時間T3での抽出サイズ(高さ)H3を算出する例を示す。この場合、抽出サイズ算出手段76bは、式(14)に示すように、時間T3での抽出サイズ(高さ)H3´≒71(ピクセル)と算出する。
H3´=(35/30)・(50+50×0.4・2×3/11)
≒1.16・61
≒71・・・式(14)
また、例えば、最後(時間T10)における被写体サイズγ10=50とすると、抽出サイズ算出手段76bは、式(15)に示すように、時間T10での抽出サイズ(高さ)H10´≒150(ピクセル)と算出する(図13(c)参照)。
H10´=(50/30)・(50+50×0.4・2×11/11)
≒1.67・90
≒150・・・式(15)
以上のように、本発明の変形例3に係る画像合成装置7は、ロボットカメラ3のズーム値を入力できない環境において、ズームなどのカメラワークを補間映像に反映することができ、合成映像の臨場感をより高くすることができる。また、画像合成装置7は、大きく遅れた選手Bが抽出領域に含まれないこと、および、この選手Bの一部分が抽出領域から欠落することを防止できる。
1 時間計測器
2 テレビジョン同期信号発生器
3 ロボットカメラ
4 雲台
5 リモート操作器
6 カメラ制御部
7 画像合成装置
71 キーフレーム入力手段(切り出し条件入力手段)
72 映像記憶手段
73 映像切り出し手段
74 切り出し映像記憶手段
75 補間パラメータ入力手段
76 映像補間手段
77 統計情報記憶手段(記憶手段)
76a 抽出位置算出手段
76b 抽出サイズ算出手段
76c 抽出軌道算出手段
77 統計情報記憶手段
78 補間映像記憶手段
79 映像合成手段
100 画像合成システム

Claims (8)

  1. 予め設定されたカメラワークを行うロボットカメラにより異なる被写体を撮影した撮影映像が入力され、前記被写体ごとの撮影映像を用いて、前記異なる被写体が同一のフレーム画像に含まれる合成映像を生成する画像合成装置であって、
    前記撮影映像における切り出し対象のフレーム画像を一意に示す情報と、当該フレーム画像における切り出し位置および切り出しサイズとを、切り出し条件として入力する切り出し条件入力手段と、
    前記切り出し条件入力手段に入力された切り出し条件に基づいて、前記撮影映像ごとに、前記切り出し対象のフレーム画像のそれぞれから、前記切り出し位置および前記切り出しサイズで前記被写体を切り出すことで、切り出し映像を生成する映像切り出し手段と、
    カメラマンの撮影技法を統計処理した統計情報を予め記憶する記憶手段と、
    前記記憶手段が記憶する統計情報に基づいて、当該撮影映像における抽出対象のフレーム画像から前記被写体を抽出する位置を示す抽出位置を算出する抽出位置算出手段と、
    前記撮影映像ごとに、前記抽出対象のフレーム画像から、前記抽出位置算出手段が算出した抽出位置および所定の抽出サイズで前記被写体を抽出することで、前記切り出し映像を補間した補間映像を生成する映像補間手段と、
    前記映像補間手段が生成した補間映像に含まれる被写体同士を合成することで、前記異なる被写体が前記同一のフレーム画像に含まれる合成映像を生成する映像合成手段と、
    を備えることを特徴とする画像合成装置。
  2. 前記記憶手段は、前記統計情報として、前記カメラマンによる撮影開始時間を0および撮影終了時間を1として正規化した時間軸に対する前記カメラマンの操作速度を示す速度曲線を予め記憶し、
    前記抽出位置算出手段は、
    前記撮影映像のフレーム画像の時間について、前記撮影映像の開始時間を0および終了時間を1として正規化した抽出時間を求め、
    前記撮影開始時間から前記抽出時間までの前記時間軸と前記速度曲線とで囲われる部分領域の面積と、前記撮影開始時間から前記撮影終了時間までの前記時間軸と前記速度曲線とで囲われる全領域の面積との面積比を算出し、
    前記抽出対象のフレーム画像の幅から前記抽出サイズを減算して抽出最大位置を算出すると共に、当該抽出最大位置に前記面積比を乗算した値を前記抽出位置として算出することを特徴とする請求項1に記載の画像合成装置。
  3. 前記記憶手段は、前記時間軸において0.35以上0.4以下の範囲内で前記カメラマンの操作速度が最高となる前記速度曲線を、予め記憶することを特徴とする請求項2に記載の画像合成装置。
  4. 前記被写体同士の時間差を示す情報が補間パラメータとして入力される補間パラメータ入力手段と、
    前記補間パラメータ入力手段に入力された時間差を第1の補正係数として前記切り出しサイズに乗じることで、前記切り出しサイズを拡大した前記抽出サイズを算出する抽出サイズ算出手段と、をさらに備えることを特徴とする請求項1から請求項3の何れか一項に記載の画像合成装置。
  5. 前記補間パラメータ入力手段は、前記ロボットカメラのズーム値が前記補間パラメータとしてさらに入力され、
    前記抽出サイズ算出手段は、さらに、前記ロボットカメラのズーム値を第2の補正係数として前記切り出しサイズに乗じることで、前記抽出サイズを算出することを特徴とする請求項4に記載の画像合成装置。
  6. 前記抽出サイズ算出手段は、複数の前記フレーム画像から抽出した前記被写体のサイズ変化率を第3の補正係数として算出すると共に、さらに、前記第3の補正係数を前記切り出しサイズに乗じることで、前記抽出サイズを算出することを特徴とする請求項4に記載の画像合成装置。
  7. 前記補間パラメータ入力手段は、前記映像補間手段が前記被写体を抽出する領域である抽出領域の中心点から水平方向および垂直方向に前記被写体の位置ずれ量を示す被写体ずれ量がさらに入力され、
    前記補間パラメータ入力手段に入力された被写体ずれ量に基づいて、前記抽出領域の中心点を水平方向および垂直方向に移動させた点を結んだ抽出軌道を算出する抽出軌道算出手段をさらに備え、
    前記映像補間手段は、前記抽出軌道に基づいて、前記撮影映像から前記被写体を前記抽出軌道に沿うように抽出することを特徴とする請求項4から請求項6の何れか一項に記載の画像合成装置。
  8. 予め設定されたカメラワークを行うロボットカメラにより異なる被写体を撮影した撮影映像が入力され、前記被写体ごとの撮影映像を用いて、前記異なる被写体が同一のフレーム画像に含まれる合成映像を生成するために、カメラマンの撮影技法を統計処理した統計情報を予め記憶する記憶手段を備えるコンピュータを、
    前記撮影映像における切り出し対象のフレーム画像を一意に示す情報と、当該フレーム画像における切り出し位置および切り出しサイズとを、切り出し条件として入力する切り出し条件入力手段、
    前記切り出し条件入力手段に入力された切り出し条件に基づいて、前記撮影映像ごとに、前記切り出し対象のフレーム画像のそれぞれから、前記切り出し位置および前記切り出しサイズで前記被写体を切り出すことで、切り出し映像を生成する映像切り出し手段、
    前記記憶手段が記憶する統計情報に基づいて、当該撮影映像における抽出対象のフレーム画像から前記被写体を抽出する位置を示す抽出位置を算出する抽出位置算出手段、
    前記撮影映像ごとに、前記抽出対象のフレーム画像から、前記抽出位置算出手段が算出した抽出位置および所定の抽出サイズで前記被写体を抽出することで、前記切り出し映像を補間した補間映像を生成する映像補間手段、
    前記映像補間手段が生成した補間映像に含まれる被写体同士を合成することで、前記異なる被写体が前記同一のフレーム画像に含まれる合成映像を生成する映像合成手段、
    として機能させるための画像合成プログラム。
JP2010119033A 2010-05-25 2010-05-25 画像合成装置およびそのプログラム Active JP5411806B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010119033A JP5411806B2 (ja) 2010-05-25 2010-05-25 画像合成装置およびそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010119033A JP5411806B2 (ja) 2010-05-25 2010-05-25 画像合成装置およびそのプログラム

Publications (2)

Publication Number Publication Date
JP2011249962A JP2011249962A (ja) 2011-12-08
JP5411806B2 true JP5411806B2 (ja) 2014-02-12

Family

ID=45414715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010119033A Active JP5411806B2 (ja) 2010-05-25 2010-05-25 画像合成装置およびそのプログラム

Country Status (1)

Country Link
JP (1) JP5411806B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6294708B2 (ja) * 2014-03-05 2018-03-14 日本放送協会 画像処理装置、及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3388827B2 (ja) * 1993-09-06 2003-03-24 株式会社応用計測研究所 動画像処理装置
JP3693779B2 (ja) * 1997-02-27 2005-09-07 日本放送協会 カメラ撮影制御システム
JP2003189160A (ja) * 2001-12-13 2003-07-04 Fuji Photo Film Co Ltd デジタルカメラ
JP3983624B2 (ja) * 2002-08-09 2007-09-26 シャープ株式会社 画像合成装置、画像合成方法、画像合成プログラム、および画像合成プログラムを記録した記録媒体
JP4441361B2 (ja) * 2003-09-10 2010-03-31 日本放送協会 ロボットカメラ制御装置及びそのプログラム
JP2007172271A (ja) * 2005-12-21 2007-07-05 Fujifilm Corp 画像処理システム、画像処理装置、画像処理方法、および画像処理プログラム
JP4741557B2 (ja) * 2006-08-18 2011-08-03 日本放送協会 撮影ショット制御装置及び撮影ショット制御プログラム
JP4881178B2 (ja) * 2007-02-08 2012-02-22 日本放送協会 走行距離映像生成装置及び走行距離映像生成プログラム

Also Published As

Publication number Publication date
JP2011249962A (ja) 2011-12-08

Similar Documents

Publication Publication Date Title
US9325934B2 (en) Image processing system and method
US10277812B2 (en) Image processing to obtain high-quality loop moving image
JP5398408B2 (ja) カメラ、カメラの制御方法、表示制御装置、および表示制御方法
CN102668585B (zh) 图像数据生成辅助装置和图像数据生成辅助方法
JP5214826B2 (ja) 立体パノラマ画像作成装置、立体パノラマ画像作成方法及び立体パノラマ画像作成プログラム並びに立体パノラマ画像再生装置、立体パノラマ画像再生方法及び立体パノラマ画像再生プログラム、記録媒体
US20130141521A1 (en) Image processing system and method
US20200275083A1 (en) Information processing apparatus, information processing method, and computer readable storage medium
US11470253B2 (en) Display device and program
US11190703B2 (en) Image-capturing apparatus, program, and electronic device that controls image sensor based on moving velocity
JP6060965B2 (ja) 画像処理装置と画像処理方法およびプログラム
US10275917B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
WO2016139898A1 (ja) ビデオ処理装置、ビデオ処理システムおよびビデオ処理方法
US11172185B2 (en) Information processing apparatus, information processing method, video processing system, and storage medium
JP2006005452A (ja) 画像合成装置及び画像合成システム
WO1998053606A1 (fr) Imageur et principe correspondant
JP5411806B2 (ja) 画像合成装置およびそのプログラム
JP2008147721A (ja) 画像合成装置、画像合成プログラム及び画像合成方法
JP6218220B2 (ja) 撮像画像処理装置および方法、撮像画像処理プログラム並びに撮像画像処理システム
JP2022043539A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2005196304A (ja) 画像処理方法、及び、画像合成装置
JP4741434B2 (ja) Cg合成装置およびcg合成プログラム
JPH10327350A (ja) 画像生成装置および画像生成方法
JP6361097B2 (ja) 動画処理装置、動画処理方法及びプログラム
JP2021179687A (ja) 情報処理装置、情報処理方法およびプログラム
JP5628992B2 (ja) カメラ、カメラの制御方法、表示制御装置、および表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131108

R150 Certificate of patent or registration of utility model

Ref document number: 5411806

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250