JP2004088474A - Video processing apparatus, video processing method, program and recording medium, and video processing system - Google Patents

Video processing apparatus, video processing method, program and recording medium, and video processing system Download PDF

Info

Publication number
JP2004088474A
JP2004088474A JP2002247437A JP2002247437A JP2004088474A JP 2004088474 A JP2004088474 A JP 2004088474A JP 2002247437 A JP2002247437 A JP 2002247437A JP 2002247437 A JP2002247437 A JP 2002247437A JP 2004088474 A JP2004088474 A JP 2004088474A
Authority
JP
Japan
Prior art keywords
image
video processing
protruding portion
video
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002247437A
Other languages
Japanese (ja)
Other versions
JP4211324B2 (en
Inventor
Tetsujiro Kondo
近藤 哲二郎
Yoshinori Watanabe
渡邊 義教
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002247437A priority Critical patent/JP4211324B2/en
Publication of JP2004088474A publication Critical patent/JP2004088474A/en
Application granted granted Critical
Publication of JP4211324B2 publication Critical patent/JP4211324B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video processing apparatus for composing, e.g., a video in which a viewer can recognize the wider space of a broadcasted video, and to provide a video processing method, a program and a recording medium, and a video processing system. <P>SOLUTION: The video processing apparatus 1 comprises an image acquiring section 2 to which television image signals are supplied; camera movement estimating section 3 which estimates the movement of a camera from an input image acquired by the section 2, and estimating a side drop to be estimated to stick out from an image frame; image storing memory 4 which stores the side drop; image composing section 5 which composes a plurality of protruding portions to create an image; image outputting section 6 which outputs the composite image obtained by composing the side drops; and control section 7 which controls the above sections. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、テレビジョン放映された映像等から画像を合成する映像処理装置、映像処理方法、プログラム及び記録媒体、並びに映像処理システムに関する。
【0002】
【従来の技術】
従来、同一シーンを空間的に分割して撮影することにより得られた複数のテレビジョン画像信号を連続した大画面画像信号に再構成する大画面画像合成処理装置が特開平10−32755号公報に開示されている。
【0003】
この公報に記載の技術においては、大画面画像を構成する各部分画像を連続的にパン、チルトしながら撮像するテレビジョンカメラと、このカメラの振り角度とこのカメラによる撮像画像の画角とを任意のビデオフィールド又はビデオフレーム毎に検出するカメラデータ検出部と、検出した振り角度及び画角に基づいて、任意のビデオフィールド又はビデオフレーム毎に撮像した複数の撮像画像を夫々透視変換する画像変換回路と、透視変換した複数の画像を透視変換で決定される所定のアドレスに記憶する大画面メモリとを少なくとも具えてなるものである。
【0004】
このように構成された上記公報に記載の技術によれば、大画面画像を生成する際、互いに接する画像同士で幾何学上のマッチングを取る必要がなく、カメラの検出角度及び撮像画像の画角のみから透視変換のパラメータを算出して画像の変換を行うのみで大画面画像を合成することができる。
【0005】
【発明が解決しようとする課題】
しかしながら、上記公報に記載の技術においては、カメラデータ検出部がカメラの雲台からパン、チルト情報を受信して、カメラの振り角度及び撮像画像の画角を検出する必要があり、パン、チルト情報が得られないような映像を合成することができない。このように、通常のテレビジョン放映された映像等においては、カメラの振り角度及び撮像画像の画角等の情報を得ることができない。従って、このような情報を使用せずに、通常の映像から視野角が広い大画面の映像が合成できれば、視聴者にとって新たな視聴環境が得られて便利である。
【0006】
本発明は、このような従来の実情に鑑みて提案されたものであり、例えば放送された映像の空間をより広げて認識することができる映像を合成することができる映像処理装置、映像処理方法、プログラム及び記録媒体、並びに映像処理システムを提供することを目的とする。
【0007】
【課題を解決するための手段】
上述した目的を達成するために、本発明に係る映像処理装置及び方法は、フレーム単位の画像からなる映像が供給され、現フレーム画像から、その時間的に後の後フレーム画像において画枠からはみ出すはみ出し部分を抽出し、抽出されたはみ出し部分を出力することを特徴とする。
【0008】
本発明においては、現フレームにおいて後フレームからはみ出すはみ出し部分を抽出し、通常は画枠からはみ出して表示されなくなってしまうはみ出し部分を出力することができ、このはみ出し部分を、通常の映像が表示される領域とは別の別領域に、通常の映像と同時に表示すれば、より広がりのある映像を視聴することができる。
【0009】
また、本発明に係るプログラムは、上述した映像処理をコンピュータに実行させるものであり、本発明に係る記録媒体は、そのようなプログラムが記録されたコンピュータ読み取り可能なものである。
【0010】
本発明に係る映像処理システムは、複数の表示装置と、フレーム単位の画像からなる映像が供給され、現フレーム画像から、その時間的に後の後フレーム画像において画枠からはみ出すはみ出し部分を抽出する抽出手段と、上記抽出手段により抽出されたはみ出し部分を出力する出力手段とを有する映像処理装置と具備し、上記表示装置は、上記映像を表示するメイン表示装置と、上記はみ出し部分を表示する1以上の周辺表示装置とを有することを特徴とする。
【0011】
本発明においては、通常は画枠からはみ出して表示されなくなるはみ出し部分を抽出し、このはみ出し部分と、通常の映像とを別々の表示装置に表示することができ、視聴者は通常の映像よりも広がりのある映像を複数台の表示装置を使用して視聴することができる。
【0012】
【発明の実施の形態】
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、カメラを動かして撮影された画像を元に、過去に放送され現在において放送されていない部分を再現し、複数台の表示装置を用いて表示することにより、広がりをもった映像の表示を行う映像処理装置に適用したものである。
【0013】
図1は、本発明の実施の形態に係る映像処理装置を示すブロック図である。本実施の形態の映像処理装置1は、図1に示すように、例えばテレビジョン画像信号が供給される画像取得部2と、画像取得部2により取得された入力画像からカメラの操作(動き)を検出し、画枠からはみ出すと推定されるはみ出し部分を推定するカメラ操作推定部3と、はみ出し部分を記憶する画像蓄積メモリ4と、複数のはみ出し部分を合成して画像を創造する画像合成部5と、はみ出し部分が合成されて得られた合成画像(創造画像)を出力する画像出力部6と、これらを制御する制御部7とから構成されている。
【0014】
テレビジョン放送されている映像では、空間の広がりを表現するため、カメラを動かして撮影されている。本実施の形態においては、このように、動きがある映像において、現在のフレームから、その時間的に連続する後フレームでは画枠からはみ出すと推定されるはみ出し部分を抽出して画像蓄積メモリ4に保存することで、過去に表示され現在の瞬間には表示されていない空間の画像を利用することができ、このはみ出し部分を現在放映中の映像と共に、例えばもう1台別に設けた表示装置等の他の領域に表示することにより、視聴者は通常の映像に比して、より広がりをもった映像として認識することができる。
【0015】
また、こうして取得しておいた画像を用いて、複数台設置した表示装置を用いて広がりのある画像を鑑賞したり、パノラマ画像を作成したりすることができるものである。
【0016】
そこで、カメラ操作推定部3は、供給される入力画像の動きベクトルを検出し、入力画像から、例えば、水平方向にパンされたカメラの動き、又は垂直方向にチルトされたカメラの動き、又はズーム・イン、ズーム・アウトされたカメラの動き等をその動きベクトルから推定する。カメラ操作の検出方法としては、例えば、勾配法やブロックマッチング等がある。ここで、カメラがほぼ静止状態であって、被写体のみが移動する場合においても動きベクトルは検出されるが、本実施の形態においては、画像内の動きベクトルの多くが同じ方向である場合、又は画像内の動きベクトルが放射状に分布している場合のみを検出することにより、被写体の動きとは区別して、カメラ操作がある場合のみを検出することができる。
【0017】
図2(a)乃至(d)は、カメラ操作があった場合の動きベクトルを示す模式図である。被写体のみが動いた場合ではなく、カメラ操作があった場合の映像は、例えば、図2(a)及び図2(b)に示すように、夫々水平方向及び垂直方向等の同様の方向に同様な大きさの動きベクトルが存在する場合、又は図2(c)及び図2(d)に示すように、カメラの焦点が夫々ズーム・イン及びズーム・アウトされて、放射状で且つ同様な大きさの動きベクトル(わき出し、吸い込み)が存在する場合等がある。具体的には、図2(a)及び図2(b)の場合は、例えば最頻値のベクトルの割合が所定の閾値以上であることを検出するか、又は最頻値のベクトルを有する画像が全画面に分布していること等を検出すればよい。また、図2(c)及び図2(d)の場合は、画像を所定サイズのブロック毎に分割し、検出した動きベクトルが、その位置に応じた向きを有するか否かを判定する等して検出することができる。
【0018】
本実施の形態においては、自然画像を例にとり、画面全体の動きを示す動きベクトルからカメラ操作を推定するものとして説明するが、自然画像に限定されるものではなく、アニメーション等の人工画像についても、仮想的なカメラを想定することで同様に適用可能である。
【0019】
図1に戻って、現フレームにおいてこれに時間的に連続する後フレームからはみ出すと推定したはみ出し部分が抽出され、この抽出されたはみ出し部分が画像蓄積メモリ4に随時記憶される。そして、画像合成部5は、画像蓄積メモリ4に蓄積されているはみ出し部分の画像を読み込み、合成して合成画像を生成し、画像出力部6を介して所定の表示装置(図示せず)に供給する。
【0020】
はみ出し部分の合成方法としては、現フレームにおいて、後フレームからはみ出すと推定されるはみ出し部分を保存し、これを合成する第1の方法と、検出した動きベクトルに応じて、はみ出し部分のズーム補償の処理を行った後、合成する第2の方法とがある。
【0021】
図3(a)及び(b)は、夫々ズーム補償を行わない第1の合成方法及びズーム補償を行う第2の合成方法を示す模式図である。図3(a)及び(b)には、右側にテレビジョン放映された実際の映像から得られる受信画像、左側にはみ出し部分を合成した合成画像を示し、受信画像において、時刻T=t−1と時刻T=tとにおけるフレーム画像から得られた動きベクトルVを有する画素P1を時刻T=t+1において、合成画像として表示する場合を示すものである。動きベクトルVは、水平成分V1と、垂直成分V2を有し、合成画像は、受信画像の画枠の左端からはみ出るはみ出し部分が合成され表示されるものとする。図3(a)に示すように、ズーム補償を行わない第1の方法においては、画素P1は、合成画像上に、水平成分V1だけ移動されて表示される。一方、図3(b)に示すように、ズーム補償を行う第2の方法においては、画素P1は、合成画像上においても、ベクトルV、即ち、水平成分V1及び垂直成分V2移動されて表示される。
【0022】
図4は、上記第1の方法により、はみ出し部分を合成しながら周辺に配置された表示装置に表示する操作を説明する模式図である。図4では、表示装置は、例えばテレビジョン放映された映像を表示する中央に配置されたメイン表示装置20bと、その左右に配置され合成画像を表示する周辺表示装置20a,20cとが用意されている例を示す。図4(a)に示すように、メイン表示装置20bに表示される時刻TにおけるTフレームにおいて、先ず全画面の動きベクトルVを検出し、この動きベクトルVからカメラの動きを推定する。
【0023】
カメラの動きがパン・チルトの場合には、画枠からはみ出すと推定されるはみ出し部分の画素を抽出して画像蓄積メモリ4に保存すると共に、周辺表示装置20a,20cに表示する。ここでは、メイン表示装置20bに表示されるTフレーム画像の動きベクトルの方向が水平方向左向きであり、メイン表示装置20bの画枠の左端からはみ出すと推定されるはみ出し画像を抽出し、左側に配置される周辺表示装置20aに表示した例を示す。時刻Tにおいて、左側に配置されている周辺表示装置20aには、(T−1)フレームにおいて抽出されたはみ出し部分21が表示されている。
【0024】
このように、左側にはみ出すと推定されるはみ出し画像を左側の周辺表示装置20aに、右側にはみ出すと推定されるはみ出し画像を右側の周辺表示装置20cに表示するようにすれば、メイン表示装置20bに表示される通常の映像と、周辺表示装置20a,20cに表示される合成画像とからなる映像がより自然な動きに見える。
【0025】
そして、図4(b)に示すように、時刻T+1におけるT+1フレームにおいて、Tフレームにて推定されたはみ出し部分22を左側の表示装置20aに表示するため、既に抽出されているはみ出し部分21と合成し、この合成画像を表示装置20aに表示する。そして、メイン表示装置20bにおいて、T+2フレームにおいてはみ出すと推定されるはみ出し部分23を抽出する。このような処理を繰り返すことによって、通常の映像が表示されるメイン表示装置20bの中央画面のみならず、周辺の表示装置20a,20bの左画面,右画面に画像を表示することができ、これら3台の表示装置により、広がりのある映像空間を表現することができる。
【0026】
図5(a)は、はみ出し部分が合成された合成画像を示す模式図であり、図5(b)は実際の映像を示す模式図である。図5(a)及び(b)に示すように、実際の映像と共に合成画像を表示することにより、より映像の空間的な広がりを認識しやすいものとなる。
【0027】
次に、上述した図3(b)に示すような、ズーム又は斜め方向の動きがあった場合に好適な、ズーム補償をする場合の第2の合成方法について説明する。パン、チルト等の場合は、カメラの動きのベクトルを垂直又は水平の一方向のみで処理することができるが、ズーム又は斜め方向の動きがある場合は、垂直及び水平の2方向の動きベクトルを検出する。そして、画素毎に適切な位置を推定して、画素を配置するものとする。このとき、画素が配置されない位置には周辺の画像からの補間処理を行い画素を創造する。また、複数の画素が合成画像上で同一の位置に配置された場合には平均処理を行う。
【0028】
図6(a)及び(b)は、夫々ズーム補償を行わない場合及びズーム処理を行う場合の結果を示す模式図である。本発明は、受信画像(映像)の情報のみから、はみ出し部を合成して周辺表示装置に表示する合成画像を生成する。ここでは、カメラをズーム・インしながら、即ち焦点を絞りながら且つカメラを右に動かしている場合(画面内のオブジェクトが左に移動する場合)の受信画像から合成画像を合成する場合について説明する。図6(a)及び(b)において、右側に示すのが、時刻T=t〜t+3における受信画像を示す模式図である。
【0029】
図6(a)に示すように、ズーム補償をしないと、合成されるはみ出し部分のズームの大きさが異なるため、合成結果において、同一の被写体にも拘わらずその大きさが異なってしまい、画像が不連続なものとなる。一方、図6(b)に示すように、各フレームにおいて異なるズームの大きさを有する受信画像からはみ出す部分を、最新のはみ出し部分と同一のズームの大きさになるように、合成画像のズーム補償をすることにより、合成画像が連続なものとなる。
【0030】
次に、上述の図6の場合におけるズーム補償の具体的な方法について説明する。図7(a)及び(b)は、夫々時刻T=t及び時刻T=t+1におけるはみ出し部分を合成した合成画像及び受信画像を示す模式図である。ここでは、周辺表示装置に表示される合成画像上で、同一水平ライン上にある画素P1及び画素P2を、メイン表示装置に表示される受信画像上で、画素P1,P2と同一水平ライン上にあり、且つ左端近傍の端部画素P3を使用してズーム補償する場合について説明する。
【0031】
先ず、図7(a)に示すように、受信画像のT=tの画像と、T=t−1の画像とを使用して、受信画像上の端部画素P3の動きベクトルVを求める。求められた動きベクトルVに基づいて、図7(b)に示すように、T=t+1の時刻の合成画像を合成する。即ち、合成画像上の画素P1,P2は、受信映像上で同一水平ライン上にある画素P3の動きベクトルの分だけ移動した位置にとなる。このようにして、合成画像上の画素P1と画素P2とを結ぶ線上の画素は、全て、時刻T=tとT=t−1とから算出した画素P3の動きベクトルVだけ移動した位置に配置する。また、画素P3は、時刻Tにおいて検出された動きベクトルVから、時刻T=t+1において、受信画像からはみ出すことが推定され、動きベクトルVに基づいて合成画像上に移動させる。
【0032】
このように、受信画像上で、ズーム補償するための動きベクトルを検出する画素は、画枠からはみ出すと推定されるはみ出し部分における画素とすることができる。例えば、受信画像において、ズームしながらカメラを垂直方向上向きに移動させる場合、即ち、被写体が拡大されながら画面上で下方に移動する場合に、受信画像を表示するメイン表示装置の上方に配置された周辺表示装置に合成画像を表示する場合、受信画像上の上端近傍の画素であって、同一垂直ライン上の画素とすることができる。
【0033】
また、動きベクトルを計算する端部画素は、例えば図6においては、受信画像の左端において垂直方向に並ぶ画素全てについて求めることが好ましいが、多少間引いて計算し、その結果を補間することができる。
【0034】
図8は、垂直ライン上の画素を間引きして動きベクトルを求める方法を示す模式図である。図8には、受信画像上の最左端の垂直ライン上に、距離Lを隔てて並ぶ4つの画素P0〜P4(図示せず)を示す。ここで、時間的に連続するフレームから画素P0及び画素P3の夫々動きベクトルV及びVを算出し、動きベクトルV及びVのみが既知の動きベクトルとしたとき、画素P1及び画素P2の夫々動きベクトルV及びVを求める式は、下記式(1)及び(2)のように示される。
【0035】
【数1】

Figure 2004088474
【0036】
【数2】
Figure 2004088474
【0037】
こうして、上記式(1),(2)を使用することにより、垂直ライン上の全ての画素の動きベクトルを求める必要がなくなり、処理が高速化する。
【0038】
次に、本実施の形態の映像処理方法について説明する。図9は、ズーム補償する場合の映像処理方法を示すフローチャートである。図9に示すように、先ず、供給される映像信号の各フレーム画像内の動きベクトルを計算する。具体的には、T=t−1からT=tにおける動きベクトルVを算出する(ステップS1)。そして、算出した動きベクトルの方向及び大きさから、画面内で同様の動きであるか否かを判断し(ステップS2)、更に同様の動きでない場合は、放射状となっているか否か判断する(ステップS3)。
【0039】
ステップS2で同様の動きベクトルが検出された場合、及びステップS3で放射状の動きが検出された場合は、次の処理に進む。即ち、得られた動きベクトルから次のフレームではみ出すはみ出し部分を推定する(ステップS4)。そして、推定したはみ出し部分、例えば画枠の左端からはみ出すと推定される各画素を抽出すると共に画像蓄積メモリ4に保存する(ステップS5)。
【0040】
次に、画像蓄積メモリ4から過去に記憶されたはみ出し部分を読み込み(ステップS6)、新しく抽出したはみ出し部分を動きベクトルVを外挿した位置に書き込む(ステップS7)。更に、過去の合成結果を動きベクトルVを外挿した位置に書き込む(ステップS8)。そして、画素の不足及び重複部分があるか否かを検出し(ステップS9)、不足画素又は重複画素がある場合は補償処理を行い(ステップS10)、合成した画像を出力して(ステップS11)、処理を終了する。
【0041】
ここで、ステップS1において、動きベクトルが同様の動きをしているか否かは、最頻値のベクトルの割合が閾値以上の場合、最頻値のベクトルをもつ画素が全画面に分布している場合、又は画像をブロック分割し、ブロック毎に最頻のベクトルを求め、それが全てのブロックで同じ場合等を検出することにより判定することができる。
【0042】
また、ステップS3において、動きベクトルが沸き出しているか否かの判定は、画像をブロックに分割し、その位置に応じた向をベクトルがもっているか等により判定することができる。
【0043】
更に、ステップS9において、補償処理は、同じ位置に複数の画素が配置された場合、即ち重複画素となった場合と、1画素も配置されない位置がある場合に行う。複数の画素が配置された場合には、これらを平均したものをその位置の新しい画素値とする。1画素も配置されない場合には、周辺の画素から補間する。
【0044】
また、本実施の形態においては、ズーム補償しない場合及びズーム補償する場合においても、動きベクトルからはみ出し部分推定するものとして説明したが、現フレームより時間的に前の前フレーム画像を保存し、現フレーム画像との差分からはみ出し部分を抽出するようにしてもよい。
【0045】
次に、このような映像処理装置により合成され創造された合成画像を表示するための映像処理システムについて説明する。本実施の形態の映像処理システムは、映像信号が供給され合成画像を合成する上述の図1に示す映像処理装置と、通常の映像又は創造された画像を表示する複数台の表示装置とから構成される。ここで、映像処理装置は、各表示装置毎に用意しても、1台の画像処理装置から創造した画像又は通常の映像を、各表示装置に供給するものとしてもよい。
【0046】
以下、各表示装置毎に映像処理装置を設ける場合を分散型と称し、1台の映像処理装置により複数の表示装置に映像を供給する場合を統合型と称して説明する。図10及び図11は、本発明の実施の形態に係る分散型映像処理システムを示す夫々模式図及びブロック図である。また、図12及び図13は、総合型映像処理システムを示す夫々模式図及びブロック図である。
【0047】
図10及び図11に示すように、分散型の映像処理システム100は、各表示装置20a〜20cに一つずつ、入力映像から合成画像を合成する映像処理装置10a〜10cが接続されたものである。この分散型の場合には、各映像処理装置10a〜10cが独立に配置される。そのため、映像処理装置10a〜10cには、設定時に手動又は各映像処理装置10a〜10c間で通信する等して自動で、その相対的な位置を検出して記憶する位置記憶部30a〜30cを各映像処理部11a〜11cの前段に設けるものとする。そして、この結果を使用して、各映像処理装置10a〜10cの映像処理部11a〜11cがどのような画像を作成するかを決定することができる。ここで、映像処理部11a〜11cは、上述の図1に示す映像処理装置1と同様の構成を有し、現フレームにおいて、これに時間的に連続する後フレームにおいてはみ出すと推定されるはみ出し部分を抽出し、このはみ出し部分を合成して合成画像を生成するものである。
【0048】
このような映像処理システム100においては、例えば、合成画像を表示する周辺表示装置を2台用意し、通常の映像を表示するメイン表示装置20bの左右両側に配置する場合、左右の周辺表示装置20a,20cにて、夫々左端及び右端からはみ出すはみ出し部分から合成されて創造される合成画像を表示するよう設定することができる。
【0049】
また、図12及び図13に示すように、統合型の映像処理システム200は、映像信号から複数の合成画像を合成する映像処理部11と、表示装置20a〜20cと、映像処理部11と各表示装置20a〜20cに対応して設けられた出力ポート50a〜50cとから構成される。映像処理部11は、上述の図1に示す映像処理装置1と同様に、現フレームにおいて、これに時間的に連続する後フレームでは画枠からはみ出すと推定されるはみ出し部分を抽出し、このはみ出し部分を合成して合成画像を生成するものであり、映像の動きベクトルの違い等により、複数の合成画像を生成し、この結果を各表示装置20a〜20cに表示するよう出力ポート50a〜50cに出力する。統合型の場合には、出力のポート50a〜50cをどの表示装置20a〜20cに接続するかによって、各表示装置20a〜20cで適切な表示を行うことができる。
【0050】
このような本実施の形態においては、映像処理装置が放送された映像から、動きベクトルを検出し、カメラの操作を推定することにより、前フレームにおいて、これに時間的に連続する後フレームでは画枠からはみ出すと推定されるはみ出し部分を抽出し、このはみ出し部分を合成した合成画像を生成し、本来の映像とは別に本来の映像の周辺の画像を創造して複数の表示装置にて表示することにより、画像による表現可能な空間をより広げて認識することができる。
【0051】
また、図10及び図12に示す例では、周辺表示装置20a,20cは、メイン表示装置20bの左右に配置された2台としたが、上下方向等にも表示装置を配置すれば、更に広がりのある映像を視聴することができる。
【0052】
また、上述の実施の形態では、ハードウェアの構成として説明したが、これに限定されるものではなく、任意の処理を、制御部にコンピュータプログラムを実行させることにより実現することも可能である。この場合、コンピュータプログラムは、記録媒体に記録して提供することも可能であり、また、インターネットその他の伝送媒体を介して伝送することにより提供することも可能である。
【0053】
【発明の効果】
以上詳細に説明したように、本発明に係る映像処理装置及び方法は、フレーム単位の画像からなる映像における現フレーム画像においてその時間的に後の後フレーム画像の画枠からはみ出すはみ出し部分を該現フレーム画像から抽出し、抽出されたはみ出し部分を出力するため、現フレームより後の後フレームでは画枠からはみ出すはみ出し部分、即ち通常は画枠からはみ出して表示されなくなってしまうはみ出し部分を現フレームから抽出することで、カメラを動かして撮影された画像を元に、過去に放送され、現在において放送されていない部分を再現することができ、これを映像が表示される領域とは別領域に、通常の映像と共に表示すれば、より広がりのある映像を視聴することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態に係る映像処理装置を示すブロック図である。
【図2】(a)乃至(d)は、カメラ操作があった場合の動きベクトルを示す模式図である。
【図3】(a)及び(b)は、夫々ズーム補償を行わない第1の合成方法及びズーム補償を行う第2の合成方法を示す模式図である。
【図4】はみ出し部分を周辺に配置された表示装置に表示する操作を説明する模式図である。
【図5】(a)は、合成画像を示す模式図であり、(b)実際の映像を示す模式図である。
【図6】(a)及び(b)は、夫々ズーム補償を行う場合及び行わない場合の結果を示す模式図である。
【図7】(a)及び(b)は、夫々時刻T=t及び時刻T=t+1における合成画像及び受信画像を示す模式図である。
【図8】垂直ライン上の画素を間引きして動きベクトルを求める方法を示す模式図である。
【図9】本発明の実施の形態における映像処理方法を示すフローチャートである。
【図10】本発明の実施の形態に係る分散型映像処理システムを示す模式図である。
【図11】本発明の実施の形態に係る分散型映像処理システムを示すブロック図である。
【図12】本発明の実施の形態に係る総合型映像処理システムを示す模式図である。
【図13】本発明の実施の形態に係る総合型映像処理システムを示すブロック図である。
【符号の説明】
1,10a,10b,10c 映像処理装置、2 画像取得部、3 カメラ動き推定部、4 画像蓄積メモリ、5 画像合成部、6 画像出力部、7 制御部、20a,20b,20c 表示装置、11,11a,11b,11c 映像処理部、100,200 映像処理システム、30a,30b,30c 位置記憶部、50A,50B,50C 出力ポート、100,200 映像処理システム[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a video processing device, a video processing method, a program and a recording medium, and a video processing system for synthesizing an image from a television broadcast video or the like.
[0002]
[Prior art]
Conventionally, a large-screen image synthesizing apparatus for reconstructing a plurality of television image signals obtained by spatially dividing and photographing the same scene into a continuous large-screen image signal is disclosed in JP-A-10-32755. It has been disclosed.
[0003]
In the technology described in this publication, a television camera that continuously captures images while panning and tilting each partial image forming a large-screen image, a swing angle of the camera, and an angle of view of an image captured by the camera are defined. A camera data detection unit that detects each video field or video frame, and an image conversion that perspective-transforms a plurality of captured images captured for each video field or video frame based on the detected swing angle and angle of view. It comprises at least a circuit and a large screen memory for storing a plurality of perspective-transformed images at predetermined addresses determined by the perspective transformation.
[0004]
According to the technology described in the above publication configured as described above, when generating a large-screen image, it is not necessary to take geometrical matching between images that are in contact with each other, and the detection angle of the camera and the angle of view of the captured image are eliminated. A large screen image can be synthesized only by calculating the parameters of the perspective transformation from only the image transformation.
[0005]
[Problems to be solved by the invention]
However, in the technology described in the above publication, it is necessary that the camera data detection unit receives pan and tilt information from the camera platform and detects the camera swing angle and the angle of view of the captured image. It is not possible to compose a video for which information cannot be obtained. As described above, it is not possible to obtain information such as the camera swing angle and the angle of view of a captured image in a normal television broadcast image or the like. Therefore, if a large-screen image having a wide viewing angle can be synthesized from a normal image without using such information, a new viewing environment is obtained for the viewer, which is convenient.
[0006]
The present invention has been proposed in view of such a conventional situation, and for example, a video processing apparatus and a video processing method capable of synthesizing a video that can be recognized by expanding the space of a broadcast video. , A program and a recording medium, and a video processing system.
[0007]
[Means for Solving the Problems]
In order to achieve the above-described object, a video processing apparatus and method according to the present invention are provided with a video composed of images in frame units, and protrude from a current frame image in an image frame in a later frame image temporally later than the current frame image. A protruding portion is extracted, and the extracted protruding portion is output.
[0008]
In the present invention, it is possible to extract a portion of the current frame that protrudes from the subsequent frame, and output a protruding portion that normally protrudes from the image frame and is not displayed. If an image is displayed simultaneously with a normal image in another area different from the area to be displayed, a wider image can be viewed.
[0009]
In addition, a program according to the present invention causes a computer to execute the above-described video processing, and a recording medium according to the present invention stores such a program and is readable by a computer.
[0010]
An image processing system according to the present invention is provided with a plurality of display devices and an image composed of images in units of frames, and extracts, from a current frame image, a protruding portion that protrudes from an image frame in a later frame image temporally later than the current frame image. A video processing device having an extracting unit and an output unit for outputting the protruding portion extracted by the extracting unit, wherein the display device includes a main display device for displaying the video, and a display device for displaying the protruding portion. It is characterized by having the above peripheral display device.
[0011]
In the present invention, the protruding portion which normally protrudes from the image frame and is no longer displayed is extracted, and the protruding portion and the normal video can be displayed on separate display devices, so that the viewer can view the video more than the normal video. Spread images can be viewed using a plurality of display devices.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. This embodiment, the present invention, based on the image taken by moving the camera, by reproducing the part that is broadcasted in the past and not currently broadcast, by using a plurality of display devices to display, The present invention is applied to a video processing device for displaying a video having a wide range.
[0013]
FIG. 1 is a block diagram showing a video processing device according to an embodiment of the present invention. As shown in FIG. 1, a video processing device 1 according to the present embodiment operates, for example, an image acquisition unit 2 to which a television image signal is supplied and a camera operation (movement) from an input image acquired by the image acquisition unit 2. , And a camera operation estimating unit 3 for estimating a protruding portion which is estimated to protrude from the image frame, an image storage memory 4 for storing the protruding portion, and an image synthesizing unit for synthesizing a plurality of protruding portions to create an image. 5, an image output unit 6 for outputting a synthesized image (creative image) obtained by synthesizing the protruding portions, and a control unit 7 for controlling these.
[0014]
In a video broadcast on television, a camera is moved to shoot a space in order to express the extent of the space. In the present embodiment, as described above, in a moving image, a protruding portion which is estimated to protrude from the image frame in a temporally continuous subsequent frame is extracted from the current frame and stored in the image storage memory 4. By saving, it is possible to use an image of a space that was displayed in the past and is not displayed at the present moment, and this protruding portion is used together with the currently being broadcasted image, for example, another display device provided separately. By displaying the image in another area, the viewer can perceive the image as a wider image than a normal image.
[0015]
In addition, using the images acquired in this way, it is possible to view a wide image or create a panoramic image using a plurality of display devices.
[0016]
Therefore, the camera operation estimating unit 3 detects a motion vector of the supplied input image, and from the input image, for example, a motion of a camera panned horizontally, a motion of a camera tilted vertically, or a zoom. Estimate the movement of the camera that has been zoomed in and out, from its motion vector. As a method of detecting a camera operation, for example, there is a gradient method, block matching, or the like. Here, the motion vector is detected even when the camera is almost stationary and only the subject moves, but in the present embodiment, when many of the motion vectors in the image are in the same direction, or By detecting only the case where the motion vectors in the image are radially distributed, it is possible to detect only the case where there is a camera operation, separately from the motion of the subject.
[0017]
FIGS. 2A to 2D are schematic diagrams showing motion vectors when a camera operation is performed. For example, as shown in FIGS. 2 (a) and 2 (b), the image when the camera operation is performed, not when only the subject moves, is similar in the same direction such as the horizontal direction and the vertical direction, respectively. 2 (c) and 2 (d), the focal point of the camera is zoomed in and zoomed out, respectively, to obtain a radial and similar size motion vector. May exist, for example. Specifically, in the case of FIGS. 2A and 2B, for example, it is detected that the ratio of the mode vector is equal to or greater than a predetermined threshold value, or an image having the mode vector is detected. Is distributed over the entire screen. In the case of FIG. 2C and FIG. 2D, the image is divided into blocks of a predetermined size, and it is determined whether or not the detected motion vector has a direction corresponding to the position. Can be detected.
[0018]
In the present embodiment, a natural image is taken as an example and the camera operation is estimated from a motion vector indicating the motion of the entire screen. However, the present invention is not limited to a natural image, and an artificial image such as an animation may be used. However, the present invention can be similarly applied by assuming a virtual camera.
[0019]
Returning to FIG. 1, a protruding portion which is estimated to protrude from a subsequent frame temporally continuous with the current frame is extracted, and the extracted protruding portion is stored in the image storage memory 4 as needed. Then, the image synthesizing unit 5 reads the image of the protruding portion stored in the image storage memory 4, generates a synthesized image by synthesizing the image, and sends it to a predetermined display device (not shown) via the image output unit 6. Supply.
[0020]
As a method for synthesizing the protruding portion, in the current frame, a protruding portion which is estimated to protrude from the subsequent frame is stored, and a first method of synthesizing the protruding portion and zoom compensation of the protruding portion in accordance with the detected motion vector are used. After processing, there is a second method of combining.
[0021]
FIGS. 3A and 3B are schematic diagrams showing a first combining method without performing zoom compensation and a second combining method with performing zoom compensation, respectively. FIGS. 3A and 3B show a received image obtained from an actual video broadcasted on a television on the right side, and a composite image obtained by combining a protruding portion on the left side. In the received image, time T = t−1. This shows a case where a pixel P1 having a motion vector V obtained from a frame image at time T = t is displayed as a composite image at time T = t + 1. The motion vector V has a horizontal component V1 and a vertical component V2, and the synthesized image is displayed by synthesizing a portion protruding from the left end of the image frame of the received image. As shown in FIG. 3A, in the first method that does not perform zoom compensation, the pixel P1 is displayed by being shifted by the horizontal component V1 on the composite image. On the other hand, as shown in FIG. 3B, in the second method of performing the zoom compensation, the pixel P1 is displayed by moving the vector V, that is, the horizontal component V1 and the vertical component V2, even on the composite image. You.
[0022]
FIG. 4 is a schematic diagram illustrating an operation of combining the protruding portions and displaying the protruding portions on a display device arranged in the periphery by the first method. In FIG. 4, for example, the display device is provided with a main display device 20b disposed at the center for displaying a television broadcast image, and peripheral display devices 20a and 20c disposed on the left and right thereof to display a composite image. Here is an example. As shown in FIG. 4A, in a T frame at time T displayed on the main display device 20b, first, a motion vector V of the entire screen is detected, and the motion of the camera is estimated from the motion vector V.
[0023]
When the movement of the camera is pan / tilt, the pixels of the protruding portion which is presumed to protrude from the image frame are extracted and stored in the image storage memory 4 and displayed on the peripheral display devices 20a and 20c. Here, the direction of the motion vector of the T frame image displayed on the main display device 20b is horizontal leftward, and the protruding image which is estimated to protrude from the left end of the image frame of the main display device 20b is extracted and arranged on the left side. An example of the display on the displayed peripheral display device 20a is shown. At time T, the protruding portion 21 extracted in the (T-1) frame is displayed on the peripheral display device 20a disposed on the left side.
[0024]
In this way, if the protruding image estimated to protrude to the left is displayed on the left peripheral display device 20a and the protruding image estimated to protrude to the right is displayed on the right peripheral display device 20c, the main display device 20b , And a composite image displayed on the peripheral display devices 20a and 20c looks more natural.
[0025]
Then, as shown in FIG. 4B, in the T + 1 frame at the time T + 1, the protruding portion 22 estimated in the T frame is displayed on the left display device 20a, so that it is combined with the already extracted protruding portion 21. Then, the composite image is displayed on the display device 20a. Then, in the main display device 20b, the protruding portion 23 which is presumed to protrude in the T + 2 frame is extracted. By repeating such processing, an image can be displayed not only on the central screen of the main display device 20b where a normal image is displayed, but also on the left screen and the right screen of the peripheral display devices 20a and 20b. With the three display devices, a wide image space can be expressed.
[0026]
FIG. 5A is a schematic diagram illustrating a synthesized image in which the protruding portion is synthesized, and FIG. 5B is a schematic diagram illustrating an actual video. As shown in FIGS. 5A and 5B, displaying the synthesized image together with the actual video makes it easier to recognize the spatial spread of the video.
[0027]
Next, a description will be given of a second combination method for performing zoom compensation, which is preferable when there is a zoom or diagonal movement as shown in FIG. In the case of pan, tilt, etc., the motion vector of the camera can be processed in only one direction, vertical or horizontal. However, when there is zoom or diagonal motion, the motion vector in two directions, vertical and horizontal, is calculated. To detect. Then, an appropriate position is estimated for each pixel, and the pixels are arranged. At this time, a pixel is created by performing an interpolation process from a peripheral image at a position where the pixel is not arranged. When a plurality of pixels are arranged at the same position on the composite image, an averaging process is performed.
[0028]
FIGS. 6A and 6B are schematic diagrams showing the results when zoom compensation is not performed and when zoom processing is performed, respectively. According to the present invention, a composite image to be displayed on a peripheral display device by synthesizing a protruding portion only from information of a received image (video) is generated. Here, a case will be described in which a synthesized image is synthesized from a received image in a case where the camera is zoomed in, that is, the camera is moved to the right while the focus is narrowed (the object in the screen is moved to the left). . 6A and 6B, the right side is a schematic diagram showing a received image at time T = t to t + 3.
[0029]
As shown in FIG. 6A, if zoom compensation is not performed, the size of the zoom of the protruding portion to be combined differs, so that the combination results in different sizes regardless of the same subject. Becomes discontinuous. On the other hand, as shown in FIG. 6B, the zoom compensation of the composite image is performed such that a portion protruding from a received image having a different zoom size in each frame has the same zoom size as the latest protruding portion. , The composite image becomes continuous.
[0030]
Next, a specific method of zoom compensation in the case of FIG. 6 described above will be described. FIGS. 7A and 7B are schematic diagrams showing a combined image and a received image obtained by combining the protruding portions at time T = t and time T = t + 1, respectively. Here, the pixels P1 and P2 on the same horizontal line on the composite image displayed on the peripheral display device are placed on the same horizontal line as the pixels P1 and P2 on the received image displayed on the main display device. A case will be described in which zoom compensation is performed using the end pixel P3 near the left end.
[0031]
First, as shown in FIG. 7A, the motion vector V of the end pixel P3 on the received image is obtained using the received image at T = t and the image at T = t−1. Based on the obtained motion vector V, as shown in FIG. 7B, a combined image at the time T = t + 1 is combined. That is, the pixels P1 and P2 on the composite image are located at positions shifted by the motion vector of the pixel P3 on the same horizontal line on the received video. In this way, all the pixels on the line connecting the pixel P1 and the pixel P2 on the composite image are arranged at positions shifted by the motion vector V of the pixel P3 calculated from the times T = t and T = t-1. I do. Further, the pixel P3 is estimated to protrude from the received image at the time T = t + 1 from the motion vector V detected at the time T, and is moved to the composite image based on the motion vector V.
[0032]
In this manner, on the received image, a pixel for detecting a motion vector for zoom compensation can be a pixel in a protruding portion estimated to protrude from the image frame. For example, when the camera moves vertically upward while zooming in the received image, that is, when the subject moves downward on the screen while being enlarged, the camera is arranged above the main display device that displays the received image. When a composite image is displayed on the peripheral display device, it can be a pixel near the upper end on the received image and on the same vertical line.
[0033]
In addition, for example, in FIG. 6, it is preferable to obtain the end pixels for calculating the motion vector with respect to all the pixels arranged in the vertical direction at the left end of the received image. .
[0034]
FIG. 8 is a schematic diagram showing a method of obtaining a motion vector by thinning out pixels on a vertical line. FIG. 8 shows four pixels P0 to P4 (not shown) arranged at a distance L on the leftmost vertical line on the received image. Here, the motion vectors V of the pixels P0 and P3 from the temporally continuous frames 0 And V 3 Is calculated and the motion vector V 0 And V 3 When only the known motion vectors are used, the motion vectors V of the pixels P1 and P2 are 1 And V 2 Is obtained as in the following equations (1) and (2).
[0035]
(Equation 1)
Figure 2004088474
[0036]
(Equation 2)
Figure 2004088474
[0037]
Thus, by using the above equations (1) and (2), it is not necessary to obtain the motion vectors of all the pixels on the vertical line, and the processing speeds up.
[0038]
Next, a video processing method according to the present embodiment will be described. FIG. 9 is a flowchart illustrating a video processing method when zoom compensation is performed. As shown in FIG. 9, first, a motion vector in each frame image of the supplied video signal is calculated. Specifically, a motion vector V at T = t from T = t-1 is calculated (step S1). Then, based on the calculated direction and magnitude of the motion vector, it is determined whether or not the motion is the same in the screen (step S2). If the motion is not the same, it is determined whether or not the motion is radial (step S2). Step S3).
[0039]
When a similar motion vector is detected in step S2, and when a radial motion is detected in step S3, the process proceeds to the next process. That is, the protruding portion that protrudes in the next frame is estimated from the obtained motion vector (step S4). Then, the estimated protruding portion, for example, each pixel presumed to protrude from the left end of the image frame is extracted and stored in the image storage memory 4 (step S5).
[0040]
Next, the protruding portion stored in the past is read from the image storage memory 4 (step S6), and the newly extracted protruding portion is written at the position where the motion vector V is extrapolated (step S7). Further, the past synthesis result is written at the position where the motion vector V is extrapolated (step S8). Then, it is detected whether or not there is a missing or overlapping portion of pixels (step S9). If there is a missing or overlapping pixel, compensation processing is performed (step S10), and a combined image is output (step S11). , And the process ends.
[0041]
Here, in step S1, whether or not the motion vectors are moving in the same manner is determined if the ratio of the mode vector is equal to or larger than the threshold, and the pixels having the mode vector are distributed over the entire screen. In this case, the determination can be made by dividing the image into blocks, obtaining the most frequent vector for each block, and detecting a case where the vector is the same for all the blocks.
[0042]
In step S3, the determination as to whether or not the motion vector is boiling can be made by dividing the image into blocks and determining whether the vector has a direction corresponding to the position.
[0043]
Further, in step S9, the compensation processing is performed when a plurality of pixels are arranged at the same position, that is, when there are overlapping pixels and when there is a position where no pixel is arranged. When a plurality of pixels are arranged, an average of these is used as a new pixel value at that position. If no pixel is arranged, interpolation is performed from surrounding pixels.
[0044]
Further, in the present embodiment, the description has been made assuming that a portion protruding from a motion vector is estimated in a case where zoom compensation is not performed and in a case where zoom compensation is performed. The protruding portion may be extracted from the difference from the frame image.
[0045]
Next, a video processing system for displaying a composite image created and synthesized by such a video processing device will be described. The video processing system according to the present embodiment includes the video processing device shown in FIG. 1 that supplies a video signal and synthesizes a composite image, and a plurality of display devices that display a normal video or a created image. Is done. Here, the video processing device may be prepared for each display device, or may supply an image created from one image processing device or a normal video to each display device.
[0046]
Hereinafter, a case in which a video processing device is provided for each display device will be referred to as a distributed type, and a case in which one video processing device supplies video to a plurality of display devices will be referred to as an integrated type. FIGS. 10 and 11 are a schematic diagram and a block diagram, respectively, showing a distributed video processing system according to an embodiment of the present invention. FIGS. 12 and 13 are a schematic diagram and a block diagram, respectively, showing the integrated video processing system.
[0047]
As shown in FIGS. 10 and 11, a distributed video processing system 100 is configured such that video processing devices 10 a to 10 c that combine a composite image from an input video are connected to each of the display devices 20 a to 20 c. is there. In the case of the distributed type, the video processing devices 10a to 10c are independently arranged. Therefore, the image processing apparatuses 10a to 10c are provided with position storage units 30a to 30c that detect and store their relative positions manually at the time of setting or automatically by communicating between the image processing apparatuses 10a to 10c. It is provided before each of the video processing units 11a to 11c. Using this result, it is possible to determine what kind of image the video processing units 11a to 11c of each of the video processing devices 10a to 10c create. Here, the video processing units 11a to 11c have the same configuration as that of the video processing device 1 shown in FIG. Is extracted, and the protruding portions are combined to generate a combined image.
[0048]
In such a video processing system 100, for example, when two peripheral display devices for displaying a composite image are prepared and arranged on both left and right sides of a main display device 20b for displaying a normal video, the left and right peripheral display devices 20a , 20c can be set so as to display a composite image created by being composited from portions protruding from the left end and the right end, respectively.
[0049]
As shown in FIGS. 12 and 13, the integrated video processing system 200 includes a video processing unit 11 that synthesizes a plurality of composite images from a video signal, display devices 20a to 20c, and a video processing unit 11. It comprises output ports 50a to 50c provided corresponding to the display devices 20a to 20c. The video processing unit 11 extracts, as in the video processing apparatus 1 shown in FIG. 1 described above, a protruding portion of the current frame which is estimated to protrude from the image frame in a subsequent frame temporally continuous with the current frame. A composite image is generated by synthesizing portions, and a plurality of composite images are generated due to a difference in a motion vector of a video and the like, and the results are output to output ports 50a to 50c so as to be displayed on each of display devices 20a to 20c. Output. In the case of the integrated type, an appropriate display can be performed on each of the display devices 20a to 20c depending on which display device 20a to 20c the output port 50a to 50c is connected to.
[0050]
In this embodiment, the video processing apparatus detects a motion vector from the broadcast video and estimates the operation of the camera, so that the image is processed in the previous frame and in the subsequent frame temporally continuous with the previous frame. The protruding portion that is presumed to protrude from the frame is extracted, a combined image is generated by combining the protruding portion, and an image around the original video is created separately from the original video and displayed on a plurality of display devices. Thereby, the space that can be represented by the image can be expanded and recognized.
[0051]
In addition, in the examples shown in FIGS. 10 and 12, the peripheral display devices 20a and 20c are two arranged on the left and right sides of the main display device 20b. You can watch the video with the presence.
[0052]
Further, in the above-described embodiment, the hardware configuration has been described. However, the present invention is not limited to this. Any process can be realized by causing the control unit to execute a computer program. In this case, the computer program can be provided by being recorded on a recording medium, or can be provided by being transmitted via the Internet or another transmission medium.
[0053]
【The invention's effect】
As described in detail above, the video processing apparatus and method according to the present invention can be used to display a portion of a current frame image in a video composed of images in frame units which protrudes from the image frame of a later frame image in time. To extract the extracted part from the frame image and output the extracted part, the part that protrudes from the image frame in the frame after the current frame, that is, the part that normally protrudes from the image frame and is not displayed, is extracted from the current frame. By extracting, based on the image taken by moving the camera, it is possible to reproduce the part that was broadcasted in the past and not currently broadcasted, and this was in a different area from the area where the video is displayed, If displayed together with a normal image, a wider image can be viewed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a video processing device according to an embodiment of the present invention.
FIGS. 2A to 2D are schematic diagrams illustrating motion vectors when a camera operation is performed.
FIGS. 3A and 3B are schematic diagrams showing a first combining method without performing zoom compensation and a second combining method with performing zoom compensation, respectively.
FIG. 4 is a schematic diagram for explaining an operation of displaying a protruding portion on a display device arranged in the periphery.
FIG. 5A is a schematic diagram illustrating a composite image, and FIG. 5B is a schematic diagram illustrating an actual video.
FIGS. 6A and 6B are schematic diagrams illustrating results when zoom compensation is performed and when zoom compensation is not performed, respectively.
FIGS. 7A and 7B are schematic diagrams showing a composite image and a received image at time T = t and time T = t + 1, respectively.
FIG. 8 is a schematic diagram showing a method of obtaining a motion vector by thinning out pixels on a vertical line.
FIG. 9 is a flowchart illustrating a video processing method according to an embodiment of the present invention.
FIG. 10 is a schematic diagram showing a distributed video processing system according to an embodiment of the present invention.
FIG. 11 is a block diagram showing a distributed video processing system according to an embodiment of the present invention.
FIG. 12 is a schematic diagram showing an integrated video processing system according to an embodiment of the present invention.
FIG. 13 is a block diagram illustrating an integrated video processing system according to an embodiment of the present invention.
[Explanation of symbols]
1, 10a, 10b, 10c Video processing device, 2 image acquisition unit, 3 camera motion estimation unit, 4 image storage memory, 5 image synthesis unit, 6 image output unit, 7 control unit, 20a, 20b, 20c display device, 11 , 11a, 11b, 11c video processing unit, 100, 200 video processing system, 30a, 30b, 30c position storage unit, 50A, 50B, 50C output port, 100, 200 video processing system

Claims (15)

フレーム単位の画像からなる映像が供給され、現フレーム画像から、その時間的に後の後フレーム画像において画枠からはみ出すはみ出し部分を抽出する抽出手段と、
上記抽出手段により抽出されたはみ出し部分を出力する出力手段と
を有することを特徴とする映像処理装置。
Extraction means for supplying a video composed of images in frame units and extracting, from the current frame image, a protruding portion that protrudes from the image frame in a temporally later frame image,
Output means for outputting the protruding portion extracted by the extraction means.
上記はみ出し画像を表示する表示手段を備え、
該表示手段は、上記映像が表示される領域とは異なる別領域を有する
ことを特徴とする請求項1記載の映像処理装置。
A display unit for displaying the protruding image,
2. The image processing apparatus according to claim 1, wherein the display unit has another area different from an area where the image is displayed.
上記抽出手段は、上記映像からカメラの動きを検出し、該カメラの動きから上記はみ出し部分を推定する動き検出手段と、上記動き検出手段により推定された上記はみ出し部分を抽出して記憶する記憶手段とを有し、
上記出力手段は、上記記憶手段に記憶された上記はみ出し部分を出力する
ことを特徴とする請求項1記載の映像処理装置。
The extracting means detects a movement of a camera from the video, and estimates the protruding portion from the motion of the camera. A storage means for extracting and storing the protruding portion estimated by the motion detecting means. And having
2. The video processing apparatus according to claim 1, wherein the output unit outputs the protruding portion stored in the storage unit.
複数の上記はみ出し部分を合成する画像合成手段を備え、
上記出力手段は、上記画像合成手段によって生成された合成画像を出力する
ことを特徴とする請求項1載の映像処理装置。
An image synthesizing unit that synthesizes a plurality of the protruding portions,
2. The video processing apparatus according to claim 1, wherein said output means outputs a composite image generated by said image composition means.
上記画像合成手段は、フレーム画像が入力される毎に上記はみ出し部分と過去に合成された合成画像とを合成し、
上記出力手段は、フレーム画像が入力される毎に上記合成画像を出力する
ことを特徴とする請求項4記載の映像処理装置。
The image synthesizing unit synthesizes the protruding portion and a past synthesized image each time a frame image is input,
5. The video processing apparatus according to claim 4, wherein the output unit outputs the composite image every time a frame image is input.
上記動き検出手段は、前後のフレーム画像から動きベクトルを検出し、
上記画像合成手段は、過去の合成結果及び上記はみ出し部分を上記動きベクトルにより補償した後合成する
ことを特徴とする請求項4記載の映像処理装置。
The motion detecting means detects a motion vector from the preceding and following frame images,
5. The video processing apparatus according to claim 4, wherein said image synthesizing means synthesizes after compensating a past synthesis result and the protruding portion with the motion vector.
フレーム単位の画像からなる映像が供給され、現フレーム画像から、その時間的に後の後フレーム画像において画枠からはみ出すはみ出し部分を抽出する抽出工程と、
上記抽出手段により抽出されたはみ出し部分を出力する出力工程と
を有することを特徴とする映像処理方法。
An image consisting of images in frame units is supplied, and an extraction step of extracting, from the current frame image, a portion that protrudes from the image frame in a later frame image in time,
Outputting the protruding portion extracted by the extracting means.
上記出力工程にて出力された上記はみ出し部分を、上記映像が表示される領域とは異なる別領域を有する表示手段に表示する表示工程を有する
ことを特徴とする請求項7記載の映像処理方法。
8. The video processing method according to claim 7, further comprising a display step of displaying the protruding portion output in the output step on a display unit having another area different from an area where the video is displayed.
上記抽出工程は、上記映像からカメラの動きを検出し、該カメラの動きから上記はみ出し部分を推定する動き検出工程と、上記動き検出工程にて推定された上記はみ出し部分を抽出して記憶手段に記憶する工程とを有し、
上記出力工程では、上記記憶手段に記憶された上記はみ出し部分が出力される
ことを特徴とする請求項7記載の映像処理方法。
The extraction step detects a movement of a camera from the video, and estimates a protruding portion from the motion of the camera.Extracts the protruding portion estimated in the motion detecting step and stores the extracted portion in a storage unit. And a step of storing
8. The video processing method according to claim 7, wherein the protruding portion stored in the storage unit is output in the output step.
複数の上記はみ出し部分を合成する画像合成工程を有し、
上記出力工程では、上記画像合成工程にて生成された合成画像が出力される
ことを特徴とする請求項7載の映像処理方法。
Having an image combining step of combining a plurality of the protruding portions,
8. The video processing method according to claim 7, wherein in the output step, a composite image generated in the image composition step is output.
所定の動作をコンピュータに実行させるためのプログラムであって、
フレーム単位の画像からなる映像が供給され、現フレーム画像から、その時間的に後の後フレーム画像において画枠からはみ出すはみ出し部分を抽出する抽出工程と、
上記抽出手段により抽出されたはみ出し部分を出力する出力工程と
を有することを特徴とするプログラム。
A program for causing a computer to execute a predetermined operation,
An image consisting of images in frame units is supplied, and an extraction step of extracting, from the current frame image, a portion that protrudes from the image frame in a later frame image in time,
An output step of outputting the protruding portion extracted by the extraction means.
所定の動作をコンピュータに実行させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体であって、
フレーム単位の画像からなる映像が供給され、現フレーム画像から、その時間的に後の後フレーム画像において画枠からはみ出すはみ出し部分を抽出する抽出工程と、
上記抽出手段により抽出されたはみ出し部分を出力する出力工程と
を有することを特徴とするプログラムが記録された記録媒体。
A computer-readable recording medium recorded with a program for causing a computer to execute a predetermined operation,
An image consisting of images in frame units is supplied, and an extraction step of extracting, from the current frame image, a portion that protrudes from the image frame in a later frame image in time,
An output step of outputting the protruding portion extracted by the extraction means. A recording medium on which a program is recorded.
複数の表示装置と、
フレーム単位の画像からなる映像が供給され、現フレーム画像から、その時間的に後の後フレーム画像において画枠からはみ出すはみ出し部分を抽出する抽出手段と、上記抽出手段により抽出されたはみ出し部分を出力する出力手段とを有する映像処理装置と具備し、
上記表示装置は、上記映像を表示するメイン表示装置と、上記はみ出し部分を表示する1以上の周辺表示装置とを有する
ことを特徴とする映像処理システム。
A plurality of display devices;
A video composed of images in frame units is supplied, and extraction means for extracting, from the current frame image, a portion protruding from the image frame in a later frame image in time, and outputting the protruding portion extracted by the extraction means And a video processing device having an output unit that performs
The video processing system according to claim 1, wherein the display device includes a main display device that displays the video, and one or more peripheral display devices that display the protruding portion.
上記映像処理装置の上記抽出手段は、上記映像からカメラの動きを検出し、該カメラの動きから上記はみ出し部分を推定する動き検出手段と、上記動き検出手段により推定された上記はみ出し部分を抽出して記憶する記憶手段とを有し、
上記出力手段は、上記記憶手段に記憶された上記はみ出し部分を上記周辺表示装置に出力する
ことを特徴とする請求項13記載の映像処理システム。
The extraction means of the video processing device detects a motion of a camera from the video, and a motion detection means for estimating the protruding portion from the motion of the camera, and extracts the protruding portion estimated by the motion detection means. And storage means for storing
14. The video processing system according to claim 13, wherein the output unit outputs the protruding portion stored in the storage unit to the peripheral display device.
上記映像処理装置は、複数の上記はみ出し部分を合成する画像合成手段を備え、
上記出力手段は、上記画像合成手段によって生成された合成画像を上記周辺表示装置に出力する
ことを特徴とする請求項13載の映像処理システム。
The video processing device includes image combining means for combining a plurality of the protruding portions,
14. The video processing system according to claim 13, wherein the output unit outputs the composite image generated by the image compositing unit to the peripheral display device.
JP2002247437A 2002-08-27 2002-08-27 Video processing apparatus, video processing method, program and recording medium, and video processing system Expired - Fee Related JP4211324B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002247437A JP4211324B2 (en) 2002-08-27 2002-08-27 Video processing apparatus, video processing method, program and recording medium, and video processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002247437A JP4211324B2 (en) 2002-08-27 2002-08-27 Video processing apparatus, video processing method, program and recording medium, and video processing system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008151104A Division JP4687748B2 (en) 2008-06-09 2008-06-09 Video processing apparatus, video processing method, program and recording medium, and video processing system

Publications (2)

Publication Number Publication Date
JP2004088474A true JP2004088474A (en) 2004-03-18
JP4211324B2 JP4211324B2 (en) 2009-01-21

Family

ID=32055085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002247437A Expired - Fee Related JP4211324B2 (en) 2002-08-27 2002-08-27 Video processing apparatus, video processing method, program and recording medium, and video processing system

Country Status (1)

Country Link
JP (1) JP4211324B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006203598A (en) * 2005-01-21 2006-08-03 Pioneer Electronic Corp Digital image decoder and decoding method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006203598A (en) * 2005-01-21 2006-08-03 Pioneer Electronic Corp Digital image decoder and decoding method
JP4509809B2 (en) * 2005-01-21 2010-07-21 パイオニア株式会社 Digital image decoding apparatus and method

Also Published As

Publication number Publication date
JP4211324B2 (en) 2009-01-21

Similar Documents

Publication Publication Date Title
US10277812B2 (en) Image processing to obtain high-quality loop moving image
JP3695119B2 (en) Image synthesizing apparatus and recording medium storing program for realizing image synthesizing method
KR101603791B1 (en) Method for fabricating a panorama
US8035691B2 (en) Method and apparatus for compensating for movement of a video surveillance camera
US20120105657A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
US20060078162A1 (en) System and method for stabilized single moving camera object tracking
US20110085027A1 (en) Image processing device and method, and program
JP2009124685A (en) Method and system for combining videos for display in real-time
JP2011082917A (en) Image processing device and method, and program
JP2005123667A (en) Generation of still picture data from a plurality of image data
EP2545411A1 (en) Panorama imaging
JP6610535B2 (en) Image processing apparatus and image processing method
JP2000244814A (en) Image compositing device and recording medium where image compositing method is recorded
JP5225313B2 (en) Image generating apparatus, image generating method, and program
JP2004246667A (en) Method for generating free visual point moving image data and program for making computer perform the same processing
JP4951487B2 (en) Video processing apparatus and video display apparatus using the same
KR102655093B1 (en) Multi-eye camera system, camera head for multi-eye photography, image processing device, multi-eye photography program and multi-eye photography method
JP4687748B2 (en) Video processing apparatus, video processing method, program and recording medium, and video processing system
JP4211324B2 (en) Video processing apparatus, video processing method, program and recording medium, and video processing system
KR100868076B1 (en) Apparatus and Method for Image Synthesis in Interaced Moving Picture
JP4223762B2 (en) Video processing apparatus, video processing method, program and recording medium, and video processing system
EP1496684A2 (en) Imaging apparatus, imaging method, imaging system, program
JP3128467B2 (en) How to convert 2D video to 3D video
JP3249335B2 (en) 3D video conversion method
JPH11243508A (en) Image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081007

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081020

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131107

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees