JP4095336B2 - Original image restoration apparatus and original image restoration program - Google Patents

Original image restoration apparatus and original image restoration program Download PDF

Info

Publication number
JP4095336B2
JP4095336B2 JP2002137339A JP2002137339A JP4095336B2 JP 4095336 B2 JP4095336 B2 JP 4095336B2 JP 2002137339 A JP2002137339 A JP 2002137339A JP 2002137339 A JP2002137339 A JP 2002137339A JP 4095336 B2 JP4095336 B2 JP 4095336B2
Authority
JP
Japan
Prior art keywords
image
original image
motion vector
original
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002137339A
Other languages
Japanese (ja)
Other versions
JP2003333424A (en
Inventor
慎一 境田
浩幸 今泉
和久 井口
誠 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2002137339A priority Critical patent/JP4095336B2/en
Publication of JP2003333424A publication Critical patent/JP2003333424A/en
Application granted granted Critical
Publication of JP4095336B2 publication Critical patent/JP4095336B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、原画像復元装置、及び原画像復元プログラムに係り、特に、文字スーパーやテロップ等の付加情報がスーパーインポーズされた画像から、スーパーインポーズされる前の原画像を復元する原画像復元装置、及び原画像復元プログラムに関する。
【0002】
【従来の技術】
テレビジョン放送において、緊急ニュース、音楽番組の歌詞、或いはスポーツのスコア等の文字情報、時報、又はテロップ等の情報(以下、付加情報という)は、本来の番組である原画像に対し文字画像をスーパーインポーズして視聴者に放送している。
【0003】
また、最近では、チャンネル数の増加及び番組の多様化に伴い、以前に番組で使用したスーパーインポーズされている画像を、再び別の番組素材として利用する方法が多く用いられている。一度使用した画像を再利用することにより、効率的に番組を生成し視聴者に提供することができる。
【0004】
ここで、画像を再利用する場合にはスーパーインポーズされた画像から元の画像を復元することができず、文字の該当部分をモザイク等の特殊編集によってぼかしたり、別の画像で上書きしたりして対処している。上述の内容を図を用いて説明する。
【0005】
図1は、従来のスーパーインポーズされた画像を再利用した場合の画像の一例を示す図である。
【0006】
図1において、例えば、緊急なニュース情報を視聴者に知らせるために「臨時ニュース」というテロップをスーパーインポーズした画像を生成し、放送したとする(図1(a))。その後、この画像を他の番組で利用することになった場合は、「臨時ニュース」と表示されている画面のテロップ領域に対して、別の画像で上書きしたり、モザイクを入れたりして、表示されている内容が視聴者に理解できないように画像に特殊編集を行い、その画像が放送される(図1(b))。
【0007】
一方、上述のように最初から画像に付加情報をスーパーインポーズせずに、垂直帰線期間やデジタル放送のデータ放送の領域で、付加情報を画像情報とは別に符号化して伝送する方法が考えられる。
【0008】
また、スーパーインポーズされる前の原画像を受信機側で復元できるようにするため、スーパーインポーズする箇所に該当する原画像を別途符号化する方法が、特開2000−41185号公報(テレビジョン信号の符号化装置および復号化装置)にて開示されている。
【0009】
【発明が解決しようとする課題】
しかしながら、上述した方法において、モザイク等の特殊編集を行う場合は、画像の再利用時に、上述したような特殊編集を行う必要が生じると共に、特殊編集された画像の領域は視聴者に違和感を与えるため、好ましい方法とは言えない。
【0010】
また、文字情報等を画像情報とは別に符号化して伝送する方法の場合、データ放送に対応していない受信機では視聴することができないため、例えば、災害時の緊急ニュース等、全視聴者に知らせる必要がある場合には有効ではない。
【0011】
また、スーパーインポーズする箇所のみの原画像を別途符号化する方法の場合、別途符号化された原画像を利用することで、スーパーインポーズされていない動画像を復元することができるが、スーパーインポーズされる部分については画像を2重に保存しておくことに等しいため、画像の情報量が膨大になってしまう。
【0012】
したがって、既にスーパーインポーズされた画像(動画像)を効率的に再利用するためには、前記画像のみからスーパーインポーズされる前の原画像を復元する方法が必要となる。
【0013】
本発明は、上記の点に鑑みなされたものであり、付加情報がスーパーインポーズされた場合に、画像の動き情報を利用して付加情報がスーパーインポーズされた画像部分に、他のフレーム画像の情報から取得した画像を合成することにより、スーパーインポーズされる前の原画像を復元することができる原画像復元装置、及び原画像復元プログラムを提供することを目的とする。
【0014】
【課題を解決するための手段】
上記課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。
【0015】
請求項1に記載された発明は、付加情報がスーパーインポーズされた第一の画像を原画像に復元する原画像復元装置において、前記第一の画像のスーパーインポーズ領域を検出する領域検出部と、前記第一の画像から、前記スーパーインポーズ領域の画像情報を除いた第二の画像を生成する画像生成部と、前記第一の画像の前及び/又は後の画像から、スーパーインポーズされる前のスーパーインポーズ領域である第三の画像を取得する画像取得部と、前記第二の画像と、前記第三の画像とを合成して原画像を復元する原画像復元部とを有し、前記原画像復元部は、前記第二の画像に前記第三の画像を上書きして原画像を復元した場合に復元できない画素があったときは、フレーム画像内で空間内挿を行う空間内挿部を有することを特徴とする。
【0016】
請求項1記載の発明によれば、付加情報がスーパーインポーズされた画像をスーパーインポーズされる前の原画像に効率的に復元することができる。また、一度スーパーインポーズされた画像を有効に再利用することができる。更に、復元できない画素があったときは、フレーム画像内で空間内挿を行うことで、より高精度な原画像の復元を行うことができる。
【0017】
請求項2に記載された発明は、前記画像取得部は、前記第一の画像から画像の動きベクトルを推定する動きベクトル推定部と、前記第一の画像の前及び/又は後の画像から、前記動きベクトルに基づいて前記スーパーインポーズ領域の画像を抽出する画像抽出部とを有することを特徴とする。
【0018】
請求項2記載の発明によれば、動きベクトルを推定することで、第一の画像の前及び/又は後の画像から、付加情報がスーパーインポーズされていない前記スーパーインポーズ領域の画像を抽出することができる。
【0019】
請求項3に記載された発明は、前記動きベクトル推定部は、カメラパラメータを用いて動きベクトルを検出することを特徴とする。
【0020】
請求項3記載の発明によれば、カメラパラメータを用いて撮影された画像の動きを把握することができ、動きベクトルを容易に推定することができる。
【0021】
請求項4に記載された発明は、前記動きベクトル推定部は、フレーム画像単位に比較することにより動きベクトルを検出することを特徴とする。
【0022】
請求項4記載の発明によれば、カメラパラメータがない場合でも、画像の全体的な動きが把握できるときに、フレーム単位に比較を行うことで、動きベクトルを容易に推定することができる。
【0023】
請求項5に記載された発明は、前記動きベクトル推定部は、前記画像を所定の画素ブロック毎に分割し、前記ブロック単位で時間的に異なる対応した画素毎に比較して動きベクトルを検出することを特徴とする。
【0024】
請求項5記載の発明によれば、カメラパラメータがなく、更に画像全体の動きが把握できない場合でも、前記ブロック単位で時間的に異なる対応した画素毎に比較することにより動きベクトルを容易に推定することができる。
【0025】
請求項6に記載された発明は、前記領域検出部は、スーパーインポーズ領域を検出する際に予め設定された付加情報の表示領域のデータを用いることを特徴とする。
【0026】
請求項6記載の発明によれば、領域検出部において、第一の画像のスーパーインポーズ領域を検出する処理を削減することができ、効率的にスーパーインポーズ領域を検出することができる。
【0029】
請求項に記載された発明は、コンピュータに、付加情報がスーパーインポーズされた第一の画像を原画像に復元するための処理を実行させるプログラムにおいて、コンピュータに、前記第一の画像のスーパーインポーズ領域を検出する領域検出ステップと、前記第一の画像から、前記スーパーインポーズ領域の画像情報を除いた第二の画像を生成する画像生成ステップと、前記第一の画像の前及び/又は後の画像から、スーパーインポーズされる前のスーパーインポーズ領域である第三の画像を取得する画像取得ステップと、前記第二の画像と、前記第三の画像とを合成して原画像を復元する原画像復元ステップとを実行させ、前記原画像復元ステップは、前記第二の画像に前記第三の画像を上書きして原画像を復元した場合に復元できない画素があったときは、フレーム画像内で空間内挿を行う空間内挿ステップを有することを特徴とする。
【0030】
請求項記載の発明によれば、付加情報がスーパーインポーズされた画像をスーパーインポーズされる前の原画像に効率的に復元することができる。また、一度スーパーインポーズされた画像を有効に再利用することができる。更に、復元できない画素があったときは、フレーム画像内で空間内挿を行うことで、より高精度な原画像の復元を行うことができる。
【0031】
請求項に記載された発明は、前記画像取得ステップは、前記第一の画像から画像の動きベクトルを推定する動きベクトル推定ステップと、スーパーインポーズされている前及び/又は後の画像から、前記動きベクトルに基づいて、前記スーパーインポーズ領域の画像を抽出する画像抽出ステップとを有することを特徴とする。
【0032】
請求項記載の発明によれば、動きベクトルを推定することで、第一の画像の前及び/又は後の画像から、付加情報がスーパーインポーズされていない前記スーパーインポーズ領域の画像を抽出することができる。
【0033】
【発明の実施の形態】
本発明は、画像内で付加情報がスーパーインポーズされた箇所(領域)が、動画像の動きにより該当フレーム画像以外の時間的に前後する画像において、スーパーインポーズされていない状態が現れることを利用し、スーパーインポーズされた箇所に、他の画像から同じ箇所でインポーズされていない画像領域を取得し、該画像領域を合成する(上書きする)ことにより、スーパーインポーズされる前の原画像を復元することを主眼とする。
【0034】
ここで、本件発明に内容を容易に理解するため、画像の一例を図に示して説明する。
【0035】
図2は、本発明における原画像の復元方法を説明するための画像の一例を示す図である。
【0036】
図2において、例えば、動画像内に「臨時ニュース」のテロップがスーパーインポーズされた画像(第一の画像)があった場合に、前記画像からテロップ部分の領域を抽出するテロップ部抽出処理と前記第一の画像から前記テロップ部分を除いた画像(第二の画像)を生成する非テロップ生成処理(図2▲1▼)、前記画像の前後にある複数の画像のフレームから大画面画像を作成し、テロップ部分の領域に対応するスーパーインポーズされていない同位置の画像領域(第三の画像)を切り出すテロップ領域切出処理(図2▲2▼)とを行い、前記第二の画像と前記第三の画像とを合成することにより原画像を復元することができる。これにより、原画像の復元が容易で且つ効率的にできるため、他の番組で画像を有効に利用することができ、再利用された動画像を見た視聴者も違和感なく視聴することができる。
【0037】
なお、本発明における原画像を復元するための原画像復元方法は、この限りではなく、例えば、上述の領域切出処理において、テロップ部抽出処理にて抽出された領域が、1つのフレーム内にある場合は、大画面画像を作成する必要がなく、該当フレーム画像の直前のフレーム画像のみを利用することによりテロップ領域切出処理を行い、切出したテロップ領域部分を用いて原画像を復元することができる。
【0038】
次に、本発明の実施の形態について、図を用いて説明する。また、説明を容易にするため、本発明における付加情報の1つであるテロップがスーパーインポーズされた画像に基づいて説明を行うが、他の付加情報でも同様の処理を行うことができる。
【0039】
図3は、本発明における原画像復元装置の一例のブロック図である。
【0040】
図3の原画像復元装置1は、カット検出部11と、動き推定部12と、テロップ部分抽出部13と、画像更新部14と、画像蓄積部15と、テロップ切出部16と、非テロップ部分生成部17と、画像合成部18と、フレーム内画素補填部19とを有するよう構成されている。
【0041】
図3において、スーパーインポーズされた画像信号は、カット検出部11、動き推定部12、テロップ部分抽出部13、画像更新部14、及び非テロップ部分生成部17へ供給される。
【0042】
カット検出部11では、スーパーインポーズされた画像フレームが動画像のカット切り換え直後のフレームか否かを検出し、その結果を出力する。なお、カット切り換えの検出方法は、例えば、直前のフレーム画像との差分値を計算し、その差分値が所定の閾値を超える場合にカット切り換えが行われていると判断することで検出することができる。
【0043】
動き推定部12は、スーパーインポーズされた画像信号と、カット検出部11より出力されたカット検出信号とを入力する。動き推定部12では、例えば、図4に示すような動き推定の処理フローチャートにしたがって、画像の動き推定を行う。
【0044】
図4では、まず、画像撮影時のカメラパラメータが存在するか否かを判断する(S11)。ここで、カメラパラメータとは、撮影中に用いたカメラの水平方向の動きを示すパン、鉛直方向の動きを示すチルト及びズーム等のカメラの動きがパラメータ化されたものである。
【0045】
S11にて、カメラパラメータが存在した場合は(S11にて、YES)、カメラパラメータを画像の動きモデル、例えば、透視投影変換やアフィン変換モデル等に合わせた動きデータに変換し、変換した結果をそのフレーム画像の動きベクトルデータとして出力する(S12)。
【0046】
また、S11にて、カメラパラメータが存在しない場合は(S11にて、NO)、画像から動きベクトルを推定する。画像からの動きベクトルの推定については、大域的動き推定を行うか否かの判断を行う(S13)。S13にて、カメラのパンやチルトのように画像全体が動いている場合には(S13にて、YES)、動きベクトルの推定をフレーム画像単位で行う大域的動き推定を行い、カメラパラメータ有りの場合と同様に画像の動きモデルに合わせた動きベクトルデータを推定して出力する(S14)。
【0047】
なお、大域的動き推定の方法としては、例えば、Jozawa,Kamikura,Segata,Kotera,Watanabe,“Two−stagemotion compensation using adaptive global MC and local affine MC”,IEEE Trans. Circuit and Systems for VideoTech.,vol.7,no.1,pp.75−85, Jan.1997等に開示されている。
【0048】
一方、画像の中で様々な動きがあり、画像全体の動きが特定できない場合には、大域的動き推定を行わず(S13にて、NO)、画像を16×16画素や8×8画素といった大きさの領域ブロックに分割し、これらのブロック単位に動き推定を行い、ブロック単位の動きベクトルを推定して出力する(S15)。なお、ブロック単位での動きベクトルの推定には、一般的なブロックマッチング法や勾配法等を利用することができる。
【0049】
上述の内容により、動き推定部12は、入力された画像信号の動きベクトルを出力することができる。
【0050】
次に、テロップ部分抽出部13は、スーパーインポーズされた画像信号を入力すると、例えば、図5に示すようなテロップ部分抽出の処理フローチャートにしたがって、文字等のテロップがスーパーインポーズされた画像からのテロップ形状の領域を抽出する。
【0051】
図5では、最初に、前のフレームで既にテロップ形状が抽出されていて、更に前フレームで抽出されたテロップ形状と比べて変化がない場合は(S21にて、YES)、テロップ形状領域を示したマスク画像の抽出は行わず、既に抽出されているマスク画像をそのまま利用する。
【0052】
また、S21にて、前フレームにてフレーム形状が抽出されてないか、又はフレーム形状が抽出されているがその形状に変化があった場合(S21にて、NO)、テロップの形状パターンが所定のパターンに該当するか否かの判断を行う(S22)。
【0053】
S22にて、テロップの形状パターンが所定のパターンに該当する場合(S22にて、YES)、例えば、時報のスーパーのように、0から9までの数字と、時間と分との間のコロン「:」との組合せからなるテロップ形状であると特定できる場合は、予め所定のパターンとして形状領域データ21を蓄積しておき、形状領域データ21を参照してテロップパターンに該当するテロップ形状の領域を抽出し、その結果をテロップ形状を示すマスク画像として出力する(S23)。
【0054】
なお、領域の検出は、上述した動画像の動きベクトル推定の方法を利用してパターンマッチングにより行う。また、パターンを予め設定し形状領域データに蓄積しておき、そのパターンに合うように番組編集側でスーパーインポーズを行うことにより、テロップ形状の領域を容易に抽出できると共に、時報以外の多様なテロップパターンにも対応することができる。
【0055】
また、S22にてテロップ形状パターンが所定のパターンに該当しなかった場合は(S22にて、NO)、使用者がディスプレイ等で画像を確認し、テロップ形状の領域を新たに設定することにより、領域の切り出しを行いテロップ形状を示すマスク画像として出力する(S24)。
【0056】
次に、画像更新部14は、スーパーインポーズされた画像信号と、カット検出部11にて検出されたカット検出信号と、動き推定部12にて出力される動きベクトル信号と、テロップ部分抽出部13にて出力されるテロップ形状マスク画像信号と、画像蓄積部15から出力される参照画像信号とを入力する。
【0057】
画像更新部14は、例えば、図6に示すような参照画像更新の処理フローチャートにしたがって、画像の復元に用いる参照画像の更新が行われる。図6では、まず、カット検出部11から入力するカット検出信号により、スーパーインポーズされた画像信号がカット切り換え直後のフレーム画像であるか否かを判断し(S31)、カット切り換え直後のフレーム画像である場合は(S31にて、YES)、画像蓄積部15より入力した参照画像信号は、前のカットの参照画像であるため使用せずにデータをリフレッシュする(S32)。
【0058】
次に、参照画像の更新処理として該当フレーム画像の直前のフレーム画像のみを用いるか否かを判断する(S33)。判断基準としては、例えば、背景画像に動きがなく、且つ突然表示されるテロップ等については、直前のフレーム画像のみを用いてテロップ形状の領域を上書きするための参照画像を作成することができる。一方、画像に動きがあり、直前のフレームだけではテロップ領域の全ての画像位置が表示されない場合は、複数のフレーム画像から大画面画像を生成して参照画像の作成を行う。なお、画像が動いているか否かは、動きベクトル信号により判断する。また、S33での判断を行わずに予め更新処理の方法を設定しておいてもよい。
【0059】
S33において、直前のフレーム画像のみを用いる場合は(S33にて、YES)、画像の更新はスーパーインポーズされた画像信号からテロップ形状マスク画像信号で示されるテロップ部分を除いた部分の画像を直前のフレーム画像に上書きする画像上書き更新処理を行う(S34)。なお、この場合、画像のサイズは入力されるスーパーインポーズされた画像信号と同一であるため、動き推定部12より入力する動きベクトル信号を使って上書きするための座標変換を行う必要はない。
【0060】
また、S33において、参照する画像として推定した動きベクトルで作成した大画面の画像信号を用いる場合は(S33にて、NO)、例えば、泰泉寺、石橋、小林著、「カメラモーション抽出によるスプライト自動生成」、信学論、D−II,vol.J82−D−II,no.6,PP.1018−1030,1999等に開示されているパラメータを利用して動画像を貼り合わせるスプライト生成技術(方法)により、大画面背景画像を作成するのと同じ方法で大画面画像更新処理を行う(S35)。
【0061】
この場合、新たに貼り合わせる(上書きする)画像は、スーパーインポーズされた画像信号からテロップ形状のマスク画像信号で示されたテロップ領域部分を取り除いた画像を、動きベクトル信号により基準となる座標系に変換した画像となる。
【0062】
なお、カメラパラメータを利用して求めた動きベクトルを用いて大画面の画像信号を作成する場合は、本出願人による出願「特願2001−334049号(背景画像生成装置およびそのプログラム)」に記載されている方法を用いて処理することができる。この方法によれば、実時間での画像の幾何変換によって、各画面を精度よく貼り合わせて大画面画像を生成することができる。
【0063】
上述の処理(S34、S35)により更新された画像信号は、画像蓄積部15へ出力され画像蓄積部15にて更新画像が蓄積される。
【0064】
上述したように参照画像を蓄積することにより、例えば、連続する画像において、スーパーインポーズされた画像のテロップ形状の領域が同じであった場合に、一度生成された参照画像を画像のテロップ形状の領域が変わるまで、継続して利用することができ、効率的な復元処理を行うことができる。
【0065】
テロップ切出部16は、画像蓄積部15に蓄積されている参照画像信号と、動き推定部より出力される動きベクトル信号と、テロップ部分抽出部13より出力されるテロップ形状マスク画像信号とを入力する。テロップ切出部16は、動きベクトル信号に合わせて参照画像信号を座標変換し、テロップ形状マスク画像信号で示される部分の画像のみを参照画像から切り出して、テロップ該当箇所画像信号を出力する。
【0066】
非テロップ部分生成部17は、スーパーインポーズされた画像信号とテロップ形状マスク画像信号とを入力し、スーパーインポーズされた画像信号からテロップ形状マスク画像信号で表されるテロップ形状部分を除いた非テロップ部分画像信号を生成して出力する。
【0067】
画像合成部18は、テロップ切出部16より出力されるテロップ該当箇所画像信号と、非テロップ部分生成より出力される非テロップ部分画像信号とを入力する。画像合成部18では、非テロップ部分画像信号のテロップ該当部分にテロップ該当箇所画像信号を上書きするように合成し、合成画像信号を出力する。
【0068】
フレーム内画素補填部19は、画像合成部18から出力された合成画像信号を入力する。フレーム内画素補填部19は、合成画像信号の画素の中で、画素位置に対応する参照画像が無いために内挿されていない部分をフレーム内の空間内挿で補う処理を施す。ここで、空間内挿として、例えば、動画像符号化方式MPEG−4規格で用いられているパディング方式を用いることにより画素単位で内挿することができる。
【0069】
なお、上述にて原画像を復元するための原画像復元方法について説明したが、原画像に復元する各処理を実行させるための原画像復元プログラムを生成し、そのプログラムに基づいて、コンピュータに、原画像を復元する処理を実行させることも可能である。
【0070】
ここで、上述の原画像復元プログラムが実行する一例の処理をフローチャートを用いて説明する。
【0071】
図7は、原画像復元プログラムが実行する処理の一例のフローチャートである。
【0072】
図7において、まず、付加情報がスーパーインポーズされた画像(第一の画像)から付加情報(例えば、テロップ)形状部分(領域)を抽出する付加情報部分抽出処理を行う(S41)。次に、S41にて抽出された付加情報形状部分に基づいて、スーパーインポーズされた画像から付加情報形状部分を除いた画像(第二の画像)を生成する非付加情報部分生成処理を行う(S42)。
【0073】
また、付加情報がスーパーインポーズされているフレーム画像がカット切り換え直後のフレーム画像であるか否かを検出するカット検出処理を行い(S43)、次に、カメラパラメータ又は画像の前後のフレーム画像から動きベクトルの推定をする動き推定処理を行う(S44)。その後、S43及びS44で出力される結果に基づいて、スーパーインポーズされた画像の前後のフレーム画像からスーパーインポーズされる前の付加情報形状部分の画像(第三の画像)を参照画像として取得する参照画像取得処理を行う(S45)。なお、S43及びS44は、ステップを分けずにS45にて行ってもよい。
【0074】
次に、S42にて生成された画像(第二の画像)と、S45にて取得された画像(第三の画像)とを合成する画像合成処理を行い(S46)、画像の復元を行う。なお、S46にて、出力される画像に画素が内挿されていない箇所があった場合は、フレーム内の空間内挿による画素補填処理を行う(S47)。これにより高精度な原画像を復元することができる。
【0075】
また、図3に示す各部の処理は、コンピュータのメモリに格納された上述の原画像復元プログラムによって実行される。
【0076】
なお、上述した原画像復元プログラムは、CD−ROM等の記憶媒体に記憶させてコンピュータにインストールすることにより、原画像の復元を容易に実行することができる。更に、この他の方法として、原画像復元プログラムを通信インターフェース及びネットワークからファイル形式で取得し、コンピュータにインストールすることによっても原画像の復元を実行させることができる。
【0077】
上述により、図3に示す原画像復元装置1、又は原画像復元プログラムを用いることにより、付加情報がスーパーインポーズされた画像信号からスーパーインポーズされる前の原画像を復元することができる。また、復元された原画像を用いて、画像を用いた番組の有効な再利用を容易に行うことができる。更に、本発明における復元された原画像を用いることで、番組を視聴する視聴者に違和感を与えることなく提供することができる。
【0078】
【発明の効果】
上述の如く本発明によれば、テロップ等の付加情報が画像にスーパーインポーズされた場合に、該当フレーム画像以外のフレーム画像を利用して、スーパーインポーズされる前の原画像を復元でき、画像を効率的に再利用することができる。
【図面の簡単な説明】
【図1】従来のスーパーインポーズされた画像を再利用した場合の画像の一例を示す図である。
【図2】本発明における原画像の復元方法を説明するための画像の一例を示す図である。
【図3】本発明における原画像復元装置の一例のブロック図である。
【図4】動き推定の処理フローチャート例である。
【図5】テロップ部分抽出の処理フローチャート例である。
【図6】参照画像更新の処理フローチャート例である。
【図7】原画像復元プログラムが実行する処理の一例のフローチャートである。
【符号の説明】
1 原画像復元装置
11 カット検出部
12 動き推定部
13 テロップ部分抽出部
14 画像更新部
15 画像蓄積部
16 テロップ切出部
17 非テロップ部分生成部
18 画像合成部
19 フレーム内画素補填部
21 形状領域データ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an original image restoration apparatus and an original image restoration program, and in particular, an original image for restoring an original image before being superimposed from an image on which additional information such as a character super or telop is superimposed. The present invention relates to a restoration device and an original image restoration program.
[0002]
[Prior art]
In television broadcasting, text information such as emergency news, music program lyrics, sports scores, time information, or telop (hereinafter referred to as additional information) is a text image of the original image that is the original program. Superimpose and broadcast to viewers.
[0003]
In recent years, with the increase in the number of channels and the diversification of programs, many methods have been used in which a superimposed image previously used in a program is used again as another program material. By reusing an image once used, a program can be efficiently generated and provided to the viewer.
[0004]
Here, when reusing an image, the original image cannot be restored from the superimposed image, and the corresponding part of the text is blurred by special editing such as mosaic or overwritten with another image. To deal with it. The above contents will be described with reference to the drawings.
[0005]
FIG. 1 is a diagram illustrating an example of an image when a conventional superimposed image is reused.
[0006]
In FIG. 1, it is assumed that, for example, an image in which a telop “Temporary News” is superimposed is generated and broadcast in order to inform the viewer of urgent news information (FIG. 1 (a)). After that, if you decide to use this image in another program, you can overwrite the telop area of the screen that displays "Extra News" with another image or put a mosaic, Special editing is performed on the image so that the viewer cannot understand the displayed content, and the image is broadcast (FIG. 1B).
[0007]
On the other hand, as described above, there is a method in which additional information is encoded and transmitted separately from image information in the vertical blanking period or the data broadcasting area of digital broadcasting without superimposing the additional information on the image from the beginning. It is done.
[0008]
Further, in order to enable the receiver to restore the original image before being superimposed, a method of separately encoding the original image corresponding to the superimposed position is disclosed in JP 2000-41185 (TV). John signal encoding device and decoding device).
[0009]
[Problems to be solved by the invention]
However, in the above-described method, when special editing such as mosaic is performed, it is necessary to perform special editing as described above when reusing an image, and the specially edited image area gives viewers a sense of incongruity. Therefore, it is not a preferable method.
[0010]
Also, in the case of a method of encoding and transmitting character information etc. separately from image information, since it cannot be viewed with a receiver that does not support data broadcasting, for example, emergency news at the time of a disaster, etc. to all viewers It is not effective when it is necessary to inform.
[0011]
Also, in the case of a method of separately encoding an original image of only a portion to be superimposed, a moving image that is not superimposed can be restored by using the separately encoded original image. Since the portion to be imposed is equivalent to storing images twice, the information amount of the image becomes enormous.
[0012]
Therefore, in order to efficiently reuse an already superimposed image (moving image), a method for restoring the original image before being superimposed from only the image is required.
[0013]
The present invention has been made in view of the above points. When the additional information is superimposed, another frame image is added to the image portion where the additional information is superimposed using the motion information of the image. An object of the present invention is to provide an original image restoration apparatus and an original image restoration program capable of restoring an original image before being superimposed by synthesizing images acquired from the above information.
[0014]
[Means for Solving the Problems]
In order to solve the above problems, the present invention employs means for solving the problems having the following characteristics.
[0015]
  The invention described in claim 1 is an original image restoration device that restores a first image on which additional information is superimposed to an original image, and an area detection unit that detects a superimpose area of the first image. An image generation unit that generates a second image from which the image information of the superimpose region is removed from the first image, and a superimpose from an image before and / or after the first image. An image acquisition unit that acquires a third image that is a superimpose area before being processed, and an original image restoration unit that combines the second image and the third image to restore the original image YesAnd when the original image is restored by overwriting the third image on the second image, the original image restoration unit performs space interpolation in the frame image. Has interpolation partIt is characterized by doing.
[0016]
  According to the first aspect of the present invention, it is possible to efficiently restore the image superimposed with the additional information to the original image before being superimposed. In addition, an image once superimposed can be effectively reused.Furthermore, when there is a pixel that cannot be restored, the original image can be restored with higher accuracy by performing spatial interpolation in the frame image.
[0017]
According to a second aspect of the present invention, the image acquisition unit includes a motion vector estimation unit that estimates a motion vector of an image from the first image, and an image before and / or after the first image. And an image extracting unit that extracts an image of the superimpose region based on the motion vector.
[0018]
According to the second aspect of the present invention, by estimating the motion vector, the image of the superimpose region in which the additional information is not superimposed is extracted from the image before and / or after the first image. can do.
[0019]
The invention described in claim 3 is characterized in that the motion vector estimation unit detects a motion vector using a camera parameter.
[0020]
According to the third aspect of the present invention, it is possible to grasp the motion of the image captured using the camera parameters, and to easily estimate the motion vector.
[0021]
The invention described in claim 4 is characterized in that the motion vector estimation unit detects a motion vector by comparing with a frame image unit.
[0022]
According to the fourth aspect of the present invention, even when there is no camera parameter, when the overall motion of the image can be grasped, the motion vector can be easily estimated by performing the comparison for each frame.
[0023]
According to a fifth aspect of the present invention, the motion vector estimation unit divides the image into predetermined pixel blocks, and detects a motion vector by comparing the corresponding pixels that are temporally different for each block. It is characterized by that.
[0024]
According to the fifth aspect of the present invention, even when there is no camera parameter and the movement of the entire image cannot be grasped, the motion vector is easily estimated by comparing each corresponding pixel that is temporally different for each block. be able to.
[0025]
The invention described in claim 6 is characterized in that the area detecting unit uses data of a display area of additional information set in advance when detecting a superimpose area.
[0026]
According to the sixth aspect of the present invention, it is possible to reduce the process of detecting the superimpose area of the first image in the area detection unit, and to efficiently detect the superimpose area.
[0029]
  Claim7The invention described in 1 is a program for causing a computer to execute a process for restoring a first image on which additional information is superimposed to an original image. An area detecting step for detecting the image, an image generating step for generating a second image obtained by removing image information of the superimpose area from the first image, and before and / or after the first image. An image acquisition step for acquiring a third image, which is a superimpose area before being superimposed, from the image, and the second image and the third image are combined to restore the original image. And execute the original image restoration step.In the original image restoration step, when there are pixels that cannot be restored when the second image is overwritten with the third image and the original image is restored, a spatial interpolation is performed in the frame image. Characterized by having an insertion stepThe
[0030]
  Claim7According to the described invention, an image on which additional information is superimposed can be efficiently restored to an original image before being superimposed. In addition, an image once superimposed can be effectively reused.Furthermore, when there is a pixel that cannot be restored, the original image can be restored with higher accuracy by performing spatial interpolation in the frame image.
[0031]
  Claim8The image acquisition step includes: a motion vector estimation step for estimating a motion vector of an image from the first image; and the motion vector from the previous and / or after images superimposed. And an image extracting step of extracting an image of the superimpose area based on the above.
[0032]
  Claim8According to the described invention, by estimating a motion vector, an image of the superimpose region in which the additional information is not superimposed can be extracted from an image before and / or after the first image. it can.
[0033]
DETAILED DESCRIPTION OF THE INVENTION
According to the present invention, a state where an area where an additional information is superimposed in an image (region) is not superimposed is displayed in an image in which the movement of the moving image moves back and forth in time other than the corresponding frame image. The image area before being superimposed is obtained by acquiring an image area that is not imposed at the same position from another image at the superimposed position and combining (overwriting) the image area. The main purpose is to restore the image.
[0034]
Here, in order to easily understand the contents of the present invention, an example of an image will be shown and described.
[0035]
FIG. 2 is a diagram showing an example of an image for explaining the original image restoration method in the present invention.
[0036]
In FIG. 2, for example, when there is an image (first image) in which a “temporary news” telop is superimposed in a moving image, a telop part extraction process for extracting a telop part region from the image, Non-telop generation processing (FIG. 2 (1)) for generating an image (second image) obtained by removing the telop portion from the first image, and a large-screen image from a plurality of image frames before and after the image. A telop area cutout process ((2) in FIG. 2) is created and cut out the image area (third image) at the same position that is not superimposed and corresponds to the telop area, and the second image And the third image can be combined to restore the original image. As a result, the original image can be easily and efficiently restored, so that the image can be used effectively in other programs, and the viewer who has viewed the re-used moving image can also view it without any discomfort. .
[0037]
Note that the original image restoration method for restoring the original image in the present invention is not limited to this. For example, in the region extraction processing described above, the region extracted by the telop portion extraction processing is included in one frame. In some cases, it is not necessary to create a large screen image, and only the frame image immediately before the corresponding frame image is used to perform the telop area extraction process, and the original image is restored using the extracted telop area portion. Can do.
[0038]
Next, embodiments of the present invention will be described with reference to the drawings. For ease of explanation, the explanation is based on an image in which a telop, which is one of the additional information in the present invention, is superimposed, but the same processing can be performed with other additional information.
[0039]
FIG. 3 is a block diagram of an example of the original image restoration apparatus in the present invention.
[0040]
3 includes a cut detection unit 11, a motion estimation unit 12, a telop part extraction unit 13, an image update unit 14, an image storage unit 15, a telop cutout unit 16, and a non-telop. The partial generation unit 17, the image synthesis unit 18, and the in-frame pixel compensation unit 19 are configured.
[0041]
In FIG. 3, the superimposed image signal is supplied to the cut detection unit 11, the motion estimation unit 12, the telop part extraction unit 13, the image update unit 14, and the non-telop part generation unit 17.
[0042]
The cut detection unit 11 detects whether or not the superimposed image frame is a frame immediately after moving image cut switching, and outputs the result. Note that the detection method of cut switching can be detected by, for example, calculating a difference value from the previous frame image and determining that cut switching has been performed when the difference value exceeds a predetermined threshold. it can.
[0043]
The motion estimation unit 12 receives the superimposed image signal and the cut detection signal output from the cut detection unit 11. The motion estimation unit 12 performs image motion estimation in accordance with, for example, a motion estimation process flowchart shown in FIG.
[0044]
In FIG. 4, first, it is determined whether or not there is a camera parameter at the time of image capture (S11). Here, the camera parameters are obtained by parameterizing camera movements such as panning indicating horizontal movement of the camera used during photographing, tilting and zooming indicating vertical movement, and the like.
[0045]
If the camera parameter is present in S11 (YES in S11), the camera parameter is converted into motion data that matches an image motion model, for example, a perspective projection transformation or an affine transformation model. The frame image is output as motion vector data (S12).
[0046]
If no camera parameter exists at S11 (NO at S11), a motion vector is estimated from the image. For estimation of the motion vector from the image, it is determined whether or not to perform global motion estimation (S13). In S13, if the entire image is moving like panning or tilting of the camera (YES in S13), global motion estimation is performed in which a motion vector is estimated in units of frame images, and there is a camera parameter. As in the case, motion vector data matching the motion model of the image is estimated and output (S14).
[0047]
Note that, as a method of global motion estimation, for example, Jozawa, Kamikura, Segata, Kotera, Watanabe, “Two-stage motion compensation using adaptive MC and local affine MC”, I Circuit and Systems for VideoTech. , Vol. 7, no. 1, pp. 75-85, Jan. 1997 and the like.
[0048]
On the other hand, if there are various movements in the image and the movement of the entire image cannot be specified, global movement estimation is not performed (NO in S13), and the image is 16 × 16 pixels or 8 × 8 pixels. The block is divided into large size blocks, and motion estimation is performed in units of these blocks, and motion vectors in units of blocks are estimated and output (S15). In addition, a general block matching method, a gradient method, etc. can be utilized for the estimation of the motion vector per block.
[0049]
With the above-described contents, the motion estimation unit 12 can output the motion vector of the input image signal.
[0050]
Next, when the superimposed image signal is input to the telop portion extraction unit 13, for example, according to the processing flowchart of the telop portion extraction as shown in FIG. Extract a telop-shaped area.
[0051]
In FIG. 5, when a telop shape has already been extracted in the previous frame and there is no change compared with the telop shape extracted in the previous frame (YES in S21), a telop shape region is shown. The extracted mask image is not used, and the already extracted mask image is used as it is.
[0052]
In S21, if the frame shape is not extracted in the previous frame or if the frame shape is extracted but the shape has changed (NO in S21), the telop shape pattern is predetermined. It is determined whether or not this pattern is met (S22).
[0053]
In S22, when the telop shape pattern corresponds to a predetermined pattern (YES in S22), for example, a number between 0 and 9, and a colon “ If it can be specified that the telop shape is a combination of “:”, the shape area data 21 is stored in advance as a predetermined pattern, and the telop shape area corresponding to the telop pattern is determined by referring to the shape area data 21. The extracted result is output as a mask image indicating the telop shape (S23).
[0054]
Note that the area is detected by pattern matching using the above-described motion vector motion vector estimation method. Also, patterns can be set in advance and stored in shape area data, and superimposing on the program editing side to match the pattern makes it possible to easily extract telop-shaped areas as well as various other than time signals. It can also handle telop patterns.
[0055]
If the telop-shaped pattern does not correspond to the predetermined pattern in S22 (NO in S22), the user confirms the image on the display or the like, and newly sets the telop-shaped area, The region is cut out and output as a mask image showing a telop shape (S24).
[0056]
Next, the image update unit 14 includes a superimposed image signal, a cut detection signal detected by the cut detection unit 11, a motion vector signal output by the motion estimation unit 12, and a telop part extraction unit. The telop-shaped mask image signal output at 13 and the reference image signal output from the image storage unit 15 are input.
[0057]
For example, the image update unit 14 updates a reference image used for image restoration in accordance with a reference image update processing flowchart as illustrated in FIG. 6. In FIG. 6, first, based on the cut detection signal input from the cut detection unit 11, it is determined whether or not the superimposed image signal is a frame image immediately after cut switching (S31), and the frame image immediately after cut switching is determined. If it is (YES in S31), the reference image signal input from the image storage unit 15 is the reference image of the previous cut, so the data is refreshed without being used (S32).
[0058]
Next, it is determined whether or not only the frame image immediately before the corresponding frame image is used as the reference image update process (S33). As a determination criterion, for example, for a telop that is suddenly displayed with no motion in the background image, a reference image for overwriting the telop-shaped region can be created using only the immediately preceding frame image. On the other hand, when there is a motion in the image and not all image positions in the telop area are displayed only with the immediately preceding frame, a reference image is created by generating a large screen image from a plurality of frame images. Whether or not the image is moving is determined based on the motion vector signal. In addition, the update processing method may be set in advance without performing the determination in S33.
[0059]
In S33, when only the previous frame image is used (YES in S33), the image is updated immediately before the image of the portion excluding the telop portion indicated by the telop-shaped mask image signal from the superimposed image signal. An image overwrite update process for overwriting the frame image is performed (S34). In this case, since the image size is the same as that of the input superimposed image signal, it is not necessary to perform coordinate conversion for overwriting using the motion vector signal input from the motion estimation unit 12.
[0060]
In S33, when a large-screen image signal created with a motion vector estimated as a reference image is used (NO in S33), for example, Taisenji, Ishibashi, Kobayashi, “Sprite automatic by camera motion extraction” Generation ", Science Theory, D-II, vol. J82-D-II, no. 6, PP. A large screen image update process is performed by the same method as that for creating a large screen background image by using a sprite generation technique (method) for pasting moving images using parameters disclosed in 1018-1030, 1999 and the like (S35). ).
[0061]
In this case, the image to be newly pasted (overwritten) is an image obtained by removing the telop area portion indicated by the telop-shaped mask image signal from the superimposed image signal, and is based on a coordinate system based on the motion vector signal. The image converted to.
[0062]
In addition, when creating a large-screen image signal using a motion vector obtained using camera parameters, it is described in the application “Japanese Patent Application No. 2001-334049 (background image generation apparatus and program thereof)” by the present applicant. Can be processed using the methods that have been proposed. According to this method, it is possible to generate a large screen image by accurately pasting each screen by geometric conversion of the image in real time.
[0063]
The image signal updated by the above processing (S34, S35) is output to the image storage unit 15, and the updated image is stored in the image storage unit 15.
[0064]
By storing the reference images as described above, for example, if the telop-shaped regions of the superimposed images are the same in consecutive images, the reference image generated once is changed to the telop-shaped image of the image. Until the area changes, it can be used continuously and efficient restoration processing can be performed.
[0065]
The telop cutout unit 16 receives the reference image signal stored in the image storage unit 15, the motion vector signal output from the motion estimation unit, and the telop shape mask image signal output from the telop part extraction unit 13. To do. The telop cutout unit 16 performs coordinate conversion of the reference image signal in accordance with the motion vector signal, cuts out only the portion of the image indicated by the telop shape mask image signal from the reference image, and outputs the telop corresponding portion image signal.
[0066]
The non-telop portion generation unit 17 receives the superimposed image signal and the telop-shaped mask image signal, and removes the non-telop-shaped portion represented by the telop-shaped mask image signal from the superimposed image signal. Generate and output a telop partial image signal.
[0067]
The image composition unit 18 inputs the telop corresponding portion image signal output from the telop cutout unit 16 and the non-telop partial image signal output from the non-telop portion generation. The image synthesizing unit 18 synthesizes the telop corresponding portion image signal of the non-telop partial image signal so that the telop corresponding portion image signal is overwritten, and outputs the combined image signal.
[0068]
The in-frame pixel compensation unit 19 receives the composite image signal output from the image composition unit 18. The in-frame pixel compensation unit 19 performs a process of compensating for a portion that is not interpolated because there is no reference image corresponding to the pixel position in the pixels of the composite image signal by spatial interpolation in the frame. Here, as the spatial interpolation, for example, it is possible to interpolate in units of pixels by using a padding method used in the MPEG-4 standard of the moving image encoding method.
[0069]
In addition, although the original image restoration method for restoring the original image has been described above, an original image restoration program for executing each process to restore the original image is generated, and based on the program, It is also possible to execute processing for restoring the original image.
[0070]
Here, an example of processing executed by the above-described original image restoration program will be described with reference to a flowchart.
[0071]
FIG. 7 is a flowchart of an example of processing executed by the original image restoration program.
[0072]
In FIG. 7, first, additional information part extraction processing is performed to extract additional information (for example, telop) shape part (region) from an image (first image) on which additional information is superimposed (S41). Next, based on the additional information shape part extracted in S41, non-additional information part generation processing for generating an image (second image) obtained by removing the additional information shape part from the superimposed image is performed ( S42).
[0073]
Further, a cut detection process for detecting whether or not the frame image on which the additional information is superimposed is a frame image immediately after the cut switching is performed (S43), and then from the camera parameters or the frame images before and after the image. A motion estimation process for estimating a motion vector is performed (S44). After that, based on the results output in S43 and S44, an image of the additional information shape part (third image) before being superimposed is acquired as a reference image from the frame images before and after the superimposed image. A reference image acquisition process is performed (S45). In addition, you may perform S43 and S44 in S45, without dividing a step.
[0074]
Next, an image composition process for synthesizing the image (second image) generated in S42 and the image (third image) acquired in S45 is performed (S46), and the image is restored. In S46, if there is a place where pixels are not interpolated in the output image, pixel compensation processing is performed by spatial interpolation in the frame (S47). As a result, a highly accurate original image can be restored.
[0075]
3 is executed by the above-described original image restoration program stored in the memory of the computer.
[0076]
The original image restoration program described above can be easily restored by storing it in a storage medium such as a CD-ROM and installing it in a computer. Further, as another method, the original image restoration program can be executed by acquiring the original image restoration program in a file format from the communication interface and the network and installing the program in a computer.
[0077]
As described above, by using the original image restoration apparatus 1 shown in FIG. 3 or the original image restoration program, it is possible to restore the original image before being superimposed from the image signal in which the additional information is superimposed. In addition, it is possible to easily perform effective reuse of a program using an image by using the restored original image. Furthermore, by using the restored original image in the present invention, it is possible to provide the viewer who views the program without feeling uncomfortable.
[0078]
【The invention's effect】
As described above, according to the present invention, when additional information such as a telop is superimposed on an image, a frame image other than the corresponding frame image can be used to restore the original image before being superimposed, Images can be reused efficiently.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an example of an image when a conventional superimposed image is reused.
FIG. 2 is a diagram illustrating an example of an image for explaining an original image restoration method according to the present invention.
FIG. 3 is a block diagram illustrating an example of an original image restoration apparatus according to the present invention.
FIG. 4 is a processing flowchart example of motion estimation.
FIG. 5 is a processing flowchart example of telop portion extraction.
FIG. 6 is a flowchart illustrating an example of a reference image update process.
FIG. 7 is a flowchart illustrating an example of processing executed by an original image restoration program.
[Explanation of symbols]
1 Original image restoration device
11 Cut detector
12 Motion estimation unit
13 telop part extractor
14 Image update unit
15 Image storage unit
16 Telop cutout
17 Non-telop part generator
18 Image composition part
19 In-frame pixel compensation
21 Shape area data

Claims (8)

付加情報がスーパーインポーズされた第一の画像を原画像に復元する原画像復元装置において、
前記第一の画像のスーパーインポーズ領域を検出する領域検出部と、
前記第一の画像から、前記スーパーインポーズ領域の画像情報を除いた第二の画像を生成する画像生成部と、前記第一の画像の前及び/又は後の画像から、スーパーインポーズされる前のスーパーインポーズ領域である第三の画像を取得する画像取得部と、
前記第二の画像と、前記第三の画像とを合成して原画像を復元する原画像復元部とを有し、
前記原画像復元部は、前記第二の画像に前記第三の画像を上書きして原画像を復元した場合に復元できない画素があったときは、フレーム画像内で空間内挿を行う空間内挿部を有することを特徴とする原画像復元装置。
In the original image restoration device for restoring the first image on which the additional information is superimposed on the original image,
An area detection unit for detecting a superimpose area of the first image;
An image generation unit that generates a second image from which the image information of the superimpose area is removed from the first image, and an image before and / or after the first image are superimposed. An image acquisition unit that acquires a third image that is the previous superimpose area;
It possesses said second image, and an original image restoration unit for restoring an original image by synthesizing the said third image,
The original image restoration unit performs spatial interpolation in a frame image when there is a pixel that cannot be restored when the second image is overwritten with the third image and the original image is restored. original image restoration apparatus characterized by have a part.
前記画像取得部は、
前記第一の画像から画像の動きベクトルを推定する動きベクトル推定部と、
前記第一の画像の前及び/又は後の画像から、前記動きベクトルに基づいて前記スーパーインポーズ領域の画像を抽出する画像抽出部とを有することを特徴とする請求項1に記載の原画像復元装置。
The image acquisition unit
A motion vector estimation unit that estimates an image motion vector from the first image;
2. The original image according to claim 1, further comprising: an image extracting unit that extracts an image of the superimpose area from an image before and / or after the first image based on the motion vector. Restore device.
前記動きベクトル推定部は、
カメラパラメータを用いて動きベクトルを検出することを特徴とする請求項2に記載の原画像復元装置。
The motion vector estimation unit
3. The original image restoration apparatus according to claim 2, wherein a motion vector is detected using camera parameters.
前記動きベクトル推定部は、
フレーム画像単位に比較することにより動きベクトルを検出することを特徴とする請求項2に記載の原画像復元装置。
The motion vector estimation unit
3. The original image restoration apparatus according to claim 2, wherein a motion vector is detected by comparing with a frame image unit.
前記動きベクトル推定部は、
前記画像を所定の画素ブロック毎に分割し、前記ブロック単位で時間的に異なる対応した画素毎に比較して動きベクトルを検出することを特徴とする請求項2に記載の原画像復元装置。
The motion vector estimation unit
3. The original image restoration apparatus according to claim 2, wherein the image is divided into predetermined pixel blocks, and a motion vector is detected by comparing each corresponding pixel that is temporally different in the block unit.
前記領域検出部は、
スーパーインポーズ領域を検出する際に予め設定された付加情報の表示領域のデータを用いることを特徴とする請求項1乃至5の何れか一項に記載の原画像復元装置。
The region detection unit
6. The original image restoration apparatus according to claim 1, wherein data of a display area of additional information set in advance when the superimpose area is detected is used.
コンピュータに、付加情報がスーパーインポーズされた第一の画像を原画像に復元するための処理を実行させるプログラムにおいて、
コンピュータに、前記第一の画像のスーパーインポーズ領域を検出する領域検出ステップと、
前記第一の画像から、前記スーパーインポーズ領域の画像情報を除いた第二の画像を生成する画像生成ステップと、
前記第一の画像の前及び/又は後の画像から、スーパーインポーズされる前のスーパーインポーズ領域である第三の画像を取得する画像取得ステップと、
前記第二の画像と、前記第三の画像とを合成して原画像を復元する原画像復元ステップとを実行させ
前記原画像復元ステップは、前記第二の画像に前記第三の画像を上書きして原画像を復元した場合に復元できない画素があったときは、フレーム画像内で空間内挿を行う空間内挿ステップを有することを特徴とする原画像復元プログラム。
In a program for causing a computer to execute a process for restoring a first image superimposed with additional information to an original image,
An area detecting step for detecting a superimpose area of the first image in the computer;
An image generation step of generating a second image from which the image information of the superimpose area is removed from the first image;
An image acquisition step of acquiring a third image which is a superimpose area before being superimposed from an image before and / or after the first image;
Executing an original image restoration step of restoring the original image by combining the second image and the third image ;
In the original image restoration step, when there is a pixel that cannot be restored when the second image is overwritten with the third image and the original image is restored, spatial interpolation is performed in the frame image. original image restoration program characterized Rukoto to have a step.
前記画像取得ステップは、
前記第一の画像から画像の動きベクトルを推定する動きベクトル推定ステップと、スーパーインポーズされている前及び/又は後の画像から、前記動きベクトルに基づいて、前記スーパーインポーズ領域の画像を抽出する画像抽出ステップとを有することを特徴とする請求項に記載の原画像復元プログラム。
The image acquisition step includes
A motion vector estimation step for estimating a motion vector of the image from the first image, and an image of the superimpose region is extracted based on the motion vector from images before and / or after being superimposed. The original image restoration program according to claim 7 , further comprising:
JP2002137339A 2002-05-13 2002-05-13 Original image restoration apparatus and original image restoration program Expired - Lifetime JP4095336B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002137339A JP4095336B2 (en) 2002-05-13 2002-05-13 Original image restoration apparatus and original image restoration program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002137339A JP4095336B2 (en) 2002-05-13 2002-05-13 Original image restoration apparatus and original image restoration program

Publications (2)

Publication Number Publication Date
JP2003333424A JP2003333424A (en) 2003-11-21
JP4095336B2 true JP4095336B2 (en) 2008-06-04

Family

ID=29699124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002137339A Expired - Lifetime JP4095336B2 (en) 2002-05-13 2002-05-13 Original image restoration apparatus and original image restoration program

Country Status (1)

Country Link
JP (1) JP4095336B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005086092A1 (en) 2004-03-03 2005-09-15 Nec Corporation Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program
US20060092505A1 (en) * 2004-11-02 2006-05-04 Umech Technologies, Co. Optically enhanced digital imaging system
JP5040378B2 (en) * 2007-03-09 2012-10-03 ソニー株式会社 Image processing apparatus, image processing method, and program
US8520131B2 (en) 2009-06-18 2013-08-27 Nikon Corporation Photometric device, imaging device, and camera
JP2011019176A (en) * 2009-07-10 2011-01-27 Nikon Corp Camera
JP5349649B1 (en) 2012-05-25 2013-11-20 株式会社東芝 Electronic device, electronic device control method, electronic device control program
JP6080667B2 (en) * 2013-04-18 2017-02-15 三菱電機株式会社 Video signal processing apparatus and method, program, and recording medium
CN104918107B (en) * 2015-05-29 2018-11-02 小米科技有限责任公司 The identification processing method and device of video file
US20220301118A1 (en) * 2020-05-13 2022-09-22 Google Llc Image replacement inpainting
CN112950951B (en) * 2021-01-29 2023-05-02 浙江大华技术股份有限公司 Intelligent information display method, electronic device and storage medium

Also Published As

Publication number Publication date
JP2003333424A (en) 2003-11-21

Similar Documents

Publication Publication Date Title
US10425582B2 (en) Video stabilization system for 360-degree video data
KR100739173B1 (en) Methode and apparutus for creating pictures by camera built-in terminal engaged
KR100323678B1 (en) Apparatus for converting screen aspect ratio
US7308028B2 (en) Apparatus and method for generating mosaic images
US20060192857A1 (en) Image processing device, image processing method, and program
JP4095336B2 (en) Original image restoration apparatus and original image restoration program
JP2000513897A (en) Image segmentation and object tracking method and corresponding system
JP2003501902A (en) Video signal encoding
US20110285814A1 (en) Apparatus and method for converting two-dimensional video frames to stereoscopic video frames
US7697609B2 (en) Apparatus and method for encoding and decoding a moving picture using digital watermarking
KR20060083978A (en) Motion vector field re-timing
KR20030029442A (en) Method for coding data of special effect, method for displaying special effect, and method for editing data of special effect
JP2009100296A (en) Electronic watermark embedding apparatus, electronic watermark detection device, methods thereof, and programs thereof
JP4872672B2 (en) Learning device, learning method, and learning program
JP2004056488A (en) Image processing method, image processor and image communication equipment
Chaudhuri et al. High-resolution slow-motion sequencing: how to generate a slow-motion sequence from a bit stream
JP2010062792A (en) Image compression apparatus, image decompression apparatus, image compression program, and image decompression program
KR100868076B1 (en) Apparatus and Method for Image Synthesis in Interaced Moving Picture
JP4886479B2 (en) Motion vector correction apparatus, motion vector correction program, interpolation frame generation apparatus, and video correction apparatus
JP3895145B2 (en) Image encoding apparatus, image decoding apparatus and method, image encoding program, and image decoding program
JP4140091B2 (en) Image information conversion apparatus and image information conversion method
JP4596248B2 (en) Image processing apparatus, image processing method, and program
JP3490142B2 (en) Moving image encoding method and apparatus
JP4519569B2 (en) 3D MPEG signal synchronization system
JP3148751B2 (en) Video encoding device and video decoding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080307

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120314

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130314

Year of fee payment: 5