JP2011254240A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2011254240A
JP2011254240A JP2010126020A JP2010126020A JP2011254240A JP 2011254240 A JP2011254240 A JP 2011254240A JP 2010126020 A JP2010126020 A JP 2010126020A JP 2010126020 A JP2010126020 A JP 2010126020A JP 2011254240 A JP2011254240 A JP 2011254240A
Authority
JP
Japan
Prior art keywords
image
scene
representative
sub
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010126020A
Other languages
English (en)
Inventor
Yoshinori Takagi
芳徳 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010126020A priority Critical patent/JP2011254240A/ja
Priority to CN2011101468157A priority patent/CN102270300A/zh
Priority to US13/115,471 priority patent/US8629918B2/en
Publication of JP2011254240A publication Critical patent/JP2011254240A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)

Abstract

【課題】映像のシーン構成を容易に把握可能にする、画像処理装置、画像処理方法およびプログラムを提供する。
【解決手段】一連の画像からなる動画のデータに基づき動画中のシーン遷移を検出するシーン遷移検出部13と、各シーンに属する一連の画像から所定数の代表画像Iを抽出する代表画像抽出部17と、各シーンにおいて2以上の代表画像が抽出された場合、代表画像を主画像Mと副画像Sに区分する代表画像区分部19と、副画像を縮退表示するために、副画像を操作して縮退表示画像Dを生成する縮退表示画像生成部21と、複数のシーンの代表画像をシーン遷移順に並べて表示し、かつ、各シーンにおいて、2以上の代表画像が抽出された場合に主画像とともに縮退表示画像を表示し、1の代表画像が抽出された場合に代表画像を表示する代表画像表示部23とを備える。
【選択図】図2

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。
映像表現において、通常の映像は、多数のシーンから構成されている。映像表現では、制作者の意図に応じて、例えば同じような内容のシーンを時間的に隔てて構成する等、シーン構成(絵コンテとも称する。)に工夫を凝らす場合がある。
ところで、映像のシーン構成を把握するために、制作者以外の利用者が映像を複数のシーンに区分するシーン割り(カット割りとも称する。)作業を行う場合がある。この場合、制作者の意図を把握していない利用者は、各シーンを逐一仕分けせざるをえず、多大な作業負担を余儀なくされることになる。
また、シーン割りされた映像を概観するために、各シーンに属する代表画像を表示する場合がある。この場合、各シーンに属する代表画像が通常類似しているので、代表画像は、主画像と主画像に類似する副画像に区分される。そして、通常、主画像が表示される一方、副画像は、全て表示されるか、全く表示されない。
ここで、副画像が全て表示される場合、代表画像の表示が煩雑となる一方、全く表示されない場合、映像の遷移等の情報が失われてしまうことになる。よって、いずれの場合も、映像の利用者は、シーン割りされた映像を概観することができず、映像のシーン構成を容易に把握することができなくなってしまう。
そこで、本発明は、映像のシーン構成を容易に把握可能にする、画像処理装置、画像処理方法およびプログラムを提供しようとするものである。
本発明のある観点によれば、一連の画像からなる動画のデータに基づき動画中のシーン遷移を検出するシーン遷移検出部と、各シーンに属する一連の画像から所定数の代表画像を抽出する代表画像抽出部と、各シーンにおいて2以上の代表画像が抽出された場合、代表画像を主画像と副画像に区分する代表画像区分部と、副画像を縮退表示するために、副画像を操作して縮退表示画像を生成する縮退表示画像生成部と、複数のシーンの代表画像をシーン遷移順に並べて表示し、かつ、各シーンにおいて、2以上の代表画像が抽出された場合に主画像とともに縮退表示画像を表示し、1の代表画像が抽出された場合に代表画像を表示する代表画像表示部とを備える画像処理装置が提供される。
上記縮退表示画像生成部は、副画像の画像領域を変化領域と無変化領域に区分し、副画像に含まれる無変化領域の画像のみを操作して縮退表示画像を生成してもよい。
上記縮退表示画像は、副画像に含まれる無変化領域の画像を減色化して生成されてもよい。
上記縮退表示画像は、副画像に含まれる無変化領域の画像を低階調化して生成されてもよい。
上記縮退表示画像は、副画像に含まれる無変化領域の画像を省略して生成されてもよい。
上記縮退表示画像は、副画像に含まれる変化領域の画像のみを切出して生成されてもよい。
上記縮退表示画像は、副画像に含まれる無変化領域の画像を減色化または低階調化し、変化領域と変化領域を囲む一部の無変化領域の画像を切出して生成されてもよい。
上記縮退表示画像は、副画像全体を縮小化して生成されてもよい。
上記縮退表示画像は、副画像全体を減色化して生成されてもよい。
上記縮退表示画像は、副画像全体を低階調化して生成されてもよい。
上記代表画像抽出部は、各シーンの長さに応じた数の代表画像を抽出してもよい。
上記複数のシーンの代表画像は、シーン毎に改行してシーン遷移順に並べて表示されてもよい。
上記各シーンの代表画像の特徴量に基づき、複数のシーンをシーングループに区分するシーン区分部をさらに備えてもよい。
上記シーン区分部は、シーングループの区分結果に基づき、複数のシーンを所定の連続性を伴って対をなすシーンペアに区分してもよい。
上記シーングループを表す情報は、各シーンの代表画像の属性情報として、動画のデータに関連付けて記憶されてもよい。
上記シーンペアを表す情報は、各シーンの代表画像の属性情報として、動画のデータに関連付けて記憶されてもよい。
また、本発明の別の観点によれば、一連の画像からなる動画のデータに基づき動画中のシーン遷移を検出するステップと、各シーンに属する一連の画像から所定数の代表画像を抽出するステップと、各シーンにおいて2以上の代表画像が抽出された場合、代表画像を主画像と副画像に区分するステップと、副画像を縮退表示するために、副画像を操作して縮退表示画像を生成するステップと、複数のシーンの代表画像をシーン遷移順に並べて表示し、かつ、各シーンにおいて、2以上の代表画像が抽出された場合に主画像とともに縮退表示画像を表示し、1の代表画像が抽出された場合に代表画像を表示するステップとを含む画像処理方法が提供される。
また、本発明の別の観点によれば、上記画像処理方法をコンピュータに実行させるためのプログラムが提供される。なお、プログラムは、コンピュータ読取り可能な記録媒体を用いて提供されてもよく、通信手段等を介して提供されてもよい。
以上説明したように本発明によれば、映像のシーン構成を容易に把握可能にする、画像処理装置、画像処理方法およびプログラムを提供することができる。
本発明の実施形態に係る画像処理方法の概要を示す図である。 本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。 シーン割り処理の対象となる代表画像の一例を示す図である。 シーン割り処理の手順を示すフロー図である。 シーン割り処理の結果の一例を示す図である。 シーン割り処理の結果の一例を代表画像とともに示す図である。 本発明の第2の実施形態に係る画像処理装置の構成を示すブロック図である。 表示対象となる代表画像の一例を示す図である。 代表画像からの主画像の選別結果の一例を示す図である。 代表画像からの主画像の選別結果の他の例を示す図である。 副画像全体の操作による副画像の縮退表示の態様1を示す図である。 副画像全体の操作による副画像の縮退表示の態様2を示す図である。 副画像全体の操作による副画像の縮退表示の態様3を示す図である。 副画像全体の操作による副画像の縮退表示の他の一例を示す図である。 副画像全体の操作による副画像の縮退表示の他の一例を示す図である。 本発明の第3の実施形態に係る画像処理装置の構成を示すブロック図である。 無変化領域の画像のみの操作による副画像の縮退表示を示す図である。 無変化領域の画像のみの操作による副画像の縮退表示の態様1を示す図である。 無変化領域の画像のみの操作による副画像の縮退表示の態様2を示す図である。 無変化領域の画像のみの操作による副画像の縮退表示の態様3を示す図である。 無変化領域の画像のみの操作による副画像の縮退表示の態様4を示す図である。 無変化領域の画像のみの操作による副画像の縮退表示の態様5を示す図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[1.画像処理方法の概要]
まず、図1を参照して、本発明の実施形態に係る画像処理方法の概要について説明する。
図1に示すように、ある実施形態に係る画像処理方法では、まず、一連の画像からなる動画のデータ(動画データ)に基づき動画中のシーン遷移が検出される(ステップS1)。また、シーン遷移の検出結果(シーン遷移情報)に基づき各シーンに属する一連の画像から所定数の代表画像I(I:代表画像の総称)が抽出される(S3)。代表画像Iとは、各シーンに属する一連の画像から所定の基準に従って抽出される画像である。
各シーンにおいて2以上の代表画像Iが抽出された場合、代表画像Iが主画像M(M:主画像の総称)と副画像S(S:副画像の総称)に区分され(S5)、副画像Sを縮退表示するために、副画像Sを操作して縮退表示画像D(D:縮退表示画像の総称)が生成される(S7)。そして、複数のシーンの代表画像Iがシーン遷移順に並べて表示される。ここで、各シーンにおいて、2以上の代表画像Iが抽出された場合に主画像Mとともに縮退表示画像Dが表示され、1の代表画像Iが抽出された場合に代表画像Iが主画像Mとして表示される(S9)。
主画像Mとは、代表画像Iから所定の基準に従って選別される画像であり、副画像Sとは、代表画像Iのうち主画像M以外の全ての画像であり、主画像Mに類似している。縮退表示画像Dとは、詳細は後述するが、副画像Sに比べて主画像Mが強調して表示されるように、副画像Sの少なくとも一部を操作して生成される画像である。
これにより、主画像Mとともに縮退表示画像Dが表示されるので、代表画像Iの表示が煩雑とならず、かつ、映像の遷移等の情報が失われない。よって、映像の利用者は、シーン割りされた映像を概観可能となり、映像のシーン構成を容易に把握することができる。
また、他の実施形態に係る画像処理方法では、副画像Sの画像領域が変化領域と無変化領域に区分され、副画像Sに含まれる無変化領域の画像Sa(Sa:副画像Sに含まれる無変化領域の画像の総称)のみを操作して縮退表示画像Dが生成される。変化領域とは、副画像Sの画像領域のうち、相前後する副画像S間で画像情報が所定閾値以上に変化している画像領域であり、無変化領域とは、同様に画像情報が所定閾値以上に変化していない画像領域である。
そして、複数のシーンの代表画像Iがシーン遷移順に並べて表示される。ここで、各シーンにおいて2以上の代表画像Iが抽出された場合、主画像Mとともに、副画像Sに含まれる無変化領域の画像Saのみが操作された縮退表示画像Dが表示される。
これにより、主画像Mとともに、副画像Sに含まれる無変化領域の画像Saのみが操作された縮退表示画像Dが表示されるので、映像の遷移等の情報が強調して表示される。よって、映像の利用者は、シーン割りされた画像を映像の遷移を参照しつつ概観可能となり、映像のシーン構成を容易に把握することができる。
[2.画像処理装置の構成]
つぎに、図2から図6を参照して、本発明の実施形態に係る画像処理装置について説明する。
図2に示すように、画像処理装置は、データ取得部11、シーン遷移検出部13、シーン区分部15、代表画像抽出部17、代表画像区分部19、縮退表示画像生成部21、代表画像表示部23、データ記憶部25を含んで構成される。
データ取得部11は、一連の画像からなる動画のデータ(動画データ)を取得し、シーン遷移検出部13および代表画像抽出部17に供給する。なお、動画データは、データ記憶部25から取得されてもよく、通信手段等(不図示)を通じて外部装置(不図示)から取得されてもよい。
シーン遷移検出部13は、動画データに基づき動画中のシーン遷移を検出し、検出結果をシーン区分部15に供給する。シーン遷移とは、映像中におけるシーンの移り変わりを意味する。シーン遷移は、相前後する画像の特徴量Sを求め、特徴量Sの類似度に基づき検出される。画像の特徴量Sとしては、色ヒストグラムや顔画像の検出結果等を用いることができる。ここで、相前後する画像の間で特徴量Sの類似度が所定の閾値未満となる場合、シーン遷移が検出される。
シーン区分部15は、詳細は後述するが、各シーンに属する代表画像Iの特徴量Sに基づき、複数のシーンをシーングループおよびシーンペアに区分し、区分結果を代表画像抽出部17に供給する。シーングループとは、互いに類似するシーンからなるシーングループであり、シーンペアとは、所定の連続性を伴って対をなす2以上のシーンからなる。また、シーン区分部15は、シーングループやシーンペアを表す属性情報を代表画像Iに付加する。属性情報は、後述するように、データ記憶部25や外部装置等に供給されてもよい。
代表画像抽出部17は、各シーンに属する一連の画像から所定数の代表画像Iを抽出し、代表画像区分部19に供給する。代表画像Iとは、各シーンに属する一連の画像から所定の基準に従って抽出される画像である。代表画像Iは、シーン毎に1つの画像として抽出されてもよく、2以上の画像として抽出されてもよく、シーン長に応じた数の画像として抽出されてもよい。なお、シーン長に応じた数の画像を抽出する場合、シーン長に比例する数の画像が抽出されてもよく、シーン長に応じて段階的に設定された数の画像が抽出されてもよい。これにより、代表画像の数によりシーンの長さを表すことができる。
代表画像区分部19は、各シーンにおいて2以上の代表画像Iが抽出された場合、代表画像Iを主画像Mと副画像Sに区分し、主画像Mを代表画像表示部23に供給し、副画像Sを縮退表示画像生成部21に供給する。主画像Mとは、代表画像Iから所定の基準に従って選別される画像であり、副画像Sとは、代表画像Iのうち主画像M以外の全ての画像であり、主画像Mに類似している。なお、各シーンにおいて1の代表画像Iのみが抽出された場合、代表画像Iが主画像Mのみから構成されることになる。
縮退表示画像生成部21は、詳細は後述するが、副画像Sを縮退表示するために、副画像Sを操作して縮退表示画像Dを生成し、代表画像表示部23に供給する。ここで、縮退表示画像Dは、副画像S全体を操作して生成されてもよく、副画像Sに含まれる無変化領域の画像Saのみを操作して生成されてもよい。縮退表示画像Dとは、副画像Sに比べて主画像Mが強調して表示されるように、副画像Sの少なくとも一部を操作することで生成される画像である。副画像Sは、副画像Sの画像領域のうち、相前後する副画像S間で画像情報が所定閾値以上に変化している変化領域と、画像情報が所定閾値以上に変化していない無変化領域に区分される。
代表画像表示部23は、複数のシーンの代表画像Iをシーン遷移順に並べて表示し、かつ、各シーンにおいて、2以上の代表画像Iが抽出された場合に主画像Mとともに縮退表示画像Dを表示し、1の代表画像Iが抽出された場合に代表画像Iを主画像Mとして表示する。
データ記憶部25は、動画データおよび動画データに付属するデータを記憶している。データ記憶部25には、シーン区分部15による処理結果が代表画像Iの属性情報として、動画データに関連付けて記憶されてもよい。また、データ記憶部25には、主画像Mおよび縮退表示画像Dのデータが動画データに関連付けて記憶されてもよい。属性情報は、後述するように動画検索データとして、画像処理装置内部または画像処理装置から属性情報を供給された外部装置上で利用されてもよい。
ここで、上記機能構成において、データ取得部11、シーン遷移検出部13、シーン区分部15、代表画像抽出部17、代表画像区分部19および縮退表示画像生成部21は、CPU、DSP(デジタル信号処理装置)等の演算処理装置により構成され、代表画像表示部23は液晶ディスプレイ等の表示装置により構成され、データ記憶部25はフラッシュメモリ等の不揮発性メモリ、ハードディスクドライブ、ブルーレイディスクドライブ等の外部記憶装置等により構成される。そして、CPUは、ROM等から読み出されたプログラムをRAM上に展開して実行することで、画像処理方法を実現する。なお、上記機能構成は、少なくとも一部が専用ロジック等のハードウェアとして構成されてもよい。
[3.第1の実施形態(映像のシーン割り処理)]
つぎに、図3から図6を参照して、映像のシーン割り処理について説明する。
図3には、シーン割り処理の対象となる代表画像I1〜I14が示されている。代表画像I1〜I14は、一連の画像からなる動画のデータからシーン1〜14のシーン遷移が検出され、各シーンに属する一連の画像から抽出される。この場合、代表画像I1〜I14は、各シーンに属する一連の画像から所定の基準に従って1の代表画像Iとして抽出される。
ここで、図3に示すように、代表画像I1、I14が互いに類似し、代表画像I3、I5、I7が互いに類似し、代表画像I4、I6が互いに類似し、代表画像I8、I10、I12が互いに類似し、代表画像I9、I11、I13が互いに類似し、代表画像I2が他の代表画像I1、I3〜I14と類似していない。
シーン割り処理は、シーン区分部15により図4に示す手順に従って行われる。まず、シーングループIDおよびシーンペアIDが初期化される(ステップS11)。次に、一連の画像からなる動画のデータから、処理対象となる画像が取得されて画像の特徴量Sが生成され(S15)、特徴量Sの類似度に基づきシーン遷移が検出される(S17)。なお、動画データから全ての画像が取得されると(S13)、シーン割り処理が終了する。
第1のシーン遷移が検出されると(S17)、特徴量Sを伴うシーン1の代表画像I1が抽出される(S19)。ここで、代表画像Iの特徴量Sとしては、色ヒストグラムや顔画像の検出結果等を用いることができる。そして、代表画像I1の特徴量Sと比較される他の特徴量Sが未だ得られていないので(S21における否定分岐)、特徴量S1(=代表画像I1の特徴量S)のシーングループ1が生成され、シーングループID=1、シーングループ内ID=1、デフォルトのシーンペアID=1が代表画像I1に付与される(S39、S41、S37)。
第2のシーン遷移が検出されると(S17)、特徴量Sを伴うシーン2の代表画像I2が抽出される(S19)。そして、代表画像I2の特徴量Sが代表画像1の特徴量S1と比較され(S23)、特徴量Sと特徴量S1が類似しないと判定される(S25における否定分岐)。よって、特徴量S2=Sのシーングループ2が生成され、シーングループID=2、シーングループ内ID=1が代表画像I2に付与される(S39、S41)。また、シーングループが新たに生成されているので、従前のシーンペアID=1が付与される(S37)。
同様に、第3のシーン遷移が検出されると(S17)、シーン3の代表画像I3は、代表画像I3の特徴量Sに基づき特徴量S3(=代表画像I3の特徴量S)のシーングループ3が生成され、シーングループID=3、シーングループ内ID=1、シーンペアID=1を付与される(S39、S41、S37)。同様に、第4のシーン遷移が検出されると(S17)、シーン4の代表画像I4は、代表画像I4の特徴量Sに基づき特徴量S4(=代表画像I4の特徴量S)のシーングループ4が生成され、シーングループID=4、シーングループ内ID=1、シーンペアID=1を付与される(S39、S41、S37)。
第5のシーン遷移が検出されると(S17)、特徴量Sを伴うシーン5の代表画像I5が抽出される。そして、代表画像I5の特徴量Sが代表画像I1〜I4の特徴量S1〜S4と比較され、特徴量Sと特徴量S3が類似すると判定される(S25における肯定分岐)。よって、代表画像I5は、シーングループID=3を付与されるとともに(S29)、シーングループID=3のシーングループ内IDが1増分され、シーングループ内ID=2を付与される(S31)。また、シーン遷移の前後でシーングループIDが4から3に減少しているので(S33における肯定分岐)、他のシーンペアの開始が検出され、シーンペアID=1が1増分され(S35)、シーンペアID=2が付与される(S37)。
同様に、第6のシーン遷移が検出されると(S17)、シーン6の代表画像I6は、代表画像I6の特徴量Sに基づいて、特徴量S4を有するシーングループ4に分類され、シーングループID=4を付与されるとともに(S29)、シーングループID=4のシーングループ内IDが1増分され、シーングループ内ID=2を付与される(S31)。また、シーン遷移の前後でシーングループIDが3から4に増加しているので(S33における否定分岐)、従前のシーンペアID=2が付与される(S37)。
そして、第7〜第14のシーン遷移について同様な処理が行われることで(S17)、代表画像I1〜I14を含む動画は、図5に示すようにシーン割りされる。つまり、代表画像I1、I14がシーングループ1に分類され、代表画像I2がシーングループ2に分類され、代表画像I3、I5、I7がシーングループ3に分類され、代表画像I4、I6がシーングループ4に分類され、代表画像I8、I10、I12がシーングループ5に分類され、代表画像I9、I11、I13がシーングループ6に分類される。
また、代表画像I1、I14にシーングループ内ID=1、2が各々に付与され、代表画像I2にシーングループ内ID=1が付与され、代表画像I3、I5、I7にシーングループ内ID=1、2、3が各々に付与され、代表画像I4、I6にシーングループ内ID=1、2が各々に付与され、代表画像I8、I10、I12にシーングループ内ID=1、2、3が各々に付与され、代表画像I9、I11、I13にシーングループ内ID=1、2、3が各々に付与される。
また、第1のシーンペアをなす代表画像I1、I2、I3、I4にシーンペアID=1が付与され、第2のシーンペアをなす代表画像I5、I6にシーンペアID=2が付与され、第3のシーンペアをなす代表画像I7、I8、I9にシーンペアID=3が付与され、第4のシーンペアをなす代表画像I10、I11にシーンペアID=4が付与され、第5のシーンペアをなす代表画像I12、I13にシーンペアID=5が付与され、第6のシーンペアをなす代表画像I14にシーンペアID=6が付与される。
ここで、特徴量Sの比較に際しては、直前のシーンに属する代表画像IのシーングループID、シーンペアIDから予測される所定のシーンの特徴量Sに基づく比較が優先的に行われてもよい。例えば、第7のシーン遷移が検出された場合、直前のシーン6に属する代表画像I6のシーングループID=4およびシーンペアID=2よりシーングループID=3を予測し、シーングループID=4に対応する特徴量S4に基づく比較よりも、シーングループID=3に対応する特徴量S3に基づく比較が優先的に行われてもよい。
代表画像I1〜I14には、シーングループID、シーングループ内IDおよびシーンペアIDが属性情報として付加される。属性情報は、各シーン1〜14に属する代表画像I1〜I14の属性情報として、代表画像I1〜I14を含む動画データに関連付けてデータ記憶部25等に記憶される。そして、このような属性情報を含む動画データベースを画像処理装置の内部または外部に構築することで、属性情報を検索条件とする動画検索が可能となる。これにより、従来にない、映像のシーン構成を考慮した動画検索を実現することができる。
図6には、シーン割り処理の結果が代表画像I1〜I14とともに表示されている。シーン割り処理の結果は、代表画像表示部23により表示される。図6には、シーン割り処理の結果を連番ID=1〜14を用いて表す場合(図6の上部)と、シーングループIDおよびシーングループ内IDからなるIDを用いて表す場合(図6の下部)が対比して示されている。
従来のように連番IDを用いてシーン割り処理の結果を表す場合、代表画像I1〜I14には、連番ID=1〜14が順に付与される。一方、前述したようにシーングループIDおよびシーングループ内IDからなるIDを用いてシーン割り処理の結果を表す場合、互いに類似する代表画像Iがシーングループに分類され、分類結果を示すIDが付与される。
つまり、代表画像I1、I14にID=1−1、1−2が各々に付与され、代表画像I2にID=2−1が付与され、代表画像I3、I5、I7にID=3−1、3−2、3−3が各々に付与され、代表画像I4、I6にID=4−1、4−2が各々に付与され、代表画像I8、I10、I12にID=5−1、5−2、5−3が各々に付与され、代表画像I9、I11、I13にID=6−1、6−2、6−3が各々に付与される。ここで、IDのうちハイフンの前の番号がシーングループIDを表し、ハイフンの後ろの番号がシーングループ内IDを表している。
これにより、シーングループID=3のシーン3、5、7とシーングループID=4のシーン4、6によるシーン繰返しを表すためのシーン構成を容易に把握することができる。また、シーングループID=5のシーン8、10、12とシーングループID=6のシーン9、11、13によるシーン切返しを表すためのシーン構成を容易に把握することができる。さらに、1度のみ表現されるシーン(シーン2)や、時間的に隔てて構成されるシーン(シーン1、14)を把握することもできる。
以上説明したように、本発明の第1の実施形態に係る画像処理装置および画像処理方法によれば、各シーンに属する代表画像Iの特徴量Sに基づき、複数のシーンをシーングループおよびシーンペアに分類することで、映像のシーン構成を容易に把握することができる。また、分類結果を代表画像Iの属性情報として、動画データとともに記憶することで、映像のシーン構成を考慮した動画検索を実現することができる。
[4.第2の実施形態(副画像全体の操作による副画像の縮退表示)]
つぎに、図7から図12A、12Bを参照して、本発明の第2の実施形態に係る画像処理装置について説明する。
図7に示すように、第2の実施形態に係る画像処理装置では、縮退表示画像生成部21において、代表画像Iの副画像S全体を操作して縮退表示画像Dが生成される(27)。縮退表示画像生成部21では、副画像S全体に対して縮小化、減色化、低階調化等の操作が行われる。
第2の実施形態に係る画像処理装置は、各シーンにおいて2以上の代表画像Iが抽出される場合に、利用者がシーン割りされた映像を概観可能となるように、各シーンの代表画像Iを表示するための処理を行う。第2の実施形態では、後述するように、代表画像Iの主画像Mが表示されるとともに、代表画像Iの副画像Sが副画像S全体を操作して縮退表示される。
まず、各シーンに属する一連の画像から、例えばシーン長に応じた数等、所定数の代表画像Iが抽出される。つぎに、各シーンにおいて2以上の代表画像Iが抽出された場合、代表画像Iは、主画像Mと主画像Mに類似する1以上の副画像Sに区分される。
図8には、表示対象となる代表画像Iの一例が示されている。図8に示す例では、シーン1の3つの代表画像I1−1、I1−2、I1−3、シーン2の2つの代表画像I2−1、I2−2およびシーン3の1つの代表画像I3−1が表示対象となる。ここで、シーン1、2では、2以上の代表画像Iが抽出されているので、代表画像Iが主画像Mと副画像Sに区別され、シーン3では、1の代表画像Iが抽出されているので、代表画像Iが主画像Mとして区別される。
図9には、代表画像Iからの主画像Mの選別結果の一例が示されている。図9に示す例では、代表画像Iは、例えば、各シーンに属する一連の画像から所定の間隔(nフレーム毎等)で抽出される。この場合、代表画像Iは、各シーンに属する一連の画像のうち、シーン毎に割当てられたフレーム番号fがf=C(C:任意のフレーム番号)、f=C+n、f=C+2n…の画像として抽出される。もちろん、シーンの長さが短いと、フレーム番号f=Cの画像のみが抽出される場合や、f=C=1の場合もある。
そして、所定の基準に従って2以上の代表画像Iから主画像Mが選別される。ここで、主画像Mは、一連の代表画像Iのうち、例えばフレーム番号fが最も小さい画像から順番に選別されてもよく、最も大きい画像から順番に選別されてもよく、中央値の画像から順番に選別されてもよい。また、主画像Mは、一連の代表画像Iのうち、表示順序が1番目、1+m番目、1+2m番目…の画像として選別されてもよい。図9に示す例では、代表画像I1−1、I2−1、I3−1が主画像M1−1、M2−1、M3−1として選別され、代表画像I1−2、I1−3、I2−2が副画像S1−2、S1−3、S2−2として選別されている。
また、図10には、代表画像Iからの主画像Mの選別結果の他の例が示されている。図10に示す例では、代表画像Iは、例えば、各シーンに属する一連の画像から、各画像に予め設定された優先順位pに従って抽出される。この場合、代表画像Iは、各シーンに属する一連の画像のうち、優先順位p=1、2、3…の画像として抽出される。もちろん、シーンの長さが短いと、優先順位p=1の画像のみが抽出される場合もある。
そして、所定の基準に従って2以上の代表画像Iから主画像Mが選別される。ここでも、主画像Mは、フレーム番号fに基づき選別されてもよく、代表画像Iの表示順序に基づき選別されてもよい。図10に示す例では、代表画像I1−2、I2−2、I3−1が主画像M1−2、M2−2、M3−1として選別され、代表画像I1−1、I1−3、I2−1が副画像S1−1、S1−3、S2−1として選別されている。
つぎに、各シーンにおいて2以上の代表画像Iが抽出された場合、副画像Sを縮退表示するために、副画像S全体を操作した縮退表示画像Dが生成される。そして、複数のシーンの代表画像Iがシーン遷移順に並べて表示され、各シーンにおいて、2以上の代表画像Iが抽出された場合に主画像Mとともに縮退表示画像Dが表示され、1の代表画像Iが抽出された場合に代表画像Iが主画像Mとして表示される。
図11A〜11Cには、副画像S全体の操作による副画像Sの縮退表示の例が示されている。図11A〜11Cに示す例では、図8に示したシーン1〜3の代表画像I1−1、I1−2、I1−3、I2−1、I2−2、I3−1のうち、代表画像I1−1、I2−1、I3−1が主画像M1−1、M2−1、M3−1として表示され、代表画像I1−2、I1−3、I2−2が縮退表示画像D1−2、D1−3、D2−2として表示されている。
図11Aに示す態様1では、副画像S全体を縮小化した縮退表示画像Dを生成することで、副画像Sが縮退表示されている。この場合、副画像Sは、画像情報を判別可能な範囲であれば、主画像Mに比べて小さな、いかなるサイズに縮小化されてもよい。
図11Bに示す態様2では、副画像S全体を減色化(原画像よりも少ない色で表現)した縮退表示画像Dを生成することで、副画像Sが縮退表示されている。この場合、縮退表示画像Dは、白黒で表現されてもよく、セピア色等で表現されてもよい。なお、図11Bでは、表示の便宜上、減色化された画像が破線の線画として表されている。
図11Cに示す態様3では、副画像S全体を低階調化した縮退表示画像Dを生成することで、副画像Sが縮退表示されている。この場合、縮退表示画像Dは、画像情報を暗く表現し、薄く表現し、またはコントラストを下げて表現する等して、主画像Mに比べて低い、いかなる階調で表現されてもよい。なお、図11Cでは、表示の便宜上、低階調化された画像が点線の線画として表されている。
また、縮退表示画像Dは、例えば副画像S全体の縮小化と減色化を組み合わせる等、上記態様1から3を適宜組み合わせることで生成されてもよい。縮退表示画像Dは、副画像S全体の低解像度化、線画化、ぼかし化等により生成されてもよい。さらに、複数の副画像S間では、例えばフレーム順序や優先順位等に応じて、縮小化のサイズを変更したり、減色化の色を変更したり、低階調化の階調度を段階的に変更したりしてもよい。
図12Aには、副画像Sの縮退表示の他の例が示されている。図12Aに示す例では、各シーンの代表画像Iがシーン毎に改行されて表示されている。つまり、シーン1の主画像M1−1および縮退表示画像D1−2、D1−3が一行に表示され、シーン2の主画像M2−1および縮退表示画像DI2−2が次の行に表示され、シーン3の主画像M3−1がさらに次の行に表示されている。なお、副画像S全体を減色化した縮退表示画像D(破線の線画)が表示されているが、もちろん、他の態様の縮退表示画像Dが表示されてもよい。
図12Bには、副画像Sの縮退表示の他の例が示されている。図12Bに示す例は、所定のシーンペアが反復している場合に好適に適用される。この場合、まず、第1の実施形態で説明したシーンペアIDに基づき、最初のシーンペアをなす代表画像I8、I9が主画像M8、M9に区分され、後続のシーンペアをなす代表画像I10〜I13が副画像S10〜S13に区分される。そして、シーンペアをなす副画像S10〜S13を操作してシーンペアをなす縮退表示画像D10〜D13が生成され、シーンペアをなす主画像M8、M9とともに表示される。
以上説明したように、本発明の第2の実施形態に係る画像処理装置および画像処理方法によれば、主画像Mとともに縮退表示画像Dを表示することで、代表画像Iの表示が煩雑とならず、かつ、映像の遷移等の情報が失われない。よって、映像の利用者は、シーン割りされた映像を概観可能となり、映像のシーン構成を容易に把握することができる。
[5.第3の実施形態(副画像に含まれる無変化領域の画像Saのみの操作による副画像の縮退表示)]
つぎに、図13、図14および図15A〜15Eを参照して、本発明の第3の実施形態に係る画像処理装置について説明する。
図13に示すように、第3の実施形態に係る画像処理装置では、縮退表示画像生成部21において、副画像Sに含まれる無変化領域の画像Saのみを操作して縮退表示画像Dが生成される。
縮退表示画像生成部21では、副画像Sの画像領域が変化領域と無変化領域に区分され(29)、副画像Sに含まれる無変化領域の画像Saに対してのみ縮小化、減色化、低階調化、省略化、切出し化等の操作が行われる(30)。変化領域とは、副画像Sの画像領域のうち、相前後する副画像S間で画像情報が所定閾値以上に変化している画像領域であり、無変化領域とは、同様に画像情報が所定閾値以上に変化していない画像領域である。
副画像Sの画像領域は、副画像Sに含まれる画素の動きベクトルに基づき変化領域と無変化領域に区分される。動きベクトルは、注目される画像中の各画素が当該画像に相前後する画像中のどの画素に相当するかを推測することで求められる。当該画像に相前後する複数の画像について同様の推測を行うことで、各画素の動きベクトルを精度よく求めることができる。そして、所定閾値以上の動きベクトルを伴う画素が変化領域を構成する画素として区分され、所定閾値未満の動きベクトルを伴う画素が無変化領域を構成する画素として区分される。
第3の実施形態に係る画像処理装置は、第2の実施形態に係る画像処理装置と同様に、各シーンにおいて2以上の代表画像Iが抽出される場合に、利用者がシーン割りされた映像を概観可能となるように、各シーンの代表画像Iを表示するための処理を行う。第3の実施形態では、後述するように、代表画像Iの主画像Mが表示されるとともに、代表画像Iの副画像Sが副画像Sに含まれる無変化領域の画像Saのみを操作して縮退表示される。
第3の実施形態でも、第2の実施形態と同様に、まず、各シーンにおいて、各シーンに属する一連の画像から代表画像Iが抽出され、2以上の代表画像Iが抽出された場合、主画像Mと副画像Sに区別される。つぎに、各シーンにおいて2以上の代表画像Iが抽出された場合、副画像Sの画像領域が変化領域と無変化領域に区分され、副画像Sに含まれる無変化領域の画像Saのみを操作して、副画像Sを縮退表示するための縮退表示画像Dが生成される。
そして、複数のシーンの代表画像Iがシーン遷移順に並べて表示され、各シーンにおいて、2以上の代表画像Iが抽出された場合に主画像Mとともに副画像Sに含まれる無変化領域の画像Saが縮退表示された縮退表示画像Dが表示され、1の代表画像Iが抽出された場合に代表画像Iが主画像Mとして表示される。
図14には、副画像Sに含まれる無変化領域の画像Saのみを操作する方法の概要が示されている。図14に示すように、まず、副画像Sに含まれる画素の動きベクトルに基づき、副画像Sから無変化領域の画像Sa(Sa:副画像Sに含まれる無変化領域の画像の総称)と変化領域の画像Sb(Sb:副画像Sに含まれる変化領域の画像の総称)が抽出される。なお、図14を含む以下の例では、変化領域が矩形の領域として抽出されているが、変化領域は、矩形以外の領域として抽出されてもよい。そして、無変化領域の画像Saを操作して得られた無変化領域の画像Da(Da:縮退表示画像Dに含まれる無変化領域の画像Daの総称)が生成され、変化領域の画像Db(Db:縮退表示画像Dに含まれる変化領域の画像Dbの総称=Sb)と合成される。これにより、無変化領域の画像Saのみが操作された縮退表示画像Dが生成される。
図15A〜15Eには、無変化領域の画像Saのみの操作による副画像Sの縮退表示の一例が示されている。図15A〜15Eに示す例では、図8に示したシーン1〜3の代表画像I1−1、I1−2、I1−3、I2−1、I2−2、I3−1のうち、代表画像I1−1、I2−1、I3−1が主画像M1−1、M2−1、M3−1として表示され、代表画像I1−2、I1−3、I2−2が縮退表示画像D1−2、D1−3、D2−2として表示されている。なお、図15A、15B、15C、15Eでは、無変化領域の画像Saと変化領域の画像Sbを区別するために、無変化領域と変化領域の間に境界線が示されているが、副画像Sの表示に際しては、境界線の表示が省略される。
図15Aに示す態様1では、無変化領域の画像Saを減色化(減色で表現)することで、副画像Sが縮退表示されている。縮退表示画像Dは、操作された無変化領域の画像Daと操作されていない変化領域の画像Dbで構成される。この場合、無変化領域の画像Daは、白黒で表現されてもよく、セピア色等で表現されてもよい。なお、図15Aでは、表示の便宜上、減色化された画像が破線の線画として表されている。
図15Bに示す態様2では、無変化領域の画像Saを低階調化した縮退表示画像Dを生成することで、副画像Sが縮退表示されている。縮退表示画像Dは、操作された無変化領域の画像Daと操作されていない変化領域の画像Dbで構成される。この場合、無変化領域の画像Daは、画像情報を暗く表現し、薄く表現し、またはコントラストを下げて表現する等して、変化領域に比べて低い、いかなる階調で表現されてもよい。なお、図15Bでは、表示の便宜上、低階調化された画像が点線の線画として表されている。
図15Cに示す態様3では、無変化領域の画像Saを省略することで、副画像Sが縮退表示されている。各縮退表示画像Dは、無変化領域Saに相当する白抜きの画像Daと操作されていない変化領域の画像Dbで構成される。この場合、副画像Sは、無変化領域の画像Saが白抜きされているが、主画像Mと同一のサイズで表示されている。
図15Dに示す態様4では、変化領域の画像Saを切出すことで、副画像Sが縮退表示されている。この場合、副画像Sは、主画像Mに比べて小さなサイズで表示されている。各縮退表示画像Dは、操作されていない変化領域の画像Dbのみで構成される。
図15Eに示す態様5では、無変化領域の画像Saを減色化または低調化し、変化領域と変化領域を囲む無変化領域の一部からなる画像を切出すことで、副画像Sが縮退表示されている。各縮退表示画像Dは、変化領域を囲む一部の無変化領域の画像をなす操作された画像Daと、操作されていない変化領域の画像Dbで構成される。この場合、副画像Sは、態様4に比べて大きなサイズであるいが、主画像Mに比べて小さなサイズで表示されている。
また、第2の実施形態でも、縮退表示画像Dは、例えば無変化領域の画像Saの減色化と低階調化を組み合わせる等、上記態様1から5を適宜組み合わせることで生成されてもよい。縮退表示画像Dは、無変化領域の画像Saの低解像度化、線画化、ぼかし化等により生成されてもよい。さらに、複数の副画像S間では、例えばフレーム順序や優先順位等に応じて、減色化の色を変更したり、低階調化の階調度を段階的に変更したりしてもよい。また、図12Aを参照して説明したように、各シーンの代表画像Iがシーン毎に改行されて表示されてもよく、図12Bを参照して説明したように、最初のシーンペアをなす代表画像Iが主画像Mとして表示され、後続のシーンペアをなす代表画像Iが縮退表示画像Dとして表示されてもよい。
以上説明したように、本発明の第3の実施形態に係る画像処理装置および画像処理方法によれば、主画像Mとともに、副画像Sに含まれる無変化領域の画像Saのみが操作された縮退表示画像Dを表示することで、映像の遷移等の情報が強調して表示される。よって、映像の利用者は、シーン割りされた映像を映像の遷移を参照しつつ概観可能となり、映像のシーン構成を容易に把握することができる。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記説明では、複数のシーンの代表画像をシーン遷移順に横方向に並べて表示する場合について説明した。しかし、代表画像は、縦方向や斜め方向等、一定の方向に並べて表示されてもよい。
11 データ取得部
13 シーン遷移検出部
15 シーン区分部
17 代表画像抽出部
19 代表画像区分部
21 縮退表示画像生成部
23 代表画像表示部
25 データ記憶部
I 代表画像
M 主画像
S 副画像
D 縮退表示画像
Sa 副画像に含まれる無変化領域の画像
Sb 副画像に含まれる変化領域の画像
Da 縮退表示画像に含まれる無変化領域の画像
Db 縮退表示画像に含まれる変化領域の画像(=Sb)

Claims (18)

  1. 一連の画像からなる動画のデータに基づき前記動画中のシーン遷移を検出するシーン遷移検出部と、
    各シーンに属する一連の画像から所定数の代表画像を抽出する代表画像抽出部と、
    前記各シーンにおいて2以上の代表画像が抽出された場合、前記代表画像を主画像と副画像に区分する代表画像区分部と、
    前記副画像を縮退表示するために、前記副画像を操作して縮退表示画像を生成する縮退表示画像生成部と、
    複数のシーンの前記代表画像をシーン遷移順に並べて表示し、かつ、前記各シーンにおいて、2以上の代表画像が抽出された場合に前記主画像とともに前記縮退表示画像を表示し、1の代表画像が抽出された場合に前記代表画像を表示する代表画像表示部と
    を備える画像処理装置。
  2. 前記縮退表示画像生成部は、前記副画像の画像領域を変化領域と無変化領域に区分し、前記副画像に含まれる前記無変化領域の画像のみを操作して前記縮退表示画像を生成する、請求項1に記載の画像処理装置。
  3. 前記縮退表示画像は、前記副画像に含まれる前記無変化領域の画像を減色化して生成される、請求項2に記載の画像処理装置。
  4. 前記縮退表示画像は、前記副画像に含まれる前記無変化領域の画像を低階調化して生成される、請求項2に記載の画像処理装置。
  5. 前記縮退表示画像は、前記副画像に含まれる前記無変化領域の画像を省略して生成される、請求項2に記載の画像処理装置。
  6. 前記縮退表示画像は、前記副画像に含まれる前記変化領域の画像のみを切出して生成される、請求項2に記載の画像処理装置。
  7. 前記縮退表示画像は、前記副画像に含まれる前記無変化領域の画像を減色化または低階調化し、前記変化領域と前記変化領域を囲む一部の前記無変化領域の画像を切出して生成される、請求項2に記載の画像処理装置。
  8. 前記縮退表示画像は、前記副画像全体を縮小化して生成される、請求項1に記載の画像処理装置。
  9. 前記縮退表示画像は、前記副画像全体を減色化して生成される、請求項1に記載の画像処理装置。
  10. 前記縮退表示画像は、前記副画像全体を低階調化して生成される、請求項1に記載の画像処理装置。
  11. 前記代表画像抽出部は、前記各シーンの長さに応じた数の代表画像を抽出する、請求項1に記載の画像処理装置。
  12. 前記複数のシーンの代表画像は、シーン毎に改行してシーン遷移順に並べて表示される、請求項1に記載の画像処理装置。
  13. 前記各シーンの代表画像の特徴量に基づき、前記複数のシーンをシーングループに区分するシーン区分部をさらに備える、請求項1から12のいずれか1項に記載の画像処理装置。
  14. 前記シーン区分部は、前記シーングループの区分結果に基づき、前記複数のシーンを所定の連続性を伴って対をなすシーンペアに区分する、請求項13に記載の画像処理装置。
  15. 前記シーングループを表す情報は、前記各シーンの代表画像の属性情報として、前記動画のデータに関連付けて記憶される、請求項13に記載の画像処理装置。
  16. 前記シーンペアを表す情報は、前記各シーンの代表画像の属性情報として、前記動画のデータに関連付けて記憶される、請求項14に記載の画像処理装置。
  17. 一連の画像からなる動画のデータに基づき前記動画中のシーン遷移を検出するステップと、
    各シーンに属する一連の画像から所定数の代表画像を抽出するステップと、
    前記各シーンにおいて2以上の代表画像が抽出された場合、前記代表画像を主画像と副画像に区分するステップと、
    前記副画像を縮退表示するために、前記副画像を操作して縮退表示画像を生成するステップと、
    複数のシーンの前記代表画像をシーン遷移順に並べて表示し、かつ、前記各シーンにおいて、2以上の代表画像が抽出された場合に前記主画像とともに前記縮退表示画像を表示し、1の代表画像が抽出された場合に前記代表画像を表示するステップと
    を含む画像処理方法。
  18. 請求項17に記載の画像処理方法をコンピュータに実行させるためのプログラム。
JP2010126020A 2010-06-01 2010-06-01 画像処理装置、画像処理方法およびプログラム Withdrawn JP2011254240A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010126020A JP2011254240A (ja) 2010-06-01 2010-06-01 画像処理装置、画像処理方法およびプログラム
CN2011101468157A CN102270300A (zh) 2010-06-01 2011-05-25 图像处理设备、图像处理方法和程序
US13/115,471 US8629918B2 (en) 2010-06-01 2011-05-25 Image processing apparatus, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010126020A JP2011254240A (ja) 2010-06-01 2010-06-01 画像処理装置、画像処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2011254240A true JP2011254240A (ja) 2011-12-15

Family

ID=44559623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010126020A Withdrawn JP2011254240A (ja) 2010-06-01 2010-06-01 画像処理装置、画像処理方法およびプログラム

Country Status (3)

Country Link
US (1) US8629918B2 (ja)
JP (1) JP2011254240A (ja)
CN (1) CN102270300A (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9565479B2 (en) * 2009-08-10 2017-02-07 Sling Media Pvt Ltd. Methods and apparatus for seeking within a media stream using scene detection
CN104106078B (zh) * 2012-01-09 2017-07-14 高通股份有限公司 光学字符辨识(ocr)高速缓冲存储器更新
JP5994974B2 (ja) * 2012-05-31 2016-09-21 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置、プログラム及び情報処理方法
US9179116B1 (en) * 2013-06-10 2015-11-03 Google Inc. Previewing and playing media items based on scenes
US9571720B2 (en) * 2013-12-10 2017-02-14 Olympus Corporation Image processing device, display device, imaging apparatus, image processing method, and program
JP2017516327A (ja) * 2014-02-12 2017-06-15 ソニー株式会社 画像提示の方法
CN105448103B (zh) * 2015-12-24 2018-01-26 北京旷视科技有限公司 车辆套牌检测方法与系统
JP6649212B2 (ja) * 2016-09-06 2020-02-19 株式会社東芝 符号化装置、復号装置、および画像処理システム
CN110868631B (zh) * 2018-08-28 2021-12-14 腾讯科技(深圳)有限公司 视频剪辑方法、装置、终端及存储介质
KR20200039169A (ko) * 2018-10-05 2020-04-16 주식회사 피제이팩토리 멀티 뎁스 이미지 표시 장치 및 방법
WO2021086766A2 (en) 2019-11-01 2021-05-06 Corning Incorporated Prism-coupling systems and methods with improved intensity transition position detection and tilt compensation
US11265464B2 (en) * 2020-03-27 2022-03-01 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus with image-capturing data and management information thereof saved as an incomplete file

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4005385A (en) * 1975-06-23 1977-01-25 General Electric Company Pattern recognition machine for analyzing line orientation
US5806072A (en) * 1991-12-20 1998-09-08 Olympus Optical Co., Ltd. Electronic imaging apparatus having hierarchical image data storage structure for computer-compatible image data management
JP3911768B2 (ja) * 1997-06-02 2007-05-09 ソニー株式会社 画像符号化方法及び画像符号化装置
EP1393319B1 (en) * 2001-05-31 2013-10-02 Canon Kabushiki Kaisha Moving image management apparatus and method
US7394916B2 (en) * 2003-02-10 2008-07-01 Activeye, Inc. Linking tracked objects that undergo temporary occlusion
CN100377171C (zh) * 2004-08-13 2008-03-26 富士通株式会社 生成劣化字符图像的方法和装置
US8094196B2 (en) * 2005-07-11 2012-01-10 Nippon Telegraph And Telephone Corporation Video matching device, method, and program
JP4894252B2 (ja) 2005-12-09 2012-03-14 ソニー株式会社 データ表示装置、データ表示方法及びデータ表示プログラム
US8032840B2 (en) * 2006-01-10 2011-10-04 Nokia Corporation Apparatus, method and computer program product for generating a thumbnail representation of a video sequence
JP2008166988A (ja) * 2006-12-27 2008-07-17 Sony Corp 情報処理装置および方法、並びにプログラム
BRPI0810640A2 (pt) * 2007-04-13 2017-06-06 Ipharro Media Gmbh " sistema e métodos de detecção de vídeo".
JP5203648B2 (ja) * 2007-07-20 2013-06-05 オリンパス株式会社 画像抽出装置および画像抽出プログラム
CN101257615A (zh) * 2007-10-25 2008-09-03 复旦大学 基于视频分割技术的流媒体分发和用户vcr操作方法
US9177209B2 (en) * 2007-12-17 2015-11-03 Sinoeast Concept Limited Temporal segment based extraction and robust matching of video fingerprints
US8347408B2 (en) * 2008-06-30 2013-01-01 Cisco Technology, Inc. Matching of unknown video content to protected video content

Also Published As

Publication number Publication date
CN102270300A (zh) 2011-12-07
US8629918B2 (en) 2014-01-14
US20110221927A1 (en) 2011-09-15

Similar Documents

Publication Publication Date Title
JP2011254240A (ja) 画像処理装置、画像処理方法およびプログラム
JP6524997B2 (ja) 画像処理装置
EP3084577B1 (en) Selection and tracking of objects for display partitioning and clustering of video frames
JP4895878B2 (ja) 代表色抽出方法、および代表色抽出装置
KR101942987B1 (ko) 동영상 배경 제거 방법, 시스템 및 컴퓨터 판독가능 저장장치
JP5685224B2 (ja) コンテキスト適応型ユーザインターフェイスシステム
JP2006197566A (ja) ビデオ表示装置
JP6485452B2 (ja) 画像処理装置
JP2009123196A (ja) 画像検索装置
JP6171651B2 (ja) 画像処理プログラム及び画像処理装置
JP5776471B2 (ja) 画像表示システム
JP6948787B2 (ja) 情報処理装置、方法およびプログラム
JP2007047902A (ja) 映像検索装置
JP5850188B2 (ja) 画像表示システム
JP2021111228A (ja) 学習装置、学習方法、及びプログラム
JP4909315B2 (ja) 映像処理装置及び方法及びプログラム及びコンピュータ読取可能な記録媒体
JP2016039496A (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
JP4656199B2 (ja) 画像処理装置、サムネイル動画作成方法及びサムネイル動画作成プログラム
JP5801038B2 (ja) 画像表示装置及び画像表示方法
JP2008020944A (ja) 画像処理方法、プログラムおよび装置
JP6409366B2 (ja) 画像処理装置およびコンピュータプログラム
WO2015146242A1 (ja) 画像処理装置
US20240013529A1 (en) Apparatus and method for culling images
JP2014170980A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2010021728A (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130806