JP2007110193A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2007110193A
JP2007110193A JP2005296052A JP2005296052A JP2007110193A JP 2007110193 A JP2007110193 A JP 2007110193A JP 2005296052 A JP2005296052 A JP 2005296052A JP 2005296052 A JP2005296052 A JP 2005296052A JP 2007110193 A JP2007110193 A JP 2007110193A
Authority
JP
Japan
Prior art keywords
scene
frame
moving image
image file
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005296052A
Other languages
English (en)
Other versions
JP4241709B2 (ja
Inventor
Kaname Ogawa
要 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005296052A priority Critical patent/JP4241709B2/ja
Priority to TW095136787A priority patent/TW200737971A/zh
Priority to EP06021090A priority patent/EP1775664A3/en
Priority to KR1020060098575A priority patent/KR20070040313A/ko
Priority to US11/546,081 priority patent/US8014566B2/en
Priority to CNB2006101411251A priority patent/CN100555328C/zh
Publication of JP2007110193A publication Critical patent/JP2007110193A/ja
Application granted granted Critical
Publication of JP4241709B2 publication Critical patent/JP4241709B2/ja
Priority to US13/091,258 priority patent/US8160299B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7335Graphical querying, e.g. query-by-region, query-by-sketch, query-by-trajectory, GUIs for designating a person/face/object as a query predicate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/785Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】動画像において目的とする対象物が登場する一シーンを的確に検出する。
【解決手段】領域選択受付部601において、動画像ファイル保持部231に保持された動画像を構成する何れかのフレームおよびそのフレームの領域の選択を受け付ける。選択されたフレームおよびそのフレームの領域に基づいて、テンプレート画像生成部312はテンプレート画像を生成する。画像照合部313は、テンプレート画像に類似する画像を含んだフレームを動画像ファイル保持部231より探索する。テンプレート画像に類似する画像を含んだフレームが探索されると、シーン変化検出部314はそのフレームの前後に時系列に並んだフレームを取得して、隣り合うフレームにおける各画素の画素値の分布の差分の積算値を算出する。その積算値が所定の閾値を超えた場合にシーンの変化があったものとしてシーンが検出される。
【選択図】図3

Description

本発明は、シーンの検出を行う画像処理装置に関し、特に選択された対象物を含むシーンの検出を行う画像処理装置、および、これらにおける処理方法ならびに当該方法をコンピュータに実行させるプログラムに関する。
近年、メモリの価格の低減やメモリに関する技術の発達により、デジタルスチルカメラおよびデジタルビデオカメラ等の撮像装置におけるメモリの容量は増加している。これに伴い、撮像装置に保持される動画像の数も増えている。このような状況下においては、ユーザーが閲覧したい動画像の所定のシーンを探し出す技術が必要とされる。従来、デジタルスチルカメラおよびデジタルビデオカメラ等の撮像装置において撮像した動画像からユーザーの所望する対象物を中心としたシーンを検出することは難しかった。
このような問題点を解決するものとして、動画像を構成するフレームの領域を選択してその領域に囲まれた画像が含まれるフレームを探し出し、その探し出したフレームが連続していると考えられる区間を一つのシーンとして選定して、その区間にキーワードを付与して動画像のシーンの検索に用いる技術が提案されている(例えば、特許文献1参照。)。この技術によれば、一つのシーンを選定する際に、探し出したフレームが連続する部分区間同士の間隔等に所定の条件を設定し、その所定の条件が満たされた場合にその部分区間同士を結合して一つのシーンとするものとしている。この技術においては、部分区間同士を結合する所定の条件として、ある部分区間と他の部分区間との間に位置するフレームの枚数が所定枚数以下であること等が開示されている。また、ユーザーの所望する対象物の画像をテンプレート画像とし、そのテンプレート画像と動画像を構成するフレームとを照合してそのテンプレート画像に類似する画像を含んだフレームの集まりを一つのシーンとする技術も提案されている。
特開平5−204990号公報(図1)
上述の探し出したフレームが連続していると考えられる区間を一つのシーンとして選定する技術では、所定の条件、例えばある部分区間と他の部分区間との間に位置するフレームの枚数が所定枚数以下であることが満たされている場合にはシーンの内容に関係なく一つのシーンとして結合されてしまうため、場合によっては明らかに無関係な場面まで一つのシーンに含められてしまうおそれがある。また、テンプレート画像と動画像を構成するフレームとを照合してそのテンプレート画像に類似する画像を含んだフレームの集まりを一つのシーンとする技術では、動画像において被写体が一時的に別の方向を向いた等のフレームはテンプレート画像に類似する画像を含んだフレームとして扱われないため、本来一塊であるはずのシーンが分割されてしまうことがあり得る。
そこで、本発明は、動画像において目的とする対象物が登場する一シーンを的確に検出する画像処理装置を提供することを目的とする。
本発明は、上記課題を解決するためになされたものであり、その第1の側面は、動画像ファイルを保持する動画像ファイル保持手段と、上記動画像ファイルを構成するフレームの何れか一つに対する所定の領域の選択を受け付ける領域選択受付手段と、上記選択を受け付けた領域の画像をテンプレート画像として生成するテンプレート画像生成手段と、上記動画像ファイル保持手段より上記フレームを取得して上記フレームの各々と上記テンプレート画像とを照合し上記テンプレート画像に類似する画像を含むフレームを探索する画像照合手段と、上記画像照合手段において探索されたフレームを含むシーンの開始および終了を検出するシーン変化検出手段とを具備することを特徴とする画像処理装置である。これにより、動画像においてユーザーの所望する対象物が登場する一シーンを的確に検出させるという作用をもたらす。
また、この第1の側面において、上記画像照合手段は、上記フレームの取得において時系列に所定数置きに並んだフレームを上記動画像ファイル保持手段より取得することを特徴とするものである。これにより、ユーザーの所望する対象物が含まれるフレームの探索を高速に行わせるという作用をもたらす。
また、この第1の側面において、上記シーン変化検出手段は、上記画像照合手段において探索されたフレームの前後に時系列に並んだフレームを上記動画像ファイル保持手段より取得するフレーム取得手段と、上記フレーム取得手段によって取得されたフレームを構成する各画素の画素値の分布を生成する画素値分布生成手段と、上記時系列に隣り合うフレームにおける上記画素値の分布の差分を積算した分布差分積算値を算出する分布差分積算値算出手段と、上記分布差分積算値が所定の閾値を超えているか否かを判断して上記分布差分積算値が所定の閾値を超えている場合には上記シーンが変化したものとして上記所定の閾値を超えた上記分布差分積算値に対応するフレームを上記シーンの開始フレームまたは終了フレームと判断するシーン変化判断手段とを具備することを特徴とするものである。これにより、動画像を構成するフレームの各画素の画素値の分布という視覚的要素に基づいてユーザーの所望する対象物が登場する一シーンを的確に検出させるという作用をもたらす。動画像を構成するフレームの各画素の画素値の分布という視覚的要素を対象物が登場する一シーンの検出に用いれば、ユーザーの感覚に適合するシーンの検出が可能となる。
また、上記フレーム取得手段は、上記画像照合手段において探索されたフレームの前後に時系列に所定数置きに並んだフレームを上記動画像ファイル保持手段より取得することを特徴とするものである。これにより、動画像においてユーザーの所望する対象物が登場する一シーンの検出を高速に行わせるという作用をもたらす。
また、上記画素値分布生成手段は、上記画素値としてYUVを用いて表される量を用い、上記フレーム取得手段によって取得されたフレームを構成する各画素のYUVそれぞれの成分の分布を生成し、上記分布差分積算値算出手段は、上記分布差分積算値として、上記時系列に隣り合うフレームにおける上記YUVそれぞれの成分に関する分布の差分を上記YUVそれぞれの成分毎に積算したY成分分布差積算値、U成分分布差積算値およびV成分分布差積算値を算出し、上記シーン変化判断手段は、上記Y成分分布差積算値、U成分分布差積算値およびV成分分布差積算値のそれぞれに対して設定された上記所定の閾値を超えているか否かを判断して上記Y成分分布差積算値、U成分分布差積算値およびV成分分布差積算値の何れか一つが所定の閾値を超えている場合には上記シーンが変化したものとして上記所定の閾値を超えた上記Y成分分布差積算値、U成分分布差積算値またはV成分分布差積算値に対応するフレームを上記シーンの開始フレームまたは終了フレームと判断することを特徴とするものである。これにより、動画像を構成するフレームの各画素のYUVの分布という視覚的要素に基づいてユーザーの所望する対象物が登場する一シーンを的確に検出させるという作用をもたらす。
また、この第1の側面において、上記動画像ファイルを構成するフレームを縮小するフレーム縮小手段をさらに具備し、上記動画像ファイル保持手段は、上記フレーム縮小手段において縮小されたフレームをさらに保持し、上記領域選択受付手段は、上記縮小されたフレームの何れか一つに対する所定の領域の選択を受け付け、上記画像照合手段は、上記縮小されたフレームと上記テンプレート画像とを照合して上記テンプレート画像に類似する画像を含む上記縮小されたフレームを探索し、上記シーン変化検出手段は、上記縮小されたフレームを用いて上記画像照合手段において探索された縮小されたフレームを含むシーンの開始および終了を検出することを特徴とするものである。これにより、動画像においてユーザーの所望する対象物が登場する一シーンの検出を高速に行わせるという作用をもたらす。すなわち、シーンの検出に用いるフレームは縮小されたフレームを用いるため、シーンの検出における演算量が低減されてシーンの検出を高速に行うことができる。
また、上記フレーム縮小手段は、時系列に並んだ上記フレームを所定数置きに縮小することを特徴とするものである。これにより、動画像においてユーザーの所望する対象物が登場する一シーンの検出をさらに高速に行わせるという作用をもたらす。
また、この第1の側面において、上記動画像ファイル保持手段に保持された上記動画像ファイルより上記動画像ファイルに対応する動画像の開始および終了に関する情報を含む動画像ファイル情報を取得する動画像ファイル情報取得手段と、上記動画像ファイル情報取得手段によって取得された上記動画像ファイル情報および上記シーン変化検出手段によって検出された上記シーンの開始および終了に関する情報を上記動画像ファイル毎に対応付けて保持するシーン情報テーブルと、上記動画像ファイルに対応する動画像の開始および終了に関する情報および上記シーンの開始および終了に関する情報に基づいて上記動画像が再生される全時間に対する上記シーンの時間的な位置を示す表示であるシーン時間位置表示を生成するシーン時間位置表示生成手段とをさらに具備することを特徴とするものである。これにより、一つの動画像ファイルの総再生時間中における各シーンの時間的な位置を把握させるシーン時間位置表示を生成させるという作用をもたらす。
また、上記動画像ファイル情報取得手段は、上記動画像ファイルに対応する動画像の開始および終了に関する情報として上記動画像ファイルに含まれるフレーム数を取得し、上記シーン情報テーブルは、上記シーン検出手段によって検出された上記シーンの開始および終了に関する情報として上記シーンの開始フレーム番号および終了フレーム番号を保持し、上記シーン時間位置表示生成手段は、上記動画像ファイルに含まれるフレーム数、上記シーンの開始フレーム番号および終了フレーム番号に基づいて上記シーン時間位置表示を生成することを特徴とするものである。これにより、動画像ファイルに含まれるフレーム数、シーンの開始フレーム番号および終了フレーム番号に基づいて、一つの動画像ファイルの総再生時間中における各シーンの時間的な位置を把握させるシーン時間位置表示を生成させるという作用をもたらす。
また、上記シーン時間位置表示生成手段は、前のシーンの終了および次のシーンの開始が連続する場合には上記前のシーンおよび上記次のシーンを一つのシーンとして上記シーン時間位置表示を生成することを特徴とするものである。これにより、不自然に分割されたシーン同士を結合して一つのシーンを生成させるという作用をもたらす。
また、本発明の第2の側面は、被写体を撮像して動画像ファイルを生成する撮像手段と、上記動画像ファイルを保持する動画像ファイル保持手段と、上記動画像ファイルを構成するフレームの何れか一つに対する所定の領域の選択を受け付ける領域選択受付手段と、上記選択を受け付けた領域の画像をテンプレート画像として生成するテンプレート画像生成手段と、上記動画像ファイル保持手段より上記フレームを取得して上記フレームの各々と上記テンプレート画像とを照合し上記テンプレート画像に類似する画像を含むフレームを探索する画像照合手段と、上記画像照合手段において探索されたフレームを含むシーンの開始および終了を検出するシーン変化検出手段と、上記動画像ファイル保持手段に保持された上記動画像ファイルより上記動画像ファイルに対応する動画像の開始および終了に関する情報を含む動画像ファイル情報を取得する動画像ファイル情報取得手段と、上記動画像ファイル情報取得手段によって取得された上記動画像ファイル情報および上記シーン変化検出手段によって検出された上記シーンの開始および終了に関する情報を上記動画像ファイル毎に対応付けて保持するシーン情報テーブルと、上記動画像ファイルに対応する動画像の開始および終了に関する情報および上記シーンの開始および終了に関する情報に基づいて上記動画像が再生される全時間に対する上記シーンの時間的な位置を示す表示であるシーン時間位置表示を生成するシーン時間位置表示生成手段と、上記シーン時間位置表示を表示する表示手段とを具備することを特徴とする画像処理装置である。これにより、撮像された動画像においてユーザーの所望する対象物が登場する一シーンを的確に検出させ、その結果を表示させるという作用をもたらす。
また、本発明の第3の側面は、動画像ファイルを保持する動画像ファイル保持手段を備えた画像処理装置において以下の手順を実行する処理方法または以下の手順をコンピュータに実行させるプログラムであって、上記動画像ファイルを構成するフレームの何れか一つに対する所定の領域の選択を受け付ける領域選択受付手順と、上記選択を受け付けた領域の画像をテンプレート画像として生成するテンプレート画像生成手順と、上記動画像ファイル保持手段より上記フレームを取得して上記フレームの各々と上記テンプレート画像とを照合し上記テンプレート画像に類似する画像を含むフレームを探索する画像照合手順と、上記画像照合手段において探索されたフレームを含むシーンの開始および終了を検出するシーン変化検出手順とを具備することを特徴とする処理方法またはこれらの手順をコンピュータに実行させるプログラムである。これにより、動画像においてユーザーの所望する対象物が登場する一シーンを的確に検出させるという作用をもたらす。
本発明によれば、動画像において目的とする対象物が登場する一シーンを的確に検出することができるという優れた効果を奏し得る。
次に本発明の実施の形態について図面を参照して詳細に説明する。なお、本発明の実施の形態においては、画像処理装置の一例として撮像装置について説明する。
図1は、本発明の実施の形態における撮像装置100の一例である撮像装置100aおよび100bの外観図である。撮像装置100aは、主として静止画像を撮像するものであり、撮像装置100bは、主として動画像を撮像するものである。
図1(a)は、撮像装置100aの正面図である。撮像装置100aは、レンズ部110aから被写体を撮像する。そして、撮像装置100aは、シャッター部120aが押下されると静止画像ファイルを生成する。図1(b)は、撮像装置100aの背面図である。レンズ部110aによって捕らえられた被写体の動きはディスプレイ部130aに映し出される。また、生成された静止画像ファイルもディスプレイ部130aに映し出される。
図1(c)は、撮像装置100bの正面図である。撮像装置100bは、レンズ部110bから被写体を撮像する。そして、撮像装置100bは、(図示しない)録画ボタンが押下されると動画像ファイルを生成する。図1(d)は、撮像装置100bの背面図である。レンズ部110bによって捕らえられた被写体の動きはディスプレイ部130bに映し出される。また、生成された動画像ファイルもディスプレイ部130bに映し出される。また、撮像装置100bは、静止画像ファイルも生成する機能を有しており、生成された静止画像ファイルもディスプレイ部130bに映し出される。
本発明の実施の形態においては、まず、撮像装置100aまたは100bにより生成された動画像ファイルを構成するフレームの何れかに基づいてテンプレート画像を生成する。そして、この生成されたテンプレート画像に類似する画像を含むフレーム(以下、テンプレート画像類似フレームと呼ぶ。)を動画像ファイルより探索する。次に、テンプレート画像類似フレームを含む動画像の一シーンの開始時と終了時を動画像ファイルより検出する。この検出結果は、動画像ファイルが再生される全時間に対するシーンの時間的な位置を示す表示(以下、シーン時間位置表示と呼ぶ。)として出力される。
図2は、本発明の実施の形態における撮像装置100の構成を示す図である。本発明の実施の形態における撮像装置100は、撮像部10と、記録再生処理部20と、制御部30と、バス40と、キー入力部50と、タッチパネル部60、記憶装置70とを備える。
撮像部10は、撮像素子部11と、撮像制御部12と、画像処理部13とを備える。撮像素子部11は、内部に、被写体を撮像するためのレンズ群(図1におけるレンズ部110aおよび110bに対応)、絞り調整機構、フォーカス調整機構および例えばCCD(Charge Coupled Devices)などの撮像素子などを備えており、レンズ群を通じた像がCCDなどの撮像素子の結像面に結像される。撮像素子部11は、シャッター操作に応じて制御部30からバス40を通じて供給される画像取り込みタイミング信号を受けて、撮像素子の結像面に結像されている被写体像を撮像信号に変換し、画像処理部13に供給する。
撮像制御部12は、制御部30からバス40を通じて供給される制御信号を受けて、撮像素子部11に供給する制御信号を生成する。また、撮像制御部12は、生成した制御信号を撮像素子部11に供給して、ズーム制御、シャッター制御および露出制御などを行う。
画像処理部13は、制御部30からバス40を通じて供給される制御信号に基づいて、撮像信号についてガンマ補正やAGC(Auto Gain Control)などの処理を行うとともに、撮像信号をデジタル信号としての画像信号に変換する処理も行う。
記録再生処理部20は、画像符号化/復号部21と、記録制御部22と、SDRAM(Synchronous Dynamic Random Access Memory)23とを備える。画像符号化/復号部21は、撮像部10からバス40を通じて供給される画像信号などを符号化し多重化して圧縮データに変換する符号化機能を有する。また、画像符号化/復号部21は、圧縮データから画像信号を復号する復号機能を有する。
記録制御部22は、画像符号化/復号部21から圧縮データを受けて記憶装置70に書き込む。また、記録制御部22は、記憶装置70から圧縮データを読み出して画像符号化/復号部21に供給する。なお、記憶装置70は、撮像装置100に外付けされたものでも内蔵されたものであってもよい。また、記憶装置70としては、フラッシュメモリ(Flash memory)をカード型にパッケージしたメモリカード、ハードディスク等の磁気ディスク、DVD等の光ディスク(Optical Disk)およびMO等の光磁気ディスク(Magneto-Optical disk)のいずれかが想定されるが、これに限るものではない。SDRAM23は、符号化/復号部21における符号化または復号のための作業領域として利用される。
制御部30は、システム制御部31と、入力制御部32と、表示制御部33と、出力画像処理部34と、外部機器制御部35と、ネットワーク制御部36とを備える。
システム制御部31は、制御部30全体の処理を司るものである。入力制御部32に接続されるキー入力部50には、撮影モードと再生モードなどの他のモードとを切り換えるモード切り換えキー、ズーム調整キー、露出調整のためのキー、シャッターキー(図1におけるシャッター部120aに対応)、動画撮影用キーなどの複数のキーが設けられている。また、入力制御部32に接続されるタッチパネル入力部62は、表示部61に表示されるメニューの選択や画像データの所定領域の指定を受け付けるものである。
入力制御部32は、キー入力部50およびタッチパネル入力部62からの操作信号をシステム制御部31に伝える。システム制御部31は、キー入力部50およびタッチパネル入力部62においていずれのキー等が操作されたかを判別し、その判別結果に応じた制御処理を行う。
表示制御部33に接続される表示部61は、例えばLCD(Liquid Crystal Display)などにより構成され、システム制御部31の制御の下に、撮像部10からバス40を通じて供給される画像信号や、記憶装置70から読み出された画像信号を表示する。なお、表示部61は、図1におけるディスプレイ部130aおよび130bに対応するものである。
出力画像処理部34は、画像データ再生時において画像データに所定の修飾処理を施すものである。修飾処理とは、例えば画像データの色補正等が想定される。なお、出力画像処理部34で行われる画像データに対する処理をシステム制御部31で行うように構成してもよい。
外部機器制御部35に接続される外部機器80は、例えばパーソナルコンピュータ(Personal Computer)等が想定されるが、これに限るものではない。なお、外部機器80と外部機器制御部35との間は、例えばUSB(Universal Serial Bus)ケーブルによって接続されることが想定されるが、これに限るものではない。外部機器制御部35は、撮像装置100と外部機器80との間のデータのやりとりを制御するものである。
ネットワーク制御部36は、撮像装置100とネットワーク網90との間でやりとりされるデータを制御するものである。なお、ネットワーク網としては、インターネットやLAN(Local Area Network)が想定されるが、これに限るものではない。
図3は、本発明の実施の形態におけるシーン検出機能の構成を示す図である。このシーン検出機能は、動画像ファイルを保持する動画像ファイル保持部231と、フレーム縮小部311と、領域選択受付部601と、テンプレート画像生成部312と、画像照合部313と、シーン変化検出部314と、動画像ファイル情報取得部319と、シーン情報テーブル320と、シーン時間位置表示生成部321とを備える。
フレーム縮小部311は、動画像ファイル保持部231に保持された動画像ファイルを構成するフレームを所定の縮小率で縮小するものである。フレーム縮小部311は、動画像ファイルを構成するフレーム全てを縮小してもよく、また、時系列に並んだフレームを所定数置きに縮小してもよい。縮小されたフレームは、動画像ファイル保持部231において保持される。
領域選択受付部601は、動画像ファイル保持部231に保持された動画像ファイルを構成するフレームのうち何れか一つのフレームの選択およびその選択したフレームにおいてテンプレート画像として切り出すべき領域の選択を受け付けるものである。領域選択受付部601において選択を受け付ける対象となるフレームは、フレーム縮小部311において縮小されたフレームであってもよい。
テンプレート画像生成部312は、領域選択受付部601において選択を受け付けられたテンプレート画像として切り出すべき領域をフレームから切り出すことによってテンプレート画像を生成するものである。なお、領域選択受付部601において選択を受け付けたフレームがフレーム縮小部311において縮小されたフレームである場合、テンプレート画像生成部312は、その縮小されたフレームよりテンプレート画像として切り出すべき領域を切り出す。
また、テンプレート画像生成部312は、上記切り出すことによって生成されたテンプレート画像を所定の倍率で拡大および縮小した画像も生成する。この拡大および縮小した画像もテンプレート画像として用いられる。また、テンプレート画像生成部312は、上記切り出すことによって生成されたテンプレート画像、拡大および縮小した画像を所定角度回転させた画像も生成する。この所定角度回転させた画像もテンプレート画像として用いられる。
画像照合部313は、動画像ファイル保持部231よりフレームを取得して、そのフレームの各々とテンプレート画像とを照合してテンプレート画像類似フレームを探索するものである。画像照合部313は、テンプレート画像類似フレームを探索するとその旨をフレーム取得部315に通知し、一旦テンプレート画像類似フレームの探索を中止する。
なお、テンプレート画像がフレーム縮小部311において縮小されたフレームに基づいて生成されたものである場合、画像照合部313が動画像ファイル保持部231より取得するフレームは、フレーム縮小部311において縮小されたフレームである。フレーム縮小部311において縮小されたフレームとテンプレート画像とを照合することによって、テンプレート画像とフレームとの照合に要する演算量が低減されるため、高速な照合が可能となる。
また、画像照合部313においてテンプレート画像とフレーム縮小部311によって縮小されたフレームとを照合してテンプレート画像類似フレームの候補を探索した後に、再度、テンプレート画像と縮小されていないフレームとを照合して、テンプレート画像類似フレームの候補をテンプレート画像類似フレームとして採用してよいかどうかを判断する構成にしてもよい。
シーン変化検出部314は、画像照合部313において探索されたテンプレート画像類似フレームを含むシーンの開始および終了を検出するものであり、フレーム取得部315と、画素値分布生成部316と、分布差分積算値算出部317と、シーン変化判断部318とを備える。
フレーム取得部315は、画像照合部313において探索されたテンプレート画像類似フレームの前後に時系列に並んだフレームを動画像ファイル保持部231より取得するものである。すなわち、フレーム取得部315は、画像照合部313において探索されたテンプレート画像類似フレームより時間的に前(過去)に位置するフレーム(以下、後方シーンフレームと呼ぶ。)および画像照合部313において探索されたテンプレート画像類似フレームより時間的に後(未来)に位置するフレーム(以下、前方シーンフレームと呼ぶ。)を取得する。フレーム取得部315においては、前方シーンフレームおよび後方シーンフレームの何れを先に取得するようにしてもよい。
フレーム取得部315は、画像照合部313においてテンプレート画像類似フレームが探索された場合に画像照合部313からその旨の通知を受ける。そして、フレーム取得部315は、その旨の通知を受けると動画像ファイル保持部231より前方シーンフレームまたは後方シーンフレームの何れかの取得を開始する。
フレーム取得部315において前方シーンフレームが先に取得される場合は、後述するシーン変化判断部318においてシーンの変化があったと判断されるとその旨の通知がフレーム取得部315にされる。フレーム取得部315は、この通知を受けると前方シーンフレームの取得を中止して、後方シーンフレームの取得を開始する。後方シーンフレームの取得を開始した後に、後述するシーン変化判断部318においてシーンの変化があったと判断されてその旨の通知を受けると、フレーム取得部315は後方シーンフレームの取得を中止する。
なお、フレーム取得部315において取得されるフレームは、フレーム縮小部311において縮小されていないフレームであってもよく、またフレーム縮小部311において縮小されたフレームであってもよい。また、上記述べたように、フレーム縮小部311において時系列に並んだフレームを所定数置きに縮小する場合もあり、この場合、フレーム取得部315は時系列に所定数置きに並んだ縮小されたフレームを取得する。
画素値分布生成部316は、フレーム取得部315によって取得されたフレームを構成する各画素の画素値の分布を生成するものである。ここで、画素値とは、画素の輝度[0]や色差などをいい、例えば、YUVなどがこれに該当する。画素値としてY成分(輝度)に8ビットを割り当てる場合、0乃至255の範囲の値を有することになる。この場合、画素値分布生成部316は、各画素のY成分(輝度)の分布を、フレーム取得部315によって取得されたフレーム毎に生成する。なお、上記においては画素値がY成分(輝度)である場合を例にとって説明したが、画素値がU成分(輝度信号と青色成分の差)またはV成分(輝度信号と赤色成分の差)である場合の分布も同様に生成できる。
分布差分積算値算出部317は、時系列に隣り合うフレームにおける画素値の分布の差分を積算した分布差分積算値を算出するものである。例えば、画素値としてY成分(輝度)を用いた場合を考える。この場合、分布差分積算値算出部317は時系列に隣り合うフレームにおいて、例えばY成分(輝度)が0である画素の分布の差分を算出する。そして、分布差分積算値算出部317は、この差分の算出を全てのY成分(輝度)の範囲について行い、全ての差分を積算した分布差分積算値を算出する。これを画素値分布生成部316において生成された全てのフレームに対して行う。なお、上記においては画素値がY成分(輝度)である場合を例にとって説明したが、画素値がU成分(輝度信号と青色成分の差)またはV成分(輝度信号と赤色成分の差)である場合の分布も同様に生成できる。
シーン変化判断部318は、分布差分積算値が所定の閾値を超えているか否かを判断するものである。シーン変化判断部318において分布差分積算値が所定の閾値を超えていると判断されると、その分布差分積算値に対応する時系列に隣り合ったフレームにおいてシーンが変化したものと判断され、シーン情報テーブル320にそのフレームに関する情報が書き込まれる。シーン情報テーブル320に書き込まれるそのフレームに関する情報には、例えばそのフレームのフレーム番号が含まれる。
なお、分布差分積算値がY成分(輝度)、U成分(輝度信号と青色成分の差)およびV成分(輝度信号と赤色成分の差)について算出された場合、分布差分積算値はY成分(輝度)に関する分布差分積算値、U成分(輝度信号と青色成分の差)に関する分布差分積算値およびV成分(輝度信号と赤色成分の差)に関する分布差分積算値が存在することになるが、この場合それぞれの分布差分積算値について所定の閾値が設定されることになる。そして、Y成分(輝度)に関する分布差分積算値、U成分(輝度信号と青色成分の差)に関する分布差分積算値およびV成分(輝度信号と赤色成分の差)に関する分布差分積算値の何れか一つがそれぞれの分布差分積算値に対して設定された閾値を超えた場合は、上記と同様にその分布差分積算値に対応する時系列に隣り合ったフレームにおいてシーンが変化したものと判断してもよい。これにより、Y成分(輝度)のみならず、U成分(輝度信号と青色成分の差)およびV成分(輝度信号と赤色成分の差)も加味したシーンの検出をすることになるため、シーン検出における精度が向上する。
シーン変化判断部318においてシーンの変化があったと判断された場合、シーン変化判断部318はその旨をフレーム取得部315および画像照合部313に通知する。なお、シーン変化判断部318は、一つのシーンに対してシーンの開始および終了の2回分シーンの変化を判断するため、一つのシーンに対してフレーム取得部315および画像照合部313への通知は2回行われる。
フレーム取得部315において、例えば先に後方シーンフレームを取得するように設定されていた場合、1回目の通知はシーンの開始を検出した旨の通知となるが、フレーム取得部315はこの通知を受けると後方シーンフレームの取得を中止して、前方シーンフレームの取得を開始する。そして、2回目の通知はシーンの終了を検出した旨の通知となるが、フレーム取得部315はこの通知を受けると前方シーンフレームの取得を中止する。
また、画像照合部313はシーン変化判断部318からの1回目の通知を受けても特に何の処理も行わないが、2回目の通知を受け取ると一旦中止していたテンプレート画像類似フレームの探索を開始する。この場合、画像照合部313において照合を開始するフレームは、シーンの終了に対応するフレームの次のフレームである。
動画像ファイル情報取得部319は、動画像ファイル保持部231に保持された動画像ファイルより動画像ファイルに対応する動画像の開始および終了に関する情報を含む動画像ファイル情報を取得するものである。そして、動画像ファイル情報取得部319は、取得した動画像ファイル情報をシーン情報テーブル320に書き込む。なお、動画像ファイルに対応する動画像の開始および終了に関する情報としては、例えば動画像ファイルの開始フレーム番号および終了フレーム番号や、動画像ファイルに対応する動画像を構成する総フレーム数が想定されるが、これに限るものではない。
シーン情報テーブル320は、動画像ファイル情報取得部319によって取得された動画像ファイル情報およびシーン変化検出部314によって検出されたシーンの開始および終了に関する情報を動画像ファイル毎に対応付けて保持するものである。なお、シーン変化検出部314によって検出されたシーンの開始および終了に関する情報としては、例えばシーンの開始フレーム番号および終了フレーム番号が想定されるが、これに限るものではない。
シーン時間位置表示生成部321は、シーン情報テーブル320に保持された動画像ファイルに対応する動画像の開始および終了に関する情報およびシーンの開始および終了に関する情報に基づいて、動画像が再生される全時間に対するシーンの時間的な位置を示す表示であるシーン時間位置表示を生成するものである。
なお、動画像ファイルに対応する動画像において複数のシーンが検出され、あるシーンの最終フレームと他のシーンの開始フレームとが時系列に隣り合う場合、シーン時間位置表示生成部321はその2つのシーンを結合させて一つのシーンとしてシーン時間位置表示を生成してもよい。
図4は、本発明の実施の形態においてテンプレート画像の領域を選択する様子を示す図である。図4(a)は、動画像ファイルを再生する様子を示す図である。再生ボタン621を選択すると動画像ファイルは動画表示部611において再生され、停止ボタン622を選択すると動画像ファイルの再生は停止される。早送りをする場合は早送りボタン624を選択し、巻き戻しをする場合は巻戻しボタン625を選択する。
動画像ファイルを再生させている際に所望の画像を含むフレームを見つけた場合、停止ボタン622を選択する。これにより、動画表示部611には停止ボタン622を選択した際に表示されていたフレームが表示される。さらに別のフレームを表示させたい場合には、再生ボタン621、早送りボタン624および巻戻しボタン625を選択して所望のフレームを表示させる。
所望の画像を含むフレームを動画表示部611に表示させた後に領域ボタン623を選択すると、表示画面600には図4(b)に示す領域選択画像表示612が表示される。なお、本発明の実施の形態においては、操作方式として表示画面を直接押下することによって操作の入力を行うタッチパネル方式を想定しているが、これに限るものではない。
図4(b)は、図4(a)において説明した操作を行った後にフレームの領域を選択する様子を示す図である。領域選択画像表示612に表示されたフレームの領域の選択は、例えばスタイラス501により点613を選択した後に、スタイラス502により点614を選択する。スタイラス502により点614を選択すると、点613および点614を結んだ線を対角線とする領域615が表示される。この選択した領域615に含まれる画像がテンプレート画像になる。
領域615が表示された後に、OKボタン626を選択すると、テンプレート画像が生成される。一方、領域615が表示された後に違う領域を選択する場合は、戻るボタン627を選択して、再び領域選択画像表示612に表示されたフレーム対して上記と同様の操作を行うことによって領域を選択する。
図5は、本発明の実施の形態におけるテンプレート画像生成のイメージを示す図である。フレームにおける領域が選択されると、テンプレート画像生成部312においてフレームにおける選択された領域は切り出され、図5(a)に示すテンプレート画像631が生成される。
また、テンプレート画像生成部312は、テンプレート画像631を拡大および縮小した画像であるテンプレート画像631a乃至631dも生成する。テンプレート画像631a乃至631dは、それぞれテンプレート画像631を、例えば1.21倍、1.1倍、1.0倍、0.909倍、0.826倍したものが想定される。なお、図5(a)においては、テンプレート画像631以外のテンプレート画像データは4つしかないが、これに限るものではなくいくつあってもよい。
ここで、1.21、1.1、1.0、0.909、0.826の数列は、(1.1)、(1.1)、(1.1)、(1.1)−1、(1.1)−2であり、すなわち、公比が1.1の等比数列である。なお、公比を大きくするとテンプレート画像を用いて画像の探索を行う際に探索漏れを生じる可能性が高くなり、一方、公比を小さくするとテンプレート画像を用いて画像の探索を行う際に演算量が増えるという弊害が生じる。このため、公比は、1.1程度が好ましいが、これに限るものではなく、例えば1.09や1.2等でも良い。
また、テンプレート画像として、テンプレート画像631を拡大および縮小した画像データのみならず、図5(b)に示すように、さらに回転させたテンプレート画像632をも生成してもよい。
図6は、フレーム633とテンプレート画像631とを照合する様子を示す図である。フレーム633よりテンプレート画像631と類似する部分を探索する際には、テンプレート画像631とフレーム633とを照合する。照合した結果、フレーム633中にテンプレート画像631と一致または類似する部分があれば、そのフレーム633は、図1において説明したテンプレート画像類似フレームと判断される。
テンプレート画像631とフレーム633とを照合するに際して、図6に示すように例えば、フレーム633の左上端より照合を開始する。そして、例えば図6に示した右矢印方向に所定画素(例えば、1ピクセル)ずつずらしてテンプレート画像631とフレーム633とを照合する。この際、テンプレート画像631に類似する画像がフレーム633に含まれているか否かの評価は、例えば相互相関関数を用いて行う。この相互相関関数により算出された値が所定の閾値を超えた場合に、テンプレート画像631に類似する画像がフレーム633に含まれていると評価される。
所定画素ずらしながら右端まで照合が完了すると、次は、下矢印に所定画素(例えば、1ピクセル)ずらして、左端から右端までテンプレート画像631とフレーム633の照合を行う。また、フレーム633からテンプレート画像631と類似する部分を探索する際には、テンプレート画像631以外にも、図5で説明したテンプレート画像631を拡大および縮小したテンプレート画像631a乃至631d、および、テンプレート画像631を所定角度回転させたテンプレート画像632についても上記説明した照合を行う。
なお、フレーム633からテンプレート画像631と類似する部分を探索する方法は、上記のようにフレーム633の全ての部分について照合を行う以外にも、遺伝的アルゴリズム(GA:Genetic Algorithm[0])を利用してフレーム633においてテンプレート画像631と類似する部分を探索してもよい。
図7は、本発明の実施の形態におけるシーン検出の様子を示す図である。本発明の実施の形態におけるシーン検出は、まずユーザーの選択によって生成されたテンプレート画像631と動画像ファイルを構成するフレームとを照合することから始まる。照合の結果、図7(a)に示すようにテンプレート画像631に類似する画像がフレーム633の領域633aにおいて探索されると、そのフレーム633はテンプレート画像類似フレームとされる。
図7(b)は、テンプレート画像類似フレームとシーンの検出の様子を示す図である。図7(a)においてテンプレート画像631に対応するテンプレート画像類似フレームであるフレーム633が探索されると、次にフレーム633の前後に時系列に並んだフレームを解析してシーンが変化するフレームを検出する処理が行われる。
この場合、フレーム取得部315において、例えばフレーム633より時間的に前(過去)に位置する後方シーンフレーム634aが取得され、画素値分布生成部316において後方シーンフレーム634aを構成する各画素の画素値の分布が生成される。そして、フレーム取得部315において後方シーンフレーム634bがさらに取得され、同様に画素値分布生成部316において後方シーンフレーム634bを構成する各画素の画素値の分布が生成される。
次に、分布差分積算値算出部317において、後方シーンフレーム634aを構成する各画素の画素値の分布および後方シーンフレーム634bを構成する各画素の画素値の分布の差分の積算値である分布差分積算値が算出される。この分布差分積算値が所定の閾値を超えているか否かがシーン変化判断部318において判断される。
以上の処理が順次、後方シーンフレーム634c乃至634fについても行われる。そして、後方シーンフレーム634eと後方シーンフレーム634fとの分布差分積算値がシーン変化判断部318において所定の閾値を超えていると判断されると、後方シーンフレーム634eがシーンの開始フレームと判断される。
シーンの開始フレームが検出されると、次にシーンの終了フレームの検出処理が行われる。この場合、フレーム取得部315においてフレーム633より時間的に後(未来)に位置する前方シーンフレーム635a乃至前方シーンフレーム635hが取得され、後方シーンフレーム634a乃至634fで説明したのと同様の処理が前方シーンフレーム635a乃至前方シーンフレーム635hにおいても行われる。
そして、前方シーンフレーム635gと前方シーンフレーム635hとの分布差分積算値がシーン変化判断部318において所定の閾値を超えていると判断されると、前方シーンフレーム635gがシーンの終了フレームと判断される。
これにより、後方シーンフレーム634fからフレーム633で構成される後方シーンとフレーム633から前方シーンフレーム635gで構成される前方シーンフレームとを一体にした一つのシーンが検出されたことになる。
一つのシーンが検出されると、次のシーンを探索するために再びテンプレート画像とフレームの照合が開始される。この場合、テンプレート画像と照合が開始されるフレームはシーンの最終フレームの次のフレームから行われる。図7(b)においてシーンの最終フレームは前方シーンフレーム635gであるため、テンプレート画像631との照合が開始されるフレームは前方シーンフレーム635hである。
図8は、本発明の実施の形態におけるフレームを構成する各画素の画素値の分布の生成の様子を示す図である。図8(a)は、時系列に連続するn番目に並んだフレーム636aおよびn+1番目に並んだフレーム636bを示す図である。
フレーム636aがフレーム取得部315によって取得されると、画素値分布生成部316においてフレーム636aを構成する各画素の画素値の分布が生成される。画素値として輝度を考えた場合における各画素の輝度の分布の一例を図8(b)に示す。この図8(b)に示す各画素の輝度の分布の生成方法の一例を以下に述べる。まず、図8(a)に示したフレーム636aの画素a1からk8における各画素の輝度を解析する。各画素における輝度を解析することによってフレーム636aの画素a1からk8における各画素の輝度を求め、次に輝度毎に整理して各輝度を示す画素の数を求める。すなわち、輝度が0である画素の数、乃至、輝度が255である画素の数をそれぞれ求める。これにより、横軸に輝度xをとり、縦軸に輝度xに対応する画素の数H(x)をとった各画素の輝度の分布が図8(b)のように生成される。
同様に、フレーム636bがフレーム取得部315によって取得されると、画素値分布生成部316においてフレーム636bを構成する各画素の画素値の分布が生成される。画素値として輝度を考えた場合における各画素の輝度の分布の一例を図8(c)に示す。図8(c)の場合も図8(b)の場合と同様に、横軸に輝度xをとり、縦軸に輝度xに対応する画素の数Hn+1(x)をとった各画素の輝度の分布が図8(c)のように生成される。
そして、分布差分積算値算出部317において以下の数1に示す式に基づいて輝度に関する分布差分積算値FHDが算出される。なお、数1は、任意のフレームにおける輝度xに対応する画素の数H(x)とその任意のフレームと時系列に隣り合うフレームにおける輝度xに対応する画素の数Hn+1(x)との差の絶対値を全ての画素値について積算したものである。
Figure 2007110193
この輝度に関する分布差分積算値FHDが所定の閾値を超えた場合にその輝度に関する分布差分積算値FHDに対応するフレームでシーンの変化があったものと判断され、シーンの開始または終了が検出されたことになる。
なお、図8においては、画素値として輝度を考えた場合について説明したが、画素値として色差を考えた場合も同様の方法により、各画素の色差の分布を生成して色差に関する分布差分積算値FHDを算出することができる。輝度に関する分布差分積算値FHDと色差に関する分布差分積算値FHDとを算出する構成にした場合、輝度に関する分布差分積算値FHDと色差に関する分布差分積算値FHDとにおいて別々の閾値を設定することとすれば、輝度と色差を適切に考慮したシーン変化の検出が可能となる。
図9は、動画像ファイルを構成するフレームの集まりであるフレーム群と縮小されたフレームとの対応を示す図である。フレーム縮小部311において縮小されるフレームは、図3において説明したように動画像ファイルを構成するフレーム全てであってもよいし、図9に示すように動画像ファイルを構成するフレームの一部であってもよい。
例えば、フレーム縮小部311において3つ置きに並んだフレーム637a乃至637hを縮小して縮小フレーム638a乃至638hを生成する。この場合、動画像ファイル保持部231には、フレーム群および縮小フレーム638a乃至638hが保持される。
上記説明したようにこの縮小されたフレームを用いて画像の照合や分布差分積算値を算出する場合、画素の数が低減されるため、画像照合部313、画素値分布生成部316および分布差分積算値算出部317における演算量も低減される。これにより、高速なシーン検出が可能となる。
図10は、本発明の実施の形態におけるシーン情報テーブル320の内容を示す図である。シーン情報テーブル320は、動画像ファイルのファイル名を表すファイル名3201と、総フレーム数3202と、シーン情報3210とを含む。
総フレーム数3202は、動画像ファイルに対応する動画像を構成するフレームの総数である。この総フレーム数3202は動画像ファイルの再生時間を示す情報である。また、動画像ファイルの再生時間を示す情報として、総フレーム数3202の代わりに動画像ファイルに対応する動画像の開始フレーム番号および終了フレーム番号をシーン情報テーブル320に保持させる構成であってもよい。
シーン情報3210は、動画像ファイルを構成する動画像に含まれるシーンの開始と終了に関する情報である。この動画像ファイルを構成する動画像に含まれるシーンの開始と終了に関する情報としては、シーンの開始フレーム番号および終了フレーム番号が想定される。このシーン情報3210は、シーンの数だけ保持されることになる。
図11は、本発明の実施の形態におけるシーン時間位置表示を示す図である。図11(a)は、表示画面600に表示されたシーン時間位置表示群640を示す図である。図4(b)においてフレームの領域を選択した後にOKボタン626を選択すると、シーン検出等の処理が行われ、表示画面600は図11(a)に示すようにシーン時間位置表示群640が表示される。
図11(a)においては、表示の一例として一度に3つの動画像ファイルに対応するシーン時間位置表示641乃至643が表示されるようになっている。シーン検出は、動画像ファイル保持部231に保持された全ての動画像ファイルに対して行われ、シーン時間位置表示も動画像ファイルの数だけ生成される。図11(a)においてはファイルAに対するシーン時間位置表示641とファイルBに対するシーン時間位置表示642とファイルCに対するシーン時間位置表示643とがシーン時間位置表示群640として表示されている。
他の動画像ファイルについてシーン時間位置表示を表示させたい場合は、「次へ」ボタン651または「戻る」ボタン652を選択すると、例えば(図示しない)ファイルDに対するシーン時間位置表示等が表示画面600に表示される。そして、シーン時間位置表示群640において着色表示された部分の何れかを選択した後に再生ボタン653を選択すると、そのシーンに対応する動画像が再生される。
図11(b)は、シーン時間位置表示群640に表示されたファイルAに対応するシーン時間位置表示641の構成を示す図である。シーン時間位置表示641中の開始位置661から終了位置662までの長さがファイルAの総再生時間である。
ファイルAにおいては2つのシーンが検出されており、まずシーン#1の663aは動画像ファイルを構成するフレーム中においてテンプレート画像類似フレームとして探索されたフレームの位置を示す。また、シーン#1の664aは、シーン#1の終了フレームの位置を示す。また、シーン#1の665aは、シーン#1の開始フレームの位置を示す。665aから663aまでの長さで表される後方シーンと663aから664aまでの長さで表される前方シーンとでシーン#1を構成する。
シーン#2についても同様で、シーン#2の663bは動画像ファイルを構成するフレーム中においてテンプレート画像類似フレームとして探索されたフレームの位置を示す。また、シーン#2の664bは、シーン#2の終了フレームの位置を示す。また、シーン#2の665bは、シーン#2の開始フレームの位置を示す。665bから663bまでの長さで表される後方シーンと663bから664bまでの長さで表される前方シーンとでシーン#2を構成する。
図12は、本発明の実施の形態におけるシーンの結合の様子を示す図である。図12(a)に示すシーン情報テーブル320においてシーン#1の終了フレーム番号とシーン#2の開始フレーム番号が連続している。このシーン情報テーブル320に基づいて生成されたシーン時間位置表示が図12(b)に示すシーン時間位置表示670である。
このシーン時間位置表示670においてはシーン#1の開始フレームの位置が位置673で終了フレームの位置が位置674である。また、シーン#2の開始フレームの位置が位置674で終了フレームの位置が位置675である。このように2つのシーンが連続している場合、一つのシーンが様々な要因で2つのシーンに分かれてしまった可能性が高い。したがって、2つのシーンが連続している場合、その2つのシーンをまとめて一つのシーンとして扱うことが望ましい。
そこで、本発明の実施の形態では、2つのシーンが連続している場合、2つのシーンを一つのシーンとして処理する。具体的には、図12(a)のようなシーン情報テーブル320がある場合、シーン時間位置表示生成部321において図12(c)のようにシーン情報テーブル320を書き換える。すなわち、シーン#1の終了番号フレームをシーン#2の終了番号フレームに書換え、シーン#2を消去する。これにより、このシーン情報テーブル320に基づいて生成されるシーン時間位置表示は、一つのシーンのみを表示することになる。
なお、図12(c)に示したようにシーン情報テーブル320の内容を書き換えることなく、2つのシーンが連続している場合は一つのシーンとして図12(d)に示すシーン時間位置表示をシーン時間位置表示生成部321において生成するように構成してもよい。
次に本発明の実施の形態における撮像装置100の動作について図面を参照して説明する。
図13は、本発明の実施の形態におけるシーン検出の流れを示す図である。まず、動画像ファイルを構成するフレームより所望のフレームの選択を受け付けた後、そのフレームの領域の選択を受け付ける(ステップS911)。ステップS911において選択された領域に基づいてテンプレート画像生成部312においてテンプレート画像が生成される(ステップS912)。具体的には、テンプレート画像生成部312において選択された領域をフレームから切り出すことによってテンプレート画像が生成される。また、この切り出された画像を拡大または縮小した画像もテンプレート画像として生成される。
次に、画像照合部313は、動画像ファイル保持部231に保持された動画像ファイルよりテンプレート画像と照合すべきフレームを取得する(ステップS913)。本発明の実施の形態においては、テンプレート画像と照合すべきフレームとして取得されるフレームは2通りある。1つ目は、シーンの終了フレームの次に位置するフレームである。このフレームが取得されるのは、シーンの検出が行われた場合である。2つ目は、直前に照合が行われたフレームの次に位置するフレームである。このフレームが取得されるのは、画像照合部313においてテンプレート画像類似フレームが探索されなかった場合である。そして、画像照合部313は、ステップS913において取得したフレームとテンプレート画像とを照合する(ステップS914)。
ステップS914における照合の後に、フレーム中の任意の画像とテンプレート画像との類似する度合い(スコア)が所定の閾値を超えたか否かが画像照合部313において判断される(ステップS915)。フレーム中の画像とテンプレート画像との類似する度合い(スコア)が所定の閾値を超えたと判断されると、シーン変化検出部314はそのフレームの前に時系列に並んだフレームを取得して、シーンが開始するフレームの検出を行う(ステップS916)。
次に、シーン変化検出部314はそのフレームの後に時系列に並んだフレームを取得して、シーンが終了するフレームの検出を行う(ステップS917)。以上のステップS916および917の処理によりシーンの開始と終了が検出され、一シーンが検出されたことになる。なお、ステップS916とステップS917とはどちらを先に行ってもよい。
次に、ステップS916において検出されたシーンの最終フレームが、動画像ファイルの最終フレームに当たるか否かが判断される(ステップS918)。ステップS916において検出されたシーンの最終フレームが、動画像ファイルの最終フレームに該当しないと判断されると、ステップS913においてシーンの最終フレームの次のフレームが取得されてステップS914以下の処理が行われる。
一方、そのシーンの最終フレームが動画像ファイルの最終フレームに該当すると判断されると、ステップS913から917までの処理を行っていない動画像ファイルが動画像ファイル保持部231に保持されているか否かが判断される(ステップS919)。ステップS913から917までの処理を行っていない動画像ファイルが動画像ファイル保持部231に保持されていると判断されると、ステップS913に戻る。一方、ステップS913から917までの処理を行っていない動画像ファイルが動画像ファイル保持部231に保持されていないと判断されると、シーン検出処理は終了する。
また、ステップS915において画像照合部313においてフレーム中の画像とテンプレート画像との類似する度合い(スコア)が所定の閾値を超えないと判断されると、そのフレームはテンプレート画像類似フレームとされず、ステップS916および917のシーン検出処理は行われない。この場合は、次にステップS914において照合したフレームが動画像ファイルの最終フレームに当たるか否かが判断される(ステップS918)。
ステップS914において照合したフレームが動画像ファイルの最終フレームに該当しないと判断されると、ステップS913に戻り、そのフレームの次に位置するフレームが取得されてステップS914以下の処理が行われる。一方、ステップS914において照合したフレームが動画像ファイルの最終フレームに該当すると判断されると、ステップS913から917までの処理を行っていない動画像ファイルがあるか否かがステップS919において判断される。ステップS919における処理は上記説明した通りである。
このように、本発明の実施の形態によれば、動画ファイルを構成する何れかのフレームに含まれる対象物を領域選択受付部601において選択することによってテンプレート画像を生成することができ、そのテンプレート画像に含まれる対象物が登場する一シーンをフレームの各画素の画素値の分布に基づいてシーン変化検出部314によって検出することができる。そして、フレームの各画素の画素値の分布に基づいてシーンの検出を行うことによって、人間の視覚的感覚に基づいたシーン検出ができるため、動画像において目的とする対象物が登場する一シーンを的確に検出することができる。また、検出に用いるフレームをフレーム縮小部311によって縮小することによって、画像照合部313におけるテンプレート画像に類似する画像を含むフレームの探索処理の演算量およびシーン変化検出部314におけるシーン変化検出処理の演算量を低減することができるため、高速なシーン検出が可能となる。
本発明の実施の形態では、撮像装置を例に説明したが、その他画像に関する処理を行うことができる電子機器において本発明を適用することは可能である。
なお、本発明の実施の形態は本発明を具現化するための一例を示したものであり、以下に示すように特許請求の範囲における発明特定事項とそれぞれ対応関係を有するが、これに限定されるものではなく本発明の要旨を逸脱しない範囲において種々の変形を施すことができる。
すなわち、請求項1において、動画像ファイル保持手段は、例えば動画像ファイル保持部231に対応する。また、領域選択受付手段は、例えば領域選択受付部601に対応する。また、テンプレート画像生成手段は、例えばテンプレート画像生成部312に対応する。また、画像照合手段は、例えば画像照合部313に対応する。また、シーン変化検出手段は、例えばシーン変化検出部314に対応する。
また、請求項3において、フレーム取得手段は、例えばフレーム取得部315に対応する。また、画素値分布生成手段は、例えば画素値分布生成部316に対応する。また、分布差分積算値算出手段は、例えば分布差分積算値算出部317に対応する。また、シーン変化判断手段は、例えばシーン変化判断部318に対応する。
また、請求項6において、フレーム縮小手段は、例えばフレーム縮小部311に対応する。
また、請求項8において、動画像ファイル情報取得手段は、例えば動画像ファイル情報取得部319に対応する。また、シーン情報テーブルは、例えばシーン情報テーブル320に対応する。また、シーン時間位置表示生成手段は、例えばシーン時間位置表示生成部321に対応する。
また、請求項11において、撮像手段は例えば撮像部10に対応する。動画像ファイル保持手段は、例えば動画像ファイル保持部231に対応する。また、領域選択受付手段は、例えば領域選択受付部601に対応する。また、テンプレート画像生成手段は、例えばテンプレート画像生成部312に対応する。また、画像照合手段は、例えば画像照合部313に対応する。また、シーン変化検出手段は、例えばシーン変化検出部314に対応する。動画像ファイル情報取得手段は、例えば動画像ファイル情報取得部319に対応する。また、シーン情報テーブルは、例えばシーン情報テーブル320に対応する。また、シーン時間位置表示生成手段は、例えばシーン時間位置表示生成部321に対応する。また、表示手段は、例えば表示部61に対応する。
また、請求項12および13において、動画像ファイル保持手段は、例えば動画像ファイル保持部231に対応する。また、領域選択受付手順は、例えばステップS911に対応する。また、テンプレート画像生成手順は、例えばステップS912に対応する。また、画像照合手順は、例えばステップS913乃至915に対応する。また、シーン変化検出手順は、例えばステップS916および917に対応する。
なお、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。
本発明の実施の形態における撮像装置100の一例である撮像装置100aおよび100bの外観図である。 本発明の実施の形態における撮像装置100の構成を示す図である。 本発明の実施の形態におけるシーン検出機能の構成を示す図である。 本発明の実施の形態においてテンプレート画像の領域を選択する様子を示す図である。 本発明の実施の形態におけるテンプレート画像生成のイメージを示す図である。 フレーム633とテンプレート画像631とを照合する様子を示す図である。 本発明の実施の形態におけるシーン検出の様子を示す図である。 本発明の実施の形態におけるフレームを構成する各画素の画素値の分布の生成の様子を示す図である。 動画像ファイルを構成するフレームの集まりであるフレーム群と縮小されたフレームとの対応を示す図である。 本発明の実施の形態におけるシーン情報テーブル320の内容を示す図である。 本発明の実施の形態におけるシーン時間位置表示を示す図である。 本発明の実施の形態におけるシーンの結合の様子を示す図である。 本発明の実施の形態におけるシーン検出の流れを示す図である。
符号の説明
10 撮像部
11 撮像素子部
12 撮像制御部
13 画像処理部
20 記録再生処理部
21 画像符号化/復号部
22 記録制御部
23 SDRAM
30 制御部
31 システム制御部
32 入力制御部
33 表示制御部
34 出力画像処理部
35 外部機器制御部
36 ネットワーク制御部
40 バス
50 キー入力部
60 タッチパネル部
61 表示部
62 タッチパネル入力部
70 記憶装置
80 外部機器
90 ネットワーク網
100、100a、100b 撮像装置
110a、110b レンズ部
120a シャッター部
130a、130b ディスプレイ部
231 動画像ファイル保持部
311 フレーム縮小部
312 テンプレート画像生成部
313 画像照合部
314 シーン変化検出部
315 フレーム取得部
316 画素値分布生成部
317 分布差分積算値算出部
318 シーン変化判断部
319 動画像ファイル情報取得部
320 シーン情報テーブル
321 シーン時間位置表示生成部
601 領域選択受付部

Claims (13)

  1. 動画像ファイルを保持する動画像ファイル保持手段と、
    前記動画像ファイルを構成するフレームの何れか一つに対する所定の領域の選択を受け付ける領域選択受付手段と、
    前記選択を受け付けた領域の画像をテンプレート画像として生成するテンプレート画像生成手段と、
    前記動画像ファイル保持手段より前記フレームを取得して前記フレームの各々と前記テンプレート画像とを照合し前記テンプレート画像に類似する画像を含むフレームを探索する画像照合手段と、
    前記画像照合手段において探索されたフレームを含むシーンの開始および終了を検出するシーン変化検出手段と
    を具備することを特徴とする画像処理装置。
  2. 前記画像照合手段は、前記フレームの取得において時系列に所定数置きに並んだフレームを前記動画像ファイル保持手段より取得することを特徴とする請求項1記載の画像処理装置。
  3. 前記シーン変化検出手段は、
    前記画像照合手段において探索されたフレームの前後に時系列に並んだフレームを前記動画像ファイル保持手段より取得するフレーム取得手段と、
    前記フレーム取得手段によって取得されたフレームを構成する各画素の画素値の分布を生成する画素値分布生成手段と、
    前記時系列に隣り合うフレームにおける前記画素値の分布の差分を積算した分布差分積算値を算出する分布差分積算値算出手段と、
    前記分布差分積算値が所定の閾値を超えているか否かを判断して前記分布差分積算値が所定の閾値を超えている場合には前記シーンが変化したものとして前記所定の閾値を超えた前記分布差分積算値に対応するフレームを前記シーンの開始フレームまたは終了フレームと判断するシーン変化判断手段と
    を具備することを特徴とする請求項1記載の画像処理装置。
  4. 前記フレーム取得手段は、前記画像照合手段において探索されたフレームの前後に時系列に所定数置きに並んだフレームを前記動画像ファイル保持手段より取得することを特徴とする請求項3記載の画像処理装置。
  5. 前記画素値分布生成手段は、前記画素値としてYUVを用いて表される量を用い、前記フレーム取得手段によって取得されたフレームを構成する各画素のYUVそれぞれの成分の分布を生成し、
    前記分布差分積算値算出手段は、前記分布差分積算値として、前記時系列に隣り合うフレームにおける前記YUVそれぞれの成分に関する分布の差分を前記YUVそれぞれの成分毎に積算したY成分分布差積算値、U成分分布差積算値およびV成分分布差積算値を算出し、
    前記シーン変化判断手段は、前記Y成分分布差積算値、U成分分布差積算値およびV成分分布差積算値のそれぞれに対して設定された前記所定の閾値を超えているか否かを判断して前記Y成分分布差積算値、U成分分布差積算値およびV成分分布差積算値の何れか一つが所定の閾値を超えている場合には前記シーンが変化したものとして前記所定の閾値を超えた前記Y成分分布差積算値、U成分分布差積算値またはV成分分布差積算値に対応するフレームを前記シーンの開始フレームまたは終了フレームと判断することを特徴とする請求子3記載の画像処理装置。
  6. 前記動画像ファイルを構成するフレームを縮小するフレーム縮小手段をさらに具備し、
    前記動画像ファイル保持手段は、前記フレーム縮小手段において縮小されたフレームをさらに保持し、
    前記領域選択受付手段は、前記縮小されたフレームの何れか一つに対する所定の領域の選択を受け付け、
    前記画像照合手段は、前記縮小されたフレームと前記テンプレート画像とを照合して前記テンプレート画像に類似する画像を含む前記縮小されたフレームを探索し、
    前記シーン変化検出手段は、前記縮小されたフレームを用いて前記画像照合手段において探索された縮小されたフレームを含むシーンの開始および終了を検出することを特徴とする請求項1記載の画像処理装置。
  7. 前記フレーム縮小手段は、時系列に並んだ前記フレームを所定数置きに縮小することを特徴とする請求項6記載の画像処理装置。
  8. 前記動画像ファイル保持手段に保持された前記動画像ファイルより前記動画像ファイルに対応する動画像の開始および終了に関する情報を含む動画像ファイル情報を取得する動画像ファイル情報取得手段と、
    前記動画像ファイル情報取得手段によって取得された前記動画像ファイル情報および前記シーン変化検出手段によって検出された前記シーンの開始および終了に関する情報を前記動画像ファイル毎に対応付けて保持するシーン情報テーブルと、
    前記動画像ファイルに対応する動画像の開始および終了に関する情報および前記シーンの開始および終了に関する情報に基づいて前記動画像が再生される全時間に対する前記シーンの時間的な位置を示す表示であるシーン時間位置表示を生成するシーン時間位置表示生成手段と
    をさらに具備することを特徴とする請求項1記載の画像処理装置。
  9. 前記動画像ファイル情報取得手段は、前記動画像ファイルに対応する動画像の開始および終了に関する情報として前記動画像ファイルに含まれるフレーム数を取得し、
    前記シーン情報テーブルは、前記シーン検出手段によって検出された前記シーンの開始および終了に関する情報として前記シーンの開始フレーム番号および終了フレーム番号を保持し、
    前記シーン時間位置表示生成手段は、前記動画像ファイルに含まれるフレーム数、前記シーンの開始フレーム番号および終了フレーム番号に基づいて前記シーン時間位置表示を生成することを特徴とする請求項8記載の画像処理装置。
  10. 前記シーン時間位置表示生成手段は、前のシーンの終了および次のシーンの開始が連続する場合には前記前のシーンおよび前記次のシーンを一つのシーンとして前記シーン時間位置表示を生成することを特徴とする請求項8記載の画像処理装置。
  11. 被写体を撮像して動画像ファイルを生成する撮像手段と、
    前記動画像ファイルを保持する動画像ファイル保持手段と、
    前記動画像ファイルを構成するフレームの何れか一つに対する所定の領域の選択を受け付ける領域選択受付手段と、
    前記選択を受け付けた領域の画像をテンプレート画像として生成するテンプレート画像生成手段と、
    前記動画像ファイル保持手段より前記フレームを取得して前記フレームの各々と前記テンプレート画像とを照合し前記テンプレート画像に類似する画像を含むフレームを探索する画像照合手段と、
    前記画像照合手段において探索されたフレームを含むシーンの開始および終了を検出するシーン変化検出手段と、
    前記動画像ファイル保持手段に保持された前記動画像ファイルより前記動画像ファイルに対応する動画像の開始および終了に関する情報を含む動画像ファイル情報を取得する動画像ファイル情報取得手段と、
    前記動画像ファイル情報取得手段によって取得された前記動画像ファイル情報および前記シーン変化検出手段によって検出された前記シーンの開始および終了に関する情報を前記動画像ファイル毎に対応付けて保持するシーン情報テーブルと、
    前記動画像ファイルに対応する動画像の開始および終了に関する情報および前記シーンの開始および終了に関する情報に基づいて前記動画像が再生される全時間に対する前記シーンの時間的な位置を示す表示であるシーン時間位置表示を生成するシーン時間位置表示生成手段と、
    前記シーン時間位置表示を表示する表示手段と
    を具備することを特徴とする画像処理装置。
  12. 動画像ファイルを保持する動画像ファイル保持手段を備えた画像処理装置における処理方法であって、
    前記動画像ファイルを構成するフレームの何れか一つに対する所定の領域の選択を受け付ける領域選択受付手順と、
    前記選択を受け付けた領域の画像をテンプレート画像として生成するテンプレート画像生成手順と、
    前記動画像ファイル保持手段より前記フレームを取得して前記フレームの各々と前記テンプレート画像とを照合し前記テンプレート画像に類似する画像を含むフレームを探索する画像照合手順と、
    前記画像照合手段において探索されたフレームを含むシーンの開始および終了を検出するシーン変化検出手順と
    を具備することを特徴とする処理方法。
  13. 動画像ファイルを保持する動画像ファイル保持手段を備えた画像処理装置において、
    前記動画像ファイルを構成するフレームの何れか一つに対する所定の領域の選択を受け付ける領域選択受付手順と、
    前記選択を受け付けた領域の画像をテンプレート画像として生成するテンプレート画像生成手順と、
    前記動画像ファイル保持手段より前記フレームを取得して前記フレームの各々と前記テンプレート画像とを照合し前記テンプレート画像に類似する画像を含むフレームを探索する画像照合手順と、
    前記画像照合手段において探索されたフレームを含むシーンの開始および終了を検出するシーン変化検出手順と
    を実行させることを特徴とするプログラム。
JP2005296052A 2005-10-11 2005-10-11 画像処理装置 Expired - Fee Related JP4241709B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2005296052A JP4241709B2 (ja) 2005-10-11 2005-10-11 画像処理装置
TW095136787A TW200737971A (en) 2005-10-11 2006-10-03 Image processing apparatus
EP06021090A EP1775664A3 (en) 2005-10-11 2006-10-06 Image processing apparatus
KR1020060098575A KR20070040313A (ko) 2005-10-11 2006-10-10 화상 처리 장치
US11/546,081 US8014566B2 (en) 2005-10-11 2006-10-11 Image processing apparatus
CNB2006101411251A CN100555328C (zh) 2005-10-11 2006-10-11 图像处理装置
US13/091,258 US8160299B2 (en) 2005-10-11 2011-04-21 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005296052A JP4241709B2 (ja) 2005-10-11 2005-10-11 画像処理装置

Publications (2)

Publication Number Publication Date
JP2007110193A true JP2007110193A (ja) 2007-04-26
JP4241709B2 JP4241709B2 (ja) 2009-03-18

Family

ID=37401110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005296052A Expired - Fee Related JP4241709B2 (ja) 2005-10-11 2005-10-11 画像処理装置

Country Status (6)

Country Link
US (2) US8014566B2 (ja)
EP (1) EP1775664A3 (ja)
JP (1) JP4241709B2 (ja)
KR (1) KR20070040313A (ja)
CN (1) CN100555328C (ja)
TW (1) TW200737971A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009081845A (ja) * 2007-08-22 2009-04-16 Adobe Systems Inc 双方向映像フレーム検索システム及び方法
US8989555B2 (en) 2008-09-02 2015-03-24 Hitachi Maxell, Ltd. Information processor

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090123086A1 (en) * 2005-10-31 2009-05-14 Sharp Kabushiki Kaisha View environment control system
KR101268987B1 (ko) * 2007-09-11 2013-05-29 삼성전자주식회사 메타데이터를 자동적으로 생성/갱신하는 멀티미디어 데이터기록 방법 및 장치
US20090150481A1 (en) * 2007-12-08 2009-06-11 David Garcia Organizing And Publishing Assets In UPnP Networks
US20090150480A1 (en) * 2007-12-08 2009-06-11 Xiyuan Xia Publishing Assets Of Dynamic Nature In UPnP Networks
US20090150520A1 (en) * 2007-12-07 2009-06-11 David Garcia Transmitting Assets In UPnP Networks To Remote Servers
US20090150570A1 (en) * 2007-12-07 2009-06-11 Bo Tao Sharing Assets Between UPnP Networks
GB2471036B (en) * 2008-03-03 2012-08-22 Videoiq Inc Object matching for tracking, indexing, and search
CN101527040B (zh) * 2008-03-05 2012-12-19 华为终端有限公司 图像处理方法及系统
JP4798172B2 (ja) * 2008-05-20 2011-10-19 コニカミノルタビジネステクノロジーズ株式会社 画像処理装置、画像出力方法および画像出力プログラム
US8237807B2 (en) * 2008-07-24 2012-08-07 Apple Inc. Image capturing device with touch screen for adjusting camera settings
CN101370126B (zh) * 2008-09-24 2012-02-08 中兴通讯股份有限公司 一种监控录像的播放控制方法及系统
JP5035292B2 (ja) * 2009-05-11 2012-09-26 株式会社ニコン 撮像装置、データ生成装置、およびデータ生成プログラム
JP5733565B2 (ja) * 2011-03-18 2015-06-10 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN103518221B (zh) 2011-05-11 2017-03-08 I<sup>3</sup>研究所股份有限公司 图像处理装置及方法、用计算机程序进行图像处理的方法
JP5852370B2 (ja) * 2011-08-31 2016-02-03 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
JP5320525B1 (ja) * 2011-10-27 2013-10-23 パナソニック株式会社 予測動きベクトル導出方法および予測動きベクトル導出装置
EP2773111B1 (en) 2011-10-28 2020-01-01 Sun Patent Trust Image encoding method, image decoding method, image encoding device, and image decoding device
MX2013012224A (es) 2011-10-28 2013-11-01 Panasonic Corp Metodo de codificacion de imagenes, metodo de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de decodificacion de imagenes.
JP5754458B2 (ja) * 2013-03-22 2015-07-29 カシオ計算機株式会社 動画像抽出装置、動画像抽出方法及びプログラム
US9158996B2 (en) * 2013-09-12 2015-10-13 Kabushiki Kaisha Toshiba Learning image collection apparatus, learning apparatus, and target object detection apparatus
JP2016039496A (ja) * 2014-08-07 2016-03-22 株式会社リコー 画像処理装置、画像処理システム、画像処理方法およびプログラム
CN105469361B (zh) * 2015-12-24 2018-12-04 努比亚技术有限公司 一种局部图像处理方法和装置
US10089725B2 (en) * 2016-02-09 2018-10-02 Google Llc Electronic display stabilization at a graphics processing unit
KR102535411B1 (ko) 2017-11-16 2023-05-23 삼성전자주식회사 메트릭 학습 기반의 데이터 분류와 관련된 장치 및 그 방법
CN107977675A (zh) * 2017-11-24 2018-05-01 清华大学 一种视觉模板自动提取方法、系统及存储介质
CN108810413B (zh) * 2018-06-15 2020-12-01 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
US10789990B2 (en) * 2018-12-17 2020-09-29 International Business Machines Corporation Video data learning and prediction
CN116013091B (zh) * 2023-03-24 2023-07-07 山东康威大数据科技有限公司 基于车流量大数据的隧道监控系统与分析方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
JP3221028B2 (ja) 1992-01-29 2001-10-22 株式会社日立製作所 動画像情報のキーワード付与方法
DE69322306T2 (de) * 1992-04-24 1999-04-29 Hitachi, Ltd., Tokio/Tokyo Gegenstandserkennungssystem mittels Bildverarbeitung
JP3332166B2 (ja) 1992-09-30 2002-10-07 株式会社日立製作所 動画像の検索装置
US6195497B1 (en) * 1993-10-25 2001-02-27 Hitachi, Ltd. Associated image retrieving apparatus and method
US5912980A (en) * 1995-07-13 1999-06-15 Hunke; H. Martin Target acquisition and tracking
JP3454396B2 (ja) 1995-10-11 2003-10-06 株式会社日立製作所 動画像の変化点検出制御方法とそれに基づく再生停止制御方法およびそれらを用いた動画像の編集システム
EP0941614A4 (en) * 1996-11-27 2004-10-13 Princeton Video Image Inc MOTION IMAGE LOCATION SYSTEM USING IMAGE TEXTURE MODELS
US6560281B1 (en) * 1998-02-24 2003-05-06 Xerox Corporation Method and apparatus for generating a condensed version of a video sequence including desired affordances
US6724915B1 (en) * 1998-03-13 2004-04-20 Siemens Corporate Research, Inc. Method for tracking a video object in a time-ordered sequence of image frames
KR100325253B1 (ko) * 1998-05-19 2002-03-04 미야즈 준이치롯 움직임벡터 검색방법 및 장치
JP3615657B2 (ja) * 1998-05-27 2005-02-02 株式会社日立製作所 映像検索方法及び装置ならびに記録媒体
KR100327103B1 (ko) 1998-06-03 2002-09-17 한국전자통신연구원 사용자의조력및물체추적에의한영상객체분할방법
EP1024444B1 (en) * 1999-01-28 2008-09-10 Kabushiki Kaisha Toshiba Image information describing method, video retrieval method, video reproducing method, and video reproducing apparatus
US6408301B1 (en) * 1999-02-23 2002-06-18 Eastman Kodak Company Interactive image storage, indexing and retrieval system
JP2000312310A (ja) 1999-04-27 2000-11-07 Hitachi Denshi Ltd 動画像編集方法
JP2000350156A (ja) * 1999-06-09 2000-12-15 Hitachi Ltd 動画像情報の記憶方法及びこれを記録した記録媒体
JP2003087772A (ja) 2001-09-10 2003-03-20 Fujitsu Ltd 画像制御装置
US6965645B2 (en) * 2001-09-25 2005-11-15 Microsoft Corporation Content-based characterization of video frame sequences
KR100411347B1 (ko) 2001-12-29 2003-12-18 엘지전자 주식회사 동영상 비디오의 장면전환 검출 방법
JP4082664B2 (ja) 2002-09-20 2008-04-30 Kddi株式会社 映像検索装置
JP2004227519A (ja) * 2003-01-27 2004-08-12 Matsushita Electric Ind Co Ltd 画像処理方法
WO2006097681A1 (en) * 2005-03-17 2006-09-21 British Telecommunications Public Limited Company Method of tracking objects in a video sequence
US7809192B2 (en) * 2005-05-09 2010-10-05 Like.Com System and method for recognizing objects from images and identifying relevancy amongst images and information
EP1916538A3 (en) * 2006-10-27 2011-02-16 Panasonic Electric Works Co., Ltd. Target moving object tracking device
WO2008114683A1 (ja) * 2007-03-16 2008-09-25 Nikon Corporation 被写体追跡用コンピュータプログラム製品、被写体追跡装置、およびカメラ
KR101183781B1 (ko) * 2009-12-22 2012-09-17 삼성전자주식회사 실시간 카메라 모션 추정을 이용한 물체 검출/추적 방법 및 단말

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009081845A (ja) * 2007-08-22 2009-04-16 Adobe Systems Inc 双方向映像フレーム検索システム及び方法
US8989555B2 (en) 2008-09-02 2015-03-24 Hitachi Maxell, Ltd. Information processor

Also Published As

Publication number Publication date
US20070127773A1 (en) 2007-06-07
TWI334729B (ja) 2010-12-11
US8160299B2 (en) 2012-04-17
US20110199513A1 (en) 2011-08-18
EP1775664A3 (en) 2009-11-04
CN100555328C (zh) 2009-10-28
TW200737971A (en) 2007-10-01
US8014566B2 (en) 2011-09-06
CN1949271A (zh) 2007-04-18
EP1775664A2 (en) 2007-04-18
KR20070040313A (ko) 2007-04-16
JP4241709B2 (ja) 2009-03-18

Similar Documents

Publication Publication Date Title
JP4241709B2 (ja) 画像処理装置
JP4499693B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5683851B2 (ja) 撮像装置及び画像処理装置
US7856145B2 (en) Image processing system and method therefor, image processing apparatus and method, image capturing apparatus and method, program recording medium, and program
US20060146147A1 (en) Digital still camera and method of controlling operation of same
US10033931B2 (en) Image processing apparatus and image processing method for processing still image data
JP2007174378A (ja) 画像ファイリング方法及びデジタルカメラ及び画像ファイリング処理プログラム及び動画記録再生装置
US20100266160A1 (en) Image Sensing Apparatus And Data Structure Of Image File
US8078039B2 (en) Recording apparatus capable of recording moving image and still image
JP2006099532A (ja) 情報処理装置、画像データ出力方法およびプログラム
JP4998439B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2009290318A (ja) 撮像装置およびズーム調整方法
JP2008199330A (ja) 動画像管理装置
JP2005143014A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP5332668B2 (ja) 撮像装置および被写体検出プログラム
JP2005117182A (ja) 画像表示装置、画像表示方法、プログラム及び記録媒体
JP6263002B2 (ja) 撮像装置およびその制御方法、プログラム
JP5200959B2 (ja) デジタルカメラ
JP3426997B2 (ja) 被写体情報取得機能付き編集用映像撮影方法及び装置並びに該方法を記述したプログラムを記録した記憶媒体
JP2003153181A (ja) 光ディスク録画装置
KR101411911B1 (ko) 동영상 파일을 자동 재생하는 디지털 영상 처리 장치 및 그제어 방법
KR101362594B1 (ko) 참고 특징 점을 이용한 피사체 영상 검색방법
JP2012114531A (ja) 画像再生装置、画像再生方法及びプログラム
JP2012090188A (ja) 画像再生装置、画像再生方法及びプログラム
JP2005064852A (ja) デジタルカメラ及び画像再生順位決定方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080909

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081209

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130109

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees