JP5111269B2 - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP5111269B2
JP5111269B2 JP2008179458A JP2008179458A JP5111269B2 JP 5111269 B2 JP5111269 B2 JP 5111269B2 JP 2008179458 A JP2008179458 A JP 2008179458A JP 2008179458 A JP2008179458 A JP 2008179458A JP 5111269 B2 JP5111269 B2 JP 5111269B2
Authority
JP
Japan
Prior art keywords
image
frame
sequence
subframe
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008179458A
Other languages
English (en)
Other versions
JP2010021728A5 (ja
JP2010021728A (ja
Inventor
靖浩 伊藤
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008179458A priority Critical patent/JP5111269B2/ja
Priority to US12/499,630 priority patent/US8300926B2/en
Publication of JP2010021728A publication Critical patent/JP2010021728A/ja
Publication of JP2010021728A5 publication Critical patent/JP2010021728A5/ja
Application granted granted Critical
Publication of JP5111269B2 publication Critical patent/JP5111269B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理技術に関するものである。
動画像に対する代表画像を記録する画像検索装置は、例えば、特許文献1に開示されている。特許文献1に開示の技術では、動画像を構成する各フレームから特定のオブジェクトを検出し、検出したオブジェクトに関する特徴量、背景に関する特徴量、オブジェクトと背景の差分、を動画像外に記録するようにしている。
また、所定の被写体が写っているフレームを代表フレームとして抽出する方法は、例えば、特許文献2に開示されている。特許文献2に開示の技術では、画像中の部分領域内に特定のオブジェクトが存在するか否かを辞書を用いて評価する。そして、辞書に登録されたものと近いと評価されたフレームを代表フレームとして抽出する。
特開2000-222584号公報 特開平10-224736号公報
しかしながら、特許文献1に開示の技術では、動きベクトルを用いて特定のオブジェクトを検出するので、画像中で動きのないところに特定のオブジェクトが存在する場合、このオブジェクトの検出が行えないという問題がある。そのため、画像全体の冗長度は低減されるものの、動画像そのものの内容の把握が出来なくなってしまう。従って、動画像をその被写体内容に応じて最適な時間で再生したり、編集を行うことが難しくなってしまう。
また、特許文献2に開示の技術では、一部分を評価するだけであるので、代表フレームに同じような画像パターンが入ってきてしまうことが考えられる。この場合、このような動画区間を検索したとしても、ほぼ同内容の代表フレームが多数生成されてしまうことになり、動画内容の把握には適さない。そのため、被写体内容に応じて最適な時間から再生したり、編集を行うことは容易でない。
本発明は以上の問題に鑑みてなされたものであり、動画像を代表する代表画像を、動画像の内容を鑑みたより正確な代表画像として取得するための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
即ち、連続するフレームで構成されているフレーム列を1以上のサブフレーム列に分割する分割手段と、
前記1以上のサブフレーム列のそれぞれについて、当該サブフレーム列を構成する各フレームの画像のうち規定の被写体が映っている画像群を特定し、特定した画像群から1つの画像を選択画像として選択する選択手段と、
前記選択手段が選択した選択画像を、前記フレーム列の代表画像として出力する出力手段と
を備え
前記出力手段は、
前記フレーム列の先頭フレームに最も近い選択画像の背景部分と、その他の選択画像のそれぞれの背景部分との相関値を計算し、前記フレーム列の先頭フレームに最も近い選択画像の背景部分との相関値が閾値よりも小さい選択画像、及び前記フレーム列の先頭フレームに最も近い選択画像、を出力する
ことを特徴とする。
本発明の構成によれば、動画像を代表する代表画像を、動画像の内容を鑑みたより正確な代表画像として取得することができる。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、被写体として人の顔を用いる。しかし、被写体が人の顔以外の如何なるものであったとしても以下の説明は同様に適用することができることは、当業者であれば明らかである。
従って、本実施形態はこのような前提の元、動画像を構成する連続するフレームで構成されているフレーム列を1以上のサブフレーム列に分割し、分割したそれぞれのサブフレーム列について代表画像を求めて表示する。
図1は、本実施形態に係る画像処理装置の機能構成例を示すブロック図である。図1に示す如く、本実施形態に係る画像処理装置は、画像入力部100、画像メモリ200、顔シーケンス作成部300、辞書DB(データベース)331、代表フレーム候補作成部400、代表フレーム候補決定部500、表示部600、を有する。以下、これらの各部について説明する。
画像入力部100は、動画像のデータを入力し、入力した動画像のデータを後段の画像メモリ200に格納するためのもので、例えば、カムコーダ等で構成されている。しかし、動画像のデータの入力形態については特に限定するものではない。例えば、ビデオカメラなどの撮像装置が撮像した動画像のデータを、この撮像装置から直接若しくはネットワークを介して取得しても良いし、予め作成された動画像のデータを記憶保持するハードディスクドライブ装置からこの動画像のデータを取得しても良い。もちろん、画像入力部100は、この動画像の取得形態に応じたものを用いることになる。なお、周知の通り、動画像のデータは、複数フレームの画像群のデータで構成されている。
画像メモリ200は、画像入力部100から送出された動画像のデータを格納するためのものである。
顔シーケンス作成部300は、画像メモリ200から動画像のデータを読み出すと、係る動画像を構成する各フレームの画像データを解析し、その解析結果を、各フレームの画像データと共に後段の代表フレーム候補作成部400に送出する。図1に示す如く、顔シーケンス作成部300は、カット点検出部310、顔検出部320、顔弁別部330、顔シーケンス記憶部340、を有する。
カット点検出部310は、画像メモリ200から読み出したデータが示す動画像を構成するフレーム列を、1以上のサブフレーム列に分割する処理を行う。係る処理は、動画像をシーン毎に分割し、それぞれのシーン毎のサブフレーム列を生成する処理である。動画像を1以上のサブフレーム列に分割するための処理では、例えば、先頭フレームから順に画像を参照し、現在参照しているフレームの画像と1つ前に参照したフレームの画像との間で色の相関値を計算する。そして計算した相関値が閾値よりも小さい場合には、現在参照しているフレームの画像を区切りのフレームと判断し、係る区切りのフレームを、新たなサブフレーム列の先頭フレームとする。一方、計算した相関値が閾値以上である場合には、現在参照しているフレームを、1つ前に参照したフレームの画像が属するサブフレーム列の後端フレームとする。係る処理により、フレーム列には、1以上の区切りのフレームが設けられるので、区切りのフレームから次の区切りのフレームの1つ手前のフレームまでを1つのサブフレーム列とすることができる。係る処理を換言すれば、x(x=1,2,…)フレーム目の画像と、(x+1)フレーム目の画像とで、色の相関値を計算し、計算した相関値が閾値以上であれば、xフレーム目の画像と(x+1)フレーム目の画像とは同じサブフレーム列に含める。一方、相関値が閾値よりも小さい場合には、xフレーム目の画像が属するサブフレーム列とは異なるサブフレーム列に(x+1)フレーム目の画像を含める。なお、1つのフレーム列を1以上のサブフレーム列に分割する方法は係る方法に限定するものではない。
顔検出部320は、サブフレーム列毎に次のような処理を行う。即ち、サブフレーム列を構成する各フレームの画像を参照し、参照した画像から顔領域を検出する。そして、サブフレーム列を構成する各フレームの画像のデータと共に、顔領域の位置やサイズ、検出したフレームの番号等の情報(顔領域情報)を、後段の顔弁別部330に送出する。なお、顔領域情報は、どのフレームにおける画像中のどの位置のどのサイズの領域内に顔があったのかを特定する為のものであるので、係る点が特定できるのであれば、顔領域情報に含まれる情報はこれに限定するものではない。また、顔領域を含まないフレームの画像については、顔領域が検出できなかった旨を示す情報を顔領域情報として出力する。即ち、顔検出部320からは、サブフレーム列を構成する各フレームについて、画像のデータ、顔領域情報のセットが、出力されることになる。
顔弁別部330は先ず、辞書DB331から、予め登録されている人の顔のデータ(辞書データ)を読み出す。辞書データは、例えば、Aさんの顔を特定するためのデータ、Bさんの顔を特定する為のデータ等、予め決められた人の顔を特定するためのデータにより構成されている。そして顔弁別部330は、サブフレーム列毎に次のような処理を行う。即ち、顔弁別部330は、1つのサブフレーム列を構成する各フレームの顔領域情報を参照し、顔領域が検出されたフレームを特定する。そして、特定したフレームの顔領域情報を参照し、このフレーム内の顔領域を特定する。そして、特定した顔領域内の顔が、辞書データが示す顔であるか否かを判断する。そして、特定した顔領域内の顔が、例えばAさんの顔である場合には、このフレームの顔領域情報と、「Aさんの顔」に対応付けられたコード(顔コード)、のセットを、顔シーケンス情報として顔シーケンス記憶部340に出力する。また、特定した顔領域内の顔が、例えばBさんの顔である場合には、このフレームの顔領域情報と、「Bさんの顔」に対応付けられたコード、のセットを、顔シーケンス情報として顔シーケンス記憶部340に出力する。このように、特定した顔領域内の顔が、予め登録されている顔である場合には、このフレームの顔領域情報と、この顔に対応付けられたコード、のセットを、顔シーケンス情報として顔シーケンス記憶部340に出力する。
これにより、顔シーケンス情報には、1つのサブフレーム列を構成するフレーム群において、どのフレームにどの人の顔がどの位置にどのサイズで映っているのかが登録されることになる。顔弁別部330は、このような処理を、サブフレーム列毎に行う。
顔シーケンス記憶部340は、顔弁別部330から受けたサブフレーム列毎の顔シーケンス情報を記憶保持する。なお、顔弁別部330から受けた情報は、外部のメモリに格納するようにしても良い。
代表フレーム候補作成部400は、サブフレーム列毎に顔シーケンス記憶部340に記憶保持されている顔シーケンス情報を用いて、サブフレーム列毎の代表画像(動画像の代表フレームの候補)を特定する。図1に示す如く、代表フレーム候補作成部400は、代表フレーム候補抽出部410、代表フレーム候補記憶部420を有する。
代表フレーム候補抽出部410は、サブフレーム列毎に次のような処理を行う。先ず、1つのサブフレーム列について顔シーケンス記憶部340に記憶保持されている顔シーケンス情報を参照し、それぞれの顔シーケンス情報中に記されている顔コードの数をカウントする。即ち、予め登録されている顔が映っている各フレームについて、予め登録されている顔が1つのフレーム内にいくつ映っているのかをカウントする。そして、最も多くの顔(辞書データに登録されている顔)が映っているフレームを選択フレーム(選択画像)として選択する。もし、選択フレームの候補が複数存在する場合には、フレーム番号が最も小さい(より先頭フレームに近い)フレームを選択フレームとして選択する。係る選択フレームは、1つのサブフレーム列について1つ選択されることになるので、代表フレーム候補抽出部410が各サブフレーム列についてこのような処理を行うことで、サブフレーム列毎に1つの選択フレームが決定することになる。そして代表フレーム候補抽出部410は、サブフレーム列毎の選択フレームの画像データと、顔シーケンス情報とを代表フレーム候補記憶部420に格納する。
代表フレーム候補決定部500は、それぞれの選択フレームの画像のうち、他と類似しない選択フレームのみを選択し、選択した選択フレームを「動画像を代表する代表フレーム」として決定する。そして決定した代表フレームの画像を、後段の表示部600に表示させる。図1に示す如く、代表フレーム候補決定部500は、代表フレーム候補特徴量抽出部510、代表フレーム候補類似度判定部520、代表フレーム表示制御部530、により構成されている。
代表フレーム候補特徴量抽出部510は、それぞれの選択フレームの画像データを受けると、それぞれの画像データについて次のような処理を行う。即ち、1つの画像において、この画像の顔領域以外の部分(背景部分)を構成する各画素の平均画素値を求める。この画像の顔領域については、この画像が属するサブフレーム列に対応する顔シーケンス情報に記されている。
代表フレーム候補類似度判定部520は、最も小さいフレーム番号の選択フレームについて求めた平均画素値と、その他の選択フレームのそれぞれについて求めた平均画素値との相関値を計算する。そして、最も小さいフレーム番号の選択フレームについて求めた平均画素値との相関値が閾値よりも小さい選択フレームの画像、及び最も小さいフレーム番号の選択フレームの画像、を、後段の代表フレーム表示制御部530に送出する。
代表フレーム表示制御部530は、代表フレーム候補類似度判定部520から送出されたそれぞれの画像を、動画像を代表する代表フレームの画像として、表示部600に表示させる。
図8は、以上説明した、動画像から、この動画像を代表する代表フレームを決定するための処理を説明する為の図である。図8において、Sは、動画像を示しており、850,851はそれぞれ、この動画像Sから得られたサブフレーム列である。ここで、それぞれのフレームに映っている顔は何れも予め登録されている顔であるとする。従ってこの場合、サブフレーム列850については、最も多くの顔が映っているフレームは3フレーム目と4フレーム目であるので、先頭フレームに近い3フレーム目の画像を、サブフレーム列850に対する選択フレームの画像861として選択する。サブフレーム列851については何れのフレームにも同数の顔が映っているので、先頭フレームに近い1フレーム目の画像を、サブフレーム列851に対する選択フレームの画像862として選択する。863は、サブフレーム列851の後段のサブフレーム列から選択された選択フレームの画像であるとする。
次の処理としては、選択フレームの画像861、862、863のうち、表示対象の画像、即ち、動画像Sを代表する代表フレームを決定する処理を行う。画像861は表示対照とするので、あとは、画像862,863について表示対象とするか否かを決定する処理を行う。画像862は画像861とは類似していないので表示対象とする。しかし、画像863は画像861と類似しているので、表示対象とはしない。
図2は、以上説明した、1つの動画像について、代表フレームの画像を決定して表示するための処理のフローチャートである。なお、以下の説明では、動画像を構成する各フレームの画像は、各画素が8ビットのR成分、8ビットのG成分、8ビットのB成分で構成されているものとして説明する。
ステップS201では、画像入力部100は、動画像のデータを入力し、入力した動画像のデータを後段の画像メモリ200に格納する。なお、動画像のデータがMPEGやJPEG等の圧縮方式でもって圧縮されている場合、画像入力部100は、圧縮方式に対応する伸張方式でもってこの動画像を伸張し、伸張後のデータを画像メモリ200に送出する。
次に、ステップS202では、カット点検出部310は、画像メモリ200から読み出したデータが示す動画像を構成するフレーム列を、1以上のサブフレーム列に分割する処理を行う。係る処理では先ず、先頭フレームから順に各フレームの画像の平均画素値を計算する。平均画素値は、1つの画像を構成する全ての画素の画素値を加算し、その加算結果を1つの画像を構成する全ての画素の数で除算した結果である。そして、現在参照しているフレームについて計算した平均画素値と1つ前に参照したフレームについて計算した平均画素値との相関値(色の相関値)を計算する。そして計算した相関値が閾値よりも小さい場合には、現在参照しているフレームの画像を区切りのフレームと判断し、係る区切りのフレームを、新たなサブフレーム列の先頭フレームとする。一方、計算した相関値が閾値以上である場合には、現在参照しているフレームを、1つ前に参照したフレームの画像が属するサブフレーム列の後端フレームとする。
次に、ステップS203では、顔検出部320は、ステップS202で分割された1以上のサブフレーム列のうち1つを処理対象として選択する。そして処理対象として選択したサブフレーム列(処理対象サブフレーム列)を構成する各フレームの画像を参照し、参照した画像から顔領域を検出する。顔領域の検出技術には様々なものがあり、本実施形態ではどのような技術を用いて顔領域を検出しても良い。顔領域の検出技術には、例えば、「Rowley et al, "Neural network-based face detection", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.20 , NO.1, JANUARY 1998」に開示されている技術がある。また、このほかにも、例えば、「Yang et al, "Detecting Faces in Images: A Survey", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, VOL.24 , NO.1, JANUARY 2002」に開示されている技術もある。
そして、顔検出部320は、処理対象サブフレーム列を構成する各フレームの画像のデータと顔領域情報とを、後段の顔弁別部330に送出する。
ここで、全てのサブフレーム列についてステップS203における処理を行ったのであれば、処理をステップS204を介してステップS205に進める。一方、未だ処理対象となっていないサブフレーム列がある場合には、処理をステップS204を介してステップS203に戻し、未だ処理対象となっていないサブフレーム列についてステップS203における処理を行う。
ステップS205では、顔弁別部330は先ず、辞書DB331から、予め登録されている人の顔のデータ(辞書データ)を読み出す。そして顔弁別部330は、サブフレーム列毎に次のような処理を行う。即ち、顔弁別部330は、1つのサブフレーム列を構成する各フレームの顔領域情報を参照し、顔領域が検出されたフレームを特定する。そして、特定したフレームの顔領域情報を参照し、このフレーム内の顔領域を特定する。そして、特定した顔領域内の顔が、予め登録されている顔である場合には、このフレームの顔領域情報と、この顔に対応付けられたコード、のセットを、顔シーケンス情報として顔シーケンス記憶部340に出力する。
図3は、ステップS201からステップS205までの処理を説明するための図である。図3においてSは動画像を示しており、図2では、この動画像は、サブフレーム列A1とサブフレーム列A2とに分割されている。図2では、サブフレーム列A1から顔B1が検出されると、この顔B1は辞書DB331に登録されている辞書データと照合される。図2では、顔B1はaさんの顔と認識された。また、図2では、サブフレーム列A1から顔B2が検出されると、この顔B2は辞書DB331に登録されている辞書データと照合される。図2では、顔B2はbさんの顔と認識された。なお、顔の弁別技術については、例えば、U.S.Patent 4165992に開示されている技術を用いる。
次に、ステップS206では、代表フレーム候補抽出部410は、サブフレーム列毎に次のような処理を行う。先ず、1つのサブフレーム列について顔シーケンス記憶部340に記憶保持されている顔シーケンス情報を参照し、それぞれの顔シーケンス情報中に記されている顔コードの数をカウントする。そして、最も多くの顔(辞書データに登録されている顔)が映っているフレームを選択フレーム(選択画像)として選択する。もし選択フレームの候補が複数存在する場合には、フレーム番号が最も小さい(より先頭フレームに近い)フレームを選択フレームとして選択する。そして代表フレーム候補抽出部410は、サブフレーム列毎の選択フレームの画像データと、顔シーケンス情報とを代表フレーム候補記憶部420に格納する。
ステップS207では、代表フレーム候補特徴量抽出部510は、それぞれの選択フレームの画像データを受けると、それぞれの画像データについて次のような処理を行う。即ち、1つの画像において、この画像の顔領域以外の部分(背景部分)を構成する各画素の平均画素値を求める。
代表フレーム候補類似度判定部520は、最も小さいフレーム番号の選択フレームについて求めた平均画素値と、その他の選択フレームのそれぞれについて求めた平均画素値との相関値を計算する。そして、最も小さいフレーム番号の選択フレームについて求めた平均画素値との相関値が閾値よりも小さい選択フレームの画像、及び最も小さいフレーム番号の選択フレームの画像、を、後段の代表フレーム表示制御部530に送出する。
代表フレーム表示制御部530は、代表フレーム候補類似度判定部520から送出されたそれぞれの画像を、動画像を代表する代表フレームの画像として、表示部600に表示させる。なお、代表フレームの画像の出力先は表示部600に限定するものではなく、メモリに格納させるなど、その出力先には様々なものが考え得る。
図4は、ステップS206,S207における処理を説明するための図である。
A4,A5、A6は何れも同じ動画像から得られたサブフレーム列である。
ここで、C1に示す如く、サブフレーム列A4においてaさんの顔(予め登録されている顔)は1フレーム目から4フレーム目までに映っており、bさんの顔(予め登録されている顔)は3フレーム目から5フレーム目までに映っている。従ってサブフレーム列A4においては、3フレーム目と4フレーム目とに2つの顔が映っており、この2つのフレームが最も多い顔が映っているフレームとなる。従って、この2つのフレームのうち、より先頭フレームに近いフレームである3フレーム目の画像を、このサブフレーム列A4に対する選択フレームの画像D1とする。
一方、C2に示す如く、サブフレーム列A5にはcさんの顔(予め登録されている顔)のみが全てのフレームに渡って映っている。従ってサブフレーム列A5においては、より先頭フレームに近いフレームである1フレーム目の画像を、このサブフレーム列A5に対する選択フレームの画像D2とする。
一方、C3に示す如く、サブフレーム列A6においてaさんの顔は1フレーム目から6フレーム目までに映っており、cさんの顔は3フレーム目から5フレーム目までに映っている。従ってサブフレーム列A6においては、3フレーム目から5フレーム目に2つの顔が映っており、この2つのフレームが最も多い顔が映っているフレームとなる。従って、この3フレーム目から5フレーム目のうち、より先頭フレームに近いフレームである3フレーム目の画像を、このサブフレーム列A6に対する選択フレームの画像D3とする。
次に、画像D1と画像D2との間で類似性の比較、画像D1と画像D3との間で類似性の比較、を行う。
ここで、画像間の類似性の比較処理の一例を、図6を用いて説明する。
先ず、代表フレーム候補特徴量抽出部510は、比較対象画像690を複数のブロックに分割する。691は比較対象画像690を複数のブロックに分割した場合の画像を示しており、分割箇所を点線で示している。そして代表フレーム候補類似度判定部520は、それぞれのブロックについて、ブロック内の各画素の画素値の平均値を計算する。692は、それぞれのブロック内を、対応する平均画素値を有する画素で埋めた場合の画像を示す。代表フレーム候補類似度判定部520は、2つの画像を比較する場合、画像間で位置的に対応するブロック同士で平均画素値を比較し、その差分(絶対値)を全てのブロックについて累積する。そしてその累積値が閾値以上であれば、画像間の類似性はないものと判断する。もちろん、類似性の判断処理は係る処理に限定するものではない。
そして、このような類似性の判断処理の結果、画像D1と画像D2とは類似性がないものと判断されるし、画像D1と画像D3とは類似性があるものと判断される。従って、画像D1と画像D2とが表示対象として選択されることになる。
なお、本実施形態では、表示部600に表示するものは、動画像を代表する代表フレームの画像のみとしているが、その他の情報を更に表示するようにしても良い。例えば、代表フレームを決定する際には、そのフレームの画像内に映っている顔が誰のものであるのかを、顔コードとして判別しているので、この顔コードや、この顔コードに対応する人の名前などを表示部600に表示しても良い。
[第2の実施形態]
第1の実施形態では、画像間の類似性を画するための処理の一例として、先ず、図6に示す如く、比較対象画像690を複数のブロックに分割し、それぞれのブロックについて、ブロック内の各画素の画素値の平均値を計算した。そして、2つの画像を比較する場合、画像間で位置的に対応するブロック同士で平均画素値を比較し、その差分を全てのブロックについて累積し、その累積値が閾値以上であれば、画像間の類似性はないものと判断した。
本実施形態では、顔領域とその下方の領域に含まれるブロックについてはこのような処理の対象外とする。
図7は、本実施形態に係る画像間の類似性の比較処理を説明するための図である。
先ず、代表フレーム候補特徴量抽出部510は、比較対象画像790において、顔領域とその下部を特定する。図7では、比較対象画像790において点線で示している領域が、顔領域とその下部領域の合計を示している。これは第1の実施形態についても同様であるが、特定(検出、抽出)する領域の形状については矩形に限定するものではなく、円形、楕円形などの形状であっても良い。そして代表フレーム候補特徴量抽出部510は、比較対象画像790において、顔領域とその下部領域については以降の処理対象外とする。791は、比較対象画像790において処理対象外とした領域を塗りつぶしたものである。
次に、代表フレーム候補特徴量抽出部510は、画像791を複数のブロックに分割する。792は画像791を複数のブロックに分割した場合の画像を示しており、分割箇所を点線で示している。そして代表フレーム候補類似度判定部520は、それぞれのブロックについて、ブロック内の各画素の画素値の平均値を計算する。793は、それぞれのブロック内を、対応する平均画素値を有する画素で埋めた場合の画像を示す図である。以降の処理については第1の実施形態と同じである。
[第3の実施形態]
第1の実施形態、第2の実施形態では、1つの動画像を1以上のサブフレーム列に分割する処理、即ち、動画像をシーン毎に分割する処理を行うためには、それぞれの画像の平均画素値を求め、画像間でその平均画素値の相関値を計算していた。しかし、次のような処理を行うことで、1つの動画像を1以上のサブフレーム列に分割するようにしても良い。
即ち、1つの画像を複数のブロックに分割し、ブロック毎に、ブロック内の平均画素値を求める処理を、各フレームの画像について行う。そして、先頭フレームから順に画像を参照し、現在参照しているフレームの画像と1つ前に参照したフレームの画像との間で、位置的に対応するブロック同士で平均画素値の差(絶対値)を求める。そしてそれぞれのブロックについて求めた差の合計値が閾値以上である場合には、現在参照しているフレームの画像を区切りのフレームと判断し、係る区切りのフレームを、新たなサブフレーム列の先頭フレームとする。一方、上記合計値が閾値よりも小さい場合には、現在参照しているフレームを、1つ前に参照したフレームの画像が属するサブフレーム列の後端フレームとする。
[第4の実施形態]
上記実施形態で用いた画像処理装置には、動画像を再生する為の専用機や、PC(パーソナルコンピュータ)等が適用可能である。
図5は、上記実施形態において用いた画像処理装置に適用可能なコンピュータのハードウェア構成例を示すブロック図である。
CPU501は、RAM502やROM503に格納されているコンピュータプログラムやデータを用いて、コンピュータ全体の制御を行うと共に、画像処理装置が行うものとして上述した各処理を実行する。
RAM502は、外部記憶装置506からロードされたコンピュータプログラムやデータ、I/F(インターフェース)507を介して外部から受信したデータなどを一時的に記憶するためのエリアを有する。また、RAM502は、CPU501が各種の処理を実行する際に用いるワークエリアも有する。即ち、RAM502は、各種のエリアを適宜提供することができる。例えば、RAM502は、図1に示した画像メモリ200、顔シーケンス記憶部340、代表フレーム候補記憶部420、としても機能する。
ROM503は、本コンピュータの設定データや、ブートプログラムなどを格納する。
操作部504は、キーボードやマウスなどにより構成されており、本コンピュータの操作者が操作することで、各種の指示をCPU501に対して入力することができる。例えば、動画像の取得指示等をこの操作部504を用いて入力することができる。
表示装置505は、CRTや液晶画面などにより構成されており、CPU501による処理結果を画像や文字などでもって表示することができる。表示装置505は、図1に示した表示部600に対応するものである。
外部記憶装置506は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置506には、OS(オペレーティングシステム)や、画像処理装置が行うものとして上述した各処理をCPU501に実行させる為のコンピュータプログラムやデータが保存されている。係るコンピュータプログラムには、図1に示した下記の各部の機能をCPU501に実行させるためのコンピュータプログラムが含まれている。
・ カット点検出部310
・ 顔検出部320
・ 顔弁別部330
・ 代表フレーム候補抽出部410
・ 代表フレーム候補特徴量抽出部510
・ 代表フレーム候補類似度判定部520
・ 代表フレーム表示制御部530
また、外部記憶装置506には、図1に示した辞書DB331も保存されている。
外部記憶装置506に保存されているコンピュータプログラムやデータは、CPU501による制御に従って適宜RAM502にロードされ、CPU501による処理対象となる。
I/F507は、図1に示した画像入力部100として機能する。撮像装置やネットワーク上の装置から供給される動画像のデータは、このI/F507を介して外部記憶装置506やRAM502に送出される。
508は上述の各部を繋ぐバスである。
[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の第1の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 1つの動画像について、代表フレームの画像を決定して表示するための処理のフローチャートである。 ステップS201からステップS205までの処理を説明するための図である。 ステップS206,S207における処理を説明するための図である。 各実施形態において用いた画像処理装置に適用可能なコンピュータのハードウェア構成例を示すブロック図である。 画像間の類似性の比較処理の一例を説明するための図である。 画像間の類似性の比較処理を説明するための図である。 動画像から、この動画像を代表する代表フレームを決定するための処理を説明する為の図である。

Claims (7)

  1. 連続するフレームで構成されているフレーム列を1以上のサブフレーム列に分割する分割手段と、
    前記1以上のサブフレーム列のそれぞれについて、当該サブフレーム列を構成する各フレームの画像のうち規定の被写体が映っている画像群を特定し、特定した画像群から1つの画像を選択画像として選択する選択手段と、
    前記選択手段が選択した選択画像を、前記フレーム列の代表画像として出力する出力手段と
    を備え
    前記出力手段は、
    前記フレーム列の先頭フレームに最も近い選択画像の背景部分と、その他の選択画像のそれぞれの背景部分との相関値を計算し、前記フレーム列の先頭フレームに最も近い選択画像の背景部分との相関値が閾値よりも小さい選択画像、及び前記フレーム列の先頭フレームに最も近い選択画像、を出力する
    ことを特徴とする画像処理装置。
  2. 前記分割手段は、
    x(x=1,2,…)フレーム目の画像と、(x+1)フレーム目の画像とで、色の相関値を計算し、計算した相関値が閾値以上であればxフレーム目の画像と(x+1)フレーム目の画像とは同じサブフレーム列に含め、前記相関値が閾値よりも小さい場合には、xフレーム目の画像が属するサブフレーム列とは異なるサブフレーム列に(x+1)フレーム目の画像を含める、ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記選択手段は、
    1つのサブフレーム列を構成する各フレームの画像のうち、規定の被写体が最も多く映っている画像を、前記1つのサブフレーム列に対する選択画像として選択する処理を、それぞれのサブフレーム列について行うことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記選択手段は、
    前記1つのサブフレーム列を構成する各フレームの画像のうち、規定の被写体が最も多く映っている画像が複数存在する場合には、該複数の画像うち該1つのサブフレーム列の先頭フレームに最も近いフレームの画像を、前記1つのサブフレーム列に対する選択画像として選択することを特徴とする請求項3に記載の画像処理装置。
  5. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の分割手段が、連続するフレームで構成されているフレーム列を1以上のサブフレーム列に分割する分割工程と、
    前記画像処理装置の選択手段が、前記1以上のサブフレーム列のそれぞれについて、当該サブフレーム列を構成する各フレームの画像のうち規定の被写体が映っている画像群を特定し、特定した画像群から1つの画像を選択画像として選択する選択工程と、
    前記画像処理装置の出力手段が、前記選択工程で選択した選択画像を、前記フレーム列の代表画像として出力する出力工程と
    を備え
    前記出力工程では、
    前記フレーム列の先頭フレームに最も近い選択画像の背景部分と、その他の選択画像のそれぞれの背景部分との相関値を計算し、前記フレーム列の先頭フレームに最も近い選択画像の背景部分との相関値が閾値よりも小さい選択画像、及び前記フレーム列の先頭フレームに最も近い選択画像、を出力する
    ことを特徴とする画像処理方法。
  6. コンピュータを、請求項1乃至の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
  7. 請求項に記載のコンピュータプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
JP2008179458A 2008-07-09 2008-07-09 画像処理装置、画像処理方法 Expired - Fee Related JP5111269B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008179458A JP5111269B2 (ja) 2008-07-09 2008-07-09 画像処理装置、画像処理方法
US12/499,630 US8300926B2 (en) 2008-07-09 2009-07-08 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008179458A JP5111269B2 (ja) 2008-07-09 2008-07-09 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2010021728A JP2010021728A (ja) 2010-01-28
JP2010021728A5 JP2010021728A5 (ja) 2011-08-25
JP5111269B2 true JP5111269B2 (ja) 2013-01-09

Family

ID=41504808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008179458A Expired - Fee Related JP5111269B2 (ja) 2008-07-09 2008-07-09 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (1) US8300926B2 (ja)
JP (1) JP5111269B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5427577B2 (ja) * 2009-12-04 2014-02-26 パナソニック株式会社 表示制御装置及び表示画像形成方法
JP6257337B2 (ja) * 2014-01-14 2018-01-10 日本放送協会 画像選択装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3823333B2 (ja) * 1995-02-21 2006-09-20 株式会社日立製作所 動画像の変化点検出方法、動画像の変化点検出装置、動画像の変化点検出システム
JP3250467B2 (ja) * 1996-10-04 2002-01-28 松下電器産業株式会社 映像要約方法および映像表示方法
JP3312105B2 (ja) 1997-02-05 2002-08-05 株式会社東芝 動画像インデックス生成方法および生成装置
JP3748717B2 (ja) * 1998-08-31 2006-02-22 シャープ株式会社 動画像符号化装置
JP2000222584A (ja) 1999-01-29 2000-08-11 Toshiba Corp 映像情報記述方法、映像検索方法及び映像検索装置
JP2001167110A (ja) * 1999-12-08 2001-06-22 Matsushita Electric Ind Co Ltd 画像検索方法及びその装置
KR100456619B1 (ko) * 2001-12-05 2004-11-10 한국전자통신연구원 에스.브이.엠(svm)을 이용한 얼굴 등록/인증 시스템 및방법
JP4775306B2 (ja) * 2007-04-23 2011-09-21 ソニー株式会社 画像処理装置、撮像装置、および画像表示制御方法、並びにコンピュータ・プログラム
JP5398156B2 (ja) * 2008-03-04 2014-01-29 キヤノン株式会社 ホワイトバランス制御装置およびその制御方法並びに撮像装置

Also Published As

Publication number Publication date
US8300926B2 (en) 2012-10-30
US20100007762A1 (en) 2010-01-14
JP2010021728A (ja) 2010-01-28

Similar Documents

Publication Publication Date Title
US8971585B2 (en) Image processing apparatus for retrieving object from moving image and method thereof
KR101548834B1 (ko) 클라우드 보조 증강 현실을 위한 적응적 프레임워크
US10366504B2 (en) Image processing apparatus and image processing method for performing three-dimensional reconstruction of plurality of images
EP3189469B1 (en) A method for selecting frames from video sequences based on incremental improvement
US20070127773A1 (en) Image processing apparatus
US20110243451A1 (en) Image processing apparatus and method, and program
US20060159370A1 (en) Video retrieval system and video retrieval method
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP2006217070A (ja) 監視記録装置
JP2006330800A (ja) 画像合成システム、画像合成方法、この方法のプログラム
JP4496992B2 (ja) 動物体アップフレーム検出方法及びプログラム及びプログラムを格納した記憶媒体及び動物体アップショット検出方法及び動物体アップフレームあるいはショット検出方法及びプログラム及びプログラムを格納した記憶媒体
WO2015186347A1 (ja) 検出システム、検出方法及びプログラム記憶媒体
JP2002223412A (ja) 画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラムソフトウェア
JP2010244207A (ja) 移動物体追跡装置、移動物体追跡方法および移動物体追跡プログラム
JP5441151B2 (ja) 顔画像追跡装置及び顔画像追跡方法並びにプログラム
JP5111269B2 (ja) 画像処理装置、画像処理方法
JP3330348B2 (ja) 映像検索方法及び装置並びに映像検索プログラムを記録した記録媒体
JP4449483B2 (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
CN113361426A (zh) 车辆定损图像获取方法、介质、装置和电子设备
JP2000132692A (ja) 曲線の特徴点抽出方法及びこの方法を記録した記録媒体
JP7266490B2 (ja) 画像処理装置、その制御方法及びプログラム
KR102589150B1 (ko) 누적 차영상을 이용한 원거리 객체 검지 시스템
JP7166796B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP4994174B2 (ja) データ処理装置及びデータ処理方法
KR20240001729A (ko) 위조 영상 검출방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110711

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120907

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121009

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5111269

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees