JP2011100240A - 代表画像抽出方法,代表画像抽出装置および代表画像抽出プログラム - Google Patents

代表画像抽出方法,代表画像抽出装置および代表画像抽出プログラム Download PDF

Info

Publication number
JP2011100240A
JP2011100240A JP2009253683A JP2009253683A JP2011100240A JP 2011100240 A JP2011100240 A JP 2011100240A JP 2009253683 A JP2009253683 A JP 2009253683A JP 2009253683 A JP2009253683 A JP 2009253683A JP 2011100240 A JP2011100240 A JP 2011100240A
Authority
JP
Japan
Prior art keywords
image
face
representative image
score
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009253683A
Other languages
English (en)
Inventor
Uwe Kowalik
ウベ コワリク
Yasuhiko Miyazaki
泰彦 宮崎
Takeshi Irie
豪 入江
Akira Kojima
明 小島
Mitsuhiro Wagatsuma
光洋 我妻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2009253683A priority Critical patent/JP2011100240A/ja
Publication of JP2011100240A publication Critical patent/JP2011100240A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像列から利用者の嗜好に応じた代表画像を自動的に抽出する。
【解決手段】画像中の顔に関して計算により求められる複数の顔パラメータと,顔パラメータに対する利用者の評価スコアとを関連付けて,利用者プロファイルDB103に保存しておく。代表画像を選出する際に,入力画像中の顔から算出した顔パラメータをもとに利用者プロファイルDB103を参照して,入力画像の代表画像としての評価値(算出スコア)を算出し,この算出スコアが高いものを代表画像として選択する。選択された代表画像に対する利用者の評価スコアを入力し,算出スコアがその評価スコアに近似されるように新たなプロファイルを計算して利用者プロファイルDB103を更新する。
【選択図】図2

Description

本発明は,特にホームビデオなどで撮影されたコンテンツの中から,顔認識や表情認識の技術を利用して,代表画像(代表フレーム画像ともいう)を自動的に抽出する技術であって,特に,利用者の嗜好に応じた結果を出力するための技術に関するものである。
近年,ビデオカメラ等の機器が一般化してきたことに伴い,CGV(consumer generated video contents )と呼ばれる一般利用者が撮影した映像データが爆発的に増えてきている。各種の行事や旅行において,写真ではなく,ビデオで映像を撮ることは,一般的な習慣となっている。
タイミングを狙ってカメラで撮影された静止画データと異なり,このような映像データには,その中に「ベストショット」が含まれていることが多いが,一方で,撮影された映像データのフレームの中から,そのようなベストショットの含まれる代表フレーム画像を探し出すことは,利用者が目視で探すには多くの労力が必要となってしまう。そのため,映像データの中から,「ベストショットの代表フレーム画像」を自動抽出する技術が求められている。
また,静止画像に関しても,デジタルカメラが一般化してきたことに伴い,現像といった手間がかからないことから,気軽にシャッターを押すことが増えており,撮影された静止画の枚数は増加していく傾向にある。一方で,枚数が増加することにより,その中でも特に鑑賞・保存する価値の高い「ベストショット」を,利用者が目視により選択することに多くの労力が必要となっており,大量の静止画から「ベストショット代表フレーム画像」を自動抽出する技術が求められている。
このようなコンテンツでは,家族や友人といった人物が撮影されていることが多く,そのため,「ベストショット」として,人物の顔が映っているフレームを抽出することが重要となってくる。画像データの中から,人物の「顔」を認識し,その領域を抽出する従来技術としては,特許文献1に記載されている技術などがある。
また,このような顔検出の技術を利用して,ベストショットフレームを抽出する従来技術として,非特許文献1には,検出された顔の数に基づいて抽出する方法が述べられている。すなわち,非特許文献1では,検出された顔が多いほど,利用者にとってよりふさわしい代表フレーム画像になることが述べられている。また,別の従来技術として,非特許文献2では,検出された顔の画像内における位置に基づく方法が述べられている。すなわち,非特許文献2では,検出された顔が,画像内の中央の予め決められた領域内に存在するフレームがより適切な代表フレーム画像となることが述べられている。しかしながら,非特許文献3では,利用者が代表フレーム画像を選ぶ際に,必ずしも顔の数や位置は影響しないということが述べられている。
実際,非特許文献1や非特許文献2では,被写体となった人物の状態が考慮されていない。例えば,悲しい顔をした被写体より,笑顔の被写体が写っているフレームのほうが,代表フレーム画像として,より魅力的である。
このような問題に対する関連従来技術として,近年では,画像データを解析して笑顔を認識する技術は知られており,例えば笑顔を認識してシャッターを切るカメラ等が市販されるようになっている。
さらに,笑顔以外の表情認識の方法として,非特許文献4や非特許文献5に記載されている技術が知られており,例えば,「驚いた顔」などを自動抽出することが可能となっている。誕生日プレゼントを開ける瞬間の驚いた顔のショットなどは,魅力的なものであり,このような表情認識をするための従来技術は,代表フレーム画像を選ぶために利用可能である。
特開2009−043039号公報
Dufaux, F.: Key frame selection to represent a video, Proc of International Conference on Image Processing (2000) Zhang, T.: Intelligent Keyframe Extraction for Video Printing. In: Proc. of SPIE ’s Conference on Internet Multimedia Management Systems V, vol.5601, pp.25-35, Philadelphia (2004) Martinet, J., Satoh, S., Chiaramella, Y., Mulhem, P.: Media objects for user-centered similarity matching. Multimed Tools Appl. Vol. 39, Issue 2, pp. 263-291 (2008) Mase, K.: Recognition of Facial Expression from Optical Flow, IEICE Trans., Vol. E74, pp. 3,474-3,483, 1991. Kowalik, U., Hidaka, K., Irie, G., Kojima, A.: Creating joyful digests by exploiting smile/laughter facial expressions present in video, Proc. of International Workshop on Advanced Image Technology 2009 IWAIT2009, Seoul, Korea
しかしながら,抽出された代表フレーム画像が魅力的かどうかというのは,見る人の主観の問題であり,それゆえ,見る人個人によって変わり得る。例えば,ある人にとっては,笑顔より驚いた顔のほうを,より好むかもしれない。しかしながら,従来技術では,万人共通の嗜好性(例えば顔があるほうがいいとか,笑顔がいいなど)を仮定しており,個人ごとの嗜好性を考慮していない。
他の従来技術の問題点としては,悲しい表情や怒った表情など,やはりインパクトがある(ただしマイナスの)表情の共起を無視していることである。例えば,3人の顔が写っていて,そのうち2人がどんなに笑顔であっても,もう1人が怒った表情をしているような代表フレーム画像が抽出されると,見る人にとってむしろネガティブな印象を与えてしまうかもしれない。しかしながら,従来技術をそのまま利用するだけでは,「2人の笑顔がある」ということから,そのような代表フレーム画像が選択されてしまう可能性が高い。
本発明は,上記課題の解決を図り,多くの画像や映像のシーケンスから顔認識や表情認識の技術を利用して代表画像を選択する際に,利用者の嗜好に応じた代表画像を自動的に抽出することができるようにすることを目的としている。
顔認識や表情認識の技術を利用して,映像から代表画像を自動的に抽出する場合,代表画像として相応しいかどうかは画像中の人物の表情に対する利用者の嗜好に関係する。そのため,本発明では,画像中の顔に関して計算により求められる複数の顔パラメータと,顔パラメータに対する利用者の評価値(評価スコアという)とを関連付けて,利用者プロファイルとして保存しておき,代表画像を選出する際に入力画像中の顔から算出した顔パラメータをもとに利用者プロファイルを参照して,入力画像の評価値(算出スコアという)を算出する。この算出スコアが高いものを代表画像として選択する。選択された代表画像が利用者の嗜好に合わない場合,例えば入力画像ごとに利用者に評価スコアを入力させ,利用者プロファイルを更新する。こうすることで,利用者の嗜好に応じた代表画像を自動的に抽出することができる。
具体的には,本発明は,利用者の顔選択に関する評価尺度であるプロファイルのデータが蓄積された利用者プロファイルデータベースと,入力装置と,出力装置とを備える代表画像抽出装置が,複数の画像から構成される画像列から1つまたは複数の代表画像を抽出する方法であって,代表画像抽出対象となる画像列を構成する画像に含まれる人物の顔画像に関して,計算により取得できる複数のパラメータ値である顔パラメータを抽出する過程と,前記利用者プロファイルデータベースから,指定された利用者ごとのプロファイルを検索する過程と,前記顔パラメータと前記プロファイルとから,前記画像ごとの算出スコアを求める算出スコア計算過程と,前記算出スコアに基づき前記画像列から代表画像を選択して前記出力装置に出力する過程と,前記入力装置から,画像に対する利用者の主観による評価スコアを入力する入力過程と,前記入力過程によって評価スコアが入力された場合に,前記算出スコア計算過程で算出される算出スコアが,前記評価スコアに近似されるように新たなプロファイルを計算して前記利用者プロファイルデータベースを更新する過程とを有することを特徴とする。
画像から得られた顔パラメータと利用者の嗜好が反映されたプロファイルとから,代表画像として相応しいかどうかを評価する算出スコアを求めることにより,利用者の嗜好に合う代表画像の自動抽出が可能になる。
上記発明において,前記顔パラメータを抽出する過程では,前記画像列から取得した画像において人物の顔と認識される顔領域を求め,求められた顔領域の画像から,各顔領域に対して領域内の顔画像を取得してから,顔画像に関して計算により取得できる顔パラメータを抽出する。各画像に対して顔領域を求め,顔領域内の顔画像を取得することにより,顔の表情などを表すパラメータ値を抽出することができる。
また,上記発明において,前記顔パラメータとして,予め決められた表情分類に応じて前記顔画像を分類してラベル付けし,画像内におけるその表情分類の発生頻度確率値を用いる。顔パラメータとして,画像内におけるその表情分類の発生頻度確率値を用いることにより,特に利用者個人が全体として好ましいと思っている表情が写っている代表画像を優先的に抽出することができる。
また,上記発明において,前記利用者プロファイルデータベース中のプロファイルが,利用者の個人または利用者のグループに対応付けされていることを特徴とする。算出スコアの計算に用いるプロファイルを利用者の個人だけでなくグループにも対応可能にすることにより,例えば家族全体の嗜好を反映するような代表画像の選択も可能になる。
また,上記発明において,前記プロファイルとして各顔パラメータを構成する個々の値に対する重みを利用し,前記算出スコアを,前記各顔パラメータを構成する個々の値と重み値との線形結合により算出することを特徴とする。プロファイルとして,各顔パラメータを構成する個々の値に対する重みを利用することにより,利用者ごとに顔パラメータのどの要素を重視するかを反映することができる。
また,上記発明において,前記評価スコアとして,連続値,段階的なレベル値または2値の値を用いることを特徴とする。評価スコアとして,連続値もしくは段階的なレベル値を用いることにより,評価スコアに対して嗜好を定量的に反映することができる。また,評価スコアとして,2値の値を用いることにより,選択された代表画像を,利用者が気に入ったか気に入らないかというような単純な判断で,利用者プロファイルを簡易に更新することができる。
また,上記発明において,前記代表画像の選択では,予め指定された個数Nに対して,画像列内での算出スコア値の高さを比較し,1番目からN番目までの画像を代表画像として選択,または予め指定された閾値Thに対して,画像列内での算出スコア値が前記閾値Thより高い画像を代表画像として選択することを特徴とする。これにより,任意の個数Nの代表画像を抽出することも,また,利用者の嗜好の強さに応じた代表画像を抽出することも可能になる。
また,上記発明において,前記利用者プロファイルデータベースを更新する過程では,新たなプロファイル値を線形モデルにより計算することを特徴とする。これにより,プロファイル値の更新において,利用者の嗜好を適切に反映することができる。
以上のように,本発明では,複数の顔パラメータを用い,利用者ごとのプロファイルに応じて重み付けを考慮した上で算出スコアを計算し,その算出スコアに応じて代表画像を抽出することで,利用者の嗜好に応じた抽出結果とすることが可能となり,また,複数のパラメータを用いることで,単一の抽出結果だけによらない抽出結果とすることも可能となる。さらに,利用者の入力に応じて,プロファイルを更新することで,本発明による代表画像抽出方法を利用するに従って,より利用者の嗜好にあった抽出結果とすることが可能となる。
代表画像抽出装置の構成例を示す図である。 代表画像抽出処理のフローチャートである。 顔パラメータ算出処理のフローチャートである。 PFE認識処理のフローチャートである。 利用者プロファイルDB中のテーブルの例を示す図である。 代表画像選択処理のフローチャートである。 代表画像の表示と評価スコアの入力画面の例を示す図である。 USPAの例を示す図である。 利用者プロファイルの例を示す図である。 利用者プロファイル更新処理のフローチャートである。 重みベクトルWの算出処理(その1)のフローチャートである。 重みベクトルWの算出処理(その2)のフローチャートである。
以下,本発明の実施の形態について,図を用いて説明する。
図1は,本発明の実施例に係る代表画像抽出装置の構成例を示す図である。代表画像抽出装置100は,CPU101と,メモリ102と,利用者の顔選択に関するプロファイルデータが蓄積された利用者プロファイルデータベース(DB)103と,代表画像抽出対象となる画像列の各画像を入力する画像入力部104と,各画像から1または複数の顔領域を抽出する顔領域認識部105と,顔領域内の顔画像から表情を認識するPFE認識部106と,認識した表情から予め決められた表情分類の画像内における発生頻度確率値であるPFE確率値を計算するPFE確率値計算部107と,各画像に対する代表画像としての評価値である算出スコアを計算する算出スコア計算部108と,算出スコアが高い画像を検索して代表画像を選出する画像検索部109と,利用者が指定した評価スコアを入力する評価スコア入力部110と,入力した評価スコアから利用者プロファイルとして各顔パラメータを構成する個々の値に対する重み値を評価する重み値評価部111と,利用者プロファイルDB103から利用者プロファイルを検索する利用者プロファイル検索部112と,キーボードやマウス等の入力デバイス113と,ディスプレイやプリンタ等の出力デバイス114とを備える。
図2に,本発明の実施例に係る代表画像抽出方法の処理フローチャートを示す。まず,ステップS10では,画像入力部104により,代表画像抽出対象の画像列から画像を逐次取得する。ステップS11では,顔領域認識部105により,取得された画像ごとに顔領域を抽出する。1つの画像には,複数の顔領域が含まれていることもある。ステップS12では,PFE認識部106により,抽出された顔領域ごとに表情認識等の計算処理を行ってその画像の顔パラメータを算出する。以上のステップS10〜S12を画像列の画像が終了するまで繰り返す(ステップS13)。
次に,ステップS14では,利用者プロファイル検索部112によって利用者プロファイルDB103を検索し,現在の利用者の利用者プロファイルを取得する。続いて,ステップS15では,顔パラメータと利用者プロファイルとから画像ごとに算出スコアを計算する。本実施例では,PFE確率値計算部107により,詳しくは後述するPFE確率値を計算し,それをもとに算出スコア計算部108によって算出スコアを計算する。
次に,ステップS16では,画像検索部109によって画像列の中から算出スコアが高い画像を代表画像として選択し,選択された代表画像をディスプレイ等の出力デバイス114に表示する。ステップS17では,評価スコア入力部110によって表示結果に対する利用者からの入力を受け付ける。ステップS18では,入力デバイス113から評価スコアの入力があるかどうかを判別し,入力があれば,ステップS19へ進む。評価スコアの入力がなければ処理を終了する。
ステップS19では,評価スコアの入力があった場合に,重み値評価部111により,算出スコアが評価スコアの近似となるように顔パラメータの個々の値に対する重み値を評価し,利用者プロファイルの値を更新し,更新内容を利用者プロファイルDB103に書き込む。
以上の処理において,例えばステップS10〜S13と,ステップS14との処理順序を入れ替えてもよく,同じ効果が得られる。
以下では,図2に示す各ステップについての処理内容をさらに詳しく説明する。
[ステップS10]
ステップS10では,代表画像抽出対象となる画像列を入力する。画像列としては,例えば,デジタルカメラで撮影された複数の静止画像が考えられ,その場合には,画像データが保存されたメモリカードや,それらのデータが保存された計算機上のハードディスクから,JPEG形式等で保存された画像ファイルを1つずつオープンして処理するといった実施方法がある。また,より好適な実施方法としては,ビデオカメラ等で撮影された映像データを対象とし,MPEG等の形式で保存された映像データから,その映像を構成するフレーム画像データを逐次展開して処理するといった実施方法がある。なお,この場合,処理量軽減の目的から,全フレーム画像を対象とするのではなく,例えば,1秒ごとに1フレーム画像データのみを対象にするといった方法をとることも実用的である。
[ステップS11]
ステップS11では,ステップS10で入力した画像列の各画像について,顔領域の抽出を行う。本ステップの実施に当たっては,特許文献1に記載された従来技術を適用することができる。それにより,各画像データから,顔と認識される領域が抽出され,その個数・画像内の位置・切り出された顔画像領域の画像データなどが計算機上で取り出され,それらの情報がメモリ102に格納される。
[ステップS12]
ステップS12では,各画像に対して,顔パラメータを算出する。具体的な顔パラメータとしては,実施例としていろいろなパラメータが適応可能であって,例えば,ステップS11で求められる顔領域の数や,抽出された顔領域の画像中心位置からのずれの平均値などの値も,顔パラメータとなり得る。
ここでは,特に,PFE(prototypic facial expression)確率値という値を顔パラメータに用いる例について詳述する。
図3は,そのPFE確率値算出のためのフロー,すなわち図2に示すステップS12の詳細な顔パラメータ算出処理手順を示している。まず,ステップS120では,ステップS11で求められた顔領域内の顔画像データを入力として取り込む。次に,ステップS121では,PFE認識という処理を行い,元の画像内に他の顔領域があれば,その顔領域について同様にステップS120,S121を繰り返す(ステップS122)。
次に,ステップS123では,PFE認識の結果からPFE確率値を算出して,ステップS124では,PFE確率値を出力として,次の処理へ引き渡す。
PFE認識とは,表情を予め決められたいくつかの表情クラス(例えば“anger, disgust, fear, joy, neutral, sadness, surprise ”という7つのクラス)に分類し,ラベル付けすることである。実際にラベル付けする手段については,例えば非特許文献4や非特許文献5に記載されている従来技術の方法を用いることができる。ステップS11で求められた各顔領域に対して,このようなラベル付けを繰り返す。
図4は,PFE認識処理,すなわち図3に示すステップS121の詳細な処理の流れを示している。ステップS1210では,まず,前のステップで切り出した顔画像を入力する。ステップS1211では,顔画像から特徴量を抽出する。ステップS1212では,抽出した特徴量をもとに,顔画像を予め決められた表情クラスに分類する。ステップS1213では,分類結果を示すラベルを出力する。
次に,予め決められた表情クラスiごとのPFE確率値Hi を,図3のステップS123において次のように求める。
i =Ni /NF
ここで,NF は,ある画像で検出された顔領域の数であり,Ni は,そのうち「i」とラベル付けされた顔の数である。
例えば,ある画像に対して,4つの顔領域が検出され,PFE検出により,2つが“joy ”,1つが“sadness ”,残りの1つが“surprise”とラベル付けされたとする。この場合,PFE確率値は,
Hjoy =0.5,Hsadness =0.25,Hsurprise=0.25,その他のHpfe =0,と計算される。
計算された結果のPFE確率値は,ステップS124において,ベクトル値Hとして出力され,次のステップへ渡される。
上記の例の場合,PFE確率値(顔パラメータ)は,“anger, disgust, fear, joy, neutral, sadness, surprise ”で順序付けするとして,
H=(0.0, 0.0, 0.0, 0.5, 0.0, 0.25, 0.25 )というベクトル値になる。
以下,このようにベクトル値となった顔パラメータHについて,その次元数をMとし,また,顔パラメータHの各要素を順序付け,h1 ,h2 ,…,hM と表記する。さらに,線形回帰の手法を適用するために,顔パラメータHの0番目の要素をh0 =1と定義し,顔パラメータHにはそれも含むとする。
上記の例の場合,M=7であって,
H=(1.0, 0.0, 0.0, 0.0, 0.5, 0.0, 0.25, 0.25)となる。
[ステップS14]
ステップS14では,利用者プロファイル検索部112により,利用者プロファイルを利用者プロファイルDB103から検索する。上記で述べたPFE確率値のみを利用する場合の,利用者プロファイルDB103上のテーブル構成例を図5に示す。利用者プロファイルDB103では,利用者プロファイルとして図5に示すように,各利用者A,B,…またはそのグループごとに,各表情クラスに対して利用者の嗜好を反映した重み値が格納されている。ステップS14は,このようなテーブルに対して,利用者のIDを検索キーとして検索するという通常のデータベース管理機能を利用して実施できる。
利用者のIDの指定は,例えば,本処理を計算機に実行させるためのプログラムの起動パラメータとして指定する方法や,本ステップの実行時に,入力デバイス113を通じて利用者からの入力を受け取る方法などがある。
利用者は,通常,1人ずつIDを持ち,各IDごとに異なるプロファイルデータのレコードで管理されるという実施方法をとる。
その他,複数の利用者IDが属する集団(例えば家族)のグループIDを設け,本ステップでのデータベース検索において,グループIDに変換してから検索するという実施方法をとることも可能である。この場合,個人ではなく,その集団(例えば家族)全体の嗜好を反映するような効果をもたらす。
[ステップS15]
ステップS15では,ステップS12で求められた顔パラメータHと,ステップS14で検索された利用者プロファイルのデータから,算出スコアを計算する。顔パラメータHとして,7つに分類されたPFE確率値h1 ,h2 ,…,h7 とh0 を用い,利用者プロファイルのデータとして,図5に示すような重み値による重みベクトルW=(w0 ,w1 ,w2 ,…,w7 )を用いる。算出スコアSは,
S=Σi=0 M (wi ・hi
によって計算する。すなわち,ここでは,プロファイルデータとしての重みベクトルWと,ステップS12で求められたベクトルH(顔パラメータ)の内積値を求めることによって,算出スコアとしている。
ステップS15では,画像列内の各画像に対して処理を行うことで,画像列内の各画像ごとの算出スコアSが計算される。
[ステップS16]
ステップS16において,算出スコアをもとに,代表画像を選択する方法としては,図6に示すような代表画像選択処理を行う。まず,代表画像として抽出する枚数Nを入力する(ステップS160)。この枚数Nは,抽出する枚数の最大値であり,顔画像の数がN未満の場合には,実際に抽出される枚数がN未満のこともある。次に,前のステップS15で算出された算出スコアの列を入力し(ステップS161),算出スコアを降順でソートする(ステップS162)。次に,ソートされた算出スコアの列のうち,先頭のN個に関連付けられた画像を代表画像として選択する(ステップS163)。この選択されたN枚の代表画像を出力する(ステップS164)。
なお,ステップS160で入力する代表画像の抽出枚数Nは,予め固定値として決めておいてもよいし,本実施例を実装したプログラムの起動パラメータとして渡す方式や,本ステップにおいて,入力デバイス113を使用して利用者から入力する方法などを用いることもできる。
以上のように,算出スコアでソートしておき,決められた枚数Nに対して,トップのN枚を選択する方法の他に,別の方法として,次のような方法を用いることもできる。例えば,閾値Th を定めて,その閾値Th より大きな算出スコアを持つものだけを選択するという方法である。この場合も,閾値Th は,固定値,起動パラメータ,利用者入力などの方法で決めることができる。
選択された代表画像は,ディスプレイなどの出力デバイス114を通じて,利用者に対して出力される。あるいは,他の実施形態としては,外部メモリカードなどに出力したり,保存用のファイルとしてハードディスク(HDD)等の外部記憶媒体に出力したりすることも考えられる。
図7は,代表画像の表示と評価スコアの入力画面の例を示す。代表画像の画面への出力に当たっては,例えば図7(A)〜(C)のように出力し,利用者からのフィードバックを入力できるようにする。
本システムにおいては,特に,プロファイルデータが初期状態のときなど,必ずしも利用者の嗜好によく合致した結果を出力しない可能性がある。そのため,利用者は,その出力結果を見て,図7(A)〜(C)のような入力インタフェースを通じて,利用者自身の評価スコアを入力できるようにしておく。
図7(A)のような画面においては,代表画像とともに算出スコアの値を示すスライドバーを表示する。このスライドバーによって,利用者は,スコア値に違和感がある場合,マウス等の入力デバイス113の指示により,評価スコア(連続値)を変更することができる。
図7(B)のような表示においては,連続的なスコア値を,段階的に区分けし,その区分を表示している。利用者は,スコア値(正確には,それを段階的に区分けした後の段階値)に違和感がある場合,マウス等の入力デバイス113により,段階値を変更することができる。指定された場合には,その指定された区分け内の代表値に評価スコアが変更されたとして,以後の処理を行う。なお,「区分け内の代表値」とは,例えば,中間値(算出スコア値が,10.0から30.0までの画像を,レベル1とした場合に,新たにレベル1と指定された画像データの評価スコア値が20.0と指定されたものとする)を使用する方法や,もともとそのレベルとして算出されていた画像の算出スコア値の平均値を使用する方法がある。
なお,段階数が2の場合には,要するに「気に入ったか」,「気に入らないか」という2値による指定を意味し,その場合には,図7(B)のような実施形態のほかに,別の実施形態では,図7(C)のように抽出された各代表画像とともに,チェックボックスによる2値評価の入力画面を表示することも可能である。
なお,2値による評価は,図7(C)のように明示的に指定する他にも,「特に,気に入ったものは,印刷を行う(あるいは特別なフォルダへ保存する)」などといった実施例と組み合わせることで,間接的に2値評価するような実施例とすることも可能である。この場合には,利用者が保存したり印刷したりした代表画像が,評価スコアの値が高い画像として扱われる。
[ステップS18,S19]
ステップS18では,実際に,利用者からの評価スコア入力があったかどうかを確認し,入力がなければ,処理を終了する。
利用者からの評価スコアの入力があった場合には,ステップS19へ進み,ステップS12で算出された顔パラメータとそれに対する評価スコア値の関連(以下,USPA:user score-parameter associationと呼ぶ)を保存する。
USPAの例を,図8に示す。USPAは,1枚の画像データから算出された顔パラメータ(この例ではPFE確率値Himage )と,それに対する利用者の評価スコアUSimage のセットである。なお,h0 =1は固定値なので略している。
USPAの保存先としては,図9に示すように,利用者プロファイルDB103上に逐次追加して保存する方法がある。また,後述するように統計的なモデルの仮定によっては,永続的に保存しておく必要がないので,そのような実施方式においては,USPAはメモリ102上に保持しておけばよい。
図10は,以上の利用者プロファイル更新処理の流れを示す。図10の処理は,図2に示すステップS19の処理である。まず,ステップS190では,画像列内の画像を1つ取り出す。次に,ステップS191では,前述した方法によりUSPAを作成し,利用者プロファイルDB103に1レコード追加する。ステップS190,S191を画像列の画像が終了するまで繰り返す(ステップS192)。その後,ステップS193では,保存されたUSPAに対して,一般に知られている統計的手法を適用することにより,重みベクトルWといった利用者プロファイルを算出する。ステップS194では,求めた重みベクトルWを利用者プロファイルDB103に保存する。
上述したステップS193において,重みベクトルWを求める最も一般的な方法は,最小二乗モデルにより線形回帰式を求める方法である。具体的には,例えば次の参考文献1(p.5〜p.7)に記載された方法により,保存されたUSPAから重みベクトルWを算出できる。
〔参考文献1〕守谷他:多変量解析とコンピュータプログラム,日刊工業新聞社,昭和47年
図7(B),(C)のような場合にも,各段階の代表値としての評価スコア値を指定されたとみなすことで,このモデルによる重みベクトルWの算出が可能となる。
なお,特に図7(C)のような2値による評価の場合には,上記のように代表値を与えて回帰を行うという方法のほかにも,判別分析(上記参考文献1のp.103〜p.117参照)という手法を用い,Wと同様な線形結合による判別関数を利用して,「気にいる」か「気に入らないか」に分類する方法も考えられ,その場合にも,保存されたUSPAから判別関数の係数(Wに相当する)を算出することができる。
なお,既にいくつかの画像に対して評価スコアの入力とその入力値に基づくプロファイル(重みベクトル)が算出されている場合に,追加で入力された評価スコアによって,どのようにプロファイル(重みベクトル)を更新するかについては,次のように実施することができる。
〔実施方法1〕
まず,重みベクトルWを厳密に算出する方法としては,実際に入力されたUSPAをすべてデータベース上に保持しておき,図11に示すような処理によって再度プロファイルを算出しなおすという実施方法がある。まず,ステップS1930では,すべてのUSPA,すなわち既存のUSPAと図10のステップS191で追加されたUSPAを,利用者プロファイルDB103から読み込む。次に,ステップS1931では,モデルパラメータ推定によりUSPAから重みベクトルWを求める。ステップS1932では,求めた重みベクトルWを次のステップに対して出力する。
すなわち,この方法では,利用者により評価スコアを入力された画像に関するUSPAは消去されることなく逐次追加されていくために,重みベクトルWの算出にあたって,過去の履歴を含む全てのUSPAを利用できる。この場合,USPAの履歴を保持しておくために,データ量が増大することと,データ量が増大した場合に再計算のための計算コストが増大するという問題があるが,統計上の処理を厳密に適用できることと,特に統計モデルに制約なく適用できるという効果がある。
〔実施方法2〕
他の実施方法としては,特定の統計モデルを仮定した場合には,いくつかの統計上のモデル状態値を保持しておくことだけで,追加されたUSPAに対して,再計算により新たなプロファイルの計算を行うことも可能である。
図12に,実施方法2の重みベクトルWの算出処理のフローを示す。最初に,ステップS1933では,図10のステップS191で新たに追加されたUSPAのみが読み出される。ステップS1934では,既存のモデル状態値を利用者プロファイルDB103から読み込み,ステップS1935では,モデルパラメータ推定により,USPAから重みベクトルWとモデル状態値を求める。ステップS1936では,新たなモデル状態値を利用者プロファイルDB103に保存する。ステップS1937では,ステップS191で新たに追加されたUSPAを削除し,ステップS1938では,ステップS1935で求めた重みベクトルWを次のステップに対して出力する。
この場合には,USPAを全て保持しておく必要がないため,再計算後には,入力されたUSPAを削除し,新たなプロファイル値とともに,次回再計算に必要なパラメータのみをデータベース上に保持すればよい。
本実施方法の具体例を示す。以下では,ベクトル値fを「 *」を付けて *fと表記する(他のベクトル表記も同様)。
最初に,全部のUSPA(N個とする)から重みベクトルW(以下では *wと表記する)を線形モデルで求める場合について説明し,その後にデータ更新によって *wを再計算する場合の例について説明する。i番目のUSPAを,ベクトルで表される顔パラメータの *i と,評価スコアsi のセット( *i ,si )とする。顔パラメータ *i と評価スコアsi の関係を,M次元のベクトル *wを用いて,次のように表すこととする。
*i *w=si +ei
この線形モデルを最もよく説明する *wは,次の誤差ei の二乗和Eを最小にする *wである。
E=Σi=1 N (ei 2
Eを最小にする *wは必ず存在し,そのときの *wはj番目の成分をwj とすれば,
∂E/∂wj =0 …式(1)
を満たす。行列FおよびN次元のベクトル *sを,
F=( *1 *2 *N
*s=(s1 ,s2 ,…,sN T
とすれば,式(1) を解いて得られる最適な *wは,
T *w=FT *
を満たす。よって,これから最適な *wを求めればよい。
次に,データ更新により *wを再計算する場合の例について説明する。顔パラメータと評価スコアのセット(F, *s)から最適な *wを求めた後,新たにN′個のデータ(F′, *s′)が追加されれば, *wを更新する必要が生じる。更新されたデータを加味した最適な *wは,
(FT F+F′T F′) *w=FT *s+F′T *s′
を満たしている。この式の一部であるFT FとFT *sは,更新前に計算済みであるので,計算済みの部分を記憶しておくことで,求解にかかる計算を大幅に減らして *wを算出することができる。
顔パラメータとして,“anger, disgust, fear, joy, neutral, sadness, surprise ”に分類するPFE確率値を利用する場合には,M=7固定(個数としては,0から7までなので,8個固定)となる。この場合には,再計算に必要となる,(8×8行列)と(8次元ベクトル)を「モデル状態値」として保存しておけばよい。
この場合の処理を,図12のフローに従って再度説明する。まず,新たに追加されたUSPAのデータ(上記F′と *s′とに相当する)を取得し(ステップS1933),またプロファイルから「モデル状態値」に相当するFT FとFT *sを取得する(ステップS1934)。方程式
(FT F+F′T F′) *w=FT *s+F′T *s′
の解 *wを求め(S1935),(FT F+F′T F′)と(FT *s+F′T *s′)とを新たな「モデル状態値」として保存し(ステップS1936),新たに追加されたUSPAを消去して(ステップS1937), *w(重みベクトルW)を出力する(ステップS1938)。
〔実施方法3〕
さらに別の実施方法としては,「最新に追加されたUSPAのみを使用する」という考え方で,新たに追加されたUSPAのみから重みベクトルWを計算し,利用者プロファイルに上書きするという実施方法も可能である。この場合にも,追加されたUSPAは,重みベクトルWを算出した後には消去される。
再計算されたプロファイル(重みベクトル)は,利用者プロファイルDB103上の当該IDのレコードに書き込まれて更新される。
以上説明した代表画像抽出の処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録することも,ネットワークを通して提供することも可能である。
100 代表画像抽出装置
101 CPU
102 メモリ
103 利用者プロファイルデータベース(DB)
104 画像入力部
105 顔領域認識部
106 PFE認識部
107 PFE確率値計算部
108 算出スコア計算部
109 画像検索部
110 評価スコア入力部
111 重み値評価部
112 利用者プロファイル検索部
113 入力デバイス
114 出力デバイス

Claims (10)

  1. 利用者の顔選択に関する評価尺度であるプロファイルデータが蓄積された利用者プロファイルデータベースと,入力装置と,出力装置とを備える代表画像抽出装置が,複数の画像から構成される画像列から1つまたは複数の代表画像を抽出する方法であって,
    代表画像抽出対象となる画像列を構成する画像に含まれる人物の顔画像に関して,計算により取得できる複数のパラメータ値である顔パラメータを抽出する過程と,
    前記利用者プロファイルデータベースから,指定された利用者ごとのプロファイルを検索する過程と,
    前記顔パラメータと前記プロファイルとから,前記画像ごとの算出スコアを求める算出スコア計算過程と,
    前記算出スコアに基づき前記画像列から代表画像を選択して前記出力装置に出力する出力過程と,
    前記入力装置から,画像に対する利用者の主観による評価スコアを入力する入力過程と,
    前記入力過程によって評価スコアが入力された場合に,前記算出スコア計算過程で算出される算出スコアが,前記評価スコアに近似されるように新たなプロファイルを計算して前記利用者プロファイルデータベースを更新する過程とを有する
    ことを特徴とする代表画像抽出方法。
  2. 請求項1記載の代表画像抽出方法において,
    前記顔パラメータを抽出する過程では,
    前記画像列から取得した画像において人物の顔と認識される顔領域を求め,求められた顔領域の画像から,各顔領域に対して領域内の顔画像を取得してから,顔画像に関して計算により取得できる顔パラメータを抽出する
    ことを特徴とする代表画像抽出方法。
  3. 請求項1または請求項2記載の代表画像抽出方法において,
    前記顔パラメータとして,予め決められた表情分類に応じて前記顔画像を分類してラベル付けし,画像内におけるその表情分類の発生頻度確率値を用いる
    ことを特徴とする代表画像抽出方法。
  4. 請求項1,請求項2または請求項3記載の代表画像抽出方法において,
    前記利用者プロファイルデータベース中のプロファイルが,利用者の個人または利用者のグループに対応付けされている
    ことを特徴とする代表画像抽出方法。
  5. 請求項1から請求項4までのいずれか1項に記載の代表画像抽出方法において,
    前記プロファイルとして各顔パラメータを構成する個々の値に対する重みを利用し,前記算出スコアを,前記各顔パラメータを構成する個々の値と重み値との線形結合により算出する
    ことを特徴とする代表画像抽出方法。
  6. 請求項1から請求項5までのいずれか1項に記載の代表画像抽出方法において,
    前記評価スコアとして,連続値,段階的なレベル値または2値の値を用いる
    ことを特徴とする代表画像抽出方法。
  7. 請求項1から請求項6までのいずれか1項に記載の代表画像抽出方法において,
    前記代表画像の選択では,予め指定された個数Nに対して,画像列内での算出スコア値の高さを比較し,1番目からN番目までの画像を代表画像として選択,または予め指定された閾値Thに対して,画像列内での算出スコア値が前記閾値Thより高い画像を代表画像として選択する
    ことを特徴とする代表画像抽出方法。
  8. 請求項1から請求項6までのいずれか1項に記載の代表画像抽出方法において,
    前記利用者プロファイルデータベースを更新する過程では,新たなプロファイル値を線形モデルにより計算する
    ことを特徴とする代表画像抽出方法。
  9. 入力装置と,出力装置とを備え,複数の画像から構成される画像列から1つまたは複数の代表画像を抽出する代表画像抽出装置であって,
    利用者の顔選択に関する評価尺度であるプロファイルデータが蓄積された利用者プロファイルデータベースと,
    代表画像抽出対象となる画像列を構成する画像に含まれる人物の顔画像に関して,計算により取得できる複数のパラメータ値である顔パラメータを抽出する手段と,
    前記利用者プロファイルデータベースから,指定された利用者ごとのプロファイルを検索する手段と,
    前記顔パラメータと前記プロファイルとから,前記画像ごとの算出スコアを求める算出スコア計算手段と,
    前記算出スコアに基づき前記画像列から代表画像を選択して前記出力装置に出力する出力手段と,
    前記入力装置から,画像に対する利用者の主観による評価スコアを入力する入力手段と,
    前記入力手段によって評価スコアが入力された場合に,前記算出スコア計算手段で算出される算出スコアが,前記評価スコアに近似されるように新たなプロファイルを計算して前記利用者プロファイルデータベースを更新する手段とを備える
    ことを特徴とする代表画像抽出装置。
  10. 請求項1から請求項8までのいずれか1項に記載の代表画像抽出方法を,コンピュータに実行させるための代表画像抽出プログラム。
JP2009253683A 2009-11-05 2009-11-05 代表画像抽出方法,代表画像抽出装置および代表画像抽出プログラム Pending JP2011100240A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009253683A JP2011100240A (ja) 2009-11-05 2009-11-05 代表画像抽出方法,代表画像抽出装置および代表画像抽出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009253683A JP2011100240A (ja) 2009-11-05 2009-11-05 代表画像抽出方法,代表画像抽出装置および代表画像抽出プログラム

Publications (1)

Publication Number Publication Date
JP2011100240A true JP2011100240A (ja) 2011-05-19

Family

ID=44191372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009253683A Pending JP2011100240A (ja) 2009-11-05 2009-11-05 代表画像抽出方法,代表画像抽出装置および代表画像抽出プログラム

Country Status (1)

Country Link
JP (1) JP2011100240A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018502340A (ja) * 2015-12-01 2018-01-25 小米科技有限責任公司Xiaomi Inc. ビデオ分類方法および装置
CN109389019A (zh) * 2017-08-14 2019-02-26 杭州海康威视数字技术股份有限公司 人脸图像选择方法、装置及计算机设备
WO2019066231A1 (ko) * 2017-09-26 2019-04-04 네이버웹툰 주식회사 대표 이미지 생성

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018502340A (ja) * 2015-12-01 2018-01-25 小米科技有限責任公司Xiaomi Inc. ビデオ分類方法および装置
KR20180081637A (ko) * 2015-12-01 2018-07-17 시아오미 아이엔씨. 동영상 분류 방법 및 장치
US10115019B2 (en) 2015-12-01 2018-10-30 Xiaomi Inc. Video categorization method and apparatus, and storage medium
KR101952486B1 (ko) * 2015-12-01 2019-02-26 시아오미 아이엔씨. 동영상 분류 방법 및 장치
CN109389019A (zh) * 2017-08-14 2019-02-26 杭州海康威视数字技术股份有限公司 人脸图像选择方法、装置及计算机设备
CN109389019B (zh) * 2017-08-14 2021-11-05 杭州海康威视数字技术股份有限公司 人脸图像选择方法、装置及计算机设备
WO2019066231A1 (ko) * 2017-09-26 2019-04-04 네이버웹툰 주식회사 대표 이미지 생성
US11462018B2 (en) 2017-09-26 2022-10-04 Naver Webtoon Ltd. Representative image generation

Similar Documents

Publication Publication Date Title
US8150170B2 (en) Statistical approach to large-scale image annotation
US8107689B2 (en) Apparatus, method and computer program for processing information
US9430719B2 (en) System and method for providing objectified image renderings using recognition information from images
US7809722B2 (en) System and method for enabling search and retrieval from image files based on recognized information
US8533204B2 (en) Text-based searching of image data
US9116924B2 (en) System and method for image selection using multivariate time series analysis
Zhang et al. Finding celebrities in billions of web images
US8649572B2 (en) System and method for enabling the use of captured images through recognition
US8085995B2 (en) Identifying images using face recognition
US20130198601A1 (en) Annotating images
CN110083729B (zh) 一种图像搜索的方法及系统
KR20090010855A (ko) 인물 별로 디지털 컨텐츠를 분류하여 저장하는 시스템 및방법
JP4374902B2 (ja) 類似画像検索装置、類似画像検索方法、および類似画像検索プログラム
JP2006216026A (ja) ディジタル写真の時間的イベント・クラスタリングのための有効な方法
JP2006081021A (ja) 電子アルバム表示システム、電子アルバム表示方法、電子アルバム表示プログラム、画像分類装置、画像分類方法、及び画像分類プログラム
JP2006079460A (ja) 電子アルバム表示システム、電子アルバム表示方法、電子アルバム表示プログラム、画像分類装置、画像分類方法、及び画像分類プログラム
KR101640317B1 (ko) 오디오 및 비디오 데이터를 포함하는 영상의 저장 및 검색 장치와 저장 및 검색 방법
JP2011100240A (ja) 代表画像抽出方法,代表画像抽出装置および代表画像抽出プログラム
Kuzovkin et al. Context in photo albums: Understanding and modeling user behavior in clustering and selection
JP2012194691A (ja) 識別器の再学習方法、再学習のためのプログラム、及び画像認識装置
WO2020071216A1 (ja) 画像検索装置、画像検索方法及び画像検索用プログラム
Jiang et al. Video searching and fingerprint detection by using the image query and PlaceNet-based shot boundary detection method
CN110275990B (zh) Kv存储的键与值的生成方法及装置
US20220261856A1 (en) Method for generating search results in an advertising widget
JP6102401B2 (ja) 画像のラベル付け方法及び装置