JP2010079446A - 電子機器、ぼけ画像選別方法及びプログラム - Google Patents

電子機器、ぼけ画像選別方法及びプログラム Download PDF

Info

Publication number
JP2010079446A
JP2010079446A JP2008244816A JP2008244816A JP2010079446A JP 2010079446 A JP2010079446 A JP 2010079446A JP 2008244816 A JP2008244816 A JP 2008244816A JP 2008244816 A JP2008244816 A JP 2008244816A JP 2010079446 A JP2010079446 A JP 2010079446A
Authority
JP
Japan
Prior art keywords
blur
image
degree
calculated
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008244816A
Other languages
English (en)
Other versions
JP4840426B2 (ja
Inventor
Takashi Hosaka
尚 保坂
Kosuke Kimura
光佑 木村
Kuniichiro Naruse
国一郎 成瀬
Kazuma Inokari
一真 猪狩
Sadamichi Banba
定道 番場
Yukiko Akiyama
由希子 秋山
Mitsuo Okumura
光男 奥村
Akira Kikuchi
章 菊池
Hidefumi Kashima
秀文 鹿島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008244816A priority Critical patent/JP4840426B2/ja
Priority to CN200910178651.9A priority patent/CN101685542B/zh
Publication of JP2010079446A publication Critical patent/JP2010079446A/ja
Priority to US12/775,132 priority patent/US8300972B2/en
Application granted granted Critical
Publication of JP4840426B2 publication Critical patent/JP4840426B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

【課題】注視すべき被写体がぼけた、ユーザにとって不要な画像を確実に選別すること。
【解決手段】PC100のムービー作成アプリケーション20は、記憶部8に記憶された複数の素材画像を顔認識エンジン120及び特徴認識エンジン130へ供給して、各素材画像に含まれる顔領域及び特徴領域に関するメタデータを取得し、各顔領域及び特徴領域のサイズを最適化した上で特徴認識エンジン130へ供給して各顔領域及び特徴領域の領域ぼけ指数を取得し、1つの素材画像中の複数の領域の領域ぼけ指数を、領域面積等に比例した重み付け平均することで、1つの素材画像に対して1つの画像ぼけ指数を算出し、複数の素材画像のうち、画像ぼけ指数が閾値以上である素材画像のみをぼけ画像として選別して表示する。
【選択図】図3

Description

本発明は、複数の静止画像を記憶し出力することが可能な電子機器、当該電子機器におけるぼけ画像選別方法及びプログラムに関する。
従来から、撮像され保存された写真等の画像を整理するアルバム作成機能や、画像のスライドショー機能を有する電子機器が存在する。電子機器でこれらの機能を実行する場合、ユーザは、保存させたり表示させたりする所望の画像を選択する必要があるが、大量の画像の中から所望の画像を選別するのは大変な作業である。
そこで、複数の画像の中から、いわゆるベストショット、つまりユーザの鑑賞に堪え得ると推定される画像を選択する技術として、連写された複数の画像からベストショットを選択する技術が知られている(例えば、特許文献1参照)。
また、画像のシャープネス、顔の画像の品質、およびフレアの有無に基づいて、写真としての画像の品質を評価する技術も知られている(例えば、特許文献2参照)。さらに、画像から顔を検出し、その検出結果に応じて最適な構図を選択して切り出す技術も知られている(例えば、特許文献3参照)。
特開2006−311340号公報 特表2005−521927号公報 特開2007−27971号公報
しかしながら、上述した技術では、評価対象の画像が、ユーザの鑑賞に堪え得ないと推定される画像であるか否か、すなわち被写体がぼけている画像であるか否かを確実に評価して選別することは困難であった。
例えば、上記特許文献1に記載の、連写された画像からベストショットを選択する技術では、画像全体のぼけ度合いおよび露出の評価が行われる。しかし、一般的な、連写されて得られたものではない画像に対してぼけ度合いや露出の評価が行われても、必ずしもぼけた画像を選別できるとは限らない。つまり、一般的には被写体にピントが合い、背景がぼけている写真は、被写体が鮮明に写るため上手く撮像された、いわゆるベストショットであることが多い。ところが、特許文献1に記載の技術を、連写されたものではない画像に対して用いると、被写体にピントが合っているが、背景がぼけている画像がぼけた画像であると判断されてしまう可能性がある。
また、特許文献2に記載の技術では、被写体が人の顔であるとして画像の品質が評価され、画像から顔が検出できなかった場合には、シャープネスとフレアの有無により画像の品質が評価される。したがって、そのような場合にも、被写体にピントが合っているが、背景がぼけている画像がぼけた画像であると判断されてしまう。
さらに、特許文献3に記載の技術では、最適な構図を切り出すことはできるが、画像がぼけているか否かを評価することはできない。また、この技術では、画像に被写体として人の顔がない場合には、最適な構図を切り出すことはできない。
以上のような事情に鑑み、本発明の目的は、注視すべき被写体がぼけた、ユーザにとって不要な画像を確実に選別することが可能な電子機器、ぼけ画像選別方法及びそのプログラムを提供することにある。
上述の課題を解決するため、本発明の一の形態に係る電子機器は、抽出手段と、第1の算出手段と、第2の算出手段と、選別手段とを有する。
上記抽出手段は、画像中の所定の特徴を有する被写体領域を当該画像から抽出する。
上記第1の算出手段は、上記抽出された被写体領域のぼけ度を示す第1のぼけ度を算出する。
上記第2の算出手段は、上記画像中の1つの上記被写体領域のみから上記第1のぼけ度が算出された場合に、当該第1のぼけ度を基に上記画像の全体についてのぼけ度を示す第2のぼけ度を算出する。また第2の算出手段は、上記画像中の複数の上記被写体領域から上記第1のぼけ度が算出された場合に、当該第1のぼけ度を上記複数の被写体領域の面積に応じて重み付け平均した値を基に上記第2のぼけ度を算出する。
上記選別手段は、複数の上記画像から、所定の閾値以上の上記算出された第2のぼけ度を有する画像をぼけ画像として選別する。
この構成により、電子機器は、画像中の被写体領域のぼけ度(第1のぼけ度)と、被写体領域の面積とを基に、画像全体としてのぼけ度(第2のぼけ度)を算出することで、複数の画像からぼけ画像を選別することができる。上記所定の特徴を有する被写体とは、人、動物、植物、建物等あらゆる物である。上記第1のぼけ度は、例えば上記被写体領域内のエッジ強度により算出される。上記所定の特徴を有する被写体領域とは、画像の閲覧者が注視する領域である。すなわち、電子機器は、注視される領域が1つしかない場合には、その領域のぼけ度を基に画像全体としてのぼけ度を算出する。また電子機器は、注視される領域が複数存在する場合には、各領域の面積に応じて各領域のぼけ度を重み付け平均して画像全体としてのぼけ度を算出する。これは、面積が大きいほど注視される確率が高いと考えられるためである。このような処理により、電子機器は、画像のぼけ度を確実に算出して、ユーザにとって不要なぼけ画像を選別することができる。ユーザは、この選別結果に応じて、ぼけ画像を削除したり、オリジナルムービー等の素材から除外したりすることができ、利便性が向上する。
上記電子機器は、上記抽出された領域を、上記第1のぼけ度の算出に適した所定のサイズとなるように最適化する最適化手段をさらに有してもよい。
ここで最適化とは、第1のぼけ度の算出処理に長時間を要してしまうような大きすぎる領域を縮小したり、逆に小さすぎて第1のぼけ度を正確に算出できないような領域を処理から除外したりすることをいう。これにより電子機器は、第1のぼけ度をより正確に算出することができ、その結果第2のぼけ度をより正確に算出することができる。
上記抽出手段は、上記被写体領域の抽出の確からしさを示すスコアを算出してもよい。
この場合上記第2の算出手段は、上記画像中の複数の上記被写体領域から上記第1のぼけ度が算出された場合、当該第1のぼけ度を、上記複数の被写体領域の面積と上記算出されたスコアとに応じて重み付け平均した値を基に上記第2のぼけ度を算出してもよい。
ここでスコアとは、他の領域に比べて被写体領域が有する輝度、色、エッジ(方位)、顔等の特徴の度合いを示す評価値である。このスコアが大きいほど閲覧者に注視される確率が高いと考えられる。電子機器は、複数の被写体領域から第1のぼけ度が算出された場合に、被写体領域の面積のみならず、スコアにも応じて第1のぼけ度を重み付け平均することで、第2のぼけ度をより正確に算出し、ぼけ画像をより正確に選別することができる。
また上記抽出手段は、顔認識手段と特徴認識手段とを有してもよい。
上記顔認識手段は、上記被写体領域として人の顔の領域を認識し、当該認識された顔の領域の上記スコアを示す第1のスコアを算出する。
上記特徴認識手段は、上記被写体領域として視覚的な顕著性の高い特徴領域を認識し、当該認識された特徴領域の上記スコアを示す第2のスコアを算出する。
この場合、上記第2の算出手段は、上記画像中の複数の上記被写体領域から上記第1のぼけ度が算出された場合において、上記被写体領域として上記顔認識手段により上記顔の領域が認識された場合は、上記重み付け平均に上記第1のスコアを用いずに上記第2のぼけ度を算出してもよい。また上記第2の算出手段は、上記被写体領域として上記特徴認識手段により上記特徴領域が認識された場合は、上記重み付け平均に上記第2のスコアを用いて上記第2のぼけ度を算出してもよい。
この構成では、電子機器は、被写体領域として複数の顔が認識された場合には、顔の領域の面積のみに応じて第1のぼけ度を重み付け平均して第2のぼけ度を算出する。一方、電子機器は、被写体領域として特徴領域が認識された場合、その領域の面積と、その領域のスコアとに応じて第1のぼけ度を重み付け平均して第2のぼけ度を算出する。すなわち、電子機器は、抽出された被写体領域が顔領域である場合には、その顔のスコアに関わらず面積のみに応じて重み付け平均し、被写体領域が特徴領域である場合には、その領域の面積に加えスコアにも応じて重み付け平均する。このように処理に差が設けられるのは、特徴領域に比べて顔領域は閲覧者に無条件で注視される可能性が高いと考えられるためである。これにより、電子機器は、画像中の注視される領域をより正確に判断し、注視される領域がぼけている程、画像全体におけるぼけ度が高くなるように演算を行うことで、画像全体におけるぼけ度をより正確に算出することができる。
上記第1の算出手段は、上記被写体領域が抽出されない場合には、上記画像全体を上記被写体領域として上記第1のぼけ度を算出してもよい。
これにより、電子機器は、画像中に注視すべき領域が存在しない場合でも、画像全体を被写体領域とみなすことで、画像全体としてのぼけ度を算出することができる。
上記電子機器は、ユーザの操作を受け付ける操作受付手段をさらに具備してもよい。
この場合上記選別手段は、上記ユーザの所定の操作に応じて上記ぼけ画像を選別してもよい。
この場合当該電子機器は、上記複数の画像を表示し、上記所定の操作が受け付けられたときに、上記表示された複数の画像のうち上記選別されたぼけ画像のみを表示する表示手段をさらに有してもよい。
これにより、ユーザは、所定の操作を実行するだけで、複数の画像からぼけ画像のみを選別して閲覧することができ、不要なぼけ画像を容易に削除したり除外したりできる。所定の操作とは、例えばボタンのアイコン等のGUIであるが、これに限られない。
本発明の他の形態に係る画像選別方法は、画像中の所定の特徴を有する被写体領域を当該画像から抽出することを含む。
この方法においては、上記抽出された被写体領域のぼけ度を示す第1のぼけ度を算出される。
上記画像中の1つの上記被写体領域のみから上記第1のぼけ度が算出された場合には、当該第1のぼけ度を基に上記画像の全体についてのぼけ度を示す第2のぼけ度が算出される。上記画像中の複数の上記被写体領域から上記第1のぼけ度が算出された場合には、当該第1のぼけ度を上記複数の被写体領域の面積に応じて重み付け平均した値を基に上記第2のぼけ度を算出される。
そして、複数の上記画像から、所定の閾値以上の上記算出された第2のぼけ度を有する画像がぼけ画像として選別される。
この方法によれば、画像のぼけ度を確実に算出して、ユーザにとって不要なぼけ画像を選別することができる。
本発明のまた別の形態に係るぼけ画像選別方法は、画像中から抽出された、所定の特徴を有する被写体領域を、所定のサイズとなるように最適化することを含む。
この方法においては、上記最適化された被写体領域から算出された、被写体領域のぼけ度を示す第1のぼけ度が取得される。
上記画像中の1つの上記被写体領域のみから上記第1のぼけ度が算出された場合には、当該第1のぼけ度を基に上記画像の全体についてのぼけ度を示す第2のぼけ度が算出される。また上記画像中の複数の上記被写体領域から上記第1のぼけ度が算出された場合には、当該第1のぼけ度を上記複数の被写体領域の面積に応じて重み付け平均した値を基に上記第2のぼけ度が算出される。
そして、複数の上記画像から、所定の閾値以上の上記算出された第2のぼけ度を有する画像がぼけ画像として選別される。
この方法によれば、抽出された個々の被写体領域のサイズを最適化し、また個々の被写体領域から算出されたぼけ度を基に、画像全体としてのぼけ度を算出することで、ぼけ画像を確実に選別することができる。
本発明のまた別の形態に係るプログラムは、電子機器に、抽出ステップと、第1の算出ステップと、第2の算出ステップと、選別ステップとを実行させるためのものである。
上記抽出ステップは、画像中の所定の特徴を有する被写体領域を当該画像から抽出する。
上記第1の算出ステップは、上記抽出された被写体領域のぼけ度を示す第1のぼけ度を算出する。
上記第2の算出ステップは、上記画像中の1つの上記被写体領域のみから上記第1のぼけ度が算出された場合に、当該第1のぼけ度を基に上記画像の全体についてのぼけ度を示す第2のぼけ度を算出する。また上記第2の算出ステップは、上記画像中の複数の上記被写体領域から上記第1のぼけ度が算出された場合に、当該第1のぼけ度を上記複数の被写体領域の面積に応じて重み付け平均した値を基に上記第2のぼけ度を算出する。
上記選別ステップは、複数の上記画像から、所定の閾値以上の上記算出された第2のぼけ度を有する画像をぼけ画像として選別する。
このプログラムによれば、画像のぼけ度を確実に算出して、ユーザにとって不要なぼけ画像を選別することができる。
本発明のまた別の形態に係るプログラムは、電子機器に、最適化ステップと、取得ステップと、算出ステップと、選別ステップとを実行させるためのものである。
上記最適化ステップは、画像中から抽出された、所定の特徴を有する被写体領域を、所定のサイズとなるように最適化する。
上記取得ステップは、上記最適化された被写体領域から算出された、被写体領域のぼけ度を示す第1のぼけ度を取得する。
上記算出ステップは、上記画像中の1つの上記被写体領域のみから上記第1のぼけ度が算出された場合に、当該第1のぼけ度を基に上記画像の全体についてのぼけ度を示す第2のぼけ度を算出する。また上記算出ステップは、上記画像中の複数の上記被写体領域から上記第1のぼけ度が算出された場合に、当該第1のぼけ度を上記複数の被写体領域の面積に応じて重み付け平均した値を基に上記第2のぼけ度を算出する。
上記選別ステップは、複数の上記画像から、所定の閾値以上の上記算出された第2のぼけ度を有する画像をぼけ画像として選別する。
このプログラムによれば、抽出された個々の被写体領域のサイズを最適化し、また個々の被写体領域から算出されたぼけ度を基に、画像全体としてのぼけ度を算出することで、ぼけ画像を確実に選別することができる。
以上のように、本発明によれば、注視すべき被写体がぼけた、ユーザにとって不要な画像を確実に選別することができる。
以下、本発明の実施の形態を図面に基づき説明する。
[PCのハードウェア構成]
図1は、本発明の一実施形態に係るPCのハードウェア構成を示した図である。
同図に示すように、PC100は、CPU(Central Processing Unit)1、ROM(Read Only Memory)2、RAM(Random Access Memory)3を有し、これらはバス4により相互に接続されている。
またPC100は、入出力インタフェース5、入力部6、出力部7、記憶部8、通信部9及びドライブ10を有し、これらは入出力インタフェース5に接続されている。
CPU1は、必要に応じてRAM3等に適宜アクセスし、各種演算処理を行いながらPC100の各ブロック全体を統括的に制御する。ROM2は、CPU1に実行させるOS、プログラムや各種パラメータなどのファームウェアが固定的に記憶されている不揮発性のメモリである。RAM3は、CPU1の作業用領域等として用いられ、OS、実行中の各種プログラム、処理中の各種データを一時的に保持する。
入力部6は、例えばキーボード、マウス、タッチパッド、ボタン等であり、ユーザの各種操作を受け付け、入力された操作信号をCPU1へ出力する。出力部7は、例えば各種コンテンツの映像信号を出力するLCD(Liquid Crystal Display)やOEL(Organic Electro-Luminescence)ディスプレイ等の表示部や、各種コンテンツの音声信号を出力するスピーカ等である。
記憶部8は、例えばHDDや、フラッシュメモリ等の不揮発性メモリ等である。記憶部8は、上記OS、各種プログラムや各種アプリケーション、各種データを内蔵のハードディスクまたはメモリ素子に記憶する。また記憶部8は、それらのプログラムやデータをRAM3へ読み出す。
特に本実施形態においては、記憶部8は、ムービー作成アプリケーションを記憶する。また記憶部8には、このムービー作成のための素材となる動画像ファイル、静止画像ファイル及び音楽ファイルや、作成されたムービーファイルも記憶される。このムービー作成アプリケーションは、ユーザが撮影して上記記憶部8に保存した動画像ファイル、静止画像ファイル及び音楽ファイル等の素材を基に、ユーザ独自のオリジナル動画像(ムービー)を作成するためのアプリケーションである。具体的には、ムービー作成アプリケーションは、動画像の枠、静止画像の枠等が予め定められたテンプレートに、ユーザが選択した動画像や静止画像を挿入して1つのファイルとして合成することでムービーを作成する。
通信部9は、例えばネットワークインタフェースカードやモデム等を有し、インターネット等のネットワークを介して他の機器との間で通信処理を行う。例えば、通信部9は、ネットワークを介して他の機器からプログラムやデータを受信することができる。
ドライブ10は、リムーバブルメディア11を装着して、各リムーバブルメディア11に記録されたプログラムやデータを読み出し、入出力インタフェース5を介して記憶部8に記憶したり出力部7により再生したりする。
リムーバブルメディア11は、例えばDVD、BD、CD等の光ディスクや、メモリカード等の半導体メモリからなるメディアである。
[ムービー作成アプリケーションの機能]
上記ムービー作成アプリケーションは、ムービーを作成するのに先立って、記憶部8に記憶された複数の静止画像から、ユーザにとって不要な、ムービーの素材となり得ない、ぼけた画像(以下、ぼけ画像と称する)を選別する機能を有する。以下、このぼけ画像選別機能について説明する。図2は、このぼけ画像選別機能を説明するための図である。
同図に示すように、ムービー作成アプリケーション20は、メタデータ解析部21、メタデータ蓄積部22、ぼけ画像選別部23及び画像表示部24を有する。またPC100は、ムービー作成アプリケーション20の外部エンジンとして、顔認識エンジン120と、特徴認識エンジン130とを記憶する。
顔認識エンジン120は、ムービー作成アプリケーション20から与えられた素材画像から、被写体領域として人の顔を認識し、その顔を含む矩形領域(顔領域)を抽出する。そして顔認識エンジン120は、当該顔領域のデータ、そのサイズ情報(高さ、幅、傾き)、認識の確からしさを示す顔認識スコア等のメタデータをムービー作成アプリケーション20へ出力する。
顔認識エンジン120における顔認識技術としては、種々の周知の技術が用いられる。例えば顔認識エンジン120は、特徴フィルターを用いて顔の特徴を認識してもよい。この特徴フィルターは、例えば画像中の長方形のある部分は検出し、ある部分はマスクするようなフィルターである。この特徴フィルターにより、顔を含む画像からは、目、眉毛、鼻、頬等の位置関係が顔特徴として検出され、顔を含まない画像からは、顔以外の物体の形、その物体の各構成要素の位置関係等が非顔特徴として検出される。顔認識エンジン120は、この特徴フィルターの枠の大きさ及び位置を変更しながら画像を特徴フィルターにかけ、最も確からしい検出値が得られたときの特徴フィルターの大きさを、顔領域の大きさと認識して顔領域を抽出する。特徴フィルターとしては、長方形のフィルター以外にも、例えば円形の特徴を検出する分離度フィルターや、特定方位のエッジにより顔の各パーツの位置関係を検出するGaborフィルター等が用いられても構わない。また、顔認識技術としては、特徴フィルター以外にも、例えば画像中の輝度分布情報や肌色情報等が用いられても構わない。
特徴認識エンジン130は、ムービー作成アプリケーション20から与えられた画像から、被写体領域として視覚的な顕著性の高い特徴領域を認識して抽出する特徴領域認識機能と、当該与えられた画像のぼけ具合を判別するぼけ認識機能とを有する。
特徴認識エンジン130は、上記特徴領域認識機能として、与えられた画像の特徴を認識して特徴マップ(Feature maps)を生成し、当該特徴マップを統合して顕著性マップ(Saliency map)を生成することで、矩形の特徴領域を認識し、抽出する。認識される特徴としては、輝度特徴、色特徴、エッジ(方位)特徴がある。特徴認識エンジン130は、画像中の輝度特徴、色特徴、エッジ特徴から、それぞれ輝度マップ、色マップ、エッジマップを生成し、これらの各マップを線形統合して、顕著性マップを生成する。そして、特徴認識エンジン130は、この顕著性マップを基に矩形の特徴領域を抽出し、抽出した特徴領域のデータ、そのサイズ(高さ・幅・傾き)、認識の確からしさを示す特徴認識スコア等のメタデータをムービー作成アプリケーション20へ出力する。
また、特徴認識エンジン130は、上記ぼけ認識機能として、与えられた顔領域及び特徴領域から、必要に応じて上記顕著性マップを用いて、エッジポイントを抽出し、そのエッジポイントを分析することで、各領域のぼけ指数を算出する。そして、特徴認識エンジン130は、算出したぼけ指数を、ムービー作成アプリケーション20へ出力する。
メタデータ解析部21は、上記顔認識エンジン120と特徴認識エンジン130とそれぞれ協働する顔認識プラグインと特徴認識プラグインとを有する。メタデータ解析部21は、顔認識エンジン120及び特徴認識エンジン130へ素材画像(静止画像)を供給し、顔領域及び特徴領域に関するメタデータを取得する。またメタデータ解析部21は、取得した顔領域及び特徴領域を、ぼけ認識処理に適したサイズとなるよう加工した上で特徴認識エンジン130へ供給し、ぼけ認識結果としてのぼけ指数を基に、画像全体としてのぼけ指数を算出する。以降の説明では、特徴認識エンジン130が算出する顔領域及び特徴領域のぼけ指数を領域ぼけ指数と称し、メタデータ解析部21が算出する画像全体としてのぼけ指数を画像ぼけ指数と称する。
メタデータ蓄積部22は、上記顔認識エンジン120及び特徴認識エンジン130から取得した顔領域及び特徴領域に関するメタデータを蓄積する。またメタデータ蓄積部22は、上記メタデータ解析部21が算出した画像ぼけ指数を蓄積する。
ぼけ画像選別部23は、ユーザの操作に応じて、上記ぼけ指数を基に、複数の素材画像からぼけ画像を選別する。画像表示部24は、複数の素材画像の一覧を表示すると共に、ユーザの操作に応じて、ぼけ画像選別部23により選別されたぼけ画像のみを表示する。
[PCの動作]
次に、以上のように構成されたPC100の動作について説明する。以降の説明では、上記ムービー作成アプリケーション20、顔認識エンジン120及び特徴認識エンジン130の各ソフトウェアを主な動作主体として説明するが、この動作は、全てCPU1等のハードウェアの制御下で実行される。
(メタデータ解析部の動作の概要)
図3は、本実施形態における上記メタデータ解析部21の大まかな動作の流れを示したフローチャートである。
同図に示すように、まず、メタデータ解析部21の顔認識プラグインは、上記記憶部8に蓄積された素材画像を、顔認識エンジン120へ供給する(ステップ31)。
顔認識エンジン120は、入力された素材画像に対して、顔認識処理を実行し、その結果として、抽出された顔領域データ、顔領域のサイズ、顔認識スコアの各メタデータを顔認識プラグインへ出力する(ステップ32)。
顔認識プラグインは、顔認識エンジン120から供給されたメタデータに、矩形領域が存在するか否かを判断し(ステップ33)、存在する場合(Yes)には、全ての矩形領域に関する上記メタデータをメタデータ蓄積部22に登録する(ステップ34)。
次に、特徴認識プラグインは、上記特徴認識エンジン130と協働して、素材画像からの特徴認識処理を実行する(ステップ35)。この処理の詳細については後述する。
続いて、特徴認識プラグインは、特徴認識処理により特徴認識エンジン130から供給されたメタデータに、矩形領域が存在するか否かを判断し(ステップ36)、存在する場合(Yes)には、全ての矩形領域に関する上記メタデータをメタデータ蓄積部22に登録する(ステップ37)。
続いて、特徴認識プラグインは、メタデータ蓄積部22に登録された矩形領域を特徴認識エンジン130に供給して、当該矩形領域についてぼけ認識処理を実行する(ステップ38)。この処理の詳細も後述する。
続いて、特徴認識プラグインは、上記ぼけ認識処理の結果に基づいて、1つの画像(画像全体)に対して1つの画像ぼけ指数を算出する(ステップ39)。この処理の詳細も後述する。そして特徴認識プラグインは、算出された各素材画像のぼけ指数を、メタデータ蓄積部22へ登録する(ステップ40)。
(メタデータ解析部の特徴認識処理)
図4は、上記ステップ35における特徴認識処理の詳細な流れを示したフローチャートである。
同図に示すように、まず、特徴認識プラグインは、記憶部8から取得した素材画像のサイズが、上記特徴認識エンジン130による特徴認識処理における最低有効サイズ以上であるか否かを判断する(ステップ41)。最低有効サイズとは、例えば256×256(画素)であるが、これに限られない。この処理により、素材画像が、特徴認識処理に耐え得ない程小さいか否かが判断される。
続いて、特徴認識プラグインは、上記素材画像のサイズが、上記特徴認識エンジン130による特徴認識処理における最大解析対象サイズ以下であるか否かを判断する(ステップ42)。最大解析対象サイズとは、例えば3200×3200(画素)であるが、これに限られない。素材画像のサイズが最大解析対象サイズを越えている場合(No)、特徴認識プラグインは、当該素材画像のサイズが最大解析対象サイズ以下となるように素材画像を縮小処理する(ステップ43)。このように素材画像が縮小されるのは、素材画像が最大解析対象サイズ以上の場合、特徴認識エンジン130による特徴認識処理自体は可能であるが、その処理に時間がかかりすぎてしまうためである。すなわち、この縮小処理により、特徴認識エンジン130の処理負荷が軽減される。
続いて、特徴認識プラグインは、必要に応じて縮小処理した素材画像を、特徴認識エンジン130へ供給する(ステップ44)。特徴認識エンジン130は、この供給された素材画像についての特徴認識処理を実行する(ステップ45)。そして、特徴認識プラグインは、特徴認識エンジン130から、特徴認識結果として特徴領域に関するメタデータを取得する(ステップ46)。
(特徴認識エンジンの特徴認識処理)
図5は、上記ステップ45における特徴認識エンジン130による特徴認識処理の詳細な流れを示したフローチャートである。
同図に示すように、特徴認識エンジン130は、まず、供給された素材画像から輝度マップを生成する(ステップ51)。
具体的には、特徴認識エンジン130は、素材画像の各画素の各輝度値を各画素値とする輝度画像を生成する。次に、特徴認識エンジン130は、当該輝度画像を用いて、解像度の異なる複数の輝度画像(ピラミッド画像)を生成する。このピラミッド画像は、例えばレベルL1〜L8までの8つの解像度の階層についてそれぞれ生成される。レベルL1のピラミッド画像が最も高い解像度を有し、レベルL1からL8まで順に解像度が低くなる。あるレベルのピラミッド画像の1つの画素の画素値は、その1つ上のレベルのピラミッド画像における隣接する4つの画素の画素値の平均値とされる。
続いて特徴認識エンジン130は、複数のピラミッド画像から、階層の異なる2つのピラミッド画像を選択し、両ピラミッド画像の差分を求めて、輝度に関する差分画像を生成する。この差分画像の画素値は、各レベルのピラミッド画像の輝度値の差、つまり、素材画像における所定の画素における輝度と、その画素の周囲の平均的な輝度との差分を示している。そして、特徴認識エンジン130は、算出された所定数の差分画像に基づいて輝度マップを生成する。
次に、特徴認識エンジン130は、素材画像から色マップを生成する(ステップ52)。この色マップの生成も、基本的には、上記輝度マップと同様の手法で実行される。
まず、特徴認識エンジン130は、素材画像の画素のR(赤)成分とG(緑)成分との差分を各画素値とするRG差分画像を生成し、素材画像の画素のB(青)成分とY(黄)成分との差分を各画素値とするBY差分画像を生成する。
続いて、特徴認識エンジン130は、RG差分画像とBY差分画像とを用いて、解像度の異なる複数のRG差分画像及びBY差分画像(ピラミッド画像)を生成する。続いて、特徴認識エンジン130は、複数のピラミッド画像から、階層の異なる2つのピラミッド画像を選択し、両ピラミッド画像の差分を求めて、RG及びBYの差分に関する差分画像を生成する。そして、特徴認識エンジン130は、算出された所定数の差分画像に基づいて、RG及びBYについてそれぞれ色マップを生成する。
次に、特徴認識エンジン130は、素材画像からエッジマップを生成する(ステップ53)。このエッジマップの生成も、基本的には上記輝度マップ及び色マップと同様の手法で実行される。
まず、特徴認識エンジン130は、素材画像にガボアフィルタによるフィルタリング処理を施し、例えば0度、45度、90度及び135度の各方向のエッジ強度を各画素値とするエッジ画像を生成する。
続いて、特徴認識エンジン130は、各方向のエッジ画像を用いて、解像度の異なる複数のエッジ画像を(ピラミッド画像)を生成する。続いて、特徴認識エンジン130は、複数のピラミッド画像から、階層の異なる2つのピラミッド画像を選択し、両ピラミッド画像の差分を求めて、各方向のエッジに関する差分画像を生成する。そして、特徴認識エンジン130は、算出された所定数の差分画像に基づいて、各方向についてのエッジマップを生成する。
次に、特徴認識エンジン130は、上記素材画像からそれぞれ生成された輝度マップ、色マップ及びエッジマップを線形統合し、顕著性マップを生成する。すなわち、特徴認識エンジン130は、輝度マップ、色マップ及びエッジマップの各領域の情報(特徴量)を、同じ位置にある領域(重なっている領域)毎に重み付き加算することで、顕著性マップを生成する。
ここで、この重み付き加算に用いられる重みは、例えばニューラルネットワークによる学習により求められる。具体的には、特徴認識エンジン130は、所定の学習画像について、上述と同様の処理により、顕著性マップを生成する。そして特徴認識エンジン130は、上記顕著性マップの生成処理に用いられた重みと、画像ラベルとを用いて、重み差分を求め、この重み差分を、被写体マップ生成処理で用いられた重みに加えることで、重みを更新する。画像ラベルとは、学習画像における実際の特徴(被写体)の画素単位での有無を0と1とで示したものである。すなわち、画像ラベルは、理想的な顕著性マップである。特徴認識エンジン130は、この重みの更新処理と顕著性マップの生成処理とを繰り返すことで、最終的に適切な重みを決定する。
次に、特徴認識エンジン130は、この顕著性マップを基に、素材画像から、特徴量の高い領域を矩形領域として抽出する(ステップ55)。そして、特徴認識エンジン130は、この矩形領域のデータ、サイズ、特徴認識スコア等のメタデータを、メタデータ解析部21の特徴認識エンジンへ出力する(ステップ56)。
(メタデータ解析部のぼけ認識処理)
図6は、上記ステップ38におけるぼけ認識処理の詳細な流れを示したフローチャートである。
同図に示すように、まず、特徴認識プラグインは、ぼけ認識の対象である素材画像のサイズが、特徴認識エンジン130によるぼけ認識処理における最低有効サイズ以上であるか否かを判断する(ステップ61)。最低有効サイズとは、例えば64×64(画素)であるが、これに限られない。これにより、素材画像のサイズが、ぼけ認識処理に耐え得ない程小さいか否かが判断される。ここで、上記特徴認識処理において素材画像が縮小処理されている場合には、その縮小画像がぼけ認識の対象画像とされる。
素材画像のサイズがぼけ認識処理の最低有効サイズに満たない場合(No)、特徴認識プラグインは、その素材画像は、ぼけ認識が不能な画像としてその素材画像についてのぼけ認識処理を中止する。
素材画像のサイズがぼけ認識処理の最低有効サイズ以上である場合(Yes)、特徴認識プラグインは、メタデータ蓄積部22から、顔領域に関するメタデータを取得する(ステップ62)。ここで、この顔領域の抽出元となった素材画像が、上記特徴認識処理において素材画像が縮小処理されている場合は、この顔領域のサイズは、素材画像の元のサイズに応じて変換される。
続いて、特徴認識プラグインは、当該顔領域が、特徴認識エンジン130によるぼけ認識処理における有効矩形であるか否かを判断する(ステップ63)。ここで有効矩形とは、特徴認識エンジン130によるぼけ認識処理の上記最低有効サイズを満たす矩形、または、その矩形の短辺の画素数が、その矩形の抽出元となった素材画像の短辺の画素数の20%以上である矩形である。
顔領域が有効矩形である場合(Yes)、特徴認識プラグインは、当該顔領域を特徴認識エンジン130へ供給し(ステップ67)、当該顔領域についてのぼけ認識処理を実行させる(ステップ68)。この場合における特徴認識エンジン130によるぼけ認識処理は、上記顕著性マップを用いずに実行される。
顔領域が有効矩形でない場合(No)、特徴認識プラグインは、その顔領域の抽出元となった素材画像のサイズが、特徴認識エンジンによる特徴認識処理における上記最低有効サイズ(256×256画素)以上であるか否かを判断する(ステップ64)。
素材画像のサイズが特徴認識処理の最低有効サイズ以上である場合(Yes)、特徴認識プラグインは、上記メタデータ蓄積部22から、特徴領域に関するメタデータを取得する(ステップ65)。ここで、この特徴領域の抽出元となった素材画像が上記特徴認識処理において素材画像が縮小処理されている場合は、この特徴領域のサイズは、素材画像の元のサイズに応じて変換される。
続いて、特徴認識プラグインは、当該特徴領域が、特徴認識エンジン130によるぼけ認識処理における有効矩形であるか否かを判断する(ステップ66)。ここで有効矩形とは、特徴認識エンジン130によるぼけ認識処理の上記最低有効サイズを満たす矩形である。
特徴領域が有効矩形である場合(Yes)、特徴認識プラグインは、当該特徴領域を特徴認識エンジン130へ供給し(ステップ67)、当該特徴領域についてのぼけ認識処理を実行させる(ステップ68)。この場合における特徴認識エンジン130によるぼけ認識処理は、上記顕著性マップを用いて実行される。
特徴領域が有効矩形でない場合(No)、特徴認識プラグインは、その特徴領域の抽出元となった素材画像を矩形領域として特徴認識エンジン130へ供給し(ステップ69)、当該素材画像についてのぼけ認識処理を実行させる(ステップ70)。すなわち、特徴領域ではなく素材画像全体についてのぼけ認識処理が実行される。この場合における特徴認識エンジン130によるぼけ認識処理は、上記顕著性マップを用いて実行される。
また上記ステップ64において、素材画像のサイズが特徴認識処理の最低有効サイズに満たない場合(No)、特徴認識プラグインは、当該素材画像を特徴認識エンジン130へ供給し(ステップ71)、当該素材画像全体についてのぼけ認識処理を実行させる(ステップ72)。この場合における特徴認識エンジン130によるぼけ認識処理は、上記顕著性マップを用いずに実行される。
(特徴認識エンジンのぼけ認識処理の詳細)
図7は、上記ステップ68、70及び72における特徴認識エンジン130によるぼけ認識処理の詳細な流れを示したフローチャートである。
同図に示すように、特徴認識エンジン130は、まず、供給された顔領域または特徴領域または素材画像から、エッジマップを生成する(ステップ81)。供給された画像が顔領域の場合、エッジマップの生成に上記顕著性マップは用いられず、供給された画像が特徴領域の場合、エッジマップの生成に上記顕著性マップが用いられる。また、供給された画像が素材画像全体である場合、当該素材画像が特徴認識処理の最低有効サイズ以上である場合には、エッジマップの生成に顕著性マップが用いられ、最低有効サイズに満たない場合には、エッジマップの生成に顕著性マップは用いられない。以下の説明では、特徴認識プラグインから供給される上記顔領域、特徴領域、または素材画像全体の各画像を総称して「被写体領域」と称する。
具体的には、特徴認識エンジン130は、供給された被写体領域を2×2画素のサイズのブロックに分割して、各ブロック内の画素間の画素値の差分の絶対値を算出し、当該各差分の絶対値の平均値を算出する。この平均値は、ブロック内の上下、左右及び斜め方向のエッジ強度の平均値を示す。そして、特徴認識エンジン130は、算出した平均値を、被写体領域における対応するブロックと同じ順序に並べることで、スケールSC1のエッジマップを生成する。さらに、特徴認識エンジン130は、スケールSC1における上記ブロック内の画素値の平均値を1つの画素値とする平均化画像を基に、スケールSC2のエッジマップを生成する。同様に、特徴認識エンジン130は、スケールSC2における平均化画像を2×2画素のサイズのブロックに分割した場合のブロック内の画素の平均値を1つの画素値とする平均化画像を基に、スケールSC3のエッジマップを生成する。このように、異なる大きさのブロック単位で異なるスケールのエッジマップを生成するのは、エッジ強度のばらつきを抑えるためである。
続いて、特徴認識エンジン130は、上記各エッジマップを用いて、被写体領域のダイナミックレンジ検出する(ステップ82)。具体的には、特徴認識エンジン130は、上記スケールSC1〜SC3のエッジマップの中から画素値の最大値と最小値を検出し、その最大値と最小値の差分を、被写体領域のエッジ強度のダイナミックレンジとして検出する。
続いて、特徴認識エンジン130は、検出されたダイナミックレンジに応じて、演算パラメータの初期値を設定する(ステップ83)。ここで、演算パラメータには、エッジポイントであるか否かの判定に用いるエッジ基準値、およびエッジポイント抽出量が適切であるか否かの判定に用いる抽出基準値が含まれる。
すなわち、特徴認識エンジン130は、ダイナミックレンジが所定の閾値を越えるか否かに応じて、被写体領域をローダイナミックレンジの画像とハイダイナミックレンジの画像とに分け、それぞれの画像の演算パラメータに初期値を設定する。ローダイナミックレンジの画像用の演算パラメータは、ハイダイナミックレンジの画像用の演算パラメータと比較して小さい値とされる。これは、ローダイナミックレンジの画像は、ハイダイナミックレンジの画像よりもエッジが少なく、抽出されるエッジポイントの量が少ないことから、ローダイナミックレンジの画像からも、ぼけ認識精度を保つのに十分な量のエッジポイントを抽出するためである。
続いて、特徴認識エンジン130は、上記生成されたエッジマップを用いてローカルマックスを生成する(ステップ84)。具体的には、特徴認識エンジン130は、上記スケールSC1のエッジマップを2×2画素のブロックに分割する。そして特徴認識エンジン130は、エッジマップの各ブロックの最大値を抽出して、その最大値を、対応するブロックと同じ順序に並べることで、スケールSC1のローカルマックスLM1を生成する。すなわち、各ブロック内の画素値の最大値が抽出される。
同様に特徴認識エンジン130は、上記スケールSC2のエッジマップを4×4画素のブロックに分割し、各ブロックの最大値を抽出し、その最大値を、対応するブロックと同じ順序に並べることで、スケールSC2のローカルマックスLM2を生成する。同様に特徴認識エンジン130は、上記スケールSC3のエッジマップを8×8画素のブロックに分割し、各ブロックの最大値から、スケールSC3のローカルマックスLM3を生成する。
続いて、特徴認識エンジン130は、上記生成された各ローカルマックスを用いて、被写体領域からエッジポイントを抽出する。このエッジポイント抽出処理には、上述したように、被写体領域が顔領域か特徴領域かに応じて、顕著性マップが用いられる。また、被写体領域が素材画像全体である場合、特徴認識処理の最低有効サイズ以上であるか否かに応じて顕著性マップが共に用いられる。
具体的には、特徴認識エンジン130は、被写体領域内の画素を1つ選択し、注目画素とする。上記顕著性マップが用いられる場合は、被写体領域内における顕著性の高い、画素値が所定値以上である特徴領域から注目画素が選択される。
また、特徴認識エンジン130は、選択した注目画素の被写体領域上におけるxy座標系の座標を(x,y)として、次式(1)により、注目画素に対応するローカルマックスLM1の画素の座標(x1,y1)を求める。
(x1,y1)=(x/4,y/4)・・・(1)
ローカルマックスLM1の1つの画素は、被写体領域の4×4画素のブロックから生成される。よって、被写体領域の注目画素に対応するローカルマックスLM1の画素の座標は、注目画素のx座標およびy座標をそれぞれ1/4にした値となる。
同様に、特徴認識エンジン130は、次式(2)および(3)により、注目画素に対応するローカルマックスLM2の画素の座標(x2,y2)、及び注目画素に対応するローカルマックスLM3の画素の座標(x3,y3)を求める。
(x2,y2)=(x/16,y/16)・・・(2)
(x3,y3)=(x/64,y/64)・・・(3)
さらに、特徴認識エンジン130は、上記各座標(x1,y1)、(x2,y2)、(x3,y3)の各画素値がエッジ基準値以上である場合、注目画素をローカルマックスLM1、LM2及びLM3における各エッジポイントとして抽出する(ステップ85)。そして、特徴認識エンジン130は、注目画素の座標(x,y)と、ローカルマックスLM1、LM2及びLM3の各座標(x1,y1)(x2,y2)、(x3,y3)の画素値とをそれぞれ対応づけて記憶する。特徴認識エンジン130は、被写体領域内の全ての画素が注目画素とされるまで、以上の処理を繰り返す。
これにより、ローカルマックスLM1に基づいて、被写体領域内の4×4画素のブロックのうち、エッジ強度がエッジ基準値以上となるブロックに含まれる画素がエッジポイントとして抽出される。
同様に、ローカルマックスLM2に基づいて、被写体領域内の16×16画素のブロックのうち、ブロック内のエッジ強度がエッジ基準値以上となるブロックに含まれる画素がエッジポイントとして抽出される。また、ローカルマックスLM3に基づいて、被写体領域内の64×64画素のブロックのうち、ブロック内のエッジ強度がエッジ基準値以上となるブロックに含まれる画素がエッジポイントとして抽出される。
したがって、エッジ強度がエッジ基準値以上となる、被写体領域内の4×4画素、16×16画素、または64×64画素のブロックの少なくとも1つに含まれる画素がエッジポイントとして抽出される。
特徴認識エンジン130は、ローカルマックスLM1に基づいて抽出したエッジポイントの座標(x,y)と、そのエッジポイントに対応するローカルマックスLM1の画素値とが対応づけられたテーブルであるエッジポイントテーブルET1を生成する。
同様に、特徴認識エンジン130は、ローカルマックスLM2に基づいて抽出したエッジポイントの座標(x,y)と、そのエッジポイントに対応するローカルマックスLM2の画素値とが対応づけられたエッジポイントテーブルET2を生成する。また、特徴認識エンジン130は、ローカルマックスLM3に基づいて抽出したエッジポイントの座標(x,y)と、そのエッジポイントに対応するローカルマックスLM3の画素値とが対応づけられたエッジポイントテーブルET3も生成する。
続いて、特徴認識エンジン130は、上記生成された各エッジポイントテーブルET1〜ET3を用いて、エッジポイント抽出量が適切であるか否かを判定する(ステップ86)。例えば、抽出されたエッジポイントの合計数、すなわちエッジポイントテーブルET1乃至エッジポイントテーブルET3のデータ数の合計が、上記抽出基準値未満である場合、エッジポイント抽出量が適切でないと判定される。
エッジポイント抽出量が適切でないと判定された場合(No)、特徴認識エンジン130は、上記演算パラメータを調整する(ステップ87)。例えば、特徴認識エンジン130は、現時点よりも、より多くのエッジポイントが抽出されるように、エッジ基準値を、現時点において設定されている値から所定の値だけ小さくする。演算パラメータが調整されると、その後、処理は、上記ステップ85に戻り、エッジポイント抽出量が適切であると判定されるまで、上述した処理が繰り返される。
以上の処理により、ぼけ認識精度を向上させるために、ローダイナミックレンジの画像については、ぼけ認識精度を一定のレベル以上とするのに十分な量のエッジポイントを確保できるよう、エッジ強度の弱いブロックからもエッジポイントが抽出される。一方、ハイダイナミックレンジの画像については、より強いエッジを構成するエッジポイントが抽出されるように、極力エッジ強度の強いブロックからエッジポイントが抽出される。
エッジポイント抽出量が適切であると判定された場合(Yes)、特徴認識エンジン130は、上記エッジ基準値、エッジポイントテーブル及びローカルマックスを用いて、エッジ分析を行う(ステップ88)。
具体的には、特徴認識エンジン130は、エッジポイントテーブルET1乃至エッジポイントテーブルET3に基づいて、被写体領域から抽出されたエッジポイントのうちの1つを注目画素とする。そして、特徴認識エンジン130は、注目画素のxy座標系の座標を(x,y)とし、上述した式(1)〜(3)により、注目画素に対応するローカルマックスLM1〜LM3の画素の座標(x1,y1)〜(x3,y3)を求める。
特徴認識エンジン130は、ローカルマックスLM1の座標(x1,y1)の画素を左上隅の画素とするm×m画素(例えば、4×4画素)のローカルマックスLM1上のブロック内の画素の画素値の最大値をLocal Max1(x1,y1)に設定する。同様に、特徴認識エンジン130は、ローカルマックスLM2の座標(x2,y2)の画素を左上隅の画素とするn×n画素(例えば、2×2画素)のブロック内の画素値の最大値をLocal Max2(x2,y2)に設定する。また特徴認識エンジン130は、ローカルマックスLM3の座標(x3,y3)の画素値をLocal Max3(x3,y3)に設定する。
ここで、Local Max1(x1,y1)の設定に用いるm×m、及びLocal Max2(x2,y2)の設定に用いるn×nのパラメータは、ローカルマックスLM1〜LM3の1画素に対応する、被写体領域のブロックの大きさの差を調整するためのパラメータである。
特徴認識エンジン130は、Local Max1(x1,y1)、Local Max2(x2,y2)及びLocal Max3(x3,y3)が以下の条件式(4)を満足するか否かを判定する。
Local Max1(x1,y1) > エッジ基準値 or
Local Max2(x2,y2) > エッジ基準値 or
Local Max3(x3,y3) > エッジ基準値 ・・・(4)
Local Max1(x1,y1)、Local Max2(x2,y2)及びLocal Max3(x3,y3)が条件式(4)を満足する場合、特徴認識エンジン130は、変数Nedgeの値を1つインクリメントする。
条件式(4)を満足するエッジポイントは、その構造に関わらず、一定以上の強度を有するエッジを構成するエッジポイントであると推定される。
図8は、エッジの種類について説明するための図である。同図(A)に示すエッジは、急峻なインパルス状のエッジであり、同図(B)に示すエッジは、同図(A)のエッジよりは傾きが緩やかなパルス状のエッジである。同図(C)に示すエッジは、傾きがほぼ垂直な階段状のエッジであり同図(D)に示すエッジは、同図(C)のエッジよりは傾きが緩やかな、階段状のエッジである。
特徴認識エンジン130は、Local Max1(x1,y1)、Local Max2(x2,y2)およびLocal Max3(x3,y3)が条件式(4)を満足する場合、さらに、以下の条件式(5)または条件式(6)を満足するか否かを判定する。
Local Max1(x1,y1) < Local Max2(x2,y2) < Local Max3(x3,y3)・・・(5)
Local Max2(x2,y2) > Local Max1(x1,y1) and
Local Max2(x2,y2) > Local Max3(x3,y3) ・・・(6)
Local Max1(x1,y1)、Local Max2(x2,y2)およびLocal Max3(x3,y3)が条件式(5)または条件式(6)を満足する場合、特徴認識エンジン130は、変数Nsmallblurの値を1つインクリメントする。
条件式(4)を満足し、かつ条件式(5)または条件式(6)を満足するエッジポイントは、一定以上の強度を有するが、図8(A)または(C)のエッジと比較して強度の弱い、図8(B)または(D)の構造を有するエッジを構成するエッジポイントであると推定される。
さらに、特徴認識エンジン130は、Local Max1(x1,y1)、Local Max2(x2,y2)及びLocal
Max3(x3,y3)が条件式(4)を満足し、かつ条件式(5)または条件式(6)を満足する場合、Local Max1(x1,y1)が、以下の条件式(7)を満足するか否かを判定する。
Local Max1(x1,y1) < エッジ基準値 ・・・(7)
Local Max1(x1,y1)が条件式(5)を満足する場合、特徴認識エンジン130は、変数Nlargeblurの値を1つインクリメントする。
条件式(4)を満足し、かつ条件式(5)または条件式(6)を満足し、かつ条件式(7)を満足するエッジポイントは、一定以上の強度の図8(B)または(D)の構造を有するエッジのうち、ぼけが発生し、鮮明さを失ったエッジを構成するエッジポイントであると推定される。換言すれば、そのエッジポイントにおいてぼけが発生していると推定される。
特徴認識エンジン130は、被写体領域から抽出された全てのエッジポイントが注目画素とされるまで、以上の処理を繰り返す。これにより、抽出されたエッジポイントのうち、エッジポイントの数Nedge、エッジポイントの数Nsmallblur、およびエッジポイントの数Nlargeblurが求められる。
ここで、数Nedgeは、条件式(5)を満足するエッジポイントの数であり、数Nsmallb
lurは、条件式(4)を満足し、かつ、条件式(5)または条件式(6)を満足するエッジポイントの数である。また、数Nlargeblurは、条件式(4)を満足し、かつ、条件式(5)または条件式(6)を満足し、かつ、条件式(7)を満足するエッジポイントの数である。
続いて、特徴認識エンジン130は、算出された数Nsmallblurおよび数Nlargeblurを用いて、次式(8)を計算し、被写体領域のぼけ具合の指標となる、上記領域ぼけ指数を算出する(ステップ89)。
領域ぼけ指数 = Nlargeblur/Nsmallblur・・・(8)
すなわち、領域ぼけ指数は、一定以上の強度の図8(B)または(D)の構造を有するエッジを構成すると推定されるエッジポイントのうち、ぼけが発生しているエッジを構成すると推定されるエッジポイントが占める比率である。したがって、領域ぼけ指数が大きいほど、被写体領域のぼけ具合は大きく、領域ぼけ指数が小さいほど、被写体領域のぼけ具合は小さいと推定される。この領域ぼけ指数は、例えば0〜1000の範囲の値として算出される。
特徴認識エンジン130は、算出された上記領域ぼけ指数を上記特徴認識プラグインへ出力して、ぼけ認識処理を終了する。
(メタデータ解析部の画像ぼけ指数算出処理)
次に、メタデータ解析部21の特徴認識プラグインは、上記特徴認識エンジン130から取得した各被写体領域についての領域ぼけ指数を基に、画像全体としての画像ぼけ指数を算出する(図3のステップ38)。図9は、上記画像ぼけ指数の算出処理の詳細な流れを示したフローチャートである。
同図に示すように、特徴認識プラグインは、上記特徴認識エンジン130から、1つの素材画像中の被写体領域についての領域ぼけ指数を取得すると(ステップ91)、有効なぼけ認識結果を取得できたか否かを判断する(ステップ92)。
有効なぼけ認識結果を取得できなかった場合(No)、特徴認識プラグインは、画像ぼけ指数を無効値「−1」に設定する(ステップ97)。ここで有効なぼけ認識結果を取得できなかった場合とは、特徴認識エンジン130から取得した領域ぼけ指数が異常値である場合や、図6のステップ64のNoの場合で示したように、そもそも矩形領域を特徴認識エンジン130に供給しなかった場合である。この画像ぼけ指数は、上記メタデータ蓄積部22へ登録される。
有効なぼけ認識結果を取得できた場合(No)、特徴認識プラグインは、1つの素材画像について、複数の被写体領域から有効なぼけ認識結果を取得できたか否かを判断する(ステップ92)。
1つの素材画像について1つの被写体領域のみから有効なぼけ認識結果を取得できた場合(No)、特徴認識プラグインは、上記取得した領域ぼけ指数を画像ぼけ指数として設定する(ステップ98)。ここで、特徴認識エンジン130により算出された領域ぼけ指数は0〜1000の範囲の値であるのに対して、画像ぼけ指数は0〜100の範囲の値として算出されるため、特徴認識プラグインは、領域ぼけ指数を10で割った値を画像ぼけ指数とする。この画像ぼけ指数も、上記メタデータ蓄積部22へ登録される。
1つの素材画像について複数の被写体領域から有効なぼけ認識結果を取得できた場合(Yes)、特徴認識プラグインは、それら各被写体領域からのぼけ認識結果が、顔領域から取得されたものか、それとも特徴領域から取得されたものかを判断する(ステップ94)。
ぼけ認識結果が複数の顔領域から取得されたものである場合(Yes)、特徴認識プラグインは、当該各顔領域の面積に比例して、各顔領域の領域ぼけ指数を重み付け平均する。これにより、その領域ぼけ指数の算出元である1つの素材画像に対して1つの画像ぼけ指数が算出される(ステップ95)。
ぼけ認識結果が複数の特徴領域から取得されたものである場合(No)、特徴認識プラグインは、当該各特徴領域の面積と、当該各特徴領域の特徴認識スコアとに比例して、各特徴領域の領域ぼけ指数を重み付け平均する。これにより、その特徴認識スコアの算出元である1つ素材画像に対して1つの画像ぼけ指数が算出される(ステップ96)。
図10は、上記ステップ95及び96において算出される画像ぼけ指数の算出式を示した図である。
同図に示すように、画像ぼけ指数は、1つの素材画像における各被写体領域nの領域ぼけ指数(Bn)を、被写体領域nの面積(Sn)及び当該被写体領域nの認識スコア(Dn)を重みとして重み付け加算した値を、その重みの和で除して算出される。被写体領域が特徴領域である場合、Dnはその特徴領域の領域ぼけ指数であるが、被写体領域が顔領域である場合、Dnは1に固定される。すなわち、被写体領域が顔領域である場合には、顔認識スコアに比例した重み付けは行われない。ここでnは、1つの素材画像から認識される複数の被写体領域を識別する値である。なお、この算出式において、分母に10が乗じられるのは、上述したように、0〜1000の値の範囲で表される領域ぼけ指数から算出される画像ぼけ指数を、0〜100の値の範囲で表現するためである。
各被写体領域の面積に比例した重み付けが行われるのは、各被写体領域の面積が大きいほど、閲覧者に注視される確率が高いと考えられるためである。また顔領域については顔認識スコアに比例した重み付けが行われないのは、一般的に、閲覧者は、被写体が顔であることを認識すれば、その顔の領域を、その認識スコア(特徴量)に関わらず、無条件で注視する可能性が高いと考えられるためである。一方、特徴領域については、特徴認識プラグインは、その領域の被写体が何であり、注視されやすいものであるかを認識することができないため、画像ぼけ指数の算出にあたって特徴認識スコアに比例した重み付けが行われる。
上記画像ぼけ指数の算出処理は、素材画像がPC100の記憶部8に取り込まれた時点で開始される。算出された画像ぼけ指数は、素材画像と関連付けられてメタデータ蓄積部22に登録される。後述のぼけ画像選別処理においては、この既に算出されている画像ぼけ指数を基にぼけ画像の選別が実行されている。
(ぼけ画像の選別処理)
次に、以上のように算出された画像ぼけ指数を基にした、ぼけ画像の選別処理について説明する。
図11は、ぼけ画像選別部23及び画像表示部24の処理の流れを示したフローチャートである。
同図に示すように、画像表示部24は、ムービー作成アプリケーション20によるムービー作成工程の冒頭で、ユーザにムービーの素材を選択させるための素材選択画面を表示させる(ステップ101)。
図12は、当該素材選択画面を示した図である。同図に示すように、素材選択画面110は、記憶部8に記憶された、ムービーの素材となり得る複数の静止画像のうち、ぼけ画像のみを選別して表示するためのぼけ画像選別ボタン111を有している。また素材選択画面110は、その他にも、人画像選択ボタン112、笑顔画像選別ボタン113、音画像選別ボタン114、声画像選別ボタン115、動画像選別ボタン116、静止画像選別ボタン117を有する。人画像選択ボタン112は、人が映っている静止画像のみをその人の人数に応じて選別して表示するためのボタンである。笑顔画像選別ボタン113は、人の笑顔が映っている静止画像のみを選別して表示するためのボタンである。音画像選別ボタン114は、人の声以外の物音を含む動画像のみを選別して表示するためのボタンである。声画像選別ボタン115は、人の声を含む動画像のみを選別して表示するためのボタンである。動画像選別ボタン116及び静止画像選別ボタン117は、複数の素材(動画像及び静止画像)のうち、それぞれ動画像のみ及び静止画像のみを選別して表示するためのボタンである。同図(A)では、静止画像選別ボタン117により、静止画像118のみの一覧が表示されている場合を示している。表示されている複数の静止画像118のうち、静止画像118a及び118bがぼけ画像である。
図11に戻り、ぼけ画像選別部23は、上記ぼけ画像選別ボタン111がユーザにより押下されたか否かを判断する(ステップ102)。ぼけ画像選別ボタンが押下されたと判断した場合(Yes)、ぼけ画像選別部23は、各静止画像の上記画像ぼけ指数をメタデータ蓄積部22から取得する(ステップ103)。
続いて、ぼけ画像選別部23は、取得した画像ぼけ指数が、所定の閾値以上であるか否かを、複数の静止画像について順に判断する(ステップ104)。この所定の閾値は例えば60であるが、これに限られない。
ある静止画像の画像ぼけ指数が閾値に満たない場合(No)、ぼけ画像選別部23は次の静止画像についての判断を実行する。
ある静止画像の画像ぼけ指数が閾値以上である場合(Yes)、ぼけ画像選別部23は、その静止画像をぼけ画像として選別し、画像表示部24に、その選別されたぼけ画像のみを表示するように指示する(ステップ105)。
そして、画像表示部24は、上記ぼけ画像選別部23からの指示に従って、それまで表示されていた複数の静止画像のうち、ぼけ画像のみを表示するように表示を切り替える(ステップ106)。
図12(B)は、ぼけ画像選別ボタン111の押下により、ぼけ画像のみが選別されて表示された状態を示している。同図(B)に示すように、同図(A)で表示されていた静止画像118のうち、ぼけ画像118a及び118bのみが選別されて表示されている。
ユーザは、この選別されて表示されたぼけ画像118a及び118bを削除したり、他の静止画像とは別の記憶領域に記憶したりして、ムービーの素材から除外することができる。すなわち、ユーザは、素材選択画面110上で、上記ぼけ画像選別ボタン111を押下するだけで、不要なぼけ画像を瞬時に把握することができる。
[まとめ]
以上説明したように、本実施形態では、PC100は、1つの素材画像内の1つまたは複数の被写体領域(顔領域または特徴領域)の領域ぼけ指数を基に、1つの素材画像について1つの画像ぼけ指数を算出することができる。1つの素材画像内の複数の被写体領域から有効な領域ぼけ指数が算出された場合には、各被写体領域の面積(及び認識スコア)に比例して、各領域ぼけ指数が重み付け平均されて画像ぼけ指数が算出される。そして、上記素材選択画面110上でぼけ画像選別ボタン111が押下された場合には、画像ぼけ指数を基にぼけ画像のみが選別され表示される。したがって、PC100は、素材画像中の、より注視されやすい被写体領域を判別した上で、当該注視されやすい被写体領域がぼけている程、画像全体としてのぼけ指数が高くなるように処理することで、ぼけ画像をより正確に選別することができる。
[変形例]
本発明は上述の実施形態にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更され得る。
上述の実施形態においては、素材選択画面110上でぼけ画像選別ボタン111が押下されることでぼけ画像が選別され表示された場合に、ユーザによって適宜削除等の処理がなされた。しかし、ムービー作成アプリケーション20は、素材画像がPC100に取り込まれた時点で、上記画像ぼけ指数の算出処理及び上記ぼけ画像の選別処理を実行し、ぼけ画像を自動的に削除してもよい。またこの際、ムービー作成アプリケーション20は、例えば、「取り込まれた画像にぼけ画像が含まれています。ぼけ画像を削除しますか?」といった確認メッセージをユーザに向けて表示し、ユーザの指示に応じてぼけ画像を削除してもよい。また、ムービー作成アプリケーション20は、素材画像が取り込まれるときに、ぼけ画像の選別処理を実行し、ぼけ画像についてはPC100への取り込み自体を中止してもよい。この場合も、ぼけ画像についての取り込みの中止をユーザに確認するためのメッセージが表示されてもよい。さらに、ムービー作成アプリケーション20は、素材画像が取り込まれた時点ではなく、例えば1日に1回、1週間に1回等、定期的にぼけ画像の選別処理を実行し、自動的に、またはユーザの指示に応じてぼけ画像を削除してもよい。
上述の実施形態において、特徴認識エンジン130は、顕著性マップを生成することで画像から特徴領域を抽出した。しかし、特徴領域の抽出は、顕著性マップを用いる場合に限られない。例えば、画像中における、いわゆる黄金線上に存在する物体が被写体として検出されてもよい。
上述の実施形態において、特徴認識エンジン130は、輝度マップ、色マップ及びエッジマップを基に顕著性マップを生成した。しかし、顕著性マップは、例えばさらに、連続した画像の動きベクトルに関する特徴から生成される動きベクトルマップ等、他の特徴に関するマップを用いて生成されてもよい。
上述の実施形態では、ムービー作成アプリケーション20は、複数の静止画像についてぼけ画像の選別を実行した。しかし、ムービー作成アプリケーション20は、複数の動画像からも同様にぼけ映像を選別することもできる。この場合、ムービー作成アプリケーション20は、複数の動画像を構成する各フレームを上記静止画像として処理することで、ぼけ画像を含む映像をぼけ映像として選別できる。この場合、全フレームのうち所定フレーム割合以上のぼけ画像が含まれる動画像がぼけ映像として選別されてもよい。
上述の実施形態では、ムービー作成アプリケーションの一機能としてぼけ画像選別機能を説明した。しかし、ムービー作成アプリケーション以外のアプリケーションが上述のぼけ画像選別機能を有してもよいし、ぼけ画像選別機能のみを有する汎用的なアプリケーションが独立して存在していてもよい。この場合、上記顔認識エンジン120及び特徴認識エンジン130は、ぼけ画像選別機能を有するアプリケーションとは別個の外部エンジンとして存在してもよいし、内部エンジンとして存在してもよい。
上述の実施形態においては、PC100のローカルの記憶部8に記憶された静止画像についてぼけ画像の選別が実行された。しかし、PC100は、通信部9を介して接続されたネットワーク上の記憶部に記憶された静止画像についてのぼけ画像の選別処理を実行してもよい。
上述の実施形態においては、ぼけ画像選別処理における各処理は、ソフトウェアにより実行した。しかし、上記顔認識処理、特徴認識処理、ぼけ認識処理、ぼけ選別処理等の各処理は、それらの処理を担う回路基板等の各種ハードウェアにより実行されてもよい。
上述の実施形態においては、電子機器としてPCを例に挙げた。しかし本発明は、テレビジョン装置、HDD(Hard Disk Drive)/DVD/BD(Blu-ray Disc)等の記録媒体を用いた記録再生装置、デジタルスチルカメラ、デジタルビデオカメラ、携帯型AV機器、携帯電話機、ゲーム機器等の他の電子機器にも同様に適用できる。
本発明の一実施形態に係るPCのハードウェア構成を示した図である。 本発明の一実施形態に係るPCの画像選別機能を説明するための図である。 本実施形態に係るPCのメタデータ解析部の大まかな動作の流れを示したフローチャートである。 本発明の一実施形態における特徴認識処理の流れを示したフローチャートである。 本発明の一実施形態における特徴認識エンジンによる特徴認識処理の詳細な流れを示したフローチャートである。 本発明の一実施形態におけるぼけ認識処理の流れを示したフローチャートである。 本発明の一実施形態における特徴認識エンジンによるぼけ認識処理の詳細な流れを示したフローチャートである。 本発明の一実施形態において検出されるエッジの種類について説明するための図である。 本発明の一実施形態における画像ぼけ指数の算出処理の流れを示したフローチャートである。 本発明の一実施形態において算出される画像ぼけ指数の算出式を示した図である。 本発明の一実施形態におけるぼけ画像選別部及び画像表示部の処理の流れを示したフローチャートである。 本発明の一実施形態における素材選択画面を示した図である。
符号の説明
1…CPU
5…入出力インタフェース
8…記憶部
20…ムービー作成アプリケーション
21…メタデータ解析部
22…メタデータ蓄積部
23…画像選別部
24…画像表示部
100…PC
110…素材選択画面
111…画像選別ボタン
118…静止画像
118…静止画像
118a、118b…ぼけ画像
120…顔認識エンジン
130…特徴認識エンジン

Claims (10)

  1. 画像中の所定の特徴を有する被写体領域を当該画像から抽出する抽出手段と、
    前記抽出された被写体領域のぼけ度を示す第1のぼけ度を算出する第1の算出手段と、
    前記画像中の1つの前記被写体領域のみから前記第1のぼけ度が算出された場合に、当該第1のぼけ度を基に前記画像の全体についてのぼけ度を示す第2のぼけ度を算出し、前記画像中の複数の前記被写体領域から前記第1のぼけ度が算出された場合に、当該第1のぼけ度を前記複数の被写体領域の面積に応じて重み付け平均した値を基に前記第2のぼけ度を算出する第2の算出手段と、
    複数の前記画像から、所定の閾値以上の前記算出された第2のぼけ度を有する画像をぼけ画像として選別する選別手段と
    を具備する電子機器。
  2. 請求項1に記載の電子機器であって、
    前記抽出された領域を、前記第1のぼけ度の算出に適した所定のサイズとなるように最適化する最適化手段をさらに具備する
    電子機器。
  3. 請求項2に記載の電子機器であって、
    前記抽出手段は、前記被写体領域の抽出の確からしさを示すスコアを算出し、
    前記第2の算出手段は、前記画像中の複数の前記被写体領域から前記第1のぼけ度が算出された場合に、当該第1のぼけ度を、前記複数の被写体領域の面積と、前記算出されたスコアとに応じて重み付け平均した値を基に前記第2のぼけ度を算出する
    電子機器。
  4. 請求項3に記載の電子機器であって、
    前記抽出手段は、
    前記被写体領域として人の顔の領域を認識し、当該認識された顔の領域の前記スコアを示す第1のスコアを算出する顔認識手段と、
    前記被写体領域として視覚的な顕著性の高い特徴領域を認識し、当該認識された特徴領域の前記スコアを示す第2のスコアを算出する特徴認識手段と
    を有し、
    前記第2の算出手段は、前記画像中の複数の前記被写体領域から前記第1のぼけ度が算出された場合において、前記被写体領域として前記顔認識手段により前記顔の領域が認識された場合は、前記重み付け平均に前記第1のスコアを用いずに前記第2のぼけ度を算出し、前記被写体領域として前記特徴認識手段により前記特徴領域が認識された場合は、前記重み付け平均に前記第2のスコアを用いて前記第2のぼけ度を算出する
    電子機器。
  5. 請求項2に記載の電子機器であって、
    前記第1の算出手段は、前記被写体領域が抽出されない場合には、前記画像全体を前記被写体領域として前記第1のぼけ度を算出する
    電子機器。
  6. 請求項2に記載の電子機器であって、
    ユーザの操作を受け付ける操作受付手段をさらに具備し、
    前記選別手段は、前記ユーザの所定の操作に応じて前記ぼけ画像を選別し、
    当該電子機器は、
    前記複数の画像を表示し、前記所定の操作が受け付けられたときに、前記表示された複数の画像のうち前記選別されたぼけ画像のみを表示する表示手段をさらに具備する
    電子機器。
  7. 画像中の所定の特徴を有する被写体領域を当該画像から抽出し、
    前記抽出された被写体領域のぼけ度を示す第1のぼけ度を算出し、
    前記画像中の1つの前記被写体領域のみから前記第1のぼけ度が算出された場合に、当該第1のぼけ度を基に前記画像の全体についてのぼけ度を示す第2のぼけ度を算出し、前記画像中の複数の前記被写体領域から前記第1のぼけ度が算出された場合に、当該第1のぼけ度を前記複数の被写体領域の面積に応じて重み付け平均した値を基に前記第2のぼけ度を算出し、
    複数の前記画像から、所定の閾値以上の前記算出された第2のぼけ度を有する画像をぼけ画像として選別する
    ぼけ画像選別方法。
  8. 画像中から抽出された、所定の特徴を有する被写体領域を、所定のサイズとなるように最適化し、
    前記最適化された被写体領域から算出された、被写体領域のぼけ度を示す第1のぼけ度を取得し、
    前記画像中の1つの前記被写体領域のみから前記第1のぼけ度が算出された場合に、当該第1のぼけ度を基に前記画像の全体についてのぼけ度を示す第2のぼけ度を算出し、前記画像中の複数の前記被写体領域から前記第1のぼけ度が算出された場合に、当該第1のぼけ度を前記複数の被写体領域の面積に応じて重み付け平均した値を基に前記第2のぼけ度を算出し、
    複数の前記画像から、所定の閾値以上の前記算出された第2のぼけ度を有する画像をぼけ画像として選別する
    ぼけ画像選別方法。
  9. 電子機器に、
    画像中の所定の特徴を有する被写体領域を当該画像から抽出するステップと、
    前記抽出された被写体領域のぼけ度を示す第1のぼけ度を算出するステップと、
    前記画像中の1つの前記被写体領域のみから前記第1のぼけ度が算出された場合に、当該第1のぼけ度を基に前記画像の全体についてのぼけ度を示す第2のぼけ度を算出し、前記画像中の複数の前記被写体領域から前記第1のぼけ度が算出された場合に、当該第1のぼけ度を前記複数の被写体領域の面積に応じて重み付け平均した値を基に前記第2のぼけ度を算出するステップと、
    複数の前記画像から、所定の閾値以上の前記算出された第2のぼけ度を有する画像をぼけ画像として選別するステップと
    を実行させるためのプログラム。
  10. 電子機器に、
    画像中から抽出された、所定の特徴を有する被写体領域を、所定のサイズとなるように最適化するステップと、
    前記最適化された被写体領域から算出された、被写体領域のぼけ度を示す第1のぼけ度を取得するステップと、
    前記画像中の1つの前記被写体領域のみから前記第1のぼけ度が算出された場合に、当該第1のぼけ度を基に前記画像の全体についてのぼけ度を示す第2のぼけ度を算出し、前記画像中の複数の前記被写体領域から前記第1のぼけ度が算出された場合に、当該第1のぼけ度を前記複数の被写体領域の面積に応じて重み付け平均した値を基に前記第2のぼけ度を算出するステップと
    複数の前記画像から、所定の閾値以上の前記算出された第2のぼけ度を有する画像をぼけ画像として選別するステップと
    を実行させるためのプログラム。
JP2008244816A 2008-09-24 2008-09-24 電子機器、ぼけ画像選別方法及びプログラム Expired - Fee Related JP4840426B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008244816A JP4840426B2 (ja) 2008-09-24 2008-09-24 電子機器、ぼけ画像選別方法及びプログラム
CN200910178651.9A CN101685542B (zh) 2008-09-24 2009-09-24 电子设备、模糊图像分拣方法
US12/775,132 US8300972B2 (en) 2008-09-24 2010-05-06 Electronic apparatus, blur image sorting method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008244816A JP4840426B2 (ja) 2008-09-24 2008-09-24 電子機器、ぼけ画像選別方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2010079446A true JP2010079446A (ja) 2010-04-08
JP4840426B2 JP4840426B2 (ja) 2011-12-21

Family

ID=42048688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008244816A Expired - Fee Related JP4840426B2 (ja) 2008-09-24 2008-09-24 電子機器、ぼけ画像選別方法及びプログラム

Country Status (3)

Country Link
US (1) US8300972B2 (ja)
JP (1) JP4840426B2 (ja)
CN (1) CN101685542B (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012105008A (ja) * 2010-11-09 2012-05-31 Casio Comput Co Ltd 画像処理装置及び方法、並びにプログラム
JP2013029677A (ja) * 2011-07-28 2013-02-07 Marumi Koki Kk デジタルカメラ用ジオラマフィルター
JP2013045178A (ja) * 2011-08-22 2013-03-04 Fujitsu Ltd 画像処理装置、画像処理方法及びプログラム
JP2013546092A (ja) * 2010-12-13 2013-12-26 ユニヴェルシテ パリ ディドロ−パリ セットゥ デジタル画像中のぼけを検出および定量化する方法
EP2709062A2 (en) 2012-09-13 2014-03-19 Omron Corporation Image processing device, image processing method, and computer readable medium
JP2014053737A (ja) * 2012-09-06 2014-03-20 Nippon Hoso Kyokai <Nhk> 映像合成装置及び映像合成プログラム
JP2014518049A (ja) * 2011-05-24 2014-07-24 クゥアルコム・インコーポレイテッド 画像キャプチャパラメータに基づくビデオ符号化の制御
KR20160089673A (ko) * 2015-01-20 2016-07-28 삼성전자주식회사 영상 처리 장치, 영상 촬영 장치, 영상 처리 방법 및 영상 촬영 장치의 제어 방법
JP2018112787A (ja) * 2017-01-06 2018-07-19 富士通株式会社 判定装置、判定方法、および判定プログラム
US10178406B2 (en) 2009-11-06 2019-01-08 Qualcomm Incorporated Control of video encoding based on one or more video capture parameters
JP2019096364A (ja) * 2019-03-18 2019-06-20 株式会社ニコン 画像評価装置
WO2019123554A1 (ja) * 2017-12-20 2019-06-27 日本電気株式会社 画像処理装置、画像処理方法、及び、記録媒体
JP2020170555A (ja) * 2020-07-13 2020-10-15 株式会社ニコン 画像評価装置、カメラおよびプログラム
US11521422B2 (en) 2020-03-10 2022-12-06 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for detecting body temperature, electronic apparatus and storage medium

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI389576B (zh) * 2009-07-02 2013-03-11 Mstar Semiconductor Inc 影像處理裝置以及影像處理方法
US20110287811A1 (en) * 2010-05-21 2011-11-24 Nokia Corporation Method and apparatus for an augmented reality x-ray
US9848106B2 (en) * 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
JP2013020335A (ja) * 2011-07-08 2013-01-31 Nikon Corp 画像分類方法
JP5826001B2 (ja) * 2011-11-30 2015-12-02 キヤノン株式会社 画像処理装置、及びその制御方法
KR101810876B1 (ko) * 2012-03-13 2018-01-26 삼성전자주식회사 타일 단위를 기반으로 큰 입력 영상의 비균일 모션 블러를 제거하는 방법 및 장치
CN103558996B (zh) * 2013-10-25 2017-06-16 广东欧珀移动通信有限公司 照片处理方法和系统
US9632803B2 (en) * 2013-12-05 2017-04-25 Red Hat, Inc. Managing configuration states in an application server
US10013639B1 (en) * 2013-12-16 2018-07-03 Amazon Technologies, Inc. Analyzing digital images based on criteria
JP6516025B2 (ja) * 2016-02-12 2019-05-22 ソニー株式会社 情報処理方法および情報処理装置
CN106131518A (zh) * 2016-06-30 2016-11-16 东莞市中控电子技术有限公司 一种图像处理的方法以及图像处理装置
CN107743200A (zh) * 2017-10-31 2018-02-27 广东欧珀移动通信有限公司 拍照的方法、装置、计算机可读存储介质和电子设备
US10440276B2 (en) * 2017-11-02 2019-10-08 Adobe Inc. Generating image previews based on capture information
US11611773B2 (en) * 2018-04-06 2023-03-21 Qatar Foundation For Education, Science And Community Development System of video steganalysis and a method for the detection of covert communications
US10915995B2 (en) * 2018-09-24 2021-02-09 Movidius Ltd. Methods and apparatus to generate masked images based on selective privacy and/or location tracking
CN109729272B (zh) * 2019-01-04 2022-03-08 平安科技(深圳)有限公司 一种拍摄控制方法、终端设备及计算机可读存储介质
CN109978833A (zh) * 2019-03-05 2019-07-05 上海扩博智能技术有限公司 图像质量自动检测方法、系统、设备及存储介质
US11755948B2 (en) * 2019-12-18 2023-09-12 Google Llc Attribution and generation of saliency visualizations for machine-learning models
WO2021236061A1 (en) * 2020-05-19 2021-11-25 Google Llc Debanding using a novel banding metric
CN113421197B (zh) * 2021-06-10 2023-03-10 杭州海康威视数字技术股份有限公司 一种美颜图像的处理方法及其处理系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148980A (ja) * 1998-11-12 2000-05-30 Fuji Photo Film Co Ltd 画像処理方法、画像処理装置及び記録媒体
JP2000350123A (ja) * 1999-06-04 2000-12-15 Fuji Photo Film Co Ltd 画像選択装置、カメラ、画像選択方法及び記録媒体
JP2004362443A (ja) * 2003-06-06 2004-12-24 Canon Inc パラメータ決定方式
JP2005332382A (ja) * 2004-04-22 2005-12-02 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2006050494A (ja) * 2004-08-09 2006-02-16 Casio Comput Co Ltd 画像撮影装置
JP2006115289A (ja) * 2004-10-15 2006-04-27 Canon Inc 削除候補画像を表示する撮像装置
JP2007251338A (ja) * 2006-03-14 2007-09-27 Casio Comput Co Ltd 撮像装置、撮像装置の記録方法及び撮像装置の記録プログラム
JP2007323509A (ja) * 2006-06-02 2007-12-13 Seiko Epson Corp 印刷装置、画像がぼやけているか否かを決定する方法、およびコンピュータプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3339191B2 (ja) * 1994-08-08 2002-10-28 ミノルタ株式会社 ブレ補正機能付カメラ
JP5098259B2 (ja) * 2006-09-04 2012-12-12 株式会社ニコン カメラ
JP4518131B2 (ja) * 2007-10-05 2010-08-04 富士フイルム株式会社 撮像方法及び装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000148980A (ja) * 1998-11-12 2000-05-30 Fuji Photo Film Co Ltd 画像処理方法、画像処理装置及び記録媒体
JP2000350123A (ja) * 1999-06-04 2000-12-15 Fuji Photo Film Co Ltd 画像選択装置、カメラ、画像選択方法及び記録媒体
JP2004362443A (ja) * 2003-06-06 2004-12-24 Canon Inc パラメータ決定方式
JP2005332382A (ja) * 2004-04-22 2005-12-02 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
JP2006050494A (ja) * 2004-08-09 2006-02-16 Casio Comput Co Ltd 画像撮影装置
JP2006115289A (ja) * 2004-10-15 2006-04-27 Canon Inc 削除候補画像を表示する撮像装置
JP2007251338A (ja) * 2006-03-14 2007-09-27 Casio Comput Co Ltd 撮像装置、撮像装置の記録方法及び撮像装置の記録プログラム
JP2007323509A (ja) * 2006-06-02 2007-12-13 Seiko Epson Corp 印刷装置、画像がぼやけているか否かを決定する方法、およびコンピュータプログラム

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10178406B2 (en) 2009-11-06 2019-01-08 Qualcomm Incorporated Control of video encoding based on one or more video capture parameters
JP2012105008A (ja) * 2010-11-09 2012-05-31 Casio Comput Co Ltd 画像処理装置及び方法、並びにプログラム
JP2013546092A (ja) * 2010-12-13 2013-12-26 ユニヴェルシテ パリ ディドロ−パリ セットゥ デジタル画像中のぼけを検出および定量化する方法
JP2014518049A (ja) * 2011-05-24 2014-07-24 クゥアルコム・インコーポレイテッド 画像キャプチャパラメータに基づくビデオ符号化の制御
JP2013029677A (ja) * 2011-07-28 2013-02-07 Marumi Koki Kk デジタルカメラ用ジオラマフィルター
JP2013045178A (ja) * 2011-08-22 2013-03-04 Fujitsu Ltd 画像処理装置、画像処理方法及びプログラム
JP2014053737A (ja) * 2012-09-06 2014-03-20 Nippon Hoso Kyokai <Nhk> 映像合成装置及び映像合成プログラム
EP2709062A2 (en) 2012-09-13 2014-03-19 Omron Corporation Image processing device, image processing method, and computer readable medium
US9152873B2 (en) 2012-09-13 2015-10-06 Omron Corporation Device and method for determining an optimum image
KR20160089673A (ko) * 2015-01-20 2016-07-28 삼성전자주식회사 영상 처리 장치, 영상 촬영 장치, 영상 처리 방법 및 영상 촬영 장치의 제어 방법
KR102301379B1 (ko) * 2015-01-20 2021-09-14 삼성전자주식회사 영상 처리 장치, 영상 촬영 장치, 영상 처리 방법 및 영상 촬영 장치의 제어 방법
JP2018112787A (ja) * 2017-01-06 2018-07-19 富士通株式会社 判定装置、判定方法、および判定プログラム
WO2019123554A1 (ja) * 2017-12-20 2019-06-27 日本電気株式会社 画像処理装置、画像処理方法、及び、記録媒体
JPWO2019123554A1 (ja) * 2017-12-20 2020-12-03 日本電気株式会社 画像処理装置、画像処理方法、及び、プログラム
US11462052B2 (en) 2017-12-20 2022-10-04 Nec Corporation Image processing device, image processing method, and recording medium
JP2019096364A (ja) * 2019-03-18 2019-06-20 株式会社ニコン 画像評価装置
US11521422B2 (en) 2020-03-10 2022-12-06 Baidu Online Network Technology (Beijing) Co., Ltd. Method and device for detecting body temperature, electronic apparatus and storage medium
JP2020170555A (ja) * 2020-07-13 2020-10-15 株式会社ニコン 画像評価装置、カメラおよびプログラム

Also Published As

Publication number Publication date
US20110116726A1 (en) 2011-05-19
US8300972B2 (en) 2012-10-30
CN101685542A (zh) 2010-03-31
JP4840426B2 (ja) 2011-12-21
CN101685542B (zh) 2012-07-18

Similar Documents

Publication Publication Date Title
JP4840426B2 (ja) 電子機器、ぼけ画像選別方法及びプログラム
KR101605983B1 (ko) 얼굴 검출을 이용한 이미지 재구성
JP4862930B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5744437B2 (ja) 追尾装置、追尾方法及びプログラム
KR101688753B1 (ko) 관련된 사진들의 그룹화
US8681257B2 (en) Image processing apparatus, control method, and storage medium for editing layout positions of image data
JP2005303991A (ja) 撮像装置、撮像方法、及び撮像プログラム
JP2011010275A (ja) 画像再生装置及び撮像装置
JPWO2008044524A1 (ja) 画像分類プログラム、画像分類装置および電子カメラ
US20120314951A1 (en) Image processing system and image processing method
JP2006259788A (ja) 画像出力装置
JP6261205B2 (ja) 画像処理装置
JP5504990B2 (ja) 撮像装置、画像処理装置及びプログラム
US9626932B2 (en) Image processing apparatus, image processing method and recording medium recording program for correcting image in predetermined area
JP5381498B2 (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
JP6590681B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2009245406A (ja) 画像処理装置およびそのプログラム
JP5287965B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5631181B2 (ja) 画像処理装置及びその制御方法、及びプログラム
JP4966167B2 (ja) 画像評価装置及びこの画像評価装置を有するカメラ
CN110222207B (zh) 图片的整理方法、装置和智能终端
JP5665380B2 (ja) 画像処理装置、画像処理装置の制御方法、プログラム、及び記録媒体
WO2011086901A1 (ja) 画像処理装置、撮像装置、および画像処理プログラム
WO2011024356A1 (ja) 半導体集積回路および静止画像表示方法
JP5499818B2 (ja) 画像処理装置及び方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110919

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141014

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees