JP2014165666A - 画像処理装置、撮像装置及び画像処理プログラム - Google Patents

画像処理装置、撮像装置及び画像処理プログラム Download PDF

Info

Publication number
JP2014165666A
JP2014165666A JP2013035000A JP2013035000A JP2014165666A JP 2014165666 A JP2014165666 A JP 2014165666A JP 2013035000 A JP2013035000 A JP 2013035000A JP 2013035000 A JP2013035000 A JP 2013035000A JP 2014165666 A JP2014165666 A JP 2014165666A
Authority
JP
Japan
Prior art keywords
image data
text
unit
feature information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013035000A
Other languages
English (en)
Inventor
Hiroko Kobayashi
寛子 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013035000A priority Critical patent/JP2014165666A/ja
Publication of JP2014165666A publication Critical patent/JP2014165666A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】画像データから、当該画像データを見た際に人間が生じる感性に対して良好な整合性を有するテキストを生成し得る画像処理装置を提供する。
【解決手段】
画像データ(60)から、主要被写体像を含む主要領域(60A)を抽出する領域抽出部(44)と、前記主要領域の所定の特徴に関する第1特徴情報(A)と、前記画像データから前記主要領域を除いた非主要領域の前記所定の特徴に関する第2特徴情報(B)とを抽出する特徴抽出部(45)と、前記第1特徴情報と前記第2特徴情報とを用いてテキストを生成し、前記画像データと関連付けるテキスト生成部(54)と、を有する画像処理装置。
【選択図】図2

Description

本発明は、画像データからテキストを生成する画像処理装置、撮像装置及び画像処理プログラムに関する。
画像データを解析した解析結果と、画像データに含まれる撮像情報等に基づいて、画像データに対するテキストを作成する技術が提案されている(特許文献1等参照)。また、近年では、複数のバリエーションを有するコメントリストを用意するなどして、ユーザーの感覚と整合性の高いテキストを作成する技術が提案されている。
また、テキスト作成のために有用と考えられる画像データの解析手法としては、例えば顔認識や色情報の抽出等が挙げられる。
特開2010−206239号公報
色情報の解析結果からテキストを生成する技術は、撮影者及び画像の観察者の感性に近いテキストを自動で付与するために有効な手段ではあるものの、色情報の抽出のみでは、撮影者等の感性に近いテキストを作成することが困難な場合もある。例えば、画像データから抽出された色が暗い色である場合には、撮影者の感性が、抽出された暗い色から連想されるイメージと整合しない場合も多く、課題を有している。
そこで本発明の目的は、画像データから、当該画像データを見た際に人間が生じる感性に対して良好な整合性を有するテキストを生成し得る画像処理装置を提供することである。
上記目的を達成するために、本発明に係る画像処理装置は、
画像データから、主要被写体像を含む主要領域を抽出する領域抽出部と、
前記主要領域の所定の特徴に関する第1特徴情報と、前記画像データから前記主要領域を除いた非主要領域の前記所定の特徴に関する第2特徴情報とを抽出する特徴抽出部と、
前記第1特徴情報と前記第2特徴情報とを用いてテキストを生成し、前記画像データと関連付けるテキスト生成部と、を有する。
また、例えば、前記所定の特徴は、エッジ量と、前記画像データにおける位置と、明るさと、のうち少なくとも一つを含んでも良い。
また、例えば、前記所定の特徴は、前記主要領域及び前記非主要領域に含まれるエッジ量を含んでも良く、
前記テキスト生成部は、前記第1特徴情報と前記第2特徴情報の差に応じて、生成する前記テキストを変化させても良い。
また、例えば、前記所定の特徴は、前記主要領域及び前記非主要領域に含まれるエッジ量を含んでも良く、
前記テキスト生成部は、前記第1特徴情報が第1の閾値より大きいか又は前記第2特徴情報が第2の閾値より大きい場合には第1の辞書を用いて前記テキストを生成し、前記第1特徴情報が前記第1の閾値より小さくかつ前記第2特徴情報が前記第2の閾値より小さい場合には前記第1の辞書とは異なる第2の辞書を用いて前記テキストを生成しても良い。
また、例えば、前記テキスト生成部は、前記第1特徴情報と前記第2特徴情報から、前記画像データを撮影した撮影者の撮影スキルを判定し、前記撮影スキルを示す前記テキストを生成してもよい。
本発明に係る撮像装置は、上記のうちいずれかの画像処理装置と、被写体を撮像して前記画像データを生成する撮像部と、を有する。
本発明に係る画像処理プログラムは、コンピュータに、
画像データから、主要被写体像を含む主要領域と、前記主要被写体像の周辺の像を含む非主要領域とを抽出する処理と、
前記主要領域の所定の特徴に関する第1特徴情報と、前記非主要領域の前記所定の特徴に関する第2特徴情報とを抽出する処理と、
前記第1特徴情報と前記第2特徴情報とを用いてテキストを生成し、前記画像データと関連付ける処理と、を実行させる。
図1は、本発明の一実施形態に係る撮像装置の概略ブロック図である。 図2は、図1に示す撮像装置に含まれる画像処理部の内部構成を表す概略ブロック図である。 図3は、図2に示す画像処理部において行われるテキスト生成処理の全体像を表すフローチャートである。 図4は、図3に示す「その他写真」サブルーチンの内容を表すフローチャートである。 図5は、図4に示す「その他写真」サブルーチンの変形例を表すフローチャートである。 図6は、図2に示す画像処理部による処理の一例を表す概念図である。 図7は、図2に示す画像処理部によって生成されたテキスト及びその画像データの一例を表す概念図である。 図8は、図3又は図4のフローチャートに含まれる処理内容を表す概念図である。 図9は、図2に示す記憶部に保存された辞書の内容の一例を示す概念図である。 図10は、図2に示す記憶部に保存された辞書の内容の他の一例を示す概念図である。
図1は、本発明の一実施形態に係る撮像装置10の概略ブロック図である。撮像装置10は、撮像部12、カメラ制御部20、操作部22、画像処理部40、表示部26、記憶部28、バッファメモリ部30、通信部32、メモリカード(記憶媒体)34等を有しており、各部分は、バス24を介して相互に通信することができる。
撮像部12は、光学系14、撮像素子16、A/D変換部18等を有しており、画像データを生成する。光学系14は、1又は2以上のレンズを備え、レンズに入射した光の像を、撮像素子16の受光面に形成する。
撮像素子16は、例えばCCDやCMOS等の固体撮像素子によって構成され、光学系14を介して受光面に結像した光学像を、電気信号に変換する。撮像素子16は、生成した電気信号を、A/D変換部18に出力する。A/D変換部18は、撮像素子16によって生成された電気信号に対して、アナログ/デジタル変換等を行い、カメラ制御部20及び画像処理部40等で処理可能な画像データを生成する。
撮像部12による画像データの生成動作は、カメラ制御部20によって制御される。例えば、撮像部12は、カメラ制御部20による制御により、操作部22等を介して撮影信号が入力されたタイミングで撮像素子16による光電変換を行い、いわゆる静止画の画像データを生成することができる。また、撮像部12は、カメラ制御部20による制御により、操作部22等を介して動画撮影開始信号が入力されたタイミングで、連続的な光電変換を行い、いわゆる動画の画像データを生成することができる。
撮像部12で生成された画像データは、カメラ制御部20の制御により、バッファメモリ部30及び画像処理部40を介して、メモリカード34に保存される。なお、撮像部12は、操作部22等からの操作信号が入力されていない状態で、自動的に画像データの生成を行い、いわゆるスルー画の画像データを生成することもできる。この場合、撮像部12で生成されたスルー画の画像データは、カメラ制御部20の制御により、表示部26に表示される。
画像処理部40は、メモリカード34又はバッファメモリ部30に記憶されている画像データに対して、各種の画像処理を実行する。画像処理部40は、撮像部12で生成された静止画、動画、スルー画等について画像処理を行う他、メモリカード34等に保存されている撮像部12以外で生成された画像データについても、画像処理を行うことができる。画像処理部40は、各種補正処理や、データの圧縮及び変換、顔認識や色の抽出などを行うことができるが、画像処理部40の詳細については、後ほど述べる。
表示部26は、液晶ディスプレイ等で構成されており、カメラ制御部20の制御に従って、画像データや、操作メニュー等を表示する。また、表示部は、画像処理部40によるテキスト生成処理によって生成されたテキストを、画像データに重ねて表示することができる。記憶部28には、撮像装置10の制御に用いる撮影条件、画像処理条件、再生制御条件、表示制御条件、記録制御条件、入出力制御条件や、テキストの生成に用いる辞書(テキスト集)など、各種の情報が記憶されている。カメラ制御部20や画像処理部40は、必要に応じて、記憶部28に記憶されている情報を読み出し、演算処理に利用することができる。記憶部28は、ROM等によって構成される。
バッファメモリ部30は、カメラ制御部20及び画像処理部40が演算処理を実施する際の作業領域として利用される。例えば、画像処理部40が画像データに対して画像処理を行う場合、処理の対象となる画像データは、記憶媒体から読み出され、バッファメモリ部30に一次的に格納される。バッファメモリ部30は、RAM等によって構成される。
操作部22は、操作者が撮像装置10に対して情報を入力するためのスイッチ等を有している。操作部22は、電源スイッチ、レリーズスイッチ、モードスイッチ、メニュースイッチ、選択キー等を備えており、操作者の操作に対応した信号を、カメラ制御部20に出力する。
通信部32は、メモリカード34を取り付けるスロットや、他の情報機器と通信を行うための送受信部等を有しており、撮像装置10は、通信部32を介して、メモリカード34や他の情報機器から情報を取得できる。また、カメラ制御部20は、通信部32を介してメモリカード34に画像データを出力し、メモリカード34に画像データを保存することができる。
メモリカード34は、通信部32を介して着脱自在に接続される記憶媒体であり、撮像部12で生成された画像データ等を記憶することができる。メモリカード34に保存される画像データの形式は特に限定されないが、例えば画像データは、イグジフ(Exif)形式のファイルとして、メモリカード34に保存される。
カメラ制御部20は、撮像装置10が備えている各部分の制御を行う。例えば、カメラ制御部20には、電源部(不図示)が接続されており、カメラ制御部20は、撮像装置10内の各部分に対して適切に電力が供給されるように、制御を行う。カメラ制御部20は、例えばマイクロプロセッサ等によって構成される。なお、カメラ制御部20と画像処理部40の演算処理は、共通のマイクロプロセッサで行われても良く、また別個の電子回路で行われても良い。
図2は、図1に示す画像処理部40に含まれる処理部を、ブロック図で表したものである。画像処理部40は、画像データ入力部42と、解析部43と、テキスト生成部50と、文章付加部56とを有する。画像処理部40は、図1に示す撮像部12等で生成された画像データについて、各種の解析処理を行うことにより、画像データの内容に関する各種の情報を取得し、画像データの内容と整合性の高いテキストを作成し、画像データにテキストを付加することができる。
図2に示す画像データ入力部42は、メモリカード34又はバッファメモリ部30に格納されている画像データを読み出し、解析部43に出力する。
解析部43は、領域抽出部44、特徴抽出部45及び色情報抽出部49を有しており、画像データに対して解析処理を行う。
領域抽出部44は、画像データから、主要被写体像を含む主要領域を抽出する。領域抽出部44によって抽出される主要領域は、撮影者が注目したか、若しくは画像の鑑賞者が注目する可能性が高いと推認される表示部分に対応する領域であることが好ましい。例えば、領域抽出部44は、画像中のどの部分にピントが合っているかを検出し、ピントが合っている被写体の表示部分に対応する領域を、主要領域とすることができる。また、例えば、領域抽出部44は、画像データから人物の顔が表示される領域を抽出し、その領域を主要領域としても良い。領域抽出部44が画像データから主要領域を抽出した場合、画像データから主要領域を除いた残部を、非主要領域とすることができる。領域抽出部44が抽出する主要領域は、連続しない複数の部分に分かれていても良く、また、非主要領域も、画像データから主要領域を除いた残部すべてである必要はなく、残部の一部であっても良い。なお、領域抽出部44は、画像データが主要領域を含まない旨の判断を行うこともできる。
特徴抽出部45は、画像データにおけるエッジ量、主要領域又は非主要領域の相対位置、明るさなど、色(色相)以外の所定の特徴を、画像データから抽出する。特徴抽出部45は、画像データ全体の特徴に関する全体特徴情報だけでなく、領域抽出部で抽出された主要領域の所定の特徴に関する第1特徴情報や、非主要領域の第2特徴情報を、抽出することができる。第1特徴情報と第2特徴情報は、少なくとも1つの共通の特徴(例えばエッジ量)に関する情報を含むことが好ましいが、第1特徴情報に含まれる特徴と第2特徴情報に含まれる特徴の間に、違いがあってもかまわない。特徴抽出部45は、画像データのエッジ情報を抽出するエッジ情報抽出部46と、画像データの明るさに関する情報を抽出する明るさ情報抽出部47と、画像データの構図に関する情報を抽出する構図情報抽出部48とを有する。
エッジ情報抽出部46は、画像データに含まれるエッジ量及びエッジ分布等に関するエッジ情報を得る。エッジ情報抽出部46によるエッジ情報の算出方法は特に限定されないが、例えば画像データに含まれる各画素の輝度値やRGB値等を取得し、当該取得した輝度値又はRGB値等の勾配を算出した後、当該勾配が所定の閾値以上となる部分をエッジとして抽出することにより、画像データのエッジ量を得ることができる。また、エッジ情報抽出部46は、画像データ全体に対してだけでなく、領域抽出部44等で抽出された領域毎に、エッジ情報の抽出を実施することができる。例えば、エッジ情報抽出部46は、画像データ全体のエッジ量と、主要領域のエッジ量と、非主要領域のエッジ量とを個別に算出することができる。エッジ情報抽出部46で得られたエッジ情報は、テキスト生成部50へ送られる。
明るさ情報抽出部47は、画像データの輝度や明度など、画像データの明るさに関する明るさ情報を抽出し、テキスト生成部50へ出力する。明るさ情報抽出部47による情報の抽出方法は特に限定されないが、画像データに含まれる各画素の輝度値を集計し、平均値や最頻値等の代表値を得ることにより行うことができる。明るさ情報抽出部47も、エッジ情報抽出部46と同様に、画像データ全体に対してだけでなく、領域抽出部44等で抽出された領域毎に、明るさ情報の抽出を実施することができる。
構図情報抽出部48は、主要領域の配置、全体に占める割合、主要領域と非主要領域の相対位置など、画像データの構図に関する情報を抽出し、テキスト生成部50へ出力する。
色情報抽出部49は、画像データの色(色相以外の要素を含む)に関する情報を抽出し、または、抽出した情報を元に更に演算処理を行うことにより、色情報を得ることができる。色情報抽出部49による色情報の種別、算出方法等は特に限定されないが、画像データに含まれる各画素のHSV値を集計したものや、集計したHSV値から算出された代表色などが、色情報に含まれる。ただし、色情報抽出部49が色情報を算出する際における解像度は、演算処理の負担等を考慮して適宜変更すれば良く、また、色空間の種類もHSVに限られず、RGB、CMY、CMYK等であっても良い。また、色情報抽出部49も、特徴抽出部45と同様に、画像データ全体に対してだけでなく、領域抽出部44等で抽出された領域毎に、色情報の抽出を実施することができる。さらに、色情報抽出部49による代表色の算出方法も特に限定されないが、たとえば色情報抽出部49は、各画素のHSV値等に対してk-means法(k平均法)によるクラスタリング(クラスタ分析)を実施し、クラスタリングの結果に基づき画像データ全体または各領域の代表色を算出することができる。色情報抽出部49で得られた色情報は、第1特徴情報や第2特徴情報と同様に、テキスト生成部50へ送られる。
テキスト生成部50は、解析部43等から送信された情報を用いてテキストを生成し、生成したテキストと画像データとを関連づける。特に、テキスト生成部50は、特徴抽出部45で抽出された第1特徴情報と第2特徴情報を用いてテキストを生成することが可能であるが(スキル判定テキスト生成部54参照)、これ以外にも、色情報抽出部49による色情報や、その他の情報を用いてテキストを生成することができる。テキスト生成部50は、笑顔度テキスト生成部52と、色形容テキスト生成部53と、スキル判定テキスト生成部54とを有する。
笑顔度テキスト生成部52は、解析部43によって取得された情報を用いて、対象となる画像データが人物写真であると判断された際(図3のステップS004)等に、被写体像である人物の笑顔レベルに応じたテキストを生成する。なお、人物写真における笑顔レベルは、顔における口角部分の上がり具合を数値化することにより、解析部43によって算出されるが、笑顔レベルの具体的算出方法は特に限定されず、顔認識等に関する公知の技術を用いることができる。
色形容テキスト生成部53は、色情報抽出部49で取得された色情報を反映したテキストを生成する。例えば、テキスト生成部50及び色形容テキスト生成部53は、画像データ又は領域の代表色が、CCIC表色系等のカラーチャートのどのエリアに属するかを判断し、さらに特徴抽出部45からの情報やExifファイル等に保存される撮影情報を併せて用いることで、対象である画像データの撮影シーンを決定する。さらに、色形容テキスト生成部53は、決定された撮影シーンに対応する辞書から、単語又は文書を選択し、テキストを生成する。撮影シーン及びこれに対応する辞書は特に限定されないが、たとえば図9に示すように、「夕焼け」、「紅葉」、「夜景」、「イルミネーション」、「青空」の撮影シーンに対応する辞書が記憶部28等に記憶されており、色形容テキスト生成部53は、これらの撮影シーンのうち、いずれか1つから連想される単語を含むテキストを生成可能である。なお、色形容テキスト生成部53は、「赤」、「青い」のような色情報から直接連想される単語を用いることにより、撮影シーンの分析を経ずにテキストを生成することも可能である。
スキル判定テキスト生成部54は、主要領域の特徴に関する第1特徴情報と、非主要領域の特徴に関する第2特徴情報から、画像データを撮影した撮影者の撮影スキルを判定し、撮影者の撮影スキルを示すテキストを生成する。スキル判定テキスト生成部54は、例えば、エッジ情報抽出部46によって抽出された主要領域のエッジ量A(第1特徴情報に相当)及び非主要領域のエッジ量B(第2特徴情報に相当)や、明るさ情報抽出部47によって抽出された主要領域の明るさC(第1特徴情報に相当)及び非主要領域の明るさD(第2特徴情報に相当)を用いて、撮影者の撮影スキルを判定できる(図8(A)及び(C)参照)。スキル判定テキスト生成部54は、決定された撮影スキルに対応する辞書から、単語又は文書を選択し、テキストを生成する。撮影スキルの分類方法及び特定の撮影スキルに対応する辞書は特に限定されないが、たとえば図10に示すように、「ナイスショット」、「ブレ・ボケ」、「明るすぎ」、「暗すぎ」、「構図が悪い」などの撮影スキルに対応する辞書が記憶部28等に記憶されており、スキル判定テキスト生成部54は、判定した撮影スキルに対応するテキストを生成可能である。また、スキル判定テキスト生成部54は、撮影スキルの判定結果を数値化することも可能であり、図10の「点数」辞書を用いて、撮影スキルの採点結果を示すテキストを生成することもできる。
テキスト生成部50及びこれに含まれる笑顔度テキスト生成部52、色形容テキスト生成部53、スキル判定テキスト生成部54は、画像データを表示部26(図1参照)に表示させる際に、カメラ制御部20が当該画像データに対応するテキストを読み出せるように、画像データと関連づけて、生成したテキストをメモリカード34等に保存できる。また、テキスト生成部50は、生成したテキストを文章付加部56に出力する。
文章付加部56は、テキスト生成部50によって生成されたテキストを、画像データに付与する。具体的には、文章付加部56は、テキストのフォント、色、表示位置などを決定し、画像データとテキストを合成した表示内容に関する情報を生成する。文章付加部56は、画像データとテキストを合成した新たな画像データを生成してもよく、合成画像を表示する際に画像データに追加される表示情報及び画像データとの関連付け情報を含むファイルを生成しても良い。文章付加部56は、必要に応じて、画像データとテキストを合成した表示内容を表示部26に表示させても良く、生成した新たな画像データ及び情報ファイルを、メモリカード34に記憶させても良い。
以下に、画像処理部40において行われる処理の具体例を説明するが、本発明はこれに限定されない。
図3は、図2に示す画像処理部40において行われるテキスト生成処理の全体像を表すフローチャートである。図3におけるステップS001では、操作部22等を介して操作者の入力信号を検知したカメラ制御部20等が、画像処理部40に対して、テキスト生成処理に関する画像処理の開始を指示する(図1参照)。
ステップS002では、図2に示す画像データ入力部42が、操作部22及び表示部26の表示内容を介して取得した操作者の選択内容に従い、メモリカード34に格納されている画像データを読み出し、解析部43に出力する。以下の説明では、図6(A)に示すような画像データ60が、テキスト生成処理の対象となった場合を例に説明を行う。また、ステップS002では、図2に示す画像データ入力部42が、画像データ60とともにイグジフファイル等に保存されている撮影情報を読み出し、テキスト生成部50に出力しても良い。
ステップS003では、読み出した画像データ60が人物写真であるか否かを、解析部43及びテキスト生成部50が判断する。例えば、解析部43は、画像データ60の中に人物の顔が写っている領域が所定の態様で含まれるか否かを検出し、当該解析結果を基に、テキスト生成部50は、画像データ60が人物写真であるか否かを判断する。今回の例では、解析部43は、画像データ60から人物の顔が写っている領域を検出せず、これを受けたテキスト生成部50は、画像データ60を人物写真でないと判断し、ステップS005へ進む。なお、解析部43が画像データから人物の顔が写っている領域を検出し、テキスト生成部50が処理の対象となる画像データを人物写真であると判断した場合は、ステップS004へ進む。ステップS004では、テキスト生成部50における笑顔度テキスト生成部52が、解析部43によって検出された人物の顔の笑顔レベル等を用いて、テキストを生成する。ステップS003における人物写真の判定については、笑顔レベルの判定と同様に、顔認識に関する周知の技術を用いることができる。
ステップS005では、画像データ60が遠景写真であるか否かを、解析部46及びテキスト生成部50が判断する。解析部43は、色情報抽出部49によって抽出された画像データ60の輝度分布や、エッジ情報抽出部46によって抽出された画像データ60のエッジ分布の傾向から、画像データ60を、空が映っている上部領域(比較的明るく、エッジが少ない傾向)と地上が写っている下部領域(比較的暗く、エッジが多い傾向)に分割することを試みる。解析部43は、画像データを上部領域と下部領域に分割できる境界を検出した場合、上部領域と下部領域の間で輝度分布又はエッジ量に所定の閾値を超える差異が認められるか否かをさらに検出し、当該差異を認めた場合は画像データを遠景写真であると判断する。今回の例では、解析部43は、画像データ60を上部領域と下部領域に分割できず、これを受けたテキスト生成部50は、画像データ60を遠景写真でないと判断し、ステップS007へ進む。なお、解析部43が画像データを遠景写真であると判断した場合は、ステップS006へ進む。ステップS006では、色情報抽出部49が画像データの色情報を抽出し、抽出された色情報から色形容テキスト生成部53が撮影シーンを特定し、各撮影シーンに対応する辞書(図9参照)を用いてテキストを生成する。
図4は、図3に示すその他写真サブルーチン(図3のステップS007)の処理内容を表すフローチャートである。その他写真サブルーチンでは、まず、解析部43及びテキスト生成部50が、画像データ60に主要領域60Aが有るか否かを判断する。具体的には、解析部43の領域抽出部44が、画像データ60から主要被写体像を含む主要領域60Aの抽出を試み、主要領域60Aの抽出に成功した場合は、画像データ60には主要領域が有ると判断し、主要領域の抽出に失敗した場合は、画像データ60には主要領域が無いと判断する。今回の例では、図6(B)に示すように、エッジ領域抽出部44が画像データ60のエッジ情報(エッジ分布)を抽出し、当該エッジ情報を受信したテキスト生成部50は、エッジが集中している画像データ60の左上部分を主要領域60Aであると認識し、画像データ60には主要領域が存在すると判断する。この際、テキスト生成部50は、画像データ60から主要領域60Aを除いた残部を、非主要領域60Bであると認識する。なお、画像データ60に主要領域が無いと判断した場合には、ステップS106へ進み、図3におけるステップS006と同様に、色形容テキスト生成部53が画像データの撮影シーンを特定し、各撮影シーンに対応する辞書(図9参照)を用いてテキストを生成する。
図4に示すように、ステップS101において画像データ60に主要領域60Aが有ると判断した場合、ステップS102へ進む。ステップS102では、解析部43及びテキスト生成部50が、特徴抽出部45で抽出した第1特徴情報及び第2特徴情報を用いて、図8(A)に示す「ナイスショット判定」を画像データ60に対して実施する。具体的には、まず、解析部43におけるエッジ情報抽出部46が、主要領域60Aのエッジ量Aを第1特徴情報として抽出し、非主要領域60Bのエッジ量Bを第2特徴情報として抽出して、第1特徴情報及び第2特徴情報をテキスト生成部50に出力する。次に、テキスト生成部50のスキル判定テキスト生成部54は、第1特徴情報であるエッジ量Aと第2特徴情報であるエッジ量Bの差と、所定の閾値αとを比較し、エッジ量Aとエッジ量Bの差(A−B)が、閾値αより大きい場合には、画像データ60を「ナイスショット」であると判定して、ステップS103へ進む。なお、「ナイスショット判定」における閾値αは特に限定されないが、例えば、対象となる画像の主要被写体像のエッジが、その周辺の像のエッジに比べて明確に強調されているとの印象を、一般的な観察者に与えると推定される値に基づき、設定することができる。
ステップS103では、テキスト生成部50のスキル判定テキスト生成部54がテキストを生成し、画像データ60と関連づけて保存する。画像データ60は、ステップS102において「ナイスショット」であると認定されているため、スキル判定テキスト生成部54は、図10に示す「ナイスショット」辞書に含まれる単語又は文書のうち1つを選択し、それを画像データ60に対応するテキストであると決定する。スキル判定テキスト生成部54が生成したテキストは、文章付加部56に出力され、テキストの表示方法(表示位置、フォント等)が決定された後、画像データ60と関連づけてメモリカード34等に保存される。また、テキスト生成部50は、スキル判定テキスト生成部54が撮影スキルに対応するテキストを生成するのに加えて、Exifファイルから読み出された撮影情報等に基づき、画像の撮影日等に関するテキストを生成し、画像データ60に関連づけて保存しても良い。
ステップS103の後、ステップS107へ進んでその他写真サブルーチンを終了し、さらに図3のステップS008へ進むことにより、画像処理部40は、一連のテキスト生成処理を終了する。図6(C)は、上述した具体例に係るテキスト生成処理で生成されたテキスト「絶妙なボケ味・・・」と、画像の生成日を表すテキスト「(2011/08/16)」が、画像データ60と伴に表示部26に表示された状態を表している。このように、画像処理部40は、特徴抽出部45が抽出した第1特徴情報と第2特徴情報を用いることにより、色相を含む色情報や、当該色情報に基づき推定された撮影シーン等からテキストを生成する従来の手法とは異なり、被写体像や撮影シーンが想定外であるような場合にでも、撮影者や観察者の感性に適合するテキストを生成することができる。
図4のステップS102へ戻り、画像データ60が「ナイスショット」でないと判定される場合について説明する。ステップS102において、エッジ量Aとエッジ量Bの差(A−B)が閾値α以下である場合には、スキル判定テキスト生成部54は、画像データ60は「ナイスショット」ではないと判定し、ステップS104へ進む。ステップS104では、解析部43及びテキスト生成部50が、特徴抽出部45で抽出した第1特徴情報及び第2特徴情報を用いて、画像データ60に対して図8(A)に示す「ブレ・ボケ判定」を実施する。具体的には、スキル判定テキスト生成部54が、解析部43のエッジ情報抽出部46によって抽出された主要領域60Aのエッジ量A(第1特徴情報)及び非主要領域60Bのエッジ量B(第2特徴情報)を、所定の閾値β1,β2と比較する。スキル判定テキスト生成部54は、エッジ量Aが閾値β1(第1の閾値)より大きいか、又はエッジ量Bが閾値β2(第2の閾値)より大きい場合は、画像データ60を「ブレ・ボケ」ではないと判定して、ステップS106へ進む(ステップS106の処理は先に説明済み)。これに対して、スキル判定テキスト生成部54は、エッジ量Aが閾値β1より小さくかつエッジ量Bが閾値β2より小さい場合には、画像データ60を「ブレ・ボケ」であると判定して、ステップS105へ進む。なお、「ブレ・ボケ」判定における閾値β1,β2は特に限定されないが、例えば、一般的な観察者が失敗画像であるとの印象を持つと推定される値に基づき、設定することができる。
ステップS105では、テキスト生成部50のスキル判定テキスト生成部54がテキストを生成し、画像データ60と関連づけて保存する。画像データ60は、ステップS104において「ブレ・ボケ」であると認定されたため、スキル判定テキスト生成部54は、ステップS106で用いられる撮影シーンに対応する辞書(第1の辞書(図9参照))とは異なる「ブレ・ボケ」辞書(第2の辞書(図10参照))を用いて、テキストを生成する。テキスト生成後の処理は、ステップS103と同様である。
このように、画像処理部40は、特徴抽出部45が抽出した第1特徴情報と第2特徴情報を用いてテキストを生成するため、画像の色合いがどのようなものであってもそれと関係なく、撮影者や観察者の感性に適合するテキストを生成することができる。また、画像処理部40は、第1特徴情報と第2特徴情報を用いて撮影者の撮影スキルを判定し、撮影スキルを示すテキストを生成するため、撮影者が抱く良い写真を撮りたいと思う気持ちに適合するテキストを生成することができる。また、画像処理部40は、被写体像や撮影シーンに関係なくテキストを生成できるので、従来の手法で撮影シーン等を特定できなかった画像データについて本実施形態のテキスト生成処理を適用することにより、撮影者や観察者の感性に適合しないテキストを生成してしまったり、テキストを生成できずに処理を終了してしまう頻度を、減少させることができる。
上述の実施形態で説明したテキスト生成処理における判定内容や、テキストを選択又は決定する際の処理は一例にすぎず、発明の要旨を逸脱しない範囲内において様々な態様で実施し得ることは勿論である。例えば、ステップS102で行われる「ナイスショット判定」及びステップS104で行われる「ブレ・ボケ判定」は、図8(C)に示す「明るすぎる判定」及び「暗すぎる判定」に置き換えることが可能である。「明るすぎる判定」及び「暗すぎる判定」では、解析部43における明るさ情報抽出部47によって抽出された主要領域の明るさC(第1特徴情報)及び非主要領域の明るさD(第2特徴情報)を、スキル判定テキスト生成部54が所定の閾値γ1〜γ4と比較する。「明るすぎる判定」により明るすぎると判定された画像データに対しては、スキル判定テキスト生成部54が図10に示す「明るすぎる」辞書を用いてテキストを生成する。また、「暗すぎる判定」により暗すぎると判定された画像データに対しては、スキル判定テキスト生成部54が図10に示す「暗すぎる」辞書を用いてテキストを生成する。なお、図8(C)に示す「明るすぎる判定」及び「暗すぎる判定」は、「ナイスショット判定」及び「ブレ・ボケ判定」の後に追加する態様で実施することも可能である。
また、図4に示すその他写真サブルーチン全体を、図5に示す態様に変更しても良い。図5に示す例では、ステップS101において画像データ60に主要領域が有ると判断した場合、ステップS108へ進む。ステップS108では、まず、解析部43及びテキスト生成部50が、特徴抽出部45で抽出した第1特徴情報及び第2特徴情報を用いて、図8(B)に示す「採点処理」を実施する。「採点処理」では、処理の対象となる画像データに対して、主要領域60Aのエッジ量A(第1特徴情報)と非主要領域60Bのエッジ量B(第2特徴情報)の差(A−B)に応じた点数を付与する。さらに、テキスト生成部50のスキル判定テキスト生成部54は、図10に示す「点数」辞書に含まれる文章から1つを選択し、文章中の空欄に「採点処理」で得られた点数をあてはめることにより、テキストを生成する。
図7は、図5に示すステップS108で生成されたテキスト「採点結果は98点です!」が、画像データ60と伴に表示部26に表示された状態を表している。このようなテキスト生成処理を行う画像処理部40は、被写体像や撮影シーンの種類に関係なく、撮影者や観察者の感性に適合するテキストを生成することができる。また、画像処理部40は、撮影スキルを示すテキストを生成することにより、撮影者の撮影スキルの向上を支援することができる。なお、スキル判定テキスト生成部54が画像データを採点する場合には、エッジ情報抽出部46で抽出されたエッジ情報だけでなく、明るさ情報抽出部47で抽出された明るさ情報や、構図情報抽出部48で抽出された構図情報等を考慮しても良い。
上述の実施形態及び実施例では、画像処理部40を備える撮像装置10を例に挙げて、画像処理装置の説明を行ったが、画像処理部40を備える画像処理装置はこれに限定されず、パーソナルコンビュータ、携帯電話等、撮像部を必ずしも有しない装置であっても良い。また、画像データからテキストを生成するプログラムは、撮像装置10だけでなく、画像処理を実施するその他の情報機器にも、実装することができる。
10…撮像装置
12…撮像部
14…光学系
16…撮像素子
18…A/D変換部
20…カメラ制御部
22…操作部
24…バス
26…表示部
28…記憶部
30…バッファメモリ部
32…通信部
34…メモリカード
40…画像処理部
43…解析部
44…領域抽出部
45…特徴抽出部
46…エッジ情報抽出部
47…明るさ情報抽出部
48…構図情報抽出部
49…色情報抽出部
50…テキスト生成部
52…笑顔度テキスト生成部
53…色形容テキスト生成部
54…スキル判定テキスト生成部
56…文章付加部
60…画像データ
60A…主要領域
60B…非主要領域

Claims (7)

  1. 画像データから、主要被写体像を含む主要領域を抽出する領域抽出部と、
    前記主要領域の所定の特徴に関する第1特徴情報と、前記画像データから前記主要領域を除いた非主要領域の前記所定の特徴に関する第2特徴情報とを抽出する特徴抽出部と、
    前記第1特徴情報と前記第2特徴情報とを用いてテキストを生成し、前記画像データと関連付けるテキスト生成部と、を有する画像処理装置。
  2. 請求項1に記載された画像処理装置であって、
    前記所定の特徴は、エッジ量と、前記画像データにおける位置と、明るさと、のうち少なくとも一つを含むことを特徴とする請求項1に記載の画像処理装置。
  3. 請求項1又は請求項2に記載された画像処理装置であって、
    前記所定の特徴は、前記主要領域及び前記非主要領域に含まれるエッジ量を含み、
    前記テキスト生成部は、前記第1特徴情報と前記第2特徴情報の差に応じて、生成する前記テキストを変化させることを特徴とする画像処理装置。
  4. 請求項1から請求項3までのいずれか1項に記載された画像処理装置であって、
    前記所定の特徴は、前記主要領域及び前記非主要領域に含まれるエッジ量を含み、
    前記テキスト生成部は、前記第1特徴情報が第1の閾値より大きいか又は前記第2特徴情報が第2の閾値より大きい場合には第1の辞書を用いて前記テキストを生成し、前記第1特徴情報が前記第1の閾値より小さくかつ前記第2特徴情報が前記第2の閾値より小さい場合には前記第1の辞書とは異なる第2の辞書を用いて前記テキストを生成することを特徴とする画像処理装置。
  5. 請求項1から請求項4までのいずれか1項に記載された画像処理装置であって、
    前記テキスト生成部は、前記第1特徴情報と前記第2特徴情報から、前記画像データを撮影した撮影者の撮影スキルを判定し、前記撮影スキルを示す前記テキストを生成することを特徴とする画像処理装置。
  6. 請求項1から請求項5までのいずれか1項に記載された画像処理装置と、
    被写体を撮像して前記画像データを生成する撮像部と、を有する撮像装置。
  7. コンピュータに、
    画像データから、主要被写体像を含む主要領域と、前記主要被写体像の周辺の像を含む非主要領域とを抽出する処理と、
    前記主要領域の所定の特徴に関する第1特徴情報と、前記非主要領域の前記所定の特徴に関する第2特徴情報とを抽出する処理と、
    前記第1特徴情報と前記第2特徴情報とを用いてテキストを生成し、前記画像データと関連付ける処理と、を実行させる画像処理プログラム。
JP2013035000A 2013-02-25 2013-02-25 画像処理装置、撮像装置及び画像処理プログラム Pending JP2014165666A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013035000A JP2014165666A (ja) 2013-02-25 2013-02-25 画像処理装置、撮像装置及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013035000A JP2014165666A (ja) 2013-02-25 2013-02-25 画像処理装置、撮像装置及び画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2014165666A true JP2014165666A (ja) 2014-09-08

Family

ID=51615906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013035000A Pending JP2014165666A (ja) 2013-02-25 2013-02-25 画像処理装置、撮像装置及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP2014165666A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11956562B2 (en) 2019-03-25 2024-04-09 Fujifilm Corporation Image processing device, image processing methods and programs, and imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11956562B2 (en) 2019-03-25 2024-04-09 Fujifilm Corporation Image processing device, image processing methods and programs, and imaging apparatus

Similar Documents

Publication Publication Date Title
US8111946B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2012027687A (ja) 画像処理装置及びプログラム
JP6340347B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2006201531A (ja) 撮像装置
JP6472183B2 (ja) 画像処理装置、その制御方法、プログラム
JP4672587B2 (ja) 画像出力方法および装置ならびにプログラム
JP2008245093A (ja) デジタルカメラ、デジタルカメラの制御方法及び制御プログラム
JP5272775B2 (ja) 電子スチルカメラ
JP6977483B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2010092094A (ja) 画像処理装置、画像処理プログラム及びデジタルカメラ
JP2011135527A (ja) デジタルカメラ
JP2009200900A (ja) 撮像装置
JP2009038737A (ja) 画像処理装置
JP2015192338A (ja) 画像処理装置および画像処理プログラム
JP6497030B2 (ja) 撮影システム、情報処理装置、撮影方法、プログラム、記憶媒体
JP2008061209A (ja) 画像処理方法
JP2018045366A (ja) 画像処理装置、画像処理方法及びプログラム
JP4534750B2 (ja) 画像処理装置および画像処理プログラム
JP2014165666A (ja) 画像処理装置、撮像装置及び画像処理プログラム
JP2013169003A (ja) 表情データベース登録方法及び表情データベース登録装置
JP2014165876A (ja) 画像処理装置、撮像装置及び画像処理プログラム
JP2014165665A (ja) 画像処理装置、撮像装置及び画像処理プログラム
JP4865631B2 (ja) 撮像装置
JP2014103644A (ja) 撮像装置、画像処理装置及び色補正方法
JP5200776B2 (ja) デジタルカメラ