JP2015103139A - 画像処理装置及び制御プログラム - Google Patents
画像処理装置及び制御プログラム Download PDFInfo
- Publication number
- JP2015103139A JP2015103139A JP2013244795A JP2013244795A JP2015103139A JP 2015103139 A JP2015103139 A JP 2015103139A JP 2013244795 A JP2013244795 A JP 2013244795A JP 2013244795 A JP2013244795 A JP 2013244795A JP 2015103139 A JP2015103139 A JP 2015103139A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- face
- unit
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
Abstract
【課題】複数の画像それぞれの視認性を向上させる。
【解決手段】表示部に表示されている複数の画像が密集しているか否かを判定する判定部14gと、判定部により複数の画像が密集していると判定された場合、複数の画像のうちの少なくとも一部の画像を動作させる動作制御部14hとを備える。判定部は、単位面積当たりの画像の数、あるいは、画像の一部分の重なりに基づいて密集しているかどうかを判定する。動作制御部における動作は、回転または自転である。
【選択図】図2
【解決手段】表示部に表示されている複数の画像が密集しているか否かを判定する判定部14gと、判定部により複数の画像が密集していると判定された場合、複数の画像のうちの少なくとも一部の画像を動作させる動作制御部14hとを備える。判定部は、単位面積当たりの画像の数、あるいは、画像の一部分の重なりに基づいて密集しているかどうかを判定する。動作制御部における動作は、回転または自転である。
【選択図】図2
Description
本発明は、画像処理装置及び制御プログラムに関する。
アイコンなどのような使用者によって選択され得る複数の画像が密集して表示装置に表示されることがある。この場合、画像が混み合うことにより各画像の視認性が低下する。密集している画像の視認性を向上させる技術として、例えば下記特許文献1に記載されたものがある。下記特許文献1には、複数のアイコンが密集している場合に、複数のアイコンを統合する装置が開示されている。
特許文献1に記載されている装置では、複数の画像を統合して画像の数を減少させることで画像の視認性を向上させている。しかし、画像の数によって使用者に情報を提示する場合は、画像の数が変わることで使用者に提示する情報が変化してしまう。
本発明の態様では、複数の画像それぞれの視認性を向上させることを目的とする。
本発明の第1態様によれば、表示部に表示されている複数の画像が密集しているか否かを判定する判定部と、判定部により複数の画像が密集していると判定された場合、複数の画像のうちの少なくとも一部の画像を動作させる動作制御部とを備える画像処理装置が提供される。
本発明の第2態様によれば、制御装置に、表示部に表示されている複数の画像が密集しているか否かを判定する判定処理と、判定処理により複数の画像が密集していると判定された場合、複数の画像のうちの少なくとも一部の画像を動作させる動作制御処理とを実行させる制御プログラムが提供される。
本発明の態様によれば、複数の画像それぞれの視認性を向上させることができる。
以下、本発明の実施形態について図面を参照しながら説明する。ただし、本発明はこれに限定されるものではない。また、図面においては、実施形態を説明するため、一部分を大きくまたは強調して記載するなど適宜縮尺を変更して表現することがある。
<第1実施形態>
図1は、画像処理装置1の構成を示すブロック図である。図1に示すように、画像処理装置1は、表示装置(表示部)2、デジタルカメラ3、キーボード4、及びマウス5と接続されている。画像処理装置1は、複数の画像に含まれる複数の人物の顔画像を表示装置2に表示させる制御を行う。また、画像処理装置1は、表示装置2に表示されている複数の顔画像が密集している場合に、密集している複数の顔画像又は複数の顔画像それぞれに付加される画像を動作させる制御も行う。顔画像に付加される画像は、例えば、同一人物の顔画像を識別するために顔画像に付加される識別画像(図8や図13などに示す枠350A〜350D参照)である。本実施形態では、顔画像と、この顔画像に付加される画像とからなる画像をアイコン画像という。
図1は、画像処理装置1の構成を示すブロック図である。図1に示すように、画像処理装置1は、表示装置(表示部)2、デジタルカメラ3、キーボード4、及びマウス5と接続されている。画像処理装置1は、複数の画像に含まれる複数の人物の顔画像を表示装置2に表示させる制御を行う。また、画像処理装置1は、表示装置2に表示されている複数の顔画像が密集している場合に、密集している複数の顔画像又は複数の顔画像それぞれに付加される画像を動作させる制御も行う。顔画像に付加される画像は、例えば、同一人物の顔画像を識別するために顔画像に付加される識別画像(図8や図13などに示す枠350A〜350D参照)である。本実施形態では、顔画像と、この顔画像に付加される画像とからなる画像をアイコン画像という。
画像処理装置1は、例えば、パーソナルコンピュータで実現される。この画像処理装置1は、図1に示すように、演算処理部10及び記憶部20を有している。演算処理部10は、複数の人物の顔画像の表示に関する制御を司る。記憶部20は、デジタルカメラ3で撮影された画像データや、演算処理部10による画像処理及び顔画像の表示に必要な各種情報(図5参照)、識別画像データなどを記憶する。
演算処理部10は、図1に示すように、表示制御部11、画像入力部12、操作制御部13、及び画像処理部14を有している。表示制御部11は、例えば液晶表示ディスプレイのような表示装置2の表示画面に、人物の顔画像、顔画像を囲む枠の画像(識別画像)、スクロールバー、カーソルなどの各種画像(図8参照)を表示する制御を行う。画像入力部12は、デジタルカメラ3と接続されることにより、このデジタルカメラ3に記憶されている画像データを入力する。この画像入力部12は、デジタルカメラ3から入力した画像データを記憶部20における画像データ記憶領域に記憶する。
操作制御部13は、キーボード4及びマウス5と接続される。この操作制御部13は、使用者によるキーボード4やマウス5の操作に応じて情報を入力し、その情報を表示制御部11や画像処理部14に出力する。
画像処理部14は、画像に含まれる人物の顔画像を検出し、検出した顔画像を識別する処理を行う。また、画像処理部14は、画像から人物の顔画像を切り出す処理を行う。また、画像処理部14は、切り出した人物の顔画像の大きさを規格化(又は正規化)する処理を行う。また、画像処理部14は、規格化(正規化)された複数の顔画像を所定の位置関係に基づいて配置する処理を行う。また、画像処理部14は、所定の絞り込み条件に従って、表示装置2の表示画面に表示可能な多数の人物の顔画像から、実際に表示装置2の表示画面に表示する人物の顔画像を絞り込む処理を行う。
また、画像処理部14は、表示装置2の表示画面上における使用者の視点を検出する処理を行う。また、画像処理部14は、表示装置2の表示画面上に表示されている複数のアイコン画像(すなわち顔画像及び識別画像)が密集しているか否かを判定する処理を行う。また、画像処理部14は、複数のアイコン画像が密集していると判定した場合に、複数のアイコン画像の位置を変えずに、複数のアイコン画像のうちの少なくとも一部のアイコン画像を動作させる処理を行う。
なお、演算処理部10における表示制御部11、画像入力部12、操作制御部13、及び画像処理部14のそれぞれの構成は、CPU(Central Processing Unit)などの制御装置が記憶部20に記憶されている制御プログラムに従って処理を実行することにより実現される。
記憶部20は、データベース20Aを有している。データベース20Aには、画像処理部14による画像処理や、表示制御部11による顔画像の表示に必要な各種情報(図5参照)が記憶されている。なお、記憶部20には、データベース20Aに記憶される情報のほかに、上記したように、演算処理部10における表示制御部11、画像入力部12、操作制御部13、及び画像処理部14の処理を実行させるための制御プログラムなども記憶されている。
図2は、第1実施形態における画像処理部14の機能構成を示すブロック図である。図2に示すように、画像処理部14は、認証部(顔検出部、識別部)14a、切出部14b、規格化部14c、配置処理部14d、絞り込み部14e、視点検出部14f、判定部14g、及び動作制御部14hを備えている。
認証部14aは、公知の技術である顔検出機能を用いて、画像に含まれる人物の顔認証を行う処理部である。すなわち、認証部14aは、画像に含まれる人物の顔画像を検出する。また、認証部14aは、検出した顔画像を識別して同一人物の顔画像を特定する。なお、認証部14aを、画像に含まれる人物の顔画像を検出する顔検出部と、顔画像を識別する識別部とに分けてもよい。また、切出部14bは、画像から、認証部14aが検出した顔画像の切り出しを行う処理部である。
また、規格化部14cは、切出部14bが切り出した人物の顔画像の大きさを規格化(正規化)する処理部である。具体的には、規格化部14cは、使用者により選択された人物の顔画像の大きさが同じとなるように、複数の画像を拡大し又は縮小する。このように、規格化部14cは、使用者により選択された顔画像の大きさを統一するために画像自体を拡大し又は縮小する。このため、画像内における使用者により選択された人物の顔画像以外の顔画像も、同じ縮尺率で拡大され又は縮小される。
また、配置処理部14dは、規格化部14cが規格化した複数の人物の顔画像を所定の位置関係に基づいて配置する処理部である。具体的には、配置処理部14dは、規格化部14cが規格化した複数の人物の顔画像のうち、使用者により選択された人物の顔画像の位置を合わせるように複数の画像を配置する(図6参照)。また、絞り込み部14eは、所定の絞り込み条件に従って、表示装置2の表示画面に表示可能な多数の人物の顔画像から、実際に表示装置2の表示画面に表示される人物の顔画像の絞り込みを行う処理部である。
また、視点検出部14fは、表示装置2の表示画面上における使用者の視点を検出する処理部である。具体的には、視点検出部14fは、マウス5の操作に応じて表示装置2の表示画面上を移動可能なカーソルの位置を使用者の視点として検出(推定)する。また、判定部14gは、視点検出部14fで検出された視点を含む領域内に存在する複数のアイコン画像が密集しているか否かを判定する処理部である。また、動作制御部14hは、判定部14gにより複数のアイコン画像が密集していると判定された場合に、複数のアイコン画像の位置を変えずに、使用者の視点を含む領域内に存在する複数のアイコン画像のうちの少なくとも一部のアイコン画像を所定の動作態様で動作させる処理部である。
次に、演算処理部10による表示制御について説明する。図3は、演算処理部10による表示制御の一例を示すフローチャートである。また、図4は、顔の検出・識別、顔の切り出し、及び規格化の表示例を示す図である。また、図5は、データベース20A内のデータ構造を示す図である。また、図6は、複数の画像の配置の仕方を示す図である。また、図7は、複数の画像の時系列的な配置を示す概念図である。
図3に示す処理において、まず、画像入力部12は、デジタルカメラ3と接続することにより、デジタルカメラ3に記憶されている画像データを入力する(ステップS1)。画像入力部12は、デジタルカメラ3から入力した画像データを記憶部20に記憶する。次に、画像処理部14は、画像入力部12により記憶部20に記憶された画像データを読み出す。そして、認証部14aは、読み出した画像データに基づく画像に含まれる人物の顔画像を、人物の顔の特徴点などに基づいて検出する。また、認証部14aは、検出した顔画像における特徴点などに基づいて顔画像を識別する(ステップS2)。これにより、認証部14aは、同一人物の顔を特定する。次に、切出部14bは、画像から、認証部14aにより検出された顔画像を切り出す(ステップS3)。また、操作制御部13は、使用者によるマウス5のクリック操作によって選択された人物の顔画像(以下、中心顔画像という。)を示す第1選択情報を入力すると(ステップS4)、その第1選択情報を画像処理部14に出力する。そして、規格化部14cは、切出部14bにより切り出された顔画像を規格化する(ステップS5)。
ここで、図4に基づき顔の検出・識別、顔の切り出し、及び規格化の具体例について説明する。図4(a1)は、人物101A及び人物101Bが写っている画像101を示す。認証部14aは、画像101における人物101Aの顔画像と人物101Bの顔画像とを検出する。また、認証部14aは、検出した人物101Aの顔画像と人物101Bの顔画像とに基づいて、人物101Aと人物101Bとが異なる人物であると判定する。このとき、認証部14aは、人物101Aを識別する人物識別データ(図5中の「人物A」)をデータベース20Aに記憶するとともに、人物101Bを識別する人物識別データ(図5中の「人物B」)をデータベース20Aに記憶する。また、認証部14aは、画像101を識別する画像識別データ(図5中の「101」)を、人物識別データに対応付けてデータベース20Aに記憶する。
次に、図4(b1)に示すように、切出部14bは、画像101から、人物101Aの顔画像201Aを切り出すとともに、人物101Bの顔画像201Bを切り出す。これにより、画像101のうち、人物101A,101Bの顔画像201A,201B以外の背景などの画像が取り除かれる。このように画像101から背景などの画像が取り除かれた画像を画像201とする。
切出部14bは、画像201内における顔画像201Aの位置を、顔画像201Aの中心点の座標(X1,Y1)で特定する。同様に、切出部14bは、画像201内における顔画像201Bの位置を、顔画像201Bの中心点の座標(図示せず)で特定する。このとき、切出部14bは、画像201内における顔画像201Aの位置を示す位置データ(図5中の「(X1,Y1)」)を、人物識別データに対応付けてデータベース20Aに記憶する。同様に、切出部14bは、画像201内における顔画像201Bの位置を示す位置データ(図5中の「(X11,Y11)」)を、人物識別データに対応付けてデータベース20Aに記憶する。なお、位置データは、例えば画素(ピクセル)単位の座標で表される。
また、切出部14bは、顔画像201Aの大きさ(サイズ)を、幅w1と高さh1で特定する。同様に、切出部14bは、顔画像201Bの大きさ(サイズ)を、幅と高さで特定する。このとき、切出部14bは、顔画像201Aの大きさを示すサイズデータ(図5中の「(w1,h1)」)を、人物識別データに対応付けてデータベース20Aに記憶する。同様に、切出部14bは、顔画像201Bの大きさを示すサイズデータ(図5中の「(w11,h11)」)を、人物識別データに対応付けてデータベース20Aに記憶する。なお、サイズデータは、例えば画素(ピクセル)単位の幅(横のサイズ)及び高さ(縦のサイズ)で表される。
次に、図4(c1)に示すように、規格化部14cは、切出部14bにより切り出された顔画像201A,201Bの大きさを規格化する。なお、図4(c1)に示す例では、規格化部14cは、顔画像201A,201Bの大きさを変更していない。すなわち、規格化部14cは、顔画像201A,201Bの大きさを拡大も縮小もしていない。規格化部14cによる規格化後の顔画像をそれぞれ顔画像301A,301Bとする。
なお、画像101は、デジタルカメラ3による撮影時にEXIF(Exchangeable Image file Format)の情報が付加されている。EXIFの情報としては、撮影日時、撮影機器のメーカ名、GPS情報などを含む。画像処理部14は、人物識別データ(人物A、人物B)に対応付けて、EXIFの情報に含まれる撮影日時の情報(図5中の「2013/04/01」)をデータベース20Aに記憶する。なお、画像処理部14は、撮影日時の情報以外のEXIFの情報をデータベース20Aに記憶してもよい。
図4(a2)は、人物102A及び102Bが写っている画像102を示す。認証部14aは、画像102における人物102Aの顔画像と人物102Bの顔画像とを検出する。また、認証部14aは、検出した人物102Aの顔画像と人物102Bの顔画像とに基づいて、人物102Aと人物102Bとが異なる人物であると判定する。また、認証部14aは、顔の特徴点などから人物102Aは画像101中の人物101A(図4(a1))と同一人物であると判定する。さらに、認証部14aは、顔の特徴点などから人物102Bは画像101中の人物101B(図4(a1))と同一人物であると判定する。このとき、認証部14aは、人物102Aを識別する人物識別データ(図5中の「人物A」)をデータベース20Aに記憶するとともに、人物102Bを識別する人物識別データ(図5中の「人物B」)をデータベース20Aに記憶する。また、認証部14aは、画像102を識別する画像識別データ(図5中の「102」)を、人物識別データに対応付けてデータベース20Aに記憶する。
次に、図4(b2)に示すように、切出部14bは、画像102から、人物102Aの顔画像202Aを切り出すとともに、人物102Bの顔画像202Bを切り出す。これにより、画像102のうち、人物102A,102Bの顔画像202A,202B以外の背景などの画像が取り除かれる。このように画像102から背景などの画像が取り除かれた画像を画像202とする。
切出部14bは、画像202内における顔画像202Aの位置を、顔画像202Aの中心点の座標(X2,Y2)で特定する。同様に、切出部14bは、画像202内における顔画像202Bの位置を、顔画像202Bの中心点の座標(図示せず)で特定する。このとき、切出部14bは、画像202内における顔画像202Aの位置を示す位置データ(図5中の「(X2,Y2)」)を、人物識別データに対応付けてデータベース20Aに記憶する。同様に、切出部14bは、画像202内における顔画像202Bの位置を示す位置データ(図5中の「(X12,Y12)」)を、人物識別データに対応付けてデータベース20Aに記憶する。
また、切出部14bは、顔画像202Aの大きさ(サイズ)を、幅w2と高さh2で特定する。同様に、切出部14bは、顔画像202Bの大きさ(サイズ)を、幅と高さで特定する。このとき、切出部14bは、顔画像202Aの大きさを示すサイズデータ(図5中の「(w2,h2)」)を、人物識別データに対応付けてデータベース20Aに記憶する。同様に、切出部14bは、顔画像202Bの大きさを示すサイズデータ(図5中の「(w12,h12)」)を、人物識別データに対応付けてデータベース20Aに記憶する。
次に、図4(c2)に示すように、規格化部14cは、切出部14bにより切り出された顔画像202A,202Bの大きさを規格化して、それぞれ顔画像302A,302Bとする。ここで、使用者により選択された中心顔画像が人物Aの顔画像である場合(ステップS4参照)、規格化部14cは、人物Aの顔画像202Aの大きさが人物Aの顔画像301Aと同じとなるように、画像202を拡大し又は縮小する。図4(c2)に示す例では、規格化部14cは、顔画像202Aの大きさ(幅w2、高さh2)を顔画像301Aの大きさ(幅w1、高さh1)に一致させるように、画像202を縮小して画像302とする。規格化部14cにより画像202が画像302に縮小されることにより、顔画像202Bも同じ縮尺率で縮小されて顔画像302Bとなる。
なお、画像102においても、デジタルカメラ3による撮影時にEXIFの情報が付加されている。画像処理部14は、人物識別データ(人物A、人物B)に対応付けて、EXIFの情報に含まれる撮影日時の情報(図5中の「2013/04/12」)をデータベース20Aに記憶する。なお、画像処理部14は、撮影日時の情報以外のEXIFの情報をデータベース20Aに記憶してもよい。
図4(c1)及び(c2)に示す例では、規格化部14cは、使用者により選択された人物Aの顔画像202Aを、顔画像201Aの大きさに合わせて規格化していた。しかし、このような場合に限定されず、規格化部14cは、予め決まった顔画像の大きさに、顔画像201A及び顔画像202Aをそれぞれ合わせて規格化してもよい。
また、上記した例では、規格化部14cは、顔画像の大きさ(サイズ)を規格化するとき、顔画像の縦(高さ)及び横(幅)のいずれも一致させていた。しかし、同じ人物の顔画像であっても写真によっては顔画像の縦横比が異なる。従って、顔画像の縦及び横のいずれも一致させると、顔画像の形が歪んでしまう。そこで、規格化部14cは、顔画像の大きさを規格化するとき、顔画像の縦及び横のいずれか一方を一致させることにより、規格化前の顔画像の縦横比を維持するようにしてもよい。また、規格化部14cは、顔画像の大きさを規格化するとき、顔画像の縦及び横のいずれか一方を一致させるのではなく、顔画像の縦横比を維持したまま顔画像の縦及び横が近くなるような中間のサイズを計算し、そのサイズで顔画像(顔画像を含む画像)を拡大又は縮小するようにしてもよい。また、切出部14bは、顔画像を切り出すときに、予め決められた固定の縦横比で顔画像を切り出すようにしてもよい。
図3の説明に戻り、配置処理部14dは、規格化部14cが規格化した複数の人物の顔画像のうち、使用者により選択された中心顔画像(図4に示す例では人物Aの顔画像)の位置を一致させるように複数の画像を並べて配置する(ステップS6)。
ここで、図6に基づき複数の画像の配置の仕方について説明する。なお、図6(a)〜(d)において、丸で囲われた「A」は人物Aの顔画像の大きさ及び位置を示し、丸で囲われた「B」は人物Bの顔画像の大きさ及び位置を示し、丸で囲われた「C」は人物Cの顔画像の大きさ及び位置を示し、丸で囲われた「D」は人物Dの顔画像の大きさ及び位置を示している。また、図6(b)に示す画像212は、切出部14bにより人物Aの顔画像212Aと人物Cの顔画像212Cとが切り出された画像を示す。また、図6(b)に示す画像312は、規格化部14cにより、人物Aの顔画像212Aの大きさが人物Aの顔画像311Aの大きさ(図6(a))と同じとなるように画像212が縮小された画像を示す。また、図6(c)に示す画像213は、切出部14bにより人物Aの顔画像213Aと人物Bの顔画像213Bと人物Dの顔画像213Dとが切り出された画像を示す。また、図6(c)に示す画像313は、規格化部14cにより、人物Aの顔画像213Aの大きさが人物Aの顔画像311Aの大きさ(図6(a))と同じとなるように画像213が拡大された画像を示す。
図6(a)に示す画像311では、人物Aの顔画像311Aは略中央付近に位置し、人物Bの顔画像311Bは顔画像311Aの斜め左上の近傍に位置している。図6(b)に示す画像312では、人物Cの顔画像312Cは中央から少し左に位置し、人物Aの顔画像312Aは顔画像312Cの斜め右上に位置している。図6(c)に示す画像313では、人物Bの顔画像313Bは略中央付近に位置し、人物Aの顔画像313Aは顔画像313Bの斜め左下に位置し、人物Dの顔画像313Dは顔画像313Bの斜め左上に位置している。
ステップS4において使用者により選択された中心顔画像が人物Aの顔画像である場合、配置処理部14dは、図6(d)に示すように、中心顔画像である人物Aの顔画像311A,312A,313Aの位置を一致させるように3つの画像311,312,313を揃えて配置する。これにより、人物Aの顔画像311A(312A,313A)を中心に、人物Bの顔画像311B,313Bと、人物Cの顔画像312Cと、人物Dの顔画像313Dとが顔画像311A(312A,313A)の周りに配置される。配置処理部14dは、データベース20Aに記憶されている各種データ(人物識別データ、画像識別データ、位置データ、サイズデータ)に基づいて、各顔画像の位置関係を特定し、各顔画像を配置する。このとき、図7に示すように、複数の画像311,312,313は、概念的に撮影日時(図5参照)の時間軸に沿って多重化されている。図7に示す例では、画像313が最初に撮影された画像であり、画像312が次に撮影された画像であり、画像311が最後に撮影された画像(最新の画像)である。なお、図7においては、各画像311〜313は同じ大きさとなっているが、実際は画像312,313は図6と同様に画像311よりも拡大又は縮小されている。
図3の説明に戻り、表示制御部11は、配置処理部14dにより、図6のように配置された各顔画像を表示装置2の表示画面に表示する(ステップS7)。このように、画像から顔画像を抽出してマッピング(貼り付け)していることから、各顔画像の表示のことをフェイスマップという。なお、図6及び図7において、配置処理部14dは複数の画像311,312,313を重ねている。しかし、このような構成は一例であって、配置処理部14dは、複数の画像311,312,313を重ねずに、これら複数の画像311,312,313に含まれる各顔画像の位置(座標)及び大きさを決定し、表示制御部11は、配置処理部14dにより決定された各顔画像の位置及び大きさに基づいて、切出部14bにより切り出された(抽出された)顔画像を揃えて表示するものでもよい。
ステップS7において、表示制御部11は、複数の画像に含まれる中心顔画像のうち代表画像を選択して表示部2へ表示させる。第1実施形態では、表示制御部11は、代表画像として最新の画像311に含まれる顔画像311Aを選択して表示装置2へ表示している。ただし、代表画像は最新の画像311に含まれる顔画像311Aに限らず、最も古い画像(例えば画像313)であってもよい。また、代表画像は使用者により選択された画像であってもよい。
図8は、フェイスマップの表示例を示す図である。図8において、表示装置2の表示画面400は、顔画像表示領域410と、下左領域420と、下右領域430とが設けられている。顔画像表示領域410は、配置処理部14dにより配置された各顔画像を表示するための領域である。図8に示す例では、使用者は中心顔画像として人物Aの顔画像311Aを選択している。従って、人物Aの顔画像311A(最新の画像311の顔画像311A)は顔画像表示領域410の中心に表示されている。人物A以外の人物の顔画像、すなわち、人物Bの顔画像311B,313B,314B,315B,317B,318B,319Bと、人物Cの顔画像312C,314C,315C,318Cと、人物Dの顔画像313D,318Dとが中心顔画像311Aの周囲に配置されて表示されている。
また、下左領域420は、使用者が中心顔画像として選択可能な顔画像を表示するための領域である。中心顔画像として選択可能な顔画像は、認証部14aにより識別された人物の顔画像である。図8に示す例では、下左領域420の領域421には人物Aの顔画像が表示されている。領域422には人物Bの顔画像が表示されている。領域423には人物Cの顔画像が表示されている。領域424には人物Dの顔画像が表示されている。使用者は、マウス5を移動させることによりカーソル600を移動させる。そして、使用者は、領域421に表示されている人物Aの顔画像をクリックすることにより、人物Aの顔画像を中心顔画像として選択している。
なお、認証部14aは、画像によって(写真の写り方などによって)同一人物の顔画像であっても、異なる人物の顔画像であると認識してしまうことがある。この場合は、下左領域420には、異なる人物の顔画像(例えば、同一人物Aであるにもかかわらず人物A1の顔画像と人物A2の顔画像)が表示される。ただし、使用者は、キーボード4やマウス5の操作によって、下左領域420に誤って表示されている顔画像の削除などの編集を行うことが可能である。
また、下右領域430は、使用者が顔画像表示領域410に表示する顔画像として選択可能な顔画像(中心顔画像以外の顔画像)を表示するための領域である。使用者により顔画像表示領域410に表示する顔画像として選択された顔画像を「選択顔画像」という。選択顔画像も、認証部14aにより識別された人物の顔画像である。図8に示す例では、下右領域430の領域431には人物Aの顔画像が表示されている。ただし、人物Aの顔画像は中心顔画像として選択されているので、使用者は人物Aの顔画像を選択顔画像として選択することができない。このことを報知するために、領域431はグレーアウトとなっている。領域432には人物Bの顔画像が表示されている。領域433には人物Cの顔画像が表示されている。領域434には人物Dの顔画像が表示されている。領域435には「etc」と表示されている。この「etc」は、すべての顔画像(図8に示す例では人物B,C,Dの顔画像)を顔画像表示領域410に表示させることを意味している。使用者は、マウス5を移動させることによりカーソル600を移動させる。そして、使用者は、領域435に表示されている「etc」をクリックすることにより、人物B,C,Dの顔画像を選択顔画像として選択している。
なお、認証部14aは、画像によって(写真の写り方などによって)同一人物の顔画像であっても、異なる人物の顔画像であると認識してしまうことがある。この場合においても、下右領域430には、異なる人物の顔画像が表示される。ただし、使用者は、キーボード4やマウス5の操作によって、下右領域430に誤って表示されている顔画像の削除などの編集を行うことが可能である。
図3の説明に戻り、表示制御部11は、顔画像を囲う枠を表示する(ステップS8)。この枠は、同一人物の顔画像を識別するために表示される。すなわち、この枠は、同一人物の顔画像に対応している。上記したように、枠の画像が識別画像である。図8に示す例では、人物Aの顔画像311Aの周りには枠350Aが表示されている。人物Bの顔画像311B,313B,314B,315B,317B,318B,319Bの周りには枠350Bが表示されている。人物Cの顔画像312C,314C,315C,318Cの周りには枠350Cが表示されている。人物Dの顔画像313D,318Dの周りには枠350Dが表示されている。例えば、枠350Aは赤色の枠であり、枠350Bは青色の枠であり、枠350Cは黄色の枠であり、枠350Dは緑色の枠であるものとする。このような枠の表示により、使用者は、容易に顔画像がどの人物の顔画像であるかについて判別することができる。
なお、図8では、顔画像を識別するための枠350A〜350Dの画像を簡易的な円形の線で表記している。しかし、後述するように、枠350A〜350Dはリング形状であって、枠350A〜350Dの表面には線などの模様が付加されている(図12、図13等参照)。
画像入力部12は、下右領域430の所定領域431〜435に対するマウス5のクリック操作によって選択顔画像が選択されたことに応じて、その選択顔画像を示す第2選択情報を入力する(ステップS9)。この場合、絞り込み部14eは、選択顔画像以外の顔画像を非表示に設定する(ステップS10)。これにより、顔画像表示領域410には、中心顔画像及び選択顔画像だけが表示されることになる。従って、使用者は、中心顔画像と選択顔画像との位置関係について認識しやすくなる。上記のような選択顔画像の選択は顔画像の絞り込み条件に該当する。ステップS10では、絞り込み部14eは、選択顔画像以外の顔画像を非表示に設定するように構成していたが、選択顔画像以外の顔画像をぼかしたり、薄くしたりするように構成してもよい。
次に、絞り込み部14eは、各種絞り込み処理を実行する(ステップS11)。例えば、使用者によりキーボード4の操作などに応じて撮影期間が設定された場合は、絞り込み部14eは、その撮影期間の画像に含まれる顔画像について顔画像表示領域410に表示させる。図7に示したように、各画像は時系列的に配置されている。また、データベース20Aには、各画像に対応付けて撮影日時の情報が記憶されている(図5参照)。従って、絞り込み部14eは、絞り込み条件として撮影期間が設定されることにより、その撮影期間内に撮影された画像を容易に抽出することができる。
なお、絞り込み条件として、画像の撮影期間のほかに、画像の撮影地域や画像中の人物の数などであってもよい。EXIFの情報にはGPS情報(経度情報及び緯度情報)が含まれている。絞り込み部14eは、地域参照データに基づいてGPS情報(経度情報及び緯度情報)に対応付けて撮影地域(例えば、北海道、東京)を把握する。そして、使用者によりキーボード4などの操作に応じて撮影地域が設定された場合は、絞り込み部14eは、その撮影地域で撮影された画像に含まれる顔画像について顔画像表示領域410に表示させる。また、絞り込み部14eは、認証部14aが識別した画像中の人物の数が多数であった場合(例えば集合写真のように30人以上である場合)、その画像に含まれる顔画像について顔画像表示領域410への表示を制限する。
表示制御部11は、カーソル600が顔画像の上に位置しているか否かを判定する(ステップS12)。表示制御部11は、カーソル600が顔画像の上に位置していると判定した場合は、カーソル600が指し示す顔画像が存在する画像中の中心顔画像を表示する(ステップS13)。具体的には、表示制御部11がカーソル600が顔画像315Cの上に位置していると判定した場合は、中心顔画像311Aに代えて、カーソル600が指し示す顔画像315Cが存在する画像315中の中心顔画像315Aを表示する。このような制御により、カーソル600が指し示す顔画像と中心顔画像との対応関係が認識しやすくなる。
次に、表示制御部11は、マウス5により顔画像がクリックされたか否かを判定する(ステップS14)。表示制御部11は、マウス5により顔画像がクリックされたと判定した場合は、クリックされた顔画像が存在する画像を表示装置2の表示画面400に表示する(ステップS15)。
図9は、マウスクリックに応じて表示される画像の表示例を示す図である。図9に示すように、表示制御部11は、マウス5により顔画像311Bがクリックされたと判定した場合は、クリックされた顔画像311Bが存在する画像111を、各顔画像よりも前面に表示する。図9に示すように、顔画像311Bのクリックに応じて表示される画像111は、切出部14bにより顔画像311Bが切り出された画像(例えば図4(b1)に示したような画像)ではなく、顔画像311Bが切り出される前の画像(例えば図4(a1)に示したような画像)である。この画像111には、人物111Aと人物111Bとが写っている。人物111Aの顔の位置と顔画像311Aの位置が一致している。また、人物111Bの顔の位置と顔画像311Bの位置も一致している。
このような制御により、クリックされた顔画像の元の画像が顔画像の位置に表示される。ここで、クリックされた顔画像の元の画像の大きさは、規格化部14cにより規格化された画像の大きさによって変化する。例えば図4(b2)及び(c2)に示したように、人物Aの顔画像202Aの大きさを顔画像301Aの大きさに一致させるように、規格化部14cにより画像202が縮小されて規格化されている場合は、クリックされた顔画像の元の画像(すなわち、ステップS15で表示される画像)は、配置処理部14dにより縮小された画像302の大きさとなる。反対に、規格化部14cにより画像が拡大されて規格化されている場合は、クリックされた顔画像の元の画像(すなわち、ステップS15で表示される画像)は、配置処理部14dにより拡大された画像の大きさとなる。また、ステップS15で表示される画像の位置は、配置処理部14dにより特定された位置となる(図6参照)。ステップS15の処理によって、使用者が顔画像をクリックするだけで顔画像の元の画像を容易に確認することができる。なお、使用者が顔画像311Aをクリックした場合も、画像111が表示される。本実施形態では、顔画像をマウス5でクリック(長押し)している間、顔画像の元の画像が表示される。
なお、図8及び図9に示すように、表示画面400の顔画像表示領域410と、下左領域420及び下右領域430との間に、キーボード4又はマウス5の操作に応じて左右に移動可能な横スクロールバー510が配置されている。本実施形態では、横スクロールバー510の幅全体において画像が多重化されている。すなわち、横スクロールバー510の幅は、多重化された画像の全体の幅に対応する。使用者がキーボード4又はマウス5を操作して、横スクロールバー510を左又は右に移動させると、横スクロールバー510の中心を通る線511も左又は右に移動する。本実施形態では、表示制御部11は、線511に最も近い顔画像を判定する。そして、表示制御部11は、線511に最も近い顔画像が存在する画像中の中心顔画像を表示する。具体的には、表示制御部11が線511に最も近い顔画像が顔画像315Cであると判定した場合は、中心顔画像311Aに代えて、顔画像315Cが存在する画像315中の中心顔画像315Aを表示する。
以上に説明した画像処理装置1は、複数の全体画像(ここでは一又は複数の人物の顔画像を含む画像(例えば図9にデジタルカメラ3で撮影された画像)を全体画像といっている。)から顔を検出する顔検出部(認証部14a)と、顔検出部で検出された顔を識別する識別部(認証部14a)と、識別部により識別された顔のうちの所定人物の顔の位置を全体画像ごとに合わせるように、所定人物の顔を配置し、配置された所定人物の顔の位置に応じて、所定人物を含む全体画像に含まれる顔を全体画像ごとに配置する配置処理部14dと、配置処理部14dにより配置された顔を複数の画像(ここでは全体画像に含まれる複数の顔画像を複数の画像といっている。)として表示部2に表示させる表示制御部11とを備える。このような構成によれば、複数の全体画像に含まれる複数の人物の関係を顔画像の表示によって直感的に想起させることができる。
すなわち、中心顔画像と近い顔画像の人物とは親密度が高い(仲が良い)と感じさせることができる。また、一つの写真に写っている人物の数が少ない程、その写真に写っている人物とは親密度が高いと感じさせることができる。また、フェイスマップにおいて数多く表示される人物ほど、親密度が高いと感じさせることができる。また、フェイスマップに数多くの人物が表示される程、中心顔画像の人物の人気度が高いと感じさせることができる。このように画像処理装置1がパラメータに基づいて親密度などを計算して使用者に提示するのではなく、顔画像という生の素材画像を写真に写っているそのままの位置に配置して使用者に提示することにより、使用者に直感的に複数の人物の関係(中心画像の人物とその人物以外の人物との関係)を想起させることができる。
また、画像処理装置1は、認証部14aにより顔検出され識別された複数の顔を切り出す切出部14bを備えるので、人物の関係をより一層想起させやすくなる。すなわち、人物の親密度や人気度などの想起に影響しない背景などの余計な画像を除外することができる。このため、使用者は人物の親密度や人気度などの想起に影響しない余計な情報が目に入らなくなり、人物の関係をより一層想起しやすくなる。
また、画像処理装置1は、識別部(認証部14a)によって識別された顔の大きさを所定の大きさに規格化する規格化部14cを備える。このような構成によれば、顔と顔との間の距離が比較可能なパラメータとして用いることができるようになる。従って、顔の間隔により親密度などを表現することが可能となる。
図8に示したフェイスマップは、顔画像の数や位置関係によって使用者に人物間の親密度などの情報を提示する。従って、顔画像の数や位置関係が変わると、使用者に提示する情報が変化してしまう。一方、複数の顔画像が密集している場合は、複数の顔画像それぞれの視認性が著しく低下する。そこで、本実施形態では、以下に説明するように、密集している複数の顔画像(アイコン画像)の数や位置関係を変えずに動作させることにより、複数の顔画像(アイコン画像)それぞれの視認性を向上させる。
図10は、複数のアイコン画像が密集している場合のフェイスマップの表示例を示す図である。なお、図10において、丸で囲われた「A」は人物Aの顔画像を含むアイコン画像の大きさ及び位置を示し、丸で囲われた「B」は人物Bの顔画像を含むアイコン画像の大きさ及び位置を示し、丸で囲われた「C」は人物Cの顔画像を含むアイコン画像の大きさ及び位置を示し、丸で囲われた「D」は人物Dの顔画像を含むアイコン画像の大きさ及び位置を示している。
図10においては、使用者は中心顔画像として人物Aの顔画像321Aを選択している。従って、人物Aの顔画像321A(画像321の顔画像321A)は顔画像表示領域410の中心に表示されている。人物A以外の人物の顔画像、すなわち、人物Bの顔画像321B,322B,323B,324B,325B,326B,327B,328B,329Bと、人物Cの顔画像321C,322C,323C,324C,325C,326Cと、人物Dの顔画像325D,326D,328Dとが中心顔画像321Aの周囲に配置されて表示されている。図10に示すように、顔画像表示領域410には数多くのアイコン画像が表示され、これらのアイコン画像のうちの一部のアイコン画像は互いに重なり合っている。このように、顔画像表示領域410内の所定箇所の領域においては複数のアイコン画像が密集している。
図10に示す判定領域440は、判定部14gが複数のアイコン画像が密集しているか否かを判定する判定対象の領域である。すなわち、判定部14gは、判定領域440内に存在するアイコン画像が密集しているか否かを判定する。この判定領域440は、カーソル600の位置(具体的にはカーソル600が指し示す先端の位置)を中心とした所定面積の領域とされている。
次に、複数のアイコン画像が密集している場合の演算処理部10によるアイコン画像の動作制御について説明する。図11は、演算処理部10によるアイコン画像の動作制御の一例を示すフローチャートである。図11に示す処理において、判定部14gは、カーソル600の位置に基づいて判定領域440を設定する(ステップS21)。具体的には、操作制御部13は、顔画像表示領域410内におけるカーソル600の位置(カーソル600が指し示す先端の位置)を特定する。そして、操作制御部13は、特定したカーソル600の位置を示す位置情報(例えば顔画像表示領域410内の座標情報)を画像処理部14に出力する。視点検出部14fは、操作制御部13からの位置情報に基づいて現在のカーソル600の位置を認識し、認識したカーソル600の位置を使用者が注視している視点の位置として検出する。判定部14gは、視点検出部14fが検出した使用者の視点の位置を中心とした所定面積の領域を判定領域440として設定する。
図10に示す例では、判定領域440は、カーソル600の位置を中心とした方形状の領域とされている。ただし、判定領域440の形状は、方形状に限定されない。例えば、判定領域440は、長方形状や円形状、楕円形状などの領域であってもよい。また、判定領域440は、予め定められた広さ(面積)の領域とされている。なお、判定領域440の広さは、例えば使用者がカーソル600を動かして顔画像(アイコン画像)を選択する際に、使用者によって注視されるような領域の広さとされる。
次に、判定部14gは、判定領域440内に存在するアイコン画像の密集度を算出する(ステップS22)。具体的には、判定部14gは、アイコン画像の中心位置が判定領域440内に存在するか否かによって、アイコン画像が判定領域440内に存在する否かを判定する。図10に示す例では、判定部14gは、人物Aの顔画像321Aと、人物Bの顔画像321B,322B,327B,329Bと、人物Cの顔画像321C,322C,324Cと、人物Dの顔画像326Dとが判定領域440内に存在する顔画像(つまりアイコン画像)であると判定する。
例えば、顔画像322B,327B,321Cは、顔画像の一部分が判定領域440外にはみ出しているが、顔画像の中心位置が判定領域440内に存在する。従って、判定部14gは、顔画像322B,327B,321Cについては、判定領域440内に存在する顔画像であると判定する。一方、顔画像326Bは、顔画像の一部分が判定領域440内に存在しているが、顔画像の中心位置が判定領域440内に存在しない。従って、判定部14gは、顔画像326Bについては、判定領域440内に存在する顔画像ではないと判定する。
そして、判定部14gは、判定領域440内に存在するアイコン画像の数に基づいて、判定領域440内のアイコン画像の密集度を算出する。本実施形態では、アイコン画像の密集度を単位面積あたりのアイコン画像の数と定義している。従って、判定部14gは、判定領域440内に存在するアイコン画像の数を判定領域440の面積で割ることで、判定領域440内のアイコン画像の密集度を算出することができる。
次に、判定部14gは、ステップS22で算出した密集度がしきい値以上であるか否かを判定する(ステップS23)。本実施形態では、判定領域440内のアイコン画像の密集度がしきい値以上であるか否かによって、判定領域440内のアイコン画像が密集しているか否かを判断するように構成している。しきい値は、判定領域440の面積や、規格化部14cにより規格化された顔画像の大きさ、顔画像に付される枠の径などを考慮して、予め設定されている。
判定部14gが密集度がしきい値以上であると判定した場合は、動作制御部14hは、判定領域440内に存在するアイコン画像の動作態様を決定する(ステップS24)。本実施形態では、アイコン画像の動作態様として複数種類の動作態様が用意されている。
図12は、複数種類のアイコン画像の動作態様を示す図である。なお、図12(A)〜(D)では、一例として人物Bのアイコン画像の動作態様を示しているが、人物A,C,Dのアイコン画像の動作態様についても図12(A)〜(D)に示す動作態様と同様である。図12(A)〜(D)に示す各動作α,β,γ,δは、それぞれ、人物Bの顔画像は動かずに、顔画像の周りに表示される枠350Bが回転する動作であることが共通している。一方、図12(A)に示す動作αは、人物Bの顔画像の周りの枠350Bが時計回りにゆっくり回転する(つまり遅い速度で回転する)。図12(B)に示す動作βは、人物Bの顔画像の周りの枠350Bが反時計回りにゆっくりと回転する。図12(C)に示す動作γは、人物Bの顔画像の周りの枠350Bが時計回りに速く回転する(つまり速い速度で回転する)。図12(D)に示す動作δは、人物Bの顔画像の周りの枠350Bが反時計回りに速く回転する。
図12(A)〜(D)に示すように、人物Bの顔画像の周りの枠350Bには放射方向の線が所定間隔で付されている。従って、各動作α,β,γ,δにおける枠350Bの回転に伴って枠350Bに付された線が円周方向に移動する。このため、使用者は枠350Bに付された線の円周方向の移動によって、枠350Bの回転を認識する。また、使用者は枠350Bの回転速度や回転方向も認識することができる。なお、人物A,C,Dの顔画像の周りの枠350A,350C,350Dにも人物Bの顔画像の周りの枠350Bと同様の線が付されている(図13参照)。
ステップS24において、動作制御部14hは、判定領域440内に存在するアイコン画像の動作態様として、人物ごとに異なる動作態様(図12に示す動作α,β,γ,δ)を決定する。例えば、動作制御部14hは、図5に示すデータベース20Aを参照して、判定領域440内に存在するアイコン画像に対応する人物を特定する。そして、動作制御部14hは、特定した人物ごとに異なる動作態様を割り当てる。ここで、人物ごとに異なる動作態様を割り当てる手法としては、様々な手法が考えられる。一例として、動作制御部14hは、判定領域440内において同一人物のアイコン画像の数を特定し、アイコン画像の数の多い人物の順に動作α,β,γ,δを割り当てる。
その後、動作制御部14hは、ステップS24で決定した動作態様で、判定領域440内の各アイコン画像を動作させる(ステップS25)。図13は、密集している複数のアイコン画像が動作している状態を示す図である。図13に示す例では、動作制御部14hが、ステップS24において、人物Aのアイコン画像の動作態様として動作αを決定し、人物Bのアイコン画像の動作態様として動作βを決定し、人物Cのアイコン画像の動作態様として動作γを決定し、人物Dのアイコン画像の動作態様として動作δを決定している。従って、動作制御部14hは、判定領域440内における人物Aのアイコン画像(顔画像321A)に対して、枠350Aを時計回りにゆっくり回転させる動作αを実行している。また、動作制御部14hは、判定領域440内における人物Bのアイコン画像(顔画像321B,322B,327B,329B)に対して、枠350Bを反時計回りにゆっくり回転させる動作βを実行している。また、動作制御部14hは、判定領域440内における人物Cのアイコン画像(顔画像321C,322C,324C)に対して、枠350Cを時計回りに速く回転させる動作γを実行している。さらに、動作制御部14hは、判定領域440内における人物Dのアイコン画像(顔画像326D)に対して、枠350Dを反時計回りに速く回転させる動作δを実行している。
なお、図13においては、顔画像326B,327B,328B,323C,325C,325Dに対応するアイコン画像は判定領域440内に存在していないので、これらのアイコン画像の動作は実行されていない。すなわち、これらのアイコン画像における枠350B,350C,350Dは回転していない。
動作制御部14hがアイコン画像を動作させる制御に応じて、表示制御部11は、アイコン画像を動作させる表示制御を実行する。このように判定領域440内の各アイコン画像が動作することにより、各アイコン画像が静止している場合よりも視認性が向上する。すなわち、各アイコン画像が静止している場合、重なり合ったアイコン画像が1つの画像のように使用者には見えてしまい、各々のアイコン画像が識別(区別)しにくくなる。一方、各アイコン画像が動作すると、各アイコン画像が使用者に容易に識別される。また、判定領域440内の各アイコン画像は、その位置(重心、輪郭)を維持しつつ動作しているので、使用者がカーソル600を動かしてアイコン画像を選択するときの操作性が阻害されない。
なお、上記した第1実施形態では、動作制御部14hは、判定領域440内のアイコン画像を動作されていたが、顔画像表示領域410内のアイコン画像を動作させるようにしてもよい。また、上記した第1実施形態では、判定部14gは、視点検出部14fにより検出された視点を中心とした判定領域440内のアイコン画像が密集しているか否かを判定していたが、判定部14gは、顔画像表示領域410の任意の領域内のアイコン画像が密集しているか否かを判定してもよい。この場合、動作制御部14hは、判定部14gによりアイコン画像が密集していると判定された領域内のアイコン画像を動作させる。
また、上記した第1実施形態では、動作制御部14hは、判定領域440内のすべてのアイコン画像を動作させていた。しかし、動作制御部14hは、判定領域440内のアイコン画像うちの一部のアイコン画像だけを所定の動作態様で動作させてもよい。このように、密集しているアイコン画像のうち、静止しているアイコン画像と動作しているアイコン画像とがある場合も、使用者は各アイコン画像を容易に識別することができる。
以上に説明したように、第1実施形態では、表示部2に表示されている複数の画像(例えばアイコン画像)が密集しているか否かを判定する判定部14gと、判定部14gにより複数の画像が密集していると判定された場合、複数の画像の位置を変えずに、複数の画像のうちの少なくとも一部の画像を動作させる動作制御部14hとを備える。このような構成によれば、密集している複数の画像の数や位置関係を変えずに、複数の画像それぞれの視認性を向上させることができる。また、使用者が画像を選択する際の操作性を妨げることもない。
また、第1実施形態では、判定部14gは、単位面積あたりの画像の数に基づいて複数の画像が密集しているか否かを判定するので、画像が重なっている場合のほかに、画像が重ならずに混みあっている場合にも、複数の画像を動作させて視認性を向上させることができる。
また、第1実施形態では、使用者の視点を検出する視点検出部14fを備え、判定部14gは、視点検出部14fで検出された視点を含む領域440内の複数の画像が密集しているか否かを判定する。このような構成によれば、使用者が注視している領域内の画像だけについて密集しているか否かを判定することができる。また、第1実施形態では、動作制御部14hは、領域440内の複数の画像のうちの少なくとも一部の画像を動作させる。このような構成によれば、表示部2の表示画面上のすべての画像が動作して、視覚的に煩雑になってしまうことを回避することができる。すなわち、使用者の注意は動いている画像に引き付けられるため、表示部2の表画面上のすべての画像が動作していると、使用者の注視点が定まらず使用者にとって画像が見にくくなってしまう。しかし、上記のような構成に場合は、動作制御部14hが表示部2の表示画面における一部の領域440内の画像についてだけ動作させるので、視覚的な煩雑さが回避され、使用者にとって画像が見にくくなるようなことが防止される。
また、第1実施形態では、動作は回転であるので、画像の位置(重心、輪郭)が移動せずに画像の視認性を向上させることができる。また、第1実施形態では、動作制御部14hは、画像ごとに異なる動作を実行させる。このような構成の場合は、各画像の視認性をより一層向上させることができる。
また、第1実施形態では、複数の画像は同一または略同一の大きさである。このような構成によれば、画像間の距離や位置関係によって使用者に情報(フェイスマップの場合は親密度などの情報)を表現することが可能となる。
<第2実施形態>
上記した第1実施形態では、動作制御部14hが予め決められた規則に基づいて判定領域440内に存在するアイコン画像の動作態様を決定していた。これに対して、第2実施形態では、動作制御部14hが乱数値に基づいて判定領域440内に存在するアイコン画像の動作態様を決定する。
上記した第1実施形態では、動作制御部14hが予め決められた規則に基づいて判定領域440内に存在するアイコン画像の動作態様を決定していた。これに対して、第2実施形態では、動作制御部14hが乱数値に基づいて判定領域440内に存在するアイコン画像の動作態様を決定する。
図14は、演算処理部10による動作態様の決定処理を示すフローチャートである。また、図15は、動作態様決定テーブルを示す図である。なお、図14に示す動態様の決定処理は、図11のステップS23において実行される処理である。
図14に示す処理において、動作制御部14hは、図5に示すデータベース20Aを参照して、判定領域440中の人物を特定する(ステップS31)。具体的には、動作制御部14hは、判定領域440内に存在する各アイコン画像(各顔画像)に対応する人物識別データを取得する。動作制御部14hは、取得した人物識別データに基づいて、判定領域440内に存在するアイコン画像に対応する人物を特定する。図10及び図13に示す例では、動作制御部14hは人物A〜Dを特定する。
次に、動作制御部14hは、人物ごとの乱数値を抽出する(ステップS32)。ここで、演算処理部10は、ソフトウェア乱数を生成するためのカウンタを備えている。このカウンタは、例えば0〜99の乱数をランダムに更新する。動作制御部14hは、人物ごとに、カウンタから乱数値を抽出し、抽出した乱数値を記憶バッファに格納する。
次に、動作制御部14hは、ステップS32で抽出した乱数値に基づいて、人物ごとのアイコン画像の動作態様を決定する(ステップS33)。具体的には、動作制御部14hは、人物ごとのアイコン画像の動作態様を決定するための動作態様決定テーブルを選択する。そして、動作制御部14hは、ステップS32で抽出した乱数値と動作態様決定テーブルに設定されている乱数値とを比較して動作態様を決定する。
例えば、動作制御部14hは、中心顔画像として選択されている人物Aのアイコン画像の動作態様を決定するための動作態様決定テーブルとして図15(A)に示す第1動作態様決定テーブルを選択する。図15(A)に示す第1動作態様決定テーブルには、動作態様として動作α,β,γ,δが設定されている。そして、動作αに対して0〜24の乱数値が割り振られ、動作βに対して25〜49の乱数値が割り振られ、動作γに対して50〜74の乱数値が割り振られ、動作δに対して75〜99の乱数値が割り振られている。動作制御部14hは、ステップS32で抽出した人物Aの乱数値が0〜24の範囲内の乱数値であり、人物Aのアイコン画像の動作態様として動作αを決定したものとする。
次に、動作制御部14hは、判定領域440内に存在するアイコン画像の数が最も多い人物Bのアイコン画像の動作態様を決定するための動作態様決定テーブルとして図15(B)に示す第2動作態様決定テーブルを選択する。図15(B)に示す第2動作態様決定テーブルには、動作態様として動作β,γ,δが設定されている。すなわち、第2動作態様決定テーブルには、人物Aの動作態様として決定された動作αが設定されていない。第2動作態様決定テーブルにおいて、動作βに対して0〜32の乱数値が割り振られ、動作γに対して33〜65の乱数値が割り振られ、動作δに対して66〜99の乱数値が割り振られている。動作制御部14hは、ステップS32で抽出した人物Bの乱数値が0〜32の範囲内の乱数値であり、人物Bのアイコン画像の動作態様として動作βを決定したものとする。
次に、動作制御部14hは、判定領域440内に存在するアイコン画像の数が2番目に多い人物Cのアイコン画像の動作態様を決定するための動作態様決定テーブルとして図15(C)に示す第3動作態様決定テーブルを選択する。図15(C)に示す第3動作態様決定テーブルには、動作態様として動作γ,δが設定されている。すなわち、第3動作態様決定テーブルには、人物A,Bの動作態様として決定された動作α,βが設定されていない。第3動作態様決定テーブルにおいて、動作γに対して0〜49の乱数値が割り振られ、動作δに対して50〜99の乱数値が割り振られている。動作制御部14hは、ステップS32で抽出した人物Cの乱数値に基づいて、人物Cのアイコン画像の動作態様を決定する。動作制御部14hは、人物Cのアイコン画像の動作態様として動作γを決定した場合は、人物Dのアイコン画像の動作態様として動作δに決定する。
このように、動作制御部14hは、乱数値に基づいて人物ごとに順に動作態様を決定し、すでに動作態様を決定した人物以外の人物の動作態様については、すでに決定した人物の動作態様を除いた動作態様から決定する。このような構成によれば、人物ごとに異なる動作態様を決定することができる。なお、動作制御部14hは、ステップS31で特定したすべての人物に対して、図15(A)に示す第1動作態様決定テーブルを用いて動作態様を決定してもよい。この場合、異なる人物に対して同じ動作態様が決定されることも起こり得る。しかし、このような場合であっても、密集しているアイコンが動作していることには変わりがないので、著しく視認性が低下してしまうことはない。
以上のように、第2実施形態では、動作制御部14hは、乱数値に基づいて動作を決定する。このような構成によれば、動作制御部14hは、複数種類の動作態様の中からアイコン画像に応じた動作態様を決定することができる。従って、動作制御部14hは、バリエーションに富んだ動作態様でアイコン画像を動作させることができる。
<第3実施形態>
上記した第1実施形態では、判定部14gは、判定領域440内のアイコン画像の密集度を算出し、算出した密集度に基づいてアイコン画像が密集しているか否かを判定していた。これに対して、第3実施形態では、判定部14gは、アイコン画像が互いに重なっているか否かによってアイコン画像が密集しているか否かを判定する。
上記した第1実施形態では、判定部14gは、判定領域440内のアイコン画像の密集度を算出し、算出した密集度に基づいてアイコン画像が密集しているか否かを判定していた。これに対して、第3実施形態では、判定部14gは、アイコン画像が互いに重なっているか否かによってアイコン画像が密集しているか否かを判定する。
図16は、重複したアイコン画像の配置を示す概念図である。図16(A)及び(B)において、上部に示した円形の範囲は、表示装置2の表示画面上におけるアイコン画像331B,331C,331Dの輪郭を示している。また、図16(A)及び(B)において、下部に示した長方形の範囲は、重なり合ったアイコン画像331B,331C,331Dの位置関係を示すために、円形のアイコン画像331B,331C,331Dを横から見た場合の概念的な配置を示している。なお、図16(A)及び(B)において、アイコン画像331Bは人物Bのアイコン画像であり、アイコン画像331Cは人物Cのアイコン画像であり、アイコン画像331Dは人物Dのアイコン画像であるものとする。
図16(A)は、3つのアイコン画像331B,331C,331Dが互いに重複している場合を示している。判定部14gは、アイコン画像331B,331C,331Dの中心位置の位置データやアイコン画像(顔画像)のサイズデータに基づいて、アイコン画像331B,331C,331Dが重複しているか否かを判定する。図16(A)の場合、判定部14gは、アイコン画像331B,331C,331Dが互いに重複していると判定する。動作制御部14hは、これらのアイコン画像331B,331C,331Dごとに異なる動作態様を決定し、決定した動作態様での動作を実行させる(ステップS24,S25参照)。
図16(B)は、3つのアイコン画像331B,331C,331Dのうち、アイコン画像331Bとアイコン画像331Cとが重複し、またアイコン画像331Cとアイコン画像331Dとが重複している。しかし、アイコン画像331Bとアイコン画像331Dとは重複していない。判定部14gは、アイコン画像331B,331C,331Dの中心位置の位置データやアイコン画像(顔画像)のサイズデータに基づいて、アイコン画像331B,331C,331Dが重複しているか否かを判定する。図16(B)の場合、判定部14gは、アイコン画像331B,331Cが重複し、アイコン画像331C,331Dが重複していると判定する。また、判定部14gは、アイコン画像331Cが異なるアイコン画像331B及びアイコン画像331Dと重複しているので、3つのアイコン画像331B,331C,331Dが互いに重複しているとみなす。そして、動作制御部14hは、これらのアイコン画像331B,331C,331Dごとに異なる動作態様を決定し、決定した動作態様での動作を実行させる(ステップS24,S25参照)。
以上のように、第3実施形態では、判定部14gは、アイコン画像の少なくとも一部分が重なっている場合にアイコン画像が密集していると判定する。このような構成によれば、互いに重なり合ったアイコン画像の視認性が向上する。また、動作制御部14hは、重なり合ったアイコン画像ごとに異なる動作態様で動作させるので、重なり合ったアイコン画像の視認性が一層向上する。
なお、上記した第3実施形態において、判定部14gは、判定領域440内のアイコン画像についてのみ重なっているか否かを判定してもよいし、また、顔画像表示領域410内のアイコン画像について重なっているか否かを判定してもよい。また、動作制御部14hは、判定部14gにより重なっていると判定されたアイコン画像についてのみ動作させるように構成してもよいし、また、判定部14gにより判定領域440内のアイコン画像が重なっていると判定された場合は、判定領域440内のすべてのアイコン画像を動作させてもよい。
また、動作制御部14hは、重なっているアイコン画像ごとに異なる動作を実行させてもよいし、重なっているアイコン画像に対応する人物ごとに異なる動作を実行させてもよい。また、動作制御部14hは、重なっているアイコン画像について同一の動作を実行させてもよい。
<第1変形例>
上記した各実施形態では、アイコン画像の動作態様は、顔画像の周りの枠が表示画面の平面内で回転する動作であった。しかし、このような動作態様に限定されず、以下に示すような動作態様であってもよい。
上記した各実施形態では、アイコン画像の動作態様は、顔画像の周りの枠が表示画面の平面内で回転する動作であった。しかし、このような動作態様に限定されず、以下に示すような動作態様であってもよい。
図17は、アイコン画像の動作態様の第1変形例を示す図である。なお、図17(A)及び(B)では、一例として人物Bのアイコン画像の動作態様を示しているが、人物A,C,Dのアイコン画像の動作態様についても図17(A)及び(B)に示す動作態様と同様である。
図17(A)は、顔画像(例えば人物Bの顔画像)の周りの枠350Bが軸Oを中心に回転する動作態様を示している。図17(A)の(a)では、顔画像の周りの枠350Bが表示画面の平面内に位置している。そして、図17(A)の(b)及び(c)に示すように、顔画像の周りの枠350Bが軸Oを中心に所定の速度で回転する。上記した各実施形態におけるアイコン画像の動作態様は、枠が平面内で回転するという2次元の動作態様であったが、図17(A)に示すアイコン画像の動作態様は、天体が自転するように枠が軸Oを中心に回転する3次元の動作態様である。このような構成においても、アイコン画像の位置を変化させずに、アイコン画像の視認性を向上させることができる。なお、軸Oを中心とした枠の回転速度を変化させたり、枠の回転方向を変化させたり、軸Oの傾きを変化させることなどにより、3次元の動作態様として様々な動作態様を設けることができる。
図17(B)は、顔画像(例えば人物Bの顔画像)の周りの枠350Bが振動する(又は揺れる)動作態様を示している。このような構成においても、アイコン画像の位置を変化させずに、アイコン画像の視認性を向上させることができる。なお、振動の周期や振幅などを変化させることにより、様々な動作態様を設けることができる。
<第2変形例>
図18は、アイコン画像の動作態様の第2変形例及び識別画像の表示態様の変形例を示す図である。なお、図18(A)及び(B)では、一例として人物Bのアイコン画像の動作態様及び識別画像の表示態様を示しているが、人物A,C,Dのアイコン画像の動作態様及び識別画像の表示態様についても図18(A)及び(B)に示す動作態様と同様である。
図18は、アイコン画像の動作態様の第2変形例及び識別画像の表示態様の変形例を示す図である。なお、図18(A)及び(B)では、一例として人物Bのアイコン画像の動作態様及び識別画像の表示態様を示しているが、人物A,C,Dのアイコン画像の動作態様及び識別画像の表示態様についても図18(A)及び(B)に示す動作態様と同様である。
図18(A)は、顔画像(例えば人物Bの顔画像)自体を回転させる動作態様、又は識別画像(枠350B)とともに顔画像も回転させる動作態様を示している。図18(A)の(a)〜(c)に示すように、顔画像自体又はアイコン画像(顔画像及び枠350B)が時計方向に回転している。このような構成においても、アイコン画像の位置を変化させずに、アイコン画像の視認性を向上させることができる。なお、顔画像を回転させることにより顔画像の視認性は低下するが、顔画像に付加された識別画像(具体的には枠の色)によって人物を識別することができるため、アイコン画像自体の視認性や識別性は低下しない。この場合も、顔画像の回転方向や回転速度を変化させることにより、様々な動作態様を設けることができる。
図18(B)は、顔画像(例えば人物Bの顔画像)に付加される識別画像の表示態様の変形例を示している。図18(B)の(a)に示す枠351Bは、図12に示した枠350Bよりも放射方向の線が間隔短くなっている。すなわち、枠351Bには数多くの線が付されている。また、図18(B)の(a)に示す枠352Bは、複数の曲線が所定間隔で付されている。また、図18(B)の(c)に示す枠353Bは、白と黒の縞模様となっている。このような表示態様の識別画像を異なる人物の顔画像ごとに付加することにより、人物を確実に識別させることができる。また、密集している顔画像ごとに異なる表示態様の識別画像を付加することにより、アイコン画像(識別画像)の視認性を向上させることができる。
なお、図17及び図18に示した動作態様以外の動作態様であってもよい。例えば、動作制御部14hは、顔画像(アイコン画像)を軸を中心に回転させるような動作を行わせてもよい。この場合、平面の顔画像が軸を中心に回転してもよいし、球面に顔画像を貼り付けて球を回転させてもよい。また、動作制御部14hは、アイコン画像の大きさを拡大又は縮小させるように動作させてもよい。この場合、拡大又は縮小する前のアイコン画像の位置がわかるように、拡大又は縮小する前のアイコン画像の軌跡(輪郭)を表示することが望ましい。また、アイコン画像の回転や振動などの動作は、連続的な回転や振動などに限らず、間欠的な回転や振動などであってもよい。
<画像のサムネイル表示>
上記した各実施形態(第1実施形態、第2実施形態、第3実施形態)及び変形例では、フェイスマップにおけるアイコン画像の表示制御及び動作制御について説明した。しかし、上記した各実施形態及び変形例の構成は、フェイスマップ以外の画像の表示制御及び動作制御についても適用することができる。
上記した各実施形態(第1実施形態、第2実施形態、第3実施形態)及び変形例では、フェイスマップにおけるアイコン画像の表示制御及び動作制御について説明した。しかし、上記した各実施形態及び変形例の構成は、フェイスマップ以外の画像の表示制御及び動作制御についても適用することができる。
図19は、画像のサムネイル表示の表示例を示す図である。図19に示すような表示が表示装置2の表示画面に表示される。図19において、横軸は日にちを示し、縦軸は時間を示している。そして、画像処理部14は、デジタルカメラ3で撮影した日時情報に基づいて、撮影した画像(写真)700を配置する。このような構成によっても、画像700が混み合ったり重なったりする。その場合は、判定部14gが画像700が密集しているか否かを判定し、判定部14gが画像700が密集していると判定した場合に、動作制御部14hが密集している画像700を所定の動作態様で動作させる。
なお、コンピュータやスマートフォンなどの端末の表示画面上のアイコン画像の表示制御及び動作制御や、地図上のアイコン画像の表示制御や動作制御などにおいても、上記した各実施形態及び変形例の構成を適用することが可能である。
<画像表示システム>
上記した各実施形態(第1実施形態、第2実施形態、第3実施形態)及び変形例では、それぞれスタンドアローンの形態のシステムである。しかし、そのような形態のシステムには限定されない。例えばクライアントサーバシステムなどの通信ネットワークを通じて接続された画像表示システムSYSについて説明する。以下の説明において、上記の第1〜第3実施形態と同一又は同等の構成部分については同一符号を付けて説明を省略または簡略化する。
上記した各実施形態(第1実施形態、第2実施形態、第3実施形態)及び変形例では、それぞれスタンドアローンの形態のシステムである。しかし、そのような形態のシステムには限定されない。例えばクライアントサーバシステムなどの通信ネットワークを通じて接続された画像表示システムSYSについて説明する。以下の説明において、上記の第1〜第3実施形態と同一又は同等の構成部分については同一符号を付けて説明を省略または簡略化する。
図20は、画像表示システムの構成を示すブロック図である。図20に示すように、この画像表示システムSYSは、クライアント端末1Bの演算処理部10Bにおいて、表示制御部11、画像入力部12、操作制御部13、及び通信部15を有している。これら表示制御部11、画像入力部12、及び操作制御部13は、図1に示した表示制御部11、画像入力部12、及び操作制御部13に相当する。また、図20に示す記憶部20Bは、図1に示した記憶部20と異なり、データベースを備えていない。
図20に示すように、クライアント端末1Bの演算処理部10Bは、通信ネットワーク80を介してサーバ6とデータを送受信する通信部15を有している。また、サーバ6の演算処理部60は、通信ネットワーク80を介してクライアント端末1Bとデータを送受信する通信部61を有している。また、演算処理部60の画像処理部62は、クライアント端末1Bからの要求に応じて、クライアント端末1Bから送信される画像データを記憶部70に蓄積する。そして、画像処理部62は、図1に示した画像処理部14と同様に、画像データに基づいて顔画像の表示制御及び動作制御を実行する。
なお、通信部15の構成や、演算処理部60における通信部61及び画像処理部62の構成は、CPUなどの制御装置が記憶部20B,70に記憶されている制御プログラムに従って処理を実行することにより実現される。
使用者は、クライアント端末1Bに接続されたキーボード3及びマウス4を操作して、デジタルカメラ3や記憶部20Bに記憶されている画像データを読み出し、読み出した画像データをサーバ6に送信する。そして、使用者は、キーボード3及びマウス4を操作して、顔画像の表示をサーバ6に対して要求する。サーバ6における画像処理部62は、画像データからの顔の検出・識別、顔の切り出し、顔の規格化などの処理を実行する。そして、画像処理部62は、所定の位置関係で各顔画像の配置を行い、所定の位置関係で配置された各顔画像のデータをクライアント端末1Bに対して送信する。クライアント端末1Bでは、通信部15がサーバ6からの各顔画像のデータを受信すると、表示制御部11が表示装置2に各顔画像のデータを表示させる。また、画像処理部62は、上記した第1実施形態と同様に、使用者の要求に応じて絞り込み処理なども実行する。
また、サーバ6における画像処理部62は、アイコン画像が密集しているか否かの判定、アイコン画像の動作制御などの処理も実行する。そして、画像処理部62は、所定の動作態様で動作するアイコン画像のデータをクライアント端末1Bに対して送信する。クライアント端末1Bでは、通信部15がサーバ6からの各アイコン画像のデータを受信すると、表示制御部11が表示装置2に各アイコン画像のデータを所定の動作態様で動作させる。
このような構成によれば、クライアント端末1Bが大容量のデータを記憶しておく必要がなくなり、データ管理を一元化できるなど、コストを低減させることができる。
なお、図20に示す画像表示システムSYSでは、クライアント端末1Bの表示制御部11が表示制御を行っているが、これに限定されない。例えば、クライアント端末1Bは、ブラウザを備え、ブラウザを用いて図8等に示すようなWEBページ上の表示内容を表示装置2に表示させるようにしてもよい。このような構成によれば、クライアント端末1Bは、顔画像(アイコン画像)の表示制御などを実現するためのアプリケーションを備える必要がないといった利点がある。
以上、本発明を実施形態を説明したが、本発明の技術的範囲は、上記の実施形態に記載の範囲には限定されない。本発明の趣旨を逸脱しない範囲で、上記の実施形態に、多様な変更または改良を加えることが可能である。また、上記の実施形態で説明した要件の1つ以上は、省略されることがある。そのような変更または改良、省略した形態も本発明の技術的範囲に含まれる。また、上記した実施形態や変形例の構成を適宜組み合わせて適用することも可能である。
上記した第1実施形態において、規格化部14cは、画像を拡大し又は縮小することにより、使用者により選択された中心顔画像の大きさを一致させるように構成していた。このような構成の場合、画像に含まれる中心顔画像以外の顔画像の大きさは、中心顔画像よりも大きくなったり小さくなったりしてしまう。そこで、規格化部14cは、すべての顔画像を予め決められた大きさに統一するようにしてもよい。このような構成によれば、より一層、顔画像の間隔(距離)と人物の関係(親密度など)との間に客観性を持たせることができるようになる。
上記した第1実施形態では、配置処理部14dは、中心顔画像を表示画面400(顔画像表示領域410)の中心に配置していた。しかし、この構成に限らず、配置処理部14dは、中心顔画像を表示画面400の所定の位置(例えば予め決められた位置)に配置してもよい。また、配置処理部14dは、顔画像を写真に写っているそのままの位置に配置していたが、顔画像が混み合ったり重なったりする場合には、空いているスペースに顔画像を配置するようにしてもよい。この場合も、中心画像との距離は変更しないことが好ましい。
上記した第1実施形態において、表示制御部11は、マウス5により顔画像がクリックされたと判定した場合は、クリックされた顔画像が存在する画像を表示する(ステップS15参照)。この場合、表示制御部11は、クリックに基づいて画像を表示する際に、その画像を拡大し又は縮小して表示するようにしてもよい。
また、上記した第1実施形態では、絞り込み条件として、画像の撮影期間、画像の撮影地域、及び画像中の人物の数を例に挙げていた。しかし、これに限らず、絞り込み部14eは、画像が撮影された年・月・日・時間・曜日のいずれか1つで絞り込みを行ってもよい。また、絞り込み部14eは、使用者が予め人物の生年月日を設定していくことにより、撮影日時と生年月日から年齢で絞り込みを行うことも可能となる。また、絞り込み部14eは、顔画像の大きさが所定の大きさ以下である場合は、顔画像の表示対象から除外するようにしてもよい。また、絞り込み部14eは、EXIFの情報に含まれるデジタルカメラの機種、レンズ情報などで絞り込みを行うようにしてもよい。
さらに、上記した各実施形態では、人物の顔画像を表示することにより人物の関係を想起させるようにしていたが、犬などの動物の画像(顔画像)を表示することにより動物同士の関係、動物と人物の関係を想起させるようにしてもよい。
また、上記した第1〜第3実施形態では、画像処理装置1は、パーソナルコンピュータを想定していたが、スマートフォンや携帯電話機、携帯型タブレット、デジタルカメラなどの携帯端末であってもよい。この場合、携帯端末は、デジタルカメラなどの撮影装置から画像データを取り込み、取り込んだ画像データに基づいて上記したような顔画像の表示を行う。また、デジタルカメラ3に代えて、スマートフォンや携帯電話機などで撮影した画像データを利用するようにしてもよい。
また、上記した各実施形態では、判定部14gは、判定領域440を予め定められた広さの領域としていたが、広さが可変の領域とされていてもよい。例えば、カーソル600の位置が中心位置に近い程、判定領域440の広さを広く(又は狭く)してもよい。また、判定領域440が予め定められた所定の広さとされている場合は、判定部14gは、ステップS22で密集度を算出せずに、ステップS23で判定領域440内に存在する顔画像の数が所定数以上であると判定した場合に、判定領域440内の顔画像が密集している判断してもよい。
また、上記した第1実施形態等では、動作制御部14hは、判定領域440内のアイコン画像の少なくとも一部を動作させる構成であったが、カーソル600が位置するアイコン画像だけを動作させる構成でもよい。また、動作制御部14hは、ステップS22で算出した密集度に応じてアイコン画像の動作態様を変化させてもよい。例えば、密集度が高い場合は回転を速くし、密集度が低い場合は回転を遅くする。
また、上記した第3実施形態において、動作制御部14hが重なっているアイコン画像の数に応じて動作態様を変化させてもよい。また、重なっているアイコン画像の重複部分が大きい場合は、重なっているアイコン画像の一方を、他のアイコン画像の存在しない位置に移動させてもよい。この場合は、アイコン画像を移動させたことを示す表示を行うことが望ましい。
また、上記した第1実施形態では、視点検出部14fは、カーソル600の位置に基づいて使用者の視点を検出していたが、カメラで使用者の目の瞳を撮影し、その瞳の動きによって使用者の視点(視線)を検出するような構成であってもよい。
なお、上記した各実施形態において、「画像」は、デジタルカメラ3で撮影された人物などを含む画像のほかに、パーソナルコンピュータなどで作成された漫画の画像、プログラムの機能などを表す表示画面上のアイコンの絵柄の画像なども含まれる。また、「画像」は、静止画だけでなく動画であってもよい。
1…画像処理装置、2…表示装置(表示部)、3…デジタルカメラ、4…キーボード、5…マウス、6…サーバ、10,10B,60…演算処理部、11…制御部、13…操作制御部、14,62…画像処理部、14a…認証部(顔検出部、識別部)、14b…切出部、14c…規格化部、14d…配置処理部、14e…絞り込み部、14f…視点検出部、14g…判定部、14h…動作制御部、350A〜350D,351B,352B,353B…枠(識別画像)、SYS…画像表示システム、
Claims (11)
- 表示部に表示されている複数の画像が密集しているか否かを判定する判定部と、
前記判定部により前記複数の画像が密集していると判定された場合、前記複数の画像のうちの少なくとも一部の画像を動作させる動作制御部とを備える画像処理装置。 - 前記判定部は、単位面積あたりの画像の数に基づいて密集しているか否かを判定する請求項1記載の画像処理装置。
- 前記判定部は、前記画像の少なくとも一部分が重なっている場合に密集していると判定する請求項1または請求項2記載の画像処理装置。
- 使用者の視点を検出する視点検出部を備え、
前記判定部は、前記視点検出部で検出された視点を含む領域内の前記複数の画像が密集しているか否かを判定する請求項1から3のいずれか一項に記載の画像処理装置。 - 前記動作制御部は、前記領域内の前記複数の画像のうちの少なくとも一部の画像を動作させる請求項4記載の画像処理装置。
- 動作は回転または自転である請求項1から5のいずれか一項に記載の画像処理装置。
- 前記動作制御部は、乱数値に基づいて動作を決定する請求項1から6のいずれか一項に記載の画像処理装置。
- 前記動作制御部は、画像ごとに異なる動作を実行させる請求項1から7のいずれか一項に記載の画像処理装置。
- 前記複数の画像は略同一の大きさである請求項1から8のいずれか一項に記載の画像処理装置。
- 複数の画像から顔を検出する顔検出部と、
前記顔検出部で検出された顔を識別する識別部と、
前記識別部により識別された顔のうちの所定人物の顔の位置を全体画像ごとに合わせるように、前記所定人物の顔を配置し、配置された前記所定人物の顔の位置に応じて、前記所定人物を含む全体画像に含まれる顔を全体画像ごとに配置する配置処理部と、
前記配置処理部により配置された顔を前記複数の画像として前記表示部に表示させる表示制御部とを備える請求項1から9のいずれか一項に記載の画像処理装置。 - 制御装置に、
表示部に表示されている複数の画像が密集しているか否かを判定する判定処理と、
前記判定処理により前記複数の画像が密集していると判定された場合、前記複数の画像のうちの少なくとも一部の画像を動作させる動作制御処理とを実行させる制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013244795A JP2015103139A (ja) | 2013-11-27 | 2013-11-27 | 画像処理装置及び制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013244795A JP2015103139A (ja) | 2013-11-27 | 2013-11-27 | 画像処理装置及び制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015103139A true JP2015103139A (ja) | 2015-06-04 |
Family
ID=53378763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013244795A Pending JP2015103139A (ja) | 2013-11-27 | 2013-11-27 | 画像処理装置及び制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015103139A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102867A (ja) * | 2015-12-04 | 2017-06-08 | 富士通株式会社 | 監視システム、監視方法及び監視プログラム |
-
2013
- 2013-11-27 JP JP2013244795A patent/JP2015103139A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102867A (ja) * | 2015-12-04 | 2017-06-08 | 富士通株式会社 | 監視システム、監視方法及び監視プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11682105B2 (en) | Automatic image inpainting | |
US20190073081A1 (en) | Display control apparatus, display control method and display control program | |
US10038839B2 (en) | Assisted text input for computing devices | |
US9665986B2 (en) | Systems and methods for an augmented reality platform | |
KR102669113B1 (ko) | Diy 효과 이미지 수정 | |
KR102173123B1 (ko) | 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치 | |
KR20160143312A (ko) | 이미지 운용 방법 및 이를 지원하는 전자 장치 | |
JP2012094138A (ja) | 拡張現実ユーザインタフェース提供装置および方法 | |
JP6555026B2 (ja) | 情報提供システム | |
US20160349972A1 (en) | Data browse apparatus, data browse method, and storage medium | |
CN110089117B (zh) | 处理和格式化视频用于交互式呈现 | |
US9990665B1 (en) | Interfaces for item search | |
US10699145B1 (en) | Systems and methods for augmented reality assisted form data capture | |
US9792021B1 (en) | Transitioning an interface to a neighboring image | |
US20220345846A1 (en) | Focused map-based context information surfacing | |
WO2022088946A1 (zh) | 一种弯曲文本的字符选择方法、装置和终端设备 | |
KR102303206B1 (ko) | 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치 | |
JP2015103139A (ja) | 画像処理装置及び制御プログラム | |
JP2015046090A (ja) | 表示制御装置及び制御プログラム | |
US20220283698A1 (en) | Method for operating an electronic device in order to browse through photos | |
EP2784736A1 (en) | Method of and system for providing access to data | |
JP2022011927A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN118447193A (zh) | 虚拟内容的展示方法、系统、装置、介质和计算机产品 | |
KR20090036400A (ko) | 이미지 검색 시스템 및 그 검색 방법 |