JP2007079894A - Image processor, processing method and program - Google Patents
Image processor, processing method and program Download PDFInfo
- Publication number
- JP2007079894A JP2007079894A JP2005266383A JP2005266383A JP2007079894A JP 2007079894 A JP2007079894 A JP 2007079894A JP 2005266383 A JP2005266383 A JP 2005266383A JP 2005266383 A JP2005266383 A JP 2005266383A JP 2007079894 A JP2007079894 A JP 2007079894A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- images
- display
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は画像処理装置および方法、並びにプログラムに関し、特に、画像の表示に、画像の内容に適した効果を適用できるようにした画像処理装置および方法、並びにプログラムに関する。 The present invention relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program that can apply an effect suitable for the contents of an image to display an image.
画像の中の人物の顔の画像(顔画像)の検出の方式はこれまで多数提案され、その用途についても、監視カメラによる人物の検出や動画像のシーンの検出など様々な使い方が提案されている(例えば、非特許文献1参照)。 Many methods of detecting human face images (face images) in images have been proposed, and various uses such as detection of people using surveillance cameras and detection of moving image scenes have been proposed. (For example, refer nonpatent literature 1).
しかしながら、その用途は、特定の限定された業務におけるものであり、私生活または家庭生活などの日常生活における使い方は、あまり提案されてこなかった。 However, its use is in a specific limited business, and usage in daily life such as private life or home life has not been proposed so much.
一方、いわゆるデジタルスチルカメラが普及し、静止画像を撮影する機能が携帯電話機に搭載されるようになり、日常生活のなかで静止画像(写真)を撮影する機会は着実に増えている。 On the other hand, so-called digital still cameras have become widespread and functions for taking still images have been installed in mobile phones, and opportunities for taking still images (photographs) in daily life are steadily increasing.
しかしながら、撮影した画像の活用方法としては、ファイル単位での単純な閲覧や、画像をただ順番に表示するだけのシンプルなスライドショー程度しかなかった。 However, the only ways to use the captured images are simple browsing in units of files and simple slideshows in which images are simply displayed in order.
このスライドショーでの画像と画像との切り替えの効果は、前の画像から次の画像がスライドしてくるように表示されたり、とけ込むように遷移して表示されたりするものがある。 As an effect of switching between images in this slide show, there are cases where the next image is displayed as being slid from the previous image, or is displayed so as to be merged.
従来、切り替えの効果を、画像の内容によって変えることはできなかった。また、画像に含まれる顔についての情報を用いた効果は、存在していない。 Conventionally, the effect of switching cannot be changed depending on the contents of an image. Further, there is no effect using information about the face included in the image.
本発明は、このような状況に鑑みてなされたものであり、画像の内容により適した効果を適用して画像を表示することができるようにするものである。 The present invention has been made in view of such a situation, and enables an image to be displayed by applying an effect more suitable for the content of the image.
本発明の一側面は、それぞれの画像に含まれる顔の画像である顔画像を検出する検出手段/ステップと、前記画像を順に切り替えて表示する場合、前記顔画像に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する表示制御手段/ステップとを備える/含む画像処理装置装置若しくは方法、またはプログラムである。 One aspect of the present invention is a detection means / step for detecting a face image, which is a face image included in each image, and, in the case of sequentially switching and displaying the images, image switching according to the face images. An image processing apparatus, method, or program comprising / including display control means / steps for controlling display of the image to which an effect is applied.
本発明の一側面においては、それぞれの画像に含まれる顔の画像である顔画像が検出され、前記画像を順に切り替えて表示する場合、前記顔画像に応じた、画像の切り替えの効果を適用した前記画像の表示が制御される。 In one aspect of the present invention, when a face image that is a face image included in each image is detected and the images are sequentially switched and displayed, an image switching effect according to the face image is applied. The display of the image is controlled.
前記検出手段は、それぞれの前記画像に含まれる前記顔画像の数を検出し、画像処理装置に、予め記憶されている前記画像のうち、1つ以上の前記顔画像が検出された前記画像を読み出すように前記画像の読み出しを制御する読み出し制御手段をさらに設け、前記表示制御手段は、読み出された前記画像の表示を制御するようにすることができる。 The detection means detects the number of the face images included in each of the images, and the image processing apparatus detects the images in which one or more of the face images are detected among the images stored in advance. Read control means for controlling reading of the image so as to read can be further provided, and the display control means can control the display of the read image.
前記検出手段は、それぞれの前記画像に含まれる前記顔画像の数を検出し、前記表示制御手段は、前記顔画像の数に応じた、画像の切り替えの効果を適用した前記画像の表示を制御するようにすることができる。 The detection means detects the number of the face images included in each of the images, and the display control means controls display of the images to which an image switching effect is applied according to the number of the face images. To be able to.
前記検出手段は、前記顔画像の大きさを検出し、前記表示制御手段は、前記顔画像の大きさに応じた、画像の切り替えの効果を適用した前記画像の表示を制御するようにすることができる。 The detection means detects the size of the face image, and the display control means controls display of the image to which an image switching effect is applied according to the size of the face image. Can do.
前記検出手段は、前記画像における前記顔画像の位置を検出し、前記表示制御手段は、前記顔画像の位置に応じた、画像の切り替えの効果を適用した前記画像の表示を制御するようにすることができる。 The detection unit detects a position of the face image in the image, and the display control unit controls display of the image to which an image switching effect is applied according to the position of the face image. be able to.
前記検出手段は、前記顔画像における、顔の向きを検出し、前記表示制御手段は、顔の向きに応じた、画像の切り替えの効果を適用した前記画像の表示を制御するようにすることができる。 The detection unit may detect a face direction in the face image, and the display control unit may control display of the image to which an image switching effect is applied according to the face direction. it can.
前記検出手段は、それぞれの前記画像について、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きを検出し、画像処理装置に、それぞれの前記画像と、それぞれの前記画像における、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きとを関係付ける関係付け手段をさらに設け、前記表示制御手段は、前記顔画像に関係付けられている、それぞれの前記画像における、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きに応じた、画像の切り替えの効果を適用した前記画像の表示を制御するようにすることができる。 The detection means detects the number of the face images, the size of each face image, the position of each face image, or the orientation of the face in each face image for each of the images, and performs image processing. In the apparatus, each of the images, and the number of the face images in each of the images, the size of each of the face images, the position of each of the face images, or the orientation of the face in each of the face images. The display control means further includes an association means for relating the number of the face images, the size of each of the face images, and each of the faces in each of the images related to the face image. Controlling the display of the image to which an image switching effect is applied according to the position of the image or the orientation of the face in each face image It can be.
以上のように、本発明の一側面によれば、画像を表示することができる。 As described above, according to one aspect of the present invention, an image can be displayed.
また、本発明の一側面によれば、画像の内容により適した効果を適用して画像を表示することができる。 In addition, according to one aspect of the present invention, an image can be displayed by applying an effect more suitable for the content of the image.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.
本発明の一側面の画像処理装置は、第1に、それぞれの画像に含まれる顔の画像である顔画像を検出する検出手段(例えば、図3の顔検出部32)と、前記画像を順に切り替えて表示する場合、前記顔画像に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する表示制御手段(例えば、図3の表示制御部36)とを備える。
An image processing apparatus according to an aspect of the present invention firstly includes a detection unit (for example, the
本発明の一側面の画像処理装置は、第2に、前記検出手段が、それぞれの前記画像に含まれる前記顔画像の数を検出し、画像処理装置に、予め記憶されている前記画像のうち、1つ以上の前記顔画像が検出された前記画像を読み出すように前記画像の読み出しを制御する読み出し制御手段(例えば、図3の読み出し制御部35)をさらに設け、前記表示制御手段が、読み出された前記画像の表示を制御するようにすることができる。
Secondly, in the image processing device according to one aspect of the present invention, the detection unit detects the number of the face images included in each of the images, and among the images stored in advance in the image processing device. Read control means (for example, the
本発明の一側面の画像処理装置は、第3に、前記検出手段は、それぞれの前記画像について、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きを検出し、画像処理装置に、それぞれの前記画像と、それぞれの前記画像における、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きとを関係付ける関係付け手段(例えば、図3の顔情報データベース33)をさらに設け、前記表示制御手段は、前記顔画像に関係付けられている、それぞれの前記画像における、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きに応じた、画像の切り替えの効果を適用した前記画像の表示を制御するようにすることができる。
Thirdly, in the image processing apparatus according to one aspect of the present invention, the detection unit includes, for each of the images, the number of the face images, the size of each of the face images, the position of each of the face images, or The orientation of the face in each of the face images is detected, and the image processing apparatus is provided with each of the images, the number of the face images in each of the images, the size of each of the face images, and each of the face images. , Or an association means (for example, the
本発明の一側面の画像処理方法またはプログラムは、それぞれの画像に含まれる顔の画像である顔画像を検出する検出ステップ(例えば、図4のステップS31乃至ステップS38)と、前記画像を順に切り替えて表示する場合、前記顔画像に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する表示制御ステップ(例えば、図8のステップS56)とを含む。 An image processing method or program according to an aspect of the present invention includes a detection step (for example, step S31 to step S38 in FIG. 4) for detecting a face image that is a face image included in each image, and sequentially switching the images. Display control step (for example, step S56 in FIG. 8) for controlling the display of the image to which the effect of image switching is applied according to the face image.
図1は、本発明の一実施の形態のパーソナルコンピュータを説明する図である。画像1は、デジタルスチルカメラ、携帯電話機、デジタルスキャナ、携帯情報端末装置などの被写体を撮影する撮影装置によって撮影された静止画像である。1または複数の画像1は、画像データとして、パーソナルコンピュータ2に供給される。
FIG. 1 is a diagram for explaining a personal computer according to an embodiment of the present invention.
ここで、画像データとしての画像1は、ビットマップ方式、JPEG(Joint Photographic Experts Group)方式、JPEG2000方式、GIF(Graphics Interchange Format)、またはTIFF(Tagged Image File Format)などとすることができる。
Here, the
パーソナルコンピュータ2は、画像1のそれぞれから顔(の画像)を検出し、画像1のそれぞれに、顔の検出の結果を示す顔検出情報3のそれぞれを関係付ける。
The
図2は、パーソナルコンピュータ2の構成の例を示すブロック図である。CPU(Central Processing Unit)11は、ROM(Read Only Memory)12、または記憶部18に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)13には、CPU11が実行するプログラムやデータなどが適宜記憶される。これらのCPU11、ROM12、およびRAM13は、バス14により相互に接続されている。
FIG. 2 is a block diagram illustrating an example of the configuration of the
なお、CPU11として、”Cell誕生”、日経エレクトロニクス、日経BP社、2005年2月28日、89頁乃至117頁に記載されているCellを採用することができる。
As the
CPU11にはまた、バス14を介して入出力インターフェース15が接続されている。入出力インターフェース15には、キーボード、マウス、マイクロホン、静止画像を撮影する撮影部などよりなる入力部16、ディスプレイ、スピーカなどよりなる出力部17が接続されている。CPU11は、入力部16から入力される指令に対応して各種の処理を実行する。そして、CPU11は、処理の結果を出力部17に出力する。
An input /
入出力インターフェース15に接続されている記憶部18は、例えばハードディスクからなり、CPU11が実行するプログラムや各種のデータを記憶する。通信部19は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
The
また、通信部19を介してプログラムを取得し、記憶部18に記憶してもよい。
A program may be acquired via the
入出力インターフェース15に接続されているドライブ20は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア21が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部18に転送され、記憶される。
The drive 20 connected to the input /
図3は、プログラムを実行するパーソナルコンピュータ2において実現される、機能の構成の例を示すブロック図である。プログラムを実行するパーソナルコンピュータ2において、画像データベース31、顔検出部32、顔情報データベース33、読み出し条件設定部34、読み出し制御部35、および表示制御部36が実現される。
FIG. 3 is a block diagram illustrating an example of a functional configuration realized in the
画像データベース31は、外部の装置によって撮影され、入力部16によって入力された画像1を画像データとしてを記憶する。画像データベース31は、記憶している画像1を顔検出部32または読み出し制御部34に供給する。
The
例えば、画像データベース31は、ハードディスクである記憶部18への、画像1の画像データとしての記憶を管理し、画像1を画像データとして、記憶部18に記憶させたり、記憶部18に画像データとして記憶されている画像1を読み出す。
For example, the
顔検出部32は、それぞれの画像1に含まれる顔の画像を検出する。例えば、顔検出部32は、画像データベース31から供給された画像データとしての画像1に含まれる顔の画像を検出する。顔検出部32は、検出した顔の画像についての情報である顔検出情報3を顔情報データベース33に供給する。
The
顔情報データベース33は、それぞれの画像1と、それぞれの画像1から検出された顔の画像についての顔検出情報3とを関係付ける。例えば、顔情報データベース33は、それぞれの画像1と顔検出情報3とを関係付けて、記憶する。
The
なお、顔情報データベース33は、顔検出情報3が記憶部18に記憶されるように構成される。
The
読み出し条件設定部34は、キーボードまたはマウスなどからなる入力部16への使用者による操作に応じた入力部16からの信号を基に、画像1を読み出す条件を設定する。読み出し条件設定部34は、設定した条件を読み出し制御部35に供給する。
The read
読み出し制御部35は、読み出し条件設定部34から供給された、設定された条件、および顔情報データベース33に記憶されている顔検出情報3に基づいて、顔情報データベース33からの画像1の読み出しを制御する。読み出し制御部35は、読み出した画像1を表示制御部36に供給する。
The
表示制御部36は、読み出し制御部35から供給された画像1をディスプレイとしての出力部17に表示させるように画像1の表示を制御する。表示制御部36は、判定部51およびエフェクト適用部52を備える。
The
判定部51は、顔情報データベース33に記憶されている顔検出情報3を基に、表示する画像1に含まれる顔の画像が所定の条件を満たすか否かを判定する。
Based on the face detection information 3 stored in the
エフェクト適用部52は、判定部51による判定の結果に対応した表示の効果を、表示する画像1に適用する。
The
図4は、顔の検出の処理を説明するフローチャートである。ステップS31において、顔検出部32は、画像データベース31から画像1を入力し、入力された画像1から顔の画像を検出する。
FIG. 4 is a flowchart illustrating face detection processing. In step S <b> 31, the
例えば、ステップS31において、顔検出部32は、画像データベース31から、図5に例示される画像1を入力し、入力された画像1から顔の画像を検出する。
For example, in step S <b> 31, the
より具体的には、例えば、顔検出部32は、ステップS31において、画像1の画素のうち、人の肌の色に対応する所定の色の範囲に属する色を示す画素値を有する画素を特定する。そして、顔検出部32は、色によって特定された画素のうち、所定の数以上、相互に隣接している画素により構成される領域を顔の画像とする。
More specifically, for example, in step S31, the
ステップS32において、顔検出部32は、ステップS31の処理で検出された顔の画像の数を数える。すなわち、ステップS32において、顔検出部32は、それぞれの画像1に含まれる顔の画像の数を検出する。
In step S32, the
ステップS33において、顔検出部32は、1つ以上の顔の画像が検出されたか否かを判定し、1つ以上の顔の画像が検出されたと判定された場合、ステップS34に進み、検出された顔の画像のうちの、1つの顔の画像を選択する。
In step S33, the
ステップS35において、顔検出部32は、選択された顔の画像について、画像1における顔の位置を検出する。
In step S35, the
例えば、ステップS35において、顔検出部32は、画像1の全体の高さおよび全体の幅をそれぞれ1とした場合、画像1における顔の画像の位置として、画像1の全体に対する相対的な、顔の画像の縦方向の位置および横方向の位置を検出する。
For example, in step S <b> 35, when the overall height and the overall width of the
ステップS36において、顔検出部32は、選択された顔の画像について、顔の画像の大きさを検出する。
In step S36, the
例えば、ステップS36において、顔検出部32は、画像1の全体の高さおよび全体の幅をそれぞれ1とした場合、画像1における顔の画像の大きさとして、画像1の全体に対する相対的な、顔の画像の高さおよび幅を検出する。
For example, in step S36, the
ステップS37において、顔検出部32は、選択された顔の画像について、顔の向きを検出する。なお、詳細は後述するが、ステップS37において、顔検出部32は、顔の向きとして、顔のロール角、ピッチ角、およびヨー角を検出する。
In step S <b> 37, the
例えば、ステップS37において、顔検出部32は、予め定義されている、想定される顔の方向ごとの複数のパターンと、選択された顔の画像と一致するか否かを判定し、顔の向きを、顔の画像と一致するパターンに対応する向きとすることで、顔の向きを検出する。
For example, in step S37, the
ステップS38において、顔検出部32は、総ての顔の画像を選択したか否かを判定し、総ての顔の画像を選択していないと判定された場合、ステップS34に進み、次の顔の画像を選択して、上述した処理を繰り返す。
In step S38, the
このように、例えば、顔検出部32は、画像データベース31に格納されている画像1のそれぞれについて、顔の画像を検出して、さらに、顔の画像の数を検出し、顔の画像のそれぞれの位置、顔の画像のそれぞれの大きさ、顔の画像のそれぞれにおける顔の向きを検出する。
Thus, for example, the
ステップS38において、総ての顔の画像を選択したと判定された場合、ステップS39に進み、顔検出部32は、検出した顔の画像の数、およびそれぞれの顔の画像についての、顔の位置、顔の大きさ、顔の向きを示す顔検出情報3を出力し、顔情報データベース33は、画像1とその顔検出情報3とを関係付けて、その顔検出情報3を記憶して、処理は終了する。
If it is determined in step S38 that all face images have been selected, the process proceeds to step S39, where the
例えば、顔検出部32は、図5に例示される画像1に対して、図6に示される例の顔検出情報3を出力する。顔検出情報3は、例えば、XML(eXtensible Mark-up Language)方式で記述される。
For example, the
<photo>タグおよび</photo>タグの間には、画像1との関係付けを示す情報および顔の画像に関する情報が配置される。
Between the <photo> tag and the </ photo> tag, information indicating the relationship with the
<filepath>タグおよび</filepath>タグの間に配置されているC:\hoge\hoge.jpgは、図6に例示される顔検出情報3が、Cドライブ(との名前を付された記録媒体)のルートフォルダの下の、hogeであるフォルダ名のフォルダに格納されている、hoge.jpgであるファイル名のファイルに格納されている画像データである画像1と関係付けられていることを示す。
The C: \ hoge \ hoge.jpg arranged between the <filepath> tag and the </ filepath> tag is a record in which the face detection information 3 illustrated in FIG. It is related to the
<Faceinfo>タグおよび</Faceinfo>タグの間には、hoge.jpgであるファイル名のファイルに格納されている画像データである画像1に関する情報が配置される。すなわち、<Faceinfo>タグおよび</Faceinfo>タグの間には、hoge.jpgであるファイル名のファイルに格納されている画像データである画像1に含まれる顔の画像に関する情報が配置される。
Between the <Faceinfo> tag and the </ Faceinfo> tag, information related to the
<TotalFace>タグおよび</TotalFace>タグの間に配置されている1は、hoge.jpgであるファイル名のファイルに格納されている画像データである画像1に含まれる顔の画像の数が1つであることを示す。すなわち、<TotalFace>タグおよび</TotalFace>タグの間に配置されている値は、画像1に含まれる顔の画像の総数を示す。
1 placed between the <TotalFace> tag and the </ TotalFace> tag is the number of face images included in the
<FaceEntry>タグおよび</FaceEntry>タグの間には、1つの顔の画像についての情報が配置される。図6に例示される顔検出情報3における顔の画像の総数が1なので、1組の<FaceEntry>タグおよび</FaceEntry>タグが配置されることになる。 Information about one face image is arranged between the <FaceEntry> tag and the </ FaceEntry> tag. Since the total number of face images in the face detection information 3 illustrated in FIG. 6 is 1, a set of <FaceEntry> tags and </ FaceEntry> tags are arranged.
<x>タグおよび</x>タグの間に配置されている値は、画像1における顔の画像の横方向の位置を示す。図6において、<x>タグおよび</x>タグの間に配置されている0.328767は、画像1の左端を0.0とし、画像1の右端を1.0とした場合に、顔の画像の右端の横方向の位置が、0.328767であることを示す。
The value arranged between the <x> tag and the </ x> tag indicates the position in the horizontal direction of the face image in the
<y>タグおよび</y>タグの間に配置されている値は、画像1における顔の画像の縦方向の位置を示す。図6において、<y>タグおよび</y>タグの間に配置されている0.204082は、画像1の上端を0.0とし、画像1の下端を1.0とした場合に、顔の画像の上端の縦方向の位置が、0.204082であることを示す。
A value arranged between the <y> tag and the </ y> tag indicates the position in the vertical direction of the face image in the
すなわち、<x>タグおよび</x>タグの間には、顔の画像の正規化された横方向の位置が配置され、<y>タグおよび</y>タグの間には、顔の画像の正規化された縦方向の位置が配置される。 That is, the normalized horizontal position of the face image is placed between the <x> tag and the </ x> tag, and the face image is placed between the <y> tag and the </ y> tag. The normalized vertical position of the image is placed.
<width>タグおよび</width>タグの間に配置されている値は、画像1における顔の画像の幅(横方向のサイズ)を示す。図6において、<width>タグおよび</width>タグの間に配置されている0.408163は、画像1の幅を1.0とした場合に、顔の画像の幅が、0.408163であることを示す。
A value arranged between the <width> tag and the </ width> tag indicates the width (lateral size) of the face image in the
<height>タグおよび</height>タグの間に配置されているは、画像1における顔の画像の高さ(縦方向のサイズ)を示す。図6において、<height>タグおよび</height>タグの間に配置されている0.273973は、画像1の高さを1.0とした場合に、顔の画像の高さが、0.273973であることを示す。
Arranged between the <height> tag and the </ height> tag indicates the height (vertical size) of the face image in the
すなわち、<width>タグおよび</width>タグの間には、顔の画像の正規化された幅が配置され、<height>タグおよび</height>タグの間には、顔の画像の正規化された高さが配置される。 That is, the normalized width of the face image is placed between the <width> tag and the </ width> tag, and the face image normalization is placed between the <height> tag and the </ height> tag. The height is arranged.
<roll>タグおよび</roll>タグの間に配置されている値は、顔の画像における顔のロール角を示す。図6において、<roll>タグおよび</roll>タグの間に配置されている0.000000は、顔の画像における顔のロール角が、0.000000度であることを示す。 The value arranged between the <roll> tag and the </ roll> tag indicates the roll angle of the face in the face image. In FIG. 6, 0.000000 arranged between the <roll> tag and the </ roll> tag indicates that the face roll angle in the face image is 0.000000 degrees.
<pitch>タグおよび</pitch>タグの間に配置されている値は、顔の画像における顔のピッチ角を示す。図6において、<pitch>タグおよび</pitch>タグの間に配置されている0.000000は、顔の画像における顔のピッチ角が、0.000000度であることを示す。 The value arranged between the <pitch> tag and the </ pitch> tag indicates the pitch angle of the face in the face image. In FIG. 6, 0.000000 arranged between the <pitch> tag and the </ pitch> tag indicates that the pitch angle of the face in the face image is 0.000000 degrees.
<yaw>タグおよび</yaw>タグの間に配置されている値は、顔の画像における顔のヨー角を示す。図6において、<yaw>タグおよび</yaw>タグの間に配置されている0.000000は、顔の画像における顔のヨー角が、0.000000度であることを示す。 The value arranged between the <yaw> tag and the </ yaw> tag indicates the face yaw angle in the face image. In FIG. 6, 0.000000 arranged between the <yaw> tag and the </ yaw> tag indicates that the face yaw angle in the face image is 0.000000 degrees.
ここで、図7で示されるように、ロール角は、顔の前後方向の位置を示す前後軸(x軸)の周りの移動角である。ピッチ角は、顔の左右方向の位置を示す横軸(y軸)の周りの移動角である。ヨー角は、顔の上下方向の位置を示す垂直軸(z軸)の周りの移動角である。 Here, as shown in FIG. 7, the roll angle is a movement angle around the front-rear axis (x-axis) indicating the position of the face in the front-rear direction. The pitch angle is a movement angle around the horizontal axis (y axis) indicating the position of the face in the left-right direction. The yaw angle is a movement angle around the vertical axis (z axis) indicating the vertical position of the face.
ステップS33において、1つ以上の顔の画像が検出されていないと判定された場合、ステップS39に進み、顔検出部32は、検出した顔の画像の数が0であることを示す顔検出情報3を出力して、顔情報データベース33は、画像1とその顔検出情報3とを関係付けて、その顔検出情報3を記憶して、処理は終了する。
If it is determined in step S33 that one or more face images have not been detected, the process proceeds to step S39, where the
図4を参照して説明した顔の検出の処理は、それぞれの画像1に適用され、それぞれの画像1について、顔の画像が検出される。その結果、それぞれの画像1について、検出した顔の画像の数、およびそれぞれの顔の画像についての、顔の位置、顔の大きさ、顔の向きを示す顔検出情報3が画像1に関係付けられて、顔情報データベース33に記憶される。
The face detection process described with reference to FIG. 4 is applied to each
顔検出情報3は、画像1とは別に、顔情報データベース33に記録されると説明したが、Exifの規格に準拠した画像1のデータの付加情報として、画像1を格納するファイルに格納するようにしてもよい。
The face detection information 3 has been described as being recorded in the
顔検出情報3を用いることで、例えば、図8で示されるように、画像1における顔の画像の範囲を表示することができるようになる。
By using the face detection information 3, for example, as shown in FIG. 8, the range of the face image in the
図9は、表示の処理を説明するフローチャートである。ステップS51において、読み出し条件設定部34は、使用者による操作に応じた入力部16からの信号またはROM12またはRAM13に予め記憶されているモードを示すデータを基に、顔の画像が検出された画像1である顔検出画像のみを表示するモードであるか否かを判定し、顔検出画像のみを表示するモードであると判定された場合、ステップS52に進み、読み出す画像1の顔の数を1以上に設定する。例えば、ステップS52において、読み出し条件設定部34は、読み出し制御部35に、読み出す画像1の顔の数が1以上であることを示す値を書き込むことで、読み出す画像1の顔の数を1以上に設定する。
FIG. 9 is a flowchart for explaining display processing. In step S51, the read
ステップS51において、顔検出画像のみを表示するモードでないと判定された場合、ステップS53に進み、読み出し条件設定部34は、使用者による操作に応じた入力部16からの信号またはROM12またはRAM13に予め記憶されているモードを示すデータを基に、顔の画像が検出されていない画像1である非顔検出画像のみを表示するモードであるか否かを判定する。ステップS53において、非顔検出画像のみを表示するモードであると判定された場合、ステップS54に進み、読み出し条件設定部34は、読み出す画像1の顔の数を0に設定する。例えば、ステップS54において、読み出し条件設定部34は、読み出し制御部35に、読み出す画像1の顔の数が0であることを示す値を書き込むことで、読み出す画像1の顔の数を0に設定する。
If it is determined in step S51 that the mode is not the mode for displaying only the face detection image, the process proceeds to step S53, and the reading
ステップS53において、非顔検出画像のみを表示するモードでないと判定された場合、総ての画像を表示するモードなので、ステップS55に進み、読み出し条件設定部34は、読み出す画像1の顔の数を0以上に設定する。例えば、ステップS55において、読み出し条件設定部34は、読み出し制御部35に、読み出す画像1の顔の数が0以上であることを示す値を書き込むことで、読み出す画像1の顔の数を0以上に設定する。
If it is determined in step S53 that the mode is not a mode for displaying only the non-face detection image, the mode is a mode for displaying all the images. Set to 0 or higher. For example, in step S55, the read
ステップS56において、スライドショーの処理が実行され、処理は終了する。 In step S56, a slide show process is executed, and the process ends.
このように、読み出す画像1の顔の数を1以上、0、または0以上のいずれかに設定することで、スライドショーにおいて、顔検出情報3を基に、画像1を選別することで、顔の画像が検出されている画像1に限定して表示したり、顔の画像が検出されていない風景画である画像1に限定して表示したり、全部の画像1を表示したりすることができる。
In this way, by setting the number of faces of the
なお、使用者による操作に応じて内部処理で、読み出す画像1の顔の数を1以上、0、または0以上のいずれかに設定すると説明したが、図10で示されるように、顔検出画像のみを表示するモードである場合、読み出す画像1の顔の数を1以上とし、非顔検出画像のみを表示するモードである場合、読み出す画像1の顔の数を0とし、全ての画像1を表示するモードである場合、読み出す画像1の顔の数を0以上とすることを示す設定ファイルを予め記憶しておいて、スライドショーを開始するときに、この設定ファイルを読み込んで、設定ファイルおよび顔検出情報3を基に、画像1を選別するようにしてもよい。
It has been described that the number of faces of the
図11は、図9のステップS56に対応するスライドショーの処理の詳細を説明するフローチャートである。ステップS71において、読み出し制御部35は、画像1の表示の順序を決める。
FIG. 11 is a flowchart for explaining the details of the slide show process corresponding to step S56 in FIG. In step S <b> 71, the
すなわち、例えば、ステップS71において、読み出し制御部35は、顔情報データベース33から、それぞれの画像1の顔検出情報3を読み出す。読み出し制御部35は、それぞれの画像1の顔検出情報3および設定された読み出す画像1の顔の数を基に、表示する画像1を決定する。
That is, for example, in step S <b> 71, the
より具体的には、読み出し制御部35は、読み出す画像1の顔の数が1以上に設定されている場合には、顔検出情報3で示される顔の数が1以上である画像1を、表示する画像1と決定し、読み出す画像1の顔の数が0に設定されている場合には、顔検出情報3で示される顔の数が0である画像1を、表示する画像1と決定し、読み出す画像1の顔の数が0以上に設定されている場合には、顔検出情報3で示される顔の数が0以上である画像1(すなわち全ての画像1)を、表示する画像1と決定する。
More specifically, when the number of faces of the
そして、読み出し制御部35は、決定された表示する画像1の表示する順序を決める。より具体的には、例えば、読み出し制御部35は、Exifの規格に準拠した画像1のデータの付加情報として、画像1を格納するファイルに格納されている撮影された日付の順に表示させるように、決定された表示する画像1の表示する順序を決める。また、例えば、読み出し制御部35は、画像1の名前を基に、決定された表示する画像1の表示する順序を決める。
Then, the
ステップS72において、読み出し制御部35は、決められた順序で、画像データベース31から、1つの画像1を読み出す。読み出し制御部35は、読み出した画像1を表示制御部36に供給する。ステップS73において、読み出し制御部35は、顔情報データベース33から、ステップS72の処理で読み出した画像1に関係付けられている顔検出情報3を読み出す。読み出し制御部35は、読み出した顔検出情報3を表示制御部36に供給する。
In step S72, the
このように、顔情報データベースに格納されている顔検出情報3を用いて画像1がフィルタリングされ、スライドショーに用いる画像1が選別される。
Thus, the
ステップS74において、表示制御部36の判定部51は、読み出し制御部35から供給された画像1があるかを基に、次に表示する画像1があるか否かを判定する。ステップS74において、読み出し制御部35から供給された画像1があるので、次に表示する画像1があると判定された場合、ステップS75に進み、判定部51は、画像1に関係付けられている顔検出情報3に示されている顔の画像の数から、顔の数が1つであるか否かを判定する。
In step S <b> 74, the
ステップS75において、顔の数が1つであると判定された場合、ステップS76に進み、判定部51は、画像1に関係付けられている顔検出情報3に示されている顔の向きを基に、顔が正面を向いているか否かを判定する。
If it is determined in step S75 that the number of faces is one, the process proceeds to step S76, where the
ここで、顔が正面を向いているとは、いわゆる正面顔である状態をいい、顔の画像における顔のロール角、ピッチ角、およびヨー角が全て0度である状態をいう。なお、顔の画像における顔のロール角、ピッチ角、およびヨー角が0度を中心とした所定の範囲(例えば、プラスマイナス10度など)にある場合、顔が正面を向いていると判定するようにしてもよい。 Here, the face is facing the front means a so-called front face, and the face roll angle, pitch angle, and yaw angle in the face image are all 0 degrees. When the face roll angle, pitch angle, and yaw angle in the face image are within a predetermined range centered on 0 degrees (for example, plus or minus 10 degrees), it is determined that the face is facing the front. You may do it.
ステップS76において、顔が正面を向いていると判定された場合、ステップS77に進み、表示制御部36のエフェクト適用部52は、顔からズームアウトするエフェクトを画像1に適用して、表示制御部36は、顔からズームアウトするように画像1を、ディスプレイである出力部17に表示する。ステップS77の処理の後、手続きは、ステップS72に戻り、上述した処理を繰り返す。
If it is determined in step S76 that the face is facing the front, the process proceeds to step S77, and the
図12および図13は、顔からズームアウトするように表示される画像1の例を示す図である。
12 and 13 are diagrams illustrating an example of the
ステップS77において、まず最初に、エフェクト適用部52は、顔の大きさにズームインするエフェクトを画像1に適用する。顔の大きさにズームインされた画像1は、顔の画像の中心位置が、ディスプレイである出力部17の表示領域の中央位置(Xd/2,Yd/2)に配置され、顔の画像の幅および高さが表示領域の短辺を超えないように拡大されて表示される。ここで、Xdは、出力部17の表示領域の横幅を示し、Ydは、出力部17の表示領域の高さを示す。
In step S77, first, the
すなわち、顔の画像の中心点(x,y)は、式(1)で表される。
顔の画像の中心点(x,y)=(Xd/2,Yd/2) ・・・(1)
また、表示領域の短辺が縦方向である場合、画像1の高さを1.0としているので、顔の画像の拡大率Zrは、式(2)で表される。
Zr=1/face_height ・・・(2)
face_heightは、顔検出情報3の<height>タグおよび</height>タグの間に配置されている顔の画像の高さである。
That is, the center point (x, y) of the face image is expressed by Expression (1).
Center point of face image (x, y) = (Xd / 2, Yd / 2) (1)
Further, when the short side of the display area is in the vertical direction, the height of the
Zr = 1 / face_height (2)
The face_height is the height of the face image arranged between the <height> tag and the </ height> tag of the face detection information 3.
表示領域の短辺が横方向である場合、画像1の幅を1.0としているので、顔の画像の拡大率Zrは、式(3)で表される。
Zr=1/face_width ・・・(3)
face_widthは、<width>タグおよび</width>タグの間に配置されている顔の画像の幅である。
When the short side of the display area is in the horizontal direction, since the width of the
Zr = 1 / face_width (3)
face_width is the width of the face image arranged between the <width> tag and the </ width> tag.
例えば、エフェクト適用部52は、図12で示されるように、顔の画像の幅または顔の画像の高さを基に、顔の画像の全体が出力部17の表示領域に表示されるように、式(2)または式(3)を基に、顔の画像の拡大率Zrを決定する。図12で示される例において、表示領域の短辺が縦方向なので、エフェクト適用部52は、式(2)を基に、顔の画像の拡大率Zrを決定する。
For example, as shown in FIG. 12, the
図12において、太線は、顔の画像の範囲を示す。顔の大きさにズームインされている場合、顔の画像の拡大率Zrは、式(2)を基に、決定された値とされ、顔の画像の高さが出力部17の表示領域の高さと一致するように、顔の画像が拡大される。顔の画像を含む画像1の領域であって、出力部17の表示領域に表示される画像1の領域である表示エリアの高さYは、顔の画像の高さface_heightに等しくされる。
In FIG. 12, the bold line indicates the range of the face image. When the face is zoomed in to the size of the face, the enlargement ratio Zr of the face image is set to a value determined based on Expression (2), and the height of the face image is the height of the display area of the
顔の画像を含む画像1の領域であって、出力部17の表示領域に表示される画像1の領域である表示エリアの幅Xは、Xd/Zrとされる。表示領域の長辺が横方向なので、表示エリアの幅Xは、表示エリアの高さYより長くなる。
The width X of the display area which is the area of the
表示エリアは、Zrだけ拡大されて、出力部17の表示領域に表示される。すなわち、表示エリアの高さYは、Zrだけ拡大されて、拡大された画像の高さPY=Y/face_widthとされ、表示エリアの幅Xは、Zrだけ拡大されて、拡大された画像の幅PX=X/face_widthとされて、拡大された画像は、出力部17の表示領域の全体に表示される。ここで、PY=Yd、PX=Xdとなる。
The display area is enlarged by Zr and displayed in the display area of the
次に、エフェクト適用部52は、ズームアウトするエフェクトを画像1に適用する。
Next, the
すなわち、エフェクト適用部52は、拡大された画像の頂点のそれぞれ(4隅のそれぞれ)から、表示エリアの頂点のそれぞれ(4隅のそれぞれ)までの距離dnをそれぞれ算出し、一番遠い距離dnにある点に対して指定された時間で縮小されるように拡大率Zrを小さくしつつ、最終的に出力部17の表示領域の全体に画像1の全体を描画させる。
That is, the
これにより、図13で示されるように、画像1の切り替えにおいて、時間の経過に応じて、顔の画像にズームインした状態から、全体の画像1にズームアウトされるように画像1が表示されることになる。
As a result, as shown in FIG. 13, in switching of
この場合、前に表示されている画像1の透過率を変化させながら画像を入れ替える処理を行うようにしてもよい。
In this case, a process of replacing the images while changing the transmittance of the previously displayed
ステップS76において、顔が正面を向いていないと判定された場合、ステップS78に進み、表示制御部36のエフェクト適用部52は、顔の方向にスライドインするエフェクトを画像1に適用して、表示制御部36は、顔の方向にスライドインするように画像1を、ディスプレイである出力部17に表示する。ステップS78の処理の後、手続きは、ステップS72に戻り、上述した処理を繰り返す。
If it is determined in step S76 that the face is not facing the front, the process proceeds to step S78, where the
図14および図15は、顔の方向にスライドインするように表示される画像1の例を示す図である。
14 and 15 are diagrams illustrating examples of the
例えば、ステップS78において、エフェクト適用部52は、顔の方向にスライドインするエフェクトを画像1に適用する場合、最初に、2次元の平面に投影された顔の角度θと、顔の画像の位置とから、スライドを開始する画像1の位置を求める。
For example, in step S78, when applying the effect that slides in the face direction to the
ここで、2次元の平面に投影された顔の角度θについて説明する。顔の画像は、平面に表示されるので、図7で示されるように、顔の正面から垂直に伸びる垂直ベクトルLを画面に投影したときの角度が、2次元の平面に投影された顔の角度θとされる。 Here, the angle θ of the face projected on the two-dimensional plane will be described. Since the face image is displayed on the plane, as shown in FIG. 7, the angle when the vertical vector L extending vertically from the front of the face is projected onto the screen is the angle of the face projected on the two-dimensional plane. The angle is θ.
エフェクト適用部52は、スライドを開始する画像1の位置として、画像1を、顔の角度θに対して逆の方向に移動させて、表示領域(描画領域)の境界に画像1の顔の画像が接する位置を求める。
The
例えば、図14で示されるように、エフェクト適用部52は、2次元の平面に投影された顔の角度θに対して逆の方向に画像1を移動させて、画像1が左側に表示オフセットX0だけ移動され、画像1が上側に表示オフセットY0だけ移動した位置をスライドを開始する画像1の位置とする。図14で示される例において、エフェクト適用部52は、画像1の顔の画像の左端が、表示領域の左端と一致し、画像1の顔の画像の上端が、表示領域の上端と一致する位置、すなわち、表示領域の左上に顔の画像が配置される位置を画像1の位置とする。
For example, as shown in FIG. 14, the
図14で示される例において、オフセット距離d0は、(X02+Y02)1/2である。スライドを開始する画像1の位置において、画像1の顔の画像の全体が出力部17の表示領域に表示されることになる。
In the example shown in FIG. 14, the offset distance d0 is (X0 2 + Y0 2 ) 1/2 . The entire face image of
エフェクト適用部52は、オフセット距離d0に対して指定された時間で画像1のスライドが完了するように顔の角度θの方向に画像1のオブジェクトを移動させつつ描画する。
The
次の画像1を表示させるように画像1の表示が移る(表示が切り替えられる)場合には、画像1の全体が表示されている状態から、顔の角度θの方向に画像1がさらにスライドされて、顔の画像が表示領域(描画領域)の境界に接するまで移動するように、画像1が出力部17の表示領域に表示される。
When the display of the
これにより、図15で示されるように、画像1の切り替えにおいて、顔の方向にスライドインするように画像1が表示されることになる。
As a result, as shown in FIG. 15, when switching
スライドインして画像1を表示させる場合に、画像1の透過率を変化させるようにしてもよい。
When the
ステップS75において、顔の数が1つでないと判定された場合、ステップS79に進み、表示制御部36の判定部51は、画像1に関係付けられている顔検出情報3に示されている顔の数から、顔の数が4つであるか否かを判定する。
If it is determined in step S75 that the number of faces is not one, the process proceeds to step S79, where the
ステップS79において、顔の数が4つであると判定された場合、ステップS80に進み、表示制御部36のエフェクト適用部52は、4分割した画面の領域のそれぞれにおいて、顔にズームしつつ、クロスフェードするエフェクトを画像1に適用して、表示制御部36は、4分割した画面の領域のそれぞれにおいて、顔にズームしつつ、クロスフェードするように画像1を、ディスプレイである出力部17に表示する。ステップS80の処理の後、手続きは、ステップS72に戻り、上述した処理を繰り返す。
If it is determined in step S79 that the number of faces is four, the process proceeds to step S80, where the
例えば、図16で示されるように、エフェクト適用部52は、出力部17の表示領域を4つに分割した領域のそれぞれに、今表示されている画像1に含まれている顔の画像を徐々に表示させるように、画像の透過率を変化させながら顔の画像を表示させる。そして、エフェクト適用部52は、4つに分割した領域のそれぞれに顔の画像を、次に表示しようとする画像1に含まれている顔の画像に徐々に変化させて表示させるように、画像の透過率を変化させながら顔の画像を表示させる。
For example, as shown in FIG. 16, the
さらに、エフェクト適用部52は、出力部17の表示領域の全体に画像1全体を徐々に表示させるように、画像の透過率を変化させながら次の画像1を表示させる。
Further, the
ステップS79において、顔の数が4つでないと判定された場合、ステップS81に進み、表示制御部36は、顔検出情報3を基に、注目する顔を選択する。例えば、ステップS81において、表示制御部36は、顔検出情報3を基に、最も大きい顔を選択する。例えば、顔の数が0であると判定され、画像1が風景画像である場合、この場合、顔は選択されない。または、例えば、画像1が風景画像である場合、画像1に含まれている画像オブジェクトをランダムに選択する。
If it is determined in step S79 that the number of faces is not four, the process proceeds to step S81, and the
ステップS82において、表示制御部36のエフェクト適用部52は、選択した顔の方向にスライドインするエフェクトを画像1に適用して、表示制御部36は、選択した顔の方向にスライドインするように画像1を、ディスプレイである出力部17に表示する。例えば、顔の数が0であると判定され、画像1が風景画像である場合、顔は選択されていないので、表示制御部36のエフェクト適用部52は、予め定めた方向にスライドインするエフェクトを画像1に適用して、表示制御部36は、予め定めた方向にスライドインするように画像1を、ディスプレイである出力部17に表示する。
In step S82, the
また、ランダムに選択された画像オブジェクトに対して、顔の画像と同様に処理を適用するようにしてもよい。 In addition, processing may be applied to a randomly selected image object in the same manner as a face image.
ステップS82の処理の後、手続きは、ステップS72に戻り、上述した処理を繰り返す。 After the process of step S82, the procedure returns to step S72 and repeats the above-described process.
ステップS74において、次に表示する画像1がないと判定された場合、処理は終了する。
If it is determined in step S74 that there is no
なお、画像1に適用するエフェクトは、ズームインズームアウト、スライドイン、またはクロスフェードに限らず、顔検出情報3に含まれる情報から、画像1に適用する効果(エフェクト)を選択するようにしてもよい。この場合、選択方法は、ランダムに選択するようにしても良く、また、顔の画像の大きさまたは位置に、重み付けをして効果を選択するようにしてもよい。
Note that the effect applied to the
このように、画像1に含まれる顔の画像により適したエフェクトを適用して画像1を表示することができる。すなわち、画像1の内容により適した効果を適用して画像1を表示することができる。
As described above, the
顔の画像の検出の結果得られたメタ情報(顔検出情報3)を用いてスライドショーの処理を実行することで、画像1の中身に応じた効果を作り出すことができる。これにより、表示される画像1の印象がさらに高まり、使用者は、思い出をより想起しやすくなる。
By executing the slide show process using the meta information (face detection information 3) obtained as a result of the detection of the face image, an effect corresponding to the contents of the
また、人が写っている画像1を用いたスライドショーだけでなく、人が写っていない画像1を用いてスライドショーの処理を実行することができる。選択する画像1から人が写っている画像1を排除することで、純粋に風景を楽しむスライドショーを提供したり、画像1に写っている人のプライバシーに配慮したスライドショーを提供できるようになる。
In addition to the slide show using the
このように、記憶している画像1を読み出し、画像1を表示するようにした場合には、画像を表示することができる。また、それぞれの画像に含まれる顔の画像である顔画像を検出し、画像を順に切り替えて表示する場合、顔画像に応じた、画像の切り替えの効果を適用した画像の表示を制御するようにした場合には、画像の内容により適した効果を適用して画像を表示することができる。
Thus, when the stored
なお、パーソナルコンピュータ2を例に説明したが、これに限らず、図17で示されるようにデジタルスチルカメラ101に本発明を適用するようにしてもよい。この場合、デジタルスチルカメラ101は、上述した処理を実行して、デジタルスチルカメラ101が撮影した画像1から顔を検出して、顔検出情報3を生成する。デジタルスチルカメラ101は、撮影した画像1と顔検出情報3とを関係付ける。デジタルスチルカメラ101は、上述したスライドショーの処理を実行する。
Although the
このようにすることで、デジタルスチルカメラ101の表示部において、画像1の内容により適した効果を適用して画像1を表示することができる。
In this way, the display unit of the digital
また、パーソナルコンピュータ2またはデジタルスチルカメラ101に限らず、携帯電話機、デジタルスキャナ、携帯情報端末装置、デジタルビデオカメラ、テレビジョン装置、ハードディスクビデオレコーダなど、画像を表示する機能を有する電子機器であれば、本発明を適用することができる。
In addition, the electronic device is not limited to the
なお、他の装置で関係付けられた画像1および顔検出情報3を基に、スライドショーの処理を実行するようにしてもよい。
Note that the slide show processing may be executed based on the
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム格納媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, the program is installed in a general-purpose personal computer from the program storage medium.
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム格納媒体は、図2に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア21、または、プログラムが一時的もしくは永続的に格納されるROM12や、記憶部18を構成するハードディスクなどにより構成される。プログラム格納媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部19を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
As shown in FIG. 2, a program storage medium that stores a program that is installed in a computer and can be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (including Digital Versatile Disc)), magneto-optical disk (including MD (Mini-Disc)), or
なお、本明細書において、プログラム格納媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program stored in the program storage medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series. Or the process performed separately is also included.
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
1 画像, 2 パーソナルコンピュータ, 3 顔検出情報, 11 CPU, 12 ROM, 13 RAM, 17 出力部, 18 記憶部, 21 リムーバブルメディア, 31 画像データベース, 32 顔検出部, 33 顔情報データベース, 34 読み出し条件設定部, 35 読み出し制御部, 36 表示制御部, 51 判定部, 52 エフェクト適用部 1 image, 2 personal computer, 3 face detection information, 11 CPU, 12 ROM, 13 RAM, 17 output unit, 18 storage unit, 21 removable media, 31 image database, 32 face detection unit, 33 face information database, 34 reading condition Setting unit, 35 readout control unit, 36 display control unit, 51 determination unit, 52 effect application unit
Claims (9)
前記画像を順に切り替えて表示する場合、前記顔画像に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する表示制御手段と
を備える画像処理装置。 Detecting means for detecting a face image that is a face image included in each image;
An image processing apparatus comprising: a display control unit configured to control display of the image to which an image switching effect is applied according to the face image when the images are sequentially switched and displayed.
予め記憶されている前記画像のうち、1つ以上の前記顔画像が検出された前記画像を読み出すように前記画像の読み出しを制御する読み出し制御手段をさらに備え、
前記表示制御手段は、読み出された前記画像の表示を制御する
請求項1に記載の画像処理装置。 The detection means detects the number of the face images included in each of the images,
A reading control means for controlling reading of the image so as to read the image in which one or more face images are detected among the images stored in advance;
The image processing apparatus according to claim 1, wherein the display control unit controls display of the read image.
前記表示制御手段は、前記顔画像の数に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する
請求項1に記載の画像処理装置。 The detection means detects the number of the face images included in each of the images,
The image processing apparatus according to claim 1, wherein the display control unit controls display of the image to which an image switching effect is applied according to the number of the face images.
前記表示制御手段は、前記顔画像の大きさに応じた、画像の切り替えの効果を適用した前記画像の表示を制御する
請求項1に記載の画像処理装置。 The detecting means detects the size of the face image;
The image processing apparatus according to claim 1, wherein the display control unit controls display of the image to which an image switching effect is applied according to the size of the face image.
前記表示制御手段は、前記顔画像の位置に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する
請求項1に記載の画像処理装置。 The detecting means detects a position of the face image in the image;
The image processing apparatus according to claim 1, wherein the display control unit controls display of the image to which an image switching effect is applied according to the position of the face image.
前記表示制御手段は、顔の向きに応じた、画像の切り替えの効果を適用した前記画像の表示を制御する
請求項1に記載の画像処理装置。 The detecting means detects a face direction in the face image;
The image processing apparatus according to claim 1, wherein the display control unit controls display of the image to which an image switching effect is applied according to a face orientation.
それぞれの前記画像と、それぞれの前記画像における、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きとを関係付ける関係付け手段をさらに備え、
前記表示制御手段は、前記顔画像に関係付けられている、それぞれの前記画像における、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きに応じた、画像の切り替えの効果を適用した前記画像の表示を制御する
請求項1に記載の画像処理装置。 The detecting means detects, for each of the images, the number of the face images, the size of each of the face images, the position of each of the face images, or the orientation of the face in each of the face images;
Relationships that relate each image to the number of face images, the size of each face image, the position of each face image, or the face orientation of each face image in each image. A further attaching means,
The display control means relates to the face image, the number of the face images, the size of each face image, the position of each face image, or each face in each of the images. The image processing apparatus according to claim 1, wherein display of the image to which an image switching effect is applied according to a face orientation in the image is controlled.
前記画像を順に切り替えて表示する場合、前記顔画像に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する表示制御ステップと
を含む画像処理方法。 A detection step of detecting a face image that is a face image included in each image;
An image processing method comprising: a display control step of controlling display of the image to which an effect of image switching is applied according to the face image when the images are sequentially switched and displayed.
前記画像を順に切り替えて表示する場合、前記顔画像に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する表示制御ステップと
を含む処理をコンピュータに実行させるプログラム。 A detection step of detecting a face image that is a face image included in each image;
A program for causing a computer to execute a process including a display control step of controlling display of the image to which an effect of image switching is applied according to the face image when the images are sequentially switched and displayed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005266383A JP4779524B2 (en) | 2005-09-14 | 2005-09-14 | Image processing apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005266383A JP4779524B2 (en) | 2005-09-14 | 2005-09-14 | Image processing apparatus and method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2007079894A true JP2007079894A (en) | 2007-03-29 |
JP2007079894A5 JP2007079894A5 (en) | 2008-10-30 |
JP4779524B2 JP4779524B2 (en) | 2011-09-28 |
Family
ID=37940140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005266383A Expired - Fee Related JP4779524B2 (en) | 2005-09-14 | 2005-09-14 | Image processing apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4779524B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299339A (en) * | 2006-05-08 | 2007-11-15 | Fujifilm Corp | Image reproducing device, method and program |
JP2009043191A (en) * | 2007-08-10 | 2009-02-26 | Kaigian Inc | Image continuous display program, image continuous display device and image continuous display method |
WO2009031402A1 (en) | 2007-09-05 | 2009-03-12 | Sony Corporation | Image selecting device, image selecting method and program |
JP2009278393A (en) * | 2008-05-15 | 2009-11-26 | Olympus Imaging Corp | Image processor, image processing method, image processing program, and image display device |
JP2009303002A (en) * | 2008-06-16 | 2009-12-24 | Nikon Corp | Electronic album creation system and electronic album creation program |
JP2010237516A (en) * | 2009-03-31 | 2010-10-21 | Nikon Corp | Program and device for performing reproduction |
JP2012073782A (en) * | 2010-09-28 | 2012-04-12 | Nintendo Co Ltd | Image generation program, imaging device, imaging system and image generation method |
US8264327B2 (en) | 2008-06-16 | 2012-09-11 | Canon Kabushiki Kaisha | Authentication apparatus, image sensing apparatus, authentication method and program therefor |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005033276A (en) * | 2003-07-07 | 2005-02-03 | Seiko Epson Corp | System, program, and method for image reproducing |
JP2005182196A (en) * | 2003-12-16 | 2005-07-07 | Canon Inc | Image display method and image display device |
-
2005
- 2005-09-14 JP JP2005266383A patent/JP4779524B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005033276A (en) * | 2003-07-07 | 2005-02-03 | Seiko Epson Corp | System, program, and method for image reproducing |
JP2005182196A (en) * | 2003-12-16 | 2005-07-07 | Canon Inc | Image display method and image display device |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007299339A (en) * | 2006-05-08 | 2007-11-15 | Fujifilm Corp | Image reproducing device, method and program |
JP2009043191A (en) * | 2007-08-10 | 2009-02-26 | Kaigian Inc | Image continuous display program, image continuous display device and image continuous display method |
WO2009031402A1 (en) | 2007-09-05 | 2009-03-12 | Sony Corporation | Image selecting device, image selecting method and program |
JP2009278393A (en) * | 2008-05-15 | 2009-11-26 | Olympus Imaging Corp | Image processor, image processing method, image processing program, and image display device |
JP2009303002A (en) * | 2008-06-16 | 2009-12-24 | Nikon Corp | Electronic album creation system and electronic album creation program |
US8264327B2 (en) | 2008-06-16 | 2012-09-11 | Canon Kabushiki Kaisha | Authentication apparatus, image sensing apparatus, authentication method and program therefor |
JP2010237516A (en) * | 2009-03-31 | 2010-10-21 | Nikon Corp | Program and device for performing reproduction |
JP2012073782A (en) * | 2010-09-28 | 2012-04-12 | Nintendo Co Ltd | Image generation program, imaging device, imaging system and image generation method |
Also Published As
Publication number | Publication date |
---|---|
JP4779524B2 (en) | 2011-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4779524B2 (en) | Image processing apparatus and method, and program | |
US8255795B2 (en) | Optimal viewing of digital images and voice annotation transitions in slideshows | |
US7154534B2 (en) | Image input apparatus, program executed by computer, and method for preparing document with image | |
JP4204509B2 (en) | Data division recording method for electronic camera and electronic camera | |
JP4605458B2 (en) | Image processing apparatus and image processing program | |
JP2007041987A (en) | Image processing apparatus and method, and program | |
JP2008283361A (en) | Image processing apparatus, image processing method, program, and recording medium | |
CN103873764A (en) | Information processing apparatus, information processing method, and program | |
JP2006293783A (en) | Image processing device and image processing program | |
JP2007151080A (en) | Image processor and image processing method | |
JP2006293782A (en) | Image processing device and image processing program | |
JP2009105899A (en) | System and method of browsing images | |
JP2006014221A (en) | Imaging apparatus and imaging method | |
JP2007265149A (en) | Image processor, image processing method and imaging device | |
CN101742105B (en) | Camera and display method of camera | |
JP2011211398A (en) | Electronic apparatus and panoramic image display program | |
US8774603B2 (en) | Information processing apparatus, information processing method, program, and recording medium | |
JP2007266676A (en) | Imaging apparatus, method and program for displaying photographed image, and method and program for deleting photographed image | |
JP2007201935A (en) | Control method of image processing apparatus, and image processing apparatus | |
JP4360395B2 (en) | Information processing device | |
JP3993003B2 (en) | Display instruction apparatus, display system, display instruction program, terminal, and program | |
JP2007221722A (en) | Image processing apparatus and control method thereof | |
JP2015119403A (en) | Image recording apparatus, image recording method, program, and imaging apparatus | |
JP2006186930A (en) | Imaging device, image processing method and program | |
JP5419783B2 (en) | Image reproducing apparatus and method for controlling image reproducing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080910 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080910 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110217 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110607 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110620 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140715 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140715 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |