JP2007079894A - Image processor, processing method and program - Google Patents

Image processor, processing method and program Download PDF

Info

Publication number
JP2007079894A
JP2007079894A JP2005266383A JP2005266383A JP2007079894A JP 2007079894 A JP2007079894 A JP 2007079894A JP 2005266383 A JP2005266383 A JP 2005266383A JP 2005266383 A JP2005266383 A JP 2005266383A JP 2007079894 A JP2007079894 A JP 2007079894A
Authority
JP
Japan
Prior art keywords
image
face
images
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005266383A
Other languages
Japanese (ja)
Other versions
JP2007079894A5 (en
JP4779524B2 (en
Inventor
Tamaki Kojima
環 児嶋
Takeshi Fukuda
岳士 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005266383A priority Critical patent/JP4779524B2/en
Publication of JP2007079894A publication Critical patent/JP2007079894A/en
Publication of JP2007079894A5 publication Critical patent/JP2007079894A5/ja
Application granted granted Critical
Publication of JP4779524B2 publication Critical patent/JP4779524B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To display an image by applying an effect further suitable to the content of the image. <P>SOLUTION: A face detection part 32 detects the number of face images contained in images and, for each of the face images, face position, face size and face direction. A display control part 36 controls, when the images are successively switchingly displayed, the display of images while applying a switching effect of image according to the detected face images. This invention is applicable to a personal computer or a digital steel camera. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は画像処理装置および方法、並びにプログラムに関し、特に、画像の表示に、画像の内容に適した効果を適用できるようにした画像処理装置および方法、並びにプログラムに関する。   The present invention relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program that can apply an effect suitable for the contents of an image to display an image.

画像の中の人物の顔の画像(顔画像)の検出の方式はこれまで多数提案され、その用途についても、監視カメラによる人物の検出や動画像のシーンの検出など様々な使い方が提案されている(例えば、非特許文献1参照)。   Many methods of detecting human face images (face images) in images have been proposed, and various uses such as detection of people using surveillance cameras and detection of moving image scenes have been proposed. (For example, refer nonpatent literature 1).

しかしながら、その用途は、特定の限定された業務におけるものであり、私生活または家庭生活などの日常生活における使い方は、あまり提案されてこなかった。   However, its use is in a specific limited business, and usage in daily life such as private life or home life has not been proposed so much.

一方、いわゆるデジタルスチルカメラが普及し、静止画像を撮影する機能が携帯電話機に搭載されるようになり、日常生活のなかで静止画像(写真)を撮影する機会は着実に増えている。   On the other hand, so-called digital still cameras have become widespread and functions for taking still images have been installed in mobile phones, and opportunities for taking still images (photographs) in daily life are steadily increasing.

”顔,テロップから歓声まで総動員で1000時間を絞る”、「日経エレクトロニクス」日経BP社、2004年6月21日発行、p.114-123“Focus 1000 hours with total mobilization from face, telop to cheers”, “Nikkei Electronics”, Nikkei BP, June 21, 2004, p.114-123

しかしながら、撮影した画像の活用方法としては、ファイル単位での単純な閲覧や、画像をただ順番に表示するだけのシンプルなスライドショー程度しかなかった。   However, the only ways to use the captured images are simple browsing in units of files and simple slideshows in which images are simply displayed in order.

このスライドショーでの画像と画像との切り替えの効果は、前の画像から次の画像がスライドしてくるように表示されたり、とけ込むように遷移して表示されたりするものがある。   As an effect of switching between images in this slide show, there are cases where the next image is displayed as being slid from the previous image, or is displayed so as to be merged.

従来、切り替えの効果を、画像の内容によって変えることはできなかった。また、画像に含まれる顔についての情報を用いた効果は、存在していない。   Conventionally, the effect of switching cannot be changed depending on the contents of an image. Further, there is no effect using information about the face included in the image.

本発明は、このような状況に鑑みてなされたものであり、画像の内容により適した効果を適用して画像を表示することができるようにするものである。   The present invention has been made in view of such a situation, and enables an image to be displayed by applying an effect more suitable for the content of the image.

本発明の一側面は、それぞれの画像に含まれる顔の画像である顔画像を検出する検出手段/ステップと、前記画像を順に切り替えて表示する場合、前記顔画像に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する表示制御手段/ステップとを備える/含む画像処理装置装置若しくは方法、またはプログラムである。   One aspect of the present invention is a detection means / step for detecting a face image, which is a face image included in each image, and, in the case of sequentially switching and displaying the images, image switching according to the face images. An image processing apparatus, method, or program comprising / including display control means / steps for controlling display of the image to which an effect is applied.

本発明の一側面においては、それぞれの画像に含まれる顔の画像である顔画像が検出され、前記画像を順に切り替えて表示する場合、前記顔画像に応じた、画像の切り替えの効果を適用した前記画像の表示が制御される。   In one aspect of the present invention, when a face image that is a face image included in each image is detected and the images are sequentially switched and displayed, an image switching effect according to the face image is applied. The display of the image is controlled.

前記検出手段は、それぞれの前記画像に含まれる前記顔画像の数を検出し、画像処理装置に、予め記憶されている前記画像のうち、1つ以上の前記顔画像が検出された前記画像を読み出すように前記画像の読み出しを制御する読み出し制御手段をさらに設け、前記表示制御手段は、読み出された前記画像の表示を制御するようにすることができる。   The detection means detects the number of the face images included in each of the images, and the image processing apparatus detects the images in which one or more of the face images are detected among the images stored in advance. Read control means for controlling reading of the image so as to read can be further provided, and the display control means can control the display of the read image.

前記検出手段は、それぞれの前記画像に含まれる前記顔画像の数を検出し、前記表示制御手段は、前記顔画像の数に応じた、画像の切り替えの効果を適用した前記画像の表示を制御するようにすることができる。   The detection means detects the number of the face images included in each of the images, and the display control means controls display of the images to which an image switching effect is applied according to the number of the face images. To be able to.

前記検出手段は、前記顔画像の大きさを検出し、前記表示制御手段は、前記顔画像の大きさに応じた、画像の切り替えの効果を適用した前記画像の表示を制御するようにすることができる。   The detection means detects the size of the face image, and the display control means controls display of the image to which an image switching effect is applied according to the size of the face image. Can do.

前記検出手段は、前記画像における前記顔画像の位置を検出し、前記表示制御手段は、前記顔画像の位置に応じた、画像の切り替えの効果を適用した前記画像の表示を制御するようにすることができる。   The detection unit detects a position of the face image in the image, and the display control unit controls display of the image to which an image switching effect is applied according to the position of the face image. be able to.

前記検出手段は、前記顔画像における、顔の向きを検出し、前記表示制御手段は、顔の向きに応じた、画像の切り替えの効果を適用した前記画像の表示を制御するようにすることができる。   The detection unit may detect a face direction in the face image, and the display control unit may control display of the image to which an image switching effect is applied according to the face direction. it can.

前記検出手段は、それぞれの前記画像について、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きを検出し、画像処理装置に、それぞれの前記画像と、それぞれの前記画像における、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きとを関係付ける関係付け手段をさらに設け、前記表示制御手段は、前記顔画像に関係付けられている、それぞれの前記画像における、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きに応じた、画像の切り替えの効果を適用した前記画像の表示を制御するようにすることができる。   The detection means detects the number of the face images, the size of each face image, the position of each face image, or the orientation of the face in each face image for each of the images, and performs image processing. In the apparatus, each of the images, and the number of the face images in each of the images, the size of each of the face images, the position of each of the face images, or the orientation of the face in each of the face images. The display control means further includes an association means for relating the number of the face images, the size of each of the face images, and each of the faces in each of the images related to the face image. Controlling the display of the image to which an image switching effect is applied according to the position of the image or the orientation of the face in each face image It can be.

以上のように、本発明の一側面によれば、画像を表示することができる。   As described above, according to one aspect of the present invention, an image can be displayed.

また、本発明の一側面によれば、画像の内容により適した効果を適用して画像を表示することができる。   In addition, according to one aspect of the present invention, an image can be displayed by applying an effect more suitable for the content of the image.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面の画像処理装置は、第1に、それぞれの画像に含まれる顔の画像である顔画像を検出する検出手段(例えば、図3の顔検出部32)と、前記画像を順に切り替えて表示する場合、前記顔画像に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する表示制御手段(例えば、図3の表示制御部36)とを備える。   An image processing apparatus according to an aspect of the present invention firstly includes a detection unit (for example, the face detection unit 32 in FIG. 3) that detects a face image that is a face image included in each image, and the images in order. In the case of switching display, a display control unit (for example, the display control unit 36 in FIG. 3) that controls display of the image to which the image switching effect is applied according to the face image is provided.

本発明の一側面の画像処理装置は、第2に、前記検出手段が、それぞれの前記画像に含まれる前記顔画像の数を検出し、画像処理装置に、予め記憶されている前記画像のうち、1つ以上の前記顔画像が検出された前記画像を読み出すように前記画像の読み出しを制御する読み出し制御手段(例えば、図3の読み出し制御部35)をさらに設け、前記表示制御手段が、読み出された前記画像の表示を制御するようにすることができる。   Secondly, in the image processing device according to one aspect of the present invention, the detection unit detects the number of the face images included in each of the images, and among the images stored in advance in the image processing device. Read control means (for example, the read control unit 35 in FIG. 3) for controlling reading of the image so as to read the image in which one or more face images are detected is further provided, and the display control means reads the image. The display of the outputted image can be controlled.

本発明の一側面の画像処理装置は、第3に、前記検出手段は、それぞれの前記画像について、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きを検出し、画像処理装置に、それぞれの前記画像と、それぞれの前記画像における、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きとを関係付ける関係付け手段(例えば、図3の顔情報データベース33)をさらに設け、前記表示制御手段は、前記顔画像に関係付けられている、それぞれの前記画像における、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きに応じた、画像の切り替えの効果を適用した前記画像の表示を制御するようにすることができる。   Thirdly, in the image processing apparatus according to one aspect of the present invention, the detection unit includes, for each of the images, the number of the face images, the size of each of the face images, the position of each of the face images, or The orientation of the face in each of the face images is detected, and the image processing apparatus is provided with each of the images, the number of the face images in each of the images, the size of each of the face images, and each of the face images. , Or an association means (for example, the face information database 33 in FIG. 3) for associating the position of each face image with the face orientation in each face image, and the display control means is associated with the face image. , The number of face images in each image, the size of each face image, the position of each face image, or the orientation of the face in each face image It can be as to control the display of the image to which the effect of the switching of the images according to.

本発明の一側面の画像処理方法またはプログラムは、それぞれの画像に含まれる顔の画像である顔画像を検出する検出ステップ(例えば、図4のステップS31乃至ステップS38)と、前記画像を順に切り替えて表示する場合、前記顔画像に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する表示制御ステップ(例えば、図8のステップS56)とを含む。   An image processing method or program according to an aspect of the present invention includes a detection step (for example, step S31 to step S38 in FIG. 4) for detecting a face image that is a face image included in each image, and sequentially switching the images. Display control step (for example, step S56 in FIG. 8) for controlling the display of the image to which the effect of image switching is applied according to the face image.

図1は、本発明の一実施の形態のパーソナルコンピュータを説明する図である。画像1は、デジタルスチルカメラ、携帯電話機、デジタルスキャナ、携帯情報端末装置などの被写体を撮影する撮影装置によって撮影された静止画像である。1または複数の画像1は、画像データとして、パーソナルコンピュータ2に供給される。   FIG. 1 is a diagram for explaining a personal computer according to an embodiment of the present invention. Image 1 is a still image taken by a photographing device that photographs a subject such as a digital still camera, a mobile phone, a digital scanner, or a portable information terminal device. One or more images 1 are supplied to the personal computer 2 as image data.

ここで、画像データとしての画像1は、ビットマップ方式、JPEG(Joint Photographic Experts Group)方式、JPEG2000方式、GIF(Graphics Interchange Format)、またはTIFF(Tagged Image File Format)などとすることができる。   Here, the image 1 as the image data may be a bitmap format, JPEG (Joint Photographic Experts Group) format, JPEG 2000 format, GIF (Graphics Interchange Format), TIFF (Tagged Image File Format), or the like.

パーソナルコンピュータ2は、画像1のそれぞれから顔(の画像)を検出し、画像1のそれぞれに、顔の検出の結果を示す顔検出情報3のそれぞれを関係付ける。   The personal computer 2 detects a face (image) from each of the images 1, and associates each of the images 1 with each of the face detection information 3 indicating the result of the face detection.

図2は、パーソナルコンピュータ2の構成の例を示すブロック図である。CPU(Central Processing Unit)11は、ROM(Read Only Memory)12、または記憶部18に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)13には、CPU11が実行するプログラムやデータなどが適宜記憶される。これらのCPU11、ROM12、およびRAM13は、バス14により相互に接続されている。   FIG. 2 is a block diagram illustrating an example of the configuration of the personal computer 2. A CPU (Central Processing Unit) 11 executes various processes according to a program stored in a ROM (Read Only Memory) 12 or a storage unit 18. A RAM (Random Access Memory) 13 appropriately stores programs executed by the CPU 11 and data. The CPU 11, ROM 12, and RAM 13 are connected to each other by a bus 14.

なお、CPU11として、”Cell誕生”、日経エレクトロニクス、日経BP社、2005年2月28日、89頁乃至117頁に記載されているCellを採用することができる。   As the CPU 11, a cell described in "Birth of Cell", Nikkei Electronics, Nikkei BP, February 28, 2005, pages 89 to 117 can be used.

CPU11にはまた、バス14を介して入出力インターフェース15が接続されている。入出力インターフェース15には、キーボード、マウス、マイクロホン、静止画像を撮影する撮影部などよりなる入力部16、ディスプレイ、スピーカなどよりなる出力部17が接続されている。CPU11は、入力部16から入力される指令に対応して各種の処理を実行する。そして、CPU11は、処理の結果を出力部17に出力する。   An input / output interface 15 is also connected to the CPU 11 via the bus 14. The input / output interface 15 is connected to an input unit 16 including a keyboard, a mouse, a microphone, a photographing unit for capturing a still image, and an output unit 17 including a display and a speaker. The CPU 11 executes various processes in response to commands input from the input unit 16. Then, the CPU 11 outputs the processing result to the output unit 17.

入出力インターフェース15に接続されている記憶部18は、例えばハードディスクからなり、CPU11が実行するプログラムや各種のデータを記憶する。通信部19は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   The storage unit 18 connected to the input / output interface 15 includes, for example, a hard disk, and stores programs executed by the CPU 11 and various data. The communication unit 19 communicates with an external device via a network such as the Internet or a local area network.

また、通信部19を介してプログラムを取得し、記憶部18に記憶してもよい。   A program may be acquired via the communication unit 19 and stored in the storage unit 18.

入出力インターフェース15に接続されているドライブ20は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア21が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部18に転送され、記憶される。   The drive 20 connected to the input / output interface 15 drives a removable medium 21 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the program or data recorded therein. Get etc. The acquired program and data are transferred to and stored in the storage unit 18 as necessary.

図3は、プログラムを実行するパーソナルコンピュータ2において実現される、機能の構成の例を示すブロック図である。プログラムを実行するパーソナルコンピュータ2において、画像データベース31、顔検出部32、顔情報データベース33、読み出し条件設定部34、読み出し制御部35、および表示制御部36が実現される。   FIG. 3 is a block diagram illustrating an example of a functional configuration realized in the personal computer 2 that executes the program. In the personal computer 2 that executes the program, an image database 31, a face detection unit 32, a face information database 33, a read condition setting unit 34, a read control unit 35, and a display control unit 36 are realized.

画像データベース31は、外部の装置によって撮影され、入力部16によって入力された画像1を画像データとしてを記憶する。画像データベース31は、記憶している画像1を顔検出部32または読み出し制御部34に供給する。   The image database 31 stores an image 1 captured by an external device and input by the input unit 16 as image data. The image database 31 supplies the stored image 1 to the face detection unit 32 or the read control unit 34.

例えば、画像データベース31は、ハードディスクである記憶部18への、画像1の画像データとしての記憶を管理し、画像1を画像データとして、記憶部18に記憶させたり、記憶部18に画像データとして記憶されている画像1を読み出す。   For example, the image database 31 manages the storage of the image 1 as the image data in the storage unit 18 that is a hard disk, and stores the image 1 as the image data in the storage unit 18 or the storage unit 18 as the image data. The stored image 1 is read out.

顔検出部32は、それぞれの画像1に含まれる顔の画像を検出する。例えば、顔検出部32は、画像データベース31から供給された画像データとしての画像1に含まれる顔の画像を検出する。顔検出部32は、検出した顔の画像についての情報である顔検出情報3を顔情報データベース33に供給する。   The face detection unit 32 detects a face image included in each image 1. For example, the face detection unit 32 detects a face image included in the image 1 as the image data supplied from the image database 31. The face detection unit 32 supplies face detection information 3 that is information about the detected face image to the face information database 33.

顔情報データベース33は、それぞれの画像1と、それぞれの画像1から検出された顔の画像についての顔検出情報3とを関係付ける。例えば、顔情報データベース33は、それぞれの画像1と顔検出情報3とを関係付けて、記憶する。   The face information database 33 associates each image 1 with the face detection information 3 regarding the face image detected from each image 1. For example, the face information database 33 stores each image 1 and the face detection information 3 in association with each other.

なお、顔情報データベース33は、顔検出情報3が記憶部18に記憶されるように構成される。   The face information database 33 is configured such that the face detection information 3 is stored in the storage unit 18.

読み出し条件設定部34は、キーボードまたはマウスなどからなる入力部16への使用者による操作に応じた入力部16からの信号を基に、画像1を読み出す条件を設定する。読み出し条件設定部34は、設定した条件を読み出し制御部35に供給する。   The read condition setting unit 34 sets a condition for reading the image 1 based on a signal from the input unit 16 according to an operation by the user to the input unit 16 such as a keyboard or a mouse. The read condition setting unit 34 supplies the set conditions to the read control unit 35.

読み出し制御部35は、読み出し条件設定部34から供給された、設定された条件、および顔情報データベース33に記憶されている顔検出情報3に基づいて、顔情報データベース33からの画像1の読み出しを制御する。読み出し制御部35は、読み出した画像1を表示制御部36に供給する。   The read control unit 35 reads the image 1 from the face information database 33 based on the set conditions supplied from the read condition setting unit 34 and the face detection information 3 stored in the face information database 33. Control. The read control unit 35 supplies the read image 1 to the display control unit 36.

表示制御部36は、読み出し制御部35から供給された画像1をディスプレイとしての出力部17に表示させるように画像1の表示を制御する。表示制御部36は、判定部51およびエフェクト適用部52を備える。   The display control unit 36 controls the display of the image 1 so that the image 1 supplied from the read control unit 35 is displayed on the output unit 17 as a display. The display control unit 36 includes a determination unit 51 and an effect application unit 52.

判定部51は、顔情報データベース33に記憶されている顔検出情報3を基に、表示する画像1に含まれる顔の画像が所定の条件を満たすか否かを判定する。   Based on the face detection information 3 stored in the face information database 33, the determination unit 51 determines whether the face image included in the image 1 to be displayed satisfies a predetermined condition.

エフェクト適用部52は、判定部51による判定の結果に対応した表示の効果を、表示する画像1に適用する。   The effect applying unit 52 applies the display effect corresponding to the determination result by the determining unit 51 to the image 1 to be displayed.

図4は、顔の検出の処理を説明するフローチャートである。ステップS31において、顔検出部32は、画像データベース31から画像1を入力し、入力された画像1から顔の画像を検出する。   FIG. 4 is a flowchart illustrating face detection processing. In step S <b> 31, the face detection unit 32 inputs the image 1 from the image database 31 and detects a face image from the input image 1.

例えば、ステップS31において、顔検出部32は、画像データベース31から、図5に例示される画像1を入力し、入力された画像1から顔の画像を検出する。   For example, in step S <b> 31, the face detection unit 32 inputs the image 1 illustrated in FIG. 5 from the image database 31, and detects a face image from the input image 1.

より具体的には、例えば、顔検出部32は、ステップS31において、画像1の画素のうち、人の肌の色に対応する所定の色の範囲に属する色を示す画素値を有する画素を特定する。そして、顔検出部32は、色によって特定された画素のうち、所定の数以上、相互に隣接している画素により構成される領域を顔の画像とする。   More specifically, for example, in step S31, the face detection unit 32 specifies a pixel having a pixel value indicating a color belonging to a predetermined color range corresponding to the color of human skin among the pixels of the image 1. To do. Then, the face detection unit 32 sets, as a face image, an area constituted by pixels adjacent to each other by a predetermined number or more among the pixels specified by color.

ステップS32において、顔検出部32は、ステップS31の処理で検出された顔の画像の数を数える。すなわち、ステップS32において、顔検出部32は、それぞれの画像1に含まれる顔の画像の数を検出する。   In step S32, the face detection unit 32 counts the number of face images detected in the process of step S31. That is, in step S32, the face detection unit 32 detects the number of face images included in each image 1.

ステップS33において、顔検出部32は、1つ以上の顔の画像が検出されたか否かを判定し、1つ以上の顔の画像が検出されたと判定された場合、ステップS34に進み、検出された顔の画像のうちの、1つの顔の画像を選択する。   In step S33, the face detection unit 32 determines whether or not one or more face images are detected. If it is determined that one or more face images are detected, the process proceeds to step S34 and is detected. One of the face images is selected.

ステップS35において、顔検出部32は、選択された顔の画像について、画像1における顔の位置を検出する。   In step S35, the face detection unit 32 detects the position of the face in the image 1 for the selected face image.

例えば、ステップS35において、顔検出部32は、画像1の全体の高さおよび全体の幅をそれぞれ1とした場合、画像1における顔の画像の位置として、画像1の全体に対する相対的な、顔の画像の縦方向の位置および横方向の位置を検出する。   For example, in step S <b> 35, when the overall height and the overall width of the image 1 are 1 respectively, the face detection unit 32 determines the face position relative to the entire image 1 as the position of the face image in the image 1. The vertical position and the horizontal position of the image are detected.

ステップS36において、顔検出部32は、選択された顔の画像について、顔の画像の大きさを検出する。   In step S36, the face detection unit 32 detects the size of the face image for the selected face image.

例えば、ステップS36において、顔検出部32は、画像1の全体の高さおよび全体の幅をそれぞれ1とした場合、画像1における顔の画像の大きさとして、画像1の全体に対する相対的な、顔の画像の高さおよび幅を検出する。   For example, in step S36, the face detection unit 32 assumes that the overall height and overall width of the image 1 are 1, and the relative size of the face in the image 1 is relative to the entire image 1. Detect the height and width of the face image.

ステップS37において、顔検出部32は、選択された顔の画像について、顔の向きを検出する。なお、詳細は後述するが、ステップS37において、顔検出部32は、顔の向きとして、顔のロール角、ピッチ角、およびヨー角を検出する。   In step S <b> 37, the face detection unit 32 detects the face orientation of the selected face image. Although details will be described later, in step S37, the face detection unit 32 detects a face roll angle, a pitch angle, and a yaw angle as the face orientation.

例えば、ステップS37において、顔検出部32は、予め定義されている、想定される顔の方向ごとの複数のパターンと、選択された顔の画像と一致するか否かを判定し、顔の向きを、顔の画像と一致するパターンに対応する向きとすることで、顔の向きを検出する。   For example, in step S37, the face detection unit 32 determines whether or not a plurality of patterns for each assumed face direction that are defined in advance match the selected face image, and the face orientation is determined. The direction of the face is detected by setting the direction corresponding to the pattern matching the face image.

ステップS38において、顔検出部32は、総ての顔の画像を選択したか否かを判定し、総ての顔の画像を選択していないと判定された場合、ステップS34に進み、次の顔の画像を選択して、上述した処理を繰り返す。   In step S38, the face detection unit 32 determines whether or not all face images have been selected. If it is determined that all face images have not been selected, the process proceeds to step S34, where A face image is selected and the above-described processing is repeated.

このように、例えば、顔検出部32は、画像データベース31に格納されている画像1のそれぞれについて、顔の画像を検出して、さらに、顔の画像の数を検出し、顔の画像のそれぞれの位置、顔の画像のそれぞれの大きさ、顔の画像のそれぞれにおける顔の向きを検出する。   Thus, for example, the face detection unit 32 detects a face image for each of the images 1 stored in the image database 31, further detects the number of face images, and detects each face image. , The size of each face image, and the face orientation in each face image.

ステップS38において、総ての顔の画像を選択したと判定された場合、ステップS39に進み、顔検出部32は、検出した顔の画像の数、およびそれぞれの顔の画像についての、顔の位置、顔の大きさ、顔の向きを示す顔検出情報3を出力し、顔情報データベース33は、画像1とその顔検出情報3とを関係付けて、その顔検出情報3を記憶して、処理は終了する。   If it is determined in step S38 that all face images have been selected, the process proceeds to step S39, where the face detection unit 32 determines the number of detected face images and the position of the face for each face image. The face detection information 3 indicating the face size and the face orientation is output, and the face information database 33 associates the image 1 with the face detection information 3, stores the face detection information 3, and performs processing. Ends.

例えば、顔検出部32は、図5に例示される画像1に対して、図6に示される例の顔検出情報3を出力する。顔検出情報3は、例えば、XML(eXtensible Mark-up Language)方式で記述される。   For example, the face detection unit 32 outputs the face detection information 3 in the example shown in FIG. 6 for the image 1 exemplified in FIG. The face detection information 3 is described by, for example, an XML (eXtensible Mark-up Language) method.

<photo>タグおよび</photo>タグの間には、画像1との関係付けを示す情報および顔の画像に関する情報が配置される。   Between the <photo> tag and the </ photo> tag, information indicating the relationship with the image 1 and information regarding the face image are arranged.

<filepath>タグおよび</filepath>タグの間に配置されているC:\hoge\hoge.jpgは、図6に例示される顔検出情報3が、Cドライブ(との名前を付された記録媒体)のルートフォルダの下の、hogeであるフォルダ名のフォルダに格納されている、hoge.jpgであるファイル名のファイルに格納されている画像データである画像1と関係付けられていることを示す。   The C: \ hoge \ hoge.jpg arranged between the <filepath> tag and the </ filepath> tag is a record in which the face detection information 3 illustrated in FIG. It is related to the image 1 that is the image data stored in the file with the file name hoge.jpg stored in the folder with the folder name hoge under the root folder of the medium) Show.

<Faceinfo>タグおよび</Faceinfo>タグの間には、hoge.jpgであるファイル名のファイルに格納されている画像データである画像1に関する情報が配置される。すなわち、<Faceinfo>タグおよび</Faceinfo>タグの間には、hoge.jpgであるファイル名のファイルに格納されている画像データである画像1に含まれる顔の画像に関する情報が配置される。   Between the <Faceinfo> tag and the </ Faceinfo> tag, information related to the image 1 that is image data stored in the file having the file name hoge.jpg is arranged. That is, information about the face image included in the image 1 that is image data stored in the file having the file name hoge.jpg is arranged between the <Faceinfo> tag and the </ Faceinfo> tag.

<TotalFace>タグおよび</TotalFace>タグの間に配置されている1は、hoge.jpgであるファイル名のファイルに格納されている画像データである画像1に含まれる顔の画像の数が1つであることを示す。すなわち、<TotalFace>タグおよび</TotalFace>タグの間に配置されている値は、画像1に含まれる顔の画像の総数を示す。   1 placed between the <TotalFace> tag and the </ TotalFace> tag is the number of face images included in the image 1 that is image data stored in the file with the file name hoge.jpg. Indicates that That is, the value arranged between the <TotalFace> tag and the </ TotalFace> tag indicates the total number of face images included in the image 1.

<FaceEntry>タグおよび</FaceEntry>タグの間には、1つの顔の画像についての情報が配置される。図6に例示される顔検出情報3における顔の画像の総数が1なので、1組の<FaceEntry>タグおよび</FaceEntry>タグが配置されることになる。   Information about one face image is arranged between the <FaceEntry> tag and the </ FaceEntry> tag. Since the total number of face images in the face detection information 3 illustrated in FIG. 6 is 1, a set of <FaceEntry> tags and </ FaceEntry> tags are arranged.

<x>タグおよび</x>タグの間に配置されている値は、画像1における顔の画像の横方向の位置を示す。図6において、<x>タグおよび</x>タグの間に配置されている0.328767は、画像1の左端を0.0とし、画像1の右端を1.0とした場合に、顔の画像の右端の横方向の位置が、0.328767であることを示す。   The value arranged between the <x> tag and the </ x> tag indicates the position in the horizontal direction of the face image in the image 1. In FIG. 6, 0.328767 arranged between the <x> tag and the </ x> tag indicates that the left end of the image 1 is 0.0 and the right end of the image 1 is 1.0, and the side of the right end of the face image is horizontal. This indicates that the direction position is 0.328767.

<y>タグおよび</y>タグの間に配置されている値は、画像1における顔の画像の縦方向の位置を示す。図6において、<y>タグおよび</y>タグの間に配置されている0.204082は、画像1の上端を0.0とし、画像1の下端を1.0とした場合に、顔の画像の上端の縦方向の位置が、0.204082であることを示す。   A value arranged between the <y> tag and the </ y> tag indicates the position in the vertical direction of the face image in the image 1. In FIG. 6, 0.204082 arranged between the <y> tag and the </ y> tag indicates that the top edge of the face image is vertical when the top edge of the image 1 is 0.0 and the bottom edge of the image 1 is 1.0. The direction position is 0.204082.

すなわち、<x>タグおよび</x>タグの間には、顔の画像の正規化された横方向の位置が配置され、<y>タグおよび</y>タグの間には、顔の画像の正規化された縦方向の位置が配置される。   That is, the normalized horizontal position of the face image is placed between the <x> tag and the </ x> tag, and the face image is placed between the <y> tag and the </ y> tag. The normalized vertical position of the image is placed.

<width>タグおよび</width>タグの間に配置されている値は、画像1における顔の画像の幅(横方向のサイズ)を示す。図6において、<width>タグおよび</width>タグの間に配置されている0.408163は、画像1の幅を1.0とした場合に、顔の画像の幅が、0.408163であることを示す。   A value arranged between the <width> tag and the </ width> tag indicates the width (lateral size) of the face image in the image 1. In FIG. 6, 0.408163 arranged between the <width> tag and the </ width> tag indicates that the width of the face image is 0.408163 when the width of the image 1 is 1.0.

<height>タグおよび</height>タグの間に配置されているは、画像1における顔の画像の高さ(縦方向のサイズ)を示す。図6において、<height>タグおよび</height>タグの間に配置されている0.273973は、画像1の高さを1.0とした場合に、顔の画像の高さが、0.273973であることを示す。   Arranged between the <height> tag and the </ height> tag indicates the height (vertical size) of the face image in the image 1. In FIG. 6, 0.273973 arranged between the <height> tag and the </ height> tag indicates that the height of the face image is 0.273973 when the height of the image 1 is 1.0. .

すなわち、<width>タグおよび</width>タグの間には、顔の画像の正規化された幅が配置され、<height>タグおよび</height>タグの間には、顔の画像の正規化された高さが配置される。   That is, the normalized width of the face image is placed between the <width> tag and the </ width> tag, and the face image normalization is placed between the <height> tag and the </ height> tag. The height is arranged.

<roll>タグおよび</roll>タグの間に配置されている値は、顔の画像における顔のロール角を示す。図6において、<roll>タグおよび</roll>タグの間に配置されている0.000000は、顔の画像における顔のロール角が、0.000000度であることを示す。   The value arranged between the <roll> tag and the </ roll> tag indicates the roll angle of the face in the face image. In FIG. 6, 0.000000 arranged between the <roll> tag and the </ roll> tag indicates that the face roll angle in the face image is 0.000000 degrees.

<pitch>タグおよび</pitch>タグの間に配置されている値は、顔の画像における顔のピッチ角を示す。図6において、<pitch>タグおよび</pitch>タグの間に配置されている0.000000は、顔の画像における顔のピッチ角が、0.000000度であることを示す。   The value arranged between the <pitch> tag and the </ pitch> tag indicates the pitch angle of the face in the face image. In FIG. 6, 0.000000 arranged between the <pitch> tag and the </ pitch> tag indicates that the pitch angle of the face in the face image is 0.000000 degrees.

<yaw>タグおよび</yaw>タグの間に配置されている値は、顔の画像における顔のヨー角を示す。図6において、<yaw>タグおよび</yaw>タグの間に配置されている0.000000は、顔の画像における顔のヨー角が、0.000000度であることを示す。   The value arranged between the <yaw> tag and the </ yaw> tag indicates the face yaw angle in the face image. In FIG. 6, 0.000000 arranged between the <yaw> tag and the </ yaw> tag indicates that the face yaw angle in the face image is 0.000000 degrees.

ここで、図7で示されるように、ロール角は、顔の前後方向の位置を示す前後軸(x軸)の周りの移動角である。ピッチ角は、顔の左右方向の位置を示す横軸(y軸)の周りの移動角である。ヨー角は、顔の上下方向の位置を示す垂直軸(z軸)の周りの移動角である。   Here, as shown in FIG. 7, the roll angle is a movement angle around the front-rear axis (x-axis) indicating the position of the face in the front-rear direction. The pitch angle is a movement angle around the horizontal axis (y axis) indicating the position of the face in the left-right direction. The yaw angle is a movement angle around the vertical axis (z axis) indicating the vertical position of the face.

ステップS33において、1つ以上の顔の画像が検出されていないと判定された場合、ステップS39に進み、顔検出部32は、検出した顔の画像の数が0であることを示す顔検出情報3を出力して、顔情報データベース33は、画像1とその顔検出情報3とを関係付けて、その顔検出情報3を記憶して、処理は終了する。   If it is determined in step S33 that one or more face images have not been detected, the process proceeds to step S39, where the face detection unit 32 indicates that the number of detected face images is zero. 3, the face information database 33 associates the image 1 with the face detection information 3, stores the face detection information 3, and the process ends.

図4を参照して説明した顔の検出の処理は、それぞれの画像1に適用され、それぞれの画像1について、顔の画像が検出される。その結果、それぞれの画像1について、検出した顔の画像の数、およびそれぞれの顔の画像についての、顔の位置、顔の大きさ、顔の向きを示す顔検出情報3が画像1に関係付けられて、顔情報データベース33に記憶される。   The face detection process described with reference to FIG. 4 is applied to each image 1, and a face image is detected for each image 1. As a result, for each image 1, the number of detected face images and the face detection information 3 indicating the face position, face size, and face orientation for each face image are related to image 1. And stored in the face information database 33.

顔検出情報3は、画像1とは別に、顔情報データベース33に記録されると説明したが、Exifの規格に準拠した画像1のデータの付加情報として、画像1を格納するファイルに格納するようにしてもよい。   The face detection information 3 has been described as being recorded in the face information database 33 separately from the image 1. However, the face detection information 3 is stored in a file storing the image 1 as additional information of the data of the image 1 compliant with the Exif standard. It may be.

顔検出情報3を用いることで、例えば、図8で示されるように、画像1における顔の画像の範囲を表示することができるようになる。   By using the face detection information 3, for example, as shown in FIG. 8, the range of the face image in the image 1 can be displayed.

図9は、表示の処理を説明するフローチャートである。ステップS51において、読み出し条件設定部34は、使用者による操作に応じた入力部16からの信号またはROM12またはRAM13に予め記憶されているモードを示すデータを基に、顔の画像が検出された画像1である顔検出画像のみを表示するモードであるか否かを判定し、顔検出画像のみを表示するモードであると判定された場合、ステップS52に進み、読み出す画像1の顔の数を1以上に設定する。例えば、ステップS52において、読み出し条件設定部34は、読み出し制御部35に、読み出す画像1の顔の数が1以上であることを示す値を書き込むことで、読み出す画像1の顔の数を1以上に設定する。   FIG. 9 is a flowchart for explaining display processing. In step S51, the read condition setting unit 34 detects the face image based on the signal from the input unit 16 according to the operation by the user or the data indicating the mode stored in the ROM 12 or RAM 13 in advance. It is determined whether or not the mode is to display only the face detection image that is 1, and if it is determined to be the mode to display only the face detection image, the process proceeds to step S52, and the number of faces of the image 1 to be read is set to 1. Set to above. For example, in step S52, the read condition setting unit 34 writes a value indicating that the number of faces of the image 1 to be read is 1 or more in the read control unit 35, thereby increasing the number of faces of the image 1 to be read by 1 or more. Set to.

ステップS51において、顔検出画像のみを表示するモードでないと判定された場合、ステップS53に進み、読み出し条件設定部34は、使用者による操作に応じた入力部16からの信号またはROM12またはRAM13に予め記憶されているモードを示すデータを基に、顔の画像が検出されていない画像1である非顔検出画像のみを表示するモードであるか否かを判定する。ステップS53において、非顔検出画像のみを表示するモードであると判定された場合、ステップS54に進み、読み出し条件設定部34は、読み出す画像1の顔の数を0に設定する。例えば、ステップS54において、読み出し条件設定部34は、読み出し制御部35に、読み出す画像1の顔の数が0であることを示す値を書き込むことで、読み出す画像1の顔の数を0に設定する。   If it is determined in step S51 that the mode is not the mode for displaying only the face detection image, the process proceeds to step S53, and the reading condition setting unit 34 stores in advance a signal from the input unit 16 according to the operation by the user or the ROM 12 or RAM 13 in advance. Based on the data indicating the stored mode, it is determined whether or not the mode is a mode in which only the non-face detection image that is the image 1 in which the face image is not detected is displayed. If it is determined in step S53 that the mode is for displaying only the non-face detection image, the process proceeds to step S54, and the reading condition setting unit 34 sets the number of faces of the image 1 to be read to zero. For example, in step S54, the read condition setting unit 34 sets the number of faces of the image 1 to be read to 0 by writing a value indicating that the number of faces of the image 1 to be read is 0 in the read control unit 35. To do.

ステップS53において、非顔検出画像のみを表示するモードでないと判定された場合、総ての画像を表示するモードなので、ステップS55に進み、読み出し条件設定部34は、読み出す画像1の顔の数を0以上に設定する。例えば、ステップS55において、読み出し条件設定部34は、読み出し制御部35に、読み出す画像1の顔の数が0以上であることを示す値を書き込むことで、読み出す画像1の顔の数を0以上に設定する。   If it is determined in step S53 that the mode is not a mode for displaying only the non-face detection image, the mode is a mode for displaying all the images. Set to 0 or higher. For example, in step S55, the read condition setting unit 34 writes a value indicating that the number of faces of the image 1 to be read is 0 or more in the read control unit 35, thereby setting the number of faces of the image 1 to be read to be 0 or more. Set to.

ステップS56において、スライドショーの処理が実行され、処理は終了する。   In step S56, a slide show process is executed, and the process ends.

このように、読み出す画像1の顔の数を1以上、0、または0以上のいずれかに設定することで、スライドショーにおいて、顔検出情報3を基に、画像1を選別することで、顔の画像が検出されている画像1に限定して表示したり、顔の画像が検出されていない風景画である画像1に限定して表示したり、全部の画像1を表示したりすることができる。   In this way, by setting the number of faces of the image 1 to be read to 1 or more, 0, or 0 or more, by selecting the image 1 based on the face detection information 3 in the slide show, It is possible to display only the image 1 in which the image is detected, to display only the image 1 that is a landscape image in which no face image is detected, or to display the entire image 1. .

なお、使用者による操作に応じて内部処理で、読み出す画像1の顔の数を1以上、0、または0以上のいずれかに設定すると説明したが、図10で示されるように、顔検出画像のみを表示するモードである場合、読み出す画像1の顔の数を1以上とし、非顔検出画像のみを表示するモードである場合、読み出す画像1の顔の数を0とし、全ての画像1を表示するモードである場合、読み出す画像1の顔の数を0以上とすることを示す設定ファイルを予め記憶しておいて、スライドショーを開始するときに、この設定ファイルを読み込んで、設定ファイルおよび顔検出情報3を基に、画像1を選別するようにしてもよい。   It has been described that the number of faces of the image 1 to be read is set to 1 or more, 0, or 0 or more in the internal processing in accordance with the operation by the user. However, as shown in FIG. In the mode in which only the face of the image 1 to be read is 1 or more, and in the mode in which only the non-face detection image is displayed, the number of faces of the image 1 to be read is set to 0, and all the images 1 are displayed. In the display mode, a setting file indicating that the number of faces of the image 1 to be read is 0 or more is stored in advance, and when starting a slide show, the setting file is read and the setting file and the face are read. The image 1 may be selected based on the detection information 3.

図11は、図9のステップS56に対応するスライドショーの処理の詳細を説明するフローチャートである。ステップS71において、読み出し制御部35は、画像1の表示の順序を決める。   FIG. 11 is a flowchart for explaining the details of the slide show process corresponding to step S56 in FIG. In step S <b> 71, the read control unit 35 determines the display order of the image 1.

すなわち、例えば、ステップS71において、読み出し制御部35は、顔情報データベース33から、それぞれの画像1の顔検出情報3を読み出す。読み出し制御部35は、それぞれの画像1の顔検出情報3および設定された読み出す画像1の顔の数を基に、表示する画像1を決定する。   That is, for example, in step S <b> 71, the read control unit 35 reads the face detection information 3 of each image 1 from the face information database 33. The read control unit 35 determines the image 1 to be displayed based on the face detection information 3 of each image 1 and the set number of faces of the read image 1.

より具体的には、読み出し制御部35は、読み出す画像1の顔の数が1以上に設定されている場合には、顔検出情報3で示される顔の数が1以上である画像1を、表示する画像1と決定し、読み出す画像1の顔の数が0に設定されている場合には、顔検出情報3で示される顔の数が0である画像1を、表示する画像1と決定し、読み出す画像1の顔の数が0以上に設定されている場合には、顔検出情報3で示される顔の数が0以上である画像1(すなわち全ての画像1)を、表示する画像1と決定する。   More specifically, when the number of faces of the image 1 to be read is set to 1 or more, the read control unit 35 selects the image 1 having the number of faces indicated by the face detection information 3 being 1 or more. When the number of faces of the image 1 to be read is determined to be 0 and set to 0, the image 1 with the number of faces indicated by the face detection information 3 is determined to be the image 1 to be displayed. When the number of faces of the image 1 to be read is set to 0 or more, the image 1 (that is, all the images 1) in which the number of faces indicated by the face detection information 3 is 0 or more is displayed. 1 is determined.

そして、読み出し制御部35は、決定された表示する画像1の表示する順序を決める。より具体的には、例えば、読み出し制御部35は、Exifの規格に準拠した画像1のデータの付加情報として、画像1を格納するファイルに格納されている撮影された日付の順に表示させるように、決定された表示する画像1の表示する順序を決める。また、例えば、読み出し制御部35は、画像1の名前を基に、決定された表示する画像1の表示する順序を決める。   Then, the read control unit 35 determines the display order of the determined image 1 to be displayed. More specifically, for example, the read control unit 35 displays, as additional information of the image 1 data compliant with the Exif standard, in the order of the shooting dates stored in the file storing the image 1. The display order of the determined image 1 to be displayed is determined. Further, for example, the read control unit 35 determines the display order of the determined image 1 to be displayed based on the name of the image 1.

ステップS72において、読み出し制御部35は、決められた順序で、画像データベース31から、1つの画像1を読み出す。読み出し制御部35は、読み出した画像1を表示制御部36に供給する。ステップS73において、読み出し制御部35は、顔情報データベース33から、ステップS72の処理で読み出した画像1に関係付けられている顔検出情報3を読み出す。読み出し制御部35は、読み出した顔検出情報3を表示制御部36に供給する。   In step S72, the read control unit 35 reads one image 1 from the image database 31 in the determined order. The read control unit 35 supplies the read image 1 to the display control unit 36. In step S <b> 73, the read control unit 35 reads the face detection information 3 associated with the image 1 read in the process of step S <b> 72 from the face information database 33. The read control unit 35 supplies the read face detection information 3 to the display control unit 36.

このように、顔情報データベースに格納されている顔検出情報3を用いて画像1がフィルタリングされ、スライドショーに用いる画像1が選別される。   Thus, the image 1 is filtered using the face detection information 3 stored in the face information database, and the image 1 used for the slide show is selected.

ステップS74において、表示制御部36の判定部51は、読み出し制御部35から供給された画像1があるかを基に、次に表示する画像1があるか否かを判定する。ステップS74において、読み出し制御部35から供給された画像1があるので、次に表示する画像1があると判定された場合、ステップS75に進み、判定部51は、画像1に関係付けられている顔検出情報3に示されている顔の画像の数から、顔の数が1つであるか否かを判定する。   In step S <b> 74, the determination unit 51 of the display control unit 36 determines whether there is an image 1 to be displayed next, based on whether there is the image 1 supplied from the read control unit 35. In step S74, since there is the image 1 supplied from the read control unit 35, when it is determined that there is an image 1 to be displayed next, the process proceeds to step S75, and the determination unit 51 is related to the image 1. It is determined from the number of face images shown in the face detection information 3 whether or not the number of faces is one.

ステップS75において、顔の数が1つであると判定された場合、ステップS76に進み、判定部51は、画像1に関係付けられている顔検出情報3に示されている顔の向きを基に、顔が正面を向いているか否かを判定する。   If it is determined in step S75 that the number of faces is one, the process proceeds to step S76, where the determination unit 51 determines the face orientation indicated in the face detection information 3 associated with the image 1. Then, it is determined whether or not the face is facing the front.

ここで、顔が正面を向いているとは、いわゆる正面顔である状態をいい、顔の画像における顔のロール角、ピッチ角、およびヨー角が全て0度である状態をいう。なお、顔の画像における顔のロール角、ピッチ角、およびヨー角が0度を中心とした所定の範囲(例えば、プラスマイナス10度など)にある場合、顔が正面を向いていると判定するようにしてもよい。   Here, the face is facing the front means a so-called front face, and the face roll angle, pitch angle, and yaw angle in the face image are all 0 degrees. When the face roll angle, pitch angle, and yaw angle in the face image are within a predetermined range centered on 0 degrees (for example, plus or minus 10 degrees), it is determined that the face is facing the front. You may do it.

ステップS76において、顔が正面を向いていると判定された場合、ステップS77に進み、表示制御部36のエフェクト適用部52は、顔からズームアウトするエフェクトを画像1に適用して、表示制御部36は、顔からズームアウトするように画像1を、ディスプレイである出力部17に表示する。ステップS77の処理の後、手続きは、ステップS72に戻り、上述した処理を繰り返す。   If it is determined in step S76 that the face is facing the front, the process proceeds to step S77, and the effect applying unit 52 of the display control unit 36 applies the effect of zooming out from the face to the image 1 to display the display control unit. 36 displays the image 1 on the output unit 17 which is a display so as to zoom out from the face. After the process of step S77, the procedure returns to step S72 and repeats the process described above.

図12および図13は、顔からズームアウトするように表示される画像1の例を示す図である。   12 and 13 are diagrams illustrating an example of the image 1 displayed so as to zoom out from the face.

ステップS77において、まず最初に、エフェクト適用部52は、顔の大きさにズームインするエフェクトを画像1に適用する。顔の大きさにズームインされた画像1は、顔の画像の中心位置が、ディスプレイである出力部17の表示領域の中央位置(Xd/2,Yd/2)に配置され、顔の画像の幅および高さが表示領域の短辺を超えないように拡大されて表示される。ここで、Xdは、出力部17の表示領域の横幅を示し、Ydは、出力部17の表示領域の高さを示す。   In step S77, first, the effect applying unit 52 applies the effect of zooming in on the size of the face to the image 1. In the image 1 zoomed in to the size of the face, the center position of the face image is arranged at the center position (Xd / 2, Yd / 2) of the display area of the output unit 17 which is a display, and the width of the face image And the image is enlarged and displayed so that the height does not exceed the short side of the display area. Here, Xd indicates the horizontal width of the display area of the output unit 17, and Yd indicates the height of the display area of the output unit 17.

すなわち、顔の画像の中心点(x,y)は、式(1)で表される。
顔の画像の中心点(x,y)=(Xd/2,Yd/2) ・・・(1)
また、表示領域の短辺が縦方向である場合、画像1の高さを1.0としているので、顔の画像の拡大率Zrは、式(2)で表される。
Zr=1/face_height ・・・(2)
face_heightは、顔検出情報3の<height>タグおよび</height>タグの間に配置されている顔の画像の高さである。
That is, the center point (x, y) of the face image is expressed by Expression (1).
Center point of face image (x, y) = (Xd / 2, Yd / 2) (1)
Further, when the short side of the display area is in the vertical direction, the height of the image 1 is set to 1.0, and thus the enlargement ratio Zr of the face image is expressed by Expression (2).
Zr = 1 / face_height (2)
The face_height is the height of the face image arranged between the <height> tag and the </ height> tag of the face detection information 3.

表示領域の短辺が横方向である場合、画像1の幅を1.0としているので、顔の画像の拡大率Zrは、式(3)で表される。
Zr=1/face_width ・・・(3)
face_widthは、<width>タグおよび</width>タグの間に配置されている顔の画像の幅である。
When the short side of the display area is in the horizontal direction, since the width of the image 1 is set to 1.0, the enlargement ratio Zr of the face image is expressed by Expression (3).
Zr = 1 / face_width (3)
face_width is the width of the face image arranged between the <width> tag and the </ width> tag.

例えば、エフェクト適用部52は、図12で示されるように、顔の画像の幅または顔の画像の高さを基に、顔の画像の全体が出力部17の表示領域に表示されるように、式(2)または式(3)を基に、顔の画像の拡大率Zrを決定する。図12で示される例において、表示領域の短辺が縦方向なので、エフェクト適用部52は、式(2)を基に、顔の画像の拡大率Zrを決定する。   For example, as shown in FIG. 12, the effect application unit 52 displays the entire face image in the display area of the output unit 17 based on the width of the face image or the height of the face image. Based on the formula (2) or the formula (3), the enlargement ratio Zr of the face image is determined. In the example shown in FIG. 12, since the short side of the display area is in the vertical direction, the effect applying unit 52 determines the enlargement ratio Zr of the face image based on Expression (2).

図12において、太線は、顔の画像の範囲を示す。顔の大きさにズームインされている場合、顔の画像の拡大率Zrは、式(2)を基に、決定された値とされ、顔の画像の高さが出力部17の表示領域の高さと一致するように、顔の画像が拡大される。顔の画像を含む画像1の領域であって、出力部17の表示領域に表示される画像1の領域である表示エリアの高さYは、顔の画像の高さface_heightに等しくされる。   In FIG. 12, the bold line indicates the range of the face image. When the face is zoomed in to the size of the face, the enlargement ratio Zr of the face image is set to a value determined based on Expression (2), and the height of the face image is the height of the display area of the output unit 17. So that the face image is enlarged. The height Y of the display area which is the area of the image 1 including the face image and is the area of the image 1 displayed in the display area of the output unit 17 is set equal to the height face_height of the face image.

顔の画像を含む画像1の領域であって、出力部17の表示領域に表示される画像1の領域である表示エリアの幅Xは、Xd/Zrとされる。表示領域の長辺が横方向なので、表示エリアの幅Xは、表示エリアの高さYより長くなる。   The width X of the display area which is the area of the image 1 including the face image and which is displayed in the display area of the output unit 17 is Xd / Zr. Since the long side of the display area is in the horizontal direction, the width X of the display area is longer than the height Y of the display area.

表示エリアは、Zrだけ拡大されて、出力部17の表示領域に表示される。すなわち、表示エリアの高さYは、Zrだけ拡大されて、拡大された画像の高さPY=Y/face_widthとされ、表示エリアの幅Xは、Zrだけ拡大されて、拡大された画像の幅PX=X/face_widthとされて、拡大された画像は、出力部17の表示領域の全体に表示される。ここで、PY=Yd、PX=Xdとなる。   The display area is enlarged by Zr and displayed in the display area of the output unit 17. That is, the height Y of the display area is enlarged by Zr and the height of the enlarged image is PY = Y / face_width, and the width X of the display area is enlarged by Zr and the width of the enlarged image. The enlarged image with PX = X / face_width is displayed in the entire display area of the output unit 17. Here, PY = Yd and PX = Xd.

次に、エフェクト適用部52は、ズームアウトするエフェクトを画像1に適用する。   Next, the effect applying unit 52 applies the effect to be zoomed out to the image 1.

すなわち、エフェクト適用部52は、拡大された画像の頂点のそれぞれ(4隅のそれぞれ)から、表示エリアの頂点のそれぞれ(4隅のそれぞれ)までの距離dnをそれぞれ算出し、一番遠い距離dnにある点に対して指定された時間で縮小されるように拡大率Zrを小さくしつつ、最終的に出力部17の表示領域の全体に画像1の全体を描画させる。   That is, the effect application unit 52 calculates the distance dn from each of the vertices of the enlarged image (each of the four corners) to each of the vertices of the display area (each of the four corners), and the farthest distance dn The entire image 1 is finally drawn on the entire display area of the output unit 17 while reducing the enlargement ratio Zr so that the point is reduced at a designated time.

これにより、図13で示されるように、画像1の切り替えにおいて、時間の経過に応じて、顔の画像にズームインした状態から、全体の画像1にズームアウトされるように画像1が表示されることになる。   As a result, as shown in FIG. 13, in switching of image 1, image 1 is displayed so as to be zoomed out to the entire image 1 from a state where the face image is zoomed in as time passes. It will be.

この場合、前に表示されている画像1の透過率を変化させながら画像を入れ替える処理を行うようにしてもよい。   In this case, a process of replacing the images while changing the transmittance of the previously displayed image 1 may be performed.

ステップS76において、顔が正面を向いていないと判定された場合、ステップS78に進み、表示制御部36のエフェクト適用部52は、顔の方向にスライドインするエフェクトを画像1に適用して、表示制御部36は、顔の方向にスライドインするように画像1を、ディスプレイである出力部17に表示する。ステップS78の処理の後、手続きは、ステップS72に戻り、上述した処理を繰り返す。   If it is determined in step S76 that the face is not facing the front, the process proceeds to step S78, where the effect applying unit 52 of the display control unit 36 applies the effect of sliding in the face direction to the image 1 and displays it. The control unit 36 displays the image 1 on the output unit 17 that is a display so as to slide in in the direction of the face. After the process of step S78, the procedure returns to step S72 and repeats the process described above.

図14および図15は、顔の方向にスライドインするように表示される画像1の例を示す図である。   14 and 15 are diagrams illustrating examples of the image 1 displayed so as to slide in in the direction of the face.

例えば、ステップS78において、エフェクト適用部52は、顔の方向にスライドインするエフェクトを画像1に適用する場合、最初に、2次元の平面に投影された顔の角度θと、顔の画像の位置とから、スライドを開始する画像1の位置を求める。   For example, in step S78, when applying the effect that slides in the face direction to the image 1, the effect applying unit 52 first applies the face angle θ projected on the two-dimensional plane and the position of the face image. From the above, the position of the image 1 where the slide starts is obtained.

ここで、2次元の平面に投影された顔の角度θについて説明する。顔の画像は、平面に表示されるので、図7で示されるように、顔の正面から垂直に伸びる垂直ベクトルLを画面に投影したときの角度が、2次元の平面に投影された顔の角度θとされる。   Here, the angle θ of the face projected on the two-dimensional plane will be described. Since the face image is displayed on the plane, as shown in FIG. 7, the angle when the vertical vector L extending vertically from the front of the face is projected onto the screen is the angle of the face projected on the two-dimensional plane. The angle is θ.

エフェクト適用部52は、スライドを開始する画像1の位置として、画像1を、顔の角度θに対して逆の方向に移動させて、表示領域(描画領域)の境界に画像1の顔の画像が接する位置を求める。   The effect applying unit 52 moves the image 1 in the direction opposite to the face angle θ as the position of the image 1 to start the slide, and the image of the face of the image 1 at the boundary of the display area (drawing area). Find the position where the touches.

例えば、図14で示されるように、エフェクト適用部52は、2次元の平面に投影された顔の角度θに対して逆の方向に画像1を移動させて、画像1が左側に表示オフセットX0だけ移動され、画像1が上側に表示オフセットY0だけ移動した位置をスライドを開始する画像1の位置とする。図14で示される例において、エフェクト適用部52は、画像1の顔の画像の左端が、表示領域の左端と一致し、画像1の顔の画像の上端が、表示領域の上端と一致する位置、すなわち、表示領域の左上に顔の画像が配置される位置を画像1の位置とする。   For example, as shown in FIG. 14, the effect applying unit 52 moves the image 1 in the opposite direction to the angle θ of the face projected on the two-dimensional plane, and the image 1 is displayed offset X0 on the left side. And the position where the image 1 is moved upward by the display offset Y0 is set as the position of the image 1 where the slide is started. In the example shown in FIG. 14, the effect applying unit 52 has a position where the left edge of the face image of the image 1 matches the left edge of the display area, and the upper edge of the face image of the image 1 matches the upper edge of the display area. That is, the position where the face image is arranged at the upper left of the display area is the position of the image 1.

図14で示される例において、オフセット距離d0は、(X02+Y02)1/2である。スライドを開始する画像1の位置において、画像1の顔の画像の全体が出力部17の表示領域に表示されることになる。 In the example shown in FIG. 14, the offset distance d0 is (X0 2 + Y0 2 ) 1/2 . The entire face image of image 1 is displayed in the display area of output unit 17 at the position of image 1 where the slide starts.

エフェクト適用部52は、オフセット距離d0に対して指定された時間で画像1のスライドが完了するように顔の角度θの方向に画像1のオブジェクトを移動させつつ描画する。   The effect applying unit 52 draws while moving the object of the image 1 in the direction of the face angle θ so that the slide of the image 1 is completed at the time specified with respect to the offset distance d0.

次の画像1を表示させるように画像1の表示が移る(表示が切り替えられる)場合には、画像1の全体が表示されている状態から、顔の角度θの方向に画像1がさらにスライドされて、顔の画像が表示領域(描画領域)の境界に接するまで移動するように、画像1が出力部17の表示領域に表示される。   When the display of the image 1 is shifted so as to display the next image 1 (the display is switched), the image 1 is further slid in the direction of the face angle θ from the state where the entire image 1 is displayed. Thus, the image 1 is displayed in the display area of the output unit 17 so that the face image moves until it touches the boundary of the display area (drawing area).

これにより、図15で示されるように、画像1の切り替えにおいて、顔の方向にスライドインするように画像1が表示されることになる。   As a result, as shown in FIG. 15, when switching image 1, image 1 is displayed so as to slide in the face direction.

スライドインして画像1を表示させる場合に、画像1の透過率を変化させるようにしてもよい。   When the image 1 is displayed by sliding in, the transmittance of the image 1 may be changed.

ステップS75において、顔の数が1つでないと判定された場合、ステップS79に進み、表示制御部36の判定部51は、画像1に関係付けられている顔検出情報3に示されている顔の数から、顔の数が4つであるか否かを判定する。   If it is determined in step S75 that the number of faces is not one, the process proceeds to step S79, where the determination unit 51 of the display control unit 36 indicates the face indicated in the face detection information 3 associated with the image 1 Whether the number of faces is four or not is determined from the number of.

ステップS79において、顔の数が4つであると判定された場合、ステップS80に進み、表示制御部36のエフェクト適用部52は、4分割した画面の領域のそれぞれにおいて、顔にズームしつつ、クロスフェードするエフェクトを画像1に適用して、表示制御部36は、4分割した画面の領域のそれぞれにおいて、顔にズームしつつ、クロスフェードするように画像1を、ディスプレイである出力部17に表示する。ステップS80の処理の後、手続きは、ステップS72に戻り、上述した処理を繰り返す。   If it is determined in step S79 that the number of faces is four, the process proceeds to step S80, where the effect applying unit 52 of the display control unit 36 zooms to the face in each of the four divided screen areas. By applying the effect of cross-fading to the image 1, the display control unit 36 applies the image 1 to the output unit 17 that is a display so as to perform cross-fading while zooming to the face in each of the four divided screen areas. indicate. After the process of step S80, the procedure returns to step S72 and repeats the process described above.

例えば、図16で示されるように、エフェクト適用部52は、出力部17の表示領域を4つに分割した領域のそれぞれに、今表示されている画像1に含まれている顔の画像を徐々に表示させるように、画像の透過率を変化させながら顔の画像を表示させる。そして、エフェクト適用部52は、4つに分割した領域のそれぞれに顔の画像を、次に表示しようとする画像1に含まれている顔の画像に徐々に変化させて表示させるように、画像の透過率を変化させながら顔の画像を表示させる。   For example, as shown in FIG. 16, the effect application unit 52 gradually applies the face image included in the image 1 currently displayed to each of the regions obtained by dividing the display region of the output unit 17 into four regions. The face image is displayed while changing the transmittance of the image. Then, the effect applying unit 52 displays the face image in each of the four divided areas so that the face image included in the image 1 to be displayed next is gradually changed and displayed. The image of the face is displayed while changing the transmittance.

さらに、エフェクト適用部52は、出力部17の表示領域の全体に画像1全体を徐々に表示させるように、画像の透過率を変化させながら次の画像1を表示させる。   Further, the effect applying unit 52 displays the next image 1 while changing the transmittance of the image so that the entire image 1 is gradually displayed on the entire display area of the output unit 17.

ステップS79において、顔の数が4つでないと判定された場合、ステップS81に進み、表示制御部36は、顔検出情報3を基に、注目する顔を選択する。例えば、ステップS81において、表示制御部36は、顔検出情報3を基に、最も大きい顔を選択する。例えば、顔の数が0であると判定され、画像1が風景画像である場合、この場合、顔は選択されない。または、例えば、画像1が風景画像である場合、画像1に含まれている画像オブジェクトをランダムに選択する。   If it is determined in step S79 that the number of faces is not four, the process proceeds to step S81, and the display control unit 36 selects a face of interest based on the face detection information 3. For example, in step S <b> 81, the display control unit 36 selects the largest face based on the face detection information 3. For example, when it is determined that the number of faces is 0 and the image 1 is a landscape image, in this case, no face is selected. Alternatively, for example, when the image 1 is a landscape image, an image object included in the image 1 is selected at random.

ステップS82において、表示制御部36のエフェクト適用部52は、選択した顔の方向にスライドインするエフェクトを画像1に適用して、表示制御部36は、選択した顔の方向にスライドインするように画像1を、ディスプレイである出力部17に表示する。例えば、顔の数が0であると判定され、画像1が風景画像である場合、顔は選択されていないので、表示制御部36のエフェクト適用部52は、予め定めた方向にスライドインするエフェクトを画像1に適用して、表示制御部36は、予め定めた方向にスライドインするように画像1を、ディスプレイである出力部17に表示する。   In step S82, the effect applying unit 52 of the display control unit 36 applies the effect of sliding in the selected face direction to the image 1, and the display control unit 36 slides in the selected face direction. The image 1 is displayed on the output unit 17 which is a display. For example, when it is determined that the number of faces is 0 and the image 1 is a landscape image, no effect is selected, so the effect applying unit 52 of the display control unit 36 effects the slide-in in a predetermined direction. Is applied to the image 1, and the display control unit 36 displays the image 1 on the output unit 17 that is a display so as to slide in in a predetermined direction.

また、ランダムに選択された画像オブジェクトに対して、顔の画像と同様に処理を適用するようにしてもよい。   In addition, processing may be applied to a randomly selected image object in the same manner as a face image.

ステップS82の処理の後、手続きは、ステップS72に戻り、上述した処理を繰り返す。   After the process of step S82, the procedure returns to step S72 and repeats the above-described process.

ステップS74において、次に表示する画像1がないと判定された場合、処理は終了する。   If it is determined in step S74 that there is no image 1 to be displayed next, the processing ends.

なお、画像1に適用するエフェクトは、ズームインズームアウト、スライドイン、またはクロスフェードに限らず、顔検出情報3に含まれる情報から、画像1に適用する効果(エフェクト)を選択するようにしてもよい。この場合、選択方法は、ランダムに選択するようにしても良く、また、顔の画像の大きさまたは位置に、重み付けをして効果を選択するようにしてもよい。   Note that the effect applied to the image 1 is not limited to zoom-in / zoom-out, slide-in, or cross-fade, but the effect (effect) to be applied to the image 1 may be selected from information included in the face detection information 3. Good. In this case, the selection method may be selected randomly, or the effect may be selected by weighting the size or position of the face image.

このように、画像1に含まれる顔の画像により適したエフェクトを適用して画像1を表示することができる。すなわち、画像1の内容により適した効果を適用して画像1を表示することができる。   As described above, the image 1 can be displayed by applying an effect more suitable for the face image included in the image 1. That is, the image 1 can be displayed by applying an effect more suitable for the content of the image 1.

顔の画像の検出の結果得られたメタ情報(顔検出情報3)を用いてスライドショーの処理を実行することで、画像1の中身に応じた効果を作り出すことができる。これにより、表示される画像1の印象がさらに高まり、使用者は、思い出をより想起しやすくなる。   By executing the slide show process using the meta information (face detection information 3) obtained as a result of the detection of the face image, an effect corresponding to the contents of the image 1 can be created. Thereby, the impression of the displayed image 1 further increases, and the user can easily recall the memories.

また、人が写っている画像1を用いたスライドショーだけでなく、人が写っていない画像1を用いてスライドショーの処理を実行することができる。選択する画像1から人が写っている画像1を排除することで、純粋に風景を楽しむスライドショーを提供したり、画像1に写っている人のプライバシーに配慮したスライドショーを提供できるようになる。   In addition to the slide show using the image 1 in which a person is shown, the slide show process can be executed using the image 1 in which no person is shown. By excluding the image 1 in which the person is shown from the image 1 to be selected, it is possible to provide a slide show for enjoying the scenery purely or to provide a slide show in consideration of the privacy of the person in the image 1.

このように、記憶している画像1を読み出し、画像1を表示するようにした場合には、画像を表示することができる。また、それぞれの画像に含まれる顔の画像である顔画像を検出し、画像を順に切り替えて表示する場合、顔画像に応じた、画像の切り替えの効果を適用した画像の表示を制御するようにした場合には、画像の内容により適した効果を適用して画像を表示することができる。   Thus, when the stored image 1 is read and the image 1 is displayed, the image can be displayed. In addition, when a face image that is a face image included in each image is detected and the images are sequentially switched and displayed, the display of the image to which the image switching effect is applied according to the face image is controlled. In this case, the image can be displayed by applying an effect more suitable for the content of the image.

なお、パーソナルコンピュータ2を例に説明したが、これに限らず、図17で示されるようにデジタルスチルカメラ101に本発明を適用するようにしてもよい。この場合、デジタルスチルカメラ101は、上述した処理を実行して、デジタルスチルカメラ101が撮影した画像1から顔を検出して、顔検出情報3を生成する。デジタルスチルカメラ101は、撮影した画像1と顔検出情報3とを関係付ける。デジタルスチルカメラ101は、上述したスライドショーの処理を実行する。   Although the personal computer 2 has been described as an example, the present invention is not limited thereto, and the present invention may be applied to the digital still camera 101 as shown in FIG. In this case, the digital still camera 101 performs the above-described processing, detects a face from the image 1 captured by the digital still camera 101, and generates face detection information 3. The digital still camera 101 associates the captured image 1 with the face detection information 3. The digital still camera 101 executes the above-described slide show process.

このようにすることで、デジタルスチルカメラ101の表示部において、画像1の内容により適した効果を適用して画像1を表示することができる。   In this way, the display unit of the digital still camera 101 can display the image 1 by applying an effect more suitable for the content of the image 1.

また、パーソナルコンピュータ2またはデジタルスチルカメラ101に限らず、携帯電話機、デジタルスキャナ、携帯情報端末装置、デジタルビデオカメラ、テレビジョン装置、ハードディスクビデオレコーダなど、画像を表示する機能を有する電子機器であれば、本発明を適用することができる。   In addition, the electronic device is not limited to the personal computer 2 or the digital still camera 101, and may be an electronic device having a function of displaying an image, such as a mobile phone, a digital scanner, a portable information terminal device, a digital video camera, a television device, and a hard disk video recorder. The present invention can be applied.

なお、他の装置で関係付けられた画像1および顔検出情報3を基に、スライドショーの処理を実行するようにしてもよい。   Note that the slide show processing may be executed based on the image 1 and the face detection information 3 related by another device.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム格納媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, the program is installed in a general-purpose personal computer from the program storage medium.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム格納媒体は、図2に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア21、または、プログラムが一時的もしくは永続的に格納されるROM12や、記憶部18を構成するハードディスクなどにより構成される。プログラム格納媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部19を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 2, a program storage medium that stores a program that is installed in a computer and can be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (including Digital Versatile Disc)), magneto-optical disk (including MD (Mini-Disc)), or removable media 21 that is a package medium made of semiconductor memory, or the program is temporary or permanent Is configured by a ROM 12 stored in the hard disk, a hard disk constituting the storage unit 18, and the like. The program is stored in the program storage medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 19 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム格納媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program storage medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series. Or the process performed separately is also included.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

本発明の一実施の形態のパーソナルコンピュータを説明する図である。It is a figure explaining the personal computer of one embodiment of this invention. パーソナルコンピュータの構成の例を示すブロック図である。And FIG. 11 is a block diagram illustrating an example of a configuration of a personal computer. パーソナルコンピュータの機能の構成の例を示すブロック図である。It is a block diagram which shows the example of a structure of a function of a personal computer. 顔の検出の処理を説明するフローチャートである。It is a flowchart explaining the process of face detection. 画像の例を示す図である。It is a figure which shows the example of an image. 顔検出情報の例を示す図である。It is a figure which shows the example of face detection information. 顔の角度を説明する図である。It is a figure explaining the angle of a face. 表示される画像の例を示す図である。It is a figure which shows the example of the image displayed. 表示の処理を説明するフローチャートである。It is a flowchart explaining the process of a display. 動作モードの設定ファイルの例を示す図である。It is a figure which shows the example of the setting file of an operation mode. スライドショーの処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the process of a slide show. 顔からズームアウトするように表示される画像の例を示す図である。It is a figure which shows the example of the image displayed so that it may zoom out from a face. 顔からズームアウトするように表示される画像の例を示す図である。It is a figure which shows the example of the image displayed so that it may zoom out from a face. 顔の方向にスライドインするように表示される画像の例を示す図である。It is a figure which shows the example of the image displayed so that it may slide in in the direction of a face. 顔の方向にスライドインするように表示される画像の例を示す図である。It is a figure which shows the example of the image displayed so that it may slide in in the direction of a face. 顔の数が4つである場合に表示される画像の例を示す図である。It is a figure which shows the example of the image displayed when the number of faces is four. 本発明の一実施の形態のデジタルスチルカメラを説明する図である。It is a figure explaining the digital still camera of one embodiment of this invention.

符号の説明Explanation of symbols

1 画像, 2 パーソナルコンピュータ, 3 顔検出情報, 11 CPU, 12 ROM, 13 RAM, 17 出力部, 18 記憶部, 21 リムーバブルメディア, 31 画像データベース, 32 顔検出部, 33 顔情報データベース, 34 読み出し条件設定部, 35 読み出し制御部, 36 表示制御部, 51 判定部, 52 エフェクト適用部   1 image, 2 personal computer, 3 face detection information, 11 CPU, 12 ROM, 13 RAM, 17 output unit, 18 storage unit, 21 removable media, 31 image database, 32 face detection unit, 33 face information database, 34 reading condition Setting unit, 35 readout control unit, 36 display control unit, 51 determination unit, 52 effect application unit

Claims (9)

それぞれの画像に含まれる顔の画像である顔画像を検出する検出手段と、
前記画像を順に切り替えて表示する場合、前記顔画像に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する表示制御手段と
を備える画像処理装置。
Detecting means for detecting a face image that is a face image included in each image;
An image processing apparatus comprising: a display control unit configured to control display of the image to which an image switching effect is applied according to the face image when the images are sequentially switched and displayed.
前記検出手段は、それぞれの前記画像に含まれる前記顔画像の数を検出し、
予め記憶されている前記画像のうち、1つ以上の前記顔画像が検出された前記画像を読み出すように前記画像の読み出しを制御する読み出し制御手段をさらに備え、
前記表示制御手段は、読み出された前記画像の表示を制御する
請求項1に記載の画像処理装置。
The detection means detects the number of the face images included in each of the images,
A reading control means for controlling reading of the image so as to read the image in which one or more face images are detected among the images stored in advance;
The image processing apparatus according to claim 1, wherein the display control unit controls display of the read image.
前記検出手段は、それぞれの前記画像に含まれる前記顔画像の数を検出し、
前記表示制御手段は、前記顔画像の数に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する
請求項1に記載の画像処理装置。
The detection means detects the number of the face images included in each of the images,
The image processing apparatus according to claim 1, wherein the display control unit controls display of the image to which an image switching effect is applied according to the number of the face images.
前記検出手段は、前記顔画像の大きさを検出し、
前記表示制御手段は、前記顔画像の大きさに応じた、画像の切り替えの効果を適用した前記画像の表示を制御する
請求項1に記載の画像処理装置。
The detecting means detects the size of the face image;
The image processing apparatus according to claim 1, wherein the display control unit controls display of the image to which an image switching effect is applied according to the size of the face image.
前記検出手段は、前記画像における前記顔画像の位置を検出し、
前記表示制御手段は、前記顔画像の位置に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する
請求項1に記載の画像処理装置。
The detecting means detects a position of the face image in the image;
The image processing apparatus according to claim 1, wherein the display control unit controls display of the image to which an image switching effect is applied according to the position of the face image.
前記検出手段は、前記顔画像における、顔の向きを検出し、
前記表示制御手段は、顔の向きに応じた、画像の切り替えの効果を適用した前記画像の表示を制御する
請求項1に記載の画像処理装置。
The detecting means detects a face direction in the face image;
The image processing apparatus according to claim 1, wherein the display control unit controls display of the image to which an image switching effect is applied according to a face orientation.
前記検出手段は、それぞれの前記画像について、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きを検出し、
それぞれの前記画像と、それぞれの前記画像における、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きとを関係付ける関係付け手段をさらに備え、
前記表示制御手段は、前記顔画像に関係付けられている、それぞれの前記画像における、前記顔画像の数、それぞれの前記顔画像の大きさ、それぞれの前記顔画像の位置、またはそれぞれの前記顔画像における顔の向きに応じた、画像の切り替えの効果を適用した前記画像の表示を制御する
請求項1に記載の画像処理装置。
The detecting means detects, for each of the images, the number of the face images, the size of each of the face images, the position of each of the face images, or the orientation of the face in each of the face images;
Relationships that relate each image to the number of face images, the size of each face image, the position of each face image, or the face orientation of each face image in each image. A further attaching means,
The display control means relates to the face image, the number of the face images, the size of each face image, the position of each face image, or each face in each of the images. The image processing apparatus according to claim 1, wherein display of the image to which an image switching effect is applied according to a face orientation in the image is controlled.
それぞれの画像に含まれる顔の画像である顔画像を検出する検出ステップと、
前記画像を順に切り替えて表示する場合、前記顔画像に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する表示制御ステップと
を含む画像処理方法。
A detection step of detecting a face image that is a face image included in each image;
An image processing method comprising: a display control step of controlling display of the image to which an effect of image switching is applied according to the face image when the images are sequentially switched and displayed.
それぞれの画像に含まれる顔の画像である顔画像を検出する検出ステップと、
前記画像を順に切り替えて表示する場合、前記顔画像に応じた、画像の切り替えの効果を適用した前記画像の表示を制御する表示制御ステップと
を含む処理をコンピュータに実行させるプログラム。
A detection step of detecting a face image that is a face image included in each image;
A program for causing a computer to execute a process including a display control step of controlling display of the image to which an effect of image switching is applied according to the face image when the images are sequentially switched and displayed.
JP2005266383A 2005-09-14 2005-09-14 Image processing apparatus and method, and program Expired - Fee Related JP4779524B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005266383A JP4779524B2 (en) 2005-09-14 2005-09-14 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005266383A JP4779524B2 (en) 2005-09-14 2005-09-14 Image processing apparatus and method, and program

Publications (3)

Publication Number Publication Date
JP2007079894A true JP2007079894A (en) 2007-03-29
JP2007079894A5 JP2007079894A5 (en) 2008-10-30
JP4779524B2 JP4779524B2 (en) 2011-09-28

Family

ID=37940140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005266383A Expired - Fee Related JP4779524B2 (en) 2005-09-14 2005-09-14 Image processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP4779524B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299339A (en) * 2006-05-08 2007-11-15 Fujifilm Corp Image reproducing device, method and program
JP2009043191A (en) * 2007-08-10 2009-02-26 Kaigian Inc Image continuous display program, image continuous display device and image continuous display method
WO2009031402A1 (en) 2007-09-05 2009-03-12 Sony Corporation Image selecting device, image selecting method and program
JP2009278393A (en) * 2008-05-15 2009-11-26 Olympus Imaging Corp Image processor, image processing method, image processing program, and image display device
JP2009303002A (en) * 2008-06-16 2009-12-24 Nikon Corp Electronic album creation system and electronic album creation program
JP2010237516A (en) * 2009-03-31 2010-10-21 Nikon Corp Program and device for performing reproduction
JP2012073782A (en) * 2010-09-28 2012-04-12 Nintendo Co Ltd Image generation program, imaging device, imaging system and image generation method
US8264327B2 (en) 2008-06-16 2012-09-11 Canon Kabushiki Kaisha Authentication apparatus, image sensing apparatus, authentication method and program therefor

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005033276A (en) * 2003-07-07 2005-02-03 Seiko Epson Corp System, program, and method for image reproducing
JP2005182196A (en) * 2003-12-16 2005-07-07 Canon Inc Image display method and image display device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005033276A (en) * 2003-07-07 2005-02-03 Seiko Epson Corp System, program, and method for image reproducing
JP2005182196A (en) * 2003-12-16 2005-07-07 Canon Inc Image display method and image display device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007299339A (en) * 2006-05-08 2007-11-15 Fujifilm Corp Image reproducing device, method and program
JP2009043191A (en) * 2007-08-10 2009-02-26 Kaigian Inc Image continuous display program, image continuous display device and image continuous display method
WO2009031402A1 (en) 2007-09-05 2009-03-12 Sony Corporation Image selecting device, image selecting method and program
JP2009278393A (en) * 2008-05-15 2009-11-26 Olympus Imaging Corp Image processor, image processing method, image processing program, and image display device
JP2009303002A (en) * 2008-06-16 2009-12-24 Nikon Corp Electronic album creation system and electronic album creation program
US8264327B2 (en) 2008-06-16 2012-09-11 Canon Kabushiki Kaisha Authentication apparatus, image sensing apparatus, authentication method and program therefor
JP2010237516A (en) * 2009-03-31 2010-10-21 Nikon Corp Program and device for performing reproduction
JP2012073782A (en) * 2010-09-28 2012-04-12 Nintendo Co Ltd Image generation program, imaging device, imaging system and image generation method

Also Published As

Publication number Publication date
JP4779524B2 (en) 2011-09-28

Similar Documents

Publication Publication Date Title
JP4779524B2 (en) Image processing apparatus and method, and program
US8255795B2 (en) Optimal viewing of digital images and voice annotation transitions in slideshows
US7154534B2 (en) Image input apparatus, program executed by computer, and method for preparing document with image
JP4204509B2 (en) Data division recording method for electronic camera and electronic camera
JP4605458B2 (en) Image processing apparatus and image processing program
JP2007041987A (en) Image processing apparatus and method, and program
JP2008283361A (en) Image processing apparatus, image processing method, program, and recording medium
CN103873764A (en) Information processing apparatus, information processing method, and program
JP2006293783A (en) Image processing device and image processing program
JP2007151080A (en) Image processor and image processing method
JP2006293782A (en) Image processing device and image processing program
JP2009105899A (en) System and method of browsing images
JP2006014221A (en) Imaging apparatus and imaging method
JP2007265149A (en) Image processor, image processing method and imaging device
CN101742105B (en) Camera and display method of camera
JP2011211398A (en) Electronic apparatus and panoramic image display program
US8774603B2 (en) Information processing apparatus, information processing method, program, and recording medium
JP2007266676A (en) Imaging apparatus, method and program for displaying photographed image, and method and program for deleting photographed image
JP2007201935A (en) Control method of image processing apparatus, and image processing apparatus
JP4360395B2 (en) Information processing device
JP3993003B2 (en) Display instruction apparatus, display system, display instruction program, terminal, and program
JP2007221722A (en) Image processing apparatus and control method thereof
JP2015119403A (en) Image recording apparatus, image recording method, program, and imaging apparatus
JP2006186930A (en) Imaging device, image processing method and program
JP5419783B2 (en) Image reproducing apparatus and method for controlling image reproducing apparatus

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110607

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110620

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140715

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees