JP2009246888A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2009246888A
JP2009246888A JP2008094115A JP2008094115A JP2009246888A JP 2009246888 A JP2009246888 A JP 2009246888A JP 2008094115 A JP2008094115 A JP 2008094115A JP 2008094115 A JP2008094115 A JP 2008094115A JP 2009246888 A JP2009246888 A JP 2009246888A
Authority
JP
Japan
Prior art keywords
image
frame
file
information
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008094115A
Other languages
Japanese (ja)
Other versions
JP4623120B2 (en
Inventor
Tomohiko Hasegawa
智彦 長谷川
Maki Kondo
真樹 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2008094115A priority Critical patent/JP4623120B2/en
Priority to US12/414,318 priority patent/US8320717B2/en
Publication of JP2009246888A publication Critical patent/JP2009246888A/en
Application granted granted Critical
Publication of JP4623120B2 publication Critical patent/JP4623120B2/en
Priority to US13/662,920 priority patent/US8588532B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Storing Facsimile Image Data (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor that outputs an easy-to-view list of images. <P>SOLUTION: An image file stored in a media card is analyzed to determine whether an image formed based upon the image file meets an image extraction criterion stored in an image extraction criterion storage area 13n, and the image list 20 including index images comprising images determined to meet the image extraction criterion or reduced or enlarged images of the images is output. Consequently, the image list easy-to-view for a user is output. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は画像処理装置に関するものである。   The present invention relates to an image processing apparatus.

近年では、デジタルカメラを用いて動画像と静止画とを撮影できるため、撮影シーンに応じて、動画像と静止画像とを使い分けて撮影するケースが存在している。例えば、集合写真などの動きのないシーンは静止画で撮影し、運動会の場面など、動きのあるシーンは動画像で撮影することができる。   In recent years, since a moving image and a still image can be shot using a digital camera, there are cases in which a moving image and a still image are shot separately according to a shooting scene. For example, a scene without motion such as a group photo can be shot as a still image, and a scene with motion such as a sports day scene can be shot as a moving image.

また、このようなデジタルカメラで撮影した動画像や静止画を印刷出力し、またはディスプレイに表示する装置も提案されている。
特開2005−130254号公報 特開平9−322113号公報
There has also been proposed an apparatus that prints out a moving image or a still image captured by such a digital camera or displays it on a display.
JP 2005-130254 A JP 9-322113 A

しかしながら、上述のような装置では、動画と静止画を単純に並べているだけにすぎず、動画と静止画を閲覧性よく配置する、ということができなかった。   However, in the above-described apparatus, the moving image and the still image are simply arranged, and the moving image and the still image cannot be arranged with good viewability.

本発明は、上記問題点を解決するためになされたものであり、閲覧性の良い画像一覧を出力可能な画像処理装置を提供することを目的としている。   The present invention has been made to solve the above-described problems, and an object thereof is to provide an image processing apparatus capable of outputting a list of images having good browsing properties.

請求項1記載の画像処理装置は、画像一覧に配置する画像を選択するための選択条件を記憶する選択条件記憶手段と、記憶媒体に格納された画像情報を解析し、前記画像情報に基づいて形成される画像が、前記選択条件記憶手段に記憶された選択条件を満たすかを判断する画像判断手段と、前記記憶媒体に格納された画像情報に基づいて形成される画像のうち、前記画像判断手段により前記選択条件を満たすと判断された画像またはその画像の縮小もしくは拡大画像で構成されるインデックス画像を配置した画像一覧を出力する出力手段とを備える。   The image processing apparatus according to claim 1, a selection condition storage means for storing a selection condition for selecting an image to be arranged in an image list, and image information stored in a storage medium are analyzed, and based on the image information An image determination unit that determines whether an image to be formed satisfies a selection condition stored in the selection condition storage unit; and the image determination among images formed based on image information stored in the storage medium And an output means for outputting an image list in which an image determined to satisfy the selection condition by the means or an index image composed of a reduced or enlarged image of the image is arranged.

請求項2記載の画像処理装置は、請求項1記載の画像処理装置において、前記画像判断手段は、動画像を再生するための動画像情報が前記画像情報として前記記憶媒体に格納されている場合、その動画像情報に対応した動画像から抽出される複数のフレーム画像各々について前記選択条件を満たすかを判断するものであり、前記出力手段は、前記画像判断手段により、前記選択条件を満たすと判断されたフレーム画像またはそのフレーム画像の縮小もしくは拡大画像を、前記インデックス画像として配置した画像一覧を出力する。   The image processing device according to claim 2 is the image processing device according to claim 1, wherein the image determination means stores moving image information for reproducing a moving image as the image information in the storage medium. Determining whether or not the selection condition is satisfied for each of a plurality of frame images extracted from the moving image corresponding to the moving image information, and the output means determines that the selection condition is satisfied by the image determining means. An image list in which the determined frame image or a reduced or enlarged image of the frame image is arranged as the index image is output.

請求項3記載の画像処理装置は、請求項2記載の画像処理装置において、前記画像判断手段は、静止画像を出力するための静止画像情報が、前記画像情報として前記動画像情報と共に前記記憶媒体に格納されている場合、前記フレーム画像に加え、前記静止画像情報に基づいて形成される静止画像について、前記選択条件を満たすかを判断するものであり、前記出力手段は、前記画像判断手段により、前記選択条件を満たすと判断されたフレーム画像またはそのフレーム画像の縮小もしくは拡大画像に加えて、前記選択条件を満たすと判断された静止画像またはその静止画像の縮小もしくは拡大画像を、前記インデックス画像として出力する。   The image processing apparatus according to claim 3, wherein the image determination unit includes, as the image information, still image information for outputting a still image and the moving image information as the storage medium. Stored in the frame image, it is determined whether the selection condition is satisfied for the still image formed based on the still image information, and the output means In addition to a frame image determined to satisfy the selection condition or a reduced or enlarged image of the frame image, a still image determined to satisfy the selection condition or a reduced or enlarged image of the still image is used as the index image. Output as.

請求項4記載の画像処理装置は、請求項2または3に記載の画像処理装置において、前記動画像情報から抽出されるフレーム画像情報を解析し、そのフレーム画像情報に対応するフレーム画像に含まれる人物を検出する人物検出手段を備え、前記画像判断手段は、前記人物検出手段による検出結果に基づいて、前記フレーム画像が前記選択条件を満たすかを判断する。   According to a fourth aspect of the present invention, in the image processing apparatus according to the second or third aspect, the frame image information extracted from the moving image information is analyzed and included in a frame image corresponding to the frame image information. Person detection means for detecting a person is provided, and the image determination means determines whether the frame image satisfies the selection condition based on a detection result by the person detection means.

請求項5記載の画像処理装置は、請求項4記載の画像処理装置において、人物を含む人物画像であることが、前記選択条件として前記選択条件記憶手段に記憶されている場合、前記画像判断手段は、前記人物検出手段により人物が検出されたフレーム画像を、前記選択条件を満たす画像として判断する。   The image processing device according to claim 5 is the image processing device according to claim 4, wherein when the selection condition storage means stores the person image including a person as the selection condition, the image determination means Determines a frame image in which a person is detected by the person detection means as an image satisfying the selection condition.

請求項6記載の画像処理装置は、請求項4記載の画像処理装置において、人物を含む人物画像であることが、前記選択条件として前記選択条件記憶手段に記憶されている場合、前記画像判断手段は、前記人物検出手段により人物が検出されるフレーム画像のうち、検出される人物の数が多い順序において先頭から所定数以内に含まれる画像を、前記選択条件を満たす画像として判断する。   The image processing device according to claim 6 is the image processing device according to claim 4, wherein when the selection condition storage means stores the person image including a person as the selection condition, the image determination means Determines, among the frame images from which the person is detected by the person detection means, an image included within a predetermined number from the top in the order of the number of detected persons as an image satisfying the selection condition.

請求項7記載の画像処理装置は、請求項4記載の画像処理装置において、人物を含む人物画像であることが、前記選択条件として前記選択条件記憶手段に記憶されている場合、前記画像判断手段は、前記人物検出手段により人物が検出されるフレーム画像のうち、検出される人物の面積が大きい順序において先頭から所定数以内に含まれる画像を、前記選択条件を満たす画像として判断する。   The image processing device according to claim 7, wherein in the image processing device according to claim 4, when it is stored in the selection condition storage unit as the selection condition that the person image includes a person, the image determination unit Determines, among the frame images from which the person is detected by the person detecting means, those images included within a predetermined number from the top in the order of the detected area of the person as images satisfying the selection condition.

ここで、検出される人物の面積とは、人物検出手段によって検出される範囲の面積を意味しており、人物検出手段が、例えば、顔を検出することにより、人物を検出するものである場合は、顔の面積が上記人物の面積に相当する。   Here, the area of the detected person means the area of the range detected by the person detecting means, and the person detecting means detects the person by detecting a face, for example. The area of the face corresponds to the area of the person.

請求項8記載の画像処理装置は、請求項4記載の画像処理装置において、風景を含む風景画像であることが、前記選択条件として前記選択条件記憶手段に記憶されている場合、前記画像判断手段は、前記人物検出手段により人物が検出されないフレーム画像を、前記選択条件を満たす画像として判断する。   The image processing device according to claim 8 is the image processing device according to claim 4, wherein when the selection condition storage means stores the scenery image including a landscape as the selection condition, the image determination means Determines a frame image in which no person is detected by the person detection means as an image satisfying the selection condition.

請求項9記載の画像処理装置は、請求項3記載の画像処理装置において、前記動画像情報から抽出されるフレーム画像情報および前記静止画像情報を解析し、フレーム画像および静止画像に含まれる色を検出する色検出手段を備え、前記画像判断手段は、前記色検出手段による検出結果に基づいて、前記フレーム画像および静止画像が前記選択条件を満たすかを判断する。   The image processing device according to claim 9 is the image processing device according to claim 3, wherein the frame image information and the still image information extracted from the moving image information are analyzed, and the colors included in the frame image and the still image are analyzed. Color detecting means for detecting is provided, and the image determining means determines whether the frame image and the still image satisfy the selection condition based on a detection result by the color detecting means.

請求項10記載の画像処理装置は、請求項2から9のいずれかに記載の画像処理装置において、前記画像判断手段は、動画像を構成する一連のフレーム画像の再生順序において、所定フレーム数毎のフレーム画像について、前記選択条件を満たすか否かを判断する。   An image processing apparatus according to a tenth aspect is the image processing apparatus according to any one of the second to ninth aspects, wherein the image determination unit is configured to generate a predetermined number of frames in a reproduction order of a series of frame images constituting a moving image. It is determined whether or not the selection condition is satisfied for the frame image.

請求項11記載の画像処理装置は、請求項3記載の画像処理装置において、前記記憶媒体に格納された画像情報を解析し、各画像情報に対応する画像が満たす特徴条件に基づいて、各画像情報を、特徴条件毎のグループに分類する分類手段と、前記特徴条件毎のグループのうち、前記分類手段により分類された画像情報の個数が最大となるグループを決定するグループ決定手段とを備え、前記選択条件記憶手段は、前記グループ決定手段により決定されたグループの特徴条件を、前記選択条件として記憶する。   The image processing apparatus according to claim 11 is the image processing apparatus according to claim 3, wherein the image information stored in the storage medium is analyzed, and each image is determined based on a feature condition satisfied by an image corresponding to the image information. Classification means for classifying information into groups for each feature condition; and group determination means for deciding a group in which the number of image information classified by the classification means is maximum among the groups for each feature condition, The selection condition storage means stores the group characteristic condition determined by the group determination means as the selection condition.

請求項12記載の画像処理装置は、請求項11記載の画像処理装置において、前記分類手段は、記憶媒体に格納された動画像情報を、前記特徴条件毎のグループに分類する動画像情報分類手段と、前記記憶媒体に格納された静止画像情報を、前記特徴条件毎のグループに分類する静止画像情報分類手段とを備え、前記グループ決定手段は、前記複数のグループのうち、前記動画像情報分類手段により分類された動画像情報の個数と、前記静止画像情報分類手段により分類された静止画像情報の個数との合計が最大となるグループを決定する。   The image processing device according to claim 12 is the image processing device according to claim 11, wherein the classification means classifies moving image information stored in a storage medium into groups for each feature condition. And still image information classification means for classifying still image information stored in the storage medium into groups for each feature condition, wherein the group determination means includes the moving image information classification among the plurality of groups. A group having the maximum sum of the number of moving image information classified by the means and the number of still image information classified by the still image information classification means is determined.

請求項13記載の画像処理装置は、請求項12記載の画像処理装置において、前記動画像情報分類手段は、前記動画像情報に対応する動画像を構成するフレーム画像のうち、最多数のフレーム画像が満たす特徴条件のグループに、その動画像情報を分類する。   The image processing device according to claim 13 is the image processing device according to claim 12, wherein the moving image information classification unit includes a largest number of frame images among frame images constituting a moving image corresponding to the moving image information. The moving image information is classified into a group of feature conditions satisfying.

請求項14記載の画像処理装置は、請求項11から13のいずれかに記載の画像処理装置において、前記分類手段は、人物を含む人物画像であるという特徴条件に基づくグループと、風景を含む風景画像であるという特徴条件に基づくグループとのいずれかに、前記各画像情報を分類する。   15. The image processing device according to claim 14, wherein the classification means is a group based on a feature condition that the classification means is a person image including a person, and a landscape including a landscape. The image information is classified into one of groups based on the feature condition of being an image.

ここで、人物画像グループに分類される動画像情報とは、動画像を構成するフレーム画像の全てが人物を含むものであっても良いがこれに限定されない。例えば、動画像を構成するフレーム画像中、所定フレーム数以上に人物が含まれる動画像情報を、人物画像グループに分類するように構成しても良い。また、全フレーム画像中、人物画像であるという特徴条件を満たすフレーム画像が、他の特徴条件を満たすフレーム画像よりも多い場合に、その動画像情報を、人物画像グループに分類するように構成しても良い。すなわち、主として人物が含まれる動画像に対応した動画像情報であれば、人物画像グループに分類されるように、分類の判断基準を設定しても良い。   Here, the moving image information classified into the person image group may include information indicating that all of the frame images constituting the moving image include a person, but is not limited thereto. For example, it may be configured such that moving image information in which a person is included in a predetermined number of frames or more in the frame images constituting the moving image is classified into a person image group. In addition, when there are more frame images satisfying the feature condition of being a person image among all frame images than frame images satisfying other feature conditions, the moving image information is classified into a person image group. May be. In other words, the classification criterion may be set so that the moving image information mainly corresponds to a moving image including a person and is classified into a person image group.

同様に、風景画像グループに分類される動画像情報とは、動画像を構成するフレーム画像の全てが風景画像であるという特徴条件を満たすものであっても良いがこれに限定されない。例えば、動画像を構成するフレーム画像中、所定フレーム数以上に風景が含まれる動画像情報を、風景画像グループに分類するように構成しても良い。また、全フレーム画像中、風景画像であるという特徴条件を満たすフレーム画像が、他の特徴条件を満たすフレーム画像よりも多い場合に、その動画像情報を、風景画像グループに分類するように構成しても良い。すなわち、主として風景が含まれる動画像に対応した動画像情報であれば、風景画像グループに分類されるように、分類の判断基準を設定しても良い。   Similarly, the moving image information classified into the landscape image group may satisfy the characteristic condition that all the frame images constituting the moving image are landscape images, but is not limited thereto. For example, it may be configured to classify moving image information in which a landscape is included in a predetermined number of frames or more in a frame image constituting the moving image into a landscape image group. In addition, when there are more frame images satisfying the feature condition of being landscape images among all frame images than frame images satisfying other feature conditions, the moving image information is classified into a landscape image group. May be. In other words, the classification criterion may be set so that the moving image information mainly corresponds to a moving image including a landscape so that the moving image information is classified into a landscape image group.

請求項1記載の画像処理装置によれば、記憶媒体に格納された画像情報に基づいて形成される画像のうち、選択条件を満たすと判断された画像またはその画像の縮小もしくは拡大画像で構成されるインデックス画像を配置した画像一覧が出力される。その結果、選択条件を満たす画像をまとめてユーザに閲覧させることができる、閲覧性の良い画像一覧を出力することができる。   According to the image processing apparatus of the first aspect, the image processing apparatus includes an image determined to satisfy the selection condition among images formed based on the image information stored in the storage medium, or a reduced or enlarged image of the image. A list of images in which index images are arranged is output. As a result, it is possible to output a list of images that are easy to browse and that allow the user to browse images that satisfy the selection condition.

請求項2記載の画像処理装置によれば、請求項1記載の画像処理装置の奏する効果に加え、選択条件を満たすと判断されたフレーム画像を閲覧させることができる、閲覧性の良い画像一覧を出力することができる。動画像は多数のフレーム画像から構成されている場合が多いので、全てのフレーム画像についてインデックス画像を形成し画像一覧に配置すると、目的とする画像をその中から探し出すのは困難である。よって、選択条件を満たすと判断されたフレーム画像のインデックス画像を画像一覧に配置することにより、ユーザが目的とするフレーム画像を探し易くすることができる。   According to the image processing device according to claim 2, in addition to the effect achieved by the image processing device according to claim 1, a list of images with good browsing properties capable of browsing frame images determined to satisfy the selection condition is provided. Can be output. Since a moving image is often composed of a large number of frame images, if index images are formed for all frame images and arranged in an image list, it is difficult to find a target image from them. Therefore, by arranging the index images of the frame images determined to satisfy the selection conditions in the image list, the user can easily find the target frame image.

請求項3記載の画像処理装置によれば、請求項2記載の画像処理装置の奏する効果に加え、選択条件を満たすフレーム画像と静止画像とを閲覧させることができる、閲覧性の良い画像一覧を出力することができる。   According to the image processing device according to claim 3, in addition to the effect produced by the image processing device according to claim 2, a list of images with good browsing properties capable of browsing the frame image and the still image satisfying the selection condition. Can be output.

請求項4記載の画像処理装置によれば、請求項2または3のいずれかに記載の画像処理装置の奏する効果に加え、人物検出手段による検出結果に基づいて、フレーム画像が選択条件を満たすか否かを判断することができる。   According to the image processing device of claim 4, whether the frame image satisfies the selection condition based on the detection result by the person detection means in addition to the effect of the image processing device of claim 2 or 3. It can be determined whether or not.

請求項5記載の画像処理装置によれば、請求項4記載の画像処理装置の奏する効果に加え、人物が検出されたフレーム画像のインデックス画像が配置された画像一覧を出力することができる。よって、例えば、人物が含まれたフレーム画像を選択的に閲覧したい場合に有用な画像一覧を出力できる。   According to the image processing apparatus of the fifth aspect, in addition to the effect produced by the image processing apparatus of the fourth aspect, it is possible to output an image list in which index images of frame images in which a person is detected are arranged. Therefore, for example, it is possible to output a useful image list when it is desired to selectively browse frame images including a person.

請求項6記載の画像処理装置によれば、請求項4記載の画像処理装置の奏する効果に加え、検出される人物の数が多い順序において先頭から所定数以内に含まれる画像のインデックス画像が配置された画像一覧を出力することができる。よって、例えば、多人数が含まれたフレーム画像を選択的に閲覧したい場合に有用な画像一覧を出力できる。   According to the image processing apparatus of the sixth aspect, in addition to the effect produced by the image processing apparatus of the fourth aspect, the index images of the images included within a predetermined number from the top in the order in which the number of detected persons is large are arranged. It is possible to output a list of processed images. Therefore, for example, it is possible to output a useful image list when it is desired to selectively browse frame images including a large number of people.

請求項7記載の画像処理装置によれば、請求項4記載の画像処理装置の奏する効果に加え、検出される人物の面積が大きい順序において先頭から所定数以内に含まれる画像のインデックス画像が配置された画像一覧を出力することができる。よって、例えば、人物を大写ししたフレーム画像を選択的に閲覧したい場合に有用な画像一覧を提供できる。   According to the image processing apparatus of the seventh aspect, in addition to the effect produced by the image processing apparatus of the fourth aspect, the index images of the images included within a predetermined number from the top are arranged in the order in which the area of the detected person is large. It is possible to output a list of processed images. Therefore, for example, it is possible to provide a list of images that are useful when it is desired to selectively browse frame images that are close-up of a person.

請求項8記載の画像処理装置によれば、請求項4記載の画像処理装置の奏する効果に加え、人物検出手段により人物が検出されないフレーム画像のインデックス画像が配置された画像一覧を出力することができる。よって、例えば、風景のフレーム画像を選択的に閲覧したい場合に有用な画像一覧を提供できる。   According to the image processing apparatus of the eighth aspect, in addition to the effect produced by the image processing apparatus of the fourth aspect, it is possible to output an image list in which index images of frame images in which a person is not detected by the person detection unit are arranged. it can. Therefore, for example, it is possible to provide a list of images that are useful when it is desired to selectively view a frame image of a landscape.

請求項9記載の画像処理装置によれば、請求項3記載の画像処理装置の奏する効果に加え、色検出手段による検出結果に基づいて、フレーム画像が選択条件を満たすか否かを判断することができる。   According to the image processing device according to claim 9, in addition to the effect produced by the image processing device according to claim 3, it is determined whether or not the frame image satisfies the selection condition based on the detection result by the color detection means. Can do.

請求項10記載の画像処理装置によれば、請求項2から9のいずれかに記載の画像処理装置の奏する効果に加え、動画像を構成する一連のフレーム画像の再生順序において、所定フレーム数毎のフレーム画像について、選択条件を満たすか否かが判断されるので、1の動画像を構成する一連のフレーム画像のうち、判断対象のフレーム画像を偏りなく抽出することができる。さらに、むやみにフレーム画像が大量に抽出されることを防止できる。   According to the image processing device of the tenth aspect, in addition to the effect produced by the image processing device according to any one of the second to ninth aspects, in a reproduction order of a series of frame images constituting the moving image, every predetermined number of frames. Since it is determined whether or not the frame image satisfies the selection condition, the frame image to be determined can be extracted without bias from the series of frame images constituting one moving image. Furthermore, it is possible to prevent a large amount of frame images from being extracted unnecessarily.

請求項11記載の画像処理装置によれば、請求項3記載の画像処理装置の奏する効果に加え、ユーザの好みに応じた画像一覧を出力することができる。   According to the image processing apparatus of the eleventh aspect, in addition to the effect produced by the image processing apparatus of the third aspect, it is possible to output an image list according to user preferences.

請求項12記載の画像処理装置によれば、請求項11記載の画像処理装置の奏する効果に加え、動画像情報の個数と、静止画像情報の個数との重みを等しくしてグループが決定され、選択条件が記憶されるので、適切な選択条件を選ぶことができる。   According to the image processing device of claim 12, in addition to the effect produced by the image processing device of claim 11, a group is determined by equalizing the weight of the number of moving image information and the number of still image information, Since the selection condition is stored, an appropriate selection condition can be selected.

例えば、10枚の風景画像に対応した静止画像情報10個と、人物を含むフレーム画像20枚からなる動画像に対応した動画像情報1個とが記憶媒体に記憶されている場合について考える。請求項12に係る発明の構成に従い、この画像情報を、人物画像グループと、風景画像グループとに分類する場合には、風景画像であることを、選択条件として記憶することができる。その結果、風景画像を多数撮影したユーザの好みに合った画像一覧を出力できる可能性が高い。これに対し、10枚の風景の静止画像と、20枚の人物のフレーム画像として、選択条件を設定すると、人物画像であることが選択条件として設定されてしまい、静止画のインデックス画像が、画像一覧に一切出力されなくなってしまうという不都合が生じ得るのである。   For example, consider a case where 10 still image information corresponding to 10 landscape images and 1 moving image information corresponding to a moving image including 20 frame images including a person are stored in a storage medium. According to the configuration of the invention of claim 12, when this image information is classified into a person image group and a landscape image group, it can be stored as a selection condition that it is a landscape image. As a result, there is a high possibility that an image list that suits the preference of the user who has taken a large number of landscape images can be output. On the other hand, if the selection conditions are set as 10 landscape images and 20 person frame images, the person image is set as the selection condition, and the still image index image is an image. Inconvenience that it is not output at all to the list can occur.

請求項13記載の画像処理装置によれば、請求項12記載の画像処理装置の奏する効果に加え、動画像情報を適切なグループに分類することができ、その結果、適切な選択条件を記憶することができる。   According to the image processing device of the thirteenth aspect, in addition to the effect produced by the image processing device according to the twelfth aspect, the moving image information can be classified into an appropriate group, and as a result, an appropriate selection condition is stored. be able to.

請求項14記載の画像処理装置によれば、請求項11から13のいずれかに記載の画像処理装置の奏する効果に加え、例えば、風景画像に対応した画像情報が多数を占める場合には、風景画像の画像一覧が出力され、反対に、人物画像に対応した画像情報が多数を占める場合には、人物画像の画像一覧が出力されるので、ユーザの好みに合致した画像一覧を出力することができる。   According to the image processing device of claim 14, in addition to the effect of the image processing device according to any of claims 11 to 13, for example, when image information corresponding to a landscape image occupies a large number, When an image list of images is output and, conversely, when image information corresponding to a person image occupies a large number, an image list of person images is output, so an image list that matches the user's preference may be output. it can.

以下、本発明の好ましい実施形態について、添付図面を参照して説明する。図1は、本発明の画像処理装置の実施形態である多機能周辺装置(以下、「MFP(Multi Function Peripheral)」と称す)1の外観構成を示した斜視図である。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a perspective view showing an external configuration of a multifunction peripheral device (hereinafter referred to as “MFP (Multi Function Peripheral)”) 1 which is an embodiment of an image processing apparatus of the present invention.

このMFP1は、フォトキャプチャー機能、コピー機能、スキャナ機能、メディアキャプチャ機能などの各種機能を有する多機能周辺装置である。メディアキャプチャ機能では、後述するスロット部6に装着されたメディアカード(特許請求の範囲の記憶媒体の一例)から画像ファイルを読み出して印刷出力する処理、メディアカードから読み出した画像ファイルに対応した画像をLCD5に表示出力する処理、スキャナ機能により読み取られた画像データをメディアカードに保存する処理などを実行できる。   The MFP 1 is a multifunction peripheral device having various functions such as a photo capture function, a copy function, a scanner function, and a media capture function. In the media capture function, a process for reading out an image file from a media card (an example of a storage medium in claims) loaded in a slot unit 6 to be described later and printing it out, an image corresponding to the image file read from the media card is displayed. A process of displaying and outputting on the LCD 5 and a process of storing image data read by the scanner function in a media card can be executed.

特に、本実施形態のMFP1は、スロット部6に装着されたメディアカード内の画像ファイルの内容をユーザが把握できるように、閲覧性の良い画像一覧を出力するように構成されているが、詳細は後述する。   In particular, the MFP 1 of the present embodiment is configured to output a list of images with good browsing properties so that the user can grasp the contents of the image file in the media card mounted in the slot unit 6. Will be described later.

MFP1の上部には、原稿を読み取るためのスキャナ2が配置されている。また、筐体内部には記録用紙に画像を印刷する装置として、所謂インクジェットプリンタで構成されたプリンタ3が内蔵されている。   A scanner 2 for reading a document is arranged on the top of the MFP 1. In addition, a printer 3 composed of a so-called inkjet printer is built in the housing as a device for printing an image on recording paper.

また、MFP1の前面には、スロット部6が設けられている。このスロット部6には、コンパクトフラッシュ(登録商標)、SDメモリカードなどの各種メディアカードを直接挿入できるカードスロットが設けられている。   A slot 6 is provided on the front surface of the MFP 1. The slot portion 6 is provided with a card slot into which various media cards such as a compact flash (registered trademark) and an SD memory card can be directly inserted.

また、原稿カバー体の前方には、操作パネルが設けられており、複数のキーやタッチパネルで構成される操作部4、およびLCD5を具備する。MFP1は、LCD5に操作手順や実行中の処理の状態を表示させると共に、操作部4の操作に対応する情報を表示させる。   An operation panel is provided in front of the document cover body, and includes an operation unit 4 including a plurality of keys and a touch panel, and an LCD 5. The MFP 1 displays the operation procedure and the status of the process being executed on the LCD 5 and also displays information corresponding to the operation of the operation unit 4.

図2を参照して、MFP1の電気的構成について説明する。図2は、MFP1の電気的構成を示すブロック図である。MFP1は、CPU11、ROM12、RAM13、EEPROM14、スキャナ2、プリンタ3、操作部4、LCD5、スロット部6を主に有している。   The electrical configuration of the MFP 1 will be described with reference to FIG. FIG. 2 is a block diagram showing an electrical configuration of the MFP 1. The MFP 1 mainly includes a CPU 11, a ROM 12, a RAM 13, an EEPROM 14, a scanner 2, a printer 3, an operation unit 4, an LCD 5, and a slot unit 6.

このうち、CPU11、ROM12、RAM13、EEPROM14は、バスライン26を介して互いに接続されている。また、スキャナ2、プリンタ3、操作部4、LCD5、スロット部6、バスライン26は、入出力ポート27を介して互いに接続されている。   Among these, the CPU 11, ROM 12, RAM 13, and EEPROM 14 are connected to each other via a bus line 26. The scanner 2, the printer 3, the operation unit 4, the LCD 5, the slot unit 6, and the bus line 26 are connected to each other via an input / output port 27.

CPU11は、ROM12、RAM13やEEPROM14に記憶される固定値やプログラムに従って、MFP1が有している各機能の制御や、入出力ポート27と接続された各部を制御するものである。   The CPU 11 controls each function of the MFP 1 and controls each unit connected to the input / output port 27 according to fixed values and programs stored in the ROM 12, RAM 13, and EEPROM 14.

ROM12は、CPU11によって実行される制御プログラム12aを記憶すると共に、電源遮断後も内容を保持可能な不揮発性のメモリである。制御プログラム12aは、後述する図7〜図15にフローチャートで示す処理を実行するためのプログラムを含んでいる。   The ROM 12 is a non-volatile memory that stores the control program 12a executed by the CPU 11 and can retain the contents even after the power is turned off. The control program 12a includes a program for executing processing shown in flowcharts in FIGS.

ROM12には、さらに横方向画像配置数記憶領域12b、1ページ画像配置数記憶領域12cが設けられている。   The ROM 12 further includes a horizontal image arrangement number storage area 12b and a one-page image arrangement number storage area 12c.

横方向画像配置数記憶領域12bは、「横方向の配置枚数」を記憶する領域である。「横方向の配置枚数」は、画像一覧において、横一列に並べて配置可能なインデックス画像の数を示す値である。なお、本実施形態のMFP1には、予め印刷用紙サイズ(L版、A4、Letterなど)、および印刷モード(高精細、普通、高速など)に応じて、複数種類の「横方向の配置枚数」が記憶されており、後述する配置印刷処理(図14,図15参照)では、この中から適した値を読み出して用いるものとして説明する。   The horizontal image arrangement number storage area 12b is an area for storing “the number of horizontal arrangements”. “Number of sheets arranged in the horizontal direction” is a value indicating the number of index images that can be arranged in a horizontal row in the image list. Note that the MFP 1 according to the present embodiment includes a plurality of types of “horizontal arrangement number” according to the print paper size (L, A4, Letter, etc.) and the print mode (high definition, normal, high speed, etc.) in advance. In the arrangement printing process (see FIGS. 14 and 15), which will be described later, an appropriate value is read out and used.

1ページ画像配置数記憶領域12cは、「1ページ内画像配置数」を記憶する領域である。「1ページ内画像配置数」は、1ページ分の記録用紙に形成する画像一覧に、最大で何個分のインデックス画像を配置可能であるかを示す値である。なお、本実施形態においては、予め印刷用紙サイズおよび印刷モードに応じて、複数種類の「1ページ内画像配置数」が記憶されており、後述する配置印刷処理(図14,図15参照)では、この中から適した値を読み出して用いるものとして説明する。   The one-page image arrangement number storage area 12c is an area for storing “the number of image arrangements in one page”. “Number of images per page” is a value indicating the maximum number of index images that can be arranged in an image list formed on one page of recording paper. In this embodiment, a plurality of types of “number of images per page” are stored in advance according to the printing paper size and printing mode, and in the layout printing process (see FIGS. 14 and 15) described later. In the following description, a suitable value is read out and used.

RAM13は、MFP1の各操作の実行時に各種のデータを一時的に記憶するためのメモリであり、抽出フレーム数記憶領域13a、処理ファイル数記憶領域13b、処理画像総数記憶領域13c、生成ページ数記憶領域13d、ファイル情報記憶領域13h、配置情報記憶領域13i、フレーム画像情報記憶領域13j、デコードデータ記憶領域13k、カウンタ記憶領域13m、画像抽出基準記憶領域13n、抽出フレーム情報記憶領域13p、調査フレーム枚数記憶領域13q、調査フレーム画像記憶領域13rが設けられている。   The RAM 13 is a memory for temporarily storing various data when each operation of the MFP 1 is executed. The extracted frame number storage area 13a, the processed file number storage area 13b, the processed image total number storage area 13c, and the generated page number storage. Area 13d, file information storage area 13h, arrangement information storage area 13i, frame image information storage area 13j, decode data storage area 13k, counter storage area 13m, image extraction reference storage area 13n, extracted frame information storage area 13p, number of investigation frames A storage area 13q and a survey frame image storage area 13r are provided.

ここで、本実施形態で用いる用語の意味を説明する。本実施形態において、「動画像」とは、多数のフレーム画像を切り替え表示することにより再生される画像を意味している。「動画像ファイル(特許請求の範囲に記載の動画像情報に相当)」は、動画像を再生するためのファイルであって、例えば、AVI動画ファイル、クイックタイム動画ファイルなどで構成される。ただし、動画像を再生可能な情報であれば、どのような形式のファイルであっても差し支えない。また、本実施形態において、「フレーム画像情報」は、動画像を構成する1のフレーム画像に対応した情報を意味している。   Here, the meaning of terms used in the present embodiment will be described. In the present embodiment, “moving image” means an image reproduced by switching and displaying a large number of frame images. The “moving image file (corresponding to the moving image information described in the claims)” is a file for reproducing a moving image, and includes, for example, an AVI moving image file, a quick time moving image file, and the like. However, any information file can be used as long as it can reproduce a moving image. In the present embodiment, “frame image information” means information corresponding to one frame image constituting a moving image.

抽出フレーム数記憶領域13aは、「フレーム画像抽出枚数」を記憶する領域である。「フレーム画像抽出枚数」は、1の動画像ファイル当たり、何枚分のフレーム画像に対応したフレーム画像情報を抽出するかを示す値である。例えば、「フレーム画像抽出枚数」として「5」が記憶されている場合、MFP1は、メディアカードに格納された動画像ファイルの各々について、1の動画像ファイル当たり、5枚のフレーム画像に対応したフレーム画像情報を抽出し、その抽出したフレーム画像情報に基づいて、1の動画像ファイル当たり、5個のインデックス画像を、画像一覧に配置する。   The extracted frame number storage area 13a is an area for storing “the number of frame images extracted”. The “number of frame image extractions” is a value indicating how many frame images corresponding to one moving image file are to be extracted. For example, when “5” is stored as the “number of extracted frame images”, the MFP 1 corresponds to five frame images per moving image file for each moving image file stored in the media card. Frame image information is extracted, and five index images per moving image file are arranged in the image list based on the extracted frame image information.

本実施形態のMFP1は、ユーザが操作部4から入力した任意の値を「フレーム画像抽出枚数」として、抽出フレーム数記憶領域13aに記憶するものとして説明するが、「フレーム画像抽出枚数」が予めROM12などに記憶されていたり、動画像ファイルのサイズが大であるほど、「フレーム画像抽出枚数」が大となるように予め定められた関係に従って、「フレーム画像抽出枚数」が自動的に決定されても良い。   The MFP 1 according to the present embodiment will be described assuming that an arbitrary value input by the user from the operation unit 4 is stored as the “frame image extraction number” in the extracted frame number storage area 13a. The “frame image extraction number” is automatically determined in accordance with a predetermined relationship so that the “frame image extraction number” increases as the size of the moving image file is stored in the ROM 12 or the like. May be.

処理ファイル数記憶領域13bは、「総処理ファイル数」を記憶する領域である。「総処理ファイル数」は、メディアカードに格納される静止画像ファイル(特許請求の範囲に記載の静止画像情報の一例)と動画像ファイルの合計を示す値である。   The processing file number storage area 13b is an area for storing the “total number of processing files”. The “total number of processed files” is a value indicating the total of still image files (an example of still image information described in claims) and moving image files stored in the media card.

処理画像総数記憶領域13cは、「処理画像総数」を記憶する領域である。「処理画像総数」は、画像一覧内に形成するインデックス画像の総数を示す値である。生成ページ数記憶領域13dは、「生成ページ数」を記憶する領域である。「生成ページ数」は、後述する配置印刷処理(図14,図15)の実行により出力する画像一覧の総ページ数を示す値である。   The processed image total number storage area 13c is an area for storing “total number of processed images”. The “total number of processed images” is a value indicating the total number of index images formed in the image list. The generated page number storage area 13d is an area for storing “number of generated pages”. The “number of generated pages” is a value indicating the total number of pages of the image list output by executing the layout printing process (FIGS. 14 and 15) described later.

ファイル情報記憶領域13h、配置情報記憶領域13iについては、図4および図5を参照して後述する。   The file information storage area 13h and the arrangement information storage area 13i will be described later with reference to FIGS.

フレーム画像情報記憶領域13jは、動画ファイルから抽出されるフレーム画像情報を格納する領域である。デコードデータ記憶領域13kは、フレーム画像情報をデコード処理した結果、または、静止画像ファイルをデコード処理した結果を記憶する領域である。カウンタ記憶領域13mは、各種カウンタを記憶する領域である。   The frame image information storage area 13j is an area for storing frame image information extracted from the moving image file. The decoded data storage area 13k is an area for storing a result of decoding the frame image information or a result of decoding the still image file. The counter storage area 13m is an area for storing various counters.

画像抽出基準記憶領域13nは、「画像抽出基準」として、人物を含む人物画像であることを示す「人物中心フラグ」か、風景を含む風景画像であることを示す「風景中心フラグ」のいずれかを記憶する。MFP1は、「画像抽出基準」を満たすと判断したフレーム画像または静止画像のインデックス画像を、画像一覧20(図3参照)に配置し、出力するが、処理の詳細は後述する。なお、「画像抽出基準」が、特許請求の範囲に記載の画像を選択するための選択条件の一例に相当する。   In the image extraction reference storage area 13n, as the “image extraction reference”, either a “person center flag” indicating a person image including a person or a “landscape center flag” indicating a landscape image including a landscape is used. Remember. The MFP 1 arranges and outputs a frame image or a still image index image determined to satisfy the “image extraction criterion” in the image list 20 (see FIG. 3), and details of the processing will be described later. The “image extraction criterion” corresponds to an example of a selection condition for selecting an image described in the claims.

抽出フレーム情報記憶領域13pについては、図6を参照して後述する。調査フレーム枚数記憶領域13q、調査フレーム画像記憶領域13rに記憶される情報については、図10を参照して後述する。EEPROM14は、書換可能な不揮発性のメモリである。   The extracted frame information storage area 13p will be described later with reference to FIG. Information stored in the survey frame number storage area 13q and the survey frame image storage area 13r will be described later with reference to FIG. The EEPROM 14 is a rewritable nonvolatile memory.

図3は、メディアカードに格納された画像ファイルに対応した画像の集合Pと、画像抽出基準に基づいてMFP1が出力する画像一覧20の一例とを示す図である。なお、図3に示すように、画像の集合Pには、静止画像ファイルに対応する静止画像P1と、動画像ファイルに対応した動画像から抽出されるフレーム画像P2とが含まれているものとして説明する。   FIG. 3 is a diagram showing a set P of images corresponding to image files stored in the media card and an example of the image list 20 output by the MFP 1 based on the image extraction criteria. As shown in FIG. 3, the image set P includes a still image P1 corresponding to the still image file and a frame image P2 extracted from the moving image corresponding to the moving image file. explain.

MFP1は、メディアカードに記憶された画像ファイルを解析し、各画像ファイルに基づいて形成される画像P1,P2が、「画像抽出基準」を満たす画像か否かを判断する。そして、画像ファイルに基づいて形成される画像P1,P2のうち、「画像抽出基準」を満たすと判断した静止画像P1またはフレーム画像P2を、規定サイズに縮小もしくは拡大したインデックス画像21を、画像一覧20に配置し出力する。   The MFP 1 analyzes the image file stored in the media card and determines whether the images P1 and P2 formed based on each image file satisfy the “image extraction criterion”. Then, among the images P1 and P2 formed based on the image file, an index image 21 obtained by reducing or enlarging the still image P1 or the frame image P2 determined to satisfy the “image extraction criterion” to a specified size is displayed in the image list. 20 and output.

より具体的に説明すると、画像抽出基準記憶領域13n(図2参照)に「人物中心フラグ」が記憶されている場合、MFP1は、人物を含む画像P1,P2を、画像抽出基準を満たす画像として判断し、そのインデックス画像21を配置した画像一覧20を出力する。よって、ユーザが、人物が含まれた画像を選択的に閲覧したいと考えている場合に有用な画像一覧20を提供できる。   More specifically, when the “person center flag” is stored in the image extraction reference storage area 13n (see FIG. 2), the MFP 1 sets the images P1 and P2 including the person as images satisfying the image extraction reference. Judgment is made, and an image list 20 in which the index images 21 are arranged is output. Therefore, it is possible to provide a useful image list 20 when the user wants to selectively browse images including a person.

逆に、画像抽出基準記憶領域13nに「風景中心フラグ」が記憶されている場合、MF1は、人物が検出されない画像P1,P2のインデックス画像21を配置した画像一覧20を出力する。よって、例えば、ユーザが風景の画像を選択的に閲覧したいと考えている場合に有用な画像一覧20を提供できる。   Conversely, when the “landscape center flag” is stored in the image extraction reference storage area 13n, the MF1 outputs an image list 20 in which the index images 21 of the images P1 and P2 in which no person is detected are arranged. Thus, for example, a useful image list 20 can be provided when the user wants to selectively view landscape images.

動画像は多数のフレーム画像から構成されるため、全フレーム画像を画像一覧21に配置すると閲覧が困難であるが、このように、「画像抽出基準」を満たすと判断されたフレーム画像のインデックス画像21のみを画像一覧20にまとめて配置することにより、ユーザは目的とする画像を探し易い。   Since a moving image is composed of a large number of frame images, it is difficult to view if all the frame images are arranged in the image list 21. As described above, an index image of a frame image determined to satisfy the “image extraction criterion”. By arranging only 21 in the image list 20, the user can easily find the target image.

また、「画像抽出基準」を満たすフレーム画像と静止画像とを画像一覧20によって、ユーザにまとめて閲覧させることができるため、ユーザにとって閲覧性が良い。   In addition, the frame list and still images satisfying the “image extraction criterion” can be browsed together by the user using the image list 20, so that the browsing property is good for the user.

詳細な説明は後述するが、MFP1は、静止画像ファイルに基づくインデックス画像であるか、動画像ファイルに基づくインデックス画像であるかに関わらず、撮影日時のみを条件としてソートした配置順序を決定し、その配置順序でインデックス画像を配列した画像一覧20を出力する。   Although detailed description will be given later, the MFP 1 determines the arrangement order sorted based on only the shooting date and time regardless of whether the index image is based on a still image file or an index image based on a moving image file. An image list 20 in which index images are arranged in the arrangement order is output.

図3に示す画像一覧20はその一例であるが、例えば、画像一覧20の左側から右側へ向かうにつれて、撮影日時が新しくなるような順序で、横一列分のインデックス画像21が配列し、その横一列分の配列の下に、次に撮影日時が新しい横一列分のインデックス画像21が配列されるように、インデックス画像21の各々について配置順序を決定する。   The image list 20 shown in FIG. 3 is an example. For example, as the image list 20 moves from the left side to the right side, the index images 21 for one horizontal row are arranged in the order in which the shooting date and time are updated, and the horizontal The arrangement order is determined for each of the index images 21 so that the next row of index images 21 with the latest shooting date and time are arranged below the row of rows.

よって、例えば、動画像で撮影したか、静止画像で撮影したかをユーザが覚えていない場合であっても、撮影日時がかなり古いものであるのか、あるいは最近のものであるのかなど、撮影日時を手がかりに、目的とする画像を迅速に探し当てることができる。   Therefore, for example, even if the user does not remember whether the movie was shot or shot as a still image, the shooting date / time such as whether the shooting date / time is quite old or recent This makes it possible to quickly find the target image.

図4は、ファイル情報記憶領域13hの構成を模式的に示す図である。図4に示すように、ファイル情報記憶領域13hには、ファイルIDを記憶するファイルID記憶領域201、ファイル名を記憶するファイル名記憶領域202、ファイル種類を記憶するファイル種類記憶領域203、抽出フレーム数を記憶する抽出フレーム数記憶領域204、総フレーム数を記憶する総フレーム数記憶領域205、fps情報を記憶するfps情報記憶領域206、ファイル日付情報を記憶するファイル日付情報記憶領域207、ファイル時間情報を記憶するファイル時間情報記憶領域208、ファイル付加情報記憶領域209が設けられ、ファイル名、ファイル種類、抽出フレーム数、fps情報、ファイル日付情報、ファイル時間情報、ファイル付加情報からなるファイル情報200を、そのファイル情報200を管理するファイルIDに対応付けた情報を記憶する。MFP1は、画像一覧20(図3参照)におけるインデックス画像21の配置順序を決定するための準備処理として、メディアカード内に格納された静止画像ファイルまたは動画像ファイルの各々についてファイル情報200を作成し、ファイル情報記憶領域13hに格納する。   FIG. 4 is a diagram schematically showing the configuration of the file information storage area 13h. As shown in FIG. 4, the file information storage area 13h includes a file ID storage area 201 for storing the file ID, a file name storage area 202 for storing the file name, a file type storage area 203 for storing the file type, and an extraction frame. Extracted frame number storage area 204 for storing the number of frames, total frame number storage area 205 for storing the total number of frames, fps information storage area 206 for storing fps information, file date information storage area 207 for storing file date information, file time A file time information storage area 208 for storing information and a file additional information storage area 209 are provided, and file information 200 including a file name, a file type, the number of extracted frames, fps information, file date information, file time information, and file additional information. The file information 200 Storing information associated with the file ID to. The MFP 1 creates file information 200 for each of the still image file or the moving image file stored in the media card as a preparation process for determining the arrangement order of the index images 21 in the image list 20 (see FIG. 3). And stored in the file information storage area 13h.

ファイルID記憶領域201は、ファイルIDを記憶する領域である。ファイル名記憶領域202は、静止画像ファイルまたは動画像ファイルのファイル名を格納する領域である。図4に示すように、各ファイル名には、拡張子が付加されている。例えば、画像ファイルがJPEGファイルである場合は拡張子「jpg」が付加され、AVI動画ファイルである場合は拡張子「avi」が付加され、クイックタイム動画ファイルである場合は拡張子「mov」が付加される。   The file ID storage area 201 is an area for storing a file ID. The file name storage area 202 is an area for storing a file name of a still image file or a moving image file. As shown in FIG. 4, an extension is added to each file name. For example, if the image file is a JPEG file, the extension “jpg” is added, if it is an AVI movie file, the extension “avi” is added, and if it is a quick time movie file, the extension “mov” is added. Added.

ファイル種類記憶領域203は、各画像ファイルの種類(フォーマット)を示す値を格納する領域である。画像ファイルの種類は、例えば、ファイル名に付加された拡張子に基づいて判定することができる。本実施形態では、画像ファイルの形式がJPEGファイル(拡張子jpg)である場合、JPEGファイルであることを示す値「0」をファイル種類記憶領域203に格納し、画像ファイルの形式がAVI動画ファイル(拡張子avi)である場合、値「1」をファイル種類記憶領域203に格納し、画像ファイルの形式がクイックタイム動画ファイル(拡張子mov)である場合、値「2」をファイル種類記憶領域203に格納する。   The file type storage area 203 is an area for storing a value indicating the type (format) of each image file. The type of the image file can be determined based on, for example, an extension added to the file name. In this embodiment, when the format of the image file is a JPEG file (extension jpg), a value “0” indicating that it is a JPEG file is stored in the file type storage area 203, and the format of the image file is an AVI video file. If it is (extension avi), the value “1” is stored in the file type storage area 203, and if the image file format is a quick time video file (extension mov), the value “2” is stored in the file type storage area. 203.

なお、各画像ファイルの先頭から数バイト分に格納されている情報に基づいて画像ファイルの種類を判定することもできる。例えば、先頭から2バイトが「0xFFD8」であればJPEGファイルであると判定できるし、先頭から2バイトが「0x424D」であれば、ビットマップデータであると判定することができる。これらの情報に基づいて、画像ファイルの種類を判定しても差し支えない。   Note that the type of the image file can also be determined based on information stored in several bytes from the top of each image file. For example, if the first two bytes are “0xFFD8”, it can be determined that the file is a JPEG file. If the first two bytes are “0x424D”, it can be determined that the data is bitmap data. The type of image file may be determined based on such information.

抽出フレーム数記憶領域204は、何枚分のフレーム画像に対応したフレーム画像情報を、画像ファイルから抽出するかを示す値を記憶する領域である。なお、静止画像ファイルの場合、抽出フレーム数記憶領域204には「1」が格納される。   The extracted frame number storage area 204 is an area for storing a value indicating how many frame image information corresponding to the number of frame images is to be extracted from the image file. In the case of a still image file, “1” is stored in the extracted frame number storage area 204.

総フレーム数記憶領域205は、各画像ファイルの総フレーム数を格納する領域である。動画像ファイルの場合は動画像ファイルに含まれる総フレーム数が格納され、静止画像である場合は常に1が格納される。   The total frame number storage area 205 is an area for storing the total number of frames of each image file. In the case of a moving image file, the total number of frames included in the moving image file is stored, and in the case of a still image, 1 is always stored.

fps情報記憶領域206は、各画像ファイルのfps(Frame Per Second)情報を格納する領域である。静止画像ファイルである場合には「0」が格納される。一方、動画像ファイルである場合には、例えば、1秒間に60フレーム画像が存在することを示す「60」や、1秒間に30フレーム画像が存在することを示す「30」が、このfps情報記憶領域206に格納される。   The fps information storage area 206 is an area for storing fps (Frame Per Second) information of each image file. If it is a still image file, “0” is stored. On the other hand, in the case of a moving image file, for example, “60” indicating that there are 60 frame images per second, and “30” indicating that there are 30 frame images per second include the fps information. Stored in the storage area 206.

ファイル日付情報記憶領域207は、各画像ファイルの撮影日を表すファイル日付情報を格納する領域である。例えば、撮影日「2008年1月15日」は、ファイル日付情報「20080115」として表すものとする。   The file date information storage area 207 is an area for storing file date information indicating the shooting date of each image file. For example, the shooting date “January 15, 2008” is represented as file date information “20080115”.

ファイル時間情報記憶領域208は、各画像ファイルの撮影時間を表すファイル時間情報を格納する領域である。例えば、撮影時間「12時50分45秒」は、ファイル時間情報「125045」として表すものとする。画像ファイルが動画像ファイルの場合は、撮影開始時間を表す情報が、ファイル時間情報として格納される。   The file time information storage area 208 is an area for storing file time information indicating the shooting time of each image file. For example, the shooting time “12:50:45” is represented as file time information “125045”. When the image file is a moving image file, information indicating the shooting start time is stored as file time information.

以降の説明では、各画像ファイルのヘッダに記述された情報を読み出してくることにより、総フレーム数、fps情報、ファイル日付情報およびファイル時間情報を取得するものとするが、他の手段により、これらの情報を取得しても良い。   In the following description, the total number of frames, fps information, file date information, and file time information are acquired by reading the information described in the header of each image file. You may acquire the information.

ファイル付加情報記憶領域209に格納する情報については、図9,図10を参照して後述する。   Information stored in the file additional information storage area 209 will be described later with reference to FIGS.

図5は、配置情報記憶領域13iの構成を模式的に示す図である。図5に示すように、配置情報記憶領域13iは、ファイルID、抽出フレーム位置、抽出フレーム番号、画像日付情報、画像時間情報からなる配置情報300と、その配置情報300に対応する配置順序とを記憶する。   FIG. 5 is a diagram schematically showing the configuration of the arrangement information storage area 13i. As shown in FIG. 5, the arrangement information storage area 13 i includes an arrangement information 300 including a file ID, an extracted frame position, an extracted frame number, image date information, and image time information, and an arrangement order corresponding to the arrangement information 300. Remember.

図5に示すように、配置情報記憶領域13iには、配置順序記憶領域301、ファイルID記憶領域302、抽出フレーム位置記憶領域303、抽出フレーム番号記憶領域304、画像日付情報記憶領域305、画像時間情報記憶領域306が設けられる。   As shown in FIG. 5, the arrangement information storage area 13i includes an arrangement order storage area 301, a file ID storage area 302, an extracted frame position storage area 303, an extracted frame number storage area 304, an image date information storage area 305, an image time. An information storage area 306 is provided.

配置情報記憶領域301は、配置順序を記憶する領域である。後述する配置印刷処理(図14,図15参照)では、配置順序に従った順序で、配置情報300が読み出され、各配置情報300で特定されるフレーム画像または静止画像のインデックス画像21が、配置順序に従った順序で、画像一覧20に配列される。   The arrangement information storage area 301 is an area for storing the arrangement order. In the layout printing process (see FIGS. 14 and 15) described later, the layout information 300 is read in the order according to the layout order, and the frame image or the still image index image 21 specified by each layout information 300 is The images are arranged in the image list 20 in the order according to the arrangement order.

ファイルID記憶領域302は、ファイルIDを記憶する領域である。図4を参照して説明したように、ファイル情報記憶領域13hには、ファイルIDとファイル名とが1対1で対応付けて記憶されているので、ファイルIDから、1の画像ファイルを特定することができる。   The file ID storage area 302 is an area for storing a file ID. As described with reference to FIG. 4, since the file ID and the file name are stored in a one-to-one correspondence in the file information storage area 13h, one image file is specified from the file ID. be able to.

抽出フレーム位置記憶領域303は、1の動画像ファイルにおける先頭から数えて何番目のフレーム画像情報であるかを示す「抽出フレーム位置」を記憶する領域である。ここに記憶される情報については、図9を参照して後述する。   The extracted frame position storage area 303 is an area for storing an “extracted frame position” indicating what number of frame image information is counted from the beginning in one moving image file. The information stored here will be described later with reference to FIG.

抽出フレーム番号記憶領域304は、1の動画像に対応する抽出フレーム数のうち、先頭から数えて何番目に当たる情報であるかを示す「抽出フレーム番号」を記憶する。   The extracted frame number storage area 304 stores an “extracted frame number” indicating the number of extracted frames corresponding to one moving image from the top.

画像日付情報記憶領域305は、ファイルID記憶領域302に格納されたファイルIDで特定される画像ファイルの撮影日を表す画像日付情報が格納される領域である。画像時間情報記憶領域306は、撮影時間を表す画像時間情報が格納される領域である。静止画像ファイルについては、ファイル情報記憶領域13hの対応する領域に格納されたファイル時間情報が、この画像時間情報記憶領域306にコピーされる。   The image date information storage area 305 is an area in which image date information indicating the shooting date of the image file specified by the file ID stored in the file ID storage area 302 is stored. The image time information storage area 306 is an area in which image time information representing the shooting time is stored. For still image files, the file time information stored in the corresponding area of the file information storage area 13h is copied to the image time information storage area 306.

一方、動画像ファイルについては、フレーム画像情報毎に、撮影時間を表す画像時間情報を取得し、画像時間情報記憶領域306に記憶する。なお、フレーム画像情報毎の画像時間情報を算出する具体的演算例については、図12に示すフローチャートを参照して後述する。   On the other hand, for the moving image file, image time information representing the shooting time is acquired for each frame image information and stored in the image time information storage area 306. A specific calculation example for calculating the image time information for each frame image information will be described later with reference to the flowchart shown in FIG.

後述する配置印刷処理(図14,図15参照)では、配置情報記憶領域13iに記憶された配置情報300に基づいて、インデックス画像21が撮影日時に従った順序で配列された画像一覧20(図3参照)を印刷出力する。   In an arrangement printing process (see FIGS. 14 and 15), which will be described later, based on the arrangement information 300 stored in the arrangement information storage area 13i, the image list 20 in which the index images 21 are arranged in the order according to the shooting date and time (see FIG. 3) is printed out.

図6は、抽出フレーム情報記憶領域13pを模式的に示す図である。図6に示すように、抽出フレーム情報記憶領域13pには、抽出フレームNo記憶領域401と、抽出フレーム位置記憶領域402とファイルID記憶領域403が設けられる。抽出フレーム位置記憶領域402には、画像抽出基準を満たすフレーム画像を特定するための抽出フレーム位置が記憶される。抽出フレームNo記憶領域401には、抽出フレーム位置記憶領域402に記憶された抽出フレーム位置を管理するための管理番号が格納される。ファイルID記憶領域403にはファイルID記憶領域201の値に対応したファイルIDが記憶され、ファイルID記憶領域201のファイルIDと対応付けられている。   FIG. 6 is a diagram schematically showing the extracted frame information storage area 13p. As shown in FIG. 6, the extracted frame information storage area 13p is provided with an extracted frame number storage area 401, an extracted frame position storage area 402, and a file ID storage area 403. The extracted frame position storage area 402 stores an extracted frame position for specifying a frame image that satisfies the image extraction criterion. The extracted frame number storage area 401 stores a management number for managing the extracted frame position stored in the extracted frame position storage area 402. A file ID corresponding to the value in the file ID storage area 201 is stored in the file ID storage area 403 and is associated with the file ID in the file ID storage area 201.

図7は、MFP1で実行されるレイアウト画像印刷処理を示すフローチャートである。このレイアウト画像印刷処理は、ユーザによって、画像一覧20の印刷出力の開始指示が入力されると実行される。   FIG. 7 is a flowchart showing a layout image printing process executed by the MFP 1. This layout image printing process is executed when the user inputs a print output start instruction for the image list 20.

まず、ファイル情報記憶領域13h(図4参照)へファイル情報200を設定する画像情報取得処理を実行する(S10)。画像情報取得処理(S10)の詳細は、図8を参照して後述する。   First, an image information acquisition process for setting the file information 200 in the file information storage area 13h (see FIG. 4) is executed (S10). Details of the image information acquisition process (S10) will be described later with reference to FIG.

次に、画像抽出基準を満たす画像を決定する抽出画像決定処理を実行する(S11)。抽出画像決定処理(S11)の詳細は、図9を参照して後述する。   Next, an extracted image determination process for determining an image satisfying the image extraction criterion is executed (S11). Details of the extracted image determination process (S11) will be described later with reference to FIG.

次に、配置情報記憶領域13i(図5参照)へ配置情報300を設定する配置情報決定処理を実行する(S12)。配置情報決定処理の詳細については、図12を参照して後述する。   Next, an arrangement information determination process for setting the arrangement information 300 in the arrangement information storage area 13i (see FIG. 5) is executed (S12). Details of the arrangement information determination processing will be described later with reference to FIG.

そして、設定された配置情報300に基づいて画像一覧20を印刷出力する配置印刷処理を実行する(S13)。配置印刷処理(S13)の詳細については、図14,図15を参照して後述する。レイアウト画像印刷処理を実行することにより、図3を参照して説明した画像一覧20を出力することができる。   Then, layout printing processing for printing out the image list 20 based on the set layout information 300 is executed (S13). Details of the layout printing process (S13) will be described later with reference to FIGS. By executing the layout image printing process, the image list 20 described with reference to FIG. 3 can be output.

図8は、画像情報取得処理(S10)を示すフローチャートである。画像情報取得処理(S10)は、ファイル情報200(図4参照)を作成する処理である。   FIG. 8 is a flowchart showing the image information acquisition process (S10). The image information acquisition process (S10) is a process for creating the file information 200 (see FIG. 4).

まず、メディアカードに記憶されている総処理ファイル数を算出し、処理ファイル数記憶領域13bに記憶する(S299)。そして、ファイル数をカウントするファイル数カウンタを0で初期化する(S301)。このファイル数カウンタは、カウンタ記憶領域13m(図2参照)に設けられている。   First, the total number of processed files stored in the media card is calculated and stored in the processed file number storage area 13b (S299). Then, a file number counter for counting the number of files is initialized with 0 (S301). This file number counter is provided in the counter storage area 13m (see FIG. 2).

次に、メディアカードに格納された画像ファイルのうち、1の画像ファイルを処理対象として選択し、その画像ファイルのファイル名、ファイル日付情報、ファイル時間情報を取得する(S302)。そして、ファイル数カウンタ値のファイルIDに対応した領域に、取得したファイル名、ファイル日付情報、ファイル時間情報を記憶する(S303)。なお、ファイル名はファイル名記憶領域202へ記憶し、ファイル日付情報はファイル日付情報記憶領域207へ記憶し、ファイル時間情報はファイル時間情報記憶領域208(図5参照)へ記憶する。   Next, among the image files stored on the media card, one image file is selected as a processing target, and the file name, file date information, and file time information of the image file are acquired (S302). Then, the acquired file name, file date information, and file time information are stored in an area corresponding to the file ID of the file number counter value (S303). The file name is stored in the file name storage area 202, the file date information is stored in the file date information storage area 207, and the file time information is stored in the file time information storage area 208 (see FIG. 5).

次に、選択した画像ファイルの種類を解析する(S304)。この処理では、例えば、ファイル名に付加された拡張子を解析することにより、画像ファイルの種類を判定している。そして、判定した画像ファイルの種類を、ファイル数カウンタ値のファイルIDに対応した、ファイル種類記憶領域203(図5参照)へ記憶する(S305)。次に、処理画像数カウンタに1を加算し(S310)、ファイル数カウンタの値が、総処理ファイル数を超えたか否かを判断する(S311)。   Next, the type of the selected image file is analyzed (S304). In this process, for example, the type of the image file is determined by analyzing the extension added to the file name. The determined image file type is stored in the file type storage area 203 (see FIG. 5) corresponding to the file ID of the file number counter value (S305). Next, 1 is added to the processed image number counter (S310), and it is determined whether or not the value of the file number counter exceeds the total number of processed files (S311).

S311の判断が否定される場合(S311:No)、S302に戻り処理を繰り返すが、肯定される場合(S311:Yes)、この画像情報取得処理(S10)を終了する。そして、図9に示す処理に移行する。   If the determination in S311 is negative (S311: No), the process returns to S302 and is repeated. If the determination is affirmative (S311: Yes), the image information acquisition process (S10) is terminated. And it transfers to the process shown in FIG.

図9は、抽出画像決定処理(S11)を示すフローチャートである。抽出画像決定処理(S11)は、画像一覧20に配置する画像を決定する処理である。   FIG. 9 is a flowchart showing the extracted image determination process (S11). The extracted image determination process (S11) is a process for determining an image to be arranged in the image list 20.

まず、ユーザが操作部4から入力した値を「フレーム画像抽出枚数」として、抽出フレーム数記憶領域13aに記憶する(S351)。次に、メディアカードに格納された動画像ファイルおよび静止画像ファイルの各々を解析し、動画像ファイルおよび静止画像ファイルを、人物を含む人物画像と、風景を含む風景画像とのいずれかに分類する画像解析処理(S352)を実行する。画像解析処理(S352)の詳細は、図10を参照して後述する。   First, the value input by the user from the operation unit 4 is stored as “frame image extraction number” in the extracted frame number storage area 13a (S351). Next, each of the moving image file and the still image file stored in the media card is analyzed, and the moving image file and the still image file are classified into one of a person image including a person and a landscape image including a landscape. Image analysis processing (S352) is executed. Details of the image analysis processing (S352) will be described later with reference to FIG.

次に、画像解析処理(S352)の結果、人物画像に分類された静止画像ファイルおよび動画像ファイルと、風景画像に分類された静止画像および動画像ファイルとのいずれが多かったかを判断する(S353)。人物画像が多いと判断される場合(S353:人物画像が多い)、画像抽出基準領域13n(図2参照)に、人物中心フラグを記憶する(S354)。一方、風景画像が多いと判断される場合(S353:風景画像が多い)、画像抽出基準領域13nに、風景中心フラグを記憶する(S355)。すなわち、画像解析処理(S352)によって画像ファイルを、人物画像と、風景画像とのいずれかに分類する。そして、人物画像と風景画像とのうち、分類された静止画像ファイルと、動画像ファイルとの合計の個数がより多い一方を決定し、その決定した一方の画像であることを、画像抽出基準として記憶する。   Next, as a result of the image analysis process (S352), it is determined whether there are more still image files and moving image files classified as person images or still images and moving image files classified as landscape images (S353). ). When it is determined that there are many person images (S353: many person images), the person center flag is stored in the image extraction reference area 13n (see FIG. 2) (S354). On the other hand, if it is determined that there are many landscape images (S353: many landscape images), the landscape center flag is stored in the image extraction reference area 13n (S355). In other words, the image file is classified into either a person image or a landscape image by the image analysis process (S352). Then, of the person image and the landscape image, one of the classified still image file and the moving image file having a larger total number is determined, and the determined one image is used as an image extraction criterion. Remember.

次に、ファイル数カウンタおよび処理画像数カウンタを0で初期化する(S356)。そして、ファイル数カウンタ値のファイルIDで特定される画像ファイルの種類を判断する(S357)。動画像ファイルであると判断される場合(S357:動画像)、画像抽出基準を満たすフレーム画像の位置を決定するフレーム抽出位置決定処理を実行する(S358)。フレーム抽出位置決定処理(S358)については、図11を参照して後述する。   Next, the file number counter and the processed image number counter are initialized with 0 (S356). Then, the type of the image file specified by the file ID of the file number counter value is determined (S357). When it is determined that the file is a moving image file (S357: moving image), a frame extraction position determination process for determining the position of a frame image that satisfies the image extraction criterion is executed (S358). The frame extraction position determination process (S358) will be described later with reference to FIG.

次に、フレーム数カウンタを0で初期化し(S359)、フレーム数カウンタ値に対応するフレーム位置情報記憶領域402から、フレーム位置情報を読み出し、処理画像数カウンタ値に対応する抽出フレーム位置記憶領域303(図5参照)に記憶する(S360)。   Next, the frame number counter is initialized to 0 (S359), the frame position information is read from the frame position information storage area 402 corresponding to the frame number counter value, and the extracted frame position storage area 303 corresponding to the processed image number counter value is read. (See FIG. 5) (S360).

そして、フレーム数カウンタおよび処理画像数カウンタに1を加算し(S361)、フレーム数カウンタ値が、フレーム画像抽出枚数以上となったか否かを判断し(S362)、S362の判断が否定される場合(S362:No)、S360から処理を繰り返す。   Then, 1 is added to the frame number counter and the processed image number counter (S361), it is determined whether or not the frame number counter value is equal to or greater than the number of extracted frame images (S362), and the determination of S362 is negative. (S362: No), the process is repeated from S360.

そして処理を繰り返すうちに、S362の判断が肯定されると(S362:Yes)、S366の処理に移行する。   If the determination in S362 is affirmed while the process is repeated (S362: Yes), the process proceeds to S366.

一方、S357の判断において静止画像ファイルであると判断された場合(S357:静止画像)、次に、ファイル付加情報記憶領域209(図4参照)に記憶された値と、画像抽出基準記憶領域13n(図2参照)に記憶された値とは等しいか否かを判断する(S363)。後述するように、ファイル付加情報記憶領域209には、その静止画像が人物画像であることを示す「人物中心フラグ」か、風景画像であることを示す「風景中心フラグ」かのいずれかが記憶されている。よって、S363の判断により、静止画像が、画像抽出基準を満たすか否かを判断することができる。   On the other hand, if it is determined in S357 that the file is a still image file (S357: still image), then the value stored in the file additional information storage area 209 (see FIG. 4) and the image extraction reference storage area 13n. It is determined whether or not the value stored in (see FIG. 2) is equal (S363). As will be described later, the file additional information storage area 209 stores either a “person center flag” indicating that the still image is a person image or a “landscape center flag” indicating that the still image is a landscape image. Has been. Therefore, whether or not the still image satisfies the image extraction criterion can be determined based on the determination in S363.

S363の判断が肯定される場合(S363:Yes)、ファイル数カウンタ値に対応する、ファイル付加情報記憶領域209に、「印刷対象フラグ」を記憶する(S364)。一方、S363の判断が否定される場合(S363:No)、ファイル付加情報記憶領域209には、「非印刷対象フラグ」を記憶する(S365)。S364またはS365の処理の後は、S366に移行する。   If the determination in S363 is affirmative (S363: Yes), the “print target flag” is stored in the file additional information storage area 209 corresponding to the file number counter value (S364). On the other hand, if the determination in S363 is negative (S363: No), a “non-print target flag” is stored in the file additional information storage area 209 (S365). After the process of S364 or S365, the process proceeds to S366.

次に、ファイル数カウンタに1を加算する(S366)、そして、ファイル数カウンタ値が総処理ファイル数以上となったか否かを判断し(S367)、S367の判断が否定される間(S367:No)、S357から処理を繰り返す。そして、処理を繰り返すうちにS367の判断が肯定されると(S367:Yes)、抽出画像決定処理(S11)を終了し、配置情報決定処理(S12)に移行するが、配置情報決定処理(S12)については、図12を参照して後述する。   Next, 1 is added to the file number counter (S366), and it is determined whether or not the file number counter value is equal to or greater than the total number of processed files (S367), while the determination of S367 is denied (S367: No), the process is repeated from S357. If the determination in S367 is affirmed while the process is repeated (S367: Yes), the extracted image determination process (S11) is terminated, and the process proceeds to the arrangement information determination process (S12), but the arrangement information determination process (S12). ) Will be described later with reference to FIG.

抽出画像決定処理(S11)によれば、風景画像と人物画像とのうち、より多い一方が選択され、その種類の画像であることが画像抽出基準として記憶される。そして、MFP1は、後に説明する処理を実行することにより、その画像抽出基準を満たす画像のインデックス画像21を配置した画像一覧20を出力する。   According to the extracted image determination process (S11), the larger one of the landscape image and the person image is selected, and the image of that type is stored as the image extraction criterion. Then, the MFP 1 outputs a list of images 20 in which index images 21 of images satisfying the image extraction criteria are arranged by executing processing described later.

よって、例えば、風景を撮影した画像ファイルがメディアカード内で多数を占める場合には、風景画像の画像一覧20が出力され、反対に、人物を撮影した画像ファイルがメディアカード内で多数を占める場合には、人物画像の画像一覧20が出力されることとなるので、よりユーザの好みに合致した画像一覧20を出力できる。   Therefore, for example, when an image file capturing a landscape occupies a large number in the media card, an image list 20 of landscape images is output, and conversely, an image file capturing a person occupies a large number in the media card. Since the image list 20 of human images is output, the image list 20 that matches the user's preference can be output.

図10は、画像解析処理(S352)を示すフローチャートである。画像解析処理(S352)は、各画像ファイルについて、人物画像であるか風景画像であるかを決定する処理である。   FIG. 10 is a flowchart showing the image analysis process (S352). The image analysis process (S352) is a process for determining whether each image file is a person image or a landscape image.

まず、ユーザが操作部4から入力した値を「調査フレーム枚数」として、調査フレーム枚数記憶領域13q(図2参照)に記憶する(S401)。そして、ファイル数カウンタを0で初期化する(S402)。   First, the value input by the user from the operation unit 4 is stored as the “number of survey frames” in the survey frame number storage area 13q (see FIG. 2) (S401). Then, the file number counter is initialized with 0 (S402).

次に、ファイル数カウンタ値のファイルIDで特定される画像ファイルの種類を判断する(S403)。動画像ファイルであると判断される場合(S403:動画像)、その動画像ファイルの総フレーム数を、フレーム画像抽出枚数で除算することにより、フレーム抽出間隔を算出する(S404)。   Next, the type of the image file specified by the file ID of the file number counter value is determined (S403). When it is determined that the file is a moving image file (S403: moving image), the frame extraction interval is calculated by dividing the total number of frames of the moving image file by the number of extracted frame images (S404).

次に、調査フレーム数カウンタおよび顔カウンタを0で初期化する(S405)。これらカウンタは、カウンタ記憶領域13mに設けられている。   Next, the investigation frame number counter and the face counter are initialized with 0 (S405). These counters are provided in the counter storage area 13m.

そして、フレーム抽出間隔に、調査フレームカウンタ値を乗算した値を算出し、先頭から数えて、その値番目に当たるフレーム画像のフレーム画像情報を抽出し(S406)、調査フレーム画像記憶領域13r(図2参照)に記憶する(S407)。   Then, a value obtained by multiplying the frame extraction interval by the survey frame counter value is calculated, and the frame image information of the frame image corresponding to the value number is extracted from the head (S406), and the survey frame image storage area 13r (FIG. 2) is extracted. Reference) is stored (S407).

次に、調査フレーム画像記憶領域13rに格納したフレーム画像情報を解析し、そのフレーム画像情報に対応するフレーム画像に含まれる顔を検出する顔認識処理を実行する(S408)。顔認識処理の手法としては、Haar-like特徴量とAdaBoost分類器を用いた公知の顔認識処理を採用することができるが、これ以外の他の公知の顔認識処理を採用しても良い。本実施形態では、画像内に含まれる顔を検出することに基づいて、画像内に含まれる人物を検出することとしている。   Next, the frame image information stored in the survey frame image storage area 13r is analyzed, and a face recognition process for detecting a face included in the frame image corresponding to the frame image information is executed (S408). As a face recognition processing method, a known face recognition process using a Haar-like feature quantity and an AdaBoost classifier can be adopted, but other known face recognition processes other than this may be adopted. In the present embodiment, a person included in an image is detected based on detecting a face included in the image.

次に、顔が検出されたか否かを判断し(S409)、肯定される場合(S409:Yes)、顔カウンタに1を加算する(S410)。一方、否定される場合(S409:No)、S410の処理をスキップする。   Next, it is determined whether or not a face has been detected (S409). If the result is affirmative (S409: Yes), 1 is added to the face counter (S410). On the other hand, when negative (S409: No), the process of S410 is skipped.

次に、調査フレーム数カウンタに1を加算し(S411)、調査フレーム数カウンタ値が調査フレーム枚数以上となったか否かを判断する(S412)。S412の判断が否定される場合(S412:No)、S406に戻り処理を繰り返す。   Next, 1 is added to the survey frame number counter (S411), and it is determined whether the survey frame number counter value is equal to or greater than the number of survey frames (S412). If the determination in S412 is negative (S412: No), the process returns to S406 and is repeated.

一方、S412の判断が肯定されると(S412:Yes)、顔カウンタの値が、抽出フレーム数記憶領域13aに記憶した「フレーム画像抽出枚数」以上であるかを判断する(S413)。S413の判断が肯定される場合(S413:Yes)、ファイル数カウンタ値に対応するファイル付加情報記憶領域209に、「人物中心フラグ」を記憶する(S414)。一方、S413の判断が否定される場合(S413:No)、ファイル付加情報記憶領域209に、「風景中心フラグ」を記憶する(S415)。   On the other hand, if the determination in S412 is affirmative (S412: Yes), it is determined whether the value of the face counter is equal to or greater than the “frame image extraction number” stored in the extracted frame number storage area 13a (S413). If the determination in S413 is affirmative (S413: Yes), the “person center flag” is stored in the file additional information storage area 209 corresponding to the file number counter value (S414). On the other hand, if the determination in S413 is negative (S413: No), the “landscape center flag” is stored in the file additional information storage area 209 (S415).

すなわち、所定数以上のフレーム画像に顔が検出されるかどうかに基づいて、そのフレーム画像が、人物を含む人物画像であるという特徴条件を満たすか、あるいは、風景を含む風景画像であるという特徴条件を満たすかを判断する。そして、その判断結果に基づいて、人物中心フラグあるいは風景中心フラグを、ファイル付加情報記憶領域209に記憶させることにより、動画像ファイルを、人物画像であるという特徴条件に基づくグループか、風景画像であるという特徴条件に基づくグループのいずれかに分類する。   That is, based on whether or not a face is detected in a predetermined number or more of frame images, the frame image satisfies a characteristic condition that it is a person image including a person, or is a landscape image that includes a landscape Determine whether the condition is met. Then, based on the determination result, the person center flag or the scenery center flag is stored in the file additional information storage area 209, so that the moving image file is a group based on the feature condition of being a person image or a landscape image. It is classified into one of the groups based on the characteristic condition of being.

なお、記載が冗長となることを避けるために、本実施形態では、人物画像グループを、単に「人物画像」と記述し、風景画像グループを、単に「風景画像」と記述する。また、図4には、「人物中心フラグ」としての「1」または「風景中心フラグ」としての「0」が、ファイル付加情報記憶領域209に記憶された状態を図示している。   In order to avoid redundant description, in this embodiment, the person image group is simply described as “person image”, and the landscape image group is simply described as “landscape image”. FIG. 4 illustrates a state where “1” as the “person center flag” or “0” as the “landscape center flag” is stored in the file additional information storage area 209.

そして、ファイル数カウンタに1を加算し(S420)、ファイル数カウンタ値が総処理ファイル数以上となったかを判断する(S421)。S421の判断が否定される場合(S421:No)、S403に戻り処理を繰り返す。   Then, 1 is added to the file number counter (S420), and it is determined whether the file number counter value is equal to or greater than the total number of processed files (S421). If the determination in S421 is negative (S421: No), the process returns to S403 and is repeated.

一方、S403の判断において、静止画像ファイルと判断された場合(S403:静止画像)、ファイル数カウンタ値のファイルIDで特定される静止画像ファイルを取得して解析し、その静止画像ファイルに対応する静止画像に含まれる顔を検出する(S416)。処理の詳細は、S408の処理で説明したため、ここでは説明を省略する。   On the other hand, if it is determined in S403 that the file is a still image file (S403: still image), the still image file specified by the file ID of the file number counter value is acquired and analyzed, and the still image file is supported. A face included in the still image is detected (S416). Since the details of the processing have been described in the processing of S408, description thereof is omitted here.

次に、顔が検出されたか否かを判断する(S417)。肯定される場合(S417:Yes)、ファイル数カウンタ値に対応するファイル付加情報記憶領域209に、「人物中心フラグ」を記憶する(S418)。一方、否定される場合(S417:No)、ファイル数カウンタ値に対応するファイル付加情報記憶領域209に、「風景中心フラグ」を記憶する(S419)。このように、静止画像ファイルに対応する静止画像が、人物画像であるという特徴条件を満たすか、あるいは、風景画像であるという特徴条件を満たすかに基づいて、人物中心フラグあるいは風景中心フラグを、ファイル付加情報記憶領域209に記憶させることにより、静止画像ファイルを、人物画像か、風景画像のいずれかに分類する。そして、S420の処理に移行する。   Next, it is determined whether or not a face has been detected (S417). If the determination is affirmative (S417: Yes), the “person center flag” is stored in the file additional information storage area 209 corresponding to the file number counter value (S418). On the other hand, if negative (S417: No), the “landscape center flag” is stored in the file additional information storage area 209 corresponding to the file number counter value (S419). In this way, based on whether the still image corresponding to the still image file satisfies the feature condition that it is a person image or the feature condition that it is a landscape image, the person center flag or the landscape center flag is By storing the file in the file additional information storage area 209, the still image file is classified into either a person image or a landscape image. Then, the process proceeds to S420.

このようにして処理を繰り返すうちに、S421の判断が肯定されると、この画像解析処理を終了し、図9を参照して説明したS353の処理に戻る。   If the determination in S421 is affirmed while the processing is repeated in this manner, the image analysis processing is terminated, and the processing returns to S353 described with reference to FIG.

図11は、フレーム抽出位置決定処理(S358)を示すフローチャートである。このフレーム抽出位置決定処理(S358)は、画像抽出基準にあったフレーム画像情報を特定するための、フレーム位置を決定する処理である。   FIG. 11 is a flowchart showing the frame extraction position determination process (S358). This frame extraction position determination process (S358) is a process for determining the frame position for specifying the frame image information that meets the image extraction reference.

まず、処理対象の動画像ファイルの総フレーム数をフレーム画像抽出枚数で除算することにより、フレーム抽出間隔を算出する(S501)。そして、調査フレーム数カウンタ、および抽出フレーム数カウンタを0で初期化する(S502)。   First, the frame extraction interval is calculated by dividing the total number of frames of the moving image file to be processed by the number of extracted frame images (S501). Then, the investigation frame number counter and the extracted frame number counter are initialized with 0 (S502).

次に、フレーム抽出間隔に、調査フレームカウンタ値を乗算した値を算出し、先頭から数えて、その値番目に当たるフレーム画像のフレーム画像情報を抽出し(S503)、調査フレーム画像記憶領域13r(図2参照)に記憶する(S504)。   Next, a value obtained by multiplying the frame extraction interval by the survey frame counter value is calculated, the frame image information of the frame image corresponding to the value number is extracted from the head (S503), and the survey frame image storage area 13r (FIG. 2) (S504).

次に、調査フレーム画像記憶領域13rに格納したフレーム画像情報を解析し、そのフレーム画像情報に対応するフレーム画像に含まれる顔を検出する、S408の処理と同様の顔認識処理を実行する(S505)。   Next, the frame image information stored in the survey frame image storage area 13r is analyzed, and a face recognition process similar to the process of S408 is executed to detect a face included in the frame image corresponding to the frame image information (S505). ).

次に、そのフレーム画像が、画像抽出基準を満たす画像か否かを判断する(S506)。具体的には、顔が検出されたと判断されたフレーム画像については、画像抽出基準記憶領域13n(図2参照)に「人物中心フラグ」が記憶されている場合に、画像抽出基準を満たす画像であると判断し、一方、画像抽出基準記憶領域13nに「風景中心フラグ」が記憶されている場合は、画像抽出基準を満たさない画像であると判断する。   Next, it is determined whether or not the frame image satisfies the image extraction criterion (S506). Specifically, a frame image for which it is determined that a face has been detected is an image that satisfies the image extraction criterion when the “person center flag” is stored in the image extraction criterion storage area 13n (see FIG. 2). On the other hand, if the “landscape center flag” is stored in the image extraction criterion storage area 13n, it is determined that the image does not satisfy the image extraction criterion.

また、顔が検出されないと判断された画像については、画像抽出基準記憶領域13nに「人物中心フラグ」が記憶されている場合に、画像抽出基準を満たさない画像であると判断し、一方、画像抽出基準記憶領域13nに「風景中心フラグ」が記憶されている場合は、画像抽出基準を満たす画像であると判断する。   Further, an image for which it is determined that a face is not detected is determined to be an image that does not satisfy the image extraction criterion when the “person center flag” is stored in the image extraction criterion storage area 13n. When the “landscape center flag” is stored in the extraction criterion storage area 13n, it is determined that the image satisfies the image extraction criterion.

S506の判断が肯定される場合(S506:Yes)、フレーム抽出間隔に、調査フレームカウンタ値を乗算した値を、フレーム位置として算出し、抽出フレームカウンタ値に対応する抽出フレーム位置記憶領域402(図6参照)に記憶する(S507)。そして、抽出フレームカウンタに1を加算する(S508)。なお、S506の判断が否定される場合(S506:No)、S507,S508の処理をスキップする。   When the determination in S506 is affirmative (S506: Yes), a value obtained by multiplying the frame extraction interval by the survey frame counter value is calculated as a frame position, and an extracted frame position storage area 402 (FIG. 5) corresponding to the extracted frame counter value is calculated. 6) (S507). Then, 1 is added to the extracted frame counter (S508). If the determination in S506 is negative (S506: No), the processes in S507 and S508 are skipped.

次に、調査フレーム数カウンタに1を加算し(S509)、調査フレーム数カウンタ値が調査フレーム枚数以上となったか否かを判断する(S510)。S510の判断が否定される間(S510:No)、S503から処理を繰り返す。   Next, 1 is added to the survey frame number counter (S509), and it is determined whether the survey frame number counter value is equal to or greater than the number of survey frames (S510). While the determination in S510 is negative (S510: No), the processing is repeated from S503.

このようにして処理を繰り返すことにより、動画像を構成する一連のフレーム画像の再生順序において、先頭から所定フレーム数毎のフレーム画像について、画像抽出基準を満たすか否かを判断することができる。よって、1の動画像を構成する一連のフレーム画像から、判断対象のフレーム画像を偏り無く抽出し判断することができる。   By repeating the processing in this manner, it is possible to determine whether or not the image extraction criterion is satisfied for the frame images for every predetermined number of frames from the top in the reproduction order of the series of frame images constituting the moving image. Therefore, it is possible to extract and judge the determination target frame image from the series of frame images constituting one moving image without deviation.

このようにして処理を繰り返すうちに、S510の判断が肯定されると(S510:Yes)、フレーム抽出位置決定処理(S358)を終了する。   If the determination in S510 is affirmed while the process is repeated in this manner (S510: Yes), the frame extraction position determination process (S358) is terminated.

図12は、配置情報決定処理(S12)を示すフローチャートである。まず、処理済みのファイル数をカウントするファイル数カウンタ、処理済みの画像数をカウントする処理画像数カウンタ、フレーム画像の抽出枚数をカウントするフレーム画像抽出枚数カウンタの値を、それぞれ0で初期化する(S1001)。なお、これらのカウンタは、カウンタ記憶領域13m(図2参照)に設けられている。   FIG. 12 is a flowchart showing the arrangement information determination process (S12). First, the values of a file number counter for counting the number of processed files, a processed image number counter for counting the number of processed images, and a frame image extraction number counter for counting the number of extracted frame images are each initialized to zero. (S1001). These counters are provided in the counter storage area 13m (see FIG. 2).

次に、ファイル数カウンタ値のファイルIDに対応した画像ファイルの種類を判定する(S1002)。最初は、ファイル数カウンタの値が「0」であるため、ファイルID「0」の画像ファイルの種類を判定することとなる。   Next, the type of the image file corresponding to the file ID of the file number counter value is determined (S1002). Initially, since the value of the file number counter is “0”, the type of the image file with the file ID “0” is determined.

画像ファイルの種類が動画像であると判断した場合(S1002:動画像)、動画像ファイルの撮影日を表すファイル日付情報、動画像ファイルの撮影開始時間を表すファイル時間情報、動画像ファイルのfpsを表すfps情報、および動画像ファイルの総フレーム数を表す総フレーム数情報を、その動画像ファイルのヘッダから読み出す(S1003)。   When it is determined that the type of the image file is a moving image (S1002: moving image), file date information indicating the shooting date of the moving image file, file time information indicating the shooting start time of the moving image file, and fps of the moving image file. And the total frame number information indicating the total number of frames of the moving image file are read out from the header of the moving image file (S1003).

そして、処理画像数カウンタ値の配置順序に対応したファイル日付情報記憶領域207へファイル日付情報を記憶し、ファイル時間情報記憶領域208へファイル時間情報を記憶し、fps情報記憶領域206へfps情報を記憶し、総フレーム数記憶領域205へ総フレーム数情報を記憶する(S1004)。   Then, the file date information is stored in the file date information storage area 207 corresponding to the arrangement order of the processed image counter value, the file time information is stored in the file time information storage area 208, and the fps information is stored in the fps information storage area 206. The total frame number information is stored in the total frame number storage area 205 (S1004).

次に、処理対象の画像ファイルについて配置情報を作成し、配置情報記憶領域13i(図6参照)へ記憶する処理を行う。具体的には、まず、処理画像数カウンタ値の配置順序に対応したファイルID記憶領域302(図5参照)へ、現時点におけるファイル数カウンタの値をファイルIDとして記憶する。また、現時点におけるフレーム画像抽出枚数カウンタの値から抽出フレーム番号を算出し、抽出フレーム番号記憶領域304(図6参照)へ記憶する(S1004a)。   Next, a process of creating arrangement information for the processing target image file and storing it in the arrangement information storage area 13i (see FIG. 6) is performed. Specifically, first, the current value of the file number counter is stored as a file ID in the file ID storage area 302 (see FIG. 5) corresponding to the arrangement order of the processed image number counter value. Further, the extracted frame number is calculated from the value of the frame image extraction number counter at the present time, and stored in the extracted frame number storage area 304 (see FIG. 6) (S1004a).

次に、抽出フレーム番号に対応した、フレーム画像情報の画像時間情報を算出し、配置順序に対応する画像時間情報記憶領域306へ記憶する(S1005)。本実施形態においては、一例として、以下のように、画像時間情報を算出するものとする。   Next, the image time information of the frame image information corresponding to the extracted frame number is calculated and stored in the image time information storage area 306 corresponding to the arrangement order (S1005). In the present embodiment, as an example, image time information is calculated as follows.

ここで、動画像ファイルの撮影開始時間を表すファイル時間情報をVideoTime、fps情報をFPS、フレーム画像情報の撮影時間を表す画像時間情報をFrameTime、処理対象のフレーム画像情報の抽出フレーム位置(抽出フレーム位置記憶領域303に記憶された値)をNとする。   Here, the video time information indicating the shooting start time of the moving image file is VideoTime, the fps information is FPS, the image time information indicating the shooting time of the frame image information is FrameTime, and the extraction frame position (extraction frame of the frame image information to be processed) The value stored in the position storage area 303 is N.

そして、ファイル時間情報VideoTimeを、以下数式6のように、動画像時間情報VT_Hour、動画像分情報VT_Minute、動画像秒情報VT_Secondに分解する。
(数式6)
VT_Hour = [ VideoTime/10000 ]
VT_Minute = [ (VideoTime - VT_Hour×10000)/100 ]
VT_Second = VideoTime - (VT_Hour×10000 + VT_Minute×100)
次に、フレーム時情報Frame_Hour、フレーム分情報Frame_Minute、フレーム秒情報Frame_Secondを下記数式7の通り算出する。
(数式7)
ここでCal_Second,Cal_Minute,Cal_Hourは上記情報を求めるための一時変数とする。
また、A mod BはAをBで割った時の剰余を表す
Cal_Second = VT_Second + [ N / FPS]
Cal_Minute = VT_Minute + [ Cal_Second / 60 ]
Cal_Hour = VT_Hour + [ Cal_Minute / 60 ]
Frame_second = Cal_Second mod 60
Frame_Minute = Cal_Minute mod 60
Frame_Hour = Cal_Hour mod 24
以上を、例えば、下記の数式8を用いて結合し、フレーム画像情報の撮影時間を表す画像時間情報FrameTimeを算出する。
(数式8)
FrameTime = Frame_Hour×10000 + Frame_Minute×100 + Frame_Second
次に、画像日付算出処理を実行する(S1006)。画像日付算出処理は、フレーム年情報Frame_Year、フレーム月情報Frame_Month、フレーム日情報Frame_Dayを算出する処理である。
Then, the file time information VideoTime is decomposed into moving picture time information VT_Hour, moving picture minute information VT_Minute, and moving picture second information VT_Second as shown in Equation 6 below.
(Formula 6)
VT_Hour = [VideoTime / 10000]
VT_Minute = [(VideoTime-VT_Hour × 10000) / 100]
VT_Second = VideoTime-(VT_Hour × 10000 + VT_Minute × 100)
Next, frame time information Frame_Hour, frame portion information Frame_Minute, and frame second information Frame_Second are calculated as shown in Equation 7 below.
(Formula 7)
Here, Cal_Second, Cal_Minute, and Cal_Hour are temporary variables for obtaining the above information.
A mod B represents the remainder when A is divided by B
Cal_Second = VT_Second + [N / FPS]
Cal_Minute = VT_Minute + [Cal_Second / 60]
Cal_Hour = VT_Hour + [Cal_Minute / 60]
Frame_second = Cal_Second mod 60
Frame_Minute = Cal_Minute mod 60
Frame_Hour = Cal_Hour mod 24
The above is combined using, for example, Equation 8 below to calculate image time information FrameTime representing the shooting time of the frame image information.
(Formula 8)
FrameTime = Frame_Hour × 10000 + Frame_Minute × 100 + Frame_Second
Next, an image date calculation process is executed (S1006). The image date calculation process is a process for calculating frame year information Frame_Year, frame month information Frame_Month, and frame date information Frame_Day.

図13は、画像日付算出処理(S1006)を示すフローチャートである。なお、図13のフローチャートに示す変数Mは、現日付からM日進めることを意味する変数である。   FIG. 13 is a flowchart showing the image date calculation process (S1006). Note that a variable M shown in the flowchart of FIG. 13 is a variable that means that M days are advanced from the current date.

まず、フレーム年情報Frame_Year、フレーム月情報Frame_Month、フレーム日情報Frame_Dayに、それぞれ、動画像年情報VD_Year、動画像月情報VD_Month、動画像日情報VD_Dayを代入する(S1201)。次に、変数Mに、[Cal_Hour/24]を代入する(S1202)。次にMが0であるかを判断し(S1203)、肯定されると(S1203:Yes)、本処理を終了する。   First, moving image year information VD_Year, moving image month information VD_Month, and moving image day information VD_Day are substituted into frame year information Frame_Year, frame month information Frame_Month, and frame date information Frame_Day, respectively (S1201). Next, [Cal_Hour / 24] is substituted into the variable M (S1202). Next, it is determined whether M is 0 (S1203). If the determination is affirmative (S1203: Yes), this process is terminated.

一方、否定されると(S1203:No)、フレーム日情報Frame_Dayを判断する(S1204)。「1以上27以下」と判断されると(S1204:1以上27以下)、Frame_Dayに「1」を加算する(S1205)。   On the other hand, if negative (S1203: No), the frame date information Frame_Day is judged (S1204). If it is determined that “1 to 27” (S1204: 1 to 27), “1” is added to Frame_Day (S1205).

一方、S1204の判断において、「28または29」と判断されると(S1204:28or29)、Frame_Monthが「2」であるか否かを判断する(S1206)。否定される場合(S1206;No)、S1205の処理に移行する。   On the other hand, if “28 or 29” is determined in the determination in S1204 (S1204: 28 or 29), it is determined whether or not Frame_Month is “2” (S1206). When negative (S1206; No), it transfers to the process of S1205.

一方、肯定されると(S1206:Yes)、次に、Frame_Dayが「28」であるかを判断する(S1208)。否定される場合(S1208:No)、Frame_Dayに「1」を代入し、Frame_Monthに「1」を加算する(S1210)。   On the other hand, if the determination is affirmative (S1206: Yes), it is next determined whether or not Frame_Day is “28” (S1208). If negative (S1208: No), “1” is substituted into Frame_Day, and “1” is added to Frame_Month (S1210).

一方、S1208の判断が肯定されると(S1208:Yes)、Frame_Yearで示される年がうるう年か否かを判断する(S1209)。肯定される場合(S1209:Yes)、S1205の処理に進む。否定される場合(S1209:No)、S1210の処理に進む。   On the other hand, if the determination in S1208 is positive (S1208: Yes), it is determined whether or not the year indicated by Frame_Year is a leap year (S1209). If the determination is affirmative (S1209: Yes), the process proceeds to S1205. When negative (S1209: No), it progresses to the process of S1210.

次に、S1204の判断において、「30」と判断されると(S1204:30)、次に、Frame_Monthが4,6,9,11のいずれかであるかを判断する(S1211)。肯定される場合(S1211:Yes)、S1210の処理に進む。   Next, if “30” is determined in the determination of S1204 (S1204: 30), it is next determined whether Frame_Month is 4, 6, 9, or 11 (S1211). If the determination is affirmative (S1211: Yes), the process proceeds to S1210.

一方、否定される場合(S1211:No)、Frame_Dayに「1」を加算する(S1216)。次に、S1204の判断において、「31」と判断されると(S1204:31)、次に、Frame_Yearが12であるかを判断する(S1215)。否定される場合(S1215:No)、S1216の処理に進む。   On the other hand, if negative (S1211: No), “1” is added to Frame_Day (S1216). Next, if “31” is determined in the determination in S1204 (S1204: 31), it is then determined whether Frame_Year is 12 (S1215). When negative (S1215: No), it progresses to the process of S1216.

一方、肯定される場合(S1215:Yes)、Frame_Dayに「1」を代入し、Frame_Monthに「1」を代入し、Frame_Yearに「1」を加算する(S1217)。   On the other hand, if affirmative (S1215: Yes), “1” is substituted into Frame_Day, “1” is substituted into Frame_Month, and “1” is added to Frame_Year (S1217).

S1205,S1210,S1216,S1217の処理の後は、変数Mから「1」減算し(S1212)、S1203に戻る。そして、S1203の判断が肯定されると(S1203:Yes)、本処理を終了する。   After the processing of S1205, S1210, S1216, and S1217, “1” is subtracted from the variable M (S1212), and the process returns to S1203. If the determination in S1203 is affirmed (S1203: Yes), this process ends.

図12に戻り説明する。図13に示す処理で算出した値を、例えば下記数式11を用いて結合し、フレーム画像情報の撮影日付を表す画像日付情報FrameDateを算出する。算出された画像日付情報は、画像日付情報記憶領域305へ記憶する(S1007)。
(数式11)
FrameDate = Frame_Year×10000 + Frame_Month×100 + Frame_Day
このようして、動画像ファイルから抽出される1のフレーム画像情報について、配置情報が作成され、配置情報記憶領域13iへ記憶すると、次に、処理済みの画像数をカウントする処理画像数カウンタ、およびフレーム画像抽出枚数カウンタに、それぞれ「1」を加算する(S1008)。
Returning to FIG. The values calculated in the process shown in FIG. 13 are combined using, for example, the following Equation 11 to calculate image date information FrameDate representing the shooting date of the frame image information. The calculated image date information is stored in the image date information storage area 305 (S1007).
(Formula 11)
FrameDate = Frame_Year × 10000 + Frame_Month × 100 + Frame_Day
In this way, when the arrangement information is created for one frame image information extracted from the moving image file and stored in the arrangement information storage area 13i, a processed image number counter for counting the number of processed images, Then, “1” is added to the frame image extraction number counter (S1008).

そして、フレーム画像抽出枚数カウンタの値が、その動画像ファイルについて決定されたフレーム画像抽出数以上となったか否かを判断する(S1009)。S1009の判断が否定される場合(S1009:No)、S1004aに戻り処理を繰り返す。   Then, it is determined whether or not the value of the frame image extraction number counter is equal to or greater than the frame image extraction number determined for the moving image file (S1009). If the determination in S1009 is negative (S1009: No), the process returns to S1004a and the process is repeated.

一方、S1009の判断が肯定される場合(S1009:Yes)、次にフレーム画像抽出枚数カウンタを0で初期化し(S1010)、ファイル数カウンタに1を加算する(S1016)。そして、ファイル数カウンタの値が、メディアカードに格納される静止画像ファイルと動画像ファイルの合計を示す「総処理ファイル数」以上となったか否かを判断する(S1017)。S1017の判断が否定される場合(S1017:No)、S1002の処理に戻り、ファイル数カウンタ値のファイルIDに対応した次の画像ファイルを処理対象として選択し、処理を繰り返す。   On the other hand, if the determination in S1009 is affirmative (S1009: Yes), then the frame image extraction number counter is initialized with 0 (S1010), and 1 is added to the file number counter (S1016). Then, it is determined whether or not the value of the file number counter is equal to or greater than the “total number of processed files” indicating the total of still image files and moving image files stored in the media card (S1017). If the determination in S1017 is negative (S1017: No), the process returns to S1002, and the next image file corresponding to the file ID of the file number counter value is selected as a processing target, and the process is repeated.

次に、処理対象の画像ファイルが静止画像ファイルであると判断された場合(S1002:静止画像)について説明する。静止画像ファイルである場合も、同様に、まず、その静止画像ファイルに関するファイル情報を作成し、ファイル情報記憶領域13h(図4参照)へ格納する。   Next, a case where it is determined that the image file to be processed is a still image file (S1002: still image) will be described. Similarly, in the case of a still image file, first, file information relating to the still image file is created and stored in the file information storage area 13h (see FIG. 4).

具体的には、まず、処理画像数カウンタ値の配置順序に対応したファイルID記憶領域302(図6参照)へ、現時点におけるファイル数カウンタの値を記憶し、抽出フレーム番号記憶領域304(図6参照)へ「1」を記憶する(S1011a)。そして、処理対象の静止画像ファイルの撮影日を表すファイル日付情報および撮影時間を表すファイル時間情報を読み出し(S1011)、ファイル情報記憶領域13hのうち、ファイル数カウンタ値のファイルIDに対応した領域へ、取得したファイル日付情報とファイル時間情報とを記憶する(S1012)。なお、fps情報記憶領域206には「0」を記憶する。   Specifically, first, the current file number counter value is stored in the file ID storage area 302 (see FIG. 6) corresponding to the arrangement order of the processed image number counter value, and the extracted frame number storage area 304 (FIG. 6). “1” is stored in (refer to) (S1011a). Then, the file date information indicating the shooting date of the still image file to be processed and the file time information indicating the shooting time are read (S1011), and the file information storage area 13h is moved to the area corresponding to the file ID of the file number counter value. The acquired file date information and file time information are stored (S1012). Note that “0” is stored in the fps information storage area 206.

次に、ファイル数カウンタ値のファイルIDに対応した処理対象の静止画像ファイルのファイル日付情報を、配置情報記憶領域13i(図6参照)における、処理画像数カウンタ値の配置順序に対応する画像日付情報記憶領域305へ記憶し、同配置順序に対応する画像時間情報記憶領域306へ、処理対象の静止画像ファイルのファイル時間情報を記憶する(S1013)。そして、処理画像数カウンタに1を加算し(S1015)、S1016の処理に移行する。   Next, the file date information of the still image file to be processed corresponding to the file ID of the file number counter value is set to the image date corresponding to the arrangement order of the processed image number counter value in the arrangement information storage area 13i (see FIG. 6). The information is stored in the information storage area 305, and the file time information of the still image file to be processed is stored in the image time information storage area 306 corresponding to the same arrangement order (S1013). Then, 1 is added to the processed image number counter (S1015), and the process proceeds to S1016.

このようにして処理を繰り返すうちに、S1017の判断が肯定されると(S1017:Yes)、次に、画像時間情報の小さい順に配置情報をソートし(S1018)、配置情報決定処理(S12)を終了する。配置情報決定処理(S12)により、配置情報で特定されるインデックス画像21の各々について、対応する配置順序が決定する。   If the determination in S1017 is affirmed while the processing is repeated in this way (S1017: Yes), then the arrangement information is sorted in ascending order of the image time information (S1018), and the arrangement information determination process (S12) is performed. finish. Through the arrangement information determination process (S12), the corresponding arrangement order is determined for each of the index images 21 specified by the arrangement information.

図14は、配置印刷処理を示すフローチャートである。図14に示す配置印刷処理(S13)は、配置情報決定処理(S12;図12参照)によって決定された順序でインデックス画像21が配列された画像一覧20を、記録用紙に印刷出力する処理である。   FIG. 14 is a flowchart showing the layout printing process. The layout printing process (S13) shown in FIG. 14 is a process of printing out the image list 20 in which the index images 21 are arranged in the order determined by the layout information determination process (S12; see FIG. 12) on a recording sheet. .

まず、画像一覧20に配列される横一列分のインデックス画像21の数を示す「横方向の配置枚数」を、横方向画像配置数記憶領域12bから読み出す(S1101)。次に、1ページ分の画像一覧20に配置可能なインデックス画像21の数を示す「1ページ内画像配置数」を、1ページ内画像配置数記憶領域12cから読み出す(S1102)。   First, “horizontal arrangement number” indicating the number of index images 21 for one horizontal row arranged in the image list 20 is read from the horizontal image arrangement number storage area 12b (S1101). Next, “the number of image arrangements in one page” indicating the number of index images 21 that can be arranged in the image list 20 for one page is read from the image arrangement number storage area 12c in one page (S1102).

次に、ページカウンタを1で初期化し(S1103)、静止画像ファイルの総数と、フレーム画像の抽出数の総数とを合計した値である「処理画像総数」を、処理画像総数記憶領域13c(図2参照)から算出する(S1104)。なお、ページカウンタは、カウンタ記憶領域13mに設けられている。   Next, the page counter is initialized with 1 (S1103), and the “total number of processed images”, which is the sum of the total number of still image files and the total number of extracted frame images, is stored in the total processed image storage area 13c (FIG. 2) (S1104). The page counter is provided in the counter storage area 13m.

次に、処理画像総数と、1ページ内画像配置数とから、何ページ分の画像一覧を印刷出力するかを示す「生成ページ数」を算出し、生成ページ数記憶領域13d(図2参照)へ記憶する(S1105)。   Next, a “generated page number” indicating how many pages of the image list are to be printed out is calculated from the total number of processed images and the number of images arranged per page, and the generated page number storage area 13d (see FIG. 2). (S1105).

本実施形態では、生成ページ数page_noは下記数式12を用いて算出する。ここでは、処理画像総数をTotalImageNo,1ページ内画像配置数をLAYOUT_NUMとしている。
(数式12)
page_no = [ TotalImageNo / LAYOUT_NUM ] + 1
次に、レイアウト画像カウンタを0で初期化し(S1106)、1枚の記録用紙内に配置する画像の枚数layout_noを算出する(S1107)。本実施形態においては、layout_noは下記数式13を用いて算出する。また、レイアウト画像カウンタは、カウンタ記憶領域13mに設けられている。
(数式13)
(ページカウンタ値) < 生成ページ数 の時
layout_no = (1ページ内画像配置数)
(ページカウンタ値) ≧ 生成ページ数 の時
layout_no = (グループ画像数) - { (1ページ内画像配置数) × (ページカウンタ値) }
In the present embodiment, the number of generated pages page_no is calculated using the following formula 12. Here, the total number of processed images is TotalImageNo, and the number of images arranged in one page is LAYOUT_NUM.
(Formula 12)
page_no = [TotalImageNo / LAYOUT_NUM] + 1
Next, the layout image counter is initialized to 0 (S1106), and the number of layout_no images to be placed on one recording sheet is calculated (S1107). In the present embodiment, layout_no is calculated using Equation 13 below. The layout image counter is provided in the counter storage area 13m.
(Formula 13)
(Page counter value) <Number of generated pages
layout_no = (Number of images on one page)
(Page counter value) ≥ Number of generated pages
layout_no = (number of group images)-{(number of images in one page) x (page counter value)}

次に、配置順序に対応したファイルIDと、抽出フレーム番号とを配置情報記憶領域13iから読み出す(S1108)。そして、読み出したファイルIDに対応する画像ファイルが、動画像ファイルであるか静止画像ファイルであるかを判定する(S1109)。   Next, the file ID corresponding to the arrangement order and the extracted frame number are read from the arrangement information storage area 13i (S1108). Then, it is determined whether the image file corresponding to the read file ID is a moving image file or a still image file (S1109).

S1109の判定において、動画像ファイルと判定される場合(S1109:動画像)、次に、抽出フレーム番号に対応した、1フレーム画像分のフレーム画像情報を動画像ファイルから抽出する(S1110)。   If it is determined in S1109 that the file is a moving image file (S1109: moving image), then frame image information for one frame image corresponding to the extracted frame number is extracted from the moving image file (S1110).

次に、抽出したフレーム画像情報をデコード処理する(S1111)。そして、デコードしたフレーム画像情報をインデックス画像21の規定サイズに縮小または拡大し、配置用バッファの所定位置に配置する(S1112)。   Next, the extracted frame image information is decoded (S1111). Then, the decoded frame image information is reduced or enlarged to the specified size of the index image 21, and is arranged at a predetermined position in the arrangement buffer (S1112).

一方、S1109の判定において、静止画像ファイルと判定される場合(S1109:静止画像)、その静止画像ファイルに対応したファイル付加情報記憶領域209を参照し、非印刷画像フラグが記憶されているか否かを判断する(S1109a)。   On the other hand, if it is determined in S1109 that the file is a still image file (S1109: still image), the file additional information storage area 209 corresponding to the still image file is referred to and whether or not a non-print image flag is stored. Is determined (S1109a).

S1109aの判断が否定される場合(S1109a:No)、配置順序に対応したファイルIDで特定される静止画像ファイルを抽出し、デコード処理する(S1113)。そして、デコードされた静止画像ファイルをインデックス画像21の規定サイズに縮小または拡大し、配置用バッファの所定位置に配置する(S1114)。   If the determination in S1109a is negative (S1109a: No), the still image file specified by the file ID corresponding to the arrangement order is extracted and decoded (S1113). Then, the decoded still image file is reduced or enlarged to the specified size of the index image 21, and is arranged at a predetermined position in the arrangement buffer (S1114).

一方、S1109aの判断が肯定される場合(S1109a:Yes)、S1108に戻り、次の配置順序に対応したファイルIDと抽出フレーム番号とを読み出す(S1108)。すなわち、非印刷画像フラグが対応付けられた静止画像ファイルは、抽出対象外とされ、この静止画像ファイルのインデックス画像21は形成されない。   On the other hand, if the determination in S1109a is affirmative (S1109a: Yes), the process returns to S1108, and the file ID and the extracted frame number corresponding to the next arrangement order are read (S1108). That is, the still image file associated with the non-print image flag is not extracted, and the index image 21 of this still image file is not formed.

このようにして、フレーム画像情報または静止画像ファイルのいずれかをデコード処理して配置用バッファに配置する配置処理を実行した後、次に、横方向に配置できる画像数の上限である「横方向の配置枚数」回分の配置処理を行ったか否かを判断する(S1115)。S1115の判断が否定される場合(S1115:No)、配置用バッファにおける次のデータの配置位置を示す横方向位置を更新する(S1119)。   In this way, after executing the placement processing for decoding either the frame image information or the still image file and placing it in the placement buffer, the “horizontal direction” is the upper limit of the number of images that can be placed in the horizontal direction. It is determined whether or not the arrangement processing for “number of arrangements” has been performed (S1115). If the determination in S1115 is negative (S1115: No), the horizontal position indicating the arrangement position of the next data in the arrangement buffer is updated (S1119).

そして、レイアウト画像カウンタに「1」を加算し(S1120)、レイアウト画像カウンタの値が、現在の処理対象の記録用紙に配置するインデックス画像21の数「layout_no」以上となったか否かを判断する(S1121)。S1121の判断が否定される場合(S1121:No)、S1108の処理に戻り、次の配置順序に対応した配置情報を処理する。   Then, “1” is added to the layout image counter (S1120), and it is determined whether or not the value of the layout image counter is equal to or larger than the number “layout_no” of the index images 21 to be arranged on the current recording paper to be processed. (S1121). If the determination in S1121 is negative (S1121: No), the process returns to S1108, and arrangement information corresponding to the next arrangement order is processed.

このようにして処理を繰り返す内に、「横方向の配置枚数」回分の配置処理が実行されると、S1115の判断が肯定されるので(S1115:Yes)、次に、配置用バッファのデータをプリンタ3(図2参照)へ渡す(S1116)。これにより、配置用バッファのデータがプリンタ3における印刷処理にかけられる。ただし配置用バッファに画像が配置されない領域については印刷出力を行わない。   If the arrangement processing for “the number of arrangements in the horizontal direction” is executed while the processing is repeated in this way, the determination in S1115 is affirmed (S1115: Yes). Next, the data in the arrangement buffer is stored. The data is transferred to the printer 3 (see FIG. 2) (S1116). As a result, the data in the placement buffer is subjected to print processing in the printer 3. However, print output is not performed for an area where no image is arranged in the arrangement buffer.

次に、配置用バッファにおける次のデータの横方向配置位置を示す横方向位置を初期化し(S1117)、また、配置用バッファにおける次のデータの縦方向配置位置を示す縦方向位置を更新する(S1118)。この横方向位置および縦方向位置によって、画像一覧20における次の行の左端から、次のインデックス画像21が配列されるように、配置用バッファにおける次のデータの配置位置が決定される。そして、上述したS1120、S1121の処理を実行する。   Next, the horizontal position indicating the horizontal arrangement position of the next data in the arrangement buffer is initialized (S1117), and the vertical position indicating the vertical arrangement position of the next data in the arrangement buffer is updated (S1117). S1118). The arrangement position of the next data in the arrangement buffer is determined by the horizontal position and the vertical position so that the next index image 21 is arranged from the left end of the next row in the image list 20. And the process of S1120 and S1121 mentioned above is performed.

このようにして処理を繰り返すことにより、画像抽出基準を満たすと判断されたフレーム画像に対応するフレーム画像情報が動画像ファイルから抽出されてインデックス画像21が形成され、また、画像抽出基準を満たすと判断された静止画像ファイルが抽出されて、インデックス画像21が形成される。   By repeating the process in this manner, the frame image information corresponding to the frame image determined to satisfy the image extraction criterion is extracted from the moving image file to form the index image 21, and when the image extraction criterion is satisfied. The determined still image file is extracted, and the index image 21 is formed.

このようにして、処理対象の1ページ分の記録用紙に配置するインデックス画像21の全てについて印刷処理を完了すると、S1121の判断が肯定されるので(S1121:Yes)、図15に示す次の処理に移行する。   In this way, when the printing process is completed for all of the index images 21 arranged on the recording paper for one page to be processed, the determination in S1121 is affirmed (S1121: Yes), so the next process shown in FIG. Migrate to

図15は、図14に示す配置印刷処理の続きを示すフローチャートであって、S1121の判断が肯定される場合に実行される。   FIG. 15 is a flowchart showing the continuation of the layout printing process shown in FIG. 14, and is executed when the determination in S1121 is affirmed.

まず、配置用バッファに、未だ印刷処理を行っていないデータが存在するかを判断する(S1122)。S1122の判断が肯定される場合(S1122:Yes)、その残りのデータをプリンタ3に渡し(S1123)、プリンタ3にて印刷出力をさせ、S1124の処理に移行する。一方、S1122の判断が否定される場合(S1122:No)、S1123の判断をスキップし、S1124の処理に移行する。   First, it is determined whether there is data that has not yet undergone printing processing in the arrangement buffer (S1122). If the determination in S1122 is affirmative (S1122: Yes), the remaining data is transferred to the printer 3 (S1123), the printer 3 prints out, and the process proceeds to S1124. On the other hand, if the determination in S1122 is negative (S1122: No), the determination in S1123 is skipped and the process proceeds to S1124.

そして、1ページ分のデータ出力が完了したことを示す印刷完了命令をプリンタ3に渡し(S1124)、ページカウンタに「1」を加算する(S1125)。次に、配置用バッファにおける次のデータの配置位置を示す横方向位置および縦方向位置を初期化する(S1126)。そして、ページカウンタの値が「生成ページ数」より大となったかを判断する(S1127)。S1127の判断が否定される場合(S1127:No)、図14に示すS1106の処理に戻り、次ページの処理を開始する。   Then, a print completion command indicating that data output for one page has been completed is passed to the printer 3 (S1124), and “1” is added to the page counter (S1125). Next, the horizontal position and the vertical position indicating the arrangement position of the next data in the arrangement buffer are initialized (S1126). Then, it is determined whether the value of the page counter is larger than “number of generated pages” (S1127). If the determination in S1127 is negative (S1127: No), the process returns to S1106 shown in FIG. 14, and the process for the next page is started.

一方、S1127の判断が肯定される場合(S1127:Yes)、配置印刷処理を終了する。これにより、図3を参照して説明した画像一覧20が出力される。   On the other hand, if the determination in S1127 is affirmative (S1127: Yes), the layout printing process ends. As a result, the image list 20 described with reference to FIG. 3 is output.

以上、実施形態に基づき本発明を説明したが、本発明は上述した実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変更が可能であることは容易に推察できるものである。   The present invention has been described above based on the embodiments. However, the present invention is not limited to the above-described embodiments, and various modifications and changes can be easily made without departing from the spirit of the present invention. Can be inferred.

例えば、本実施形態では、画像一覧20を記録用紙に印刷出力するものとして説明したが、LCD5など表示装置に画像一覧20を表示出力する場合にも、本発明を適用できる。   For example, in the present embodiment, the image list 20 is described as being printed out on recording paper. However, the present invention can also be applied to the case where the image list 20 is displayed on a display device such as the LCD 5.

また、本発明を、例えば、パーソナルコンピュータに適用し、PCのモニターに、画像一覧20を表示出力する場合、あるいは、パーソナルコンピュータからプリンタを制御して画像一覧を印刷出力する場合にも、本発明を適用できる。   The present invention is also applied to, for example, a case where the present invention is applied to a personal computer and the image list 20 is displayed on a PC monitor, or the image list is printed out by controlling the printer from the personal computer. Can be applied.

また、上述した実施形態では、動画像ファイルおよび静止画像ファイルは、共に撮影により生成された画像ファイルであるものとして説明したが、動画像ファイルおよび静止画像ファイルは、撮影以外の方法で生成されるものであっても、本発明を適用可能である。その場合は、撮影日時に代えて、ファイルの作成日時を表すファイルの生成日時情報や、ファイルの更新日時情報など、他の条件を元に、インデックス画像21の配置順序を決定するように構成されても良い。   In the above-described embodiment, the moving image file and the still image file are both assumed to be image files generated by shooting. However, the moving image file and the still image file are generated by a method other than shooting. Even if it is a thing, this invention is applicable. In this case, the arrangement order of the index images 21 is determined based on other conditions such as file generation date / time information indicating file creation date / time and file update date / time information instead of the shooting date / time. May be.

また、上述した実施形態では、メディアカード内に、静止画像ファイルと動画像ファイルとが混在している場合について説明したが、メディアカード内に動画像ファイルのみが格納されている場合にも本発明は適用可能である。   In the above-described embodiment, the case where a still image file and a moving image file are mixed in the media card has been described. Is applicable.

また、上述した実施形態では、着脱可能なメディアカード内に記憶されている画像情報を処理対象としていたが、MFP1の内部メモリに格納された画像情報を処理対象とする場合にも、本発明は適用可能である。   In the above-described embodiment, the image information stored in the removable media card is the processing target. However, the present invention is also applicable to the case where the image information stored in the internal memory of the MFP 1 is the processing target. Applicable.

さらに、上記実施形態では、撮影日時に基づいて配置順序をソートしていたが、例えば、ダイナミックレンジや、平均輝度、画像に顔が含まれるか否か、顔画像の数やサイズ、など、他の条件で、配置順序をソートするものであっても良い。   Furthermore, in the above embodiment, the arrangement order is sorted based on the shooting date and time. However, for example, the dynamic range, the average luminance, whether the image includes a face, the number and size of face images, and the like. The arrangement order may be sorted under the above conditions.

また、上記実施形態では、画像内に含まれる顔を検出することに基づいて、画像内に含まれる人物を検出することとしていた。しかし、これに代えて、人物の顔に含まれる目、あるいは、人の体の輪郭を検出することに基づいて、人物を検出するものであっても良い。   In the above embodiment, the person included in the image is detected based on the detection of the face included in the image. However, instead of this, the person may be detected based on detecting the eyes included in the person's face or the outline of the human body.

また、上記実施形態では、所定数以上のフレーム画像に顔が検出されることに基づいて、その動画像ファイルを人物画像に分類していたが、例えば、動画像を構成する全フレームを調べ、最多数のフレーム画像が満たす特徴条件のグループに、その動画像情報を分類しても良い。   In the above embodiment, the moving image file is classified as a human image based on the detection of faces in a predetermined number or more of frame images. For example, all the frames constituting the moving image are examined, The moving image information may be classified into groups of feature conditions that the most frame images satisfy.

また、上記実施形態では、画像抽出基準は、人物画像であることと風景画像であることの2種類のうちのいずれかであったが、3種類以上の画像抽出基準の中から、いずれかが選択されるように構成しても良い。   In the above-described embodiment, the image extraction criterion is one of two types, that is, a person image and a landscape image, but any one of three or more types of image extraction criterion is selected. You may comprise so that it may be selected.

また、上記実施形態では、静止画像ファイルに対応した静止画像が、人物画像であるか風景画像であるかを、その静止画像に含まれる顔を検出することに基づいて判断していた。これに代えて、静止画像ファイルのヘッダ情報として含まれる撮影モードに基づいて、各静止画像が、人物画像であるか風景画像であるかを判断しても良い。   In the above embodiment, whether the still image corresponding to the still image file is a person image or a landscape image is determined based on detecting a face included in the still image. Alternatively, it may be determined whether each still image is a person image or a landscape image based on a shooting mode included as header information of the still image file.

また、本発明は、画像抽出基準を満たす画像のインデックス画像のみを、画像一覧20に配置することに限定されるものではない。例えば、静止画像ファイルおよび動画像ファイルの各々について、1ずつインデックス画像21を配置し、それに加えて、画像抽出基準を満たすフレーム画像情報をさらに抽出し、画像一覧20の残りのスペースに配置するように構成されても良い。   Further, the present invention is not limited to arranging only index images of images satisfying the image extraction criteria in the image list 20. For example, for each of the still image file and the moving image file, one index image 21 is arranged, and in addition to that, frame image information satisfying the image extraction criterion is further extracted and arranged in the remaining space of the image list 20. It may be configured.

このようにすれば、各画像ファイルの内容を全てユーザが閲覧することができると共に、人物中心か風景中心かのいずれかに重点を置いた画像一覧20を出力することができる。   In this way, the contents of each image file can be browsed by the user, and the image list 20 with an emphasis on either the person center or the landscape center can be output.

また、上記実施形態では、顔が検出されるか否かに基づいて人物画像であるか風景画像であるかを判断していたが、例えば、顔が検出されるフレーム画像のうち、画像に含まれる顔の個数が多い順序において先頭から所定数以内に含まれるフレーム画像を、画像抽出基準を満たす画像として判断するようにしても良い。   In the above embodiment, it is determined whether the image is a person image or a landscape image based on whether or not a face is detected. For example, the frame image from which a face is detected is included in the image. The frame images included within a predetermined number from the top in the order of the number of faces to be displayed may be determined as images satisfying the image extraction criterion.

このようにすれば、例えば、動画像の中から、多人数の顔が含まれたフレーム画像を選択的に閲覧したい場合に有用な画像一覧20を、ユーザに提供できる。   In this way, for example, it is possible to provide the user with an image list 20 that is useful when it is desired to selectively browse a frame image including a large number of faces from a moving image.

また、顔が検出されるフレーム画像のうち、画像に含まれる顔の面積が大きい順序において先頭から所定数以内に含まれるフレーム画像を、画像抽出基準を満たす画像として判断するようにしても良い。   In addition, among the frame images in which the face is detected, frame images included within a predetermined number from the top in the order in which the area of the face included in the image is large may be determined as an image satisfying the image extraction criterion.

このようにすれば、例えば、動画像の中から、顔を大写ししたフレーム画像を選択的に閲覧したい場合に有用な画像一覧20を提供できる。   In this way, for example, it is possible to provide an image list 20 that is useful when it is desired to selectively browse a frame image with a close-up face from a moving image.

また、上述した実施形態では、画像に顔が含まれるか否かに基づいて、「画像抽出基準」を満たす画像か否かを判断していたが、各画像に含まれる色を検出し、その検出結果に基づいて「画像抽出基準」を満たす画像か否かを判断しても良い。   In the above-described embodiment, whether or not an image satisfies the “image extraction criterion” is determined based on whether or not a face is included in the image. It may be determined whether the image satisfies the “image extraction criterion” based on the detection result.

例えば、色検出手段によって、画像を構成する大多数の画素の色が青色や緑色が検出されれば、その画像は風景画像と判断するように構成しても良い。また、画素の色として所定面積以上の肌色が検出されれば、その画像は人物画像と判断するように構成しても良い。   For example, if the color detection means detects the color of the majority of pixels constituting the image as blue or green, the image may be determined to be a landscape image. Further, if a skin color of a predetermined area or more is detected as the pixel color, the image may be determined to be a person image.

本発明の画像処理装置の実施形態である多機能周辺装置の外観構成を示した斜視図である。1 is a perspective view showing an external configuration of a multifunction peripheral device according to an embodiment of an image processing apparatus of the present invention. MFPの電気的構成を示すブロック図である。2 is a block diagram illustrating an electrical configuration of the MFP. FIG. MFPが出力する画像一覧の一例を示す図である。6 is a diagram illustrating an example of an image list output by an MFP. FIG. ファイル情報記憶領域の構成を模式的に示す図である。It is a figure which shows typically the structure of a file information storage area. 配置情報記憶領域の構成を模式的に示す図である。It is a figure which shows typically the structure of an arrangement | positioning information storage area. 抽出フレーム情報記憶領域を模式的に示す図である。It is a figure which shows an extraction frame information storage area typically. MFPで実行されるレイアウト画像印刷処理を示すフローチャートである。6 is a flowchart illustrating a layout image printing process executed by the MFP. 画像情報取得処理を示すフローチャートである。It is a flowchart which shows an image information acquisition process. 抽出画像決定処理を示すフローチャートである。It is a flowchart which shows an extraction image determination process. 画像解析処理を示すフローチャートである。It is a flowchart which shows an image analysis process. フレーム抽出位置決定処理を示すフローチャートである。It is a flowchart which shows a frame extraction position determination process. 配置情報決定処理を示すフローチャートである。It is a flowchart which shows arrangement | positioning information determination processing. 画像日付算出処理を示すフローチャートである。It is a flowchart which shows an image date calculation process. 配置印刷処理を示すフローチャートである。It is a flowchart which shows arrangement | positioning printing processing. 図14に示す配置印刷処理の続きを示すフローチャートである。FIG. 15 is a flowchart showing a continuation of the layout printing process shown in FIG. 14. FIG.

符号の説明Explanation of symbols

1 MFP(画像処理装置の一例)
13n 画像抽出基準記憶領域(選択条件記憶手段の一例)
20 画像一覧
21 インデックス画像
S13 配置印刷処理(出力手段の一例)
S352 画像解析処理(分類手段の一例)
S353 グループ決定手段の一例
S358 フレーム抽出位置決定処理(画像判断手段の一例)
S363 画像判断手段の一例
S414,S415 動画像情報分類手段
S418,S419 静止画像情報分類手段
S416 人物検出手段の一例
S505 人物検出手段の一例
1 MFP (an example of an image processing apparatus)
13n image extraction reference storage area (an example of selection condition storage means)
20 Image list 21 Index image S13 Arrangement printing process (an example of output means)
S352 Image analysis processing (an example of classification means)
S353 Example of group determination means S358 Frame extraction position determination processing (example of image determination means)
S363 An example of image determination means S414, S415 Moving image information classification means S418, S419 Still image information classification means S416 An example of person detection means S505 An example of person detection means

Claims (14)

画像一覧に配置する画像を選択するための選択条件を記憶する選択条件記憶手段と、
記憶媒体に格納された画像情報を解析し、前記画像情報に基づいて形成される画像が、前記選択条件記憶手段に記憶された選択条件を満たすかを判断する画像判断手段と、
前記記憶媒体に格納された画像情報に基づいて形成される画像のうち、前記画像判断手段により前記選択条件を満たすと判断された画像またはその画像の縮小もしくは拡大画像で構成されるインデックス画像を配置した画像一覧を出力する出力手段とを備えることを特徴とする画像処理装置。
Selection condition storage means for storing a selection condition for selecting an image to be arranged in the image list;
Image determination means for analyzing image information stored in a storage medium and determining whether an image formed based on the image information satisfies a selection condition stored in the selection condition storage means;
Among images formed on the basis of image information stored in the storage medium, an image determined by the image determination means to satisfy the selection condition or an index image composed of a reduced or enlarged image of the image is arranged. An image processing apparatus comprising: an output unit that outputs a list of images that have been processed.
前記画像判断手段は、動画像を再生するための動画像情報が前記画像情報として前記記憶媒体に格納されている場合、その動画像情報に対応した動画像から抽出される複数のフレーム画像各々について前記選択条件を満たすかを判断するものであり、
前記出力手段は、前記画像判断手段により、前記選択条件を満たすと判断されたフレーム画像またはそのフレーム画像の縮小もしくは拡大画像を、前記インデックス画像として配置した画像一覧を出力することを特徴とする請求項1記載の画像処理装置。
When the moving image information for reproducing a moving image is stored in the storage medium as the image information, the image determination unit is configured to detect each of a plurality of frame images extracted from the moving image corresponding to the moving image information. Determining whether the selection condition is satisfied,
The output means outputs an image list in which frame images determined by the image determination means to satisfy the selection condition or reduced or enlarged images of the frame images are arranged as the index images. Item 6. The image processing apparatus according to Item 1.
前記画像判断手段は、静止画像を出力するための静止画像情報が、前記画像情報として前記動画像情報と共に前記記憶媒体に格納されている場合、前記フレーム画像に加え、前記静止画像情報に基づいて形成される静止画像について、前記選択条件を満たすかを判断するものであり、
前記出力手段は、前記画像判断手段により、前記選択条件を満たすと判断されたフレーム画像またはそのフレーム画像の縮小もしくは拡大画像に加えて、前記選択条件を満たすと判断された静止画像またはその静止画像の縮小もしくは拡大画像を、前記インデックス画像として出力することを特徴とする請求項2記載の画像処理装置。
When still image information for outputting a still image is stored as the image information in the storage medium together with the moving image information, the image determination unit is based on the still image information in addition to the frame image. For the still image to be formed, it is determined whether the selection condition is satisfied,
In addition to the frame image determined to satisfy the selection condition or the reduced or enlarged image of the frame image by the image determination unit, the output means determines the still image determined to satisfy the selection condition or the still image thereof The image processing apparatus according to claim 2, wherein a reduced or enlarged image is output as the index image.
前記動画像情報から抽出されるフレーム画像情報を解析し、そのフレーム画像情報に対応するフレーム画像に含まれる人物を検出する人物検出手段を備え、
前記画像判断手段は、前記人物検出手段による検出結果に基づいて、前記フレーム画像が前記選択条件を満たすかを判断することを特徴とする請求項2または3に記載の画像処理装置。
Analyzing the frame image information extracted from the moving image information, and comprising a person detecting means for detecting a person included in the frame image corresponding to the frame image information,
The image processing apparatus according to claim 2, wherein the image determination unit determines whether the frame image satisfies the selection condition based on a detection result by the person detection unit.
人物を含む人物画像であることが、前記選択条件として前記選択条件記憶手段に記憶されている場合、
前記画像判断手段は、前記人物検出手段により人物が検出されたフレーム画像を、前記選択条件を満たす画像として判断することを特徴とする請求項4記載の画像処理装置。
When it is stored in the selection condition storage means as the selection condition that it is a person image including a person,
The image processing apparatus according to claim 4, wherein the image determination unit determines a frame image in which a person is detected by the person detection unit as an image satisfying the selection condition.
人物を含む人物画像であることが、前記選択条件として前記選択条件記憶手段に記憶されている場合、
前記画像判断手段は、前記人物検出手段により人物が検出されるフレーム画像のうち、検出される人物の数が多い順序において先頭から所定数以内に含まれる画像を、前記選択条件を満たす画像として判断することを特徴とする請求項4記載の画像処理装置。
When it is stored in the selection condition storage means as the selection condition that it is a person image including a person,
The image determining means determines, as an image satisfying the selection condition, an image that is included within a predetermined number from the top in the order in which the number of detected persons is large among the frame images in which a person is detected by the person detecting means. The image processing apparatus according to claim 4, wherein:
人物を含む人物画像であることが、前記選択条件として前記選択条件記憶手段に記憶されている場合、
前記画像判断手段は、前記人物検出手段により人物が検出されるフレーム画像のうち、検出される人物の面積が大きい順序において先頭から所定数以内に含まれる画像を、前記選択条件を満たす画像として判断することを特徴とする請求項4記載の画像処理装置。
When it is stored in the selection condition storage means as the selection condition that it is a person image including a person,
The image determining means determines, as an image satisfying the selection condition, an image that is included within a predetermined number from the top in a descending order of the detected person area among frame images in which a person is detected by the person detecting means. The image processing apparatus according to claim 4, wherein:
風景を含む風景画像であることが、前記選択条件として前記選択条件記憶手段に記憶されている場合、
前記画像判断手段は、前記人物検出手段により人物が検出されないフレーム画像を、前記選択条件を満たす画像として判断することを特徴とする請求項4記載の画像処理装置。
When it is stored in the selection condition storage means as the selection condition that it is a landscape image including a landscape,
The image processing apparatus according to claim 4, wherein the image determination unit determines a frame image in which a person is not detected by the person detection unit as an image satisfying the selection condition.
前記動画像情報から抽出されるフレーム画像情報および前記静止画像情報を解析し、フレーム画像および静止画像に含まれる色を検出する色検出手段を備え、
前記画像判断手段は、前記色検出手段による検出結果に基づいて、前記フレーム画像および静止画像が前記選択条件を満たすかを判断することを特徴とする請求項3記載の画像処理装置。
Analyzing the frame image information extracted from the moving image information and the still image information, and comprising color detection means for detecting a color included in the frame image and the still image,
The image processing apparatus according to claim 3, wherein the image determination unit determines whether the frame image and the still image satisfy the selection condition based on a detection result by the color detection unit.
前記画像判断手段は、動画像を構成する一連のフレーム画像の再生順序において、所定フレーム数毎のフレーム画像について、前記選択条件を満たすか否かを判断することを特徴とする請求項2から9のいずれかに記載の画像処理装置。   The image judging means judges whether or not the selection condition is satisfied with respect to a frame image for every predetermined number of frames in a reproduction order of a series of frame images constituting a moving image. An image processing apparatus according to any one of the above. 前記記憶媒体に格納された画像情報を解析し、各画像情報に対応する画像が満たす特徴条件に基づいて、各画像情報を、特徴条件毎のグループに分類する分類手段と、
前記特徴条件毎のグループのうち、前記分類手段により分類された画像情報の個数が最大となるグループを決定するグループ決定手段とを備え、
前記選択条件記憶手段は、前記グループ決定手段により決定されたグループの特徴条件を、前記選択条件として記憶することを特徴とする請求項3記載の画像処理装置。
Analyzing the image information stored in the storage medium, and classifying means for classifying the image information into groups for each feature condition based on the feature conditions satisfied by the image corresponding to each image information;
A group determining unit that determines a group in which the number of pieces of image information classified by the classifying unit is maximized among the groups for each feature condition;
The image processing apparatus according to claim 3, wherein the selection condition storage unit stores the group characteristic condition determined by the group determination unit as the selection condition.
前記分類手段は、
記憶媒体に格納された動画像情報を、前記特徴条件毎のグループに分類する動画像情報分類手段と、
前記記憶媒体に格納された静止画像情報を、前記特徴条件毎のグループに分類する静止画像情報分類手段とを備え、
前記グループ決定手段は、前記複数のグループのうち、前記動画像情報分類手段により分類された動画像情報の個数と、前記静止画像情報分類手段により分類された静止画像情報の個数との合計が最大となるグループを決定することを特徴とする請求項11記載の画像処理装置。
The classification means includes
Moving image information classification means for classifying moving image information stored in a storage medium into groups for each of the feature conditions;
Still image information classification means for classifying still image information stored in the storage medium into groups for each feature condition,
The group determination means has a maximum sum of the number of moving image information classified by the moving image information classification means and the number of still image information classified by the still image information classification means among the plurality of groups. The image processing apparatus according to claim 11, wherein a group to be determined is determined.
前記動画像情報分類手段は、
前記動画像情報に対応する動画像を構成するフレーム画像のうち、最多数のフレーム画像が満たす特徴条件のグループに、その動画像情報を分類することを特徴とする請求項12記載の画像処理装置。
The moving image information classification means includes:
13. The image processing apparatus according to claim 12, wherein among the frame images constituting the moving image corresponding to the moving image information, the moving image information is classified into a group of feature conditions satisfied by the largest number of frame images. .
前記分類手段は、人物を含む人物画像であるという特徴条件に基づくグループと、風景を含む風景画像であるという特徴条件に基づくグループとのいずれかに、前記各画像情報を分類することを特徴とする請求項11から13のいずれかに記載の画像処理装置。   The classification means classifies each piece of image information into either a group based on a feature condition of being a person image including a person or a group based on a feature condition of being a landscape image including a landscape. The image processing apparatus according to claim 11.
JP2008094115A 2008-03-31 2008-03-31 Image processing device Active JP4623120B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008094115A JP4623120B2 (en) 2008-03-31 2008-03-31 Image processing device
US12/414,318 US8320717B2 (en) 2008-03-31 2009-03-30 Image processor
US13/662,920 US8588532B2 (en) 2008-03-31 2012-10-29 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008094115A JP4623120B2 (en) 2008-03-31 2008-03-31 Image processing device

Publications (2)

Publication Number Publication Date
JP2009246888A true JP2009246888A (en) 2009-10-22
JP4623120B2 JP4623120B2 (en) 2011-02-02

Family

ID=41308285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008094115A Active JP4623120B2 (en) 2008-03-31 2008-03-31 Image processing device

Country Status (1)

Country Link
JP (1) JP4623120B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017117405A (en) * 2015-12-25 2017-06-29 キヤノン株式会社 Image processing unit, program and image processing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041987A (en) * 2005-08-05 2007-02-15 Sony Corp Image processing apparatus and method, and program
JP2007058795A (en) * 2005-08-26 2007-03-08 Fujifilm Holdings Corp Apparatus, method, and program for image processing
JP2007266659A (en) * 2006-03-27 2007-10-11 Sanyo Electric Co Ltd Imaging reproducing apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041987A (en) * 2005-08-05 2007-02-15 Sony Corp Image processing apparatus and method, and program
JP2007058795A (en) * 2005-08-26 2007-03-08 Fujifilm Holdings Corp Apparatus, method, and program for image processing
JP2007266659A (en) * 2006-03-27 2007-10-11 Sanyo Electric Co Ltd Imaging reproducing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017117405A (en) * 2015-12-25 2017-06-29 キヤノン株式会社 Image processing unit, program and image processing method

Also Published As

Publication number Publication date
JP4623120B2 (en) 2011-02-02

Similar Documents

Publication Publication Date Title
JP5686673B2 (en) Image processing apparatus, image processing method, and program
JP5713279B2 (en) Image classification device, electronic album creation device, image classification method, and program
JP5034661B2 (en) Image management apparatus, image display apparatus, imaging apparatus, processing method in these, and program causing computer to execute the method
US8588532B2 (en) Image processor
JP2009237702A (en) Album creating method, program and apparatus
US8509564B2 (en) Graphic arrangement deciding method, recording medium and information processing apparatus
US8411311B2 (en) Image processor
JP4572948B2 (en) Image processing device
KR101098754B1 (en) Image processing apparatus and image processing method
US8466929B2 (en) Image processor
JP5036331B2 (en) Image processing apparatus, image processing method, and program
US7995865B2 (en) Apparatus and method for laying out images and program therefor
JP4702389B2 (en) Image processing device
JP4623120B2 (en) Image processing device
JP4760849B2 (en) Image processing device
JP2007272428A (en) Device for automatically creating electronic album
JP4932802B2 (en) Image processing apparatus, method, and program
JP4821794B2 (en) Image processing device
JP4962384B2 (en) Image processing device
JP4569658B2 (en) Image processing device
JP2012084184A (en) Album creation device, album creating method, program
JP2005077904A (en) Image display system, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100413

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101005

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101018

R150 Certificate of patent or registration of utility model

Ref document number: 4623120

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3