JP4569659B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4569659B2
JP4569659B2 JP2008094232A JP2008094232A JP4569659B2 JP 4569659 B2 JP4569659 B2 JP 4569659B2 JP 2008094232 A JP2008094232 A JP 2008094232A JP 2008094232 A JP2008094232 A JP 2008094232A JP 4569659 B2 JP4569659 B2 JP 4569659B2
Authority
JP
Japan
Prior art keywords
image
file
information
frame
still
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008094232A
Other languages
Japanese (ja)
Other versions
JP2009246897A (en
Inventor
真樹 近藤
智彦 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2008094232A priority Critical patent/JP4569659B2/en
Priority to US12/413,133 priority patent/US8687230B2/en
Publication of JP2009246897A publication Critical patent/JP2009246897A/en
Application granted granted Critical
Publication of JP4569659B2 publication Critical patent/JP4569659B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Record Information Processing For Printing (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、画像処理装置に関するものである。   The present invention relates to an image processing apparatus.

近年では、デジタルカメラを用いて動画と静止画とを撮影できるため、撮影シーンに応じて、動画と静止画とを使い分けて撮影するシーンが存在している。例えば、運動会など動きのあるシーンでは動画で撮影し、集合写真などの動きのないシーンでは静止画で撮影されている。   In recent years, since a moving image and a still image can be photographed using a digital camera, there are scenes in which a moving image and a still image are separately photographed according to the photographing scene. For example, a moving scene such as an athletic meet is shot with a moving image, and a non-moving scene such as a group photo is shot as a still picture.

また、かかるデジタルカメラで撮影した動画をフレーム単位で抽出したフレーム画像と静止画像とが混在した画像一覧を、印刷出力したり、ディスプレイに表示する装置も提案されている。例えば、次の特許文献1には、フレーム画像と静止画像とを区別可能な態様でディスプレイ7に表示するプリントシステムが記載されている。
特開2005−130254号公報(段落第「0036」、図9)
There has also been proposed an apparatus that prints out an image list in which a frame image obtained by extracting a moving image shot by a digital camera and a still image are mixed and displays the image list on a display. For example, the following Patent Document 1 describes a print system that displays a frame image and a still image on a display 7 in a distinguishable manner.
JP 2005-130254 A (paragraph “0036”, FIG. 9)

しかしながら、上述した特許文献1に記載されているプリントシステムでは、ディスプレイ7に表示するフレーム画像と、静止画とを含む画像一覧が、視覚的に統一感に欠けるものとなっていた。具体的には、デジタルカメラの動画像を構成するフレーム画像は、前記デジタルカメラのメイン機能である静止画像に比べ、画像サイズが小さいものであった。また、動画は時間が継続するため、撮影した時間において撮影条件を改善するためのフラッシュ撮影や、ISO感度、F値、ホワイトバランス等の調整方法が静止画像と異なる。例えば、撮影しながら屋内から屋外へ移動するなど、撮影継続中に撮影条件が変化すると、ホワイトトバランス等が適応するまでの期間において動画は色かぶりするため、そのフレーム画像は静止画像に比べて色かぶりしている傾向にあった。その結果、フレーム画像と、静止画像とが混在する画像一覧では、フレーム画像と、静止画像との間において、視覚的な統一感に欠け、画像一覧が見難いという問題点があった。   However, in the print system described in Patent Document 1 described above, the image list including the frame images displayed on the display 7 and the still images is visually lacking in uniformity. Specifically, the frame image constituting the moving image of the digital camera has a smaller image size than the still image which is the main function of the digital camera. In addition, since moving images continue for a long time, flash shooting for improving shooting conditions at the time of shooting and adjustment methods such as ISO sensitivity, F value, and white balance are different from those for still images. For example, if the shooting conditions change while shooting, such as moving from indoors to outdoors while shooting, the video will cast color during the period until white balance is applied. There was a tendency to cast color. As a result, in the image list in which the frame image and the still image are mixed, there is a problem that the frame image and the still image lack visual uniformity and the image list is difficult to see.

本発明は、上記の問題点を解決するためになされたものであり、動画から抽出されるフレーム画像と、静止画像とが混在する画像一覧であって、フレーム画像と静止画像との間で視覚的な統一感が確保されている画像一覧を出力させることができる画像処理装置を提供することを目的としている。   The present invention has been made to solve the above-described problems, and is an image list in which frame images extracted from a moving image and still images are mixed, and is visually displayed between the frame images and the still images. An object of the present invention is to provide an image processing apparatus capable of outputting an image list in which a sense of unity is ensured.

この目的を達成するために、請求項1記載の画像処理装置は、1以上の静止画像ファイルと、1以上の動画像ファイルとを取得する取得手段と、その取得手段によって取得された動画像ファイルから1以上のフレーム画像を抽出する抽出手段と、記取得手段によって取得された静止画像ファイルおよび動画像ファイルのうち、静止画像ファイルの静止画像の画像特徴をあらわす特徴量を、前記取得手段により取得された1以上の静止画像ファイルそれぞれについて算出する画像特徴量算出手段と、その画像特徴量算出手段によって算出された1以上の静止画像に対応する1以上の特徴量から基準となる基準特徴量を算出する基準特徴量算出手段と、前記1以上のフレーム画像の各々のフレーム画像の特徴量と、前記1以上の静止画像の各々の静止画像の特徴量とを、前記基準特徴量算出手段によって算出された基準特徴量に一致させるように画像を補正する画像補正手段と、その画像補正手段によって補正された前記フレーム画像と、前記静止画像とを、同一出力面上に出力させる出力制御手段と、を備えている。
In order to achieve this object, the image processing apparatus according to claim 1 is configured to acquire one or more still image files and one or more moving image files, and a moving image file acquired by the acquiring unit. 1 and extracting means for extracting the above frame images, among the pre SL obtained by the obtaining unit still image files and moving image files, a feature amount representing an image feature of the still image picture of quiescent image file from the an image feature quantity calculating means for calculating for each one or more still image files acquired by the acquisition means, and one or more feature quantity or al criteria corresponding to one or more still image calculated by the image feature quantity calculating means Each of the one or more still images, the reference feature amount calculating means for calculating the reference feature amount, the feature amount of each of the one or more frame images, An image correcting unit that corrects an image so that a feature amount of a still image matches the reference feature amount calculated by the reference feature amount calculating unit, the frame image corrected by the image correcting unit, and the still image Output control means for outputting an image on the same output surface.

請求項記載の画像処理装置は、請求項1記載の画像処理装置において、前記画像特徴量算出手段は、前記特徴量として、画像の色に関する情報を示す色情報と画像の大きさに関する情報を示すサイズ情報とのうち、少なくとも一方を算出し、前記基準特徴量算出手段は、上記画像特徴量算出手段によって得られた特徴量から基準となる基準特徴量を算出し、前記画像補正手段は、前記1以上のフレーム画像の各々のフレーム画像の特徴量と、前記1以上の静止画像の各々の静止画像の特徴量とを、前記基準特徴量算出手段で算出された基準特徴量に一致させるように画像補正する。
Information claim 2 image processing apparatus, wherein in the image processing apparatus according to claim 1, wherein the image feature quantity calculating means, as the feature quantity, related to the size of the color information and the image showing the information about the colors of the image At least one of the size information indicating the reference feature amount, the reference feature amount calculating unit calculates a reference feature amount serving as a reference from the feature amount obtained by the image feature amount calculating unit, and the image correcting unit The feature amount of each frame image of the one or more frame images and the feature amount of each still image of the one or more still images are matched with the reference feature amount calculated by the reference feature amount calculating means. Correct the image as follows.

請求項記載の画像処理装置は、請求項2に記載の画像処理装置において、前記色情報は、輝度を示す輝度情報、彩度を示す彩度情報、色相を示す色相情報のうち、何れか一以上である。
The image processing apparatus according to claim 3, wherein, in the image processing apparatus according to claim 2, wherein the color information, luminance information indicating luminance, saturation information indicating the saturation, of the color information indicating a color, either One or more.

請求項記載の画像処理装置は、請求項2に記載の画像処理装置において、前記サイズ情報は、画像の幅を示す幅情報、画像の高さを示す高さ情報、画像のアスペクト比を示すアスペクト比情報である。
The image processing device according to claim 4 is the image processing device according to claim 2 , wherein the size information indicates width information indicating the width of the image, height information indicating the height of the image, and an aspect ratio of the image. Aspect ratio information.

請求項記載の画像処理装置は、請求項1からのいずれかに記載の画像処理装置において、記録用紙に画像を記録する記録手段を備え、前記出力制御手段は、前記画像補正手段によって補正された前記フレーム画像と、前記静止画像とを、前記記録手段によって前記記録用紙の同一紙面上に記録させる。
請求項6記載の画像処理装置は、請求項1から5のいずれかに記載の画像処理装置において、前記取得手段は、複数の静止画像ファイルと、1以上の動画像ファイルとを取得し、前記画像特徴量算出手段は、前記取得手段により取得したすべての静止画像ファイルの静止画像の画像特徴をあらわす特徴量をそれぞれ算出し、前記基準特徴量算出手段は、前記画像特徴量算出手段により算出されたすべての静止画像に対応する複数の特徴量から、1つの基準特徴量を算出することを特徴とする。
請求項7記載の画像処理装置は、請求項6に記載の画像処理装置において、前記基準特徴量算出手段は、前記画像特徴量算出手段により算出された各々の静止画像の画像特徴をあらわす特徴量により求められる平均値を、基準特徴量として算出することを特徴とする請求項6に記載の画像処理装置。
請求項8記載の画像処理装置は、請求項1から7のいずれかに記載の画像処理装置において、前記画像特徴量算出手段は、前記取得手段によって取得されたファイルが静止画像ファイルの場合にその静止画像ファイルにおける静止画像の画像特徴をあらわす特徴量を算出し、前記取得手段によって取得されたファイルが動画像ファイルの場合にその動画像ファイルから抽出されるフレーム画像の画像特徴をあらわす特徴量を算出しないことを特徴とする。
The image processing apparatus according to claim 5 is the image processing apparatus according to any one of claims 1 to 4 , further comprising recording means for recording an image on a recording sheet, wherein the output control means is corrected by the image correction means. The recorded frame image and the still image are recorded on the same paper surface of the recording paper by the recording means.
The image processing apparatus according to claim 6 is the image processing apparatus according to any one of claims 1 to 5, wherein the acquisition unit acquires a plurality of still image files and one or more moving image files. The image feature amount calculating unit calculates feature amounts representing the image features of still images of all the still image files acquired by the acquiring unit, and the reference feature amount calculating unit is calculated by the image feature amount calculating unit. One reference feature value is calculated from a plurality of feature values corresponding to all still images.
The image processing device according to claim 7 is the image processing device according to claim 6, wherein the reference feature value calculating unit represents an image feature of each still image calculated by the image feature value calculating unit. The image processing apparatus according to claim 6, wherein an average value obtained by the step is calculated as a reference feature amount.
The image processing device according to claim 8 is the image processing device according to any one of claims 1 to 7, wherein the image feature amount calculation unit is configured to determine whether the file acquired by the acquisition unit is a still image file. A feature amount that represents an image feature of a still image in a still image file is calculated, and a feature amount that represents an image feature of a frame image extracted from the moving image file when the file acquired by the acquisition unit is a moving image file. It is characterized by not calculating.

請求項1記載の画像処理装置によれば、フレーム画像と、各静止画像とは、その特徴量が基準特徴量に一致した状態で同一出力面上に出力される。従って、フレーム画像と、静止画像とが混在する画像一覧であって、フレーム画像と静止画像との間で視覚的な統一感が確保されている画像一覧を出力させることができるという効果がある。
According to the image processing apparatus of the first aspect, each frame image and each still image are output on the same output surface in a state in which the feature amount matches the reference feature amount. Therefore, there is an effect that it is possible to output an image list in which a frame image and a still image are mixed and an image list in which visual unification is ensured between the frame image and the still image.

また、基準特徴量算出手段は、以上の静止画像に対応する1以上の特徴量から基準特徴量を算出し、画像補正手段は、前記1以上のフレーム画像の各々のフレーム画像の特徴量を、前記基準特徴量に一致させるように画像補正する。よって、フレーム画像は静止画像に比べサイズが小さかったり、色かぶりしている傾向にあるものの、フレーム画像の特徴量を、静止画像の特徴量に一致させることで、かかるサイズの不一致や色かぶりが解消される。よって、フレーム画像と、静止画との間で、視覚的な統一感が高品質に確保されている画像一覧を出力させることができるという効果がある。
The reference feature amount calculating means calculates at least one reference feature quantity from the feature quantity corresponding to one or more still images, the image correcting means, a feature amount of each frame image of the one or more frame images The image is corrected so as to match the reference feature amount. Therefore, although frame images tend to be smaller in size or have a color cast compared to still images, matching the feature values of the frame image with the feature values of the still image can reduce the size mismatch or color cast. It will be resolved. Therefore, there is an effect that it is possible to output an image list in which visual unification is ensured with high quality between the frame image and the still image.

請求項記載の画像処理装置によれば、請求項に記載の画像処理装置の奏する効果に加え、画像の色に関する情報を示す色情報と画像の大きさに関する情報を示すサイズ情報とのうち少なくとも一方が、各フレーム画像の特徴量と、各静止画像の特徴量として算出され、その少なくとも一方の特徴量が互いに一致するように補正される。よって、フレーム画像と、静止画との間で色、または、大きさの少なくとも一方に関して、視覚的な統一感が確保されている画像一覧を出力させることができるという効果がある。
According to the image processing apparatus according to claim 2, wherein, in addition to the effects of the image processing apparatus according to claim 1, of the size information indicating the information on the size of the color information and the image showing the information about the colors of the image At least one is calculated as a feature amount of each frame image and a feature amount of each still image, and is corrected so that at least one of the feature amounts coincides with each other. Therefore, there is an effect that it is possible to output an image list in which visual unification is ensured with respect to at least one of color and size between the frame image and the still image.

請求項記載の画像処理装置によれば、請求項に記載の画像処理装置の奏する効果に加え、色情報は、輝度を示す輝度情報、彩度を示す彩度情報、色相を示す色相情報のうち、何れか一以上であるので、フレーム画像と、静止画との間で輝度、彩度、色相のうち、いずれか一以上に関して、視覚的な統一感が確保されている画像一覧を出力させることができるという効果がある。
According to the image processing apparatus according to claim 3, wherein, in addition to the effects of the image processing apparatus according to claim 2, color information, luminance information indicating luminance, saturation information indicating the saturation, hue information indicating a hue Output a list of images that ensure a visual sense of uniformity in terms of one or more of luminance, saturation, and hue between the frame image and the still image. There is an effect that can be made.

請求項記載の画像処理装置によれば、請求項に記載の画像処理装置の奏する効果に加え、サイズ情報は、画像の幅を示す幅情報、画像の高さを示す高さ情報、画像のアスペクト比を示すアスペクト比情報であるので、フレーム画像と、静止画との間で、その大きさに関して、より高精度に視覚的な統一感が確保されている画像一覧を出力させることができるという効果がある。
According to the image processing device of claim 4 , in addition to the effect produced by the image processing device of claim 2 , the size information includes width information indicating the width of the image, height information indicating the height of the image, Since the aspect ratio information indicates the aspect ratio of the image, it is possible to output a list of images in which a visual unification feeling is ensured with higher accuracy between the frame image and the still image. There is an effect.

請求項記載の画像処理装置によれば、請求項1からのいずれかに記載の画像処理装置の奏する効果に加え、出力制御手段は、画像補正手段によって補正されたフレーム画像と、静止画像とを記録手段によって記録用紙の同一紙面上に記録させるので、フレーム画像と、静止画との間で、視覚的な統一感が確保されている画像一覧が記録された記録用紙を出力させることができるという効果がある。
According to the image processing device of the fifth aspect , in addition to the effect produced by the image processing device according to any one of the first to fourth aspects, the output control means includes a frame image corrected by the image correction means, and a still image. Are recorded on the same surface of the recording paper by the recording means, so that a recording paper on which an image list in which visual unification is ensured between the frame image and the still image is recorded can be output. There is an effect that can be done.

以下、本発明の好ましい実施形態について、添付図面を参照して説明する。図1は、本発明の画像処理装置の一実施形態としての多機能周辺装置(以下、「MFP(Multi Function Peripheral)」と称す)1の外観構成を示した斜視図である。MFP1は、特に、動画から抽出されるフレーム画像と、静止画像とが混在する画像一覧であって、フレーム画像と静止画像との間で視覚的な統一感が確保されている画像一覧を出力させることができる装置である。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a perspective view showing an external configuration of a multifunction peripheral device (hereinafter, referred to as “MFP (Multi Function Peripheral)”) 1 as an embodiment of an image processing apparatus of the present invention. In particular, the MFP 1 outputs an image list in which a frame image extracted from a moving image and a still image are mixed, and an image list in which visual unification is ensured between the frame image and the still image is output. It is a device that can.

このMFP1は、フォトキャプチャー機能、コピー機能、スキャナ機能、メディアキャプチャ機能などの各種機能を有する多機能周辺装置である。メディアキャプチャ機能では、後述するスロット部6に装着されたメディアカードから画像ファイルを読み出して印刷出力する処理、メディアカードから読み出した画像ファイルに対応した画像をLCD5に表示出力する処理、スキャナ機能により読み取られた画像データをメディアカードに保存する処理などを実行できる。   The MFP 1 is a multifunction peripheral device having various functions such as a photo capture function, a copy function, a scanner function, and a media capture function. In the media capture function, a process for reading out an image file from a media card mounted in a slot unit 6 to be described later and printing it out, a process for displaying and outputting an image corresponding to the image file read out from the media card on the LCD 5, and a scan function The stored image data can be stored in a media card.

MFP1の上部には、原稿を読み取るためのスキャナ2が配置されている。また、筐体内部には記録用紙に画像を印刷する装置として、所謂インクジェットプリンタで構成されたプリンタ3が内蔵されている。   A scanner 2 for reading a document is arranged on the top of the MFP 1. In addition, a printer 3 composed of a so-called inkjet printer is built in the housing as a device for printing an image on recording paper.

また、MFP1の前面には、スロット部6が設けられている。このスロット部6には、コンパクトフラッシュ(登録商標)、SDメモリカードなどの各種メディアカードを直接挿入できるカードスロットが設けられている。   A slot 6 is provided on the front surface of the MFP 1. The slot portion 6 is provided with a card slot into which various media cards such as a compact flash (registered trademark) and an SD memory card can be directly inserted.

また、原稿カバー体の前方には、操作パネルが設けられており、複数のキーやタッチパネルで構成される操作部4、およびLCD5を具備する。MFP1は、LCD5に操作手順や実行中の処理の状態を表示させると共に、操作部4の操作に対応する情報を表示させる。   An operation panel is provided in front of the document cover body, and includes an operation unit 4 including a plurality of keys and a touch panel, and an LCD 5. The MFP 1 displays the operation procedure and the status of the process being executed on the LCD 5 and also displays information corresponding to the operation of the operation unit 4.

図2を参照して、MFP1の電気的構成について説明する。図2は、MFP1の電気的構成を示すブロック図である。MFP1は、CPU11、ROM12、RAM13、EEPROM14、スキャナ2、プリンタ3、操作部4、LCD5、スロット部6を主に有している。   The electrical configuration of the MFP 1 will be described with reference to FIG. FIG. 2 is a block diagram showing an electrical configuration of the MFP 1. The MFP 1 mainly includes a CPU 11, a ROM 12, a RAM 13, an EEPROM 14, a scanner 2, a printer 3, an operation unit 4, an LCD 5, and a slot unit 6.

このうち、CPU11、ROM12、RAM13、EEPROM14は、バスライン26を介して互いに接続されている。また、スキャナ2、プリンタ3、操作部4、LCD5、スロット部6、バスライン26は、入出力ポート27を介して互いに接続されている。   Among these, the CPU 11, ROM 12, RAM 13, and EEPROM 14 are connected to each other via a bus line 26. The scanner 2, the printer 3, the operation unit 4, the LCD 5, the slot unit 6, and the bus line 26 are connected to each other via an input / output port 27.

CPU11は、ROM12、RAM13やEEPROM14に記憶される固定値やプログラムに従って、MFP1が有している各機能の制御や、入出力ポート27と接続された各部を制御するものである。   The CPU 11 controls each function of the MFP 1 and controls each unit connected to the input / output port 27 according to fixed values and programs stored in the ROM 12, RAM 13, and EEPROM 14.

ROM12は、CPU11によって実行される制御プログラム12aを記憶すると共に、電源遮断後も内容を保持可能な不揮発性のメモリである。制御プログラム12aは、後述する図7〜図11にフローチャートで示す処理を実行するためのプログラムを含んでいる。   The ROM 12 is a non-volatile memory that stores the control program 12a executed by the CPU 11 and can retain the contents even after the power is turned off. The control program 12a includes a program for executing processing shown in flowcharts in FIGS.

ROM12には、さらに横方向画像配置数記憶領域12b、1ページ画像配置数記憶領域12cが設けられている。   The ROM 12 further includes a horizontal image arrangement number storage area 12b and a one-page image arrangement number storage area 12c.

横方向画像配置数記憶領域12bは、「横方向の配置枚数」を記憶する領域である。「横方向の配置枚数」は、画像一覧において、横一列に並べて配置可能なインデックス画像の数を示す値である。なお、本実施形態のMFP1には、予め印刷用紙サイズ(L版、A4、Letterなど)、および印刷モード(高精細、普通、高速など)に応じて、複数種類の「横方向の配置枚数」が記憶されており、後述する配置印刷処理(図10,図11参照)では、この中から適した値を読み出して用いるものとして説明する。   The horizontal image arrangement number storage area 12b is an area for storing “the number of horizontal arrangements”. “Number of sheets arranged in the horizontal direction” is a value indicating the number of index images that can be arranged in a horizontal row in the image list. Note that the MFP 1 according to the present embodiment includes a plurality of types of “horizontal arrangement number” according to the print paper size (L, A4, Letter, etc.) and the print mode (high definition, normal, high speed, etc.) in advance. In the arrangement printing process (see FIGS. 10 and 11), which will be described later, an appropriate value is read out and used.

1ページ画像配置数記憶領域12cは、「1ページ内画像配置数」を記憶する領域である。「1ページ内画像配置数」は、1ページ分の記録用紙に形成する画像一覧に、最大で何個分のインデックス画像を配置可能であるかを示す値である。なお、本実施形態においては、予め印刷用紙サイズおよび印刷モードに応じて、複数種類の「1ページ内画像配置数」が記憶されており、後述する配置印刷処理(図10,図11参照)では、この中から適した値を読み出して用いるものとして説明する。   The one-page image arrangement number storage area 12c is an area for storing “the number of image arrangements in one page”. “Number of images per page” is a value indicating the maximum number of index images that can be arranged in an image list formed on one page of recording paper. In this embodiment, a plurality of types of “number of images per page” are stored in advance according to the print paper size and print mode, and in the layout print processing (see FIGS. 10 and 11) described later. In the following description, a suitable value is read out and used.

RAM13は、MFP1の各操作の実行時に各種のデータを一時的に記憶するためのメモリであり、抽出フレーム数記憶領域13a、処理ファイル数記憶領域13b、処理画像総数記憶領域13c、生成ページ数記憶領域13d、グループ情報記憶領域13g、ファイル情報記憶領域13h、配置情報記憶領域13i、フレーム画像情報記憶領域13j、デコードデータ記憶領域13k、カウンタ記憶領域13m、識別画像記憶領域13nが設けられている。   The RAM 13 is a memory for temporarily storing various data when each operation of the MFP 1 is executed. The extracted frame number storage area 13a, the processed file number storage area 13b, the processed image total number storage area 13c, and the generated page number storage. An area 13d, a group information storage area 13g, a file information storage area 13h, an arrangement information storage area 13i, a frame image information storage area 13j, a decoded data storage area 13k, a counter storage area 13m, and an identification image storage area 13n are provided.

ここで、本実施形態で用いる用語の意味を説明する。本実施形態において、「動画像」とは、多数のフレーム画像を切り替え表示することにより再生される画像を意味している。「動画像ファイル」は、動画像を再生するためのファイルであって、例えば、AVI動画ファイル、クイックタイム動画ファイルなどで構成される。ただし、動画像を再生可能な情報であれば、どのような形式のファイルであっても差し支えない。また、本実施形態において、「フレーム画像情報」は、動画像を構成する1のフレーム画像に対応した情報を意味している。   Here, the meaning of terms used in the present embodiment will be described. In the present embodiment, “moving image” means an image reproduced by switching and displaying a large number of frame images. The “moving image file” is a file for reproducing a moving image, and includes, for example, an AVI moving image file, a quick time moving image file, and the like. However, any information file can be used as long as it can reproduce a moving image. In the present embodiment, “frame image information” means information corresponding to one frame image constituting a moving image.

抽出フレーム数記憶領域13aは、「フレーム画像抽出枚数」を記憶する領域である。「フレーム画像抽出枚数」は、1の動画像ファイル当たり、何枚分のフレーム画像に対応したフレーム画像情報を抽出するかを示す値である。例えば、「フレーム画像抽出枚数」として「5」が記憶されている場合、MFP1は、メディアカードに格納された動画像ファイルの各々について、1の動画像ファイル当たり、5枚のフレーム画像に対応したフレーム画像情報を抽出し、その抽出したフレーム画像情報に基づいて、1の動画像ファイル当たり、5個のインデックス画像を、画像一覧に配置する。   The extracted frame number storage area 13a is an area for storing “the number of frame images extracted”. The “number of frame image extractions” is a value indicating how many frame images corresponding to one moving image file are to be extracted. For example, when “5” is stored as the “number of extracted frame images”, the MFP 1 corresponds to five frame images per moving image file for each moving image file stored in the media card. Frame image information is extracted, and five index images per moving image file are arranged in the image list based on the extracted frame image information.

本実施形態のMFP1は、ユーザが操作部4から入力した任意の値を「フレーム画像抽出枚数」として、抽出フレーム数記憶領域13aに記憶するものとして説明するが、「フレーム画像抽出枚数」が予めROM12などに記憶されていたり、動画像ファイルのサイズが大であるほど、「フレーム画像抽出枚数」が大となるように予め定められた関係に従って、「フレーム画像抽出枚数」が自動的に決定されても良い。   The MFP 1 according to the present embodiment will be described assuming that an arbitrary value input by the user from the operation unit 4 is stored as the “frame image extraction number” in the extracted frame number storage area 13a. The “frame image extraction number” is automatically determined in accordance with a predetermined relationship so that the “frame image extraction number” increases as the size of the moving image file is stored in the ROM 12 or the like. May be.

処理ファイル数記憶領域13bは、「総処理ファイル数」を記憶する領域である。「総処理ファイル数」は、メディアカードに格納される静止画像ファイルと動画像ファイルの合計を示す値である。   The processing file number storage area 13b is an area for storing the “total number of processing files”. The “total number of processed files” is a value indicating the total of still image files and moving image files stored in the media card.

処理画像総数記憶領域13cは、「処理画像総数」を記憶する領域である。「処理画像総数」は、画像一覧内に形成するインデックス画像の総数を示す値である。生成ページ数記憶領域13dは、「生成ページ数」を記憶する領域である。「生成ページ数」は、後述する配置印刷処理(図10、図11)の実行により出力する画像一覧の総ページ数を示す値である。   The processed image total number storage area 13c is an area for storing “total number of processed images”. The “total number of processed images” is a value indicating the total number of index images formed in the image list. The generated page number storage area 13d is an area for storing “number of generated pages”. The “number of generated pages” is a value indicating the total number of pages of the image list output by executing the layout printing process (FIGS. 10 and 11) described later.

グループ情報記憶領域13g、ファイル情報記憶領域13h、配置情報記憶領域13iについては、図4から図6を参照して後述する。   The group information storage area 13g, the file information storage area 13h, and the arrangement information storage area 13i will be described later with reference to FIGS.

フレーム画像情報記憶領域13jは、動画像ファイルから抽出されるフレーム画像情報を格納する領域である。デコードデータ記憶領域13kは、フレーム画像情報をデコード処理した結果、または、静止画像ファイルをデコード処理した結果を記憶する領域である。カウンタ記憶領域13mは、各種カウンタを記憶する領域である。   The frame image information storage area 13j is an area for storing frame image information extracted from the moving image file. The decoded data storage area 13k is an area for storing a result of decoding the frame image information or a result of decoding the still image file. The counter storage area 13m is an area for storing various counters.

基準特徴量記憶領域13nは、一以上の静止画像の特徴量(画像サイズ、画像の色)から基準として算出された基準特徴量を格納する領域である。この基準特徴量に基づいて、画像一覧として出力される各インデックス画像が補正されるので、画像一覧に含まれる各インクデックス画像が視覚的に統一される。   The reference feature quantity storage area 13n is an area for storing a reference feature quantity calculated as a reference from one or more still picture feature quantities (image size, image color). Since each index image output as an image list is corrected based on the reference feature amount, each index image included in the image list is visually unified.

図3(a)は、MFP1が、1ページの記録用紙に印刷出力する画像一覧20の一例を示す図である。MFP1は、メディアカードに静止画像ファイルと動画像ファイルとが混在している場合、図3(a)に示すように、フレーム画像情報に対応するインデックス画像21a,21b,21cと、静止画像ファイルに対応するインデックス画像22とが混在した画像一覧20を出力する。よって、ユーザは、動画像ファイルの内容を示すインデックス画像21a,21b,21cと、静止画像ファイルの内容を示すインデックス画像22とを、1ページの画像一覧20によって、一度に視認することができ、利便性が高い。   FIG. 3A illustrates an example of the image list 20 that the MFP 1 prints out on one page of recording paper. When the still image file and the moving image file are mixed on the media card, the MFP 1 converts the index image 21a, 21b, 21c corresponding to the frame image information and the still image file as shown in FIG. An image list 20 in which corresponding index images 22 are mixed is output. Therefore, the user can visually recognize the index images 21a, 21b, and 21c indicating the contents of the moving image file and the index image 22 indicating the contents of the still image file at a time using the one-page image list 20. Convenience is high.

一方、図3(b)は、本願発明とは異なる装置によって1ページの記録用紙に印刷出力する画像一覧200を示す図である。両者は、同じ動画像ファイルから抽出したインデックス画像21a,21b,21cおよび同じ静止画像ファイルから抽出したインデックス画像22を1ページの記録用紙に印刷出力したものである。   On the other hand, FIG. 3B is a diagram showing an image list 200 printed out on one page of recording paper by an apparatus different from the present invention. In both cases, the index images 21a, 21b, and 21c extracted from the same moving image file and the index image 22 extracted from the same still image file are printed out on one page of recording paper.

よって、図3(b)に示す画像一覧200にも、図3(a)に示す画像一覧20と同様に、第1の動画像ファイルから抽出される3つのインデックス画像21aと、第2の動画像ファイルから抽出される2つのインデックス画像21bと、第3の動画像ファイルから抽出される3つのインデックス画像21cと、3つの静止画像ファイルから抽出される3つのインデックス画像22とが含まれている。   Therefore, in the image list 200 shown in FIG. 3B, as in the image list 20 shown in FIG. 3A, the three index images 21a extracted from the first moving image file and the second moving image are displayed. Two index images 21b extracted from the image file, three index images 21c extracted from the third moving image file, and three index images 22 extracted from the three still image files are included. .

しかし、図3(b)に示す画像一覧200では、動画像ファイルから抽出された各インデックス画像21a,21b,21cと、静止画像ファイルから抽出されたインデックス画像22とでは、その大きさ(サイズ)が異なり、また、各インデックス画像の色が同じ色に統一されていない(図3(b)に示す各インデックス画像21a,21b,21c内のハッチング模様や散点模様は、各インデックス画像21a,21b,21cの各々が別々の色かぶりをしている状態を示している。)これは、動画ではフラッシュ撮影、ISO感度、F値、ホワイトバランス等の調整方法が異なる等の理由により、動画像ファイルから抽出される各インデックス画像21a,21b,21cは、静止画像に比べて色かぶりする傾向にあるためである。   However, in the image list 200 shown in FIG. 3B, the size (size) of each index image 21a, 21b, 21c extracted from the moving image file and the index image 22 extracted from the still image file. In addition, the colors of the index images are not unified to the same color (the hatching pattern and the dot pattern in the index images 21a, 21b, and 21c shown in FIG. 3B are the index images 21a and 21b). , 21c are in different color casts.) This is because a moving image file is used for a moving image file because the adjustment methods such as flash photography, ISO sensitivity, F value, and white balance are different. This is because the index images 21a, 21b, and 21c extracted from the image tend to have a color cast as compared with still images.

その結果、図3(b)の画像一覧200に示すように、動画像ファイルから抽出される各インデックス画像21a,21b,21cと、静止画像ファイルから抽出されるインデックス画像22とが混在する場合には、両者の間で、視覚的な統一感に欠け、画像一覧200が見難いものになっていた。   As a result, as shown in the image list 200 in FIG. 3B, when the index images 21a, 21b, and 21c extracted from the moving image file and the index image 22 extracted from the still image file coexist. The image list 200 is difficult to see due to lack of visual unity between the two.

一方、図3(a)に示す画像一覧20では、動画像ファイルから抽出された各インデックス画像21a,21b,21cと、静止画像ファイルから抽出されたインデックス画像22とが、全て、同じ大きさ(サイズ)であって、各インデックス画像の色が同じ色に統一されている。   On the other hand, in the image list 20 shown in FIG. 3A, the index images 21a, 21b, and 21c extracted from the moving image file and the index image 22 extracted from the still image file are all the same size ( Size), and the colors of the index images are unified to the same color.

即ち、MFP1は、動画像ファイルから抽出される各インデックス画像21a,21b,21cと、静止画像ファイルから抽出されるインデックス画像22とが混在する画像一覧20を印刷出力する場合、後述する方法で各インデックス画像21a,21b,21c,22を補正し、各インデックス画像21a,21b,21c,22間で視覚的な統一感が確保されている画像一覧20を出力させることができる。   That is, when the MFP 1 prints out the image list 20 including the index images 21a, 21b, and 21c extracted from the moving image file and the index image 22 extracted from the still image file, The index images 21a, 21b, 21c, and 22 can be corrected, and the image list 20 in which a visual sense of uniformity is secured between the index images 21a, 21b, 21c, and 22 can be output.

また、MFP1は、インデックス画像21a,21b,21c,22を含む画像群が、撮影日時に従った順序で配列されるように、インデックス画像21a,21b,21c,22の各々について配置順序を決定し、その決定した配置順序でインデックス画像21a,21b,21c,22を配列した画像一覧20を出力する。   Further, the MFP 1 determines the arrangement order for each of the index images 21a, 21b, 21c, and 22 so that the image group including the index images 21a, 21b, 21c, and 22 is arranged in the order according to the shooting date and time. The image list 20 in which the index images 21a, 21b, 21c, and 22 are arranged in the determined arrangement order is output.

図3(a)に示す画像一覧20はその一例であるが、例えば、画像一覧20の上段から下段へ向かうにつれて、且つ、左側から右側へ向かうにつれて撮影日時が新しくなるような順序で、インデックス画像21a,21b,21c,22が配列するように配置順序を決定する。   The image list 20 shown in FIG. 3A is an example. For example, the index images are arranged in such an order that the shooting date and time becomes newer from the top to the bottom of the image list 20 and from the left to the right. The arrangement order is determined so that 21a, 21b, 21c, and 22 are arranged.

詳細な説明は後述するが、MFP1は、静止画像ファイルに基づくインデックス画像22であるか、動画像ファイルに基づくインデックス画像21a,21b,21cであるかに関わらず、撮影日時のみを条件としてソートした配置順序を決定し、その配置順序でインデックス画像21a,21b,21c,22を配列した画像一覧20を出力する。よって、例えば、動画像で撮影したか、静止画像で撮影したかをユーザが覚えていない場合であっても、撮影日時がかなり古いものであるのか、あるいは最近のものであるのかなど、撮影日時を手がかりに、目的とする画像を迅速に探し当てることができる。   Although detailed description will be given later, the MFP 1 sorts only on the shooting date and time, regardless of whether the index image 22 is based on a still image file or the index images 21a, 21b, and 21c based on a moving image file. The arrangement order is determined, and an image list 20 in which the index images 21a, 21b, 21c, and 22 are arranged in the arrangement order is output. Therefore, for example, even if the user does not remember whether the movie was shot or shot as a still image, the shooting date / time such as whether the shooting date / time is quite old or recent This makes it possible to quickly find the target image.

また、詳細は後述するが、本実施形態のMFP1は、インデックス画像21a,21b,21c,22を撮影日毎のグループに分類し、グループ毎に画像一覧20を出力するように構成されている。よって、例えば、画像一覧20のヘッダ部分に、グループの撮影日23が印刷されても良い。   As will be described in detail later, the MFP 1 according to the present embodiment is configured to classify the index images 21a, 21b, 21c, and 22 into groups for each shooting date and output an image list 20 for each group. Therefore, for example, the shooting date 23 of the group may be printed in the header portion of the image list 20.

図4は、ファイル情報記憶領域13hの構成を模式的に示す図である。図4に示すように、ファイル情報記憶領域13hには、ファイルIDを記憶するファイルID記憶領域201、ファイル名を記憶するファイル名記憶領域202、ファイル種類を記憶するファイル種類記憶領域203、抽出フレーム数を記憶する抽出フレーム数記憶領域204、総フレーム数を記憶する総フレーム数記憶領域205、fps情報を記憶するfps情報記憶領域206、ファイル日付情報を記憶するファイル日付情報記憶領域207、ファイル時間情報を記憶するファイル時間情報記憶領域208、ファイル識別情報記憶領域209が設けられ、ファイル名、ファイル種類、抽出フレーム数、fps情報、ファイル日付情報、ファイル時間情報、ファイル識別情報からなるファイル情報200を、そのファイル情報200を管理するファイルIDに対応付けて記憶する。MFP1は、画像一覧20(図3参照)におけるインデックス画像21a,21b,21c,22の配置順序を決定するための準備処理として、メディアカード内に格納された静止画像ファイルまたは動画像ファイルの各々についてファイル情報200を作成し、ファイル情報記憶領域13hに格納する。   FIG. 4 is a diagram schematically showing the configuration of the file information storage area 13h. As shown in FIG. 4, the file information storage area 13h includes a file ID storage area 201 for storing the file ID, a file name storage area 202 for storing the file name, a file type storage area 203 for storing the file type, and an extraction frame. Extracted frame number storage area 204 for storing the number of frames, total frame number storage area 205 for storing the total number of frames, fps information storage area 206 for storing fps information, file date information storage area 207 for storing file date information, file time A file time information storage area 208 and a file identification information storage area 209 for storing information are provided, and file information 200 including a file name, file type, number of extracted frames, fps information, file date information, file time information, and file identification information. The file information 200 It is stored in association with the file ID to be. As a preparatory process for determining the arrangement order of the index images 21a, 21b, 21c, and 22 in the image list 20 (see FIG. 3), the MFP 1 performs each of the still image file or the moving image file stored in the media card. File information 200 is created and stored in the file information storage area 13h.

ファイルID記憶領域201は、ファイルIDを記憶する領域である。ファイル名記憶領域202は、静止画像ファイルまたは動画像ファイルのファイル名を格納する領域である。図4に示すように、各ファイル名には、拡張子が付加されている。例えば、画像ファイルがJPEGファイルである場合は拡張子「jpg」が付加され、AVI動画ファイルである場合は拡張子「avi」が付加され、クイックタイム動画ファイルである場合は拡張子「mov」が付加される。   The file ID storage area 201 is an area for storing a file ID. The file name storage area 202 is an area for storing a file name of a still image file or a moving image file. As shown in FIG. 4, an extension is added to each file name. For example, the extension “jpg” is added when the image file is a JPEG file, the extension “avi” is added when it is an AVI movie file, and the extension “mov” is added when it is a quick time movie file. Added.

ファイル種類記憶領域203は、各画像ファイルの種類(フォーマット)を示す値を格納する領域である。画像ファイルの種類は、例えば、ファイル名に付加された拡張子に基づいて判定することができる。本実施形態では、画像ファイルの形式がJPEGファイル(拡張子jpg)である場合、JPEGファイルであることを示す値「0」をファイル種類記憶領域203に格納し、画像ファイルの形式がAVI動画ファイル(拡張子avi)である場合、値「1」をファイル種類記憶領域203に格納し、画像ファイルの形式がクイックタイム動画ファイル(拡張子mov)である場合、値「2」をファイル種類記憶領域203に格納する。   The file type storage area 203 is an area for storing a value indicating the type (format) of each image file. The type of the image file can be determined based on, for example, an extension added to the file name. In the present embodiment, when the image file format is a JPEG file (extension jpg), a value “0” indicating that it is a JPEG file is stored in the file type storage area 203, and the image file format is an AVI video file. In the case of (extension avi), the value “1” is stored in the file type storage area 203, and in the case where the format of the image file is a quick time video file (extension mov), the value “2” is stored in the file type storage area. 203.

なお、各画像ファイルの先頭から数バイト分に格納されている情報に基づいて画像ファイルの種類を判定することもできる。例えば、先頭から2バイトが「0xFFD8」であればJPEGファイルであると判定できるし、先頭から2バイトが「0x424D」であれば、ビットマップデータであると判定することができる。これらの情報に基づいて、画像ファイルの種類を判定しても差し支えない。   Note that the type of the image file can also be determined based on information stored in several bytes from the top of each image file. For example, if the first two bytes are “0xFFD8”, it can be determined that the file is a JPEG file. If the first two bytes are “0x424D”, it can be determined that the data is bitmap data. The type of image file may be determined based on such information.

抽出フレーム数記憶領域204は、何枚分のフレーム画像に対応したフレーム画像情報を、画像ファイルから抽出するかを示す値を記憶する領域である。静止画像ファイルの場合、抽出フレーム数記憶領域204には「1」が格納される。一方、動画像ファイルの場合、抽出フレーム数記憶領域204には、「2」以上の値が格納される。   The extracted frame number storage area 204 is an area for storing a value indicating how many frame image information corresponding to the number of frame images is to be extracted from the image file. In the case of a still image file, “1” is stored in the extracted frame number storage area 204. On the other hand, in the case of a moving image file, the extracted frame number storage area 204 stores a value of “2” or more.

総フレーム数記憶領域205は、各画像ファイルの総フレーム数を格納する領域である。動画像ファイルの場合は動画像ファイルに含まれる総フレーム数が格納され、静止画像である場合は常に1が格納される。   The total frame number storage area 205 is an area for storing the total number of frames of each image file. In the case of a moving image file, the total number of frames included in the moving image file is stored, and in the case of a still image, 1 is always stored.

fps情報記憶領域206は、各画像ファイルのfps(Frame Per Second)情報を格納する領域である。静止画像ファイルである場合には「0」が格納される。一方、動画像ファイルである場合には、例えば、1秒間に60フレーム画像が存在することを示す「60」や、1秒間に30フレーム画像が存在することを示す「30」が、このfps情報記憶領域206に格納される。   The fps information storage area 206 is an area for storing fps (Frame Per Second) information of each image file. If it is a still image file, “0” is stored. On the other hand, in the case of a moving image file, for example, “60” indicating that there are 60 frame images per second, and “30” indicating that there are 30 frame images per second include the fps information. Stored in the storage area 206.

ファイル日付情報記憶領域207は、各画像ファイルの撮影日を表すファイル日付情報を格納する領域である。例えば、撮影日「2008年1月15日」は、ファイル日付情報「20080115」として表すものとする。   The file date information storage area 207 is an area for storing file date information indicating the shooting date of each image file. For example, the shooting date “January 15, 2008” is represented as file date information “20080115”.

ファイル時間情報記憶領域208は、各画像ファイルの撮影時間を表すファイル時間情報を格納する領域である。例えば、撮影時間「12時50分45秒」は、ファイル時間情報「125045」として表すものとする。画像ファイルが動画像ファイルの場合は、撮影開始時間を表す情報が、ファイル時間情報として格納される。なお、ファイル日付情報およびファイル時間情報が、特許請求の範囲に記載の撮影日時情報に相当する。   The file time information storage area 208 is an area for storing file time information indicating the shooting time of each image file. For example, the shooting time “12:50:45” is represented as file time information “125045”. When the image file is a moving image file, information indicating the shooting start time is stored as file time information. Note that the file date information and the file time information correspond to the shooting date information described in the claims.

以降の説明では、各画像ファイルのヘッダに記述された情報を読み出してくることにより、総フレーム数、fps情報、ファイル日付情報およびファイル時間情報を取得するものとするが、他の手段により、これらの情報を取得しても良い。   In the following description, the total number of frames, fps information, file date information, and file time information are acquired by reading the information described in the header of each image file. You may acquire the information.

ファイル付加情報記憶領域209は、各画像ファイルのその他の固有情報を格納する領域である。   The file additional information storage area 209 is an area for storing other unique information of each image file.

本実施形態のMFP1は、ファイル情報記憶領域13hに格納された各画像ファイルの固有情報に基づいて、撮影日時に従った順序でインデックス画像が配列されるように、インデックス画像の配置順序を決定する。決定した配置順序を示す情報は、図5に示す配置情報記憶領域13iに格納する。   The MFP 1 according to the present embodiment determines the arrangement order of the index images so that the index images are arranged in the order according to the shooting date / time based on the unique information of each image file stored in the file information storage area 13h. . Information indicating the determined arrangement order is stored in the arrangement information storage area 13i shown in FIG.

図5は、配置情報記憶領域13iの構成を模式的に示す図である。図5に示すように、配置情報記憶領域13iは、ファイルID、グループNo、抽出フレーム番号、画像日付情報、画像時間情報、画像識別情報からなる配置情報300と、その配置情報300に対応する配置順序とを記憶する。   FIG. 5 is a diagram schematically showing the configuration of the arrangement information storage area 13i. As shown in FIG. 5, the arrangement information storage area 13 i has an arrangement information 300 including a file ID, a group number, an extracted frame number, image date information, image time information, and image identification information, and an arrangement corresponding to the arrangement information 300. Remember the order.

図5に示すように、配置情報記憶領域13iには、配置順序記憶領域301、ファイルID記憶領域302、グループNo記憶領域303、抽出フレーム番号記憶領域304、画像日付情報記憶領域305、画像時間情報記憶領域306、画像識別情報記憶領域307が設けられる。   As shown in FIG. 5, the arrangement information storage area 13i includes an arrangement order storage area 301, a file ID storage area 302, a group number storage area 303, an extracted frame number storage area 304, an image date information storage area 305, and image time information. A storage area 306 and an image identification information storage area 307 are provided.

配置情報記憶領域301は、配置順序を記憶する領域である。後述する配置印刷処理(図10,図11参照)では、配置順序に従った順序で、配置情報300が読み出され、各配置情報300で特定されるフレーム画像または静止画像のインデックス画像が、配置順序に従った順序で、画像一覧20に配列される。   The arrangement information storage area 301 is an area for storing the arrangement order. In the layout printing process (see FIGS. 10 and 11) described later, the layout information 300 is read in the order according to the layout order, and the frame image or still image index image specified by each layout information 300 is placed in the layout order. The images are arranged in the image list 20 in the order according to the order.

ファイルID記憶領域302は、ファイルIDを記憶する領域である。図4を参照して説明したように、ファイル情報記憶領域13hには、ファイルIDとファイル名とが1対1で対応付けて記憶されているので、ファイルIDから、1の画像ファイルを特定することができる。   The file ID storage area 302 is an area for storing a file ID. As described with reference to FIG. 4, since the file ID and the file name are stored in a one-to-one correspondence in the file information storage area 13h, one image file is specified from the file ID. be able to.

グループNo記憶領域303は、グループNoを記憶する領域である。なお、グループNoについては、図6を参照して後述する。   The group number storage area 303 is an area for storing the group number. The group number will be described later with reference to FIG.

抽出フレーム番号記憶領域304は、抽出フレーム番号を記憶する領域である。上述したように、1の動画像ファイルについて複数のフレーム画像情報が抽出される。よって、先頭から数えて何番目のフレーム画像情報であるかを示す情報が、「抽出フレーム番号」として、抽出フレーム番号記憶領域304に格納される。   The extracted frame number storage area 304 is an area for storing the extracted frame number. As described above, a plurality of pieces of frame image information are extracted for one moving image file. Therefore, information indicating the number of frame image information counted from the head is stored in the extracted frame number storage area 304 as “extracted frame number”.

ここで、「抽出フレーム番号」は、「総フレーム数記憶領域205」に記憶された動画像ファイルの総フレーム数と、「抽出フレーム数記憶領域13a」に記憶された抽出フレーム数と、動画像のうち何枚目に抽出されるかを表すフレーム画像抽出数カウンタ値を用いて、例えば、下記のように算出することができる。
(抽出フレーム番号)=[(フレーム画像抽出数カウンタ値−1)×(総フレーム数)÷(抽出フレーム数)]
ここで[]はガウス記号を表し、[a]はaを超えない最大の整数を表す。
Here, the “extracted frame number” includes the total number of frames of the moving image file stored in the “total frame number storage area 205”, the number of extracted frames stored in the “extracted frame number storage area 13a”, and the moving image. For example, it can be calculated as follows using a frame image extraction number counter value indicating the number of frames to be extracted.
(Extracted frame number) = [(frame image extraction number counter value−1) × (total number of frames) ÷ (number of extracted frames)]
Here, [] represents a Gaussian symbol, and [a] represents a maximum integer not exceeding a.

画像日付情報記憶領域305は、ファイルID記憶領域302に格納されたファイルIDで特定される画像ファイルの撮影日を表す画像日付情報が格納される領域である。画像時間情報記憶領域306は、撮影時間を表す画像時間情報が格納される領域である。静止画像ファイルについては、ファイル情報記憶領域13hの対応する領域に格納されたファイル時間情報が、この画像時間情報記憶領域306にコピーされる。   The image date information storage area 305 is an area in which image date information indicating the shooting date of the image file specified by the file ID stored in the file ID storage area 302 is stored. The image time information storage area 306 is an area in which image time information representing the shooting time is stored. For still image files, the file time information stored in the corresponding area of the file information storage area 13h is copied to the image time information storage area 306.

一方、動画像ファイルについては、その動画像ファイルから複数のフレーム画像情報が抽出されるので、フレーム画像情報毎に、撮影時間を表す画像時間情報を取得し、画像時間情報記憶領域306に記憶する。なお、フレーム画像情報毎の画像時間情報を算出する具体的演算例については、図7に示すフローチャートを参照して後述する。   On the other hand, for a moving image file, since a plurality of pieces of frame image information are extracted from the moving image file, image time information representing the shooting time is acquired and stored in the image time information storage area 306 for each frame image information. . A specific calculation example for calculating the image time information for each frame image information will be described later with reference to the flowchart shown in FIG.

画像特徴記憶領域307は、静止画像の特徴量が格納される領域である。本実施形態では、静止画像の特徴量として、各静止画像の大きさと、画像の色とが算出され、記憶される。この画像特徴記憶領域307に記憶されている静止画像の全部の特徴量から上述した基準特徴量が算出される。   The image feature storage area 307 is an area for storing still image feature quantities. In the present embodiment, the size of each still image and the color of the image are calculated and stored as the feature amount of the still image. The above-described reference feature value is calculated from all the feature values of the still image stored in the image feature storage area 307.

後述する配置印刷処理(図10,図11参照)では、この配置情報記憶領域13iに記憶された配置情報300に基づいて、動画像ファイルから抽出された各インデックス画像21a,21b,21cと、静止画像ファイルから抽出されたインデックス画像22とが、全て、同じ大きさ(サイズ)であって、各インデックス画像の色が同じ色に統一されている画像一覧20を印刷出力すると共に、インデックス画像が撮影日時に従った順序で配列された画像一覧20を印刷出力する。   In the layout printing process (see FIGS. 10 and 11) described later, the index images 21a, 21b, and 21c extracted from the moving image file based on the layout information 300 stored in the layout information storage area 13i, The index image 22 extracted from the image file is all printed with the same size (size), and the image list 20 in which the color of each index image is unified is the same color, and the index image is taken. The image list 20 arranged in the order according to the date and time is printed out.

さらに、本実施形態のMFP1は、インデックス画像を撮影日毎のグループに分類し、グループ毎に画像一覧20を印刷出力する。例えば、「2008年1月15日」に撮影した画像ファイルと、「2008年1月20日」に撮影した画像ファイルとがメディアカードに格納されているのであれば、「2008年1月15日」に撮影された画像ファイルのインデックス画像からなる画像一覧20と、「2008年1月20日」に撮影された画像ファイルのインデックス画像からなる画像一覧20とを印刷出力するように構成されている。   Further, the MFP 1 of the present embodiment classifies the index image into groups for each shooting date, and prints out the image list 20 for each group. For example, if an image file taken on “January 15, 2008” and an image file taken on “January 20, 2008” are stored on the media card, “January 15, 2008” The image list 20 composed of index images of the image files photographed in “and the image list 20 composed of index images of the image files photographed on“ January 20, 2008 ”are printed out. .

図6は、グループ情報記憶領域13gの構成の一例を示す図である。図6に示すように、グループ情報記憶領域13gには、グループ数記憶領域401と、グループ単位情報記憶領域402と、グループNo記憶領域403とが設けられている。   FIG. 6 is a diagram showing an example of the configuration of the group information storage area 13g. As shown in FIG. 6, the group information storage area 13g is provided with a group number storage area 401, a group unit information storage area 402, and a group No storage area 403.

グループ数記憶領域401は、インデックス画像を分類するために生成されたグループ数を記憶する領域である。図6に示す例では、インデックス画像を分類するために「10」のグループが生成されたことを示している。   The group number storage area 401 is an area for storing the number of groups generated for classifying the index image. In the example illustrated in FIG. 6, a group “10” is generated to classify the index image.

グループ単位情報記憶領域402は、グループ毎の情報を記憶する領域である。グループ単位情報記憶領域402には、グループNoを記憶する記憶領域403と、そのグループNoで特定されるグループに分類されるインデックス画像の数を記憶するグループ画像数記憶領域404とが設けられる。図6に示す例では、グループNoが「1」のグループに、「10」個のインデックス画像が分類されることを示している。   The group unit information storage area 402 is an area for storing information for each group. The group unit information storage area 402 is provided with a storage area 403 for storing a group number and a group image number storage area 404 for storing the number of index images classified into the group specified by the group number. In the example illustrated in FIG. 6, “10” index images are classified into the group having the group number “1”.

本実施形態のMFP1によれば、グループ毎の画像一覧20を出力することにより、ユーザはグループ毎(撮影日毎)に画像一覧20を視認することができるから、ユーザは撮影日ごとのグループに分類された閲覧性の良い画像一覧を得ることができる。   According to the MFP 1 of the present embodiment, by outputting the image list 20 for each group, the user can visually recognize the image list 20 for each group (for each shooting date), so that the user is classified into groups for each shooting date. It is possible to obtain a list of images with good browsing properties.

次に、図7乃至図12を参照して、図3(a)に示すような画像一覧20を出力させる処理について説明する。この処理を大略すると、まず、インデックス画像の配置順序を決定する配置順決定処理を実行する(S100)。次に、各インデックス画像を補正するための基準特徴量を算出する基準特徴量算出処理(S150)を実行する。そして、決定した配置順序に従い、視覚的に統一されたインデックス画像を含む画像一覧20を出力する配置印刷処理(S200)を実行する。以下、各処理について詳細に説明する。   Next, processing for outputting the image list 20 as shown in FIG. 3A will be described with reference to FIGS. If this process is briefly described, first, an arrangement order determination process for determining the arrangement order of index images is executed (S100). Next, a reference feature value calculation process (S150) for calculating a reference feature value for correcting each index image is executed. Then, according to the determined arrangement order, an arrangement printing process (S200) for outputting an image list 20 including visually unified index images is executed. Hereinafter, each process will be described in detail.

図7は、MFP1で実行される配置順決定処理(S100)を示すフローチャートである。図7に示す配置順決定処理(S100)は、スロット部6にメディアカードが装着され、ユーザにより画像一覧20の印刷出力の実行指示が入力されると実行される。   FIG. 7 is a flowchart showing the arrangement order determination process (S100) executed by the MFP 1. The arrangement order determination process (S100) shown in FIG. 7 is executed when a media card is inserted into the slot unit 6 and an execution instruction for print output of the image list 20 is input by the user.

この配置順決定処理(S100)は、動画像ファイルから抽出するフレーム画像情報と、メディアカードから読み出される静止画像ファイルとの各々について、各画像情報の撮影日時を表す画像日付情報および画像時間情報を取得し、その取得した画像日付情報および画像時間情報を条件として、インデックス画像の配置順序を決定する処理である。   In this arrangement order determination process (S100), for each of the frame image information extracted from the moving image file and the still image file read from the media card, image date information and image time information representing the shooting date and time of each image information are obtained. This is a process of determining the arrangement order of index images on the basis of the acquired image date information and image time information.

まず、ユーザが操作部4から入力した値を、「フレーム画像抽出枚数」として抽出フレーム数記憶領域13aに記憶する(S101)。次に、メディアカード内に格納された静止画像ファイルと動画像ファイルとの合計を示す「総処理ファイル数」を算出し、処理ファイル数記憶領域13bに記憶する(S102)。   First, the value input from the operation unit 4 by the user is stored in the extracted frame number storage area 13a as “frame image extraction number” (S101). Next, the “total number of processed files” indicating the total of still image files and moving image files stored in the media card is calculated and stored in the processed file number storage area 13b (S102).

次に、処理ファイル数カウンタ、処理画像数カウンタ、フレーム画像抽出枚数カウンタ、動画像ファイル数カウンタを、それぞれ0で初期化する(S103)。なお、これらのカウンタは、カウンタ記憶領域13m(図2参照)に設けられている。   Next, a processing file number counter, a processing image number counter, a frame image extraction number counter, and a moving image file number counter are each initialized to 0 (S103). These counters are provided in the counter storage area 13m (see FIG. 2).

次に、メディアカードに格納された画像ファイルのうち、1の画像ファイルを処理対象として選択し、その画像ファイルのファイル名、画像ファイルの種類を取得する。そして取得したファイル名および画像ファイルの種類を示す値を、処理ファイル数カウンタ値のファイルIDに対応した、ファイル名記憶領域202、ファイル種類記憶領域203(図4参照)へ、それぞれ記憶する(S104)。   Next, of the image files stored on the media card, one image file is selected as a processing target, and the file name of the image file and the type of the image file are acquired. Then, the acquired file name and value indicating the type of image file are stored in the file name storage area 202 and the file type storage area 203 (see FIG. 4) corresponding to the file ID of the processing file number counter value, respectively (S104). ).

そして、選択した画像ファイルが動画像ファイルであるか静止画像ファイルであるかを判断する(S105)。動画像ファイルであると判断した場合(S105:動画像)、その動画像ファイルのファイル日付情報、ファイル時間情報、およびfpsを表すfps情報を、その動画像ファイルのヘッダから取得する(S106)。   Then, it is determined whether the selected image file is a moving image file or a still image file (S105). If it is determined that the file is a moving image file (S105: moving image), file date information, file time information, and fps information representing fps are acquired from the header of the moving image file (S106).

そして、処理画像数カウンタ値の配置順序に対応したファイル日付情報記憶領域207へファイル日付情報を記憶し、ファイル時間情報記憶領域208へファイル時間情報を記憶し、fps情報記憶領域206へfps情報を記憶する(S107)。   Then, the file date information is stored in the file date information storage area 207 corresponding to the arrangement order of the processed image counter value, the file time information is stored in the file time information storage area 208, and the fps information is stored in the fps information storage area 206. Store (S107).

次に処理画像数カウンタ値の配置順序に対応した配置情報記憶領域13i(図5参照)のファイルID記憶領域302へ、現時点における処理ファイル数カウンタの値を記憶する。また、現時点におけるフレーム画像抽出枚数カウンタの値から抽出フレーム番号を算出し、処理画像数カウンタ値の配置順序に対応した抽出フレーム番号記憶領域304へ記憶する(S108)。   Next, the current processing file number counter value is stored in the file ID storage area 302 of the arrangement information storage area 13i (see FIG. 5) corresponding to the arrangement order of the processed image number counter value. Further, the extracted frame number is calculated from the value of the frame image extraction number counter at the present time, and stored in the extracted frame number storage area 304 corresponding to the arrangement order of the processed image number counter value (S108).

次に、フレーム画像情報の時間情報を算出し、算出した時間情報を、画像時間情報として、配置順序に対応する画像時間情報記憶領域306へ記憶する(S109)。具体的には、まず、動画像ファイルの撮影開始時間を表すファイル時間情報をVideoTime、fps情報をFPS、フレーム画像情報の撮影時間を表す画像時間情報をFrameTime、処理対象のフレーム画像情報を特定する抽出フレーム番号をNとする。   Next, time information of the frame image information is calculated, and the calculated time information is stored as image time information in the image time information storage area 306 corresponding to the arrangement order (S109). Specifically, first, the file time information indicating the shooting start time of the moving image file is VideoTime, the fps information is FPS, the image time information indicating the shooting time of the frame image information is FrameTime, and the frame image information to be processed is specified. Let N be the extracted frame number.

そして、ファイル時間情報VideoTimeを、以下のように、動画像時間情報VT_Hour、動画像分情報VT_Minute、動画像秒情報VT_Secondに分解する。   Then, the file time information VideoTime is decomposed into moving image time information VT_Hour, moving image portion information VT_Minute, and moving image second information VT_Second as follows.

VT_Hour=[VideoTime/10000]
VT_Minute=[(VideoTime−VT_Hour×10000)/100]
VT_Second=VideoTime−(VT_Hour×10000+VT_Minute×100)
次に、フレーム時情報Frame_Hour、フレーム分情報Frame_Minute、フレーム秒情報Frame_Secondを、例えば、下記の数式1のように算出する。
(数式1)
ここでCal_Second,Cal_Minute,Cal_Hourは上記情報を求めるための一時変数とする。
また、A mod BはAをBで割った時の剰余を表す
Cal_Second=VT_Second+[N/FPS]
Cal_Minute=VT_Minute+[Cal_Second/60]
Cal_Hour=VT_Hour+[Cal_Minute/60]
Frame_second=Cal_Second mod 60
Frame_Minute=Cal_Minute mod 60
Frame_Hour=Cal_Hour mod 24
以上を、例えば、下記の数式2を用いて結合し、フレーム画像情報の撮影時間を表す画像時間情報FrameTimeを算出する。
(数式2)
FrameTime=Frame_Hour×10000+Frame_Minute×100+Frame_Second
同様にして、動画像ファイルのファイル日付情報をVideoDate、抽出するフレーム画像情報の画像日付情報をFrameDateとすると、まずVideoDateを動画像年情報VD_Year、動画像月情報VD_Month、動画像日情報VD_Dayに、例えば、下記の数式3を用いて分解する。
(数式3)
VD_Year=[VideoDate/10000]
VD_Month=[(VideoDate−VD_Year×10000)/100 ]
VD_Day=VideoDate−(VD_Year×10000+VD_Month×100)
次に、画像日付算出処理を実行する(S110)。画像日付算出処理は、フレーム年情報Frame_Year、フレーム月情報Frame_Month、フレーム日情報Frame_Dayを算出する処理である。
VT_Hour = [VideoTime / 10000]
VT_Minute = [(VideoTime−VT_Hour × 10000) / 100]
VT_Second = VideoTime− (VT_Hour × 10000 + VT_Minute × 100)
Next, the frame time information Frame_Hour, the frame portion information Frame_Minute, and the frame second information Frame_Second are calculated as, for example, Equation 1 below.
(Formula 1)
Here, Cal_Second, Cal_Minute, and Cal_Hour are temporary variables for obtaining the above information.
A mod B represents a remainder when A is divided by B. Cal_Second = VT_Second + [N / FPS]
Cal_Minute = VT_Minute + [Cal_Second / 60]
Cal_Hour = VT_Hour + [Cal_Minute / 60]
Frame_second = Cal_Second mod 60
Frame_Minute = Cal_Minute mod 60
Frame_Hour = Cal_Hour mod 24
The above is combined using, for example, Equation 2 below, and image time information FrameTime representing the shooting time of the frame image information is calculated.
(Formula 2)
FrameTime = Frame_Hour × 10000 + Frame_Minute × 100 + Frame_Second
Similarly, when the file date information of the moving image file is VideoDate and the image date information of the frame image information to be extracted is FrameDate, first, the VideoDate is changed to moving image year information VD_Year, moving image month information VD_Month, moving image date information VD_Day, For example, it decomposes | disassembles using the following Numerical formula 3.
(Formula 3)
VD_Year = [VideoDate / 10000]
VD_Month = [(VideoDate−VD_Year × 10000) / 100]
VD_Day = VideoDate− (VD_Year × 10000 + VD_Month × 100)
Next, an image date calculation process is executed (S110). The image date calculation process is a process of calculating frame year information Frame_Year, frame month information Frame_Month, and frame date information Frame_Day.

図8は、画像日付算出処理(S110)を示すフローチャートである。なお、図8のフローチャートに示す変数Mは、現日付からM日進めることを意味する変数である。   FIG. 8 is a flowchart showing the image date calculation process (S110). Note that a variable M shown in the flowchart of FIG. 8 is a variable that means that M days are advanced from the current date.

まず、フレーム年情報Frame_Year、フレーム月情報Frame_Month、フレーム日情報Frame_Dayに、それぞれ、動画像年情報VD_Year、動画像月情報VD_Month、動画像日情報VD_Dayを代入する(S1201)。次に、変数Mに、[Cal_Hour/24]を代入する(S1202)。次にMが0であるかを判断し(S1203)、肯定されると(S1203:Yes)、本処理を終了する。   First, moving image year information VD_Year, moving image month information VD_Month, and moving image date information VD_Day are assigned to frame year information Frame_Year, frame month information Frame_Month, and frame date information Frame_Day, respectively (S1201). Next, [Cal_Hour / 24] is substituted into the variable M (S1202). Next, it is determined whether M is 0 (S1203). If the determination is affirmative (S1203: Yes), this process is terminated.

一方、否定されると(S1203:No)、フレーム日情報Frame_Dayを判断する(S1204)。「1以上27以下」と判断されると(S1204:1以上27以下)、Frame_Dayに「1」を加算する(S1205)。   On the other hand, if negative (S1203: No), the frame date information Frame_Day is determined (S1204). If it is determined that “1 to 27” (S1204: 1 to 27), “1” is added to Frame_Day (S1205).

一方、S1204の判断において、「28または29」と判断されると(S1204:28or29)、Frame_Monthが「2」であるか否かを判断する(S1206)。否定される場合(S1206;No)、S1205の処理に移行する。   On the other hand, if “28 or 29” is determined in the determination in S1204 (S1204: 28 or 29), it is determined whether or not Frame_Month is “2” (S1206). When negative (S1206; No), it transfers to the process of S1205.

一方、肯定されると(S1206:Yes)、次に、Frame_Dayが「28」であるかを判断する(S1208)。否定される場合(S1208:No)、Frame_Dayに「1」を代入し、Frame_Monthに「1」を加算する(S1210)。   On the other hand, if affirmative (S1206: Yes), it is next determined whether Frame_Day is "28" (S1208). If negative (S1208: No), “1” is substituted into Frame_Day, and “1” is added to Frame_Month (S1210).

一方、S1208の判断が肯定されると(S1208:Yes)、Frame_Yearで示される年がうるう年か否かを判断する(S1209)。肯定される場合(S1209:Yes)、S1205の処理に進む。否定される場合(S1209:No)、S1210の処理に進む。   On the other hand, if the determination in S1208 is positive (S1208: Yes), it is determined whether or not the year indicated by Frame_Year is a leap year (S1209). If the determination is affirmative (S1209: Yes), the process proceeds to S1205. When negative (S1209: No), it progresses to the process of S1210.

次に、S1204の判断において、「30」と判断されると(S1204:30)、次に、Frame_Monthが4,6,9,11のいずれかであるかを判断する(S1211)。肯定される場合(S1211:Yes)、S1210の処理に進む。   Next, in the determination of S1204, if “30” is determined (S1204: 30), it is next determined whether Frame_Month is 4, 6, 9, or 11 (S1211). If the determination is affirmative (S1211: Yes), the process proceeds to S1210.

一方、否定される場合(S1211:No)、Frame_Dayに「1」を加算する(S1216)。次に、S1204の判断において、「31」と判断されると(S1204:31)、次に、Frame_Yearが12であるかを判断する(S1215)。否定される場合(S1215:No)、S1216の処理に進む。   On the other hand, if negative (S1211: No), “1” is added to Frame_Day (S1216). Next, if “31” is determined in the determination of S1204 (S1204: 31), it is next determined whether Frame_Year is 12 (S1215). When negative (S1215: No), it progresses to the process of S1216.

一方、肯定される場合(S1215:Yes)、Frame_Dayに「1」を代入し、Frame_Monthに「1」を代入し、Frame_Yearに「1」を加算する(S1217)。   On the other hand, if the result is affirmative (S1215: Yes), “1” is substituted into Frame_Day, “1” is substituted into Frame_Month, and “1” is added to Frame_Year (S1217).

S1205,S1210,S1216,S1217の処理の後は、変数Mから「1」減算し(S1212)、S1203に戻る。そして、S1203の判断が肯定されると(S1203:Yes)、本処理を終了する。   After the processing of S1205, S1210, S1216, and S1217, “1” is subtracted from the variable M (S1212), and the process returns to S1203. If the determination in S1203 is affirmed (S1203: Yes), this process ends.

図7に戻り説明する。図8に示す処理で算出した値を、例えば下記の数式5を用いて結合し、フレーム画像情報の撮影日付を表す画像日付情報FrameDateを算出する。算出された画像日付情報は画像日付情報記憶領域305へ記憶する(S111)。
(数式5)
FrameDate=Frame_Year×10000+Frame_Month×100+Frame_Day
次に、処理画像数カウンタ、およびフレーム画像抽出枚数カウンタに、それぞれ「1」を加算する(S113)。
Returning to FIG. The values calculated in the process shown in FIG. 8 are combined using, for example, the following Equation 5 to calculate image date information FrameDate representing the shooting date of the frame image information. The calculated image date information is stored in the image date information storage area 305 (S111).
(Formula 5)
FrameDate = Frame_Year × 10000 + Frame_Month × 100 + Frame_Day
Next, “1” is added to the processed image number counter and the frame image extraction number counter, respectively (S113).

次に、フレーム画像抽出枚数カウンタの値が、フレーム画像抽出枚数、すなわち、その動画像ファイルから抽出するフレーム画像情報の数以上となったか否かを判断する(S114)。S114の判断が否定される場合(S114:No)、S108に戻り処理を繰り返す。   Next, it is determined whether or not the value of the frame image extraction number counter is equal to or greater than the number of frame image extractions, that is, the number of frame image information extracted from the moving image file (S114). If the determination in S114 is negative (S114: No), the process returns to S108 and is repeated.

一方、S114の判断が肯定される場合(S114:Yes)、次にフレーム画像抽出枚数カウンタを0で初期化し(S115)、処理ファイル数カウンタに1を加算する(S122)。そして、処理ファイル数カウンタの値が、メディアカードに格納される静止画像ファイルと動画像ファイルの合計を示す「総処理ファイル数」以上となったか否かを判断する(S123)。S123の判断が否定される場合(S123:No)、S104の処理に戻り、次の画像ファイルを処理対象として選択し、処理を繰り返す。   On the other hand, if the determination in S114 is affirmative (S114: Yes), then the frame image extraction number counter is initialized to 0 (S115), and 1 is added to the processing file number counter (S122). Then, it is determined whether or not the value of the processing file number counter is equal to or greater than the “total number of processing files” indicating the total of still image files and moving image files stored in the media card (S123). If the determination in S123 is negative (S123: No), the processing returns to S104, the next image file is selected as a processing target, and the processing is repeated.

続いて、処理対象の画像ファイルが静止画像ファイルであると判断された場合(S105:静止画像)について説明する。静止画像ファイルである場合、処理画像数カウンタ値の配置順序に対応したファイルID記憶領域302へ、現時点における処理ファイル数カウンタの値を記憶する。また、処理画像数カウンタ値の配置順序に対応した抽出フレーム番号記憶領域304へ「0」を記憶する(S115a)。   Next, a case where it is determined that the image file to be processed is a still image file (S105: still image) will be described. In the case of a still image file, the current processing file number counter value is stored in the file ID storage area 302 corresponding to the arrangement order of the processing image number counter value. Further, “0” is stored in the extracted frame number storage area 304 corresponding to the arrangement order of the processed image counter value (S115a).

次に、処理対象の静止画像ファイルのファイル日付情報およびファイル時間情報を取得する。そして、ファイル情報記憶領域13hのうち、処理ファイル数カウンタ値のファイルIDに対応したファイル日付情報記憶領域207(図4参照)へ、ファイル日付情報を記憶し、同ファイルIDに対応したファイル時間情報記憶領域208へ、ファイル時間情報を記憶する(S117)。なお、fps情報記憶領域206には「0」を記憶する。   Next, file date information and file time information of the still image file to be processed are acquired. In the file information storage area 13h, the file date information is stored in the file date information storage area 207 (see FIG. 4) corresponding to the file ID of the processing file counter value, and the file time information corresponding to the file ID is stored. The file time information is stored in the storage area 208 (S117). Note that “0” is stored in the fps information storage area 206.

そして、配置情報記憶領域13i(図5参照)のうち、処理画像数カウンタ値の配置順序に対応する画像日付情報記憶領域305へ、処理対象の静止画像ファイルのファイル日付情報を記憶する。また、同配置順序に対応する画像時間情報記憶領域306へ、処理対象の静止画像ファイルのファイル時間情報を記憶する(S119)。そして、処理画像数カウンタに1を加算し(S121)、S123の処理に移行する。   Then, the file date information of the still image file to be processed is stored in the image date information storage area 305 corresponding to the arrangement order of the processed image number counter values in the arrangement information storage area 13i (see FIG. 5). Further, the file time information of the still image file to be processed is stored in the image time information storage area 306 corresponding to the same arrangement order (S119). Then, 1 is added to the processed image number counter (S121), and the process proceeds to S123.

このように、S101からS123の処理によれば、配置情報記憶領域13iに、ファイルID、抽出フレーム番号、画像日付情報、画像時間情報、ファイル識別情報が格納されることとなるが、この時点では、まだインデックス画像の配置順序は未決定である。図9を参照して後述するS124以降の処理において、画像日付情報と画像時間情報とを条件として、配置情報をソートすることにより、撮影日時に従った配置順序が決定される。   As described above, according to the processing from S101 to S123, the file ID, the extracted frame number, the image date information, the image time information, and the file identification information are stored in the arrangement information storage area 13i. The arrangement order of the index images is not yet determined. In the processing after S124 described later with reference to FIG. 9, the arrangement order according to the shooting date and time is determined by sorting the arrangement information on the condition of the image date information and the image time information.

図9は、図7に示す配置順決定処理(S100)の続きの部分を示すフローチャートであり、特に、画像日付情報に基づいて、画像一覧20に配置するインデックス画像を分類する処理、および配置情報記憶領域13iに記憶された配置情報(図5参照)を、撮影日時に従った配置順序にソートする処理の部分を示している。   FIG. 9 is a flowchart showing a continuation of the arrangement order determination process (S100) shown in FIG. 7, and in particular, a process for classifying index images arranged in the image list 20 based on image date information, and arrangement information A part of processing for sorting the arrangement information (see FIG. 5) stored in the storage area 13i in the arrangement order according to the shooting date and time is shown.

図9に示すように、まず、現時点における処理画像数カウンタの値を「処理画像総数」として、処理画像総数記憶領域13c(図2参照)に記憶する(S124)。そして、処理画像数カウンタを「0」で初期化する(S125)。ここで処理画像数カウンタはカウンタ記憶領域13m(図2参照)に設けられるカウンタである。   As shown in FIG. 9, first, the value of the processed image number counter at the present time is stored as the “total number of processed images” in the processed image total number storage area 13c (see FIG. 2) (S124). Then, the processing image counter is initialized with “0” (S125). Here, the processed image number counter is a counter provided in the counter storage area 13m (see FIG. 2).

次に、配置情報記憶領域13i(図5参照)の画像日付情報記憶領域305に記憶された、画像日付情報に従って、グループNoを決定する(S126)。具体的には、処理画像数カウンタの値の配置順序に対応する、画像日付情報記憶領域305の値が、既に存在するグループの値と同一の場合は、その該当するグループNoを、この画像情報のグループNoに決定し、そうでない場合は新規のグループNoをこの画像情報のグループNoとして決定する。ただしNoの初期値は1であり、新規のグループNoはそれまでで最大のグループNo+1とする。   Next, a group number is determined according to the image date information stored in the image date information storage area 305 of the arrangement information storage area 13i (see FIG. 5) (S126). Specifically, when the value of the image date information storage area 305 corresponding to the arrangement order of the value of the processed image counter is the same as the value of the already existing group, the corresponding group number is set as the image information. If not, a new group number is determined as the group number of this image information. However, the initial value of No is 1, and the new group No is the largest group No + 1 so far.

このようにすれば、撮影日が同日であるフレーム画像情報または静止画像ファイルに対応するインデックス画像を同一グループに分類される一方で、撮影日が異なるフレーム画像情報または静止画像ファイルに対応するインデックス画像は互いに別グループに分類されることとなる。   In this way, the index images corresponding to the frame image information or still image files whose shooting dates are the same day are classified into the same group, while the index images corresponding to the frame image information or still image files whose shooting dates are different. Are classified into different groups.

そして、処理画像数カウンタの値の配置順序に対応する、グループNo記憶領域303(図5参照)へ、決定したグループNoを記憶する(S127)。次に、処理画像数カウンタに「1」を加算し(S128)、処理画像数カウンタの値が、処理画像総数に記憶された値以上となったかを判断する(S129)。そして、S129の判断が否定される場合(S129:No)、S126から処理を繰り返す。   Then, the determined group number is stored in the group number storage area 303 (see FIG. 5) corresponding to the arrangement order of the values of the processed image number counter (S127). Next, “1” is added to the processed image number counter (S128), and it is determined whether the value of the processed image number counter is equal to or greater than the value stored in the total number of processed images (S129). If the determination in S129 is negative (S129: No), the process is repeated from S126.

一方、S129の判断が肯定される場合(S129:Yes)、グループNoの最大値を、グループ数記憶領域401(図6参照)に記憶する(S130)。そして、グループNoの小さい順に、配置情報をソートする(S131)。なお、S131の処理においては、グループNoの小さい順に配置情報をソートすることができれば良いので、ソートアルゴリズムは特に限定するものではなく、例えば、クイックソート法やバブルソート法を用いることが可能である。   On the other hand, if the determination in S129 is affirmative (S129: Yes), the maximum group number is stored in the group number storage area 401 (see FIG. 6) (S130). Then, the arrangement information is sorted in ascending order of group number (S131). In the process of S131, it is sufficient if the arrangement information can be sorted in ascending order of the group numbers. Therefore, the sorting algorithm is not particularly limited, and for example, a quick sort method or a bubble sort method can be used. .

なお、図5に示す配置情報記憶領域13iは、配置情報記憶領域13iに記憶された配置情報が、グループNoの小さい順にソートされた状態を模式的に図示している。   Note that the arrangement information storage area 13i illustrated in FIG. 5 schematically illustrates a state in which arrangement information stored in the arrangement information storage area 13i is sorted in ascending order of group numbers.

図9に戻り説明する。次に、同一グループNoに含まれることとなるインデックス画像数を算出し(S132)、グループNoと対応付けてグループ画像数記憶領域404へ記憶する(S133)。次に、グループカウンタを1で初期化する(S134)。このグループカウンタは、カウンタ記憶領域13m(図2参照)に設けられるカウンタである。   Returning to FIG. Next, the number of index images that are included in the same group number is calculated (S132), and stored in the group image number storage area 404 in association with the group number (S133). Next, the group counter is initialized with 1 (S134). This group counter is a counter provided in the counter storage area 13m (see FIG. 2).

次に、画像時間情報の小さい順に配置情報をソートする(S135)。このソートはグループ単位で行う。これにより、配置情報で特定されるインデックス画像の各々について、対応する配置順序が決定する。   Next, the arrangement information is sorted in ascending order of image time information (S135). This sorting is done in groups. Thereby, the corresponding arrangement order is determined for each index image specified by the arrangement information.

すなわち、同一グループに分類されたインデックス画像内で、画像時間情報(撮影時情報)に従った配置順序を決定する。後述する配置印刷処理(S200)では、グループ毎に画像一覧20が印刷出力されるが、同一グループ内のインデックス画像は、画像時間情報が小さい順に配列されているから、1グループ内に多数のインデックス画像が含まれる場合であっても、ユーザは撮影時間順に整列した閲覧性の良い画像一覧を得ることができる。   That is, the arrangement order according to the image time information (photographing time information) is determined in the index images classified into the same group. In the layout printing process (S200) to be described later, the image list 20 is printed out for each group. Since the index images in the same group are arranged in ascending order of the image time information, a large number of indexes are included in one group. Even in the case where images are included, the user can obtain a list of images with good browsing properties arranged in order of photographing time.

なお、画像時間情報が同一である場合は、元々の配置順序を変更しないことが好ましいので、S135の処理では、バブルソートなど単純なソートアルゴリズムが好適に用いられる。   If the image time information is the same, it is preferable not to change the original arrangement order. Therefore, a simple sort algorithm such as bubble sort is preferably used in the process of S135.

次に、グループカウンタに1を加算し(S136)、グループカウンタの値がグループ数記憶領域401(図6参照)の値より大となったかを判断する(S137)。S137の判断が否定される場合(S137:No)、S135に戻り処理を繰り返す。一方、全てのグループについての処理を終了し、S137の判断が肯定されると(S137:Yes)、配置順決定処理(S100)を終了する。   Next, 1 is added to the group counter (S136), and it is determined whether the value of the group counter is larger than the value of the group number storage area 401 (see FIG. 6) (S137). If the determination in S137 is negative (S137: No), the process returns to S135 and is repeated. On the other hand, when the processing for all the groups is finished and the determination in S137 is affirmed (S137: Yes), the arrangement order determination processing (S100) is finished.

図10は、MFP1で実行される基準特徴量算出処理(S150)を示すフローチャートである。図10に示す基準特徴量算出処理(S150)は、上述した配置順決定処理(S100)の後に実行される処理であり、各インデックス画像を補正するための基準となる基準特徴量を、各静止画像の特徴量から算出する処理である。   FIG. 10 is a flowchart showing the reference feature amount calculation process (S150) executed by the MFP 1. The reference feature quantity calculation process (S150) shown in FIG. 10 is a process executed after the above-described arrangement order determination process (S100), and the reference feature quantity serving as a reference for correcting each index image is set to each stationary image. This is a process of calculating from the feature amount of the image.

まず、配置順序カウンタを「0」で初期化し(S151)、次に、配置順序カウンタに対応したファイルID、抽出フレーム番号を配置情報記憶領域109から読み出す(S152)。そして、読み出したファイルIDに対応する画像ファイルが、動画像ファイルであるか静止画像ファイルであるかを判定する(S153)。尚、この判定はS105で既に一度判定がなされているため、その際の判定情報をファイル種類判定領域203から読み出してきて判定する。   First, the arrangement order counter is initialized with “0” (S151), and then the file ID and extracted frame number corresponding to the arrangement order counter are read from the arrangement information storage area 109 (S152). Then, it is determined whether the image file corresponding to the read file ID is a moving image file or a still image file (S153). Since this determination has already been made once in S105, the determination information at that time is read from the file type determination area 203 and determined.

S153の判定において、静止画像ファイルと判定される場合(S153:静止画像)、静止画像ファイルをデコード処理する(S154)。   If it is determined in S153 that the file is a still image file (S153: still image), the still image file is decoded (S154).

そして、静止画像ファイルの大きさの画像特徴量SSpを算出し、その算出した画像特徴量SSpを配置順序カウンタに対応する画像特徴量記憶領域307に記憶する(S155)。ここで、大きさの画像特徴量SSpは、画像の幅(Width)、画像の高さ(Height)、アスペクト比(Aspect Ratio)で構成されており、画像の幅(Width)は画像の横方向のピクセル数、画像の高さ(Height)は画像の縦方向のピクセル数、アスペクト比(Aspect Ratio)は画像の高さ(Height)/画像の高さ(Height)から算出され、画像特徴量記憶領域307に記憶される。   Then, the image feature amount SSp of the size of the still image file is calculated, and the calculated image feature amount SSp is stored in the image feature amount storage area 307 corresponding to the arrangement order counter (S155). Here, the image feature amount SSp of the size includes an image width (Width), an image height (Height), and an aspect ratio (Aspect Ratio), and the image width (Width) is the horizontal direction of the image. The number of pixels of the image, the height of the image (Height) is calculated from the number of pixels in the vertical direction of the image, and the aspect ratio (Aspect Ratio) is calculated from the height of the image (Height) / the height of the image (Height). Stored in area 307.

次に、静止画像ファイルの色の画像特徴量CSpを算出し、色の画像特徴量CSpを配置順序カウンタに対応する画像特徴量記憶領域307に記憶する(S156)。ここで、色の画像特徴CSpは、各静止画像の色相値(H_R,H_G,H_B)、輝度値(S)、彩度値(V)であり、色相値(H_R,H_G,H_B)は、各静止画像のRGB空間における所定値以上の明るさの画素のRGBの平均値、輝度値(S)はHSV空間における輝度値の平均値、彩度値(V)は画像のHSV空間における彩度の平均値から算出されて、画像特徴量記憶領域307に記憶される。   Next, the image feature amount CSp of the color of the still image file is calculated, and the image feature amount CSp of the color is stored in the image feature amount storage area 307 corresponding to the arrangement order counter (S156). Here, the color image feature CSp is the hue value (H_R, H_G, H_B), luminance value (S), and saturation value (V) of each still image, and the hue value (H_R, H_G, H_B) is The average RGB value, luminance value (S) of pixels of brightness of a predetermined value or more in the RGB space of each still image is the average luminance value in HSV space, and the saturation value (V) is the saturation of the image in the HSV space. And is stored in the image feature amount storage area 307.

尚、S153の判定において、動画像と判定された場合には、対応する画像特徴量記憶領域307に0(ゼロ)を記憶して(S157)、S158の処理に移行する。   If it is determined in step S153 that the image is a moving image, 0 (zero) is stored in the corresponding image feature amount storage area 307 (S157), and the process proceeds to step S158.

こうして、静止画像ファイルについて、大きさの画像特徴量SSpと、色の画像特徴CSpとを算出し、画像特徴量記憶領域307に記憶すると、S158において配置順序カウンタに「1」を換算し(S158)、全て配置ファイルの処理を終了したか判定し(S159)、終了していなければ(S159:No)、S152からの処理を繰り返し、終了していれば(S159:Yes)、S160の処理に移行する。   Thus, when the image feature amount SSp of the size and the image feature amount CSp of the color are calculated for the still image file and stored in the image feature amount storage area 307, “1” is converted into the arrangement order counter in S158 (S158). ), It is determined whether the processing of all the arranged files has been completed (S159). If not completed (S159: No), the processing from S152 is repeated, and if completed (S159: Yes), the processing of S160 is performed. Transition.

このS160では、S155で画像特徴量記憶領域307に記憶された値が0(ゼロ)でないものを対象として、前記画像記憶手段領域307に記憶された画像特徴量SSpから基準特徴量BSSpを算出し、その算出した基準特徴量BSSpを基準特徴量記憶領域114に記憶する(S160)。   In S160, the reference feature value BSSp is calculated from the image feature value SSp stored in the image storage means region 307 for the case where the value stored in the image feature value storage region 307 in S155 is not 0 (zero). The calculated reference feature value BSSp is stored in the reference feature value storage area 114 (S160).

基準特徴量BSSpは、画像特徴量記憶領域307に記憶されている画像特徴量SSpの基準となる特徴量であり、画像の幅(Width)に関する基準特徴量BWidthは、最も値が大きな幅(Width)、アスペクト比(Aspect Ratio)に関する基準特徴量BAspectRatioは、最も頻度が多いアスペクト比(Aspect Ratio)、画像の高さ(Height)に関する基準特徴量BHeightは、画像の幅(Width)に関する基準特徴量BWidth/アスペクト比(Aspect Ratio)に関する基準特徴量BAspectRatioとする。   The reference feature amount BSSp is a feature amount that serves as a reference for the image feature amount SSp stored in the image feature amount storage area 307, and the reference feature amount BWidth relating to the width (Width) of the image has the largest value (Width). ), The reference feature amount BAspectRatio relating to the aspect ratio (Aspect Ratio) is the most frequently used aspect ratio (Aspect Ratio), and the reference feature amount BHeight relating to the height of the image (Height) is the reference feature amount relating to the width (Width) of the image. The reference feature amount BAspectRatio relating to BWidth / Aspect Ratio (Aspect Ratio) is used.

こうして、各静止画像ファイルの画像特徴量SSpから基準特徴量BSSp量が設定される。尚、基準特徴量BWidth、基準特徴量BAspectRatio、は全ての画像の幅(Width)、アスペクト比(Aspect Ratio)の平均値としても良い。   Thus, the reference feature amount BSSp amount is set from the image feature amount SSp of each still image file. The reference feature amount BWidth and the reference feature amount BAspectRatio may be average values of the width (Width) and aspect ratio (Aspect Ratio) of all images.

そして、次に、画像特徴量記憶領域307に記憶された値が0(ゼロ)でないもの対象として、前記画像記憶手段領域307に記憶された色の画像特徴量CSpから基準特徴量BCSpを算出し、その算出した基準特徴量BCSpを基準特徴量記憶領域114に記憶して(S161)、本処理を終了する。   Then, a reference feature value BCSp is calculated from the image feature value CSp of the color stored in the image storage unit area 307 as an object whose value stored in the image feature value storage area 307 is not 0 (zero). Then, the calculated reference feature value BCSp is stored in the reference feature value storage area 114 (S161), and this process ends.

基準特徴量BCSpは、画像特徴量記憶領域307に記憶されている色の画像特徴量CSpの基準であり、本実施形態では、色相値(H_R)に関する基準特徴量BH_Rは、各画像の色相値(H_R)の平均値、色相値(H_G)に関する基準特徴量BH_Gは、各画像の色相値(H_G)の平均値、色相値(H_B)に関する基準特徴量BH_Bは、各画像の色相値(H_B)の平均値、彩度値(S)に関する基準特徴量BSは、各画像の彩度値(S)の平均値、輝度値(V)に関する基準特徴量BVは、各画像の画像の輝度値(V)の平均値として算出され、基準特徴量記憶領域114に記憶される。   The reference feature amount BCSp is a reference for the image feature amount CSp of the color stored in the image feature amount storage area 307. In the present embodiment, the reference feature amount BH_R related to the hue value (H_R) is the hue value of each image. The reference feature value BH_G related to the average value (H_R) and the hue value (H_G) is the average value of the hue value (H_G) of each image, and the reference feature value BH_B related to the hue value (H_B) is the hue value (H_B) of each image. ) And the reference feature value BS regarding the saturation value (S) are the average value of the saturation value (S) of each image, and the reference feature value BV regarding the luminance value (V) is the luminance value of the image of each image Calculated as an average value of (V) and stored in the reference feature amount storage area 114.

そして、このS160で算出した基準特徴量BSSpと、S161で算出した基準特徴量BCSpとを利用して、次の配置印刷処理(S200)において、1ページの記録用紙に印刷出力される各インデックス画像を補正することで、各インデックス画像の大きさ、色を視覚的に統一させることができる。   Then, using the reference feature value BSSp calculated in S160 and the reference feature value BCSp calculated in S161, each index image printed out on one page of recording paper in the next layout printing process (S200). By correcting this, the size and color of each index image can be visually unified.

図11は、配置印刷処理(S200)を示すフローチャートである。図11に示す配置印刷処理(S200)は、図7から図9を参照して説明した配置順決定処理(S100)に続けて実行される処理であり、画像一覧20を記録用紙に印刷出力する処理である。   FIG. 11 is a flowchart showing the layout printing process (S200). The layout printing process (S200) shown in FIG. 11 is a process executed subsequent to the layout order determination process (S100) described with reference to FIGS. 7 to 9, and prints out the image list 20 on a recording sheet. It is processing.

まず、画像一覧20に配列される横一列分のインデックス画像の数を示す「横方向の配置枚数」を、横方向画像配置数記憶領域12bから読み出す(S201)。次に、1ページ分の画像一覧20に配置可能なインデックス画像の数を示す「1ページ内画像配置数」を、1ページ画像配置数記憶領域12cから読み出す(S202)。   First, “horizontal arrangement number” indicating the number of index images for one horizontal row arranged in the image list 20 is read from the horizontal image arrangement number storage area 12b (S201). Next, “the number of image arrangements in one page” indicating the number of index images that can be arranged in the image list 20 for one page is read from the one-page image arrangement number storage area 12c (S202).

次に、グループカウンタを1で初期化する(S203)。以降の処理では、このグループカウンタは、処理対象のグループのグループNoを示すカウンタとして機能する。次に、ページカウンタを1で初期化する(S204)。以降の処理では、このページカウンタは、処理対象のグループのうち、何ページ目の画像一覧20を処理対象としているのかを示すカウンタとして機能する。ページカウンタはカウンタ記憶領域13m(図2参照)に設けられるカウンタである。   Next, the group counter is initialized with 1 (S203). In the subsequent processing, this group counter functions as a counter indicating the group number of the group to be processed. Next, the page counter is initialized with 1 (S204). In the subsequent processing, this page counter functions as a counter indicating which page of the image list 20 is the processing target in the processing target group. The page counter is a counter provided in the counter storage area 13m (see FIG. 2).

次に、グループカウンタ値のグループNoに対応するグループ画像数を、グループ画像数記憶領域404から読み出す(S205)。すなわち、そのグループNoのグループに分類されたインデックス画像の数を取得する。そして、読み出した「グループ画像数」と「1ページ内画像配置数」とから、処理対象のグループについて、何ページ分の画像一覧20を印刷出力するかを示す「生成ページ数」を算出し、生成ページ数記憶領域13d(図2参照)へ記憶する(S206)。本実施形態では、「生成ページ数」は、例えば下記の数式6を用いて算出する。
(数式6)
(生成ページ数)=[(グループ画像数)/(1ページ内画像配置数)]+1
次に、レイアウト画像カウンタを0で初期化し(S207)、1ページの記録用紙内に配置する画像の枚数layout_noを算出する(S208)。本実施形態においては、layout_noは、例えば下記の数式7を用いて算出する。
(数式7)
(ページカウンタ値)<生成ページ数 の時
layout_no=(1ページ内画像配置数)
(ページカウンタ値)≧生成ページ数 の時
layout_no=(グループ画像数)−{(1ページ内画像配置数)×(ページカウンタ値)}
次に、配置順序に対応したファイルID、抽出フレーム番号、ファイル識別情報を配置情報記憶領域13iから読み出す(S209)。そして、読み出したファイルIDに対応する画像ファイルが、動画像ファイルであるか静止画像ファイルであるかを判定する(S210)。
Next, the number of group images corresponding to the group number of the group counter value is read from the group image number storage area 404 (S205). That is, the number of index images classified into the group of the group number is acquired. Then, from the read “number of group images” and “number of images arranged in one page”, a “number of generated pages” indicating how many pages of the image list 20 are printed out is calculated for the group to be processed. Stored in the generated page number storage area 13d (see FIG. 2) (S206). In the present embodiment, the “number of generated pages” is calculated using, for example, Equation 6 below.
(Formula 6)
(Number of generated pages) = [(Number of group images) / (Number of images arranged in one page)] + 1
Next, the layout image counter is initialized to 0 (S207), and the number of images layout_no arranged on one page of recording paper is calculated (S208). In this embodiment, layout_no is calculated using, for example, Equation 7 below.
(Formula 7)
(Page counter value) <number of generated pages layout_no = (number of images arranged in one page)
When (page counter value) ≧ number of generated pages layout_no = (number of group images) − {(number of images arranged in one page) × (page counter value)}
Next, the file ID, the extracted frame number, and the file identification information corresponding to the arrangement order are read from the arrangement information storage area 13i (S209). Then, it is determined whether the image file corresponding to the read file ID is a moving image file or a still image file (S210).

S210の判定において、動画像ファイルと判定される場合(S210:動画像)、次に、動画像ファイルから上記抽出フレーム番号で特定される1フレーム画像分のフレーム画像情報を抽出する(S211)。   If it is determined in S210 that the file is a moving image file (S210: moving image), then frame image information for one frame image specified by the extracted frame number is extracted from the moving image file (S211).

次に、抽出したフレーム画像情報をデコード処理し、デコードデータ記憶領域13kへ格納する(S212)。そして、図10に示すS160,S161で、基準特徴量記憶領域114に記憶された基準特徴量BSSpと,基準特徴量BCSpとを用いて、フレーム画像情報の特徴量がそれぞれの基準特徴量に一致するように補正する(S212a)。具体的には、この補正は、拡大縮小処理、トリミング処理、色相変換処理、輝度変換処理、彩度変換処理の順番で行う。   Next, the extracted frame image information is decoded and stored in the decoded data storage area 13k (S212). Then, in S160 and S161 shown in FIG. 10, the feature amount of the frame image information matches each reference feature amount using the reference feature amount BSSp and the reference feature amount BCSp stored in the reference feature amount storage area 114. (S212a). Specifically, this correction is performed in the order of enlargement / reduction processing, trimming processing, hue conversion processing, luminance conversion processing, and saturation conversion processing.

まずは、拡大縮小処理を行う。この処理では拡大縮小率をSizeRateとし、そのSizeRateを下記式で算出する。   First, enlargement / reduction processing is performed. In this process, the enlargement / reduction ratio is set to SizeRate, and the SizeRate is calculated by the following equation.

Figure 0004569659
Figure 0004569659

Figure 0004569659
そして、算出された拡大縮小率SizeRateにより処理対象となるフレーム画像情報の拡大縮小処理を行う。尚、拡大縮小はバイリニアやバイキュービックなどの画像補間により行うことができる。そして、この拡大縮小後の画像の幅をWidth’、拡大縮小後の画像の高さをHeight’とする。
Figure 0004569659
Then, the frame image information to be processed is enlarged / reduced by the calculated enlargement / reduction ratio SizeRate. The enlargement / reduction can be performed by image interpolation such as bilinear or bicubic. The width of the image after enlargement / reduction is Width ′, and the height of the image after enlargement / reduction is Height ′.

次に、トリミング処理を行う。この処理では、、拡大縮小後の画像の幅Width’と拡大縮小後の画像の高さHeight’が、それぞれ、画像の幅に関する基準特徴量BWidth、画像の高さに関する基準特徴量BHeightとなるように画像のトリミングを行う。トリミング前の画像をO(x,y)、トリミング後の画像をP(x,y)とすると、下記の式によってトリミング後の画像を求めることができる。但し、x,yは座標値を表す。   Next, trimming processing is performed. In this processing, the image width Width ′ after enlargement / reduction and the image height Height ′ after enlargement / reduction become the reference feature amount BWidth relating to the image width and the reference feature amount BHeight relating to the image height, respectively. Trim the image. If the image before trimming is O (x, y) and the image after trimming is P (x, y), the image after trimming can be obtained by the following equation. However, x and y represent coordinate values.

Figure 0004569659
上述した拡大縮小処理、トリミング処理によって、フレーム画像情報を基準特徴量BSSpと一致させることができるので、各フレーム画像情報に対応するインデックス画像の大きさを統一させることができる。
Figure 0004569659
The frame image information can be matched with the reference feature amount BSSp by the above-described enlargement / reduction processing and trimming processing, so that the size of the index image corresponding to each frame image information can be unified.

次に、色相変換処理を行う。この処理では、補正対象画像OのRGB空間における各画素値をO(x,y)R,O(x,y)G,O(x,y)Bとして、色相補正後の画素値O’(x,y)R, O’(x,y)G, O’(x,y)Bを下記の式で求める。但し、x,yは画像の座標値とする。
また、フレーム画像情報の画像全体の輝度値(V)の平均値をAveVとする。
Next, a hue conversion process is performed. In this processing, each pixel value in the RGB space of the correction target image O is set as O (x, y) R, O (x, y) G, O (x, y) B, and the pixel value O ′ ( x, y) R, O ′ (x, y) G, and O ′ (x, y) B are obtained by the following equations. Here, x and y are coordinate values of the image.
Further, the average value of the luminance values (V) of the entire image of the frame image information is assumed to be AveV.

O'(x,y)R = O(x,y)R+H_R×AveV÷BV
O'(x,y)G = O(x,y)G+H_G×AveV÷BV
O'(x,y)B = O(x,y)B+H_B×AveV÷BV

次に、輝度変換処理を行う。この処理では、色相変換処理で求めた色相補正後の画素値O’(x,y)R, O’(x,y)G, O’(x,y)Bを、HSV空間へ変換してO’(x,y)H, O’(x,y)S, O’(x,y)Vとする。
O '(x, y) R = O (x, y) R + H_R × AveV ÷ BV
O '(x, y) G = O (x, y) G + H_G × AveV ÷ BV
O '(x, y) B = O (x, y) B + H_B × AveV ÷ BV

Next, luminance conversion processing is performed. In this process, the pixel values O ′ (x, y) R, O ′ (x, y) G, and O ′ (x, y) B after the hue correction obtained in the hue conversion process are converted into the HSV space. Let O ′ (x, y) H, O ′ (x, y) S, and O ′ (x, y) V.

そして、その変換したO’(x,y)H, O’(x,y)S, O’(x,y)から輝度補正後の画素値O’’(x,y)H, O’’(x,y)S, O’’(x,y)Vを下記の式で求める。   Then, the pixel values O ″ (x, y) H, O ″ after luminance correction are obtained from the converted O ′ (x, y) H, O ′ (x, y) S, O ′ (x, y). (X, y) S, O ″ (x, y) V is obtained by the following equation.

O''(x,y)H = O'(x,y)H
O''(x,y)S = O'(x,y)S
O''(x,y)V = O'(x,y)V×BV÷AveV

最後に、彩度変換処理を行う。この処理では、輝度補正後の画素値O’’’(x,y)H, O’’’(x,y)S, O’’’(x,y)Vから、彩度変換後の画素値O’’’(x,y)H, O’’’(x,y)S, O’’’(x,y)Vを下記の式で求める。
また、フレーム画像情報の画像全体の彩度値(S)の平均値をAveSとする。
O '' (x, y) H = O '(x, y) H
O '' (x, y) S = O '(x, y) S
O '' (x, y) V = O '(x, y) V × BV ÷ AveV

Finally, saturation conversion processing is performed. In this process, pixels after saturation conversion are obtained from pixel values O ′ ″ (x, y) H, O ′ ″ (x, y) S, O ″ ′ (x, y) V after luminance correction. The values O ′ ″ (x, y) H, O ′ ″ (x, y) S, and O ′ ″ (x, y) V are obtained by the following equations.
Further, the average value of the saturation values (S) of the entire image of the frame image information is AveS.

O'''(x,y)H = O''(x,y)H
O'''(x,y)S = O''(x,y)S×BS÷AveS
O'''(x,y)V = O''(x,y)V
上述した色相、輝度、彩度変換処理によって、フレーム画像情報の特徴を基準特徴量BCSpと一致させることができるので、各フレーム画像情報に対応するインデックス画像の色を統一させることができる。
O '''(x, y) H = O''(x, y) H
O '''(x, y) S = O''(x, y) S × BS ÷ AveS
O '''(x, y) V = O''(x, y) V
Since the feature of the frame image information can be matched with the reference feature amount BCSp by the above-described hue, luminance, and saturation conversion processing, the color of the index image corresponding to each frame image information can be unified.

そして、上述したように補正したフレーム画像情報をRAM13(図2参照)に設けられた配置用バッファの所定位置に配置する(S213)。   Then, the frame image information corrected as described above is arranged at a predetermined position of the arrangement buffer provided in the RAM 13 (see FIG. 2) (S213).

一方、S210の判定において、静止画像ファイルと判定される場合(S210:静止画像)、配置順序に対応したファイルIDで特定される静止画像ファイルをデコード処理して、デコードデータ記憶領域13kへ格納する(S214)。そして、上述したS212aで説明したのと同様に、基準特徴量記憶領域114に記憶された基準特徴量BSSp,BCSpを用いて、静止画像ファイルを補正する(S214a)。このS214aの補正によって、静止画像ファイルを基準特徴量BSSp、基準特徴量BCSpと一致させることができるので、各静止画像ファイルに対応するインデックス画像の大きさ、色を統一させることができ、ひいては、フレーム画像情報と、静止画像ファイルとの間で、画像の大きさ、色を統一させることができる。   On the other hand, if it is determined in S210 that the file is a still image file (S210: still image), the still image file specified by the file ID corresponding to the arrangement order is decoded and stored in the decoded data storage area 13k. (S214). Then, as described in S212a described above, the still image file is corrected using the reference feature amounts BSSp and BCSp stored in the reference feature amount storage area 114 (S214a). By the correction of S214a, the still image file can be matched with the reference feature value BSSp and the reference feature value BCSp, so that the size and color of the index image corresponding to each still image file can be unified. The size and color of the image can be unified between the frame image information and the still image file.

そして、上述したように補正した静止画像ファイルをRAM13(図2参照)に設けられた配置用バッファの所定位置に配置する(S215)。   Then, the still image file corrected as described above is arranged at a predetermined position of the arrangement buffer provided in the RAM 13 (see FIG. 2) (S215).

このようにして、補正されたフレーム画像情報または補正された静止画像ファイルのいずれかを配置用バッファに配置する処理を実行した後、次に、横方向に配置できる画像数の上限である「横方向の配置枚数」回分、処理を行ったか否かを判断する(S216)。S216の判断が否定される場合(S216:No)、次のデータの配置位置を示す横方向位置を更新する(S220)。   After executing the process of arranging either the corrected frame image information or the corrected still image file in the arrangement buffer in this way, the next step is “horizontal” which is the upper limit of the number of images that can be arranged in the horizontal direction. It is determined whether or not the processing has been performed for the “number of directional arrangements” (S216). If the determination in S216 is negative (S216: No), the horizontal position indicating the arrangement position of the next data is updated (S220).

そして、レイアウト画像カウンタに「1」を加算し(S221)、レイアウト画像カウンタの値が、現在の処理対象の記録用紙に配置するインデックス画像の数「layout_no」以上となったか否かを判断する(S222)。S222の判断が否定される場合(S222:No)、S209の処理に戻り、次の配置順序に対応した配置情報を処理する。   Then, “1” is added to the layout image counter (S221), and it is determined whether or not the value of the layout image counter is equal to or larger than the number “layout_no” of index images to be arranged on the current recording paper to be processed (S221). S222). If the determination in S222 is negative (S222: No), the process returns to S209, and the arrangement information corresponding to the next arrangement order is processed.

このようにして、処理を繰り返すことにより、メディアカードに格納される動画像ファイルの各々から、抽出フレーム数(特許請求の範囲に記載の所定枚数に相当)のフレーム画像に相当するフレーム画像情報が抽出され、配置バッファに配置される。また、メディアカードに格納される静止画像ファイルが抽出され、配置バッファに配置される。   In this way, by repeating the process, frame image information corresponding to a frame image of the number of extracted frames (corresponding to the predetermined number described in the claims) is extracted from each of the moving image files stored in the media card. Extracted and placed in the placement buffer. Also, a still image file stored in the media card is extracted and placed in the placement buffer.

このようにして処理を繰り返す内に、「横方向の配置枚数」回分の配置処理が実行されると、S216の判断が肯定されるので(S216:Yes)、次に、配置用バッファのデータをプリンタ3(図2参照)へ渡す(S217)。これにより、配置用バッファに配置された、横一列分のインデックス画像に対応したデータが、プリンタ3による印刷処理にかけられ、画像一覧20を出力することができる。   If the arrangement processing for “horizontal arrangement number” times is executed while the processing is repeated in this way, the determination in S216 is affirmed (S216: Yes). The data is transferred to the printer 3 (see FIG. 2) (S217). Thereby, the data corresponding to the index image for one horizontal row arranged in the arrangement buffer is subjected to the printing process by the printer 3, and the image list 20 can be output.

そして、次の処理対象のインデックス画像の横方向配置位置を示す横方向位置を初期化し(S218)、また、縦方向配置位置を示す縦方向位置を更新する(S219)。すなわち、画像一覧20における次の列の左端から、次のインデックス画像が配列されるように、次の配置位置が決定される。そして、上述したS221、S222の処理を実行する。   Then, the horizontal position indicating the horizontal position of the next index image to be processed is initialized (S218), and the vertical position indicating the vertical position is updated (S219). That is, the next arrangement position is determined so that the next index image is arranged from the left end of the next column in the image list 20. And the process of S221 and S222 mentioned above is performed.

このようにして処理をしたインデックス画像の数が、処理対象の記録用紙に配置するインデックス画像数layout_noに到達すると、S222の判断が肯定されるので(S222:Yes)、図11に示す次の処理に移行する。   When the number of index images processed in this way reaches the number of index images layout_no to be arranged on the recording paper to be processed, the determination in S222 is affirmed (S222: Yes), so the next process shown in FIG. Migrate to

図11は、図10に示す配置印刷処理(S200)の続きを示すフローチャートであって、S222の判断が肯定される場合に実行される。   FIG. 11 is a flowchart showing the continuation of the layout printing process (S200) shown in FIG. 10, and is executed when the determination in S222 is affirmed.

まず、配置用バッファに、未だ印刷処理を行っていないデータが存在するかを判断する(S223)。S223の判断が肯定される場合(S223:Yes)、その残りのデータをプリンタ3に渡し(S224)、プリンタ3にて印刷出力させ、S225の処理に移行する。ただし配置用バッファに画像が配置されない領域については白地出力とする。一方、S223の判断が否定される場合(S223:No)、S224の判断をスキップし、S225の処理に移行する。   First, it is determined whether there is data that has not yet undergone printing processing in the arrangement buffer (S223). If the determination in S223 is affirmative (S223: Yes), the remaining data is transferred to the printer 3 (S224), the printer 3 prints it out, and the process proceeds to S225. However, an area where no image is arranged in the arrangement buffer is output as a white background. On the other hand, if the determination in S223 is negative (S223: No), the determination in S224 is skipped and the process proceeds to S225.

そして、1ページ分のデータ出力が完了したことを示す印刷完了命令をプリンタ3に渡す(S225)。そして、ページカウンタに「1」を加算する(S226)。次に、配置用バッファにおける次のデータの配置位置を示す横方向位置および縦方向位置を初期化する(S227)。そして、ページカウンタの値が、現在の処理対象のグループについて、何ページ分の画像一覧20を印刷出力するかを示す「生成ページ数」より大となったかを判断する(S228)。S228の判断が否定される場合(S228:No)、図10に示すS207の処理に戻り、同グループについて、次ページの処理を開始する。   Then, a print completion command indicating completion of data output for one page is passed to the printer 3 (S225). Then, “1” is added to the page counter (S226). Next, the horizontal position and the vertical position indicating the arrangement position of the next data in the arrangement buffer are initialized (S227). Then, it is determined whether the value of the page counter is greater than the “number of generated pages” indicating how many pages of the image list 20 are to be printed out for the current processing target group (S228). If the determination in S228 is negative (S228: No), the process returns to the process in S207 shown in FIG. 10, and the process for the next page is started for the same group.

一方、S228の判断が肯定される場合(S228:Yes)、グループカウンタに1を加算する(S229)。そして、グループカウンタの値が、グループ数記憶領域401に記憶された値より大となったか否かを判断する(S230)。S230の判断が否定される場合(S230:No)、S204に戻り、処理を繰り返す。すなわち、次のグループNoで特定されるグループを処理対象として処理を繰り返す。   On the other hand, if the determination in S228 is affirmative (S228: Yes), 1 is added to the group counter (S229). Then, it is determined whether or not the value of the group counter has become larger than the value stored in the group number storage area 401 (S230). When determination of S230 is denied (S230: No), it returns to S204 and repeats a process. That is, the process is repeated with the group specified by the next group number as the process target.

一方、S228の判断が肯定される場合(S228:Yes)、配置印刷処理(S200)を終了する。   On the other hand, if the determination in S228 is affirmative (S228: Yes), the layout printing process (S200) is terminated.

このように、このMFP1によれば、図3(a)を参照して説明したように、動画像ファイルから抽出される各インデックス画像21a,21b,21cと、静止画像ファイルから抽出されるインデックス画像22とが混在する画像一覧20を印刷出力する場合、各インデックス画像21a,21b,21c,22の大きさが基準特徴量BSSpと一致するように補正され、各インデックス画像21a,21b,21c,22の色が基準特徴量BCSpと一致するように補正されて印刷出力されるので、各インデックス画像21a,21b,21c,22間で視覚的な統一感が確保されている画像一覧20を出力させることができる。また、ファイル時間情報(すなわち、静止画像ファイルまたはフレーム画像情報の撮影時間)に従った配置順序でインデックス画像が配列された画像一覧20を出力することができる。   As described above, according to the MFP 1, as described with reference to FIG. 3A, the index images 21a, 21b, and 21c extracted from the moving image file and the index images extracted from the still image file. 22 is printed out, the size of each index image 21a, 21b, 21c, 22 is corrected so as to match the reference feature value BSSp, and each index image 21a, 21b, 21c, 22 is corrected. Since the color of the image is corrected so as to match the reference feature value BCSp and printed out, the image list 20 in which visual unification is ensured among the index images 21a, 21b, 21c, and 22 is output. Can do. Further, it is possible to output the image list 20 in which the index images are arranged in the arrangement order according to the file time information (that is, the shooting time of the still image file or the frame image information).

以上、実施形態に基づき本発明を説明したが、本発明は上述した実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変更が可能であることは容易に推察できるものである。   Although the present invention has been described based on the embodiments, the present invention is not limited to the above-described embodiments, and various improvements and modifications can be easily made without departing from the spirit of the present invention. Can be inferred.

例えば、本実施形態では、画像一覧20を記録用紙に印刷出力するものとして説明したが、LCD5など表示装置に画像一覧20を表示出力する場合にも、本発明を適用できる。   For example, in the present embodiment, the image list 20 is described as being printed out on recording paper. However, the present invention can also be applied to the case where the image list 20 is displayed on a display device such as the LCD 5.

また、本発明を、例えば、パーソナルコンピュータに適用し、PCのモニターに、画像一覧20を表示出力する場合、あるいは、パーソナルコンピュータからプリンタを制御して画像一覧を印刷出力する場合にも、本発明を適用できる。   The present invention is also applied to, for example, a case where the present invention is applied to a personal computer and the image list 20 is displayed on a PC monitor, or the image list is printed out by controlling the printer from the personal computer. Can be applied.

また、上記実施形態では、全グループについて画像一覧20が出力されるものとして説明したが、例えば、ユーザにより選択されたグループについてのみ画像一覧20を出力するように構成しても良い。   In the above embodiment, the image list 20 is output for all groups. However, for example, the image list 20 may be output only for the group selected by the user.

また、上述した実施形態では、動画像ファイルおよび静止画像ファイルは、共に撮影により生成された画像ファイルであるものとして説明したが、動画像ファイルおよび静止画像ファイルは、撮影以外の方法で生成されるものであっても、本発明を適用可能である。その場合は、撮影日時に代えて、ファイルの作成日時を表すファイルの生成日時情報や、ファイルの更新日時情報など、他の条件を元に、インデックス画像の配置順序を決定するように構成されても良い。   In the above-described embodiment, the moving image file and the still image file are both assumed to be image files generated by shooting. However, the moving image file and the still image file are generated by a method other than shooting. Even if it is a thing, this invention is applicable. In that case, the arrangement order of the index images is determined based on other conditions such as file generation date / time information indicating file creation date / time and file update date / time information instead of the shooting date / time. Also good.

また、上述した実施形態では、メディアカード内に、静止画像ファイルと動画像ファイルとが混在している場合について説明したが、メディアカード内に動画像ファイルのみが格納されている場合にも本発明は適用可能である。   In the above-described embodiment, the case where the still image file and the moving image file are mixed in the media card has been described. However, the present invention is also applicable to the case where only the moving image file is stored in the media card. Is applicable.

また、上述した実施形態では、着脱可能なメディアカード内に記憶されている画像情報を処理対象としていたが、MFP1の内部メモリに格納された画像情報を処理対象とする場合にも、本発明は適用可能である。   In the above-described embodiment, the image information stored in the removable media card is the processing target. However, the present invention is also applicable to the case where the image information stored in the internal memory of the MFP 1 is the processing target. Applicable.

また、上述した実施形態では、各インデックス画像の大きさを統一するために各インデックス画像の大きさを基準特徴量BSSpに一致させ、且つ、各インデックス画像の色をを統一するために各インデックス画像の色を基準特徴量BCSpに一致させる場合について説明したが、基準特徴量BSSpと、基準特徴量BCSpとのいずれか一方にだけ一致するように補正するように構成しても良い。   Further, in the above-described embodiment, the size of each index image is matched with the reference feature amount BSSp in order to unify the size of each index image, and each index image is unified in order to unify the color of each index image. In the above description, the color is matched with the reference feature value BCSp. However, the color may be corrected so as to match only one of the reference feature value BSSp and the reference feature value BCSp.

また、上述した実施形態では、図11に示すS212a、S214aの処理において、色相、輝度、彩度の全てについて変換する場合について説明したが、いずれか一以上変換するように構成しても良い。   In the above-described embodiment, the case of converting all of hue, luminance, and saturation in the processing of S212a and S214a shown in FIG. 11 has been described. However, any one or more of them may be converted.

また、上述した実施形態では、図10に示すS155,S156において静止画像ファイルに対応する静止画像についてのみ、画像特徴量SSp,CSpを算出する場合について説明したが、フレーム画像情報についても画像特徴量SSp,CSpを算出し、S160と、S161において、両者(静止画像および動画像)の画像特徴量SSp,CSpから各基準特徴量を算出するように構成しても良い。   In the above-described embodiment, the case where the image feature amounts SSp and CSp are calculated only for the still image corresponding to the still image file in S155 and S156 shown in FIG. 10 has been described. SSp and CSp may be calculated, and in S160 and S161, the respective reference feature values may be calculated from the image feature values SSp and CSp of both (still image and moving image).

本発明の画像処理装置の実施形態であるMFPの外観構成を示した斜視図である。1 is a perspective view showing an external configuration of an MFP that is an embodiment of an image processing apparatus of the present invention. MFPの電気的構成を示すブロック図である。2 is a block diagram illustrating an electrical configuration of the MFP. FIG. MFPが印刷出力する画像一覧の一例を示す図である。3 is a diagram illustrating an example of an image list printed out by an MFP. FIG. ファイル情報記憶領域の構成を模式的に示す図である。It is a figure which shows typically the structure of a file information storage area. 配置情報記憶領域の構成を模式的に示す図である。It is a figure which shows typically the structure of an arrangement | positioning information storage area. グループ情報記憶領域の構成の一例を示す図である。It is a figure which shows an example of a structure of a group information storage area. 配置順決定処理を示すフローチャートである。It is a flowchart which shows an arrangement | positioning order determination process. 画像日付算出処理を示すフローチャートである。It is a flowchart which shows an image date calculation process. 図7に示す配置順決定処理の続きの部分を示すフローチャートである。FIG. 8 is a flowchart showing a continuation of the arrangement order determination process shown in FIG. 7. FIG. 基準特徴量算出処理を示すフローチャートである。It is a flowchart which shows a reference | standard feature-value calculation process. 配置印刷処理を示すフローチャートである。It is a flowchart which shows arrangement | positioning printing processing. 図10に示す配置印刷処理の続きを示すフローチャートである。FIG. 11 is a flowchart showing a continuation of the layout printing process shown in FIG. 10. FIG.

符号の説明Explanation of symbols

1 MFP(画像処理装置の一例)
3 プリンタ(記録手段の一部)
6 スロット部(取得手段の一部)
20 画像一覧
21a,21b,21c インデックス画像(フレーム画像の一例
22 インデックス画像(静止画像の一例)
S211 抽出手段の一部
S225 出力制御手段の一部
S155 画像特徴量算出手段の一部
S160,S161 基準特徴量算出手段の一部
S212a,S214a 画像補正手段の一部
1 MFP (an example of an image processing apparatus)
3 Printer (part of recording means)
6 Slot part (part of acquisition means)
20 Image list 21a, 21b, 21c Index image (an example of a frame image )
22 Index image (an example of a still image)
S211 Part of extraction means S225 Part of output control means S155 Part of image feature quantity calculation means S160, S161 Part of reference feature quantity calculation means S212a, S214a Part of image correction means

Claims (8)

1以上の静止画像ファイルと、1以上の動画像ファイルとを取得する取得手段と、
その取得手段によって取得された動画像ファイルから1以上のフレーム画像を抽出する抽出手段と、
記取得手段によって取得された静止画像ファイルおよび動画像ファイルのうち、静止画像ファイルの静止画像の画像特徴をあらわす特徴量を、前記取得手段により取得された1以上の静止画像ファイルそれぞれについて算出する画像特徴量算出手段と、
その画像特徴量算出手段によって算出された1以上の静止画像に対応する1以上の特徴量から基準となる基準特徴量を算出する基準特徴量算出手段と、
前記1以上のフレーム画像の各々のフレーム画像の特徴量と、前記1以上の静止画像の各々の静止画像の特徴量とを、前記基準特徴量算出手段によって算出された基準特徴量に一致させるように画像を補正する画像補正手段と、
その画像補正手段によって補正された前記フレーム画像と、前記静止画像とを、同一出力面上に出力させる出力制御手段と、を備えていることを特徴とする画像処理装置。
Obtaining means for obtaining one or more still image files and one or more moving image files;
Extraction means for extracting one or more frame images from the moving image file acquired by the acquisition means;
Among prior SL still image files and moving image files acquired by the acquiring unit, a feature amount representing an image feature of the still image picture of quiescent image file, has been one or more still image files respectively acquired by the acquisition unit an image feature quantity calculating means for calculating for,
And the reference feature amount calculating means for calculating a reference feature amount as the one or more feature quantities or al criteria corresponding to one or more still image calculated by the image feature quantity calculating means,
The feature amount of each frame image of the one or more frame images and the feature amount of each still image of the one or more still images are matched with the reference feature amount calculated by the reference feature amount calculating means. Image correcting means for correcting the image,
An image processing apparatus comprising: output control means for outputting the frame image corrected by the image correction means and the still image on the same output surface.
前記画像特徴量算出手段は、前記特徴量として、画像の色に関する情報を示す色情報と画像の大きさに関する情報を示すサイズ情報とのうち、少なくとも一方を算出し、
前記基準特徴量算出手段は、上記画像特徴量算出手段によって得られた特徴量から基準となる基準特徴量を算出し、
前記画像補正手段は、前記1以上のフレーム画像の各々のフレーム画像の特徴量と、前記1以上の静止画像の各々の静止画像の特徴量とを、前記基準特徴量算出手段で算出された基準特徴量に一致させるように画像補正すること特徴とする請求項1に記載の画像処理装置。
The image feature amount calculating means calculates at least one of color information indicating information about the color of the image and size information indicating information about the size of the image as the feature amount,
The reference feature value calculating means calculates a reference feature value serving as a reference from the feature value obtained by the image feature value calculating means,
The image correction means uses the reference feature value calculated by the reference feature value calculation means to calculate the feature value of each frame image of the one or more frame images and the feature value of each still image of the one or more still images. the image processing apparatus according to claim 1, characterized by the image correction to match the characteristic amount.
前記色情報は、輝度を示す輝度情報、彩度を示す彩度情報、色相を示す色相情報のうち、何れか一以上であることを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 2 , wherein the color information is at least one of luminance information indicating luminance, saturation information indicating saturation, and hue information indicating hue. 前記サイズ情報は、画像の幅を示す幅情報、画像の高さを示す高さ情報、画像のアスペクト比を示すアスペクト比情報であることを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 2 , wherein the size information is width information indicating an image width, height information indicating an image height, and aspect ratio information indicating an image aspect ratio. 記録用紙に画像を記録する記録手段を備え、
前記出力制御手段は、前記画像補正手段によって補正された前記フレーム画像と、前記静止画像とを、前記記録手段によって前記記録用紙の同一紙面上に記録させることを特徴とする請求項1からのいずれかに記載の画像処理装置。
A recording means for recording an image on a recording paper;
It said output control means includes: the frame image corrected by the image correcting means, wherein the still image, of claims 1 to 4, characterized in that to record on the same paper surface of the recording sheet by said recording means The image processing apparatus according to any one of the above.
前記取得手段は、複数の静止画像ファイルと、1以上の動画像ファイルとを取得し、The acquisition means acquires a plurality of still image files and one or more moving image files,
前記画像特徴量算出手段は、前記取得手段により取得したすべての静止画像ファイルの静止画像の画像特徴をあらわす特徴量をそれぞれ算出し、The image feature amount calculating means calculates feature amounts representing image features of still images of all still image files acquired by the acquiring means,
前記基準特徴量算出手段は、前記画像特徴量算出手段により算出されたすべての静止画像に対応する複数の特徴量から、1つの基準特徴量を算出する、ことを特徴とする請求項1から5のいずれかに記載の画像処理装置。6. The reference feature amount calculating unit calculates one reference feature amount from a plurality of feature amounts corresponding to all still images calculated by the image feature amount calculating unit. An image processing apparatus according to any one of the above.
前記基準特徴量算出手段は、前記画像特徴量算出手段により算出された各々の静止画像の画像特徴をあらわす特徴量により求められる平均値を、基準特徴量として算出することを特徴とする請求項6に記載の画像処理装置。7. The reference feature value calculating unit calculates an average value obtained from a feature value representing an image feature of each still image calculated by the image feature value calculating unit as a reference feature value. The image processing apparatus according to 1. 前記画像特徴量算出手段は、前記取得手段によって取得されたファイルが静止画像ファイルの場合にその静止画像ファイルにおける静止画像の画像特徴をあらわす特徴量を算出し、前記取得手段によって取得されたファイルが動画像ファイルの場合にその動画像ファイルから抽出されるフレーム画像の画像特徴をあらわす特徴量を算出しないことを特徴とする請求項1から7のいずれかに記載の画像処理装置。When the file acquired by the acquisition unit is a still image file, the image feature amount calculation unit calculates a feature amount representing an image feature of a still image in the still image file, and the file acquired by the acquisition unit is 8. The image processing apparatus according to claim 1, wherein in the case of a moving image file, a feature quantity representing an image feature of a frame image extracted from the moving image file is not calculated.
JP2008094232A 2008-03-31 2008-03-31 Image processing device Active JP4569659B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008094232A JP4569659B2 (en) 2008-03-31 2008-03-31 Image processing device
US12/413,133 US8687230B2 (en) 2008-03-31 2009-03-27 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008094232A JP4569659B2 (en) 2008-03-31 2008-03-31 Image processing device

Publications (2)

Publication Number Publication Date
JP2009246897A JP2009246897A (en) 2009-10-22
JP4569659B2 true JP4569659B2 (en) 2010-10-27

Family

ID=41308294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008094232A Active JP4569659B2 (en) 2008-03-31 2008-03-31 Image processing device

Country Status (1)

Country Link
JP (1) JP4569659B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5686673B2 (en) 2010-07-22 2015-03-18 富士フイルム株式会社 Image processing apparatus, image processing method, and program
JP5677119B2 (en) * 2011-02-10 2015-02-25 キヤノン株式会社 Photobook creation device and control method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269560A (en) * 2004-03-22 2005-09-29 Fuji Xerox Co Ltd Image processor, image processing method, and program
JP2006295314A (en) * 2005-04-06 2006-10-26 Sony Corp Image processor and processing method, recording medium, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005269560A (en) * 2004-03-22 2005-09-29 Fuji Xerox Co Ltd Image processor, image processing method, and program
JP2006295314A (en) * 2005-04-06 2006-10-26 Sony Corp Image processor and processing method, recording medium, and program

Also Published As

Publication number Publication date
JP2009246897A (en) 2009-10-22

Similar Documents

Publication Publication Date Title
US7751640B2 (en) Image processing method, image processing apparatus, and computer-readable recording medium storing image processing program
US9053556B2 (en) Image processing apparatus for panoramic synthesis of a plurality of sub-images
US8687230B2 (en) Image processor
US8588532B2 (en) Image processor
JP5034820B2 (en) Image processing apparatus and image processing program
JP4645672B2 (en) Image processing device
US20090060388A1 (en) Image Processing Device, Image Processing Method, and Image Processing Program
US7433079B2 (en) Image processing apparatus and method
US8466929B2 (en) Image processor
JPWO2005112428A1 (en) Image processing method, image processing apparatus, image recording apparatus, and image processing program
US8351737B2 (en) Image processing apparatus
US7768674B2 (en) Exposure determining device and exposure determining method
JP4569659B2 (en) Image processing device
JP2005192162A (en) Image processing method, image processing apparatus, and image recording apparatus
JP2008061209A (en) Image processing method
JP4962384B2 (en) Image processing device
JP5343739B2 (en) Output device and program
JP2005192158A (en) Image processing method, image processing apparatus, and image recording apparatus
US8243328B2 (en) Printing method, printing apparatus, and storage medium storing a program
JP4569658B2 (en) Image processing device
JP2009246900A (en) Image processor
JP4821794B2 (en) Image processing device
JP2008123456A (en) Image processing method, image processing device, image forming device, computer program, and recording medium
JP2004312487A (en) Image recorder, image recording method and storage medium
US20090037475A1 (en) Image Processing Device, Image Processing Method, and Image Processing Program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100713

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100726

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4569659

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150