JP2007193592A - Image processing apparatus, image processing method and image processing program - Google Patents

Image processing apparatus, image processing method and image processing program Download PDF

Info

Publication number
JP2007193592A
JP2007193592A JP2006011327A JP2006011327A JP2007193592A JP 2007193592 A JP2007193592 A JP 2007193592A JP 2006011327 A JP2006011327 A JP 2006011327A JP 2006011327 A JP2006011327 A JP 2006011327A JP 2007193592 A JP2007193592 A JP 2007193592A
Authority
JP
Japan
Prior art keywords
image data
group
date
grouping
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006011327A
Other languages
Japanese (ja)
Inventor
Chizuko Ikeda
千鶴子 池田
Shoichi Nomura
庄一 野村
Kimiharu Akaboshi
公治 赤星
Yoshiaki Yamanaka
義明 山中
Shin Nakane
伸 中根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2006011327A priority Critical patent/JP2007193592A/en
Publication of JP2007193592A publication Critical patent/JP2007193592A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To suitably group image data in accordance with its generation time. <P>SOLUTION: A receiving terminal as an image recoding apparatus is provided with a control means 11 to be applied as: a differential value calculation means for calculating a differential value in the generation time of image data to be grouped on the basis of the date information of the image data to be grouped out of image data recorded in a recording medium M as a recording medium for recording image data having date information indicating the generation time as additional information; a threshold setting means for setting the threshold of a generation time interval for group division in accordance with the date information of the image data to be grouped; and a group setting means for grouping and setting the image data to be grouped by defining a position where the calculated differential value corresponding to the date information of the image data to be grouped is larger than the set group dividing threshold corresponding to the date information as a group dividing position. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program.

近年、アナログカメラに代わってデジタルカメラの普及が進んでいる。また、撮影画像データを記録・保存しておくメモリ(メディア)についても、大容量化・低価格化が進んでおり、1つのメモリに膨大な数の画像データが記録可能となっている。この記録画像データの増加によって、画像管理の必要性が生じ、例えば、旅行等、一連の撮影画像毎にグループ分けする技術が所望され、検討されるようになった。   In recent years, digital cameras have been widely used in place of analog cameras. In addition, the memory (media) for recording and storing photographed image data is also increasing in capacity and price, and a huge number of image data can be recorded in one memory. Due to this increase in recorded image data, the need for image management has arisen, and for example, a technique for grouping a series of photographed images, such as travel, has been desired and studied.

画像データのグループ分けの手法として、画像データ同士の撮影時刻の差分が閾値より小さければ同一グループに設定する構成が考えられている(例えば、特許文献1参照)。
特開2001−228528号公報
As a method of grouping image data, a configuration in which the same group is set when the difference in photographing time between image data is smaller than a threshold value is considered (for example, see Patent Document 1).
JP 2001-228528 A

しかし、上記従来のグループ分け方式では、ユーザの所望する適正なグループ分けとならないおそれがあった。具体的には、古い画像データも新しい画像データにも同じ閾値が使われるため、プリント注文される頻度の低い古い撮影画像データも新しい撮影画像データと同様にグループ分けされ、古い撮影画像データのグループ数がユーザの所望の数よりも多くなっていた。   However, in the conventional grouping method, there is a risk that the proper grouping desired by the user may not be achieved. Specifically, since the same threshold is used for old image data and new image data, old photographed image data that is less frequently ordered is grouped in the same way as new photographed image data, and a group of old photographed image data The number was larger than the number desired by the user.

このため、各グループの画像データからプリントする画像データを選択するプリント注文操作時に、ユーザの作業時間及び作業負担が大きくなるという問題があった。   For this reason, there has been a problem in that the user's work time and work load increase during a print ordering operation for selecting image data to be printed from the image data of each group.

本発明の課題は、画像データをその生成時間に応じて適正にグループ分けすることである。   An object of the present invention is to appropriately group image data according to the generation time thereof.

上記の課題を解決するために、請求項1に記載の発明の画像処理装置は、
付加情報として生成時間を示す日時情報を有する画像データが記録された記録手段に記録されている画像データのうち、グルーピング対象の画像データの日時情報に基づいて、当該グルーピング対象の画像データの生成時間の差分値を算出する差分値算出手段と、
前記グルーピング対象の画像データの日時情報に応じてグループ区切り用の生成時間間隔の閾値を設定する閾値設定手段と、
前記グルーピング対象の画像データの日時情報に対応する前記算出された差分値が、当該日時情報に対応する前記設定されたグループ区切り用の閾値より大きい位置をグループ区切り位置として、当該グルーピング対象の画像データをグループ分けして設定するグループ設定手段と、
を備えることを特徴とする。
In order to solve the above problems, an image processing apparatus according to claim 1 is provided.
The generation time of the grouping target image data based on the date information of the grouping target image data among the image data recorded in the recording unit in which the image data having the generation time information indicating the generation time is recorded as additional information. Difference value calculating means for calculating the difference value of
Threshold setting means for setting a generation time interval threshold for group separation according to the date and time information of the image data to be grouped;
The image data of the grouping target is a position where the calculated difference value corresponding to the date / time information of the image data of the grouping target is larger than the set threshold for group separation corresponding to the date / time information of the grouping target. Group setting means for grouping and setting
It is characterized by providing.

請求項2に記載の発明は、請求項1に記載の画像処理装置において、
前記グループ区切り用の閾値は、前記日時情報が古いほど大きいことを特徴とする。
The invention according to claim 2 is the image processing apparatus according to claim 1,
The grouping threshold value is larger as the date / time information is older.

請求項3に記載の発明は、請求項1又は2に記載の画像処理装置において、
前記グループ分けされた画像データをグループごとに出力する出力手段を備えることを特徴とする。
The invention according to claim 3 is the image processing apparatus according to claim 1 or 2,
Output means for outputting the grouped image data for each group is provided.

請求項4に記載の発明は、請求項3に記載の画像処理装置において、
前記出力手段は、前記グループ分けされた画像データをグループごとに表示することを特徴とする。
The invention according to claim 4 is the image processing apparatus according to claim 3,
The output means displays the grouped image data for each group.

請求項5に記載の発明は、請求項4に記載の画像処理装置において、
前記グループ分けされたグループに属する画像データから、当該グループの代表画像データを決定する決定手段を備え、
前記出力手段は、前記代表画像データを表示することを特徴とする。
The invention according to claim 5 is the image processing apparatus according to claim 4,
Determining means for determining representative image data of the group from image data belonging to the group divided into groups;
The output means displays the representative image data.

請求項6に記載の発明は、請求項5に記載の画像処理装置において、
前記代表画像データの選択入力を受け付ける第1の入力手段と、
前記第1の入力手段により選択入力された代表画像データのグループに属する画像データのサムネイル画像データを生成する生成手段と、を備え、
前記出力手段は、前記生成されたサムネイル画像データを表示することを特徴とする。
The invention according to claim 6 is the image processing apparatus according to claim 5,
First input means for receiving selection input of the representative image data;
Generating means for generating thumbnail image data of image data belonging to a group of representative image data selected and input by the first input means,
The output means displays the generated thumbnail image data.

請求項7に記載の発明は、請求項1から6のいずれか一項に記載の画像処理装置において、
前記グループ分けされた画像データのうちプリント注文する画像データの選択入力を受け付ける第2の入力手段と、
前記第2の入力手段により選択入力された画像データをプリント用画像データとして画像形成手段に送信する送信手段と、
を備えることを特徴とする。
The invention according to claim 7 is the image processing apparatus according to any one of claims 1 to 6,
Second input means for receiving selection input of image data to be printed out of the grouped image data;
Transmitting means for transmitting the image data selected and input by the second input means to the image forming means as print image data;
It is characterized by providing.

請求項8に記載の発明の画像処理方法は、
付加情報として生成時間を示す日時情報を有する画像データが記録された記録手段に記録されている画像データのうち、グルーピング対象の画像データの日時情報に基づいて、当該グルーピング対象の画像データの生成時間の差分値を算出する差分値算出工程と、
前記グルーピング対象の画像データの日時情報に応じてグループ区切り用の生成時間間隔の閾値を設定する閾値設定工程と、
前記グルーピング対象の画像データの日時情報に対応する前記算出された差分値が、当該日時情報に対応する前記設定されたグループ区切り用の閾値より大きい位置をグループ区切り位置として、当該グルーピング対象の画像データをグループ分けして設定するグループ設定工程と、
を含むことを特徴とする。
An image processing method according to an eighth aspect of the present invention includes:
The generation time of the grouping target image data based on the date information of the grouping target image data among the image data recorded in the recording unit in which the image data having the generation time information indicating the generation time is recorded as additional information. A difference value calculating step for calculating a difference value of
A threshold setting step for setting a generation time interval threshold for group separation according to date and time information of the image data to be grouped;
The grouping target image data with the calculated difference value corresponding to the date / time information of the grouping target image data being larger than the set grouping threshold corresponding to the date / time information as a grouping position. A group setting process for grouping and setting
It is characterized by including.

請求項9に記載の発明は、請求項8に記載の画像処理方法において、
前記グループ区切り用の閾値は、前記日時情報が古いほど大きいことを特徴とする。
The invention according to claim 9 is the image processing method according to claim 8,
The grouping threshold value is larger as the date / time information is older.

請求項10に記載の発明は、請求項8又は9に記載の画像処理方法において、
前記グループ分けされた画像データをグループごとに出力する出力工程を含むことを特徴とする。
The invention according to claim 10 is the image processing method according to claim 8 or 9, wherein
An output step of outputting the grouped image data for each group is included.

請求項11に記載の発明は、請求項10に記載の画像処理方法において、
前記出力工程は、前記グループ分けされた画像データをグループごとに表示する工程であることを特徴とする。
The invention according to claim 11 is the image processing method according to claim 10,
The output step is a step of displaying the grouped image data for each group.

請求項12に記載の発明は、請求項11に記載の画像処理方法において、
前記グループ分けされたグループに属する画像データから、当該グループの代表画像データを決定する決定工程を含み、
前記出力工程において、前記代表画像データを表示することを特徴とする。
The invention according to claim 12 is the image processing method according to claim 11,
A determination step of determining representative image data of the group from the image data belonging to the group divided into groups,
In the output step, the representative image data is displayed.

請求項13に記載の発明は、請求項12に記載の画像処理方法において、
前記代表画像データの選択入力を受け付ける第1の入力工程と、
前記第1の入力工程で選択入力された代表画像データのグループに属する画像データのサムネイル画像データを生成する生成工程と、を含み、
前記出力工程において、前記生成されたサムネイル画像データを表示することを特徴とする。
The invention according to claim 13 is the image processing method according to claim 12,
A first input step for receiving selection input of the representative image data;
Generating thumbnail image data of image data belonging to the group of representative image data selected and input in the first input step, and
In the output step, the generated thumbnail image data is displayed.

請求項14に記載の発明は、請求項8から13のいずれか一項に記載の画像処理方法において、
前記グループ分けされた画像データのうちプリント注文する画像データの選択入力を受け付ける第2の入力工程と、
前記第2の入力工程で選択入力された画像データをプリント用画像データとして画像形成手段に送信する送信工程と、を含むことを特徴とする。
The invention according to claim 14 is the image processing method according to any one of claims 8 to 13,
A second input step for receiving selection input of image data to be printed out of the grouped image data;
And a transmission step of transmitting the image data selected and input in the second input step as image data for printing to the image forming means.

請求項15に記載の発明の画像処理プログラムは、
コンピュータを、
付加情報として生成時間を示す日時情報を有する画像データが記録された記録手段に記録されている画像データのうち、グルーピング対象の画像データの日時情報に基づいて、当該グルーピング対象の画像データの生成時間の差分値を算出する差分値算出手段、
前記グルーピング対象の画像データの日時情報に応じてグループ区切り用の生成時間間隔の閾値を設定する閾値設定手段、
前記グルーピング対象の画像データの日時情報に対応する前記算出された差分値が、当該日時情報に対応する前記設定されたグループ区切り用の閾値より大きい位置をグループ区切り位置として、当該グルーピング対象の画像データをグループ分けして設定するグループ設定手段、
として機能させることを特徴とする。
The image processing program of the invention according to claim 15
Computer
Based on the date / time information of the grouping target image data among the image data recorded in the recording means in which the image data having the date / time information indicating the generation time is recorded as additional information, the generation time of the grouping target image data Difference value calculation means for calculating the difference value of
Threshold setting means for setting a generation time interval threshold for group separation according to the date and time information of the image data to be grouped;
The image data of the grouping target is a position where the calculated difference value corresponding to the date / time information of the image data of the grouping target is larger than the set threshold for group separation corresponding to the date / time information of the grouping target. Group setting means for grouping and setting
It is made to function as.

請求項16に記載の発明は、請求項15に記載の画像処理プログラムにおいて、
前記グループ区切り用の閾値は、前記日時情報が古いほど大きいことを特徴とする。
The invention according to claim 16 is the image processing program according to claim 15,
The grouping threshold value is larger as the date / time information is older.

請求項17に記載の発明は、請求項15又は16に記載の画像処理プログラムにおいて、
前記コンピュータを、
前記グループ分けされた画像データをグループごとに出力する出力手段として機能させることを特徴とする。
The invention according to claim 17 is the image processing program according to claim 15 or 16,
The computer,
It is made to function as an output means for outputting the grouped image data for each group.

請求項18に記載の発明は、請求項17に記載の画像処理プログラムにおいて、
前記出力手段は、前記グループ分けされた画像データをグループごとに表示することを特徴とする。
The invention according to claim 18 is the image processing program according to claim 17,
The output means displays the grouped image data for each group.

請求項19に記載の発明は、請求項18に記載の画像処理プログラムにおいて、
前記コンピュータを、
前記グループ分けされたグループに属する画像データから、当該グループの代表画像データを決定する決定手段として機能させ、
前記出力手段は、前記代表画像データを表示することを特徴とする。
The invention according to claim 19 is the image processing program according to claim 18,
The computer,
From the image data belonging to the group divided into groups, function as a determining means for determining representative image data of the group,
The output means displays the representative image data.

請求項20に記載の発明は、請求項19に記載の画像処理プログラムにおいて、
前記コンピュータを、
前記代表画像データの選択入力を受け付ける第1の入力手段、
前記第1の入力手段により選択入力された代表画像データのグループに属する画像データのサムネイル画像データを生成する生成手段、として機能させ、
前記出力手段は、前記生成されたサムネイル画像データを表示することを特徴とする。
The invention according to claim 20 is the image processing program according to claim 19,
The computer,
First input means for receiving selection input of the representative image data;
Functioning as generation means for generating thumbnail image data of image data belonging to the group of representative image data selected and input by the first input means,
The output means displays the generated thumbnail image data.

請求項21に記載の発明は、請求項15から20のいずれか一項に記載の画像処理プログラムにおいて、
前記コンピュータを、
前記グループ分けされた画像データのうちプリント注文する画像データの選択入力を受け付ける第2の入力手段、
前記第2の入力手段により選択入力された画像データをプリント用画像データとして画像形成手段に送信する送信手段、として機能させることを特徴とする。
The invention according to claim 21 is the image processing program according to any one of claims 15 to 20,
The computer,
Second input means for receiving selection input of image data to be printed out of the grouped image data;
The image data selected and input by the second input unit is made to function as a transmission unit that transmits image data for printing to the image forming unit.

本発明によれば、画像データをその生成時間に応じて適正にグループ分けすることができる。   According to the present invention, image data can be appropriately grouped according to the generation time.

以下、図面を参照して本発明に係る実施の形態を詳細に説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

まず、図1〜図3を参照して、本実施形態における構成について説明する。
図1に、本実施形態の画像処理システム100の構成を示す。
First, the configuration of this embodiment will be described with reference to FIGS.
FIG. 1 shows a configuration of an image processing system 100 of the present embodiment.

画像処理システム100は、図1に示すように、顧客(ユーザ)からのプリント注文を受け付けるための本発明の画像処理装置としての受付端末1、各顧客のプリント注文に係る情報を管理するためのオーダー管理装置2、画像データをプリントする画像プリンタ部4、メディアに画像情報を書き込む画像メディア書込部5を備えて構成される。オーダー管理装置2には、受付端末1、画像プリンタ部4、画像メディア書込部5が接続される。なお、オーダー管理装置2に接続される受付端末1、画像プリンタ部4、画像メディア書込部5の台数は、図1の例に限定されない。オーダー管理装置2及び画像プリンタ部4は、画像形成手段として機能する。   As shown in FIG. 1, the image processing system 100 is a reception terminal 1 as an image processing apparatus of the present invention for receiving a print order from a customer (user), and manages information related to the print order of each customer. The order management apparatus 2 includes an image printer unit 4 that prints image data, and an image media writing unit 5 that writes image information on a medium. The order management device 2 is connected to a reception terminal 1, an image printer unit 4, and an image media writing unit 5. Note that the numbers of the receiving terminal 1, the image printer unit 4, and the image media writing unit 5 connected to the order management apparatus 2 are not limited to the example of FIG. 1. The order management device 2 and the image printer unit 4 function as image forming means.

図2に、受付端末1の主要部構成を示す。受付端末1は、プリント注文を受け付けるための店舗に設置され、図2に示すように、差分値算出手段、閾値設定手段、グループ設定手段、決定手段、生成手段としての制御部11、表示手段としての表示部12、第1の入力手段、第2の入力手段としての操作入力部13、メディア読取部14、記憶部15、注文確認票発行部16、送信手段としての通信部17を備えて構成され、各部はバス18を介して相互に接続される。   In FIG. 2, the principal part structure of the reception terminal 1 is shown. The reception terminal 1 is installed in a store for receiving a print order. As shown in FIG. 2, as a difference value calculation means, a threshold setting means, a group setting means, a determination means, a control section 11 as a generation means, and a display means Display section 12, first input means, operation input section 13 as second input means, media reading section 14, storage section 15, order confirmation slip issuing section 16, and communication section 17 as transmission means. These units are connected to each other via a bus 18.

制御部11は、CPU(Central Processing Unit)、RAM(Random Access Memory)等により構成される。制御部11において、記憶部15に格納された各種処理プログラムが読み出されてRAMに展開され、当該展開されたプログラムとCPUとの協働で、受付端末1を構成する各部の動作が制御される。   The control unit 11 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like. In the control unit 11, various processing programs stored in the storage unit 15 are read out and expanded in the RAM, and the operation of each unit constituting the reception terminal 1 is controlled in cooperation with the expanded program and the CPU. The

表示部12は、LCD(Liquid Crystal Display)等の表示ディスプレイにより構成され、制御部11から入力される表示制御信号に従って、所要の表示処理を行う。   The display unit 12 is configured by a display such as an LCD (Liquid Crystal Display), and performs a required display process according to a display control signal input from the control unit 11.

操作入力部13は、テンキー、カーソルキー、各種ファンクションキー等を有し、キーの押下による操作信号を制御部11に出力する。また、操作入力部13は、表示部12の表示ディスプレイを覆うように設けられたタッチパネルを有し、電磁誘導式、磁気歪式、感圧式等の座標読み取り原理でタッチ指示された座標を検出し、検出した座標を位置信号として制御部11に出力する。   The operation input unit 13 includes a numeric keypad, cursor keys, various function keys, and the like, and outputs an operation signal generated by pressing the key to the control unit 11. Further, the operation input unit 13 has a touch panel provided so as to cover the display display of the display unit 12, and detects a coordinate instructed to be touched by a coordinate reading principle such as an electromagnetic induction type, a magnetostriction type, a pressure sensitive type or the like. The detected coordinates are output to the control unit 11 as a position signal.

メディア読取部14は、メモリスティック(登録商標)、スマートメディア(登録商標)、コンパクトフラッシュ(登録商標)、マルチメディアカード(登録商標)、SDメモリカード(登録商標)、PCカード等のメディア(記録手段)Mが装着可能な構成となっており、装着されたメディアMに記録されたデータを読み取る。なお、本実施の形態では、ユーザが持参したこれらのメディアを、本発明の記録手段としているが、受付端末1に内蔵された或いは外付けされたハードディスク、受付端末1に接続された画像サーバ等を記録手段としてもよい。   The media reading unit 14 is a medium (recording device) such as a memory stick (registered trademark), smart media (registered trademark), compact flash (registered trademark), multimedia card (registered trademark), SD memory card (registered trademark), or PC card. Means) M is configured to be mountable, and reads data recorded on the mounted medium M. In the present embodiment, these media brought by the user are used as the recording means of the present invention. However, a hard disk built in or externally attached to the reception terminal 1, an image server connected to the reception terminal 1, etc. May be used as recording means.

記憶部15は、制御部11により実行される各種処理プログラム及びこれらの処理プログラムの実行時に使用されるデータ等を格納している。記憶部15は、第1のプリント受付処理を実行するための第1のプリント受付プログラムを記憶する。   The storage unit 15 stores various processing programs executed by the control unit 11 and data used when these processing programs are executed. The storage unit 15 stores a first print acceptance program for executing the first print acceptance process.

注文確認票発行部16は、制御部11からの制御信号に従って、ユーザにプリント注文の内容を確認させるための注文確認票やレシートを印刷出力する。   The order confirmation form issuing unit 16 prints out an order confirmation form or a receipt for allowing the user to confirm the contents of the print order in accordance with a control signal from the control unit 11.

通信部17は、モデム、ターミナルアダプタ、LANアダプタ等によって構成され、電話回線、ISDN回線、或いは専用線等の通信ネットワークを介して、外部機器(オーダー管理装置2)との通信を行うための通信制御を行う。   The communication unit 17 includes a modem, a terminal adapter, a LAN adapter, and the like, and performs communication with an external device (order management device 2) via a communication network such as a telephone line, an ISDN line, or a dedicated line. Take control.

図3に、オーダー管理装置2の主要部構成を示す。オーダー管理装置2は、図3に示すように、制御部21、表示部22、操作入力部23、記憶部24、I/F(インターフェイス)部25、通信部26、DB参照部27により構成され、各部はバス28を介して相互に接続される。   FIG. 3 shows a main part configuration of the order management apparatus 2. As shown in FIG. 3, the order management apparatus 2 includes a control unit 21, a display unit 22, an operation input unit 23, a storage unit 24, an I / F (interface) unit 25, a communication unit 26, and a DB reference unit 27. These units are connected to each other via a bus 28.

制御部21は、CPU、RAM等により構成される。制御部21において、記憶部24に格納された各種処理プログラムが読み出されてRAMに展開され、当該展開されたプログラムとCPUとの協働で、オーダー管理装置2を構成する各部の動作が制御される。具体的には、制御部21が、記憶部24に記憶された第1のプリント管理プログラムに基づいて後述する第1のプリント管理処理を実行する。   The control unit 21 includes a CPU, a RAM, and the like. In the control unit 21, various processing programs stored in the storage unit 24 are read out and expanded in the RAM, and the operation of each unit constituting the order management apparatus 2 is controlled in cooperation with the expanded program and the CPU. Is done. Specifically, the control unit 21 executes a first print management process to be described later based on a first print management program stored in the storage unit 24.

表示部22は、LCD等の表示ディスプレイにより構成され、制御部21から入力される表示制御信号に従って、所要の表示処理を行う。   The display unit 22 is configured by a display such as an LCD, and performs a required display process according to a display control signal input from the control unit 21.

操作入力部23は、テンキー、カーソルキー、各種ファンクションキー等を有し、キーの押下による操作信号を制御部11に出力する。なお、操作入力部23に、表示部22の表示ディスプレイを覆うようにタッチパネルを設けようにしてもよい。   The operation input unit 23 includes a numeric keypad, cursor keys, various function keys, and the like, and outputs an operation signal generated by pressing the key to the control unit 11. The operation input unit 23 may be provided with a touch panel so as to cover the display display of the display unit 22.

記憶部24は、制御部21により実行される各種処理プログラム及びこれらの処理プログラムの実行時に使用されるデータ等を格納している。記憶部24は、第1のプリント管理処理を実行するための第1のプリント管理プログラムを記憶する。   The storage unit 24 stores various processing programs executed by the control unit 21 and data used when these processing programs are executed. The storage unit 24 stores a first print management program for executing the first print management process.

I/F部25は、外部機器とデータ通信可能な通信モジュールであり、制御部21からの制御信号に従って、画像プリンタ部4、画像メディア書込部5にデータ出力を行う。   The I / F unit 25 is a communication module capable of data communication with an external device, and outputs data to the image printer unit 4 and the image media writing unit 5 in accordance with a control signal from the control unit 21.

通信部26は、モデム、ターミナルアダプタ、LANアダプタ等によって構成され、電話回線、ISDN回線、或いは専用線等の通信ネットワークを介して、外部機器(受付端末1)との通信を行うための通信制御を行う。   The communication unit 26 includes a modem, a terminal adapter, a LAN adapter, and the like, and performs communication control for communicating with an external device (receiving terminal 1) via a communication network such as a telephone line, an ISDN line, or a dedicated line. I do.

DB参照部27は、制御部21からの指示により、DB(DataBase)部3に格納された情報の読み出しや、情報の書き込みを行う。   The DB reference unit 27 reads information stored in a DB (DataBase) unit 3 and writes information in accordance with an instruction from the control unit 21.

図1に戻る。DB部3は、顧客に対して実施した過去のプリント注文サービスの履歴を示すサービス履歴情報を格納している。   Returning to FIG. The DB unit 3 stores service history information indicating a history of past print order services performed for the customer.

画像プリンタ部4は、オーダー管理装置2からの指示により、所定のプリント方式(電子写真方式、インクジェット方式、熱昇華方式等)でプリント出力を行う。   The image printer unit 4 performs print output by a predetermined printing method (electrophotographic method, ink jet method, thermal sublimation method, etc.) according to an instruction from the order management device 2.

画像メディア書込部5は、CD−R等のメディアが装着可能な構成となっており、オーダー管理装置2からの指示により、装着されたメディアに画像情報を書き込む。   The image media writing unit 5 is configured to be able to load a medium such as a CD-R, and writes image information to the loaded medium according to an instruction from the order management apparatus 2.

次に、図4〜図24を参照して本実施の形態における動作について説明する。図4に、受付端末1において実行される第1のプリント受付処理と、オーダー管理装置2において実行される第1のプリント管理処理と、の流れを示す。図5に、第1のグルーピング画像表示処理の流れを示す。   Next, the operation in the present embodiment will be described with reference to FIGS. FIG. 4 shows a flow of a first print acceptance process executed in the reception terminal 1 and a first print management process executed in the order management apparatus 2. FIG. 5 shows the flow of the first grouping image display process.

まず、図4のフローチャートを参照して、プリント注文の受付時に受付端末1において制御部11により実行される第1のプリント受付処理を説明する。   First, the first print acceptance process executed by the control unit 11 in the acceptance terminal 1 when accepting a print order will be described with reference to the flowchart of FIG.

第1のプリント受付処理は、受付端末1のメディア読取部14に、画像データが記録されたメディアMが挿入されたことをトリガとして制御部11により実行される。先ず、メディア読取部14内のメディアMのグルーピング対象画像データが読み込まれ、そのグルーピング対象画像データに付加された日時情報に基づいて画像データのグルーピングを行い、そのグルーピング後の画像データを表示部12に表示する第1のグルーピング画像表示処理が行われる(ステップS11)。   The first print acceptance process is executed by the control unit 11 triggered by the insertion of the medium M on which the image data is recorded into the media reading unit 14 of the reception terminal 1. First, the grouping target image data of the medium M in the media reading unit 14 is read, the image data is grouped based on the date / time information added to the grouping target image data, and the grouped image data is displayed on the display unit 12. A first grouping image display process to be displayed is performed (step S11).

図5を参照して、制御部11の制御のもとで実行される第1のグルーピング画像表示処理(ステップS11)について詳細に説明する。   With reference to FIG. 5, the first grouping image display process (step S11) executed under the control of the control unit 11 will be described in detail.

まず、メディアMに記録された画像データから、グルーピング対象画像データが読み込まれ、グルーピング対象画像データの画像数N(N:0以上の整数)が取得される(ステップS111)。そして、画像数Nが予め設定された所定数よりも多いか否かが判別される(ステップS112)。   First, grouping target image data is read from the image data recorded on the medium M, and the number N of images of the grouping target image data (N is an integer equal to or greater than 0) is acquired (step S111). Then, it is determined whether or not the number N of images is larger than a predetermined number set in advance (step S112).

画像数Nが所定数以下である場合(ステップS112;NO)、ステップS122に移行される。   When the image number N is equal to or less than the predetermined number (step S112; NO), the process proceeds to step S122.

画像数Nが所定数よりも多い場合(ステップS112;YES)、そのグルーピング対象画像データの日時情報が取得される(ステップS113)。日時情報は、画像データの生成や更新の日時を示す情報であり、デジタルカメラ等の撮影機器による撮影によって生成された画像データであれば、所定の画像が撮影によって生成された日時を示す情報、いわゆる撮影日時情報が好ましい。また、CG(Computer Graphics)画像等、エディタを使用して生成された画像データであれば、その画像データの生成日時又は更新日時を日時情報として使用すればよい。   When the number N of images is larger than the predetermined number (step S112; YES), date / time information of the grouping target image data is acquired (step S113). The date and time information is information indicating the date and time of generation and update of image data, and if it is image data generated by shooting with a shooting device such as a digital camera, information indicating the date and time when a predetermined image was generated by shooting, So-called shooting date / time information is preferable. In addition, if the image data is generated using an editor such as a CG (Computer Graphics) image, the generation date / time or update date / time of the image data may be used as the date / time information.

日時情報の取得に関しては、JPEG(Joint Photographic Coding Experts Group)、TIFF(Tagged Image File Format)、Exif(Exchangeable Image File Format)等に代表される各種の汎用画像フォーマットに規定されている既存のタグ情報を利用することができるが、これに限定されず、例えばメーカーノート等の自由に使用可能な領域に設定されている情報を利用してもよい。   Regarding the acquisition of date and time information, existing tag information stipulated in various general-purpose image formats represented by JPEG (Joint Photographic Coding Experts Group), TIFF (Tagged Image File Format), Exif (Exchangeable Image File Format), etc. However, the present invention is not limited to this. For example, information set in a freely usable area such as a maker note may be used.

グルーピング対象画像データの日時情報が取得されると、その取得された日時情報に基づいて、グルーピング対象画像データの各画像データが日時情報順(生成順)にソートされる(ステップS114)。ソートされた画像データは、このソート順に番号(1〜N)が付与される。   When the date / time information of the grouping target image data is acquired, the image data of the grouping target image data is sorted in the date / time information order (generation order) based on the acquired date / time information (step S114). Numbers (1 to N) are assigned to the sorted image data in this sort order.

そして、変数Iに初期値として1が設定される(ステップS115)。ステップS115の実行後、I番目及び(I+1)番目の画像データの日時情報の差分が算出される(ステップS116)とともに、I番目及び(I+1)番目の画像データの日時情報に対応する閾値が設定される(ステップS117)。   Then, 1 is set as an initial value in the variable I (step S115). After execution of step S115, the difference between the date information of the I-th and (I + 1) -th image data is calculated (step S116), and a threshold value corresponding to the date-time information of the I-th and (I + 1) -th image data is set. (Step S117).

日時情報に対応する閾値は、グルーピング対象画像データの最新の日時情報、若しくはユーザが注文処理を行う当日を基準として、基準日と各画像データの日時情報の差分値が大きくなるほど(つまり、古い画像データほど)大きな値となるように設定されることが好ましい。例えば、差分値が3ヶ月未満であれば閾値を2日とし、3ヶ月以上1年未満であれば1ヶ月、それ以上であれば12ヶ月とする、といった具合である。また、閾値は、例えば、予め設定されて記憶部15に記憶され、ステップS117において、日時情報をキーとして読み出されることにより取得されて設定される。   The threshold value corresponding to the date / time information is based on the latest date / time information of the grouping target image data or the date on which the user performs order processing, and the difference between the reference date and the date / time information of each image data increases (that is, the old image It is preferable that the value is set to a larger value. For example, if the difference value is less than 3 months, the threshold is 2 days, if the difference value is 3 months or more and less than 1 year, 1 month is set, and if it is more than 12 months, the threshold is set to 12 months. Further, the threshold value is set in advance and stored in the storage unit 15, for example, and is acquired and set by reading the date / time information as a key in step S117.

そして、ステップS116で算出されたI番目及び(I+1)番目の画像データの日時情報の差分が、ステップS117で取得された閾値より大きいか否かが判別される(ステップS118)。日時情報の差分が閾値より大きい場合(ステップS118;YES)、I番目及び(I+1)番目の画像データの間にグループ区切り位置が設定される(ステップS119)。例えば、グループ区切り位置は、グルーピング対象画像データとともに、グルーピング結果として、記憶部15に記憶される。   Then, it is determined whether or not the difference between the date information of the I-th and (I + 1) -th image data calculated in step S116 is larger than the threshold acquired in step S117 (step S118). If the difference between the date and time information is larger than the threshold (step S118; YES), a group break position is set between the I-th and (I + 1) -th image data (step S119). For example, the group break position is stored in the storage unit 15 as the grouping result together with the grouping target image data.

そして、変数Iが(N−1)よりも小さいか否かが判別される(ステップS120)。変数Iが(N−1)よりも小さい場合(ステップS120;YES)、変数Iが+1インクリメントされ(ステップS121)、ステップS116、S117に移行される。また、日時情報の差分が閾値以下の場合(ステップS118;NO)、ステップS120に移行される。   And it is discriminate | determined whether the variable I is smaller than (N-1) (step S120). When the variable I is smaller than (N−1) (step S120; YES), the variable I is incremented by +1 (step S121), and the process proceeds to steps S116 and S117. If the difference between the date and time information is equal to or smaller than the threshold (step S118; NO), the process proceeds to step S120.

グルーピング対象画像データについてグループ分けされなかった場合(全くグループ区切り位置が設定されない場合)には、グルーピング対象画像データの全てを一つのグループとして設定すればよい。また、グループ分けされなかった場合に、例えば、グルーピング処理の処理条件を、例えば日時情報に対応する閾値をさらに低く設定するなど、よりグループ分けしやすい条件に変更し、再度グルーピング処理を適用してもよい。   When grouping target image data is not grouped (when no group separation position is set), all of the grouping target image data may be set as one group. If the grouping process is not grouped, for example, the grouping process condition is changed to a condition that facilitates grouping, for example, by setting the threshold value corresponding to the date and time information lower, and the grouping process is applied again. Also good.

また、日時情報だけでなく、例えば特開2005−174060号公報に記載のように、GPS(Global Positioning System)情報等を利用し撮影場所に応じてグルーピングする手法を加味してもよい。   Further, not only the date and time information but also a method of grouping according to shooting locations using GPS (Global Positioning System) information or the like as described in, for example, JP-A-2005-174060 may be added.

さらに、ステップS111の前に、グルーピング処理の要否を判断するステップを追加し、グルーピング処理が不要である場合は、グルーピングをしないようにすることが好ましい。このようにすると、受付端末1の処理負荷を軽減させることができるとともに、ユーザ(顧客)の待ち時間を少なくすることができる。   Further, it is preferable to add a step of determining whether or not the grouping process is necessary before step S111 and to prevent the grouping when the grouping process is unnecessary. If it does in this way, while being able to reduce the processing load of the reception terminal 1, waiting time of a user (customer) can be decreased.

また、グルーピング処理後、1つの画像グループに属する画像データの数を計数し、所定数以上であった場合、又は表示画面上のボタン等からユーザの指示があった場合には、グルーピングされた画像データ群に対して、更に細かくグループ分けするように条件を変更したグルーピング処理を適用してもよい。また、グルーピング処理後、1つの画像グループに属する画像データの撮影日の範囲が所定期間より長い場合には、グルーピングされた画像データ群に対して、更に細かくグループ分けするように条件を変更したグルーピング処理を適用してもよい。更に細かくグループ分けするように条件を変更したグルーピング処理として、例えば、グルーピング処理の処理条件を、例えば日時情報に対応する閾値をさらに低く設定するなど、よりグループ分けしやすい条件に変更し、再度グルーピング処理を適用してもよい。   In addition, after grouping processing, the number of image data belonging to one image group is counted, and if the number is equal to or greater than a predetermined number, or if a user instruction is given from a button on the display screen, the grouped images You may apply the grouping process which changed conditions so that it might group into data group more finely. In addition, after the grouping process, when the shooting date range of the image data belonging to one image group is longer than a predetermined period, the grouping is performed by changing the conditions so that the grouped image data group is further divided into groups. Processing may be applied. As a grouping process whose conditions have been changed so as to be further finely grouped, for example, the grouping process conditions are changed to a condition that facilitates grouping, for example, by setting a threshold value corresponding to date and time information lower, and grouping is performed again. Processing may be applied.

変数Iが(N−1)以上の場合(ステップS120;NO)、グルーピング結果として、グルーピング対象画像データがグループ(画像グループ)ごとに表示部12に表示され(ステップS122)、第1のグルーピング画像表示処理が終了する。グルーピング結果の表示方式は、種々の手法をとることができる。   When the variable I is equal to or greater than (N-1) (step S120; NO), grouping target image data is displayed on the display unit 12 for each group (image group) as a grouping result (step S122), and the first grouping image is displayed. The display process ends. Various methods can be used to display the grouping result.

グルーピング結果の表示方式として、一方向に画像グループの標識や代表画像データまたは先頭画像データの画像を配し、もう一方に画像グループに属する画像データの画像を配するように2次元的に表示してもよい。図6に、グルーピング結果表示画面の一例を示す。例えば、図6に示すように、グルーピング結果表示画面の左側の縦方向にグループG1〜G3の代表画像データの画像を並べ、横方向に各グループG1〜G3に属する画像データの画像を配する構成としてもよい。また、図6のグルーピング結果表示画面では、グループG1〜G3の表示部分に、それぞれ、タッチパネルとしての矢印キー部g1〜g3を有する。矢印キー部g1〜g3をユーザがタッチすることにより、未表示の画像を表示させることができる。図6の例では、未表示の画像があるグループG1,G2の矢印キー部g1,g2がタッチ入力を受け付け、未表示の画像がないグループG3の矢印キー部g3がタッチ入力を受け付けない。矢印キー部g1,g2は、タッチ入力受付中である旨を示すように、矢印キー部g3と異なる色、模様で表示されている。図6のグルーピング結果表示画面では、後述するステップS12に対応して、プリントする画像データが選択できる構成となっている。   As a display method of the grouping result, two-dimensional display is performed such that an image group sign or representative image data or head image data image is arranged in one direction and an image data image belonging to the image group is arranged in the other direction. May be. FIG. 6 shows an example of the grouping result display screen. For example, as shown in FIG. 6, the image of the representative image data of groups G1 to G3 is arranged in the vertical direction on the left side of the grouping result display screen, and the image of the image data belonging to each group G1 to G3 is arranged in the horizontal direction. It is good. In the grouping result display screen of FIG. 6, the display portions of the groups G1 to G3 have arrow key portions g1 to g3 as touch panels, respectively. When the user touches the arrow key portions g1 to g3, an undisplayed image can be displayed. In the example of FIG. 6, the arrow key portions g1 and g2 of the groups G1 and G2 with the undisplayed image accept touch input, and the arrow key portion g3 of the group G3 with no undisplayed image does not accept the touch input. The arrow key parts g1 and g2 are displayed in a different color and pattern from the arrow key part g3 so as to indicate that the touch input is being accepted. The grouping result display screen shown in FIG. 6 is configured so that image data to be printed can be selected corresponding to step S12 described later.

グルーピング結果の表示方式の別の例としては、カレンダーを表示部12に表示し、このカレンダー上にグループごと又は日付ごとにグループの標識及び/又は代表画像データを表示するなどとしてもよい。図7に、グルーピング結果としてのカレンダー表示画面の一例を示す。例えば、図7に示すようにグルーピング後のグループG4を表示してもよい。   As another example of the display method of the grouping result, a calendar may be displayed on the display unit 12, and a group indicator and / or representative image data may be displayed on the calendar for each group or each date. FIG. 7 shows an example of a calendar display screen as a grouping result. For example, the group G4 after grouping may be displayed as shown in FIG.

表示するカレンダーのフォーマットは、グルーピング処理で得られた画像グループに含まれる画像データの日時情報に応じて設定することが好ましく、日時情報の最新と最古の範囲(以下、「グループ日時範囲」と記載する。)に応じて設定することが好ましい。例えば、撮影によって生成された画像データであれば、撮影日時の最新と最古の範囲に応じて設定すればよい。   The format of the calendar to be displayed is preferably set according to the date / time information of the image data included in the image group obtained by the grouping process, and the latest and oldest range of date / time information (hereinafter referred to as “group date / time range”). It is preferable to set according to. For example, in the case of image data generated by shooting, it may be set according to the latest and oldest range of shooting date and time.

カレンダーフォーマットの設定にあたっては、表示するカレンダーの表示単位(1ヶ月間カレンダー、2ヶ月間カレンダー等)と表示する日時範囲(いつからいつまで)の双方を設定することが好ましい。   In setting the calendar format, it is preferable to set both the display unit of the calendar to be displayed (one-month calendar, two-month calendar, etc.) and the date and time range to be displayed (from when to when).

表示するカレンダーの表示単位の設定については、グルーピングした全ての画像グループのグループ日時範囲を包含する期間のカレンダーフォーマットを設定することが好ましく、最短1ヶ月間で、2ヶ月間、3ヶ月間、…と1ヶ月間単位で増やしていくことが好ましい。例えば、グループ日時範囲が3日間であれば1ヶ月フォーマットとし、複数の画像グループのグループ日時範囲の総計が1ヵ月半であれば2ヶ月フォーマットとする。但し、画像処理システム100の利用者(店舗)の要望や、顧客の利用実績等に応じて、表示するカレンダーの表示単位や日時範囲を変更してもよいのは言うまでもない。例えば、グループ日時範囲が3日間であっても、1ヶ月でなく2週間や1週間のフォーマットとしてもよいし、1画像グループの画像データが1日のうちに撮影されている場合などは、時計やタイムテーブルのような時間表示フォーマットを設定することもできる。   As for the setting of the display unit of the calendar to be displayed, it is preferable to set a calendar format of a period including the group date / time range of all the grouped image groups, for a minimum of one month, two months, three months,. It is preferable to increase in units of one month. For example, if the group date / time range is 3 days, the 1-month format is used. If the total of the group date / time ranges of a plurality of image groups is 1 month and a half, the 2-month format is used. However, it goes without saying that the display unit and date / time range of the calendar to be displayed may be changed according to the request of the user (store) of the image processing system 100, the customer's usage record, and the like. For example, even if the group date and time range is 3 days, the format may be 2 weeks or 1 week instead of 1 month, or if the image data of one image group is captured within one day, the clock You can also set the time display format like a time table.

カレンダーに表示する日時範囲の設定については、上記設定したカレンダーフォーマットで表示部12に表示する際に、ユーザがグループ日時範囲を把握しやすいように、一般的なカレンダーにおける既成の範囲(例えば、設定したカレンダーの表示単位が1ヶ月であれば、某月1日〜31日)には依らず、上記設定したカレンダーの表示単位(例えば、1ヶ月フォーマット)であり、且つグループ日時範囲を包含する日時範囲を設定することが好ましい。更には、ユーザがグループ日時範囲を表示部12上で視認しやすいように、グループ日時範囲がカレンダー期間の中央付近に位置するように設定することが好ましい。   Regarding the setting of the date and time range to be displayed on the calendar, when displaying on the display unit 12 in the above-described calendar format, an existing range in a general calendar (for example, setting) is set so that the user can easily grasp the group date and time range. If the calendar display unit is 1 month, the calendar display unit (for example, 1 month format) and the date and time including the group date and time range, regardless of the month of the month (1st to 31st) It is preferable to set the range. Furthermore, it is preferable to set the group date and time range so that it is located near the center of the calendar period so that the user can easily view the group date and time range on the display unit 12.

例えば、グループ日時範囲が7月31日〜8月6日である場合、カレンダーの表示単位を1ヶ月に設定して、7月及び8月の一般的なカレンダーの既成の日時範囲(7月1日〜7月31日、8月1日〜8月31日)をカレンダーの日時範囲として設定し、同時に若しくは切り替えて表示するようにしたり、又はカレンダーの表示単位を2ヶ月に設定して、7月及び8月の一般的なカレンダーを足し合わせた7月1日〜8月31日をカレンダーに表示する日時範囲として設定するのではなく、7月31日〜8月6日が7日間であるために、カレンダーの表示単位を1ヶ月として設定し、7月31日〜8月6日が1ヶ月間の中央付近の位置になるように、例えば、図7に示すグループG4のように、7月15日〜8月14日の1ヶ月を表示する設定をすればよい。   For example, if the group date / time range is July 31 to August 6, the calendar display unit is set to one month, and the existing date / time range of the general calendar for July and August (July 1 Day to July 31, August 1 to August 31) is set as the date and time range of the calendar, and is displayed at the same time or by switching, or the display unit of the calendar is set to 2 months. July 1st to August 31st, which is the sum of the general calendars of the month and August, is not set as the date / time range displayed on the calendar, but July 31st to August 6th is 7 days. Therefore, the display unit of the calendar is set as one month, so that July 31 to August 6 are located near the center of one month, for example, as in group G4 shown in FIG. Setting to display 1 month from 15th to 14th of August The may be.

更に、グループ日時範囲が複数月にまたがっている場合(例えば、7月31〜8月6日)、図7に示すグループG4のように、月毎に区切らずに、複数月を連続して表示するように、カレンダー上の日付の配置を設定するのが好ましい。この場合、各月を区別するために、カレンダー上で境界線を表示したり、月毎に背景色を変えるのが好ましい。また、カレンダー上で、受付端末1が設置された店舗に顧客が来訪した日付にマーキングするようにしてもよい。   Furthermore, when the group date / time range extends over a plurality of months (for example, July 31 to August 6), a plurality of months are continuously displayed without being divided into months as in the group G4 shown in FIG. It is preferable to set the date arrangement on the calendar. In this case, in order to distinguish each month, it is preferable to display a boundary line on the calendar or change the background color for each month. Moreover, you may make it mark on the date on which the customer visited the store where the reception terminal 1 was installed on a calendar.

なお、本実施の形態では、説明をわかりやすくするために、カレンダーの表示やカレンダーの表示単位として、1ヶ月、2ヶ月、…という表現を用い、カレンダーに表示する日時範囲の設定においても、1ヶ月を略30日として説明しているが、実際に処理をするにあたっては、一般のカレンダーのように、1ヶ月を4乃至6週間(各月の日数や日付と曜日の都合で変動させてもよいし、5週間として固定してもよい)として扱い、カレンダーに表示する日時範囲の設定についても、(上記説明のような略30日間ではなく)グループ日時範囲が中央付近になるような4乃至6週間の期間を設定すればよいことは言うまでもない。   In this embodiment, in order to make the explanation easy to understand, the expression of one month, two months,... Is used as a calendar display or a calendar display unit, and the date and time range to be displayed on the calendar is set to 1. Although the month is explained as about 30 days, in actual processing, as in a general calendar, one month is 4 to 6 weeks (even if the number of days in each month and the date and day of the week vary) (It may be fixed as 5 weeks), and the date and time range displayed on the calendar is set to 4 to 4 so that the group date and time range is near the center (not about 30 days as described above). Needless to say, a period of 6 weeks may be set.

画像グループの代表画像データの選定方法は、画像グループ内で一番日時情報が新しい又は古い画像データを代表画像データとしたり、画像グループ内の全画像データの特徴量の平均値に最も近い特徴量を有する画像データを代表画像データとしたりするなど(特開2004−810436号公報)、当業界で公知の手法を用いることができる。ここで、特徴量とは、例えば、画像データの色相、彩度、明度の何れか1つ又はこれら2つ以上のの任意の組み合わせである。   The image group representative image data is selected by selecting the image data with the newest or oldest date / time information in the image group as the representative image data, or the feature quantity closest to the average value of the feature quantities of all the image data in the image group. For example, a method known in the art can be used, for example, image data having image data as representative image data (Japanese Patent Laid-Open No. 2004-810436). Here, the feature amount is, for example, any one of hue, saturation, and brightness of image data, or any combination of two or more thereof.

しかし、ユーザに見やすい画像データ、画像グループの内容を想像しやすい画像データを選択するために、各画像グループ内の画像データの配光性を算出し、ユーザにとって最も観察しやすい配光で撮影された画像データを代表画像データとして選択するのが好ましい。具体的には、順光で撮影された画像データ(順光度が最も高い画像データ)が好ましく、抽出できない場合には、ストロボ撮影画像データを選択することが好ましい。配光性の算出方法としては、Exif等のタグ情報を用いて撮影条件を抽出して配光性を算出(検出)してもよいし、画像解析処理を行って算出するなど、当業界で公知の手法を用いることができる。配光性の算出方法の具体例については、後に図10〜図20を参照して詳細に説明する。   However, in order to select image data that is easy for the user to see and image data that makes it easy to imagine the contents of the image group, the light distribution of the image data in each image group is calculated, and the light distribution that is most easily observable for the user is taken. The selected image data is preferably selected as representative image data. Specifically, image data photographed with direct light (image data with the highest light intensity) is preferable. If extraction is not possible, it is preferable to select strobe image data. As a light distribution calculation method, the imaging condition may be extracted using tag information such as Exif to calculate (detect) the light distribution, or may be calculated by performing an image analysis process. A known method can be used. A specific example of the light distribution calculation method will be described in detail later with reference to FIGS.

更に、代表画像データは、画像グループに属する画像データの内容が把握しやすい画像データであることが好ましいことから、ユーザの記憶に残りやすい人物が主要被写体となって撮影されている画像データを選択することが好ましい。人物が主要被写体となる画像データを選択するにあたっては、Exif等のタグ情報を用いて選択してもよいし、画像データから人物の顔領域を抽出する顔抽出処理を用いて選択してもよい。より代表画像データに適した画像データを選択するためには、Exif等のタグ情報や、顔抽出処理で抽出した顔領域の情報を用いて、顔領域の大きさ、位置、明度に基づいて代表画像データを選択することが好ましい。顔抽出処理が適用される画像データは、抽出精度と、ユーザの観察のしやすさから、配光性が優れている画像データ、即ち順光で撮影された画像データ(順光度が所定値以上の画像データ)であることが好ましい。代表画像データの選択にあたっては、上述のように、配光性に基づいて選択することが好ましく、また、人物が主要被写体となる画像データを選択することが好ましいが、配光性と、主要被写体が人物であるかの双方に基づいて選択することが好ましい。   Furthermore, since the representative image data is preferably image data that makes it easy to grasp the contents of the image data belonging to the image group, select image data that is captured with a person who is likely to remain in the user's memory as the main subject. It is preferable to do. When selecting image data in which a person is a main subject, selection may be made using tag information such as Exif, or may be selected using face extraction processing for extracting a person's face area from image data. . In order to select image data more suitable for representative image data, representative information based on the size, position, and brightness of the face area is used by using tag information such as Exif and face area information extracted by face extraction processing. It is preferable to select image data. The image data to which the face extraction processing is applied is image data with excellent light distribution, that is, image data taken with direct light (the light intensity is a predetermined value or more) because of extraction accuracy and ease of observation by the user. Image data). In selecting the representative image data, it is preferable to select based on the light distribution as described above, and it is preferable to select image data in which a person is the main subject. It is preferable to select based on whether or not is a person.

顔抽出処理の手法としては、例えば、特開平6−67320号公報に記載の色相と彩度の2次元ヒストグラムを用いる手法や、特開平8−122944号公報、特開平8−184925号公報、特開平9−138471号公報に記載のパターンマッチング処理を用いる手法や、特開平9−138471号公報に記載のパターン検索方法等を用いることができる。また、特開平5−282457号公報、特開平6−214970号公報等に記載のニューラルネットワークを用いて人物の顔候補領域を判定する方法等、種々の方法を用いることができる。ニューラルネットワークを用いた顔抽出処理の具体例については、後に図10、図21〜図24を参照して詳細に説明する。   As a method of face extraction processing, for example, a method using a two-dimensional histogram of hue and saturation described in JP-A-6-67320, JP-A-8-122944, JP-A-8-184925, A method using the pattern matching process described in Kaihei 9-138471, a pattern search method described in Japanese Patent Laid-Open No. 9-138471, and the like can be used. In addition, various methods such as a method for determining a human face candidate region using a neural network described in Japanese Patent Laid-Open Nos. 5-282457 and 6-214970 can be used. A specific example of face extraction processing using a neural network will be described later in detail with reference to FIGS. 10 and 21 to 24.

また、カレンダー表示においては、カレンダー上に、グループ日時範囲が視認できる指標を表示することが好ましい。具体的には、背景色、色付き枠、マーク等をカレンダー上に表示することにより視認し易くなる。また、複数の画像グループが得られた場合、画像グループ毎に背景色や色付き枠を変えるなど、画像グループ毎に異なる指標を割り当てることが好ましい。   Moreover, in the calendar display, it is preferable to display an index that allows the group date / time range to be visually recognized on the calendar. Specifically, the background color, the colored frame, the mark, and the like are displayed on the calendar for easy visual recognition. Further, when a plurality of image groups are obtained, it is preferable to assign a different index for each image group, such as changing a background color or a colored frame for each image group.

更に、画像グループ内に含まれる画像データの内容を示唆する標識をカレンダー上に表示することが好ましい。このような標識として、例えば、画像グループの代表画像データや画像数(画像枚数)、撮影場所等を利用することができる。この標識は、1つの画像グループにつき、複数設定することが好ましい。例えば、代表画像データを複数個選択し、スライドショー形式で順に表示させることができる。又は、例えば、代表画像データと画像数など、異なる種類の標識を組み合わせて設定することも好ましい。更に、この標識は、画像グループ内の日付毎に設定されるのが好ましい。例えば、日付毎にその日が撮影日の画像数を表示したり、グループ日時範囲の日付毎に代表画像を選定し、図7に示すように、カレンダー上に各日付の代表画像データのサムネイル画像データを生成して表示するようにしてもよい。日付毎に代表画像データをカレンダーに表示する場合、カレンダー上の日付を指定することにより、対応する代表画像データを拡大表示するようにしてもよい。   Furthermore, it is preferable that a sign indicating the content of the image data included in the image group is displayed on the calendar. As such a marker, for example, representative image data of an image group, the number of images (number of images), a shooting location, and the like can be used. It is preferable to set a plurality of signs for one image group. For example, a plurality of representative image data can be selected and sequentially displayed in a slide show format. Alternatively, it is also preferable to set a combination of different types of signs such as representative image data and the number of images. Furthermore, this indicator is preferably set for each date in the image group. For example, for each date, the number of images on that day is displayed, or a representative image is selected for each date in the group date and time range. As shown in FIG. 7, thumbnail image data of representative image data for each date is displayed on the calendar. May be generated and displayed. When the representative image data is displayed on the calendar for each date, the corresponding representative image data may be enlarged and displayed by designating the date on the calendar.

また、1つの画像グループにおいて複数種類の標識を用いてもよい。例えば、グループ日時範囲が2日以上である場合、日付毎に標識を選択したり、複数の標識(例えば、複数の代表画像データ)をスライドショー表示にするなどして活用することができる。   A plurality of types of signs may be used in one image group. For example, when the group date and time range is two days or more, a sign can be selected for each date, or a plurality of signs (for example, a plurality of representative image data) can be displayed as a slide show.

図4に戻る。表示部12にグルーピング結果が表示されると、表示部12に表示されたグルーピング結果に基づいてユーザによる操作入力部13を介する注文操作が行われる(ステップS12)。ステップS12では、例えば、カレンダー上に表示された画像グループに含まれる画像データ全てを注文するためのボタンを画面(タッチパネル)上に配置し、そのボタンをタッチ入力やマウス等のポインティングデバイスの位置入力により指定することによって一括注文する方法や、カレンダー上のある一日を上記タッチ入力や上記位置入力により指定することによって、その日付を含む画像グループ内の画像データを一括して選択し、画像グループ毎に注文する方法や、代表画像データの画像や標識を選択して上記タッチ入力や上記位置入力により指定する方法などを用いることが可能である。また、カレンダー上を指定することによって画像グループを選択し、その画像グループの画像データのサムネイル画像データを生成して表示させ、画像グループ内の全ての画像データを確認した後に一括注文したり、必要に応じて、注文対象の画像データを取捨選択することも可能である。   Returning to FIG. When the grouping result is displayed on the display unit 12, an ordering operation by the user via the operation input unit 13 is performed based on the grouping result displayed on the display unit 12 (step S12). In step S12, for example, a button for ordering all image data included in the image group displayed on the calendar is arranged on the screen (touch panel), and the button is used for touch input or position input of a pointing device such as a mouse. Select the image data in the image group including the date by specifying the batch order method by specifying the date or by specifying the day on the calendar by the touch input or the position input. It is possible to use a method of ordering each time, a method of selecting an image or sign of representative image data and specifying it by the touch input or the position input. Also, you can select an image group by designating on the calendar, generate and display thumbnail image data of the image data of that image group, confirm all the image data in the image group, and place a batch order or necessary Depending on the situation, it is possible to select image data to be ordered.

注文操作が終了すると、プリントの実行を確認するための確認メッセージが表示部12に表示される(ステップS13)。そして、ユーザによる操作入力部13の操作により、プリントの実行が確認されたか否かが判別される(ステップS14)。プリントの実行が確認されると(ステップS14;YES)、注文確認票発行部16から注文確認票が発行されるとともに(ステップS15)、仮オーダー情報(注文情報)が通信部17を介してオーダー管理装置2に送信され(ステップS16)、第1のプリント受付処理が終了する。プリントの実行が確認されないと(ステップS14;NO)、ステップS12に移行される。   When the ordering operation is completed, a confirmation message for confirming the execution of printing is displayed on the display unit 12 (step S13). Then, it is determined whether or not the execution of printing has been confirmed by the operation of the operation input unit 13 by the user (step S14). When execution of printing is confirmed (step S14; YES), an order confirmation slip is issued from the order confirmation slip issuing unit 16 (step S15), and provisional order information (order information) is ordered via the communication unit 17. The data is transmitted to the management apparatus 2 (step S16), and the first print acceptance process ends. If execution of printing is not confirmed (step S14; NO), the process proceeds to step S12.

次いで、オーダー管理装置2において制御部21により実行される第1のプリント管理処理を説明する。第1のプリント受付処理のステップS16に対応して、受信端末1から送信された仮オーダー情報を通信部26を介して受信したオーダー管理装置2では、その受信情報に基づいて、画像プリンタ部4に対してプリント出力指示信号が出力され(ステップT1)、第1のプリント管理処理が終了する。画像プリンタ4では、オーダー管理装置2から出力されたプリント出力指示信号に基づいてプリント出力が行われる。プリント出力により、プリント注文の受付処理が終了する。   Next, a first print management process executed by the control unit 21 in the order management apparatus 2 will be described. In response to step S16 of the first print acceptance process, the order management apparatus 2 that has received the temporary order information transmitted from the receiving terminal 1 via the communication unit 26, based on the received information, the image printer unit 4 Is output (step T1), and the first print management process ends. In the image printer 4, print output is performed based on the print output instruction signal output from the order management device 2. With the print output, the print order acceptance process is completed.

〈変形例〉
次に、付加情報として固体識別基礎情報を有する画像データのプリント注文を行う場合について説明する。固体識別基礎情報とは、メディアの固有番号、ボリュームラベル、ファイル名等のデータである。DB部3に格納されたサービス履歴情報には、固体識別情報(ID番号)別に、プリント済みの画像のファイル名、サービスの利用状況(利用頻度等)等のデータが格納されている。
<Modification>
Next, a case where a print order for image data having solid identification basic information as additional information is performed will be described. The solid identification basic information is data such as a media unique number, a volume label, and a file name. In the service history information stored in the DB unit 3, data such as the file name of a printed image and the service usage status (usage frequency) are stored for each individual identification information (ID number).

本実施形態の変形例に係る動作について説明する。図8に、受付端末1において実行される第2のプリント受付処理と、オーダー管理装置2において実行される第2のプリント管理処理の流れを示す。   An operation according to a modification of the present embodiment will be described. FIG. 8 shows the flow of the second print acceptance process executed in the reception terminal 1 and the second print management process executed in the order management apparatus 2.

図8を参照して、プリント注文の受付時に受付端末1において制御部11により実行される第2のプリント受付処理を説明する。第2のプリント受付処理は、記憶部15に記憶された第2のプリント受け付けプログラムに基づいて制御部11により実行されるものとする。   With reference to FIG. 8, the second print acceptance process executed by the control unit 11 in the acceptance terminal 1 when the print order is accepted will be described. It is assumed that the second print acceptance process is executed by the control unit 11 based on the second print acceptance program stored in the storage unit 15.

受付端末1のメディア読取部14に、画像データが記録されたメディアMが挿入されると、当該メディアの記録内容を検索することにより、固体識別基礎情報が取得され(ステップS21)、取得された個体識別基礎情報が通信部17を介してオーダー管理装置2に送信される。   When the medium M on which the image data is recorded is inserted into the media reading unit 14 of the reception terminal 1, the solid identification basic information is acquired by searching the recorded content of the medium (step S 21). Individual identification basic information is transmitted to the order management apparatus 2 via the communication unit 17.

受付端末1では、オーダー管理装置2から通信部17を介して受信された受信情報から、合致情報があるか否かが判別される(ステップS22)。ステップS22において、合致情報があると判別された場合(ステップS22;YES)、オーダー管理装置2から受信されたサービス履歴情報に基づいて、メディアMに記録された画像データの中から未プリント画像データが選択される(ステップS23)。合致情報がないと判別された場合(ステップS22;NO)、メディアMに記録された全画像データが選択される(ステップS24)。   In the reception terminal 1, it is determined whether or not there is matching information from the reception information received from the order management device 2 via the communication unit 17 (step S22). If it is determined in step S22 that there is matching information (step S22; YES), unprinted image data is selected from the image data recorded on the medium M based on the service history information received from the order management apparatus 2. Is selected (step S23). When it is determined that there is no match information (step S22; NO), all image data recorded on the medium M is selected (step S24).

ステップS23又はS24で画像データが選択されると、画像データに付加された日時情報に基づいて表示部12にグルーピングした画像データの画像を表示する第2のグルーピング画像表示処理が行われる(ステップS25)。   When image data is selected in step S23 or S24, a second grouping image display process for displaying images of the image data grouped on the display unit 12 based on the date and time information added to the image data is performed (step S25). ).

図9を参照して、ステップS25の第2のグルーピング画像表示処理について説明する。まず、ステップS23又はS24で選択された画像データの画像数N(N:0以上の整数)が取得される(ステップS251)。そして、画像数Nが予め設定された所定数よりも多いか否かが判別される(ステップS252)。画像数Nが所定数以下である場合(ステップS252;NO)、ステップS262に移行される。   With reference to FIG. 9, the second grouping image display processing in step S25 will be described. First, the image number N (N: an integer equal to or greater than 0) of the image data selected in step S23 or S24 is acquired (step S251). Then, it is determined whether or not the number N of images is larger than a predetermined number (step S252). When the image number N is equal to or less than the predetermined number (step S252; NO), the process proceeds to step S262.

画像数Nが所定数よりも多い場合(ステップS252;YES)、その選択された画像データの日時情報が取得される(ステップS253)。選択された対象画像データの日時情報が取得されると、その取得された日時情報に基づいて、各画像データが日時情報順(生成順)にソートされる(ステップS254)。そして、変数Iに初期値として1が設定される(ステップS255)。ステップS255の実行後、I番目及び(I+1)番目の画像データの日時情報の差分が算出される(ステップS256)とともに、I番目及び(I+1)番目の画像データの日時情報に対応する閾値が設定される(ステップS257)。   When the number N of images is larger than the predetermined number (step S252; YES), date / time information of the selected image data is acquired (step S253). When the date / time information of the selected target image data is acquired, each image data is sorted in the date / time information order (generation order) based on the acquired date / time information (step S254). Then, 1 is set as an initial value in the variable I (step S255). After execution of step S255, the difference between the date information of the I-th and (I + 1) -th image data is calculated (step S256), and a threshold value corresponding to the date-time information of the I-th and (I + 1) -th image data is set. (Step S257).

そして、ステップS256で算出されたI番目及び(I+1)番目の画像データの日時情報の差分が、ステップS257で取得された閾値より大きいか否かが判別される(ステップS258)。日時情報の差分が閾値より大きい場合(ステップS258;YES)、I番目及び(I+1)番目の画像データの間にグループ区切り位置が設定される(ステップS259)。そして、変数Iが(N−1)よりも小さいか否かが判別される(ステップS260)。変数Iが(N−1)よりも小さい場合(ステップS260;YES)、変数Iが+1インクリメントされ(ステップS261)、ステップS256、S257に移行される。また、日時情報の差分が閾値より大きい場合(ステップS258;YES)、ステップS260に移行される。   Then, it is determined whether or not the difference between the date information of the I-th and (I + 1) -th image data calculated in step S256 is larger than the threshold acquired in step S257 (step S258). When the difference between the date and time information is larger than the threshold (step S258; YES), a group delimiter position is set between the I-th and (I + 1) -th image data (step S259). And it is discriminate | determined whether the variable I is smaller than (N-1) (step S260). When the variable I is smaller than (N−1) (step S260; YES), the variable I is incremented by +1 (step S261), and the process proceeds to steps S256 and S257. If the difference in date and time information is greater than the threshold (step S258; YES), the process proceeds to step S260.

変数Iが(N−1)以上の場合(ステップS120;NO)、グルーピング結果として、選択された画像データがグループ(画像グループ)ごとに表示部12に表示され(ステップS262)、第2のグルーピング画像表示処理が終了する。第2のグルーピング画像表示処理について、図5の第1のグルーピング画像表示処理でグルーピング処理対象としている画像データが、ステップS23又はS24で選択された画像データであること以外は、図9の各ステップの処理は、図5のステップS111〜S122とほぼ同等であるので、ここでの詳細な説明は省略する。   When the variable I is equal to or greater than (N-1) (step S120; NO), the selected image data is displayed on the display unit 12 for each group (image group) as a grouping result (step S262), and the second grouping is performed. The image display process ends. With respect to the second grouping image display process, each step of FIG. 9 except that the image data that is the grouping process target in the first grouping image display process of FIG. 5 is the image data selected in step S23 or S24. Since this process is substantially the same as steps S111 to S122 in FIG. 5, a detailed description thereof is omitted here.

図8に戻る。表示部12にカレンダーが表示されると、表示部12に表示されたカレンダーに基づいてユーザによる注文操作が行われる(ステップS26)。注文操作が終了すると、プリントの実行を確認するための確認メッセージが表示部12に表示される(ステップS27)。ユーザによる操作入力部13の操作により、プリントの実行が確認されたか否かが判別される(ステップS28)。プリントの実行が確認されると(ステップS28;YES)、注文確認票発行部16から注文確認票が発行されるとともに(ステップS29)、仮オーダー情報(注文情報)が通信部17を介してオーダー管理装置2に送信され(ステップS29)、第2のプリント受付処理が終了する。プリントの実行が確認されないと(ステップS28;NO)、ステップS26に移行される。   Returning to FIG. When the calendar is displayed on the display unit 12, the user performs an ordering operation based on the calendar displayed on the display unit 12 (step S26). When the ordering operation is completed, a confirmation message for confirming the execution of printing is displayed on the display unit 12 (step S27). It is determined whether or not the execution of printing is confirmed by the operation of the operation input unit 13 by the user (step S28). When execution of printing is confirmed (step S28; YES), an order confirmation slip is issued from the order confirmation slip issuing unit 16 (step S29), and provisional order information (order information) is ordered via the communication unit 17. The data is transmitted to the management apparatus 2 (step S29), and the second print acceptance process ends. If execution of printing is not confirmed (step S28; NO), the process proceeds to step S26.

次いで、オーダー管理装置2において実行される第2のプリント管理処理を説明する。第2のプリント管理処理は、記憶部24に記憶された第2のプリント管理プログラムに基づいて制御部21により実行されるものとする。また、第2のプリント管理処理は、第2のプリント受付処理のステップS30に対応して、オーダー管理装置2において通信部26を介して固体識別基礎情報を受信したことをトリガとして実行される。   Next, the second print management process executed in the order management apparatus 2 will be described. It is assumed that the second print management process is executed by the control unit 21 based on the second print management program stored in the storage unit 24. Further, the second print management process is executed with the fact that the solid identification basic information is received via the communication unit 26 in the order management apparatus 2 corresponding to step S30 of the second print acceptance process.

オーダー管理装置2では、受信した固体識別基礎情報が合致する固体識別情報をDB部3で検索することにより、この固体識別基礎情報に対応するサービス履歴情報が読み込まれ(ステップT11)、合致情報の有無(対応するサービス履歴情報があるか否か)を示す情報が通信部26を介して受付端末1に送信される(ステップT12)。サービス履歴情報がある場合には、ステップT12では、合致情報の有無情報に加えてサービス履歴情報も送信される。   The order management device 2 searches the DB unit 3 for solid identification information that matches the received solid identification basic information, thereby reading service history information corresponding to the solid identification basic information (step T11). Information indicating the presence or absence (whether there is corresponding service history information) is transmitted to the receiving terminal 1 via the communication unit 26 (step T12). If there is service history information, in step T12, service history information is also transmitted in addition to the presence / absence information of the matching information.

そして、第2のプリント受付処理のステップS30に対応して、仮オーダー情報を通信部26を介して受信したオーダー管理装置2では、その受信情報に基づいて、画像プリンタ部4に対してプリント出力指示信号が出力され(ステップT13)、画像プリンタ4ではプリント出力が行われる。   Then, in response to step S30 of the second print acceptance process, the order management apparatus 2 that has received the temporary order information via the communication unit 26 outputs a print to the image printer unit 4 based on the received information. An instruction signal is output (step T13), and the image printer 4 performs print output.

次いで、ステップT11における合致情報の有無に基づいて、今回のプリント注文の顧客が新規であるか否かが判別される(ステップT14)。ステップT11において、DB部3に、受付端末1から受信された固体識別基礎情報に合致する固体識別情報がなかった場合には、ステップT14において新規顧客と判別され(ステップT14;YES)、今回のプリント注文に対して新たに固体識別情報が発行され、その固体識別情報がDB部3に登録される(ステップT15)。   Next, based on the presence / absence of matching information in step T11, it is determined whether or not the customer of the current print order is new (step T14). In step T11, when there is no solid identification information that matches the solid identification basic information received from the reception terminal 1 in the DB unit 3, it is determined as a new customer in step T14 (step T14; YES). New identification information is issued for the print order, and the identification information is registered in the DB unit 3 (step T15).

ステップT15の実行後、若しくはステップT14において、今回のプリント注文の顧客が新規ではないと判別された場合(ステップT14;NO)、又はステップT14で新たに固体識別情報が登録された場合、今回のプリント注文に基づいてDB部3のサービス履歴情報が更新され(ステップT16)、第2のプリント注文の受付処理が終了する。   After the execution of step T15, or when it is determined in step T14 that the customer of the current print order is not new (step T14; NO), or when the individual identification information is newly registered in step T14, Based on the print order, the service history information in the DB unit 3 is updated (step T16), and the second print order acceptance process ends.

〈代表画像データ選定時の処理〉
次に、図10のフローチャートを参照して、グループの代表画像データ選定時(図5のステップS122、図9のステップS262)に、制御部11の制御のもとで実行される処理について説明する。
<Process when representative image data is selected>
Next, a process executed under the control of the control unit 11 when selecting representative image data of a group (step S122 in FIG. 5 and step S262 in FIG. 9) will be described with reference to the flowchart in FIG. .

まず、撮影画像データ毎に、撮影画像データが所定の画像領域に分割され、各分割領域が撮影画像データ全体に占める割合を示す占有率を算出する占有率算出処理が行われる(ステップS40)。ステップS40の占有率算出処理については、後に図11及び図17を参照して詳細に説明する。   First, for each photographic image data, the photographic image data is divided into predetermined image areas, and an occupancy ratio calculation process is performed to calculate an occupancy ratio indicating the ratio of each divided area to the entire photographic image data (step S40). The occupation rate calculation process in step S40 will be described in detail later with reference to FIGS.

次いで、ステップS40において算出された占有率と、撮影条件に応じて予め設定された係数に基づいて、配光性(光源状態)を特定するための指標(指標1〜5)が算出され、その算出された指標に基づいて撮影時の配光性(順光、逆光、ストロボの何れか)が算出される(ステップS41)。ここで、配光性を特定するための指標とは、撮影時の配光性を定量的に表す数値である。ステップS41における指標算出処理及び配光性の算出処理については、後に詳細に説明する。   Next, based on the occupation ratio calculated in step S40 and a coefficient set in advance according to the shooting conditions, an index (index 1 to 5) for specifying the light distribution (light source state) is calculated, Based on the calculated index, the light distribution at the time of photographing (any one of forward light, backlight, strobe) is calculated (step S41). Here, the index for specifying the light distribution is a numerical value that quantitatively represents the light distribution at the time of photographing. The index calculation process and the light distribution calculation process in step S41 will be described in detail later.

次いで、ステップS41で算出された配光性に応じて、撮影画像データから人物の顔を抽出する顔抽出処理の処理条件が決定され(ステップS42)、その決定された処理条件に従って顔抽出処理が行われる(ステップS43)。ステップS42における処理条件の決定については、後に詳細に説明する。また、ステップS43の顔抽出処理については、後に図23及び図24を参照して詳細に説明する。   Next, processing conditions for face extraction processing for extracting a person's face from the captured image data are determined according to the light distribution calculated in step S41 (step S42), and face extraction processing is performed according to the determined processing conditions. Performed (step S43). The determination of the processing conditions in step S42 will be described in detail later. The face extraction process in step S43 will be described in detail later with reference to FIGS.

〈占有率算出処理〉
次に、図11のフローチャートを参照して、図10のステップS40に示した占有率算出処理について詳細に説明する。
<Occupancy rate calculation process>
Next, the occupation rate calculation process shown in step S40 of FIG. 10 will be described in detail with reference to the flowchart of FIG.

まず、撮影画像データのRGB値がHSV表色系に変換される(ステップS50)。図12は、RGBからHSV表色系に変換することにより色相値、彩度値、明度値を得る変換プログラム(HSV変換プログラム)の一例を、プログラムコード(c言語)により示したものである。図12に示すHSV変換プログラムでは、入力画像データであるデジタル画像データの値を、InR、InG、InBと定義し、算出された色相値をOutHとし、スケールを0〜360と定義し、彩度値をOutS、明度値をOutVとし、単位を0〜255と定義している。   First, the RGB values of the photographed image data are converted into the HSV color system (step S50). FIG. 12 shows an example of a conversion program (HSV conversion program) that obtains a hue value, a saturation value, and a lightness value by converting from RGB to the HSV color system using program code (c language). In the HSV conversion program shown in FIG. 12, the values of digital image data as input image data are defined as InR, InG, and InB, the calculated hue value is defined as OutH, the scale is defined as 0 to 360, and the saturation The value is OutS, the brightness value is OutV, and the unit is defined as 0 to 255.

次いで、撮影画像データが、所定の明度と色相の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS51)。以下、撮影画像データの領域分割について詳細に説明する。   Next, the photographed image data is divided into regions composed of combinations of predetermined brightness and hue, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S51). Hereinafter, the area division of the captured image data will be described in detail.

明度(V)は、明度値が0〜25(v1)、26-50(v2)、51〜84(v3)、85〜169(v4)、170〜199(v5)、200〜224(v6)、225〜255(v7)の7つの領域に分割される。色相(H)は、色相値が0〜39、330〜359の肌色色相領域(H1及びH2)、色相値が40〜160の緑色色相領域(H3)、色相値が161〜250の青色色相領域(H4)、赤色色相領域(H5)の4つの領域に分割される。なお、赤色色相領域(H5)は、配光性算出への寄与が少ないとの知見から、以下の計算では用いていない。肌色色相領域は、更に、肌色領域(H1)と、それ以外の領域(H2)に分割される。以下、肌色色相領域(H=0〜39、330〜359)のうち、下記の式(1)を満たす色相'(H)を肌色領域(H1)とし、式(1)を満たさない領域を(H2)とする。
10 < 彩度(S) <175、
色相'(H) = 色相(H) + 60 (0 ≦ 色相(H) < 300のとき)、
色相'(H) = 色相(H) - 300 (300 ≦ 色相(H) < 360のとき)、
輝度Y = InR × 0.30 + InG × 0.59 + InB × 0.11
として、
色相'(H)/輝度(Y) < 3.0 ×(彩度(S)/255)+0.7 …(1)
従って、撮影画像データの分割領域の数は4×7=28個となる。なお、式(1)において明度(V)を用いることも可能である。
The lightness value (V) is 0-25 (v1), 26-50 (v2), 51-84 (v3), 85-169 (v4), 170-199 (v5), 200-224 (v6) , 225 to 255 (v7). Hue (H) is a skin hue hue area (H1 and H2) with a hue value of 0 to 39, 330 to 359, a green hue area (H3) with a hue value of 40 to 160, and a blue hue area with a hue value of 161 to 250 It is divided into four areas (H4) and a red hue area (H5). Note that the red hue region (H5) is not used in the following calculation because it is known that the contribution to the light distribution calculation is small. The flesh-color hue area is further divided into a flesh-color area (H1) and other areas (H2). Hereinafter, among the flesh-colored hue regions (H = 0 to 39, 330 to 359), the hue '(H) that satisfies the following equation (1) is defined as the flesh-colored region (H1), and the region that does not satisfy the equation (1) is ( H2).
10 <Saturation (S) <175,
Hue '(H) = Hue (H) + 60 (when 0 ≤ Hue (H) <300),
Hue '(H) = Hue (H)-300 (when 300 ≤ Hue (H) <360),
Luminance Y = InR × 0.30 + InG × 0.59 + InB × 0.11
As
Hue '(H) / Luminance (Y) <3.0 × (Saturation (S) / 255) +0.7 (1)
Therefore, the number of divided areas of the captured image data is 4 × 7 = 28. In addition, it is also possible to use the brightness (V) in the formula (1).

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第1の占有率が算出され(ステップS52)、本占有率算出処理が終了する。明度領域vi、色相領域Hjの組み合わせからなる分割領域において算出された第1の占有率をRijとすると、各分割領域における第1の占有率は表1のように表される。

Figure 2007193592
When the two-dimensional histogram is created, a first occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S52), and the main occupancy ratio calculation is performed. Processing ends. Assuming that the first occupancy ratio calculated in the divided area composed of the combination of the lightness area vi and the hue area Hj is Rij, the first occupancy ratio in each divided area is expressed as shown in Table 1.
Figure 2007193592

次に、指標1及び指標2の算出方法について説明する。
表2に、判別分析により得られた、ストロボ撮影としての確度、即ち、ストロボ撮影時の顔領域の明度状態を定量的に示す指標1を算出するために必要な第1の係数を分割領域別に示す。表2に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数である。

Figure 2007193592
Next, a method for calculating the index 1 and the index 2 will be described.
Table 2 shows the first coefficient necessary for calculating the index 1 that quantitatively indicates the accuracy of strobe shooting obtained by discriminant analysis, that is, the lightness state of the face area at the time of strobe shooting. Show. The coefficient of each divided area shown in Table 2 is a weighting coefficient by which the first occupation ratio Rij of each divided area shown in Table 1 is multiplied.
Figure 2007193592

図13に、明度(v)−色相(H)平面を示す。表2によると、図13において高明度の肌色色相領域に分布する領域(r1)から算出される第1の占有率には、正(+)の係数が用いられ、それ以外の色相である青色色相領域(r2)から算出される第1の占有率には、負(-)の係数が用いられる。図15は、肌色領域(H1)における第1の係数と、その他の領域(緑色色相領域(H3))における第1の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表2及び図15によると、高明度(V=170〜224)の領域では、肌色領域(H1)における第1の係数の符号は正(+)であり、その他の領域(例えば、緑色色相領域(H3))における第1の係数の符号は負(-)であり、両者の符号が異なっていることがわかる。   FIG. 13 shows a lightness (v) -hue (H) plane. According to Table 2, a positive (+) coefficient is used for the first occupancy calculated from the region (r1) distributed in the skin color hue region of high brightness in FIG. 13, and blue other than that is blue. A negative (−) coefficient is used for the first occupancy calculated from the hue region (r2). FIG. 15 shows a curve (coefficient curve) in which the first coefficient in the skin color area (H1) and the first coefficient in the other areas (green hue area (H3)) continuously change over the entire brightness. It is shown. According to Table 2 and FIG. 15, in the region of high brightness (V = 170 to 224), the sign of the first coefficient in the skin color region (H1) is positive (+), and other regions (for example, the green hue region) The sign of the first coefficient in (H3)) is negative (-), and it can be seen that the signs of the two are different.

明度領域vi、色相領域Hjにおける第1の係数をCijとすると、指標1を算出するためのHk領域の和は、式(2)のように定義される。

Figure 2007193592
従って、H1〜H4領域の和は、下記の式(2-1)〜式(2-4)のように表される。
H1領域の和=R11×(-44.0)+R21×(-16.0)+(中略)...+R71×(-11.3) …(2-1)
H2領域の和=R12×0.0+R22×8.6+(中略)... +R72×(-11.1) …(2-2)
H3領域の和=R13×0.0+R23×(-6.3)+(中略)...+R73×(-10.0) …(2-3)
H4領域の和=R14×0.0+R24×(-1.8)+(中略)...+R74×(-14.6) …(2-4) When the first coefficient in the lightness region vi and the hue region Hj is Cij, the sum of the Hk regions for calculating the index 1 is defined as in Expression (2).
Figure 2007193592
Accordingly, the sum of the H1 to H4 regions is expressed by the following formulas (2-1) to (2-4).
H1 area sum = R11 x (-44.0) + R21 x (-16.0) + (omitted) ... + R71 x (-11.3) ... (2-1)
Sum of H2 area = R12 x 0.0 + R22 x 8.6 + (omitted) ... + R72 x (-11.1) ... (2-2)
H3 area sum = R13 x 0.0 + R23 x (-6.3) + (omitted) ... + R73 x (-10.0) ... (2-3)
Sum of H4 area = R14 x 0.0 + R24 x (-1.8) + (omitted) ... + R74 x (-14.6) ... (2-4)

指標1は、式(2-1)〜(2-4)で示されたH1〜H4領域の和を用いて、式(3)のように定義される。
指標1=H1領域の和+H2領域の和+H3領域の和+H4領域の和+4.424 …(3)
The index 1 is defined as Expression (3) using the sum of the H1 to H4 regions shown in Expressions (2-1) to (2-4).
Index 1 = sum of H1 area + sum of H2 area + sum of H3 area + sum of H4 area + 4.424 (3)

表3に、判別分析により得られた、逆光撮影としての確度、即ち、逆光撮影時の顔領域の明度状態を定量的に示す指標2を算出するために必要な第2の係数を分割領域別に示す。表3に示された各分割領域の係数は、表1に示した各分割領域の第1の占有率Rijに乗算する重み係数である。

Figure 2007193592
Table 3 shows, for each divided region, the second coefficient necessary for calculating the index 2 that quantitatively indicates the accuracy of backlight photographing obtained by discriminant analysis, that is, the brightness state of the face region at the time of backlight photographing. Show. The coefficient of each divided area shown in Table 3 is a weighting coefficient that is multiplied by the first occupation ratio Rij of each divided area shown in Table 1.
Figure 2007193592

図14に、明度(v)−色相(H)平面を示す。表3によると、図14において肌色色相領域の中間明度に分布する領域(r4)から算出される占有率には負(-)の係数が用いられ、肌色色相領域の低明度(シャドー)領域(r3)から算出される占有率には正(+)の係数が用いられる。図16は、肌色領域(H1)における第2の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。表3及び図16によると、肌色色相領域の、明度値が85〜169(v4)の中間明度領域の第2の係数の符号は負(-)であり、明度値が26〜84(v2,v3)の低明度(シャドー)領域の第2の係数の符号は正(+)であり、両領域での係数の符号が異なっていることがわかる。   FIG. 14 shows a lightness (v) -hue (H) plane. According to Table 3, a negative (-) coefficient is used for the occupation ratio calculated from the region (r4) distributed in the intermediate lightness of the flesh color hue region in FIG. 14, and the low lightness (shadow) region ( A positive (+) coefficient is used for the occupation ratio calculated from r3). FIG. 16 shows the second coefficient in the skin color area (H1) as a curve (coefficient curve) that continuously changes over the entire brightness. According to Table 3 and FIG. 16, the sign of the second coefficient of the intermediate lightness region of the flesh color hue region having the lightness value of 85 to 169 (v4) is negative (−), and the lightness value is 26 to 84 (v2, It can be seen that the sign of the second coefficient in the low brightness (shadow) region of v3) is positive (+), and the sign of the coefficient in both regions is different.

明度領域vi、色相領域Hjにおける第2の係数をDijとすると、指標2を算出するためのHk領域の和は、式(4)のように定義される。

Figure 2007193592
従って、H1〜H4領域の和は、下記の式(4-1)〜式(4-4)のように表される。
H1領域の和=R11×(-27.0)+R21×4.5+(中略)...+R71×(-24.0) …(4-1)
H2領域の和=R12×0.0+R22×4.7+(中略)... +R72×(-8.5) …(4-2)
H3領域の和=R13×0.0+R23×0.0+(中略)...+R73×0.0 …(4-3)
H4領域の和=R14×0.0+R24×(-5.1)+(中略)...+R74×7.2 …(4-4) When the second coefficient in the lightness area vi and the hue area Hj is Dij, the sum of the Hk areas for calculating the index 2 is defined as in Expression (4).
Figure 2007193592
Therefore, the sum of the H1 to H4 regions is expressed by the following formulas (4-1) to (4-4).
H1 area sum = R11 x (-27.0) + R21 x 4.5 + (omitted) ... + R71 x (-24.0) ... (4-1)
Sum of H2 area = R12 x 0.0 + R22 x 4.7 + (omitted) ... + R72 x (-8.5) ... (4-2)
Sum of H3 area = R13 x 0.0 + R23 x 0.0 + (omitted) ... + R73 x 0.0 (4-3)
H4 area sum = R14 x 0.0 + R24 x (-5.1) + (omitted) ... + R74 x 7.2 ... (4-4)

指標2は、式(4-1)〜(4-4)で示されたH1〜H4領域の和を用いて、式(5)のように定義される。
指標2=H1領域の和+H2領域の和+H3領域の和+H4領域の和+1.554 …(5)
指標1及び指標2は、撮影画像データの明度と色相の分布量に基づいて算出されるため、撮影画像データがカラー画像である場合の配光性の算出に有効である。
The index 2 is defined as in Expression (5) using the sum of the H1 to H4 regions shown in Expressions (4-1) to (4-4).
Index 2 = sum of H1 area + sum of H2 area + sum of H3 area + sum of H4 area + 1.554 (5)
Since the index 1 and the index 2 are calculated based on the brightness of the captured image data and the distribution amount of the hue, they are effective in calculating the light distribution when the captured image data is a color image.

次に、図17のフローチャートを参照して、指標3を算出するための占有率算出処理(図10のステップS40)について詳細に説明する。   Next, the occupation rate calculation process (step S40 in FIG. 10) for calculating the index 3 will be described in detail with reference to the flowchart in FIG.

まず、撮影画像データのRGB値がHSV表色系に変換される(ステップS60)。次いで、撮影画像データが、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割され、分割領域毎に累積画素数を算出することにより2次元ヒストグラムが作成される(ステップS61)。以下、撮影画像データの領域分割について詳細に説明する。   First, the RGB values of the captured image data are converted into the HSV color system (step S60). Next, the photographed image data is divided into regions each composed of a combination of the distance from the outer edge of the photographed image screen and brightness, and a two-dimensional histogram is created by calculating the cumulative number of pixels for each divided region (step S61). Hereinafter, the area division of the captured image data will be described in detail.

図18(a)〜(d)に、撮影画像データの画面の外縁からの距離に応じて分割された4つの領域n1〜n4を示す。図18(a)に示す領域n1が外枠であり、図18(b)に示す領域n2が、外枠の内側の領域であり、図18(c)に示す領域n3が、領域n2の更に内側の領域であり、図18(d)に示す領域n4が、撮影画像画面の中心部の領域である。また、明度は、上述のようにv1〜v7の7つの領域に分割するものとする。従って、撮影画像データを、撮影画像画面の外縁からの距離と明度の組み合わせからなる領域に分割した場合の分割領域の数は4×7=28個となる。   18A to 18D show four regions n1 to n4 that are divided according to the distance from the outer edge of the screen of the captured image data. A region n1 shown in FIG. 18A is an outer frame, a region n2 shown in FIG. 18B is a region inside the outer frame, and a region n3 shown in FIG. A region n4 shown in FIG. 18D is an inner region, and is a central region of the captured image screen. Further, the lightness is divided into seven regions v1 to v7 as described above. Therefore, when the captured image data is divided into regions composed of combinations of the distance from the outer edge of the captured image screen and the brightness, the number of divided regions is 4 × 7 = 28.

2次元ヒストグラムが作成されると、分割領域毎に算出された累積画素数の全画素数(撮影画像全体)に占める割合を示す第2の占有率が算出され(ステップS62)、本占有率算出処理が終了する。明度領域vi、画面領域njの組み合わせからなる分割領域において算出された第2の占有率をQijとすると、各分割領域における第2の占有率は表4のように表される。

Figure 2007193592
When the two-dimensional histogram is created, a second occupancy ratio indicating the ratio of the cumulative number of pixels calculated for each divided region to the total number of pixels (the entire captured image) is calculated (step S62), and the main occupancy ratio calculation is performed. The process ends. If the second occupancy calculated in the divided area composed of the combination of the brightness area vi and the screen area nj is Qij, the second occupancy in each divided area is expressed as shown in Table 4.
Figure 2007193592

次に、指標3の算出方法について説明する。
表5に、指標3を算出するために必要な第3の係数を分割領域別に示す。表5に示された各分割領域の係数は、表4に示した各分割領域の第2の占有率Qijに乗算する重み係数であり、判別分析により得られる。

Figure 2007193592
図19は、画面領域n1〜n4における第3の係数を、明度全体に渡って連続的に変化する曲線(係数曲線)として示したものである。 Next, a method for calculating the index 3 will be described.
Table 5 shows the third coefficient necessary for calculating the index 3 for each divided region. The coefficient of each divided area shown in Table 5 is a weighting coefficient by which the second occupancy Qij of each divided area shown in Table 4 is multiplied, and is obtained by discriminant analysis.
Figure 2007193592
FIG. 19 shows the third coefficient in the screen areas n1 to n4 as a curve (coefficient curve) that continuously changes over the entire brightness.

明度領域vi、画面領域njにおける第3の係数をEijとすると、指標3を算出するためのnk領域(画面領域nk)の和は、式(6)のように定義される。

Figure 2007193592
従って、n1〜n4領域の和は、下記の式(6-1)〜式(6-4)のように表される。
n1領域の和=Q11×40.1+Q21×37.0+(中略)...+Q71×22.0 …(6-1)
n2領域の和=Q12×(-14.8)+Q22×(-10.5)+(中略)...+Q72×0.0 …(6-2)
n3領域の和=Q13×24.6+Q23×12.1+(中略)...+Q73×10.1 …(6-3)
n4領域の和=Q14×1.5+Q24×(-32.9)+(中略)...+Q74×(-52.2) …(6-4) If the third coefficient in the brightness area vi and the screen area nj is Eij, the sum of the nk area (screen area nk) for calculating the index 3 is defined as in Expression (6).
Figure 2007193592
Accordingly, the sum of the n1 to n4 regions is expressed as the following formulas (6-1) to (6-4).
n1 area sum = Q11 x 40.1 + Q21 x 37.0 + (omitted) ... + Q71 x 22.0 (6-1)
Sum of n2 areas = Q12 x (-14.8) + Q22 x (-10.5) + (omitted) ... + Q72 x 0.0 (6-2)
n3 area sum = Q13 x 24.6 + Q23 x 12.1 + (omitted) ... + Q73 x 10.1… (6-3)
n4 area sum = Q14 x 1.5 + Q24 x (-32.9) + (omitted) ... + Q74 x (-52.2) ... (6-4)

指標3は、式(6-1)〜(6-4)で示されたN1〜H4領域の和を用いて、式(7)のように定義される。
指標3=n1領域の和+n2領域の和+n3領域の和+n4領域の和−12.6201 …(7)
指標3は、撮影画像データの明度の分布位置による構図的な特徴(撮影画像データの画面の外縁からの距離)に基づいて算出されるため、カラー画像だけでなくモノクロ画像の配光性を算出するのにも有効である。
The index 3 is defined as in Expression (7) using the sum of the N1 to H4 regions shown in Expressions (6-1) to (6-4).
Index 3 = sum of n1 regions + sum of n2 regions + sum of n3 regions + sum of n4 regions−12.6201 (7)
Since the index 3 is calculated based on the compositional feature (distance from the outer edge of the screen of the captured image data) according to the distribution position of the brightness of the captured image data, the light distribution of not only the color image but also the monochrome image is calculated. It is also effective to do.

指標4は、指標1及び指標3を用いて式(8)のように定義され、指標5は、指標1〜3を用いて式(9)のように定義される。
指標4=0.565×指標1+0.565×指標3+0.457 …(8)
指標5=(-0.121)×指標1+0.91×指標2+0.113×指標3−0.072 …(9)
ここで、式(8)及び式(9)において各指標に乗算される重み係数は、撮影条件に応じて予め設定されている。
The index 4 is defined as Expression (8) using the indices 1 and 3, and the index 5 is defined as Expression (9) using the indices 1 to 3.
Index 4 = 0.565 x index 1 + 0.565 x index 3 + 0.457 (8)
Index 5 = (− 0.121) × Index 1 + 0.91 × Index 2 + 0.113 × Index 3-0.072 (9)
Here, the weighting coefficient by which each index is multiplied in Expression (8) and Expression (9) is set in advance according to the shooting conditions.

〈配光性の算出方法〉
次に、配光性の算出方法(図10のステップS41)について説明する。
図20は、順光、逆光、ストロボの各条件で60枚ずつ撮影し、合計180枚のデジタル画像データについて、指標4、5を算出し、各条件での指標4、5の値をプロットしたものである。図20によれば、指標4の値が0.5より大きい場合、ストロボシーンが多く、指標4の値が0.5以下で、指標5の値が−0.5より大きい場合、逆光シーンが多いことがわかる。表6に、指標4、5の値による配光性の算出内容を示す。

Figure 2007193592
このように指標4、5の値により、配光性を定量的に算出することができる。 <Calculation method of light distribution>
Next, the light distribution calculation method (step S41 in FIG. 10) will be described.
In FIG. 20, 60 images were taken under each condition of forward light, backlight, and strobe, and indexes 4 and 5 were calculated for a total of 180 digital image data, and the values of indexes 4 and 5 under each condition were plotted. Is. According to FIG. 20, when the value of index 4 is greater than 0.5, there are many strobe scenes, and when the value of index 4 is 0.5 or less and the value of index 5 is greater than −0.5, the backlight scene is I understand that there are many. Table 6 shows the calculation contents of the light distribution by the values of the indexes 4 and 5.
Figure 2007193592
Thus, the light distribution can be calculated quantitatively based on the values of the indexes 4 and 5.

〈顔抽出処理の処理条件の決定〉
次に、図10のステップS42で示した、顔抽出処理の処理条件の決定方法について詳細に説明する。
<Determination of processing conditions for face extraction processing>
Next, the method for determining the processing conditions for the face extraction process shown in step S42 in FIG. 10 will be described in detail.

撮影時の配光性に応じて実行される顔抽出処理の処理条件の決定は、顔抽出処理の抽出精度を向上させるために行われるものである。顔抽出処理の処理方法としては、撮影画像データから顔候補領域を抽出し、抽出された顔候補領域が人物の顔であるか否かを判定する方法、顔候補領域内に人物の顔が含まれているか否かを判定する方法等がある。このような方法を用いる場合、顔抽出処理の抽出精度には、顔候補領域の抽出精度と、顔候補領域が人物の顔であるか否か(若しくは顔候補領域内に顔が含まれているか否か)を判定する判定精度の双方が寄与するため、顔抽出処理の処理条件を決定する際には、顔候補領域の抽出条件、顔候補領域から人物の顔を判定する処理の処理条件の何れか一方又は双方を、配光性の算出結果に応じて決定することが好ましい。   The determination of the processing conditions for the face extraction process executed according to the light distribution at the time of shooting is performed in order to improve the extraction accuracy of the face extraction process. As a processing method of the face extraction processing, a face candidate area is extracted from captured image data, and it is determined whether or not the extracted face candidate area is a person's face. A human face is included in the face candidate area. For example, there is a method for determining whether or not it is. When such a method is used, the extraction accuracy of the face extraction process includes the extraction accuracy of the face candidate region and whether the face candidate region is a human face (or whether a face is included in the face candidate region). Both of the determination accuracy contribute to determining whether or not the face extraction processing conditions are determined. When the processing conditions for the face extraction process are determined, the processing conditions for the process of determining the face of the person from the face candidate area Either one or both are preferably determined according to the light distribution calculation result.

以下では、撮影画像データから顔候補領域を抽出する処理と、抽出された顔候補領域が人物の顔であるか否かを判定する処理を併せて「顔抽出処理」と呼び、顔抽出処理のうち、顔候補領域が人物の顔であるか否かを判定する処理の部分を「顔判定処理」と呼ぶことにする。   Hereinafter, the process of extracting a face candidate area from captured image data and the process of determining whether or not the extracted face candidate area is a person's face are referred to as a “face extraction process”. Of these, the part of the process for determining whether or not the face candidate area is a person's face is referred to as “face determination process”.

まず、顔候補領域の抽出条件の決定方法について説明する。
顔候補領域の抽出方法として、撮影画像データから肌色に相当する初期点を探索し、単純領域拡張法を用いて肌色領域を顔候補領域として抽出する手法を用いることができる。単純領域拡張法とは、画素間のデータ差が閾値以下の互いに隣接する画素を同一画像領域に属するものとして当該領域を拡張していくことにより特定の画像領域の抽出を行う画像処理方法である。即ち、単純領域拡張法は、指定された特定条件に合致する初期画素から出発し、当該初期画素に対して隣接する画素(4連結、8連結の何れでも可)のデータ差が閾値以下である場合に当該隣接画素と初期画素とを同一画像領域に属するものとし、更に、当該同一画素に属するとした画素に対し隣接する画素についても同様の判定を行う。このようにして、初期画素から出発して、同一の画像領域を除々に拡張させることによって特定の画像領域の抽出が行われる。本実施の形態では、更に、画像中のエッジ成分を抽出し、画像エッジに達した場合に単純領域拡張を終了することで、顔候補領域を確定する処理を用いることが好ましい。
First, a method for determining the extraction condition of the face candidate area will be described.
As a method for extracting a face candidate area, a method can be used in which an initial point corresponding to a skin color is searched from captured image data, and a skin color area is extracted as a face candidate area using a simple area expansion method. The simple area expansion method is an image processing method for extracting a specific image area by expanding adjacent areas with pixels adjacent to each other whose data difference between pixels is equal to or less than a threshold value belonging to the same image area. . In other words, the simple area expansion method starts from an initial pixel that matches a specified condition, and a data difference between adjacent pixels (either 4-connected or 8-connected) is equal to or less than a threshold value. In this case, it is assumed that the adjacent pixel and the initial pixel belong to the same image area, and the same determination is performed for a pixel adjacent to the pixel that belongs to the same pixel. In this manner, starting from the initial pixel, a specific image region is extracted by gradually expanding the same image region. In the present embodiment, it is further preferable to use a process of extracting a face component region by extracting an edge component in an image and ending simple region expansion when the image edge is reached.

顔候補領域として肌色領域を抽出する場合、被写体が同一人物であっても、撮影時の配光性に応じて、肌色領域の色味は著しく異なる。例えば、順光で撮影された画像の肌色を基準とすると、ストロボ撮影では、肌色の色味が(特に、近接であればあるほど)白くとび気味になり、逆光下での撮影であれば、肌色の色味が暗くなる。このような状況を踏まえ、初期画素の探索条件を、配光性の算出結果に応じて切り替える及び/又は(段階的若しくは連続的に)調整することが好ましい。   When a skin color area is extracted as the face candidate area, even if the subject is the same person, the color of the skin color area varies significantly depending on the light distribution at the time of shooting. For example, based on the skin color of an image taken in front light, the skin tone becomes whiter (especially the closer it is) in strobe shooting, and if it is shooting in backlight, Skin tone becomes darker. In consideration of such a situation, it is preferable to switch and / or adjust (stepwise or continuously) the search condition for the initial pixel in accordance with the light distribution calculation result.

例えば、初期画素を探索するための所定の基本探索条件に対し、配光性が「順光」であればその基本探索条件を用い、配光性が「ストロボ」であれば、基本探索条件から輝度を高く(明るく)補正した探索条件を用い、配光性が「逆光」であれば、基本探索条件から輝度を低く(暗く)補正した探索条件を用いればよい。このように、単純領域拡張法を用いて顔候補領域を抽出する際、撮影時の配光性に応じて、初期画素の探索条件を切り替えればよい。また、配光性によって単純領域拡張を終了させるエッジ強度は異なるため、単純領域拡張を終了させるためのエッジ抽出条件も配光性に応じて調整することが好ましい。   For example, for a predetermined basic search condition for searching for an initial pixel, if the light distribution is “forward light”, the basic search condition is used. If the light distribution is “strobe”, the basic search condition is used. If the search condition with the brightness corrected (brighter) is used and the light distribution is “backlight”, the search condition with the brightness reduced (darker) from the basic search condition may be used. As described above, when extracting a face candidate region using the simple region expansion method, the search condition for the initial pixel may be switched according to the light distribution at the time of photographing. Moreover, since the edge intensity | strength which complete | finishes simple area expansion differs with light distribution, it is preferable to adjust the edge extraction conditions for ending simple area expansion according to light distribution.

配光性の算出結果が、ストロボ度、逆光度等のように、配光性を段階的又は連続的に示す指標(指標4、5)として得られる場合、得られた指標の値に応じて、輝度を高くする度合い(ストロボの場合)、輝度を低くする度合い(逆光の場合)を調整することにより、初期画素の探索条件を決定すればよい。従って、このような初期画素の探索条件を用いた単純領域拡張法を、顔候補領域の抽出条件として決定することができる。   When the calculation result of the light distribution is obtained as an index (index 4, 5) indicating the light distribution stepwise or continuously, such as strobe degree, backlight intensity, etc., depending on the value of the obtained index The search condition for the initial pixel may be determined by adjusting the degree of increasing the brightness (in the case of a strobe) and the degree of decreasing in the brightness (in the case of backlight). Therefore, the simple region expansion method using the initial pixel search condition can be determined as the extraction condition for the face candidate region.

なお、上述では、配光性に応じて肌色領域に輝度差が生じることを利用して、初期画素の探索条件を補正する例を示したが、輝度に限らず、彩度を利用するなどして、探索条件の補正要件を増やすようにしてもよい。例えば、ストロボ、フラッシュ撮影であれば、順光の場合より低彩度になる。また、初期画素の探索条件だけでなく、領域拡張条件を補正するようにしてもよい。更に、顔候補領域を抽出するための様々な処理条件について、配光性毎に得られる肌色領域の特性の違いを反映して、初期画素の探索条件、領域拡張条件を補正するのが好ましい。   In the above description, the example in which the search condition for the initial pixel is corrected using the fact that the brightness difference is generated in the skin color area according to the light distribution is shown. However, not only the brightness but also saturation is used. Thus, the search condition correction requirement may be increased. For example, with flash and flash photography, the saturation is lower than with direct light. Further, not only the initial pixel search condition but also the area expansion condition may be corrected. Furthermore, it is preferable to correct the initial pixel search condition and the region expansion condition for various processing conditions for extracting the face candidate region, reflecting the difference in the characteristics of the skin color region obtained for each light distribution.

次に、顔候補領域から顔を判定するための顔判定処理条件の決定方法について説明する。以下では、顔候補領域から特徴量を抽出し、その抽出された特徴量に基づいてニューラルネットワークを用いて顔判定処理を行う場合の顔判定処理条件の決定方法について説明する。   Next, a method for determining a face determination processing condition for determining a face from a face candidate area will be described. In the following, a method for determining a face determination processing condition when a feature amount is extracted from a face candidate region and face determination processing is performed using a neural network based on the extracted feature amount will be described.

まず、顔判定処理条件の決定方法の具体的な説明に先立って、顔判定処理で用いられるニューラルネットワークについて簡単に説明する。このニューラルネットワークは、図21に示すように、入力層、中間層及び出力層を有する階層型のニューラルネットワーク(以下、単にニューラルネットワークという。)である。ニューラルネットワークは、デジタルニューラルネットワークチップを利用することが望ましいが、汎用のDSP(Digital Signal Processor)と専用のエミュレートプログラムを用いても実現することができるし、通常のCPUとエミュレートプログラムを用いても構わない。   First, prior to a specific description of a method for determining face determination processing conditions, a neural network used in face determination processing will be briefly described. As shown in FIG. 21, this neural network is a hierarchical neural network (hereinafter simply referred to as a neural network) having an input layer, an intermediate layer, and an output layer. The neural network preferably uses a digital neural network chip, but can also be realized by using a general-purpose DSP (Digital Signal Processor) and a dedicated emulation program, or using a normal CPU and an emulation program. It doesn't matter.

ニューラルネットワークの各層は、ニューロンと呼ばれる構成単位からなっている。入力層を除けば、任意のニューロンは、図22に示すように、シナプスと呼ばれる入力を多数受け取り、各々の入力値xiに対して結合強度と呼ばれる所定の重みwiを掛けてその総和を求め、それを所定の出力関数fで評価した結果を出力yとして与える機能素子として機能する。出力関数fは、式(10)のように表される。

Figure 2007193592
ここで、f(x)は一般に式(11)に示すような非線形のシグモイド関数が用いられるが、必ずしもこれに限定されるわけではない。
Figure 2007193592
Each layer of the neural network is composed of structural units called neurons. Except for the input layer, as shown in FIG. 22, an arbitrary neuron receives a large number of inputs called synapses, and multiplies each input value x i by a predetermined weight w i called connection strength to sum the sum. It functions as a functional element that obtains and evaluates a result obtained by evaluating it with a predetermined output function f as an output y. The output function f is expressed as in Expression (10).
Figure 2007193592
Here, f (x) is generally a non-linear sigmoid function as shown in Equation (11), but is not necessarily limited thereto.
Figure 2007193592

ここで、各ニューロンの入力の重みwiはニューラルネットワークの入力・出力の関係、言い替えればニューラルネットワークの動作を決定する重要な情報であり、ニューラルネットワークに対して学習作業を行うことによって決定する。なお、図21では中間層は1層のみ記してあるが、これは1以上の任意の階層の構成とすることができる。階層型ネットワークでは、中間層は1層あれば、合成可能な任意の関数を実現できることが知られているが、中間層を多くした方が学習効率や、ニューロンの個数の点から有利であることが知られている。 Here, the input weight w i of each neuron is important information for determining the relationship between the input and output of the neural network, in other words, the operation of the neural network, and is determined by performing a learning operation on the neural network. In FIG. 21, only one intermediate layer is shown, but this can be configured in one or more arbitrary layers. Hierarchical networks are known to be able to achieve any function that can be synthesized if there is only one intermediate layer, but increasing the number of intermediate layers is advantageous in terms of learning efficiency and the number of neurons. It has been known.

ニューラルネットワークの特徴として、系としての汎化能力が上げられる。これは、学習によって必ずしも教師データ(入力パターンとその入力パターンに対する望ましい出力パターンの対であり、通常複数個用意される。特定の入力パターンに対して望ましい出力パターンを決定する作業は一般に熟練者の主観的な判断に頼って決定する)として与えていない、未学習の入力パターンに対しても、おおむね正しい出力を与える能力である。   As a feature of the neural network, generalization ability as a system is raised. This is not necessarily teacher data (a pair of an input pattern and a desired output pattern corresponding to the input pattern is usually prepared by learning, and a plurality of them are usually prepared. The operation of determining a desired output pattern for a specific input pattern is generally performed by an expert. This is the ability to give a correct output even for unlearned input patterns that are not given as a result of subjective judgment.

ニューラルネットワークに対する教師データを用いた学習方法は種々の手法が知られており、例えば広く用いられている誤差逆伝播学習方法(Back Propagation学習法)を用いて十分な回数学習作業を施すことにより、教師データに対して近似した出力を得ることができるようになる。   Various learning methods using teacher data for neural networks are known, for example, by performing a sufficient number of learning operations using the widely used error back propagation learning method (Back Propagation learning method), An output approximate to the teacher data can be obtained.

次に、顔判定処理条件の決定方法について具体的に説明する。配光性が異なるのに同一の顔判定処理条件を用いると、顔の判定精度に差異が生じる。これは、配光性毎に、顔の判定処理に寄与する特徴量が異なっていたり、特徴量を最適に抽出する抽出条件が異なっていることによる。従って、配光性に応じて顔判定処理条件を決定するのが好ましい。   Next, a method for determining the face determination processing condition will be specifically described. If the same face determination processing conditions are used even though the light distribution is different, a difference in face determination accuracy occurs. This is because the feature amount contributing to the face determination process is different for each light distribution and the extraction condition for optimally extracting the feature amount is different. Therefore, it is preferable to determine the face determination processing condition according to the light distribution.

具体的には、配光性に応じて、ニューラルネットワークの設計、顔判定処理に用いるニューラルネットワークの学習結果を決定することが好ましい。ここで、ニューラルネットワークの設計とは、例えば、ニューラルネットワークの入力パラメータの種類や数、中間層の数等を設計することを示す。入力パラメータには、顔候補領域から抽出される特徴量が含まれる。また、ニューラルネットワークの学習結果とは、ニューラルネットワークを構成する各ニューロンに割り振られる重み(結合強度)、シグモイド関数の傾き値等を表す。   Specifically, it is preferable to determine the learning result of the neural network used for the design of the neural network and the face determination process according to the light distribution. Here, the design of the neural network indicates, for example, designing the type and number of input parameters of the neural network, the number of intermediate layers, and the like. The input parameter includes a feature amount extracted from the face candidate region. The learning result of the neural network represents a weight (connection strength) assigned to each neuron constituting the neural network, a slope value of the sigmoid function, and the like.

ニューラルネットワークの入力パラメータとして使用する特徴量の性質及び配光性に関わらず、同一の抽出条件で顔候補領域から特徴量を抽出すると、抽出精度に差異が生じる。また、特徴量の性質によっては、人物の顔と顔以外の部分の分別性に、配光性に応じて差異が生じる。このようなことから、配光性に応じて、顔候補領域から抽出する特徴量、特徴量の抽出条件を変えるのが好ましい。   Regardless of the nature of the feature quantity used as the input parameter of the neural network and the light distribution, if the feature quantity is extracted from the face candidate region under the same extraction condition, the extraction accuracy differs. Further, depending on the nature of the feature quantity, a difference occurs in the separability between a person's face and a part other than the face according to the light distribution. For this reason, it is preferable to change the feature amount extracted from the face candidate region and the feature amount extraction condition in accordance with the light distribution.

例えば、特徴量として、目や口等の顔を構成する部位を用い、特徴量の抽出条件として、肌と目や口の色味の違い(肌色と略黒色、肌色と赤み)や部位の輪郭のエッジを利用した抽出条件を用いた場合、順光と逆光では、逆光の方が、特徴量の抽出精度が低くなる傾向がある。即ち、逆光では、人物の顔全体が、順光に比べて暗く撮影されるために、肌と部位の色値の差が小さいとともに、順光に比べて輪郭のエッジの抽出が困難になる。   For example, using features that make up the face such as eyes and mouth as feature values, and extraction conditions for feature values, differences in skin and eyes or mouth color (skin color and almost black, skin color and redness) and contours of parts In the case of using the extraction condition using the edge of the backlight, there is a tendency for the backlight to be backlit and the backlight to be less accurate in extracting feature quantities. That is, in the backlight, the entire face of the person is photographed darker than the normal light, so that the difference between the color values of the skin and the part is small, and the edge of the contour is difficult to extract compared to the normal light.

このように、配光性に応じて、特徴量の抽出条件を切り替えたり、ニューラルネットワークの入力パラメータの種類や数を変更したりすればよい。また、算出された指標の値(ストロボ度、逆光度等)に応じて、特徴量の抽出条件を段階的又は連続的に調整するようにしてもよい。また、入力パラメータの数に応じて、ニューラルネットワークの中間層の数、ニューロン数も変更することが好ましい。   In this way, the feature quantity extraction conditions may be switched or the type and number of input parameters of the neural network may be changed according to the light distribution. Further, the feature quantity extraction condition may be adjusted stepwise or continuously in accordance with the calculated index value (strobe degree, backlight intensity, etc.). It is also preferable to change the number of intermediate layers and the number of neurons in the neural network according to the number of input parameters.

また、顔判定処理条件を決定する際、順光、ストロボ、逆光の各々の画像群で予め学習されたニューラルネットワークを、配光性に応じて切り替えることが好ましい。また、配光性の算出結果が、ストロボ度、逆光度等のように、配光性が段階的又は連続的に示す指標として得られるシステムであれば、ニューラルネットワークを、強度のストロボ用、弱度のストロボ用、強度の逆光用、弱度の逆光用等のように、配光性の程度に合わせて段階的に用意しておくと、顔判定処理の判定精度を向上させることができる。また、自己学習型ニューラルネットワークのバージョンアップ法を使用し適宜更新してシステム運営することが好ましい。   Further, when determining the face determination processing conditions, it is preferable to switch the neural network previously learned in each of the forward light, strobe, and backlight images according to the light distribution. In addition, if the calculation result of light distribution is a system in which the light distribution is obtained as an indicator that indicates stepwise or continuously, such as strobe degree, backlight intensity, etc., a neural network can be used for a strong strobe. If it is prepared step by step according to the degree of light distribution, such as for strobes at high degrees, for strong backlights, and for weak backlights, the determination accuracy of the face determination process can be improved. In addition, it is preferable to operate the system by appropriately updating it using a version upgrade method of the self-learning neural network.

〈顔抽出処理〉
次に、図23のフローチャートを参照して、図10のステップS43に示した顔抽出処理について詳細に説明する。
<Face extraction processing>
Next, the face extraction process shown in step S43 of FIG. 10 will be described in detail with reference to the flowchart of FIG.

まず、図10のステップS42で決定された顔候補領域の抽出条件に従って、順光度が所定値以上の撮影画像データから顔候補領域が抽出され(ステップS70)、撮影画像データの中に顔候補領域があるか否かが判定される(ステップS71)。   First, in accordance with the extraction condition of the face candidate area determined in step S42 of FIG. 10, a face candidate area is extracted from photographed image data having a light intensity equal to or greater than a predetermined value (step S70), and the face candidate area is included in the photographed image data. It is determined whether or not there is (step S71).

ステップS71において、撮影画像データの中に顔候補領域がないと判定された場合(ステップS71;NO)、本顔抽出処理が終了する。ステップS71において、撮影画像データの中に顔候補領域があると判定された場合(ステップS71;YES)、ステップS70で抽出された顔候補領域が人物の顔であるか否かを判定する顔判定処理が行われ(ステップS72)、本顔抽出処理が終了する。ステップS72の顔判定処理については、後に図24を参照して詳細に説明する。   If it is determined in step S71 that there is no face candidate area in the captured image data (step S71; NO), the face extraction process ends. If it is determined in step S71 that there is a face candidate area in the captured image data (step S71; YES), face determination is performed to determine whether the face candidate area extracted in step S70 is a human face. Processing is performed (step S72), and the face extraction processing ends. The face determination process in step S72 will be described in detail later with reference to FIG.

なお、上述では、顔候補領域の抽出処理の一例として単純領域拡張法を用いる場合を示したが、顔候補領域の抽出方法はこれに限定されない。例えば、撮影画像データからエッジを抽出し、ハフ変換やテンプレートマッチング等の手法を利用して楕円等の特定の形状パターンを抽出する方法を用いることができる。   In the above description, the simple area expansion method is used as an example of the face candidate area extraction process. However, the face candidate area extraction method is not limited to this. For example, it is possible to use a method of extracting an edge from photographed image data and extracting a specific shape pattern such as an ellipse using a technique such as Hough transform or template matching.

更に、特開平4−346332号公報に開示されているように、元画像(撮影画像データ)を多数画素に分割し、各画素のRGB値から、色相値と彩度値のヒストグラムを作成し、その形状からヒストグラムを分割し、その分割された各部位に相当する各画素で構成される領域に画像を分割し、その分割された各領域から人物の顔に相当する領域を推定する方法を用いることができる。   Furthermore, as disclosed in JP-A-4-346332, an original image (photographed image data) is divided into a large number of pixels, and a histogram of hue values and saturation values is created from the RGB values of each pixel, A method is used in which a histogram is divided from the shape, an image is divided into areas composed of pixels corresponding to the divided parts, and an area corresponding to a human face is estimated from the divided areas. be able to.

また、特開平6−309433号公報、特開平6−67320号公報、特開平5−158164号公報、特開平5−165120号公報に開示されているように、色相値、彩度値、輝度値等のヒストグラムに基づいて肌色領域を決定し、この肌色領域を顔候補領域とする方法を用いることができる。更に、特開平8−221567号公報、特開2000−20694号公報、特開2000−32272号公報、特開2000−201358号公報、特開2000−207569号公報に開示されているようなラインプロセス法を用いて顔候補領域を抽出することができる。   Further, as disclosed in JP-A-6-309433, JP-A-6-67320, JP-A-5-158164, and JP-A-5-165120, a hue value, a saturation value, and a luminance value are disclosed. A method of determining a skin color area based on a histogram such as the above and using the skin color area as a face candidate area can be used. Further, a line process as disclosed in JP-A-8-221567, JP-A-2000-20694, JP-A-2000-32272, JP-A-2000-201158, and JP-A-2000-20769. The face candidate region can be extracted using the method.

また、カラーデジタル画像からエッジと低周波画像を生成し、所定のパラメータ(例えば、彩度値、色相値、明度値の各値)が所定の初期条件(各所定範囲の値)と合致する初期画素を抽出し、低周波画像に対して、抽出された初期画素から単純領域拡張を行い、画像エッジに到達した場合に単純領域拡張を強制的に終了させて、顔候補領域を抽出するようにしてもよい。   In addition, an edge and a low frequency image are generated from a color digital image, and predetermined parameters (for example, saturation value, hue value, and lightness value) are initially matched with predetermined initial conditions (values in each predetermined range). Extract a pixel, perform simple area expansion from the extracted initial pixel for the low-frequency image, and forcibly end simple area expansion when the image edge is reached to extract a face candidate area May be.

次に、図24のフローチャートを参照して、図23のステップS72に示した顔判定処理について説明する。   Next, the face determination process shown in step S72 of FIG. 23 will be described with reference to the flowchart of FIG.

まず、図10のステップS42で決定された特徴量及びその抽出条件に従って、顔候補領域から特徴量が抽出される(ステップS80)。次いで、ステップS80で抽出された特徴量を入力信号(入力パラメータ)、顔らしさを表すパラメータを出力信号とした、配光性に応じて決定されたニューラルネットワーク(例えば、配光性が逆光の場合、逆光用に学習されたニューラルネットワーク)を用いて、顔候補領域が人物の顔であるか否かが判定され(ステップS81)、本顔判定処理が終了する。   First, a feature value is extracted from the face candidate area according to the feature value determined in step S42 of FIG. 10 and its extraction condition (step S80). Next, the neural network determined according to the light distribution (for example, when the light distribution is backlit) using the feature amount extracted in step S80 as the input signal (input parameter) and the parameter representing the facial appearance as the output signal. The neural network learned for backlighting is used to determine whether the face candidate area is a human face (step S81), and the face determination process ends.

以上、本実施の形態によれば、受付端末1において、メディアMに記録された複数の画像データのうち、グルーピング対象画像データの日時情報に基づいてグルーピング対象画像データの生成時間の差分値を算出するとともに、当該日時情報に応じてグルーピング対象画像データの生成時間間隔の閾値を設定し、グルーピング対象画像データの差分値が、設定した閾値よりも大きい場合にグループ区切り位置として設定し、そのグルーピング結果を表示部12に表示する。このため、画像データをその生成(撮影)時間(日時情報)に応じて適正にグループ分けをすることができ、そのグルーピング対象画像データをグループごとに表示できる。   As described above, according to the present embodiment, the reception terminal 1 calculates the difference value of the generation time of the grouping target image data based on the date / time information of the grouping target image data among the plurality of image data recorded on the medium M. In addition, a threshold value of the generation time interval of the grouping target image data is set according to the date and time information, and when the difference value of the grouping target image data is larger than the set threshold value, the grouping result is set. Is displayed on the display unit 12. Therefore, the image data can be appropriately grouped according to the generation (photographing) time (date and time information), and the grouping target image data can be displayed for each group.

また、ユーザは、表示部12に表示されたグループ分け後のグルーピング対象画像データを参照して、プリント注文用の画像データを容易に選択入力できる。また、生成時間間隔の閾値を、日時情報が古くなるほど大きくすることにより、画像データが注文選択される可能性が低いグループのグループ数を低減でき、ユーザの画像データ選択の作業時間及び作業負担を低減できる。   Further, the user can easily select and input image data for print ordering by referring to grouped image data after grouping displayed on the display unit 12. Further, by increasing the generation time interval threshold as the date and time information becomes older, it is possible to reduce the number of groups in which image data is unlikely to be ordered and to reduce the work time and work load of the user for selecting image data. Can be reduced.

また、表示部12におけるグルーピング結果の表示において、グループごとに代表画像データを表示する構成とすると、ユーザがグループごとに代表画像データを容易に把握できる。さらに、グルーピング対象画像データのサムネイル画像データを生成し、所定の代表画像データを選択入力すると、その代表画像データのグループに属する全ての画像データのサムネイル画像データを表示する構成とすると、ユーザがサムネイル画像データを参照して、プリント注文用の画像データをさらに容易に選択入力できる。   Further, in the display of the grouping result on the display unit 12, if the representative image data is displayed for each group, the user can easily grasp the representative image data for each group. Furthermore, when thumbnail image data of grouping target image data is generated and predetermined representative image data is selected and input, thumbnail image data of all image data belonging to the group of the representative image data is displayed. By referring to the image data, it is possible to more easily select and input image data for print order.

なお、上記実施の形態における記述は、本発明に係る好適な画像処理装置、画像処理方法及び画像処理プログラムの一例であり、これに限定されるものではない。   The description in the above embodiment is an example of a suitable image processing apparatus, image processing method, and image processing program according to the present invention, and the present invention is not limited to this.

例えば、上記実施の形態では、受付端末1側で、プリント注文に係る処理全般を行う場合を示したが、受付端末1の処理能力が低い場合、処理対象の画像を外部機器に送信して、外部機器側で処理負荷の高い処理(例えば、代表画像選定における配光性算出処理、顔抽出処理)を行うことで、処理負荷を分散させることも可能である。一方、受付端末1の処理能力によっては、受付端末1側に、オーダー管理装置2の機能を加えるようにしてもよい。   For example, in the above-described embodiment, the case where the processing related to the print order is generally performed on the reception terminal 1 side is shown, but when the processing capability of the reception terminal 1 is low, an image to be processed is transmitted to the external device, It is possible to distribute the processing load by performing processing with a high processing load on the external device side (for example, light distribution calculation processing and face extraction processing in representative image selection). On the other hand, depending on the processing capability of the reception terminal 1, the function of the order management device 2 may be added to the reception terminal 1 side.

また、上記実施の形態では、グルーピング結果を表示部12に表示して出力する構成としたが、これに限定されるものではない。例えば、グルーピング結果として、グルーピング対象画像データをグループごとにCD−R(Compact Disc Recordable)等の記録メディアに記録して出力する構成等としてもよい。具体的には、例えばグルーピング対象画像データ及びそのグループ区切り位置の情報を記録メディアに記録する。さらに、グルーピング対象画像データをグループごとに記録メディアに記録するとともに、各グループの標識、指標、代表画像データ等の情報も合わせて記録する構成としてもよい。   In the above embodiment, the grouping result is displayed on the display unit 12 and output. However, the present invention is not limited to this. For example, the grouping target image data may be recorded and output on a recording medium such as a CD-R (Compact Disc Recordable) for each group as a grouping result. Specifically, for example, grouping target image data and information on the group separation position are recorded on a recording medium. Further, the grouping target image data may be recorded on a recording medium for each group, and information such as a label, an index, and representative image data of each group may be recorded together.

また、以上の実施の形態における画像処理システム100を構成する各部の細部構成及び細部動作に関して本発明の趣旨を逸脱することのない範囲で適宜変更可能である。   Further, the detailed configuration and detailed operation of each part constituting the image processing system 100 in the above embodiment can be appropriately changed without departing from the spirit of the present invention.

本発明の実施の形態に係る画像処理システム100の構成を示す図である。1 is a diagram showing a configuration of an image processing system 100 according to an embodiment of the present invention. 本実施の形態に係る受付端末1の主要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the reception terminal 1 which concerns on this Embodiment. 本実施の形態に係るオーダー管理装置2の主要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the order management apparatus 2 which concerns on this Embodiment. 受付端末1において実行される第1のプリント受付処理と、オーダー管理装置2において実行される第1のプリント管理処理と、を示すフローチャートである。5 is a flowchart showing a first print acceptance process executed in the reception terminal 1 and a first print management process executed in the order management apparatus 2. 第1のグルーピング画像表示処理を示すフローチャートである。It is a flowchart which shows a 1st grouping image display process. グルーピング結果表示画面の一例を示す図である。It is a figure which shows an example of a grouping result display screen. グルーピング結果としてのカレンダー表示画面の一例を示す図である。It is a figure which shows an example of the calendar display screen as a grouping result. 変形例における受付端末1において実行される第2のプリント受付処理と、オーダー管理装置2において実行される第2のプリント管理処理と、を示すフローチャートである。10 is a flowchart illustrating a second print acceptance process executed in the reception terminal 1 in a modified example and a second print management process executed in the order management apparatus 2; 第2のグルーピング画像表示処理を示すフローチャートである。It is a flowchart which shows a 2nd grouping image display process. 画像グループの代表画像選定時に受付端末1において実行される処理を示すフローチャートである。It is a flowchart which shows the process performed in the reception terminal 1 at the time of selection of the representative image of an image group. 明度・色相の領域毎に第1の占有率を算出する占有率算出処理を示すフローチャートである。It is a flowchart which shows the occupation rate calculation process which calculates the 1st occupation rate for every area | region of lightness and hue. RGBからHSV表色系に変換するプログラムの一例を示す図である。It is a figure which shows an example of the program converted from RGB to HSV color system. 明度(V)−色相(H)平面と、V−H平面上の領域r1及び領域r2を示す図である。It is a figure which shows the brightness | luminance (V) -hue (H) plane, and the area | region r1 and the area | region r2 on a VH plane. 明度(V)−色相(H)平面と、V−H平面上の領域r3及び領域r4を示す図である。It is a figure which shows the brightness | luminance (V) -hue (H) plane, and the area | region r3 and the area | region r4 on a VH plane. 指標1を算出するための、第1の占有率に乗算する第1の係数を表す曲線を示す図である。It is a figure which shows the curve showing the 1st coefficient by which the 1st occupation rate for calculating the parameter | index 1 is multiplied. 指標2を算出するための、第1の占有率に乗算する第2の係数を表す曲線を示す図である。It is a figure which shows the curve showing the 2nd coefficient by which the 1st occupation rate for calculating the parameter | index 2 is multiplied. 撮影画像データの構図に基づいて第2の占有率を算出する占有率算出処理を示すフローチャートである。It is a flowchart which shows the occupation rate calculation process which calculates a 2nd occupation rate based on the composition of picked-up image data. 撮影画像データの画面の外縁からの距離に応じて決定される領域n1〜n4を示す図である。It is a figure which shows the area | region n1-n4 determined according to the distance from the outer edge of the screen of picked-up image data. 指標3を算出するための、第2の占有率に乗算する第3の係数を表す曲線を領域別(n1〜n4)に示す図である。It is a figure which shows the curve showing the 3rd coefficient by which the 2nd occupation rate for calculating the parameter | index 3 is multiplied for every area | region (n1-n4). 配光性(順光、ストロボ、逆光)別に算出された指標4及び指標5のプロット図である。It is the plot figure of the parameter | index 4 and the parameter | index 5 calculated according to light distribution (forward light, strobe, back light). 階層型ニューラルネットワークの構造を模式的に示す図である。It is a figure which shows typically the structure of a hierarchical neural network. ニューラルネットワークを構成するニューロンの構造を示す図である。It is a figure which shows the structure of the neuron which comprises a neural network. 顔抽出処理を示すフローチャートである。It is a flowchart which shows a face extraction process. 顔判定処理を示すフローチャートである。It is a flowchart which shows a face determination process.

符号の説明Explanation of symbols

100 画像処理システム
1 受付端末
11 制御部
12 表示部
13 操作入力部
14 メディア読取部
15 記憶部
16 注文確認票発行部
17 通信部
2 オーダー管理装置
21 制御部
22 表示部
23 操作入力部
24 記憶部
25 I/F部
26 通信部
27 DB参照部
3 DB部
4 画像プリンタ部
5 画像メディア書込部
DESCRIPTION OF SYMBOLS 100 Image processing system 1 Reception terminal 11 Control part 12 Display part 13 Operation input part 14 Media reading part 15 Storage part 16 Order confirmation slip issuing part 17 Communication part 2 Order management apparatus 21 Control part 22 Display part 23 Operation input part 24 Storage part 25 I / F unit 26 Communication unit 27 DB reference unit 3 DB unit 4 Image printer unit 5 Image media writing unit

Claims (21)

付加情報として生成時間を示す日時情報を有する画像データが記録された記録手段に記録されている画像データのうち、グルーピング対象の画像データの日時情報に基づいて、当該グルーピング対象の画像データの生成時間の差分値を算出する差分値算出手段と、
前記グルーピング対象の画像データの日時情報に応じてグループ区切り用の生成時間間隔の閾値を設定する閾値設定手段と、
前記グルーピング対象の画像データの日時情報に対応する前記算出された差分値が、当該日時情報に対応する前記設定されたグループ区切り用の閾値より大きい位置をグループ区切り位置として、当該グルーピング対象の画像データをグループ分けして設定するグループ設定手段と、
を備えることを特徴とする画像処理装置。
The generation time of the grouping target image data based on the date information of the grouping target image data among the image data recorded in the recording unit in which the image data having the generation time information indicating the generation time is recorded as additional information. Difference value calculating means for calculating the difference value of
Threshold setting means for setting a generation time interval threshold for group separation according to the date and time information of the image data to be grouped;
The grouping target image data with the calculated difference value corresponding to the date / time information of the grouping target image data being larger than the set grouping threshold corresponding to the date / time information as a grouping position. Group setting means for grouping and setting
An image processing apparatus comprising:
前記グループ区切り用の閾値は、前記日時情報が古いほど大きいことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the group separation threshold is larger as the date information is older. 前記グループ分けされた画像データをグループごとに出力する出力手段を備えることを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising an output unit that outputs the grouped image data for each group. 前記出力手段は、前記グループ分けされた画像データをグループごとに表示することを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the output unit displays the grouped image data for each group. 前記グループ分けされたグループに属する画像データから、当該グループの代表画像データを決定する決定手段を備え、
前記出力手段は、前記代表画像データを表示することを特徴とする請求項4に記載の画像処理装置。
Determining means for determining representative image data of the group from image data belonging to the group divided into groups;
The image processing apparatus according to claim 4, wherein the output unit displays the representative image data.
前記代表画像データの選択入力を受け付ける第1の入力手段と、
前記第1の入力手段により選択入力された代表画像データのグループに属する画像データのサムネイル画像データを生成する生成手段と、を備え、
前記出力手段は、前記生成されたサムネイル画像データを表示することを特徴とする請求項5に記載の画像処理装置。
First input means for receiving selection input of the representative image data;
Generating means for generating thumbnail image data of image data belonging to a group of representative image data selected and input by the first input means,
The image processing apparatus according to claim 5, wherein the output unit displays the generated thumbnail image data.
前記グループ分けされた画像データのうちプリント注文する画像データの選択入力を受け付ける第2の入力手段と、
前記第2の入力手段により選択入力された画像データをプリント用画像データとして画像形成手段に送信する送信手段と、
を備えることを特徴とする請求項1から6のいずれか一項に記載の画像処理装置。
Second input means for receiving selection input of image data to be printed out of the grouped image data;
Transmitting means for transmitting the image data selected and input by the second input means to the image forming means as print image data;
The image processing apparatus according to claim 1, further comprising:
付加情報として生成時間を示す日時情報を有する画像データが記録された記録手段に記録されている画像データのうち、グルーピング対象の画像データの日時情報に基づいて、当該グルーピング対象の画像データの生成時間の差分値を算出する差分値算出工程と、
前記グルーピング対象の画像データの日時情報に応じてグループ区切り用の生成時間間隔の閾値を設定する閾値設定工程と、
前記グルーピング対象の画像データの日時情報に対応する前記算出された差分値が、当該日時情報に対応する前記設定されたグループ区切り用の閾値より大きい位置をグループ区切り位置として、当該グルーピング対象の画像データをグループ分けして設定するグループ設定工程と、
を含むことを特徴とする画像処理方法。
The generation time of the grouping target image data based on the date information of the grouping target image data among the image data recorded in the recording unit in which the image data having the generation time information indicating the generation time is recorded as additional information. A difference value calculating step for calculating a difference value of
A threshold setting step for setting a generation time interval threshold for group separation according to date and time information of the image data to be grouped;
The grouping target image data with the calculated difference value corresponding to the date / time information of the grouping target image data being larger than the set grouping threshold corresponding to the date / time information as a grouping position. A group setting process for grouping and setting
An image processing method comprising:
前記グループ区切り用の閾値は、前記日時情報が古いほど大きいことを特徴とする請求項8に記載の画像処理方法。   The image processing method according to claim 8, wherein the group separation threshold is larger as the date information is older. 前記グループ分けされた画像データをグループごとに出力する出力工程を含むことを特徴とする請求項8又は9に記載の画像処理方法。   The image processing method according to claim 8, further comprising an output step of outputting the grouped image data for each group. 前記出力工程は、前記グループ分けされた画像データをグループごとに表示する工程であることを特徴とする請求項10に記載の画像処理方法。   The image processing method according to claim 10, wherein the output step is a step of displaying the grouped image data for each group. 前記グループ分けされたグループに属する画像データから、当該グループの代表画像データを決定する決定工程を含み、
前記出力工程において、前記代表画像データを表示することを特徴とする請求項11に記載の画像処理方法。
A determination step of determining representative image data of the group from the image data belonging to the group divided into groups,
The image processing method according to claim 11, wherein the representative image data is displayed in the output step.
前記代表画像データの選択入力を受け付ける第1の入力工程と、
前記第1の入力工程で選択入力された代表画像データのグループに属する画像データのサムネイル画像データを生成する生成工程と、を含み、
前記出力工程において、前記生成されたサムネイル画像データを表示することを特徴とする請求項12に記載の画像処理方法。
A first input step for receiving selection input of the representative image data;
Generating thumbnail image data of image data belonging to the group of representative image data selected and input in the first input step, and
13. The image processing method according to claim 12, wherein, in the output step, the generated thumbnail image data is displayed.
前記グループ分けされた画像データのうちプリント注文する画像データの選択入力を受け付ける第2の入力工程と、
前記第2の入力工程で選択入力された画像データをプリント用画像データとして画像形成手段に送信する送信工程と、を含むことを特徴とする請求項8から13のいずれか一項に記載の画像処理方法。
A second input step for receiving selection input of image data to be printed out of the grouped image data;
14. The image according to claim 8, further comprising: a transmission step of transmitting the image data selected and input in the second input step to the image forming unit as print image data. Processing method.
コンピュータを、
付加情報として生成時間を示す日時情報を有する画像データが記録された記録手段に記録されている画像データのうち、グルーピング対象の画像データの日時情報に基づいて、当該グルーピング対象の画像データの生成時間の差分値を算出する差分値算出手段、
前記グルーピング対象の画像データの日時情報に応じてグループ区切り用の生成時間間隔の閾値を設定する閾値設定手段、
前記グルーピング対象の画像データの日時情報に対応する前記算出された差分値が、当該日時情報に対応する前記設定されたグループ区切り用の閾値より大きい位置をグループ区切り位置として、当該グルーピング対象の画像データをグループ分けして設定するグループ設定手段、
として機能させるための画像処理プログラム。
Computer
The generation time of the grouping target image data based on the date information of the grouping target image data among the image data recorded in the recording unit in which the image data having the generation time information indicating the generation time is recorded as additional information. Difference value calculation means for calculating the difference value of
Threshold setting means for setting a generation time interval threshold for group separation according to the date and time information of the image data to be grouped;
The grouping target image data with the calculated difference value corresponding to the date / time information of the grouping target image data being larger than the set grouping threshold corresponding to the date / time information as a grouping position. Group setting means for grouping and setting
Image processing program to function as
前記グループ区切り用の閾値は、前記日時情報が古いほど大きいことを特徴とする請求項15に記載の画像処理プログラム。   The image processing program according to claim 15, wherein the threshold for group separation is larger as the date information is older. 前記コンピュータを、
前記グループ分けされた画像データをグループごとに出力する出力手段として機能させることを特徴とする請求項15又は16に記載の画像処理プログラム。
The computer,
17. The image processing program according to claim 15, wherein the image processing program functions as an output unit that outputs the grouped image data for each group.
前記出力手段は、前記グループ分けされた画像データをグループごとに表示することを特徴とする請求項17に記載の画像処理プログラム。   The image processing program according to claim 17, wherein the output unit displays the grouped image data for each group. 前記コンピュータを、
前記グループ分けされたグループに属する画像データから、当該グループの代表画像データを決定する決定手段として機能させ、
前記出力手段は、前記代表画像データを表示することを特徴とする請求項18に記載の画像処理プログラム。
The computer,
From the image data belonging to the group divided into groups, function as a determining means for determining representative image data of the group,
The image processing program according to claim 18, wherein the output unit displays the representative image data.
前記コンピュータを、
前記代表画像データの選択入力を受け付ける第1の入力手段、
前記第1の入力手段により選択入力された代表画像データのグループに属する画像データのサムネイル画像データを生成する生成手段、として機能させ、
前記出力手段は、前記生成されたサムネイル画像データを表示することを特徴とする請求項19に記載の画像処理プログラム。
The computer,
First input means for receiving selection input of the representative image data;
Functioning as generation means for generating thumbnail image data of image data belonging to the group of representative image data selected and input by the first input means,
The image processing program according to claim 19, wherein the output unit displays the generated thumbnail image data.
前記コンピュータを、
前記グループ分けされた画像データのうちプリント注文する画像データの選択入力を受け付ける第2の入力手段、
前記第2の入力手段により選択入力された画像データをプリント用画像データとして画像形成手段に送信する送信手段、として機能させることを特徴とする請求項15から20のいずれか一項に記載の画像処理プログラム。
The computer,
Second input means for receiving selection input of image data to be printed out of the grouped image data;
21. The image according to claim 15, wherein the image data selected and input by the second input unit functions as a transmission unit that transmits the image data to the image forming unit as print image data. Processing program.
JP2006011327A 2006-01-19 2006-01-19 Image processing apparatus, image processing method and image processing program Pending JP2007193592A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006011327A JP2007193592A (en) 2006-01-19 2006-01-19 Image processing apparatus, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006011327A JP2007193592A (en) 2006-01-19 2006-01-19 Image processing apparatus, image processing method and image processing program

Publications (1)

Publication Number Publication Date
JP2007193592A true JP2007193592A (en) 2007-08-02

Family

ID=38449243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006011327A Pending JP2007193592A (en) 2006-01-19 2006-01-19 Image processing apparatus, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP2007193592A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010061661A1 (en) * 2008-11-25 2010-06-03 株式会社ソニー・コンピュータエンタテインメント Image display device, method for displaying image and information storing medium
JP2010128584A (en) * 2008-11-25 2010-06-10 Sony Computer Entertainment Inc Image display, image display method, program, and information storage medium
JP2016018486A (en) * 2014-07-10 2016-02-01 国立研究開発法人産業技術総合研究所 Image search device, image search program, and image search method
JP2017017695A (en) * 2015-06-26 2017-01-19 キヤノン株式会社 Method, system and device for dividing image set for generating a plurality of event clusters
WO2021181440A1 (en) * 2020-03-09 2021-09-16 オリンパス株式会社 Image recording system, and image recording method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010061661A1 (en) * 2008-11-25 2010-06-03 株式会社ソニー・コンピュータエンタテインメント Image display device, method for displaying image and information storing medium
JP2010128584A (en) * 2008-11-25 2010-06-10 Sony Computer Entertainment Inc Image display, image display method, program, and information storage medium
US8797348B2 (en) 2008-11-25 2014-08-05 Sony Corporation Image display apparatus, image display method, and information storage medium
JP2016018486A (en) * 2014-07-10 2016-02-01 国立研究開発法人産業技術総合研究所 Image search device, image search program, and image search method
JP2017017695A (en) * 2015-06-26 2017-01-19 キヤノン株式会社 Method, system and device for dividing image set for generating a plurality of event clusters
WO2021181440A1 (en) * 2020-03-09 2021-09-16 オリンパス株式会社 Image recording system, and image recording method
JPWO2021181440A1 (en) * 2020-03-09 2021-09-16
JP7295333B2 (en) 2020-03-09 2023-06-20 オリンパス株式会社 IMAGE RECORDING SYSTEM, IMAGE RECORDING METHOD AND RAW IMAGE DATA CREATION PROGRAM

Similar Documents

Publication Publication Date Title
CN110163810B (en) Image processing method, device and terminal
CN100476874C (en) Image processing method and apparatus
CN1475969B (en) Method and system for intensify human image pattern
JP2002158870A (en) Method for altering number, dimensions and magnification of photographic print based on conspicuity and appeal of image
JP4710550B2 (en) Comment layout in images
JP2007193590A (en) Image processing method, image processing device, reception terminal, and image processing program
JP2005202469A (en) Image processor, image processing method and program
KR20070047697A (en) Information processing apparatus and method, and program
JP2005190435A (en) Image processing method, image processing apparatus and image recording apparatus
CN112767392B (en) Image definition determining method, device, equipment and storage medium
JP2006319714A (en) Method, apparatus, and program for processing image
JP2006301779A (en) Image processing system, image processing method, and image processing program
CN101983507A (en) Automatic redeye detection
JP2007193592A (en) Image processing apparatus, image processing method and image processing program
US20090092312A1 (en) Identifying Method and Storage Medium Having Program Stored Thereon
JP2014016820A (en) Information processing apparatus, control method and program thereof, and storage medium
JP5168619B2 (en) Image display data generation apparatus and image display data generation method
JP2007193587A (en) Image processing device, image processing method, and image processing program
CN102541484B (en) Image processing apparatus, print accept and order for goods device and printing and to accept and order for goods method
US20050259282A1 (en) Image processing method, image processing apparatus, image recording apparatus, and image processing program
JP2006031440A (en) Image processing method, image processing apparatus, image processing program and image processing system
JP2007184888A (en) Imaging apparatus, image processor, image processing method, and image processing program
JP2007193585A (en) Image processing method, display controller, reception terminal, and image processing program
JP2011138263A (en) Management system and printer utilizing the same
CN103716506A (en) Image processing device and computer-readable medium