JP2002358316A - Image processing apparatus, its method and program - Google Patents

Image processing apparatus, its method and program

Info

Publication number
JP2002358316A
JP2002358316A JP2001167190A JP2001167190A JP2002358316A JP 2002358316 A JP2002358316 A JP 2002358316A JP 2001167190 A JP2001167190 A JP 2001167190A JP 2001167190 A JP2001167190 A JP 2001167190A JP 2002358316 A JP2002358316 A JP 2002358316A
Authority
JP
Japan
Prior art keywords
image
processing
target image
processing target
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001167190A
Other languages
Japanese (ja)
Other versions
JP2002358316A5 (en
Inventor
Toshimi Maeda
聡美 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001167190A priority Critical patent/JP2002358316A/en
Publication of JP2002358316A publication Critical patent/JP2002358316A/en
Publication of JP2002358316A5 publication Critical patent/JP2002358316A5/ja
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus, its method and program capable of classifying images efficiently and appropriately. SOLUTION: In an image processing apparatus, images are inputted from an image input part 1 and a CPU 2 decides an image to be compared to classify images to be processed based on the input time of the images. Meanwhile, an operating part 7 designates preconditions showing classification of the images. The CPU 2 sets a threshold to discriminate similarity between the images of the processing object and the images of comparison object based on the designated classification preconditions. Next, it discriminates the similarity between the images of the processing object and the images of the comparison object based on the threshold. Then, the CPU 2 imparts group attributes indicating a group to which the images belong of the processing object based on the result of discrimination.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、複数の画像を分類
する画像処理装置及びその方法、プログラムに関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for classifying a plurality of images, a method therefor, and a program.

【0002】[0002]

【従来の技術】従来、カメラや電子カメラによって撮影
された画像、または画像処理された複数の画像の分類に
おいて、未知の画像を目的ごとにグループ゜化する方法
としては、ユーザが、個々の画像を確認して、任意のフ
ァイル名に変更して規則性を持たせる、あるいは、任意
のフォルダを指定して一個所に複数の画像を格納する、
という方法が考えられる。
2. Description of the Related Art Conventionally, in classifying images captured by a camera or an electronic camera, or a plurality of image-processed images, as a method of grouping unknown images by purpose, a user is required to group individual images. Check and change to an arbitrary file name to have regularity, or specify an arbitrary folder to store multiple images in one place,
There is a method that can be considered.

【0003】また、特開平2000−207405号で
は、指定された画像グループに対して、その画像の属性
により自動的に並べ替えを行なうという方法があるが、
画像を目的ごとにグループ化するためには、並べ替える
対象となる画像グループをユーザがその都度指定する必
要がある。
In Japanese Patent Application Laid-Open No. 2000-207405, there is a method in which a specified image group is automatically rearranged according to the attribute of the image.
In order to group images by purpose, a user must specify an image group to be rearranged each time.

【0004】[0004]

【発明が解決しようとする課題】上記従来技術におい
て、例えば、同一の被写体に対して、条件を変えて複数
の画像を撮影することがある。画像の中から、これら一
連のファイルを抽出してグループ化したいと場合があ
る。
In the above prior art, for example, a plurality of images may be photographed under the same conditions for the same subject. In some cases, a series of these files may be extracted from an image and grouped.

【0005】しかしながら、従来の方法では、ユーザが
個々の画像を確認して、上記のような処理を行なう必要
があり、ユーザの作業負担が大きかった。
However, in the conventional method, it is necessary for the user to confirm each image and perform the above-described processing, and the work load on the user is large.

【0006】本発明は上記の課題を解決するためになさ
れたものであり、効率的に、かつ適切に画像を分類する
ことができる画像処理装置及びその方法、プログラムを
提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and has as its object to provide an image processing apparatus, an image processing method, and a program capable of efficiently and appropriately classifying images. .

【0007】[0007]

【課題を解決するための手段】上記の目的を達成するた
めの本発明による画像処理装置は以下の構成を備える。
即ち、複数の画像を分類する画像処理装置であって、画
像を入力する入力手段と、処理対象画像を分類するため
に比較する比較対象画像を、前記処理対象画像の入力時
刻に基づいて決定する決定手段と、前記処理対象画像を
分類するための分類前提条件を指定する指定手段と、前
記指定手段で指定された分類前提条件に基づいて、前記
処理対象画像と前記比較対象画像の類似度を判別するた
めの閾値を設定する設定手段と、前記閾値に基づいて、
前記処理対象画像と前記比較対象画像との類似度を判別
する判別手段と、前記判別手段の判別結果に基づいて、
前記処理対象画像が所属するグループを示すグループ属
性を該処理対象画像に付与する付与手段とを備える。
An image processing apparatus according to the present invention for achieving the above object has the following arrangement.
That is, an image processing apparatus for classifying a plurality of images, wherein input means for inputting an image and a comparison target image to be compared for classifying the processing target image are determined based on the input time of the processing target image. Determining means, specifying means for specifying a classification precondition for classifying the processing target image, and a similarity between the processing target image and the comparison target image based on the classification precondition specified by the specifying means. Setting means for setting a threshold for determination, based on the threshold,
Determining means for determining the degree of similarity between the processing target image and the comparison target image, based on a determination result of the determining means,
An assigning unit that assigns a group attribute indicating a group to which the processing target image belongs to the processing target image.

【0008】また、好ましくは、前記判別手段は、前記
処理対象画像と前記比較対象画像との類似度が前記所定
値未満である場合、前記処理対象画像の入力条件データ
と前記比較対象画像の入力条件データとの差分の誤差判
定を行う誤差判定手段と前記誤差判定手段の誤差判定結
果に基づいて、前記処理対象画像を加工する加工手段と
を備える。
Preferably, when the similarity between the image to be processed and the image to be compared is less than the predetermined value, the determination means preferably includes input condition data of the image to be processed and input of the image to be compared. An error determination unit that determines an error of a difference from the condition data, and a processing unit that processes the processing target image based on an error determination result of the error determination unit.

【0009】また、好ましくは、前記設定手段は、前記
分類前提条件に基づいて、前記閾値を設定する。
Preferably, the setting means sets the threshold value based on the classification precondition.

【0010】また、好ましくは、前記入力条件データ
は、画像のアングル値であり、前記加工手段は、前記処
理対象画像のアングル値と前記比較対象画像のアングル
値との差分に応じて、該処理対象画像を加工する。
Preferably, the input condition data is an angle value of an image, and the processing means performs the processing in accordance with a difference between an angle value of the image to be processed and an angle value of the image to be compared. Process the target image.

【0011】また、好ましくは、前記入力条件は、画像
のズーム値であり、前記加工手段は、前記処理対象画像
のズーム値と前記比較対象画像のズーム値との差分に応
じて、該処理対象画像を加工する。
Preferably, the input condition is a zoom value of an image, and the processing means is configured to determine the processing object in accordance with a difference between a zoom value of the image to be processed and a zoom value of the image to be compared. Process the image.

【0012】また、好ましくは、前記入力条件は、画像
のフラッシュ点灯の有無を示す値であり、前記加工手段
は、前記処理対象画像のフラッシュ点灯の有無を示す値
と前記比較対象画像のフラッシュ点灯の有無を示す値と
の差分に応じて、該処理対象画像を加工する。
Preferably, the input condition is a value indicating whether or not the image is to be flashed, and the processing means is configured to determine whether or not the image to be processed is to be flashed and to determine whether or not the image to be compared is to be flashed. The processing target image is processed according to the difference from the value indicating the presence or absence of the image.

【0013】上記の目的を達成するための本発明による
画像処理方法は以下の構成を備える。即ち、複数の画像
を分類する画像処理方法であって、画像を入力する入力
工程と、処理対象画像を分類するために比較する比較対
象画像を、前記処理対象画像の入力時刻に基づいて決定
する決定工程と、前記処理対象画像を分類するための分
類前提条件を指定する指定工程と、前記指定工程で指定
された分類前提条件に基づいて、前記処理対象画像と前
記比較対象画像の類似度を判別するための閾値を設定す
る設定工程と、前記閾値に基づいて、前記処理対象画像
と前記比較対象画像との類似度を判別する判別工程と、
前記判別工程の判別結果に基づいて、前記処理対象画像
が所属するグループを示すグループ属性を該処理対象画
像に付与する付与工程とを備える。
An image processing method according to the present invention for achieving the above object has the following arrangement. That is, an image processing method for classifying a plurality of images, wherein an input step of inputting an image and a comparison target image to be compared for classifying the processing target image are determined based on the input time of the processing target image. A determining step, a specifying step of specifying a classification precondition for classifying the processing target image, and a similarity between the processing target image and the comparison target image based on the classification precondition specified in the specifying step. A setting step of setting a threshold value for determination, and a determination step of determining a similarity between the processing target image and the comparison target image based on the threshold value,
Providing a group attribute indicating a group to which the processing target image belongs to the processing target image based on the determination result of the determination step.

【0014】上記の目的を達成するための本発明による
プログラムは以下の構成を備える。即ち、複数の画像を
分類する画像処理をコンピュータに機能させるためのプ
ログラムであって、画像を入力する入力工程のプログラ
ムコードと、処理対象画像を分類するために比較する比
較対象画像を、前記処理対象画像の入力時刻に基づいて
決定する決定工程のプログラムコードと、前記処理対象
画像を分類するための分類前提条件を指定する指定工程
のプログラムコードと、前記指定工程で指定された分類
前提条件に基づいて、前記処理対象画像と前記比較対象
画像の類似度を判別するための閾値を設定する設定工程
のプログラムコードと、前記閾値に基づいて、前記処理
対象画像と前記比較対象画像との類似度を判別する判別
工程のプログラムコードと、前記判別工程の判別結果に
基づいて、前記処理対象画像が所属するグループを示す
グループ属性を該処理対象画像に付与する付与工程のプ
ログラムコードとを備える。
A program according to the present invention for achieving the above object has the following configuration. That is, a program for causing a computer to perform image processing for classifying a plurality of images, the program code of an input step of inputting an image, and a comparison target image to be compared for classifying a processing target image, The program code of the determining step to determine based on the input time of the target image, the program code of the specifying step to specify a classification precondition for classifying the processing target image, and the classification precondition specified in the specifying step A program code of a setting step for setting a threshold value for determining a similarity between the processing target image and the comparison target image, based on the threshold value, and a similarity between the processing target image and the comparison target image based on the threshold value The program code of the discriminating step for discriminating and the group to which the image to be processed belongs are indicated based on the discrimination result of the discriminating step. The group attribute and a program code of step of applying to the processing target image.

【0015】[0015]

【発明の実施の形態】以下、図面を参照して本発明の好
適な実施形態を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below in detail with reference to the drawings.

【0016】図1は本実施形態の画像処理装置のハード
ウェア構成を示すブロック図である。
FIG. 1 is a block diagram showing a hardware configuration of the image processing apparatus according to the present embodiment.

【0017】尚、本実施形態では、画像処理装置の具体
例として、デジタルカメラを挙げ、このデジタルカメラ
では、後述する撮影条件データとして、少なくともアン
グル値、ズーム値、フラッシュ点灯の有無を示す値、焦
点移動値を含む撮影条件に関する各種値を取得すること
が可能である。また、これに加えて、撮影画像を分類す
るための分類前提条件(例えば、同一人物画像、旅行中
の画像、植物の観察記録画像等)を入力することが可能
である。更に、撮影画像の撮影条件データと、分類前提
条件に従って撮影画像を分類するために比較する比較対
象画像の撮影条件データとの差分の誤差判定を行うため
の誤差条件を入力することが可能である。
In this embodiment, a digital camera is given as a specific example of the image processing apparatus. In this digital camera, at least an angle value, a zoom value, a value indicating whether or not a flash is turned on, as shooting condition data to be described later. It is possible to acquire various values relating to shooting conditions including a focus shift value. In addition, it is possible to input classification preconditions (for example, the same person image, a traveling image, a plant observation record image, and the like) for classifying captured images. Further, it is possible to input an error condition for determining an error of a difference between the shooting condition data of the shot image and the shooting condition data of the comparison target image to be compared in order to classify the shot image according to the classification precondition. .

【0018】図1において、1は画像の撮影/読取を行
うことで画像を入力する画像入力部である。2はCPU
であり、後述する画像処理を含む各種処理のための演
算、論理判断等を行ない、バス6に接続された各構成要
素を制御する。3は画像入力部1で入力された画像を出
力する画像出力部であり、通常、液晶ディスプレイから
構成される。
In FIG. 1, reference numeral 1 denotes an image input unit for inputting an image by photographing / reading the image. 2 is CPU
It performs calculations, logical decisions, and the like for various types of processing including image processing, which will be described later, and controls each component connected to the bus 6. Reference numeral 3 denotes an image output unit for outputting an image input by the image input unit 1, and is usually constituted by a liquid crystal display.

【0019】4はプログラムメモリであり、後述するフ
ローチャートを含むCPU2によって実行される各種制
御プログラムを格納するメモリである。尚、プログラム
メモリ4はROMであってもよいし、外部記憶装置から
プログラムがロードされるRAMであってもよい。
Reference numeral 4 denotes a program memory for storing various control programs executed by the CPU 2 including a flowchart described later. Note that the program memory 4 may be a ROM or a RAM into which a program is loaded from an external storage device.

【0020】5はデータメモリであり、入力した画像の
記憶、各種処理で生じたデータを記憶する。6はCPU
2の制御の対象とする構成要素を指示するアドレス信
号、各構成要素を制御するためのコントロール信号、各
構成機器相互間でやりとりされるデータの転送を行なう
ためのバスである。7は撮影/読取動作を含む各種処理
の指示を行う操作パネル等からなる操作部である。
Reference numeral 5 denotes a data memory for storing input images and data generated in various processes. 6 is CPU
2 is a bus for transferring an address signal indicating a component to be controlled, a control signal for controlling each component, and a data exchange between components. Reference numeral 7 denotes an operation unit including an operation panel for instructing various processes including a photographing / reading operation.

【0021】次に、本実施形態で実行される処理の概要
について、図2を用いて説明する。
Next, an outline of the processing executed in this embodiment will be described with reference to FIG.

【0022】図2は本実施形態で実行される処理の概要
を示すフローチャートである。
FIG. 2 is a flowchart showing an outline of the processing executed in the present embodiment.

【0023】システムが起動されると、ステップS20
1において、システム起動処理を起動する。次に、ステ
ップS202において、イベント待ち処理を起動して、
イベントの発生を待機する。次に、ステップS203に
おいて、発生したイベントが、電源OFFであるか否か
を判定する。電源OFFである場合(ステップS203
でYES)、ステップS208に進み、システム終了処
理を起動し、処理を終了する。一方、電源OFFでない
場合(ステップS203でNO)、ステップS204に
進む。
When the system is started, step S20
At 1, the system boot process is started. Next, in step S202, an event waiting process is started, and
Wait for an event to occur. Next, in step S203, it is determined whether or not the event that has occurred is power off. When the power is off (step S203)
Then, the process proceeds to step S208 to activate the system termination process and terminate the process. On the other hand, when the power is not turned off (NO in step S203), the process proceeds to step S204.

【0024】次に、ステップS204において、発生し
たイベントが撮影であるか否かを判定する。撮影でない
場合(ステップS204でNO)、ステップS207に
進み、その他の処理を起動する。一方、撮影である場合
(ステップS204でYES)、撮影動作を実行し、撮
影画像及びその撮影時刻をデータメモリ5に記憶し、ス
テップS205に進む。また、これに加えて、ユーザが
撮影画像の分類前提条件を指定している場合には、その
分類前提条件も撮影画像及びその撮影時刻と対応づけら
れてデータメモリ5に記憶される。
Next, in step S204, it is determined whether or not the event that has occurred is shooting. If it is not shooting (NO in step S204), the flow advances to step S207 to start other processing. On the other hand, in the case of photographing (YES in step S204), the photographing operation is executed, the photographed image and the photographing time are stored in the data memory 5, and the process proceeds to step S205. In addition, when the user specifies a prerequisite for classification of a photographed image, the prerequisite for classification is also stored in the data memory 5 in association with the photographed image and the photographing time.

【0025】尚、撮影画像には固有の画像ファイル名が
付与され、通常、撮影時刻順にデータメモリ5に記憶さ
れる。
It should be noted that a unique image file name is given to a photographed image, and is usually stored in the data memory 5 in the order of photographing time.

【0026】次に、ステップS205において、撮影条
件取得処理を起動し、撮影画像の撮影条件データを取得
して、その撮影画像と対応づけてデータメモリ5に記憶
する。続く、ステップS206において、画像分類処理
を起動し、撮影画像の分類を示すグループ属性データを
撮影画像に付与して、ステップS202に戻る。
Next, in step S205, a photographing condition acquisition process is started, and photographing condition data of a photographed image is acquired, and stored in the data memory 5 in association with the photographed image. Subsequently, in step S206, the image classification process is started, group attribute data indicating the classification of the captured image is added to the captured image, and the process returns to step S202.

【0027】次に、ステップS205の撮影条件取得処
理の詳細について、図3を用いて説明する。
Next, details of the photographing condition acquisition processing in step S205 will be described with reference to FIG.

【0028】図3は本実施形態の撮影条件取得処理の詳
細を示すフローチャートである。
FIG. 3 is a flowchart showing details of the photographing condition acquisition processing of this embodiment.

【0029】撮影条件取得処理を起動すると、ステップ
S301において、撮影画像のアングル差分の有無を判
定する。アングル差分がない場合(ステップS301で
NO)、ステップS303に進む。一方、アングル差分
がある場合(ステップS301でYES)、ステップS
302に進み、そのアングル差分を示すアングルデータ
を格納する。
When the photographing condition acquisition processing is started, in step S301, the presence or absence of an angle difference between photographed images is determined. If there is no angle difference (NO in step S301), the process proceeds to step S303. On the other hand, if there is an angle difference (YES in step S301),
Proceeding to 302, the angle data indicating the angle difference is stored.

【0030】尚、アングル差分とは、予め決められてい
るアングル基準値に対する撮影画像のアングル値との差
分である。
The angle difference is a difference between a predetermined angle reference value and an angle value of a photographed image.

【0031】ステップS303において、撮影画像のズ
ーム差分の有無を判定する。ズーム差分がない場合(ス
テップS303でNO)、ステップS305に進む。一
方、ズーム差分がある場合(ステップS303でYE
S)、ステップS304に進み、そのズーム差分を示す
ズームデータを格納する。
In step S303, it is determined whether or not the photographed image has a zoom difference. If there is no zoom difference (NO in step S303), the process proceeds to step S305. On the other hand, if there is a zoom difference (YE in step S303)
S), the process proceeds to step S304, and zoom data indicating the zoom difference is stored.

【0032】尚、ズーム差分とは、予め決められている
ズーム基準値に対する撮影画像のズーム値との差分であ
る。
The zoom difference is a difference between the zoom value of the photographed image and a predetermined zoom reference value.

【0033】次に、ステップS305において、撮影画
像のフラッシュ点灯差分の有無を判定する。フラッシュ
点灯差分がない場合(ステップS305でNO)、ステ
ップS307に進む。一方、フラッシュ点灯差分がある
場合(ステップS305でYES)、ステップS306
に進み、そのフラッシュ点灯差分を示すフラッシュ点灯
データを格納する。
Next, in step S305, it is determined whether or not there is a flash lighting difference in the captured image. If there is no flash lighting difference (NO in step S305), the process proceeds to step S307. On the other hand, if there is a flash lighting difference (YES in step S305), step S306
The flash lighting data indicating the flash lighting difference is stored.

【0034】尚、フラッシュ点灯差分とは、予め決めら
れているフラッシュ点灯の有無状態を示す基準値に対す
る撮影画像のフラッシュ点灯の有無を示す値との差分で
ある。
The flash lighting difference is a difference between a predetermined reference value indicating the flash lighting status and a value indicating the flash lighting status of the captured image.

【0035】次に、ステップS307において、撮影画
像の焦点移動差分の有無を判定する。焦点移動差分がな
い場合(ステップS307でNO)、処理を終了する。
一方、焦点移動差分がある場合(ステップS307でY
ES)、ステップS308に進み、その焦点移動差分を
示す焦点移動データを格納する。
Next, in step S307, it is determined whether or not there is a focus shift difference between the captured images. If there is no focus movement difference (NO in step S307), the process ends.
On the other hand, if there is a focus movement difference (Y in step S307)
ES), the flow advances to step S308 to store focus movement data indicating the focus movement difference.

【0036】尚、焦点移動差分とは、予め決められてい
る焦点移動基準値に対する撮影画像の焦点移動値との差
分である。
Note that the focus shift difference is a difference between a focus shift value of a photographed image and a predetermined focus shift reference value.

【0037】次に、ステップS206の画像分類処理の
詳細について、図3を用いて説明する。
Next, details of the image classification processing in step S206 will be described with reference to FIG.

【0038】図4は本実施形態の画像分類処理の詳細を
示すフローチャートである。
FIG. 4 is a flowchart showing the details of the image classification processing of this embodiment.

【0039】画像分類処理を起動すると、ステップS4
01において、比較対象決定処理を起動し、処理対象で
ある画像(撮影画像)の比較対象となる既にデータメモ
リ5に記憶されている画像(基準画像)群からなる比較
対象リストを作成する。
When the image classification processing is started, step S4
In step 01, a comparison target determination process is started, and a comparison target list including a group of images (reference images) already stored in the data memory 5 to be compared with the image (photographed image) to be processed is created.

【0040】次に、ステップS402において、比較対
象リストから処理対象画像と比較する基準画像を選択す
るために、比較対象リストの先頭にポインタをセットす
る。
Next, in step S402, a pointer is set at the head of the comparison target list in order to select a reference image to be compared with the processing target image from the comparison target list.

【0041】ステップS403において、ポインタが比
較対象リストの最後を示しているか否かを判定する。ポ
インタが比較対象リストの最後を示している場合(ステ
ップS403でYES)、処理を終了する。一方、ポイ
ンタが比較対象リストの最後を示していない場合(ステ
ップS403でNO)、ステップS404に進む。
In step S403, it is determined whether or not the pointer indicates the end of the comparison target list. If the pointer indicates the end of the comparison target list (YES in step S403), the process ends. On the other hand, if the pointer does not indicate the end of the comparison target list (NO in step S403), the process proceeds to step S404.

【0042】次に、ステップS404において、類似度
判別処理を起動し、ポインタが示す比較対象リスト中の
基準画像と、処理対象画像との類似度を判別する。その
判別結果に基づいて、ステップS405において、基準
画像と処理対象画像が類似している否かを判定する。処
理対象画像が類似している場合(ステップS405でY
ES)、ステップS407に進み、グループ属性付与処
理を起動し、その処理対象画像にその分類を示すグルー
プ属性データを付与する。一方、基準画像と処理対象画
像が類似していない場合(ステップS405でNO)、
ステップS406に進み、比較対象リスト上のポインタ
の位置を次に進め、ステップS403に戻る。
Next, in step S404, similarity determination processing is started, and the similarity between the reference image in the comparison target list indicated by the pointer and the processing target image is determined. Based on the determination result, in step S405, it is determined whether the reference image and the processing target image are similar. If the processing target images are similar (Y in step S405)
ES), the process advances to step S407 to start a group attribute assigning process, and assigns group attribute data indicating the classification to the image to be processed. On the other hand, if the reference image and the processing target image are not similar (NO in step S405),
Proceeding to step S406, the position of the pointer on the comparison target list is next advanced, and the process returns to step S403.

【0043】次に、ステップS401の比較対象決定処
理の詳細について、図5を用いて説明する。
Next, the details of the comparison object determination processing in step S401 will be described with reference to FIG.

【0044】図5は本実施形態の比較対象決定処理の詳
細を示すフローチャートである。
FIG. 5 is a flowchart showing details of the comparison object determination processing of this embodiment.

【0045】尚、図5の処理は、撮影画像の撮影時刻か
ら撮影時刻近似値範囲内の画像を比較対象画像に決定す
る処理であり、この処理を繰り返すことで、撮影画像の
撮影時刻から過去にさかのぼって、撮影時刻近似値まで
に存在する画像が1つずつ比較対象リストに追加され
る。
The process of FIG. 5 is a process of determining an image within the approximate range of the photographing time from the photographing time of the photographed image as a comparison target image. The images existing up to the shooting time approximate value are added to the comparison target list one by one.

【0046】比較対象決定処理を起動すると、ステップ
S501において、撮影画像の撮影時刻に対する撮影時
刻近似値をマイナス方向にセットする。
When the comparison object determination processing is started, in step S501, an approximate value of the photographing time with respect to the photographing time of the photographed image is set in the minus direction.

【0047】ステップS502において、セットした撮
影時刻近似値に対応する画像の有無を判定する。画像が
ない場合(ステップS502でNO)、処理を終了す
る。一方、画像がある場合(ステップS502でYE
S)、ステップS503に進む。
In step S502, the presence or absence of an image corresponding to the set photographing time approximate value is determined. If there is no image (NO in step S502), the process ends. On the other hand, if there is an image (YE in step S502)
S), and proceed to step S503.

【0048】ステップS503において、その画像を比
較対象リストに格納する。次に、ステップS504にお
いて、撮影時刻近似値をマイナス方向に一つ進め、ステ
ップS502に戻る。
In step S503, the image is stored in the comparison target list. Next, in step S504, the shooting time approximate value is advanced by one in the negative direction, and the process returns to step S502.

【0049】次に、ステップS404の類似度判別処理
の詳細について、図6を用いて説明する。
Next, details of the similarity determination processing in step S404 will be described with reference to FIG.

【0050】図6は本実施形態の類似度判別処理の詳細
を示すフローチャートである。
FIG. 6 is a flowchart showing details of the similarity determination processing of this embodiment.

【0051】類似度判別処理を起動すると、ステップS
601において、閾値取得処理を起動し、処理対象画像
に対する閾値を取得する。次に、ステップS602にお
いて、類似度取得処理を起動し、比較対象リストから選
択した基準画像と処理対象画像との類似度を取得する。
尚、この類似度とは、例えば、画像中の色の分布、明度
等から算出される画像特徴量との比較によって算出す
る。
When the similarity determination processing is started, step S
In 601, a threshold acquisition process is started, and a threshold for an image to be processed is acquired. Next, in step S602, similarity acquisition processing is started, and the similarity between the reference image selected from the comparison target list and the processing target image is acquired.
The similarity is calculated, for example, by comparison with an image feature amount calculated from a color distribution, brightness, and the like in the image.

【0052】次に、ステップS603において、取得し
た類似度が閾値以上であるか否かを判定する。類似度が
閾値以上である場合(ステップS603でYES)、T
rueを返して処理を終了する。一方、類似度が閾値未
満である場合(ステップS603でNO)、ステップS
604に進む。
Next, in step S603, it is determined whether or not the obtained similarity is equal to or larger than a threshold. If the similarity is equal to or greater than the threshold (YES in step S603), T
return, and the process ends. On the other hand, if the similarity is less than the threshold (NO in step S603), the process proceeds to step S603.
Proceed to 604.

【0053】ステップS604において、誤差判定処理
を起動し、処理対象画像の撮影条件データと基準画像の
撮影条件データとの差分の誤差を算出する。ステップS
605において、後述する誤差判定テーブルを参照し
て、その算出された誤差が誤差範囲内であるか否かを判
定する。誤差範囲内でない場合(ステップS605でN
O)、Falseを返して処理を終了する。一方、誤差
範囲内である場合(ステップS605でYES)、ステ
ップS606に進む。
In step S604, an error determination process is started, and the difference between the photographing condition data of the image to be processed and the photographing condition data of the reference image is calculated. Step S
In step 605, it is determined whether or not the calculated error is within an error range with reference to an error determination table described later. If not within the error range (N in step S605)
O), False is returned and the process ends. On the other hand, if it is within the error range (YES in step S605), the process proceeds to step S606.

【0054】ここで、誤差判定テーブルの一例につい
て、図18を用いて説明する。
Here, an example of the error determination table will be described with reference to FIG.

【0055】図18は本実施形態の誤差判定テーブルの
一例を示す図である。
FIG. 18 is a diagram showing an example of the error determination table of the present embodiment.

【0056】誤差判定テーブルはデータメモリ5に記憶
され、図18に示すように、ユーザが操作部7から指定
可能な誤差範囲条件とそれに対応する誤差範囲内容が管
理されている。また、誤差範囲内容を満たす場合には、
その判定結果としてTrue(T)を返し、処理対象画
像が基準画像と類似していると判定する。一方、誤差範
囲内容を満たさない場合には、その判定結果としてFa
lse(F)を返し、処理対象画像が基準画像と類似し
ていないと判定する。
The error determination table is stored in the data memory 5, and as shown in FIG. 18, error range conditions which can be specified by the user from the operation unit 7 and corresponding error range contents are managed. If the error range is satisfied,
True (T) is returned as the determination result, and it is determined that the processing target image is similar to the reference image. On the other hand, when the content of the error range is not satisfied, Fa
1se (F) is returned, and it is determined that the processing target image is not similar to the reference image.

【0057】ステップS606において、加工処理を起
動し、差分分の誤差を調整して、処理対象画像を加工す
る。続く、ステップS607において、類似度取得処理
を起動し、比較対象リストから選択した基準画像と加工
後の画像との類似度を取得する。ステップS608にお
いて、取得した類似度が閾値以上であるか否かを判定す
る。類似度が閾値以上である場合(ステップS608で
YES)、Trueを返して処理を終了する。一方、類
似度が閾値未満である場合(ステップS608でN
O)、Falseを返して処理を終了する。
In step S606, the processing is started, the error of the difference is adjusted, and the processing target image is processed. Subsequently, in step S607, similarity acquisition processing is started, and the similarity between the reference image selected from the comparison target list and the processed image is acquired. In step S608, it is determined whether the acquired similarity is equal to or greater than a threshold. If the similarity is equal to or greater than the threshold (YES in step S608), True is returned and the process ends. On the other hand, when the similarity is less than the threshold (N in step S608)
O), False is returned and the process ends.

【0058】次に、ステップS601の閾値取得処理の
詳細について、図7を用いて説明する。
Next, the details of the threshold value acquiring process in step S601 will be described with reference to FIG.

【0059】図7は本実施形態の閾値取得処理の詳細を
示すフローチャートである。
FIG. 7 is a flowchart showing details of the threshold value acquisition processing of this embodiment.

【0060】閾値取得処理を起動すると、ステップS7
01において、閾値初期値取得処理を起動し、処理対象
画像に対する分類前提条件より閾値初期値を設定する。
次に、ステップS702において、重み付け決定リスト
から処理対象の閾値を選択するために、重み付け決定リ
ストの先頭にポインタをセットする。
When the threshold acquisition process is started, step S7
In step 01, a threshold initial value acquisition process is started, and a threshold initial value is set based on classification preconditions for an image to be processed.
Next, in step S702, a pointer is set at the head of the weight determination list in order to select a threshold to be processed from the weight determination list.

【0061】ステップS703において、ポインタが重
み付け決定リストの最後を示しているか否かを判定す
る。ポインタが重み付け決定リストの最後を示している
場合(ステップS703でYES)、ステップS707
に進む。一方、ポインタが閾値初期値リストの最後を示
していない場合(ステップS703でNO)、ステップ
S704に進む。
In step S703, it is determined whether or not the pointer indicates the end of the weight determination list. If the pointer indicates the end of the weight determination list (YES in step S703), step S707
Proceed to. If the pointer does not indicate the end of the threshold initial value list (NO in step S703), the process advances to step S704.

【0062】ステップS704において、処理対象画像
に付与されている分類前提条件として利用される各数値
データと重み付け決定リストの対応する数値データとの
比較を実行する。その比較結果に基づいて、ステップS
705において、分類前提条件として一致している否か
を判定する。分類前提条件が一致している場合(ステッ
プS705でYES)、ステップ708に進み、その分
類前提条件に対応する閾値係数データと閾値初期値に基
づいて、最適な閾値を算出して処理を終了する。一方、
分類前提条件が一致しない場合(ステップS705でN
O)、ステップS706に進み、ポインタを次に進め、
ステップS703に戻る。
In step S704, a comparison is made between each piece of numerical data used as a classification precondition attached to the image to be processed and the corresponding numerical data in the weight determination list. Based on the comparison result, step S
In 705, it is determined whether or not they match as classification preconditions. If the classification preconditions match (YES in step S705), the flow advances to step 708 to calculate an optimal threshold based on threshold coefficient data and a threshold initial value corresponding to the classification precondition, and terminate the process. . on the other hand,
If the classification preconditions do not match (N in step S705)
O) The process advances to step S706, and the pointer is advanced to the next.
It returns to step S703.

【0063】一方、ステップS703において、ポイン
タが重み付け決定リストの最後を示している場合、ステ
ップS707において、閾値係数データを1に設定す
る。続く、ステップS708において、その閾値係数デ
ータと閾値初期値に基づいて、最適な閾値を算出して処
理を終了する。
On the other hand, if the pointer indicates the end of the weight determination list in step S703, the threshold coefficient data is set to 1 in step S707. Subsequently, in step S708, an optimum threshold is calculated based on the threshold coefficient data and the threshold initial value, and the process ends.

【0064】ここで、閾値初期値リストの一例につい
て、図8を用いて説明する。
Here, an example of the threshold initial value list will be described with reference to FIG.

【0065】図8は本実施形態の閾値初期値リストの一
例を示す図である。
FIG. 8 is a diagram showing an example of a threshold initial value list according to the present embodiment.

【0066】図8に示すように、ユーザによって操作部
7から指定される分類前提条件に応じた閾値初期値が設
定されており、上述の処理に応じて、指定された分類前
提条件に対応する閾値初期値が選択されることになる。
この各分類前提条件に対応する閾値初期値とは、ユーザ
の処理対象画像の分類に対する意図により決定されるも
のであり、これと各分類前提条件自身が有する各種数値
データを掛け合わせて最適な閾値を算出するための重み
付け決定リストデータが存在する。
As shown in FIG. 8, a threshold initial value is set according to the classification precondition specified by the user from the operation unit 7, and according to the above-described processing, the threshold initial value corresponds to the specified classification precondition. The threshold initial value will be selected.
The threshold initial value corresponding to each classification precondition is determined by the user's intention to classify the image to be processed, and is multiplied by various numerical data of each classification precondition itself to determine an optimal threshold. There is weight determination list data for calculating.

【0067】次に、この重み付け決定リストデータの一
例について、図9を用いて説明する。
Next, an example of the weight determination list data will be described with reference to FIG.

【0068】図9は本実施形態の重み付け決定リストデ
ータの一例を示す図である。
FIG. 9 is a diagram showing an example of the weight determination list data of the present embodiment.

【0069】重み付け決定リストには、閾値を加減する
係数を決定するために、処理対象画像と比較対象画像と
の関係を数値的に示す数値データから構成されており、
図9では、「時間距離」、「日付距離」、「移動距
離」、「アングル」、「焦点移動」等が管理され、これ
らの数値データにより表される両画像の特徴的な差分に
より、重み付けとなる閾値係数を設定する。また、これ
らの数値データの構成と閾値係数の組み合わせは、処理
対象画像の分類前提条件が変化するごとに、その内容が
更新されることになる。
The weight determination list is composed of numerical data indicating the relationship between the image to be processed and the image to be compared in order to determine a coefficient for adjusting the threshold.
In FIG. 9, “time distance”, “date distance”, “movement distance”, “angle”, “focus movement”, and the like are managed, and weighting is performed using a characteristic difference between the two images represented by these numerical data. Is set. The combination of the configuration of the numerical data and the threshold coefficient is updated every time the classification precondition of the processing target image changes.

【0070】尚、「移動距離」は、画像処理装置(デジ
タルカメラ)内に、GPS等の位置検出機能が構成され
ていて、画像処理装置の位置情報を検出可能な場合、あ
るいは通信機能によって外部より画像処理装置の位置情
報を受信可能な場合に、重み付け決定リストの数値デー
タとして管理される。
The “moving distance” can be determined by a position detection function such as a GPS in the image processing apparatus (digital camera), which can detect the position information of the image processing apparatus, or by the communication function. When the position information of the image processing apparatus can be received more, the position information is managed as numerical data of the weight determination list.

【0071】次に、ステップS604の誤差判定処理の
詳細について、図10を用いて説明する。
Next, the details of the error determination processing in step S604 will be described with reference to FIG.

【0072】図10は本実施形態の誤差判定処理の詳細
を示すフローチャートである。
FIG. 10 is a flowchart showing the details of the error judgment processing of this embodiment.

【0073】誤差判定処理を起動すると、ステップS1
001において、比較対象リストから選択した基準画像
の撮影条件データと処理対象画像の撮影条件データとの
差分を算出する。続いて、ステップS1002におい
て、誤差判定テーブルを参照して、指定条件に応じて誤
差判定を行う。判定結果が誤差範囲内である場合(ステ
ップS1002でYES)、Trueを返して処理を終
了する。一方、判定結果が誤差範囲外である場合(ステ
ップS1002でNO)、Falseを返して処理を終
了する。
When the error determination process is started, step S1
In 001, the difference between the imaging condition data of the reference image selected from the comparison target list and the imaging condition data of the processing target image is calculated. Subsequently, in step S1002, an error determination is performed according to the designated condition with reference to the error determination table. If the determination result is within the error range (YES in step S1002), True is returned and the process ends. On the other hand, if the determination result is outside the error range (NO in step S1002), False is returned and the process ends.

【0074】次に、撮影条件データの一例について、図
11を用いて説明する。
Next, an example of the photographing condition data will be described with reference to FIG.

【0075】図11は本実施形態の撮影条件データの一
例を示す図である。
FIG. 11 is a view showing an example of the photographing condition data of the present embodiment.

【0076】図11に示すように、撮影画像の撮影時刻
及びその画像ファイル名に対し、その撮影時のアングル
値、ズーム値、フラッシュ点灯の有無を示す値、焦点移
動値等が撮影条件データとして管理されている。
As shown in FIG. 11, an angle value, a zoom value, a value indicating whether or not a flash is lit, a focus shift value, and the like at the time of photographing are taken as photographing condition data with respect to the photographing time of the photographed image and the image file name. Is managed.

【0077】次に、ステップS606の加工処理につい
て、図12を用いて説明する。
Next, the processing in step S606 will be described with reference to FIG.

【0078】図12は本実施形態の加工処理を示すフロ
ーチャートである。
FIG. 12 is a flowchart showing the processing of this embodiment.

【0079】加工処理を起動すると、ステップS120
1において、撮影画像のアングル値と比較対象の基準画
像のアングル値とのアングル差分の有無を判定する。ア
ングル差分がない場合(ステップS1201でNO)、
ステップS1203に進む。一方、アングル差分がある
場合(ステップS1201でYES)、ステップS12
02に進み、アングル加工処理を起動し、アングル差分
に応じて処理対象画像(撮影画像)のアングル値を基準
画像画像のアングル値に変更する。
When the processing is started, step S120
In 1, it is determined whether or not there is an angle difference between the angle value of the captured image and the angle value of the reference image to be compared. If there is no angle difference (NO in step S1201),
Proceed to step S1203. On the other hand, if there is an angle difference (YES in step S1201), step S12
In step 02, the angle processing is started, and the angle value of the processing target image (captured image) is changed to the angle value of the reference image image according to the angle difference.

【0080】次に、ステップS1203において、撮影
画像のズーム値と比較対象の基準画像のズーム値とのズ
ーム差分の有無を判定する。ズーム差分がない場合(ス
テップS1203でNO)、ステップS1205に進
む。一方、ズーム差分がある場合(ステップS1203
でYES)、ステップS1204に進み、ズーム加工処
理を起動し、ズーム差分に応じて処理対象画像のズーム
値を基準画像のズーム値に変更する。
Next, in step S1203, it is determined whether there is a zoom difference between the zoom value of the captured image and the zoom value of the reference image to be compared. If there is no zoom difference (NO in step S1203), the process advances to step S1205. On the other hand, when there is a zoom difference (step S1203)
In step S1204, the zoom processing is started, and the zoom value of the processing target image is changed to the zoom value of the reference image according to the zoom difference.

【0081】次に、ステップS1205において、撮影
画像のフラッシュ点灯の有無を示す値と比較対象の基準
画像のフラッシュ点灯の有無を示す値とのフラッシュ点
灯差分の有無を判定する。フラッシュ点灯差分がない場
合(ステップS1205でNO)、ステップS1207
に進む。一方、フラッシュ点灯差分がある場合(ステッ
プS1205でYES)、ステップS1206に進み、
明度加工処理を起動し、フラッシュ点灯差分に応じて処
理対象画像の明度を基準画像の明度値に変更する。
Next, in step S1205, it is determined whether or not there is a flash lighting difference between the value indicating whether the captured image is flashed and the value indicating whether the reference image to be compared is flashed. If there is no flash lighting difference (NO in step S1205), step S1207
Proceed to. On the other hand, if there is a flash lighting difference (YES in step S1205), the flow advances to step S1206.
The brightness processing is started, and the brightness of the processing target image is changed to the brightness value of the reference image according to the flash lighting difference.

【0082】次に、ステップS1207において、重心
決定処理を起動し、基準画像と処理対象画像の重複領域
の重心を決定する。次に、ステップS1208におい
て、切出処理を起動し、重複領域の画像を切り出す。
Next, in step S1207, the center of gravity determination processing is started, and the center of gravity of the overlapping area between the reference image and the image to be processed is determined. Next, in step S1208, the clipping process is started, and the image of the overlapping area is clipped.

【0083】次に、ステップS1202のアングル加工
処理の具体例について、図13を用いて説明する。
Next, a specific example of the angle processing in step S1202 will be described with reference to FIG.

【0084】図13は本実施形態のアングル加工処理の
具体例を示す図である。
FIG. 13 is a diagram showing a specific example of the angle processing according to the present embodiment.

【0085】図13に示すように、アングル加工処理で
は、撮影画像Aのアングル値(90度)と比較対象の基
準画像Bのアングル値(0度)に応じて、アングル差分
を検出し、そのアングル差分に応じて撮影画像A(その
被写体とフレームの位置関係)を基準画像Bのアングル
値に合うように撮影画像Aを回転させる。
As shown in FIG. 13, in the angle processing, an angle difference is detected according to the angle value (90 degrees) of the photographed image A and the angle value (0 degrees) of the reference image B to be compared. The captured image A is rotated so that the captured image A (the positional relationship between the subject and the frame) matches the angle value of the reference image B according to the angle difference.

【0086】これにより、撮影画像Aと基準画像Bを同
一のアングル値とすることができる。
Thus, the photographed image A and the reference image B can have the same angle value.

【0087】次に、ステップS1204のズーム加工処
理の具体例について、図14を用いて説明する。
Next, a specific example of the zoom processing in step S1204 will be described with reference to FIG.

【0088】図14は本実施形態のズーム加工処理の具
体例を示す図である。
FIG. 14 is a diagram showing a specific example of the zoom processing according to the present embodiment.

【0089】図14に示すように、ズーム加工処理で
は、撮影画像Aのズーム値(100)と比較対象の基準
画像Bのズーム値(0)に応じて、ズーム差分を検出
し、撮影画像A(被写体)を基準画像Bのズーム値にあ
うように画像Aの縮尺を調整する。
As shown in FIG. 14, in the zoom processing, a zoom difference is detected according to the zoom value (100) of the photographed image A and the zoom value (0) of the reference image B to be compared. The scale of the image A is adjusted so that (the subject) matches the zoom value of the reference image B.

【0090】これにより、撮影画像Aと基準画像Bを同
一のズーム値とすることができる。
Thus, the photographed image A and the reference image B can have the same zoom value.

【0091】次に、ステップS1206の明度加工処理
の具体例について、図15を用いて説明する。
Next, a specific example of the brightness processing in step S1206 will be described with reference to FIG.

【0092】図15は本実施形態の明度加工処理の具体
例を示す図である。
FIG. 15 is a diagram showing a specific example of the brightness processing of this embodiment.

【0093】図15に示すように、明度加工処理では、
撮影画像Aのフラッシュ点灯の有無を示す値(off)
と基準画像Bのフラッシュ点灯の有無を示す値(on)
に応じて、撮影画像Aの明度を基準画像Bに合わせる。
As shown in FIG. 15, in the brightness processing,
A value (off) indicating whether or not the flash of the captured image A is turned on
And a value indicating whether the flash of the reference image B is turned on (on)
, The brightness of the captured image A is adjusted to the reference image B.

【0094】これにより、撮影画像Aと基準画像Bを同
一の明度とすることができる。
Thus, the captured image A and the reference image B can have the same brightness.

【0095】次に、ステップS407のグループ属性付
与処理の詳細について、図16を用いて説明する。
Next, the details of the group attribute assignment processing in step S407 will be described with reference to FIG.

【0096】図16は本実施形態のグループ属性付与処
理の詳細を示すフローチャートである。
FIG. 16 is a flowchart showing details of the group attribute assignment processing of the present embodiment.

【0097】グループ属性決定処理を起動すると、ステ
ップS1601において、比較対象の基準画像Bにグル
ープ属性データが存在するか否かを判定する。グループ
属性データがある場合(ステップS1601でYE
S)、ステップS1605に進み、取得したグループ属
性データを撮影画像Aに付与して、そのグループ属性デ
ータを有するデータメモリ5上のグループフォルダに記
憶する。一方、グループ属性データがない場合(ステッ
プS1601でNO)、ステップS1602に進む。
When the group attribute determination process is started, in step S1601, it is determined whether or not group attribute data exists in the reference image B to be compared. If there is group attribute data (YE in step S1601)
S), the process proceeds to step S1605, the acquired group attribute data is added to the captured image A, and stored in the group folder on the data memory 5 having the group attribute data. On the other hand, if there is no group attribute data (NO in step S1601), the process advances to step S1602.

【0098】ステップS1602において、新規グルー
プを示すグループ属性データを生成し、新規グループフ
ォルダをデータメモリ5に追加作成する。次に、ステッ
プS1603において、生成したグループ属性データを
撮影画像Aに付与して、データメモリ5上に作成した新
規グループフォルダに記憶する。続いて、ステップS1
604において、生成したグループ属性データを比較対
象の基準画像Bに付与して、データメモリ5上に作成し
た新規グループフォルダに記憶する。
In step S1602, group attribute data indicating a new group is generated, and a new group folder is additionally created in the data memory 5. Next, in step S1603, the generated group attribute data is added to the captured image A and stored in the new group folder created on the data memory 5. Subsequently, step S1
At 604, the generated group attribute data is added to the reference image B to be compared, and stored in the new group folder created on the data memory 5.

【0099】尚、図16では、同一のグループ属性デー
タを有する画像をフォルダに記憶する構成としたが、グ
ループ属性に対応する記憶領域をそれぞれデータメモリ
5上に構成して記憶するようにしても良い。
Although FIG. 16 shows a configuration in which images having the same group attribute data are stored in folders, storage areas corresponding to the group attributes may be configured and stored in the data memory 5 respectively. good.

【0100】次に、本実施形態で実行される処理の具体
例について、図17を用いて説明する。
Next, a specific example of the processing executed in this embodiment will be described with reference to FIG.

【0101】図17は本実施形態で実行される処理の具
体例を示す図である。
FIG. 17 is a diagram showing a specific example of the processing executed in this embodiment.

【0102】尚、以下の具体例では、まず、ステップS
407のグループ属性付与処理によって、図17(a)
に示すように、撮影画像00001〜00005群がデ
ータメモリ5に記憶され、かつそれぞれには同じグルー
プ属性00001が付与されているとする。
In the following specific example, first, in step S
By the group attribute assigning process of 407, FIG.
As shown in FIG. 7, it is assumed that a group of captured images 00001 to 00005 is stored in the data memory 5, and each has the same group attribute 00001.

【0103】図17(a)では、例えば、日の出の動き
を時系列に撮影した撮影画像00001〜00005群
を示しており、グループ属性付与処理を行うと、その撮
影画像群の内、注目撮影画像(例えば、画像0000
2)と撮影時刻の差が大きい撮影画像(例えば、画像0
0005)との類似度は低くなるが、その注目撮影画像
(画像00002)の前後の撮影画像(画像00001
及び画像00003)とは類似度が高くなる。その結
果、画像00001〜画像00005は、同一のグルー
プとなる。このように、撮影条件データに基づいて、処
理対象画像と比較対象画像の類似性を判別してグループ
属性を決定することにより、特に、時系列に変化する画
像群のような見かけ上異なっていることがある画像群で
も、それらの画像を同一の画像としてグループ化するこ
とができる。
FIG. 17A shows, for example, a group of photographed images 00001 to 00005 in which the movement of the sunrise is photographed in chronological order. (For example, image 0000
2) and a captured image (for example, image 0
0005), the captured image (image 00001) before and after the target captured image (image 00002)
And the image 00003). As a result, the images 00001 to 00005 belong to the same group. In this manner, by determining the similarity between the processing target image and the comparison target image based on the shooting condition data and determining the group attribute, apparently different images such as a group of images that change in a time series can be obtained. Even in a group of images that may occur, those images can be grouped as the same image.

【0104】このような状態で、デジタルカメラによっ
て新たな画像が撮影され、画像00006がデータメモ
リ5に記憶されたとする。また、この時の撮影時刻は、
2000年10月10日(20001010)、7時4
5分11秒(074511)であるとする。
In this state, it is assumed that a new image is shot by the digital camera and the image 00006 is stored in the data memory 5. Also, the shooting time at this time is
October 10, 2000 (20001010), 7: 4
It is assumed that the time is 5 minutes and 11 seconds (0745111).

【0105】この場合、まず、図2のステップS205
の撮影条件取得処理において、画像0006の撮影条件
データとして、アングル値(90度)と、ズーム値(−
10)がデータメモリ5に記憶されたとする。
In this case, first, step S205 in FIG.
In the photographing condition acquisition processing of, an angle value (90 degrees) and a zoom value (-
10) is stored in the data memory 5.

【0106】次に、図2のステップS206の画像分類
処理の内、図4のステップS401の比較対象決定処理
において、画像00001〜00005群が比較対象リ
ストに格納される。
Next, among the image classification processing in step S206 in FIG. 2, in the comparison target determination processing in step S401 in FIG. 4, the group of images 00001 to 00005 is stored in the comparison target list.

【0107】次に、ステップS404の類似度判別処理
の内、図7のステップS701の閾値初期値取得処理に
おいて、閾値初期値として、例えば、図8の閾値初期値
リストから閾値初期値を90%を取得する。続いて、ス
テップS702において、図9の重み付け決定リストに
処理対象がセットされ、この場合、処理対象画像と比較
対象画像の数値データの差分が時間距離のみであるとし
て、その重み付け決定リストの時間距離のみ変化してい
る数値データと閾値係数データとの組み合わせと一致し
て、閾値係数が1に設定される。その結果、ステップS
708において、閾値初期値90%と閾値係数1より閾
値90%が設定される。
Next, in the threshold initial value acquisition processing of step S701 in FIG. 7 of the similarity degree determination processing in step S404, for example, the threshold initial value from the threshold initial value list in FIG. To get. Subsequently, in step S702, the processing target is set in the weight determination list of FIG. 9. In this case, the difference between the numerical data of the processing target image and the numerical data of the comparison target image is only the time distance, and the time distance of the weight determination list is determined. The threshold coefficient is set to 1 in accordance with the combination of the numerical data and the threshold coefficient data that have only changed. As a result, step S
At 708, a threshold 90% is set based on the threshold initial value 90% and the threshold coefficient 1.

【0108】次に、ステップS602において、画像0
0005と画像00006との類似度を取得し、この場
合、閾値未満であるので、ステップS604に進み、誤
差判定処理により、両画像の撮影条件データの誤差を判
定する。尚、ここでの誤差判定条件は、図18の誤差判
定条件1であるとすると、その判定の結果、誤差は誤差
範囲内にあるので、ステップS606に進む。
Next, in step S602, image 0
The similarity between the image 0005 and the image 00006 is acquired. In this case, since the similarity is smaller than the threshold value, the process proceeds to step S604, and the error of the imaging condition data of both images is determined by the error determination process. Here, assuming that the error determination condition is the error determination condition 1 in FIG. 18, the error is within the error range as a result of the determination, and the process proceeds to step S606.

【0109】そして、図12の加工処理において、ステ
ップS1201でアングル差分があるため、ステップS
1202でアングル加工処理を起動し、図13で説明し
たように画像00006をアングル差分分回転させる。
次に、ステップS1203でズーム差分があるため、ス
テップS1204でズーム加工処理を起動し、図14で
説明したように画像00006の縮尺を画像00005
に合わせて調整する。
In the processing shown in FIG. 12, since there is an angle difference in step S1201, step S1201 is performed.
In step 1202, the angle processing is started, and the image 00006 is rotated by the angle difference as described with reference to FIG.
Next, since there is a zoom difference in step S1203, zoom processing is started in step S1204, and the scale of the image 00006 is reduced to the image 00005 as described with reference to FIG.
Adjust according to.

【0110】続いて、ステップS1207で両画像の重
複領域から重心を決定し、ステップS1208で、加工
後の画像の重複領域を切り出す。
Subsequently, in step S1207, the center of gravity is determined from the overlapping area of both images, and in step S1208, the overlapping area of the processed image is cut out.

【0111】続いて、ステップS607の類似度取得処
理において、加工処理によって加工された画像同士の類
似度を取得し、この場合、類似度が閾値以上であるの
で、ステップS405で、画像00006は画像000
05と類似していると判別する。
Subsequently, in the similarity acquisition processing in step S607, the similarity between the images processed by the processing is obtained. In this case, since the similarity is equal to or larger than the threshold, the image 00006 is replaced with the image in step S405. 000
05 is determined to be similar.

【0112】続いて、ステップS407のグループ属性
付与処理を起動し、ステップS1601で画像0000
5のグループ属性00001があるので、画像0000
6のグループ属性に00001を付与する。
Subsequently, the group attribute assigning process in step S407 is started, and in step S1601, the image 0000 is added.
Since there are 5 group attributes 00001, the image 0000
60001 is assigned to the group attribute of No. 6.

【0113】このようにして、入力画像00006に
は、画像00001〜00005群と同じグループ属性
が付与され、その結果、画像00001から画像000
06は同じグループとして分類される。
In this way, the input image 00006 is given the same group attribute as the group of images 00001 to 00005. As a result, the image 00001 to the image 000
06 are classified as the same group.

【0114】以上説明したように、本実施形態によれ
ば、画像間の類似度とは別に、画像間の撮影条件データ
に基づいて画像を分類するので、時系列に変化する画像
群のような見かけ上異なっていることがある画像群で
も、それらの画像を同一の画像としてグループ化するこ
とができる。
As described above, according to the present embodiment, the images are classified based on the photographing condition data between the images, separately from the similarity between the images. Even for a group of images that may be apparently different, those images can be grouped as the same image.

【0115】尚、上記実施形態では、デジタルカメラで
撮影した撮影画像群をその撮影時刻に基づいて分類する
例で説明したが、これに限定されず、写真やネガ等の画
像をスキャナで入力した電子画像をその入力時刻に基づ
いて分類することで、上述の実施形態と同様の効果を得
ることができる。または、入力時刻にかわる条件とし
て、ファイル名の属性や、入力画像にその撮影または入
力時に付与された分類記号等を持つこととしても良い。
但し、この場合、こうした分類前提条件及び上記実施形
態で説明した撮影条件データは、ユーザ自身で設定す
る。
In the above embodiment, an example has been described in which a group of images taken by a digital camera is classified based on the photographing time. However, the present invention is not limited to this. By classifying the electronic images based on the input time, the same effect as in the above-described embodiment can be obtained. Alternatively, as a condition replacing the input time, the input image may have an attribute of a file name, a classification symbol given to the input image at the time of shooting or input, or the like.
However, in this case, the classification preconditions and the photographing condition data described in the above embodiment are set by the user.

【0116】尚、本発明は、複数の機器(例えばホスト
コンピュータ、インタフェース機器、リーダ、プリンタ
など)から構成されるシステムに適用しても、一つの機
器からなる装置(例えば、複写機、ファクシミリ装置な
ど)に適用してもよい。
The present invention can be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), but can be applied to a single device (for example, a copying machine, a facsimile machine). Etc.).

【0117】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。
Further, an object of the present invention is to provide a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and to provide a computer (or CPU) of the system or apparatus.
And MPU) read and execute the program code stored in the storage medium.

【0118】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

【0119】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク、ハードディス
ク、光ディスク、光磁気ディスク、CD−ROM、CD
−R/RW、DVD−ROM/RAM、磁気テープ、不
揮発性のメモリカード、ROMなどを用いることができ
る。
As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R / RW, DVD-ROM / RAM, magnetic tape, non-volatile memory card, ROM and the like can be used.

【0120】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instruction of the program code. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

【0121】更に、記憶媒体から読出されたプログラム
コードが、コンピュータに挿入された機能拡張ボードや
コンピュータに接続された機能拡張ユニットに備わるメ
モリに書込まれた後、そのプログラムコードの指示に基
づき、その機能拡張ボードや機能拡張ユニットに備わる
CPUなどが実際の処理の一部または全部を行い、その
処理によって前述した実施形態の機能が実現される場合
も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0122】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明した図に示すフローチャート
に対応するプログラムコードが格納されることになる。
When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts shown in the above-described drawings.

【0123】[0123]

【発明の効果】以上説明したように、本発明によれば、
効率的に、かつ適切に画像を分類することができる画像
処理装置及びその方法、プログラムを提供できる。
As described above, according to the present invention,
An image processing apparatus, an image processing method, and a program capable of efficiently and appropriately classifying images can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本実施形態の画像処理装置のハードウェア構成
を示すブロック図である。
FIG. 1 is a block diagram illustrating a hardware configuration of an image processing apparatus according to an embodiment.

【図2】本実施形態で実行される処理の概要を示すフロ
ーチャートである。
FIG. 2 is a flowchart illustrating an outline of a process executed in the embodiment.

【図3】本実施形態の撮影条件取得処理の詳細を示すフ
ローチャートである。
FIG. 3 is a flowchart illustrating details of a shooting condition acquisition process according to the embodiment;

【図4】本実施形態の画像分類処理の詳細を示すフロー
チャートである。
FIG. 4 is a flowchart illustrating details of an image classification process according to the present embodiment.

【図5】本実施形態の比較対象決定処理の詳細を示すフ
ローチャートである。
FIG. 5 is a flowchart illustrating details of a comparison target determination process according to the embodiment.

【図6】本実施形態の類似度判別処理の詳細を示すフロ
ーチャートである。
FIG. 6 is a flowchart illustrating details of a similarity determination process according to the embodiment;

【図7】本実施形態の閾値取得処理の詳細を示すフロー
チャートである。
FIG. 7 is a flowchart illustrating details of a threshold acquisition process according to the embodiment;

【図8】本実施形態の閾値初期値リストの一例を示す図
である。
FIG. 8 is a diagram illustrating an example of a threshold initial value list according to the present embodiment.

【図9】本実施形態の重み付け決定リストデータの一例
を示す図である。
FIG. 9 is a diagram illustrating an example of weight determination list data according to the present embodiment.

【図10】本実施形態の誤差判定処理の詳細を示すフロ
ーチャートである。
FIG. 10 is a flowchart illustrating details of an error determination process according to the embodiment.

【図11】本実施形態の撮影条件データの一例を示す図
である。
FIG. 11 is a diagram illustrating an example of photographing condition data according to the present embodiment.

【図12】本実施形態の加工処理を示すフローチャート
である。
FIG. 12 is a flowchart illustrating the processing according to the present embodiment.

【図13】本実施形態のアングル加工処理の具体例を示
す図である。
FIG. 13 is a diagram illustrating a specific example of the angle processing according to the embodiment;

【図14】本実施形態のズーム加工処理の具体例を示す
図である。
FIG. 14 is a diagram illustrating a specific example of zoom processing according to the embodiment;

【図15】本実施形態の明度加工処理の具体例を示す図
である。
FIG. 15 is a diagram illustrating a specific example of the brightness processing according to the embodiment;

【図16】本実施形態のグループ属性付与処理の詳細を
示すフローチャートである。
FIG. 16 is a flowchart illustrating details of a group attribute assigning process according to the present embodiment.

【図17】本実施形態で実行される処理の具体例を示す
図である。
FIG. 17 is a diagram showing a specific example of a process executed in the embodiment.

【図18】本実施形態の誤差判定テーブルの一例を示す
図である。
FIG. 18 is a diagram illustrating an example of an error determination table according to the present embodiment.

【符号の説明】[Explanation of symbols]

1 画像入力部 2 CPU 3 画像出力部 4 プログラムメモリ 5 データメモリ 6 バス 7 操作部 DESCRIPTION OF SYMBOLS 1 Image input part 2 CPU 3 Image output part 4 Program memory 5 Data memory 6 Bus 7 Operation part

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/907 H04N 5/907 B // H04N 101:00 101:00 Fターム(参考) 5B050 BA15 DA04 EA04 EA09 EA18 GA08 5B075 ND06 NR12 QM08 UU40 5C052 AA17 DD04 GA02 GB01 GB09 5L096 AA02 AA06 CA02 JA03 JA11 KA09 KA11 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/907 H04N 5/907 B // H04N 101: 00 101: 00 F term (Reference) 5B050 BA15 DA04 EA04 EA09 EA18 GA08 5B075 ND06 NR12 QM08 UU40 5C052 AA17 DD04 GA02 GB01 GB09 5L096 AA02 AA06 CA02 JA03 JA11 KA09 KA11

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 複数の画像を分類する画像処理装置であ
って、 画像を入力する入力手段と、 処理対象画像を分類するために比較する比較対象画像
を、前記処理対象画像の入力時刻に基づいて決定する決
定手段と、 前記処理対象画像を分類するための分類前提条件を指定
する指定手段と、 前記指定手段で指定された分類前提条件に基づいて、前
記処理対象画像と前記比較対象画像の類似度を判別する
ための閾値を設定する設定手段と、 前記閾値に基づいて、前記処理対象画像と前記比較対象
画像との類似度を判別する判別手段と、 前記判別手段の判別結果に基づいて、前記処理対象画像
が所属するグループを示すグループ属性を該処理対象画
像に付与する付与手段とを備えることを特徴とする画像
処理装置。
1. An image processing apparatus for classifying a plurality of images, comprising: input means for inputting images; and a comparison target image to be compared for classifying the processing target image, based on an input time of the processing target image. Determining means for determining the image to be processed; specifying means for specifying a classification precondition for classifying the processing target image; and, based on the classification precondition specified by the specifying means, the processing target image and the comparison target image. Setting means for setting a threshold value for determining the degree of similarity; determining means for determining the degree of similarity between the processing target image and the comparison target image based on the threshold value; and An image processing apparatus, comprising: an assigning unit that assigns a group attribute indicating a group to which the processing target image belongs to the processing target image.
【請求項2】 前記判別手段は、前記処理対象画像と前
記比較対象画像との類似度が前記所定値未満である場
合、前記処理対象画像の入力条件データと前記比較対象
画像の入力条件データとの差分の誤差判定を行う誤差判
定手段と前記誤差判定手段の誤差判定結果に基づいて、
前記処理対象画像を加工する加工手段とを備えることを
特徴とする請求項1に記載の画像処理装置。
2. The image processing apparatus according to claim 2, wherein the similarity between the processing target image and the comparison target image is less than the predetermined value, and the input condition data of the processing target image and the input condition data of the comparison target image are determined. Based on the error determination results of the error determination means and the error determination means for performing the error determination of the difference,
The image processing apparatus according to claim 1, further comprising: a processing unit configured to process the image to be processed.
【請求項3】 前記設定手段は、前記分類前提条件に基
づいて、前記閾値を設定することを特徴とする請求項1
に記載の画像処理装置。
3. The apparatus according to claim 1, wherein the setting unit sets the threshold based on the classification precondition.
An image processing apparatus according to claim 1.
【請求項4】 前記入力条件データは、画像のアングル
値であり、 前記加工手段は、前記処理対象画像のアングル値と前記
比較対象画像のアングル値との差分に応じて、該処理対
象画像を加工することを特徴とする請求項2に記載の画
像処理装置。
4. The input condition data is an angle value of an image, and the processing means converts the image to be processed according to a difference between an angle value of the image to be processed and an angle value of the image to be compared. The image processing apparatus according to claim 2, wherein the image processing is performed.
【請求項5】 前記入力条件は、画像のズーム値であ
り、 前記加工手段は、前記処理対象画像のズーム値と前記比
較対象画像のズーム値との差分に応じて、該処理対象画
像を加工することを特徴とする請求項2に記載の画像処
理装置。
5. The input condition is a zoom value of the image, and the processing means processes the image to be processed according to a difference between a zoom value of the image to be processed and a zoom value of the image to be compared. The image processing apparatus according to claim 2, wherein:
【請求項6】 前記入力条件は、画像のフラッシュ点灯
の有無を示す値であり、 前記加工手段は、前記処理対象画像のフラッシュ点灯の
有無を示す値と前記比較対象画像のフラッシュ点灯の有
無を示す値との差分に応じて、該処理対象画像を加工す
ることを特徴とする請求項2に記載の画像処理装置。
6. The input condition is a value indicating whether or not the image is flashed, and the processing means is configured to determine whether or not the processing target image is flashed and whether or not the comparison target image is flashed. The image processing apparatus according to claim 2, wherein the processing target image is processed according to a difference from the indicated value.
【請求項7】 複数の画像を分類する画像処理方法であ
って、 画像を入力する入力工程と、 処理対象画像を分類するために比較する比較対象画像
を、前記処理対象画像の入力時刻に基づいて決定する決
定工程と、 前記処理対象画像を分類するための分類前提条件を指定
する指定工程と、 前記指定工程で指定された分類前提条件に基づいて、前
記処理対象画像と前記比較対象画像の類似度を判別する
ための閾値を設定する設定工程と、 前記閾値に基づいて、前記処理対象画像と前記比較対象
画像との類似度を判別する判別工程と、 前記判別工程の判別結果に基づいて、前記処理対象画像
が所属するグループを示すグループ属性を該処理対象画
像に付与する付与工程とを備えることを特徴とする画像
処理方法。
7. An image processing method for classifying a plurality of images, comprising: an input step of inputting images; and a comparison target image to be compared for classifying the processing target image, based on an input time of the processing target image. A determination step of determining the classification target condition for classifying the processing target image, and a designation step of specifying a classification precondition for classifying the processing target image. A setting step of setting a threshold for determining a similarity; a determining step of determining a similarity between the processing target image and the comparison target image based on the threshold; and a determination result of the determining step. Providing a group attribute indicating a group to which the processing target image belongs to the processing target image.
【請求項8】 前記判別工程は、前記処理対象画像と前
記比較対象画像との類似度が前記所定値未満である場
合、前記処理対象画像の入力条件データと前記比較対象
画像の入力条件データとの差分の誤差判定を行う誤差判
定工程と前記誤差判定工程の誤差判定結果に基づいて、
前記処理対象画像を加工する加工工程とを備えることを
特徴とする請求項7に記載の画像処理方法。
8. The input condition data of the processing target image and the input condition data of the comparison target image when the similarity between the processing target image and the comparison target image is less than the predetermined value. Based on the error determination result of the error determination step and the error determination step of performing the error determination of the difference of,
The image processing method according to claim 7, further comprising: a processing step of processing the processing target image.
【請求項9】 前記設定工程は、前記分類前提条件に基
づいて、前記閾値を設定することを特徴とする請求項7
に記載の画像処理方法。
9. The method according to claim 7, wherein the setting step sets the threshold based on the classification precondition.
The image processing method according to 1.
【請求項10】 前記入力条件データは、画像のアング
ル値であり、 前記加工工程は、前記処理対象画像のアングル値と前記
比較対象画像のアングル値との差分に応じて、該処理対
象画像を加工することを特徴とする請求項8に記載の画
像処理方法。
10. The input condition data is an angle value of an image. In the processing step, the processing target image is processed in accordance with a difference between an angle value of the processing target image and an angle value of the comparison target image. The image processing method according to claim 8, wherein the image processing is performed.
【請求項11】 前記入力条件は、画像のズーム値であ
り、 前記加工工程は、前記処理対象画像のズーム値と前記比
較対象画像のズーム値との差分に応じて、該処理対象画
像を加工することを特徴とする請求項8に記載の画像処
理方法。
11. The input condition is a zoom value of the image, and the processing step processes the image to be processed according to a difference between a zoom value of the image to be processed and a zoom value of the image to be compared. The image processing method according to claim 8, wherein:
【請求項12】 前記入力条件は、画像のフラッシュ点
灯の有無を示す値であり、 前記加工工程は、前記処理対象画像のフラッシュ点灯の
有無を示す値と前記比較対象画像のフラッシュ点灯の有
無を示す値との差分に応じて、該処理対象画像を加工す
ることを特徴とする請求項8に記載の画像処理方法。
12. The input condition is a value indicating whether or not the image is to be flashed, and the processing step includes determining whether or not the image to be processed is to be flashed and whether to flash the image to be compared. The image processing method according to claim 8, wherein the processing target image is processed according to a difference from the indicated value.
【請求項13】 複数の画像を分類する画像処理をコン
ピュータに機能させるためのプログラムであって、 画像を入力する入力工程のプログラムコードと、 処理対象画像を分類するために比較する比較対象画像
を、前記処理対象画像の入力時刻に基づいて決定する決
定工程のプログラムコードと、 前記処理対象画像を分類するための分類前提条件を指定
する指定工程のプログラムコードと、 前記指定工程で指定された分類前提条件に基づいて、前
記処理対象画像と前記比較対象画像の類似度を判別する
ための閾値を設定する設定工程のプログラムコードと、 前記閾値に基づいて、前記処理対象画像と前記比較対象
画像との類似度を判別する判別工程のプログラムコード
と、 前記判別工程の判別結果に基づいて、前記処理対象画像
が所属するグループを示すグループ属性を該処理対象画
像に付与する付与工程のプログラムコードとを備えるこ
とを特徴とするプログラム。
13. A program for causing a computer to perform image processing for classifying a plurality of images, comprising: a program code of an input step of inputting an image; and a comparison target image to be compared for classifying the processing target image. A program code of a determining step of determining based on the input time of the processing target image; a program code of a specifying step for specifying a classification precondition for classifying the processing target image; and a classification specified in the specifying step. Based on preconditions, a program code of a setting step of setting a threshold for determining the similarity between the processing target image and the comparison target image, and based on the threshold, the processing target image and the comparison target image, A program code of a discriminating step for discriminating the degree of similarity, and the processing target image belongs based on a discrimination result of the discriminating step. A program code for an application step of applying a group attribute indicating a group to the image to be processed.
JP2001167190A 2001-06-01 2001-06-01 Image processing apparatus, its method and program Pending JP2002358316A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001167190A JP2002358316A (en) 2001-06-01 2001-06-01 Image processing apparatus, its method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001167190A JP2002358316A (en) 2001-06-01 2001-06-01 Image processing apparatus, its method and program

Publications (2)

Publication Number Publication Date
JP2002358316A true JP2002358316A (en) 2002-12-13
JP2002358316A5 JP2002358316A5 (en) 2008-07-17

Family

ID=19009615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001167190A Pending JP2002358316A (en) 2001-06-01 2001-06-01 Image processing apparatus, its method and program

Country Status (1)

Country Link
JP (1) JP2002358316A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293314A (en) * 2004-03-31 2005-10-20 Olympus Corp Filing method, filing device and filing program
JP2005293313A (en) * 2004-03-31 2005-10-20 Olympus Corp File handling program, file handling device and file handling method
JP2006246209A (en) * 2005-03-04 2006-09-14 Seiko Epson Corp Image generator
JP2008532180A (en) * 2005-03-04 2008-08-14 イーストマン コダック カンパニー Additional clustering of images with missing time information
JP2008233959A (en) * 2007-03-16 2008-10-02 Ricoh Co Ltd Image processor, image processing method, program, and recording medium
JP2011055169A (en) * 2009-08-31 2011-03-17 Toshiba Corp Electronic apparatus and image processing method
JP2011227915A (en) * 2011-06-07 2011-11-10 Fujifilm Corp Image classification device and method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000112997A (en) * 1998-09-30 2000-04-21 Eastman Kodak Co Method for automatically classifying picture into event
JP2000339344A (en) * 1999-05-31 2000-12-08 Olympus Optical Co Ltd Image reading and storing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000112997A (en) * 1998-09-30 2000-04-21 Eastman Kodak Co Method for automatically classifying picture into event
JP2000339344A (en) * 1999-05-31 2000-12-08 Olympus Optical Co Ltd Image reading and storing device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293314A (en) * 2004-03-31 2005-10-20 Olympus Corp Filing method, filing device and filing program
JP2005293313A (en) * 2004-03-31 2005-10-20 Olympus Corp File handling program, file handling device and file handling method
JP2006246209A (en) * 2005-03-04 2006-09-14 Seiko Epson Corp Image generator
JP2008532180A (en) * 2005-03-04 2008-08-14 イーストマン コダック カンパニー Additional clustering of images with missing time information
JP4586580B2 (en) * 2005-03-04 2010-11-24 セイコーエプソン株式会社 Image generation device
JP2008233959A (en) * 2007-03-16 2008-10-02 Ricoh Co Ltd Image processor, image processing method, program, and recording medium
JP2011055169A (en) * 2009-08-31 2011-03-17 Toshiba Corp Electronic apparatus and image processing method
US8068678B2 (en) 2009-08-31 2011-11-29 Kabushiki Kaisha Toshiba Electronic apparatus and image processing method
JP2011227915A (en) * 2011-06-07 2011-11-10 Fujifilm Corp Image classification device and method and program

Similar Documents

Publication Publication Date Title
CA2218354C (en) File management system of image data
US20050158015A1 (en) Information processing apparatus, information processing method and recording medium for electronic equipment including an electronic camera
JP2005049968A (en) Image management device
JP2003344021A (en) Method for calculating dimension of human face in image and method for detecting face
JP4327827B2 (en) Video recording / reproducing system and video recording / reproducing method
US6564282B1 (en) Method and system for increasing storage capacity in a digital image capture device
JP2008269490A (en) Image management method, image management device, control program and computer-readable storage medium
JP2002358316A (en) Image processing apparatus, its method and program
JP2010231744A (en) Information processing apparatus, program and image data management method
US20100321529A1 (en) Image processing apparatus, method of controlling the apparatus, program thereof, and storage medium
US20080181524A1 (en) Image evaluation method, apparatus, and program
US6822678B2 (en) Digital camera, digital camera control apparatus, digital camera system, digital camera control method, and medium
JP5381498B2 (en) Image processing apparatus, image processing program, and image processing method
JP2009217588A (en) Filing system, electronic camera, file access method, and program
JP2006059353A (en) Electronic album device
JP4143195B2 (en) Program control apparatus, file processing system, method, and storage medium
JP4448018B2 (en) Image processing apparatus and method, and program
CN109634910B (en) Method for improving DVR file writing speed
JP7166796B2 (en) Information processing device, information processing method, and program
KR20070114625A (en) Method of the classifying of digital image for a quality printing
JP2000023145A (en) Image pickup system, device and method for controlling the same
JP2003224809A (en) Data recording apparatus
JP3703237B2 (en) Captured image transfer method and imaging apparatus
JP2001298702A (en) File management system for digital camera and storage device
JP2007172113A (en) File processor, printer and file processing method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080530

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100917

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110516