JP2007174015A - Image management program and image management apparatus - Google Patents
Image management program and image management apparatus Download PDFInfo
- Publication number
- JP2007174015A JP2007174015A JP2005365816A JP2005365816A JP2007174015A JP 2007174015 A JP2007174015 A JP 2007174015A JP 2005365816 A JP2005365816 A JP 2005365816A JP 2005365816 A JP2005365816 A JP 2005365816A JP 2007174015 A JP2007174015 A JP 2007174015A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- management program
- grouping
- image management
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
本発明は、撮像された画像をグループ分けして管理するための画像管理プログラム、および画像管理プログラムを実行するための画像管理装置に関する。 The present invention relates to an image management program for grouping and managing captured images, and an image management apparatus for executing the image management program.
次のような画像処理装置が特許文献1によって知られている。この画像処理装置では、カメラによって撮像された複数コマの画像データの類似性を判定し、類似性があると判定された各コマの画像データの再生画像の品質が揃うように画像処理を施して、プリントする。
The following image processing apparatus is known from
しかしながら、従来の画像処理装置では、画像処理を施した結果の画像をプリンタに出力してプリントするため、一旦プリントした複数コマの画像を再度プリントする際には、その都度、類似性判定処理、および画像処理を行わなければならいという問題が生じていた。 However, in the conventional image processing apparatus, an image obtained as a result of image processing is output to a printer and printed. Therefore, when a plurality of images once printed are printed again, a similarity determination process, In addition, there has been a problem that image processing has to be performed.
本発明は、複数の画像の類似性を判定し、類似性の判定結果に基づいて複数の画像をグルーピングし、グルーピング結果に基づいて同じグループに含まれる複数の画像の画質のばらつきを低減するように各画像を補正し、補正した画像をデータファイルとして出力する。
各画像を補正するに当たっては、画像の明るさのばらつきを低減するように画像を補正することが好ましく、このために各画像の各色成分に同一の補正係数を掛け算することにより画像の明るさのばらつきを低減してもよく、画像に階調補正処理を施すことにより画像の画質のばらつきを低減にしてもよい。
また、画像に彩度補正処理を施すことにより画像の彩度のばらつきを補正してもよい。
複数の画像をグルーピングするに当たっては、各画像の撮影日時に基づいてグルーピングしてもよく、複数の画像を各画像が撮影された地点の位置情報に基づいてグルーピングしてもよい。または、各画像の傾向を判断して、その判断結果に基づいて複数の画像をグルーピングしてもよい。このとき、各画像の傾向を画像における色の分布特性に基づいて判断することが好ましい。
複数の画像のグルーピング結果に基づいて、複数の画像の表示順序を決定するようにしてもよい。
The present invention determines similarity of a plurality of images, groups a plurality of images based on the similarity determination result, and reduces variations in image quality of the plurality of images included in the same group based on the grouping result. Each image is corrected and the corrected image is output as a data file.
In correcting each image, it is preferable to correct the image so as to reduce the variation in the brightness of the image. For this purpose, the brightness of the image is reduced by multiplying each color component of each image by the same correction coefficient. The variation may be reduced, and the image quality variation may be reduced by applying gradation correction processing to the image.
Further, variation in saturation of the image may be corrected by performing saturation correction processing on the image.
When grouping a plurality of images, the images may be grouped based on the shooting date and time of each image, or the plurality of images may be grouped based on position information of a point where each image is shot. Alternatively, the tendency of each image may be determined, and a plurality of images may be grouped based on the determination result. At this time, it is preferable to determine the tendency of each image based on the color distribution characteristics in the image.
The display order of the plurality of images may be determined based on the grouping result of the plurality of images.
本発明によれば、補正した画像をデータファイルとして出力するようにしたため、各画像に対して一度処理を施すだけで、その結果をデータファイルとして保持することができる。このため、画像を繰り返し出力する場合に、その都度、画像に対して類似性判定処理や補正処理を施す必要がなく、処理の負荷を低減することができる。 According to the present invention, since the corrected image is output as a data file, the result can be held as a data file by performing processing once for each image. For this reason, when an image is repeatedly output, it is not necessary to perform similarity determination processing and correction processing on the image each time, and the processing load can be reduced.
図1は、本実施の形態における画像管理装置の一実施の形態の構成を示すブロック図である。画像管理装置100は、例えばパーソナルコンピュータ(パソコン)であり、入力装置101と、外部インターフェース102と、HDD103と、制御装置104と、モニタ105と、プリンタ106とを備えている。
FIG. 1 is a block diagram illustrating a configuration of an image management apparatus according to an embodiment of the present invention. The
入力装置101は、キーボードやマウスなど、使用者によって操作される種々の入力部材を含んでいる。
The
外部インターフェース102は、例えばUSBインターフェースや無線LANモジュールなど、外部機器と有線通信または無線通信を行うためのインターフェースである。本実施の形態におけるパソコンは、この外部インターフェース102を介して外部機器、例えばカメラ(デジタルカメラ)から画像(画像データファイル)を取り込む。または、外部インターフェース102として、メモリカードなどの記憶媒体を挿入するためのメモリカードスロットを設け、メモリカード経由で画像データファイルを取り込むようにしてもよい。
The
なお、外部インターフェース102を介して取り込まれる画像データファイルは、例えばExif形式の画像データファイルのように、データファイル内に画像データ部と付加情報部とを含んでいる。画像データ部には、デジタルカメラで撮像された画像データが格納されている。また、付加情報部には、画像の撮像日時情報や、画像の撮像地点の位置情報(撮像地点情報)、たとえば緯度経度情報が含まれている。なお、撮像地点情報については、画像を撮像したデジタルカメラが撮像地点情報を検出するためのGPSセンサを備えている場合のみ付加情報部に記憶されることになる。
Note that the image data file captured via the
外部インターフェース102を介して取り込んだ画像データファイルは、HDD103に出力されて、所定のフォルダ内に記憶される。またHDD103には、後述するように画像データファイルをグルーピングして、各グループごとに画像データファイルの画質のばらつきを低減する画像処理を施し、その結果を出力するための画像管理プログラムが記憶されている。
The image data file captured via the
制御装置104は、CPU、メモリ、およびその他周辺回路で構成され、類似性判定部104aと、グルーピング部104bと、画像補正部104cと、画像出力部104dとを機能的に備えている。なお、制御装置104が備える104a〜104dの機能は、ハードウェアにより実現してもよく、ソフトウェアにより実現してもよい。本実施の形態では、制御装置104は、HDD103に記憶された画像管理プログラムを制御装置104が備えるメモリ内に読み込んで実行することによって、104a〜104dの各機能をソフトウェア的に実現する例について説明する。
The
類似性判定部104aは、画像データファイルに含まれる付加情報部から取得可能な撮影日時情報と撮影地点情報、および画像データ部に格納されている画像データに基づいて判定される画像の撮像シーンに基づいて、HDD103に記憶されている複数の画像データファイルの類似性を判定する。具体的には以下のような類似性判定処理を行う。
The
類似性判定部104aは、使用者によって入力装置101が操作され、画像処理の開始が指示された場合には、まず、HDD103に記憶されている全画像データファイルを処理対象データファイルとして制御装置104が備えるメモリに読み込む。なお、本実施の形態ではHDD103に記憶されている全画像データファイルを処理対象データファイルとする例について説明するが、HDD103に記憶されている画像データファイルの内、使用者によって選択された画像データファイルのみを処理対象データファイルとしてもよい。また、複数の画像データファイルがHDD103内にフォルダ分けされて記憶されている場合には、使用者によって選択されたフォルダ内の全画像データファイルを処理対象データファイルとしてもよい。
When the
類似性判定部104aは、読み込んだ処理対象データファイルを、各画像データファイルの付加情報部に記憶されている撮影日時情報に基づいて撮影日時順に並べ替える。すなわち、処理対象データファイルとして読み込んだ全ての画像データファイルが、メモリ内で撮影日時が古いものから順番に並ぶように並べ替えを行う。次に、類似性判定部104aは、並べ替えを行った結果、先頭の画像データファイルから順番に隣り合う前後の画像同士の撮影日時の差分を算出する。この処理を並べ替えを行った全ての処理対象データファイルを対象として行うことによって、時系列に並んだ全画像データファイルにおける各画像の撮影時間間隔を算出することができる。
The
類似性判定部104aはさらに、算出した各画像の撮影日時の差分と、あらかじめ設定された閾値とを比較する。閾値としては、並べ替えの結果、撮影日時が連続する2枚の画像が同一の被写体を同一または類似する撮影条件で連続して撮像したものであるか否かを判断するための値、例えば10分が設定される。
The
したがって、撮影日時の差分が閾値未満であれば、その2枚の画像は同一被写体を同一または類似する撮影条件で連続して撮影したものであると推定できることから、類似性判定部104aは、その2枚の画像の類似性は高いと判定する。例えば、1台のデジタルカメラで連続して同一被写体を撮影した場合や、異なる複数台のデジタルカメラで一定時間内に同一の被写体を撮影した場合がこれに該当する。 Therefore, if the difference between the shooting dates and times is less than the threshold value, it can be estimated that the two images are obtained by continuously shooting the same subject under the same or similar shooting conditions. It is determined that the similarity between the two images is high. For example, this case corresponds to a case where the same subject is continuously photographed by one digital camera or a case where the same subject is photographed within a predetermined time by a plurality of different digital cameras.
一方、撮影日時の差分が閾値以上であれば、その2枚の画像は異なる被写体を撮影したものであるか、あるいは同一被写体を異なる撮影条件で撮影したものであると推定できることから、類似性判定部104aは、その2枚の画像の類似性は低いと判定する。例えば、1台のデジタルカメラで所定時間以上間隔を空けて同一または異なる被写体を撮影した場合や、異なる複数台のデジタルカメラで所定時間以上間隔を空けて同一または異なる被写体を撮影した場合がこれに該当する。
On the other hand, if the difference between the shooting dates and times is greater than or equal to the threshold, it can be estimated that the two images are taken from different subjects, or the same subject is taken under different shooting conditions. The
グルーピング部104bは、類似性判定部104aによる画像の撮像日時に基づく類似性の判定結果に基づいて、類似性の高い画像データファイルが同一グループとなるように、画像データファイルのグルーピングを行う。このために、類似性判定部104aで画像の撮影日時の差分と閾値とを比較した結果に基づいて、撮影日時の差分が閾値以上となる画像データファイルの組を抽出し、各組の画像データファイル同士の間にグループの境界を設定して、処理対象データファイルをグルーピングする。
The grouping unit 104b performs grouping of the image data files so that the image data files with high similarity are in the same group based on the similarity determination result based on the image capturing date and time by the
これによって、ほぼ同じ時刻に撮影された画像は、類似している可能性が高いことを加味して、これら類似している可能性が高い画像が同一グループに含まれるようなグルーピングを行うことができる。なお、本実施の形態では、この画像の撮像日時に基づくグルーピングを第1のグルーピングと呼び、この第1のグルーピングによって得られるグループを第1のグループと呼ぶ。 In this way, considering that images taken at approximately the same time are likely to be similar, grouping may be performed such that images that are likely to be similar are included in the same group. it can. In the present embodiment, the grouping based on the image capturing date and time is referred to as a first grouping, and the group obtained by the first grouping is referred to as a first group.
次に、類似性判定部104aは、処理対象データファイルの付加情報部に含まれる撮影地点情報を取得する。このとき、上述したようにデジタルカメラがGPSセンサを搭載していない場合には、そのデジタルカメラから取り込んだ画像データファイルの付加情報部には撮影地点情報は含まれていない。よって、類似性判定部104aは、付加情報部に撮影地点情報を含んでいない処理対象データファイルはここでの処理対象から除外し、付加情報部に撮影地点情報を含んでいる処理対象データファイルのみを対象として撮影地点情報を取得する。
Next, the
そして、類似性判定部104aは、撮影地点情報を取得した処理対象データファイルの中から、上述した第1のグルーピング結果に基づいて、各グループ内で時系列の並び順が連続する処理対象データファイルを抽出する。そして、各グループ内で撮影地点が連続する画像間の撮影地点の差分、例えば緯度経度情報の差分を算出し、この撮像地点の差分と、あらかじめ設定された閾値とを比較する。閾値としては、撮影地点で並べ替えを行った結果、それぞれの画像が同一または近接する撮影地点で撮影されたものであるか否かを判断するための値、例えば100mが設定される。
Then, the
したがって、撮影地点の差分が閾値未満であれば、その2枚の画像は一定の距離以内で撮影されたものであると推定できる。この場合、その2枚の画像は、一定時間以内に、一定距離以内の撮影地点で撮影された画像であると判定することができ、類似性判定部104aは、その2枚の画像の類似性は高いと判定する。
Therefore, if the difference between the shooting points is less than the threshold value, it can be estimated that the two images are shot within a certain distance. In this case, it can be determined that the two images are images taken at a shooting point within a certain distance within a certain time, and the
一方、撮影地点の差分が閾値以上であれば、その2枚の画像は異なる地点で撮影されたものであると推定できる。この場合、その2枚の画像は、一定時間以内に撮影されたものであるが、それぞれ異なった撮影地点で撮影された画像であると判定することができ、類似性判定部104aは、その2枚の画像の類似性は低いと判定する。
On the other hand, if the difference between the shooting points is greater than or equal to the threshold value, it can be estimated that the two images are shot at different points. In this case, the two images are taken within a certain period of time, but can be determined to be images taken at different shooting points, and the
グルーピング部104bは、上述した画像の撮影日時に基づく第1のグルーピング結果に対して、さらに類似性判定部104aによる画像の撮影地点に基づく類似性の判定結果を加味した第2のグルーピングを行う。すなわち、画像の撮影日時に基づく類似性が高い各グループの画像データファイルを、さらに撮影地点に基づく類似性が高い画像データファイルが同一グループとなるように、各グループ内の画像データファイルをさらにグルーピングする。
The grouping unit 104b performs second grouping on the first grouping result based on the image shooting date and time described above, and further adding the similarity determination result based on the image shooting point by the
このために、グルーピング部104bは、画像の撮影日時に基づいてグルーピングした各第1のグループ内の画像データファイルの中から、類似性判定部104aで算出した撮影地点の差分が閾値以上となる画像データファイルの組を抽出し、各組の画像データファイル同士の間にグループの境界を設定するように、処理対象データファイルをグルーピングする。
For this reason, the grouping unit 104b has an image in which the difference between the shooting points calculated by the
これによって、ほぼ同じ時刻に撮影された画像であったとしても、複数の撮影者が離れた地点で画像を撮影した場合には、それぞれの画像の類似性は低くなることから、第1のグループを撮影地点を加味してさらにグルーピングすることによって、ほぼ同じ時刻に、ほぼ同じ場所で撮影された画像を類似している可能性が高い画像として同一グループに含んだ、第2のグループに分類することができる。 As a result, even if the images were taken at approximately the same time, the similarity between the images would be low when a plurality of photographers took images at distant points. Are further grouped by taking the shooting point into consideration, so that images taken at substantially the same place at approximately the same time are classified into a second group that is included in the same group as images that are likely to be similar. be able to.
類似性判定部104aは、さらに、上述した第2のグルーピングの結果、各第2のグループに含まれる画像データファイルの画像の傾向に基づいた類似性を判定する。なお、本実施の形態では、画像の傾向として絵柄に基づいて撮像シーンの類似性を判定するものとし、絵柄は後述するように色の分布特性に基づいて判断するものとする。例えば、ほぼ同じ時刻に、ほぼ同じ場所で撮影された画像であってとしても、撮影者が撮影方向を変えて撮影した複数の画像はそれぞれ類似性が低いものとなる。したがって、類似性判定部104aは、上述した第2のグルーピングにより画像の撮影日時、および撮影地点に基づいてグルーピングした結果を、さらに精度高くグルーピングするために、次のように処理する。
The
まず、類似性判定部104aは、上述した第2のグルーピングを行ってグループ分けされたそれぞれのグループ内において、各画像のR、G、Bの各色成分のヒストグラムを算出する。そして、各グループ内の画像間で同一の色成分同士のヒストグラムを比較する。すなわち、グループ内の全画像のR成分のヒストグラム、G成分のヒストグラム、B成分のヒストグラムをそれぞれ比較し、その類似性を判定することによって、各画像の色の分布特性に基づいた撮影シーンの類似性を判定する。
First, the
なお、各グループ内の画像間で同一の色成分同士のヒストグラムを比較する方法としては、種々の方法が考えられるが、本実施の形態では、以下のように比較するものとする。すなわち、類似性判定部104aは、ヒストグラムの最大値A、および最大値から所定範囲、例えば5%の範囲σを算出し、A、およびσが所定の範囲内にある画像同士を類似性が高い画像であると判定する。
Various methods can be considered as a method for comparing histograms of the same color component between images in each group. In the present embodiment, comparison is made as follows. That is, the
そして、グルーピング部104bは、撮影シーンの類似性が高い画像同士を同一グループにまとめる第3のグルーピングを行い、上述した第2のグループをさらに撮影シーンの類似性が高い画像ごとに分類した第3のグループを得る。これによって、ほぼ同じ時刻に、ほぼ同じ場所で撮影され、さらに同一シーンを撮像した画像を同一のグループとする第3のグループに分類することができる。 Then, the grouping unit 104b performs third grouping in which images with high similarity in shooting scenes are grouped into the same group, and the second group described above is further classified for each image with high similarity in shooting scenes. Get a group of. As a result, it is possible to classify images taken at substantially the same place at substantially the same time and further capturing images of the same scene into a third group.
グルーピング部104bは、さらに、上述した第2のグループに含まれる画像の並び順を、撮影日時順とするか、あるいは撮影シーン順とするかを決定し、画像の並べ替えを行う。いずれの順序とするかは、あらかじめ使用者によって入力装置101を介して設定されており、グルーピング部104bは、使用者によって設定された並び順とするように画像データファイルを並べ替える。
Further, the grouping unit 104b determines whether the arrangement order of the images included in the above-described second group is the shooting date / time order or the shooting scene order, and rearranges the images. Which order is set is set in advance by the user via the
使用者によって撮影日時順とするように設定されていた場合には、グルーピング部104bは、上述した第2のグループにおける画像の並び順をそのまま使用する。すなわち、この時点では並べ替え処理を行わず、既に撮影日時に基づいて並べ替えが完了している第2のグループにおける画像の順番をそのまま使用する。 If it is set by the user to be in the order of shooting date / time, the grouping unit 104b uses the image arrangement order in the second group described above as it is. That is, the rearrangement process is not performed at this time, and the order of images in the second group that has already been rearranged based on the shooting date and time is used as it is.
これに対して、使用者によって撮影シーン順とするように設定されていた場合には、グルーピング部104bは、上述した第2のグループ内で、画像が上述した第3グループ単位に並ぶように画像の並べ替えを行う。すなわち、第2のグループ内の画像の並び順を、撮影シーンの類似性が高い画像が連続して並ぶように並び替える。 On the other hand, when it is set by the user to be in the order of the shooting scenes, the grouping unit 104b displays the images so that the images are arranged in the above-described third group unit in the above-described second group. Sort. That is, the arrangement order of the images in the second group is rearranged so that images with high similarity of the shooting scenes are continuously arranged.
図2は、それぞれの並べ替え結果における画像の並び順の具体例を示す図である。図2に示す例においては、処理対象画像として画像2a〜画像2fの6枚の画像があり、各画像は撮影日時および撮影地点に基づいて第2のグルーピングが行われた結果、同一のグループに含まれているものとする。なお、画像2a〜画像2fは、複数のカメラI〜IIIで同日に撮影されたものであり、各画像の撮影時刻、および撮像シーンの判定結果は次の(A)〜(F)に示す通りである。
FIG. 2 is a diagram illustrating a specific example of the arrangement order of images in each rearrangement result. In the example shown in FIG. 2, there are six
(A)画像2a
画像2aは、カメラIで撮像された画像であり、その撮影時刻は10:00、撮影シーンの判定結果はAである。
(B)画像2b
画像2bは、カメラIIで撮像された画像であり、その撮影時刻は10:00、撮影シーンの判定結果はBである。
(C)画像2c
画像2cは、カメラIで撮像された画像であり、その撮影時刻は10:02、撮影シーンの判定結果はCである。
(D)画像2d
画像2dは、カメラIで撮像された画像であり、その撮影時刻は10:04、撮影シーンの判定結果はBである。
(E)画像2e
画像2eは、カメラIIで撮像された画像であり、その撮影時刻は10:05、撮影シーンの判定結果はAである。
(F)画像2f
画像2fは、カメラIIIで撮像された画像であり、その撮影時刻は10:05、撮影シーンの判定結果はCである。
(A)
The
(B)
The
(C)
The
(D)
The
(E)
The
(F)
The
図2(a)は、これらの画像2a〜画像2fを撮影日時順に並べた場合の具体例を示している。この図2(a)に示すように、画像2a〜画像2fの各画像は、撮影シーンに関係なく撮影日時(撮影時刻)の昇順に並んでいる。これに対して、図2(b)は、画像2a〜画像2fを撮影シーン順に並べ替えた場合の具体例を示している。この図2(b)に示すように、画像2a〜画像2fの各画像は、撮影シーンA〜Cごとに並べ替えられ、各撮影シーン内では撮影時刻順に並んでいる。
FIG. 2A shows a specific example in which these
画像補正部104cは、グルーピング部104bによって第3のグルーピングが行われた結果に基づいて、同一のグループに含まれる画像の画質のばらつきを低減するように各画像に対して画像処理を施す。本実施の形態では、画像の画質のばらつきとして画像の明るさを低減するように各第3のグループ内の画像に対してレベル補正を行い、さらにレベル補正処理を行った画像に対して、各画像のコントラストの特性を近づけるために階調補正処理を行う例について説明する。
Based on the result of the third grouping performed by the grouping unit 104b, the
画像補正部104cは、まず、各第3のグループ内の画像に対して次のようにレベル補正を行う。画像補正部104cは、各第3のグループにおいて、画質を揃えるための基準となる基準画像を選択する。本実施の形態では、第3のグループの画像は上述したように撮影日時で並べ替えられているため、その先頭の画像、すなわち各グループ内で最も撮影日時が早い画像を基準画像として選択する。
First, the
画像補正部104cは、選択した基準画像について、G成分(G色)のヒストグラムを算出する。さらに、各第3のグループに含まれる基準画像以外の補正対象画像について、G成分のヒストグラムを算出する。これによって、例えば、図3(a)に示すような基準画像についてのG成分のヒストグラムと、図3(b)に示すような補正対象画像についてのG成分のヒストグラムを得ることができる。
The
画像補正部104cは、算出した基準画像についてのG成分のヒストグラムに基づいて、基準画像のG成分の最頻度値αを算出し、補正対象画像についてのG成分のヒストグラムに基づいて、補正対象画像のG成分の最頻度値βを算出する。そして、算出したαおよびβに基づいて、次式(1)により、補正対象画像の各画素のR、G、B各色成分の値に掛けるゲインを算出する。
ゲイン=α/β ・・・(1)
The
Gain = α / β (1)
画像補正部104cは、式(1)で算出したゲインを、補正対象画像の各画素のR、G、B各色成分の値に掛けて、補正対象画像に対してレベル補正処理を施す。これによって、各第3のグループに含まれる補正対象画像の明るさを基準画像の明るさに近づけるようにレベル補正を行うことができ、各第3のグループに含まれる画像の明るさのばらつきを低減することができる。
The
画像補正部104cは、このようにレベル補正処理を施した後の補正対象画像に対して、さらに以下に説明するような階調補正処理を行って、補正対象画像のコントラストを基準画像に近づける、または一致させる。具体的には、次のように処理する。
The
まず、画像補正部104cは、レベル補正処理を施した後の補正対象画像について、G成分のヒストグラムを算出する。このレベル補正処理を施した後の補正対象画像についてのG成分のヒストグラムは、基準画像を基準としてレベル補正を施してあるため、その最頻度値は基準画像についてのG成分のヒストグラムの最頻度値と一致している。すなわち、図4に示すように、基準画像についてのG成分のヒストグラムH1の最頻度値と、レベル補正処理後の補正対象画像についてのG成分のヒストグラムH2の最頻度値とは一致している。
First, the
この図4に示す例において、H1は、レベル0の画素数およびレベル255の画素数ともに少ない。このため、基準画像はコントラストの低い画像、すなわち軟調の画像であるといえる。これに対して、H2は、レベル0の画素数およびレベル255の画素数ともに基準画像より多い。このため、この補正対象画像は、基準画像と比較してコントラストの高い画像、すなわち硬調の画像であるといえる。
In the example shown in FIG. 4, H1 has a small number of pixels of
補正対象画像と比較して基準画像が軟調であることから、この図4に示す例では補正対象画像を軟調にするように階調補正処理を施せば、補正対象画像のコントラストを基準画像のコントラストに近づけることができる。このため、画像補正部104cは、画像を軟調にするための階調補正カーブ、例えば図5に示す特性3の階調補正カーブを使用して、補正対象画像に対して階調補正処理を施す。すなわち階調変換することによって、補正対象画像のコントラストを基準画像のコントラストに近づけることができる。
Since the reference image is softer than the correction target image, in the example shown in FIG. 4, if gradation correction processing is performed to make the correction target image soft, the contrast of the correction target image is set to the contrast of the reference image. Can be approached. For this reason, the
なお、この図5は、横軸を入力値、縦軸を出力値としたときの階調補正カーブの具体例を示す図である。本実施の形態では、この図5に示すように、階調補正処理に使用する階調補正カーブとして、画像を硬調にするための特性1の階調補正カーブ、階調補正を行わないための特性2の階調補正カーブ、および上述したように画像を軟調にするための特性3の階調補正カーブがあらかじめ設定されているものとする。 FIG. 5 is a diagram showing a specific example of the gradation correction curve when the horizontal axis is an input value and the vertical axis is an output value. In the present embodiment, as shown in FIG. 5, as the gradation correction curve used for the gradation correction processing, the gradation correction curve having the characteristic 1 for making the image in high contrast, the gradation correction is not performed. It is assumed that the gradation correction curve of characteristic 2 and the gradation correction curve of characteristic 3 for softening the image as described above are set in advance.
そして、各特性の階調補正カーブをデータ化した階調補正テーブルが定義されて、制御装置104が有するメモリに記憶されている。画像補正部104cは、補正対象画像のR、G、B各色成分の各画素のデータを、この階調補正テーブルに入力し、入力値に対応する出力値を得ることによって、補正対象画像を階調変換する。
A gradation correction table in which gradation correction curves for each characteristic are converted into data is defined and stored in a memory included in the
なお、画像補正部104cは、具体的には、次式(2)〜(5)により、基準画像と補正対象画像のコントラストを比較して、図5に示すいずれの特性の階調補正カーブを使用するかを決定する。なお、次式(2)において、Max1は基準画像の最大輝度値(G色)を表し、Min1は基準画像の最小輝度値(G色)を表す。また、Max2は補正対象画像の最大輝度値(G色)を表し、Min2は補正対象画像の最小輝度値(G色)を表す。
Specifically, the
X=(Max2−Min2)−(Max1−Min1) ・・・(2)
X<−30 then 特性1を使用(硬調にする) ・・・(3)
−30≦X<30 then 特性2を使用(階調変換しない) ・・・(4)
X≧30 then 特性3を使用(軟調にする) ・・・(5)
X = (Max2-Min2)-(Max1-Min1) (2)
X <−30 then Use characteristic 1 (set to high contrast) (3)
-30 ≦ X <30 then Use characteristic 2 (no gradation conversion) (4)
X ≧ 30 then Use characteristic 3 (soften) (5)
画像補正部104cは、このようにして決定した特性に対応する階調変換カーブを使用して、補正対象画像に対して階調補正処理を施す。これによって、各第3のグループに含まれる画像に対してレベル補正を行って画像の明るさのばらつきを低減した後に、さらに各画像間でのコントラストを一致させることができる。
The
以上の処理により、各第3のグループごとに、グループ内の画像の画質のばらつき、すなわち画像の明るさとコントラストのばらつきを低減することができる。例えば、上述した画像2a〜画像2fにおいては、撮影シーンがAである画像2aと画像2eとの間の明るさとコントラストのばらつきが低減され、撮影シーンがBである画像2bと画像2dとの間の明るさとコントラストのばらつきが低減され、撮影シーンがCである画像2cと画像2fとの間の明るさとコントラストのばらつきが低減される。
With the above processing, it is possible to reduce the variation in the image quality of the images in the group, that is, the variation in the brightness and contrast of the images, for each third group. For example, in the above-described
画像出力部104dは、画像補正部104cにより補正された画像データ部を画像データファイルに組み込むことにより、補正済みの画像データファイルを生成する。そして画像出力部104dは、上述したようにグルーピング部104bで設定した並び順で補正済みの画像データファイルをHDD103へ出力する。
The
すなわち、画像の並び順として撮影日時順が設定されている場合には、画像出力部104dは、補正済みの各画像データファイルの付加情報部に対して、第2のグループ単位の撮影日時順となるような順番情報を追加してから画像データファイルをHDD103へ出力する。例えば、画像出力部104dは、上述した図2(a)に示した順番となるように画像2a〜2fの画像データファイルの付加情報部に順番情報を追加する。
That is, when the shooting date / time order is set as the image arrangement order, the
これに対して、画像の並び順として撮影シーン順が設定されている場合には、画像出力部104dは、補正済みの各画像データファイルの付加情報部に対して、第2のグループ単位の撮影シーン順となるような順番情報を追加してから画像データファイルをHDD103へ出力する。例えば、画像出力部104dは、上述した図2(b)に示した順番となるように画像2a〜2fの画像データファイルの付加情報部に順番情報を追加する。
On the other hand, when the shooting scene order is set as the image arrangement order, the
また、画像出力部104dは、画像データファイルをHDD103に出力するのではなく、その他の記憶媒体、例えばCD−R、DVD−Rへ出力するようにしてもよい。さらに画像出力部104dは、HDD103に画像データファイルを出力した後、その補正後の画像をモニタ105またはプリンタ106へ上述した順番情報の順番で出力する。なお、モニタ105またはプリンタ106のいずれに画像を出力するかは使用者によってあらかじめ設定されているものとする。
The
図6は、本実施の形態における画像管理プログラムの処理を示すフローチャートである。図6に示す処理は、使用者によって入力装置101が操作され、画像処理の開始が指示されると、制御装置104によって画像管理プログラムが起動されることにより実行される。
FIG. 6 is a flowchart showing processing of the image management program in the present embodiment. The processing shown in FIG. 6 is executed by starting the image management program by the
ステップS10において、類似性判定部104aは、HDD103に記憶されている画像データファイルを処理対象データファイルとして制御装置104が備えるメモリに読み込む。その後、ステップS20へ進み、類似性判定部104aは、読み込んだ処理対象データファイルを、各画像データファイルの付加情報部に記憶されている撮影日時情報に基づいて撮影日時順に並べ替えて、ステップS30へ進む。
In step S <b> 10, the
ステップS30では、類似性判定部104aは、各画像の撮影日時の差分を算出し、算出した各画像の撮影日時の差分とあらかじめ設定された閾値とを比較して、撮影日時に基づく画像の類似性を判定する。その後、ステップS40へ進み、グルーピング部104bは、上述した第1のグルーピングを行う。すなわち、撮影日時の差分が閾値以上となる画像データファイルの組を抽出し、各組の画像データファイル同士の間にグループの境界を設定して、処理対象データファイルをグルーピングする。その後、ステップS50へ進む。
In step S <b> 30, the
ステップS50では、類似性判定部104aは、付加情報部に撮影地点情報を含んでいる処理対象データファイルを抽出して、ステップS60へ進む。ステップS60では、各グループ内で撮影地点が連続する画像間の撮影地点の差分を算出し、この撮像地点の差分とあらかじめ設定されている閾値とを比較して、撮影地点に基づく画像の類似性を判定する。
In step S50, the
その後、ステップS70へ進み、グルーピング部104bは、上述した第2のグルーピングを行う。すなわち、画像の撮影日時に基づいてグルーピングした各第1のグループ内の画像データファイルに対して、撮影地点の差分が閾値以上となる画像データファイルの組を抽出し、各組の画像データファイル同士の間にグループの境界を設定するように、処理対象データファイルをグルーピングする。その後、ステップS80へ進む。 Thereafter, the process proceeds to step S70, and the grouping unit 104b performs the second grouping described above. That is, for the image data files in each first group that are grouped based on the shooting date and time of the images, a set of image data files whose shooting point difference is equal to or greater than a threshold value is extracted, and each set of image data files The processing target data files are grouped so that a group boundary is set between the two. Thereafter, the process proceeds to step S80.
ステップS80では、類似性判定部104aは、さらに、上述したように、第2のグルーピングの結果、各第2のグループに含まれる画像データファイルに対して画像の傾向、すなわち画像の撮影シーンに基づく類似性を判定する。その後、ステップS90へ進み、グルーピング部104bは、撮影シーンの類似性が高い画像同士をまとめる第3のグルーピングを行って、ステップS100へ進む。
In step S80, as described above, the
ステップS100では、あらかじめ使用者によって設定された画像の並び順が撮影日時順か、あるいは撮影シーン順かを判断する。画像の並び順が撮影日時順に設定されている場合には、後述するステップS120へ進む。これに対して、画像の並び順が撮影シーン順に設定されている場合には、ステップS110へ進み、グルーピング部104bは、上述した第2のグループ内で、画像が上述した第3グループ単位に並ぶように画像の並べ替えを行って、ステップS120へ進む。 In step S100, it is determined whether the order of images set in advance by the user is the order of shooting date / time or the order of shooting scenes. If the image order is set in order of shooting date and time, the process proceeds to step S120 described later. On the other hand, when the image arrangement order is set to the shooting scene order, the process proceeds to step S110, and the grouping unit 104b arranges the images in the third group unit described above in the second group described above. The images are rearranged as described above, and the process proceeds to step S120.
ステップS120では、画像補正部104cは、上述したように、グルーピング部104bによって第3のグルーピングが行われた結果に基づいて、同一のグループに含まれる画像の画質のばらつきを低減するように各画像に対して画像処理を施す。その後、ステップS130へ進み、画像出力部104dは、グルーピング部104bで設定した並び順に従って補正済みの各画像データファイルの付加情報部に順番情報を追加する。そして画像出力部104dは、画像データファイルをHDD103に出力して記憶した後、モニタ105またはプリンタ106へ出力する。その後、処理を終了する。
In step S120, the
以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)画像の類似性を判定して、その類似性の判定結果に基づいて画像をグルーピングするようにした。そして、同じグループ内に含まれる画像の画質のばらつきを低減するように、各画像を補正するようにした。これによって、類似する画像間での画質のばらつきを低減して、同一グループ内に含まれる画像の画質に統一性をもたせることができる。
According to the present embodiment described above, the following operational effects can be obtained.
(1) Image similarity is determined, and images are grouped based on the similarity determination result. Then, each image is corrected so as to reduce the variation in the image quality of the images included in the same group. As a result, it is possible to reduce variations in image quality between similar images and to provide uniformity in the image quality of images included in the same group.
(2)画像をグルーピングするに当たっては、画像データファイルを撮影日時順に並び替えた後、この撮影日時の差分が所定の閾値未満である連続する画像は、類似性が高いものと判定するようにした。これによって、撮影日時の差分が閾値未満であれば、その2枚の画像は同一被写体を同一または類似する撮影条件で連続して撮影したものである可能性が高いことを加味して、精度高く画像の類似性を判定することができる。 (2) When grouping the images, after rearranging the image data files in order of shooting date and time, it is determined that consecutive images whose shooting date and time differences are less than a predetermined threshold have high similarity. . As a result, if the difference between the shooting dates and times is less than the threshold, the two images are highly accurate considering that there is a high possibility that the same subject was shot continuously under the same or similar shooting conditions. Image similarity can be determined.
(3)画像を撮影日時に基づいて第1のグルーピングを行った後、さらに画像を撮影した地点の位置情報、すなわち撮影地点情報に基づいて、第2のグルーピングを行うようにした。これによって、ほぼ同じ時刻に撮影された画像であったとしても、複数の撮影者が離れた地点で画像を撮影した場合には、それぞれの画像の類似性は低くなることから、第1のグループを撮影地点を加味してさらにグルーピングすることによって、ほぼ同じ時刻に、ほぼ同じ場所で撮影された画像を類似している可能性が高い画像として同一グループに含んだ、第2のグループに分類することができる。 (3) After the first grouping of the images based on the shooting date and time, the second grouping is further performed based on the position information of the spot where the image was shot, that is, the shooting spot information. As a result, even if the images were taken at approximately the same time, the similarity between the images would be low when a plurality of photographers took images at distant points. Are further grouped by taking the shooting point into consideration, so that images taken at substantially the same place at approximately the same time are classified into a second group that is included in the same group as images that are likely to be similar. be able to.
(4)第2のグルーピングの結果、各第2のグループに含まれる画像データファイルに対して、さらに画像の絵柄に基づいて撮影シーンの類似性を判定して、第3のグルーピングを行うようにした。これによって、ほぼ同じ時刻に、ほぼ同じ場所で撮影された画像であってとしても、撮影者が撮影方向を変えて撮影した複数の画像はそれぞれ類似性が低いものとなるが、さらに撮影シーンを加味してグルーピングすることによって、類似性の高い画像データファイルを精度高くグルーピングすることができる。 (4) As a result of the second grouping, the third grouping is performed on the image data files included in each second group by further determining the similarity of the shooting scenes based on the image pattern. did. As a result, even if the images were taken at almost the same place at almost the same time, the plurality of images taken by the photographer changing the shooting direction have low similarity. By grouping in consideration, image data files having high similarity can be grouped with high accuracy.
(5)グルーピングを実行して、グループ内に含まれる画像の画質のばらつきを低減するように各画像を補正した後、補正後の画像データファイルをHDD103へ出力して記憶するようにした。これによって、補正後の画像を繰り返し使用することができ、その都度、画像に対して類似性判定処理や補正処理を施す必要がないため、処理の負荷を低減することができる。
(5) After grouping is performed and each image is corrected so as to reduce the variation in image quality of the images included in the group, the corrected image data file is output to the
(6)グルーピングを実行して、グループ内に含まれる画像の画質のばらつきを低減するように各画像を補正した後、補正後の画像をモニタ105またはプリンタ106を介して出力するようにした。これによって、類似性の高い画像の画質のばらつきを低減して出力することができるため、使用者は違和感なく画像を閲覧することができる。
(6) After grouping is performed and each image is corrected so as to reduce variations in image quality of the images included in the group, the corrected image is output via the
(7)画像データファイルの並び順として撮影日時順と撮影シーン順とを選択可能にし、選択された画像の並び順で使用者に対して画像を出力するようにした。これによって、使用者は好みの出力順で画像を閲覧でき、使用者の利便性を向上することができる。 (7) As the arrangement order of the image data files, it is possible to select the shooting date order and the shooting scene order, and the images are output to the user in the selected image arrangement order. As a result, the user can view the images in the desired output order, and the convenience for the user can be improved.
―変形例―
なお、上述した実施の形態の画像管理装置は、以下のように変形することもできる。
(1)上述した実施の形態では、画像補正部104cは、各第3のグループ内の画像の画質のばらつきとして画像の明るさとコントラストのばらつきを低減するように画像を補正する例について説明した。しかしこれに限定されず、画像の色合いや彩度のばらつきを低減するように画像を補正してもよい。
-Modification-
The image management apparatus according to the above-described embodiment can be modified as follows.
(1) In the above-described embodiment, the example in which the
例えば、画像補正部104cは、彩度のばらつきを低減するために次のような彩度補正処理を実行する。なお、ここでは各画像データファイルはJpeg形式のデータファイル(Jpegファイル)に圧縮されており、各画像データファイル中の画像データ部には、YCbCr表色系で示される画像データが含まれている場合について説明する。
For example, the
この場合、画像補正部104cは、まず上述した実施の形態と同様に各第3のグループ内から基準画像を選択する。そして、選択した基準画像のJpegファイル中の全画素について、輝度色差信号、すなわち(Y、Cb、Cr)を抽出する。そして、基準画像のJpegファイル中の全画素について、(Cb2+Cr2)1/2を演算する。一般に、(Cb2+Cr2)1/2の値が大きいほど、彩度が高い色であると考えられることから、ここでは仮に(Cb2+Cr2)1/2を彩度を示す値として代用する。
In this case, the
そして、画像補正部104cは、基準画像の(Cb2+Cr2)1/2についてのヒストグラムを基準画像の彩度に関するヒストグラムとして作成する。また、画像補正部104cは、同様に補正対象画像についても(Cb2+Cr2)1/2を演算して、補正対象画像の彩度に関するヒストグラムを作成する。これによって、例えば図7に示すような基準画像の彩度に関するヒストグラム、および補正対象画像の彩度に関するヒストグラムが作成される。
Then, the
画像補正部104cは、算出した基準画像についての彩度に関するヒストグラムに基づいて、基準画像の(Cb2+Cr2)1/2の最頻度値S1を算出し、補正対象画像についての彩度に関するヒストグラムに基づいて、補正対象画像の(Cb2+Cr2)1/2の最頻度値S2を算出する。そして、算出したS1およびS2に基づいて、次式(6)により、補正対象画像の各画素のCr、Cbの値に掛けるゲインを算出する。
ゲイン=S1/S2 ・・・(6)
The
Gain = S1 / S2 (6)
画像補正部104cは、式(6)で算出したゲインを、補正対象画像の各画素のCr、Cbの値に掛ける。すなわち、Jpegファイルの各画素の(Y、Cb、Cr)を(Y、Cb×S1/S2、Cr×S1/S2)に変換する。そして、この変換後の値でJpegデータを更新する。これによって、上述した各第3のグループに含まれる補正対象画像の彩度を基準画像の彩度に近づけるように補正を行うことができ、各第3のグループに含まれる画像の彩度のばらつきを低減することができる。
The
(2)上述した実施の形態では、画像補正部104cは、グループ内の画像の画質のばらつきを低減するための基準画像として、第3のグループの先頭の画像、すなわち各グループ内で最も撮影日時が早い画像を選択する例について説明した。しかしこれに限定されず、処理対象画像が複数のカメラで撮像されたものである場合には、その中の任意の1台のカメラで撮像された画像を基準画像として選択してもよい。また、複数の画像データファイルがHDD103内にフォルダ分けされて記憶されている場合には、任意のフォルダ内に記憶されている画像を基準画像として選択してもよい。あるいはその他の方法により基準画像を設定してもよい。
(2) In the above-described embodiment, the
(3)上述した実施の形態では、画像管理装置100を例えばパソコンに適用する例について説明したが、これに限定されず、画像管理プログラムを実行することができる他の情報機器に適用することもできる。
(3) In the above-described embodiment, the example in which the
なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。 Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired.
100 画像管理装置、101 入力装置、102 外部インターフェース、103 HDD、104 制御装置、104a 類似性判定部、104b グルーピング部、104c 画像補正部、104d 画像出力部、105 モニタ、106 プリンタ
DESCRIPTION OF
Claims (11)
複数の画像の類似性を判定する類似性判定手順と、
前記類似性判定手順による判定結果に基づいて、前記複数の画像をグルーピングするグルーピング手順と、
前記グルーピング手順によるグルーピング結果に基づいて、同じグループに含まれる複数の画像の画質のばらつきを低減するように各画像を補正する補正手順と、
前記補正手順で補正した画像をデータファイルとして出力するファイル出力手順とを実行させるための画像管理プログラム。 On the computer,
A similarity determination procedure for determining the similarity of a plurality of images;
A grouping procedure for grouping the plurality of images based on a determination result by the similarity determination procedure;
A correction procedure for correcting each image so as to reduce variations in image quality of a plurality of images included in the same group based on the grouping result of the grouping procedure;
An image management program for executing a file output procedure for outputting an image corrected by the correction procedure as a data file.
前記補正手段は、画像の明るさのばらつきを低減するように画像を補正することを特徴とする画像管理プログラム。 The image management program according to claim 1,
The image management program, wherein the correction means corrects an image so as to reduce variations in brightness of the image.
前記補正手順は、画像の各色成分に同一の補正係数を掛け算することにより画像の明るさのばらつきを低減することを特徴とする画像管理プログラム。 The image management program according to claim 2,
An image management program characterized in that the correction procedure reduces variation in brightness of an image by multiplying each color component of the image by the same correction coefficient.
前記補正手順は、画像に階調補正処理を施すことにより画像の画質のばらつきを低減することを特徴とする画像管理プログラム。 The image management program according to claim 1,
An image management program characterized in that the correction procedure reduces gradation in image quality by performing gradation correction processing on an image.
前記補正手段は、画像に彩度補正処理を施すことにより画像の彩度のばらつきを低減することを特徴とする画像管理プログラム。 The image management program according to claim 1,
An image management program characterized in that the correction means reduces saturation variation of an image by performing saturation correction processing on the image.
前記グルーピング手順は、前記複数の画像を各画像の撮影日時に基づいてグルーピングすることを特徴とする画像管理プログラム。 The image management program according to claim 1,
The grouping procedure groups the plurality of images based on the shooting date and time of each image.
前記グルーピング手順は、前記複数の画像を各画像が撮影された地点の位置情報に基づいてグルーピングすることを特徴とする画像管理プログラム。 The image management program according to claim 1,
The image management program according to claim 1, wherein the grouping procedure groups the plurality of images based on position information of a point where each image is taken.
各画像の傾向を判断する傾向判断手順をさらに有し、
前記グルーピング手順は、前記傾向判断手順による判断結果に基づいて前記複数の画像をグルーピングすることを特徴とする画像管理プログラム。 The image management program according to claim 1,
A trend determination procedure for determining the trend of each image;
The grouping procedure groups the plurality of images based on a determination result by the tendency determination procedure.
前記傾向判断手順は、前記画像の傾向を画像における色の分布特性に基づいて判断することを特徴とする画像管理プログラム。 The image management program according to claim 8, wherein
The image management program characterized in that the tendency determination procedure determines the tendency of the image based on a color distribution characteristic in the image.
前記グルーピング手順によるグルーピング結果に基づいて、前記複数の画像の表示順序を決定する表示順序決定手順をさらに有することを特徴とする画像管理プログラム。 The image management program according to claim 1,
An image management program further comprising: a display order determination procedure for determining a display order of the plurality of images based on a grouping result obtained by the grouping procedure.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005365816A JP2007174015A (en) | 2005-12-20 | 2005-12-20 | Image management program and image management apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005365816A JP2007174015A (en) | 2005-12-20 | 2005-12-20 | Image management program and image management apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007174015A true JP2007174015A (en) | 2007-07-05 |
Family
ID=38300030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005365816A Pending JP2007174015A (en) | 2005-12-20 | 2005-12-20 | Image management program and image management apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007174015A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017028559A (en) * | 2015-07-24 | 2017-02-02 | 富士フイルム株式会社 | Image processing device, image processing method, program and recording medium |
JP2017228313A (en) * | 2017-09-07 | 2017-12-28 | 株式会社ニコン | Image processing program |
WO2018066344A1 (en) * | 2016-10-03 | 2018-04-12 | 富士フイルム株式会社 | Image processing device, image processing method and image processing program |
JP2020155907A (en) * | 2019-03-20 | 2020-09-24 | 株式会社朋栄 | Automatic color correction processing method and automatic color correction processing device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11331512A (en) * | 1998-05-12 | 1999-11-30 | Canon Inc | Device and method for processing image and computer readable memory |
JPH11352601A (en) * | 1998-06-10 | 1999-12-24 | Fuji Photo Film Co Ltd | Image processing method and device |
JP2001016599A (en) * | 1999-06-28 | 2001-01-19 | Fuji Photo Film Co Ltd | Pixel defect correction device, pixel defect detector and pixel defect detecting method |
JP2004236170A (en) * | 2003-01-31 | 2004-08-19 | Canon Inc | Image data processing method, image data processing apparatus and program, and storage medium |
-
2005
- 2005-12-20 JP JP2005365816A patent/JP2007174015A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11331512A (en) * | 1998-05-12 | 1999-11-30 | Canon Inc | Device and method for processing image and computer readable memory |
JPH11352601A (en) * | 1998-06-10 | 1999-12-24 | Fuji Photo Film Co Ltd | Image processing method and device |
JP2001016599A (en) * | 1999-06-28 | 2001-01-19 | Fuji Photo Film Co Ltd | Pixel defect correction device, pixel defect detector and pixel defect detecting method |
JP2004236170A (en) * | 2003-01-31 | 2004-08-19 | Canon Inc | Image data processing method, image data processing apparatus and program, and storage medium |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017028559A (en) * | 2015-07-24 | 2017-02-02 | 富士フイルム株式会社 | Image processing device, image processing method, program and recording medium |
WO2018066344A1 (en) * | 2016-10-03 | 2018-04-12 | 富士フイルム株式会社 | Image processing device, image processing method and image processing program |
JP2017228313A (en) * | 2017-09-07 | 2017-12-28 | 株式会社ニコン | Image processing program |
JP2020155907A (en) * | 2019-03-20 | 2020-09-24 | 株式会社朋栄 | Automatic color correction processing method and automatic color correction processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5398156B2 (en) | WHITE BALANCE CONTROL DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE | |
EP1839435B1 (en) | Digital image acquisition system with portrait mode | |
JP2008141740A (en) | Apparatus, method and program for photography | |
CN106982331B (en) | Camera and electronic apparatus | |
JP4328956B2 (en) | Method and apparatus for controlling digital camera | |
JP2007329619A (en) | Video signal processor, video signal processing method and video signal processing program | |
JP2003244620A (en) | Image processing method and apparatus, and program | |
JP2002305684A (en) | Imaging system and program | |
JP4104904B2 (en) | Image processing method, apparatus, and program | |
JP2007174015A (en) | Image management program and image management apparatus | |
JP4012079B2 (en) | Image processing apparatus, image processing method, and program | |
US20060221215A1 (en) | Image pickup apparatus and motion vector deciding method | |
JP4665731B2 (en) | Camera and image management program | |
US8102446B2 (en) | Image capturing system and image processing method for applying grayscale conversion to a video signal, and computer-readable recording medium having recorded thereon an image processing program for applying grayscale conversion to a video signal | |
JP5381498B2 (en) | Image processing apparatus, image processing program, and image processing method | |
JP4534750B2 (en) | Image processing apparatus and image processing program | |
JP4705146B2 (en) | Imaging apparatus and imaging method | |
JP2010041607A (en) | Image capturing apparatus, method of controlling the same and program | |
JP2017229025A (en) | Image processing apparatus, image processing method, and program | |
US8594371B2 (en) | Subject tracking device and camera | |
JP2009044243A (en) | Digital camera, and image processing system | |
JP4665802B2 (en) | Lightness correction processing apparatus and lightness correction determination method | |
JP5803873B2 (en) | Exposure device, exposure method, and program | |
JP5315634B2 (en) | Image processing apparatus and image processing method | |
JP4424028B2 (en) | Image coding method and image coding apparatus using imaging information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100316 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100513 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20100513 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100601 |