JP2007144641A - Image processing technique - Google Patents

Image processing technique Download PDF

Info

Publication number
JP2007144641A
JP2007144641A JP2005338495A JP2005338495A JP2007144641A JP 2007144641 A JP2007144641 A JP 2007144641A JP 2005338495 A JP2005338495 A JP 2005338495A JP 2005338495 A JP2005338495 A JP 2005338495A JP 2007144641 A JP2007144641 A JP 2007144641A
Authority
JP
Japan
Prior art keywords
images
image
similarity
flash
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005338495A
Other languages
Japanese (ja)
Other versions
JP2007144641A5 (en
JP4600256B2 (en
Inventor
Masashi Aiiso
政司 相磯
Ayahiro Nakajima
紋宏 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2005338495A priority Critical patent/JP4600256B2/en
Publication of JP2007144641A publication Critical patent/JP2007144641A/en
Publication of JP2007144641A5 publication Critical patent/JP2007144641A5/ja
Application granted granted Critical
Publication of JP4600256B2 publication Critical patent/JP4600256B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing technique which can properly perform the judgement for a similarity between images by taking a difference in the brightness between the images by the presence/absence of a flash under consideration. <P>SOLUTION: A printer 10 includes an image reading section 111, an image specifying section 112, a description amount extracting section 113, a similarity/non-similarity judging section 116, an image selecting section 117, and a printing control section 118. In this case, the image reading section 111 reads a plurality of images from a storage medium 810. The image specifying section 112 specifies two images from the plurality of images. The description amount extracting section 113 extracts description amounts indicating the descriptions of colors which constitute the images. The similarity/non-similarity judging section 116 judges the similarity of the two images based on the description amounts. The image selecting section 117 selects the images from among the plurality of images based on the judged similarity. The printing control section 118 performs a control for printing the selected images. The similarity/non-similarity judging section 116 judges the similarity by handling an approximate value which is approximate to the description amount within a range of estimated values, for which the description amount is estimated to vary depending on the absence of a flash, when it is judged that the presence/absence of the flash is related. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像同士の類似性を判断する画像処理技術に関する。   The present invention relates to an image processing technique for determining similarity between images.

複数の画像を取り扱う画像処理装置として、例えば、パーソナルコンピュータやデジタルスチルカメラなどの他、記憶媒体に記憶された画像を直接的に印刷可能な印刷装置(ダイレクトプリンタ)や、記憶媒体に記憶された画像を表示する画像表示装置(フォトビューワ)などがある。従来、これらの画像処理装置において、画像の管理,印刷,鑑賞などの利便性を向上させるため、画像同士の類似性を判断する画像処理技術が提案されている。下記特許文献1には、各画像のカラーヒストグラムに基づいて画像同士の類似性を判断する従来の画像処理技術が開示されている。   As an image processing apparatus that handles a plurality of images, for example, a personal computer or a digital still camera, a printing apparatus (direct printer) capable of directly printing an image stored in a storage medium, or a storage medium There are image display devices (photo viewers) that display images. Conventionally, in these image processing apparatuses, in order to improve convenience of image management, printing, viewing, and the like, an image processing technique for determining similarity between images has been proposed. Patent Document 1 below discloses a conventional image processing technique for determining the similarity between images based on the color histogram of each image.

特開2000−137722号公報JP 2000-137722 A

しかしながら、従来の画像処理技術では、各画像のカラーヒストグラムをそのまま比較して画像同士の類似性を判断するため、撮影時のフラッシュの有無によって
画像同士の明るさが大きく異なると、類似と判断すべき画像同士が非類似とされてしまう場合があった。例えば、露出の変更やフラッシュの有無など撮影条件を変えて連続して撮影された同一シーンの画像同士の場合には、そのような同一シーンの画像同士は類似と判断されるべきとの要望があるにも拘らず、従来の画像処理技術では、フラッシュの有無で画像間の明るさが大きく異なると、同一シーンの画像同士であっても非類似と判断されてしまう場合があった。
However, in the conventional image processing technology, the color histograms of the images are compared as they are to determine the similarity between the images. Therefore, if the brightness of the images varies greatly depending on the presence or absence of a flash at the time of shooting, the images are determined to be similar. In some cases, power images should be dissimilar. For example, in the case of images of the same scene taken continuously by changing shooting conditions such as exposure change or presence / absence of flash, there is a demand that such images of the same scene should be judged to be similar. Nevertheless, with the conventional image processing technique, if the brightness between images differs greatly depending on the presence or absence of a flash, even images in the same scene may be determined to be dissimilar.

本発明は、上記した課題を踏まえ、フラッシュの有無による画像同士の明るさの相違を考慮して画像同士の類似性の判断を適切に行うことができる画像処理技術を提供することを目的とする。   In view of the above-described problems, an object of the present invention is to provide an image processing technique capable of appropriately determining similarity between images in consideration of a difference in brightness between images depending on the presence or absence of a flash. .

上記した課題を解決するため、本発明の印刷装置は、記憶媒体に記憶された複数の画像のいくつかを印刷する印刷装置であって、複数の画像を記憶媒体から読み出す画像読出部と、読み出した複数の画像の中から二つの画像を特定する画像特定部と、画像を構成する色の特徴を示す特徴量を、特定された二つの画像の各々から抽出する特徴量抽出部と、抽出された二つの特徴量に基づいて二つの画像の類似性を判断する類似判断部と、判断された類似性に基づいて、複数の画像の中から画像を選択する画像選択部と、選択された画像を印刷する制御を行う印刷制御部とを備え、類似性判断部は、特定された二つの画像のうち一方がフラッシュ有りで撮影され他方がフラッシュ無しで撮影されたフラッシュ有無の関係にあるか否かを判定するフラッシュ判定部と、フラッシュ有無の関係にあると判定した場合に、二つの特徴量のうちの一方がフラッシュの有無によって変化すると想定される値の範囲内で特徴量の他方に近似する近似値を、該特徴量の一方として取り扱うことによって、類似性を判断する特徴量置換部とを備えることを特徴とする。これによって、フラッシュの有無が画像同士の類似性の判断に与える影響を軽減することができるため、画像同士の類似性の判断を適切に行うことができる。その結果、類似性に応じた画像の印刷を適切に実行することができる。   In order to solve the above-described problems, a printing apparatus of the present invention is a printing apparatus that prints some of a plurality of images stored in a storage medium, an image reading unit that reads the plurality of images from the storage medium, and a reading An image specifying unit that specifies two images from a plurality of images, a feature amount extracting unit that extracts a feature amount indicating a color feature constituting the image from each of the two specified images, and A similarity determination unit that determines the similarity between two images based on the two feature amounts, an image selection unit that selects an image from a plurality of images based on the determined similarity, and the selected image A similarity control unit that controls whether one of the two specified images is shot with a flash and the other is shot without a flash. To determine whether When determining that there is a flash presence / absence relationship with the flash determination unit, an approximate value that approximates the other of the feature amounts within a range of values in which one of the two feature amounts is assumed to change depending on the presence / absence of flash. , And a feature quantity replacement unit that determines similarity by treating the feature quantity as one of the feature quantities. This can reduce the influence of the presence or absence of flash on the determination of the similarity between images, so that the similarity between images can be determined appropriately. As a result, it is possible to appropriately execute image printing according to the similarity.

上述の印刷装置は、以下の形態を採ることもできる。例えば、特徴量の一方は、フラッシュ有りで撮影された画像から抽出された特徴量であっても良い。これによって、フラッシュ無しの特徴量がフラッシュ有りによって変化すると想定される値の想定誤差よりも、フラッシュ有りの特徴量がフラッシュ無しによって変化すると想定される値の想定誤差の方が小さいため、画像同士の類似性の判断をより一層適切に行うことができる。   The above-mentioned printing apparatus can also take the following forms. For example, one of the feature amounts may be a feature amount extracted from an image shot with a flash. As a result, the assumed error of the value that the feature value with flash is assumed to change with no flash is smaller than the assumed error with the value with which the feature value without flash is assumed to change with flash. The similarity can be judged more appropriately.

また、想定される値は、特徴量の一方によって示される色と同色であって明るさの異なる色についての特徴を示す値であっても良い。これによって、特徴量の一方として取り扱われる近似値を容易に算出することができる。   Further, the assumed value may be a value indicating a feature of a color that is the same color as that indicated by one of the feature amounts and has a different brightness. Thereby, an approximate value handled as one of the feature values can be easily calculated.

また、記憶媒体には、画像が撮影された際のフラッシュの有無を示すフラッシュ情報が画像毎に記憶されており、フラッシュ判定部は、フラッシュ情報に基づいてフラッシュ有無の関係にあるか否かを判定しても良い。これによって、フラッシュ有無の関係にあるか否かの判定を正確に行うことができる。なお、フラッシュ情報はExif規格の情報であっても良い。   The storage medium stores flash information indicating the presence or absence of a flash when an image is captured for each image, and the flash determination unit determines whether or not there is a flash presence or absence based on the flash information. You may judge. As a result, it is possible to accurately determine whether or not there is a flash presence / absence relationship. The flash information may be Exif standard information.

また、特徴量抽出部は、特定された二つの画像を複数のブロックにそれぞれ分割するブロック部と、複数のブロック毎の代表色を示すRGB値を特徴量として抽出するRGB抽出部とを備え、類似性判断部は、二つの画像間で対応する前記ブロックからそれぞれ抽出された二つの前記RGB値についてのRGBユークリッド空間上の距離に基づいて二つの画像の類似性を判断しても良い。これによって、各画像を構成する色の配置についての類似性に基づいて画像同士の類似性を判断することができる。   The feature amount extraction unit includes a block unit that divides the two specified images into a plurality of blocks, and an RGB extraction unit that extracts an RGB value indicating a representative color for each of the plurality of blocks as a feature amount. The similarity determination unit may determine the similarity between two images based on the distance in the RGB Euclidean space for the two RGB values respectively extracted from the corresponding blocks between the two images. Accordingly, it is possible to determine the similarity between images based on the similarity of the arrangement of colors constituting each image.

また、画像選択部は、判断された二つの画像の類似性に基づいて、複数の画像を、類似した画像毎のグループに分類する画像分類部と、分類されたグループ毎に該グループに含まれる画像の少なくとも一つを、選択された画像として選定する画像選定部とを備えても良い。これによって、記憶媒体に記憶された複数の画像のうち類似する画像が重複して印刷されてしまうことを防止することができる。   The image selection unit includes an image classification unit that classifies a plurality of images into groups for each similar image based on the determined similarity between the two images, and is included in the group for each classified group. An image selection unit that selects at least one of the images as the selected image may be provided. As a result, it is possible to prevent similar images from being printed repeatedly among a plurality of images stored in the storage medium.

また、複数の画像をグループ化する形態において、記憶媒体に記憶された複数の画像は、撮影された順序で一連に並ぶ画像であり、特定される二つの画像は、撮影された順序で隣り合う画像同士であっても良い。これによって、全ての画像同士の組み合わせについて類似性を判断する必要はなく、撮影された順序で隣り合う画像同士の類似性を判断することによって画像のグループ化を行うことができるため、グループ化の処理効率を向上させることができる。   Further, in a form in which a plurality of images are grouped, the plurality of images stored in the storage medium are images arranged in a series in the order of shooting, and the two specified images are adjacent in the order of shooting. It may be images. As a result, it is not necessary to determine the similarity for all the combinations of images, and the images can be grouped by determining the similarity between adjacent images in the order of shooting. Processing efficiency can be improved.

また、画像選択部は、判断された二つの画像の類似性に基づいて、特定された画像の一方に類似する画像を、複数の画像の中から検索する画像検索部と、検索された画像の少なくとも一つを、選択された画像として選定する画像選定部とを備えても良い。これによって、記憶媒体に記憶された複数の画像のうち特定の画像に類似する画像を印刷することができる。   Further, the image selection unit is configured to search an image similar to one of the identified images from a plurality of images based on the determined similarity between the two images, and an image search unit You may provide the image selection part which selects at least one as the selected image. Thus, an image similar to a specific image among a plurality of images stored in the storage medium can be printed.

また、更に、画像の明るさを示す評価値を、特定された二つの画像の各々から抽出する評価値抽出部と、抽出された評価値に基づいて、抽出された二つの特徴量の少なくとも一方を、二つの画像の明るさが近づく方向に補正する特徴量補正部とを備えても良い。これによって、画像間における画像全体の明るさの相違が画像同士の類似性の判断に与える影響を軽減することができるため、画像同士の類似性の判断をより一層適切に行うことができる。   Further, an evaluation value extraction unit that extracts an evaluation value indicating the brightness of the image from each of the two specified images, and at least one of the two feature amounts extracted based on the extracted evaluation value May be provided with a feature amount correction unit that corrects the two images in the direction in which the brightness approaches. This can reduce the influence of differences in the brightness of the entire image between images on the determination of similarity between images, so that the determination of similarity between images can be performed more appropriately.

また、評価値に基づいて特徴量を補正する形態において、記憶媒体には、画像が撮影された際の撮影条件が画像毎に記憶されており、評価値抽出部は、撮影条件に基づいて評価値を抽出しても良い。これによって、画像間における画像全体の明るさの相違が画像同士の類似性の判断に与える影響を、各画像の撮影条件に応じて軽減することができる。   Further, in the embodiment in which the feature amount is corrected based on the evaluation value, the shooting condition when the image is shot is stored for each image in the storage medium, and the evaluation value extraction unit evaluates based on the shooting condition. A value may be extracted. Thereby, the influence of the difference in the brightness of the entire image between the images on the determination of the similarity between the images can be reduced according to the photographing condition of each image.

また、撮影条件に基づいて評価値が抽出される形態において、撮影条件は、絞り値,シャッタスピード,ISO感度であり、評価値は、絞り値,シャッタスピード,ISO感度に基づく被写体の輝度を示す値であっても良い。これによって、画像間における画像全体の明るさの相違が画像同士の類似性の判断に与える影響を、各画像に写された被写体の輝度に基づいて軽減することができる。なお、撮影条件に基づいて評価値が抽出される形態において、撮影条件はExif規格の情報であっても良い。   In the form in which the evaluation value is extracted based on the shooting condition, the shooting condition is an aperture value, shutter speed, and ISO sensitivity, and the evaluation value indicates the luminance of the subject based on the aperture value, shutter speed, and ISO sensitivity. It may be a value. Thereby, the influence of the difference in the brightness of the entire image between the images on the determination of the similarity between the images can be reduced based on the luminance of the subject captured in each image. In the form in which the evaluation value is extracted based on the shooting condition, the shooting condition may be Exif standard information.

また、評価値に基づいて特徴量を補正する形態において、評価値抽出部は、画像自体の輝度に基づいて評価値を抽出しても良い。これによって、画像間における画像全体の明るさの相違が画像同士の類似性の判断に与える影響を、各画像自体の輝度に基づいて軽減することができる。なお、画像自体の輝度に基づいて評価値が抽出される形態において、評価値は、画像についての輝度の累積ヒストグラムに基づく輝度の度合であっても良い。   In the form in which the feature amount is corrected based on the evaluation value, the evaluation value extraction unit may extract the evaluation value based on the luminance of the image itself. As a result, it is possible to reduce the influence of the difference in the brightness of the entire image between the images on the determination of the similarity between the images based on the luminance of each image itself. In the form in which the evaluation value is extracted based on the luminance of the image itself, the evaluation value may be a degree of luminance based on a cumulative histogram of luminance for the image.

また、評価値に基づいて特徴量を補正する形態において、特徴量補正部は、抽出された評価値に基づいて、抽出された二つの特徴量の少なくとも一方を、画像が明るくなる方向で二つの画像の明るさが近づく方向に補正しても良い。これによって、常に画像が明るくなる方向、すなわち、特徴量が大きくなる方向に補正が行われるため、特徴量が取りうる最大値に予めクリッピングされている画像と、予めクリッピングされていない画像とを対等に比較することができる。   Further, in the embodiment in which the feature amount is corrected based on the evaluation value, the feature amount correction unit converts at least one of the two extracted feature amounts based on the extracted evaluation value in the direction in which the image becomes brighter. You may correct | amend in the direction which the brightness of an image approaches. As a result, correction is always performed in the direction in which the image is brightened, that is, in the direction in which the feature amount increases, so an image clipped in advance to the maximum value that the feature amount can take and an image not clipped in advance are equivalent. Can be compared.

また、画像が明るくなる方向で特徴量が補正される形態において、特徴量補正部は、補正された特徴量が、明るくなる方向の最大値を超える際に、その補正された特徴量を最大値に修正するクリッピング部を備えても良い。これによって、特徴量が取りうる最大値に予めクリッピングされている画像と、評価値による補正によって特徴量が最大値を超えてしまう画像とを対等に比較することができる。   Further, in the form in which the feature amount is corrected in the direction in which the image becomes brighter, the feature amount correction unit sets the corrected feature amount to the maximum value when the corrected feature amount exceeds the maximum value in the direction in which the image becomes brighter. A clipping unit for correction may be provided. As a result, an image clipped in advance to the maximum value that can be taken by the feature value and an image in which the feature value exceeds the maximum value due to the correction by the evaluation value can be compared with each other.

また、評価値に基づいて特徴量を補正する形態において、特徴量補正部は、抽出された評価値に基づいて、抽出された二つの特徴量の一方を、二つの画像の一方の明るさを他方の明るさに近づける方向に補正しても良い。これによって、評価値による特徴量の補正における処理効率を、二つの特徴量の両方を補正する場合よりも向上させることができる。   Further, in the embodiment in which the feature amount is corrected based on the evaluation value, the feature amount correction unit converts one of the two extracted feature amounts based on the extracted evaluation value, and one brightness of the two images. You may correct | amend in the direction close | similar to the other brightness. Thereby, it is possible to improve the processing efficiency in correcting the feature value by the evaluation value as compared with the case of correcting both of the two feature values.

また、評価値に基づいて特徴量を補正する形態において、特徴量抽出部は、特定された二つの画像を複数のブロックにそれぞれ分割するブロック部と、複数のブロック毎の代表色を示すRGB値を特徴量として抽出するRGB抽出部とを備え、特徴量補正部は、特徴量として抽出されたRGB値をガンマ補正するガンマ補正部と、ガンマ補正された特徴量を、抽出された評価値に基づいて、二つの画像の明るさが近づく方向にレベル補正する変換補正部と、レベル補正された特徴量を逆ガンマ補正する逆ガンマ補正部とを備えても良い。これによって、評価値に基づく特徴量の補正をより厳密に行うことができる。   Further, in the embodiment in which the feature amount is corrected based on the evaluation value, the feature amount extraction unit includes a block unit that divides each of the two specified images into a plurality of blocks, and an RGB value that represents a representative color for each of the plurality of blocks. And an RGB extraction unit that extracts the feature value as a feature amount. The feature amount correction unit includes a gamma correction unit that gamma-corrects the RGB value extracted as the feature amount, and the gamma-corrected feature amount as an extracted evaluation value. Based on this, a conversion correction unit that performs level correction in a direction in which the brightness of two images approaches and a reverse gamma correction unit that performs reverse gamma correction on the level-corrected feature amount may be provided. Thereby, the correction of the feature amount based on the evaluation value can be performed more strictly.

また、評価値に基づいて特徴量を補正する形態において、特徴量補正部は、抽出された二つの評価値の差が基準値未満である場合に、評価値に基づく特徴量の補正を禁止する補正禁止部を備えても良い。これによって、画像同士の明るさの相違が類似性の判断に影響を及ぼさない場合に、評価値による特徴量の補正を実行する必要がないため、画像同士の類似性の判断における処理効率を向上させることができる。   Further, in the embodiment in which the feature amount is corrected based on the evaluation value, the feature amount correction unit prohibits correction of the feature amount based on the evaluation value when the difference between the two extracted evaluation values is less than the reference value. A correction prohibition unit may be provided. As a result, when the difference in brightness between images does not affect the determination of similarity, it is not necessary to perform feature amount correction based on the evaluation value, thereby improving the processing efficiency in determining the similarity between images. Can be made.

また、上記した課題を解決するため、本発明の画像処理装置は、記憶媒体に記憶された複数の画像を処理する画像処理装置であって、複数の画像を前記記憶媒体から読み出す画像読出部と、読み出した複数の画像の中から二つの画像を特定する画像特定部と、画像を構成する色の特徴を示す特徴量を、特定された二つの画像の各々から抽出する特徴量抽出部と、抽出された二つの特徴量に基づいて二つの画像の類似性を判断する類似判断部とを備え、類似性判断部は、特定された二つの画像のうち一方がフラッシュ有りで撮影され他方がフラッシュ無しで撮影されたフラッシュ有無の関係にあるか否かを判定するフラッシュ判定部と、フラッシュ有無の関係にあると判定した場合に、二つの特徴量のうちの一方がフラッシュの有無によって変化すると想定される値の範囲内で特徴量の他方に近似する近似値を、該特徴量の一方として取り扱うことによって、類似性を判断する特徴量置換部とを備えることを特徴とする。これによって、フラッシュの有無が画像同士の類似性の判断に与える影響を軽減することができるため、画像同士の類似性の判断を適切に行うことができる。   In order to solve the above-described problem, an image processing apparatus according to the present invention is an image processing apparatus that processes a plurality of images stored in a storage medium, and an image reading unit that reads the plurality of images from the storage medium; An image specifying unit for specifying two images from the plurality of read images, a feature amount extracting unit for extracting a feature amount indicating a color feature constituting the image from each of the two specified images, A similarity determination unit that determines the similarity between the two images based on the two extracted feature quantities. The similarity determination unit captures one of the two specified images with a flash and the other flashes. A flash determination unit that determines whether there is a flash presence / absence relationship, and when it is determined that there is a flash presence / absence, one of the two feature quantities varies depending on the presence / absence of the flash. Then an approximate value which approximates to the other feature amounts within the range of assumed values, by treating as one of the characteristic amount, characterized by comprising a feature amount replacement section for determining similarity. This can reduce the influence of the presence or absence of flash on the determination of the similarity between images, so that the similarity between images can be determined appropriately.

上述の画像処理装置は、以下の形態を採ることもできる。例えば、上述の画像処理装置は、更に、判断された二つの画像の類似性に基づいて、複数の画像を、類似した画像毎のグループに分類する画像分類部を備えても良い。これによって、類似した画像毎のグループの分類精度を向上させることができる。   The above-mentioned image processing apparatus can also take the following forms. For example, the image processing apparatus described above may further include an image classification unit that classifies a plurality of images into groups for each similar image based on the determined similarity between the two images. As a result, the classification accuracy of groups for each similar image can be improved.

また、上述の画像処理装置は、更に、判断された二つの画像の類似性に基づいて、特定された画像の一方に類似する画像を、複数の画像の中から検索する画像検索部を備えても良い。これによって、類似する画像の検索精度を向上させることができる。   Further, the above-described image processing apparatus further includes an image search unit that searches an image similar to one of the specified images from a plurality of images based on the determined similarity between the two images. Also good. Thereby, the search accuracy of similar images can be improved.

また、本発明の形態は、印刷装置や画像処理装置の形態に限るものではなく、例えば、記憶媒体に記憶された複数の画像を取り扱う画像処理方法や、複数の画像を処理する機能をコンピュータに実現させるためのプログラムなどに適用することもできる。また、本発明は、前述の形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内において様々な形態で実施し得ることは勿論である。   Further, the form of the present invention is not limited to the form of a printing apparatus or an image processing apparatus. For example, an image processing method for handling a plurality of images stored in a storage medium and a function for processing a plurality of images in a computer. It can also be applied to a program for realizing it. Further, the present invention is not limited to the above-described embodiments, and it is needless to say that the present invention can be implemented in various forms without departing from the spirit of the present invention.

以上説明した本発明の構成および作用を一層明らかにするために、以下本発明を適用した画像処理技術について説明する。   In order to further clarify the configuration and operation of the present invention described above, an image processing technique to which the present invention is applied will be described below.

A.実施例:
A−1.印刷装置の構成:
図1は、印刷装置10の外観構成を示す斜視図である。図2は、主として印刷装置10の内部構成を示す説明図である。図1および図2に示す印刷装置10は、カラープリンタ,モノクロプリンタ,スキャナ,複写機などの各種機能を併せ持つ装置、いわゆる複合機である。印刷装置10は、これらの機能に加えて、印刷装置10に接続された記憶媒体に記憶されている画像を、印刷データに変換して直接的に印刷するダイレクト・プリント機能を有する。
A. Example:
A-1. Configuration of printing device:
FIG. 1 is a perspective view showing an external configuration of the printing apparatus 10. FIG. 2 is an explanatory diagram mainly showing the internal configuration of the printing apparatus 10. A printing apparatus 10 shown in FIGS. 1 and 2 is an apparatus having various functions such as a color printer, a monochrome printer, a scanner, and a copying machine, that is, a so-called multifunction machine. In addition to these functions, the printing apparatus 10 has a direct print function for converting an image stored in a storage medium connected to the printing apparatus 10 into print data and printing it directly.

印刷装置10は、印刷装置10の各部を制御するメイン制御部110と、普通紙や写真用紙,ハガキなどの印刷媒体900に印刷を行う印刷部120と、紙面上の画像を読み取ってデジタルデータに変換(スキャン、scan)するスキャナ部130と、フラッシュメモリを内蔵するメモリカードのような記憶媒体810にデータを読み書き可能なカードスロット140と、パーソナルコンピュータやデジタルスチルカメラ,デジタルビデオカメラなどの記憶媒体を内蔵する外部機器820とデータをやり取り可能な通信コネクタ150と、文字や画像を表示するディスプレイ部160と、印刷装置10のユーザからの指示入力を受け付ける入力ボタン部170とを備える。   The printing apparatus 10 includes a main control unit 110 that controls each unit of the printing apparatus 10, a printing unit 120 that performs printing on a printing medium 900 such as plain paper, photographic paper, and a postcard, and reads an image on a paper surface into digital data. A scanner unit 130 for conversion (scanning), a card slot 140 capable of reading and writing data to a storage medium 810 such as a memory card incorporating a flash memory, and a storage medium such as a personal computer, a digital still camera, and a digital video camera A communication connector 150 capable of exchanging data with an external device 820 having a built-in device, a display unit 160 that displays characters and images, and an input button unit 170 that receives an instruction input from a user of the printing apparatus 10.

印刷装置10のメイン制御部110は、カードスロット140に接続された記憶媒体810や通信コネクタ150に接続された外部機器820から複数の画像ファイル710を読み出す画像読出部111と、複数の画像ファイル710によって再生される複数の画像PIの中から類似性を判断するための二つの画像PIを特定する画像特定部112と、画像PIを構成する色の特徴を示す特徴量Fを抽出する特徴量抽出部113と、画像PIの明るさを示す評価値Lを抽出する評価値抽出部114と、評価値Lに基づいて特徴量Fを補正する特徴量補正部115と、特徴量Fに基づいて二つの画像PIの類似性を判断する類否判断部116と、判断された類似性に基づいて複数の画像PIの中から画像PIを選択する画像選択部117と、選択された画像PIを印刷する制御を行う印刷制御部118とを備える。   The main control unit 110 of the printing apparatus 10 includes an image reading unit 111 that reads a plurality of image files 710 from a storage medium 810 connected to the card slot 140 and an external device 820 connected to the communication connector 150, and a plurality of image files 710. The image specifying unit 112 that specifies two images PI for judging similarity from among a plurality of images PI reproduced by the above, and the feature amount extraction that extracts the feature amount F indicating the feature of the color constituting the image PI. Unit 113, an evaluation value extraction unit 114 that extracts an evaluation value L indicating the brightness of the image PI, a feature amount correction unit 115 that corrects the feature amount F based on the evaluation value L, and two based on the feature amount F A similarity determination unit 116 that determines the similarity of two images PI, an image selection unit 117 that selects an image PI from a plurality of images PI based on the determined similarity, and a selection And a print control unit 118 controls to print the image PI.

本実施例では、メイン制御部110は、セントラルプロセッシングユニット(Central Processing Unit、以下、CPUという),リードオンリメモリ(Read Only Memory、以下、ROMという),ランダムアクセスメモリ(Random Access Memory、以下、RAMという)などのハードウェアを備えたASIC(Application Specific Integrated Circuits)である。メイン制御部110の動作についての詳細は後述する。   In the present embodiment, the main control unit 110 includes a central processing unit (hereinafter referred to as CPU), a read only memory (hereinafter referred to as ROM), a random access memory (hereinafter referred to as ROM), and a RAM. ASIC (Application Specific Integrated Circuits) provided with hardware such as. Details of the operation of the main controller 110 will be described later.

印刷装置10の印刷部120は、図2に示すように、印刷媒体900に印刷インクを吐出する印刷ヘッドユニット210と、印刷ヘッドユニット210を搭載するキャリッジ200と、キャリッジ200を主走査方向に駆動するキャリッジ駆動部240と、印刷媒体900を搬送する印刷媒体搬送部250とを備える。印刷部120の印刷ヘッドユニット210は、ブラック,シアン,ライトシアン,マゼンダ,ライトマゼンダ,イエロの各色のインク毎に計6個のインク吐出ヘッド211〜216を有する。インク吐出ヘッド211〜216の各々は、ピエゾ素子(図示しない)の電圧調整によってインクを印刷媒体900に吐出する。印刷部120のインク吐出ヘッド211〜216,キャリッジ駆動部240,印刷媒体搬送部250の各々は、メイン制御部110の指示に基づいて協働することによって、印刷媒体900に対する印刷を実現する。   As shown in FIG. 2, the printing unit 120 of the printing apparatus 10 includes a print head unit 210 that discharges printing ink onto a print medium 900, a carriage 200 that mounts the print head unit 210, and drives the carriage 200 in the main scanning direction. A carriage drive unit 240 for transporting the print medium 900 and a print medium transport unit 250 for transporting the print medium 900. The print head unit 210 of the printing unit 120 includes a total of six ink ejection heads 211 to 216 for each color ink of black, cyan, light cyan, magenta, light magenta, and yellow. Each of the ink ejection heads 211 to 216 ejects ink onto the print medium 900 by adjusting the voltage of a piezo element (not shown). Each of the ink ejection heads 211 to 216, the carriage drive unit 240, and the print medium transport unit 250 of the printing unit 120 implements printing on the print medium 900 by cooperating based on an instruction from the main control unit 110.

図3は、画像ファイル710のデータ構造を模式的に示す説明図である。画像ファイル710の各々は、その画像ファイル710によって再生される画像PIが撮影された際の撮影条件を示す撮影条件データ7110と、その画像ファイル710によって再生される画像PIを示す画像データ7120とを有する。画像ファイル710の撮影条件データ7110は、撮影条件を示す情報として、その画像PIが撮影された撮影日時7112と、その画像PIが撮影された際の絞り値(F値)7114と、その画像PIが撮影された際のシャッタスピード7116と、その画像PIが撮影された際のISO感度7118と、その画像PIがフラッシュを用いて撮影されたか否かを示すフラッシュ情報7119とを有する。本実施例では、画像ファイル710は、デジタルスチルカメラで撮影された画像PIが記録されたExif規格のJPEGファイルである。   FIG. 3 is an explanatory diagram schematically showing the data structure of the image file 710. Each of the image files 710 includes shooting condition data 7110 indicating shooting conditions when the image PI played back by the image file 710 is shot, and image data 7120 indicating the image PI played back by the image file 710. Have. The shooting condition data 7110 of the image file 710 includes, as information indicating shooting conditions, a shooting date and time 7112 when the image PI was shot, an aperture value (F value) 7114 when the image PI was shot, and the image PI. Has a shutter speed 7116 when the image PI is photographed, ISO sensitivity 7118 when the image PI is photographed, and flash information 7119 indicating whether or not the image PI is photographed using a flash. In this embodiment, the image file 710 is an Exif standard JPEG file in which an image PI photographed by a digital still camera is recorded.

A−2.印刷装置の動作:
図4は、印刷装置10のメイン制御部110によって実行される画像印刷処理を示すフローチャートである。印刷装置10のメイン制御部110は、記憶媒体810や外部機器820がユーザによってカードスロット140や通信コネクタ150に取り付けられ、ダイレクト・プリント機能の実施要求がユーザによって入力ボタン部170を介して入力された際に、図4の画像印刷処理を開始する。
A-2. Printer behavior:
FIG. 4 is a flowchart showing image printing processing executed by the main control unit 110 of the printing apparatus 10. The main control unit 110 of the printing apparatus 10 includes a storage medium 810 and an external device 820 attached to the card slot 140 and the communication connector 150 by the user, and a request for executing the direct print function is input by the user via the input button unit 170. 4 starts the image printing process shown in FIG.

印刷装置10のメイン制御部110は、図4の画像印刷処理を開始すると、カードスロット140や通信コネクタ150に取り付けられている記憶媒体810や外部機器820から複数の画像ファイル710を読み出す(ステップS100)。その後、メイン制御部110は、読み出された複数の画像ファイル710から再生される複数の画像PIを類似した画像毎のグループに分類するため(ステップS150)、複数の画像PIの中から二つずつ順に特定する(ステップS110,S158)。   When starting the image printing process of FIG. 4, the main control unit 110 of the printing apparatus 10 reads a plurality of image files 710 from the storage medium 810 and the external device 820 attached to the card slot 140 and the communication connector 150 (step S100). ). Thereafter, the main control unit 110 classifies the plurality of images PI reproduced from the plurality of read image files 710 into groups for each similar image (step S150). It identifies in order (steps S110 and S158).

図5は、図4の画像印刷処理において二つの画像PIが特定される様子(ステップS110)を示す説明図である。本実施例では、メイン制御部110は、撮影された順序で一連に並ぶ複数の画像PIから、撮影された順序で隣り合う画像PI同士を先頭の画像PIから順に一つずつずらして特定する(ステップS110)。つまり、特定された二つの画像PIのうち後で撮影された第2の画像PIは、次に二つの画像PIが特定される際に、その二つの画像PIのうち先に撮影された第1の画像PIとして特定される。   FIG. 5 is an explanatory diagram showing how two images PI are specified in the image printing process of FIG. 4 (step S110). In the present embodiment, the main control unit 110 specifies a plurality of images PI that are arranged in a sequence in the order in which the images were captured, by shifting the images PI that are adjacent in the order in which the images were captured one by one from the top image PI. Step S110). That is, the second image PI captured later among the two specified images PI is the first image captured first among the two images PI when the two images PI are specified next. Specified as an image PI.

図4の説明に戻り、二つの画像PIが特定された後(ステップS110)、メイン制御部110は、画像PIの明るさを示す評価値Lを、特定された二つの画像PIの各々から抽出する評価値抽出処理を実行する(ステップS120)。   Returning to the description of FIG. 4, after the two images PI are identified (step S <b> 110), the main control unit 110 extracts an evaluation value L indicating the brightness of the image PI from each of the identified two images PI. An evaluation value extraction process is executed (step S120).

図6は、評価値抽出処理(ステップS120)を示すフローチャートである。メイン制御部110は、図6の評価値抽出処理を開始すると、二つの画像PIを記録した画像ファイル710の各々から、撮影条件として、絞り値7114,シャッタスピード7116,ISO感度7118を読み出す(ステップS1202)。その後、メイン制御部110は、読み出された絞り値7114,シャッタスピード7116,ISO感度7118に基づく被写体の輝度を評価値Lとして算出する(ステップS1204)。本実施例では、メイン制御部110は、次の数式1を用いて、絞り値7114,シャッタスピード7116,ISO感度7118の各々をAPEX単位系に変換した後、次の数式2を用いて、これら変換された値から評価値Lを算出する。   FIG. 6 is a flowchart showing the evaluation value extraction process (step S120). When the evaluation value extraction process of FIG. 6 is started, the main control unit 110 reads out the aperture value 7114, the shutter speed 7116, and the ISO sensitivity 7118 as the shooting conditions from each of the image files 710 in which the two images PI are recorded (step) S1202). Thereafter, the main control unit 110 calculates the luminance of the subject based on the read aperture value 7114, shutter speed 7116, and ISO sensitivity 7118 as the evaluation value L (step S1204). In this embodiment, the main control unit 110 converts each of the aperture value 7114, the shutter speed 7116, and the ISO sensitivity 7118 into the APEX unit system using the following formula 1, and then uses the following formula 2 to An evaluation value L is calculated from the converted value.

Figure 2007144641
Figure 2007144641

Figure 2007144641
Figure 2007144641

ここで、数式2で算出された評価値Lは、その値が「1」小さくなると、画像PIの被写体が二倍の明るさで撮影されることを意味する。以下の説明では、抽出された二つの評価値Lのうち、その値が小さい方を評価値Ltと表記し、その値が大きい方を評価値Lcと表記し、特定された二つの画像PIのうち、明るい方すなわち評価値Ltが抽出された方を画像TIと表記し、暗い方すなわち評価値Lcが抽出された方を画像CIと表記する。   Here, the evaluation value L calculated by Expression 2 means that when the value is reduced by “1”, the subject of the image PI is photographed with double brightness. In the following description, of the two extracted evaluation values L, the smaller one is expressed as an evaluation value Lt, and the larger one is expressed as an evaluation value Lc. Among them, the brighter side, that is, the one from which the evaluation value Lt is extracted is denoted as an image TI, and the darker side, that is, the one from which the evaluation value Lc is extracted is denoted as an image CI.

図4の説明に戻り、評価値Lt,Lcが抽出された後(ステップS120)、メイン制御部110は、画像PIを構成する色の特徴を示す特徴量Fを、特定された二つの画像TI,CIの各々から抽出する特徴量抽出処理を実行する(ステップS130)。以下の説明では、抽出された二つの特徴量Fのうち、画像TIから抽出された方を特徴量Ftと表記し、画像CIから抽出された方を特徴量Fcと表記する。   Returning to the description of FIG. 4, after the evaluation values Lt and Lc are extracted (step S120), the main control unit 110 determines the feature amount F indicating the color feature constituting the image PI as the two identified images TI. , CI is extracted from each of the CIs (step S130). In the following description, of the two extracted feature values F, the one extracted from the image TI is expressed as a feature value Ft, and the one extracted from the image CI is expressed as a feature value Fc.

図7は、特徴量抽出処理(ステップS130)を示すフローチャートである。メイン制御部110は、図7の特徴量抽出処理を開始すると、特定された二つの画像TI,CIを複数のブロックにそれぞれ分割し(ステップS1302)、分割された個々のブロック内で基調となる色である代表色を特徴量Ft,Fcとして抽出する(ステップS1304)。   FIG. 7 is a flowchart showing the feature amount extraction processing (step S130). When starting the feature amount extraction processing of FIG. 7, the main control unit 110 divides each of the two specified images TI and CI into a plurality of blocks (step S1302), and becomes a key in each of the divided blocks. A representative color that is a color is extracted as feature amounts Ft and Fc (step S1304).

図8は、図7の特徴量抽出処理(ステップS130)の様子を示す説明図である。図8の左側には、画像CIから特徴量Fcを抽出する様子が示され、図8の右側には、画像TIから特徴量Ftを抽出する様子が示されている。本実施例では、メイン制御部110は、二つの画像TI,CIの各々を3行4列のブロックに分割し、その結果、二つの画像TI,CIの各々は、ブロックB1〜B12の合計12個のブロックに分割される(ステップS1302)。本実施例では、メイン制御部110は、二つの画像TI,CIの各々のブロックB1〜B12の代表色を赤(R),緑(G),青(B)を組み合わせて表現するRGB値を、特徴量Ft,Fcとして抽出する(ステップS1304)。抽出された特徴量Ft,Fcは、次の数式3を用いて表される。   FIG. 8 is an explanatory diagram showing the feature amount extraction process (step S130) of FIG. The left side of FIG. 8 shows how the feature quantity Fc is extracted from the image CI, and the right side of FIG. 8 shows how the feature quantity Ft is extracted from the image TI. In this embodiment, the main control unit 110 divides each of the two images TI and CI into blocks of 3 rows and 4 columns. As a result, each of the two images TI and CI has a total of 12 blocks B1 to B12. It is divided into blocks (step S1302). In the present embodiment, the main control unit 110 represents RGB values representing the representative colors of the blocks B1 to B12 of the two images TI and CI by combining red (R), green (G), and blue (B). Are extracted as feature amounts Ft and Fc (step S1304). The extracted feature amounts Ft and Fc are expressed using the following Equation 3.

Figure 2007144641
Figure 2007144641

ここで、RGB値(Rti,Gti,Bti)は、画像TIの「i」番目のブロックBiの代表色を示し、RGB値(Rci,Gci,Bci)は、画像CIの「i」番目のブロックBiの代表色を示す。つまり、数式3における「n」の値は、分割されたブロックの総数であり、図8に示す例では、「n=12」である。本実施例では、赤の値を示すRti、緑の値を示すGti、青の値を示すBtiの各々は、「0」から「255」の値をとる。   Here, the RGB value (Rti, Gti, Bti) represents the representative color of the “i” -th block Bi of the image TI, and the RGB value (Rci, Gci, Bci) represents the “i” -th block of the image CI. The representative color of Bi is shown. That is, the value of “n” in Equation 3 is the total number of divided blocks, and “n = 12” in the example shown in FIG. In this embodiment, Rti indicating a red value, Gti indicating a green value, and Bti indicating a blue value each take a value from “0” to “255”.

図4の説明に戻り、特徴量Ft,Fcが抽出された後(ステップS130)、メイン制御部110は、二つの画像TI,CIのうち暗い方の画像CIから抽出された特徴量Fcを、二つの画像TI,CIから抽出された評価値Lt,Lcに基づいて補正するために、特徴量補正処理を実行する(ステップS140)。   Returning to the description of FIG. 4, after the feature amounts Ft and Fc are extracted (step S130), the main control unit 110 extracts the feature amount Fc extracted from the darker image CI of the two images TI and CI. In order to perform correction based on the evaluation values Lt and Lc extracted from the two images TI and CI, a feature amount correction process is executed (step S140).

図9は、特徴量補正処理(ステップS140)を示すフローチャートである。メイン制御部110は、図9の特徴量補正処理を開始すると、評価値Ltと評価値Lcとの差であるΔLの値が基準値Tkより小さいか否かを判断する(ステップS1401)。ΔLは、次の数式4で表される。なお、本実施例では、明るい方の画像TIの評価値Ltよりも、暗い方の画像CIの評価値Lcの方が大きな値であるため、「Lt−Lc」の値は負となる。   FIG. 9 is a flowchart showing the feature amount correction process (step S140). When starting the feature amount correction processing of FIG. 9, the main control unit 110 determines whether or not the value of ΔL, which is the difference between the evaluation value Lt and the evaluation value Lc, is smaller than the reference value Tk (step S1401). ΔL is expressed by the following Equation 4. In this embodiment, since the evaluation value Lc of the darker image CI is larger than the evaluation value Lt of the brighter image TI, the value of “Lt−Lc” is negative.

Figure 2007144641
Figure 2007144641

ΔLの値が基準値Tkより小さい場合には(ステップS1401)、メイン制御部110は、特徴量Fcを補正することなしに、図9の特徴量補正処理を終了する。   When the value of ΔL is smaller than the reference value Tk (step S1401), the main control unit 110 ends the feature amount correction process of FIG. 9 without correcting the feature amount Fc.

一方、ΔLの値が基準値Tk以上である場合には(ステップS1401)、メイン制御部110は、評価値Lt,Lcに基づいて補正値Kを算出する(ステップS1402)。補正値Kは、次の数式5で表される。   On the other hand, when the value of ΔL is equal to or greater than the reference value Tk (step S1401), the main control unit 110 calculates the correction value K based on the evaluation values Lt and Lc (step S1402). The correction value K is expressed by the following formula 5.

Figure 2007144641
Figure 2007144641

補正値Kが算出された後(ステップS1402)、メイン制御部110は、次の数式6を用いて、特徴量Fcの各RGB値(Rti,Gti,Bti)をガンマ補正する(ステップS1404)。なお、ガンマ補正に用いるガンマ値γは、画像CIの画像ファイル710に含まれる値であっても良いし、予め設定された値であっても良い。   After the correction value K is calculated (step S1402), the main control unit 110 gamma-corrects each RGB value (Rti, Gti, Bti) of the feature amount Fc using the following formula 6 (step S1404). The gamma value γ used for gamma correction may be a value included in the image file 710 of the image CI, or may be a preset value.

Figure 2007144641
Figure 2007144641

特徴量Fcがガンマ補正された後(ステップS1404)、メイン制御部110は、数式6で算出された値(Rci’,Gci’,Bci’)を、次の数式7を用いて補正値Kに基づいてレベル補正する(ステップS1405)。   After the feature value Fc is gamma-corrected (step S1404), the main control unit 110 converts the values (Rci ′, Gci ′, Bci ′) calculated by Expression 6 into correction values K using Expression 7 below. Based on this, level correction is performed (step S1405).

Figure 2007144641
Figure 2007144641

特徴量Fcがレベル補正された後(ステップS1405)、メイン制御部110は、数式7で算出された値(Rci’’,Gci’’,Bci’’)を、次の数式8を用いて逆ガンマ補正する(ステップS1406)。なお、数式8におけるガンマ値γは、数式5におけるガンマ値γと同じ値である。   After the level of the feature amount Fc is corrected (step S1405), the main control unit 110 reverses the values (Rci ″, Gci ″, Bci ″) calculated by Expression 7 using the following Expression 8. Gamma correction is performed (step S1406). Note that the gamma value γ in Expression 8 is the same value as the gamma value γ in Expression 5.

Figure 2007144641
Figure 2007144641

特徴量Fcが逆ガンマ補正された後(ステップS1406)、メイン制御部110は、補正値Kで補正された特徴量Fcの値が最大値を超過するか否か、すなわち、数式8で算出された値Rci’’’,Gci’’’,Bci’’’の少なくとも一つが最大値「255」を超過するか否かを判断する(ステップS1408)。補正された特徴量Fcの値が最大値を超過する場合には(ステップS1408)、メイン制御部110は、最大値「255」を超えた値を「255」に修正(クリッピング)して、図9の特徴量補正処理を終了する。補正された特徴量Fcの値が最大値を超過しない場合には(ステップS1408)、メイン制御部110は、そのまま図9の特徴量補正処理を終了する。   After the feature value Fc is subjected to inverse gamma correction (step S1406), the main control unit 110 calculates whether or not the value of the feature value Fc corrected with the correction value K exceeds the maximum value, that is, Expression 8. It is determined whether at least one of the obtained values Rci ′ ″, Gci ′ ″, and Bci ′ ″ exceeds the maximum value “255” (step S1408). When the corrected feature value Fc exceeds the maximum value (step S1408), the main control unit 110 corrects (clipping) the value exceeding the maximum value “255” to “255”. The feature amount correction process 9 is ended. When the corrected feature value Fc does not exceed the maximum value (step S1408), the main control unit 110 ends the feature value correction process of FIG. 9 as it is.

図4の説明に戻り、特徴量Fcがレベル補正された後(ステップS140)、メイン制御部110は、二つの画像TI,CIを類似する画像毎のグループに分類する類否判断処理を実行する(ステップS150)。   Returning to the description of FIG. 4, after the feature amount Fc is level-corrected (step S <b> 140), the main control unit 110 executes similarity determination processing for classifying the two images TI and CI into groups of similar images. (Step S150).

図10は、類否判断処理(ステップS150)を示すフローチャートである。メイン制御部110は、図10の類否判断処理を開始すると、二つの画像PIを記録した画像ファイル710の各々からフラッシュ情報7119を読み出し(ステップS1505)、読み出した各フラッシュ情報7119に基づいて、二つの画像TI,CIのうち一方がフラッシュ有りで撮影され他方がフラッシュ無しで撮影されたフラッシュ有無の関係にあるか否かを判断する(ステップS1510)。   FIG. 10 is a flowchart showing the similarity determination process (step S150). When starting the similarity determination process of FIG. 10, the main control unit 110 reads the flash information 7119 from each of the image files 710 in which the two images PI are recorded (step S1505), and based on each read flash information 7119, It is determined whether one of the two images TI and CI is photographed with a flash and the other is photographed without a flash (step S1510).

二つの画像TI,CIがフラッシュ有無の関係ではないと判断されると(ステップS1510)、メイン制御部110は、二つの画像TI,CIの類似度合を判断する指標である特徴量距離Dを、次の数式9を用いて算出する(ステップS1520)。   If it is determined that the two images TI and CI are not in the presence / absence of flash (step S1510), the main control unit 110 sets the feature amount distance D, which is an index for determining the degree of similarity between the two images TI and CI. It calculates using the following numerical formula 9 (step S1520).

Figure 2007144641
Figure 2007144641

数式9における「di」は、RGBユークリッド空間における特徴量Ftと特徴量Fcとの間の距離を表す。本実施例では、数式9における「s」の値は、「3×322」である。 “Di” in Expression 9 represents a distance between the feature value Ft and the feature value Fc in the RGB Euclidean space. In this embodiment, the value of “s” in Equation 9 is “3 × 32 2 ”.

特徴量距離Dが算出された後(ステップS1520)、メイン制御部110は、特徴量距離Dが基準値Td以下である場合(ステップS1522)には、二つの画像TI,CIが類似であると判断し(ステップS1524)、一方、特徴量距離Dが基準値Tdより大きい場合(ステップS1522)には、二つの画像TI,CIが非類似であると判断する(ステップS1526)。   After the feature amount distance D is calculated (step S1520), the main control unit 110 determines that the two images TI and CI are similar when the feature amount distance D is equal to or less than the reference value Td (step S1522). On the other hand, when the feature amount distance D is larger than the reference value Td (step S1522), it is determined that the two images TI and CI are dissimilar (step S1526).

一方、二つの画像TI,CIがフラッシュ有無の関係にあると判断されると(ステップS1510)、メイン制御部110は、二つの画像TI,CIの類似度合を判断する指標である特徴量距離D’を、次の数式10を用いて算出する(ステップS1530)。   On the other hand, when it is determined that the two images TI and CI have a flash presence / absence relationship (step S1510), the main control unit 110 determines a feature amount distance D that is an index for determining the degree of similarity between the two images TI and CI. 'Is calculated using the following Equation 10 (step S1530).

Figure 2007144641
Figure 2007144641

数式10における「di」は、画像TIがフラッシュ無しで撮影された場合に特徴量Ftが変化すると想定される想定値Fsiの範囲内で特徴量Fcに近似する近似値Fapxと、特徴量Fcとの間の距離を表す。特徴量距離D’の詳細については後述する。本実施例では、数式10における「s」の値は、数式9における「s」の値と同じ「3×322」である。 “Di” in Expression 10 represents an approximate value Fapx that approximates the feature value Fc within the range of an assumed value Fsi that is assumed to change the feature value Ft when the image TI is captured without a flash, and a feature value Fc. Represents the distance between. Details of the feature distance D ′ will be described later. In this embodiment, the value of “s” in Equation 10 is “3 × 32 2 ”, which is the same as the value of “s” in Equation 9.

特徴量距離D’が算出された後(ステップS1530)、メイン制御部110は、特徴量距離D’が基準値Td’以下である場合(ステップS1532)には、二つの画像TI,CIが類似であると判断し(ステップS1534)、一方、特徴量距離D’が基準値Td’より大きい場合(ステップS1532)には、二つの画像TI,CIが非類似であると判断する(ステップS1536)。本実施例では、特徴量距離Dを判定するための基準値Tdと、特徴量距離D’を判定するための基準値Td’とは、異なる閾値が設定されている。   After the feature amount distance D ′ is calculated (step S1530), the main control unit 110 determines that the two images TI and CI are similar when the feature amount distance D ′ is equal to or smaller than the reference value Td ′ (step S1532). On the other hand, if the feature distance D ′ is larger than the reference value Td ′ (step S1532), it is determined that the two images TI and CI are dissimilar (step S1536). . In the present embodiment, different threshold values are set for the reference value Td for determining the feature amount distance D and the reference value Td 'for determining the feature amount distance D'.

ここで、数式10の特徴量距離D’の詳細について説明する。図11は、RGBユークリッド空間において特徴量Ftが変化すると想定される想定値Fsiの範囲を示す説明図である。図11には、赤色成分の値を示すR軸と、緑色成分の値を示すG軸と、青色成分の値を示すB軸とから成る三次元のRGBユークリッド空間が示されている。本実施例では、フラッシュの有無によって被写体自体の色は変わらず、フラッシュによって被写体が明るく撮影されるものとして、想定値Fsiが想定される。すなわち、特徴量Fti(Rti,Gti,Bti)と、想定値Fsi(Rsi,Gsi,Bsi)との関係は、次の数式11,12の関係を有するものと仮定する。   Here, the details of the feature amount distance D ′ in Expression 10 will be described. FIG. 11 is an explanatory diagram showing a range of an assumed value Fsi that is assumed to change the feature amount Ft in the RGB Euclidean space. FIG. 11 shows a three-dimensional RGB Euclidean space including an R axis indicating the red component value, a G axis indicating the green component value, and a B axis indicating the blue component value. In the present embodiment, the assumed value Fsi is assumed that the subject itself does not change in color depending on the presence or absence of the flash, and the subject is brightly photographed by the flash. That is, the relationship between the feature amount Fti (Rti, Gti, Bti) and the assumed value Fsi (Rsi, Gsi, Bsi) is assumed to have the relationship of the following formulas 11 and 12.

Figure 2007144641
Figure 2007144641

Figure 2007144641
Figure 2007144641

したがって、想定値Fsiは、図11に示すように、RGBユークリッド空間における特徴量Ftiと原点とを結ぶ直線Lti上に位置する値となる。   Therefore, as shown in FIG. 11, the assumed value Fsi is a value located on a straight line Lti that connects the feature amount Fti and the origin in the RGB Euclidean space.

図12は、数式10における「Rti≧RciかつGti≧GciかつBti≧Bci」を満たす場合の距離|di|を示す説明図である。「Rti≧RciかつGti≧GciかつBti≧Bci」を満たす場合には、距離|di|は、直線Lti上の想定値Fsiのうち特徴量Fciに最も近似する近似値Fapxと、特徴量Fciとの間の距離である。すなわち、この場合の近似値Fapxは、RGBユークリッド空間において、特徴量Fciから直線Ltiに下ろした垂線が直線Fciと交わる点である。   FIG. 12 is an explanatory diagram showing the distance | di | in the case where “Rti ≧ Rci and Gti ≧ Gci and Bti ≧ Bci” in Expression 10 is satisfied. In a case where “Rti ≧ Rci and Gti ≧ Gci and Bti ≧ Bci” is satisfied, the distance | di | Is the distance between. That is, the approximate value Fapx in this case is a point where a perpendicular line drawn from the feature amount Fci to the straight line Lti intersects the straight line Fci in the RGB Euclidean space.

図13は、数式10における「Rti≧RciかつGti≧GciかつBti≧Bci」を満たさない場合の距離|di|を示す説明図である。「Rti≧RciかつGti≧GciかつBti≧Bci」を満たさない場合には、距離|di|は、数式9の場合と同様に、RGBユークリッド空間における特徴量Ftiと特徴量Fciとの距離である。すなわち、この場合の近似値Fapxは、特徴量Ftiと同じ値である。   FIG. 13 is an explanatory diagram showing a distance | di | in a case where “Rti ≧ Rci and Gti ≧ Gci and Bti ≧ Bci” in Expression 10 is not satisfied. When “Rti ≧ Rci and Gti ≧ Gci and Bti ≧ Bci” are not satisfied, the distance | di | is the distance between the feature amount Fti and the feature amount Fci in the RGB Euclidean space, as in the case of Expression 9. . That is, the approximate value Fapx in this case is the same value as the feature amount Fti.

本実施例のようにフラッシュ有りの特徴量Ftを基準にして求められた近似値Fapxに基づいて特徴量距離D’が算出されることが望ましいが、フラッシュ無しの特徴量Fcを基準にして求められた近似値Fapxに基づいて特徴量距離D’が算出されることとしても良い。フラッシュ有りの特徴量Ftを基準にした場合には、フラッシュ無しの特徴量Fcを基準にした場合よりも近似値Fapxの誤差を小さくすることができる。図14は、近似値Fapxの誤差を示す説明図である。図14には、R軸とG軸とからなる二次元のユークリッド空間上に、フラッシュ有りの特徴量Ftの誤差Eftと、フラッシュ無しの特徴量Fcの誤差Efcとが示されている。図14に示す通り、フラッシュ有りの誤差Eftとフラッシュ無しの誤差Efcとが同じ大きさであっても、フラッシュ有り基準の近似値Fapxの誤差である近似値誤差Eatが、フラッシュ無し基準の近似値Fapxの誤差である近似値誤差Eacよりも小さくなる。なお、図14では、説明を簡単にするため、R軸とG軸とからなる二次元のユークリッド空間が示されているが、三次元のユークリッド空間においても同様である。   Although it is desirable that the feature amount distance D ′ is calculated based on the approximate value Fapx obtained on the basis of the feature amount Ft with flash as in the present embodiment, it is obtained on the basis of the feature amount Fc without flash. The feature amount distance D ′ may be calculated based on the obtained approximate value Fapx. When the feature amount Ft with flash is used as a reference, the error of the approximate value Fapx can be made smaller than when the feature amount Fc without flash is used as a reference. FIG. 14 is an explanatory diagram showing an error of the approximate value Fapx. FIG. 14 shows the error Eft of the feature amount Ft with flash and the error Efc of the feature amount Fc without flash on a two-dimensional Euclidean space composed of the R axis and the G axis. As shown in FIG. 14, even if the error Eft with flash and the error Efc without flash are the same size, the approximate value error Eat, which is the error of the approximate value Fapx with the flash reference, is the approximate value with the non-flash reference. It becomes smaller than the approximate value error Eac which is an error of Fapx. In FIG. 14, a two-dimensional Euclidean space composed of an R axis and a G axis is shown for simplicity of explanation, but the same applies to a three-dimensional Euclidean space.

図4の説明に戻り、二つの画像TI,CIの類似性が判断された後(ステップS150)、メイン制御部110は、二つの画像TI,CIが類似である場合(ステップS152)には、二つの画像TI,CIを同一グループに分類し(ステップS154)、一方、二つの画像TI,CIが非類似である場合(ステップS152)には、二つの画像TI,CIをそれぞれ別のグループに分類する(ステップS156)。   Returning to the description of FIG. 4, after the similarity between the two images TI and CI is determined (step S150), the main control unit 110, when the two images TI and CI are similar (step S152), The two images TI and CI are classified into the same group (step S154). On the other hand, if the two images TI and CI are dissimilar (step S152), the two images TI and CI are put into different groups, respectively. Classification is performed (step S156).

図15は、図4における複数の画像PIのグループ化の様子(ステップS152,S154,S156)を示す説明図である。本実施例では、撮影された順序で隣り合う画像PI同士について順に類似性が判断されるため、グループ毎の画像は撮影された順序で連続し、非類似と判断された画像PI同士間がグループ間の境目となる。図11に示す例では、左側から撮影順に並ぶ複数の画像PIのうち、左側から1番目から3番目までの画像PIは類似と判断され、3番目と4番目とは非類似と判断され、4番目および5番目の画像PIは類似と判断された様子が示されている。その結果、図11に示す例では、1番目から3番目までの画像PIはグループG1に分類され、4番目および5番目の画像PIはグループG2に分類される。   FIG. 15 is an explanatory diagram showing how the plurality of images PI in FIG. 4 are grouped (steps S152, S154, S156). In this embodiment, the similarity is sequentially determined for the images PI that are adjacent to each other in the order in which the images were taken. Therefore, the images for each group are consecutive in the order in which the images were taken. It becomes a boundary between them. In the example shown in FIG. 11, among the plurality of images PI arranged in the shooting order from the left, the first to third images PI from the left are determined to be similar, and the third and fourth are determined to be dissimilar. The state in which the th and fifth images PI are determined to be similar is shown. As a result, in the example shown in FIG. 11, the first to third images PI are classified into the group G1, and the fourth and fifth images PI are classified into the group G2.

図4の説明に戻り、全ての画像についてグループ化した後(ステップS158)、メイン制御部110は、複数の画像PIが分類された各グループからそれぞれ少なくとも一つの画像PIを選択し(ステップS160)、選択された画像PIを印刷する制御を行ない(ステップS170)、図4の画像印刷処理を終了する。本実施例では、各グループからの画像PIの選択(ステップS160)において、メイン制御部110は、各グループに属する画像PIの各エッジ量を抽出し、各グループ内でエッジ量の多い画像PIを一つ選択する。なお、本実施例では、グループに属する画像PIが一つである場合には、その一つの画像PIが選択される。   Returning to the description of FIG. 4, after grouping all the images (step S158), the main control unit 110 selects at least one image PI from each group into which the plurality of images PI are classified (step S160). Then, control is performed to print the selected image PI (step S170), and the image printing process in FIG. 4 is terminated. In this embodiment, in selecting an image PI from each group (step S160), the main control unit 110 extracts each edge amount of the image PI belonging to each group, and selects an image PI having a large edge amount in each group. Select one. In the present embodiment, if there is one image PI belonging to the group, that one image PI is selected.

以上説明した印刷装置10によれば、フラッシュの有無が画像同士の類似性の判断に与える影響を軽減することができるため(図10の類否判断処理)、画像同士の類似性の判断を適切に行うことができる。その結果、類似性に応じた画像の印刷を適切に実行することができる。また、フラッシュ有りの特徴量Ftを基準にして特徴量距離D’を算出するため(数式10、図14)、画像同士の類似性の判断をより一層適切に行うことができる。   According to the printing apparatus 10 described above, since the influence of the presence or absence of flash on the determination of similarity between images can be reduced (similarity determination processing in FIG. 10), determination of similarity between images is appropriate. Can be done. As a result, it is possible to appropriately execute image printing according to the similarity. Further, since the feature amount distance D ′ is calculated on the basis of the feature amount Ft with flash (Formula 10 and FIG. 14), the similarity between images can be determined more appropriately.

B.その他の実施形態:
以上、本発明の実施例について説明したが、本発明は、前述の実施の形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内において様々な形態で実施し得ることは勿論である。例えば、前述の実施例では、特徴量Fを補正する補正値Kは、画像PIの撮影条件に基づく値としたが、画像PI自体の輝度に基づく値としても良い。図16は、変形例における評価値抽出処理(ステップS125)を示すフローチャートである。変形例におけるメイン制御部110は、図4の画像印刷処理において、図6の評価値抽出処理(ステップS120)に代えて、図16の評価値抽出処理(ステップS125)を実行する。
B. Other embodiments:
As mentioned above, although the Example of this invention was described, this invention is not limited to the above-mentioned embodiment at all, Of course, it can implement with various forms within the range which does not deviate from the meaning of this invention. It is. For example, in the above-described embodiment, the correction value K for correcting the feature amount F is a value based on the photographing condition of the image PI, but may be a value based on the luminance of the image PI itself. FIG. 16 is a flowchart showing the evaluation value extraction process (step S125) in the modification. The main control unit 110 in the modified example executes the evaluation value extraction process (step S125) in FIG. 16 instead of the evaluation value extraction process (step S120) in FIG. 6 in the image printing process in FIG.

メイン制御部110は、図16の評価値抽出処理を開始すると、二つの画像TI,CIの各々から輝度ヒストグラムLHt,LHcを作成する(ステップS1252)。図17は、図16の評価値抽出処理(ステップS125)の様子を示す説明図である。図17には、二つの画像TI,CIの各々から作成された輝度ヒストグラムLHt,LHcが示されている。図17の輝度ヒストグラムLHt,LHcは、各画像を構成する画素の輝度値を横軸上にとり、画像を構成する画素の累積度数を縦軸上にとったグラフである。輝度ヒストグラムLHt,LHcが作成された後(ステップS1252)、メイン制御部110は、輝度ヒストグラムLHt,LHcにおいて累積度数NAをとる輝度値を評価値Yとしてそれぞれ算出する(ステップS1254)。本変形例では、評価値Yの算出に用いる累積度数NAは「10%」である。なお、本変形例では、抽出された二つの評価値Yのうち、その値が大きい方を評価値Ytと表記し、その値が小さい方を評価値Ycと表記し、明るい方すなわち評価値Ytが抽出された方を画像TIと表記し、暗い方すなわち評価値Ycが抽出された方を画像CIと表記する。   When starting the evaluation value extraction process of FIG. 16, the main control unit 110 creates luminance histograms LHt and LHc from each of the two images TI and CI (step S1252). FIG. 17 is an explanatory diagram showing a state of the evaluation value extraction process (step S125) of FIG. FIG. 17 shows luminance histograms LHt and LHc created from each of the two images TI and CI. The luminance histograms LHt and LHc in FIG. 17 are graphs in which the luminance values of the pixels constituting each image are taken on the horizontal axis and the cumulative frequency of the pixels constituting the image is taken on the vertical axis. After the luminance histograms LHt and LHc are created (step S1252), the main control unit 110 calculates the luminance value taking the cumulative frequency NA in the luminance histograms LHt and LHc as the evaluation value Y (step S1254). In this modification, the cumulative frequency NA used for calculating the evaluation value Y is “10%”. In this modification, of the two extracted evaluation values Y, the larger one is expressed as an evaluation value Yt, the smaller one is expressed as an evaluation value Yc, and the brighter one, that is, the evaluation value Yt. Is extracted as an image TI, and a darker one, that is, an evaluation value Yc is extracted as an image CI.

本変形例では、図9の特徴量補正処理(ステップS140)において、メイン制御部110は、次の数式13を用いて補正値Kを算出する(ステップS1402)。   In the present modification, in the feature amount correction process (step S140) in FIG. 9, the main control unit 110 calculates the correction value K using the following equation 13 (step S1402).

Figure 2007144641
Figure 2007144641

以上説明した変形例の印刷装置10によれば、画像PI間における画像PI全体の明るさの相違が画像PI同士の類似性の判断に与える影響を、各画像PI自体の輝度に基づいて軽減することができる。   According to the printing apparatus 10 of the modified example described above, the influence of the difference in brightness of the entire image PI between the images PI on the determination of the similarity between the images PI is reduced based on the luminance of each image PI itself. be able to.

また、図9の特徴量補正処理(ステップS140)において、メイン制御部110は、ガンマ補正(ステップS1404)および逆ガンマ補正(ステップS1406)を省略して、補正値Kによる特徴量Fcの補正を実施しても良い。これによって、画像PIの類比判断における処理の高速化を図ることができる。   9, the main control unit 110 omits the gamma correction (step S1404) and the inverse gamma correction (step S1406), and corrects the feature quantity Fc using the correction value K. You may carry out. As a result, it is possible to increase the processing speed in the image PI analogy determination.

また、メイン制御部110は、数式6,7,8を簡素化した次の数式14を用いて、図9の特徴量補正処理におけるガンマ補正(ステップS1404)、レベル補正(ステップS1405)、逆ガンマ補正(ステップS1406)の各処理をまとめて行っても良い。これによって、画像PIの類比判断における処理の高速化を図ることができる。   Further, the main control unit 110 uses gamma correction (step S1404), level correction (step S1405), and inverse gamma in the feature amount correction processing of FIG. Each process of correction (step S1406) may be performed collectively. As a result, it is possible to increase the processing speed in the image PI analogy determination.

Figure 2007144641
Figure 2007144641

また、前述の実施例では、二つの特徴量Ft,Fcのうち特徴量Fcが、評価値Lt,Lcに基づいて補正されることとしたが、特徴量Fcに代えて特徴量Ftが補正されても良いし、二つの特徴量Ft,Fcの両方が補正されても良い。   In the above-described embodiment, the feature quantity Fc of the two feature quantities Ft and Fc is corrected based on the evaluation values Lt and Lc. However, the feature quantity Ft is corrected instead of the feature quantity Fc. Alternatively, both of the two feature amounts Ft and Fc may be corrected.

また、前述の実施例では、画像同士の類似性が判断は、複数の画像PIをグループ化するため実施されるが、複数の画像PIの中から類似画像を検索するため実施されても良い。図18は、変形例における類似画像検索処理を示すフローチャートである。印刷装置10のメイン制御部110は、記憶媒体810や外部機器820がユーザによってカードスロット140や通信コネクタ150に取り付けられ、画像検索機能の実施要求がユーザによって入力ボタン部170を介して入力された際に、図18の類似画像検索処理を開始する。図18の類似画像検索処理は、複数の画像PIの中からユーザによって選択された画像PIと、その他の画像PIとの類似性を判断し(ステップS210,S215,S258)、検索された類似画像PIを検索結果として表示する(ステップS270)以外は、図4の画像印刷処理と同様である。また、図18の類似画像検索処理によって検索された画像PIの少なくとも一つを選択して印刷刷ることとしても良い。   In the above-described embodiment, the determination of the similarity between images is performed for grouping a plurality of images PI, but may be performed for searching for similar images from the plurality of images PI. FIG. 18 is a flowchart showing a similar image search process in the modification. In the main control unit 110 of the printing apparatus 10, the storage medium 810 and the external device 820 are attached to the card slot 140 and the communication connector 150 by the user, and an execution request for the image search function is input by the user via the input button unit 170. At this time, the similar image search process of FIG. 18 is started. The similar image search process of FIG. 18 determines the similarity between the image PI selected by the user from the plurality of images PI and the other images PI (steps S210, S215, S258), and the similar images searched Except for displaying the PI as a search result (step S270), the process is the same as the image printing process of FIG. Further, at least one of the images PI retrieved by the similar image retrieval process of FIG. 18 may be selected and printed.

また、前述の実施例では、本発明を適用した印刷装置10について説明したが、複数の画像における画像同士の類似性を判断する他の装置、例えば、パーソナルコンピュータや、デジタルスチルカメラ,フォトビューワなどに、本発明を適用しても良い。   In the above-described embodiment, the printing apparatus 10 to which the present invention is applied has been described. However, other apparatuses that determine the similarity between images in a plurality of images, such as a personal computer, a digital still camera, a photo viewer, and the like. In addition, the present invention may be applied.

印刷装置10の外観構成を示す斜視図である。1 is a perspective view illustrating an external configuration of a printing apparatus 10. 主として印刷装置10の内部構成を示す説明図である。2 is an explanatory diagram mainly showing an internal configuration of a printing apparatus 10; FIG. 画像ファイル710のデータ構造を模式的に示す説明図である。It is explanatory drawing which shows the data structure of the image file 710 typically. 印刷装置10のメイン制御部110によって実行される画像印刷処理を示すフローチャートである。4 is a flowchart illustrating image printing processing executed by the main control unit 110 of the printing apparatus 10. 図4の画像印刷処理において二つの画像PIが特定される様子(ステップS110)を示す説明図である。FIG. 5 is an explanatory diagram showing how two images PI are specified in the image printing process of FIG. 4 (step S110). 評価値抽出処理(ステップS120)を示すフローチャートである。It is a flowchart which shows an evaluation value extraction process (step S120). 特徴量抽出処理(ステップS130)を示すフローチャートである。It is a flowchart which shows a feature-value extraction process (step S130). 図7の特徴量抽出処理(ステップS130)の様子を示す説明図である。It is explanatory drawing which shows the mode of the feature-value extraction process (step S130) of FIG. 特徴量補正処理(ステップS140)を示すフローチャートである。It is a flowchart which shows a feature-value correction process (step S140). 類否判断処理(ステップS150)を示すフローチャートである。It is a flowchart which shows the similarity determination process (step S150). RGBユークリッド空間において特徴量Ftが変化すると想定される想定値Fsiの範囲を示す説明図である。It is explanatory drawing which shows the range of the assumption value Fsi assumed that the feature-value Ft changes in RGB Euclidean space. 数式10における「Rti≧RciかつGti≧GciかつBti≧Bci」を満たす場合の距離|di|を示す説明図である。It is explanatory drawing which shows distance | di | in the case of satisfy | filling "Rti> = Rci and Gti> = Gci and Bti> = Bci" in Numerical formula 10. 数式10における「Rti≧RciかつGti≧GciかつBti≧Bci」を満たさない場合の距離|di|を示す説明図である。It is explanatory drawing which shows distance | di | when not satisfy | filling "Rti> = Rci and Gti> = Gci and Bti> = Bci" in Numerical formula 10. 近似値Fapxの誤差を示す説明図である。It is explanatory drawing which shows the error of approximate value Fapx. 図4における複数の画像PIのグループ化の様子(ステップS152,S154,S156)を示す説明図である。FIG. 5 is an explanatory diagram showing a state (steps S152, S154, S156) of a plurality of images PI in FIG. 変形例における評価値抽出処理(ステップS125)を示すフローチャートである。It is a flowchart which shows the evaluation value extraction process (step S125) in a modification. 図16の評価値抽出処理(ステップS125)の様子を示す説明図である。It is explanatory drawing which shows the mode of the evaluation value extraction process (step S125) of FIG. 変形例における類似画像検索処理を示すフローチャートである。It is a flowchart which shows the similar image search process in a modification.

符号の説明Explanation of symbols

10…印刷装置
110…メイン制御部
111…画像読出部
112…画像特定部
113…特徴量抽出部
114…評価値抽出部
115…特徴量補正部
116…類否判断部
117…画像選択部
118…印刷制御部
120…印刷部
130…スキャナ部
140…カードスロット
150…通信コネクタ
160…ディスプレイ部
170…入力ボタン部
200…キャリッジ
210…印刷ヘッドユニット
211〜216…インク吐出ヘッド
240…キャリッジ駆動部
250…印刷媒体搬送部
710…画像ファイル
7110…撮影条件データ
7112…撮影日時
7114…絞り値
7116…シャッタスピード
7118…ISO感度
7119…フラッシュ情報
7120…画像データ
810…記憶媒体
820…外部機器
900…印刷媒体
G1,G2…グループ
PI,TI,CI…画像
Bi…ブロック
F,Ft,Fc…特徴量
D,D’…特徴量距離
Fsi…想定値
Fapx…近似値
L,Lt,Lc…評価値
ΔL…差
K…補正値
Y,Yt,Yc…評価値
NA…累積度数
DESCRIPTION OF SYMBOLS 10 ... Printing apparatus 110 ... Main control part 111 ... Image reading part 112 ... Image specific part 113 ... Feature-value extraction part 114 ... Evaluation value extraction part 115 ... Feature-value correction part 116 ... Similarity determination part 117 ... Image selection part 118 ... Print control unit 120 ... printing unit 130 ... scanner unit 140 ... card slot 150 ... communication connector 160 ... display unit 170 ... input button unit 200 ... carriage 210 ... print head unit 211-216 ... ink ejection head 240 ... carriage drive unit 250 ... Print medium transport unit 710 ... Image file 7110 ... Shooting condition data 7112 ... Shooting date and time 7114 ... Aperture value 7116 ... Shutter speed 7118 ... ISO sensitivity 7119 ... Flash information 7120 ... Image data 810 ... Storage medium 820 ... External device 900 ... Print medium G1 , 2 ... Group PI, TI, CI ... Image Bi ... Block F, Ft, Fc ... Feature quantity D, D '... Feature quantity distance Fsi ... Assumed value Fapx ... Approximate value L, Lt, Lc ... Evaluation value [Delta] L ... Difference K ... Correction value Y, Yt, Yc ... Evaluation value NA ... Cumulative frequency

Claims (15)

記憶媒体に記憶された複数の画像のいくつかを印刷する印刷装置であって、
前記複数の画像を前記記憶媒体から読み出す画像読出部と、
前記読み出した複数の画像の中から二つの画像を特定する画像特定部と、
前記画像を構成する色の特徴を示す特徴量を、前記特定された二つの画像の各々から抽出する特徴量抽出部と、
前記抽出された二つの特徴量に基づいて前記二つの画像の類似性を判断する類似判断部と、
前記判断された類似性に基づいて、前記複数の画像の中から画像を選択する画像選択部と、
前記選択された画像を印刷する制御を行う印刷制御部と
を備え、
前記類似性判断部は、
前記特定された二つの画像のうち一方がフラッシュ有りで撮影され他方がフラッシュ無しで撮影されたフラッシュ有無の関係にあるか否かを判定するフラッシュ判定部と、
前記フラッシュ有無の関係にあると判定した場合に、前記二つの特徴量のうちの一方がフラッシュの有無によって変化すると想定される値の範囲内で前記特徴量の他方に近似する近似値を、該特徴量の一方として取り扱うことによって、前記類似性を判断する特徴量置換部と
を備える印刷装置。
A printing apparatus for printing some of a plurality of images stored in a storage medium,
An image reading unit for reading the plurality of images from the storage medium;
An image specifying unit for specifying two images from the plurality of read-out images;
A feature amount extracting unit that extracts a feature amount indicating a color feature constituting the image from each of the two specified images;
A similarity determination unit that determines the similarity between the two images based on the two extracted feature quantities;
An image selection unit that selects an image from the plurality of images based on the determined similarity;
A print control unit that performs control to print the selected image,
The similarity determination unit
A flash determination unit that determines whether one of the two identified images is captured with a flash and the other is captured without a flash;
When it is determined that there is a flash presence / absence relationship, an approximate value that approximates the other of the feature amounts within a range of values that one of the two feature amounts is assumed to change depending on the presence / absence of flash, A printing apparatus comprising: a feature amount replacement unit that determines the similarity by treating the feature amount as one of the feature amounts.
前記特徴量の一方は、フラッシュ有りで撮影された画像から抽出された特徴量である請求項1記載の印刷装置。   The printing apparatus according to claim 1, wherein one of the feature amounts is a feature amount extracted from an image photographed with a flash. 前記想定される値は、前記特徴量の一方によって示される色と同色であって明るさの異なる色についての特徴を示す値である請求項1または2記載の印刷装置。   The printing apparatus according to claim 1, wherein the assumed value is a value that indicates a characteristic of a color that is the same color as that indicated by one of the feature amounts and has a different brightness. 前記記憶媒体には、前記画像が撮影された際のフラッシュの有無を示すフラッシュ情報が前記画像毎に記憶されており、前記フラッシュ判定部は、前記フラッシュ情報に基づいて前記フラッシュ有無の関係にあるか否かを判定する請求項1ないし3のいずれか記載の印刷装置。   The storage medium stores, for each image, flash information indicating the presence / absence of a flash when the image is captured, and the flash determination unit has a relationship of presence / absence of the flash based on the flash information. The printing apparatus according to claim 1, wherein it is determined whether or not. 前記フラッシュ情報はExif規格の情報である請求項4載の印刷装置。   5. The printing apparatus according to claim 4, wherein the flash information is Exif standard information. 請求項1ないし5のいずれか記載の印刷装置であって、更に、
前記画像の明るさを示す評価値を、前記特定された二つの画像の各々から抽出する評価値抽出部と、
前記抽出された評価値に基づいて、前記抽出された二つの特徴量の少なくとも一方を、前記二つの画像の明るさが近づく方向に補正する特徴量補正部と
を備える印刷装置。
The printing apparatus according to claim 1, further comprising:
An evaluation value extracting unit that extracts an evaluation value indicating the brightness of the image from each of the two specified images;
A printing apparatus comprising: a feature amount correction unit that corrects at least one of the extracted two feature amounts in a direction in which the brightness of the two images approaches based on the extracted evaluation value.
請求項1ないし6のいずれか記載の印刷装置であって、
前記特徴量抽出部は、
前記特定された二つの画像を複数のブロックにそれぞれ分割するブロック部と、
前記複数のブロック毎の代表色を示すRGB値を前記特徴量として抽出するRGB抽出部と
を備え、
前記類似性判断部は、前記二つの画像間で対応する前記ブロックからそれぞれ抽出された二つの前記RGB値についてのRGBユークリッド空間上の距離に基づいて前記二つの画像の類似性を判断する印刷装置。
The printing apparatus according to any one of claims 1 to 6,
The feature amount extraction unit includes:
A block unit that divides each of the two identified images into a plurality of blocks;
An RGB extraction unit that extracts an RGB value indicating a representative color for each of the plurality of blocks as the feature amount;
The similarity determination unit determines the similarity between the two images based on the distance in the RGB Euclidean space for the two RGB values respectively extracted from the corresponding blocks between the two images. .
請求項1ないし7のいずれか記載の印刷装置であって、
前記画像選択部は、
前記判断された二つの画像の類似性に基づいて、前記複数の画像を、類似した画像毎のグループに分類する画像分類部と、
前記分類されたグループ毎に該グループに含まれる画像の少なくとも一つを、前記選択された画像として選定する画像選定部と
を備える印刷装置。
The printing apparatus according to any one of claims 1 to 7,
The image selection unit
An image classifying unit that classifies the plurality of images into groups for each similar image based on the similarity between the determined two images;
A printing apparatus comprising: an image selection unit that selects, as the selected image, at least one image included in the group for each classified group.
前記記憶媒体に記憶された複数の画像は、撮影された順序で一連に並ぶ画像であり、前記特定される二つの画像は、前記撮影された順序で隣り合う画像同士である請求項8記載の印刷装置。   The plurality of images stored in the storage medium are images arranged in a series in the order of shooting, and the two specified images are images that are adjacent in the order of shooting. Printing device. 請求項1ないし7のいずれか記載の印刷装置であって、
前記画像選択部は、
前記判断された二つの画像の類似性に基づいて、前記特定された画像の一方に類似する画像を、前記複数の画像の中から検索する画像検索部と、
前記検索された画像の少なくとも一つを、前記選択された画像として選定する画像選定部と
を備える印刷装置。
The printing apparatus according to any one of claims 1 to 7,
The image selection unit
An image search unit that searches the plurality of images for an image similar to one of the specified images based on the determined similarity between the two images;
A printing apparatus comprising: an image selection unit that selects at least one of the searched images as the selected image.
記憶媒体に記憶された複数の画像を処理する画像処理装置であって、
前記複数の画像を前記記憶媒体から読み出す画像読出部と、
前記読み出した複数の画像の中から二つの画像を特定する画像特定部と、
前記画像を構成する色の特徴を示す特徴量を、前記特定された二つの画像の各々から抽出する特徴量抽出部と、
前記抽出された二つの特徴量に基づいて前記二つの画像の類似性を判断する類似判断部と
を備え、
前記類似性判断部は、
前記特定された二つの画像のうち一方がフラッシュ有りで撮影され他方がフラッシュ無しで撮影されたフラッシュ有無の関係にあるか否かを判定するフラッシュ判定部と、
前記フラッシュ有無の関係にあると判定した場合に、前記二つの特徴量のうちの一方がフラッシュの有無によって変化すると想定される値の範囲内で前記特徴量の他方に近似する近似値を、該特徴量の一方として取り扱うことによって、前記類似性を判断する特徴量置換部と
を備える画像処理装置。
An image processing apparatus that processes a plurality of images stored in a storage medium,
An image reading unit for reading the plurality of images from the storage medium;
An image specifying unit for specifying two images from the plurality of read-out images;
A feature amount extracting unit that extracts a feature amount indicating a color feature constituting the image from each of the two specified images;
A similarity determination unit that determines the similarity between the two images based on the two extracted feature quantities;
The similarity determination unit
A flash determination unit that determines whether one of the two identified images is captured with a flash and the other is captured without a flash;
When it is determined that there is a flash presence / absence relationship, an approximate value that approximates the other of the feature amounts within a range of values that one of the two feature amounts is assumed to change depending on the presence / absence of flash, An image processing apparatus comprising: a feature amount replacement unit that determines the similarity by handling the feature amount as one of the feature amounts.
更に、前記判断された二つの画像の類似性に基づいて、前記複数の画像を、類似した画像毎のグループに分類する画像分類部を備える請求項11記載の画像処理装置。   The image processing apparatus according to claim 11, further comprising an image classification unit that classifies the plurality of images into groups for each similar image based on the determined similarity between the two images. 更に、前記判断された二つの画像の類似性に基づいて、前記特定された画像の一方に類似する画像を、前記複数の画像の中から検索する画像検索部を備える請求項11記載の画像処理装置。   The image processing according to claim 11, further comprising: an image search unit that searches the plurality of images for an image similar to one of the identified images based on the determined similarity between the two images. apparatus. 記憶媒体に記憶された複数の画像を取り扱う画像処理方法であって、
前記複数の画像を前記記憶媒体から読み出し、
前記読み出した複数の画像の中から二つの画像を特定し、
前記画像を構成する色の特徴を示す特徴量を、前記特定された二つの画像の各々から抽出し、
前記抽出された二つの特徴量に基づいて前記二つの画像の類似性を判断し、
前記二つの画像の類似性を判断する際に、前記特定された二つの画像のうち一方がフラッシュ有りで撮影され他方がフラッシュ無しで撮影されたフラッシュ有無の関係にあるか否かを判定し、
前記フラッシュ有無の関係にあると判定した場合に、前記二つの特徴量のうちの一方がフラッシュの有無によって変化すると想定される値の範囲内で前記特徴量の他方に近似する近似値を、該特徴量の一方として取り扱うことによって、前記類似性を判断する画像処理方法。
An image processing method for handling a plurality of images stored in a storage medium,
Reading the plurality of images from the storage medium;
Two images are identified from the plurality of read-out images,
Extracting a feature amount indicating a color feature constituting the image from each of the two specified images;
Determining the similarity of the two images based on the two extracted feature quantities;
When determining the similarity between the two images, it is determined whether one of the two specified images is taken with a flash and the other is taken without a flash.
When it is determined that there is a flash presence / absence relationship, an approximate value that approximates the other of the feature amounts within a range of values that one of the two feature amounts is assumed to change depending on the presence / absence of flash, An image processing method for determining the similarity by treating it as one of feature quantities.
複数の画像を処理する機能をコンピュータに実現させるためのプログラムであって、
前記複数の画像を前記記憶媒体から読み出す機能と、
前記読み出した複数の画像の中から二つの画像を特定する機能と、
前記画像を構成する色の特徴を示す特徴量を、前記特定された二つの画像の各々から抽出する機能と、
前記抽出された二つの特徴量に基づいて前記二つの画像の類似性を判断する機能と、
前記二つの画像の類似性を判断する際に、前記特定された二つの画像のうち一方がフラッシュ有りで撮影され他方がフラッシュ無しで撮影されたフラッシュ有無の関係にあるか否かを判定する機能と、
前記フラッシュ有無の関係にあると判定した場合に、前記二つの特徴量のうちの一方がフラッシュの有無によって変化すると想定される値の範囲内で前記特徴量の他方に近似する近似値を、該特徴量の一方として取り扱うことによって、前記類似性を判断する機能と
を実現させるためのプログラム。
A program for causing a computer to execute a function of processing a plurality of images,
A function of reading the plurality of images from the storage medium;
A function of specifying two images from the plurality of read-out images;
A function for extracting a feature amount indicating a color feature constituting the image from each of the two specified images;
A function of determining the similarity between the two images based on the two extracted feature values;
A function for determining whether or not there is a relationship between the presence or absence of a flash in which one of the two specified images is taken with a flash and the other is taken without a flash when judging the similarity between the two images When,
When it is determined that there is a flash presence / absence relationship, an approximate value that approximates the other of the feature amounts within a range of values that one of the two feature amounts is assumed to change depending on the presence / absence of flash, A program for realizing the function of determining the similarity by treating it as one of the feature quantities.
JP2005338495A 2005-11-24 2005-11-24 Image processing technology Expired - Fee Related JP4600256B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005338495A JP4600256B2 (en) 2005-11-24 2005-11-24 Image processing technology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005338495A JP4600256B2 (en) 2005-11-24 2005-11-24 Image processing technology

Publications (3)

Publication Number Publication Date
JP2007144641A true JP2007144641A (en) 2007-06-14
JP2007144641A5 JP2007144641A5 (en) 2008-12-04
JP4600256B2 JP4600256B2 (en) 2010-12-15

Family

ID=38206640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005338495A Expired - Fee Related JP4600256B2 (en) 2005-11-24 2005-11-24 Image processing technology

Country Status (1)

Country Link
JP (1) JP4600256B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009284084A (en) * 2008-05-20 2009-12-03 Sharp Corp Image collating method, image collating apparatus, image data output apparatus, program, and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137722A (en) * 1998-10-30 2000-05-16 Minolta Co Ltd Image processor
JP2004005303A (en) * 2002-06-03 2004-01-08 Fuji Xerox Co Ltd Image search system, image searching method, and image search program
JP2004166196A (en) * 2002-09-20 2004-06-10 Seiko Epson Corp Backlight processing of image using history information of imaging
JP2005142745A (en) * 2003-11-05 2005-06-02 Olympus Corp Image processing program, image processing method, and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000137722A (en) * 1998-10-30 2000-05-16 Minolta Co Ltd Image processor
JP2004005303A (en) * 2002-06-03 2004-01-08 Fuji Xerox Co Ltd Image search system, image searching method, and image search program
JP2004166196A (en) * 2002-09-20 2004-06-10 Seiko Epson Corp Backlight processing of image using history information of imaging
JP2005142745A (en) * 2003-11-05 2005-06-02 Olympus Corp Image processing program, image processing method, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009284084A (en) * 2008-05-20 2009-12-03 Sharp Corp Image collating method, image collating apparatus, image data output apparatus, program, and storage medium

Also Published As

Publication number Publication date
JP4600256B2 (en) 2010-12-15

Similar Documents

Publication Publication Date Title
EP1241870A2 (en) Output image adjustment method, apparatus and computer program product for image files
US8588532B2 (en) Image processor
JP2004070715A (en) Image processor
US20080292181A1 (en) Information Processing Method, Information Processing Apparatus, and Storage Medium Storing a Program
JP2008234625A (en) Information processing method, information processor, and program
JP4492706B2 (en) Judgment of shooting scene and image processing according to shooting scene
JP2008244769A (en) Information processing method, information processor, program and storage medium
JP3925476B2 (en) Judgment of shooting scene and image processing according to shooting scene
JP4600256B2 (en) Image processing technology
JP4581968B2 (en) Image processing technology
JP2008284868A (en) Printing method, printer, and program
JP4910821B2 (en) Image identification method
JP4760044B2 (en) Determination of main subject in image
US8243328B2 (en) Printing method, printing apparatus, and storage medium storing a program
JP2008228086A (en) Information processing method, information processor, and program
JP2009044249A (en) Image identification method, image identification device, and program
JP4509499B2 (en) Image processing device
JP4665802B2 (en) Lightness correction processing apparatus and lightness correction determination method
JP2007128342A (en) Image decision device, image decision method and image decision program
EP1959668A2 (en) Information processing method, information processing apparatus, and program
JP2008228087A (en) Information processing method, information processor, and program
JP2007045022A (en) Printing device and method for printing
JP2008271058A (en) Information processing method, information processing apparatus, and program
JP2008234626A (en) Information processing method, information processor, and program
JP2008271249A (en) Information processing method, information processing apparatus, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081020

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100913

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131008

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees