JP2010262531A - Image information processor, image information processing method and program - Google Patents

Image information processor, image information processing method and program Download PDF

Info

Publication number
JP2010262531A
JP2010262531A JP2009113785A JP2009113785A JP2010262531A JP 2010262531 A JP2010262531 A JP 2010262531A JP 2009113785 A JP2009113785 A JP 2009113785A JP 2009113785 A JP2009113785 A JP 2009113785A JP 2010262531 A JP2010262531 A JP 2010262531A
Authority
JP
Japan
Prior art keywords
image
classification
selection
images
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009113785A
Other languages
Japanese (ja)
Inventor
Tsuneichi Arai
常一 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009113785A priority Critical patent/JP2010262531A/en
Publication of JP2010262531A publication Critical patent/JP2010262531A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the following problem: when selecting an excellent image from images obtained by photography, an image list wherein the images are merely arranged in photographic order is inconvenient because the target image cannot be selected unless all the images are viewed. <P>SOLUTION: This image information processor learns last image selection, and makes it be applied to next image selection of a new image. The image information processor stores a selection reference value of selection/non-selection and an effective classification method by a difference in a characteristic amount between a selection image and a non-selection image inside an image group of a classification candidate by various kinds of classification methods. The image information processor classifies a new image group by the learned classification method, and determines order of the images by the stored selection reference value, so that the image to be selected is easy to be selected after the learning. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ユーザ操作指示により、複数ある画像からユーザ所望の画像の選択操作を便利にするものある。   The present invention makes it easy to select an image desired by a user from a plurality of images in accordance with a user operation instruction.

従来、撮影した複数の画像から、希望の画像を見つける場合、画像一覧表示から探したり、一枚一枚を見比べたりしながら、一々すべての画像を眺めて希望の画像を探していた。   Conventionally, when a desired image is found from a plurality of captured images, the desired image is searched by looking at all the images one by one while searching from the image list display or comparing each image.

希望の画像を探しやすくする為に、特許文献1に開示される画像自動分類方法では、画像の特徴が異なる分類毎の画像を用意し、該画像の特徴点に基づき、大分類のカテゴリから該大分類のカテゴリ内に登録した詳細分類カテゴリに階層的に分類する構成であった。   In order to make it easy to find a desired image, the automatic image classification method disclosed in Patent Document 1 prepares an image for each category having different image characteristics, and based on the feature points of the image, the image is classified from a large category. It was the structure classified hierarchically into the detailed classification category registered in the category of large classification.

特許文献2に開示されるデジタルスチルカメラでは、検出した手振れ量のデータを該当する被写体画像に対応付けて記録する記録媒体で構成される。そして各被写体画像を手振れ量の大きい順にソートして手振れ量の多い順に各被写体画像の再生画像を手振れ量のデータと共に表示する構成であった。   The digital still camera disclosed in Patent Document 2 is configured by a recording medium that records detected camera shake amount data in association with a corresponding subject image. Then, the subject images are sorted in descending order of camera shake amount, and the reproduced images of the subject images are displayed together with the camera shake amount data in descending order of camera shake amount.

特許文献3に開示される画像選択方法では、複数の候補画像が記憶され、ユーザモデル記憶部には、ユーザの好みに適合したユーザモデルが記憶され、候補画像について、誘導場の強さ、ポテンシャル線の複雑度、誘導場のエネルギおよび画像を構成する。各画素の三原色輝度値を画像特徴情報として抽出し、抽出した画像特徴情報とユーザモデルに基づいてユーザの好みに適合すると思われる画像を表示する構成であった。   In the image selection method disclosed in Patent Literature 3, a plurality of candidate images are stored, and the user model storage unit stores a user model suitable for the user's preference. For the candidate images, the strength of the induction field, the potential Construct line complexity, induction field energy and image. The configuration is such that the luminance values of the three primary colors of each pixel are extracted as image feature information, and an image that seems to fit the user's preference is displayed based on the extracted image feature information and the user model.

特開2005−309535号公報JP 2005-309535 A 特開2003−134389号公報JP 2003-134389 A 特開2003−256467号公報JP 2003-256467 A

しかしながら、特許文献1に開示される画像自動分類方法では、予め決まっている分類の画像を対象としている。その為、画像の分類をユーザが指定しないと処理が出来ない。又は、画像の分類が時間により変化する事は考慮されていない。ユーザ指定の分類が曖昧だと、本来は異なる分類に指定されるべき画像が同一分類に設定される。ユーザが正しい分類を指定する必要があった。   However, the automatic image classification method disclosed in Patent Document 1 targets images of a predetermined classification. Therefore, processing cannot be performed unless the user designates the image classification. Alternatively, it is not considered that the image classification changes with time. If the user-specified classification is ambiguous, images that should originally be specified in different classifications are set to the same classification. The user needed to specify the correct classification.

特許文献2に開示されるデジタルカメラでは、手振れ量に関しては、それによりソートされる為、手振れが無い画像を選択することは容易になる。しかし、画像によっては手振れが選択基準ではない場合もある。又、複数の基準の場合や、ユーザで変わる基準等にも適応することはこの構成では不可能である。   In the digital camera disclosed in Patent Document 2, the camera shake amounts are sorted according to the camera shake amount, so that it is easy to select an image without camera shake. However, camera shake may not be a selection criterion for some images. In addition, it is impossible with this configuration to adapt to the case of a plurality of standards or a standard changed by the user.

特許文献3に開示される画像選択方法では、ユーザの好みがモデル化できるという構成である。画像の特徴(画素の3原色の輝度値)等の値で画像の好みをモデル化できる場合は少ない。例えば、ユーザの子供の画像をアルバムに使いたい場合だと、他人の子供が写っている画像の優先度が低い例が考えられる。上記例だと、画像の特徴から画像の好みを抽出する事は実現出来そうにない。   The image selection method disclosed in Patent Document 3 has a configuration in which user preferences can be modeled. There are few cases where image preferences can be modeled by values such as image characteristics (luminance values of the three primary colors of pixels). For example, when an image of a user's child is to be used for an album, an example in which the priority of an image showing another child's child is low can be considered. In the above example, it is unlikely to be possible to extract image preferences from image features.

そこで、本発明の目的は、ユーザが撮影対象毎に異なる基準で画像を選択していても、自動的に学習できるようにすることにある。   Therefore, an object of the present invention is to enable automatic learning even when a user selects an image based on a different standard for each photographing target.

本発明の画像情報処理装置は、任意の画像を指示する画像選択指示手段と、選択された画像を分類条件に基づいて分類する画像分類手段と、分類毎の選択基準を抽出する抽出手段と、前記分類条件と選択基準とを記憶する手段と、記憶された分類条件、選択基準に基づいて画像処理を適応する手段と、を備えたことを特徴とする。   An image information processing apparatus of the present invention includes an image selection instruction unit that instructs an arbitrary image, an image classification unit that classifies a selected image based on a classification condition, an extraction unit that extracts a selection criterion for each classification, And means for storing the classification conditions and selection criteria, and means for adapting image processing based on the stored classification conditions and selection criteria.

本発明によれば、ユーザは、撮影対象毎に異なる基準で画像を選択していても、自動的に学習される。学習後は何時も所望の画像が表示リストの上位に表示されるので、選択しやすくなる。また、自動的に画像が選択配置される画像処理装置では、本発明が組み込まれていれば、所望の画像が自動的に配置される。   According to the present invention, even if the user selects an image based on a different standard for each shooting target, the user is automatically learned. Since a desired image is always displayed at the top of the display list after learning, it is easy to select. In an image processing apparatus in which images are automatically selected and arranged, a desired image is automatically arranged if the present invention is incorporated.

本発明の第1の実施形態における実際の使用形態を表す図である。It is a figure showing the actual usage pattern in the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像情報処理装置のハードウエア構成図である。It is a hardware block diagram of the image information processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像情報処理装置のソフトウエア構成図である。It is a software block diagram of the image information processing apparatus which concerns on the 1st Embodiment of this invention. 一般的な画像選択表示画面例を示す図である。It is a figure which shows the example of a general image selection display screen. 画像群の分類概念図である。It is a classification conceptual diagram of an image group. 複数の分類方法により選択基準を見つける処理を表わしたフローチャートである。It is a flowchart showing the process which finds a selection reference | standard by the some classification method. 画像を撮影時間で分類した分類毎の選択基準値抽出処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the selection reference value extraction process for every classification | category which classified the image with imaging | photography time. 画像を画像類似度で分類し、分類した画像から選択基準抽出する処理を示すフローチャートである。It is a flowchart which shows the process which classify | categorizes an image by image similarity and extracts selection criteria from the classified image. 撮影場所での分類画像の選択基準抽出処理を示すフローチャートである。It is a flowchart which shows the selection reference | standard extraction process of the classification image in an imaging | photography place. 学習辞書の構造を示す図である。It is a figure which shows the structure of a learning dictionary. 学習結果適応処理を示すフローチャートである。It is a flowchart which shows a learning result adaptation process. 学習データに基づいた画像処理を行なう前と行った後の表示例を示す図である。It is a figure which shows the example of a display before performing after performing the image processing based on learning data. 本発明の第2実施形態に係る画像情報処理装置のソフトウエア構成図である。It is a software block diagram of the image information processing apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2の実施形態における学習辞書の構造を表わした概念図である。It is a conceptual diagram showing the structure of the learning dictionary in the 2nd Embodiment of this invention. 学習適応処理、学習処理を表わしたフローチャートである。It is a flowchart showing a learning adaptation process and a learning process. 学習適応処理、学習処理を表わしたフローチャートである。It is a flowchart showing a learning adaptation process and a learning process. 画像一覧表示の状態を示す図である。It is a figure which shows the state of an image list display.

以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.

<第1の実施形態>
先ず、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態における実際の使用形態を表している。1は、本実施形態に係る画像情報処理装置であり、一般的な構成要素で構成されている。記録メディアに記録されている静止画を表示するソフトウエアや本実施形態に係る処理手順が組込まれている。2は、一般的な透明抵抗膜デジタイザ用のペンである。
<First Embodiment>
First, a first embodiment of the present invention will be described. FIG. 1 shows an actual usage pattern in the first embodiment of the present invention. Reference numeral 1 denotes an image information processing apparatus according to the present embodiment, which includes general components. Software for displaying still images recorded on a recording medium and processing procedures according to the present embodiment are incorporated. 2 is a pen for a general transparent resistance film digitizer.

図2は、本実施形態に係る画像情報処理装置のハードウエア構成図である。6は、一般的な透明抵抗膜デジタイザで構成される位置座標入力部で、ペン等で表面上を押下されると、押下された位置のXY位置座標データが12のシステムバス経由で8のCPUに送られる。7は、一般的な液晶表示部で、液晶表示素子、液晶制御回路、表示メモリから構成され、12のシステムバス経由で8のCPUに接続している。8のCPUからの指示で、画像の表示や文字の表示が実行される。8は、一般的なCPUであり、システムバス12を介して、9のRAM、10のROM、7の液晶表示部等と接続しており、10のROMに記憶されているプログラムによって処理動作を行なう。9は、一般的なRAMであり、ワーク領域として使われる。10は、一般的なROMであり、ここに本特許の画像処理手順等が記憶されている。11は一般的な情報機器で使用されるメモリカードであるSDカードで、12のシステムバス経由で7のCPUに接続しているこの機器には、画像情報等が記憶されている。12は、一般的なシステムバスで、8のCPUと10のROM、9のRAMや他のデバイス等とのデータのやり取りを行なう。   FIG. 2 is a hardware configuration diagram of the image information processing apparatus according to the present embodiment. 6 is a position coordinate input unit composed of a general transparent resistance film digitizer. When the surface is pressed down with a pen or the like, the XY position coordinate data of the pressed position is 8 CPUs via 12 system buses. Sent to. Reference numeral 7 denotes a general liquid crystal display unit, which includes a liquid crystal display element, a liquid crystal control circuit, and a display memory, and is connected to 8 CPUs via 12 system buses. In response to an instruction from the CPU 8, image display and character display are executed. Reference numeral 8 denotes a general CPU, which is connected to a RAM 9, a ROM 10, a liquid crystal display unit 7, and the like via a system bus 12, and performs processing operations by a program stored in the ROM 10. Do. Reference numeral 9 denotes a general RAM, which is used as a work area. Reference numeral 10 denotes a general ROM in which the image processing procedure of this patent is stored. Reference numeral 11 denotes an SD card which is a memory card used in general information equipment, and image information and the like are stored in this equipment connected to 7 CPUs via 12 system buses. A general system bus 12 exchanges data between the CPU 8 and the ROM 10, the RAM 9, and other devices.

図3は、本実施形態に係る画像情報処理装置のソフトウエア構成図である。13は、画像記憶手段で、図2の11のメモリカード内に記憶されている画像を読み込み記憶しておく。画像は一般的JPEGなどのファイルフォーマットである。14は、画像の手段で、画像を予め組み込まれている規則により画像分類を行なう。15は、分類毎の選択基準抽出手段で、分類された(選択&非選択)画像の選択基準を抽出する。分類画像の選択画像と非選択画像のメタデータの違いや、画像明度、画像コントラスト値、画像ピント判定値等の予め組み込まれている各種画像の特徴量を抽出し、その中で、選択画像と非選択画像で明確に異なる特徴量の特徴を選択基準として抽出する。16は、学習記憶手段で、14,15で決定された画像分類条件と画像選択基準を記憶する。17は、学習選択優先度適応手段で、現在表示しようとする画像を16学習記憶手段の分類条件と画像の選択基準から判断しユーザが選択すべき画像を優先的に表示するよう制御する。   FIG. 3 is a software configuration diagram of the image information processing apparatus according to the present embodiment. An image storage means 13 reads and stores an image stored in the memory card 11 of FIG. The image is a file format such as a general JPEG. Reference numeral 14 denotes an image means for performing image classification according to a rule in which images are incorporated in advance. Reference numeral 15 denotes a selection criterion extraction unit for each classification, which extracts selection criteria for classified (selected & non-selected) images. Extract feature values of various built-in images such as differences in metadata between selected images and non-selected images of classified images, image brightness, image contrast values, image focus determination values, etc. Features of features that are clearly different in non-selected images are extracted as selection criteria. Reference numeral 16 denotes learning storage means for storing the image classification conditions and image selection criteria determined in 14 and 15. A learning selection priority adaptation unit 17 determines an image to be displayed at present from the classification conditions of the 16 learning storage unit and an image selection criterion, and performs control so that an image to be selected by the user is displayed preferentially.

図4は、一般的な画像選択表示画面例を示す図である。図4の19は、画像表示領域である。画像の縮小画像を表示する領域である。図4の18は、一般的なスクロールバー領域である。黒く表記されている部分を操作する事により、その操作に連動して、図4の19内の画像がスクロールする。図4に表示されている画像22の上で図1のペンを押下すると仮選択される。図4の20は、画像選択決定ボタンで、このボタンが押下されるとその時に仮選択されている画像が選択される。図4の21は、解除ボタンで、選択画像を非選択状態にする。図4の22が、選択されている画像の表示例である。選択決定された画像には選択の文字が表示される。上記処理で画像選択指示手段を実現する。   FIG. 4 is a diagram illustrating an example of a general image selection display screen. Reference numeral 19 in FIG. 4 denotes an image display area. This is an area for displaying a reduced image. Reference numeral 18 in FIG. 4 denotes a general scroll bar area. By operating the black part, the image in 19 in FIG. 4 is scrolled in conjunction with the operation. When the pen shown in FIG. 1 is pressed on the image 22 displayed in FIG. 4, it is temporarily selected. Reference numeral 20 in FIG. 4 denotes an image selection determination button. When this button is pressed, the image temporarily selected at that time is selected. Reference numeral 21 in FIG. 4 denotes a cancel button that puts the selected image into a non-selected state. Reference numeral 22 in FIG. 4 is a display example of the selected image. The selected character is displayed on the selected image. The image selection instruction means is realized by the above processing.

図5は、画像群の分類概念図である。画像の分類毎に異なる選択基準があることを表わしている。一つの円が一種類の画像群を表わしている。円を分割している直線が選択基準を表わしている。例えば23の画像A群は、旅行の画像分類である。分類条件は、旅行に行ったときの日付による撮影日から分類されている。その画像A群の画像の選択基準はあるユーザの場合、構図がよく、コントラストが適正な物である。選択画像と非選択画像はその選択基準で分割される。又、24の画像B群は、子供の画像分類である。分類基準は、自分の子供の画像である。画像ファイルのメタデータに子供と記入された画像や、画像の類似画像分類等で登録画像との一致度等で分類されている。この子供の画像の分類での選択基準例は、自分の子供が大きく写っている画像が優先される。同一シーンで連写している場合は、その中で一番ピントが合っている物が優先される。又、25の画像C群は、趣味の画像である。この例では分類基準は、画像に付加されている緯度経度の情報である。この趣味の画像分類での選択基準は、特定の被写体が大きく写っていることが優先されその中でピントやコントラストが適正な物が優先される。   FIG. 5 is a conceptual diagram of image group classification. This indicates that there are different selection criteria for each image classification. One circle represents one type of image group. The straight line dividing the circle represents the selection criterion. For example, a group of 23 images A is a travel image classification. The classification conditions are classified based on the shooting date based on the date when the trip was made. In the case of a user, the selection criteria for the images in the group A are those with good composition and appropriate contrast. The selected image and the non-selected image are divided according to the selection criteria. The group of 24 images B is a child image classification. The classification criterion is an image of your child. It is classified according to the degree of coincidence with the registered image, etc. by the image entered with the child in the metadata of the image file, or the similar image classification of the image. As an example of a selection criterion in the classification of the child images, an image in which the child is greatly reflected is given priority. When shooting continuously in the same scene, the one that is in focus is given priority. In addition, the 25 image groups C are hobby images. In this example, the classification standard is information on latitude and longitude added to the image. As a selection criterion in this hobby image classification, priority is given to a specific subject being shown large, and priority is given to an object with appropriate focus and contrast.

このように、色々な画像を撮影し、保存し、アルバム等を作成するときに選択する場合、画像の分類毎に分類基準、選択基準が複数存在することが多い。この例では、画像A群と画像B群とは分離しているが、場合によっては一部がクロスオーバーしている場合もある。例えば旅行で子供の画像を撮影すれば、その画像はA群B群両方に分類される。   As described above, when various images are taken, stored, and selected when creating an album or the like, there are many classification criteria and selection criteria for each image classification. In this example, the image A group and the image B group are separated from each other, but in some cases, a part thereof may cross over. For example, if an image of a child is taken on a trip, the image is classified into both groups A and B.

図10は、学習辞書の構造概念図である。学習辞書は、図10の例の様に構成されている。1つの辞書データは、辞書番号、分類条件種類、分類条件値、選択基準種類、選択基準値が記憶される。   FIG. 10 is a conceptual diagram of the structure of the learning dictionary. The learning dictionary is configured as in the example of FIG. One dictionary data stores a dictionary number, a classification condition type, a classification condition value, a selection criterion type, and a selection criterion value.

図12は、学習データに基づいた画像処理を行なう前と行った後の表示例である。図12の26の画像表示例は、本実施形態の処理を行なう前の画像一覧例で、画像は例えば、撮影日付順に左上から右下に並んでいる。27,28,29,30の画像があるが、この中でユーザが選択する画像が27だとする。その選択基準を本処理により抽出し、その選択基準から選択画像が優先されて表示されると、図12の31のように並び替えられる。28,29等の非選択候補画像は一覧の後方に移動する。   FIG. 12 shows display examples before and after image processing based on learning data. The image display example 26 in FIG. 12 is an example of an image list before the processing of this embodiment is performed, and the images are arranged, for example, from the upper left to the lower right in the order of photographing dates. There are 27, 28, 29, and 30 images, and it is assumed that 27 are images selected by the user. When the selection criterion is extracted by this processing and the selection image is displayed with priority from the selection criterion, the selection criterion is rearranged as 31 in FIG. Non-selected candidate images such as 28 and 29 move to the rear of the list.

図6、図7、図8、図9、図11のフローチャートに沿って処理を説明する。図6のフローチャートは、複数の分類方法により選択基準を見つける処理を表わしたフローチャートである。図3の14の画像分類手段と図3の15の分類毎の選択基準抽出手段に相当する。   Processing will be described with reference to the flowcharts of FIGS. 6, 7, 8, 9, and 11. The flowchart of FIG. 6 is a flowchart showing processing for finding selection criteria by a plurality of classification methods. This corresponds to the image classification means 14 in FIG. 3 and the selection criterion extraction means 15 for each classification in FIG.

画像に、複数の分類が存在し、その分類毎に選択基準が異なる状態を想定している。ユーザによっては、ある特定の画像しか撮らない場合もあり、その場合は、1つの選択基準で問題が無いが、普通は被写体や、イベント毎に異なる基準で撮影を行い、選択を行なう場合が多い。   It is assumed that there are a plurality of classifications in the image and the selection criteria are different for each classification. Depending on the user, there may be a case where only a specific image is taken. In such a case, there is no problem with one selection criterion. However, there are many cases in which shooting is usually performed with different criteria for each subject or event. .

ステップS6−1において、複数の分類方法により選択基準を見つける処理を開始する。ワーク領域等の初期化を行い。画像ファイルをワーク領域に読み込む。   In step S6-1, a process of finding selection criteria by a plurality of classification methods is started. Initialize the work area. Load an image file into the work area.

ステップS6−2において、画像を撮影時間で分類する処理を行なう。例えば、昼と夜では、異なる撮影条件で、異なる被写体を撮影する例が多いと思われる為、撮影時間により、たとえば、朝、昼、夜の3つに分類する。この実施例では、この撮影時間の分類での処理を説明する。対象となる画像の撮影日時の情報を読み込み。例えば、AM4時から9時までを朝と分類し、AM9時1分からPM5時と分類し、それ以外を夜と分類する。時間自体は季節や緯度経度を加味してある範囲で決定する例も考えられる。その時期、地域により日照条件等撮影条件を加味する実施形態も考えられる。他には季節のイベントを撮影対象とする場合であれば、撮影日時の月単位で分類する方法も考えられる。   In step S6-2, a process of classifying the images by the shooting time is performed. For example, it seems that there are many examples of shooting different subjects under different shooting conditions at day and night, and therefore, for example, morning, noon, and night are classified according to the shooting time. In this embodiment, processing in this shooting time classification will be described. Read the shooting date and time information of the target image. For example, AM 4 o'clock to 9 o'clock is classified as morning, AM 9 o'clock 1 minute to PM 5 o'clock, and the others are classified as night. An example where the time itself is determined within a range that takes into account the season and latitude and longitude is also conceivable. An embodiment in which shooting conditions such as sunshine conditions are taken into account depending on the time and region is also conceivable. In addition, if a seasonal event is to be taken, a method of classifying the shooting date by month may be considered.

ステップS6−3において、分類毎に選択画像と非選択画像の各特徴の差を検査することにより、選択基準を抽出する処理を行なう。この処理の詳細は、図7のフローチャートで説明する。   In step S6-3, a process for extracting a selection criterion is performed by examining the difference between each feature of the selected image and the non-selected image for each classification. Details of this processing will be described with reference to the flowchart of FIG.

ステップS6−4において、ステップS6−3において特徴が見つからないかのチェックを行なう。特徴が見つからない場合は、ステップS6−6に進み、見つかった場合はステップS6−5に進む。もし、朝、昼、夜各分類で特徴が見つかれば、その分類と特徴を学習辞書に記憶する。もし朝の分類だけ選択基準の特徴が見つかればそれだけを学習辞書に記録する。朝、昼、夜全ての分類で選択基準の特徴が抽出できなければ次の異なる分類処理のステップS6−6に進む。   In step S6-4, it is checked whether a feature is not found in step S6-3. If no feature is found, the process proceeds to step S6-6, and if found, the process proceeds to step S6-5. If a feature is found in each of the morning, noon, and night categories, the category and features are stored in the learning dictionary. If only the morning classification is found in the selection criteria, it is recorded in the learning dictionary. If the feature of the selection criterion cannot be extracted for all morning, noon, and night classifications, the process proceeds to step S6-6 of the next different classification process.

ステップS6−5において、見つかった分類方法と選択基準の特徴を学習辞書に記憶する処理を行なう。例えば、ステップS6−3で見つかった条件の分類条件が撮影時間6時から8時の画像を対象としていれば、それが記憶される。選択条件はコントラストで、そのコントラストの値の範囲がAからBであれば、それが記憶される。   In step S6-5, a process of storing the found classification method and selection criterion features in the learning dictionary is performed. For example, if the classification condition of the condition found in step S6-3 is for an image with a shooting time of 6 to 8 o'clock, that is stored. If the selection condition is contrast and the range of the contrast value is A to B, it is stored.

ステップS6−6において、画像の特徴量で分類し、分類毎に選択画像と非選択画像の各特徴の差を検査することにより、選択基準を抽出する処理を行なう。分類の詳細は図8のフローチャートで説明する。   In step S6-6, classification is performed based on the feature amount of the image, and a process of extracting a selection criterion is performed by examining a difference between each feature of the selected image and the non-selected image for each classification. Details of the classification will be described with reference to the flowchart of FIG.

ステップS6−8において、選択基準が見つかったかどうかのチェックを行なう。選択基準が見つかったら、ステップステップS6−5に進み、選択基準を学習辞書に記憶する。選択基準が見つからなければ、ステップS6−9に進む。   In step S6-8, it is checked whether a selection criterion has been found. If the selection criterion is found, the process proceeds to step S6-5, and the selection criterion is stored in the learning dictionary. If no selection criterion is found, the process proceeds to step S6-9.

ステップS6−9において、画像メタデータの撮影場所緯度経度情報で分類する処理を実行する。   In step S6-9, a process of classifying according to the shooting location latitude / longitude information of the image metadata is executed.

画像メタデータ内の撮影場所の緯度経度情報で、画像をソートする。経度緯度が近傍の物は同一グループとする。全画像の画像メタデータであるExif情報から緯度経度情報を求め記憶する処理を行なう。Exif情報の緯度経度情報は撮影カメラで記入された物でも、後から付加された物でも構わない。その後、その記憶した緯度経度情報で画像をソートし、同一緯度経度、近傍の緯度経度の画像は1グループとして分類する。緯度経度の度数以下の数字は同一として扱う。緯度経度の情報で、同一都市の画像をまとめるようにする。例えば、ソート対象が100枚であれば、同一緯度経度±αの範囲で、一つのグループが10枚以上になるように分類する。   Sort images by latitude and longitude information of shooting location in image metadata. Objects in the vicinity of longitude and latitude are in the same group. The latitude / longitude information is obtained from Exif information, which is image metadata of all images, and stored. The latitude / longitude information of the Exif information may be entered with the camera or added later. Thereafter, the images are sorted according to the stored latitude / longitude information, and images having the same latitude / longitude and neighboring latitude / longitude are classified as one group. Numbers below the latitude and longitude frequencies are treated as the same. The image of the same city is put together by the latitude and longitude information. For example, if the number of objects to be sorted is 100, the group is classified so that one group becomes 10 or more within the same latitude and longitude ± α.

ステップS6−10において、撮影場所緯度経度情報で分類した各分類の選択、非選択画像の特徴差を検査することにより、選択基準を抽出する処理を行なう。詳細は、図9のフローチャートで説明する。   In step S6-10, a selection criterion is extracted by selecting each category classified by the shooting location latitude / longitude information and examining a feature difference between non-selected images. Details will be described with reference to the flowchart of FIG.

ステップS6−11において、撮影場所の分類で選択基準が見つかったかをチェックする。選択基準が見つかった場合はステップ6−5に進み、そうでない場合はステップS6−12に進む。   In step S6-11, it is checked whether a selection criterion has been found in the shooting location classification. If a selection criterion is found, the process proceeds to step 6-5, and if not, the process proceeds to step S6-12.

ステップS6−12において、この図6のフローチャート処理を終了する。全ての分類で選択基準の特徴が見つからない場合は、学習辞書の記憶は行なわれないが、通常は何処かの分類で選択基準が検出され学習辞書に記憶される。   In step S6-12, the flowchart process of FIG. 6 ends. If no feature of the selection criterion is found in all classifications, the learning dictionary is not stored, but the selection criterion is usually detected and stored in the learning dictionary in some classification.

図7のフローチャートで画像を撮影時間で分類した分類毎の選択基準値抽出処理の詳細を説明する。   The details of the selection reference value extraction processing for each classification in which the images are classified by the photographing time in the flowchart of FIG. 7 will be described.

ステップS7−1において、撮影時間で分類された各分類画像の選択基準値を求める処理を開始する。各画像の撮影時間の情報で、AM4時から9時までの画像を朝と分類し、AM9時1分からPM5時までを昼間と分類し、それ以外を夜と分類されている。朝の画像群、昼の画像群、夜の画像群に分類されている。   In step S7-1, a process for obtaining a selection reference value for each classified image classified by the photographing time is started. In the information of the shooting time of each image, the image from AM 4 to 9 is classified as morning, AM 9:01 to PM 5 is classified as daytime, and the others are classified as night. The images are classified into a morning image group, a daytime image group, and a night image group.

ステップS7−2において、1分類の画像を読み込む処理を行なう。まずは朝に分類した画像をワーク領域に読み込む。   In step S7-2, processing for reading an image of one category is performed. First, images classified in the morning are read into the work area.

ステップS7−3において、選択画像と非選択画像の特徴量1の差を求める処理を行なう。特徴量1はフォーカスエリア内の画像エッジの特徴量である。この特徴量により、フォーカスエリア内の画像のピントが合っていることを画像の選択基準にしているかを評価する。選択画像の特徴量1の平均値と非選択画像の特徴量1の平均値との差が規定値以上であれば、選択基準にしていると判断する。このステップでは選択画像の特徴量1の平均値と非選択画像の特徴量1の平均値との差を記憶する。   In step S7-3, a process for obtaining the difference between the feature quantity 1 between the selected image and the non-selected image is performed. A feature amount 1 is a feature amount of an image edge in the focus area. Based on this feature amount, it is evaluated whether the image selection criterion is that the image in the focus area is in focus. If the difference between the average value of the feature amount 1 of the selected image and the average value of the feature amount 1 of the non-selected image is equal to or greater than a specified value, it is determined that the selection criterion is used. In this step, the difference between the average value of the feature value 1 of the selected image and the average value of the feature value 1 of the non-selected image is stored.

ステップS7−4において、選択画像と非選択画像の特徴量2の差を求める処理を行なう。特徴量2は画像の明度である。選択画像の明度の平均値と、非選択画像の明度平均値の差を特徴量2の差として記憶する。   In step S7-4, a process for obtaining a difference between the feature amount 2 between the selected image and the non-selected image is performed. The feature amount 2 is the brightness of the image. The difference between the average brightness value of the selected image and the average brightness value of the non-selected image is stored as the difference of the feature amount 2.

ステップS7−5において、選択画像と非選択画像の特徴量3の差を求める処理を行なう。特徴量3は画像水平度とする。画像内にある建物や水平線を基準にその画像の水平度を出す。風景画像等であれば、斜めに写っているより水平である方が良いと思われるので、それを選択基準としているかのチェックをこの処理で行なう。選択画像の水平度の平均値と、非選択画像の水平度平均値の差を記憶する。   In step S7-5, a process for obtaining a difference between the feature amount 3 between the selected image and the non-selected image is performed. The feature amount 3 is the image level. The level of the image is calculated based on the building or horizon in the image. In the case of a landscape image or the like, it seems that it is better to be horizontal rather than obliquely displayed, so this process is used to check whether it is a selection criterion. The difference between the average horizontal value of the selected images and the average horizontal value of the non-selected images is stored.

ステップS7−6において、各特徴量の差分が閾値以上であるかをチェックする。全ての特徴量の差が閾値以下であれば、ステップS7−8へ進み、全分類の画像の処理が終わっているかをチェックする、閾値以上であればステップS7−7において、特徴量を記憶する処理を行なう。   In step S7-6, it is checked whether the difference between the feature amounts is equal to or greater than a threshold value. If the difference between all the feature amounts is equal to or smaller than the threshold value, the process proceeds to step S7-8 to check whether the processing of all the classified images is completed. Perform processing.

ステップS7−7において、閾値以上の特徴量と分類条件を記憶する処理を行なう。もし、特徴量1,2,3、が閾値以上であれば、その値と、分類条件の撮影時間の区分を学習辞書に記憶する処理を行なう。   In step S7-7, processing for storing feature quantities and classification conditions equal to or greater than a threshold value is performed. If the feature quantities 1, 2, and 3 are greater than or equal to the threshold value, a process for storing the value and the classification time of the classification condition in the learning dictionary is performed.

ステップS7−8において、全分類を処理したかをチェックする。朝、昼、夜の各分類が処理済であればステップS7−9に進み、そうでなければステップS7−2に進み次の分類画像を読み込む処理を行なう。   In step S7-8, it is checked whether all classifications have been processed. If the morning, noon, and night classifications have been processed, the process proceeds to step S7-9. If not, the process proceeds to step S7-2 to perform processing for reading the next classification image.

ステップS7−9において、このサブルーチンの処理を終了して次の分類方法の処理に移行する。   In step S7-9, the process of this subroutine is terminated and the process proceeds to the next classification method.

この図7のフローチャート処理では、説明を簡単にする為に、抽出する特徴量を3つとした。しかし、色々なユーザに対応する為には他の特徴量もチェックする必要があり、この3つ以外も追加は容易である。又採用した3つも他の特徴量に替えた方が良い場合もユーザによって存在する。この特徴量の種別等は設定時に変更する構成でも構わない。   In the flowchart processing of FIG. 7, three feature amounts are extracted in order to simplify the description. However, in order to deal with various users, it is necessary to check other feature amounts, and it is easy to add other than these three. In addition, there are cases where the user adopts other three feature quantities as well as the three adopted ones. The type of the feature amount may be changed at the time of setting.

図8のフローチャートで画像を画像類似度で分類し、分類した画像から選択基準抽出する処理を説明する。自分の子供の画像等は注目している被写体の画像の写りが重要で、周りの風景等は重要でないことが多い。そのよう場合フォーカスエリア内の画像で分類した方が、選択、非選択の選択基準が抽出しやすいと考える。その様な画像をこの分類方法で処理する。   A process of classifying images by image similarity and extracting selection criteria from the classified images will be described with reference to the flowchart of FIG. In many cases, the image of the subject you are paying attention to is important for your child's image, and the surrounding landscape is not important. In such a case, it is considered that it is easier to extract selection criteria for selection and non-selection if classification is based on images in the focus area. Such an image is processed by this classification method.

又は、例えば、山の画像と水中画像と、夜景の画像、異なる種類シーンの場合画像の選択基準が異なるばあいは、画像全体のRGB値等で分類する方法も考えられる。   Or, for example, in the case of a mountain image, an underwater image, a night view image, and different types of scenes, if the image selection criteria are different, a method of classifying by the RGB values of the entire image may be considered.

ステップS8−1において、画像の類似度で分類し、分類した画像毎に選択基準を抽出する処理を開始する。   In step S <b> 8-1, a process of classifying the images by the similarity of the images and extracting a selection criterion for each classified image is started.

ステップS8−2において、1画像ファイルをワーク領域に読み込む処理を行なう。ステップS8−3において、画像メタデータからフォーカスエリアの情報を読み出し、その指定されたフォーカスエリア周辺の画像をワーク領域に読み込む。   In step S8-2, processing for reading one image file into the work area is performed. In step S8-3, information on the focus area is read from the image metadata, and an image around the designated focus area is read into the work area.

ステップS8−4において、読み込んだ画像から画素間のエッジがはっきりしている領域が広い画像を画像オブジェクトして記憶する処理を行なう。又は、人を対象とした画像であれば、顔認識等のアルゴリズムを利用して、顔のオブジェクトを記憶する構成にできる。顔認識のアルゴリズム自体は従来のアルゴリズムを利用すればよい。   In step S8-4, processing is performed to store an image having a wide area where the edge between pixels is clear from the read image as an image object. Alternatively, in the case of an image intended for a person, a face object can be stored using an algorithm such as face recognition. A conventional algorithm may be used as the face recognition algorithm itself.

ステップS8−5において、ステップS8−4において記憶したオブジェクトの画像特徴量でソートして記憶していく。例えば、子供の顔と猫の顔と車とかなら、画像特徴量が異なる。それら子供の顔、猫の顔等の各同じ特徴量で分類されていく。   In step S8-5, the image features of the object stored in step S8-4 are sorted and stored. For example, image features differ for a child's face, a cat's face, and a car. The child's face and cat's face are classified by the same feature amount.

ステップS8−6において、全画像の処理が終了したかのチェックを行なう。終了していればステップS8−7に進み、そうでなければステップS8−2に進む。   In step S8-6, it is checked whether all the images have been processed. If completed, the process proceeds to step S8-7, and if not, the process proceeds to step S8-2.

ステップS8−7において、選択画像の特徴量と非選択画像の特徴量の差分を各特徴量に関してチェックする。自分の子供の顔分類では、ピントが合って、笑っている画像が選択基準であれば、ピントの合っているか合っていないかと、笑顔を数値化した値が選択画像と非選択画像では異なるのでその値を出す。その値が閾値以上であれば、ステップS8−8に進み、そうでなければステップS8−8において、画像と画像特徴量と画像メタデータであるExif情報を学習辞書に記憶する。例えば、自分の子供の顔分類では顔の画像と、選択基準がピントの合方を数値化した値、笑顔を数値化した値を記憶する。笑顔の数値化等は特開2004−46591号記載の従来アルゴリズムを利用すればよい。
ステップS8−9において、この処理を終了し、次の処理に移行する。
In step S8-7, the difference between the feature amount of the selected image and the feature amount of the non-selected image is checked for each feature amount. If your child's face classification is in focus and a laughing image is the selection criterion, the value of the smiling face in the selected image and the non-selected image will differ depending on whether the image is in focus or not. Get that value. If the value is equal to or greater than the threshold value, the process proceeds to step S8-8. Otherwise, in step S8-8, the image, the image feature amount, and Exif information that is image metadata are stored in the learning dictionary. For example, in the face classification of one's own child, a face image, a value obtained by quantifying the way the focus is selected, and a value obtained by quantifying a smile are stored. For example, the conventional algorithm described in Japanese Patent Application Laid-Open No. 2004-46591 may be used to digitize the smile.
In step S8-9, this process is terminated, and the process proceeds to the next process.

図9は撮影場所での分類画像の選択基準抽出処理を表わしたフローチャートである。ステップS9−1において、撮影場所での各分類から選択基準を抽出する処理を開始する。ワーク領域等を確保し、初期化する。   FIG. 9 is a flowchart showing selection criteria extraction processing of the classified image at the shooting location. In step S9-1, a process of extracting selection criteria from each classification at the shooting location is started. Secure and initialize the work area.

ステップS9−2において、上記ステップ分類した1つのグループの画像をワーク領域に読み込む。   In step S9-2, the image of one group classified in the step is read into the work area.

ステップS9−3において、選択画像と非選択画像の画像の付加情報であるExif情報を比較する。例えば、あるユーザの選択画像では、マニュアルフォーカスで撮った画像が特別であり、オートフォーカスで撮った画像は非選択であった場合、マニュアルフォーカスの情報が抽出される。   In step S9-3, Exif information that is additional information of the selected image and the non-selected image is compared. For example, in a selected image of a certain user, when an image taken with manual focus is special and an image taken with autofocus is not selected, information on manual focus is extracted.

ステップS9−4において、差があるExif情報があるかをチェックする。有ればステップS9−6に進み、そうでなければステップS9−5に進む。   In step S9-4, it is checked whether there is Exif information having a difference. If there is, the process proceeds to step S9-6, and if not, the process proceeds to step S9-5.

ステップS9−6において、分類条件と画像の付加情報であるExif情報を学習辞書に記憶する。   In step S9-6, the classification condition and Exif information which is additional information of the image are stored in the learning dictionary.

ステップS9−5において、連写された画像、又は撮影時間が大体同じ画像は、画像全体の画像類似度を計測し、閾値以下であれば、同一シーンの画像としてそれを記憶する処理を行なう。   In step S9-5, for images that have been continuously shot, or for images that have approximately the same shooting time, the image similarity of the entire image is measured, and if it is less than or equal to the threshold value, it is stored as an image of the same scene.

ステップS9−7において、ステップS9−5で分類した類似画像内の選択画像、非選択画像のフォーカスエリア周辺のピントをチェックする。画像画素のエッジの差等をチェックする事によりピントが合っている画像かボケている画像かをチェックする。従来からあるアルゴリズムで構わない。   In step S9-7, the focus around the focus area of the selected image and the non-selected image in the similar images classified in step S9-5 is checked. By checking the difference in the edge of the image pixel, it is checked whether the image is in focus or blurred. A conventional algorithm may be used.

ステップS9−8において、選択画像のピントが合っていて、非選択画像はピントが合っていない画像であれば、ステップS9−9に進み、ピントが条件でなければステップS9−10に進む。   In step S9-8, if the selected image is in focus and the non-selected image is not in focus, the process proceeds to step S9-9, and if the focus is not a condition, the process proceeds to step S9-10.

ステップS9−9において、分類条件の緯度経度情報とピントが合った画像のピントの条件を学習辞書に記憶する。   In step S9-9, the latitude / longitude information of the classification condition and the focus condition of the image in focus are stored in the learning dictionary.

ステップS9−10において、全グループを処理したかをチェックする。全てのグループの処理が終了していればステップS9−11に進み、そうでなければステップS9−2に進む。   In step S9-10, it is checked whether all groups have been processed. If all groups have been processed, the process proceeds to step S9-11, and if not, the process proceeds to step S9-2.

ステップS9−11で、撮影場所分類での選択基準抽出処理を終了する。この様に色々な分類法を試し、その分類毎に、選択、非選択画像の差を検査する事により、ある分類での選択基準を求め、それを図10で表わした学習辞書に記憶していく。   In step S9-11, the selection criterion extraction process in the shooting location classification is terminated. In this way, various classification methods are tried, and by checking the difference between selected and non-selected images for each classification, a selection criterion for a certain classification is obtained and stored in the learning dictionary shown in FIG. Go.

一般的な、ユーザに適応する為には、予め初期学習辞書を作成しておくほうが良い。例えば一般的な複数人のユーザに画像を撮ってもらい、その画像からアルバム等を作成してもらい。その過程での選択、非選択の画像のデータを提供してもらい、初期学習辞書を作成する。そうすれば、最初に使う場合はその初期学習辞書で一般的な優先すべき画像の提示は実現できる。   In order to adapt to a general user, it is better to create an initial learning dictionary in advance. For example, ask multiple general users to take images and create albums from the images. The initial learning dictionary is created by providing the selected and unselected image data in the process. Then, when it is used for the first time, it is possible to realize a general priority image presentation in the initial learning dictionary.

図11は、学習結果適応処理を表わしたフローチャートである。ステップS11−1において、学習適応処理を開始する。ワーク領域の確保と初期化を行なう。図10の学習辞書が作成されている状態で、新しい画像が記憶されている図2の11のメモリカードが差し込まれると、この処理は開始される。   FIG. 11 is a flowchart showing learning result adaptation processing. In step S11-1, a learning adaptation process is started. Secure and initialize the work area. This processing is started when the memory card of FIG. 2 in which a new image is stored is inserted while the learning dictionary of FIG. 10 is created.

ステップS11−2において、図2の11のメモリカード内の一画像を読み込む処理を行なう。順次このステップを実行することにより、メモリカード内の画像がワーク領域に読み込まれる。   In step S11-2, a process of reading one image in the memory card 11 in FIG. By sequentially executing this step, the image in the memory card is read into the work area.

ステップS11−3において、図10の学習辞書から1学習データを読み込む処理を行なう。図10の辞書番号1番のデータから順次読み込まれる。   In step S11-3, a process of reading one learning data from the learning dictionary of FIG. 10 is performed. Data are sequentially read from the data of dictionary number 1 in FIG.

ステップS11−4において、辞書の分類条件に、ステップS11−2で読み込んだ画像が合致するかをチェックする。分類条件に合致すればステップS11−5に進み、合致しなければ、ステップS11−7に進む。   In step S11-4, it is checked whether the image read in step S11-2 matches the dictionary classification conditions. If the classification condition is met, the process proceeds to step S11-5, and if not, the process proceeds to step S11-7.

ステップS11−5において、選択条件に合うかをチェックする。選択条件に合致すればステップS11−6に進み、合致しなければステップS11−7に進む。   In step S11-5, it is checked whether the selection condition is met. If the selection condition is met, the process proceeds to step S11-6, and if not, the process proceeds to step S11-7.

ステップS11−6において、選択条件に合致した画像を記憶する。選択条件記憶バッファに記憶し、画像の一覧表示を行なう時にその画像を選択優先画像として最初の方に表示し、ユーザの選択を容易にする。   In step S11-6, an image that matches the selection condition is stored. The image is stored in the selection condition storage buffer, and when the image list is displayed, the image is displayed at the beginning as a selection priority image to facilitate selection by the user.

ステップS11−7において、全ての学習辞書データをチェックしたかをチェックする。全ての学習辞書をチェックしていればステップS11−8に進み、未チェックがあればステップS11−3に進む。   In step S11-7, it is checked whether all learning dictionary data have been checked. If all the learning dictionaries are checked, the process proceeds to step S11-8, and if there is no check, the process proceeds to step S11-3.

ステップS11−8において、全画像データをチェックしたかをチェックする。全画像を処理していたらステップS11−9に進み、未処理の画像があればステップS11−2に進む。   In step S11-8, it is checked whether all image data has been checked. If all the images have been processed, the process proceeds to step S11-9. If there is an unprocessed image, the process proceeds to step S11-2.

ステップS11−9において、記憶した選択画像を出力する。この様に処理すると、図12のように、26の撮影順の画像が、選択すべき画像表示ソートされ、31のような並びになる。例えば、28、29、30などの非選択候補画像はリストの後ろに行く訳である。ステップS11−10でこの処理を終了する。この実施例では画像選択一覧表示で選択基準に合致した画像を一覧表示の上位に表示する例を説明したが、画像を選択し、画像アルバムを作成する画像アプリケーションに本発明を実施する例も考えられる。その場合、学習データの選択基準に合致した画像は選択画像として、画像アルバムの画像配置領域に自動的に配置する処理に利用できる。上記処理で画像自動配置処理を実現する。   In step S11-9, the stored selected image is output. When processed in this way, as shown in FIG. 12, the images in the 26 shooting orders are sorted and displayed as images to be selected. For example, non-selected candidate images such as 28, 29, and 30 go to the back of the list. This process ends in step S11-10. In this embodiment, an example in which an image that matches the selection criteria is displayed at the top of the list display in the image selection list display has been described. However, an example in which the present invention is implemented in an image application that selects an image and creates an image album is also considered. It is done. In that case, an image that matches the selection criteria of the learning data can be used as a selected image for processing to automatically arrange in the image arrangement area of the image album. The image automatic arrangement processing is realized by the above processing.

このように処理を構成することにより、ユーザの画像の選択基準から判断しユーザが選択すべき画像を優先的に表示する装置を実現できる。   By configuring the processing in this way, it is possible to realize an apparatus that preferentially displays an image that should be selected by the user based on the user's image selection criteria.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。第1の実施形態では、学習辞書の辞書データの条件に対象の画像が合致すれば、選択すべき画像とする構成であった。この構成では、過去の少数の画像データで作成された学習辞書データでも有効であるので、場合によっては少数の画像データで作成された学習辞書で選択基準が不適当な場合がある。ある程度の時間やサンプルデータの収集後に辞書データを有効にする構成が考えられる。第2の実施形態では、第1の実施形態の構成に加え、学習適応決定手段と画像強調表示手段とを設ける。
<Second Embodiment>
Next, a second embodiment of the present invention will be described. In the first embodiment, the image to be selected is selected when the target image matches the dictionary data condition of the learning dictionary. In this configuration, learning dictionary data created with a small number of image data in the past is also effective, so in some cases, the selection criterion may be inappropriate for a learning dictionary created with a small number of image data. A configuration in which dictionary data is validated after collecting a certain amount of time or sample data is conceivable. In the second embodiment, learning adaptation determination means and image enhancement display means are provided in addition to the configuration of the first embodiment.

図13は、本発明の第2実施形態に係る画像情報処理装置のソフトウエア構成図である。第1の実施形態の構成と同一の物は同一部番で説明は省く。図13の32は、学習履歴判定手段である。学習辞書の辞書データの履歴からその学習データを適応させるかを判断する処理を行なう。33は画像強調表示手段でユーザが選択すべき画像を選択しやすいように強調表示を行なう。   FIG. 13 is a software configuration diagram of the image information processing apparatus according to the second embodiment of the present invention. The same components as those in the first embodiment are denoted by the same part numbers and will not be described. Reference numeral 32 in FIG. 13 denotes learning history determination means. A process of determining whether to apply the learning data from the history of the dictionary data of the learning dictionary is performed. Reference numeral 33 denotes an image emphasizing display means for emphasizing so that the user can easily select an image to be selected.

図14は、本発明の第2の実施形態における学習辞書の構造を表わした概念図である。1つの辞書データは、辞書番号、分類条件種類、分類条件値、選択条件種類、選択条件値、学習対象画像量/適応履歴/時間で構成される。選択非選択画像から選択基準を抽出する処理において、対象となった画像の個数を学習対象画像量として記憶する。この処理が学習データ作成対象画像量計測処理となる。   FIG. 14 is a conceptual diagram showing the structure of the learning dictionary in the second embodiment of the present invention. One dictionary data includes a dictionary number, a classification condition type, a classification condition value, a selection condition type, a selection condition value, and a learning target image amount / adaptive history / time. In the process of extracting the selection criterion from the selected non-selected images, the number of target images is stored as the learning target image amount. This processing is learning data creation target image amount measurement processing.

図15、図16は、学習適応処理、学習処理を表わしたフローチャートである。このフローチャートにそって処理を説明する。図15は、学習適応処理を表わしたフローチャートである。図14で表わした、学習辞書が存在し、対象となる画像が記憶されている図2の11のメモリカードが挿入されて開始される。   15 and 16 are flowcharts showing the learning adaptation process and the learning process. Processing will be described with reference to this flowchart. FIG. 15 is a flowchart showing the learning adaptation process. The process starts with the insertion of the memory card 11 in FIG. 2 in which the learning dictionary shown in FIG. 14 exists and the target image is stored.

ステップS15−1において、学習適応処理が開始される。ワーク領域の確保や初期化、辞書ファイルの読み込み等が行なわれる。ステップS15−2において、図2の11のメモリカードから1画像データをワーク領域に読み込む。   In step S15-1, a learning adaptation process is started. The work area is secured and initialized, and the dictionary file is read. In step S15-2, one image data is read into the work area from the memory card 11 in FIG.

ステップS15−3において、図14の学習辞書の1学習データをワーク領域に読み込む。辞書番号1から読み込む。   In step S15-3, one learning data in the learning dictionary in FIG. 14 is read into the work area. Read from dictionary number 1.

ステップS15−4において、学習データの分類条件に画像データが合致するかのチェックを行なう。合致すればステップS15−5に進み、合致しなければステップS15−8に進む。   In step S15-4, it is checked whether the image data matches the classification condition of the learning data. If they match, the process proceeds to step S15-5, and if they do not match, the process proceeds to step S15-8.

図14の辞書データ1の例では、画像データの撮影時間が6時から8時であれば合致するし、それ以外であれば合致しない。   In the example of the dictionary data 1 in FIG. 14, the image data matches when the shooting time of the image data is from 6:00 to 8:00, and does not match otherwise.

ステップS15−5において、学習データの選択条件に画像データが合致するかをチェックする。選択条件に合致すればステップS15−6に進み、合致しなければステップS15−8に進む。図14の辞書データ1の例では、画像データのコントランスト値がA〜Bの間であれば合致し、そうでなければ合致しない。   In step S15-5, it is checked whether the image data matches the learning data selection condition. If the selection condition is met, the process proceeds to step S15-6, and if not, the process proceeds to step S15-8. In the example of the dictionary data 1 in FIG. 14, it matches if the contrast value of the image data is between A and B, and does not match otherwise.

ステップS15−6において、学習量&学習時間のチェックを行なう。ここでは、辞書の辞書データの学習状態をチェックし、適応するかどうかを決定する。規定の作成対象画像量を満たしていればステップS15−7に進み、規定の作成対象画像量以下であればステップS15−8に進む。例えば、10枚の画像から3枚選択した状態で作られた辞書データであれば、たまたまの例かもしれないので学習データとしては不適当である。例えば100枚の画像から作られた辞書データであれば信用して適応させる。又は、短期での学習だと不安定かもしれないので、学習時間もチェックする。   In step S15-6, the learning amount & learning time is checked. Here, the learning state of the dictionary data of the dictionary is checked to determine whether to adapt. If the prescribed creation target image amount is satisfied, the process proceeds to step S15-7, and if it is less than the prescribed creation target image amount, the process proceeds to step S15-8. For example, dictionary data created in a state where three images are selected from ten images may be an accidental example, and is inappropriate as learning data. For example, dictionary data created from 100 images is trusted and adapted. Or, since it may be unstable if it is a short-term study, check the study time.

ステップS15−7において、画像ファイルに選択マークを付加し、学習適応履歴を加算する処理を行なう。どれだけ適応したかを加算していく。よく使われる傾向の画像はより選択しやすくする。   In step S15-7, a selection mark is added to the image file, and a process for adding the learning adaptation history is performed. Add how much you adapt. Make images that tend to be used more easily.

ステップS15−8において、全学習データをチェックしたかをチェックする。全学習データをチェックしていればステップS15−9に進み、そうでなければステップS15−3に進む。   In step S15-8, it is checked whether all learning data has been checked. If all the learning data are checked, the process proceeds to step S15-9, and if not, the process proceeds to step S15-3.

ステップS15−9において、全画像データチェックしたかをチェックする。全ての画像データが処理済であればステップS15−10に進み、未処理の画像データがあればステップS15−2に進む。   In step S15-9, it is checked whether all image data has been checked. If all the image data has been processed, the process proceeds to step S15-10, and if there is unprocessed image data, the process proceeds to step S15-2.

ステップS15−10において、記憶した選択画像を出力する。選択画像の出力結果は、図17の34のようになる。ユーザが選択すべき良い画像は例えば、表示のように大きく強調表示し、通常選ばないような、画像は表示のように小さく表示してもいい。例の様に、選択すべき画像をおおきくすると、選択しやすいと考える。または、画像の枠を点滅させたる事も考えられる。又は、非選択候補の画像の方の画像明度を下げて、選択する傾向が強い画像のほうを鮮やかに表示する方法も考えられる。   In step S15-10, the stored selected image is output. The output result of the selected image is as indicated by 34 in FIG. For example, a good image to be selected by the user may be highlighted as shown, and an image that is not normally selected may be displayed as small as displayed. As in the example, if you select a large image to be selected, it will be easy to select. Alternatively, it may be possible to blink the frame of the image. Alternatively, a method may be considered in which the image brightness of the non-selected candidate image is lowered and the image having a strong tendency to select is displayed more vividly.

ステップS15−11において、この処理を終了する。ワーク領域を破棄し、辞書ファイルを閉じる。   In step S15-11, this process ends. Discard the work area and close the dictionary file.

図16のフローチャートに沿って、学習処理を説明する。優先表示された画像の中からある画像を選択し、又はそれ以外を選択することが有るのでその指示動作での学習処理を説明する。   The learning process will be described along the flowchart of FIG. Since there is a case where an image is selected from among the preferentially displayed images or other images are selected, the learning process in the instruction operation will be described.

ステップS16−1において、学習処理が開始される。図17のような画像一覧表示が表示される状態でこの処理が呼ばれる。   In step S16-1, a learning process is started. This process is called in a state where an image list display as shown in FIG. 17 is displayed.

ステップS16−2において,学習適応された画像一覧が表示される。図17のような表示例になる。   In step S16-2, a learning-adapted image list is displayed. The display example is as shown in FIG.

ステップS16−3において、優先表示された画像がアルバム画像として選択されたかをチェックする。アルバムの画像として選択される時に、選択マークがされているかをチェックする。例えば、図17の32の画像をアルバムの画像として選択指示すると、図17の35の画像は強調表示されているのでステップS16−4に進む。強調表示以外の画像をアルバムの画像として選択指示するとステップS16−5に進む。例えば、図17の36の画像を選択すると、ステップS16−5に進む。   In step S16-3, it is checked whether the preferentially displayed image is selected as the album image. When selected as an album image, check if a selection mark is present. For example, if 32 images in FIG. 17 are selected and instructed as album images, the image 35 in FIG. 17 is highlighted and the process proceeds to step S16-4. If an image other than the highlight display is designated as an album image, the process proceeds to step S16-5. For example, when the image 36 in FIG. 17 is selected, the process proceeds to step S16-5.

ステップS16−4において、画像処理適応履歴を加算する。アルバムの画像として選択指示された優先画像に適応した辞書データの画像処理適応履歴を加算する。例えば、図17の34の優先画像が図14の辞書番号4辞書データの適応結果なら、その学習適応枚数を1加算する。ステップS16−5において、辞書学習データの画像処理適応履歴を減算処理する。例えば図17の36の、非優先画像が選択されたら、その画像と同じ分類条件の辞書データ4の画像処理適応履歴を減算する。例えば適応枚数を1減算する。   In step S16-4, the image processing adaptation history is added. The image processing adaptation history of dictionary data adapted to the priority image selected and designated as the album image is added. For example, if the priority image 34 in FIG. 17 is the adaptation result of the dictionary number 4 dictionary data in FIG. 14, the learning adaptation number is incremented by one. In step S16-5, the image processing adaptation history of the dictionary learning data is subtracted. For example, when a non-priority image of 36 in FIG. 17 is selected, the image processing adaptation history of the dictionary data 4 having the same classification condition as that image is subtracted. For example, 1 is subtracted from the adaptive number.

ステップS16−6において、選択された画像で新たな学習データを作成する処理を行なう。図17の例でいうと36が選択されたので、36の画像を元に新たな辞書データを作成する。辞書データの作製処理自体は、分類条件はすでに決定さているので、選択条件を非選択画像との比較から、第1の実施形態で説明した処理手順で作成すれば良い。   In step S16-6, a process of creating new learning data with the selected image is performed. In the example of FIG. 17, since 36 is selected, new dictionary data is created based on the 36 images. In the dictionary data creation process itself, since the classification conditions have already been determined, the selection conditions may be created according to the processing procedure described in the first embodiment based on comparison with the non-selected images.

ステップS16−7でこの学習処理を終了する。ワーク領域等を開放し、画像処理適応履歴を更新した辞書ファイルを閉じる。このように構成することにより、学習状態によって学習結果を適応するか適応しないかを判断し、よく選択する画像と同一傾向の画像は強調表示する画像情報処理装置を実現できる。   In step S16-7, the learning process ends. Open the work area and close the dictionary file with the updated image processing adaptation history. With this configuration, it is possible to realize an image information processing apparatus that determines whether to apply a learning result according to a learning state, and highlights an image having the same tendency as an image that is often selected.

上述した本発明の実施形態を構成する各手段及び各ステップは、コンピュータのRAMやROM等に記憶されたプログラムが実行されることによって実現できる。このプログラム及び前記プログラムを記録したコンピュータ読み取り可能な記録媒体は本発明に含まれる。   Each means and each step constituting the embodiment of the present invention described above can be realized by executing a program stored in a RAM, a ROM, or the like of a computer. This program and a computer-readable recording medium recording the program are included in the present invention.

1:画像情報処理装置、2:ペン   1: Image information processing device, 2: Pen

Claims (7)

任意の画像を指示する画像選択指示手段と、
選択された画像を分類条件に基づいて分類する画像分類手段と、
分類毎の選択基準を抽出する抽出手段と、
前記分類条件と選択基準とを記憶する手段と、
記憶された分類条件、選択基準に基づいて画像処理を適応する手段と、
を備えたことを特徴とする画像情報処理装置。
Image selection instruction means for instructing an arbitrary image;
Image classification means for classifying selected images based on classification conditions;
Extraction means for extracting selection criteria for each classification;
Means for storing the classification conditions and selection criteria;
Means for adapting image processing based on stored classification conditions, selection criteria;
An image information processing apparatus comprising:
前記画像処理を適応する手段とは、分類条件、選択基準に基づいて画像を自動配置することを特徴とする請求項1に記載の画像情報処理装置。   2. The image information processing apparatus according to claim 1, wherein the means for adapting the image processing automatically arranges images based on classification conditions and selection criteria. 前記画像処理を適応する手段とは、分類条件、選択基準に基づいて画像を一覧表示することを特徴とする請求項1に記載の画像情報処理装置。   The image information processing apparatus according to claim 1, wherein the means for adapting the image processing displays a list of images based on classification conditions and selection criteria. 前記分類条件とは、画像メタデータ又は画像類似度であることを特徴とする請求項1に記載の画像情報処理装置。   The image information processing apparatus according to claim 1, wherein the classification condition is image metadata or image similarity. 前記選択基準とは、画像コントラスト値、画像明度、画像ピント判定値、画像の水平度であることを特徴とする請求項1に記載の画像情報処理装置。   The image information processing apparatus according to claim 1, wherein the selection criterion is an image contrast value, an image brightness, an image focus determination value, and an image level. 任意の画像を指示する画像選択指示工程と、
選択された画像を分類条件に基づいて分類する画像分類工程と、
分類毎の選択基準を抽出する抽出工程と、
前記分類条件と選択基準とを記憶する工程と、
記憶された分類条件、選択基準に基づいて画像処理を適応する工程と、
を備えたことを特徴とする画像情報処理方法。
An image selection instruction process for instructing an arbitrary image;
An image classification process for classifying selected images based on classification conditions;
An extraction process for extracting selection criteria for each classification;
Storing the classification conditions and selection criteria;
Adapting image processing based on stored classification conditions, selection criteria;
An image information processing method comprising:
任意の画像を指示する画像選択指示工程と、
選択された画像を分類条件に基づいて分類する画像分類工程と、
分類毎の選択基準を抽出する抽出工程と、
前記分類条件と選択基準とを記憶する工程と、
記憶された分類条件、選択基準に基づいて画像処理を適応する工程と、
をコンピュータに実行させるためのプログラム。
An image selection instruction process for instructing an arbitrary image;
An image classification process for classifying selected images based on classification conditions;
An extraction process for extracting selection criteria for each classification;
Storing the classification conditions and selection criteria;
Adapting image processing based on stored classification conditions, selection criteria;
A program that causes a computer to execute.
JP2009113785A 2009-05-08 2009-05-08 Image information processor, image information processing method and program Pending JP2010262531A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009113785A JP2010262531A (en) 2009-05-08 2009-05-08 Image information processor, image information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009113785A JP2010262531A (en) 2009-05-08 2009-05-08 Image information processor, image information processing method and program

Publications (1)

Publication Number Publication Date
JP2010262531A true JP2010262531A (en) 2010-11-18

Family

ID=43360532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009113785A Pending JP2010262531A (en) 2009-05-08 2009-05-08 Image information processor, image information processing method and program

Country Status (1)

Country Link
JP (1) JP2010262531A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012073421A1 (en) * 2010-11-29 2012-06-07 パナソニック株式会社 Image classification device, image classification method, program, recording media, integrated circuit, and model creation device
WO2012101697A1 (en) * 2011-01-26 2012-08-02 パナソニック株式会社 Image management device, image management method, program, recording medium, and integrated circuit
JP2017098633A (en) * 2015-11-18 2017-06-01 カシオ計算機株式会社 Imaging apparatus, image evaluation method and program
JP2020046901A (en) * 2018-09-19 2020-03-26 富士フイルム株式会社 Image processing device, image processing method, and image processing program
JP7011011B1 (en) 2020-08-31 2022-01-26 クックパッド株式会社 Posting support device, posting support method, and posting support program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8953895B2 (en) 2010-11-29 2015-02-10 Panasonic Intellectual Property Corporation Of America Image classification apparatus, image classification method, program, recording medium, integrated circuit, and model creation apparatus
WO2012073421A1 (en) * 2010-11-29 2012-06-07 パナソニック株式会社 Image classification device, image classification method, program, recording media, integrated circuit, and model creation device
JP5934653B2 (en) * 2010-11-29 2016-06-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image classification device, image classification method, program, recording medium, integrated circuit, model creation device
JP5990105B2 (en) * 2011-01-26 2016-09-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image management apparatus, image management method, program, recording medium, integrated circuit
US9020264B2 (en) 2011-01-26 2015-04-28 Panasonic Intellectual Property Corporation Of America Image management device, image management method, program, recording medium, and integrated circuit
JPWO2012101697A1 (en) * 2011-01-26 2014-06-30 パナソニック株式会社 Image management apparatus, image management method, program, recording medium, integrated circuit
WO2012101697A1 (en) * 2011-01-26 2012-08-02 パナソニック株式会社 Image management device, image management method, program, recording medium, and integrated circuit
JP2017098633A (en) * 2015-11-18 2017-06-01 カシオ計算機株式会社 Imaging apparatus, image evaluation method and program
JP2020046901A (en) * 2018-09-19 2020-03-26 富士フイルム株式会社 Image processing device, image processing method, and image processing program
JP7053422B2 (en) 2018-09-19 2022-04-12 富士フイルム株式会社 Image processing device, image processing method and image processing program
JP7011011B1 (en) 2020-08-31 2022-01-26 クックパッド株式会社 Posting support device, posting support method, and posting support program
WO2022044421A1 (en) * 2020-08-31 2022-03-03 クックパッド株式会社 Posting assistance device, posting assistance method, and posting assistance program
JP2022040842A (en) * 2020-08-31 2022-03-11 クックパッド株式会社 Posting assistance device, posting assistance method, and posting assistance program

Similar Documents

Publication Publication Date Title
CN110163198B (en) Table identification reconstruction method and device and storage medium
US10506110B2 (en) Image processing apparatus, control method, and storage medium
CN107408212B (en) System and method for identifying unwanted photos stored on a device
US7995806B2 (en) Digital image processing apparatus, method of controlling the same, and recording medium for storing program for executing the method
US20180164984A1 (en) Control method and storage medium
US20190080457A1 (en) Electronic device and method for automatic human segmentation in image
US8531478B2 (en) Method of browsing photos based on people
US10560601B2 (en) Image processing method, image processing apparatus, and storage medium
US7720258B1 (en) Structured comparison of objects from similar images
JP2004520735A (en) Automatic cropping method and apparatus for electronic images
US20140115536A1 (en) Display program and display device
CN104822016A (en) Image processing device and image processing method
US9690980B2 (en) Automatic curation of digital images
US10460494B2 (en) Control method and storage medium
JP7336211B2 (en) Image processing device, control method, and program
CN109598748B (en) Image extraction device, image extraction method, image extraction program, and recording medium storing the program
JP2010262531A (en) Image information processor, image information processing method and program
US6847379B2 (en) Display of static digital images
JP7336209B2 (en) Image processing device, control method, and program
JP6197063B2 (en) Image processing apparatus, important person determination method, image layout method, program, and recording medium
US10860885B2 (en) Method and system for management and operation over image in a computing system
CN109977247A (en) Image processing method and image processing apparatus
CN110222207B (en) Picture sorting method and device and intelligent terminal
JP7336210B2 (en) Image processing device, control method, and program
JP7336212B2 (en) Image processing device, control method, and program