JP2014093058A - Image management device, image management method, program and integrated circuit - Google Patents

Image management device, image management method, program and integrated circuit Download PDF

Info

Publication number
JP2014093058A
JP2014093058A JP2012245031A JP2012245031A JP2014093058A JP 2014093058 A JP2014093058 A JP 2014093058A JP 2012245031 A JP2012245031 A JP 2012245031A JP 2012245031 A JP2012245031 A JP 2012245031A JP 2014093058 A JP2014093058 A JP 2014093058A
Authority
JP
Japan
Prior art keywords
image
items
object recognition
item
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012245031A
Other languages
Japanese (ja)
Inventor
Kenichi Yatani
健一 矢谷
Ryoichi Kawanishi
亮一 川西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2012245031A priority Critical patent/JP2014093058A/en
Publication of JP2014093058A publication Critical patent/JP2014093058A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image management device capable of performing hierarchical classification based on the content of images on an image group including various kinds of objects.SOLUTION: The image management device includes: object recognition means that recognizes the similarity with general models in the images to classify the images into semantic concept items; clustering means that classifies the images on the basis of the similarity in the feature amount among the images; detailed classification item selection means that selects an item from the semantic concepts which are classified by the object recognition means while giving the priority to the item in accordance with the diversity of the items in the semantic concepts; and a hierarchical structure generation section that generates a hierarchical classification structure of the image groups by integrating the classification results made by the object recognition means and the clustering means. The object recognition means classifies the image groups into partial image groups of the items in the semantic concept selected by the detailed classification item selection means. The clustering means performs classification on the partial image groups classified by the object recognition means.

Description

本発明は、画像を階層分類する画像管理装置に関するものである。   The present invention relates to an image management apparatus for hierarchically classifying images.

近年、デジタルスチルカメラやカメラ機能付き携帯電話機等のデジタル画像撮影機器や、撮影した画像を記録するためのハードディスク等の記録媒体が普及している。   In recent years, digital image capturing devices such as a digital still camera and a mobile phone with a camera function, and a recording medium such as a hard disk for recording a captured image have become widespread.

これに伴い、ユーザが蓄積する画像は大量となっている。このように大量の画像から、ユーザが望む画像を探し出すことは困難である。   Accordingly, a large amount of images are accumulated by the user. Thus, it is difficult to find an image desired by the user from a large number of images.

ユーザが望む画像を探し出すことを容易にするために、所定の条件でコンテンツを分類することが考えられる。画像を分類するための所定の条件として、コンテンツの特徴量の類似性を用いる技術が存在する(例えば特許文献1、特許文献2参照)。   In order to make it easier for the user to find the desired image, it is conceivable to classify the content under a predetermined condition. As a predetermined condition for classifying images, there is a technique that uses the similarity of content feature amounts (see, for example, Patent Document 1 and Patent Document 2).

特許文献1では、画像の検索において、ユーザが指定した画像との類似度が所定値以上の画像をクラスタリングにより分類し、クラスタを選択することで絞込み検索できるようにしている。   In Patent Document 1, in image search, images having a similarity with an image designated by the user are classified by clustering, and a narrow search can be performed by selecting a cluster.

また、特許文献2では、コンテンツの類似性に基づきコンテンツを階層構造化することにより、効率的にウォークスルー探索できるようにしている。   In Patent Document 2, content is hierarchically structured based on the similarity of content, thereby enabling efficient walk-through search.

特許第3457617号公報Japanese Patent No. 3457617 特許第3614235号公報Japanese Patent No. 3614235

しかしながら、画像特徴量の類似性に基づく画像分類は、ユーザによる画像検索にとって有用であるとは限らない。ユーザによる画像検索においては、例えば画像の意味内容(画像に写る物体の名称や画像が撮影されたシーン等)のような、ユーザにとって直感的な情報を検索条件として指定することで容易な検索が可能になると考えられる。しかしながら、画像特徴量が類似する画像が、画像の意味内容が同一または類似する画像であるとは限らない。その結果、画像特徴量の類似性に基づく画像分類のみでは、画像の意味内容を指定するといった、ユーザにとって容易と考えられる検索方法による画像検索が適切に行うことができないという課題がある。   However, image classification based on the similarity of image feature amounts is not always useful for image retrieval by a user. In the image search by the user, for example, the user can easily search by specifying intuitive information as a search condition such as the meaning content of the image (the name of the object appearing in the image, the scene where the image is captured, etc.). It will be possible. However, images having similar image feature amounts are not necessarily images having the same or similar semantic content. As a result, there is a problem that an image search based on a search method that is considered easy for the user, such as designating the semantic content of an image, cannot be performed appropriately only by image classification based on the similarity of image feature amounts.

そこで、本発明はかかる問題に鑑みてなされたものであり、物体認識で分類する項目を適切に選択することにより、より画像群の意味内容に即した階層構造化を可能とする画像管理装置を提供することを目的とする。   Therefore, the present invention has been made in view of such a problem, and an image management apparatus that enables a hierarchical structure more suitable for the semantic content of an image group by appropriately selecting items to be classified by object recognition. The purpose is to provide.

上記課題を解決するために、本発明に係る画像管理装置は、一般的なモデルとの類似性に基づき画像を意味概念の項目毎に分類する物体認識手段と、画像の特徴量同士の類似性に基づき画像を分類するクラスタリング手段と、意味概念の項目毎の多様性に応じて、前記物体認識手段で分類する前記意味概念の項目を優先度づけて選択する詳細分類項目選択手段と、前記物体認識手段と前記クラスタリング手段における分類結果を統合して、画像群の階層分類構造を生成する階層構造生成部と、を備え、前記物体認識手段は、前記画像群を、前記詳細分類項目選択手段で選択された前記意味概念の項目毎の部分画像群に分類し、前記クラスタリング手段は、前記物体認識手段で分類された各部分画像群を対象として分類を行う。   In order to solve the above-described problems, an image management apparatus according to the present invention includes an object recognition unit that classifies an image for each semantic concept item based on similarity to a general model, and similarity between image feature amounts. Clustering means for classifying images based on the above, detailed classification item selection means for selecting the semantic concept items to be classified by the object recognition means according to the diversity of each semantic concept item, and the object A hierarchical structure generating unit that integrates the classification results of the recognition unit and the clustering unit to generate a hierarchical classification structure of the image group, and the object recognition unit converts the image group into the detailed classification item selection unit. Classification is performed on the partial image group for each item of the selected semantic concept, and the clustering unit classifies each partial image group classified by the object recognition unit.

本構成によって、画像群の階層構造化において、多様な物体が撮影される項目を優先的に詳細物体認識することにより、物体認識の項目数を最小化しつつ、物体認識で画像群の内容に即した項目に階層分類することができ、ひいては、より画像群の意味内容に即した階層構造化が可能となる。   With this configuration, in the hierarchical structure of the image group, detailed object recognition is preferentially performed for items for which various objects are photographed, thereby minimizing the number of items for object recognition and matching the contents of the image group with object recognition. Hierarchical classification can be performed on the selected items, and as a result, a hierarchical structure can be made more in line with the semantic content of the image group.

本発明によれば、画像群の階層構造化を行う際、画像群の多様性に応じた物体認識の項目を選択することができる。これによって、意味毎に合う詳細さの粒度で画像群を物体認識により分類し、画像群の意味内容に即した階層構造化を行うことができる。すなわち、物体認識の項目数の増加に伴う分類性能の悪化を防ぎ、物体認識による分類の精度を向上させることができる。   According to the present invention, when performing hierarchical structure of image groups, it is possible to select items for object recognition according to the diversity of the image groups. As a result, the image group can be classified by object recognition with a granularity of detail suitable for each meaning, and a hierarchical structure can be formed in accordance with the semantic content of the image group. That is, it is possible to prevent the classification performance from deteriorating with an increase in the number of items for object recognition and improve the accuracy of classification by object recognition.

絞込み検索の一例を示す図Diagram showing an example of a refined search 階層構造の一例を示す図Diagram showing an example of a hierarchical structure 実施の形態1における、画像管理装置の機能ブロック図Functional block diagram of the image management apparatus in the first embodiment 実施の形態1における、図3の物体認識部の機能ブロック図Functional block diagram of the object recognition unit of FIG. 3 in the first embodiment 実施の形態1における、図3のクラスタリング部の機能ブロック図Functional block diagram of the clustering unit of FIG. 3 in the first embodiment 実施の形態1における、図3の詳細分類項目選択部の機能ブロック図Functional block diagram of the detailed classification item selection unit of FIG. 3 in the first embodiment 実施の形態1における、画像管理装置の全体動作の一例を示すフローチャート6 is a flowchart illustrating an example of the overall operation of the image management apparatus in the first embodiment. 実施の形態1における、詳細分類項目選択部の処理の一例を示すフローチャートThe flowchart which shows an example of the process of the detailed classification item selection part in Embodiment 1. 実施の形態1における、物体認識部において、画像群を概要分類項目に分類する処理の一例を示すフローチャートThe flowchart which shows an example of the process which classifies an image group into an outline classification item in the object recognition part in Embodiment 1. 実施の形態1における、物体認識部において、画像群を詳細分類項目に分類する処理の一例を示すフローチャートThe flowchart which shows an example of the process which classifies an image group into a detailed classification item in the object recognition part in Embodiment 1. 画像管理情報の一例を示す図The figure which shows an example of image management information 画像管理装置の詳細分類項目の候補の一例を階層的に表した図A diagram showing an example of detailed classification item candidates of the image management apparatus in a hierarchical manner 意味階層情報の一例を示す図Diagram showing an example of semantic hierarchy information 実施の形態1における、概要分類結果管理情報の一例を示す図The figure which shows an example of the summary classification result management information in Embodiment 1 実施の形態1における、多様性管理情報の一例を示す図The figure which shows an example of the diversity management information in Embodiment 1. 実施の形態1における、優先度管理情報の一例を示す図The figure which shows an example of the priority management information in Embodiment 1 実施の形態1における、詳細分類項目管理情報の一例を示す図The figure which shows an example of the detailed classification item management information in Embodiment 1 詳細分類結果管理情報の一例を示す図The figure which shows an example of detailed classification result management information 実施の形態1における、分類項目別画像管理情報の一例を示す図The figure which shows an example of the image management information according to classification item in Embodiment 1 実施の形態1における、クラスタリング結果管理情報の一例を示す図The figure which shows an example of the clustering result management information in Embodiment 1 実施の形態1における、クラスタリング結果管理情報の一例を階層的に表した図FIG. 6 is a diagram hierarchically showing an example of clustering result management information in the first embodiment 実施の形態1における、階層構造管理情報の一例を示す図The figure which shows an example of the hierarchical structure management information in Embodiment 1 実施の形態1における、階層構造管理情報の一例を階層的に表した図FIG. 7 is a diagram hierarchically showing an example of hierarchical structure management information in the first embodiment 実施の形態1における、入力画像群の一例を示す図The figure which shows an example of the input image group in Embodiment 1 実施の形態2における、画像管理装置の機能ブロック図Functional block diagram of the image management apparatus in the second embodiment 実施の形態2における、図25の詳細分類項目選択部の機能ブロック図Functional block diagram of the detailed classification item selection unit of FIG. 25 in the second embodiment 実施の形態2における、詳細分類項目選択部の処理の一例を示すフローチャートThe flowchart which shows an example of the process of the detailed classification item selection part in Embodiment 2. メタデータ管理情報の一例を示す図The figure which shows an example of metadata management information 興味度管理情報の一例を示す図A figure showing an example of interest management information 実施の形態2における、多様性管理情報の一例を示す図The figure which shows an example of the diversity management information in Embodiment 2. 実施の形態2における、優先度管理情報の一例を示す図The figure which shows an example of the priority management information in Embodiment 2. 実施の形態2における、詳細分類項目管理情報の一例を示す図The figure which shows an example of the detailed classification item management information in Embodiment 2 実施の形態3における、画像管理装置の機能ブロック図Functional block diagram of an image management apparatus in the third embodiment 実施の形態3における、画像管理装置の全体動作の一例を示すフローチャート10 is a flowchart illustrating an example of the overall operation of the image management apparatus according to the third embodiment. 実施の形態3における、多様性管理情報の一例を示す図The figure which shows an example of the diversity management information in Embodiment 3. 実施の形態3における、優先度管理情報の一例を示す図The figure which shows an example of the priority management information in Embodiment 3 実施の形態3における、分類項目別画像管理情報の一例を示す図The figure which shows an example of the image management information according to classification item in Embodiment 3 実施の形態3における、クラスタリング結果管理情報の一例を示す図The figure which shows an example of the clustering result management information in Embodiment 3 実施の形態3における、クラスタリング結果管理情報の一例を階層的に表した図The figure which represented hierarchically an example of the clustering result management information in Embodiment 3 変形例(1)における、絞込み検索部を備えた画像管理装置の機能ブロック図Functional block diagram of an image management apparatus provided with a refinement search unit in Modification (1) 変形例(2)における、画像管理装置の機能ブロック図Functional block diagram of the image management apparatus in Modification (2)

(本発明に係る一形態を得るに至った経緯)
発明者は、ユーザによる画像検索における課題について詳細に検討した。以下、この点について説明する。
(Background to obtaining one embodiment of the present invention)
The inventor examined in detail the problem in image search by the user. Hereinafter, this point will be described.

まず、ユーザにとって容易な画像検索方法について説明する。   First, an image search method that is easy for the user will be described.

検索対象がユーザの蓄積する画像のように大量である場合は、ユーザが探したい画像に意味が類似する画像を段階的に絞込みながら検索することで、ユーザの望む画像の検索が容易になる。   When there are a large number of search targets, such as images stored by the user, searching for images desired by the user is facilitated by performing a search while gradually narrowing down images similar in meaning to the image that the user wants to search.

絞込み検索画面の一例を図1に示す。最初は1aの画面から開始する。1aの各画像は、ユーザの蓄積する画像群を概要意味に基づき分類した部分画像群の代表画像である、ここで、代表画像は各部分画像群に含まれる画像から選ばれる。図1の例では、全画像群はまず「食事」「犬」「服」の意味粒度で分類されており、1aにおけるそれぞれの代表画像は、「食事」「犬」「服」の意味項目の部分画像群を表している。ユーザがいずれかの画像を選択すると、各意味項目に分類されている画像に絞込み検索することができる。すなわち、ユーザが選択した代表画像を含む部分画像群に検索対象を狭めて画像を検索することができる。例えばユーザが「食事」の画像を検索したいと考えている場合に、1aにおいて1dの画像を選択すると、「食事」をより詳細に分類する画面である1bに遷移する。図1の例では、1bの各画像は、食事の画像の中で、それぞれ「丼」「ラーメン」「カレー」の意味項目を表している。ユーザがいずれかを選択すると、より具体的な意味項目に分類されている画像に絞込み検索することができる。例えばユーザがカレーの画像を検索したいと考えている場合は、1eの画像を選択すると、カレーをより詳細に分類した1cの画面に遷移する。このように、検索対象の意味項目を段階的に具体的に変化させながら絞込み検索することで、ユーザは検索したい画像のイメージに基づき、容易に検索を行うことができる。   An example of the narrow search screen is shown in FIG. Start with the screen 1a. Each image 1a is a representative image of a partial image group in which an image group accumulated by the user is classified based on an outline meaning. Here, the representative image is selected from images included in each partial image group. In the example of FIG. 1, all image groups are first classified according to the meaning granularity of “meal”, “dog”, and “clothes”, and the representative images in 1a are the meaning items of “meal”, “dog”, and “clothes”. The partial image group is represented. When the user selects any image, the search can be narrowed down to images classified into the respective semantic items. That is, it is possible to search for an image by narrowing the search target to a partial image group including the representative image selected by the user. For example, when the user wants to search for an image of “meal” and selects the image of 1d in 1a, the screen shifts to 1b, which is a screen for classifying “meal” in more detail. In the example of FIG. 1, each image of 1b represents a semantic item of “丼”, “ramen”, and “curry” in the meal image. When the user selects either one, the search can be narrowed down to images classified into more specific semantic items. For example, when the user wants to search for an image of curry, if the user selects the image of 1e, the screen transitions to the screen of 1c that classifies the curry in more detail. In this way, by performing a narrowed search while specifically changing the semantic items to be searched step by step, the user can easily perform a search based on the image of the image to be searched.

上記のような検索を行うために、分類する意味項目の粒度を変化させながら画像群を階層構造化し、生成された階層構造を上から辿ることで絞込み検索することが考えられる。   In order to perform the above-described search, it is conceivable that the image group is hierarchically structured while changing the granularity of the semantic items to be classified, and the search is narrowed down by tracing the generated hierarchical structure from above.

図1のような絞込み検索を実現するための階層構造の例を図2に示す。図において、灰色で塗りつぶした丸は、1つ1つの画像を表している。白丸はそれより下位にある画像からなる部分画像群を表している。上位の部分画像群の下位に複数の画像(または部分画像群)が連結している状態は、上位の部分画像群は類似する概念である複数の下位の画像(または部分画像群)をまとめたものであることを表す。このように、分類する意味項目の粒度を変化させながら画像群を階層構造化することで、生成された階層構造を上から辿ることで絞込み検索することが可能となる。   FIG. 2 shows an example of a hierarchical structure for realizing the narrow search as shown in FIG. In the figure, a circle filled with gray represents each image. A white circle represents a partial image group composed of lower-order images. In the state where a plurality of images (or partial image groups) are connected to the lower part of the upper partial image group, the upper partial image group is composed of a plurality of lower images (or partial image groups), which are similar concepts. Represents a thing. In this way, by making the image group into a hierarchical structure while changing the granularity of the semantic items to be classified, it becomes possible to narrow down the search by tracing the generated hierarchical structure from above.

ここで、このような意味項目に基づく分類を行うためには、画像に対して、画像に写る物体の意味を識別して付加する必要がある。このとき、大量の画像一つひとつにユーザが手動でコメント等の画像の情報を付加するのは手間であるため、画像情報のみから画像群を階層構造化する技術が求められている。   Here, in order to perform classification based on such semantic items, it is necessary to identify and add the meaning of an object appearing in the image to the image. At this time, since it is troublesome for the user to manually add image information such as comments to each of a large number of images, there is a need for a technique for hierarchically grouping image groups from only image information.

しかしながら、特許文献1、特許文献2ともに、画像の特徴量の類似性に基づき画像群をクラスタリングするものであり、画像に写る物体の意味を考慮してクラスタリングを行うものではない。特に、特許文献2は、コンテンツ群を階層構造化して管理するものであるが、このときの階層化も、画像の特徴量の類似性に基づいて行われるものであり、画像に写る物体の意味を考慮したものではない。   However, both Patent Document 1 and Patent Document 2 cluster an image group based on the similarity of image feature amounts, and do not perform clustering in consideration of the meaning of an object appearing in the image. In particular, Patent Document 2 manages contents groups in a hierarchical structure, and the hierarchization at this time is also performed based on the similarity of image feature amounts, meaning the object in the image. Is not taken into account.

そこで、画像に写る物体の意味を画像に対して付加して分類する方法として、物体認識の手法を用い、分類項目のモデルとの比較により画像群を意味に基づき部分画像群に分類し、部分画像群をクラスタリングの手法で互いの類似性に基づき分類することにより、画像群を階層構造化することが考えられる。   Therefore, as a method of adding and classifying the meaning of an object appearing in an image, an object recognition method is used, and the image group is classified into partial image groups based on the meaning by comparison with a classification item model. It is conceivable to classify image groups by classifying the image groups based on their similarities using a clustering technique.

この場合、より画像群の意味内容に即した階層構造化を行うためには、より詳細な粒度の意味項目に分類する必要がある。より詳細な粒度の意味項目に分類するためには、物体認識の分類項目数を増やす必要がある。ところが、物体認識の項目数を増やすと分類性能が悪化するため、より画像群の意味内容に即した階層構造化を行うことができないという課題がある。   In this case, in order to make a hierarchical structure in accordance with the semantic content of the image group, it is necessary to classify the semantic items into more detailed granularity. In order to classify into more detailed granularity semantic items, it is necessary to increase the number of classification items for object recognition. However, if the number of items for object recognition is increased, the classification performance deteriorates, so that there is a problem that it is not possible to perform a hierarchical structure in accordance with the semantic content of the image group.

本発明は、この課題を検討した結果、分類対象となる画像群の多様性に応じて物体認識の項目を選択することにより、意味毎に合う詳細さの粒度で画像群を物体認識により分類し、画像群の意味内容に即した階層構造化を行うことができることを見出し、本発明に至った。   As a result of studying this problem, the present invention classifies an image group by object recognition with a granularity of detail suitable for each meaning by selecting an object recognition item according to the diversity of the image group to be classified. The present inventors have found that a hierarchical structure can be formed in accordance with the semantic content of an image group, and have reached the present invention.

(実施の形態1)
ユーザが撮影した画像を階層構造化する上で、物体認識で分類する意味の粒度を詳細にすると、分類項目が多くなるため、物体認識の精度が悪化する。画像群の内容に合わせて、詳細に分類するべき意味を変化させるのが効率的である。
(Embodiment 1)
If the granularity of the meaning of classification by object recognition is made detailed in the hierarchical structure of images taken by the user, the number of classification items increases, and the accuracy of object recognition deteriorates. It is efficient to change the meaning to be classified in detail according to the contents of the image group.

実施の形態1に係る画像管理装置は、このような考えに基づき画像認識処理を行うものである。   The image management apparatus according to the first embodiment performs image recognition processing based on such an idea.

以下、実施の形態1における画像管理装置について、図面を参照しながら説明する。   Hereinafter, the image management apparatus according to Embodiment 1 will be described with reference to the drawings.

図3は、実施の形態1における画像管理装置の機能ブロック図である。   FIG. 3 is a functional block diagram of the image management apparatus according to the first embodiment.

画像管理装置100は、画像蓄積装置111及び階層構造記憶装置151と接続されている。   The image management device 100 is connected to the image storage device 111 and the hierarchical structure storage device 151.

画像蓄積装置111は、ユーザの画像を、画像毎に一意に付与された画像IDと対応付けて蓄積することができる装置である。   The image storage device 111 is a device that can store a user image in association with an image ID uniquely assigned to each image.

階層構造記憶装置151は、画像管理装置100が生成した画像群の階層構造を記憶することができる装置である。   The hierarchical structure storage device 151 is a device that can store the hierarchical structure of the image group generated by the image management apparatus 100.

次に、画像管理装置100の内部構成について説明する。   Next, the internal configuration of the image management apparatus 100 will be described.

図3に示すように、画像管理装置100は、画像入力部110、物体認識部120、クラスタリング部130、詳細分類項目選択部140及び階層構造生成部150から構成される。   As illustrated in FIG. 3, the image management apparatus 100 includes an image input unit 110, an object recognition unit 120, a clustering unit 130, a detailed classification item selection unit 140, and a hierarchical structure generation unit 150.

画像入力部110は、画像蓄積装置111が蓄積している画像及び画像IDを取得する。   The image input unit 110 acquires images and image IDs stored in the image storage device 111.

物体認識部120は、画像入力部110の画像に対して、詳細分類項目選択部140が選択した物体の認識処理を行う。物体認識処理により、ユーザに依存しない意味概念を、一般的なモデルに基づき分類することができる。認識処理は、例えばSVM(Support Vector Machine)を用いた機械学習による分類手法や、あらかじめ用意された辞書とのパターンマッチングによる検出手法等がある。物体認識部で分類を行う意味項目としては、例えば、「食事」「犬」「丼」等がある。   The object recognition unit 120 performs recognition processing of the object selected by the detailed classification item selection unit 140 on the image of the image input unit 110. By the object recognition process, semantic concepts that do not depend on the user can be classified based on a general model. The recognition processing includes, for example, a classification method based on machine learning using SVM (Support Vector Machine), a detection method based on pattern matching with a dictionary prepared in advance, and the like. Examples of semantic items for classification by the object recognition unit include “meal”, “dog”, and “salmon”.

物体認識部120の機能構成の一例について、図4を参照しつつ説明する。図4は図3の物体認識部の機能ブロック図である。   An example of the functional configuration of the object recognition unit 120 will be described with reference to FIG. FIG. 4 is a functional block diagram of the object recognition unit of FIG.

物体認識部120は、モデル選択部121、物体認識実行部122、概要分類結果記憶部123及び詳細分類結果記憶部124を備える。   The object recognition unit 120 includes a model selection unit 121, an object recognition execution unit 122, a summary classification result storage unit 123, and a detailed classification result storage unit 124.

モデル選択部121は、物体認識処理によって意味分類を行う項目のモデルを、多様性算出部141または詳細分類項目記憶部146の情報に基づき選択する。   The model selection unit 121 selects a model of an item for which semantic classification is performed by object recognition processing based on information in the diversity calculation unit 141 or the detailed classification item storage unit 146.

物体認識実行部122は、モデル選択部121で選択されたモデルに基づき、物体認識処理を行う。   The object recognition execution unit 122 performs object recognition processing based on the model selected by the model selection unit 121.

概要分類結果記憶部123は、多様性算出部141の情報に基づきモデル選択部121でモデルを選択した場合に、画像群を物体認識実行部122で大まかな粒度の意味項目に分類した結果を記憶する。   The summary classification result storage unit 123 stores the result of classifying an image group into semantic items of coarse granularity by the object recognition execution unit 122 when the model selection unit 121 selects a model based on the information of the diversity calculation unit 141. To do.

詳細分類結果記憶部124は、詳細分類項目記憶部146の情報に基づきモデル選択部121でモデルを選択した場合に、画像群を物体認識実行部122で詳細な粒度の意味項目に分類した結果を記憶する。   When the model selection unit 121 selects a model based on the information in the detailed classification item storage unit 146, the detailed classification result storage unit 124 classifies the image group into detailed granularity semantic items by the object recognition execution unit 122. Remember.

ここで、図3における画像管理装置100の説明に戻る。   Here, the description returns to the image management apparatus 100 in FIG.

クラスタリング部130は、物体認識部120で同一項目に分類された部分画像群を、より詳細にクラスタリング処理で分類する。クラスタリングにより、ユーザに依存するより詳細な粒度の意味概念を、画像同士の類似関係に基づき分類できる。   The clustering unit 130 classifies the partial image groups classified into the same item by the object recognition unit 120 in more detail by clustering processing. Through clustering, semantic concepts with more detailed granularity depending on the user can be classified based on the similarity between images.

クラスタリング部130の機能構成の一例について、図5を参照しつつ説明する。図5は図3のクラスタリング部の機能ブロック図である。   An example of the functional configuration of the clustering unit 130 will be described with reference to FIG. FIG. 5 is a functional block diagram of the clustering unit of FIG.

クラスタリング部130は、クラスタリング実行部131及びクラスタリング結果記憶部132を備える。   The clustering unit 130 includes a clustering execution unit 131 and a clustering result storage unit 132.

クラスタリング実行部131は、入力画像群を、画像間の類似性に基づきクラスタリング処理で分類する。クラスタリング処理は、例えば、色ヒストグラムやエッジ特徴量等の画像特徴量の類似度に基づき、階層的クラスタリング、k−means、Affinity propergation等の方法でクラスタ化する方法等がある。クラスタリングによって、同一の意味概念の画像群を、事前にモデル化することが難しい意味に基いて、より詳細に分類できる。例えば、物体認識部で「柴犬」に分類された画像群に対して、「自分の家の柴犬」と「隣の家の柴犬」をユーザの画像入力やタグ付けの操作なしで事前にモデル化することは困難なため、両者を物体認識手法で分類することは困難であるが、クラスタリングによって、互いの類似性に基づき分類することで、「自分の家の柴犬」と「隣の家の柴犬」により詳細に分類することができる。   The clustering execution unit 131 classifies the input image group by clustering processing based on the similarity between images. Clustering processing includes, for example, a method of clustering by a method such as hierarchical clustering, k-means, or affinity propagation based on the similarity of image feature amounts such as color histograms and edge feature amounts. By clustering, images of the same semantic concept can be classified in more detail based on the meaning that is difficult to model in advance. For example, for a group of images classified as “Shiba-inu” by the object recognition unit, “Shiba-inu from my home” and “Shiba-in from the next house” are modeled in advance without user image input or tagging operations. However, it is difficult to classify them using object recognition methods, but by classifying them based on their similarities by clustering, the “Shiba Inu of my house” and “Shiba Inu of the next house” Can be classified in detail.

クラスタリング結果記憶部132は、クラスタリング実行部131でクラスタリングした結果を記憶する。   The clustering result storage unit 132 stores the result of clustering by the clustering execution unit 131.

ここで、図3における画像管理装置100の説明に戻る。   Here, the description returns to the image management apparatus 100 in FIG.

詳細分類項目選択部140は、画像群を物体認識によって詳細な意味粒度で分類する際の分類項目を選択する。詳細分類項目選択部140は、具体的には、画像入力部110が取得した画像群の多様性に基づき、分類候補の項目の中から、詳細な意味粒度で分類するべき項目を優先度付けて選択する。本実施の形態では、画像群をまず概要分類項目に分類し、概要分類項目毎の多様性に基づき、詳細分類項目を選択する場合について説明する。   The detailed classification item selection unit 140 selects a classification item for classifying an image group with detailed semantic granularity by object recognition. Specifically, the detailed classification item selection unit 140 prioritizes items to be classified with detailed semantic granularity among the classification candidate items based on the diversity of image groups acquired by the image input unit 110. select. In the present embodiment, a case will be described in which an image group is first classified into outline classification items, and a detailed classification item is selected based on diversity for each outline classification item.

詳細分類項目選択部140の機能構成の一例について、図6を参照しつつ説明する。図6は図3の詳細分類項目選択部の機能ブロック図である。   An example of a functional configuration of the detailed classification item selection unit 140 will be described with reference to FIG. FIG. 6 is a functional block diagram of the detailed classification item selection unit of FIG.

詳細分類項目選択部140は、多様性算出部141、優先度算出部142、意味階層記憶部143、多様性記憶部144、優先度記憶部145および詳細分類項目記憶部146を備える。   The detailed classification item selection unit 140 includes a diversity calculation unit 141, a priority calculation unit 142, a semantic hierarchy storage unit 143, a diversity storage unit 144, a priority storage unit 145, and a detailed classification item storage unit 146.

多様性算出部141は、概要分類項目毎に、分類数や被写体の変化に基づく多様性を定量化した値である多様性スコアを算出する。   The diversity calculation unit 141 calculates a diversity score that is a value obtained by quantifying diversity based on the number of classifications and changes in the subject for each summary classification item.

優先度算出部142は、分類候補の項目毎に、物体認識を行う項目を選択するための優先度を算出する。   The priority calculation unit 142 calculates a priority for selecting an item for object recognition for each item of the classification candidate.

意味階層記憶部143は、複数の意味粒度での分類項目及びそれらの階層関係を記憶する。   The semantic hierarchy storage unit 143 stores classification items at a plurality of semantic granularities and their hierarchical relationships.

多様性記憶部144は、多様性算出部141で算出した多様性スコアを、概要分類項目毎に記憶する。   The diversity storage unit 144 stores the diversity score calculated by the diversity calculation unit 141 for each outline classification item.

優先度記憶部145は、優先度算出部142で算出した優先度を、概要分類項目毎に記憶する。   The priority storage unit 145 stores the priority calculated by the priority calculation unit 142 for each outline classification item.

詳細分類項目記憶部146は、優先度算出部142で算出した優先度に基づき選択された詳細分類項目を記憶する。   The detailed classification item storage unit 146 stores the detailed classification item selected based on the priority calculated by the priority calculation unit 142.

ここで、図3における画像管理装置100の説明に戻る。   Here, the description returns to the image management apparatus 100 in FIG.

階層構造生成部150は、物体認識部120及びクラスタリング部130における分類結果を結合し、入力画像群を複数の意味粒度で段階的に分類してできる階層構造を生成する。すなわち、詳細分類項目選択部で選択された詳細分類項目毎に入力画像群を物体認識部で分類した結果と、詳細分類項目毎の部分画像群をクラスタリング部で分類した結果を結合することで、階層構造を生成する。生成された階層構造は、階層構造記憶装置151に記憶される。   The hierarchical structure generation unit 150 combines the classification results in the object recognition unit 120 and the clustering unit 130, and generates a hierarchical structure that can be obtained by classifying the input image group in stages with a plurality of semantic granularities. That is, by combining the result of classifying the input image group by the object recognition unit for each detailed classification item selected by the detailed classification item selection unit and the result of classifying the partial image group for each detailed classification item by the clustering unit, Generate a hierarchical structure. The generated hierarchical structure is stored in the hierarchical structure storage device 151.

図7のフローチャートを用いて、画像管理装置100が行う全体動作の概要を説明する。また、図7におけるS102は図8を、図8におけるS203の詳細は図9を、図7におけるS103の詳細は図10を用いて適宜説明する。   An overview of the overall operation performed by the image management apparatus 100 will be described using the flowchart of FIG. Further, S102 in FIG. 7 will be described as appropriate with reference to FIG. 8, details of S203 in FIG. 8 will be described with reference to FIG. 9, and details of S103 in FIG.

画像入力部110は、画像蓄積装置111から、画像管理情報を取得する(S101)。図11に、画像管理情報の例を示す。図11の例では、画像をJPEG(Joint Photographic Experts Group)フォーマットで、画像IDと対応付けて管理している。なお、画像情報の格納方式は、先に述べた方式に限られない。JPEGフォーマットで画像を格納する代わりに、PPM(Portable Pixmap Format)フォーマットやPNG(Portable Network Graphics)フォーマットで画像を格納してもよいし、画像蓄積装置111における画像のパスを格納しても良い。   The image input unit 110 acquires image management information from the image storage device 111 (S101). FIG. 11 shows an example of image management information. In the example of FIG. 11, images are managed in association with image IDs in the JPEG (Joint Photographic Experts Group) format. Note that the image information storage method is not limited to the method described above. Instead of storing an image in the JPEG format, the image may be stored in a PPM (Portable Pixmap Format) format or a PNG (Portable Network Graphics) format, or an image path in the image storage device 111 may be stored.

次に、詳細分類項目選択部140は、詳細に物体認識を行う項目を選択する(S102)。   Next, the detailed classification item selection unit 140 selects items for performing object recognition in detail (S102).

ここで、S102の処理の詳細を説明する前に、意味階層記憶部について説明する。意味階層記憶部は、画像管理装置100が分類する複数の意味粒度の分類項目の候補、および、各項目の階層関係を記憶する。ここで、分類項目の候補は、ユーザに依らず共通した意味概念の分類項目であり、例えば、「食事」「犬」「丼」等の分類項目がある。画像管理装置100が分類する複数の意味粒度の分類項目の候補が図12のような階層構造である場合の、意味記憶管理情報の一例を、図13に示す。意味階層情報において、階層、上位項目及び下位項目は、それぞれ、項目が上から何層目の階層に位置しているか、その意味の上位概念の項目、その意味の下位概念の項目を表す。例えば、図12では、「画像群」の概要的な分類項目の候補として「食事」「犬」「服」があり、「食事」に関する詳細な分類項目の候補として、「食事」の下位概念である「丼」「ラーメン」「カレー」があることを示している。また、図13の2行目は、「食事」が分類項目の候補の階層構造において1番目の階層にあり、「食事」の下位概念の項目は「丼」「ラーメン」「カレー」であることを示しており、図13の5行目は、「丼」が分類項目の候補の階層構造において2番目の階層にあり、「丼」の上位概念の項目は「食事」であることを示している。   Here, before explaining the details of the processing of S102, the semantic hierarchy storage unit will be explained. The semantic hierarchy storage unit stores a plurality of classification item candidates of semantic granularity classified by the image management apparatus 100 and the hierarchical relationship of each item. Here, the candidate for the classification item is a classification item with a common semantic concept regardless of the user, and includes, for example, classification items such as “meal”, “dog”, and “salmon”. FIG. 13 shows an example of semantic memory management information in the case where candidates for classification items of a plurality of semantic granularities classified by the image management apparatus 100 have a hierarchical structure as shown in FIG. In the semantic hierarchy information, each of the hierarchy, the upper item, and the lower item represents an item of the upper concept of the meaning, and an item of the lower concept of the meaning, in which hierarchy the item is located from the top. For example, in FIG. 12, there are “meals”, “dogs”, and “clothes” as candidates for general classification items of “image group”, and subordinate concepts of “meal” as candidates for detailed classification items related to “meals”. This indicates that there is a certain “sashimi”, “ramen” and “curry”. In the second line of FIG. 13, “meal” is in the first layer in the hierarchical structure of classification item candidates, and the subordinate concept items of “meal” are “丼”, “ramen”, and “curry”. The fifth line in FIG. 13 indicates that “丼” is in the second hierarchy in the hierarchical structure of the classification item candidates, and the item of the higher concept of “丼” is “meal”. Yes.

S102の処理の一例を、図8のフローチャートを用いて説明する。   An example of the process of S102 will be described using the flowchart of FIG.

詳細分類項目選択部140は、まず、画像管理情報に含まれている画像を大まかな意味粒度の項目に分類するために、意味階層記憶部から概要分類項目を取得する(S201)。ここで、概要分類項目とは、分類項目の候補の中で、意味粒度が大まかな分類項目のことである。例えば、図13に示す意味階層情報のうち、概要分類項目として、階層が1の項目を取得する。図13の例では、概要分類項目として、「食事」「犬」「服」が取得される。   The detailed classification item selection unit 140 first acquires a summary classification item from the semantic hierarchy storage unit in order to classify the images included in the image management information into items of rough semantic granularity (S201). Here, the summary classification item is a classification item having a rough semantic granularity among the classification item candidates. For example, in the semantic hierarchy information illustrated in FIG. 13, an item having a hierarchy of 1 is acquired as the summary classification item. In the example of FIG. 13, “meal”, “dog”, and “clothes” are acquired as summary classification items.

次に、詳細分類項目選択部140は、画像群を物体認識部120によりS201で取得した概要分類項目に分類する(S202)。   Next, the detailed classification item selection unit 140 classifies the image group into the summary classification items acquired in S201 by the object recognition unit 120 (S202).

S202の処理の一例を、図9のフローチャートを用いて説明する。   An example of the process of S202 will be described using the flowchart of FIG.

物体認識部120は、まず、モデル選択部121において、概要分類項目に対応するモデルを取得する(S301)。これは、S201で取得した概要分類項目のそれぞれに対応する分類モデルを、事前に作成したモデル群から選択することにより実現する。モデルは、例えば、予め一般的な画像を用いて、SVMの機械学習により生成したモデルを用いる。   The object recognition unit 120 first acquires a model corresponding to the summary classification item in the model selection unit 121 (S301). This is realized by selecting a classification model corresponding to each of the summary classification items acquired in S201 from a model group created in advance. For example, a model generated by SVM machine learning using a general image in advance is used.

次に、物体認識部120は、物体認識実行部122において、画像入力部110から入力した画像群を物体認識により分類する(S302)。例えば、SVMによる機械学習による分類手法を用いる場合は、画像特徴量とSVMの分類器及びS301で取得したモデルにより、分類したい物体の確からしさを表す値である尤度を算出し、尤度を互いに比較することで、各画像を分類する。   Next, in the object recognition execution unit 122, the object recognition unit 120 classifies the image group input from the image input unit 110 by object recognition (S302). For example, when a classification method based on machine learning by SVM is used, a likelihood that is a value representing the likelihood of an object to be classified is calculated by using the image feature amount, the SVM classifier, and the model acquired in S301, and the likelihood is calculated. Each image is classified by comparing with each other.

分類結果は、概要分類結果記憶部123において、概要分類結果管理情報として記憶される。概要分類結果管理情報の一例を図14に示す。図14の例では、各画像の概要分類項目を、画像IDと対応付けて記憶する。図14の例では、画像IDが0の画像を物体認識により大まかな意味粒度で分類した結果が「食事」であることを示している。以上で、図8におけるS202の処理が終了する。   The classification result is stored in the summary classification result storage unit 123 as summary classification result management information. An example of the summary classification result management information is shown in FIG. In the example of FIG. 14, the summary classification items of each image are stored in association with the image ID. In the example of FIG. 14, the result of classifying an image with an image ID of 0 with rough semantic granularity by object recognition indicates “meal”. Thus, the process of S202 in FIG. 8 ends.

図8に戻り、次に、詳細分類項目選択部140は、S201で取得した概要分類項目から1つ選択する(S203)。   Returning to FIG. 8, next, the detailed classification item selection unit 140 selects one of the summary classification items acquired in S201 (S203).

次に、詳細分類項目選択部140は、S203で選択した概要分類項目に関して、多様性を算出する(S204)。ここで、多様性とは、画像群の中で、ある意味項目で共通する部分画像群が、どの程度多様な意味の画像を含んでいるかを表す指標である。多様性が大きいほど、物体認識により詳細な意味粒度の項目に分類する必要があると判断する。多様性は、例えば、画像数に基づく画像数スコアと、被写体の画像特徴量の変化の大きさに基づく被写体変化スコアから算出する。これは、画像数が多いほど、また、被写体の変化が大きいほど、その項目について多様であるという考え方に基づくものである。各項目の画像数スコアは、例えば、各項目の部分画像群の枚数の、画像群全体の枚数に対する割合とする。また、各項目の部分画像群の被写体変化スコアは、例えば、部分画像群に含まれる画像の、色ヒストグラム及びエッジヒストグラムそれぞれの分散の平均として算出する。多様性スコアは、例えば、画像数スコアと、被写体変化スコアの和として算出する。算出された多様性スコアは、多様性記憶部144に、多様性管理情報として記憶される。多様性管理情報の一例を図15に示す。図15の2行目は、「食事」の画像数スコアが0.5、被写体変化スコアが0.8、多様性スコアが、両者の和である1.3であることを示している。   Next, the detailed classification item selection unit 140 calculates diversity for the summary classification item selected in S203 (S204). Here, diversity is an index representing how many different meaning images are included in a partial image group common to a certain semantic item in the image group. It is determined that the greater the diversity, the more need to be classified into items of detailed semantic granularity by object recognition. The diversity is calculated from, for example, an image number score based on the number of images and a subject change score based on the magnitude of the change in the image feature amount of the subject. This is based on the idea that the greater the number of images and the greater the change in the subject, the more diverse the items. The image number score of each item is, for example, the ratio of the number of partial image groups of each item to the total number of image groups. Further, the subject change score of the partial image group of each item is calculated as, for example, the average of the variances of the color histogram and the edge histogram of the images included in the partial image group. For example, the diversity score is calculated as the sum of the image number score and the subject change score. The calculated diversity score is stored in the diversity storage unit 144 as diversity management information. An example of diversity management information is shown in FIG. The second line in FIG. 15 indicates that the “meal” image count score is 0.5, the subject change score is 0.8, and the diversity score is 1.3, which is the sum of both.

なお、画像数スコアにおける画像数の算出は、所定時間以内の時間間隔で撮影されている複数の画像を1枚として算出しても良い。例えば、所定時間を5秒とすると、ある画像との撮影時間の差が5秒以下の画像が存在する場合は、それらの画像を1枚として画像数を算出しても良い。これにより、連写で撮影された画像を1枚としてカウントすることができ、同一の被写体に対して連写で撮影した場合に、画像数が増大するため多様性が高くなることを防ぐことができる。   Note that the calculation of the number of images in the image number score may be calculated with a plurality of images taken at time intervals within a predetermined time as one sheet. For example, assuming that the predetermined time is 5 seconds, if there are images with a difference in shooting time with respect to a certain image of 5 seconds or less, the number of images may be calculated with those images as one. As a result, images taken by continuous shooting can be counted as one, and when the same subject is shot by continuous shooting, the number of images increases, thereby preventing an increase in diversity. it can.

なお、被写体変化スコアにおける画像特徴量の算出は、画像全体で行うのではなく、画像の前景部分に限定して算出しても良い。このとき、画像の前景部は、例えば、画像のSaliency mapの算出によるSaliencyの値が所定値以上であるか否かを各画素に対して判定することにより行っても良いし、画像にデプス情報が含まれている場合は、デプス値が所定値以上であるか否かを判定することによって行っても良い。また、多様性スコアを、画像数スコアと被写体変化スコアの和として算出するのではなく、画像数スコアと被写体変化スコアの重み付きの和として算出しても良い。また、多様性スコアは、画像数スコアのみまたは被写体変化スコアのみから算出しても良い。これにより、背景部の変化による影響を除き、前景部分の被写体のみの多様性を算出することが可能となる。   Note that the calculation of the image feature amount in the subject change score may be limited to the foreground portion of the image, not the entire image. At this time, the foreground part of the image may be performed by determining, for example, for each pixel whether the value of the Saliency by the calculation of the Saliency map of the image is equal to or greater than a predetermined value. May be included by determining whether or not the depth value is greater than or equal to a predetermined value. Further, the diversity score may be calculated as a weighted sum of the image number score and the subject change score, instead of calculating the sum of the image number score and the subject change score. Further, the diversity score may be calculated from only the image number score or only the subject change score. Thereby, it is possible to calculate the diversity of only the subject in the foreground part, excluding the influence due to the change in the background part.

S204の処理の後、全ての概要分類項目について、多様性を算出したかを判定する(S205)。まだ多様性を算出していない項目が残っている場合(S205がNo)、S203の処理に戻る。S205において、全ての項目について多様性を算出した場合(S205がYes)、次に、詳細分類項目選択部140は、図の1320の意味階層情報に記憶されている項目から1つ選択する(S206)。   After the process of S204, it is determined whether or not diversity has been calculated for all summary category items (S205). If there are still items for which diversity has not been calculated (No in S205), the process returns to S203. If diversity is calculated for all items in S205 (Yes in S205), then the detailed classification item selection unit 140 selects one of the items stored in the semantic hierarchy information 1320 in the figure (S206). ).

次に、詳細分類項目選択部140は、S206で選択した項目について、優先度を算出する(S207)。優先度は、詳細に分類するべき項目に対して、高い値が割り振られる値であり、画像群に応じて、概要分類項目毎の多様性に基づき定まる。優先度は、例えば、上位項目の多様性の値とする。これは、多様性が高い項目ほど、優先して詳細に意味分類するべきであるという考え方に基づくものである。なお、階層が1の項目の優先度は、大きな値(例えば10000)としてもよい。これは、どのような画像群であっても、概要的な意味粒度での分類は優先されるべきであるという考え方に基づくものである。算出された優先度は、優先度記憶部145に、優先度管理情報として記憶される。優先度管理情報の一例を図16に示す。この例では、例えば、丼の優先度が、1.3(食事の多様性スコアと同じ値)であり、食事の優先度が10000(食事の階層が1であるため)であることを示している。   Next, the detailed classification item selection unit 140 calculates the priority for the item selected in S206 (S207). The priority is a value to which a high value is assigned to the item to be classified in detail, and is determined based on the diversity for each summary classification item according to the image group. The priority is, for example, the diversity value of the upper item. This is based on the idea that items with higher diversity should be preferentially classified in detail. It should be noted that the priority of an item having a hierarchy of 1 may be a large value (for example, 10,000). This is based on the idea that classification with a general semantic granularity should be given priority for any image group. The calculated priority is stored in the priority storage unit 145 as priority management information. An example of the priority management information is shown in FIG. In this example, for example, it is indicated that the priority of the bowl is 1.3 (the same value as the meal diversity score) and the priority of the meal is 10,000 (because the meal hierarchy is 1). Yes.

S207の処理の後、全ての項目について、優先度を算出したかを判定する(S208)。まだ優先度を算出すべき項目が残っている場合(S208がNo)、S206の処理に戻る。S208において、全ての項目について優先度を算出した場合(S208がYes)、次に、詳細分類項目選択部140は、S207で算出した優先度に基づき、詳細分類項目を選択する(S209)。詳細分類項目は、例えば、S207で算出した優先度が高い所定数の項目を選択する。ここで、ある項目とその全ての下位項目が詳細分類項目として選択された場合は、上位の項目を詳細分類項目から除外しても良い。これは、下位項目の画像が上位項目と重複して分類されるのを防ぐためである。例えば「食事」「丼」「ラーメン」「カレー」が詳細分類項目として選択されている場合、「食事」を詳細分類項目から除外しても良い。これにより、丼の画像が「丼」「食事」の両方に分類されるのを防ぐことができる。選択結果は、詳細分類項目記憶部146において、詳細分類項目管理情報として記憶される。詳細分類項目管理情報の一例を図17に示す。以上で、図7におけるS102の処理が終了する。   After the process of S207, it is determined whether the priority has been calculated for all items (S208). If there are still items for which priority should be calculated (No in S208), the process returns to S206. If priority is calculated for all items in S208 (Yes in S208), then the detailed classification item selection unit 140 selects a detailed classification item based on the priority calculated in S207 (S209). For the detailed classification item, for example, a predetermined number of items with high priority calculated in S207 are selected. Here, when a certain item and all its lower items are selected as the detailed classification items, the higher items may be excluded from the detailed classification items. This is to prevent the image of the lower item from being classified as overlapping with the upper item. For example, when “meal”, “丼”, “ramen”, and “curry” are selected as the detailed classification items, “meal” may be excluded from the detailed classification items. Thereby, it is possible to prevent the image of the cocoon from being classified into both “両 方” and “meal”. The selection result is stored in the detailed classification item storage unit 146 as detailed classification item management information. An example of detailed classification item management information is shown in FIG. Thus, the process of S102 in FIG. 7 ends.

図7に戻り、次に、物体認識部120は、画像蓄積装置111に記憶されている各画像を、詳細分類項目記憶部146に格納されている項目に、物体認識により分類する(S103)。S103の具体例を、図10のフローチャートを用いて説明する。まず、S401では、詳細分類項目選択部140で選択した詳細分類項目に対応するモデルを取得する。これは、詳細分類項目記憶部146に記憶されている項目に対応する分類モデルを、事前に作成したモデル群から選択することにより実現する。モデルは、例えば、予め一般的な画像を用いて、SVMの機械学習により学習したモデルを用いる。   Returning to FIG. 7, next, the object recognition unit 120 classifies each image stored in the image storage device 111 into items stored in the detailed classification item storage unit 146 by object recognition (S103). A specific example of S103 will be described using the flowchart of FIG. First, in S401, a model corresponding to the detailed classification item selected by the detailed classification item selection unit 140 is acquired. This is realized by selecting a classification model corresponding to an item stored in the detailed classification item storage unit 146 from a model group created in advance. As the model, for example, a model learned in advance by SVM machine learning using a general image is used.

次に、物体認識部120は、物体認識実行部122において、画像入力部110から入力した画像群を物体認識により分類する(S402)。例えば、SVMによる機械学習による分類手法を用いる場合は、画像特徴量とSVMの分類器及びS401で取得したモデルにより、分類したい物体の確からしさを表す値である尤度を算出し、尤度を互いに比較することで、各画像を各項目に分類する。分類結果は、詳細分類結果記憶部124に、詳細分類結果管理情報として記憶される。詳細分類結果管理情報の一例を、図18に示す。図18の例では、画像IDが0の画像を物体認識により詳細な意味粒度に分類した結果が「丼」であることを示している。図18の内容を図14における概要分類結果管理情報と比較すると、図14では「食事」に分類されていた画像IDが0,1の画像が、図17の詳細分類結果管理情報では、それぞれ「丼」「ラーメン」と、より詳細に分類されている。続いて、図17の詳細分類項目管理情報と、図18の詳細分類結果管理情報を基に、各詳細分類項目に分類された画像IDを、分類項目別画像管理情報として図19のように作成し、詳細分類結果記憶部124に合わせて記憶する。例えば、図19の例では、「丼」に分類された画像の画像IDは、0,7,19,27,29,32であることを示している。以上で、図7におけるS103の処理が終了する。   Next, in the object recognition execution unit 122, the object recognition unit 120 classifies the image group input from the image input unit 110 by object recognition (S402). For example, when using a classification method based on machine learning based on SVM, a likelihood that is a value representing the probability of an object to be classified is calculated by using the image feature amount, the SVM classifier, and the model acquired in S401, and the likelihood is calculated. Each image is classified into each item by comparing with each other. The classification result is stored in the detailed classification result storage unit 124 as detailed classification result management information. An example of the detailed classification result management information is shown in FIG. In the example of FIG. 18, the result of classifying an image with an image ID of 0 into detailed semantic granularity by object recognition is “丼”. Comparing the contents of FIG. 18 with the summary classification result management information in FIG. 14, the images with the image IDs 0 and 1 classified as “meal” in FIG. 14 and the detailed classification result management information in FIG. It is categorized in more detail as “丼” and “ramen”. Subsequently, based on the detailed classification item management information of FIG. 17 and the detailed classification result management information of FIG. 18, the image ID classified into each detailed classification item is created as image management information by classification item as shown in FIG. The detailed classification result storage unit 124 stores the result. For example, in the example of FIG. 19, the image IDs of the images classified as “丼” are 0, 7, 19, 27, 29, and 32. Above, the process of S103 in FIG. 7 is complete | finished.

図7に戻り、次に、画像管理装置100は、詳細分類項目記憶部146が記憶する詳細分類項目から1つ選ぶ(S104)。   Returning to FIG. 7, next, the image management apparatus 100 selects one of the detailed classification items stored in the detailed classification item storage unit 146 (S104).

次に、画像管理装置100は、S103で分類されたそれぞれの項目の画像群に対して、クラスタリングによる分類を行う(S105)。クラスタリング対象の画像群は、詳細分類結果管理情報で同一の項目に分類された画像群とする。すなわち、詳細分類結果記憶部124の分類項目別画像管理情報において、S104で選択された項目に対応する画像IDを、クラスタリング対象の画像群とする。クラスタリングの手法は、例えば、画像特徴量の類似性に基づく階層的クラスタリング手法により行う。画像特徴量は、例えば、色ヒストグラム特徴量やエッジ特徴量を用いる。なお、クラスタリング手法は、階層的クラスタリングによるクラスタリング手法以外の手法でも良い。例えば、k−means法や、Affinity Propergationの手法を用いても良い。また、一度クラスタリングして得られたクラスタを、再度クラスタリングすることにより、クラスタリングで階層的に分類しても良い。クラスタリング結果は、クラスタリング結果記憶部132において、クラスタリング結果管理情報として記憶される。クラスタリング結果管理情報の一例を図20に示す。ここで、図20の2行目は、「犬」の親項目に対してクラスタリングしてできたクラスタを「犬A」「犬B」と名づけ、3行目は、「犬A」のクラスタは、画像IDが2,6,11,14,15,16,17,23,24,25,28,37,38,39の画像からなり、4行目は、「犬B」のクラスタは、画像IDが34,35の画像からなることを示している。   Next, the image management apparatus 100 classifies the image group of each item classified in S103 by clustering (S105). The image group to be clustered is an image group classified into the same item by the detailed classification result management information. That is, the image ID corresponding to the item selected in S104 in the image management information classified by category in the detailed classification result storage unit 124 is set as the clustering target image group. The clustering method is performed by, for example, a hierarchical clustering method based on similarity of image feature amounts. As the image feature amount, for example, a color histogram feature amount or an edge feature amount is used. The clustering method may be a method other than the clustering method based on hierarchical clustering. For example, a k-means method or an Affinity Propagation method may be used. In addition, clusters obtained by clustering once may be classified hierarchically by clustering by clustering again. The clustering result is stored in the clustering result storage unit 132 as clustering result management information. An example of the clustering result management information is shown in FIG. Here, the second line in FIG. 20 names the cluster formed by clustering the parent item of “Dog” as “Dog A” and “Dog B”, and the third line shows the cluster of “Dog A”. , The image ID is 2, 6, 11, 14, 15, 16, 17, 23, 24, 25, 28, 37, 38, 39. The fourth line is the cluster of “Dog B”. It shows that the image has IDs of 34 and 35.

S105の処理の後、全ての項目について、クラスタリング処理が終了したかどうかを判定する(S106)。まだクラスタリングを行う項目が残っている場合(S106がNo)、S104の処理に戻る。S106において、全ての項目について、クラスタリング処理が終了した場合(S106がYes)、階層構造生成部150は、S103及びS105の結果得られた階層構造を結合し、画像群全体を階層的に分類した時の階層構造を生成し、階層構造管理情報として階層構造記憶装置151に記憶する(S107)。階層構造管理情報の一例を図22に示す。ここで、図22において、「画像群」とは、入力画像群全体のことであり、図22の2行目において、「画像群」の子が「食事、犬、猫」であることは、階層分類の第1段階として、全画像群が「食事」「犬」「猫」に大まかに分類されていることを表す。図22の3行目は、「食事」の画像は「丼」「ラーメン」「カレー」の項目に分類されていることを表す。図22の10行目は、「丼」の画像をクラスタリングしてできたクラスタを「丼A」「丼B」と名づけ、11行目は、「丼A」のクラスタは、画像IDが0,7,27の画像からなり、12行は、「丼B」のクラスタは、画像IDが19,29,32の画像からなることを示している。   After the process of S105, it is determined whether or not the clustering process has been completed for all items (S106). If there are still items to be clustered (No in S106), the process returns to S104. When the clustering process is completed for all items in S106 (Yes in S106), the hierarchical structure generation unit 150 combines the hierarchical structures obtained as a result of S103 and S105, and classifies the entire image group hierarchically. A hierarchical structure is generated and stored in the hierarchical storage device 151 as hierarchical structure management information (S107). An example of the hierarchical structure management information is shown in FIG. Here, in FIG. 22, the “image group” refers to the entire input image group, and in the second line of FIG. 22, the child of the “image group” is “meal, dog, cat” As a first stage of the hierarchical classification, it represents that all image groups are roughly classified into “meal”, “dog”, and “cat”. The third line in FIG. 22 indicates that the image of “meal” is classified into items “丼”, “ramen”, and “curry”. The 10th line in FIG. 22 names the clusters obtained by clustering the images of “丼” as “丼 A” and “丼 B”, and the 11th row shows that the cluster of “丼 A” has an image ID of 0, It is composed of 7 and 27 images, and the 12th row indicates that the cluster “丼 B” is composed of images with image IDs 19, 29, and 32.

以上、実施の形態1に係る画像管理装置の構成及び画像管理装置が行う処理について説明したが、以下では、本実施の形態にかかる画像管理装置の動作の具体例について説明する。   The configuration of the image management apparatus according to the first embodiment and the processing performed by the image management apparatus have been described above. A specific example of the operation of the image management apparatus according to the present embodiment will be described below.

ここで、図24に示す画像群に対して、画像管理装置100が詳細分類項目を選択し、物体認識及びクラスタリングにより、画像群を階層構造化するまでの流れについて、図7のフローチャートを用いて具体的に説明する。本具体例では、図24に一部を示している計40枚の画像群に対する処理の具体例を示す。それぞれには画像IDが0から39まで付与されており、図24は、画像群のうち、画像IDが0から3までの4枚を表したものである。画像蓄積装置111では、図24に示す入力画像は、例えば、図11のように管理されている。   Here, with respect to the image group shown in FIG. 24, the flow from when the image management apparatus 100 selects a detailed classification item to hierarchically structure the image group by object recognition and clustering will be described with reference to the flowchart of FIG. This will be specifically described. In this specific example, a specific example of processing for a total of 40 image groups, part of which is shown in FIG. 24, is shown. Each is assigned an image ID from 0 to 39, and FIG. 24 shows four images from 0 to 3 in the image group. In the image storage device 111, the input image shown in FIG. 24 is managed as shown in FIG. 11, for example.

本具体例では、画像管理装置100が分類する意味項目の候補が図12のような階層構造であるとする。この場合の意味記憶管理情報は、例えば図13のようになる。図13は、画像管理装置100が分類する項目として、概要分類項目として「食事」「犬」「服」があり、食事の詳細分類項目の候補として、「丼」「ラーメン」「カレー」が、犬の詳細分類項目の候補として「柴犬」「チワワ」「ダルメシアン」が、服の詳細分類項目の候補として「Tシャツ」「スーツ」「着物」があることを示している。   In this specific example, it is assumed that the semantic item candidates classified by the image management apparatus 100 have a hierarchical structure as shown in FIG. The meaning storage management information in this case is as shown in FIG. 13, for example. In FIG. 13, items to be classified by the image management apparatus 100 include “meal”, “dog”, and “clothes” as summary category items, and “丼”, “ramen”, and “curry” as candidates for detailed category items for meals. It shows that “Shiba Inu”, “Chihuahua”, “Dalmatian” are candidates for detailed classification items for dogs, and “T-shirts”, “suits”, and “kimono” are candidates for detailed classification items for clothes.

まず、画像入力部110は、画像蓄積装置111から、画像管理情報を取得することにより、画像及び画像IDを取得する(S101)。   First, the image input unit 110 acquires an image and an image ID by acquiring image management information from the image storage device 111 (S101).

次に、詳細分類項目選択部140は、物体認識を行う項目を選択する(S102)。   Next, the detailed classification item selection unit 140 selects an item for performing object recognition (S102).

S102の処理の具体例を、図8のフローチャートを用いて説明する。   A specific example of the processing of S102 will be described using the flowchart of FIG.

詳細分類項目選択部140は、まず、意味階層記憶部から概要分類項目を取得する(S201)。例えば、図13に示す意味階層情報のうち、階層が1のものを取得する場合、「食事」「犬」「服」が選択される。   The detailed classification item selection unit 140 first acquires a summary classification item from the semantic hierarchy storage unit (S201). For example, in the case of acquiring semantic hierarchy information shown in FIG. 13 having a hierarchy of 1, “meal”, “dog”, and “clothes” are selected.

次に、詳細分類項目選択部140は、画像群を「食事」「犬」「服」に分類する(S202)。   Next, the detailed classification item selection unit 140 classifies the image group into “meal”, “dog”, and “clothes” (S202).

S202の処理の一例を、図9のフローチャートを用いて説明する。   An example of the process of S202 will be described using the flowchart of FIG.

物体認識部120は、まず、モデル選択部121において、「食事」「犬」「服」の分類モデルを取得する(S301)。例えば、「食事」の分類モデルは、事前に多数収集した一般的な食事の画像を基にしてSVMによる機械学習により得られる。   First, the object recognizing unit 120 acquires a classification model of “meal”, “dog”, and “clothes” in the model selection unit 121 (S301). For example, a “meal” classification model can be obtained by machine learning using SVM based on general meal images collected in advance.

次に、物体認識部120は、物体認識実行部122において、画像入力部110から入力した画像それぞれを物体認識により分類する(S302)。例えば、S301で選択した「食事」「犬」「服」のモデル及びSVMの分類器により分類を行う。   Next, in the object recognition execution unit 122, the object recognition unit 120 classifies each image input from the image input unit 110 by object recognition (S302). For example, the “meal”, “dog”, and “clothing” models selected in S301 and the SVM classifier are used for classification.

分類結果は、概要分類結果記憶部123に、概要分類結果管理情報として記憶される。図14の例では、画像ID0,1,2,3の画像が、それぞれ「食事」「食事」「犬」「服」と大まかに分類されている。ここでは、全ての画像40枚が、「食事」に20枚、「犬」に16枚、「服」に4枚分類されたものとする。以上で、図8におけるS202の処理が終了する。   The classification result is stored in the summary classification result storage unit 123 as summary classification result management information. In the example of FIG. 14, the images with image IDs 0, 1, 2, and 3 are roughly classified as “meal”, “meal”, “dog”, and “clothes”, respectively. Here, it is assumed that all 40 images are classified into 20 for “meal”, 16 for “dog”, and 4 for “clothes”. Thus, the process of S202 in FIG. 8 ends.

図8に戻り、次に、詳細分類項目選択部140は、S201で取得した概要分類項目「食事」「犬」「服」から1つ選択する(S203)。以下、S203では「食事」が選択された場合の説明を行う。   Returning to FIG. 8, next, the detailed classification item selection unit 140 selects one of the summary classification items “meal”, “dog”, and “clothes” acquired in S201 (S203). Hereinafter, in S203, the case where “meal” is selected will be described.

詳細分類項目選択部140は、次に、「食事」の多様性を算出する(S204)。ここでは、多様性を、先に説明したように、画像数スコアと被写体変化スコアの和として算出する場合について説明する。まず、「食事」の画像スコア、「食事」に分類された画像数の全画像数に対する比、すなわち、20÷40=0.5となる。被写体変化スコアは、「食事」に分類された20枚の画像の色ヒストグラムおよびエッジ特徴量の分散の平均として算出される。例えば被写体変化スコアが0.8であったものとすると、多様性スコアは、画像数スコアと被写体変化スコアの和、すなわち、0.5+0.8=1.3となる。画像数スコア、被写体変化スコア、多様性スコアの値は、図15の2行目のように、項目と対応付けて多様性管理情報として記憶される。「犬」「服」に関しても、同様にして多様性スコアを算出し、それぞれ図15の2,3行目のようにして、多様性管理情報として算出される。   Next, the detailed classification item selection unit 140 calculates the diversity of “meals” (S204). Here, a case where diversity is calculated as the sum of the image number score and the subject change score as described above will be described. First, the image score of “meal” and the ratio of the number of images classified as “meal” to the total number of images, that is, 20 ÷ 40 = 0.5. The subject change score is calculated as the average of the color histogram and edge feature amount variance of 20 images classified as “meal”. For example, if the subject change score is 0.8, the diversity score is the sum of the image number score and the subject change score, that is, 0.5 + 0.8 = 1.3. The values of the image number score, the subject change score, and the diversity score are stored as diversity management information in association with items as shown in the second row of FIG. Diversity scores are similarly calculated for “dogs” and “clothes”, and are calculated as diversity management information as shown in the second and third lines of FIG.

「食事」「犬」「服」の多様性を算出した後(S205でYes)、詳細分類項目選択部140は、分類候補の項目「食事」「犬」「服」「丼」「ラーメン」「カレー」「柴犬」「チワワ」「ダルメシアン」「Tシャツ」「スーツ」「着物」から1つ選ぶ(S206)。以下では、「食事」「ラーメン」を選択した場合のそれぞれの処理の例を示す。また、ここでは、優先度を、先に説明したように、上位項目の多様性の値を優先度をとする(但し、階層が1の場合は優先度を10000とする)場合について説明する。   After calculating the diversity of “meals”, “dogs”, and “clothes” (Yes in S205), the detailed classification item selection unit 140 selects items “meals”, “dogs”, “clothes”, “丼”, “ramen”, “ One of curry, shiba inu, chihuahua, dalmatian, t-shirt, suit, and kimono is selected (S206). Below, the example of each process at the time of selecting "meal" and "ramen" is shown. Further, here, a case will be described in which the priority is the diversity value of the upper item as the priority as described above (however, when the hierarchy is 1, the priority is 10,000).

S206で「食事」を選択した場合、S207では「食事」の優先度を算出する。図13の意味階層情報により、「食事」は階層が1であると特定する。そこで「食事」の優先度は10000となる。これを図16の優先度管理情報の1行目に記憶する。   When “meal” is selected in S206, the priority of “meal” is calculated in S207. Based on the semantic hierarchy information in FIG. 13, “meal” is identified as having a hierarchy of 1. Therefore, the priority of “meal” is 10,000. This is stored in the first line of the priority management information in FIG.

S206で「ラーメン」を選択した場合、S207では「ラーメン」の優先度を算出する。ここでは、優先度を、先に説明したように、優先度を上位項目の多様性の値とする場合について説明する。図13の意味階層情報により、「ラーメン」の上位項目として「食事」を特定する。図15の多様性管理情報により、「食事」の多様性スコアとして1.3を特定する。この1.3を、「ラーメン」の優先度として、図16の優先度管理情報の6行目に記憶する。残りの10項目に関しても、同様にして優先度を算出し、図15の1,6行目以外のようにして、優先度管理情報として算出される。   When “ramen” is selected in S206, the priority of “ramen” is calculated in S207. Here, as described above, a case will be described in which the priority is set as the diversity value of the upper item as described above. Based on the semantic hierarchy information in FIG. 13, “meal” is specified as the upper item of “ramen”. Based on the diversity management information in FIG. 15, 1.3 is specified as the diversity score of “meal”. This 1.3 is stored as the priority of “ramen” in the sixth row of the priority management information in FIG. For the remaining 10 items, the priority is calculated in the same manner, and is calculated as the priority management information except for the first and sixth lines in FIG.

全ての項目について優先度を算出後(S208がYes)、詳細分類項目選択部140は、S207で算出した優先度に基づき、詳細分類項目を選択する(S209)。ここでは、先に説明したように、詳細分類項目は、優先度が高い所定数の項目を選択する場合で、所定数を5とした場合について説明する。まず、図16の優先度管理情報において、項目を優先度の高い順に並び替える。次に、並び替えた項目の内、優先度が高い所定数+1=6個を選択する。ここで、所定数に1を加えているのは、全ての下位項目が詳細分類項目として選択された場合は、上位の項目を詳細分類項目から除外するからである。このとき、「食事」「犬」「服」「丼」「ラーメン」「カレー」が選択される。このうち、図13の2行目及び5,6,7行目から、「食事」の全ての下位項目「丼」「ラーメン」「カレー」が詳細分類項目に選択されていることが分かるので、「食事」を詳細分類項目から除外する。最終的に、詳細分類項目は、「犬」「服」「丼」「ラーメン」「カレー」の5項目となり、詳細分類項目管理情報として、図17のように記憶する。以上で、図7におけるS102の処理が終了する。   After calculating the priority for all items (Yes in S208), the detailed classification item selection unit 140 selects a detailed classification item based on the priority calculated in S207 (S209). Here, as described above, the detailed classification item is a case where a predetermined number of items with high priority are selected, and a case where the predetermined number is 5 will be described. First, in the priority management information of FIG. 16, the items are rearranged in the descending order of priority. Next, among the rearranged items, a predetermined number + 1 = 6 with high priority is selected. Here, the reason why 1 is added to the predetermined number is that when all the lower items are selected as the detailed classification items, the upper items are excluded from the detailed classification items. At this time, “meal”, “dog”, “clothes”, “candy”, “ramen”, and “curry” are selected. Of these, from the second row and the fifth, sixth, seventh rows in FIG. 13, it can be seen that all sub-items “丼”, “ramen” and “curry” of “meal” are selected as detailed classification items. “Meals” are excluded from the detailed classification items. Finally, the detailed classification items are five items of “dog”, “clothes”, “candy”, “ramen”, and “curry”, and are stored as detailed classification item management information as shown in FIG. Thus, the process of S102 in FIG. 7 ends.

図7に戻り、次に、物体認識部120は、画像群を「犬」「服」「丼」「ラーメン」「カレー」に分類する(S103)。S103の処理の具体例を、図10のフローチャートを用いて説明する。   Returning to FIG. 7, next, the object recognition unit 120 classifies the image group into “dog”, “clothes”, “candy”, “ramen”, and “curry” (S103). A specific example of the process of S103 will be described using the flowchart of FIG.

物体認識部120は、まず、モデル選択部121において、「犬」「服」「丼」「ラーメン」「カレー」の分類モデルを取得する(S401)。   First, the object recognizing unit 120 obtains a classification model of “dog”, “clothes”, “candy”, “ramen”, and “curry” in the model selection unit 121 (S401).

次に、物体認識部120は、物体認識実行部122において、画像入力部110から入力した画像それぞれを、S401で選択した「犬」「服」「丼」「ラーメン」「カレー」のモデル及びSVMの分類器により分類を行う(S402)。   Next, in the object recognition execution unit 122, the object recognition unit 120 converts each of the images input from the image input unit 110 into the “dog”, “clothes”, “candy”, “ramen”, “curry” model and SVM selected in S401. Classification is performed by the classifier (S402).

分類結果は、詳細分類結果記憶部124に、図18及び図19のように、詳細分類結果管理情報として記憶する。図18の例では、画像IDが0,1,2,3の画像が、それぞれ「丼」「ラーメン」「犬」「服」と分類されている。以上で、図7におけるS103の処理が終了する。   The classification result is stored in the detailed classification result storage unit 124 as detailed classification result management information as shown in FIGS. In the example of FIG. 18, the images with image IDs 0, 1, 2, and 3 are classified as “丼”, “ramen”, “dog”, and “clothes”, respectively. Above, the process of S103 in FIG. 7 is complete | finished.

図7に戻り、次に、画像管理装置100は、詳細分類項目記憶部146が記憶する詳細分類項目「犬」「服」「丼」「ラーメン」「カレー」から1つ選ぶ(S104)。以下、S104で「丼」を選択した場合を例に説明する。   Returning to FIG. 7, next, the image management apparatus 100 selects one of the detailed classification items “dog”, “clothes”, “candy”, “ramen”, and “curry” stored in the detailed classification item storage unit 146 (S104). Hereinafter, a case where “丼” is selected in S104 will be described as an example.

次に、画像管理装置100は、「丼」の画像に対して、クラスタリングによる分類を行う(S105)。クラスタリング対象の画像群は、図19の1列目が「丼」である4行目から、画像IDが「0,7,19,27,29,32」の画像を特定する。これらの画像を、例えば、色ヒストグラム特徴量の類似度を基に階層的クラスタリングを行い、「丼」の画像を更に詳細にクラスタ化する。   Next, the image management apparatus 100 classifies the “丼” image by clustering (S105). In the clustering target image group, the images with the image IDs “0, 7, 19, 27, 29, 32” are identified from the fourth row in which the first column in FIG. 19 is “丼”. These images are subjected to hierarchical clustering based on, for example, the similarity of the color histogram feature quantity, and the “丼” images are clustered in more detail.

図21の階層構造で示されるクラスタリング結果は、クラスタリング結果記憶部132において、図20のように、クラスタリング結果管理情報として記憶する。ここで、図21において、丸印がクラスタを、四角内の番号が、上位のクラスタに含まれる画像の画像IDを表している。この例では、階層構造における親子関係を、各クラスタと画像IDに関して記述することにより、階層関係を表している。例えば、クラスタリング結果管理情報を現す木構造21aは、「丼」クラスタはクラスタリングにより2つのクラスタに分類され(それぞれに「丼A」「丼B」の名前をつけている)、それぞれに含まれる画像の画像IDは、それぞれ「0,7,72」「19,29,32」であることを示している。これに対応するクラスタリング結果管理情報は、例えば図20の「丼」「丼A」「丼B」の行のように表すことができる。これは、「丼」の下位には「丼A」「丼B」の2つのクラスタがあり、「丼A」には画像IDが「0,7,27」の画像が含まれ、「丼B」には画像IDが「19,29,32」の画像が含まれることを示している。残りの「犬」「服」「ラーメン」「カレー」に関しても、同様にしてクラスタリングを行い、図20のように、クラスタリング結果管理情報として記憶される。   The clustering results shown in the hierarchical structure of FIG. 21 are stored in the clustering result storage unit 132 as clustering result management information as shown in FIG. Here, in FIG. 21, circles represent clusters, and the numbers in the squares represent the image IDs of images included in the upper cluster. In this example, the hierarchical relationship is expressed by describing the parent-child relationship in the hierarchical structure with respect to each cluster and the image ID. For example, in the tree structure 21a representing the clustering result management information, the “丼” cluster is classified into two clusters by clustering (named “丼 A” and “丼 B”, respectively), and the images included in each of them. The image IDs of “0, 7, 72” and “19, 29, 32” respectively. The clustering result management information corresponding to this can be expressed as, for example, rows “丼”, “丼 A”, and “丼 B” in FIG. There are two clusters “丼 A” and “丼 B” below “丼”, and “、 A” includes images with image IDs “0, 7, 27”. "Indicates that an image having an image ID" 19, 29, 32 "is included. The remaining “dogs”, “clothes”, “ramen”, and “curry” are clustered in the same manner and stored as clustering result management information as shown in FIG.

全ての項目について、クラスタリング処理が終了すると(S106がYes)、階層構造生成部150は、S103及びS105の結果得られた階層構造を結合し、図23に示す画像群全体の階層構造を生成する。そして、図22の階層構造管理情報として階層構造記憶装置151に記憶する(S107)。ここで、図23において、丸印がクラスタを、四角内の番号が、上位のクラスタに含まれる画像の画像IDを表している。図22では、階層構造における親子関係を、各クラスタと画像IDに関して記述することにより、階層関係を表している。   When the clustering process is completed for all items (Yes in S106), the hierarchical structure generation unit 150 combines the hierarchical structures obtained as a result of S103 and S105, and generates the hierarchical structure of the entire image group illustrated in FIG. . Then, it is stored in the hierarchical structure storage device 151 as the hierarchical structure management information of FIG. 22 (S107). Here, in FIG. 23, a circle represents a cluster, and a number in a square represents an image ID of an image included in a higher cluster. In FIG. 22, the hierarchical relationship is represented by describing the parent-child relationship in the hierarchical structure with respect to each cluster and the image ID.

以上のように、実施の形態1にかかる画像管理装置100は、画像群の階層構造化を行う際、画像群の多様性に応じた物体認識の項目を選択することができる。これによって、物体認識の項目数の増加に伴う分類性能の悪化を防ぎつつ、画像群の項目毎の多様性の偏りに合った意味粒度で画像群を物体認識により分類し、画像群の意味内容に即した階層構造化を行うことができる。   As described above, the image management apparatus 100 according to the first embodiment can select an object recognition item according to the diversity of the image group when performing the hierarchical structure of the image group. This classifies the image group by object recognition with semantic granularity that matches the diversity of each item of the image group while preventing the deterioration of the classification performance due to the increase in the number of items of object recognition, and the semantic content of the image group It is possible to make a hierarchical structure according to the above.

なお、詳細分類項目選択部140で選択した詳細分類項目の多様性に基づき、更に下位概念の意味項目を詳細分類項目としても良い。具体的には、例えば、詳細分類項目選択部140において優先度が高い詳細分類項目について多様性を算出し、多様性が高い項目の下位概念の意味項目も含めて優先度が高い項目を詳細分類項目としても良い。例えば、「ラーメン」の優先度が高い場合に、「ラーメン」の多様性が高い場合には、「ラーメン」の下位概念の意味項目である「醤油ラーメン」「味噌ラーメン」「豚骨ラーメン」の優先度を高く設定し、「醤油ラーメン」「味噌ラーメン」「豚骨ラーメン」を詳細分類項目としても良い。   Note that, based on the diversity of the detailed classification items selected by the detailed classification item selection unit 140, the semantic item of the lower concept may be used as the detailed classification item. Specifically, for example, the detailed classification item selection unit 140 calculates diversity for a detailed classification item with high priority, and classifies items with high priority including semantic items of subordinate concepts of items with high diversity. It is good as an item. For example, when the priority of “ramen” is high and the diversity of “ramen” is high, the meaning items of the subordinate concepts of “ramen” are “soy sauce ramen”, “miso ramen”, and “pork bone ramen” High priority may be set, and “soy sauce ramen”, “miso ramen”, and “pork bone ramen” may be set as detailed classification items.

これにより、物体認識で分類を行う詳細分類項目を、3段階以上の意味粒度の詳細分類項目の候補から、多様性を加味しつつ優先度付けて選択することが可能となる。   As a result, it is possible to select the detailed classification items to be classified by object recognition from the candidates for the detailed classification items having three or more levels of semantic granularity, giving priority to them while taking diversity into consideration.

また、クラスタリング実行部131で用いる特徴量の種類を、クラスタリング対象画像群の意味項目に応じて選択しても良い。具体的には、特徴量の種類として、物体認識部120で付与された、クラスタリング対象部分画像群の意味項目を分類するのに適した種類を選択しても良い。例えば、物体認識部120で「食事」に分類された部分画像群をクラスタリングで分類する際は、全体的な形の類似性に基づき分類すると分かり易いので、形状特徴量の類似性に基づきクラスタリングし、物体認識部120で「服」に分類された部分画像群をクラスタリングで分類する際は、色の類似性に基づき分類すると分かり易いので、色特徴量の類似性に基づきクラスタリングしても良い。   Further, the type of feature amount used in the clustering execution unit 131 may be selected according to the semantic item of the clustering target image group. Specifically, a type suitable for classifying the semantic items of the clustering target partial image group given by the object recognition unit 120 may be selected as the type of feature amount. For example, when the partial image group classified as “meal” by the object recognition unit 120 is classified by clustering, it is easy to understand if the partial image group is classified based on the similarity of the overall shape. When the partial image group classified as “clothes” by the object recognition unit 120 is classified by clustering, it is easy to understand if the partial image group is classified based on the similarity of colors. Therefore, clustering may be performed based on the similarity of color feature amounts.

これにより、意味項目内容に即した分かり易い分類が可能となる。   Thereby, easy-to-understand classification according to the semantic item contents is possible.

また、クラスタリング部130では、1回のクラスタリングで得られた部分画像群を再度クラスタリングすることにより複数階層に階層分類し、複数階層の階層構造化を行っても良い。更に、各クラスタリングにおける特徴量の種類を変えても良い。例えば、物体認識部120で「服」に分類された部分画像群をクラスタリングで分類する際、まず全体的な色の類似性に基づき分類した後、詳細な模様の違いで分類するため、まず「服」に分類された部分画像群を色特徴量の類似性に基づきクラスタリングで分類し、分類されたそれぞれを、形状特徴量の類似性に基づきクラスタリングすることで、2段階で階層分類しても良い。   Further, the clustering unit 130 may classify the partial image group obtained by one clustering again into a plurality of hierarchies, thereby classifying the hierarchies into a plurality of hierarchies. Furthermore, the type of feature amount in each clustering may be changed. For example, when classifying the partial image group classified as “clothes” by the object recognition unit 120 by clustering, first, the classification is performed based on the overall color similarity, and then the classification is performed based on the difference in detailed pattern. The partial image group classified as “clothes” is classified by clustering based on the similarity of the color feature values, and each classified image is clustered based on the similarity of the shape feature values, so that it can be classified in two levels. good.

これにより、入力画像数が多くとも、階層の数を増やすことで、絞込み検索では絞込みの選択肢の数を少なくし、また、意味項目に即した分かり易い分類が可能となる。   As a result, even if the number of input images is large, the number of hierarchical levels is increased, so that the number of selection options is reduced in the narrow search, and easy-to-understand classification according to the semantic items is possible.

(実施の形態2)
実施の形態1では、多様性のみから優先度を算出する方法について説明を行ったが、多様性にユーザの興味情報を加味して、優先度を算出しても良い。ユーザが興味を持つ物体の項目が分かっていれば、その項目を物体認識部で詳細に分類する方が、より画像群の内容に即した階層構造化を実現できると考えられる。
(Embodiment 2)
In the first embodiment, the method for calculating the priority only from the diversity has been described. However, the priority may be calculated by adding the interest information of the user to the diversity. If the item of the object in which the user is interested is known, it is considered that the hierarchical classification according to the contents of the image group can be realized by classifying the item in detail by the object recognition unit.

実施の形態2にかかる画像管理装置は、このような考えに基づき画像群の階層構造化を行うものである。   The image management apparatus according to the second embodiment performs a hierarchical structure of image groups based on such an idea.

以下、本実施の形態2における画像管理装置について説明する。   Hereinafter, the image management apparatus according to the second embodiment will be described.

ここでは、詳細分類項目選択部140で算出される多様性に、ユーザがソーシャル・ネットワーキング・サービスに投稿したコメント情報のメタデータから分かるユーザの興味情報を加味して、項目の優先度をつけることによって、物体認識の項目を選択する実施例について説明する。   Here, the priority of the item is set by adding the interest information of the user that can be understood from the metadata of the comment information posted by the user to the social networking service to the diversity calculated by the detailed classification item selection unit 140 An embodiment for selecting an item for object recognition will be described.

実施の形態2にかかる画像管理装置100aの機能ブロック図を図25に示す。画像管理装置100aの構成は、画像管理装置100と比較して、詳細分類項目選択部の内部構成が異なる。また、詳細分類項目選択部に、メタデータ蓄積装置161が接続される。以下では、実施の形態1と構成の異なる詳細分類項目選択部140a及びメタデータ蓄積装置161について説明を行う。   FIG. 25 is a functional block diagram of the image management apparatus 100a according to the second embodiment. The configuration of the image management apparatus 100a is different from that of the image management apparatus 100 in the internal configuration of the detailed classification item selection unit. In addition, a metadata storage device 161 is connected to the detailed classification item selection unit. In the following, the detailed classification item selection unit 140a and the metadata storage device 161 having different configurations from those of the first embodiment will be described.

本実施の形態における詳細分類項目選択部140aは、実施の形態1において詳細分類項目選択部で算出される多様性に加え、メタデータ蓄積装置161から取得したメタデータから算出される興味度から、各項目の優先度を算出して、分類項目を選択する。   In addition to the diversity calculated by the detailed classification item selection unit in the first embodiment, the detailed classification item selection unit 140a in the present embodiment, from the degree of interest calculated from the metadata acquired from the metadata storage device 161, The priority of each item is calculated and a classification item is selected.

詳細分類項目選択部140aの機能構成の一例について、図26を用いて説明を行う。図26は、図25の画像管理装置における詳細分類項目選択部140aの機能ブロック図である。   An example of the functional configuration of the detailed classification item selection unit 140a will be described with reference to FIG. FIG. 26 is a functional block diagram of the detailed classification item selection unit 140a in the image management apparatus of FIG.

詳細分類項目選択部140aは、多様性算出部141、優先度算出部142a、意味階層記憶部143、多様性記憶部144、優先度記憶部145、詳細分類項目記憶部146、興味情報抽出部147及び興味度記憶部148を備える。   The detailed classification item selection unit 140a includes a diversity calculation unit 141, a priority calculation unit 142a, a semantic hierarchy storage unit 143, a diversity storage unit 144, a priority storage unit 145, a detailed classification item storage unit 146, and an interest information extraction unit 147. And an interest degree storage unit 148.

多様性算出部141、意味階層記憶部143、多様性記憶部144、優先度記憶部145及び詳細分類項目記憶部146の動作は、実施の形態1における動作と同様であるため、説明を省略する。   Since the operations of the diversity calculation unit 141, the semantic hierarchy storage unit 143, the diversity storage unit 144, the priority storage unit 145, and the detailed classification item storage unit 146 are the same as the operations in the first embodiment, the description thereof is omitted. .

優先度算出部142aは、多様性に加え、ユーザの興味情報から、各分類項目の優先度を算出する。   The priority calculation unit 142a calculates the priority of each classification item from the interest information of the user in addition to the diversity.

興味情報抽出部147は、メタデータ情報から、ユーザの興味を持つ物体の情報を抽出する。   The interest information extraction unit 147 extracts information on an object that is of interest to the user from the metadata information.

興味度記憶部148は、メタデータ情報に現れるユーザの興味情報を、分類項目候補毎に記憶する。   The interest degree storage unit 148 stores user interest information appearing in the metadata information for each classification item candidate.

ここで、図25における画像管理装置100aの説明に戻る。   Here, the description returns to the image management apparatus 100a in FIG.

メタデータ蓄積装置161は、ユーザの興味に関する情報を含むメタデータ管理情報を格納する。メタデータは、例えば、ユーザがソーシャル・ネットワーキング・サービスに投稿したコメント情報、写真にユーザが付与したコメント情報、写真が撮影された場所の位置情報、ユーザの年齢や性別等の情報からなる。   The metadata storage device 161 stores metadata management information including information related to the user's interest. The metadata includes, for example, comment information posted by the user to the social networking service, comment information given by the user to the photo, location information of the place where the photo was taken, information such as the user's age and sex.

次に、本実施の形態における画像管理装置の動作について説明する。本実施の形態における画像管理装置の全体動作は、図7と同様である。ただし、前述のように、詳細分類項目選択部140の動作が実施の形態1と異なることに伴い、図7におけるS102の具体的な処理が実施の形態1と異なっている。以下、この点について説明する。   Next, the operation of the image management apparatus in this embodiment will be described. The overall operation of the image management apparatus in the present embodiment is the same as in FIG. However, as described above, the operation of the detailed classification item selection unit 140 is different from that of the first embodiment, and the specific processing of S102 in FIG. Hereinafter, this point will be described.

図27は、本実施の形態における詳細分類項目選択部140の処理の一例を示すフローチャートである。   FIG. 27 is a flowchart showing an example of processing of the detailed classification item selection unit 140 in the present embodiment.

図27のフローチャートは、図8のフローチャートと比較して、S210の処理が追加されている。S205までの動作は、実施の形態1と同様である。以下では、実施の形態1と異なる、図27におけるS210以降の処理について説明する。   In the flowchart of FIG. 27, the process of S210 is added compared to the flowchart of FIG. The operations up to S205 are the same as those in the first embodiment. In the following, the processing after S210 in FIG. 27, which is different from the first embodiment, will be described.

優先度算出部142aは、S205までの処理の後、興味情報抽出部147において、メタデータから、分類項目候補の興味度を算出する(S210)。興味度は、メタデータから得られる情報に基づき、ユーザがより興味を持っていると判断される項目に対して、高い値を付与する。興味度は、例えば、メタデータに含まれている名詞を抽出し、抽出された名詞が分類項目候補の名前と一致する数の多い項目に対して、高い値を付与する。この場合、例えば、メタデータに含まれる分類項目候補の名前と一致する名詞の出現数割合を、各項目の興味度とする。メタデータは、メタデータ管理情報として、メタデータ蓄積装置161に記憶されている。メタデータ管理情報の一例を図28に示す。図28の例では、メタデータIDが0のメタデータとして、「ラーメン食べたよ!」というユーザのソーシャル・ネットワーキング・サービスへの投稿内容が記憶されている。名詞の抽出は、例えば、メタデータを形態素解析することにより行う。出現数割合は、例えば、メタデータに含まれる分類項目候補の名前の出現数を、出現数管理情報として興味度記憶部148に記憶し(図29の2列目)、各項目の出現数の、全項目の出現数に対する比として算出する。算出した興味度は、興味度記憶部148に、図29の3列目のようにして記憶する。図29の興味度管理情報の例では、「ラーメン」の出現数が7回であり、興味度が0.7であることを示している。   After the processing up to S205, the priority calculation unit 142a calculates the interest level of the classification item candidate from the metadata in the interest information extraction unit 147 (S210). The degree of interest is assigned a high value to an item that is determined to be more interested by the user based on information obtained from the metadata. For example, a noun included in metadata is extracted as the degree of interest, and a high value is assigned to a large number of items in which the extracted noun matches the name of the classification item candidate. In this case, for example, the ratio of the number of nouns that match the name of the classification item candidate included in the metadata is set as the interest level of each item. The metadata is stored in the metadata storage device 161 as metadata management information. An example of metadata management information is shown in FIG. In the example of FIG. 28, the content posted to the social networking service of the user “I ate ramen!” Is stored as metadata with a metadata ID of 0. For example, nouns are extracted by performing morphological analysis on metadata. For example, the number of occurrences of the name of the classification item candidate included in the metadata is stored in the interest degree storage unit 148 as appearance number management information (second column in FIG. 29). Calculated as a ratio to the number of occurrences of all items. The calculated interest level is stored in the interest level storage unit 148 as shown in the third column of FIG. In the example of the interest level management information in FIG. 29, the number of occurrences of “ramen” is 7 and the interest level is 0.7.

次に、優先度算出部142aは、図13の意味階層情報に記憶されている項目から1つ選択する(S206)。   Next, the priority calculation part 142a selects one from the items memorize | stored in the semantic hierarchy information of FIG. 13 (S206).

次に、優先度算出部142aは、多様性にユーザの興味度を加味した優先度を算出する(S207)。本実施の形態では、実施の形態1と同様にして多様性から算出した優先度を多様性優先度と呼び、多様性にユーザの興味度を加味した優先度を総合優先度と呼ぶことにする。まず、実施の形態1における優先度の算出と同様の方法により、多様性優先度を算出する。具体的には、図8におけるS207までの処理により算出した優先度を、優先度記憶部145に、優先度管理情報の多様性優先度として図31の2列目のように記憶する。次に、優先度算出部142aは、S210で算出した興味度を、優先度管理情報において対応する項目毎に興味優先度として記憶する。優先度管理情報は、例えば、図31の3列目に、各項目と対応付けて記憶される。次に、優先度算出部142aは、多様性優先度と興味優先度を加味した総合優先度を算出する。総合優先度は、例えば、多様性優先度と興味優先度の和として算出する。算出された総合優先度は、優先度管理情報の総合優先度として、図31の4列目のように記憶する。なお、優先度算出部142aで算出する総合優先度は、多様性優先度と興味優先度の和により算出するのではなく、多様性優先度と興味優先度を重み付けた和により算出しても良い。   Next, the priority calculation part 142a calculates the priority which considered the user's interest level in diversity (S207). In the present embodiment, the priority calculated from diversity as in the first embodiment is referred to as diversity priority, and the priority in which the user's interest is added to diversity is referred to as the overall priority. . First, diversity priority is calculated by the same method as the priority calculation in the first embodiment. Specifically, the priority calculated by the processing up to S207 in FIG. 8 is stored in the priority storage unit 145 as the diversity priority of the priority management information as shown in the second column of FIG. Next, the priority calculation unit 142a stores the interest calculated in S210 as an interest priority for each corresponding item in the priority management information. For example, the priority management information is stored in the third column in FIG. 31 in association with each item. Next, the priority calculation part 142a calculates the total priority which considered the diversity priority and the interest priority. The total priority is calculated as, for example, the sum of diversity priority and interest priority. The calculated total priority is stored as the total priority of the priority management information as shown in the fourth column of FIG. Note that the total priority calculated by the priority calculation unit 142a may be calculated not by the sum of the diversity priority and the interest priority but by the sum of the diversity priority and the interest priority. .

S207の処理の後、全ての項目について優先度を算出したか否かを判定する(S208)。優先度を算出すべき項目が残っている場合(S208がNo)、S206の処理に戻る。S208において、全ての項目について優先度を算出した場合(S208がYes)、次に、詳細分類項目選択部140は、S207で算出した優先度に基づき、詳細分類項目を選択する(S209)。ここで、上位項目が共通の項目で、詳細分類項目として選択された項目及び選択されなかった項目が両方存在する場合は、詳細分類項目に「上位項目その他」を追加し、上位項目が詳細分類項目に選択されていれば、上位項目を詳細分類項目から除外しても良い。このとき、S402における詳細な物体認識において、S401では詳細分類項目として選択された項目及び上位項目のモデルを選択し、SVMによりそれぞれの尤度を算出し、ある下位項目と上位項目の尤度が高い場合は下位項目に、全ての下位項目の尤度が低いが上位項目の尤度が高い場合には「上位項目その他」に分類しても良い。これは、どのような下位項目の画像でも、「上位項目その他」または下位項目のいずれかに分類するためである。例えば「食事」「ラーメン」が詳細分類項目として選択されており、「丼」「カレー」が詳細分類項目として選択されていない場合、詳細分類項目に「食事その他」を追加し、「食事」を除外することにより、食事に関連する詳細分類項目を「ラーメン」「食事その他」とする。このとき、S401では「ラーメン」「食事」のモデルを選択する。これにより、ラーメンが写っている画像に対しては「ラーメン」「食事」の尤度が共に高いため「ラーメン」に分類し、丼が写っている画像に対しては「ラーメン」の尤度が低いが「食事」の尤度が高くなるため、「食事その他」に分類することができる。   After the process of S207, it is determined whether or not the priority has been calculated for all items (S208). If there are still items for which priority should be calculated (No in S208), the process returns to S206. If priority is calculated for all items in S208 (Yes in S208), then the detailed classification item selection unit 140 selects a detailed classification item based on the priority calculated in S207 (S209). Here, if the upper item is a common item and both the item selected as the detailed category item and the item not selected exist, add “Other item” to the detail category item, and the upper item will be the detail category If the item is selected, the upper item may be excluded from the detailed classification item. At this time, in the detailed object recognition in S402, the item selected as the detailed classification item and the model of the upper item are selected in S401, and the likelihood of each of the lower item and the upper item is calculated by SVM. If the likelihood is high, the likelihood of all the lower items is low, but if the likelihood of the upper items is high, the items may be classified as “higher items and others”. This is because any lower-level item image is classified as either “higher level item or the like” or lower level item. For example, if “meal” and “ramen” are selected as detailed category items, and “丼” and “curry” are not selected as detailed category items, “meal and other” is added to the detailed category item and “meal” is selected. By excluding, the detailed classification items related to meals are set as “ramen” and “meal and others”. At this time, the model of “ramen” or “meal” is selected in S401. As a result, images with ramen are classified as “ramen” because the likelihood of “ramen” and “meal” are both high, and the likelihood of “ramen” with respect to images with wrinkles. Although it is low, the likelihood of “meal” is high, so it can be classified as “meal and others”.

以上、実施の形態2に係る画像管理装置の構成及び画像管理装置が行う処理について説明したが、以下では、本実施の形態に係る画像管理装置の動作の具体例について説明する。   Although the configuration of the image management apparatus according to the second embodiment and the processing performed by the image management apparatus have been described above, a specific example of the operation of the image management apparatus according to the present embodiment will be described below.

ここで、図24に一部を示す画像群に対して、画像管理装置100aが詳細分類項目の選択を行うまでの流れについて、図7及び図27のフローチャートを用いて具体的に説明する。本具体例では、実施の形態1における具体例とは内容が異なる計40枚の画像群に対する処理の具体例を示す。それぞれには画像IDが0から39まで付与されており、図24は、画像群のうち、画像IDが0から3までの4枚を表している。画像蓄積装置111では、図24に示す入力画像は、例えば、図11のように管理されている。   Here, the flow until the image management apparatus 100a selects the detailed classification item for the image group partially shown in FIG. 24 will be specifically described with reference to the flowcharts of FIGS. This specific example shows a specific example of processing for a total of 40 image groups whose contents are different from the specific example in the first embodiment. Each image ID is assigned from 0 to 39, and FIG. 24 shows four images with image IDs 0 to 3 in the image group. In the image storage device 111, the input image shown in FIG. 24 is managed as shown in FIG. 11, for example.

本具体例では、画像管理装置100aの分類項目の候補が図12のような階層構造であるとする。   In this specific example, it is assumed that the classification item candidates of the image management apparatus 100a have a hierarchical structure as shown in FIG.

まず、画像入力部110は、画像蓄積装置111から、画像管理情報を取得することにより、画像及び画像IDを取得する(S101)。   First, the image input unit 110 acquires an image and an image ID by acquiring image management information from the image storage device 111 (S101).

次に、詳細分類項目選択部140aは、物体認識を行う項目を選択する(S102)。   Next, the detailed classification item selection unit 140a selects an item for performing object recognition (S102).

S102の処理の具体例を、図27のフローチャートを用いて説明する。   A specific example of the process of S102 will be described using the flowchart of FIG.

詳細分類項目選択部140aは、まず、意味階層記憶部から概要分類項目を取得する(S201)。例えば、図13に示す意味階層情報のうち、階層が1のものを取得する場合、「食事」「犬」「服」が選択される。   The detailed classification item selection unit 140a first acquires a summary classification item from the semantic hierarchy storage unit (S201). For example, in the case of acquiring semantic hierarchy information shown in FIG. 13 having a hierarchy of 1, “meal”, “dog”, and “clothes” are selected.

次に、詳細分類項目選択部140aは、画像群を「食事」「犬」「服」に分類する(S202)。   Next, the detailed classification item selection unit 140a classifies the image group into “meal”, “dog”, and “clothes” (S202).

S202の処理の一例を、図9のフローチャートを用いて説明する。   An example of the process of S202 will be described using the flowchart of FIG.

物体認識部120は、まず、モデル選択部121において、「食事」「犬」「服」の分類モデルを取得する(S301)。例えば、「食事」の分類モデルは、一般的な食事の画像を事前に多数収集し、SVMによる機械学習を行うことで得られる。   First, the object recognizing unit 120 acquires a classification model of “meal”, “dog”, and “clothes” in the model selection unit 121 (S301). For example, the “meal” classification model is obtained by collecting a large number of images of general meals in advance and performing machine learning using SVM.

次に、物体認識部120は、物体認識実行部122において、画像入力部110から入力した画像それぞれを物体認識により分類する(S302)。例えば、S301で選択した「食事」「犬」「服」のモデル及びSVMの分類器により分類を行う。   Next, in the object recognition execution unit 122, the object recognition unit 120 classifies each image input from the image input unit 110 by object recognition (S302). For example, the “meal”, “dog”, and “clothing” models selected in S301 and the SVM classifier are used for classification.

分類結果は、概要分類結果記憶部123に、概要分類結果管理情報として記憶する。図14の例では、画像ID0,1,2,3の画像が、それぞれ「食事」「食事」「犬」「服」と大まかに分類されている。ここでは、全画像40枚が、「食事」に12枚、「犬」に24枚、「服」に4枚分類されたものとする。以上で、図27におけるS202の処理が終了する。   The classification result is stored in the summary classification result storage unit 123 as summary classification result management information. In the example of FIG. 14, the images with image IDs 0, 1, 2, and 3 are roughly classified as “meal”, “meal”, “dog”, and “clothes”, respectively. Here, it is assumed that all 40 images are classified into 12 items for “meal”, 24 items for “dog”, and 4 items for “clothes”. This completes the process of S202 in FIG.

図27に戻り、次に、詳細分類項目選択部140aは、S201で取得した概要分類項目「食事」「犬」「服」から1つ選択する(S203)。以下、S203では「食事」が選択された場合の説明を行う。   Returning to FIG. 27, next, the detailed classification item selection unit 140a selects one of the summary classification items “meal”, “dog”, and “clothes” acquired in S201 (S203). Hereinafter, in S203, the case where “meal” is selected will be described.

詳細分類項目選択部140aは、次に、「食事」の多様性を算出する(S204)。ここでは、多様性を、先に説明したように、画像数スコアと被写体変化スコアの和として算出する場合について説明する。まず、「食事」の画像スコア、「食事」に分類された画像数の全画像数に対する比、すなわち、12÷40=0.3となる。被写体変化スコアは、「食事」に分類された12枚の画像の色ヒストグラムおよびエッジ特徴量の分散の平均として算出される。例えば被写体変化スコアが0.2であったものとすると、多様性スコアは、画像数スコアと被写体変化スコアの和、すなわち、0.3+0.2=0.5となる。画像数スコア、被写体変化スコア、多様性スコアの値は、図30の2行目のように、多様性管理情報として記憶される。「犬」「服」に関しても、同様にして多様性スコアを算出し、それぞれ図30の3,4行目のようにして、多様性管理情報として算出される。   Next, the detailed classification item selection unit 140a calculates the diversity of “meals” (S204). Here, a case where diversity is calculated as the sum of the image number score and the subject change score as described above will be described. First, the image score of “meal” and the ratio of the number of images classified as “meal” to the total number of images, that is, 12 ÷ 40 = 0.3. The subject change score is calculated as an average of color histograms and edge feature amount variances of 12 images classified as “meals”. For example, if the subject change score is 0.2, the diversity score is the sum of the image number score and the subject change score, that is, 0.3 + 0.2 = 0.5. Image number score, subject change score, and diversity score values are stored as diversity management information as shown in the second row of FIG. Diversity scores are similarly calculated for “dogs” and “clothes”, and are calculated as diversity management information as shown in lines 3 and 4 of FIG.

「食事」「犬」「服」の多様性を算出した後(S205でYes)、興味情報抽出部147は、分類候補の項目毎に興味度を算出する(S210)。ユーザがソーシャル・ネットワーキング・サービスに投稿したコメント情報として、図28に示すメタデータが付与されたものとする。詳細分類項目選択部140aは、まず、メタデータ管理情報に記憶されたメタデータID=0のメタデータに対して形態素解析を行い、分類項目名と一致する名詞として「ラーメン」を抽出する。そこで、図29の興味度管理情報における「ラーメン」の出現数を1増やす。以上のメタデータに対する項目名抽出操作を全てのメタデータに対して行い、興味度管理情報には、各項目の単語の出現数が、図29の2列目のように記憶される。このとき、項目名のメタデータ中の出現数の総数は、7+1+2=10であり、興味度は、それぞれの項目の出現数を10で割ることにより算出され、興味度管理情報において図29の3列目のように記憶される。例えば、「ラーメン」の興味度は7÷10=0.7であり、この値は図29において、6行目の3列目に興味度管理情報として記憶される。   After calculating the diversity of “meal”, “dog”, and “clothing” (Yes in S205), the interest information extraction unit 147 calculates the degree of interest for each item of the classification candidate (S210). Assume that the metadata shown in FIG. 28 is given as comment information posted by the user to the social networking service. The detailed classification item selection unit 140a first performs morphological analysis on the metadata with metadata ID = 0 stored in the metadata management information, and extracts “ramen” as a noun that matches the classification item name. Therefore, the number of occurrences of “ramen” in the interest management information in FIG. 29 is increased by one. The above item name extraction operation for metadata is performed on all metadata, and the number of occurrences of the word of each item is stored in the interest level management information as shown in the second column of FIG. At this time, the total number of appearances in the item name metadata is 7 + 1 + 2 = 10, and the degree of interest is calculated by dividing the number of appearances of each item by 10 in the interest degree management information. Stored as in the row. For example, the degree of interest of “ramen” is 7 ÷ 10 = 0.7, and this value is stored as interest degree management information in the third column of the sixth row in FIG.

次に、詳細分類項目選択部140aは、分類項目候補「食事」「犬」「服」「丼」「ラーメン」「カレー」「柴犬」「チワワ」「ダルメシアン」「Tシャツ」「スーツ」「着物」から1つ選ぶ(S206)。以下では、「食事」「ラーメン」を選択した場合のそれぞれのS207の処理の例を示す。また、ここでは、優先度を、先に説明したように、優先度を上位項目の多様性の値とする(但し、階層が1の場合は優先度を10000とする)場合について説明する。   Next, the detailed classification item selection unit 140a selects the classification item candidates “meal”, “dog”, “clothes”, “ramen”, “curry”, “shiba inu”, “chihuahua”, “Dalmatian”, “T-shirt”, “suit”, “kimono”. "Is selected from" (S206). Below, the example of the process of each S207 at the time of selecting "meal" and "ramen" is shown. Further, here, as described above, a case will be described in which the priority is set to the diversity value of the upper item (however, when the hierarchy is 1, the priority is set to 10,000).

S206で「食事」を選択した場合、優先度算出部142aは、まず、「食事」の多様性優先度を算出する。図13の意味階層情報により、「食事」は階層が1であると特定する。そこで「食事」の多様性優先度は10000となる。これを図31の優先度管理情報の2行目の2列目に記憶する。優先度算出部142aは、次に、「食事」の興味優先度を算出する。図29の興味度管理情報の「食事」の行の「興味度」の列を参照することにより、「食事」の興味優先度は0となる。これを図31の優先度管理情報の「食事」の行の3列目に記憶する。優先度算出部142aは、次に、多様性優先度と興味優先度を足すことにより、総合優先度を算出する。総合優先度は10000+0=10000となる。これを図31の優先度管理情報の2行目の4列目に記憶する。   When “meal” is selected in S206, the priority calculation unit 142a first calculates the diversity priority of “meal”. Based on the semantic hierarchy information in FIG. 13, “meal” is identified as having a hierarchy of 1. Therefore, the diversity priority of “meal” is 10,000. This is stored in the second column of the second row of the priority management information in FIG. Next, the priority calculation unit 142a calculates the interest priority of “meal”. The interest priority of “meal” becomes 0 by referring to the “interest level” column in the “meal” row of the interest level management information in FIG. This is stored in the third column of the “meal” row of the priority management information of FIG. Next, the priority calculation unit 142a calculates an overall priority by adding the diversity priority and the interest priority. The overall priority is 10000 + 0 = 10000. This is stored in the fourth column of the second row of the priority management information in FIG.

S206で「ラーメン」を選択した場合、「ラーメン」の優先度を算出する。ここでは、優先度を、先に説明したように、優先度を上位項目の多様性の値とする場合について説明する。優先度算出部142aは、まず、「食事」の多様性優先度を算出する。図13の意味階層情報により、「ラーメン」の上位項目として「食事」を特定する。図30の多様性管理情報により、「食事」の多様性スコアとし0.5を特定する。この0.5を、「ラーメン」の多様性優先度として、図31の優先度管理情報の6行目の2列目に記憶する。優先度算出部142aは、次に、「ラーメン」の興味優先度を算出する。図29の興味度管理情報の「ラーメン」の行の「興味度」を参照することにより、「ラーメン」の興味優先度は0.7となる。これを図31の優先度管理情報の6行目の3列目に記憶する。優先度算出部142aは、次に、多様性優先度と興味優先度を足すことにより、総合優先度を算出する。総合優先度は0.5+0.7=1.2となる。これを図31の優先度管理情報の6行目の4列目に記憶する。   When “ramen” is selected in S206, the priority of “ramen” is calculated. Here, as described above, a case will be described in which the priority is set as the diversity value of the upper item as described above. The priority calculation unit 142a first calculates the diversity priority of “meal”. Based on the semantic hierarchy information in FIG. 13, “meal” is specified as the upper item of “ramen”. Based on the diversity management information of FIG. 30, 0.5 is specified as the diversity score of “meal”. This 0.5 is stored in the second column of the sixth row of the priority management information of FIG. 31 as the diversity priority of “ramen”. Next, the priority calculation unit 142a calculates the interest priority of “ramen”. The interest priority of “ramen” becomes 0.7 by referring to “interest” in the row of “ramen” in the interest level management information in FIG. This is stored in the third column of the sixth row of the priority management information in FIG. Next, the priority calculation unit 142a calculates an overall priority by adding the diversity priority and the interest priority. The overall priority is 0.5 + 0.7 = 1.2. This is stored in the fourth column of the sixth row of the priority management information in FIG.

全ての項目について優先度を算出後(S208がYes)、詳細分類項目選択部140aは、S207で算出した優先度に基づき、詳細分類項目を選択する(S209)。ここでは、先に説明したように、優先度が高い所定数の項目を詳細分類項目として選択する場合で、所定数=6とした場合について説明する。まず、図16の優先度管理情報において、項目を優先度の高い順に並び替える。次に、並び替えた項目の内、優先度が高い所定数+1=7個を選択する。ここで、所定数に1を加えているのは、全ての下位項目が詳細分類項目として選択された場合は、上位の項目を詳細分類項目から除外するからである。このとき、「食事」「犬」「服」「ラーメン」「柴犬」「チワワ」「ダルメシアン」が選択される。このうち、図13の2行目及び5,6,7行目から、「食事」の全ての下位項目「丼」「ラーメン」「カレー」が詳細分類項目に選択されていることが分かるので、「食事」を詳細分類項目から除外する。また、図13の2,6行目から、「食事」の下位項目のうち詳細分類項目に選択されている「ラーメン」と、選択されていない「丼」「カレー」が存在するので、「食事」を詳細分類項目から除外し、「食事その他」を詳細分類項目に追加する。最終的に、詳細分類項目は、「服」「ラーメン」「食事その他」「柴犬」「チワワ」「ダルメシアン」の6項目となり、詳細分類項目管理情報として、図32のように記憶する。以上で、図7におけるS102の処理が終了する。   After calculating the priority for all items (Yes in S208), the detailed classification item selection unit 140a selects a detailed classification item based on the priority calculated in S207 (S209). Here, as described above, a case where a predetermined number of items with high priority is selected as the detailed classification item and the predetermined number = 6 will be described. First, in the priority management information of FIG. 16, the items are rearranged in the descending order of priority. Next, among the rearranged items, a predetermined number + 1 = 7 with high priority is selected. Here, the reason why 1 is added to the predetermined number is that when all the lower items are selected as the detailed classification items, the upper items are excluded from the detailed classification items. At this time, “meal” “dog” “clothes” “ramen” “shiba inu” “chihuahua” “Dalmatian” is selected. Of these, from the second row and the fifth, sixth, seventh rows in FIG. 13, it can be seen that all sub-items “丼”, “ramen” and “curry” of “meal” are selected as detailed classification items. “Meals” are excluded from the detailed classification items. In addition, from the second and sixth lines of FIG. 13, there are “ramen” selected as the detailed classification item among the lower items of “meal” and “と” and “curry” not selected. "Is excluded from the detailed classification items, and" meal and other "is added to the detailed classification items. Finally, the detailed classification items are six items of “clothes”, “ramen”, “meal and other”, “Shiba inu”, “Chihuahua”, and “Dalmatian”, and are stored as detailed classification item management information as shown in FIG. Thus, the process of S102 in FIG. 7 ends.

以上のように、本実施の形態に係る画像管理装置100aは、画像群の階層構造化を行う際、画像群の多様性に、画像情報のみからでは分からないユーザの興味を加味して、物体認識の項目を優先付けて選択することができる。これによって、物体認識の項目数の増加に伴う分類性能の悪化を防ぎつつ、画像群の意味内容及びユーザの興味に合った詳細さの意味粒度で画像群を物体認識により分類し、画像群意味内容及びユーザの興味に即した画像群の階層構造化を行うことができる。   As described above, when the image management apparatus 100a according to the present embodiment performs hierarchical structuring of an image group, the user's interest that cannot be understood from only image information is added to the diversity of the image group. The recognition items can be selected with priority. This classifies the image group by object recognition with the semantic granularity of the detail that matches the semantic content of the image group and the user's interest while preventing the deterioration of the classification performance due to the increase in the number of items of object recognition. It is possible to make a hierarchical structure of the image group in accordance with the contents and the user's interest.

なお、興味情報抽出部147で取得するメタデータは、全てのメタデータを取得するのではなく、期間を限定して取得しても良い。例えば「最近1ヶ月」のように、最近のメタデータのみを取得してもよい。これにより、詳細分類項目の選択において、ユーザの最近の興味に応じて優先度付けることができる。   Note that the metadata acquired by the interest information extraction unit 147 may be acquired not for all the metadata but for a limited period. For example, only recent metadata may be acquired, such as “Recent 1 month”. Thereby, in selection of a detailed classification item, priority can be given according to a user's recent interest.

また、興味情報抽出部147で取得するメタデータは、位置情報であっても良い。このとき、興味情報抽出部147では、頻出する位置情報に対応する項目の興味度が大きくなるよう設定しても良い。例えば、動物園で撮影されている画像が所定数以上の存在する場合は、ユーザは動物好きと考えられるので「犬」「柴犬」「チワワ」「ダルメシアン」等の、動物に関連する項目の優先度を大きくしても良い。ここで、位置情報は、画像に付与されているExif(Exchangeable image file format)情報から取得しても良い。これにより、詳細分類項目の選択において、ユーザの行動情報から分かる興味情報に応じて優先度付けることができる。   Further, the metadata acquired by the interest information extraction unit 147 may be position information. At this time, the interest information extraction unit 147 may set the degree of interest of the item corresponding to the frequently appearing position information so as to increase. For example, if there are more than a certain number of images taken at a zoo, the user is considered to like animals, so the priority of items related to animals such as “dog”, “shiba inu”, “chihuahua”, “Dalmatian”, etc. May be increased. Here, the position information may be acquired from Exif (Exchangeable image file format) information attached to the image. Thereby, in selection of a detailed classification item, priority can be given according to the interest information understood from a user's action information.

また、興味情報抽出部147で取得するメタデータは、ユーザの属性であっても良い。このとき、興味情報抽出部147では、ユーザの特定属性に対応する項目の興味度が大きくなるように設定しても良い。このとき、ユーザの属性は、ユーザの性別や年齢であっても良い。例えば、ユーザの性別が女性で、年齢が20代であれば、20代女性が良く撮影しそうな項目である「お菓子」に対する興味度を大きく設定しても良い。これにより、詳細分類項目の選択において、ユーザがメタデータを画像に付与していなくとも、ユーザの属性から分かる興味情報に応じて優先度付けることができる。   The metadata acquired by the interest information extraction unit 147 may be a user attribute. At this time, the interest information extraction unit 147 may set the degree of interest of the item corresponding to the user's specific attribute to be large. At this time, the user's attribute may be the user's gender or age. For example, if the user's gender is female and the age is in his twenties, the degree of interest in “sweets”, an item that women in their twenties are likely to shoot, may be set large. Thereby, in the selection of the detailed classification item, even if the user does not give metadata to the image, priority can be given according to the interest information that can be understood from the user's attributes.

(実施の形態3)
実施の形態1では、詳細分類項目選択部140において算出した情報を、詳細分類項目の選択のみに使う場合について説明を行ったが、詳細分類項目選択部140において算出した多様性により、クラスタリングの動作の項目を切替えても良い。画像群の項目毎の多様性が分かっていれば、多様性に合わせてクラスタリング部の動作を切替える方が、より画像群の内容に即した階層構造化を実現することが可能となる。
(Embodiment 3)
In the first embodiment, the case where the information calculated by the detailed classification item selection unit 140 is used only for selection of the detailed classification item has been described. However, the clustering operation is performed based on the diversity calculated by the detailed classification item selection unit 140. These items may be switched. If the diversity for each item of the image group is known, switching the operation of the clustering unit in accordance with the diversity makes it possible to realize a hierarchical structure that is more suitable for the contents of the image group.

実施の形態3にかかる画像管理装置は、このような考えに基づき画像群の階層構造化を行うものである。   The image management apparatus according to the third embodiment performs a hierarchical structure of image groups based on such an idea.

以下、本実施の形態3における画像管理装置について説明する。   Hereinafter, the image management apparatus according to the third embodiment will be described.

ここでは、詳細分類項目選択部140で算出される多様性に基づき、項目毎のクラスタリングの動作を選択する実施例について説明する。   Here, an embodiment in which the clustering operation for each item is selected based on the diversity calculated by the detailed classification item selection unit 140 will be described.

実施の形態3にかかる画像管理装置100bの機能ブロック図を図33に示す。画像管理装置100bの構成は、画像管理装置100と比較して、クラスタリング部130bの内部動作と、詳細分類項目選択部の内容がクラスタリング部130bの内部動作に影響を与える点が異なる。   FIG. 33 is a functional block diagram of the image management apparatus 100b according to the third embodiment. The configuration of the image management apparatus 100b differs from the image management apparatus 100 in that the internal operation of the clustering unit 130b and the content of the detailed classification item selection unit affect the internal operation of the clustering unit 130b.

本実施の形態におけるクラスタリング部130bは、詳細分類項目選択部140で算出される多様性を用いて、クラスタリングを行うか否かを決定する。   The clustering unit 130b in the present embodiment uses the diversity calculated by the detailed classification item selection unit 140 to determine whether or not to perform clustering.

次に、本実施の形態における画像管理装置の動作について説明する。本実施の形態における画像管理装置の全体動作のフローチャートを、図34に示す。図34のフローチャートは、図7のフローチャートと比較して、S108及びS109の処理が追加されている。S104までの動作は、実施の形態1と同様である。以下では、実施の形態1と異なる、図34におけるS108以降の処理について説明する。   Next, the operation of the image management apparatus in this embodiment will be described. FIG. 34 shows a flowchart of the overall operation of the image management apparatus in the present embodiment. In the flowchart of FIG. 34, the processes of S108 and S109 are added as compared with the flowchart of FIG. The operations up to S104 are the same as those in the first embodiment. Hereinafter, the processing after S108 in FIG. 34, which is different from the first embodiment, will be described.

クラスタリング部130bは、S104までの処理の後、概要分類項目に対して、クラスタリングを行うか否かを判定する(S108)。具体的には、S104で選択した項目が、S201で取得した概要分類項目であり、かつ、多様性が所定値以下の項目はクラスタリングを行わないと判定し、それ以外の場合はクラスタリングを行うと判定する。これにより、多様性が小さい場合に、クラスタリングにより画像群を詳細に分類しすぎるのを防ぐことができる。S108でクラスタリングを行うと判定した場合(S109がYes)は、実施の形態1と同様にクラスタリングを行う(S105)。S108でクラスタリングを行わないと判定した場合(S109がNo)は、S105を飛ばしてS106の処理に進む。   After the processing up to S104, the clustering unit 130b determines whether to perform clustering on the summary classification item (S108). Specifically, if the item selected in S104 is the summary classification item acquired in S201 and the item whose diversity is a predetermined value or less is determined not to be clustered, otherwise clustering is performed. judge. Thereby, when diversity is small, it can prevent that an image group is classified too much by clustering. When it is determined in S108 that clustering is to be performed (Yes in S109), clustering is performed in the same manner as in the first embodiment (S105). If it is determined in S108 that clustering is not performed (No in S109), S105 is skipped and the process proceeds to S106.

以上、実施の形態3に係る画像管理装置の構成及び画像管理装置が行う処理について説明したが、以下では、本実施の形態にかかる画像管理装置の動作の具体例について説明する。   The configuration of the image management apparatus according to the third embodiment and the processing performed by the image management apparatus have been described above. A specific example of the operation of the image management apparatus according to the present embodiment will be described below.

ここで、図24に一部を示す画像群に対して、画像管理装置100bがクラスタリングを行うまでの流れについて、図34及び図8のフローチャートを用いて具体的に説明する。本具体例では、実施の形態1における具体例とは内容が異なる40枚の画像群に対する処理の具体例を示す。それぞれには画像IDが0から39まで付与されており、図24は、画像群のうち、画像IDが0から3までの4枚を表したものである。画像蓄積装置111では、図24に示す入力画像は、例えば、図11のように管理されている。   Here, the flow until the image management apparatus 100b performs clustering on the image group partially shown in FIG. 24 will be specifically described with reference to the flowcharts of FIGS. This specific example shows a specific example of processing for a group of 40 images whose contents are different from the specific example in the first embodiment. Each is assigned an image ID from 0 to 39, and FIG. 24 shows four images from 0 to 3 in the image group. In the image storage device 111, the input image shown in FIG. 24 is managed as shown in FIG. 11, for example.

本具体例では、画像管理装置100bが分類する意味項目の候補が図12のような階層構造であるとする。   In this specific example, it is assumed that the semantic item candidates classified by the image management apparatus 100b have a hierarchical structure as shown in FIG.

まず、画像入力部110は、画像蓄積装置111から、画像管理情報を取得することにより、画像及び画像IDを取得する(S101)。   First, the image input unit 110 acquires an image and an image ID by acquiring image management information from the image storage device 111 (S101).

次に、詳細分類項目選択部140は、物体認識を行う項目を選択する(S102)。   Next, the detailed classification item selection unit 140 selects an item for performing object recognition (S102).

S102の処理の具体例を、図8のフローチャートを用いて説明する。   A specific example of the processing of S102 will be described using the flowchart of FIG.

詳細分類項目選択部140は、まず、意味階層記憶部から概要分類項目を取得する(S201)。例えば、図13に示す意味階層情報のうち、階層が1のものを取得する場合、「食事」「犬」「服」が選択される。   The detailed classification item selection unit 140 first acquires a summary classification item from the semantic hierarchy storage unit (S201). For example, in the case of acquiring semantic hierarchy information shown in FIG. 13 having a hierarchy of 1, “meal”, “dog”, and “clothes” are selected.

次に、詳細分類項目選択部140は、画像群を「食事」「犬」「服」に分類する(S202)。   Next, the detailed classification item selection unit 140 classifies the image group into “meal”, “dog”, and “clothes” (S202).

S202の処理の一例を、図9のフローチャートを用いて説明する。   An example of the process of S202 will be described using the flowchart of FIG.

物体認識部120は、まず、モデル選択部121において、「食事」「犬」「服」の分類モデルを取得する(S301)。   First, the object recognizing unit 120 acquires a classification model of “meal”, “dog”, and “clothes” in the model selection unit 121 (S301).

次に、物体認識部120は、物体認識実行部122において、画像入力部110から入力した画像それぞれを物体認識により分類する(S302)。例えば、S301で選択した「食事」「犬」「服」のモデル及びSVMの分類器により分類を行う。   Next, in the object recognition execution unit 122, the object recognition unit 120 classifies each image input from the image input unit 110 by object recognition (S302). For example, the “meal”, “dog”, and “clothing” models selected in S301 and the SVM classifier are used for classification.

分類結果は、概要分類結果記憶部123に、概要分類結果管理情報として記憶する。図14の例では、画像ID0,1,2,3の画像が、それぞれ「食事」「食事」「犬」「服」と概要分類項目に分類されている。ここでは、全ての画像40枚が、「食事」に32枚、「犬」に4枚、「服」に4枚分類されたものとする。以上で、図8におけるS202の処理が終了する。   The classification result is stored in the summary classification result storage unit 123 as summary classification result management information. In the example of FIG. 14, the images with image IDs 0, 1, 2, and 3 are classified into “meal”, “meal”, “dog”, and “clothes”, respectively, and summary category items. Here, it is assumed that all 40 images are classified into “meals”, 32 “dogs”, and “clothes”. Thus, the process of S202 in FIG. 8 ends.

図8に戻り、次に、詳細分類項目選択部140は、S201で取得した概要分類項目「食事」「犬」「服」から1つ選択する(S203)。以下、S203では「食事」が選択された場合の説明を行う。   Returning to FIG. 8, next, the detailed classification item selection unit 140 selects one of the summary classification items “meal”, “dog”, and “clothes” acquired in S201 (S203). Hereinafter, in S203, the case where “meal” is selected will be described.

詳細分類項目選択部140は、次に、「食事」の多様性を算出する(S204)。ここでは、多様性を、先に説明したように、画像数スコアと被写体変化スコアの和として算出する場合について説明する。まず、「食事」の画像スコア、「食事」に分類された画像数の全画像数に対する比、すなわち、32÷40=0.8となる。被写体変化スコアは、「食事」に分類された20枚の画像の色ヒストグラムおよびエッジ特徴量の分散の平均として算出される。例えば被写体変化スコアが0.8であったものとすると、多様性スコアは、画像数スコアと被写体変化スコアの和、すなわち、0.8+0.8=1.6となる。画像数スコア、被写体変化スコア、多様性スコアの値は、図35の2行目のように、多様性管理情報として記憶される。「犬」「服」に関しても、同様にして多様性スコアを算出し、それぞれ図35の3,4行目のようにして、多様性管理情報として算出される。   Next, the detailed classification item selection unit 140 calculates the diversity of “meals” (S204). Here, a case where diversity is calculated as the sum of the image number score and the subject change score as described above will be described. First, the image score of “meal” and the ratio of the number of images classified as “meal” to the total number of images, that is, 32 ÷ 40 = 0.8. The subject change score is calculated as the average of the color histogram and edge feature amount variance of 20 images classified as “meal”. For example, if the subject change score is 0.8, the diversity score is the sum of the image number score and the subject change score, that is, 0.8 + 0.8 = 1.6. The values of the image number score, the subject change score, and the diversity score are stored as diversity management information as shown in the second row of FIG. Diversity scores are similarly calculated for “dogs” and “clothes”, and are calculated as diversity management information as shown in the third and fourth lines of FIG.

「食事」「犬」「服」の多様性を算出した後(S205でYes)、詳細分類項目選択部140は、分類候補の項目「食事」「犬」「服」「丼」「ラーメン」「カレー」「柴犬」「チワワ」「ダルメシアン」「Tシャツ」「スーツ」「着物」から1つ選ぶ(S206)。以下では、「食事」「ラーメン」を選択した場合のそれぞれの処理の例を示す。また、ここでは、優先度を、先に説明したように、優先度を上位項目の多様性の値とする(但し、階層が1の場合は優先度を10000とする)場合について説明する。   After calculating the diversity of “meals”, “dogs”, and “clothes” (Yes in S205), the detailed classification item selection unit 140 selects items “meals”, “dogs”, “clothes”, “丼”, “ramen”, “ One of curry, shiba inu, chihuahua, dalmatian, t-shirt, suit, and kimono is selected (S206). Below, the example of each process at the time of selecting "meal" and "ramen" is shown. Further, here, as described above, a case will be described in which the priority is set to the diversity value of the upper item (however, when the hierarchy is 1, the priority is set to 10,000).

S206で「食事」を選択した場合、S207では「食事」の優先度を算出する。図13の意味階層情報により、「食事」は階層が1であると特定する。そこで「食事」の優先度は10000となる。これを図36の優先度管理情報の2行目に記憶する。   When “meal” is selected in S206, the priority of “meal” is calculated in S207. Based on the semantic hierarchy information in FIG. 13, “meal” is identified as having a hierarchy of 1. Therefore, the priority of “meal” is 10,000. This is stored in the second row of the priority management information in FIG.

S206で「ラーメン」を選択した場合、S207では「ラーメン」の優先度を算出する。ここでは、優先度を、先に説明したように、優先度を上位項目の多様性の値とする場合について説明する。図13の意味階層情報により、「ラーメン」の上位項目として「食事」を特定する。図35の多様性管理情報により、「食事」の多様性スコアとして1.6を特定する。この1.6を「ラーメン」の優先度として、図36の優先度管理情報の6行目に記憶する。残りの10項目に関しても、同様にして優先度を算出し、図36の2,6行目以外のように、優先度管理情報として算出される。   When “ramen” is selected in S206, the priority of “ramen” is calculated in S207. Here, as described above, a case will be described in which the priority is set as the diversity value of the upper item as described above. Based on the semantic hierarchy information in FIG. 13, “meal” is specified as the upper item of “ramen”. Based on the diversity management information of FIG. 35, 1.6 is specified as the diversity score of “meal”. This 1.6 is stored as the priority of “ramen” in the sixth line of the priority management information in FIG. For the remaining 10 items, the priority is calculated in the same manner, and is calculated as the priority management information except for the second and sixth lines in FIG.

全ての項目について優先度を算出後(S208がYes)、詳細分類項目選択部140は、S207で算出した優先度に基づき、詳細分類項目を選択する(S209)。ここでは、先に説明したように、詳細分類項目は、優先度が高い所定数の項目を選択する場合で、所定数=5とした場合について説明する。まず、図36の優先度管理情報において、項目を優先度の高い順に並び替える。次に、並び替えた項目の内、優先度が高い所定数+1=6個を選択する。ここで、所定数に1を加えているのは、全ての下位項目が詳細分類項目として選択された場合は、上位の項目を詳細分類項目から除外するからである。このとき、「食事」「犬」「服」「丼」「ラーメン」「カレー」が選択される。このうち、図13の2行目及び5,6,7行目から、「食事」の全ての下位項目「丼」「ラーメン」「カレー」が詳細分類項目に選択されていることが分かるので、「食事」を詳細分類項目から除外する。最終的に、詳細分類項目は、「犬」「服」「丼」「ラーメン」「カレー」の5項目となり、詳細分類項目管理情報として、図17のように記憶する。以上で、図34におけるS102の処理が終了する。   After calculating the priority for all items (Yes in S208), the detailed classification item selection unit 140 selects a detailed classification item based on the priority calculated in S207 (S209). Here, as described above, the detailed classification items will be described in the case where a predetermined number of items with high priority are selected and the predetermined number = 5. First, in the priority management information shown in FIG. 36, the items are rearranged in descending order of priority. Next, among the rearranged items, a predetermined number + 1 = 6 with high priority is selected. Here, the reason why 1 is added to the predetermined number is that when all the lower items are selected as the detailed classification items, the upper items are excluded from the detailed classification items. At this time, “meal”, “dog”, “clothes”, “candy”, “ramen”, and “curry” are selected. Of these, from the second row and the fifth, sixth, seventh rows in FIG. 13, it can be seen that all sub-items “丼”, “ramen” and “curry” of “meal” are selected as detailed classification items. “Meals” are excluded from the detailed classification items. Finally, the detailed classification items are five items of “dog”, “clothes”, “candy”, “ramen”, and “curry”, and are stored as detailed classification item management information as shown in FIG. Above, the process of S102 in FIG. 34 is complete | finished.

図34に戻り、次に、物体認識部120は、画像群を「犬」「服」「丼」「ラーメン」「カレー」に分類する(S103)。S103の処理の具体例を、図10のフローチャートを用いて説明する。   Returning to FIG. 34, next, the object recognition unit 120 classifies the image group into “dog”, “clothes”, “candy”, “ramen”, and “curry” (S103). A specific example of the process of S103 will be described using the flowchart of FIG.

物体認識部120は、まず、モデル選択部121において、「犬」「服」「丼」「ラーメン」「カレー」の分類モデルを取得する(S401)。   First, the object recognizing unit 120 obtains a classification model of “dog”, “clothes”, “candy”, “ramen”, and “curry” in the model selection unit 121 (S401).

次に、物体認識部120は、物体認識実行部122において、画像入力部110から入力した画像それぞれを、S401で選択した「犬」「服」「丼」「ラーメン」「カレー」のモデル及びSVMの分類器により分類を行う(S402)。   Next, in the object recognition execution unit 122, the object recognition unit 120 converts each of the images input from the image input unit 110 into the “dog”, “clothes”, “candy”, “ramen”, “curry” model and SVM selected in S401. Classification is performed by the classifier (S402).

分類結果は、詳細分類結果記憶部124に、図37のように、詳細分類結果管理情報として記憶する。以上で、図34におけるS103の処理が終了する。   The classification result is stored in the detailed classification result storage unit 124 as detailed classification result management information as shown in FIG. Thus, the process of S103 in FIG. 34 ends.

図34に戻り、次に、画像管理装置100bは、詳細分類項目記憶部146が記憶する詳細分類項目「犬」「服」「丼」「ラーメン」「カレー」から1つ選ぶ(S104)。以下、クラスタリングを行うか否かの判定を行うための所定値を0.5とし、S104で「犬」「服」「丼」を選択した場合を例に説明する。   Returning to FIG. 34, the image management apparatus 100b next selects one of the detailed classification items “dog”, “clothes”, “candy”, “ramen”, and “curry” stored in the detailed classification item storage unit 146 (S104). Hereinafter, a case where the predetermined value for determining whether or not to perform clustering is set to 0.5, and “dog”, “clothes”, and “丼” are selected in S104 will be described as an example.

S104で「犬」を選択した場合、画像管理装置100は、「犬」の画像に対して、クラスタリングによる分類を行うか否かを判定する(S108)。具体的には、まず「犬」はS201で取得した概要分類項目の1つであり、かつ、多様性スコアが、図35の多様性管理情報における「犬」の行の4列目から0.2で、これは所定値0.5よりも小さいことから、「犬」をクラスタリングしないと決定する。S109でNoと判定され、S106に進む。   When “dog” is selected in S104, the image management apparatus 100 determines whether or not to classify the “dog” image by clustering (S108). Specifically, “Dog” is one of the summary classification items acquired in S201, and the diversity score is 0. 0 from the fourth column of the “Dog” row in the diversity management information of FIG. 2. Since this is smaller than the predetermined value 0.5, it is determined that the “dog” is not clustered. In S109, No is determined, and the process proceeds to S106.

S104で「服」を選択した場合、画像管理装置100は、「服」の画像に対して、クラスタリングによる分類を行うか否かを判定する(S108)。具体的には、まず「服」はS201で取得した概要分類項目の1つであり、かつ、多様性スコアが、図35多様性管理情報における「服」の行の4列目から0.8で、これは所定値よりも大きいことから、「服」をクラスタリングすると決定する。S109でYesと判定され、S105に進む。クラスタリング対象の画像群は、図37の分類項目別画像管理情報において1列目が「服」である3行目から、画像IDが「2,6,11,26」の画像を特定する。これらを、例えば、色ヒストグラム特徴量の類似度を基に階層的クラスタリングを行い、「服」の画像を更に詳細にクラスタ化する。   When “clothes” is selected in S104, the image management apparatus 100 determines whether or not to classify the “clothes” image by clustering (S108). Specifically, “clothes” is one of the summary classification items acquired in S201, and the diversity score is 0.8 from the fourth column of the “clothes” row in the diversity management information in FIG. Since this is larger than the predetermined value, it is determined that “clothes” is to be clustered. In S109, Yes is determined, and the process proceeds to S105. For the image group to be clustered, the image having the image ID “2, 6, 11, 26” is specified from the third row in which the first column is “clothes” in the image management information classified by category in FIG. These are subjected to, for example, hierarchical clustering based on the similarity of the color histogram feature quantity, and the “clothes” image is clustered in more detail.

S104で「丼」を選択した場合、画像管理装置100は、「丼」の画像に対して、クラスタリングによる分類を行うか否かを判定する(S108)。具体的には、「丼」はS201で取得した概要分類項目ではないので、「丼」をクラスタリングすると決定する。S109でYesと判定され、S105に進む。クラスタリング対象の画像群は、図37の分類項目別画像管理情報において1列目が「丼」である4行目から、画像IDが「0,7,19,27,29,32,35,37,38,39」の画像を特定する。これらを、例えば、色ヒストグラム特徴量の類似度を基に階層的クラスタリングを行い、「丼」の画像を更に詳細にクラスタ化する。   When “丼” is selected in S104, the image management apparatus 100 determines whether or not to classify the image of “丼” by clustering (S108). Specifically, since “丼” is not the summary classification item acquired in S201, it is determined to cluster “丼”. In S109, Yes is determined, and the process proceeds to S105. The image group to be clustered has the image IDs “0, 7, 19, 27, 29, 32, 35, 37 from the fourth row in which the first column is“ 丼 ”in the image management information classified by category in FIG. , 38, 39 ". These are subjected to, for example, hierarchical clustering based on the similarity of the color histogram feature quantity, and the “丼” image is clustered in more detail.

残りの「ラーメン」「カレー」に関しても、同様にしてクラスタリングを行い、クラスタリング結果は、クラスタリング結果記憶部132において、図38のようにクラスタリング結果管理情報として記憶される。図38における親子関係を階層的に図示化したものを図39に示す。   The remaining “ramen” and “curry” are similarly clustered, and the clustering result is stored in the clustering result storage unit 132 as clustering result management information as shown in FIG. FIG. 39 shows a hierarchical illustration of the parent-child relationship in FIG.

以上のように、本実施の形態に係る画像管理装置100bは、画像群のクラスタリングを行う際、詳細分類項目選択部140で算出した多様性に基づき、クラスタリングを行うか否かを選択する。   As described above, the image management apparatus 100b according to the present embodiment selects whether to perform clustering based on the diversity calculated by the detailed classification item selection unit 140 when clustering image groups.

なお、詳細分類項目選択部140で算出する多様性は、画像の全体に対する割合ではなく、画像数そのものから算出しても良い。これにより、画像全体の枚数が多くとも、分類枚数そのものが小さい項目をクラスタリングしないよう、クラスタリング動作を選択することができる。   Note that the diversity calculated by the detailed classification item selection unit 140 may be calculated from the number of images, not the ratio of the entire image. Thereby, even if the total number of images is large, the clustering operation can be selected so as not to cluster items whose classification number itself is small.

以上、本発明にかかる画像管理装置は、前述の各実施の形態で示したものに限られない。   As described above, the image management apparatus according to the present invention is not limited to those shown in the above-described embodiments.

(1)実施の形態1または2または3に係る画像管理装置は、画像群を意味内容に基づき階層的に分類し、図22や図23で示すような階層構造を生成することを説明した。このとき、階層構造生成部が生成した階層構造を、図1のような絞込み検索を実現するために用いてもよい。   (1) It has been described that the image management apparatus according to the first, second, or third embodiment classifies the image group hierarchically based on the semantic content and generates a hierarchical structure as shown in FIG. 22 or FIG. At this time, the hierarchical structure generated by the hierarchical structure generation unit may be used to implement the narrowing search as shown in FIG.

これにより、画像群のうち、ユーザが探したい画像と意味が類似する部分画像群の代表画像をユーザに指定させることにより、ユーザは、ユーザが指定した画像に意味が類似する部分画像群へ画像検索の範囲を段階的に絞込みながら検索することができる。従って、画像に写る物体の意味の粒度を絞込みながら検索を行うことができるため、大量の入力画像から、ユーザの望む画像の検索が容易になる。   Thus, by letting the user specify a representative image of a partial image group having a similar meaning to the image that the user wants to search among the image group, the user can change the image to a partial image group having a similar meaning to the image specified by the user You can search while narrowing down the search range step by step. Therefore, since the search can be performed while narrowing down the granularity of the meaning of the object shown in the image, it is easy to search for an image desired by the user from a large number of input images.

このとき、ある意味粒度の意味項目で画像群を分類したときに、多様性が高い項目は、より意味粒度が低い種類項目毎に詳細分類され、多様性が低い項目は、画像同士の類似性に基づき詳細分類される。   At this time, when classifying images with semantic items of a certain granularity, items with high diversity are classified in detail for each type item with lower semantic granularity, and items with low diversity are similarities between images. Based on the detailed classification.

本変形例における画像管理装置100cの全体構成を図40に示す。画像管理装置100cは、画像管理装置100と比較して、内部構成として絞込み検索部170が追加されていることと、画像管理装置100がユーザ操作入力部180及び表示部190と結合している点が異なる。   The overall configuration of the image management apparatus 100c in this modification is shown in FIG. Compared with the image management apparatus 100, the image management apparatus 100 c has a refinement search unit 170 added as an internal configuration, and the image management apparatus 100 is coupled to the user operation input unit 180 and the display unit 190. Is different.

本変形例における画像管理装置100cは、階層構造記憶装置151に記憶される階層構造管理情報を基に、画像群を絞込み検索する。すなわち、図22や図23で示される階層構造を、ユーザの代表画像に対応する部分画像群の選択に応じて辿ることにより、入力画像群を絞込み検索する。具体的には、階層構造記憶装置151に階層構造管理情報が格納された後、表示部190が「画像群」に対する子の各項目の代表画像を表示する。ユーザ操作入力部180がユーザの代表画像選択情報を受け取ると、表示部190は、ユーザが選択した代表画像の項目の子の各項目の部分画像群の代表画像を表示する。これをユーザが選択した画像の子が項目名でなく、画像IDになるまで繰返す。   The image management apparatus 100c in the present modification example searches and searches for an image group based on the hierarchical structure management information stored in the hierarchical structure storage device 151. That is, the input image group is narrowed down by following the hierarchical structure shown in FIGS. 22 and 23 according to the selection of the partial image group corresponding to the representative image of the user. Specifically, after the hierarchical structure management information is stored in the hierarchical structure storage device 151, the display unit 190 displays a representative image of each child item for the “image group”. When the user operation input unit 180 receives the representative image selection information of the user, the display unit 190 displays the representative image of the partial image group of each item as a child of the item of the representative image selected by the user. This is repeated until the child of the image selected by the user is not the item name but the image ID.

これにより、ユーザは、入力画像群から所望の画像を意味内容に基づき検索することができる。   Thus, the user can search for a desired image from the input image group based on the semantic content.

ここで、ある項目の代表画像は、例えば、その項目の下位に位置する画像から所定枚数を選択する。代表画像の選択方法は、例えば、画像の特徴量が、各項目の下位に位置する全画像の平均に近い順に所定枚数を選択しても良い。   Here, for a representative image of a certain item, for example, a predetermined number of images are selected from images positioned below the item. As a representative image selection method, for example, a predetermined number of images may be selected in the order in which the feature amount of the image is close to the average of all the images positioned at the lower level of each item.

なお、図40の例では、画像管理装置100cが、代表画像や画像群を表示するための表示部190と結合する構成としたが、表示部190に代えて、外部の表示装置に代表画像や画像群を表示させるための表示制御部(図示せず)と結合する構成としてもよい。   In the example of FIG. 40, the image management apparatus 100c is configured to be coupled to the display unit 190 for displaying the representative image and the image group. However, instead of the display unit 190, the representative image or It is good also as a structure couple | bonded with the display control part (not shown) for displaying an image group.

(2)実施の形態2に係る画像管理装置は、メタデータに基づき、詳細分類項目を選択することを説明した。このとき、ユーザが画像に付与するメタデータを用いて、クラスタリングを行っても良い。例えば、複数画像のユーザが付与したメタデータに、項目名を表すキーワードを含まれる場合は、それらの複数画像を、そのキーワードの項目としてクラスタ化してよい。   (2) It has been described that the image management apparatus according to the second embodiment selects the detailed classification item based on the metadata. At this time, clustering may be performed using metadata provided to the image by the user. For example, when a keyword indicating an item name is included in metadata provided by a user of a plurality of images, the plurality of images may be clustered as items of the keyword.

本変形例における画像管理装置100dの全体構成を図41に示す。画像管理装置100dは、画像管理装置100aと比較して、クラスタリング部130dの内部動作と、詳細分類項目選択部の内容がクラスタリング部130dの内部動作に影響を与える点が異なる。   FIG. 41 shows the overall configuration of the image management apparatus 100d in this modification. The image management apparatus 100d differs from the image management apparatus 100a in that the internal operation of the clustering unit 130d and the content of the detailed classification item selection unit affect the internal operation of the clustering unit 130d.

本変形例におけるクラスタリング部130dは、詳細分類項目選択部140aで取得するメタデータを用いて、クラスタリングを行うか否かを決定する。ある画像にメタデータが付与されている場合、興味情報抽出部147は、メタデータに項目名を表すキーワードが含まれているかを判定する。分類項目名と一致する名詞があれば、メタデータに含まれる項目名を画像に対応付けて管理する。クラスタリング部130dは、S105において、概要分類項目に対する同一の下位の項目名を表すキーワードが含まれている画像が複数存在する場合に、共通の下位の項目名を持つ画像をクラスタ化する。   The clustering unit 130d in this modification example determines whether or not to perform clustering using the metadata acquired by the detailed classification item selection unit 140a. When metadata is given to an image, the interest information extraction unit 147 determines whether a keyword representing an item name is included in the metadata. If there is a noun that matches the classification item name, the item name included in the metadata is managed in association with the image. In S105, the clustering unit 130d clusters images having a common lower item name when there are a plurality of images including the keyword representing the same lower item name for the summary classification item.

例えば、クラスタリング部130dが「食事」に分類された画像群をクラスタリングする場合、画像群中に3枚の画像に、それぞれ「ラーメン屋ABCで夕食」「大阪のラーメン」「東京のラーメン」のコメントがメタデータとして付与されているとする。これらのコメントから共通のキーワードとして「ラーメン」が抽出される。図13の階層意味情報から、「ラーメン」は「食事」の下位項目であると判定できるので、「食事」の画像群を、ラーメンを含むコメントが付与された画像からなるクラスタと、それ以外のクラスタに分類する。   For example, when the clustering unit 130d clusters an image group classified as “meal”, the comments “Ramen restaurant ABC dinner”, “Osaka ramen”, “Tokyo ramen” are added to the three images in the image group, respectively. Is given as metadata. “Ramen” is extracted from these comments as a common keyword. From the hierarchical semantic information in FIG. 13, it can be determined that “ramen” is a subordinate item of “meal”, so that the image group of “meal” is composed of a cluster composed of images with comments including ramen, Classify into clusters.

本変形例によれば、画像情報だけでは不可能な分類を、ユーザのメタデータで補うことで、より意味内容に即して画像群を階層構造化することができる。   According to this modification, a group of images can be hierarchically structured in accordance with the semantic content by supplementing the classification that is impossible only with image information with user metadata.

上記の各実施の形態で説明した画像管理装置は、例えば、当該画像管理装置の機能を備える、BDレコーダ等のAV機器、パーソナルコンピュータ、及びサーバ端末などの据置き型端末、または、デジタルカメラや携帯電話などのモバイル型端末などとして実現することが可能である。   The image management apparatus described in each of the above embodiments includes, for example, an AV device such as a BD recorder, a personal computer, a stationary terminal such as a server terminal, a digital camera, or the like having the function of the image management apparatus. It can be realized as a mobile terminal such as a mobile phone.

さらに、上記の実施の形態で説明した手法をネットワークサービスとして提供するサーバ装置とすることも可能である。この場合、画像が蓄積されたAV機器、パーソナルコンピュータ、デジタルカメラなどからネットワークを介して画像を受信すると、受信した画像に対して上記の実施の形態で説明した手法による画像認識処理を行い、その処理結果を、ネットワークを介してAV機器、パーソナルコンピュータ、デジタルカメラなどに送信するようにすればよい。   Furthermore, it is possible to use a server apparatus that provides the method described in the above embodiment as a network service. In this case, when an image is received from a AV device, personal computer, digital camera, or the like in which the image is stored via a network, the image recognition process is performed on the received image by the method described in the above embodiment, The processing result may be transmitted to an AV device, personal computer, digital camera, or the like via a network.

なお、この場合において、画像管理装置が図示しない画像蓄積部を備え、外部機器から受信した画像と画像管理装置に蓄積された画像の双方を対象として、上記の実施の形態で説明した手法による階層構造化を行うようにしてもよい。   In this case, the image management apparatus includes an image storage unit (not shown), and the hierarchy according to the method described in the above embodiment is used for both the image received from the external device and the image stored in the image management apparatus. You may make it structure.

また、上記の実施の形態で説明した手法の手順を記述したプログラムをメモリに記憶しておき、CPU(Central Processing Unit)などがメモリからプログラムを読み出して、読み出したプログラムを実行することによって、上記の手法が実現されるようにしてもよい。   In addition, a program describing the procedure of the method described in the above embodiment is stored in a memory, a CPU (Central Processing Unit) or the like reads the program from the memory, and executes the read program, thereby This method may be realized.

また、当該手法の手順を記述したプログラムをDVD等の記録媒体に格納して、頒布するようにしてもよい。また、当該手法の手順を記述したプログラムをインターネット等の伝送媒体を介して広く流通させてもよい。   Further, a program describing the procedure of the method may be stored in a recording medium such as a DVD and distributed. A program describing the procedure of the method may be widely distributed via a transmission medium such as the Internet.

上記の各実施の形態にかかる各構成は、集積回路であるLSI(Large Scale Integration)として実現されてもよい。これらの構成は、1チップ化されても良いし、一部又は全てを含むように1チップ化されてもよい。ここでは、LSIと表現したが、回路の集積度の違いによっては、IC(Integrated Circuit)、システムLSI、スーパーLSI、ウルトラLSIと称呼されることもある。また、集積回路化の手法は、LSIに限られるものではなく、専用回路または汎用プロセッサで集積回路化を行ってもよい。また、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサー(ReConfigurable Processor)を用いてもよい。あるいは、これらの機能ブロックの演算は、例えば、DSP(Digital Signal Processor)やCPU(Central Processing Unit)などを用いて演算することもできる。さらに、これらの処理ステップはプログラムとして記録媒体に記録して実行することで処理することもできる。   Each configuration according to each of the above embodiments may be realized as an LSI (Large Scale Integration) which is an integrated circuit. These configurations may be made into one chip, or may be made into one chip so as to include a part or all of them. Here, it is expressed as LSI, but depending on the degree of integration of the circuit, it may be referred to as IC (Integrated Circuit), system LSI, super LSI, or ultra LSI. Further, the method of circuit integration is not limited to LSI, and circuit integration may be performed with a dedicated circuit or a general-purpose processor. Alternatively, a field programmable gate array (FPGA) that can be programmed after the LSI is manufactured, or a reconfigurable processor (reconfigurable processor) that can reconfigure the connection and setting of circuit cells inside the LSI may be used. Alternatively, these functional blocks can be calculated using, for example, a DSP (Digital Signal Processor) or a CPU (Central Processing Unit). Further, these processing steps can be processed by being recorded on a recording medium as a program and executed.

(補足)
以下、本発明の実施形態に係る画像管理装置の構成及びその変形例と各効果について説明する。
(Supplement)
Hereinafter, the configuration of the image management apparatus according to the embodiment of the present invention, its modified examples, and each effect will be described.

本発明に係る画像管理装置は、一般的なモデルとの類似性に基づき画像を意味概念の項目毎に分類する物体認識手段と、画像の特徴量同士の類似性に基づき画像を分類するクラスタリング手段と、意味概念の項目毎の多様性に応じて、前記物体認識手段で分類する前記意味概念の項目を優先度づけて選択する詳細分類項目選択手段と、前記物体認識手段と前記クラスタリング手段における分類結果を統合して、画像群の階層分類構造を生成する階層構造生成部と、を備え、前記物体認識手段は、前記画像群を、前記詳細分類項目選択手段で選択された前記意味概念の項目毎の部分画像群に分類し、前記クラスタリング手段は、前記物体認識手段で分類された各部分画像群を対象として分類を行う。   An image management apparatus according to the present invention includes an object recognition unit that classifies an image for each item of a semantic concept based on similarity to a general model, and a clustering unit that classifies an image based on similarity between image feature amounts According to the diversity of each semantic concept item, detailed classification item selection means for selecting the semantic concept items classified by the object recognition means with priority, classification in the object recognition means and the clustering means A hierarchical structure generating unit that integrates the results and generates a hierarchical classification structure of the image group, wherein the object recognition unit selects the image group as the item of the semantic concept selected by the detailed classification item selection unit. The clustering unit classifies each partial image group classified by the object recognition unit as a target.

本構成によって、画像群の階層構造化において、多様な物体が撮影される項目を優先的に詳細物体認識することにより、物体認識の項目数を最小化しつつ、物体認識で画像群の内容に即した項目に分類することができ、ひいてはより画像群の意味内容に即した階層構造化が可能となる。   With this configuration, in the hierarchical structure of the image group, detailed object recognition is preferentially performed for items for which various objects are photographed, thereby minimizing the number of items for object recognition and matching the contents of the image group with object recognition. Thus, it is possible to make a hierarchical structure in accordance with the semantic content of the image group.

また、本発明にかかる画像管理装置において、前記多様性は、意味概念の項目に分類された画像数と被写体変化から算出してもよい。   In the image management apparatus according to the present invention, the diversity may be calculated from the number of images classified into semantic concept items and subject changes.

これにより、分類された画像が多く、被写体の変化が大きい項目ほど、より詳細な粒度の意味内容に基づく分類が可能となる。   As a result, an item with more classified images and a larger subject change can be classified based on more detailed meaning content of granularity.

また、本発明にかかる画像管理装置において、前記被写体変化は、画像の色ヒストグラム及びエッジ特徴量の分散の和としてもよい。   In the image management apparatus according to the present invention, the subject change may be a sum of an image color histogram and an edge feature amount variance.

これにより、色や形状が多様な項目ほど、より詳細な粒度の意味内容に基づく分類が可能となる。   As a result, items with various colors and shapes can be classified based on the detailed contents of the granularity.

また、本発明にかかる画像管理装置において、前記クラスタリング部は、多様性に基づき、クラスタリングを行うか否かを決定してもよい。   In the image management apparatus according to the present invention, the clustering unit may determine whether to perform clustering based on diversity.

これにより、これにより、多様性が小さい場合に、クラスタリングにより画像群を詳細に分類しすぎるのを防ぐことができる。   Thereby, when diversity is small, it can prevent that an image group is classified too much by clustering.

また、本発明にかかる画像管理装置において、前記詳細分類項目選択部は、優先度が高い所定数項目を、前記物体認識手段で分類する項目として選択してもよい。   In the image management apparatus according to the present invention, the detailed classification item selection unit may select a predetermined number of items having high priority as items to be classified by the object recognition means.

これにより、物体認識で分類する項目数を所定数に限定できる。その結果、物体認識の項目数の増加に伴う物体認識の精度悪化を防ぐことができる。   Thereby, the number of items classified by object recognition can be limited to a predetermined number. As a result, it is possible to prevent deterioration in accuracy of object recognition accompanying an increase in the number of items for object recognition.

また、本発明にかかる画像管理装置は、更に、ユーザが付与したメタデータからユーザの興味情報を抽出する興味情報抽出部を備え、前記優先度は、前記ユーザの興味情報を加味して算出することとしてもよい。   The image management apparatus according to the present invention further includes an interest information extraction unit that extracts user interest information from metadata provided by the user, and the priority is calculated in consideration of the user interest information. It is good as well.

これにより、画像群の階層構造化を行う際、画像群の多様性に、画像情報のみからでは抽出できないユーザの興味を加味して、物体認識の項目を優先付けて選択することができる。その結果、画像群の意味内容及びユーザの興味により即した階層構造化を行うことができる。   Thus, when the image group is hierarchically structured, the object recognition items can be selected with priority given to the diversity of the image group and the user's interest that cannot be extracted only from the image information. As a result, it is possible to perform a hierarchical structure in accordance with the semantic content of the image group and the user's interest.

また、本発明にかかる画像管理装置において、メタデータは、前記ユーザが付与したテキストデータに含まれる単語、前記画像を撮影した位置情報、前記ユーザの年齢、前記ユーザの性別のうち少なくとも1つを含んでもよい。   In the image management apparatus according to the present invention, the metadata includes at least one of a word included in the text data provided by the user, position information where the image is captured, the age of the user, and the gender of the user. May be included.

これにより、ユーザの付与したテキストデータ、ユーザが頻繁に訪れる位置情報、ユーザの属性に応じた興味度を加味して、物体認識の項目を優先づけて選択することができる。その結果、画像群の意味内容及びユーザの興味により即した階層構造化を行うことができる。   Thus, the object recognition item can be selected with priority given to the text data provided by the user, the location information frequently visited by the user, and the degree of interest according to the user's attributes. As a result, it is possible to perform a hierarchical structure in accordance with the semantic content of the image group and the user's interest.

また、本発明にかかる画像管理装置において、前記クラスタリング部は、前記ユーザが前記画像に付与したメタデータが共通するものをクラスタ化してもよい。   Further, in the image management apparatus according to the present invention, the clustering unit may cluster the common metadata assigned to the image by the user.

これにより、画像情報だけでは不可能な分類を、ユーザのメタデータで補うことができる。その結果、より意味内容に即して画像群を階層構造化することができる。   As a result, classification that is impossible with only image information can be supplemented with user metadata. As a result, the image group can be hierarchically structured more in accordance with the semantic content.

また、本発明にかかる画像管理装置は、ユーザの入力操作を取得するユーザ操作入力手段と、表示装置に画像群を表示させる表示制御手段と、を備え、前記ユーザ操作入力手段は、画像群を分類して得られる部分画像群の代表画像のいずれかに対するユーザの選択操作を取得し、前記表示制御手段は、画像群を分類して得られる部分画像群の代表画像を前記表示装置に表示させ、前記ユーザ選択操作に応じて、前記画像群を前記部分画像群に絞込むことを繰返し、前記分類は、所定の粒度の意味概念の項目に前記画像群を分類したときに、前記画像群が有する意味概念の項目毎の多様性が高い項目は、前記粒度より低い粒度の意味概念の項目毎に詳細分類し、前記多様性が低い項目は、画像同士の類似性に基づき詳細分類する。   The image management apparatus according to the present invention includes user operation input means for acquiring a user input operation, and display control means for displaying an image group on a display device, wherein the user operation input means is configured to display an image group. The user's selection operation for any one of the representative images of the partial image group obtained by classification is acquired, and the display control means causes the display device to display the representative image of the partial image group obtained by classifying the image group. In response to the user selection operation, the image group is repeatedly narrowed down to the partial image group, and the classification is performed when the image group is classified into semantic concept items having a predetermined granularity. Items with high diversity for each semantic concept item are classified in detail for each semantic concept item with a granularity lower than the granularity, and items with low diversity are classified in detail based on the similarity between images.

これにより、ユーザが探したい画像に意味が類似する画像を段階的に絞込みながら検索することができる。その結果、大量の画像から、ユーザの望む画像を検索することが可能になる。   As a result, it is possible to search while narrowing down images having similar meanings to the image that the user wants to search. As a result, an image desired by the user can be searched from a large number of images.

本発明にかかる画像管理装置は、デジタルスチルカメラ、カメラ付き携帯電話やムービーカメラ等の静止画または動画を蓄積する撮像装置、及び、PC(Personal Computer)等に適用することができる。   The image management device according to the present invention can be applied to a digital still camera, an imaging device such as a camera-equipped mobile phone or a movie camera, and a PC (Personal Computer).

100,100a,100b,100c,100d 画像管理装置
110 画像入力部
111 画像蓄積装置
120 物体認識部
121 モデル選択部
122 物体認識実行部
123 概要分類結果記憶部
124 詳細分類結果記憶部
130,130b,130d クラスタリング部
131 クラスタリング実行部
132 クラスタリング結果記憶部
140,140a 詳細分類項目選択部
141 多様性算出部
142,142a 優先度算出部
143 意味階層記憶部
144 多様性記憶部
145 優先度記憶部
146 詳細分類項目記憶部
147 興味情報抽出部
148 興味度記憶部
150 階層構造生成部
151 階層構造記憶装置
161 メタデータ蓄積装置
170 絞込み検索部
180 ユーザ操作入力部
190 表示部
100, 100a, 100b, 100c, 100d Image management device 110 Image input unit 111 Image storage device 120 Object recognition unit 121 Model selection unit 122 Object recognition execution unit 123 Summary classification result storage unit 124 Detailed classification result storage unit 130, 130b, 130d Clustering unit 131 Clustering execution unit 132 Clustering result storage unit 140, 140a Detailed classification item selection unit 141 Diversity calculation unit 142, 142a Priority calculation unit 143 Semantic hierarchy storage unit 144 Diversity storage unit 145 Priority storage unit 146 Detailed classification item Storage unit 147 Interest information extraction unit 148 Interest level storage unit 150 Hierarchical structure generation unit 151 Hierarchical structure storage device 161 Metadata storage device 170 Narrowing search unit 180 User operation input unit 190 Display unit

Claims (12)

画像群を画像内容に即して階層的に分類を行う画像管理装置であって、
前記画像管理装置は、
一般的なモデルとの類似性に基づき画像を意味概念の項目毎に分類する物体認識手段と、
画像の特徴量同士の類似性に基づき画像を分類するクラスタリング手段と、
意味概念の項目毎の多様性に応じて、前記物体認識手段で分類する前記意味概念の項目を優先度づけて選択する詳細分類項目選択手段と、
前記物体認識手段と前記クラスタリング手段における分類結果を統合して、画像群の階層分類構造を生成する階層構造生成部と、
を備え、
前記物体認識手段は、
前記画像群を、前記詳細分類項目選択手段で選択された前記意味概念の項目毎の部分画像群に分類し、
前記クラスタリング手段は、前記物体認識手段で分類された各部分画像群を対象として分類を行うこと
を特徴とする画像管理装置。
An image management device that hierarchically classifies an image group according to image content,
The image management device includes:
Object recognition means for classifying images into semantic concept items based on similarity to general models;
Clustering means for classifying images based on the similarity between image feature quantities;
Detailed classification item selection means for prioritizing and selecting the semantic concept items to be classified by the object recognition means according to the diversity of semantic concept items;
A hierarchical structure generating unit that generates a hierarchical classification structure of an image group by integrating the classification results in the object recognition unit and the clustering unit;
With
The object recognition means includes
Classifying the image group into partial image groups for each item of the semantic concept selected by the detailed classification item selection means;
The image management apparatus, wherein the clustering unit classifies each partial image group classified by the object recognition unit.
前記多様性は、前記意味概念の項目に分類された画像数と被写体変化から算出することを特徴とする画像管理装置。 The diversity is calculated from the number of images classified into the semantic concept items and subject changes. 前記被写体変化は、画像の色ヒストグラム及びエッジ特徴量の分散の和とすることを特徴とする請求項2に記載の画像管理装置。 The image management apparatus according to claim 2, wherein the subject change is a sum of an image color histogram and an edge feature amount variance. 前記クラスタリング手段は、前記多様性に基づき、前記クラスタリングを行うか否かを決定することを特徴とする請求項2に記載の画像管理装置。 The image management apparatus according to claim 2, wherein the clustering unit determines whether to perform the clustering based on the diversity. 前記詳細分類項目選択手段は、優先度が高い所定数項目を、前記物体認識手段で分類する項目として選択することを特徴とする請求項1に記載の画像管理装置。 The image management apparatus according to claim 1, wherein the detailed classification item selection unit selects a predetermined number of items having high priority as items to be classified by the object recognition unit. 前記画像管理装置は、更に、
ユーザが付与したメタデータからユーザの興味情報を抽出する興味情報抽出部を備え、
前記優先度は、前記ユーザの興味情報を加味して算出することを特徴とする請求項1に記載の画像管理装置。
The image management device further includes:
An interest information extraction unit that extracts user's interest information from the metadata given by the user,
The image management apparatus according to claim 1, wherein the priority is calculated in consideration of interest information of the user.
前記メタデータは、前記ユーザが付与したテキストデータに含まれる単語、前記画像を撮影した位置情報、前記ユーザの年齢、前記ユーザの性別のうち少なくとも1つを含むことを特徴とする、請求項6に記載の画像管理装置。 The metadata includes at least one of a word included in text data provided by the user, position information obtained by capturing the image, an age of the user, and a gender of the user. The image management apparatus described in 1. 前記クラスタリング手段は、前記ユーザが前記画像に付与したメタデータが共通するものをクラスタ化することを特徴とする請求項6に記載の画像管理装置。 The image management apparatus according to claim 6, wherein the clustering unit clusters items having the same metadata assigned to the image by the user. 前記画像管理装置は、
ユーザの入力操作を取得するユーザ操作入力手段と、
表示装置に画像群を表示させる表示制御手段と、
を備え、
前記ユーザ操作入力手段は、
画像群を分類して得られる部分画像群の代表画像のいずれかに対するユーザの選択操作を取得し、
前記表示制御手段は、画像群を分類して得られる部分画像群の代表画像を前記表示装置に表示させ、前記ユーザの選択操作に応じて、前記画像群を前記部分画像群に絞込むことを繰返し、
前記分類は、所定の粒度の意味概念の項目に前記画像群を分類したときに、前記画像群が有する意味概念の項目毎の多様性が高い項目は、前記粒度より低い粒度の意味概念の項目毎に詳細分類し、前記多様性が低い項目は、画像同士の類似性に基づき詳細分類すること、
を特徴とする画像管理装置。
The image management device includes:
User operation input means for acquiring a user input operation;
Display control means for displaying an image group on a display device;
With
The user operation input means includes
Obtaining a user's selection operation for one of the representative images of the partial image group obtained by classifying the image group;
The display control means displays a representative image of a partial image group obtained by classifying the image group on the display device, and narrows down the image group to the partial image group in accordance with the selection operation of the user. Repeatedly,
In the classification, when the image group is classified into semantic concept items having a predetermined granularity, items having high diversity for each semantic concept item included in the image group are semantic concept items having a granularity lower than the granularity. Each item is classified in detail, and the low diversity items are classified in detail based on the similarity between images.
An image management apparatus characterized by the above.
画像群を画像内容に即して階層的に分類を行う画像管理方法であって、
前記画像管理方法が、
一般的なモデルとの類似性に基づき画像を意味概念の項目毎に分類する物体認識ステップと、
画像の特徴量同士の類似性に基づき画像を分類するクラスタリングステップと、
意味概念の項目毎の多様性に応じて、前記物体認識手段で分類する前記意味概念の項目を優先度づけて選択する詳細分類項目選択ステップと、
を実行し、
前記物体認識ステップは、
前記画像群を、前記詳細分類項目選択手段で選択された前記意味概念の項目毎の部分画像群に分類し、
前記クラスタリング手段は、前記物体認識手段で分類された各部分画像群を対象として分類を行うこと
を特徴とする画像管理方法。
An image management method for hierarchically classifying image groups according to image contents,
The image management method includes:
An object recognition step for classifying images into items of semantic concepts based on similarity to a general model;
A clustering step of classifying the images based on the similarity between the feature quantities of the images;
A detailed classification item selection step for prioritizing and selecting the semantic concept items to be classified by the object recognition means according to the diversity for each semantic concept item;
Run
The object recognition step includes
Classifying the image group into partial image groups for each item of the semantic concept selected by the detailed classification item selection means;
The image management method, wherein the clustering means classifies each partial image group classified by the object recognition means.
コンピュータに、画像群を画像内容に即して階層的に分類を行う画像管理方法を実行させるためのプログラムであって、
前記プログラムは、
一般的な意味のモデルとの類似性に基づき画像を意味概念の項目毎に分類する物体認識ステップと、
画像の特徴量同士の類似性に基づき画像を分類するクラスタリングステップと、
意味概念の項目毎の多様性に応じて、前記物体認識手段で分類する前記意味概念の項目を優先度づけて選択する詳細分類項目選択ステップと、
を前記コンピュータに実行させ、
前記物体認識ステップは、
前記画像群を、前記詳細分類項目選択手段で選択された前記意味概念の項目毎の部分画像群に分類し、
前記クラスタリング手段は、前記物体認識手段で分類された各部分画像群を対象として分類を行うこと
を特徴とするプログラム。
A program for causing a computer to execute an image management method for hierarchically classifying image groups according to image contents,
The program is
An object recognition step for classifying images into items of semantic concepts based on similarity to a general semantic model;
A clustering step of classifying the images based on the similarity between the feature quantities of the images;
A detailed classification item selection step for prioritizing and selecting the semantic concept items to be classified by the object recognition means according to the diversity for each semantic concept item;
To the computer,
The object recognition step includes
Classifying the image group into partial image groups for each item of the semantic concept selected by the detailed classification item selection means;
The clustering means performs classification on each partial image group classified by the object recognition means.
画像群を画像内容に即して階層的に分類を行う画像管理装置のための集積回路であって、
前記集積回路は、
一般的な意味のモデルとの類似性に基づき画像を意味概念の項目毎に分類する物体認識手段と、
画像の特徴量同士の類似性に基づき画像を分類するクラスタリング手段と、
意味概念の項目毎の多様性に応じて、前記物体認識手段で分類する前記意味概念の項目を優先度づけて選択する詳細分類項目選択手段と、
を備え、
前記物体認識手段は、
前記画像群を、前記詳細分類項目選択手段で選択された前記意味概念の項目毎の部分画像群に分類し、
前記クラスタリング手段は、前記物体認識手段で分類された各部分画像群を対象として分類を行うこと
を特徴とする集積回路。
An integrated circuit for an image management apparatus that hierarchically classifies an image group according to image contents,
The integrated circuit comprises:
Object recognition means for classifying images into items of semantic concepts based on similarity to general semantic models;
Clustering means for classifying images based on the similarity between image feature quantities;
Detailed classification item selection means for prioritizing and selecting the semantic concept items to be classified by the object recognition means according to the diversity of semantic concept items;
With
The object recognition means includes
Classifying the image group into partial image groups for each item of the semantic concept selected by the detailed classification item selection means;
The integrated circuit according to claim 1, wherein the clustering means classifies each partial image group classified by the object recognition means.
JP2012245031A 2012-11-07 2012-11-07 Image management device, image management method, program and integrated circuit Pending JP2014093058A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012245031A JP2014093058A (en) 2012-11-07 2012-11-07 Image management device, image management method, program and integrated circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012245031A JP2014093058A (en) 2012-11-07 2012-11-07 Image management device, image management method, program and integrated circuit

Publications (1)

Publication Number Publication Date
JP2014093058A true JP2014093058A (en) 2014-05-19

Family

ID=50937060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012245031A Pending JP2014093058A (en) 2012-11-07 2012-11-07 Image management device, image management method, program and integrated circuit

Country Status (1)

Country Link
JP (1) JP2014093058A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018247A (en) * 2014-07-04 2016-02-01 株式会社日立システムズ Clustering trial system, and clustering trial method
JP2016103297A (en) * 2016-01-27 2016-06-02 ヤフー株式会社 Generation device, generation method, and generation program
JP2016115052A (en) * 2014-12-12 2016-06-23 凸版印刷株式会社 Health care device and health care method
KR101645570B1 (en) * 2015-03-12 2016-08-12 연세대학교 산학협력단 System and Method for photo album summarization based on the subjective concept
JP2016157474A (en) * 2016-04-26 2016-09-01 ヤフー株式会社 Distribution device, distribution method and distribution program
JP2016181143A (en) * 2015-03-24 2016-10-13 富士ゼロックス株式会社 User profile creation device, moving image analysis device, moving image reproduction device, and user profile creation program
WO2020116988A1 (en) * 2018-12-07 2020-06-11 (주)제이엘케이 Image analysis device, image analysis method, and recording medium
JP7392177B2 (en) 2020-05-06 2023-12-05 イーライ リリー アンド カンパニー Method and apparatus for visual recognition hierarchy-based object recognition
JP7445870B2 (en) 2020-03-30 2024-03-08 パナソニックIpマネジメント株式会社 Space proposal system and space proposal method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016018247A (en) * 2014-07-04 2016-02-01 株式会社日立システムズ Clustering trial system, and clustering trial method
JP2016115052A (en) * 2014-12-12 2016-06-23 凸版印刷株式会社 Health care device and health care method
KR101645570B1 (en) * 2015-03-12 2016-08-12 연세대학교 산학협력단 System and Method for photo album summarization based on the subjective concept
JP2016181143A (en) * 2015-03-24 2016-10-13 富士ゼロックス株式会社 User profile creation device, moving image analysis device, moving image reproduction device, and user profile creation program
JP2016103297A (en) * 2016-01-27 2016-06-02 ヤフー株式会社 Generation device, generation method, and generation program
JP2016157474A (en) * 2016-04-26 2016-09-01 ヤフー株式会社 Distribution device, distribution method and distribution program
WO2020116988A1 (en) * 2018-12-07 2020-06-11 (주)제이엘케이 Image analysis device, image analysis method, and recording medium
JP7445870B2 (en) 2020-03-30 2024-03-08 パナソニックIpマネジメント株式会社 Space proposal system and space proposal method
JP7392177B2 (en) 2020-05-06 2023-12-05 イーライ リリー アンド カンパニー Method and apparatus for visual recognition hierarchy-based object recognition

Similar Documents

Publication Publication Date Title
US20220075806A1 (en) Natural language image search
JP2014093058A (en) Image management device, image management method, program and integrated circuit
US9430719B2 (en) System and method for providing objectified image renderings using recognition information from images
JP5848336B2 (en) Image processing device
JP5727476B2 (en) Image evaluation apparatus, image evaluation method, program, integrated circuit
US8649572B2 (en) System and method for enabling the use of captured images through recognition
US8660378B2 (en) Image evaluating device for calculating an importance degree of an object and an image, and an image evaluating method, program, and integrated circuit for performing the same
US7809192B2 (en) System and method for recognizing objects from images and identifying relevancy amongst images and information
JP5934653B2 (en) Image classification device, image classification method, program, recording medium, integrated circuit, model creation device
US8571358B2 (en) Methods and apparatuses for facilitating content-based image retrieval
US20110243452A1 (en) Electronic apparatus, image processing method, and program
CN103477317B (en) Content display processing device, content display processing method and integrated circuit
KR100647337B1 (en) Method and apparatus for category-based photo clustering using photographic region templates of digital photo
WO2006122164A2 (en) System and method for enabling the use of captured images through recognition
JP2014092955A (en) Similar content search processing device, similar content search processing method and program
CN112069342A (en) Image classification method and device, electronic equipment and storage medium
KR100790867B1 (en) Method and apparatus for category-based photo clustering using photographic region templates of digital photo
US20160162752A1 (en) Retrieval apparatus, retrieval method, and computer program product
JP6283308B2 (en) Image dictionary construction method, image representation method, apparatus, and program
Liu et al. On the automatic online collection of training data for visual event modeling
Arya et al. An automatic personalized photo recommender system based on learning user preferences
Wu et al. Social Attribute Annotation for Personal Photo Collection

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140606