JP4735168B2 - Identifying the subject expressed in the image - Google Patents

Identifying the subject expressed in the image Download PDF

Info

Publication number
JP4735168B2
JP4735168B2 JP2005286589A JP2005286589A JP4735168B2 JP 4735168 B2 JP4735168 B2 JP 4735168B2 JP 2005286589 A JP2005286589 A JP 2005286589A JP 2005286589 A JP2005286589 A JP 2005286589A JP 4735168 B2 JP4735168 B2 JP 4735168B2
Authority
JP
Japan
Prior art keywords
feature data
subject
detailed
candidate
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005286589A
Other languages
Japanese (ja)
Other versions
JP2007094962A (en
JP2007094962A5 (en
Inventor
佳織 松本
広和 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2005286589A priority Critical patent/JP4735168B2/en
Publication of JP2007094962A publication Critical patent/JP2007094962A/en
Publication of JP2007094962A5 publication Critical patent/JP2007094962A5/ja
Application granted granted Critical
Publication of JP4735168B2 publication Critical patent/JP4735168B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理の技術に関し、特に、画像内に表現された被写体を特定するための技術に関する。   The present invention relates to an image processing technique, and more particularly to a technique for specifying a subject represented in an image.

画像内に表現された被写体が何であるかを自動的に特定することが試みられている。この技術は、例えば、電子図鑑などとして機能する画像処理装置に適用される。   Attempts have been made to automatically identify what the subject represented in the image is. This technique is applied to, for example, an image processing apparatus that functions as an electronic pictorial book.

従来では、被写体が表現された対象画像から抽出される特徴量と、予め準備された複数の対象物に対応する複数の基準特徴量と、を用いて、複数の類似度が算出され、高い類似度に対応する対象物が被写体の候補として選択されていた。そして、被写体の候補として複数の対象物(候補対象物)が選択された場合には、ユーザが各対象物の詳細情報を確認することによって、被写体が何であるかが特定されていた。   Conventionally, a plurality of similarities are calculated using a feature amount extracted from a target image in which a subject is represented and a plurality of reference feature amounts corresponding to a plurality of objects prepared in advance, and high similarity is calculated. The object corresponding to the degree was selected as the subject candidate. When a plurality of objects (candidate objects) are selected as candidates for the subject, the user identifies what the subject is by confirming the detailed information of each object.

特開2003−288363号公報JP 2003-288363 A

しかしながら、従来の技術では、被写体を特定することが困難であった。これは、ユーザは各対象物の詳細情報を確認して被写体を特定する必要があり、各対象物の詳細情報の確認に時間と手間とが掛かるためである。   However, it has been difficult to identify the subject with the conventional technique. This is because it is necessary for the user to identify the subject by confirming the detailed information of each object, and it takes time and effort to confirm the detailed information of each object.

この発明は、従来技術における上述の課題を解決するためになされたものであり、画像内に表現された被写体を容易に特定することのできる技術を提供することを目的とする。   The present invention has been made to solve the above-described problems in the prior art, and an object of the present invention is to provide a technique that can easily identify a subject represented in an image.

上述の課題の少なくとも一部を解決するため、本発明の第1の装置は、画像処理装置であって、
複数の対象物に対応する複数の基準特徴データであって、前記各基準特徴データは対応する前記対象物の特徴を示す、前記複数の基準特徴データが格納された基準特徴データ格納部と、
前記複数の対象物のうちの互いに類似する対象物間の相違点に関する相違データが格納された相違データ格納部と、
被写体が表現された対象画像から、前記被写体の特徴を示す特徴データを抽出する特徴データ抽出部と、
前記特徴データと前記複数の対象物に対応する前記複数の基準特徴データとを用いて、前記複数の対象物の中から、前記対象画像内に表現された前記被写体の候補としての候補対象物を選択する候補選択部と、
複数の前記候補対象物が選択された場合に、前記複数の候補対象物間の前記相違データによって示される相違情報をユーザに提供する相違情報提供部と、
を備えることを特徴とする。
In order to solve at least a part of the problems described above, a first device of the present invention is an image processing device,
A plurality of reference feature data corresponding to a plurality of objects, each reference feature data indicating a feature of the corresponding object, and a reference feature data storage unit storing the plurality of reference feature data;
A difference data storage unit storing difference data related to differences between similar objects among the plurality of objects;
A feature data extraction unit that extracts feature data indicating features of the subject from a target image in which the subject is represented;
Using the feature data and the plurality of reference feature data corresponding to the plurality of objects, a candidate object as a candidate for the subject expressed in the target image is selected from the plurality of objects. A candidate selector to select;
When a plurality of candidate objects are selected, a difference information providing unit that provides a user with difference information indicated by the difference data between the plurality of candidate objects;
It is characterized by providing.

この装置では、被写体の候補として複数の候補対象物が選択された場合に、複数の候補対象物間の相違情報がユーザに提供されるため、ユーザは、相違情報に基づいて、被写体を容易に特定することができる。   In this apparatus, when a plurality of candidate objects are selected as subject candidates, difference information between the plurality of candidate objects is provided to the user, so that the user can easily select a subject based on the difference information. Can be identified.

第1の装置において、さらに、
前記複数の対象物に対応する複数の詳細データであって、前記各詳細データは対応する前記対象物の詳細情報を示す、前記複数の詳細データが格納された詳細データ格納部と、
前記ユーザによって前記複数の候補対象物のうちのいずれかが指定された場合に、前記指定された候補対象物に対応する前記詳細データによって示される前記詳細情報をユーザに提供する詳細情報提供部と、
を備えることが好ましい。
In the first device, further
A plurality of detailed data corresponding to the plurality of objects, each detailed data indicating detailed information of the corresponding object, a detailed data storage unit storing the plurality of detailed data;
A detailed information providing unit that provides the user with the detailed information indicated by the detailed data corresponding to the designated candidate object when any of the plurality of candidate objects is designated by the user; ,
It is preferable to provide.

こうすれば、ユーザは、自ら指定した候補対象物の詳細情報を知ることができる。   In this way, the user can know the detailed information of the candidate object designated by himself / herself.

本発明の第2の装置は、画像処理装置であって、
複数の対象物に対応する複数の基準特徴データであって、前記各基準特徴データは対応する前記対象物の特徴を示す、前記複数の基準特徴データが格納された基準特徴データ格納部と、
前記複数の対象物のうちの互いに類似する対象物間の相違点に関する相違データが格納された相違データ格納部と、
対象画像内に表現された被写体が前記複数の対象物のうちのいずれであるかを特定するための被写体特定部と、
を備え、
前記被写体特定部は、
前記対象画像から、前記被写体の特徴を示す特徴データを抽出する特徴データ抽出部と、
前記特徴データと前記複数の対象物に対応する前記複数の基準特徴データとを用いて、前記複数の対象物の中から、前記対象画像内に表現された前記被写体の候補としての候補対象物を選択する候補選択部と、
複数の前記候補対象物が選択された場合に、前記複数の候補対象物間の前記相違データを利用して、前記複数の候補対象物のうちのいずれかを前記被写体として決定する決定部と、
を備えることを特徴とする。
A second apparatus of the present invention is an image processing apparatus,
A plurality of reference feature data corresponding to a plurality of objects, each reference feature data indicating a feature of the corresponding object, and a reference feature data storage unit storing the plurality of reference feature data;
A difference data storage unit storing difference data related to differences between similar objects among the plurality of objects;
A subject identifying unit for identifying which of the plurality of objects is the subject represented in the target image;
With
The subject specifying unit
A feature data extraction unit that extracts feature data indicating the characteristics of the subject from the target image;
Using the feature data and the plurality of reference feature data corresponding to the plurality of objects, a candidate object as a candidate for the subject expressed in the target image is selected from the plurality of objects. A candidate selector to select;
A determination unit configured to determine any one of the plurality of candidate objects as the subject using the difference data between the plurality of candidate objects when the plurality of candidate objects are selected;
It is characterized by providing.

この装置では、被写体の候補として複数の候補対象物が選択された場合に、決定部によって複数の候補対象物間の相違データが利用されるため、被写体を容易に特定することができると共に、被写体を正確に特定することができる。   In this apparatus, when a plurality of candidate objects are selected as subject candidates, difference data between the plurality of candidate objects is used by the determination unit, so that the subject can be easily identified and the subject Can be accurately identified.

第2の装置において、
前記決定部は、
前記複数の候補対象物間の前記相違データに応じて、前記ユーザに、前記対象画像内に表現された前記被写体と同一または同種の被写体の特定の部位が表現された参考画像を指定するように、指示する指示部と、
前記ユーザによって指定された前記参考画像から、前記被写体の前記特定の部位の特徴を示す参考特徴データを抽出する参考特徴データ抽出部と、
を備え、
前記決定部は、
前記参考特徴データと前記複数の候補対象物に対応する複数の前記基準特徴データとを用いて、前記複数の候補対象物のうちのいずれかを前記被写体として決定するようにしてもよい。
In the second device:
The determination unit
According to the difference data between the plurality of candidate objects, the user is designated a reference image in which a specific part of the same or same kind of subject as the subject represented in the target image is represented. An instruction unit for instructing;
A reference feature data extraction unit that extracts reference feature data indicating characteristics of the specific part of the subject from the reference image designated by the user;
With
The determination unit
One of the plurality of candidate objects may be determined as the subject using the reference feature data and the plurality of reference feature data corresponding to the plurality of candidate objects.

このように、被写体の特定の部位が表現された参考画像から参考特徴データが抽出されれば、被写体を容易に特定することができると共に、被写体を正確に特定することができる。   As described above, if the reference feature data is extracted from the reference image in which a specific part of the subject is expressed, the subject can be easily specified and the subject can be specified accurately.

また、第2の装置において、さらに、
前記複数の対象物に対応する複数の基準詳細特徴データであって、前記各基準詳細特徴データは対応する前記対象物の特定の部位の詳細な特徴を示す、前記複数の基準詳細特徴データが格納された基準詳細特徴データ格納部を備え、
前記決定部は、
前記複数の候補対象物間の前記相違データに基づいて、前記複数の候補対象物に対応する複数の前記基準詳細特徴データを選択する基準詳細特徴データ選択部と、
前記対象画像から、前記被写体の前記特定の部位の詳細な特徴を示す詳細特徴データを抽出する詳細特徴データ抽出部と、
を備え、
前記決定部は、
前記詳細特徴データと前記複数の候補対象物に対応する前記複数の基準詳細特徴データとを用いて、前記複数の候補対象物のうちのいずれかを前記被写体として決定するようにしてもよい。
In the second device,
A plurality of reference detailed feature data corresponding to the plurality of objects, wherein each of the reference detail feature data stores a plurality of reference detailed feature data indicating detailed features of a specific part of the corresponding object. Provided with a detailed reference feature data storage unit,
The determination unit
A reference detail feature data selection unit that selects a plurality of reference detail feature data corresponding to the plurality of candidate objects based on the difference data between the plurality of candidate objects;
A detailed feature data extraction unit that extracts detailed feature data indicating detailed features of the specific part of the subject from the target image;
With
The determination unit
Any of the plurality of candidate objects may be determined as the subject using the detailed feature data and the plurality of reference detailed feature data corresponding to the plurality of candidate objects.

このように、複数の候補対象物に対応する複数の基準詳細特徴データが選択されると共に、対象画像から詳細特徴データが抽出されれば、被写体を容易に特定することができると共に、被写体を正確に特定することができる。   As described above, if a plurality of reference detailed feature data corresponding to a plurality of candidate objects are selected and the detailed feature data is extracted from the target image, the subject can be easily identified and the subject can be accurately identified. Can be specified.

第2の装置において、
前記決定部は、
前記複数の候補対象物間の前記相違データに基づいて、前記複数の候補対象物のうちのいずれかを前記被写体として決定するための重み付けを設定する設定部を備え、
前記決定部は、
前記重み付けの設定に従って、前記特徴データと前記複数の候補対象物に対応する複数の前記基準特徴データとを用いて、前記複数の候補対象物のうちのいずれかを前記被写体として決定するようにしてもよい。
In the second device:
The determination unit
Based on the difference data between the plurality of candidate objects, comprising a setting unit for setting a weight for determining any of the plurality of candidate objects as the subject,
The determination unit
According to the weighting setting, any one of the plurality of candidate objects is determined as the subject using the feature data and the plurality of reference feature data corresponding to the plurality of candidate objects. Also good.

このように、重み付けが設定されれば、被写体を容易に特定することができると共に、被写体を正確に特定することができる。   Thus, if weighting is set, the subject can be easily specified and the subject can be specified accurately.

上記の装置において、
前記決定部は、
前記特徴データと前記複数の候補対象物に対応する複数の前記基準特徴データとを用いて、複数の類似度を算出し、前記複数の類似度のうちの最大の類似度に対応する前記候補対象物を前記被写体として決定し、
前記決定部は、
前記特徴データに含まれる複数の特徴要素に対応する複数の要素データと、前記基準特徴データに含まれる前記複数の特徴要素に対応する複数の基準要素データと、を用いて算出される複数の要素類似度に前記重み付けを施して前記各類似度を算出するようにしてもよい。
In the above device,
The determination unit
Using the feature data and the plurality of reference feature data corresponding to the plurality of candidate objects, a plurality of similarities are calculated, and the candidate object corresponding to the maximum similarity among the plurality of similarities Determine an object as the subject,
The determination unit
A plurality of elements calculated using a plurality of element data corresponding to a plurality of feature elements included in the feature data and a plurality of reference element data corresponding to the plurality of feature elements included in the reference feature data Each of the similarities may be calculated by weighting the similarities.

第2の装置において、さらに、
前記複数の対象物に対応する複数の詳細データであって、前記各詳細データは対応する前記対象物の詳細情報を示す、前記複数の詳細データが格納された詳細データ格納部と、
前記決定部によって前記複数の候補対象物のうちのいずれかが前記被写体として決定された場合に、前記決定された対象物候補に対応する前記詳細データによって示される前記詳細情報をユーザに提供する詳細情報提供部と、
を備えることが好ましい。
In the second device,
A plurality of detailed data corresponding to the plurality of objects, each detailed data indicating detailed information of the corresponding object, a detailed data storage unit storing the plurality of detailed data;
Details that provide the user with the detailed information indicated by the detailed data corresponding to the determined object candidate when any of the plurality of candidate objects is determined as the subject by the determining unit An information provider,
It is preferable to provide.

こうすれば、ユーザは決定部によって決定された被写体の詳細情報を知ることができる。   In this way, the user can know the detailed information of the subject determined by the determination unit.

この発明は、種々の形態で実現することが可能であり、例えば、画像処理装置および方法、これらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体、そのコンピュータプログラムを含み搬送波内に具現化されたデータ信号、等の形態で実現することができる。   The present invention can be realized in various forms, for example, an image processing apparatus and method, a computer program for realizing the function of the method or apparatus, a recording medium storing the computer program, and the computer It can be realized in the form of a data signal including a program and embodied in a carrier wave.

A.第1実施例:
A−1.画像処理装置の構成:
次に、本発明の実施の形態を実施例に基づき説明する。図1は、電子図鑑として機能する画像処理装置(パーソナルコンピュータ)200を示す説明図である。この装置を用いることにより、ユーザは対象画像内に表現された被写体(例えば植物)が何であるかが分からない場合に、ユーザは、被写体を容易に特定することができると共に、被写体の詳細情報を得ることができる。
A. First embodiment:
A-1. Configuration of image processing device:
Next, embodiments of the present invention will be described based on examples. FIG. 1 is an explanatory diagram showing an image processing apparatus (personal computer) 200 that functions as an electronic pictorial book. By using this device, when the user does not know what the subject (for example, a plant) represented in the target image is, the user can easily identify the subject and display detailed information about the subject. Obtainable.

画像処理装置200は、CPU210と、ROMやRAMなどの内部記憶装置220と、外部記憶装置250と、表示部260と、マウスやキーボードなどの操作部270と、インタフェース部(I/F部)290と、を備えている。I/F部290は、外部に設けられた種々の機器との間でデータ通信を行う。例えば、I/F部290は、デジタルカメラ400から画像データを受け取る。   The image processing apparatus 200 includes a CPU 210, an internal storage device 220 such as a ROM and a RAM, an external storage device 250, a display unit 260, an operation unit 270 such as a mouse and a keyboard, and an interface unit (I / F unit) 290. And. The I / F unit 290 performs data communication with various devices provided outside. For example, the I / F unit 290 receives image data from the digital camera 400.

外部記憶装置250には、植物や、動物、昆虫などのカテゴリで区分された複数の図鑑データベース252が格納されている。   The external storage device 250 stores a plurality of pictorial book databases 252 classified by categories such as plants, animals, and insects.

図2は、1つの図鑑データベース252の内容を示す説明図である。なお、図2では、植物の図鑑データベースの内容が示されている。   FIG. 2 is an explanatory diagram showing the contents of one pictorial book database 252. FIG. 2 shows the contents of a plant pictorial book database.

図2に示すように、1つの図鑑データベースには、複数の対象物に対応する複数の対象物データが含まれている。なお、対象物データは、対象物(植物)毎に、対象物の名称と対応付けて登録されている。対象物データは、対応する対象物の詳細データと、対応する対象物の基準特徴データと、を含んでいる。   As shown in FIG. 2, one picture book database includes a plurality of object data corresponding to a plurality of objects. The object data is registered in association with the name of the object for each object (plant). The object data includes detailed data of the corresponding object and reference feature data of the corresponding object.

詳細データは、対応する対象物が表現された1以上の画像や、対応する対象物に関する詳細な説明などの詳細情報を含んでいる。詳細な説明には、例えば、対象物(植物)の態様(花の色・形状,葉の色・形状,茎の色・形状など)や、棲息地、棲息環境、発芽や開花の時期などの説明が含まれる。   The detailed data includes detailed information such as one or more images in which the corresponding object is expressed, and a detailed description about the corresponding object. The detailed description includes, for example, the form of the object (plant) (flower color / shape, leaf color / shape, stem color / shape, etc.), habitat, habitat environment, time of germination and flowering, etc. Includes a description.

本実施例では、詳細データは、さらに、対応する対象物に類似する他の対象物の名称を含んでいる。なお、図2では、植物Aに類似する植物として、植物Bと植物Cとが登録されている。   In the present embodiment, the detailed data further includes the names of other objects similar to the corresponding object. In FIG. 2, plants B and C are registered as plants similar to the plant A.

基準特徴データは、対応する対象物の種々の特徴を示すデータである。より具体的には、基準特徴データは、複数の特徴要素を示す複数の要素データを含んでいる。基準特徴データには、例えば、対象物(植物)の花の色や、花の形状、葉の色、葉の形状などの複数の特徴要素を示す複数の要素データが含まれる。   The reference feature data is data indicating various features of the corresponding object. More specifically, the reference feature data includes a plurality of element data indicating a plurality of feature elements. The reference feature data includes, for example, a plurality of element data indicating a plurality of feature elements such as a flower color of an object (plant), a flower shape, a leaf color, and a leaf shape.

本実施例では、色に関する要素データとしては、色ヒストグラムの複数のクラスの値(頻度)が利用されている。色ヒストグラムは、周知のように、画像内の各画素を、その色に応じて、複数のクラスに区分することによって得られるヒストグラムである。例えば、花の色に関する要素データは、植物が表現された基準画像から花の部分を抽出し、該抽出画像を用いて色ヒストグラムの値を求めることによって、得られる。葉の色に関する要素データも同様である。   In the present embodiment, values (frequency) of a plurality of classes in the color histogram are used as element data relating to color. As is well known, the color histogram is a histogram obtained by classifying each pixel in an image into a plurality of classes according to the color. For example, the element data relating to the color of the flower can be obtained by extracting a flower portion from a reference image in which a plant is expressed and obtaining a value of a color histogram using the extracted image. The same applies to the element data relating to the leaf color.

また、本実施例では、形状に関する要素データとしては、所定のサイズ(画素数)を有する二値画像データが利用されている。例えば、葉の形状に関する要素データは、植物が表現された基準画像から葉の部分を囲む矩形画像を選択し、該矩形画像にエッジ抽出処理を施すことによって葉の輪郭を抽出し、輪郭内部と輪郭外部とで異なる値を示す二値画像を所定のサイズに縮小することによって、得られる。花の形状に関する要素データも同様である。   In this embodiment, binary image data having a predetermined size (number of pixels) is used as the element data relating to the shape. For example, element data relating to the shape of a leaf is obtained by selecting a rectangular image surrounding a leaf portion from a reference image in which a plant is expressed, extracting a leaf contour by performing edge extraction processing on the rectangular image, It is obtained by reducing a binary image showing different values from the outside of the contour to a predetermined size. The same applies to the element data relating to the shape of the flower.

外部記憶装置250には、さらに、植物や、動物、昆虫などのカテゴリで区分された複数の相違データベース254が格納されている。各相違データベースは、同じカテゴリの図鑑データベースが利用される場合に、利用される。   The external storage device 250 further stores a plurality of difference databases 254 classified by categories such as plants, animals, and insects. Each difference database is used when a pictorial book database of the same category is used.

図3は、1つの相違データベース254の内容を示す説明図である。なお、図3では、植物の図鑑データベースに対応する植物の相違データベースの内容が示されている。   FIG. 3 is an explanatory diagram showing the contents of one difference database 254. FIG. 3 shows the contents of the plant difference database corresponding to the plant pictorial book database.

図示するように、相違データベースには、互いに類似する対象物間の相違点に関する相違データが含まれている。相違データは、互いに類似する対象物(例えば植物Aおよび植物B)間の相違点の説明や、相違点に関する第1の対象物(例えば植物A)の画像、相違点に関する第2の対象物(例えば植物B)の画像などの相違情報を含んでいる。相違点の説明には、互いに類似する対象物を見分けるポイントの説明が含まれている。また、相違点に関する各対象物の画像には、互いに類似する対象物を見分けるポイントの説明に対応する画像が含まれる。例えば、2つの植物A,Bを見分けるポイントが葉の形状である場合には、相違点の説明には、双方の植物の葉の形状の説明が含まれ、相違点に関する各対象物の画像には、各植物の葉の形状が表現された画像が含まれる。   As shown in the drawing, the difference database includes difference data regarding differences between similar objects. The difference data includes a description of differences between similar objects (for example, plant A and plant B), an image of a first object (for example, plant A) relating to the difference, and a second object ( For example, difference information such as an image of plant B) is included. The description of the difference includes an explanation of points for distinguishing similar objects. In addition, the images of the respective objects related to the differences include images corresponding to explanations of points for distinguishing similar objects. For example, when the point that distinguishes two plants A and B is the shape of a leaf, the description of the difference includes the description of the shape of the leaf of both plants, and the image of each object related to the difference Includes an image representing the leaf shape of each plant.

内部記憶装置220(図1)には、画像処理部300として機能するコンピュータプログラムが格納されている。なお、画像処理部300の機能は、CPU210がコンピュータプログラムを実行することによって実現される。コンピュータプログラムは、CD−ROMなどのコンピュータ読み取り可能な記録媒体に記録された形態で提供される。   A computer program that functions as the image processing unit 300 is stored in the internal storage device 220 (FIG. 1). Note that the functions of the image processing unit 300 are realized by the CPU 210 executing a computer program. The computer program is provided in a form recorded on a computer-readable recording medium such as a CD-ROM.

画像処理部300は、被写体特定部302と、詳細情報提供部304と、を備えている。   The image processing unit 300 includes a subject specifying unit 302 and a detailed information providing unit 304.

被写体特定部302は、特徴データ抽出部312と、候補選択部314と、相違情報提供部316と、を備えており、画像内に表現された被写体が複数の対象物のうちのいずれであるかを特定する。   The subject specifying unit 302 includes a feature data extracting unit 312, a candidate selecting unit 314, and a difference information providing unit 316. Which of the plurality of objects is the subject represented in the image? Is identified.

特徴データ抽出部312は、特定すべき被写体が表現された対象画像を表す対象画像データを解析して、被写体の特徴を示す特徴データを抽出する。   The feature data extraction unit 312 analyzes target image data representing a target image in which a subject to be specified is expressed, and extracts feature data indicating the feature of the subject.

候補選択部314は、特徴データ抽出部312によって対象画像データから抽出された特徴データと、1つの図鑑データベース252に含まれる複数の対象物に対応する複数の基準特徴データと、を用いて、複数の対象物の中から、対象画像内に表現された被写体の候補としての候補対象物を選択する。   The candidate selection unit 314 uses a plurality of feature data extracted from the target image data by the feature data extraction unit 312 and a plurality of reference feature data corresponding to a plurality of objects included in one picture book database 252. A candidate object as a candidate for the subject expressed in the target image is selected from the objects.

相違情報提供部316は、候補選択部314によって複数の候補対象物が選択された場合に、相違データベース254から該複数の候補対象物間の相違データを読み出して、相違情報を表示部260に表示させる。   The difference information providing unit 316 reads difference data between the plurality of candidate objects from the difference database 254 and displays the difference information on the display unit 260 when a plurality of candidate objects are selected by the candidate selecting unit 314. Let

なお、本実施例では、候補選択部314によって1つの候補対象物のみが選択された場合には、被写体特定部302は、該1つの候補対象物を被写体として決定する。また、候補選択部314によって複数の候補対象物が選択された場合には、ユーザが、該複数の候補対象物のうちの1つを被写体として決定する。   In this embodiment, when only one candidate object is selected by the candidate selection unit 314, the subject specifying unit 302 determines the one candidate object as a subject. When a plurality of candidate objects are selected by the candidate selection unit 314, the user determines one of the plurality of candidate objects as a subject.

詳細情報提供部304は、被写体特定部302またはユーザによって決定された被写体(対象物)に対応する詳細データを図鑑データベース252から読み出して、詳細情報を表示部260に表示させる。   The detailed information providing unit 304 reads detailed data corresponding to the subject (object) determined by the subject specifying unit 302 or the user from the pictorial book database 252 and causes the display unit 260 to display the detailed information.

なお、本実施例における図鑑データベース252に含まれる複数の基準特徴データが格納された外部記憶装置250内の記憶領域が、本発明における基準特徴データ格納部に相当し、図鑑データベース252に含まれる複数の詳細データが格納された外部記憶装置250内の記憶領域が、本発明における詳細データ格納部に相当する。また、本実施例における相違データベース254が格納された外部記憶装置250内の記憶領域が、本発明における相違データ格納部に相当する。   In addition, the storage area in the external storage device 250 in which a plurality of reference feature data included in the picture book database 252 in the present embodiment is stored corresponds to the reference feature data storage unit in the present invention, and a plurality of information included in the picture book database 252 is included. The storage area in the external storage device 250 in which the detailed data is stored corresponds to the detailed data storage unit in the present invention. Further, the storage area in the external storage device 250 in which the difference database 254 in this embodiment is stored corresponds to the difference data storage unit in the present invention.

A−2.画像処理部の処理:
図4は、画像処理部300の一連の処理手順を示すフローチャートである。
A-2. Processing of the image processing unit:
FIG. 4 is a flowchart showing a series of processing procedures of the image processing unit 300.

ステップS102では、ユーザは、複数の図鑑データベース252の中から、1つの図鑑データベースを選択する。ユーザによる図鑑データベースの選択は、画像処理部300によって準備された図鑑選択画面において、ユーザが複数の図鑑の中から所望の図鑑を選択することによって、実現される。なお、本実施例では、ユーザによって植物の図鑑が選択される場合を想定する。   In step S102, the user selects one pictorial book database from the plural pictorial book databases 252. The selection of the picture book database by the user is realized when the user selects a desired picture book from a plurality of picture books on the picture book selection screen prepared by the image processing unit 300. In addition, in a present Example, the case where the pictorial book of a plant is selected by the user is assumed.

ステップS104では、ユーザは、特定すべき被写体が表現された対象画像を指定する。ユーザによる対象画像の指定は、例えば、画像処理部300によって準備された対象画像選択画面において、ユーザが複数の画像の中から所望の画像を選択することによって、実現される。なお、本実施例では、対象画像には、特定すべき植物が表現されている。   In step S104, the user designates a target image in which a subject to be identified is expressed. The designation of the target image by the user is realized, for example, when the user selects a desired image from a plurality of images on the target image selection screen prepared by the image processing unit 300. In this embodiment, plants to be specified are expressed in the target image.

ステップS106では、特徴データ抽出部312は、対象画像を表す対象画像データを解析して、被写体の特徴を示す特徴データを抽出する。抽出される特徴データは、利用される図鑑データベースの基準特徴データに対応する。本実施例では、植物の図鑑データベース252が選択されており、該データベースの基準特徴データには、図2に示すように、花の色や、花の形状、葉の色、葉の形状などの複数の特徴要素を示す複数の要素データが含まれている。このため、本実施例では、対象画像データから、花の色や、花の形状、葉の色、葉の形状などの複数の特徴要素を示す複数の要素データを含む特徴データが抽出される。   In step S106, the feature data extraction unit 312 analyzes the target image data representing the target image, and extracts feature data indicating the characteristics of the subject. The extracted feature data corresponds to the reference feature data of the pictorial book database used. In this embodiment, the plant picture book database 252 is selected, and the reference feature data of the database includes, as shown in FIG. 2, information such as flower color, flower shape, leaf color, leaf shape, etc. A plurality of element data indicating a plurality of feature elements are included. Therefore, in this embodiment, feature data including a plurality of element data indicating a plurality of feature elements such as a flower color, a flower shape, a leaf color, and a leaf shape is extracted from the target image data.

具体的には、特徴データ抽出部312は、まず、対象画像内において被写体(植物)の各部位が表現された領域を決定する。例えば、対象画像に対してエッジ抽出処理を施すことによってエッジ画像が生成され、該エッジ画像に基づいて、対象画像が複数の領域に区分される。複数の領域のうち、赤や、白、黄色などの花の色である可能性が高い領域は、花の領域として決定される。また、緑色などの葉の色である可能性が高い領域は、葉の領域として決定される。なお、領域の決定が困難な場合には、ユーザによって花の領域や葉の領域が指示されるようにしてもよい。   Specifically, the feature data extraction unit 312 first determines an area where each part of the subject (plant) is expressed in the target image. For example, an edge image is generated by performing an edge extraction process on the target image, and the target image is divided into a plurality of regions based on the edge image. Of the plurality of regions, a region having a high possibility of being a flower color such as red, white, and yellow is determined as a flower region. In addition, an area that is highly likely to be a leaf color such as green is determined as a leaf area. If it is difficult to determine the area, the user may be instructed to specify a flower area or a leaf area.

特徴データ抽出部312は、次に、要素データを生成する。例えば、花の色に関する要素データは、花の領域を構成する各画素を、その色に応じて複数のクラスに区分し、色ヒストグラムの値(頻度)を求めることによって、生成される。葉の色に関する要素データも同様である。また、花の形状に関する要素データは、花の領域を囲む矩形画像を選択し、該矩形画像にエッジ抽出処理を施すことによって花の輪郭を抽出し、輪郭内部と輪郭外部とで異なる値を示す二値画像を所定のサイズに縮小することによって、生成される。葉の形状に関する要素データも同様である。   Next, the feature data extraction unit 312 generates element data. For example, the element data related to the color of the flower is generated by classifying each pixel constituting the flower region into a plurality of classes according to the color and obtaining the value (frequency) of the color histogram. The same applies to the element data relating to the leaf color. In addition, the element data relating to the shape of the flower is selected by selecting a rectangular image surrounding the flower region, and by performing edge extraction processing on the rectangular image, the contour of the flower is extracted and shows different values between the inside of the contour and the outside of the contour. It is generated by reducing the binary image to a predetermined size. The same applies to the element data relating to the shape of the leaves.

なお、対象画像内に被写体の一部(例えば植物の花)のみが表現されている場合には、特徴データには、一部の要素データ(花の色や花の形状などの要素データ)のみが含まれ、他の要素データ(葉の色や葉の形状などの要素データ)は含まれない。   In addition, when only a part of the subject (for example, a flower of a plant) is expressed in the target image, the feature data includes only a part of element data (element data such as flower color and flower shape). And other element data (element data such as leaf color and leaf shape) are not included.

ステップS108では、候補選択部314は、ステップS102で選択された図鑑データベースに登録された複数の対象物の中から、被写体の候補を選択する。   In step S108, the candidate selection unit 314 selects a candidate for the subject from among a plurality of objects registered in the pictorial book database selected in step S102.

具体的には、候補選択部314は、まず、ステップS106で得られた特徴データと、ステップS102で選択された図鑑データベースに登録された複数の対象物に対応する複数の基準特徴データと、を用いて複数の類似度を算出する。   Specifically, the candidate selection unit 314 first obtains the feature data obtained in step S106 and a plurality of reference feature data corresponding to a plurality of objects registered in the pictorial book database selected in step S102. To calculate a plurality of similarities.

図5は、類似度の算出結果の例を示す説明図である。前述したように、本実施例では、特徴データと基準特徴データとは、それぞれ、花の色と、花の形状と、葉の色と、葉の形状と、の複数の特徴要素を示す複数の要素データを含んでいる。このように、特徴データと基準特徴データとが複数の要素データを含む場合には、対応する特徴要素毎に要素類似度が算出され、複数の要素類似度の平均値を求めることによって類似度が算出される。   FIG. 5 is an explanatory diagram illustrating an example of a similarity calculation result. As described above, in the present embodiment, the feature data and the reference feature data each include a plurality of feature elements indicating a plurality of feature elements of a flower color, a flower shape, a leaf color, and a leaf shape. Contains element data. Thus, when the feature data and the reference feature data include a plurality of element data, the element similarity is calculated for each corresponding feature element, and the similarity is obtained by obtaining an average value of the plurality of element similarities. Calculated.

なお、対象画像内に被写体の一部(例えば植物の花)のみが表現されている場合には、特徴データに含まれる一部の要素データ(花の色や花の形状などの要素データ)に対応する一部の要素類似度のみが算出され、該一部の要素類似度の平均値を求めることによって類似度が算出される。   In addition, when only a part of the subject (for example, a flower of a plant) is expressed in the target image, a part of element data (element data such as flower color and flower shape) included in the feature data is included. Only the corresponding partial element similarity is calculated, and the similarity is calculated by obtaining an average value of the partial element similarity.

本実施例では、色に関する要素類似度は、角距離cosθを用いて算出される。角距離cosθは、以下の式(1)で表される。   In this embodiment, the element similarity regarding the color is calculated using the angular distance cos θ. The angular distance cos θ is expressed by the following equation (1).

Figure 0004735168
Figure 0004735168

ここで、ベクトルI,ベクトルOは、色に関する要素類似度の算出対象である2つの要素データを示すベクトルである。色ヒストグラムの各クラスh1,h2,h3…の値をvh1,vh2,vh3…とすると、各ベクトルは、(vh1,vh2,vh3,…)で表され、各ベクトルの大きさは、(vh12+vh22+vh32+…)1/2で表される。 Here, the vector I and the vector O are vectors indicating two element data that are calculation targets of the element similarity regarding the color. If the values of the classes h1, h2, h3,... Of the color histogram are vh1, vh2, vh3,..., Each vector is represented by (vh1, vh2, vh3,...), And the magnitude of each vector is (vh1 2 + Vh2 2 + vh3 2 +...) 1/2 .

例えば、花の色に関する要素類似度を算出する場合には、ベクトルI,ベクトルOとして、それぞれ、被写体の花の色の要素データを示すベクトルと、対象物の花の色の要素データを示すベクトルと、が利用される。   For example, when calculating the element similarity regarding the color of a flower, a vector indicating element data of the subject flower color and a vector indicating element data of the object flower color are used as the vector I and the vector O, respectively. And are used.

また、本実施例では、形状に関する要素類似度は、算出対象である2つの要素データである2つの二値画像データを用いて算出される。具体的には、2つの二値画像が重ね合わされ、第1の二値画像の輪郭内部の第1の領域と第2の二値画像の輪郭内部の第2の領域との少なくとも一方の領域を含む領域の面積(第1の画素数)と、第1の領域と第2の領域との重なり部分の領域の面積(第2の画素数)と、が算出される。そして、(第2の画素数)/(第1の画素数)の値が、形状に関する要素類似度として算出される。なお、形状に関する要素類似度が算出される際には、要素類似度が最大となるように、2つの二値画像のうちの一方を平行移動させたり回転させたりすることが好ましい。   In the present embodiment, the element similarity related to the shape is calculated using two binary image data that are two element data to be calculated. Specifically, two binary images are overlaid, and at least one region of the first region inside the contour of the first binary image and the second region inside the contour of the second binary image is determined. The area of the included region (first pixel number) and the area of the overlapping portion of the first region and the second region (second pixel number) are calculated. Then, the value of (second pixel number) / (first pixel number) is calculated as the element similarity regarding the shape. When the element similarity regarding the shape is calculated, one of the two binary images is preferably translated or rotated so that the element similarity is maximized.

例えば、葉の形状に関する要素類似度を算出する場合には、第1の二値画像データとして被写体の葉の形状の要素データ(二値画像データ)が利用され、第2の二値画像データとして対象物の葉の形状の要素データ(二値画像データ)が利用される。   For example, when calculating the element similarity regarding the leaf shape, element data (binary image data) of the shape of the subject leaf is used as the first binary image data, and the second binary image data is used as the second binary image data. Element data (binary image data) of the leaf shape of the object is used.

ステップS108(図4)において、複数の対象物に対応する複数の類似度が算出されると、候補選択部314は、次に、該複数の類似度を用いて被写体の候補を選択する。複数の類似度の中に、最大の類似度にほぼ等しい他の類似度が存在する場合(例えば、最大の類似度と他の類似度との差分が0.1以下の場合)には、最大の類似度と該他の類似度とに対応する複数の対象物が、被写体の候補として選択される。複数の類似度の中に、最大の類似度にほぼ等しい他の類似度が存在しない場合には、換言すれば、他の類似度が最大の類似度よりもかなり小さい場合(例えば、最大の類似度と他の類似度との差分が0.1を超える場合)には、最大の類似度に対応する1つの対象物が、被写体の候補として選択される。ただし、すべての類似度が比較的小さな所定値(例えば0.5)以下である場合には、候補選択部314は、被写体の候補を選択しない。   When a plurality of similarities corresponding to a plurality of objects are calculated in step S108 (FIG. 4), the candidate selecting unit 314 next selects a subject candidate using the plurality of similarities. If there is another similarity that is approximately equal to the maximum similarity among the plurality of similarities (for example, the difference between the maximum similarity and the other similarity is 0.1 or less), the maximum A plurality of objects corresponding to the similarity and other similarities are selected as subject candidates. If there are no other similarities in the multiple similarities that are approximately equal to the maximum similarity, in other words, if the other similarities are much smaller than the maximum similarity (eg, the maximum similarity) When the difference between the degree and another similarity exceeds 0.1), one object corresponding to the maximum degree of similarity is selected as a subject candidate. However, when all the similarities are a relatively small predetermined value (for example, 0.5) or less, the candidate selection unit 314 does not select a subject candidate.

ステップS110では、候補選択部314は、ステップS108において被写体の候補が選択されたか否かを判断する。被写体の候補が選択された場合には、ステップS112に進む。一方、被写体の候補が選択されなかった場合には、図4の処理が終了する。なお、この場合には、被写体特定部302は、ユーザに被写体の候補が選択されなかった旨を通知することが好ましい。   In step S110, the candidate selection unit 314 determines whether a subject candidate has been selected in step S108. If a subject candidate is selected, the process proceeds to step S112. On the other hand, when the subject candidate is not selected, the processing in FIG. 4 ends. In this case, it is preferable that the subject specifying unit 302 notifies the user that no subject candidate has been selected.

ステップS112では、候補選択部314は、ステップS108において被写体の候補として1つの候補対象物のみが選択されたか否かを判断する。被写体の候補として1つの候補対象物のみが選択された場合には、ステップS114に進み、被写体の候補として複数の候補対象物が選択された場合には、ステップS212に進む。   In step S112, the candidate selection unit 314 determines whether only one candidate object is selected as a subject candidate in step S108. When only one candidate object is selected as the subject candidate, the process proceeds to step S114, and when a plurality of candidate objects are selected as the subject candidates, the process proceeds to step S212.

ステップS114では、被写体特定部302は、被写体の候補として選択された唯一の候補対象物を、被写体として決定する。   In step S114, the subject specifying unit 302 determines the only candidate object selected as the subject candidate as the subject.

ステップS116では、詳細情報提供部304は、被写体特定部302によって被写体として決定された候補対象物の詳細データを、ステップS102で選択された図鑑データベース252から読み出して、該詳細データによって表される詳細情報を表示部260に表示する。   In step S116, the detailed information providing unit 304 reads the detailed data of the candidate object determined as the subject by the subject specifying unit 302 from the pictorial book database 252 selected in step S102, and the details represented by the detailed data. Information is displayed on the display unit 260.

ステップS212では、相違情報提供部316は、ステップS102で選択された図鑑データベース252と同じカテゴリの相違データベース254から、被写体の候補として選択された複数の候補対象物間の相違データを取得する。そして、相違情報提供部316は、相違データによって表される相違情報を表示部260に表示する。   In step S212, the difference information providing unit 316 acquires difference data between a plurality of candidate objects selected as subject candidates from the difference database 254 in the same category as the pictorial book database 252 selected in step S102. Then, the difference information providing unit 316 displays the difference information represented by the difference data on the display unit 260.

図6は、ステップS212(図4)で表示される相違情報表示画面Wの一例を示す説明図である。図6には、被写体の候補として植物Aと植物Bとが選択された場合に表示される画面が示されている。   FIG. 6 is an explanatory diagram showing an example of the difference information display screen W displayed in step S212 (FIG. 4). FIG. 6 shows a screen displayed when plant A and plant B are selected as subject candidates.

図示するように、相違情報表示画面Wには、植物Aと植物Bとの相違点の説明を表示する第1のフィールドF1と、相違点に関する植物Aの画像を表示する第2のフィールドF2aと、相違点に関する植物Bの画像を表示する第3のフィールドF2bと、が設けられている。   As shown in the figure, the difference information display screen W includes a first field F1 for displaying an explanation of the difference between the plant A and the plant B, and a second field F2a for displaying an image of the plant A regarding the difference. A third field F2b for displaying an image of the plant B related to the difference is provided.

第1のフィールドF1に表示された相違点の説明から、ユーザは、植物Aと植物Bとを見分けるポイントが葉の裏であることを知ることができる。また、第2および第3のフィールドF2a,F2bに表示された相違点に関する植物Aおよび植物Bの画像から、ユーザは、植物Aの葉の裏の態様と植物Bの葉の裏の態様とを知ることができる。   From the description of the difference displayed in the first field F1, the user can know that the point that distinguishes the plant A from the plant B is the back of the leaf. Further, from the images of the plant A and the plant B related to the differences displayed in the second and third fields F2a and F2b, the user determines the mode of the back side of the leaf of the plant A and the mode of the back side of the leaf of the plant B. I can know.

ステップS214(図4)では、ユーザは、被写体の候補として選択された複数の候補対象物のうちのいずれかの候補対象物を被写体として指定する。図6の相違情報表示画面Wには、植物Aの詳細情報を表示させるためのボタンB1aと、植物Bの詳細情報を表示させるためのボタンB2aと、が設けられている。ユーザは、相違情報表示画面Wの3つのフィールドF1,F2a,F2bに表示された相違情報に基づいて、被写体であると考えられるいずれかの候補対象物を選択して、2つの候補対象物に対応する2つのボタンB1a,B1bのうちのいずれかを選択する。   In step S214 (FIG. 4), the user designates one of the plurality of candidate objects selected as the subject candidate as the subject. The difference information display screen W of FIG. 6 is provided with a button B1a for displaying detailed information of the plant A and a button B2a for displaying detailed information of the plant B. Based on the difference information displayed in the three fields F1, F2a, and F2b of the difference information display screen W, the user selects any candidate object that is considered to be a subject and sets the two candidate objects. One of the two corresponding buttons B1a and B1b is selected.

ステップS116では、詳細情報提供部304は、ユーザによって被写体として決定された候補対象物の詳細データを、ステップS102で選択された図鑑データベース252から読み出して、該詳細データによって表される詳細情報を表示部260に表示する。これにより、ユーザは、被写体の詳細情報を知ることができる。   In step S116, the detailed information providing unit 304 reads the detailed data of the candidate object determined as the subject by the user from the pictorial book database 252 selected in step S102, and displays the detailed information represented by the detailed data. Displayed on the unit 260. Thereby, the user can know the detailed information of the subject.

ところで、本実施例では、図6に示すように、相違情報表示画面Wには、候補対象物(植物)に類似する対象物(植物)が表示されている。図2で説明したように、植物Aの詳細データには、植物Aに類似する植物として、植物B,植物Cが登録されている。また、植物Bの詳細データには、植物Bに類似する植物として、植物A,植物Cが登録されている場合を想定する。すなわち、植物Cは、植物Aと植物Cとに類似する場合を想定する。前述したように、本実施例では、被写体の候補として、植物Aと植物Bとが選択されている。このため、相違情報表示画面Wには、被写体の候補として選択された植物Aと植物Bとの双方に類似する植物Cが、類似する植物として表示されている。   By the way, in this embodiment, as shown in FIG. 6, the difference information display screen W displays an object (plant) similar to the candidate object (plant). As described in FIG. 2, the plant B and the plant C are registered in the detailed data of the plant A as plants similar to the plant A. Moreover, the case where the plant A and the plant C are registered into the detailed data of the plant B as plants similar to the plant B is assumed. That is, the case where the plant C is similar to the plant A and the plant C is assumed. As described above, in this embodiment, plant A and plant B are selected as subject candidates. For this reason, on the difference information display screen W, a plant C similar to both the plant A and the plant B selected as the subject candidates is displayed as a similar plant.

なお、図6の相違情報表示画面Wには、ユーザが候補対象物に類似する対象物に関する情報を得るための3つのボタンB2a〜B2cが準備されている。ボタンB2aが選択されると、詳細情報提供部304は、植物の図鑑データベースから、植物Cの詳細データを読み出して、詳細情報を表示部260に表示させる。また、ボタンB2bが選択されると、相違情報提供部316は、植物の相違データベースから、植物Aと植物Cとの相違データを読み出して、相違情報を表示部260に表示させる。同様に、ボタンB2cが選択されると、相違情報提供部316は、植物の相違データベースから、植物Bと植物Cとの相違データを読み出して、相違情報を表示部260に表示させる。   In addition, on the difference information display screen W of FIG. 6, three buttons B2a to B2c are prepared for the user to obtain information on an object similar to the candidate object. When the button B2a is selected, the detailed information providing unit 304 reads the detailed data of the plant C from the plant pictorial book database and causes the display unit 260 to display the detailed information. When the button B2b is selected, the difference information providing unit 316 reads the difference data between the plant A and the plant C from the plant difference database and causes the display unit 260 to display the difference information. Similarly, when the button B2c is selected, the difference information providing unit 316 reads the difference data between the plant B and the plant C from the plant difference database and causes the display unit 260 to display the difference information.

なお、本実施例では、被写体の候補として2つの候補対象物が選択される場合について説明したが、3以上の候補対象物が選択される場合もある。この場合には、例えば、2つの候補対象物毎の相違情報がユーザに提供されればよい。例えば、3つの候補対象物A〜Cが選択された場合には、候補対象物A,B間の相違情報と、候補対象物B,C間の相違情報と、候補対象物A,C間の相違情報と、がユーザに提供されればよい。   In the present embodiment, the case where two candidate objects are selected as subject candidates has been described. However, three or more candidate objects may be selected. In this case, for example, the difference information for each of the two candidate objects may be provided to the user. For example, when three candidate objects A to C are selected, difference information between candidate objects A and B, difference information between candidate objects B and C, and between candidate objects A and C The difference information may be provided to the user.

以上説明したように、本実施例では、被写体の候補として複数の候補対象物が選択された場合に、該複数の候補対象物間の相違情報がユーザに提供されるため、ユーザは、相違情報に基づいて、被写体を容易に特定することができる。   As described above, in the present embodiment, when a plurality of candidate objects are selected as subject candidates, difference information between the plurality of candidate objects is provided to the user. The subject can be easily specified based on the above.

B.第2実施例:
図7は、第2実施例における画像処理装置(パーソナルコンピュータ)200Bを示す説明図である。図7は、図1とほぼ同じであるが、相違データベース254Bと画像処理部300Bとが変更されている。
B. Second embodiment:
FIG. 7 is an explanatory diagram showing an image processing apparatus (personal computer) 200B in the second embodiment. FIG. 7 is substantially the same as FIG. 1, but the difference database 254B and the image processing unit 300B are changed.

図8は、1つの相違データベース254Bの内容を示す説明図である。なお、図8では、図3と同様に、植物の図鑑データベースに対応する植物の相違データベースの内容が示されている。図8と図3とを比較して分かるように、本実施例でも、相違データベースには、互いに類似する対象物間の相違点に関する相違データが含まれている。ただし、本実施例では、第1実施例と異なり、相違データは、互いに類似する対象物(例えば植物Aおよび植物B)間の相違点を含んでいるが、相違点の説明や、相違点に関する各対象物の画像などを含んでいない。相違点は、例えば、「花」や「葉」で表されていてもよいし、「花の色」や、「花の形」、「葉の色」、「葉の形」で表されていてもよい。   FIG. 8 is an explanatory diagram showing the contents of one difference database 254B. FIG. 8 shows the contents of the plant difference database corresponding to the plant pictorial book database, as in FIG. 3. As can be seen from a comparison between FIG. 8 and FIG. 3, also in the present embodiment, the difference database includes difference data regarding differences between similar objects. However, in the present embodiment, unlike the first embodiment, the difference data includes differences between similar objects (for example, the plant A and the plant B). Does not include images of each object. Differences may be represented by, for example, “flowers” or “leaves”, or “flower colors”, “flower shapes”, “leaf colors”, or “leaf shapes”. May be.

本実施例では、画像処理部300Bは、決定部320を含む被写体特定部302Bを備えている。決定部320は、参考画像指定指示部322と、参考特徴データ抽出部324と、を備えており、候補選択部314によって複数の候補対象物が選択された場合に、該複数の候補対象物のうちの1つを被写体として決定する。   In the present embodiment, the image processing unit 300B includes a subject specifying unit 302B including a determining unit 320. The determination unit 320 includes a reference image designation instruction unit 322 and a reference feature data extraction unit 324. When a plurality of candidate objects are selected by the candidate selection unit 314, the plurality of candidate objects are selected. One of them is determined as a subject.

参考画像指定指示部322は、候補選択部314によって複数の候補対象物が選択された場合に、相違データベース254Bから該複数の候補対象物間の相違データを読み出す。そして、参考画像指定指示部322は、相違データに応じて、対象画像内に表現された被写体と同一または同種の被写体の特定の部位が表現された参考画像をユーザに指定するように指示するメッセージを表示部260に表示させる。なお、参考画像は、相違データによって示される相違点が詳細に表現された画像である。   When the candidate selection unit 314 selects a plurality of candidate objects, the reference image designation instruction unit 322 reads difference data between the plurality of candidate objects from the difference database 254B. Then, the reference image designation instruction unit 322 instructs the user to designate a reference image in which a specific part of the subject that is the same as or similar to the subject represented in the target image is represented according to the difference data. Is displayed on the display unit 260. The reference image is an image in which the difference indicated by the difference data is expressed in detail.

参考特徴データ抽出部324は、相違データに応じて、ユーザによって指定された参考画像を表す参考画像データを解析し、被写体の特定の部位の特徴を示す参考特徴データを抽出する。なお、参考特徴データには、相違データによって示される相違点に関係する複数の要素データが含まれる。   The reference feature data extraction unit 324 analyzes reference image data representing a reference image designated by the user according to the difference data, and extracts reference feature data indicating the characteristics of a specific part of the subject. The reference feature data includes a plurality of element data related to the difference indicated by the difference data.

図9は、画像処理部300Bの一連の処理手順を示すフローチャートである。図9は、図4とほぼ同じであるが、ステップS212,S214に代えて、ステップS222〜S228が実行される。   FIG. 9 is a flowchart showing a series of processing procedures of the image processing unit 300B. FIG. 9 is substantially the same as FIG. 4, but steps S222 to S228 are executed instead of steps S212 and S214.

ステップS222では、参考画像指定指示部322は、ステップS102で選択された図鑑データベース252と同じカテゴリの相違データベース254Bから、被写体の候補として選択された複数の候補対象物間の相違データを取得する。そして、参考画像指定指示部322は、相違データに応じて、ユーザに相違点(例えば「花の形状」)が表現された参考画像を指定するように指示するメッセージを表示部260に表示させる。   In step S222, the reference image designation instruction unit 322 acquires difference data between a plurality of candidate objects selected as subject candidates from the difference database 254B of the same category as the picture book database 252 selected in step S102. Then, the reference image designation instruction unit 322 causes the display unit 260 to display a message instructing the user to designate a reference image in which a difference (for example, “flower shape”) is expressed according to the difference data.

ステップS224では、ユーザは、対象画像内に表現された被写体と同一のまたは同種の被写体の特定の部位が詳細に表現された参考画像を指定する。ユーザによる参考画像の指定は、例えば、参考画像指定指示部322によって準備された参考画像選択画面において、ユーザが複数の画像の中から適切な画像を選択することによって、実現される。例えば、ステップS222において「花の形状」が表現された参考画像を指定するように指示された場合には、ユーザは、対象画像内に表現された被写体と同一または同種の被写体の「花の形状」が表現された参考画像を指定する。   In step S224, the user designates a reference image in which a specific part of the subject identical or similar to the subject represented in the target image is expressed in detail. The designation of the reference image by the user is realized, for example, when the user selects an appropriate image from a plurality of images on the reference image selection screen prepared by the reference image designation instruction unit 322. For example, when instructed to specify a reference image in which “flower shape” is expressed in step S222, the user selects “flower shape” of a subject that is the same as or similar to the subject expressed in the target image. "Is specified.

ステップS226では、参考特徴データ抽出部324は、ステップS106における特徴データの抽出と同様に、参考画像を表す参考画像データを解析して、被写体の特定の部位の特徴を示す参考特徴データを抽出する。参考特徴データの抽出は、ステップS222で取得された相違データに基づいて行われる。例えば、相違データによって示される相違点が「花の形状」である場合には、参考特徴データ抽出部324は、花の形状に関する要素データを含む参考特徴データを抽出する。なお、相違点が「花」である場合には、参考特徴データ抽出部324は、花の色に関する要素データと花の形状に関する要素データとを含む参考特徴データを抽出する。   In step S226, the reference feature data extraction unit 324 analyzes reference image data representing a reference image and extracts reference feature data indicating the characteristics of a specific part of the subject, in the same manner as the feature data extraction in step S106. . The extraction of the reference feature data is performed based on the difference data acquired in step S222. For example, when the difference indicated by the difference data is “flower shape”, the reference feature data extraction unit 324 extracts reference feature data including element data relating to the shape of the flower. When the difference is “flower”, the reference feature data extraction unit 324 extracts reference feature data including element data relating to the color of the flower and element data relating to the shape of the flower.

ステップS228では、決定部320は、ステップS108で選択された複数の候補対象物のうちの1つを被写体として決定する。具体的には、決定部320は、ステップS226で得られた参考特徴データと、複数の候補対象物に対応する複数の基準特徴データと、を用いて、複数の参考類似度を算出する。なお、参考類似度の算出は、ステップS108における類似度の算出と同様に行われる。ただし、相違点が「花の形状」である場合には、各候補対象物に対応する各基準特徴データのうちの花の形状に関する要素データのみが利用される。また、相違点が「花」である場合には、各候補対象物に対応する各基準特徴データのうちの花の色に関する要素データと花の形状に関する要素データとのみが利用される。そして、決定部320は、複数の候補対象物のうちの最大の参考類似度に対応する1つの候補対象物を被写体として決定する。   In step S228, the determination unit 320 determines one of the plurality of candidate objects selected in step S108 as a subject. Specifically, the determination unit 320 calculates a plurality of reference similarities using the reference feature data obtained in step S226 and a plurality of reference feature data corresponding to a plurality of candidate objects. The reference similarity is calculated in the same manner as the similarity calculation in step S108. However, when the difference is the “flower shape”, only element data relating to the flower shape of the reference feature data corresponding to each candidate object is used. When the difference is “flower”, only the element data related to the color of the flower and the element data related to the shape of the flower among the reference feature data corresponding to each candidate object are used. Then, the determination unit 320 determines one candidate object corresponding to the maximum reference similarity among the plurality of candidate objects as a subject.

なお、被写体の候補として3以上の候補対象物が選択される場合には、例えば、2つの候補対象物毎に参考画像が指定されればよい。例えば、3つの候補対象物A〜Cが選択された場合には、候補対象物A,B間の相違データに基づいて、第1の参考画像が指定される。そして、2つの候補対象物A,Bに対応する2つの参考類似度が算出され、一方の候補対象物(例えば候補対象物B)が被写体の候補として残る。次に、候補対象物B,C間の相違データに基づいて、第2の参考画像が指定される。そして、2つの候補対象物B,Cに対応する2つの参考類似度が算出され、一方の候補対象物が被写体として決定される。なお、候補対象物A〜Cの相違データが同じ相違点(例えば「花の形状」)を示す場合には、1つの参考画像が指定される。そして、3つの候補対象物A〜Cに対応する3つの参考類似度が算出され、いずれか1つの候補対象物が被写体として決定される。   When three or more candidate objects are selected as subject candidates, for example, a reference image may be designated for each of two candidate objects. For example, when three candidate objects A to C are selected, the first reference image is designated based on the difference data between the candidate objects A and B. Then, two reference similarities corresponding to the two candidate objects A and B are calculated, and one candidate object (for example, candidate object B) remains as a subject candidate. Next, a second reference image is designated based on the difference data between candidate objects B and C. Then, two reference similarities corresponding to the two candidate objects B and C are calculated, and one candidate object is determined as a subject. Note that when the difference data of the candidate objects A to C indicate the same difference (for example, “flower shape”), one reference image is designated. Then, three reference similarities corresponding to the three candidate objects A to C are calculated, and any one candidate object is determined as a subject.

以上説明したように、本実施例では、被写体の候補として複数の候補対象物が選択された場合に、相違データに応じて、参考画像から参考特徴データが抽出される。そして、参考特徴データと複数の候補対象物に対応する複数の基準特徴データとを用いて、1つの候補対象物が被写体として決定される。このため、被写体を容易に特定することができると共に、被写体を正確に特定することができる。   As described above, in this embodiment, when a plurality of candidate objects are selected as subject candidates, reference feature data is extracted from the reference image according to the difference data. Then, using the reference feature data and the plurality of reference feature data corresponding to the plurality of candidate objects, one candidate object is determined as a subject. For this reason, the subject can be easily specified, and the subject can be accurately specified.

なお、本実施例は、例えば、対象画像に被写体の一部(例えば植物の花)のみが表現されており、複数の候補対象物間の相違点が他の部分(例えば植物の葉の形状)である場合にも、利用可能である。また、本実施例は、例えば、対象画像に被写体の一面(例えば植物の側面)が表現されており、複数の候補対象物間の相違点が対象画像内に表現されていない部分(例えば花の正面の形状)である場合にも、利用可能である。   In the present embodiment, for example, only a part of the subject (for example, a flower of a plant) is represented in the target image, and the difference between the plurality of candidate objects is the other part (for example, the shape of a plant leaf). Is also available. Further, in the present embodiment, for example, one side of a subject (for example, a side surface of a plant) is expressed in the target image, and a portion where a difference between a plurality of candidate target objects is not expressed in the target image (for example, a flower It can also be used in the case of a front shape).

C.第3実施例:
図10は、第3実施例における画像処理装置(パーソナルコンピュータ)200Cを示す説明図である。図10は、図1とほぼ同じであるが、外部記憶装置250には、複数の詳細図鑑データベース256が追加されている。
C. Third embodiment:
FIG. 10 is an explanatory diagram showing an image processing apparatus (personal computer) 200C in the third embodiment. FIG. 10 is substantially the same as FIG. 1, but a plurality of detailed pictorial book databases 256 are added to the external storage device 250.

前述したように、各図鑑データベース252は、植物や、動物、昆虫などの大きなカテゴリで区分されている。一方、各詳細図鑑データベース256は、例えば、植物の花や植物の葉などの小さなカテゴリ(部位)で区分されている。   As described above, each picture book database 252 is divided into large categories such as plants, animals, and insects. On the other hand, each detailed picture book database 256 is divided into small categories (parts) such as plant flowers and plant leaves.

図11は、1つの詳細図鑑データベース256の内容を示す説明図である。なお、図11では、植物の花の詳細図鑑データベース256の内容が示されている。   FIG. 11 is an explanatory diagram showing the contents of one detailed pictorial book database 256. In FIG. 11, the contents of the detailed flower book database 256 of plant flowers are shown.

図11に示すように、1つの詳細図鑑データベースには、複数の対象物に対応する複数の対象物部位データが含まれている。なお、対象物部位データは、対象物(植物)毎に、対象物の名称と対応付けて登録されている。対象物部位データは、対応する対象物の特定の部位の詳細データと、対応する対象物の特定の部位の基準特徴データ(以下、「基準詳細特徴データ」と呼ぶ)と、を含んでいる。   As shown in FIG. 11, one detailed pictorial book database includes a plurality of object part data corresponding to a plurality of objects. The object part data is registered in association with the name of the object for each object (plant). The object part data includes detailed data of a specific part of the corresponding object and reference feature data of the specific part of the corresponding object (hereinafter referred to as “reference detailed feature data”).

詳細データは、対応する対象物の特定の部位が表現された1以上の画像や、対応する対象物の特定の部位に関する詳細な説明などの詳細情報を含んでいる。詳細な説明には、例えば、対象物(植物)の特定の部位(花)の態様などの説明が含まれる。   The detailed data includes detailed information such as one or more images in which a specific part of the corresponding target object is expressed, and a detailed description regarding the specific part of the corresponding target object. The detailed description includes, for example, a description of an aspect of a specific part (flower) of the object (plant).

なお、詳細図鑑データベースの詳細データには、図鑑データベースの詳細データと同じデータが含まれていてもよいし、異なるデータが含まれていてもよい。   The detailed data in the detailed picture book database may include the same data as the detailed data in the picture book database, or may include different data.

基準詳細特徴データは、対応する対象物の特定の部位の複数の特徴要素を示す複数の要素データを含んでいる。基準詳細特徴データには、例えば、対象物(植物)の花の色や、花の形状、花びらの形状、花びらの枚数などの特徴を示す複数の要素データが含まれる。   The reference detailed feature data includes a plurality of element data indicating a plurality of feature elements of a specific part of the corresponding object. The reference detailed feature data includes, for example, a plurality of element data indicating features such as the color of the object (plant), the shape of the flower, the shape of the petals, and the number of petals.

本実施例では、花びらの形状に関する要素データとしては、前述した他の形状に関する要素データと同様に、所定のサイズ(画素数)を有する二値画像データが利用されている。花びらの形状に関する要素データは、植物の花が表現された基準画像から花びらの部分を囲む矩形画像を選択し、該矩形画像にエッジ抽出処理を施すことによって花びらの輪郭を抽出し、輪郭内部と輪郭外部とで異なる値を示す二値画像を所定のサイズに縮小することによって、得られる。   In the present embodiment, binary image data having a predetermined size (number of pixels) is used as the element data related to the shape of the petals, similarly to the element data related to the other shapes described above. Element data related to the shape of the petal is selected from a reference image representing the flower of the plant, a rectangular image surrounding the petal portion is selected, and an edge extraction process is performed on the rectangular image to extract the outline of the petal. It is obtained by reducing a binary image showing different values from the outside of the contour to a predetermined size.

また、本実施例では、花びらの枚数に関する要素データとしては、予め調査された値が利用されている。   Further, in the present embodiment, previously investigated values are used as element data relating to the number of petals.

なお、詳細図鑑データベースの基準詳細特徴データには、花の色や花の形状に関する要素データとして、図鑑データベースの基準特徴データと同じデータが含まれていてもよいし、異なるデータが含まれていてもよい。   The reference detailed feature data in the detailed picture book database may include the same data as the reference feature data in the picture book database as element data related to the color of the flower or the shape of the flower, or may include different data. Also good.

また、本実施例では、図10と図1とを比較して分かるように、相違データベース254Bと画像処理部300Cとが変更されている。なお、本実施例の相違データベース254Bは、第2実施例(図8)と同じである。   Further, in this embodiment, the difference database 254B and the image processing unit 300C are changed so as to be understood by comparing FIG. 10 and FIG. The difference database 254B of this embodiment is the same as that of the second embodiment (FIG. 8).

本実施例では、画像処理部300Cは、決定部330を含む被写体特定部302Cを備えている。決定部330は、相違データ取得部332と、詳細図鑑データベース選択部334と、詳細特徴データ抽出部336と、を備えており、候補選択部314によって複数の候補対象物が選択された場合に、該複数の候補対象物のうちの1つを被写体として決定する。   In this embodiment, the image processing unit 300C includes a subject specifying unit 302C including a determining unit 330. The determination unit 330 includes a difference data acquisition unit 332, a detailed picture book database selection unit 334, and a detailed feature data extraction unit 336. When a plurality of candidate objects are selected by the candidate selection unit 314, One of the plurality of candidate objects is determined as a subject.

相違データ取得部332は、候補選択部314によって複数の候補対象物が選択された場合に、相違データベース254Bから該複数の候補対象物間の相違データを読み出す。   When the candidate selection unit 314 selects a plurality of candidate objects, the difference data acquisition unit 332 reads the difference data between the plurality of candidate objects from the difference database 254B.

詳細図鑑データベース選択部334は、相違データに基づいて、複数の詳細図鑑データベース256の中から、1つの詳細図鑑データベースを選択する。例えば、相違データによって示される相違点が「花」や、「花の色」、「花の形状」である場合には、詳細図鑑データベース選択部334は、植物の花の詳細図鑑データベースを選択する。また、詳細図鑑データベース選択部334は、選択された詳細図鑑データベースから、候補選択部314によって選択された複数の候補対象物に対応する複数の基準詳細特徴データを読み出す。   The detailed picture book database selection unit 334 selects one detailed picture book database from a plurality of detailed picture book databases 256 based on the difference data. For example, when the difference indicated by the difference data is “flower”, “flower color”, or “flower shape”, the detailed picture book database selection unit 334 selects the detailed picture book database of plant flowers. . Further, the detailed picture book database selection unit 334 reads a plurality of reference detailed feature data corresponding to the plurality of candidate objects selected by the candidate selection part 314 from the selected detailed picture book database.

詳細特徴データ抽出部336は、特徴データ抽出部312と同様に、被写体が表現された対象画像を表す対象画像データを解析して、被写体の特定の部位の詳細な特徴を示す詳細特徴データを抽出する。   Similar to the feature data extraction unit 312, the detailed feature data extraction unit 336 analyzes the target image data representing the target image in which the subject is represented, and extracts detailed feature data indicating the detailed features of a specific part of the subject. To do.

なお、本実施例における詳細図鑑データベース256に含まれる基準詳細特徴データが格納された外部記憶装置250内の記憶領域が、本発明における基準詳細特徴データ格納部に相当する。また、本実施例における相違データ取得部332と詳細図鑑データベース選択部334とが、本発明における基準詳細特徴データ選択部に相当する。   The storage area in the external storage device 250 in which the reference detailed feature data included in the detailed pictorial book database 256 in this embodiment is stored corresponds to the reference detailed feature data storage unit in the present invention. Further, the difference data acquisition unit 332 and the detailed pictorial book database selection unit 334 in the present embodiment correspond to the reference detailed feature data selection unit in the present invention.

図12は、画像処理部300Cの一連の処理手順を示すフローチャートである。図12は、図4とほぼ同じであるが、ステップS212,S214に代えて、ステップS232〜S238が実行される。   FIG. 12 is a flowchart showing a series of processing procedures of the image processing unit 300C. FIG. 12 is substantially the same as FIG. 4, but steps S232 to S238 are executed instead of steps S212 and S214.

ステップS232では、相違データ取得部332は、ステップS102で選択された図鑑データベース252と同じカテゴリの相違データベース254Bから、被写体の候補として選択された複数の候補対象物間の相違データを取得する。   In step S232, the difference data acquisition unit 332 acquires difference data between a plurality of candidate objects selected as subject candidates from the difference database 254B of the same category as the pictorial book database 252 selected in step S102.

ステップS234では、詳細図鑑データベース選択部334は、ステップS232で取得された相違データに基づいて、詳細図鑑データベースを選択する。本実施例では、相違データによって示される相違点は「花」であり、詳細図鑑データベース選択部334が、植物の花の詳細図鑑データベース256を選択する場合を想定する。また、詳細図鑑データベース選択部334は、選択された詳細図鑑データベースから、ステップS108で選択された複数の候補対象物に対応する複数の基準詳細特徴データを読み出す。   In step S234, the detailed picture book database selection unit 334 selects a detailed picture book database based on the difference data acquired in step S232. In this embodiment, it is assumed that the difference indicated by the difference data is “flower”, and the detailed picture book database selection unit 334 selects the detailed picture book database 256 of the plant flower. Further, the detailed pictorial book database selection unit 334 reads a plurality of reference detailed feature data corresponding to the plurality of candidate objects selected in step S108 from the selected detailed pictorial book database.

ステップS236では、ステップS106と同様に、詳細特徴データ抽出部336は、対象画像を表す対象画像データを解析して、対象画像データから詳細特徴データを抽出する。抽出される詳細特徴データは、利用される詳細図鑑データベースの基準詳細特徴データに対応する。本実施例では、植物の花の詳細図鑑データベース256が選択されており、該データベースの基準詳細特徴データには、図11に示すように、花の色や、花の形状、花びらの形状、花びらの枚数などの複数の特徴要素を示す複数の要素データが含まれている。このため、本実施例では、対象画像データから、花の色や、花の形状、花びらの形状、花びらの枚数などの複数の特徴要素を示す複数の要素データを含む詳細特徴データが抽出される。   In step S236, as in step S106, the detailed feature data extraction unit 336 analyzes the target image data representing the target image and extracts the detailed feature data from the target image data. The extracted detailed feature data corresponds to the reference detailed feature data of the detailed pictorial book database to be used. In this embodiment, the plant detailed flower book database 256 is selected, and the reference detailed feature data of the database includes, as shown in FIG. 11, the color of the flower, the shape of the flower, the shape of the petal, and the petal. A plurality of element data indicating a plurality of characteristic elements, such as the number of sheets, is included. Therefore, in this embodiment, detailed feature data including a plurality of element data indicating a plurality of feature elements such as a flower color, a flower shape, a petal shape, and the number of petals is extracted from the target image data. .

具体的には、詳細特徴データ抽出部336は、特徴データ抽出部312と同様に、まず、対象画像内において被写体(植物)の各部位が表現された領域を決定する。なお、花びらの領域は、例えば、以下のようにして決定可能である。対象画像に対してエッジ抽出処理を施すことによってエッジ画像が生成され、該エッジ画像に基づいて、対象画像が複数の領域に区分される。複数の領域のうち、赤や、白、黄色などの花びらの色である可能性が高く、かつ、ほぼ面積(画素数)の等しい2以上の領域は、花びらの領域として決定される。花びらの領域の決定が困難な場合には、ユーザによって花びらの領域が指示されるようにしてもよい。次に、詳細特徴データ抽出部336は、特徴データ抽出部312と同様に、要素データを生成する。なお、花びらの枚数に関する要素データは、例えば、花びらの領域として決定された領域数をカウントすることによって生成可能である。   Specifically, like the feature data extraction unit 312, the detailed feature data extraction unit 336 first determines an area in which each part of the subject (plant) is expressed in the target image. The petal region can be determined as follows, for example. An edge image is generated by performing an edge extraction process on the target image, and the target image is divided into a plurality of regions based on the edge image. Of the plurality of regions, two or more regions that are highly likely to have petal colors such as red, white, and yellow and that have substantially the same area (number of pixels) are determined as petal regions. If it is difficult to determine the petal region, the user may indicate the petal region. Next, the detailed feature data extraction unit 336 generates element data in the same manner as the feature data extraction unit 312. The element data relating to the number of petals can be generated, for example, by counting the number of areas determined as petal areas.

ステップS238では、決定部330は、ステップS108で選択された複数の候補対象物のうちの1つを被写体として決定する。具体的には、決定部330は、ステップS236で得られた詳細特徴データと、複数の候補対象物に対応する複数の基準詳細特徴データと、を用いて、複数の詳細類似度を算出する。なお、詳細類似度の算出は、ステップS108における類似度の算出と同様に行われる。花びらの枚数に関する要素類似度は、例えば、被写体の花びらの枚数をx,対象物候補の花びらの枚数をyとすると、「(x−|x−y|)/x」で算出される。そして、決定部330は、複数の候補対象物のうちの最大の詳細類似度に対応する1つの候補対象物を被写体として決定する。   In step S238, the determination unit 330 determines one of the plurality of candidate objects selected in step S108 as a subject. Specifically, the determination unit 330 calculates a plurality of detailed similarities using the detailed feature data obtained in step S236 and the plurality of reference detailed feature data corresponding to the plurality of candidate objects. The detailed similarity is calculated in the same manner as the similarity calculation in step S108. The element similarity regarding the number of petals is calculated by “(x− | xy −) / x” where x is the number of petals of the subject and y is the number of petals of the object candidate. Then, the determination unit 330 determines one candidate object corresponding to the maximum detailed similarity among the plurality of candidate objects as a subject.

なお、ステップS116では、詳細情報提供部304は、決定部330によって被写体として決定された候補対象物の詳細データを、ステップS102で選択された図鑑データベース252から読み出して、該詳細データによって表される詳細情報を表示部260に表示する。これにより、ユーザは、被写体の詳細情報を知ることができる。本実施例では、詳細図鑑データベース256が利用されている。このため、詳細情報提供部304は、上記の詳細情報と共に、被写体として決定された候補対象物の各部位に関する詳細データを詳細図鑑データベース256から読み出して、該詳細データによって表される詳細情報を表示部260に表示させてもよい。   In step S116, the detailed information providing unit 304 reads detailed data of the candidate object determined as the subject by the determining unit 330 from the pictorial book database 252 selected in step S102, and is represented by the detailed data. Detailed information is displayed on the display unit 260. Thereby, the user can know the detailed information of the subject. In this embodiment, a detailed picture book database 256 is used. For this reason, the detailed information providing unit 304 reads out detailed data regarding each part of the candidate object determined as the subject from the detailed pictorial book database 256 together with the above detailed information, and displays the detailed information represented by the detailed data You may display on the part 260. FIG.

なお、被写体の候補として3以上の候補対象物が選択される場合には、例えば、2つの候補対象物毎に、2つの基準詳細特徴データが選択されると共に、対象画像から詳細特徴データが抽出されればよい。例えば、3つの候補対象物A〜Cが選択された場合には、候補対象物A,B間の相違データに基づいて、2つの候補対象物A,Bに対応する2つの基準詳細特徴データが選択されると共に、対象画像から第1の詳細特徴データが抽出される。そして、2つの候補対象物A,Bに対応する2つの詳細類似度が算出され、一方の候補対象物(例えば候補対象物B)が被写体の候補として残る。次に、候補対象物B,C間の相違データに基づいて、2つの候補対象物B,Cに対応する2つの基準詳細特徴データが選択されると共に、対象画像から第2の詳細特徴データが抽出される。そして、2つの候補対象物B,Cに対応する2つの詳細類似度が算出され、一方の候補対象物が被写体として決定される。なお、候補対象物A〜Cの相違データが同じ相違点(例えば「花の形状」)を示す場合には、3つの候補対象物A〜Cに対応する3つの基準詳細特徴データが選択されると共に、対象画像から1つの詳細特徴データが抽出される。そして、3つの候補対象物A〜Cに対応する3つの詳細類似度が算出され、いずれか1つの候補対象物が被写体として決定される。   When three or more candidate objects are selected as subject candidates, for example, two reference detailed feature data are selected for each of the two candidate objects, and detailed feature data is extracted from the target image. It only has to be done. For example, when three candidate objects A to C are selected, two reference detailed feature data corresponding to the two candidate objects A and B are obtained based on the difference data between the candidate objects A and B. While being selected, the first detailed feature data is extracted from the target image. Then, two detailed similarities corresponding to the two candidate objects A and B are calculated, and one candidate object (for example, candidate object B) remains as a subject candidate. Next, based on the difference data between the candidate objects B and C, two reference detailed feature data corresponding to the two candidate objects B and C are selected, and the second detailed feature data is selected from the target image. Extracted. Then, two detailed similarities corresponding to the two candidate objects B and C are calculated, and one candidate object is determined as a subject. When the difference data of the candidate objects A to C indicate the same difference (for example, “flower shape”), three reference detailed feature data corresponding to the three candidate objects A to C are selected. At the same time, one detailed feature data is extracted from the target image. Then, three detailed similarities corresponding to the three candidate objects A to C are calculated, and any one candidate object is determined as a subject.

以上説明したように、本実施例では、被写体の候補として複数の候補対象物が選択された場合に、相違データに基づいて、複数の候補対象物に対応する複数の基準詳細特徴データが選択されると共に、対象画像から詳細特徴データが抽出される。そして、詳細特徴データと複数の基準詳細特徴データとを用いて、1つの候補対象物が被写体として決定される。このため、被写体を容易に特定することができると共に、被写体を正確に特定することができる。   As described above, in this embodiment, when a plurality of candidate objects are selected as subject candidates, a plurality of reference detailed feature data corresponding to the plurality of candidate objects are selected based on the difference data. In addition, detailed feature data is extracted from the target image. Then, using the detailed feature data and the plurality of reference detailed feature data, one candidate object is determined as a subject. For this reason, the subject can be easily specified, and the subject can be accurately specified.

なお、本実施例では、植物の図鑑データベースに複数の基準特徴データが含まれており、植物の花の詳細図鑑データベースに複数の基準詳細特徴データが含まれているが、これに代えて、1つの図鑑データベースに複数の基準特徴データと複数の基準詳細特徴データとの双方が含まれていてもよい。この場合にも、特徴データと複数の基準特徴データとを用いて、被写体の候補が選択され、詳細特徴データと複数の基準詳細特徴データとを用いて、複数の候補対象物のうちの1つが被写体として決定されればよい。   In this embodiment, the plant pictorial book database includes a plurality of reference feature data, and the plant flower detailed pictorial book database includes a plurality of reference detailed feature data. One picture book database may include both a plurality of reference feature data and a plurality of reference detailed feature data. In this case as well, a subject candidate is selected using the feature data and the plurality of reference feature data, and one of the plurality of candidate objects is selected using the detailed feature data and the plurality of reference detail feature data. What is necessary is just to be determined as a to-be-photographed object.

D.第4実施例:
図13は、第4実施例における画像処理装置(パーソナルコンピュータ)200Dを示す説明図である。図13は、図1とほぼ同じであるが、相違データベース254Bと画像処理部300Bとが変更されている。なお、本実施例の相違データベース254Bは、第2実施例(図8)と同じである。
D. Fourth embodiment:
FIG. 13 is an explanatory diagram showing an image processing apparatus (personal computer) 200D in the fourth embodiment. FIG. 13 is almost the same as FIG. 1, but the difference database 254B and the image processing unit 300B are changed. The difference database 254B of this embodiment is the same as that of the second embodiment (FIG. 8).

本実施例では、画像処理部300Dは、決定部340を含む被写体特定部302D備えている。決定部340は、相違データ取得部342と、重み付け設定部344と、を備えており、候補選択部314によって複数の候補対象物が選択された場合に、該複数の候補対象物のうちの1つを被写体として決定する。   In the present embodiment, the image processing unit 300D includes a subject specifying unit 302D including a determining unit 340. The determination unit 340 includes a difference data acquisition unit 342 and a weighting setting unit 344. When a plurality of candidate objects are selected by the candidate selection unit 314, one of the plurality of candidate objects is selected. Is determined as the subject.

相違データ取得部342は、第3実施例の相違データ取得部332と同様に、候補選択部314によって複数の候補対象物が選択された場合に、相違データベース254Bから該複数の候補対象物間の相違データを読み出す。   Similar to the difference data acquisition unit 332 of the third embodiment, the difference data acquisition unit 342 selects a plurality of candidate objects from the difference database 254B when the candidate selection unit 314 selects a plurality of candidate objects. Read the difference data.

重み付け設定部344は、相違データに基づいて、対象画像内に表現された被写体が複数の候補対象物のうちのいずれであるかを決定するための、より具体的には、複数の候補対象物に対応する複数の類似度を算出するための、重み付けを設定する。   More specifically, the weighting setting unit 344 determines, based on the difference data, which of the plurality of candidate objects is the subject represented in the target image. A weight is set for calculating a plurality of similarities corresponding to.

なお、本実施例における相違データ取得部342と重み付け設定部344とが、本発明における設定部に相当する。   Note that the difference data acquisition unit 342 and the weighting setting unit 344 in the present embodiment correspond to the setting unit in the present invention.

図14は、画像処理部300Dの一連の処理手順を示すフローチャートである。図14は、図4とほぼ同じであるが、ステップS212,S214に代えて、ステップS242〜S246が実行される。   FIG. 14 is a flowchart showing a series of processing procedures of the image processing unit 300D. FIG. 14 is substantially the same as FIG. 4, but steps S242 to S246 are executed instead of steps S212 and S214.

ステップS242では、相違データ取得部342は、ステップS102で選択された図鑑データベース252と同じカテゴリの相違データベース254Bから、被写体の候補として選択された複数の候補対象物間の相違データを取得する。   In step S242, the difference data acquisition unit 342 acquires difference data between a plurality of candidate objects selected as subject candidates from the difference database 254B of the same category as the pictorial book database 252 selected in step S102.

ステップS244では、重み付け設定部344は、相違データに基づいて、類似度を算出する際に用いられる各要素類似度に対する重み付け(重み係数)を設定する。例えば、被写体の候補として選択された2つの候補対象物の相違点が特定の部位である場合には、特定の部位に関する要素類似度の重み付け(重み係数)は比較的高く設定され、他の部位に関する要素類似度の重み付け(重み係数)は比較的低く設定される。   In step S244, the weight setting unit 344 sets a weight (weighting coefficient) for each element similarity used when calculating the similarity based on the difference data. For example, when the difference between two candidate objects selected as subject candidates is a specific part, the weight (weight coefficient) of the element similarity regarding the specific part is set to be relatively high. The element similarity weighting (weighting coefficient) is set relatively low.

ステップS246では、決定部340は、ステップS244で設定された重み付けに基づいて、複数の候補対象物に対応する複数の参考類似度を算出する。具体的には、決定部340は、ステップS108で類似度を算出する際に利用された複数の要素類似度と、ステップS244で各要素類似度毎に設定された重み付け(重み係数)と、を用いて、候補対象物毎に参考類似度を算出する。そして、決定部340は、複数の候補対象物に対応する複数の参考類似度のうちの最大の参考類似度に対応する候補対象物を被写体として決定する。   In step S246, the determination unit 340 calculates a plurality of reference similarities corresponding to a plurality of candidate objects based on the weight set in step S244. Specifically, the determination unit 340 includes the plurality of element similarities used when calculating the similarity in step S108 and the weight (weighting coefficient) set for each element similarity in step S244. The reference similarity is calculated for each candidate object. Then, the determination unit 340 determines the candidate object corresponding to the maximum reference similarity among the plurality of reference similarities corresponding to the plurality of candidate objects as the subject.

図15は、ステップS246(図14)で算出される参考類似度を示す説明図である。図15(A)は、被写体(植物)が表現された対象画像を示している。図15(B−1),(B−2)は、それぞれ、被写体の候補として選択された対象物(植物)A,対象物(植物)Bを示している。なお、本実施例では、図15(B−1),(B−2)から分かるように、2つの対象物間の相違点は「花の形状」である。   FIG. 15 is an explanatory diagram showing the reference similarity calculated in step S246 (FIG. 14). FIG. 15A shows a target image in which a subject (plant) is expressed. FIGS. 15B-1 and 15B-2 show an object (plant) A and an object (plant) B selected as subject candidates, respectively. In this embodiment, as can be seen from FIGS. 15B-1 and 15B-2, the difference between the two objects is the “flower shape”.

図15(C−1),(C−1)は、ステップS108で算出される類似度を示している。図15(C−1)に示す類似度は、対象画像の特徴データと対象物Aの基準特徴データとを用いて算出され、図15(C−2)に示す類似度は、対象画像の特徴データと対象物Bの基準特徴データとを用いて算出される。前述したように、各類似度は、複数の要素類似度を平均して算出されている。図15(C−1),(C−2)を比較して分かるように、2つの類似度は、ほぼ等しい値を有している。   FIGS. 15C-1 and 15C-1 show the similarity calculated in step S108. The similarity shown in FIG. 15C-1 is calculated using the feature data of the target image and the reference feature data of the target A, and the similarity shown in FIG. 15C-2 is the feature of the target image. It is calculated using the data and the reference feature data of the object B. As described above, each similarity is calculated by averaging a plurality of element similarities. As can be seen by comparing FIGS. 15C-1 and 15C-2, the two similarities have almost the same value.

図15(D−1),(D−2)は、ステップS246で算出される参考類似度を示している。図15(D−1)に示す参考類似度は、図15(C−1)と同様に、対象画像の特徴データと対象物Aの基準特徴データとを用いて算出され、図15(D−2)に示す参考類似度は、図15(C−2)と同様に、対象画像の特徴データと対象物Bの基準特徴データとを用いて算出される。ただし、図15(D−1),(D−2)に示す2つの参考類似度は、重み係数が乗じられた複数の要素類似度の平均値を求めることによって算出されている。具体的には、相違データによって示される相違点が「花の形状」であるため、花の形状に関する要素類似度の重み係数「1.5」は、他の要素類似度の重み係数「1.0」よりも大きく設定されている。このため、図15(D−1),(D−2)に示すように、2つの参考類似度の差分は、かなり大きくなっている。   FIGS. 15D-1 and 15D-2 show the reference similarity calculated in step S246. The reference similarity shown in FIG. 15 (D-1) is calculated using the feature data of the target image and the reference feature data of the target A as in FIG. 15 (C-1). The reference similarity shown in 2) is calculated using the feature data of the target image and the reference feature data of the target B as in FIG. However, the two reference similarities shown in FIGS. 15D-1 and 15D-2 are calculated by obtaining an average value of a plurality of element similarities multiplied by a weighting coefficient. Specifically, since the difference indicated by the difference data is “flower shape”, the weight coefficient “1.5” of the element similarity related to the flower shape is the weight coefficient “1. It is set larger than “0”. For this reason, as shown in FIGS. 15D-1 and 15D-2, the difference between the two reference similarities is considerably large.

このようにして、ステップS246では、2つの候補対象物に対応する2つの参考類似度が算出され、決定部340は、2つの参考類似度のうちの大きな参考類似度に対応する対象物Aを被写体として決定する。   In this way, in step S246, two reference similarities corresponding to the two candidate objects are calculated, and the determination unit 340 selects the object A corresponding to the large reference similarity of the two reference similarities. Determine as the subject.

なお、被写体の候補として3以上の候補対象物が選択される場合には、例えば、2つの候補対象物毎に重み付けが設定されればよい。例えば、3つの候補対象物A〜Cが選択された場合には、候補対象物A,B間の相違データに基づいて、第1の重み付けが設定される。そして、2つの候補対象物A,Bに対応する2つの参考類似度が算出され、一方の候補対象物(例えば候補対象物B)が被写体の候補として残る。次に、候補対象物B,C間の相違データに基づいて、第2の重み付けが指定される。そして、2つの候補対象物B,Cに対応する2つの参考類似度が算出され、一方の候補対象物が被写体として決定される。なお、候補対象物A〜Cの相違データが同じ相違点(例えば「花の形状」)を示す場合には、1種類の重み付けが設定されればよい。そして、3つの候補対象物A〜Cに対応する3つの参考類似度が算出され、いずれか1つの候補対象物が被写体として決定される。   When three or more candidate objects are selected as subject candidates, for example, weighting may be set for each of two candidate objects. For example, when three candidate objects A to C are selected, the first weight is set based on the difference data between the candidate objects A and B. Then, two reference similarities corresponding to the two candidate objects A and B are calculated, and one candidate object (for example, candidate object B) remains as a subject candidate. Next, the second weighting is designated based on the difference data between the candidate objects B and C. Then, two reference similarities corresponding to the two candidate objects B and C are calculated, and one candidate object is determined as a subject. When the difference data of the candidate objects A to C indicate the same difference (for example, “flower shape”), one type of weighting may be set. Then, three reference similarities corresponding to the three candidate objects A to C are calculated, and any one candidate object is determined as a subject.

以上説明したように、本実施例では、被写体の候補として複数の候補対象物が選択された場合に、相違データに応じて、重み付けが設定される。そして、重み付けの設定に従って、特徴データと複数の候補対象物に対応する複数の基準特徴データとを用いて、1つの対象物候補が被写体として決定される。このため、被写体を容易に特定することができると共に、被写体を正確に特定することができる。   As described above, in the present embodiment, when a plurality of candidate objects are selected as subject candidates, weighting is set according to the difference data. Then, according to the weighting setting, one object candidate is determined as a subject using the feature data and a plurality of reference feature data corresponding to the plurality of candidate objects. For this reason, the subject can be easily specified, and the subject can be accurately specified.

なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することが可能であり、例えば次のような変形も可能である。   In addition, this invention is not restricted to said Example and embodiment, In the range which does not deviate from the summary, it can be implemented in a various aspect, For example, the following deformation | transformation is also possible.

(1)上記実施例では、色に関する類似度は、2つの要素データを示す2つのベクトルI,Oの角距離(式(1))を用いて算出されているが、他の手法で算出されてもよい。例えば、2つの要素データ間の、より具体的には、2つのベクトルI,Oの終点間のユークリッド距離を用いて算出されてもよい。 (1) In the above-described embodiment, the color-related similarity is calculated using the angular distance (formula (1)) of the two vectors I and O indicating the two element data, but is calculated using another method. May be. For example, it may be calculated using the Euclidean distance between the two element data, more specifically, between the end points of the two vectors I and O.

また、上記実施例では、形状に関する要素データとして二値画像データが利用されているが、形状に関する要素データは、数値で表現されていてもよい。この場合には、色に関する類似度と同様に、角距離(式(1))を用いて類似度を算出可能である。   In the above embodiment, binary image data is used as element data relating to the shape. However, the element data relating to the shape may be expressed by a numerical value. In this case, the degree of similarity can be calculated using the angular distance (formula (1)) in the same manner as the degree of similarity regarding the color.

(2)第2ないし第4実施例では、図8に示すように、相違データは、相違点のみを含んでいるが、さらに、第1実施例(図3)と同様に、相違点の説明と相違点に関する各対象物の画像とを含んでいてもよい。そして、第1実施例と同様に、相違点の説明等を含む相違情報がユーザに提供されてもよい。この態様では、複数の候補対象物のうちのいずれかを被写体として決定する処理は、ユーザの選択に応じて、ユーザによって実行されてもよいし、画像処理部(決定部)によって実行されてもよい。 (2) In the second to fourth embodiments, as shown in FIG. 8, the difference data includes only the differences. Further, as in the first embodiment (FIG. 3), the differences are explained. And an image of each object related to the difference may be included. Similar to the first embodiment, difference information including a description of the difference may be provided to the user. In this aspect, the process of determining any of the plurality of candidate objects as the subject may be executed by the user or by the image processing unit (determination unit) according to the user's selection. Good.

また、第3実施例(図12)では、ステップS236において、対象画像から詳細特徴データが抽出されているが、第2実施例と同様に、対象画像内に表現された被写体と同一または同種の被写体の特定の部位が詳細に表現された参考画像から詳細特徴データが抽出されるようにしてもよい。   In the third example (FIG. 12), detailed feature data is extracted from the target image in step S236. However, as in the second example, the same or the same type as the subject expressed in the target image. Detailed feature data may be extracted from a reference image in which a specific part of the subject is expressed in detail.

一般には、被写体の候補として複数の候補対象物が選択された場合に、複数の候補対象物間の相違データを利用して、複数の候補対象物のうちのいずれかが被写体として決定されればよい。   In general, when a plurality of candidate objects are selected as subject candidates, if any one of the plurality of candidate objects is determined as a subject using difference data between the plurality of candidate objects. Good.

(3)上記実施例では、ステップS108において、特徴データと複数の対象物に対応する複数の基準特徴データとを利用して被写体の候補が選択されているが、ステップS108の処理に先行して、調査対象の対象物の数を低減させるための処理が実行されることが好ましい。 (3) In the above embodiment, in step S108, candidate candidates are selected using feature data and a plurality of reference feature data corresponding to a plurality of objects, but prior to the processing in step S108. It is preferable that processing for reducing the number of objects to be investigated is executed.

例えば、植物の花の開花時期は、限られている場合が多い。このため、対象画像データに撮影時の時刻(日時)を示す時刻情報が付加されている場合には、該時刻情報と詳細データに含まれる開花時期の情報とを利用して、調査対象の対象物の数を迅速に低減させることができる。具体的には、対象画像内に植物の花が表現されている場合に、対象画像データの時刻情報が各対象物の各詳細データに含まれる開花時期の情報と整合する場合には、ステップS108の調査対象の対象物として残され、整合しない場合には、ステップS108の調査対象から除外される。また、植物の棲息地も、限られている場合が多い。このため、対象画像データに撮影時の位置を示す位置情報(GPS情報)が付加されている場合には、該位置情報と詳細データに含まれる棲息地の情報とを利用して、調査対象の対象物の数を迅速に低減させることができる。具体的には、対象画像内に植物が表現されている場合に、対象画像データの位置情報が各対象物の各詳細データに含まれる棲息地の情報と整合する場合には、ステップS108の調査対象の対象物として残され、整合しない場合には、ステップS108の調査対象から除外される。   For example, the flowering time of plant flowers is often limited. For this reason, when time information indicating the time (date and time) at the time of shooting is added to the target image data, the target information to be investigated is obtained using the time information and information on the flowering time included in the detailed data. The number of objects can be quickly reduced. Specifically, when a plant flower is represented in the target image, if the time information of the target image data matches the information of the flowering time included in the detailed data of each target, step S108. If the object is not matched, it is excluded from the investigation target in step S108. In addition, the habitat of plants is often limited. For this reason, when position information (GPS information) indicating the position at the time of shooting is added to the target image data, the position information and the habitat information included in the detailed data are used to investigate The number of objects can be quickly reduced. Specifically, when the plant is represented in the target image, if the position information of the target image data matches the habitat information included in the detailed data of each target, the investigation in step S108 is performed. If it remains as a target object and does not match, it is excluded from the investigation target in step S108.

(4)上記実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えてもよい。 (4) In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware.

電子図鑑として機能する画像処理装置200を示す説明図である。It is explanatory drawing which shows the image processing apparatus 200 which functions as an electronic pictorial book. 1つの図鑑データベース252の内容を示す説明図である。It is explanatory drawing which shows the content of the one pictorial book database 252. FIG. 1つの相違データベース254の内容を示す説明図である。It is explanatory drawing which shows the content of one difference database. 画像処理部300の一連の処理手順を示すフローチャートである。5 is a flowchart showing a series of processing procedures of the image processing unit 300. 類似度の算出結果の例を示す説明図である。It is explanatory drawing which shows the example of the calculation result of similarity. ステップS212(図4)で表示される相違情報表示画面Wの一例を示す説明図である。It is explanatory drawing which shows an example of the difference information display screen W displayed by step S212 (FIG. 4). 第2実施例における画像処理装置200Bを示す説明図である。It is explanatory drawing which shows the image processing apparatus 200B in 2nd Example. 1つの相違データベース254Bの内容を示す説明図である。It is explanatory drawing which shows the content of one difference database 254B. 画像処理部300Bの一連の処理手順を示すフローチャートである。It is a flowchart which shows a series of processing procedures of the image process part 300B. 第3実施例における画像処理装置200Cを示す説明図である。It is explanatory drawing which shows 200 C of image processing apparatuses in 3rd Example. 1つの詳細図鑑データベース256の内容を示す説明図である。It is explanatory drawing which shows the content of the one detailed illustration book database 256. FIG. 画像処理部300Cの一連の処理手順を示すフローチャートである。It is a flowchart which shows a series of processing procedures of the image processing part 300C. 第4実施例における画像処理装置200Dを示す説明図である。It is explanatory drawing which shows image processing apparatus 200D in 4th Example. 画像処理部300Dの一連の処理手順を示すフローチャートである。It is a flowchart which shows a series of processing procedures of image processing part 300D. ステップS246(図14)で算出される参考類似度を示す説明図である。It is explanatory drawing which shows the reference similarity calculated by step S246 (FIG. 14).

符号の説明Explanation of symbols

200,B,C,D…画像処理装置(パーソナルコンピュータ)
210…CPU
220…内部記憶装置
250…外部記憶装置
252…図鑑データベース
254,B…相違データベース
256…詳細図鑑データベース
260…表示部
270…操作部
290…I/F部
300,B,C,D…画像処理部
302,B,C,D…被写体特定部
304…詳細情報提供部
312…特徴データ抽出部
314…候補選択部
316…相違情報提供部
320…決定部
322…参考画像指定指示部
324…参考特徴データ抽出部
330…決定部
332…相違データ取得部
334…詳細図鑑データベース選択部
336…詳細特徴データ抽出部
340…決定部
342…相違データ取得部
344…重み付け設定部
400…デジタルカメラ
200, B, C, D ... Image processing device (personal computer)
210 ... CPU
DESCRIPTION OF SYMBOLS 220 ... Internal storage device 250 ... External storage device 252 ... Picture book database 254, B ... Difference database 256 ... Detailed picture book database 260 ... Display part 270 ... Operation part 290 ... I / F part 300, B, C, D ... Image processing part 302, B, C, D ... Subject specifying unit 304 ... Detailed information providing unit 312 ... Feature data extracting unit 314 ... Candidate selection unit 316 ... Difference information providing unit 320 ... Determining unit 322 ... Reference image designation instruction unit 324 ... Reference feature data Extraction unit 330 ... determination unit 332 ... difference data acquisition unit 334 ... detailed picture book database selection unit 336 ... detailed feature data extraction unit 340 ... determination unit 342 ... difference data acquisition unit 344 ... weighting setting unit 400 ... digital camera

Claims (8)

画像処理装置であって、
複数の対象物に対応する複数の基準特徴データであって、前記各基準特徴データは対応する前記対象物の特徴を示す、前記複数の基準特徴データが格納された基準特徴データ格納部と、
前記基準特徴データ格納部に格納された前記複数の基準特徴データに対応する前記複数の対象物のうちの互いに類似する対象物間の相違点に関する相違データが格納された相違データ格納部と、
被写体が表現された対象画像から、前記被写体の特徴を示す特徴データを抽出する特徴データ抽出部と、
前記特徴データと前記複数の対象物に対応する前記複数の基準特徴データとを用いて、前記複数の対象物の中から、前記対象画像内に表現された前記被写体の候補としての候補対象物を選択する候補選択部と、
複数の前記候補対象物が選択された場合に、前記複数の候補対象物間の前記相違データによって示される相違情報をユーザに提供する相違情報提供部と、
を備えることを特徴とする画像処理装置。
An image processing apparatus,
A plurality of reference feature data corresponding to a plurality of objects, each reference feature data indicating a feature of the corresponding object, and a reference feature data storage unit storing the plurality of reference feature data;
Of the plurality of objects corresponding to the plurality of reference characteristic data stored in the reference feature data storage unit, a difference data storage unit different from data relating to differences between the objects is stored mutually similar,
A feature data extraction unit that extracts feature data indicating features of the subject from a target image in which the subject is represented;
Using the feature data and the plurality of reference feature data corresponding to the plurality of objects, a candidate object as a candidate for the subject expressed in the target image is selected from the plurality of objects. A candidate selector to select;
When a plurality of candidate objects are selected, a difference information providing unit that provides a user with difference information indicated by the difference data between the plurality of candidate objects;
An image processing apparatus comprising:
請求項1記載の画像処理装置であって、さらに、
前記複数の対象物に対応する複数の詳細データであって、前記各詳細データは対応する前記対象物の詳細情報を示す、前記複数の詳細データが格納された詳細データ格納部と、
前記ユーザによって前記複数の候補対象物のうちのいずれかが指定された場合に、前記指定された候補対象物に対応する前記詳細データによって示される前記詳細情報をユーザに提供する詳細情報提供部と、
を備える、画像処理装置。
The image processing apparatus according to claim 1, further comprising:
A plurality of detailed data corresponding to the plurality of objects, each detailed data indicating detailed information of the corresponding object, a detailed data storage unit storing the plurality of detailed data;
A detailed information providing unit that provides the user with the detailed information indicated by the detailed data corresponding to the designated candidate object when any of the plurality of candidate objects is designated by the user; ,
An image processing apparatus comprising:
画像処理装置であって、
複数の対象物に対応する複数の基準特徴データであって、前記各基準特徴データは対応する前記対象物の特徴を示す、前記複数の基準特徴データが格納された基準特徴データ格納部と、
前記基準特徴データ格納部に格納された前記複数の基準データに対応する前記複数の対象物のうちの互いに類似する対象物間の相違点に関する相違データが格納された相違データ格納部と、
対象画像内に表現された被写体が前記複数の対象物のうちのいずれであるかを特定するための被写体特定部と、
を備え、
前記被写体特定部は、
前記対象画像から、前記被写体の特徴を示す特徴データを抽出する特徴データ抽出部と、
前記特徴データと前記複数の対象物に対応する前記複数の基準特徴データとを用いて、前記複数の対象物の中から、前記対象画像内に表現された前記被写体の候補としての候補対象物を選択する候補選択部と、
複数の前記候補対象物が選択された場合に、前記複数の候補対象物間の前記相違データを利用して、前記複数の候補対象物のうちのいずれかを前記被写体として決定する決定部と、
を備えることを特徴とする画像処理装置。
An image processing apparatus,
A plurality of reference feature data corresponding to a plurality of objects, each reference feature data indicating a feature of the corresponding object, and a reference feature data storage unit storing the plurality of reference feature data;
Of the plurality of objects corresponding to the plurality of reference data stored in the reference feature data storage unit, a difference data storage unit different from data relating to differences between the objects is stored mutually similar,
A subject identifying unit for identifying which of the plurality of objects is the subject represented in the target image;
With
The subject specifying unit
A feature data extraction unit that extracts feature data indicating the characteristics of the subject from the target image;
Using the feature data and the plurality of reference feature data corresponding to the plurality of objects, a candidate object as a candidate for the subject expressed in the target image is selected from the plurality of objects. A candidate selector to select;
A determination unit configured to determine any one of the plurality of candidate objects as the subject using the difference data between the plurality of candidate objects when the plurality of candidate objects are selected;
An image processing apparatus comprising:
請求項3記載の画像処理装置であって、
前記決定部は、
前記複数の候補対象物間の前記相違データに応じて、前記ユーザに、前記対象画像内に表現された前記被写体と同一または同種の被写体の特定の部位が表現された参考画像を指定するように、指示する指示部と、
前記ユーザによって指定された前記参考画像から、前記被写体の前記特定の部位の特徴を示す参考特徴データを抽出する参考特徴データ抽出部と、
を備え、
前記決定部は、
前記参考特徴データと前記複数の候補対象物に対応する複数の前記基準特徴データとを用いて、前記複数の候補対象物のうちのいずれかを前記被写体として決定する、画像処理装置。
The image processing apparatus according to claim 3,
The determination unit
According to the difference data between the plurality of candidate objects, the user is designated a reference image in which a specific part of the same or same kind of subject as the subject represented in the target image is represented. An instruction unit for instructing;
A reference feature data extraction unit that extracts reference feature data indicating characteristics of the specific part of the subject from the reference image designated by the user;
With
The determination unit
An image processing apparatus that determines any one of the plurality of candidate objects as the subject using the reference feature data and the plurality of reference feature data corresponding to the plurality of candidate objects.
請求項3記載の画像処理装置であって、さらに、
前記複数の対象物に対応する複数の基準詳細特徴データであって、前記各基準詳細特徴データは対応する前記対象物の特定の部位の詳細な特徴を示す、前記複数の基準詳細特徴データが格納された基準詳細特徴データ格納部を備え、
前記決定部は、
前記複数の候補対象物間の前記相違データに基づいて、前記複数の候補対象物に対応する複数の前記基準詳細特徴データを選択する基準詳細特徴データ選択部と、
前記対象画像から、前記被写体の前記特定の部位の詳細な特徴を示す詳細特徴データを抽出する詳細特徴データ抽出部と、
を備え、
前記決定部は、
前記詳細特徴データと前記複数の候補対象物に対応する前記複数の基準詳細特徴データとを用いて、前記複数の候補対象物のうちのいずれかを前記被写体として決定する、画像処理装置。
The image processing apparatus according to claim 3, further comprising:
A plurality of reference detailed feature data corresponding to the plurality of objects, wherein each of the reference detail feature data stores a plurality of reference detailed feature data indicating detailed features of a specific part of the corresponding object. Provided with a detailed reference feature data storage unit,
The determination unit
A reference detail feature data selection unit that selects a plurality of reference detail feature data corresponding to the plurality of candidate objects based on the difference data between the plurality of candidate objects;
A detailed feature data extraction unit that extracts detailed feature data indicating detailed features of the specific part of the subject from the target image;
With
The determination unit
An image processing apparatus that determines any one of the plurality of candidate objects as the subject using the detailed feature data and the plurality of reference detailed feature data corresponding to the plurality of candidate objects.
請求項3記載の画像処理装置であって、
前記決定部は、
前記複数の候補対象物間の前記相違データに基づいて、前記複数の候補対象物のうちのいずれかを前記被写体として決定するための重み付けを設定する設定部を備え、
前記決定部は、
前記重み付けの設定に従って、前記特徴データと前記複数の候補対象物に対応する複数の前記基準特徴データとを用いて、前記複数の候補対象物のうちのいずれかを前記被写体として決定する、画像処理装置。
The image processing apparatus according to claim 3,
The determination unit
Based on the difference data between the plurality of candidate objects, comprising a setting unit for setting a weight for determining any of the plurality of candidate objects as the subject,
The determination unit
Image processing for determining any of the plurality of candidate objects as the subject using the feature data and the plurality of reference feature data corresponding to the plurality of candidate objects according to the weighting setting. apparatus.
請求項6記載の画像処理装置であって、
前記決定部は、
前記特徴データと前記複数の候補対象物に対応する複数の前記基準特徴データとを用いて、複数の類似度を算出し、前記複数の類似度のうちの最大の類似度に対応する前記候補対象物を前記被写体として決定し、
前記決定部は、
前記特徴データに含まれる複数の特徴要素に対応する複数の要素データと、前記基準特徴データに含まれる前記複数の特徴要素に対応する複数の基準要素データと、を用いて算出される複数の要素類似度に前記重み付けを施して前記各類似度を算出する、画像処理装置。
The image processing apparatus according to claim 6,
The determination unit
Using the feature data and the plurality of reference feature data corresponding to the plurality of candidate objects, a plurality of similarities are calculated, and the candidate object corresponding to the maximum similarity among the plurality of similarities Determine an object as the subject,
The determination unit
A plurality of elements calculated using a plurality of element data corresponding to a plurality of feature elements included in the feature data and a plurality of reference element data corresponding to the plurality of feature elements included in the reference feature data An image processing apparatus that calculates the respective similarities by applying the weights to similarities.
請求項3ないし7のいずれかに記載の画像処理装置であって、さらに、
前記複数の対象物に対応する複数の詳細データであって、前記各詳細データは対応する前記対象物の詳細情報を示す、前記複数の詳細データが格納された詳細データ格納部と、
前記決定部によって前記複数の候補対象物のうちのいずれかが前記被写体として決定された場合に、前記決定された対象物候補に対応する前記詳細データによって示される前記詳細情報をユーザに提供する詳細情報提供部と、
を備える、画像処理装置。
The image processing apparatus according to claim 3, further comprising:
A plurality of detailed data corresponding to the plurality of objects, each detailed data indicating detailed information of the corresponding object, a detailed data storage unit storing the plurality of detailed data;
Details that provide the user with the detailed information indicated by the detailed data corresponding to the determined object candidate when any of the plurality of candidate objects is determined as the subject by the determining unit An information provider,
An image processing apparatus comprising:
JP2005286589A 2005-09-30 2005-09-30 Identifying the subject expressed in the image Expired - Fee Related JP4735168B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005286589A JP4735168B2 (en) 2005-09-30 2005-09-30 Identifying the subject expressed in the image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005286589A JP4735168B2 (en) 2005-09-30 2005-09-30 Identifying the subject expressed in the image

Publications (3)

Publication Number Publication Date
JP2007094962A JP2007094962A (en) 2007-04-12
JP2007094962A5 JP2007094962A5 (en) 2008-10-23
JP4735168B2 true JP4735168B2 (en) 2011-07-27

Family

ID=37980572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005286589A Expired - Fee Related JP4735168B2 (en) 2005-09-30 2005-09-30 Identifying the subject expressed in the image

Country Status (1)

Country Link
JP (1) JP4735168B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012230544A (en) * 2011-04-26 2012-11-22 Casio Comput Co Ltd Image retrieval device and program
JP6051553B2 (en) * 2012-03-21 2016-12-27 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP2013250768A (en) * 2012-05-31 2013-12-12 Toshiba Tec Corp Article recognition device, and article recognition program
JP6048093B2 (en) 2012-11-28 2016-12-21 ブラザー工業株式会社 Control device and computer program
JP7383470B2 (en) * 2019-12-20 2023-11-20 エヌ・ティ・ティ・コミュニケーションズ株式会社 Information processing device, information processing method and program
JP7412575B2 (en) * 2020-08-26 2024-01-12 株式会社Nttドコモ information processing equipment

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024322A (en) * 2000-07-04 2002-01-25 Inax Corp System for deciding product number of equipment and material house, and system for diagnosing fault
JP2002230042A (en) * 2001-01-30 2002-08-16 Toyota Motor Corp Designing method and design supporting system
JP2003005888A (en) * 2001-04-24 2003-01-08 Internatl Business Mach Corp <Ibm> Keyboard whose constitution having variable key design can be changed
JP2003076717A (en) * 2001-09-04 2003-03-14 Nippon Telegr & Teleph Corp <Ntt> System and method for information retrieval, information retrieval program and recording medium
JP2003186888A (en) * 2001-12-20 2003-07-04 Just Syst Corp Parts information classifying apparatus, and parts information retrieval apparatus and server
JP2003288363A (en) * 2002-03-27 2003-10-10 Seiko Epson Corp Information providing device and information providing method
JP2004118359A (en) * 2002-09-24 2004-04-15 Toshiba Corp Figure recognizing device, figure recognizing method and passing controller
JP2004240909A (en) * 2003-02-10 2004-08-26 Hitachi High-Technologies Corp Image processor and image processing method
JP2005141437A (en) * 2003-11-05 2005-06-02 Toshiba Corp Pattern recognition device and method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3611601B2 (en) * 1994-09-01 2005-01-19 富士通株式会社 List processing system and method
JP3602596B2 (en) * 1995-02-22 2004-12-15 株式会社東芝 Document filing apparatus and method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024322A (en) * 2000-07-04 2002-01-25 Inax Corp System for deciding product number of equipment and material house, and system for diagnosing fault
JP2002230042A (en) * 2001-01-30 2002-08-16 Toyota Motor Corp Designing method and design supporting system
JP2003005888A (en) * 2001-04-24 2003-01-08 Internatl Business Mach Corp <Ibm> Keyboard whose constitution having variable key design can be changed
JP2003076717A (en) * 2001-09-04 2003-03-14 Nippon Telegr & Teleph Corp <Ntt> System and method for information retrieval, information retrieval program and recording medium
JP2003186888A (en) * 2001-12-20 2003-07-04 Just Syst Corp Parts information classifying apparatus, and parts information retrieval apparatus and server
JP2003288363A (en) * 2002-03-27 2003-10-10 Seiko Epson Corp Information providing device and information providing method
JP2004118359A (en) * 2002-09-24 2004-04-15 Toshiba Corp Figure recognizing device, figure recognizing method and passing controller
JP2004240909A (en) * 2003-02-10 2004-08-26 Hitachi High-Technologies Corp Image processor and image processing method
JP2005141437A (en) * 2003-11-05 2005-06-02 Toshiba Corp Pattern recognition device and method

Also Published As

Publication number Publication date
JP2007094962A (en) 2007-04-12

Similar Documents

Publication Publication Date Title
Roth et al. Predicting cover crop biomass by lightweight UAS-based RGB and NIR photography: an applied photogrammetric approach
JP4735168B2 (en) Identifying the subject expressed in the image
US8811734B2 (en) Color determination device, color determination system, color determination method, information recording medium, and program
US8891860B2 (en) Color name determination device, color name determination method, information recording medium, and program
US9342744B2 (en) Surveillance image retrieval apparatus and surveillance system
US6687416B2 (en) Method for determining a correlation between images using multi-element image descriptors
JP6612196B2 (en) Rock Strength Judging Device, Rock Strength Judging Method, and Rock Strength Judging Program
CN111462223B (en) Sentinel-2 image-based planting area identification method for soybeans and corns in Jianghuai region
JP2013164796A (en) Image processing device, image processing method and program
US20210142484A1 (en) Information processing apparatus, information processing method, and storage medium
JP2011103098A (en) Tree counting method and tree counting apparatus
JP7081536B2 (en) Measurement of growth parameters used for crop lodging risk diagnosis Recommended spot presentation method, lodging risk diagnosis method, and information providing device
JP2007226312A (en) Calculation for number of image where entity is expressed
US10685228B2 (en) Multiple day mapping index aggregation and comparison
Chen et al. Plant leaf segmentation for estimating phenotypic traits
CN107832771A (en) The medium of the system and record process meteorological data program of process meteorological data device and method including process meteorological data device
Del Ponte et al. Evaluation of app-embedded disease scales for aiding visual severity estimation of Cercospora leaf spot of table beet
CN114612804A (en) Vegetation detection method, device and equipment based on unmanned aerial vehicle remote sensing image
CN105229706B (en) Image processing apparatus, image processing method and program
Ball et al. Hyperspectral pixel unmixing via spectral band selection and DC-insensitive singular value decomposition
JP2012038256A (en) Satellite image search result display method
JP2007102307A (en) Specification for object expressed in image
JP5006839B2 (en) Trimming rule learning apparatus and method, and program
Margapuri et al. Fractional Vegetation Cover Estimation using Hough Lines and Linear Iterative Clustering
JP2006155595A (en) System and device for image processing

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080909

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110307

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110411

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees