JP6396353B2 - Determination apparatus and determination method - Google Patents
Determination apparatus and determination method Download PDFInfo
- Publication number
- JP6396353B2 JP6396353B2 JP2016054544A JP2016054544A JP6396353B2 JP 6396353 B2 JP6396353 B2 JP 6396353B2 JP 2016054544 A JP2016054544 A JP 2016054544A JP 2016054544 A JP2016054544 A JP 2016054544A JP 6396353 B2 JP6396353 B2 JP 6396353B2
- Authority
- JP
- Japan
- Prior art keywords
- images
- image
- determination
- partial
- relevance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 42
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 18
- 238000004458 analytical method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 9
- 239000013598 vector Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000000329 molecular dynamics simulation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009940 knitting Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Description
本発明は、判定装置、および判定方法に関する。 The present invention relates to a determination device and a determination method.
従来、入力された情報の解析結果に基づいて、入力された情報と関連する情報を検索もしくは生成し、検索もしくは生成した情報を応答として出力する技術が知られている。このような技術の一例として、生成したい画像の構成要素となる部分画像(下書き画像)の入力を受付けると、下書き画像のうち特徴を有する部分に類似する部分画像を検索して合成し、下書き画像データに対応した画像を生成して出力する技術が知られている。 2. Description of the Related Art Conventionally, a technique for searching or generating information related to input information based on an analysis result of input information and outputting the searched or generated information as a response is known. As an example of such a technique, when an input of a partial image (draft image) that is a component of an image to be generated is received, a partial image similar to a characteristic portion of the draft image is searched and synthesized, and the draft image A technique for generating and outputting an image corresponding to data is known.
しかしながら、従来技術では、下書き画像の各部分に類似する部分画像を個別に検索しているに過ぎないため、合成結果の精度が必ずしも良くない場合がある。 However, in the prior art, only partial images similar to each portion of the draft image are individually searched, and thus the accuracy of the synthesis result may not always be good.
本願は、上記に鑑みてなされたものであって、部分画像の検索精度を向上させることを目的とする。 The present application has been made in view of the above, and an object thereof is to improve the search accuracy of partial images.
本願に係る判定装置は、関連性の判定対象となる3つの画像であって、所定の画像のうちそれぞれ異なる部分を構成する画像を特徴量の距離空間上に対応付ける対応部と、前記3つの画像が有する関連性を、前記距離空間上に対応付けられた前記3つの画像により定義づけられる角度として判定する判定部とを有することを特徴とする。 The determination apparatus according to the present application includes three images that are objects of determination of relevance, each of which corresponds to a different part of a predetermined image on a metric distance space, and the three images. And a determination unit that determines an association defined by the three images associated with each other in the metric space.
実施形態の一態様によれば、部分画像の検索精度を向上させることができる。 According to one aspect of the embodiment, the search accuracy of partial images can be improved.
以下に、本願に係る判定装置、判定装置、および判定方法を実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る判定装置、および判定方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, a mode for carrying out a determination device, a determination device, and a determination method according to the present application (hereinafter referred to as “embodiment”) will be described in detail with reference to the drawings. Note that the determination device and the determination method according to the present application are not limited to the embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.
〔1.判定装置〕
まず、図1を用いて、実施形態に係る判定処理の一例について説明する。図1は、実施形態に係る判定処理の一例を示す図である。図1では、所定の学習データを用いて、画像が有する意味の関連性(以下、「画像間の関連性」と記載する場合がある。)を判定する判定処理の一例について説明する。また、以下の説明では、判定処理の結果に基づいて、画像間の関連性を学習するとともに、学習結果に基づいて、入力された画像と類似する画像を出力する処理の一例について説明する。
[1. Judgment device]
First, an example of the determination process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a determination process according to the embodiment. In FIG. 1, an example of a determination process for determining the relevance of meanings possessed by images (hereinafter sometimes referred to as “relevance between images”) using predetermined learning data will be described. In the following description, an example of processing for learning an association between images based on the result of the determination processing and outputting an image similar to the input image based on the learning result will be described.
判定装置10は、画像間の関連性を判定し、判定結果に基づく学習処理や判定処理を実行する装置である。例えば、判定装置10は、サーバ装置やクラウドシステム等により実現される。このような判定装置10は、画像間の関連性を判定する判定処理、判定処理の結果に基づいて画像間の関連性を学習する学習処理、及び判定結果に基づいて入力された画像と類似する画像等を出力する出力処理を実行する。
The
〔1−1.判定処理および学習処理〕
ここで、顔認識等の画像認識技術においては、入力された画像に撮像された顔が、予め登録されたどの人物の顔であるかを判定するため、入力された画像と予め登録された画像との関連性を判定する技術が用いられる。このような技術の手法の一つとして、ニューラルネットワークやディープラーニング等、判定対象となる画像の特徴を示す複数次元の数値、すなわち特徴量同士を距離で比較する距離空間に変換し、変換後の特徴量空間の配置を距離空間上(すなわち、特徴量空間上。以下同じ。)にマッピングすることで、画像間の関連性を判定する技術が知られている。
[1-1. (Judgment processing and learning processing)
Here, in an image recognition technique such as face recognition, in order to determine which person's face registered in advance in the input image is the face registered in the input image, the input image and the pre-registered image are determined. A technique for determining the relationship between the As one of the techniques of such a technique, a neural network, deep learning, etc., convert a multi-dimensional numerical value indicating the feature of the image to be judged, that is, a metric space that compares feature quantities by distance, A technique is known in which the relationship between images is determined by mapping the arrangement of the feature amount space on a metric space (that is, on the feature amount space; the same applies hereinafter).
例えば、このような特徴量の距離空間を用いた従来技術では、学習データとなる複数の画像を距離空間上にマッピングし、画像同士の類似性に基づいて、距離空間上における各画像間のコサイン距離(内積、又はコサイン類似度とも呼ばれる。)を調整することで、各画像間の関連性を学習する。そして、従来技術では、最終的に得られた各画像間のコサイン距離等に基づいて、各画像が類似する画像であるか否か判定する。すなわち、従来技術では、各画像間のコサイン距離に基づいて、画像間の関連性を判定する。 For example, in the conventional technique using a metric space of such feature amount, a plurality of images as learning data are mapped on the metric space, and cosines between the images on the metric space are based on the similarity between the images. The relationship between the images is learned by adjusting the distance (also called inner product or cosine similarity). In the prior art, it is determined whether or not the images are similar based on the cosine distance between the images finally obtained. That is, in the related art, the relevance between images is determined based on the cosine distance between the images.
しかしながら、画像間のコサイン距離に基づいて、各画像が類似する画像であるか否かを判定した場合、2つの画像間の類似度を判定することができるものの、3つの画像が有する関連性に基づいた判定を行うことができない。すなわち、従来技術においては、2つの画像間の関連性を判定しているに過ぎず、3つ以上の画像間の関連性を精度良く判定することができなかった。例えば、従来技術では、画像#1、画像#2、および画像#3が有する関連性を判定する際に、画像#1と画像#2との関連性や、画像#2と画像#3との関連性を判定しているに過ぎず、画像#1を中心とした画像#2および画像#3の関係等、3つの画像が全体として有する関連性を判定することができない。この結果、従来技術では、3つ以上の画像が有する関連性を距離空間上に反映させることができず、学習精度を向上させることができない。
However, if it is determined whether or not each image is a similar image based on the cosine distance between the images, the similarity between the two images can be determined, but the relevance of the three images It is not possible to make a determination based on this. That is, in the prior art, the relationship between two images is merely determined, and the relationship between three or more images cannot be accurately determined. For example, in the related art, when determining the relevance of the
例えば、顔認証等の技術では、顔の画像を目、鼻、唇、耳等、人の顔を構成する部分を撮像した部分画像に分割して学習するとともに、認証対象となる顔の画像から部分画像を生成し、生成した部分画像ごとに類似する部分画像を検索し、類似した部分画像を多く含む画像を認証対象の顔の画像として判定する。しかしながら、このような手法では、部分画像同士の類似性を判断しているに過ぎないため、全体として異なる人物の画像を認証対象の画像と判定してしまう恐れがある。例えば、従来技術では、利用者#1の目や鼻と利用者#2の目や鼻とが類似している場合、各利用者の目や鼻の位置関係が若干異なるとしても、利用者#1と利用者#2とを同一人物であると判定してしまう恐れがある。
For example, in a technique such as face authentication, a face image is divided into a partial image obtained by capturing a part of a human face, such as eyes, nose, lips, and ears, and is learned from the face image to be authenticated. A partial image is generated, a similar partial image is searched for each generated partial image, and an image including many similar partial images is determined as a face image to be authenticated. However, in such a method, since the similarity between the partial images is merely determined, there is a possibility that an image of a person who is different as a whole is determined as an image to be authenticated. For example, in the conventional technology, when the eyes and nose of the
そこで、判定装置10は、以下の判定処理を実行する。まず、判定装置10は、学習データとして、複数の画像C10を取得し、取得した各画像C10から、複数の部分画像C20を抽出する(ステップS1)。例えば、判定装置10は、人の顔等を撮像した複数の画像C10を学習データとして取得すると、取得した各画像C10から、目、鼻、口等の各部分が撮像された範囲を部分画像C20として抽出する。
Therefore, the
そして、判定装置10は、部分画像C20間の関連性を、距離空間上の距離および角度に落とし込んで判定する(ステップS2)。ここで、部分画像C20間の関連性とは、部分画像C20同士の類似性のみならず、各部分画像C20が同一の画像C10から抽出された部分画像C20であるか否か、各部分画像C20が同一の画像C10内において近い位置の画像であるか等の指標である。そして、判定装置10は、2画像間のコサイン距離、3画像間の角度、および4画像間の二面角をパラメータとすることで、部分画像間の関連性を学習したモデルを生成する学習処理を実行する。すなわち、判定装置10は、ステップS2に示した判定処理による判定結果に基づいて、部分画像間の関連性を判定するための学習器の学習を行う。
Then, the
例えば、判定装置10は、2つの部分画像(以下「2画像」と記載する。)の間の共起性、すなわち、類似度をコサイン距離として判定する(ステップS3)。具体的な例を挙げると、判定装置10は、部分画像#1と部分画像#2とを距離空間上の配置に変換する。そして、判定装置10は、部分画像#1と部分画像#2とが有する各画素の色彩や配置等が類似する場合には、コサイン距離の値が大きくなるように、部分画像#1の距離空間上の配置と部分画像#2の距離空間上の配置とを調整する。例えば、判定装置10は、部分画像#1と部分画像#2とが、鼻や目などの同じ部位の画像である場合や、画像として類似する場合には、コサイン距離の値が大きくなるように、距離空間上の配置を調整する。すなわち、判定装置10は、距離空間上のコサイン距離をパラメータとして、2画像間の関連性を学習する。
For example, the
また、判定装置10は、3つの部分画像(以下「3画像」と記載する。)の間の関連性を、距離空間において、3画像の中から選択された1つの部分画像(以下、「基準画像」と記載する。)を中心とする角度として判定する(ステップS4)。具体的には、判定装置10は、距離空間上にマッピングされた3画像によって定義づけられる角度として、3画像が有する関連性を判定する。例えば、判定装置10は、3画像のうちいずれか1つの画像を基準画像として選択する。また、判定装置10は、距離空間上において、基準画像を中心(頂点)とする他の2つの部分画像間の角度を算出する。例えば、判定装置10は、部分画像#1、部分画像#2、部分画像#3の関連性を判定する場合、距離空間上において部分画像#1を頂点とし、部分画像#2と部分画像#3との間の角度θを、部分画像#1〜#3の関連性を示す情報として判定する。そして、判定装置10は、部分画像#1〜#3の元となる画像C10内において、部分画像#1〜#3を抽出した位置の近さ等に応じて、算出した角度θを調整する。例えば、判定装置10は、部分画像#1〜#3が、同じ画像C10から抽出された部分画像C20である場合や、同じ画像C10中において、近い位置から抽出された部分画像C20である場合には、角度θの値が小さくなるように、各部分画像#1〜#3の距離空間上の配置を調整する。すなわち、判定装置10は、距離空間上で3画像により生じる角度θをパラメータとして、3画像間の関連性を学習する。
Further, the
また、判定装置10は、4つの部分画像(以下、「4画像」と記載する。)の間の関連性を、距離空間において、基準となる2つの部分画像を交線とする二面角として判定する(ステップS5)。具体的には、判定装置10は、距離空間上にマッピングされた4画像によって定義づけられる二面角として、4画像間の関連性を判定する。例えば、判定装置10は、4画像のうちいずれか2つを基準画像として選択する。そして、判定装置10は、選択した2つの基準画像を含む線を交線とする2つの面であって、基準画像以外の画像のうちそれぞれ異なる画像を含む面が有する角度φを算出する。例えば、判定装置10は、部分画像#1〜#4の関連性を判定する場合、部分画像#1および部分画像#2を基準画像として選択する。なお、判定装置10は、任意の部分画像を基準画像として選択してよい。そして、判定装置10は、基準画像である部分画像#1および部分画像#2に加え、部分画像#3を含む距離空間上の平面と、基準画像である部分画像#1および部分画像#2に加え、部分画像#4を含む距離空間上の平面との間の角度φを部分画像#1〜#4の関連性を示す情報として判定する。そして、判定装置10は、画像C10内において、各4画像を抽出した位置の近さ等に応じて、算出した角度φを調整する。例えば、判定装置10は、部分画像#1〜#4が、同じ画像C10から抽出された部分画像C20である場合や、同じ画像C10中において、近い位置から抽出された部分画像C20である場合には、二面角φの値が小さくなるように、各部分画像#1〜#4の距離空間上の配置を調整する。すなわち、判定装置10は、距離空間上で4画像により生じる角度φをパラメータとして、4画像間の関連性を学習する。
In addition, the
このように、判定装置10は、学習データである画像C10から抽出される各画像から、2画像の組、3画像の組、及び4画像の組を生成し、生成した各組について、2画像間のコサイン距離、3画像間の角度、および4画像間の二面角をパラメータとして算出する。そして、判定装置10は、算出した各パラメータを、2画像間の関連性、3画像間の関連性、および4画像間の関連性として、学習データに基づいて調整することで、各部分画像C20の間の関連性を学習した学習器を生成する(ステップS6)。
As described above, the
なお、判定装置10は、部分画像間の関連性を学習した学習器として、任意の態様の学習器を生成してよい。例えば、判定装置10は、複数の中間層を有するニューラルネットワーク等を用いて(いわゆるディープラーニングと呼ばれる技術を用いて)、各画像間の関連性を学習してもよい。
Note that the
なお、例えば、判定装置10は、4画像間の二面角をパラメータとして学習するとともに、4画像に含まれる3画像間の角度をパラメータとして学習してもよい。また、判定装置10は、重複する画像について角度や二面角を判定してもよい。例えば、判定装置10は、部分画像#1を頂点とした部分画像#2と部分画像#3との間の角度と部分画像#2と頂点とした部分画像#1と部分画像#3の間の角度とを両方ともにパラメータにしてもよい。また、例えば、判定装置10は、部分画像#1〜#3を含む平面と、部分画像#2〜#4を含む平面との間の角度を算出するとともに、部分画像#1、部分画像#2、部分画像#4を含む平面と、部分画像#1、部分画像#3、部分画像#4を含む編面との角度を算出し、両角度をパラメータにしてもよい。すなわち、判定装置10は、上述した処理を適宜組み合わせた学習を行ってもよい。
For example, the
〔1−2.出力処理〕
次に、判定装置10が判定結果に基づいて実行する出力処理について説明する。まず、判定装置10は、利用者U01が使用する端末装置100から、判定対象データを受付ける(ステップS7)。例えば、判定装置10は、判定対象データとして画像C40を受付ける。このような場合、判定装置10は、学習済みの2画像間のコサイン距離、3画像間の角度、4画像間の二面角をパラメータとして、判定対象データである画像C40と類似する画像を判定する。より具体的には、判定装置10は、画像C40から複数の部分画像を抽出し、画像C40から抽出した各部分画像と、学習した部分画像C20との間の類似性を距離空間上で判定する。例えば、判定装置10は、2画像間のコサイン距離、3画像間の角度、4画像間の二面角をパラメータとして、各画像をマッピングした距離空間を用いて、画像C40から抽出した各部分画像と類似する部分画像C20を判定する(ステップS8)。そして、判定装置10は、検索の結果得られた部分画像C20の抽出元となる画像C10を検索結果として出力する(ステップS9)。例えば、判定装置10は、判定の結果得られた部分画像C20が画像C10から抽出された部分画像C20である場合には、画像C10を検索結果として出力する。
[1-2. Output processing)
Next, output processing executed by the
より具体的な例を挙げると、判定装置10は、学習データとして、人の顔が撮像された画像C10を受付けると、画像C10から鼻、目、唇等の部分画像を抽出し、距離空間上で関連性を学習する。一方、判定装置10は、判定対象データとして、人の顔zが撮像された画像C40を受付けると、画像C40から鼻、目、唇等の部分画像を抽出し、距離空間上に落とし込むことで、画像C40から抽出した部分画像群と類似する関連性を有する部分画像群を検索する。そして、判定装置10は、検索結果得られる部分画像群が、同一の画像C10から抽出された画像である場合には、画像C10に撮像された人物が、画像C40に撮像された人物であるとして、画像C10や、画像C10に移る人物の情報等を検索結果として出力する。
As a more specific example, when the
なお、判定装置10は、判定結果に基づく処理であれば、任意の処理を出力処理として実行してもよい。例えば、判定装置10は、検索の結果得られた部分画像C20を合成した画像を検索結果として出力してもよい。また、判定装置10は、端末装置100から判定対象データとして3つの部分画像を受付けた場合には、距離空間上において、判定対象データとして受付けた3つの部分画像により定義づけられる角度θを算出する。そして、判定装置10は、算出した角度の値に基づいて、判定対象データとして受付けた3つの部分画像が関連性を有するか否か、どのような関連性を有するか等を示す情報を判定結果として出力してもよい。同様に、判定装置10は、端末装置100から判定対象データとして4つの部分画像を受付けた場合には、距離空間上において、判定対象データとして受付けた4つの部分画像により定義づけられる二面角φを算出する。そして、判定装置10は、算出した角度φの値に基づいて、判定対象データとして受付けた4つの部分画像が関連性を有するか否か、どのような関連性を有するか等を示す情報を判定結果として出力してもよい。
Note that the
〔2.判定装置の構成〕
次に、上述した実施形態にかかる判定装置10の構成について説明する。図2は、実施形態に係る判定装置が有する機能構成の一例を示す図である。図2に示すように、判定装置10は、通信部20、記憶部30、および制御部40を有する。通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、端末装置100や、データサーバ50の間で情報の送受信を行う。なお、データサーバ50は、人物の顔写真等といった学習データとなる画像を管理する情報処理装置であり、サーバ装置やクラウドシステム等により実現される。
[2. (Configuration of judgment device)
Next, the configuration of the
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、学習データデータベース31、画像データベース32、およびモデルデータベース33(以下「各データベース31〜33」と総称する場合がある。)を有する。
The
学習データデータベース31には、学習データとして用いられる学習データが登録される。例えば、学習データデータベース31には、データサーバ50から学習データとして取得された複数の画像C10や、各画像C10から抽出された複数の部分画像C20等を含むデータが登録されている。
In the learning
画像データベース32には、学習データデータベース31に登録された学習データのうち、部分画像C20を組み合わせた2画像の組、3画像の組、および4画像の組が登録されている。例えば、図3は、実施形態に係る画像データベースに登録される情報の一例を示す図である。例えば、図3に示す例では、画像データベース32には、「組種別」、「画像#1」〜「画像#4」といった項目を有する情報が登録されている。
Among the learning data registered in the learning
ここで、「組種別」とは、対応付けられた部分画像の数を示す情報である。例えば、画像データベース32には、組種別「2画像」に対し、2つの異なる部分画像を対応付けた情報が対応付けて登録され、組種別「3画像」に対し、3つの異なる部分画像を対応付けた情報が対応付けて登録されている。また、画像データベース32には、組種別「4画像」に対し、4つの異なる部分画像を対応付けた情報が対応付けて登録されている。なお、図3に示す例では、学習データから抽出された画像として、「部分画像#1」等といった抽象的な値を記載したが、実施形態は、これに限定されるものではない。すなわち、画像データベース32には、学習データに含まれる画像C10から抽出された任意の部分画像C20が登録されているものとする。
Here, the “set type” is information indicating the number of associated partial images. For example, in the
図2に戻り、説明を続ける。モデルデータベース33には、判定処理の結果である判定結果に基づいて学習されたモデルのデータが登録される。例えば、モデルデータベース33には、部分画像C20の間の関係に基づいて、各部分画像C20を距離空間上にマッピングしたモデル等が登録される。なお、モデルデータベース33には、所謂ディープラーニング等に用いられる複数の中間層を有するニューラルネットワークのデータが登録されていてもよい。
Returning to FIG. 2, the description will be continued. In the
制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、判定装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
The
図2に示すように、制御部40は、取得部41、解析部42、対応部43、判定部44、学習部45、および提供部46を有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部40の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
As shown in FIG. 2, the
取得部41は、学習データである画像C10を取得する。例えば、取得部41は、データサーバ50等から学習データとして複数の画像C10を取得する。そして、取得部41は、取得した画像C10を学習データデータベース31に登録する。なお、取得部41は、データサーバ50以外にも、例えば、ウェブ上に存在する任意の画像C10を学習データとして収集し、収集した画像C10を学習データデータベース31に登録してもよい。また、取得部41は、利用者U01が使用する端末装置100等から、学習用の画像C10を取得し、取得した画像C10を学習データデータベース31に登録してもよい。
The
解析部42は、学習データデータベース31に登録された画像C10の解析を行い、判定対象となる部分画像C20を抽出する。例えば、解析部42は、学習データデータベース31から画像C10を読み出すと、任意の画像認識手段を用いて、画像C10内に撮像された撮像対象の各部分が撮像された領域を特定する。例えば、解析部42は、撮像対象が人物である場合は、撮像された顔、目、鼻、口、耳、手、足、体等、任意の粒度で、撮像対象の各部分が撮像された領域を特定する。そして、解析部42は、画像C10のうち、特定した各領域に含まれる部分を部分画像C20として抽出する。
The
また、解析部42は、抽出した部分画像C20から2つの部分画像C20の組である2画像と、3つの部分画像C20の組である3画像と、4つの部分画像C20の組である4画像とを生成する。例えば、解析部42は、抽出した画像を総当たり的に組み合わせることで、2画像、3画像および4画像を生成し、生成した2画像、3画像および4画像を画像データベース32に登録する。
The
対応部43は、関連性の判定対象となる2画像、3画像および4画像を距離空間上に対応付ける。また、判定部44は、画像間の関連性を、距離空間上におけるコサイン距離、3画像により定義づけられる角度、および4画像により定義づけられる二面角として判定する。そして、学習部45は、判定部44による判定結果に基づいて、複数の部分画像C20が有する関連性を学習するモデルを生成し、生成したモデルをモデルデータベース33に登録する。
The
例えば、対応部43は、画像データベース32に登録された各部分画像C20を距離空間上の配置に変換する。続いて、判定部44は、画像データベース32に登録された各2画像について、以下の処理を実行する。まず、判定部44は、判定対象となる2画像の距離空間上におけるコサイン距離を、2画像が有する関連性のパラメータとして算出する。また、判定部44は、判定対象となる2画像の各画素の色彩や、撮像対象の輪郭の形状等、画像間の類似性を、2画像が有する関連性の指標として取得する。そして、学習部45は、判定部44が算出したコサイン距離を、2画像が有する関連性のパラメータとし、判定部44が取得した指標に従って、判定対象となる2画像の距離空間上の配置を調整する。例えば、学習部45は、判定対象となる2画像が類似する場合は、コサイン距離の値がより大きくなるように、2画像の距離空間上の配置を調整する。
For example, the corresponding
すなわち、判定部44は、2画像間の関連性を、距離空間上におけるコサイン距離として判定する。そして、学習部45は、判定結果に基づいて、判定対象となる2画像間の距離空間上の配置を学習する。このような調整を画像データベース32に登録された各2画像について実行することで、判定装置10は、各2画像間の関連性をコサイン距離に落とし込んだ、各画像の距離空間上の配置を取得することができる。なお、このようなコサイン距離を用いた学習手法については、距離空間上の配置を用いた画像検索技術等、公知の技術を適用可能であるものとする。
That is, the determination unit 44 determines the relationship between the two images as a cosine distance in the metric space. Then, the learning unit 45 learns the arrangement in the distance space between the two images to be determined based on the determination result. By executing such adjustment for each of the two images registered in the
また、判定部44は、3画像間の関連性および4画像間の関連性を距離空間上の角度や二面角に落とし込むことで、より精度の高い部分画像間の関連性を含む距離空間上の配置を取得する。例えば、判定部44は、判定対象となる3画像により定義づけられる距離空間上の角度を、3画像が有する関連性のパラメータとして算出する。より具体的には、判定部44は、判定対象となる3画像のうちいずれか1つの部分画像を基準画像として選択し、基準画像を頂点とした、他の2つの部分画像間の距離空間上における角度を算出する。また、判定部44は、判定対象となる3画像が同じ画像C10に含まれるか否か、同じ画像C10内において3画像が含まれる位置の近さや配置関係、各3画像が被写体の同じ部位を撮像した画像であるか否か等を、3画像が有する関連性の指標として取得する。そして、学習部45は、3画像が有する関連性のパラメータとして判定部44が算出した角度をパラメータとし、判定部44が学習データから取得した指標に従って、判定対象となる3画像の距離空間上の配置を調整する。例えば、学習部45は、判定対象となる3画像が同一の画像C10から抽出された部分画像C20であったり、画像C10内において近い位置から抽出された部分画像C20であるならば、角度θの値がより小さくなるように、3画像の距離空間上の配置を調整する。 In addition, the determination unit 44 reduces the relevance between the three images and the relevance between the four images to an angle or dihedral angle on the metric space, thereby including a more accurate relationship between the partial images on the metric space. Get the placement of. For example, the determination unit 44 calculates an angle in the metric space defined by the three images to be determined as a relevance parameter of the three images. More specifically, the determination unit 44 selects any one of the three images to be determined as a reference image as a reference image, and uses the reference image as a vertex in the distance space between the other two partial images. The angle at is calculated. In addition, the determination unit 44 determines whether the three images to be determined are included in the same image C10, the proximity of the positions where the three images are included in the same image C10, the arrangement relationship, and the three images each indicating the same part of the subject. Whether or not the image is a captured image is acquired as an index of relevance of the three images. Then, the learning unit 45 uses the angle calculated by the determination unit 44 as a parameter of the relevance of the three images as a parameter, and in the distance space of the three images to be determined according to the index acquired from the learning data by the determination unit 44 Adjust the placement. For example, the learning unit 45 determines the angle θ if the three images to be determined are the partial image C20 extracted from the same image C10 or the partial image C20 extracted from a close position in the image C10. The arrangement of the three images in the metric space is adjusted so that the value becomes smaller.
また、例えば、判定部44は、判定対象となる4画像により定義づけられる距離空間上の二面角の角度を、4画像が有する関連性のパラメータとして算出する。より具体的には、判定部44は、判定対象となる4画像のうちいずれか2つの部分画像を基準画像として選択する。そして、判定部44は、距離空間上において、基準画像として選択した2つの画像を含む線を交線とする2つの面であって、判定対象となる4画像のうち基準画像以外の部分画像を含む2つの面が有する角度を算出する。例えば、判定部44は、4画像に含まれる部分画像#1〜#4のうち、基準画像として部分画像#1、部分画像#2を選択した場合には、部分画像#1〜#3を含む距離空間上の面と、部分画像#1、部分画像#2、および部分画像#4を含む距離空間上の面との間の角度、すなわち、二面角の角度φを算出する。
For example, the determination unit 44 calculates the dihedral angle on the metric space defined by the four images to be determined as the relevance parameter of the four images. More specifically, the determination unit 44 selects any two partial images from among the four images to be determined as reference images. Then, the determination unit 44 is a two-plane crossing line including the two images selected as the reference image in the metric space, and the partial images other than the reference image among the four images to be determined The angle of the two surfaces that are included is calculated. For example, the determination unit 44 includes the
また、判定部44は、3画像と同様に、4画像が同じ画像C10から抽出された部分画像でC20であるか否か、同じ画像C10内において4画像が含まれる位置の近さや配置関係、4画像が被写体の同じ部位を撮像した画像であるか否か等を4画像が有する関連性の指標として取得する。そして、学習部45は、4画像が有する関連性のパラメータとして算出した二面角の角度φをパラメータとし、判定部44が取得した指標に従って、判定対象となる4画像の距離空間上の配置を調整する。例えば、学習部45は、判定対象となる4画像が同一の画像C10から抽出された部分画像C20であったり、画像C10内において近い位置から抽出された部分画像C20であるならば、二面角の角度の値がより小さくなるように、4画像の距離空間上の配置を調整する。 Also, the determination unit 44 determines whether or not the four images are C20 in the partial image extracted from the same image C10, whether the four images are included in the same image C10, or the positional relationship, Whether or not the four images are images of the same part of the subject is acquired as an index of relevance of the four images. Then, the learning unit 45 uses the dihedral angle φ calculated as the relevance parameter of the four images as a parameter, and arranges the arrangement of the four images to be determined in the distance space according to the index acquired by the determination unit 44. adjust. For example, if the four images to be determined are the partial images C20 extracted from the same image C10 or the partial images C20 extracted from a close position in the image C10, the learning unit 45 has a dihedral angle. The arrangement of the four images in the metric space is adjusted so that the angle value becomes smaller.
なお、上述した説明では、2画像間の関連性、3画像間の関連性、および4画像間の関連性をそれぞれ独立に学習するように記載したが、実施形態は、これに限定されるものではない。すなわち、学習部45は、コサイン距離を2画像間の関連性を示すパラメータとし、距離空間上の角度を3画像間の関連性を示すパラメータとし、距離空間上の二面角の角度を4画像間の関連性を示すパラメータとし、各パラメータの値に学習データから取得された指標が反映されるように、各画像の距離空間上の配置を調整すればよい。 In the above description, the relationship between the two images is described so as to learn independently the relationship between the three images, and the relationship between the four images. However, the embodiment is limited to this. is not. That is, the learning unit 45 sets the cosine distance as a parameter indicating the relationship between two images, sets the angle in the metric space as a parameter indicating the relationship between the three images, and sets the angle of the dihedral angle in the metric space as four images. It is only necessary to adjust the arrangement of each image in the metric space so that the index obtained from the learning data is reflected in the value of each parameter.
なお、判定部44は、判定対象とした4画像に含まれる3つの部分画像C20が有する関連性を、距離空間上におけるその3つの部分画像C20により定義づけられる角度として判定してもよい。すなわち、判定部44は、抽出した部分画像C20から総当たり的に抽出された2画像、3画像、および4画像のそれぞれの関連性を、コサイン距離、角度、および二面角の角度として判定してもよい。 Note that the determination unit 44 may determine the relevance of the three partial images C20 included in the four images to be determined as an angle defined by the three partial images C20 in the metric space. That is, the determination unit 44 determines the relevance of each of the two images, the three images, and the four images that are omnidirectionally extracted from the extracted partial image C20 as a cosine distance, an angle, and a dihedral angle. May be.
このように、判定部44は、3画像間の関連性を、距離空間上において3つの画像により定義づけられる角度として判定する。また、判定部44は、4画像間の関連性を、距離空間上において4つの画像により定義づけられる二面角の角度として判定する。このように、判定装置10は、2画像間の関連性のみならず、3画像間および4画像間の関連性をパラメータとして有するので、画像間の関連性をより精度良く反映させた距離空間を得ることができる。
Thus, the determination unit 44 determines the relationship between the three images as an angle defined by the three images in the metric space. The determination unit 44 determines the relationship between the four images as a dihedral angle defined by the four images in the metric space. Thus, since the
提供部46は、判定結果を用いて学習された距離空間を用いて、利用者U01に対する各種のサービスを提供する。例えば、提供部46は、判定対象データを端末装置100から受付けると、モデルデータベース33に登録されたモデル、すなわち、学習部45によって学習されたモデルを読出し、読み出したモデルを用いて、判定対象データに基づき、利用者U01に対して提供する情報を生成する。例えば、提供部46は、モデルデータベース33に登録されたモデルを用いて、判定対象データとして受付けた画像C40から部分画像を抽出し、抽出した各部分画像の距離空間上の配置と類似する距離空間上の配置を距離空間上から選択する。そして、提供部46は、選択した距離空間上の配置の元となる部分画像C20を選択し、選択した部分画像C20を含む画像を検索結果として利用者U01に提供する。すなわち、提供部46は、2画像間のコサイン距離、3画像間の角度、および4画像間の二面角をパラメータとして、判定対象データとして受付けた画像と類似する画像を選択する。そして、提供部46は、選択した画像を利用者U01に対して提供する。
The providing
〔3.算出手法の一例〕
次に、数式を用いて、判定装置10が、各種パラメータとして用いる情報を算出する処理の一例について説明する。なお、以下に示す例では、3画像間および4画像間の関連性を、分子動力学のシミュレーション手法を応用した数式を用いて実現する例について記載したが、実施形態は、これに限定されるものではない。
[3. Example of calculation method)
Next, an example of processing in which the
まず、2画像のコサイン類似度を算出する処理の一例について説明する。例えば、距離空間上にマッピングした部分画像#1をq、部分画像#2をdとした場合、部分画像#1と部分画像#2とのコサイン類似度は、以下の式(1)で示すことができる。なお、距離空間上においては、qおよびdは、多次元量(すなわち、ベクトル)である。式(1)では、ベクトルとなるqおよびdを、上付き矢印を付したqおよびdで表した。
First, an example of processing for calculating the cosine similarity of two images will be described. For example, when the
ここで、部分画像#1と部分画像#2とが類似する画像であるならば、距離空間上における部分画像#1と部分画像#2とのコサイン類似度の値は増加することが考えられる。そこで、判定装置10は、式(1)で示されるコサイン類似度の値をパラメータとして、部分画像間の関連性を距離空間上の配置上に落とし込む。例えば、判定装置10は、部分画像#1と部分画像#2との間のコサイン類似度と、部分画像#1と部分画像#3との間のコサイン類似度とを算出する。そして、判定装置10は、部分画像#1と部分画像#2との類似性が、部分画像#1と部分画像#3との類似性よりも高いと判定される場合には、部分画像#1と部分画像#2との間のコサイン類似度の値が、部分画像#1と部分画像#3との間のコサイン類似度の値よりも大きくなるように、各部分画像#1〜#3の距離空間上の配置を調整する。
Here, if the
次に、3画像間の角度を算出する処理の一例について説明する。例えば、部分画像#1の距離空間上の配置を「i」、部分画像#2の距離空間上の配置を「j」、部分画像#3の距離空間上の配置を「k」とし、部分画像#2を中心として部分画像#1および部分画像#3との間の角度を「θijk」とする。このような場合、「θijk」の余弦である「cosθijk」は、以下の式(2)で示すことができる。ここで、式(2)の右辺の分母に示す太字の「rij」は、「i」から「j」までのベクトルを示し、太字の「rkj」は、「k」から「j」までのベクトルを示す。また、式(2)の右辺の分子に示す「rij」は、「i」から「j」までの2つのベクトル間の距離を示し、「rjk」は、「j」から「k」までの2つのベクトル間の距離を示す。
Next, an example of processing for calculating an angle between three images will be described. For example, the arrangement of the
このため、判定装置10は、式(2)で示される「θijk」の余弦を算出し、算出した値を逆三角関数(arccos)により算出することができる。
For this reason, the
判定装置10は、逆三角関数を用いて、式(2)の値から距離空間上における部分画像#1〜#3の間の角度θを算出する。また、判定装置10は、式(2)を用いて、距離空間上における部分画像#1、部分画像#2、および部分画像#4の間の角度を算出する。そして、判定装置10は、部分画像#1〜#3の間の関連性と、部分画像#1、部分画像#2、および部分画像#4の間の関連性を比較し、部分画像#1〜#3の間の関連性がより高い場合には、距離空間上における部分画像#1〜#3の間の角度θを、距離空間上における部分画像#1、部分画像#2、および部分画像#4の間の角度θよりも小さくなるように、各部分画像#1〜#4の距離空間上の配置を調整する。
The
次に、4画像間の二面角の角度を算出する処理の一例について説明する。例えば、部分画像#1の距離空間上の配置を「i」、部分画像#2の距離空間上の配置距離空間上の配置を「j」、部分画像#3の距離空間上の配置を「k」、部分画像#4の距離空間上の配置を「l」とする。ここで、部分画像#2と部分画像#3とを基準画像として選択すると、二面角の角度「φ」は、「i」、「j」、および「k」を含む面と、「l」、「j」、および「k」を含む面との間の角度で表すことができる。
Next, an example of processing for calculating the dihedral angle between four images will be described. For example, the arrangement of the
ここで、「i」、「j」、および「k」を含む面の法線を太字の「n1」、「l」、「j」、および「k」を含む面の法線を太字の「n2」とすると、太字の「n1」および太字の「n2」は、以下の式(3)で示すことができる。ここで、太字の「rij」は、「i」から「j」までのベクトル、太字の「rkj」は、「k」から「j」までのベクトル、太字の「rkl」は、「k」から「l」までのベクトルを示す。 Here, the normal of the surface including “i”, “j”, and “k” is bold, and the normal of the surface including “n 1 ”, “l”, “j”, and “k” is bold Assuming that “n 2 ”, bold “n 1 ” and bold “n 2 ” can be expressed by the following equation (3). Here, the bold “r ij ” is a vector from “i” to “j”, the bold “r kj ” is a vector from “k” to “j”, and the bold “r kl ” is “ k "to" l ".
すると、部分画像#1〜#4によって定義づけられる二面角の角度を「φ」とすると、「φ」の余弦である「cosφ」は、以下の式(4)で示すことができる。ここで、「n1」および「n2」は、太字の「n1」および「n2」のノルムである。
Then, if the angle of the dihedral angle defined by the
このため、−π<φ≦πの範囲でφの値を求めると、式(5)で表すことができる。判定装置10は、このような式(5)に示す角度φを各部分画像#1〜#4間の関連性を示すパラメータとして、各部分画像#1〜#4の距離空間上の配置を調整すればよい。
For this reason, when the value of φ is obtained in the range of −π <φ ≦ π, it can be expressed by the equation (5). The
なお、判定装置10は、分子ポテンシャル計算の手法に基づいて、距離空間上における画像間のエネルギーを算出し、算出したエネルギーをパラメータとして学習してもよい。例えば、上述した式(1)〜式(5)によって各画像間のコサイン距離、角度、および二面角の角度が定義づけられる場合、各部分画像間のエネルギーは、以下の式で表すことができる。例えば、部分画像#1、部分画像#2、部分画像#3間のエネルギー「V1,2,3 angle」は、以下の式(6)で表すことができる。
Note that the
また、例えば、部分画像#1〜#4間のエネルギー「V1,2,3,4 dihedral」は、以下の式(7)で表すことができる。
Further, for example, the energy “V 1, 2, 3, 4 dihedral ” between the
また、例えば、部分画像#1および部分画像#2間のエネルギー「V1,2 bond」は、以下の式(8)で表すことができる。
Further, for example, the energy “V 1,2 bond ” between the
このような分子ポテンシャル計算の手法に基づいて、各部分画像間に仮想的に生じるエネルギーの値を部分画像間の関連性を示すパラメータとして導入することで、部分画像間の関連性の判定精度をさらに向上させてもよい。 Based on this method of molecular potential calculation, the value of energy virtually generated between each partial image is introduced as a parameter indicating the relationship between the partial images, thereby improving the accuracy of determining the relationship between the partial images. It may be further improved.
なお、判定装置10は、上述したパラメータや距離空間上の配置を調整する際に用いる指標、すなわち、学習データにおける各部分画像間の関連性を任意の手法で算出してよい。例えば、判定装置10は、各部分画像間の関連性を判定する場合には、撮像対象の輪郭の類似性や色彩の類似性、撮像対象の同一性、抽出元となる画像C10の同一性、画像C10から抽出された位置の近さや位置関係、もしくは任意の人物により判定された主観的な類似度等に基づいて、関連性を示すスコアを算出し、算出したスコアに基づいて、各部分画像間の関連性を相対的に示せばよい。
Note that the
〔4.処理の流れの一例〕
次に、図4を用いて、判定装置10が実行する処理の流れの一例について説明する。図4は、実施形態に係る判定装置が実行する処理の流れの一例を説明する図である。例えば、判定装置10は、学習データとして複数の画像C10を取得し(ステップS101)、学習データから部分画像C20の抽出を行う(ステップS102)。次に、判定装置10は、抽出した部分画像C20を距離空間上の配置に変換し(ステップS103)、2画像間の関連性を距離空間上の距離として、部分画像間の関連性を判定する(ステップS104)。また、判定装置10は、3画像間の関連性を距離空間上に対応付けられた3画像により定義づけられる角度として判定する(ステップS105)。また、判定装置10は、4画像間の関連性を距離空間上に対応付けられた4画像により定義づけられる二面角の角度として判定する(ステップS106)。なお、判定装置10は、ステップS104〜S106の処理を任意の順番で実行してもよく、同時並行的に実行してもよい。そして、判定装置10は、判定結果が正解データに近づくように、判定結果に基づくモデルの学習を行って(ステップS107)、処理を終了する。
[4. Example of processing flow)
Next, an example of the flow of processing executed by the
〔5.変形例〕
上述した実施形態に係る判定装置10は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、上記の判定装置10の他の実施形態について説明する。
[5. (Modification)
The
〔5−1.パラメータを用いた処理について〕
例えば、上述した判定装置10は、複数の部分画像間のコサイン距離、角度、および二面角の角度をパラメータとして、各部分画像間の関連性を学習したモデルを生成した。しかしながら、実施形態は、これに限定されるものではない。すなわち、判定装置10は、複数の部分画像間のコサイン距離、角度、および二面角の角度をパラメータとして、指定された画像や画像群と類似する画像や画像群等を検索して出力してもよい。
[5-1. About processing using parameters)
For example, the
また、判定装置10は、各部分画像の距離空間上の配置を調整する際の指標を任意の態様で特定してもよい。例えば、判定装置10は、部分画像同士が画像として類似するか否かのみならず、撮像対象の類似度や、部分画像に撮像されている撮像対象の位置関係等に基づいたスコアリング等をおこなってもよく、人によるスコアリングに基づいて距離空間上の配置を調整してもよい。このような距離空間上の配置を調整する際の指標については、任意の公知技術を適用可能である。
Moreover, the
〔5−2.ハードウェア構成について〕
また、上述してきた実施形態に係る判定装置10は、例えば図5に示すような構成のコンピュータ1000によって実現される。図5は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[5-2. (Hardware configuration)
Further, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一時的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。
The
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
The output IF 1060 is an interface for transmitting information to be output to an
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
The
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
The network IF 1080 receives data from other devices via the network N and sends the data to the
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
The
例えば、コンピュータ1000が判定装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。
For example, when the computer 1000 functions as the
〔6.効果〕
このように、判定装置10は、関連性の判定対象となる3つの部分画像C20を距離空間上に対応付け、3つの部分画像C20が有する関連性を、距離空間上に対応付けられた3つの部分画像C20により定義づけられる角度として判定する。より具体的には、判定装置10は、3つの部分画像C20が有する関連性を、距離空間上に対応付けられた3つの部分画像C20のうち、いずれか1つの部分画像C20を頂点とした他の2つの部分画像C20の間の角度として判定する。このように、判定装置10は、3つ以上の部分画像間の関連性を距離空間上の角度に落とし込んで学習または利用することができるので、部分画像の検索精度を向上させることができる。
[6. effect〕
As described above, the
また、判定装置10は、関連性の判定対象となる4つの画像を距離空間上に対応付け、4つの部分画像C20が有する関連性を、距離空間上に対応付けられた4つの部分画像C20により定義づけられる二面角の角度として判定する。より具体的には、判定装置10は、4つの部分画像C20が有する関連性を、距離空間上に対応付けられた4つの部分画像C20のうち、いずれか2つの基準画像を含む線を交線とする2つの面であって、基準画像以外の部分画像C20のうち、それぞれ異なる部分画像C20を含む面が有する角度として判定する。このように、判定装置10は、4つ以上の部分画像間の関連性を距離空間上の角度に落とし込んで学習または利用することができるので、部分画像の検索精度を向上させることができる。
In addition, the
また、判定装置10は、4つの部分画像C20のうちいずれか3つの部分画像C20が有する関連性を、距離空間上に対応付けられた3つの部分画像C20により定義づけられる角度として判定する。このため、判定装置10は、部分画像の検索精度を向上させることができる。
Further, the
また、判定装置10は、関連性の判定対象となる複数の部分画像C20のうち、任意の2つの部分画像C20の間の関連性を、距離空間上に対応付けられた2つの部分画像C20の間のコサイン距離として判定する。このため、判定装置10は、部分画像の検索精度を向上させることができる。
In addition, the
また、判定装置10は、判定結果を用いて、複数の部分画像C20が有する関連性を判定する学習器の学習を行う。例えば、判定装置10は、複数の中間層を有するニューラルネットワークの学習を行う。このため、例えば、判定装置10は、3つ以上または4つ以上の部分画像C20が有する関連性を考慮した距離空間の学習を行うことができるので、部分画像の検索精度を向上させることができる。
Moreover, the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. However, these are merely examples, and various modifications, including the aspects described in the disclosure section of the invention, based on the knowledge of those skilled in the art, It is possible to implement the present invention in other forms with improvements.
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、判定部は、判定手段や判定回路に読み替えることができる。 Moreover, the above-mentioned “section (module, unit)” can be read as “means”, “circuit”, and the like. For example, the determination unit can be read as determination means or a determination circuit.
10 判定装置
20 通信部
30 記憶部
31 学習データデータベース
32 画像データベース
33 モデルデータベース
40 制御部
41 取得部
42 解析部
43 対応部
44 判定部
45 学習部
46 提供部
50 データサーバ
100 端末装置
DESCRIPTION OF
Claims (9)
前記3つの画像が有する関連性を、前記距離空間上に対応付けられた前記3つの画像により定義づけられる角度として判定する判定部と
を有することを特徴とする判定装置。 Corresponding units that associate three images that are different parts of the predetermined images on the metric space, and are three images to be determined for relevance;
And a determination unit that determines the relevance of the three images as an angle defined by the three images associated in the metric space.
ことを特徴とする請求項1に記載の判定装置。 The determination unit determines the relevance of the three images as an angle between two other images having one of the three images associated with the metric space as a vertex. The determination device according to claim 1, wherein:
前記4つの画像が有する関連性を、前記距離空間上に対応付けられた前記4つの画像により定義づけられる二面角の角度として判定する判定部と
を有することを特徴とする判定装置。 Corresponding units that associate four images that are different parts of a predetermined image on the metric space, and are four images to be determined for relevance;
And a determination unit that determines the relevance of the four images as a dihedral angle defined by the four images associated on the metric space.
ことを特徴とする請求項3に記載の判定装置。 The determination unit includes two planes in which the relevance of the four images is an intersection of lines including any two reference images among the four images associated with the metric space. The determination apparatus according to claim 3, wherein the determination is performed as an angle of a surface including different images among images other than the reference image.
ことを特徴とする請求項3または4に記載の判定装置。 The determination unit further determines the relevance of any three of the four images as an angle defined by the three images associated in the metric space. Item 5. The determination device according to Item 3 or 4.
ことを特徴とする請求項1〜5のうちいずれか1つに記載の判定装置。 The determination unit further determines a relationship between any two images among a plurality of images to be determined for a relationship as a cosine distance between the two images associated with the distance space. The determination apparatus according to claim 1, wherein:
をさらに有することを特徴とする請求項1〜6のうちいずれか1つに記載の判定装置。 7. The learning unit according to claim 1, further comprising: a learning unit that performs learning of a learning device that determines relevance of a plurality of images using the determination result of the determination unit. Judgment device.
ことを特徴とする請求項7に記載の判定装置。 The determination device according to claim 7, wherein the learning unit learns a neural network having a plurality of intermediate layers as the learning device.
関連性の判定対象となる3つの画像であって、所定の画像のうちそれぞれ異なる部分を構成する画像を距離空間上に対応付ける対応工程と、
前記3つの画像が有する関連性を、前記距離空間上に対応付けられた前記3つの画像により定義づけられる角度として判定する判定工程と
を含むことを特徴とする判定方法。 A determination method executed by a determination device,
Corresponding steps for correlating three images to be determined for relevance, each of which constitutes a different part of a predetermined image, on a metric space;
And a determination step of determining an association of the three images as an angle defined by the three images associated on the metric space.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016054544A JP6396353B2 (en) | 2016-03-17 | 2016-03-17 | Determination apparatus and determination method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016054544A JP6396353B2 (en) | 2016-03-17 | 2016-03-17 | Determination apparatus and determination method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017167987A JP2017167987A (en) | 2017-09-21 |
JP6396353B2 true JP6396353B2 (en) | 2018-09-26 |
Family
ID=59913798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016054544A Active JP6396353B2 (en) | 2016-03-17 | 2016-03-17 | Determination apparatus and determination method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6396353B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7017478B2 (en) * | 2018-06-27 | 2022-02-08 | ヤフー株式会社 | Output device, output method and output program |
CN113039534A (en) * | 2018-11-16 | 2021-06-25 | 富士通株式会社 | Similarity calculation device, similarity calculation method, and similarity calculation program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5777380B2 (en) * | 2011-04-05 | 2015-09-09 | キヤノン株式会社 | Image recognition apparatus, image recognition method, and program |
JP2014199519A (en) * | 2013-03-29 | 2014-10-23 | キヤノン株式会社 | Object identification device, object identification method and program |
JP5896084B2 (en) * | 2013-08-01 | 2016-03-30 | パナソニック株式会社 | Similar case search device, control method of similar case search device, and program |
JP6369053B2 (en) * | 2014-02-28 | 2018-08-08 | 日本電気株式会社 | MATCHING DEVICE, MATCHING METHOD, AND PROGRAM |
-
2016
- 2016-03-17 JP JP2016054544A patent/JP6396353B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017167987A (en) | 2017-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11747898B2 (en) | Method and apparatus with gaze estimation | |
US11295413B2 (en) | Neural networks for cropping images based on body key points | |
Palacios et al. | Human-computer interaction based on hand gestures using RGB-D sensors | |
US10189162B2 (en) | Model generation apparatus, information processing apparatus, model generation method, and information processing method | |
JP7452016B2 (en) | Learning data generation program and learning data generation method | |
Sim et al. | Indirect correspondence-based robust extrinsic calibration of LiDAR and camera | |
JP6889865B2 (en) | Template creation device, object recognition processing device, template creation method and program | |
JP5261501B2 (en) | Permanent visual scene and object recognition | |
JP2012181736A (en) | Attitude estimation device, attitude estimation system, and attitude estimation method | |
JP6071002B2 (en) | Reliability acquisition device, reliability acquisition method, and reliability acquisition program | |
JP2019144830A (en) | Program, device, and method for recognizing actions of persons using a plurality of recognition engines | |
JP6381368B2 (en) | Image processing apparatus, image processing method, and program | |
JP2018151830A (en) | Image processing device, image processing method and program | |
JP6396353B2 (en) | Determination apparatus and determination method | |
Van Crombrugge et al. | Accuracy assessment of joint angles estimated from 2D and 3D camera measurements | |
Laddi et al. | An augmented image gradients based supervised regression technique for iris center localization | |
JP7409499B2 (en) | Image processing device, image processing method, and program | |
JP6400037B2 (en) | Determination apparatus and determination method | |
Yu et al. | Separated calibration of a camera and a laser rangefinder for robotic heterogeneous sensors | |
WO2020045023A1 (en) | Eye information estimation device, eye information estimation method, and program | |
JP6118976B2 (en) | Head posture estimation apparatus, head posture estimation method, and program for causing computer to execute head posture estimation method | |
CN106406507A (en) | Image processing method and electronic equipment | |
JP6800671B2 (en) | Grant device, grant method and grant program | |
Zhang et al. | A map-based normalized cross correlation algorithm using dynamic template for vision-guided telerobot | |
Dong et al. | Real time 3D facial movement tracking using a monocular camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170919 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180731 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180727 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180829 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6396353 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |