JP7417504B2 - Similar image difference extraction device, similar image difference extraction method, program and recording medium - Google Patents
Similar image difference extraction device, similar image difference extraction method, program and recording medium Download PDFInfo
- Publication number
- JP7417504B2 JP7417504B2 JP2020177786A JP2020177786A JP7417504B2 JP 7417504 B2 JP7417504 B2 JP 7417504B2 JP 2020177786 A JP2020177786 A JP 2020177786A JP 2020177786 A JP2020177786 A JP 2020177786A JP 7417504 B2 JP7417504 B2 JP 7417504B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- feature
- map
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims description 170
- 238000012545 processing Methods 0.000 claims description 151
- 230000009466 transformation Effects 0.000 claims description 68
- 238000000034 method Methods 0.000 claims description 55
- 230000008569 process Effects 0.000 claims description 48
- 238000006243 chemical reaction Methods 0.000 claims description 36
- 238000004364 calculation method Methods 0.000 claims description 19
- 238000010586 diagram Methods 0.000 description 23
- 239000013598 vector Substances 0.000 description 20
- 230000006870 function Effects 0.000 description 17
- 238000011176 pooling Methods 0.000 description 14
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 11
- 230000004044 response Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000010008 shearing Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本開示は、類似画像差分抽出装置に関する。 The present disclosure relates to a similar image difference extraction device.
近年、ユーザが指定した画像と類似する類似画像を検索する類似画像検索技術が注目されている。例えば、製造業などの分野では、製品の設計を行う際に、設計図面と類似する図面を検索することで、過去に設計した図面を参照することができ、製品設計及びその見積などの効率化を図ることが可能となる。 In recent years, similar image search technology that searches for similar images similar to an image specified by a user has been attracting attention. For example, in fields such as the manufacturing industry, when designing a product, you can search for drawings similar to the design drawing and refer to drawings designed in the past, improving the efficiency of product design and estimates. It becomes possible to aim for.
また、類似画像検索技術では、更なる効率化のために、指定された画像と検索された類似画像との差分を直感的に把握できるようにする技術が望まれている。 Furthermore, in similar image search technology, in order to further improve efficiency, a technology that allows users to intuitively grasp the difference between a designated image and a searched similar image is desired.
これに対して特許文献1には、2つの画像のそれぞれに対して所定のバイナリー記述子を算出し、それらのバイナリー記述子に基づいて、各画像のオブジェクトの位置、サイズ、角度及び歪みなどの差異を補正して、各画像を比較しやすいように変形する画像レジストレーションの方法が開示されている。
On the other hand, in
しかしながら、特許文献1では、2つの画像を比較しやすいように変形しているだけなので、ユーザはそれらを目視で比較して差分を特定しなければならず、差分を把握する効率は十分とはいえない。また、特許文献1には、ユーザがバイナリー記述子の種類を画像に応じて指定しなければならないという問題点もある。
However, in
本開示の目的は、画像間の差分を効率よく把握することが可能な類似画像差分抽出装置、類似画像差分抽出方法、プログラム及び記録媒体を提供することにある。 An object of the present disclosure is to provide a similar image difference extraction device, a similar image difference extraction method, a program, and a recording medium that can efficiently grasp differences between images.
本開示の一態様に従う類似画像差分抽出装置は、複数の対象画像のそれぞれの特徴を示す特徴マップである複数の対象特徴マップを生成する特徴抽出部と、各対象特徴マップの位置ごとの類似度を示す類似度マップを生成する類似度算出部と、前記類似度マップに応じた差分抽出画像を生成する画像処理部と、を有する。 A similar image difference extraction device according to one aspect of the present disclosure includes a feature extraction unit that generates a plurality of target feature maps that are feature maps indicating characteristics of each of a plurality of target images, and a similarity degree for each position of each target feature map. and an image processing section that generates a difference extraction image according to the similarity map.
本発明によれば、画像間の差分を効率よく把握することが可能になる。 According to the present invention, it is possible to efficiently understand differences between images.
以下、本開示の実施形態について図面を参照して説明する。 Embodiments of the present disclosure will be described below with reference to the drawings.
<システム構成>
図1は、本開示の一実施形態による類似画像差分抽出システムを示す図である。図1に示すように類似画像差分抽出システムは、利用者端末100と、画像処理サーバ104とを有する。利用者端末100及び画像処理サーバ104は、ネットワーク111を介して、互いに通信可能に接続される。
<System configuration>
FIG. 1 is a diagram illustrating a similar image difference extraction system according to an embodiment of the present disclosure. As shown in FIG. 1, the similar image difference extraction system includes a
<利用者端末>
利用者端末100は、入出力部101と、端末管理部102と、ネットワーク部103とを備える。利用者端末100は、例えば、汎用的なPC(Personal Computer)などで構成できる。
<User terminal>
The
<入出力部>
入出力部101は、例えば、マウス、キーボード及びディスプレイなどのユーザインターフェース装置で構成される。入出力部101は、ユーザから画像処理コマンドを受け付ける機能と、画像処理コマンドに応じた応答情報を表示する機能とを有する。応答情報は、例えば、ブラウザのようなアプリケーションプログラムを用いて表示される。
<Input/output section>
The input/
<端末管理部>
端末管理部102は、入出力部101が受け付けた画像処理コマンドを、ネットワーク部103を介して画像処理サーバ104に送信する機能と、画像処理サーバ104からの応答情報を、ネットワーク部103を介して受信する機能とを有する。画像処理コマンドの送信及び応答情報の受信は、ここでは、ブラウザのようなアプリケーションプログラムを用いて、HTTPなどのプロトコルにて行われるが、別の方法でもよい。なお、ネットワーク部103は、画像処理サーバ104と通信可能に接続する通信機能を有する通信部である。
<Terminal management department>
The
上記の画像処理コマンドは、本実施形態では、画像検索コマンド、画像レジストレーションコマンド、差分抽出コマンド及び学習実行コマンドを含む。 In this embodiment, the above image processing commands include an image search command, an image registration command, a difference extraction command, and a learning execution command.
<画像検索コマンド>
画像検索コマンドは、ユーザが指定したクエリ画像と類似する類似画像の検索である画像検索処理の実行を指示するコマンドである。画像検索処理では、複数の類似画像が検索されてもよい。
<Image search command>
The image search command is a command that instructs execution of image search processing, which is a search for similar images similar to a query image specified by the user. In the image search process, a plurality of similar images may be searched.
<画像レジストレーションコマンド>
画像レジストレーションコマンドは、クエリ画像と類似画像とを含む画像群から指定された複数の指定画像に対する画像レジストレーション処理の実行を指示するコマンドである。画像レジストレーションについては、後述する。本実施形態では、複数の指定画像として2つの指定画像を例示するが、指定画像が3つ以上の場合でも適用可能である。
<Image registration command>
The image registration command is a command that instructs execution of image registration processing on a plurality of specified images specified from a group of images including the query image and similar images. Image registration will be described later. In this embodiment, two specified images are illustrated as the plurality of specified images, but the present invention is also applicable to a case where there are three or more specified images.
<差分抽出コマンド>
差分抽出コマンドは、複数の対象画像間の差分を抽出して可視化する画像差分抽出処理の実行を指示するコマンドである。本実施形態では、複数の対象画像として2つの対象画像を例示するが、対象画像が3つ以上の場合でも適用可能である。また、その2つ対象画像は、画像レジストレーション処理が実行された2つの指定画像である。なお、類似画像差分抽出システムは、画像レジストレーションコマンドと差分抽出コマンドとを自動的に連続して実行する連続モードと、それらのコマンドをユーザの指示に従って独立して実行する個別モードとを有し、ユーザがそれらのモードのいずれかを設定できる構成でもよい。本実施形態では、個別モードが設定されているものとする。
<Difference extraction command>
The difference extraction command is a command that instructs execution of image difference extraction processing that extracts and visualizes differences between a plurality of target images. In this embodiment, two target images are illustrated as the plurality of target images, but the present invention is also applicable to a case where there are three or more target images. Furthermore, the two target images are two specified images on which image registration processing has been performed. The similar image difference extraction system has a continuous mode in which image registration commands and difference extraction commands are automatically executed in succession, and an individual mode in which these commands are executed independently according to user instructions. , the configuration may be such that the user can set any of these modes. In this embodiment, it is assumed that the individual mode is set.
<学習実行コマンド>
学習実行コマンドは、画像レジストレーション処理及び画像差分抽出処理で使用される学習モデルを構築する学習処理の実行を指示するコマンドである。学習モデルについては、後述する。
<Learning execution command>
The learning execution command is a command that instructs execution of learning processing to construct a learning model used in image registration processing and image difference extraction processing. The learning model will be described later.
<画像処理サーバ>
画像処理サーバ104は、利用者端末100からの画像処理コマンドに応じた種々の処理を行う類似画像差分抽出装置であり、サーバ管理部105、画像検索部106、画像レジストレーション部107、画像差分抽出部108、ネットワーク部109、及び、画像データベース110を有する。なお、以下で説明する画像処理サーバ104の各部が行う処理は、CPU(Central Processing Unit)などのプロセッサがプログラムを実行することで実現されてもよい。また、プログラムは、例えば、半導体メモリ、磁気ディスク、光ディスク、磁気テープ及び光磁気ディスクなどのような、非一時的にデータを記憶する記録媒体112に記録させることもできる。なお、記録媒体112は、図1では、画像処理サーバ104とは別に設けられているが、画像処理サーバ104内に備わっていてもよい。
<Image processing server>
The
<サーバ管理部>
サーバ管理部105は、利用者端末100からネットワーク部109を介して画像処理コマンドを受信し、その画像処理コマンドに従って、画像検索部106、画像レジストレーション部107及び画像差分抽出部108に種々の処理を実行させる機能を有する。また、サーバ管理部105は、画像検索部106、画像レジストレーション部107及び画像差分抽出部108の処理結果を応答情報として、ネットワーク部109を介して利用者端末100に送信する機能を有する。また、サーバ管理部105は、学習処理を実行して学習モデルを構築する学習管理部としての機能も有する。
<Server Management Department>
The
<画像検索部>
画像検索部106は、画像検索コマンドに従って、ユーザが指定したクエリ画像と類似する類似画像を画像データベース110から検索する画像検索処理を実行する機能を有する。画像データベース110は、複数の画像を予め記憶している。なお、画像データベース110は、画像処理サーバ104とは別のストレージ装置などに搭載されていてもよい。また、画像検索処理の具体的な方法については、種々の公知技術が存在するため、その詳細な説明は省略する。
<Image search section>
The
<画像レジストレーション部>
画像レジストレーション部107は、クエリ画像と画像検索部106にて検索された類似画像とを含む画像群の中から指定された2つの指定画像に対して画像レジストレーション処理を実行する機能を有する。画像レジストレーション処理は、2つの画像の間に存在する幾何学的な変換モデルを推定し、その変換モデルを用いて各画像間のサイズ、位置、角度及び歪みなどの幾何学的な差異を補正する処理である。画像レジストレーション処理を行うことで、2つの画像の差異の抽出が容易となる。
<Image registration section>
The
本実施形態では、画像レジストレーション部107は、一般的な画像処理による特徴量の算出とマッピングとを用いた変換モデルの推定を行わず、学習モデル(具体的には、ニューラルネットワークを用いた機械学習モデル)による変換モデルの推定を行う。以下、画像レジストレーション部107が使用する学習モデルを画像レジストレーションモデルと呼ぶこともある。
In this embodiment, the
<画像差分抽出部>
画像差分抽出部108は、画像レジストレーション部107による画像レジストレーション処理が行われた2つの指定画像を対象画像として、それらの対象画像の差異を抽出して可視化する画像差分抽出処理を実行する機能を有する。本実施形態では、画像差分抽出部108は、画像レジストレーション部107と同様に、学習モデルとしてニューラルネットワークを用いた機械学習モデルを用いて、画像差分抽出処理を実行する。以下、画像差分抽出部108が使用する機械学習モデルを画像差分抽出モデルと呼ぶこともある。
<Image difference extraction section>
The image
以下、画像レジストレーション部107についてより詳細に説明する。
The
<画像レジストレーションモデル>
図2は、画像レジストレーション部107が使用する画像レジストレーションモデルの一例を示す図である。図2に示す画像レジストレーションモデル200は、画像特徴抽出モデル201a及び201bと、変換パラメータ回帰モデル202と、特徴関連性マップ算出部203とを有する。また、画像レジストレーション部107は、画像レジストレーションモデルの処理結果に基づいて、画像レジストレーション処理を実際に実行する実行部204を有する。
<Image registration model>
FIG. 2 is a diagram showing an example of an image registration model used by the
画像レジストレーションモデル200は、2つの指定画像を入力とし、その2つの指定画像に対して画像レジストレーション処理を実行するための変換モデルのパラメータである変換パラメータを推定する。変換モデルは、例えば、アフィン変換モデル又はホモグラフィ変換モデルなどである。画像レジストレーション処理では、変換モデルを用いて画像の拡大縮小、回転及び平行移動などの変形を行うことで、2つの指定画像の幾何学的な差異を補正することが可能となる。なお、2つの指定画像の一方が画像特徴抽出モデル201aに入力され、他方が画像特徴抽出モデル201aに入力される。
The
<画像特徴抽出モデル>
図3は、画像特徴抽出モデルの一例を示す図である。画像特徴抽出モデル201a及び201bは、入力された2つの指定画像のそれぞれの特徴を示す2つの特徴マップである指定特徴マップを生成する指定特徴抽出部を構成する。また、画像特徴抽出モデル201a及び201bは、同一のモデルであり、図3では、画像特徴抽出モデル300として示されている。
<Image feature extraction model>
FIG. 3 is a diagram showing an example of an image feature extraction model. The image
図3に示す画像特徴抽出モデル300は、入力された指定画像から、その指定画像の特徴を示す指定特徴マップを算出するための学習モデルである。画像特徴抽出モデル300は、例えば、CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)のようなニューラルネットワークにて実現することが可能である。指定画像は、ここでは、横幅成分(水平画素成分)と縦幅成分(垂直画素成分)と色成分とを含む3階のテンソルで表されるとする。また、横幅成分と縦幅成分とで示される位置を画素位置、横幅(横幅成分の数)及び縦幅(縦幅成分の数)を画像サイズ、色成分cをチャネル、色成分の数をチャネル数と呼ぶこともある。
The image
画像特徴抽出モデル300は、畳み込み層(図では、Convと表記)302とプーリング層(図では、Poolと表記)303とを含む処理層301を複数備える。複数の処理層301は互いに直列に接続される。各処理層301の畳み込み層302は、入力テンソルに対して畳み込み処理を行い、プーリング層303は、前段の畳み込み層302の出力テンソルに対して画像サイズを削減するプーリング処理を行って入力テンソルの特徴を示す特徴マップとして処理層301から出力する。処理層301から出力される特徴マップもテンソルである。ここでは、入力テンソルは、各処理層301において、チャネル数が入力前の2倍となり、画像サイズが入力前の1/2倍となって出力されるものとするが、この例に限定されない。ただし、最前段の処理層301では、チャネル数が入力前の2倍とはならない。
The image
なお、各処理層301は、複数の畳み込み層302を備え、畳み込み処理を複数回行ってもよいが、ここでは、畳み込み層302は1つだけであるとしている。また、処理層301は、図3では、2つ示されているが、本実施形態では、4つあるとする。ただし、処理層301の数は4つに限定されない。また、畳み込み処理の後に、一般的なニューラルネットワークと同様に、バッチノーマライゼーション処理又は活性化関数(例えば、ランプ関数)処理などの後処理が行われてもよい。
Note that each
<特徴関連性マップ算出部>
図2の特徴関連性マップ算出部203は、画像特徴抽出モデル201a及び201bのそれぞれから出力された指定特徴マップの内積を算出して、指定特徴マップ間の関連性を示す特徴関連性マップとして出力する演算部である。
<Feature relevance map calculation unit>
The feature relevance
<変換パラメータ回帰モデル>
図4は、変換パラメータ回帰モデル202の一例を示す図である。変換パラメータ回帰モデル202は、特徴関連性マップ算出部203から出力された特徴関連性マップに基づいて、変換モデルのパラメータである変換パラメータを推定するモデルである。
<Conversion parameter regression model>
FIG. 4 is a diagram showing an example of the conversion
ここでは、変換モデルを、アフィン変換を行うアフィン変換モデルとする。アフィン変換は、平行移動と線形変換をと組み合わせた変換である。線形変換とは、画像の拡大縮小、剪断及び回転を含む変換である。同次座標系を用いると、アフィン変換の変換行列は、以下の数式(1)で表される。
変換パラメータ回帰モデル400は、畳み込み層(図では、Convと表記)402とプーリング層(図では、Poolと表記)403とを含む処理層401と、FC(Fully Conneted)層404とを含む。処理層401は、複数あり、それらの処理層401は互いに直接に接続される。FC層404は、最終層として最後段の処理層401の後に設けられる。
The conversion parameter regression model 400 includes a
各処理層401では、畳み込み層402が入力テンソルに対して畳み込み処理を行い、プーリング層403が畳み込み層402の出力テンソルに対してプーリング処理を行って特徴マップとして出力する。ここでは、入力テンソルは、各処理層401において、チャネル数が入力前の2倍となり、画像サイズが入力前の1/2倍となって出力されるものとするが、この例に限定されない。ただし、最前段の処理層401では、チャネル数が入力前の2倍とはならない。
In each
なお、各処理層401は、複数の畳み込み層402を備え、畳み込み処理を複数回行ってもよいが、ここでは、畳み込み層402は1つだけであるとしている。また、処理層401は、図4では、2つ示されているが、本実施形態では、4つあるとする。ただし、処理層401の数は4つに限定されない。また、畳み込み処理の後に上述した後処理が行われてもよい。
Note that each
FC層404は、最後段の処理層401から出力された特徴マップに対して全結合処理を行うことで、特徴マップを1次元の出力ベクトルに変換して出力する。出力ベクトルの各要素が変換モデルの変換パラメータと対応する。このため、出力ベクトルの要素の数は、変換モデルの変換パラメータの数と同じであり、ここでは、変換モデルとしてアフィン変換モデルを使用しているため、出力ベクトルの要素の数は6となる。
The
以上説明した変換パラメータ回帰モデル202及び特徴関連性マップ算出部203が画像特徴抽出モデルにて生成された指定特徴マップに基づいて変換パラメータを推定するパラメータ推定部を構成する。
The conversion
<実行部>
実行部204は、変換パラメータ回帰モデル202からの出力ベクトルの要素に応じた変換パラメータに基づいて、2つの指定画像のいずれかに対してアフィン変換を実行することで、画像レジストレーション処理を実行する。
<Execution part>
The
<画像レジストレーション部の動作>
図5は、画像レジストレーション部107の動作の一例を説明するための図であり、図6は、画像レジストレーション部107の動作の一例を説明するためのフローチャートである。
<Operation of image registration section>
FIG. 5 is a diagram for explaining an example of the operation of the
先ず、画像レジストレーション部107は、ユーザにて指定された2つの指定画像501a及び501bを受け付け、指定画像501aを画像特徴抽出モデル201aに入力し、指定画像501bを画像特徴抽出モデル201bに入力する(ステップS600)。指定画像501a及び501bは、互いに類似しているとする。図5の「w」、「h」及び「c」はそれぞれ、指定画像501a及び501bの横幅、縦幅及びチャネル数を表している。
First, the
続いて、画像特徴抽出モデル201a及び201bは、指定画像501a及び501bに対して畳み込み層302による畳み込み処理とプーリング層303によるプーリング処理とを4回繰り返し実行し、指定特徴マップ502a及び502bを生成する(ステップS601)。図5では、各処理層301によって、指定画像501a及び501bが画像サイズを半減させながら、チャネル数を2倍にしていく過程が直方体512a及び512bで示されている。
Subsequently, the image
そして、特徴関連性マップ算出部203は、画像特徴抽出モデル201a及び201bから出力された指定特徴マップ502a及び502bの内積を特徴関連性マップ503として算出する内積処理を行う(ステップS602)。
Then, the feature relevance
ここで、指定特徴マップ502aをfa、指定特徴マップ502bをfbとし、指定特徴マップfa及びfbの画素位置を表すインデックスを(i,j)及び(ik,jk)とし、
fb(i,j)を指定特徴マップfbの(i,j)成分の特徴ベクトル(色成分からなるベクトル)、fa(ik,jk)を指定特徴マップfaの(ik,jk)成分の特徴ベクトルとすると、特徴関連性マップ503であるcab(i,j,k)は、以下の式(2)から算出することができる。
f b (i, j) is the feature vector (vector consisting of color components) of the (i, j) component of the specified feature map f b , f a (i k , j k ) is the ( i k , j k ) components, c ab (i, j, k), which is the
式(2)において、「T」はベクトルの転置、「・」はベクトルの内積を示す。したがって、特徴関連性マップcab(i,j,k)では、指定特徴マップfbの(i,j)成分の特徴ベクトルと、指定特徴マップfaの(ik,jk)で表される画素位置の特徴ベクトルとの内積が(i,j,k)成分となることを示す。換言すれば、特徴関連性マップcab(i,j,k)の(i,j)成分の特徴ベクトルは、指定特徴マップfbの(i,j)成分が対応する指定画像501aの画素領域と、指定画像502b全体との関連性を示す。
In Equation (2), " T " indicates the transposition of the vector, and "." indicates the inner product of the vector. Therefore, in the feature relationship map c ab (i, j, k), the feature vector of the (i, j) component of the specified feature map f b and the (i k , j k ) of the specified feature map fa are expressed as This shows that the inner product of the pixel position with the feature vector becomes the (i, j, k) component. In other words, the feature vector of the (i, j) component of the feature relationship map c ab (i, j, k) is the pixel area of the specified
例えば、指定画像501aが次元(w,h,c)=(240,240,3)のRGB画像の場合、画像特徴抽出モデル201aでは、4つの処理層301により特徴マップの画像サイズは、元の指定画像501aの画像サイズの1/16となる。また、最前段の処理層301の出力テンソルのチャネル数を64とすると、4つの処理層301にてチャネル数は、64→128→256→512と変化する。このため、特徴マップfa及びfbは、それぞれ次元(w,h,c)=(15,15,512)となり、特徴関連性マップcabは(15,15,15×15)=(15,15,225)次元のテンソルとなる。
For example, if the specified
特徴関連性マップ503を算出すると、画像レジストレーション部107は、特徴関連性マップ503を変換パラメータ回帰モデル400に入力する(ステップS603)。変換パラメータ回帰モデル400は、入力された特徴関連性マップ503に対して畳み込み層402による畳み込み処理とプーリング層403によるプーリング処理とを4回繰り返し実行し、画像特徴マップ504を生成し、さらに画像特徴マップ504に対してFC層404による全結合処理510を行い、6つの変換パラメータ505を生成する(ステップS604)。なお、ステップS600~S604までの処理が画像レジストレーションモデルの処理である。
After calculating the
さらに実行部204は、6つの変換パラメータ505に基づいて、画像501a及び501bのいずれかに対してアフィン変換を実行することで、画像レジストレーション処理を実行し(ステップS605)、処理を終了する。
Further, the
次に画像差分抽出部108による画像差分抽出処理ついてより詳細に説明する。
Next, the image difference extraction process by the image
<画像差分抽出モデル>
図7は、画像差分抽出部108で使用する画像差分抽出モデルの一例を示す図である。図7に示す画像差分抽出モデル700は、画像特徴抽出モデル701a及び701bと、類似度算出部702と、画像処理部703とを備える。画像特徴抽出モデル701a及び701bは、画像レジストレーション部107が使用する画像レジストレーションモデルの画像特徴抽出モデル201a及び201bと同じモデルであり、入力された2つの対象画像のそれぞれの特徴を示す特徴マップである対象特徴マップを生成する特徴抽出部を構成する。
<Image difference extraction model>
FIG. 7 is a diagram showing an example of an image difference extraction model used by the image
類似度算出部702は、画像特徴抽出モデル701a及び701bで算出された2つの対象特徴マップ間の位置(具体的には、画素位置)ごとの類似度を示す類似度マップを生成する。本実施形態では、類似度は、コサイン類似度である。
The
画像処理部703は、類似度算出部702にて算出された類似度マップに応じた差分抽出画像を生成する画像処理を行う。画像処理は、ここでは、差分抽出画像として、類似度マップの各値を色又は濃淡で表すヒートマップ画像を生成するヒートマップ化処理である。また、画像処理は、差分抽出画像を対象画像と同じサイズに拡大する処理を含んでもよい。
The
<画像差分抽出部の動作> <Operation of image difference extraction unit>
図8は、画像差分抽出部108の動作の一例を説明するための図であり、図9は、画像差分抽出部108の動作の一例を説明するためのフローチャートである。
FIG. 8 is a diagram for explaining an example of the operation of the image
先ず、画像差分抽出部108は、ユーザにて指定された2つの対象画像801a及び801bを受け付け、対象画像801aを画像特徴抽出モデル701aに入力し、対象画像801bを画像特徴抽出モデル701bに入力する(ステップS900)。対象画像801a及び801bは、画像レジストレーション部107により画像レジストレーション処理が行われた指定画像である。
First, the image
続いて、画像特徴抽出モデル701a及び701bは、対象画像801a及び801bに対して畳み込み層402による畳み込み処理とプーリング層403によるプーリング処理とを4回繰り返し実行し、対象特徴マップ802a及び802bを生成する(ステップS901)。図5では、各処理層301によって、対象画像801a及び801bが画像サイズを半減させながら、チャネル数を2倍にしていく過程が直方体812a及び812bで示されている。
Subsequently, the image
類似度算出部702は、画像特徴抽出モデル701a及び701bで算出された対象特徴マップ802a及び802bの間の類似度を示す類似度マップ803を算出する類似度算出処理を行う(ステップS902)。
The
ここで、対象特徴マップ802aをga、対象特徴マップ802bをgbとし、対象特徴マップga及びgbの画素位置を表すインデックスを(i,j)及び(ik,jk)とし、対象特徴マップga及びgbの(i,j)成分の特徴ベクトルをga(i,j)及びgb(i,j)とすると、類似度マップ803であるCsim(i,j)は、以下の式(3)から算出することができる。
式(3)において、「T」はベクトルの転置、「・」はベクトルの内積、「||」は、ベクトルのユークリッド距離を示す。したがって、類似度マップCsim(i,j)では、画素位置(i,j)ごとに対象特徴マップga及びgbのコサイン類似度が示されることとなる。なお、コサイン類似度はスカラ値であるため、類似度マップは、1チャネルのテンソル(画像)となる。また、コサイン類似度は、2つのベクトルがどの程度同じ向きを向いているかを示す指標であり、-1から1までの値を取る。コサイン類似度は、値が1に近づくほど、2つのベクトルが類似しており、-1に近づくほど、2つのベクトルが類似していないことを示す。 In equation (3), " T " indicates the transpose of the vector, "." indicates the inner product of the vector, and "||" indicates the Euclidean distance of the vector. Therefore, the similarity map C sim (i, j) shows the cosine similarity of the target feature maps g a and g b for each pixel position (i, j). Note that since the cosine similarity is a scalar value, the similarity map is a one-channel tensor (image). Further, cosine similarity is an index indicating how much two vectors point in the same direction, and takes a value from -1 to 1. The closer the cosine similarity value is to 1, the more similar the two vectors are, and the closer the value is to -1, the less similar the two vectors are.
類似度マップを算出すると、画像処理部703は、類似度マップ803に対してヒートマップ化処理を行い、類似度マップ803をヒートマップ画像804に変換する(ステップS903)。ヒートマップ画像は、ここでは、類似度マップの値が1に近づくほど赤く、-1に近づくほど青くなるRGB画像であるとするが、ヒートマップ画像はこの例に限らない。
After calculating the similarity map, the
そして、画像処理部703は、ヒートマップ画像804を対象画像と同じサイズに拡大し(ステップS904)、処理を終了する。
The
<全体フロー>
図10は、本実施形態の類似画像差分抽出システム全体の動作の一例を説明するためのフローチャートである。図11~図13は、類似画像差分抽出システムで扱われる画像の具体例を示す図である。具体的には、図11は、画像検索処理の結果の一例を示す図であり、図12は、画像レジストレーション処理の結果の一例を示す図であり、図13は、画像差分抽出処理の結果の一例を示す図である。
<Overall flow>
FIG. 10 is a flowchart for explaining an example of the operation of the entire similar image difference extraction system of this embodiment. 11 to 13 are diagrams showing specific examples of images handled by the similar image difference extraction system. Specifically, FIG. 11 is a diagram showing an example of the result of image search processing, FIG. 12 is a diagram showing an example of the result of image registration processing, and FIG. 13 is a diagram showing an example of the result of image difference extraction processing. It is a figure showing an example.
先ず、利用者端末100の入出力部101は、ユーザから画像検索の対象となるクエリ画像を選択する操作を受け付ける(ステップS1000)。ここでは、図11に示す画像1100がクエリ画像として選択されたとする。
First, the input/
続いて、入出力部101は、ユーザから画像検索コマンドを受け付ける。端末管理部102は、画像検索コマンドにクエリ画像を示す情報を加え、その画像検索コマンドを、ネットワーク部103を介して画像処理サーバ104に送信する(ステップS1001)。
Subsequently, the input/
画像処理サーバ104のサーバ管理部105は、ネットワーク部109を介して画像検索コマンドを受信し、その画像検索コマンドに従って画像検索部106に画像検索処理の実行を指示する。画像検索部106は、画像検索コマンドに基づいて、クエリ画像と類似する類似画像を画像データベース110から検索する。サーバ管理部105は、検索された類似画像を検索結果として、ネットワーク部109を介して利用者端末100に送信する(ステップS1002)。
The
ここでは、図11に示す類似画像群1101に含まれる画像1102~1105が類似画像として検索されたとする。画像1102はクエリ画像である画像1100に対して位置ずれがあり、画像1103は画像1100とはサイズが異なり、画像1104は画像1100に対して角度が異なる。また、画像1105は、位置、サイズ及び角度などの幾何学的な特徴に関しては画像1100と一致している。
Here, it is assumed that
利用者端末100の端末管理部102は、ネットワーク部103を介して検索結果を受信し、その検索結果を入出力部101に表示する。入出力部101は、ユーザから、検索結果に含まれる類似画像とクエリ画像とのうち、互いに比較する2つの画像を指定する操作を受け付ける(ステップS1003)。ここでは、クエリ画像である画像1100と類似画像である画像1102とが指定されたとする。なお、本操作において2つの類似画像が指定されてもよい。
The
続いて、入出力部101は、ユーザから画像レジストレーションコマンドを受け付ける。端末管理部102は、画像レジストレーションコマンドに、指定された2つの指定画像を示す情報を加え、その画像検索コマンドを、ネットワーク部103を介して画像処理サーバ104に送信する(ステップS1004)。
Subsequently, the input/
画像処理サーバ104のサーバ管理部105は、ネットワーク部109を介して画像レジストレーションコマンドを受信し、その画像レジストレーションコマンドに従って画像レジストレーション部107に画像レジストレーション処理の実行を指示する。画像レジストレーション部107は、画像レジストレーションコマンドに基づいて、画像レジストレーション処理を実行する。サーバ管理部105は、画像レジストレーション処理の処理結果であるレジストレーション結果を、ネットワーク部109を介して利用者端末100に送信する(ステップS1005)。画像レジストレーション処理は、具体的には、図5及び図6を用いて説明した処理である。ここでは、図12に示す2つの画像1100及び画像1102のうち画像1100に対してアフィン変換が施されて、画像1200がレジストレーション結果として取得されたとする。
The
その後、利用者端末100の端末管理部102は、ネットワーク部103を介してレジストレーション結果を受信し、そのレジストレーション結果を入出力部101に表示する。入出力部101は、レジストレーション結果を確認したユーザから、差分抽出コマンドを受け付ける。端末管理部102は、差分抽出コマンドに画像1100及び1200を対象画像として示す情報を加え、その差分抽出コマンドを、ネットワーク部103を介して画像処理サーバ104に送信する(S1006)。
Thereafter, the
画像処理サーバ104のサーバ管理部105は、ネットワーク部109を介して差分抽出コマンドを受信し、その差分抽出コマンドに従って画像差分抽出部108に画像差分抽出処理の実行を指示する。画像差分抽出部108は、差分抽出コマンドに基づいて、2つの対象画像に対して画像差分抽出処理を実行して、ヒートマップ画像を生成する(ステップS1007)。画像差分抽出処理は、具体的には、図7及び図8を用いて説明した処理である。ここでは、図13に示す2つの画像1100及び画像1200に対して画像差分抽出処理が実行され、画像1300がヒートマップ画像として生成されたとする。
The
サーバ管理部105は、画像差分抽出処理の処理結果であるヒートマップ画像を、ネットワーク部109を介して利用者端末100に送信する。利用者端末100の端末管理部102は、ネットワーク部103を介してヒートマップ画像を受信し、そのヒートマップ画像を入出力部101に表示し(ステップS1008)、処理を終了する。ユーザは、ヒートマップ画像を確認することにより、2つ画像のどの部分がどの程度異なるかを確認することが可能になる。
The
<分割画像差分抽出処理>
次に、画像差分抽出部108による画像差分抽出処理の変形例である分割画像差分抽出処理について説明する。図14は、分割画像差分抽出処理の一例を説明するためのフローチャートである。図15は、分割画像差分抽出処理の結果の一例を示す図である。
<Divided image difference extraction processing>
Next, divided image difference extraction processing, which is a modification of the image difference extraction processing performed by the image
分割画像差分抽出処理では、先ず、図10のステップS1000~S1005の処理が実行される。続いて、利用者端末100の端末管理部102は、ネットワーク部103を介してレジストレーション結果を受信し、そのレジストレーション結果を入出力部101に表示する。入出力部101は、レジストレーション結果を確認したユーザから、画像レジストレーション処理が実行された指定画像である対象画像を複数の部分画像に分割するグリッド分割するグリッド分割操作を受け付ける(ステップS1400)。グリッド分割操作は、分割内容(例えば、部分画像の数、縦横比及び分割位置など)を指定するものでもよい。
In the divided image difference extraction process, first, the processes of steps S1000 to S1005 in FIG. 10 are executed. Subsequently, the
入出力部101は、レジストレーション結果を確認したユーザから、差分抽出コマンドを受け付ける。端末管理部102は、差分抽出コマンドに対象画像とグリッド分割操作に応じた分割内容とを示す情報を加え、その差分抽出コマンドを、ネットワーク部103を介して画像処理サーバ104に送信する(ステップS1401)。
The input/
画像処理サーバ104のサーバ管理部105は、ネットワーク部109を介して差分抽出コマンドを受信し、その差分抽出コマンドに従って画像差分抽出部108に画像差分抽出処理の実行を指示する。画像差分抽出部108は、差分抽出コマンドに基づいて、対象画像を、指定された分割内容に従って複数の部分画像にグリッド分割する(ステップS1402)。ここでは、図15に示すように画像1500及び1502が対象画像としてグリッド分割されたとする。なお、図15では、説明のためにグリッド線1501が表記されているが、実際には、画像にグリッド線1501を引く必要はない。
The
画像差分抽出部108は、グリッド分割された部分画像ごとにステップS1403~1404を繰り返すループ処理(A)を実行する。
The image
ループ処理(A)では、画像差分抽出部108は、各対象画像の互いに対応する位置の部分画像を画像差分抽出モデル700の特徴量抽出モデル701a及び701bに入力する(ステップS1403)。特徴量抽出モデル701a及び701bは、入力された部分画像の特徴マップである部分特徴マップを算出する(ステップS1404)。
In loop processing (A), the image
画像差分抽出部108は、全ての部分画像に対してステップS1403~1404処理を行うと、ループ処理(A)を抜ける。そして、類似度算出部702は、各部分特徴マップの位置関係が各部分特徴マップに対応する各部分画像の位置関係と同じになるように、各部分特徴マップを結合して対象特徴マップとして生成する(ステップS1405)。
After the image
続いて、画像差分抽出部108の類似度算出部702は、各対象特徴マップの間の類似度を示す類似度マップを算出する類似度算出処理を行う(ステップS1406)。画像処理部703は、類似度マップに対してヒートマップ化処理を行い、類似度マップをヒートマップ画像に変換する(ステップS1407)。画像処理部703は、ヒートマップ画像を入力画像と同じサイズに拡大し(ステップS1408)、処理を終了する。これにより、図15に示す画像1504がヒートマップ画像として生成される。なお、ステップS1408の処理の後に、図10のステップS1008の処理が実行される。
Subsequently, the
<学習処理の一例>
図16は、画像レジストレーションモデル200及び画像差分抽出モデル700に対して行う学習処理の一例を説明するためのフローチャートである。
<Example of learning process>
FIG. 16 is a flowchart for explaining an example of a learning process performed on the
学習処理では、先ず、入出力部101がユーザから学習コマンドを受け付けると、端末管理部102は、その学習コマンドを、ネットワーク部103を介して画像処理サーバ104に送信する。画像処理サーバ104のサーバ管理部105は、ネットワーク部109を介して学習コマンドを受信する(ステップS1600)。
In the learning process, first, when the input/
サーバ管理部105は、所定の条件を満たすまで、ステップS1601~S1607の処理を繰り返すループ処理(B)を実行する。所定の条件は、学習回数(ループ回数)が所定回数に到達すること、又は、学習時間が所定時間に到達することなどである。
The
ループ処理(B)では、サーバ管理部105は、画像データベース110から第1の学習用画像として任意の画像を取得する(ステップS1601)。ここで取得された画像を画像Aと呼ぶ。
In loop processing (B), the
サーバ管理部105は、ランダムな変換パラメータである第1の変換パラメータを生成する(ステップS1602)。第1の変換パラメータの数は変換モデルに応じて予め定められている。例えば、変換モデルがアフィン変換モデルの場合、第1の変換パラメータの数は6である。
The
サーバ管理部105は、第1の変換パラメータを設定した変換モデルを用いて画像Aを第2の学習用画像である画像Bに変換する(ステップS1603)。サーバ管理部105は、画像A及びBを指定画像として画像レジストレーションモデル200に入力する(ステップS1604)。画像レジストレーションモデル200は、画像A及びBに基づく変換パラメータを第2の変換パラメータとして推定する(ステップS1605)。
The
サーバ管理部105は、所定の損失関数を用いて、ステップS1605で推定された第2の変換パラメータと、ステップS1602で生成された第1の変換パラメータとの差を示す損失値を算出する(ステップS1606)。なお、損失関数は、例えば、MSE(Mean Square Error)などである。
The
サーバ管理部105は、損失値が減少するように、画像レジストレーションモデル200の重み値を調整する(ステップS1607)。
The
そして、所定の条件が満たされると、サーバ管理部105は、ループ処理(B)を抜けて、処理を終了する。これにより、画像レジストレーションモデル200が学習モデルとして構築される。画像レジストレーションモデル200が学習されることで、内部の画像特徴抽出モデル201a及び201bが学習される。これにより、本実施形態では、画像差分抽出モデル700の内部の画像特徴抽出モデル701a及び701bとして、画像特徴抽出モデル201a及び201bと同じモデルを使用するため、画像特徴抽出モデル201a及び201bも学習されることとなる。
Then, when the predetermined condition is satisfied, the
<学習処理の他の例>
図17は、画像レジストレーションモデル200及び画像差分抽出モデル700に対して行う学習処理の他の例を説明するためのフローチャートである。本学習処理を用いることで、図16で示した学習処理よりもさらに精度の良いモデルを構築することが可能となる。
<Other examples of learning processing>
FIG. 17 is a flowchart for explaining another example of the learning process performed on the
まず、画像処理サーバ104のサーバ管理部105は、位置、サイズ及び角度などの幾何学的な特徴が類似する2つの画像のセットの集合を画像データベース110に登録する(ステップS1700)。類似する2つの画像のセットとしては、例えば、図11の画像1100と画像1105とのセットが挙げられる。画像のセットはユーザにて作成されてもよい。また、画像のセットは、一般的な画像処理ライブラリなどの既存のプログラムなどを用いて生成されてもよい。また、既存のプログラムにて生成された画像からユーザが画像のセットを選択する構成でもよい。
First, the
続いて、入出力部101がユーザから学習コマンドを受け付けると、端末管理部102は、その学習コマンドを、ネットワーク部103を介して画像処理サーバ104に送信する。画像処理サーバ104のサーバ管理部105は、ネットワーク部109を介して学習コマンドを受信する(ステップS1701)。
Subsequently, when the input/
サーバ管理部105は、画像のセットごとに、ステップS1702~S1708の処理を繰り返すループ処理(C)を実行する。
The
ループ処理(C)では、サーバ管理部105は、画像データベース110から任意の画像のセットに含まれる2つの画像を、第1の学習用画像及び第1の学習用画像に対応する対応類似画像として取得する(S1702)。ここで取得された第1の学習用画像を画像C、対応類似画像を画像Dと呼ぶ。
In loop processing (C), the
サーバ管理部105は、ランダムな変換パラメータである第1の変換パラメータを生成する(ステップS1703)。
The
サーバ管理部105は、第1の変換パラメータを設定した変換モデルを用いて画像Dを第2の学習用画像である画像D’に変換する(ステップS1704)。サーバ管理部105は、画像C及びD’を指定画像として画像レジストレーションモデル200に入力する(ステップS1705)。画像レジストレーションモデル200は、画像C及びD’に基づく変換パラメータを第2の変換パラメータとして推定する(ステップS1706)。
The
サーバ管理部105は、所定の損失関数を用いて、ステップS1706で推定された第2の変換パラメータと、ステップS1703で生成された第1の変換パラメータとの差を示す損失値を算出する(ステップS1707)。
The
サーバ管理部105は、損失値が減少するように、画像レジストレーションモデル200の重み値を調整する(ステップS1708)。
The
そして、全ての対応類似画像のセットについてステップS1702~S1708の処理を実行すると、サーバ管理部105は、ループ処理(C)を抜けて、処理を終了する。これにより、画像レジストレーションモデル200が学習モデルとして構築される。
After executing the processes of steps S1702 to S1708 for all sets of corresponding similar images, the
以上説明したように本実施形態では、画像特徴抽出モデル701a及び701bで構成される特徴抽出部は、2つの対象画像のそれぞれの特徴を示す特徴マップである対象特徴マップを生成する。類似度算出部702は、各対象特徴マップの位置ごとの類似度を示す類似度マップを生成する。画像処理部703は、類似度マップに応じた差分抽出画像を生成する。
As described above, in this embodiment, the feature extraction unit including the image
したがって、2つの対象画像の特徴の類似度を示す類似度マップに応じた差分抽出画像が生成されるため、ユーザは、2つの対象画像を目視で比較しなくても、差分抽出画像を目視するだけで、2つの対象画像の差を把握することが可能となる。このため、画像間の差分を効率よく把握することが可能になる。また、ユーザは、バイナリー記述子の種類などを画像に応じて指定する必要もないため、その観点からも、画像間の差分を効率よく把握することが可能になる。 Therefore, since a difference extraction image is generated according to a similarity map indicating the degree of similarity between the features of the two target images, the user can visually check the difference extraction image without visually comparing the two target images. It becomes possible to understand the difference between the two target images just by Therefore, it becomes possible to efficiently understand the difference between images. Furthermore, since the user does not need to specify the type of binary descriptor for each image, it is possible to efficiently grasp the differences between images from this point of view as well.
また、本実施形態では、学習モデルである画像特徴抽出モデル701a及び701bを用いて対象特徴マップが生成されるため、対象画像間の類似度を適切に反映した差分抽出画像を生成することが可能となる。
Furthermore, in this embodiment, since the target feature map is generated using the image
また、本実施形態では、画像レジストレーション部107が2つの指定画像に対して画像レジストレーション処理を行って対象画像を生成するため、対象画像間の類似度を適切に反映した差分抽出画像を生成することが可能となる。
Furthermore, in this embodiment, the
また、本実施形態では、画像レジストレーション処理の変換モデルの変換パラメータが2つの指定画像の特徴マップである2つの指定特徴マップに基づいて推定されるため、各指定画像の特徴に応じた適切な変換パラメータを推定することが可能となる。 Furthermore, in this embodiment, since the conversion parameters of the conversion model for image registration processing are estimated based on two specified feature maps, which are feature maps of two specified images, appropriate It becomes possible to estimate the transformation parameters.
また、本実施形態では、学習モデルである画像特徴抽出モデル201a及び201bを用いて指定特徴マップが生成されるため、各指定画像の特徴を適切に反映した変換パラメータを推定することが可能となる。
Furthermore, in this embodiment, the designated feature map is generated using the image
また、本実施形態では、画像レジストレーション部107が用いる画像特徴抽出モデル201a及び201bと、画像差分抽出部108が用いる画像特徴抽出モデル701a及び701bとが同じモデルであるため、効率の良い学習が可能となる。
Furthermore, in this embodiment, since the image
また、本実施形態では、サーバ管理部105は、ランダムに生成した第1の変換パラメータと、画像Aと画像Aを第1の変換パラメータで変換した画像Bとを指定画像としたときに画像レジストレーション部107にて推定される第2の変換パラメータとの差を示す損失値に基づいて、画像特徴抽出モデル201a及び201bが構築される。このため、精度の良い画像特徴抽出モデル201a及び201bを構築することが可能になる。
Further, in this embodiment, the
また、本実施形態では、サーバ管理部105は、ランダムに生成した第1の変換パラメータと、画像Cと画像Cに対して予め対応付けられた画像Dを第1の変換パラメータで変換した画像D’とを指定画像としたときに画像レジストレーション部107にて推定される第2の変換パラメータとの差を示す損失値に基づいて、画像特徴抽出モデル201a及び201bが構築される。このため、より精度の良い画像特徴抽出モデル201a及び201bを構築することが可能になる。
Further, in this embodiment, the
また、本実施形態では、特徴抽出部は、2つの対象画像のそれぞれについて、当該対象画像を分割した複数の部分画像のそれぞれの特徴を示す特徴マップである部分特徴マップを生成し、各部分特徴マップの位置関係が各部分画像に対応する各部分画像の位置関係と同じになるように各部分特徴マップを結合して、対象特徴マップを生成する。このため、精度の良い対象特徴マップを生成することができる。 Furthermore, in the present embodiment, the feature extraction unit generates, for each of the two target images, a partial feature map that is a feature map indicating the characteristics of each of the plurality of partial images obtained by dividing the target image, and generates a partial feature map for each of the partial images. A target feature map is generated by combining the partial feature maps so that the positional relationship of the maps is the same as the positional relationship of each partial image corresponding to each partial image. Therefore, a highly accurate target feature map can be generated.
また、本実施形態では、差分抽出画像は、類似度マップの各値を色又は濃淡で表したヒートマップ画像であるため、2つの画像の差を直感的に素早く把握することが可能となる。 Furthermore, in this embodiment, the difference extracted image is a heat map image in which each value of the similarity map is represented by color or shading, so it is possible to quickly and intuitively grasp the difference between the two images.
上述した本開示の実施形態は、本開示の説明のための例示であり、本開示の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本開示の範囲を逸脱することなしに、他の様々な態様で本開示を実施することができる。 The embodiments of the present disclosure described above are examples for explaining the present disclosure, and are not intended to limit the scope of the present disclosure only to those embodiments. Those skilled in the art can implement the present disclosure in various other ways without departing from the scope of the disclosure.
100:利用者端末、101:入出力部、101:処理フロー作成サーバ、102:端末管理部、103:ネットワーク部、104:画像処理サーバ、105:サーバ管理部、106:画像検索部、107:画像レジストレーション部、108:画像差分抽出部、109:ネットワーク部、110:画像データベース、111:ネットワーク、112:メモリ、201:指定特徴抽出部、201a~201b:画像特徴抽出モデル、202:変換パラメータ回帰モデル、203:特徴関連性マップ算出部、204:実行部、300:画像特徴抽出モデル、301:処理層、302:畳み込み層、303:プーリング層、400:変換パラメータ回帰モデル、401:処理層、402:畳み込み層、403:プーリング層、404:FC層、700:画像差分抽出モデル、701:特徴抽出部、701a~701b:画像特徴抽出モデル、702:類似度算出部、703:画像処理部
100: User terminal, 101: Input/output unit, 101: Process flow creation server, 102: Terminal management unit, 103: Network unit, 104: Image processing server, 105: Server management unit, 106: Image search unit, 107: Image registration section, 108: Image difference extraction section, 109: Network section, 110: Image database, 111: Network, 112: Memory, 201: Specified feature extraction section, 201a to 201b: Image feature extraction model, 202: Conversion parameter Regression model, 203: Feature relevance map calculation unit, 204: Execution unit, 300: Image feature extraction model, 301: Processing layer, 302: Convolution layer, 303: Pooling layer, 400: Transformation parameter regression model, 401: Processing layer , 402: Convolution layer, 403: Pooling layer, 404: FC layer, 700: Image difference extraction model, 701: Feature extraction unit, 701a to 701b: Image feature extraction model, 702: Similarity calculation unit, 703: Image processing unit
Claims (11)
各対象特徴マップの位置ごとの類似度を示す類似度マップを生成する類似度算出部と、
前記類似度マップに応じた差分抽出画像を生成する画像処理部と、
複数の指定画像に対して幾何学的な差異を補正する画像レジストレーション処理を行って前記対象画像を生成する画像レジストレーション部と、を有し、
前記画像レジストレーション部は、
前記複数の指定画像のそれぞれの特徴マップである複数の指定特徴マップを生成する指定特徴抽出部と、
各指定特徴マップに基づいて、複数の画像の幾何学的な差異を補正するための変換モデルの変換パラメータを推定するパラメータ推定部と、
前記変換パラメータを用いて前記画像レジストレーション処理を行う実行部と、を有する、類似画像差分抽出装置。 a feature extraction unit that generates a plurality of target feature maps that are feature maps indicating characteristics of each of the plurality of target images;
a similarity calculation unit that generates a similarity map indicating the similarity for each position of each target feature map;
an image processing unit that generates a difference extraction image according to the similarity map;
an image registration unit that performs image registration processing to correct geometric differences on a plurality of specified images to generate the target image ;
The image registration section includes:
a specified feature extraction unit that generates a plurality of specified feature maps that are feature maps of each of the plurality of specified images;
a parameter estimation unit that estimates transformation parameters of a transformation model for correcting geometric differences between the plurality of images based on each specified feature map;
A similar image difference extraction device , comprising: an execution unit that performs the image registration process using the conversion parameter .
前記指定特徴抽出部が用いる学習モデルと前記特徴抽出部が用いる学習モデルとは、同じモデルである、請求項3に記載の類似画像差分抽出装置。 The feature extraction unit generates the target feature map using a learning model that generates a feature map of an image,
4. The similar image difference extraction device according to claim 3 , wherein the learning model used by the specified feature extraction section and the learning model used by the feature extraction section are the same model.
の差を示す損失値に基づいて、前記学習モデルを構築する学習管理部をさらに有する、請求項3に記載の類似画像差分抽出装置。 A first transformation parameter that is the randomly generated transformation parameter, and a first learning image and a corresponding similar image that is associated in advance with the first learning image are transformed using the first transformation parameter. a second transformation parameter that is the transformation parameter estimated by the image registration unit when the second learning image is the plurality of designated images;
4. The similar image difference extraction device according to claim 3 , further comprising a learning management unit that constructs the learning model based on a loss value indicating a difference in the learning model.
複数の指定画像に対して幾何学的な差異を補正する画像レジストレーション処理を行って複数の対象画像を生成し、
前記複数の対象画像のそれぞれの特徴を示す特徴マップである複数の対象特徴マップを生成し、
各対象特徴マップの位置ごとの類似度を示す類似度マップを生成し、
前記類似度マップに応じた差分抽出画像を生成し、
前記対象画像の生成では、
前記複数の指定画像のそれぞれの特徴マップである複数の指定特徴マップを生成し、
各指定特徴マップに基づいて、複数の画像の幾何学的な差異を補正するための変換モデルの変換パラメータを推定し、
前記変換パラメータを用いて前記画像レジストレーション処理を行う、類似画像差分抽出方法。 A similar image difference extraction method using a similar image difference extraction device, the method comprising:
Performs image registration processing to correct geometric differences on multiple designated images to generate multiple target images,
Generating a plurality of target feature maps that are feature maps indicating characteristics of each of the plurality of target images,
Generate a similarity map showing the similarity for each position of each target feature map,
Generating a difference extraction image according to the similarity map,
In generating the target image,
generating a plurality of designated feature maps that are feature maps of each of the plurality of designated images;
Based on each designated feature map, estimate transformation parameters of a transformation model for correcting geometric differences between multiple images;
A similar image difference extraction method , wherein the image registration process is performed using the conversion parameter .
複数の指定画像に対して幾何学的な差異を補正する画像レジストレーション処理を行って複数の対象画像を生成する手順と、
前記複数の対象画像のそれぞれの特徴を示す特徴マップである複数の対象特徴マップを生成する手順と、
各対象特徴マップの位置ごとの類似度を示す類似度マップを生成する手順と、
前記類似度マップに応じた差分抽出画像を生成する手順と、を実行させ、
前記対象画像を生成する手順は、
前記複数の指定画像のそれぞれの特徴マップである複数の指定特徴マップを生成する手順と、
各指定特徴マップに基づいて、複数の画像の幾何学的な差異を補正するための変換モデルの変換パラメータを推定する手順と、
前記変換パラメータを用いて前記画像レジストレーション処理を行う手順と、を含む、プログラム。 to the computer,
a step of generating a plurality of target images by performing image registration processing to correct geometric differences on the plurality of specified images;
a step of generating a plurality of target feature maps that are feature maps indicating characteristics of each of the plurality of target images;
a step of generating a similarity map indicating the degree of similarity for each location of each target feature map;
performing a step of generating a difference extraction image according to the similarity map ;
The procedure for generating the target image is as follows:
a step of generating a plurality of designated feature maps that are feature maps of each of the plurality of designated images;
estimating transformation parameters of a transformation model for correcting geometric differences between the plurality of images based on each designated feature map;
A program comprising: performing the image registration process using the conversion parameters .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020177786A JP7417504B2 (en) | 2020-10-23 | 2020-10-23 | Similar image difference extraction device, similar image difference extraction method, program and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020177786A JP7417504B2 (en) | 2020-10-23 | 2020-10-23 | Similar image difference extraction device, similar image difference extraction method, program and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022068941A JP2022068941A (en) | 2022-05-11 |
JP7417504B2 true JP7417504B2 (en) | 2024-01-18 |
Family
ID=81521809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020177786A Active JP7417504B2 (en) | 2020-10-23 | 2020-10-23 | Similar image difference extraction device, similar image difference extraction method, program and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7417504B2 (en) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002304415A (en) | 2001-04-04 | 2002-10-18 | Omron Corp | Image search device |
JP2003187289A (en) | 2001-12-21 | 2003-07-04 | Sankyo Seiki Mfg Co Ltd | Method for identifying circular body to be detected |
JP2005004612A (en) | 2003-06-13 | 2005-01-06 | Denso Corp | Image recognition device |
JP2006331460A (en) | 2004-03-03 | 2006-12-07 | Nec Corp | Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program |
JP2006338313A (en) | 2005-06-01 | 2006-12-14 | Nippon Telegr & Teleph Corp <Ntt> | Similar image retrieving method, similar image retrieving system, similar image retrieving program, and recording medium |
WO2007069393A1 (en) | 2005-12-14 | 2007-06-21 | Nec Corporation | Object recognition device, object recognition method, and object recognition program |
JP2009086762A (en) | 2007-09-27 | 2009-04-23 | Fujifilm Corp | Similarity calculation device and similarity display device |
JP2009251667A (en) | 2008-04-01 | 2009-10-29 | Toyota Motor Corp | Image retrieval device |
JP2012079186A (en) | 2010-10-05 | 2012-04-19 | Yahoo Japan Corp | Image retrieval device, image retrieval method and program |
JP2012146221A (en) | 2011-01-13 | 2012-08-02 | Nippon Telegr & Teleph Corp <Ntt> | Feature amount acquisition device, similar image retrieval device, feature amount acquisition method, and program |
WO2012111236A1 (en) | 2011-02-17 | 2012-08-23 | 三洋電機株式会社 | Image identification device and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2776295B2 (en) * | 1994-10-27 | 1998-07-16 | 日本電気株式会社 | Image index generation method and image index generation device |
JP3952592B2 (en) * | 1998-04-30 | 2007-08-01 | キヤノン株式会社 | Image search apparatus and method |
-
2020
- 2020-10-23 JP JP2020177786A patent/JP7417504B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002304415A (en) | 2001-04-04 | 2002-10-18 | Omron Corp | Image search device |
JP2003187289A (en) | 2001-12-21 | 2003-07-04 | Sankyo Seiki Mfg Co Ltd | Method for identifying circular body to be detected |
JP2005004612A (en) | 2003-06-13 | 2005-01-06 | Denso Corp | Image recognition device |
JP2006331460A (en) | 2004-03-03 | 2006-12-07 | Nec Corp | Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program |
JP2006338313A (en) | 2005-06-01 | 2006-12-14 | Nippon Telegr & Teleph Corp <Ntt> | Similar image retrieving method, similar image retrieving system, similar image retrieving program, and recording medium |
WO2007069393A1 (en) | 2005-12-14 | 2007-06-21 | Nec Corporation | Object recognition device, object recognition method, and object recognition program |
JP2009086762A (en) | 2007-09-27 | 2009-04-23 | Fujifilm Corp | Similarity calculation device and similarity display device |
JP2009251667A (en) | 2008-04-01 | 2009-10-29 | Toyota Motor Corp | Image retrieval device |
JP2012079186A (en) | 2010-10-05 | 2012-04-19 | Yahoo Japan Corp | Image retrieval device, image retrieval method and program |
JP2012146221A (en) | 2011-01-13 | 2012-08-02 | Nippon Telegr & Teleph Corp <Ntt> | Feature amount acquisition device, similar image retrieval device, feature amount acquisition method, and program |
WO2012111236A1 (en) | 2011-02-17 | 2012-08-23 | 三洋電機株式会社 | Image identification device and program |
Also Published As
Publication number | Publication date |
---|---|
JP2022068941A (en) | 2022-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11586464B2 (en) | Techniques for workflow analysis and design task optimization | |
US20220414911A1 (en) | Three-dimensional reconstruction method and three-dimensional reconstruction apparatus | |
CN106296812B (en) | It is synchronous to position and build drawing method | |
WO2022257578A1 (en) | Method for recognizing text, and apparatus | |
JP5552495B2 (en) | System and method for arranging and displaying items | |
US8285052B1 (en) | Image ordering system optimized via user feedback | |
US11132392B2 (en) | Image retrieval method, image retrieval apparatus, image retrieval device and medium | |
JP4770932B2 (en) | Pattern feature extraction method and apparatus | |
US7849040B2 (en) | Method for using isometries on the space of signatures to find similar sets of data | |
US20220392201A1 (en) | Image feature matching method and related apparatus, device and storage medium | |
JP6902811B2 (en) | Parallax estimation systems and methods, electronic devices and computer readable storage media | |
CN112465122B (en) | Device and method for optimizing original dimension operator in neural network model | |
Song et al. | A novel partial point cloud registration method based on graph attention network | |
US20220139073A1 (en) | Automatic topology mapping processing method and system based on omnidirectional image information | |
KR20210107278A (en) | A method for image processing with contextual style transfer | |
JPH11120180A (en) | Data retrieval device and storage medium recording data retrieval program | |
JP7417504B2 (en) | Similar image difference extraction device, similar image difference extraction method, program and recording medium | |
CN107016732A (en) | Positioned using the 3D objects of descriptor | |
US20100185672A1 (en) | Techniques for spatial representation of data and browsing based on similarity | |
CN107066926A (en) | Positioned using the 3D objects of descriptor | |
Havlena et al. | Optimal reduction of large image databases for location recognition | |
KR102405168B1 (en) | Method and apparatus for generating of data set, computer-readable storage medium and computer program | |
KR102212328B1 (en) | Apparatus and method for searching fabric pattern based on artificial intelligence | |
Vakalopoulou et al. | Deep learning for image matching and Co‐registration | |
Rao et al. | Fast 3D point cloud segmentation using deep neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240105 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7417504 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |