JP7417504B2 - Similar image difference extraction device, similar image difference extraction method, program and recording medium - Google Patents

Similar image difference extraction device, similar image difference extraction method, program and recording medium Download PDF

Info

Publication number
JP7417504B2
JP7417504B2 JP2020177786A JP2020177786A JP7417504B2 JP 7417504 B2 JP7417504 B2 JP 7417504B2 JP 2020177786 A JP2020177786 A JP 2020177786A JP 2020177786 A JP2020177786 A JP 2020177786A JP 7417504 B2 JP7417504 B2 JP 7417504B2
Authority
JP
Japan
Prior art keywords
image
images
feature
map
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020177786A
Other languages
Japanese (ja)
Other versions
JP2022068941A (en
Inventor
晃治 中山
康二 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2020177786A priority Critical patent/JP7417504B2/en
Publication of JP2022068941A publication Critical patent/JP2022068941A/en
Application granted granted Critical
Publication of JP7417504B2 publication Critical patent/JP7417504B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本開示は、類似画像差分抽出装置に関する。 The present disclosure relates to a similar image difference extraction device.

近年、ユーザが指定した画像と類似する類似画像を検索する類似画像検索技術が注目されている。例えば、製造業などの分野では、製品の設計を行う際に、設計図面と類似する図面を検索することで、過去に設計した図面を参照することができ、製品設計及びその見積などの効率化を図ることが可能となる。 In recent years, similar image search technology that searches for similar images similar to an image specified by a user has been attracting attention. For example, in fields such as the manufacturing industry, when designing a product, you can search for drawings similar to the design drawing and refer to drawings designed in the past, improving the efficiency of product design and estimates. It becomes possible to aim for.

また、類似画像検索技術では、更なる効率化のために、指定された画像と検索された類似画像との差分を直感的に把握できるようにする技術が望まれている。 Furthermore, in similar image search technology, in order to further improve efficiency, a technology that allows users to intuitively grasp the difference between a designated image and a searched similar image is desired.

これに対して特許文献1には、2つの画像のそれぞれに対して所定のバイナリー記述子を算出し、それらのバイナリー記述子に基づいて、各画像のオブジェクトの位置、サイズ、角度及び歪みなどの差異を補正して、各画像を比較しやすいように変形する画像レジストレーションの方法が開示されている。 On the other hand, in Patent Document 1, predetermined binary descriptors are calculated for each of two images, and based on these binary descriptors, the position, size, angle, distortion, etc. of objects in each image are calculated. An image registration method is disclosed that corrects differences and transforms each image to facilitate comparison.

特開2018-28899号公報Japanese Patent Application Publication No. 2018-28899

しかしながら、特許文献1では、2つの画像を比較しやすいように変形しているだけなので、ユーザはそれらを目視で比較して差分を特定しなければならず、差分を把握する効率は十分とはいえない。また、特許文献1には、ユーザがバイナリー記述子の種類を画像に応じて指定しなければならないという問題点もある。 However, in Patent Document 1, the two images are simply transformed to make them easier to compare, so the user must visually compare them to identify the difference, and the efficiency of understanding the difference is not sufficient. I can't say that. Furthermore, Patent Document 1 also has a problem in that the user has to specify the type of binary descriptor depending on the image.

本開示の目的は、画像間の差分を効率よく把握することが可能な類似画像差分抽出装置、類似画像差分抽出方法、プログラム及び記録媒体を提供することにある。 An object of the present disclosure is to provide a similar image difference extraction device, a similar image difference extraction method, a program, and a recording medium that can efficiently grasp differences between images.

本開示の一態様に従う類似画像差分抽出装置は、複数の対象画像のそれぞれの特徴を示す特徴マップである複数の対象特徴マップを生成する特徴抽出部と、各対象特徴マップの位置ごとの類似度を示す類似度マップを生成する類似度算出部と、前記類似度マップに応じた差分抽出画像を生成する画像処理部と、を有する。 A similar image difference extraction device according to one aspect of the present disclosure includes a feature extraction unit that generates a plurality of target feature maps that are feature maps indicating characteristics of each of a plurality of target images, and a similarity degree for each position of each target feature map. and an image processing section that generates a difference extraction image according to the similarity map.

本発明によれば、画像間の差分を効率よく把握することが可能になる。 According to the present invention, it is possible to efficiently understand differences between images.

本開示の一実施形態による類似画像差分抽出システムを示す図である。FIG. 1 is a diagram illustrating a similar image difference extraction system according to an embodiment of the present disclosure. 画像レジストレーションモデルの一例を示す図である。FIG. 3 is a diagram showing an example of an image registration model. 画像特徴抽出モデルの一例を示す図である。FIG. 3 is a diagram showing an example of an image feature extraction model. 変換パラメータ回帰モデルの一例を示す図である。FIG. 3 is a diagram showing an example of a conversion parameter regression model. 画像レジストレーション部の動作の一例を説明するための図である。FIG. 3 is a diagram for explaining an example of the operation of an image registration section. 画像レジストレーション部の動作の一例を説明するためのフローチャートである。3 is a flowchart for explaining an example of the operation of an image registration section. 画像差分抽出モデルの一例を示す図である。FIG. 3 is a diagram showing an example of an image difference extraction model. 画像差分抽出部の動作の動作の一例を説明するためのフローチャートである。7 is a flowchart for explaining an example of the operation of an image difference extraction section. 画像差分抽出部フローを示す図である。It is a figure which shows the flow of an image difference extraction part. 類似画像差分抽出システム全体の動作の一例を説明するためのフローチャートである。2 is a flowchart for explaining an example of the operation of the entire similar image difference extraction system. 類似検索結果の一例を示す図である。It is a figure showing an example of a similar search result. 画像レジストレーション処理の結果の一例を示す図である。FIG. 3 is a diagram showing an example of the result of image registration processing. 画像差分抽出処理の結果の一例を示す図である。FIG. 3 is a diagram illustrating an example of the results of image difference extraction processing. 分割画像差分抽出処理の一例を説明するためのフローチャートである。7 is a flowchart for explaining an example of divided image difference extraction processing. 分割画像差分抽出処理の結果の一例を示す図である。FIG. 7 is a diagram illustrating an example of a result of divided image difference extraction processing. 学習処理の一例を説明するためのフローチャートである。3 is a flowchart for explaining an example of learning processing. 学習処理の他の例を説明するためのフローチャートである。12 is a flowchart for explaining another example of learning processing.

以下、本開示の実施形態について図面を参照して説明する。 Embodiments of the present disclosure will be described below with reference to the drawings.

<システム構成>
図1は、本開示の一実施形態による類似画像差分抽出システムを示す図である。図1に示すように類似画像差分抽出システムは、利用者端末100と、画像処理サーバ104とを有する。利用者端末100及び画像処理サーバ104は、ネットワーク111を介して、互いに通信可能に接続される。
<System configuration>
FIG. 1 is a diagram illustrating a similar image difference extraction system according to an embodiment of the present disclosure. As shown in FIG. 1, the similar image difference extraction system includes a user terminal 100 and an image processing server 104. The user terminal 100 and the image processing server 104 are connected to each other via a network 111 so that they can communicate with each other.

<利用者端末>
利用者端末100は、入出力部101と、端末管理部102と、ネットワーク部103とを備える。利用者端末100は、例えば、汎用的なPC(Personal Computer)などで構成できる。
<User terminal>
The user terminal 100 includes an input/output section 101, a terminal management section 102, and a network section 103. The user terminal 100 can be configured with, for example, a general-purpose PC (Personal Computer).

<入出力部>
入出力部101は、例えば、マウス、キーボード及びディスプレイなどのユーザインターフェース装置で構成される。入出力部101は、ユーザから画像処理コマンドを受け付ける機能と、画像処理コマンドに応じた応答情報を表示する機能とを有する。応答情報は、例えば、ブラウザのようなアプリケーションプログラムを用いて表示される。
<Input/output section>
The input/output unit 101 includes, for example, a user interface device such as a mouse, a keyboard, and a display. The input/output unit 101 has a function of receiving image processing commands from a user and a function of displaying response information according to the image processing commands. The response information is displayed using an application program such as a browser.

<端末管理部>
端末管理部102は、入出力部101が受け付けた画像処理コマンドを、ネットワーク部103を介して画像処理サーバ104に送信する機能と、画像処理サーバ104からの応答情報を、ネットワーク部103を介して受信する機能とを有する。画像処理コマンドの送信及び応答情報の受信は、ここでは、ブラウザのようなアプリケーションプログラムを用いて、HTTPなどのプロトコルにて行われるが、別の方法でもよい。なお、ネットワーク部103は、画像処理サーバ104と通信可能に接続する通信機能を有する通信部である。
<Terminal management department>
The terminal management unit 102 has a function of transmitting image processing commands received by the input/output unit 101 to the image processing server 104 via the network unit 103, and a function of transmitting response information from the image processing server 104 via the network unit 103. and a receiving function. Here, the image processing command is transmitted and the response information is received using an application program such as a browser using a protocol such as HTTP, but other methods may be used. Note that the network unit 103 is a communication unit that has a communication function to communicably connect to the image processing server 104.

上記の画像処理コマンドは、本実施形態では、画像検索コマンド、画像レジストレーションコマンド、差分抽出コマンド及び学習実行コマンドを含む。 In this embodiment, the above image processing commands include an image search command, an image registration command, a difference extraction command, and a learning execution command.

<画像検索コマンド>
画像検索コマンドは、ユーザが指定したクエリ画像と類似する類似画像の検索である画像検索処理の実行を指示するコマンドである。画像検索処理では、複数の類似画像が検索されてもよい。
<Image search command>
The image search command is a command that instructs execution of image search processing, which is a search for similar images similar to a query image specified by the user. In the image search process, a plurality of similar images may be searched.

<画像レジストレーションコマンド>
画像レジストレーションコマンドは、クエリ画像と類似画像とを含む画像群から指定された複数の指定画像に対する画像レジストレーション処理の実行を指示するコマンドである。画像レジストレーションについては、後述する。本実施形態では、複数の指定画像として2つの指定画像を例示するが、指定画像が3つ以上の場合でも適用可能である。
<Image registration command>
The image registration command is a command that instructs execution of image registration processing on a plurality of specified images specified from a group of images including the query image and similar images. Image registration will be described later. In this embodiment, two specified images are illustrated as the plurality of specified images, but the present invention is also applicable to a case where there are three or more specified images.

<差分抽出コマンド>
差分抽出コマンドは、複数の対象画像間の差分を抽出して可視化する画像差分抽出処理の実行を指示するコマンドである。本実施形態では、複数の対象画像として2つの対象画像を例示するが、対象画像が3つ以上の場合でも適用可能である。また、その2つ対象画像は、画像レジストレーション処理が実行された2つの指定画像である。なお、類似画像差分抽出システムは、画像レジストレーションコマンドと差分抽出コマンドとを自動的に連続して実行する連続モードと、それらのコマンドをユーザの指示に従って独立して実行する個別モードとを有し、ユーザがそれらのモードのいずれかを設定できる構成でもよい。本実施形態では、個別モードが設定されているものとする。
<Difference extraction command>
The difference extraction command is a command that instructs execution of image difference extraction processing that extracts and visualizes differences between a plurality of target images. In this embodiment, two target images are illustrated as the plurality of target images, but the present invention is also applicable to a case where there are three or more target images. Furthermore, the two target images are two specified images on which image registration processing has been performed. The similar image difference extraction system has a continuous mode in which image registration commands and difference extraction commands are automatically executed in succession, and an individual mode in which these commands are executed independently according to user instructions. , the configuration may be such that the user can set any of these modes. In this embodiment, it is assumed that the individual mode is set.

<学習実行コマンド>
学習実行コマンドは、画像レジストレーション処理及び画像差分抽出処理で使用される学習モデルを構築する学習処理の実行を指示するコマンドである。学習モデルについては、後述する。
<Learning execution command>
The learning execution command is a command that instructs execution of learning processing to construct a learning model used in image registration processing and image difference extraction processing. The learning model will be described later.

<画像処理サーバ>
画像処理サーバ104は、利用者端末100からの画像処理コマンドに応じた種々の処理を行う類似画像差分抽出装置であり、サーバ管理部105、画像検索部106、画像レジストレーション部107、画像差分抽出部108、ネットワーク部109、及び、画像データベース110を有する。なお、以下で説明する画像処理サーバ104の各部が行う処理は、CPU(Central Processing Unit)などのプロセッサがプログラムを実行することで実現されてもよい。また、プログラムは、例えば、半導体メモリ、磁気ディスク、光ディスク、磁気テープ及び光磁気ディスクなどのような、非一時的にデータを記憶する記録媒体112に記録させることもできる。なお、記録媒体112は、図1では、画像処理サーバ104とは別に設けられているが、画像処理サーバ104内に備わっていてもよい。
<Image processing server>
The image processing server 104 is a similar image difference extraction device that performs various processes according to image processing commands from the user terminal 100, and includes a server management section 105, an image search section 106, an image registration section 107, and an image difference extraction device. It has a section 108, a network section 109, and an image database 110. Note that the processing performed by each part of the image processing server 104 described below may be realized by a processor such as a CPU (Central Processing Unit) executing a program. Further, the program can also be recorded on a recording medium 112 that non-temporarily stores data, such as a semiconductor memory, a magnetic disk, an optical disk, a magnetic tape, and a magneto-optical disk. Note that although the recording medium 112 is provided separately from the image processing server 104 in FIG. 1, it may be provided within the image processing server 104.

<サーバ管理部>
サーバ管理部105は、利用者端末100からネットワーク部109を介して画像処理コマンドを受信し、その画像処理コマンドに従って、画像検索部106、画像レジストレーション部107及び画像差分抽出部108に種々の処理を実行させる機能を有する。また、サーバ管理部105は、画像検索部106、画像レジストレーション部107及び画像差分抽出部108の処理結果を応答情報として、ネットワーク部109を介して利用者端末100に送信する機能を有する。また、サーバ管理部105は、学習処理を実行して学習モデルを構築する学習管理部としての機能も有する。
<Server Management Department>
The server management unit 105 receives an image processing command from the user terminal 100 via the network unit 109, and performs various processing on the image search unit 106, image registration unit 107, and image difference extraction unit 108 according to the image processing command. It has the function to execute. The server management unit 105 also has a function of transmitting the processing results of the image search unit 106, image registration unit 107, and image difference extraction unit 108 to the user terminal 100 via the network unit 109 as response information. The server management unit 105 also has a function as a learning management unit that executes learning processing and constructs a learning model.

<画像検索部>
画像検索部106は、画像検索コマンドに従って、ユーザが指定したクエリ画像と類似する類似画像を画像データベース110から検索する画像検索処理を実行する機能を有する。画像データベース110は、複数の画像を予め記憶している。なお、画像データベース110は、画像処理サーバ104とは別のストレージ装置などに搭載されていてもよい。また、画像検索処理の具体的な方法については、種々の公知技術が存在するため、その詳細な説明は省略する。
<Image search section>
The image search unit 106 has a function of executing an image search process of searching the image database 110 for a similar image similar to a query image specified by the user in accordance with an image search command. The image database 110 stores a plurality of images in advance. Note that the image database 110 may be installed in a storage device or the like separate from the image processing server 104. Furthermore, since there are various known techniques for specific methods of image search processing, detailed explanation thereof will be omitted.

<画像レジストレーション部>
画像レジストレーション部107は、クエリ画像と画像検索部106にて検索された類似画像とを含む画像群の中から指定された2つの指定画像に対して画像レジストレーション処理を実行する機能を有する。画像レジストレーション処理は、2つの画像の間に存在する幾何学的な変換モデルを推定し、その変換モデルを用いて各画像間のサイズ、位置、角度及び歪みなどの幾何学的な差異を補正する処理である。画像レジストレーション処理を行うことで、2つの画像の差異の抽出が容易となる。
<Image registration section>
The image registration unit 107 has a function of performing image registration processing on two specified images specified from a group of images including the query image and the similar images searched by the image search unit 106. Image registration processing estimates a geometric transformation model that exists between two images, and uses that transformation model to correct geometric differences such as size, position, angle, and distortion between each image. This is the process of By performing image registration processing, it becomes easy to extract the difference between two images.

本実施形態では、画像レジストレーション部107は、一般的な画像処理による特徴量の算出とマッピングとを用いた変換モデルの推定を行わず、学習モデル(具体的には、ニューラルネットワークを用いた機械学習モデル)による変換モデルの推定を行う。以下、画像レジストレーション部107が使用する学習モデルを画像レジストレーションモデルと呼ぶこともある。 In this embodiment, the image registration unit 107 does not estimate a conversion model using feature calculation and mapping using general image processing, but uses a learning model (specifically, a learning model using a neural network). The conversion model is estimated using the learning model. Hereinafter, the learning model used by the image registration unit 107 may be referred to as an image registration model.

<画像差分抽出部>
画像差分抽出部108は、画像レジストレーション部107による画像レジストレーション処理が行われた2つの指定画像を対象画像として、それらの対象画像の差異を抽出して可視化する画像差分抽出処理を実行する機能を有する。本実施形態では、画像差分抽出部108は、画像レジストレーション部107と同様に、学習モデルとしてニューラルネットワークを用いた機械学習モデルを用いて、画像差分抽出処理を実行する。以下、画像差分抽出部108が使用する機械学習モデルを画像差分抽出モデルと呼ぶこともある。
<Image difference extraction section>
The image difference extraction unit 108 has a function of executing an image difference extraction process that extracts and visualizes the difference between the two specified images, which have been subjected to the image registration process by the image registration unit 107, as target images. has. In this embodiment, the image difference extraction unit 108, like the image registration unit 107, executes image difference extraction processing using a machine learning model using a neural network as a learning model. Hereinafter, the machine learning model used by the image difference extraction unit 108 may be referred to as an image difference extraction model.

以下、画像レジストレーション部107についてより詳細に説明する。 The image registration unit 107 will be described in more detail below.

<画像レジストレーションモデル>
図2は、画像レジストレーション部107が使用する画像レジストレーションモデルの一例を示す図である。図2に示す画像レジストレーションモデル200は、画像特徴抽出モデル201a及び201bと、変換パラメータ回帰モデル202と、特徴関連性マップ算出部203とを有する。また、画像レジストレーション部107は、画像レジストレーションモデルの処理結果に基づいて、画像レジストレーション処理を実際に実行する実行部204を有する。
<Image registration model>
FIG. 2 is a diagram showing an example of an image registration model used by the image registration unit 107. The image registration model 200 shown in FIG. 2 includes image feature extraction models 201a and 201b, a conversion parameter regression model 202, and a feature relationship map calculation unit 203. The image registration unit 107 also includes an execution unit 204 that actually executes image registration processing based on the processing result of the image registration model.

画像レジストレーションモデル200は、2つの指定画像を入力とし、その2つの指定画像に対して画像レジストレーション処理を実行するための変換モデルのパラメータである変換パラメータを推定する。変換モデルは、例えば、アフィン変換モデル又はホモグラフィ変換モデルなどである。画像レジストレーション処理では、変換モデルを用いて画像の拡大縮小、回転及び平行移動などの変形を行うことで、2つの指定画像の幾何学的な差異を補正することが可能となる。なお、2つの指定画像の一方が画像特徴抽出モデル201aに入力され、他方が画像特徴抽出モデル201aに入力される。 The image registration model 200 receives two designated images as input and estimates transformation parameters that are parameters of a transformation model for performing image registration processing on the two designated images. The transformation model is, for example, an affine transformation model or a homography transformation model. In image registration processing, it is possible to correct geometric differences between two specified images by performing transformations such as scaling, rotation, and translation of images using a transformation model. Note that one of the two specified images is input to the image feature extraction model 201a, and the other is input to the image feature extraction model 201a.

<画像特徴抽出モデル>
図3は、画像特徴抽出モデルの一例を示す図である。画像特徴抽出モデル201a及び201bは、入力された2つの指定画像のそれぞれの特徴を示す2つの特徴マップである指定特徴マップを生成する指定特徴抽出部を構成する。また、画像特徴抽出モデル201a及び201bは、同一のモデルであり、図3では、画像特徴抽出モデル300として示されている。
<Image feature extraction model>
FIG. 3 is a diagram showing an example of an image feature extraction model. The image feature extraction models 201a and 201b constitute a designated feature extraction unit that generates designated feature maps, which are two feature maps indicating the respective features of the two input designated images. Furthermore, the image feature extraction models 201a and 201b are the same model, and are shown as an image feature extraction model 300 in FIG.

図3に示す画像特徴抽出モデル300は、入力された指定画像から、その指定画像の特徴を示す指定特徴マップを算出するための学習モデルである。画像特徴抽出モデル300は、例えば、CNN(Convolutional Neural Network:畳み込みニューラルネットワーク)のようなニューラルネットワークにて実現することが可能である。指定画像は、ここでは、横幅成分(水平画素成分)と縦幅成分(垂直画素成分)と色成分とを含む3階のテンソルで表されるとする。また、横幅成分と縦幅成分とで示される位置を画素位置、横幅(横幅成分の数)及び縦幅(縦幅成分の数)を画像サイズ、色成分cをチャネル、色成分の数をチャネル数と呼ぶこともある。 The image feature extraction model 300 shown in FIG. 3 is a learning model for calculating, from an input designated image, a designated feature map indicating the characteristics of the designated image. The image feature extraction model 300 can be realized by, for example, a neural network such as a CNN (Convolutional Neural Network). Here, it is assumed that the specified image is represented by a third-order tensor including a width component (horizontal pixel component), a height component (vertical pixel component), and a color component. In addition, the position indicated by the width component and the height component is the pixel position, the width (the number of width components) and the height width (the number of the height components) are the image size, the color component c is the channel, and the number of color components is the channel. Sometimes called numbers.

画像特徴抽出モデル300は、畳み込み層(図では、Convと表記)302とプーリング層(図では、Poolと表記)303とを含む処理層301を複数備える。複数の処理層301は互いに直列に接続される。各処理層301の畳み込み層302は、入力テンソルに対して畳み込み処理を行い、プーリング層303は、前段の畳み込み層302の出力テンソルに対して画像サイズを削減するプーリング処理を行って入力テンソルの特徴を示す特徴マップとして処理層301から出力する。処理層301から出力される特徴マップもテンソルである。ここでは、入力テンソルは、各処理層301において、チャネル数が入力前の2倍となり、画像サイズが入力前の1/2倍となって出力されるものとするが、この例に限定されない。ただし、最前段の処理層301では、チャネル数が入力前の2倍とはならない。 The image feature extraction model 300 includes a plurality of processing layers 301 including a convolution layer (denoted as Conv in the figure) 302 and a pooling layer (denoted as Pool in the figure) 303. The plurality of processing layers 301 are connected to each other in series. The convolution layer 302 of each processing layer 301 performs convolution processing on the input tensor, and the pooling layer 303 performs pooling processing to reduce the image size on the output tensor of the previous convolution layer 302, and It is output from the processing layer 301 as a feature map showing. The feature map output from the processing layer 301 is also a tensor. Here, it is assumed that the input tensor is outputted in each processing layer 301 with twice the number of channels as before input, and with an image size 1/2 times as large as before input, but the invention is not limited to this example. However, in the processing layer 301 at the forefront, the number of channels is not twice the number before input.

なお、各処理層301は、複数の畳み込み層302を備え、畳み込み処理を複数回行ってもよいが、ここでは、畳み込み層302は1つだけであるとしている。また、処理層301は、図3では、2つ示されているが、本実施形態では、4つあるとする。ただし、処理層301の数は4つに限定されない。また、畳み込み処理の後に、一般的なニューラルネットワークと同様に、バッチノーマライゼーション処理又は活性化関数(例えば、ランプ関数)処理などの後処理が行われてもよい。 Note that each processing layer 301 may include a plurality of convolutional layers 302 and perform convolution processing multiple times, but here, it is assumed that there is only one convolutional layer 302. Although two processing layers 301 are shown in FIG. 3, in this embodiment, there are four processing layers 301. However, the number of processing layers 301 is not limited to four. Further, after the convolution process, post-processing such as batch normalization process or activation function (eg, ramp function) process may be performed, similar to a general neural network.

<特徴関連性マップ算出部>
図2の特徴関連性マップ算出部203は、画像特徴抽出モデル201a及び201bのそれぞれから出力された指定特徴マップの内積を算出して、指定特徴マップ間の関連性を示す特徴関連性マップとして出力する演算部である。
<Feature relevance map calculation unit>
The feature relevance map calculation unit 203 in FIG. 2 calculates the inner product of the designated feature maps output from each of the image feature extraction models 201a and 201b, and outputs it as a feature relevance map indicating the relevance between the designated feature maps. This is an arithmetic unit that performs

<変換パラメータ回帰モデル>
図4は、変換パラメータ回帰モデル202の一例を示す図である。変換パラメータ回帰モデル202は、特徴関連性マップ算出部203から出力された特徴関連性マップに基づいて、変換モデルのパラメータである変換パラメータを推定するモデルである。
<Conversion parameter regression model>
FIG. 4 is a diagram showing an example of the conversion parameter regression model 202. The conversion parameter regression model 202 is a model that estimates conversion parameters, which are parameters of the conversion model, based on the feature relevance map output from the feature relevance map calculation unit 203.

ここでは、変換モデルを、アフィン変換を行うアフィン変換モデルとする。アフィン変換は、平行移動と線形変換をと組み合わせた変換である。線形変換とは、画像の拡大縮小、剪断及び回転を含む変換である。同次座標系を用いると、アフィン変換の変換行列は、以下の数式(1)で表される。

Figure 0007417504000001
数式(1)は、画像の(X,Y)座標の点がアフィン変換により(X’、Y’)の点に変換されることを示す。また、数(1)のa,b,t,c,d及びtが変換パラメータである。なお、推定する変換パラメータを変更することでホモグラフィ変換モデルなどの他の変換モデルに適用することができる。 Here, the transformation model is an affine transformation model that performs affine transformation. An affine transformation is a combination of translation and linear transformation. A linear transformation is a transformation that includes scaling, shearing, and rotating an image. When a homogeneous coordinate system is used, the transformation matrix of affine transformation is expressed by the following equation (1).
Figure 0007417504000001
Equation (1) indicates that a point at coordinates (X, Y) of an image is transformed into a point at (X', Y') by affine transformation. Further, a, b, t x , c, d, and ty in number (1) are conversion parameters. Note that by changing the estimated transformation parameters, the method can be applied to other transformation models such as the homography transformation model.

変換パラメータ回帰モデル400は、畳み込み層(図では、Convと表記)402とプーリング層(図では、Poolと表記)403とを含む処理層401と、FC(Fully Conneted)層404とを含む。処理層401は、複数あり、それらの処理層401は互いに直接に接続される。FC層404は、最終層として最後段の処理層401の後に設けられる。 The conversion parameter regression model 400 includes a processing layer 401 including a convolution layer (denoted as Conv in the diagram) 402 and a pooling layer (denoted as Pool in the diagram) 403, and an FC (Fully Connected) layer 404. There are a plurality of processing layers 401, and these processing layers 401 are directly connected to each other. The FC layer 404 is provided as the final layer after the last processing layer 401.

各処理層401では、畳み込み層402が入力テンソルに対して畳み込み処理を行い、プーリング層403が畳み込み層402の出力テンソルに対してプーリング処理を行って特徴マップとして出力する。ここでは、入力テンソルは、各処理層401において、チャネル数が入力前の2倍となり、画像サイズが入力前の1/2倍となって出力されるものとするが、この例に限定されない。ただし、最前段の処理層401では、チャネル数が入力前の2倍とはならない。 In each processing layer 401, a convolution layer 402 performs convolution processing on the input tensor, and a pooling layer 403 performs pooling processing on the output tensor of the convolution layer 402, and outputs the result as a feature map. Here, it is assumed that the input tensor is outputted in each processing layer 401 with twice the number of channels as before input and with an image size 1/2 times as large as before input, but this is not limited to this example. However, in the processing layer 401 at the forefront, the number of channels is not twice that before input.

なお、各処理層401は、複数の畳み込み層402を備え、畳み込み処理を複数回行ってもよいが、ここでは、畳み込み層402は1つだけであるとしている。また、処理層401は、図4では、2つ示されているが、本実施形態では、4つあるとする。ただし、処理層401の数は4つに限定されない。また、畳み込み処理の後に上述した後処理が行われてもよい。 Note that each processing layer 401 may include a plurality of convolutional layers 402 and perform convolution processing multiple times, but here, it is assumed that there is only one convolutional layer 402. Although two processing layers 401 are shown in FIG. 4, in this embodiment, there are four processing layers 401. However, the number of processing layers 401 is not limited to four. Furthermore, the above-described post-processing may be performed after the convolution processing.

FC層404は、最後段の処理層401から出力された特徴マップに対して全結合処理を行うことで、特徴マップを1次元の出力ベクトルに変換して出力する。出力ベクトルの各要素が変換モデルの変換パラメータと対応する。このため、出力ベクトルの要素の数は、変換モデルの変換パラメータの数と同じであり、ここでは、変換モデルとしてアフィン変換モデルを使用しているため、出力ベクトルの要素の数は6となる。 The FC layer 404 converts the feature map into a one-dimensional output vector by performing full connection processing on the feature map output from the processing layer 401 at the last stage, and outputs the resultant one-dimensional output vector. Each element of the output vector corresponds to a transformation parameter of the transformation model. Therefore, the number of elements of the output vector is the same as the number of transformation parameters of the transformation model, and here, since an affine transformation model is used as the transformation model, the number of elements of the output vector is six.

以上説明した変換パラメータ回帰モデル202及び特徴関連性マップ算出部203が画像特徴抽出モデルにて生成された指定特徴マップに基づいて変換パラメータを推定するパラメータ推定部を構成する。 The conversion parameter regression model 202 and feature relationship map calculation unit 203 described above constitute a parameter estimation unit that estimates conversion parameters based on the designated feature map generated by the image feature extraction model.

<実行部>
実行部204は、変換パラメータ回帰モデル202からの出力ベクトルの要素に応じた変換パラメータに基づいて、2つの指定画像のいずれかに対してアフィン変換を実行することで、画像レジストレーション処理を実行する。
<Execution part>
The execution unit 204 performs image registration processing by performing affine transformation on either of the two designated images based on the transformation parameters corresponding to the elements of the output vector from the transformation parameter regression model 202. .

<画像レジストレーション部の動作>
図5は、画像レジストレーション部107の動作の一例を説明するための図であり、図6は、画像レジストレーション部107の動作の一例を説明するためのフローチャートである。
<Operation of image registration section>
FIG. 5 is a diagram for explaining an example of the operation of the image registration section 107, and FIG. 6 is a flowchart for explaining an example of the operation of the image registration section 107.

先ず、画像レジストレーション部107は、ユーザにて指定された2つの指定画像501a及び501bを受け付け、指定画像501aを画像特徴抽出モデル201aに入力し、指定画像501bを画像特徴抽出モデル201bに入力する(ステップS600)。指定画像501a及び501bは、互いに類似しているとする。図5の「w」、「h」及び「c」はそれぞれ、指定画像501a及び501bの横幅、縦幅及びチャネル数を表している。 First, the image registration unit 107 receives two specified images 501a and 501b specified by the user, inputs the specified image 501a into the image feature extraction model 201a, and inputs the specified image 501b into the image feature extraction model 201b. (Step S600). It is assumed that designated images 501a and 501b are similar to each other. "w", "h", and "c" in FIG. 5 represent the horizontal width, vertical width, and number of channels of the designated images 501a and 501b, respectively.

続いて、画像特徴抽出モデル201a及び201bは、指定画像501a及び501bに対して畳み込み層302による畳み込み処理とプーリング層303によるプーリング処理とを4回繰り返し実行し、指定特徴マップ502a及び502bを生成する(ステップS601)。図5では、各処理層301によって、指定画像501a及び501bが画像サイズを半減させながら、チャネル数を2倍にしていく過程が直方体512a及び512bで示されている。 Subsequently, the image feature extraction models 201a and 201b repeatedly perform convolution processing by the convolution layer 302 and pooling processing by the pooling layer 303 on the designated images 501a and 501b four times to generate designated feature maps 502a and 502b. (Step S601). In FIG. 5, rectangular parallelepipeds 512a and 512b represent a process in which each processing layer 301 doubles the number of channels of designated images 501a and 501b while reducing the image size by half.

そして、特徴関連性マップ算出部203は、画像特徴抽出モデル201a及び201bから出力された指定特徴マップ502a及び502bの内積を特徴関連性マップ503として算出する内積処理を行う(ステップS602)。 Then, the feature relevance map calculation unit 203 performs inner product processing to calculate the inner product of the designated feature maps 502a and 502b output from the image feature extraction models 201a and 201b as the feature relevance map 503 (step S602).

ここで、指定特徴マップ502aをf、指定特徴マップ502bをfとし、指定特徴マップf及びfの画素位置を表すインデックスを(i,j)及び(i,j)とし、
(i,j)を指定特徴マップfの(i,j)成分の特徴ベクトル(色成分からなるベクトル)、f(i,j)を指定特徴マップfの(i,j)成分の特徴ベクトルとすると、特徴関連性マップ503であるcab(i,j,k)は、以下の式(2)から算出することができる。

Figure 0007417504000002
Here, the specified feature map 502a is f a , the specified feature map 502b is f b , and the indices representing the pixel positions of the specified feature maps f a and f b are (i, j) and (i k , j k ),
f b (i, j) is the feature vector (vector consisting of color components) of the (i, j) component of the specified feature map f b , f a (i k , j k ) is the ( i k , j k ) components, c ab (i, j, k), which is the feature association map 503, can be calculated from the following equation (2).
Figure 0007417504000002

式(2)において、「」はベクトルの転置、「・」はベクトルの内積を示す。したがって、特徴関連性マップcab(i,j,k)では、指定特徴マップfの(i,j)成分の特徴ベクトルと、指定特徴マップfの(i,j)で表される画素位置の特徴ベクトルとの内積が(i,j,k)成分となることを示す。換言すれば、特徴関連性マップcab(i,j,k)の(i,j)成分の特徴ベクトルは、指定特徴マップfの(i,j)成分が対応する指定画像501aの画素領域と、指定画像502b全体との関連性を示す。 In Equation (2), " T " indicates the transposition of the vector, and "." indicates the inner product of the vector. Therefore, in the feature relationship map c ab (i, j, k), the feature vector of the (i, j) component of the specified feature map f b and the (i k , j k ) of the specified feature map fa are expressed as This shows that the inner product of the pixel position with the feature vector becomes the (i, j, k) component. In other words, the feature vector of the (i, j) component of the feature relationship map c ab (i, j, k) is the pixel area of the specified image 501a to which the (i, j) component of the specified feature map f b corresponds. indicates the relationship with the entire designated image 502b.

例えば、指定画像501aが次元(w,h,c)=(240,240,3)のRGB画像の場合、画像特徴抽出モデル201aでは、4つの処理層301により特徴マップの画像サイズは、元の指定画像501aの画像サイズの1/16となる。また、最前段の処理層301の出力テンソルのチャネル数を64とすると、4つの処理層301にてチャネル数は、64→128→256→512と変化する。このため、特徴マップf及びfは、それぞれ次元(w,h,c)=(15,15,512)となり、特徴関連性マップcabは(15,15,15×15)=(15,15,225)次元のテンソルとなる。 For example, if the specified image 501a is an RGB image with dimensions (w, h, c) = (240, 240, 3), in the image feature extraction model 201a, the image size of the feature map is changed by the four processing layers 301 to the original size. The image size is 1/16 of the designated image 501a. Further, assuming that the number of channels of the output tensor of the processing layer 301 at the forefront is 64, the number of channels changes from 64 to 128 to 256 to 512 in the four processing layers 301. Therefore, the feature maps f a and f b have dimensions (w, h, c) = (15, 15, 512), respectively, and the feature association map c ab has (15, 15, 15 x 15) = (15 , 15, 225) dimensions.

特徴関連性マップ503を算出すると、画像レジストレーション部107は、特徴関連性マップ503を変換パラメータ回帰モデル400に入力する(ステップS603)。変換パラメータ回帰モデル400は、入力された特徴関連性マップ503に対して畳み込み層402による畳み込み処理とプーリング層403によるプーリング処理とを4回繰り返し実行し、画像特徴マップ504を生成し、さらに画像特徴マップ504に対してFC層404による全結合処理510を行い、6つの変換パラメータ505を生成する(ステップS604)。なお、ステップS600~S604までの処理が画像レジストレーションモデルの処理である。 After calculating the feature relevance map 503, the image registration unit 107 inputs the feature relevance map 503 into the conversion parameter regression model 400 (step S603). The conversion parameter regression model 400 repeatedly executes the convolution process by the convolution layer 402 and the pooling process by the pooling layer 403 on the input feature relationship map 503 four times, generates an image feature map 504, and further calculates the image features. A full connection process 510 is performed on the map 504 by the FC layer 404 to generate six transformation parameters 505 (step S604). Note that the processing from steps S600 to S604 is image registration model processing.

さらに実行部204は、6つの変換パラメータ505に基づいて、画像501a及び501bのいずれかに対してアフィン変換を実行することで、画像レジストレーション処理を実行し(ステップS605)、処理を終了する。 Further, the execution unit 204 executes the image registration process by performing affine transformation on either of the images 501a and 501b based on the six transformation parameters 505 (step S605), and ends the process.

次に画像差分抽出部108による画像差分抽出処理ついてより詳細に説明する。 Next, the image difference extraction process by the image difference extraction unit 108 will be described in more detail.

<画像差分抽出モデル>
図7は、画像差分抽出部108で使用する画像差分抽出モデルの一例を示す図である。図7に示す画像差分抽出モデル700は、画像特徴抽出モデル701a及び701bと、類似度算出部702と、画像処理部703とを備える。画像特徴抽出モデル701a及び701bは、画像レジストレーション部107が使用する画像レジストレーションモデルの画像特徴抽出モデル201a及び201bと同じモデルであり、入力された2つの対象画像のそれぞれの特徴を示す特徴マップである対象特徴マップを生成する特徴抽出部を構成する。
<Image difference extraction model>
FIG. 7 is a diagram showing an example of an image difference extraction model used by the image difference extraction unit 108. The image difference extraction model 700 shown in FIG. 7 includes image feature extraction models 701a and 701b, a similarity calculation section 702, and an image processing section 703. The image feature extraction models 701a and 701b are the same models as the image feature extraction models 201a and 201b, which are image registration models used by the image registration unit 107, and are feature maps indicating the respective features of the two input target images. A feature extraction unit that generates a target feature map is configured.

類似度算出部702は、画像特徴抽出モデル701a及び701bで算出された2つの対象特徴マップ間の位置(具体的には、画素位置)ごとの類似度を示す類似度マップを生成する。本実施形態では、類似度は、コサイン類似度である。 The similarity calculation unit 702 generates a similarity map that indicates the similarity for each position (specifically, pixel position) between the two target feature maps calculated by the image feature extraction models 701a and 701b. In this embodiment, the similarity is a cosine similarity.

画像処理部703は、類似度算出部702にて算出された類似度マップに応じた差分抽出画像を生成する画像処理を行う。画像処理は、ここでは、差分抽出画像として、類似度マップの各値を色又は濃淡で表すヒートマップ画像を生成するヒートマップ化処理である。また、画像処理は、差分抽出画像を対象画像と同じサイズに拡大する処理を含んでもよい。 The image processing unit 703 performs image processing to generate a difference extraction image according to the similarity map calculated by the similarity calculation unit 702. Here, the image processing is a heat mapping process that generates a heat map image representing each value of the similarity map by color or shading as a difference extraction image. Further, the image processing may include processing to enlarge the difference extracted image to the same size as the target image.

<画像差分抽出部の動作> <Operation of image difference extraction unit>

図8は、画像差分抽出部108の動作の一例を説明するための図であり、図9は、画像差分抽出部108の動作の一例を説明するためのフローチャートである。 FIG. 8 is a diagram for explaining an example of the operation of the image difference extraction unit 108, and FIG. 9 is a flowchart for explaining an example of the operation of the image difference extraction unit 108.

先ず、画像差分抽出部108は、ユーザにて指定された2つの対象画像801a及び801bを受け付け、対象画像801aを画像特徴抽出モデル701aに入力し、対象画像801bを画像特徴抽出モデル701bに入力する(ステップS900)。対象画像801a及び801bは、画像レジストレーション部107により画像レジストレーション処理が行われた指定画像である。 First, the image difference extraction unit 108 receives two target images 801a and 801b specified by the user, inputs the target image 801a into the image feature extraction model 701a, and inputs the target image 801b into the image feature extraction model 701b. (Step S900). The target images 801a and 801b are designated images that have been subjected to image registration processing by the image registration unit 107.

続いて、画像特徴抽出モデル701a及び701bは、対象画像801a及び801bに対して畳み込み層402による畳み込み処理とプーリング層403によるプーリング処理とを4回繰り返し実行し、対象特徴マップ802a及び802bを生成する(ステップS901)。図5では、各処理層301によって、対象画像801a及び801bが画像サイズを半減させながら、チャネル数を2倍にしていく過程が直方体812a及び812bで示されている。 Subsequently, the image feature extraction models 701a and 701b repeatedly perform convolution processing by the convolution layer 402 and pooling processing by the pooling layer 403 on the target images 801a and 801b four times to generate target feature maps 802a and 802b. (Step S901). In FIG. 5, rectangular parallelepipeds 812a and 812b represent a process in which each processing layer 301 doubles the number of channels while reducing the size of the target images 801a and 801b by half.

類似度算出部702は、画像特徴抽出モデル701a及び701bで算出された対象特徴マップ802a及び802bの間の類似度を示す類似度マップ803を算出する類似度算出処理を行う(ステップS902)。 The similarity calculation unit 702 performs similarity calculation processing to calculate a similarity map 803 indicating the similarity between the target feature maps 802a and 802b calculated by the image feature extraction models 701a and 701b (step S902).

ここで、対象特徴マップ802aをg、対象特徴マップ802bをgとし、対象特徴マップg及びgの画素位置を表すインデックスを(i,j)及び(i,j)とし、対象特徴マップg及びgの(i,j)成分の特徴ベクトルをg(i,j)及びg(i,j)とすると、類似度マップ803であるCsim(i,j)は、以下の式(3)から算出することができる。

Figure 0007417504000003
Here, the target feature map 802a is g a , the target feature map 802b is g b , and the indices representing the pixel positions of the target feature maps g a and g b are (i, j) and (i k , j k ), If the feature vectors of the (i, j) components of the target feature maps g a and g b are g a (i, j) and g b (i, j), the similarity map 803 C sim (i, j) can be calculated from the following equation (3).
Figure 0007417504000003

式(3)において、「」はベクトルの転置、「・」はベクトルの内積、「||」は、ベクトルのユークリッド距離を示す。したがって、類似度マップCsim(i,j)では、画素位置(i,j)ごとに対象特徴マップg及びgのコサイン類似度が示されることとなる。なお、コサイン類似度はスカラ値であるため、類似度マップは、1チャネルのテンソル(画像)となる。また、コサイン類似度は、2つのベクトルがどの程度同じ向きを向いているかを示す指標であり、-1から1までの値を取る。コサイン類似度は、値が1に近づくほど、2つのベクトルが類似しており、-1に近づくほど、2つのベクトルが類似していないことを示す。 In equation (3), " T " indicates the transpose of the vector, "." indicates the inner product of the vector, and "||" indicates the Euclidean distance of the vector. Therefore, the similarity map C sim (i, j) shows the cosine similarity of the target feature maps g a and g b for each pixel position (i, j). Note that since the cosine similarity is a scalar value, the similarity map is a one-channel tensor (image). Further, cosine similarity is an index indicating how much two vectors point in the same direction, and takes a value from -1 to 1. The closer the cosine similarity value is to 1, the more similar the two vectors are, and the closer the value is to -1, the less similar the two vectors are.

類似度マップを算出すると、画像処理部703は、類似度マップ803に対してヒートマップ化処理を行い、類似度マップ803をヒートマップ画像804に変換する(ステップS903)。ヒートマップ画像は、ここでは、類似度マップの値が1に近づくほど赤く、-1に近づくほど青くなるRGB画像であるとするが、ヒートマップ画像はこの例に限らない。 After calculating the similarity map, the image processing unit 703 performs heat mapping processing on the similarity map 803 to convert the similarity map 803 into a heat map image 804 (step S903). Here, it is assumed that the heat map image is an RGB image that becomes redder as the value of the similarity map approaches 1 and becomes bluer as it approaches -1, but the heat map image is not limited to this example.

そして、画像処理部703は、ヒートマップ画像804を対象画像と同じサイズに拡大し(ステップS904)、処理を終了する。 The image processing unit 703 then enlarges the heat map image 804 to the same size as the target image (step S904), and ends the process.

<全体フロー>
図10は、本実施形態の類似画像差分抽出システム全体の動作の一例を説明するためのフローチャートである。図11~図13は、類似画像差分抽出システムで扱われる画像の具体例を示す図である。具体的には、図11は、画像検索処理の結果の一例を示す図であり、図12は、画像レジストレーション処理の結果の一例を示す図であり、図13は、画像差分抽出処理の結果の一例を示す図である。
<Overall flow>
FIG. 10 is a flowchart for explaining an example of the operation of the entire similar image difference extraction system of this embodiment. 11 to 13 are diagrams showing specific examples of images handled by the similar image difference extraction system. Specifically, FIG. 11 is a diagram showing an example of the result of image search processing, FIG. 12 is a diagram showing an example of the result of image registration processing, and FIG. 13 is a diagram showing an example of the result of image difference extraction processing. It is a figure showing an example.

先ず、利用者端末100の入出力部101は、ユーザから画像検索の対象となるクエリ画像を選択する操作を受け付ける(ステップS1000)。ここでは、図11に示す画像1100がクエリ画像として選択されたとする。 First, the input/output unit 101 of the user terminal 100 receives an operation from the user to select a query image to be searched for (step S1000). Here, it is assumed that image 1100 shown in FIG. 11 is selected as the query image.

続いて、入出力部101は、ユーザから画像検索コマンドを受け付ける。端末管理部102は、画像検索コマンドにクエリ画像を示す情報を加え、その画像検索コマンドを、ネットワーク部103を介して画像処理サーバ104に送信する(ステップS1001)。 Subsequently, the input/output unit 101 receives an image search command from the user. The terminal management unit 102 adds information indicating a query image to the image search command, and transmits the image search command to the image processing server 104 via the network unit 103 (step S1001).

画像処理サーバ104のサーバ管理部105は、ネットワーク部109を介して画像検索コマンドを受信し、その画像検索コマンドに従って画像検索部106に画像検索処理の実行を指示する。画像検索部106は、画像検索コマンドに基づいて、クエリ画像と類似する類似画像を画像データベース110から検索する。サーバ管理部105は、検索された類似画像を検索結果として、ネットワーク部109を介して利用者端末100に送信する(ステップS1002)。 The server management unit 105 of the image processing server 104 receives the image search command via the network unit 109, and instructs the image search unit 106 to execute image search processing in accordance with the image search command. The image search unit 106 searches the image database 110 for similar images similar to the query image based on the image search command. The server management unit 105 transmits the searched similar images as a search result to the user terminal 100 via the network unit 109 (step S1002).

ここでは、図11に示す類似画像群1101に含まれる画像1102~1105が類似画像として検索されたとする。画像1102はクエリ画像である画像1100に対して位置ずれがあり、画像1103は画像1100とはサイズが異なり、画像1104は画像1100に対して角度が異なる。また、画像1105は、位置、サイズ及び角度などの幾何学的な特徴に関しては画像1100と一致している。 Here, it is assumed that images 1102 to 1105 included in the similar image group 1101 shown in FIG. 11 are searched as similar images. Image 1102 has a positional shift with respect to image 1100 which is a query image, image 1103 has a different size from image 1100, and image 1104 has a different angle from image 1100. Image 1105 also matches image 1100 with respect to geometrical characteristics such as position, size, and angle.

利用者端末100の端末管理部102は、ネットワーク部103を介して検索結果を受信し、その検索結果を入出力部101に表示する。入出力部101は、ユーザから、検索結果に含まれる類似画像とクエリ画像とのうち、互いに比較する2つの画像を指定する操作を受け付ける(ステップS1003)。ここでは、クエリ画像である画像1100と類似画像である画像1102とが指定されたとする。なお、本操作において2つの類似画像が指定されてもよい。 The terminal management unit 102 of the user terminal 100 receives the search results via the network unit 103 and displays the search results on the input/output unit 101. The input/output unit 101 receives an operation from the user to designate two images to be compared with each other from among the similar images included in the search results and the query image (step S1003). Here, it is assumed that image 1100, which is a query image, and image 1102, which is a similar image, are specified. Note that two similar images may be specified in this operation.

続いて、入出力部101は、ユーザから画像レジストレーションコマンドを受け付ける。端末管理部102は、画像レジストレーションコマンドに、指定された2つの指定画像を示す情報を加え、その画像検索コマンドを、ネットワーク部103を介して画像処理サーバ104に送信する(ステップS1004)。 Subsequently, the input/output unit 101 receives an image registration command from the user. The terminal management unit 102 adds information indicating the two designated images to the image registration command, and transmits the image search command to the image processing server 104 via the network unit 103 (step S1004).

画像処理サーバ104のサーバ管理部105は、ネットワーク部109を介して画像レジストレーションコマンドを受信し、その画像レジストレーションコマンドに従って画像レジストレーション部107に画像レジストレーション処理の実行を指示する。画像レジストレーション部107は、画像レジストレーションコマンドに基づいて、画像レジストレーション処理を実行する。サーバ管理部105は、画像レジストレーション処理の処理結果であるレジストレーション結果を、ネットワーク部109を介して利用者端末100に送信する(ステップS1005)。画像レジストレーション処理は、具体的には、図5及び図6を用いて説明した処理である。ここでは、図12に示す2つの画像1100及び画像1102のうち画像1100に対してアフィン変換が施されて、画像1200がレジストレーション結果として取得されたとする。 The server management unit 105 of the image processing server 104 receives the image registration command via the network unit 109, and instructs the image registration unit 107 to execute image registration processing in accordance with the image registration command. The image registration unit 107 executes image registration processing based on the image registration command. The server management unit 105 transmits the registration result, which is the result of the image registration process, to the user terminal 100 via the network unit 109 (step S1005). The image registration process is specifically the process described using FIGS. 5 and 6. Here, it is assumed that affine transformation is performed on image 1100 of the two images 1100 and 1102 shown in FIG. 12, and image 1200 is obtained as a registration result.

その後、利用者端末100の端末管理部102は、ネットワーク部103を介してレジストレーション結果を受信し、そのレジストレーション結果を入出力部101に表示する。入出力部101は、レジストレーション結果を確認したユーザから、差分抽出コマンドを受け付ける。端末管理部102は、差分抽出コマンドに画像1100及び1200を対象画像として示す情報を加え、その差分抽出コマンドを、ネットワーク部103を介して画像処理サーバ104に送信する(S1006)。 Thereafter, the terminal management unit 102 of the user terminal 100 receives the registration result via the network unit 103 and displays the registration result on the input/output unit 101. The input/output unit 101 receives a difference extraction command from a user who has confirmed the registration result. The terminal management unit 102 adds information indicating images 1100 and 1200 as target images to the difference extraction command, and transmits the difference extraction command to the image processing server 104 via the network unit 103 (S1006).

画像処理サーバ104のサーバ管理部105は、ネットワーク部109を介して差分抽出コマンドを受信し、その差分抽出コマンドに従って画像差分抽出部108に画像差分抽出処理の実行を指示する。画像差分抽出部108は、差分抽出コマンドに基づいて、2つの対象画像に対して画像差分抽出処理を実行して、ヒートマップ画像を生成する(ステップS1007)。画像差分抽出処理は、具体的には、図7及び図8を用いて説明した処理である。ここでは、図13に示す2つの画像1100及び画像1200に対して画像差分抽出処理が実行され、画像1300がヒートマップ画像として生成されたとする。 The server management unit 105 of the image processing server 104 receives the difference extraction command via the network unit 109, and instructs the image difference extraction unit 108 to execute image difference extraction processing in accordance with the difference extraction command. The image difference extraction unit 108 executes image difference extraction processing on the two target images based on the difference extraction command to generate a heat map image (step S1007). The image difference extraction process is specifically the process described using FIGS. 7 and 8. Here, it is assumed that image difference extraction processing is performed on the two images 1100 and 1200 shown in FIG. 13, and image 1300 is generated as a heat map image.

サーバ管理部105は、画像差分抽出処理の処理結果であるヒートマップ画像を、ネットワーク部109を介して利用者端末100に送信する。利用者端末100の端末管理部102は、ネットワーク部103を介してヒートマップ画像を受信し、そのヒートマップ画像を入出力部101に表示し(ステップS1008)、処理を終了する。ユーザは、ヒートマップ画像を確認することにより、2つ画像のどの部分がどの程度異なるかを確認することが可能になる。 The server management unit 105 transmits the heat map image, which is the processing result of the image difference extraction process, to the user terminal 100 via the network unit 109. The terminal management unit 102 of the user terminal 100 receives the heat map image via the network unit 103, displays the heat map image on the input/output unit 101 (step S1008), and ends the process. By checking the heat map images, the user can check which parts of the two images differ and to what extent.

<分割画像差分抽出処理>
次に、画像差分抽出部108による画像差分抽出処理の変形例である分割画像差分抽出処理について説明する。図14は、分割画像差分抽出処理の一例を説明するためのフローチャートである。図15は、分割画像差分抽出処理の結果の一例を示す図である。
<Divided image difference extraction processing>
Next, divided image difference extraction processing, which is a modification of the image difference extraction processing performed by the image difference extraction unit 108, will be described. FIG. 14 is a flowchart for explaining an example of divided image difference extraction processing. FIG. 15 is a diagram illustrating an example of the results of the divided image difference extraction process.

分割画像差分抽出処理では、先ず、図10のステップS1000~S1005の処理が実行される。続いて、利用者端末100の端末管理部102は、ネットワーク部103を介してレジストレーション結果を受信し、そのレジストレーション結果を入出力部101に表示する。入出力部101は、レジストレーション結果を確認したユーザから、画像レジストレーション処理が実行された指定画像である対象画像を複数の部分画像に分割するグリッド分割するグリッド分割操作を受け付ける(ステップS1400)。グリッド分割操作は、分割内容(例えば、部分画像の数、縦横比及び分割位置など)を指定するものでもよい。 In the divided image difference extraction process, first, the processes of steps S1000 to S1005 in FIG. 10 are executed. Subsequently, the terminal management section 102 of the user terminal 100 receives the registration result via the network section 103 and displays the registration result on the input/output section 101. The input/output unit 101 receives, from the user who has confirmed the registration result, a grid division operation for dividing the target image, which is the designated image on which the image registration process has been performed, into a plurality of partial images into a grid (step S1400). The grid division operation may specify division details (for example, the number of partial images, aspect ratio, division position, etc.).

入出力部101は、レジストレーション結果を確認したユーザから、差分抽出コマンドを受け付ける。端末管理部102は、差分抽出コマンドに対象画像とグリッド分割操作に応じた分割内容とを示す情報を加え、その差分抽出コマンドを、ネットワーク部103を介して画像処理サーバ104に送信する(ステップS1401)。 The input/output unit 101 receives a difference extraction command from a user who has confirmed the registration result. The terminal management unit 102 adds information indicating the target image and the division details according to the grid division operation to the difference extraction command, and transmits the difference extraction command to the image processing server 104 via the network unit 103 (step S1401 ).

画像処理サーバ104のサーバ管理部105は、ネットワーク部109を介して差分抽出コマンドを受信し、その差分抽出コマンドに従って画像差分抽出部108に画像差分抽出処理の実行を指示する。画像差分抽出部108は、差分抽出コマンドに基づいて、対象画像を、指定された分割内容に従って複数の部分画像にグリッド分割する(ステップS1402)。ここでは、図15に示すように画像1500及び1502が対象画像としてグリッド分割されたとする。なお、図15では、説明のためにグリッド線1501が表記されているが、実際には、画像にグリッド線1501を引く必要はない。 The server management unit 105 of the image processing server 104 receives the difference extraction command via the network unit 109, and instructs the image difference extraction unit 108 to execute image difference extraction processing in accordance with the difference extraction command. Based on the difference extraction command, the image difference extraction unit 108 grid-divides the target image into a plurality of partial images according to the specified division details (step S1402). Here, assume that images 1500 and 1502 are divided into grids as target images, as shown in FIG. Note that although grid lines 1501 are shown in FIG. 15 for the sake of explanation, it is not actually necessary to draw the grid lines 1501 on the image.

画像差分抽出部108は、グリッド分割された部分画像ごとにステップS1403~1404を繰り返すループ処理(A)を実行する。 The image difference extraction unit 108 executes a loop process (A) in which steps S1403 to S1404 are repeated for each grid-divided partial image.

ループ処理(A)では、画像差分抽出部108は、各対象画像の互いに対応する位置の部分画像を画像差分抽出モデル700の特徴量抽出モデル701a及び701bに入力する(ステップS1403)。特徴量抽出モデル701a及び701bは、入力された部分画像の特徴マップである部分特徴マップを算出する(ステップS1404)。 In loop processing (A), the image difference extraction unit 108 inputs partial images at mutually corresponding positions of each target image to the feature amount extraction models 701a and 701b of the image difference extraction model 700 (step S1403). The feature extraction models 701a and 701b calculate partial feature maps that are feature maps of the input partial images (step S1404).

画像差分抽出部108は、全ての部分画像に対してステップS1403~1404処理を行うと、ループ処理(A)を抜ける。そして、類似度算出部702は、各部分特徴マップの位置関係が各部分特徴マップに対応する各部分画像の位置関係と同じになるように、各部分特徴マップを結合して対象特徴マップとして生成する(ステップS1405)。 After the image difference extraction unit 108 performs steps S1403 to S1404 on all partial images, the process exits from the loop process (A). Then, the similarity calculation unit 702 combines each partial feature map to generate a target feature map so that the positional relationship of each partial feature map is the same as the positional relationship of each partial image corresponding to each partial feature map. (Step S1405).

続いて、画像差分抽出部108の類似度算出部702は、各対象特徴マップの間の類似度を示す類似度マップを算出する類似度算出処理を行う(ステップS1406)。画像処理部703は、類似度マップに対してヒートマップ化処理を行い、類似度マップをヒートマップ画像に変換する(ステップS1407)。画像処理部703は、ヒートマップ画像を入力画像と同じサイズに拡大し(ステップS1408)、処理を終了する。これにより、図15に示す画像1504がヒートマップ画像として生成される。なお、ステップS1408の処理の後に、図10のステップS1008の処理が実行される。 Subsequently, the similarity calculation unit 702 of the image difference extraction unit 108 performs similarity calculation processing to calculate a similarity map indicating the similarity between each target feature map (step S1406). The image processing unit 703 performs heat mapping processing on the similarity map and converts the similarity map into a heat map image (step S1407). The image processing unit 703 enlarges the heat map image to the same size as the input image (step S1408), and ends the process. As a result, an image 1504 shown in FIG. 15 is generated as a heat map image. Note that after the process in step S1408, the process in step S1008 in FIG. 10 is executed.

<学習処理の一例>
図16は、画像レジストレーションモデル200及び画像差分抽出モデル700に対して行う学習処理の一例を説明するためのフローチャートである。
<Example of learning process>
FIG. 16 is a flowchart for explaining an example of a learning process performed on the image registration model 200 and the image difference extraction model 700.

学習処理では、先ず、入出力部101がユーザから学習コマンドを受け付けると、端末管理部102は、その学習コマンドを、ネットワーク部103を介して画像処理サーバ104に送信する。画像処理サーバ104のサーバ管理部105は、ネットワーク部109を介して学習コマンドを受信する(ステップS1600)。 In the learning process, first, when the input/output unit 101 receives a learning command from the user, the terminal management unit 102 transmits the learning command to the image processing server 104 via the network unit 103. The server management unit 105 of the image processing server 104 receives the learning command via the network unit 109 (step S1600).

サーバ管理部105は、所定の条件を満たすまで、ステップS1601~S1607の処理を繰り返すループ処理(B)を実行する。所定の条件は、学習回数(ループ回数)が所定回数に到達すること、又は、学習時間が所定時間に到達することなどである。 The server management unit 105 executes a loop process (B) in which steps S1601 to S1607 are repeated until a predetermined condition is satisfied. The predetermined conditions include that the number of learning times (the number of loops) reaches a predetermined number of times, or that the learning time reaches a predetermined time.

ループ処理(B)では、サーバ管理部105は、画像データベース110から第1の学習用画像として任意の画像を取得する(ステップS1601)。ここで取得された画像を画像Aと呼ぶ。 In loop processing (B), the server management unit 105 acquires an arbitrary image as a first learning image from the image database 110 (step S1601). The image acquired here is called image A.

サーバ管理部105は、ランダムな変換パラメータである第1の変換パラメータを生成する(ステップS1602)。第1の変換パラメータの数は変換モデルに応じて予め定められている。例えば、変換モデルがアフィン変換モデルの場合、第1の変換パラメータの数は6である。 The server management unit 105 generates a first conversion parameter that is a random conversion parameter (step S1602). The number of first conversion parameters is predetermined according to the conversion model. For example, when the transformation model is an affine transformation model, the number of first transformation parameters is six.

サーバ管理部105は、第1の変換パラメータを設定した変換モデルを用いて画像Aを第2の学習用画像である画像Bに変換する(ステップS1603)。サーバ管理部105は、画像A及びBを指定画像として画像レジストレーションモデル200に入力する(ステップS1604)。画像レジストレーションモデル200は、画像A及びBに基づく変換パラメータを第2の変換パラメータとして推定する(ステップS1605)。 The server management unit 105 converts image A into image B, which is a second learning image, using the conversion model in which the first conversion parameter is set (step S1603). The server management unit 105 inputs images A and B as designated images to the image registration model 200 (step S1604). The image registration model 200 estimates a transformation parameter based on images A and B as a second transformation parameter (step S1605).

サーバ管理部105は、所定の損失関数を用いて、ステップS1605で推定された第2の変換パラメータと、ステップS1602で生成された第1の変換パラメータとの差を示す損失値を算出する(ステップS1606)。なお、損失関数は、例えば、MSE(Mean Square Error)などである。 The server management unit 105 uses a predetermined loss function to calculate a loss value indicating the difference between the second transformation parameter estimated in step S1605 and the first transformation parameter generated in step S1602 (step S1606). Note that the loss function is, for example, MSE (Mean Square Error).

サーバ管理部105は、損失値が減少するように、画像レジストレーションモデル200の重み値を調整する(ステップS1607)。 The server management unit 105 adjusts the weight value of the image registration model 200 so that the loss value decreases (step S1607).

そして、所定の条件が満たされると、サーバ管理部105は、ループ処理(B)を抜けて、処理を終了する。これにより、画像レジストレーションモデル200が学習モデルとして構築される。画像レジストレーションモデル200が学習されることで、内部の画像特徴抽出モデル201a及び201bが学習される。これにより、本実施形態では、画像差分抽出モデル700の内部の画像特徴抽出モデル701a及び701bとして、画像特徴抽出モデル201a及び201bと同じモデルを使用するため、画像特徴抽出モデル201a及び201bも学習されることとなる。 Then, when the predetermined condition is satisfied, the server management unit 105 exits the loop process (B) and ends the process. As a result, the image registration model 200 is constructed as a learning model. By learning the image registration model 200, internal image feature extraction models 201a and 201b are learned. Accordingly, in this embodiment, since the same model as the image feature extraction models 201a and 201b is used as the image feature extraction models 701a and 701b inside the image difference extraction model 700, the image feature extraction models 201a and 201b are also learned. The Rukoto.

<学習処理の他の例>
図17は、画像レジストレーションモデル200及び画像差分抽出モデル700に対して行う学習処理の他の例を説明するためのフローチャートである。本学習処理を用いることで、図16で示した学習処理よりもさらに精度の良いモデルを構築することが可能となる。
<Other examples of learning processing>
FIG. 17 is a flowchart for explaining another example of the learning process performed on the image registration model 200 and the image difference extraction model 700. By using this learning process, it is possible to construct a more accurate model than the learning process shown in FIG. 16.

まず、画像処理サーバ104のサーバ管理部105は、位置、サイズ及び角度などの幾何学的な特徴が類似する2つの画像のセットの集合を画像データベース110に登録する(ステップS1700)。類似する2つの画像のセットとしては、例えば、図11の画像1100と画像1105とのセットが挙げられる。画像のセットはユーザにて作成されてもよい。また、画像のセットは、一般的な画像処理ライブラリなどの既存のプログラムなどを用いて生成されてもよい。また、既存のプログラムにて生成された画像からユーザが画像のセットを選択する構成でもよい。 First, the server management unit 105 of the image processing server 104 registers, in the image database 110, a set of two images that are similar in geometrical characteristics such as position, size, and angle (step S1700). An example of a set of two similar images is the set of image 1100 and image 1105 in FIG. 11. The set of images may be created by the user. Further, the set of images may be generated using an existing program such as a general image processing library. Alternatively, the configuration may be such that the user selects a set of images from images generated using an existing program.

続いて、入出力部101がユーザから学習コマンドを受け付けると、端末管理部102は、その学習コマンドを、ネットワーク部103を介して画像処理サーバ104に送信する。画像処理サーバ104のサーバ管理部105は、ネットワーク部109を介して学習コマンドを受信する(ステップS1701)。 Subsequently, when the input/output unit 101 receives a learning command from the user, the terminal management unit 102 transmits the learning command to the image processing server 104 via the network unit 103. The server management unit 105 of the image processing server 104 receives the learning command via the network unit 109 (step S1701).

サーバ管理部105は、画像のセットごとに、ステップS1702~S1708の処理を繰り返すループ処理(C)を実行する。 The server management unit 105 executes a loop process (C) that repeats the processes of steps S1702 to S1708 for each set of images.

ループ処理(C)では、サーバ管理部105は、画像データベース110から任意の画像のセットに含まれる2つの画像を、第1の学習用画像及び第1の学習用画像に対応する対応類似画像として取得する(S1702)。ここで取得された第1の学習用画像を画像C、対応類似画像を画像Dと呼ぶ。 In loop processing (C), the server management unit 105 selects two images included in an arbitrary image set from the image database 110 as a first learning image and a corresponding similar image corresponding to the first learning image. Acquire (S1702). The first learning image acquired here is called image C, and the corresponding similar image is called image D.

サーバ管理部105は、ランダムな変換パラメータである第1の変換パラメータを生成する(ステップS1703)。 The server management unit 105 generates a first conversion parameter that is a random conversion parameter (step S1703).

サーバ管理部105は、第1の変換パラメータを設定した変換モデルを用いて画像Dを第2の学習用画像である画像D’に変換する(ステップS1704)。サーバ管理部105は、画像C及びD’を指定画像として画像レジストレーションモデル200に入力する(ステップS1705)。画像レジストレーションモデル200は、画像C及びD’に基づく変換パラメータを第2の変換パラメータとして推定する(ステップS1706)。 The server management unit 105 converts the image D into the image D' which is the second learning image using the conversion model in which the first conversion parameter is set (step S1704). The server management unit 105 inputs images C and D' into the image registration model 200 as designated images (step S1705). The image registration model 200 estimates a transformation parameter based on images C and D' as a second transformation parameter (step S1706).

サーバ管理部105は、所定の損失関数を用いて、ステップS1706で推定された第2の変換パラメータと、ステップS1703で生成された第1の変換パラメータとの差を示す損失値を算出する(ステップS1707)。 The server management unit 105 uses a predetermined loss function to calculate a loss value indicating the difference between the second transformation parameter estimated in step S1706 and the first transformation parameter generated in step S1703 (step S1707).

サーバ管理部105は、損失値が減少するように、画像レジストレーションモデル200の重み値を調整する(ステップS1708)。 The server management unit 105 adjusts the weight value of the image registration model 200 so that the loss value decreases (step S1708).

そして、全ての対応類似画像のセットについてステップS1702~S1708の処理を実行すると、サーバ管理部105は、ループ処理(C)を抜けて、処理を終了する。これにより、画像レジストレーションモデル200が学習モデルとして構築される。 After executing the processes of steps S1702 to S1708 for all sets of corresponding similar images, the server management unit 105 exits the loop process (C) and ends the process. As a result, the image registration model 200 is constructed as a learning model.

以上説明したように本実施形態では、画像特徴抽出モデル701a及び701bで構成される特徴抽出部は、2つの対象画像のそれぞれの特徴を示す特徴マップである対象特徴マップを生成する。類似度算出部702は、各対象特徴マップの位置ごとの類似度を示す類似度マップを生成する。画像処理部703は、類似度マップに応じた差分抽出画像を生成する。 As described above, in this embodiment, the feature extraction unit including the image feature extraction models 701a and 701b generates a target feature map that is a feature map indicating the respective features of two target images. The similarity calculation unit 702 generates a similarity map that indicates the degree of similarity for each position of each target feature map. The image processing unit 703 generates a difference extraction image according to the similarity map.

したがって、2つの対象画像の特徴の類似度を示す類似度マップに応じた差分抽出画像が生成されるため、ユーザは、2つの対象画像を目視で比較しなくても、差分抽出画像を目視するだけで、2つの対象画像の差を把握することが可能となる。このため、画像間の差分を効率よく把握することが可能になる。また、ユーザは、バイナリー記述子の種類などを画像に応じて指定する必要もないため、その観点からも、画像間の差分を効率よく把握することが可能になる。 Therefore, since a difference extraction image is generated according to a similarity map indicating the degree of similarity between the features of the two target images, the user can visually check the difference extraction image without visually comparing the two target images. It becomes possible to understand the difference between the two target images just by Therefore, it becomes possible to efficiently understand the difference between images. Furthermore, since the user does not need to specify the type of binary descriptor for each image, it is possible to efficiently grasp the differences between images from this point of view as well.

また、本実施形態では、学習モデルである画像特徴抽出モデル701a及び701bを用いて対象特徴マップが生成されるため、対象画像間の類似度を適切に反映した差分抽出画像を生成することが可能となる。 Furthermore, in this embodiment, since the target feature map is generated using the image feature extraction models 701a and 701b, which are learning models, it is possible to generate a difference extraction image that appropriately reflects the similarity between the target images. becomes.

また、本実施形態では、画像レジストレーション部107が2つの指定画像に対して画像レジストレーション処理を行って対象画像を生成するため、対象画像間の類似度を適切に反映した差分抽出画像を生成することが可能となる。 Furthermore, in this embodiment, the image registration unit 107 performs image registration processing on two designated images to generate a target image, so a difference extraction image that appropriately reflects the similarity between the target images is generated. It becomes possible to do so.

また、本実施形態では、画像レジストレーション処理の変換モデルの変換パラメータが2つの指定画像の特徴マップである2つの指定特徴マップに基づいて推定されるため、各指定画像の特徴に応じた適切な変換パラメータを推定することが可能となる。 Furthermore, in this embodiment, since the conversion parameters of the conversion model for image registration processing are estimated based on two specified feature maps, which are feature maps of two specified images, appropriate It becomes possible to estimate the transformation parameters.

また、本実施形態では、学習モデルである画像特徴抽出モデル201a及び201bを用いて指定特徴マップが生成されるため、各指定画像の特徴を適切に反映した変換パラメータを推定することが可能となる。 Furthermore, in this embodiment, the designated feature map is generated using the image feature extraction models 201a and 201b, which are learning models, so it is possible to estimate transformation parameters that appropriately reflect the characteristics of each designated image. .

また、本実施形態では、画像レジストレーション部107が用いる画像特徴抽出モデル201a及び201bと、画像差分抽出部108が用いる画像特徴抽出モデル701a及び701bとが同じモデルであるため、効率の良い学習が可能となる。 Furthermore, in this embodiment, since the image feature extraction models 201a and 201b used by the image registration unit 107 and the image feature extraction models 701a and 701b used by the image difference extraction unit 108 are the same model, efficient learning is possible. It becomes possible.

また、本実施形態では、サーバ管理部105は、ランダムに生成した第1の変換パラメータと、画像Aと画像Aを第1の変換パラメータで変換した画像Bとを指定画像としたときに画像レジストレーション部107にて推定される第2の変換パラメータとの差を示す損失値に基づいて、画像特徴抽出モデル201a及び201bが構築される。このため、精度の良い画像特徴抽出モデル201a及び201bを構築することが可能になる。 Further, in this embodiment, the server management unit 105 uses the randomly generated first conversion parameter and the image registration when image A and image B obtained by converting image A using the first conversion parameter are designated images. Image feature extraction models 201a and 201b are constructed based on the loss value indicating the difference from the second transformation parameter estimated by the conversion unit 107. Therefore, it becomes possible to construct highly accurate image feature extraction models 201a and 201b.

また、本実施形態では、サーバ管理部105は、ランダムに生成した第1の変換パラメータと、画像Cと画像Cに対して予め対応付けられた画像Dを第1の変換パラメータで変換した画像D’とを指定画像としたときに画像レジストレーション部107にて推定される第2の変換パラメータとの差を示す損失値に基づいて、画像特徴抽出モデル201a及び201bが構築される。このため、より精度の良い画像特徴抽出モデル201a及び201bを構築することが可能になる。 Further, in this embodiment, the server management unit 105 uses a randomly generated first conversion parameter, and an image D obtained by converting an image C and an image D that is associated with the image C in advance using the first conversion parameter. Image feature extraction models 201a and 201b are constructed based on a loss value indicating the difference between the second transformation parameter and the second transformation parameter estimated by the image registration unit 107 when the specified image is . Therefore, it becomes possible to construct more accurate image feature extraction models 201a and 201b.

また、本実施形態では、特徴抽出部は、2つの対象画像のそれぞれについて、当該対象画像を分割した複数の部分画像のそれぞれの特徴を示す特徴マップである部分特徴マップを生成し、各部分特徴マップの位置関係が各部分画像に対応する各部分画像の位置関係と同じになるように各部分特徴マップを結合して、対象特徴マップを生成する。このため、精度の良い対象特徴マップを生成することができる。 Furthermore, in the present embodiment, the feature extraction unit generates, for each of the two target images, a partial feature map that is a feature map indicating the characteristics of each of the plurality of partial images obtained by dividing the target image, and generates a partial feature map for each of the partial images. A target feature map is generated by combining the partial feature maps so that the positional relationship of the maps is the same as the positional relationship of each partial image corresponding to each partial image. Therefore, a highly accurate target feature map can be generated.

また、本実施形態では、差分抽出画像は、類似度マップの各値を色又は濃淡で表したヒートマップ画像であるため、2つの画像の差を直感的に素早く把握することが可能となる。 Furthermore, in this embodiment, the difference extracted image is a heat map image in which each value of the similarity map is represented by color or shading, so it is possible to quickly and intuitively grasp the difference between the two images.

上述した本開示の実施形態は、本開示の説明のための例示であり、本開示の範囲をそれらの実施形態にのみ限定する趣旨ではない。当業者は、本開示の範囲を逸脱することなしに、他の様々な態様で本開示を実施することができる。 The embodiments of the present disclosure described above are examples for explaining the present disclosure, and are not intended to limit the scope of the present disclosure only to those embodiments. Those skilled in the art can implement the present disclosure in various other ways without departing from the scope of the disclosure.

100:利用者端末、101:入出力部、101:処理フロー作成サーバ、102:端末管理部、103:ネットワーク部、104:画像処理サーバ、105:サーバ管理部、106:画像検索部、107:画像レジストレーション部、108:画像差分抽出部、109:ネットワーク部、110:画像データベース、111:ネットワーク、112:メモリ、201:指定特徴抽出部、201a~201b:画像特徴抽出モデル、202:変換パラメータ回帰モデル、203:特徴関連性マップ算出部、204:実行部、300:画像特徴抽出モデル、301:処理層、302:畳み込み層、303:プーリング層、400:変換パラメータ回帰モデル、401:処理層、402:畳み込み層、403:プーリング層、404:FC層、700:画像差分抽出モデル、701:特徴抽出部、701a~701b:画像特徴抽出モデル、702:類似度算出部、703:画像処理部


100: User terminal, 101: Input/output unit, 101: Process flow creation server, 102: Terminal management unit, 103: Network unit, 104: Image processing server, 105: Server management unit, 106: Image search unit, 107: Image registration section, 108: Image difference extraction section, 109: Network section, 110: Image database, 111: Network, 112: Memory, 201: Specified feature extraction section, 201a to 201b: Image feature extraction model, 202: Conversion parameter Regression model, 203: Feature relevance map calculation unit, 204: Execution unit, 300: Image feature extraction model, 301: Processing layer, 302: Convolution layer, 303: Pooling layer, 400: Transformation parameter regression model, 401: Processing layer , 402: Convolution layer, 403: Pooling layer, 404: FC layer, 700: Image difference extraction model, 701: Feature extraction unit, 701a to 701b: Image feature extraction model, 702: Similarity calculation unit, 703: Image processing unit


Claims (11)

複数の対象画像のそれぞれの特徴を示す特徴マップである複数の対象特徴マップを生成する特徴抽出部と、
各対象特徴マップの位置ごとの類似度を示す類似度マップを生成する類似度算出部と、
前記類似度マップに応じた差分抽出画像を生成する画像処理部と、
複数の指定画像に対して幾何学的な差異を補正する画像レジストレーション処理を行って前記対象画像を生成する画像レジストレーション部と、を有し、
前記画像レジストレーション部は、
前記複数の指定画像のそれぞれの特徴マップである複数の指定特徴マップを生成する指定特徴抽出部と、
各指定特徴マップに基づいて、複数の画像の幾何学的な差異を補正するための変換モデルの変換パラメータを推定するパラメータ推定部と、
前記変換パラメータを用いて前記画像レジストレーション処理を行う実行部と、を有する、類似画像差分抽出装置。
a feature extraction unit that generates a plurality of target feature maps that are feature maps indicating characteristics of each of the plurality of target images;
a similarity calculation unit that generates a similarity map indicating the similarity for each position of each target feature map;
an image processing unit that generates a difference extraction image according to the similarity map;
an image registration unit that performs image registration processing to correct geometric differences on a plurality of specified images to generate the target image ;
The image registration section includes:
a specified feature extraction unit that generates a plurality of specified feature maps that are feature maps of each of the plurality of specified images;
a parameter estimation unit that estimates transformation parameters of a transformation model for correcting geometric differences between the plurality of images based on each specified feature map;
A similar image difference extraction device , comprising: an execution unit that performs the image registration process using the conversion parameter .
前記特徴抽出部は、画像の特徴マップを生成する学習モデルを用いて、前記対象特徴マップを生成する、請求項1に記載の類似画像差分抽出装置。 The similar image difference extraction device according to claim 1, wherein the feature extraction unit generates the target feature map using a learning model that generates a feature map of images. 前記指定特徴抽出部は、画像の特徴マップを生成する学習モデルを用いて、前記指定特徴マップを生成する、請求項に記載の類似画像差分抽出装置。 The similar image difference extraction device according to claim 1 , wherein the specified feature extraction unit generates the specified feature map using a learning model that generates a feature map of images. 前記特徴抽出部は、画像の特徴マップを生成する学習モデルを用いて、前記対象特徴マップを生成し、
前記指定特徴抽出部が用いる学習モデルと前記特徴抽出部が用いる学習モデルとは、同じモデルである、請求項に記載の類似画像差分抽出装置。
The feature extraction unit generates the target feature map using a learning model that generates a feature map of an image,
4. The similar image difference extraction device according to claim 3 , wherein the learning model used by the specified feature extraction section and the learning model used by the feature extraction section are the same model.
ランダムに生成した前記変換パラメータである第1の変換パラメータと、第1の学習用画像と当該第1の学習用画像を前記第1の変換パラメータで変換した第2の学習用画像とを前記複数の指定画像としたときに前記画像レジストレーション部にて推定される前記変換パラメータである第2の変換パラメータと、の差を示す損失値に基づいて、前記学習モデルを構築する学習管理部をさらに有する、請求項に記載の類似画像差分抽出装置。 A first transformation parameter that is the randomly generated transformation parameter, a first learning image, and a second learning image obtained by converting the first learning image using the first transformation parameter are combined into the plurality of further comprising a learning management unit that constructs the learning model based on a loss value indicating a difference between the second transformation parameter that is the transformation parameter estimated by the image registration unit when the specified image is The similar image difference extraction device according to claim 3 . ランダムに生成した前記変換パラメータである第1の変換パラメータと、第1の学習用画像と当該第1の学習用画像に対して予め対応付けられた対応類似画像を前記第1の変換パラメータで変換した第2の学習用画像とを前記複数の指定画像としたときに前記画像レジストレーション部にて推定される前記変換パラメータである第2の変換パラメータと、
の差を示す損失値に基づいて、前記学習モデルを構築する学習管理部をさらに有する、請求項に記載の類似画像差分抽出装置。
A first transformation parameter that is the randomly generated transformation parameter, and a first learning image and a corresponding similar image that is associated in advance with the first learning image are transformed using the first transformation parameter. a second transformation parameter that is the transformation parameter estimated by the image registration unit when the second learning image is the plurality of designated images;
4. The similar image difference extraction device according to claim 3 , further comprising a learning management unit that constructs the learning model based on a loss value indicating a difference in the learning model.
前記特徴抽出部は、前記複数の対象画像のそれぞれについて、当該対象画像を分割した複数の部分画像のそれぞれの特徴を示す特徴マップである部分特徴マップを生成し、各部分特徴マップの位置関係が当該部分特徴マップに対応する各部分画像の位置関係と同じになるように、各部分特徴マップを結合して、前記対象特徴マップを生成する、請求項1に記載の類似画像差分抽出装置。 The feature extraction unit generates, for each of the plurality of target images, a partial feature map that is a feature map indicating the characteristics of each of a plurality of partial images obtained by dividing the target image, and determines the positional relationship of each partial feature map. The similar image difference extraction device according to claim 1, wherein the target feature map is generated by combining each partial feature map so that the positional relationship of each partial image corresponding to the partial feature map is the same. 前記差分抽出画像は、前記類似度マップの各値を色又は濃淡で表したヒートマップ画像である、請求項1に記載の類似画像差分抽出装置。 2. The similar image difference extraction device according to claim 1, wherein the difference extraction image is a heat map image in which each value of the similarity map is expressed in color or shade. 類似画像差分抽出装置による類似画像差分抽出方法であって、
複数の指定画像に対して幾何学的な差異を補正する画像レジストレーション処理を行って複数の対象画像を生成し、
前記複数の対象画像のそれぞれの特徴を示す特徴マップである複数の対象特徴マップを生成し、
各対象特徴マップの位置ごとの類似度を示す類似度マップを生成し、
前記類似度マップに応じた差分抽出画像を生成
前記対象画像の生成では、
前記複数の指定画像のそれぞれの特徴マップである複数の指定特徴マップを生成し、
各指定特徴マップに基づいて、複数の画像の幾何学的な差異を補正するための変換モデルの変換パラメータを推定し、
前記変換パラメータを用いて前記画像レジストレーション処理を行う、類似画像差分抽出方法。
A similar image difference extraction method using a similar image difference extraction device, the method comprising:
Performs image registration processing to correct geometric differences on multiple designated images to generate multiple target images,
Generating a plurality of target feature maps that are feature maps indicating characteristics of each of the plurality of target images,
Generate a similarity map showing the similarity for each position of each target feature map,
Generating a difference extraction image according to the similarity map,
In generating the target image,
generating a plurality of designated feature maps that are feature maps of each of the plurality of designated images;
Based on each designated feature map, estimate transformation parameters of a transformation model for correcting geometric differences between multiple images;
A similar image difference extraction method , wherein the image registration process is performed using the conversion parameter .
コンピュータに、
複数の指定画像に対して幾何学的な差異を補正する画像レジストレーション処理を行って複数の対象画像を生成する手順と、
前記複数の対象画像のそれぞれの特徴を示す特徴マップである複数の対象特徴マップを生成する手順と、
各対象特徴マップの位置ごとの類似度を示す類似度マップを生成する手順と、
前記類似度マップに応じた差分抽出画像を生成する手順と、を実行させ
前記対象画像を生成する手順は、
前記複数の指定画像のそれぞれの特徴マップである複数の指定特徴マップを生成する手順と、
各指定特徴マップに基づいて、複数の画像の幾何学的な差異を補正するための変換モデルの変換パラメータを推定する手順と、
前記変換パラメータを用いて前記画像レジストレーション処理を行う手順と、を含む、プログラム。
to the computer,
a step of generating a plurality of target images by performing image registration processing to correct geometric differences on the plurality of specified images;
a step of generating a plurality of target feature maps that are feature maps indicating characteristics of each of the plurality of target images;
a step of generating a similarity map indicating the degree of similarity for each location of each target feature map;
performing a step of generating a difference extraction image according to the similarity map ;
The procedure for generating the target image is as follows:
a step of generating a plurality of designated feature maps that are feature maps of each of the plurality of designated images;
estimating transformation parameters of a transformation model for correcting geometric differences between the plurality of images based on each designated feature map;
A program comprising: performing the image registration process using the conversion parameters .
請求項10に記載のプログラムを記録した記録媒体。 A recording medium recording the program according to claim 10 .
JP2020177786A 2020-10-23 2020-10-23 Similar image difference extraction device, similar image difference extraction method, program and recording medium Active JP7417504B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020177786A JP7417504B2 (en) 2020-10-23 2020-10-23 Similar image difference extraction device, similar image difference extraction method, program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020177786A JP7417504B2 (en) 2020-10-23 2020-10-23 Similar image difference extraction device, similar image difference extraction method, program and recording medium

Publications (2)

Publication Number Publication Date
JP2022068941A JP2022068941A (en) 2022-05-11
JP7417504B2 true JP7417504B2 (en) 2024-01-18

Family

ID=81521809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020177786A Active JP7417504B2 (en) 2020-10-23 2020-10-23 Similar image difference extraction device, similar image difference extraction method, program and recording medium

Country Status (1)

Country Link
JP (1) JP7417504B2 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002304415A (en) 2001-04-04 2002-10-18 Omron Corp Image search device
JP2003187289A (en) 2001-12-21 2003-07-04 Sankyo Seiki Mfg Co Ltd Method for identifying circular body to be detected
JP2005004612A (en) 2003-06-13 2005-01-06 Denso Corp Image recognition device
JP2006331460A (en) 2004-03-03 2006-12-07 Nec Corp Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program
JP2006338313A (en) 2005-06-01 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> Similar image retrieving method, similar image retrieving system, similar image retrieving program, and recording medium
WO2007069393A1 (en) 2005-12-14 2007-06-21 Nec Corporation Object recognition device, object recognition method, and object recognition program
JP2009086762A (en) 2007-09-27 2009-04-23 Fujifilm Corp Similarity calculation device and similarity display device
JP2009251667A (en) 2008-04-01 2009-10-29 Toyota Motor Corp Image retrieval device
JP2012079186A (en) 2010-10-05 2012-04-19 Yahoo Japan Corp Image retrieval device, image retrieval method and program
JP2012146221A (en) 2011-01-13 2012-08-02 Nippon Telegr & Teleph Corp <Ntt> Feature amount acquisition device, similar image retrieval device, feature amount acquisition method, and program
WO2012111236A1 (en) 2011-02-17 2012-08-23 三洋電機株式会社 Image identification device and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2776295B2 (en) * 1994-10-27 1998-07-16 日本電気株式会社 Image index generation method and image index generation device
JP3952592B2 (en) * 1998-04-30 2007-08-01 キヤノン株式会社 Image search apparatus and method

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002304415A (en) 2001-04-04 2002-10-18 Omron Corp Image search device
JP2003187289A (en) 2001-12-21 2003-07-04 Sankyo Seiki Mfg Co Ltd Method for identifying circular body to be detected
JP2005004612A (en) 2003-06-13 2005-01-06 Denso Corp Image recognition device
JP2006331460A (en) 2004-03-03 2006-12-07 Nec Corp Image similarity calculation system, image search system, image similarity calculation method, and image similarity calculation program
JP2006338313A (en) 2005-06-01 2006-12-14 Nippon Telegr & Teleph Corp <Ntt> Similar image retrieving method, similar image retrieving system, similar image retrieving program, and recording medium
WO2007069393A1 (en) 2005-12-14 2007-06-21 Nec Corporation Object recognition device, object recognition method, and object recognition program
JP2009086762A (en) 2007-09-27 2009-04-23 Fujifilm Corp Similarity calculation device and similarity display device
JP2009251667A (en) 2008-04-01 2009-10-29 Toyota Motor Corp Image retrieval device
JP2012079186A (en) 2010-10-05 2012-04-19 Yahoo Japan Corp Image retrieval device, image retrieval method and program
JP2012146221A (en) 2011-01-13 2012-08-02 Nippon Telegr & Teleph Corp <Ntt> Feature amount acquisition device, similar image retrieval device, feature amount acquisition method, and program
WO2012111236A1 (en) 2011-02-17 2012-08-23 三洋電機株式会社 Image identification device and program

Also Published As

Publication number Publication date
JP2022068941A (en) 2022-05-11

Similar Documents

Publication Publication Date Title
US11586464B2 (en) Techniques for workflow analysis and design task optimization
US20220414911A1 (en) Three-dimensional reconstruction method and three-dimensional reconstruction apparatus
CN106296812B (en) It is synchronous to position and build drawing method
WO2022257578A1 (en) Method for recognizing text, and apparatus
JP5552495B2 (en) System and method for arranging and displaying items
US8285052B1 (en) Image ordering system optimized via user feedback
US11132392B2 (en) Image retrieval method, image retrieval apparatus, image retrieval device and medium
JP4770932B2 (en) Pattern feature extraction method and apparatus
US7849040B2 (en) Method for using isometries on the space of signatures to find similar sets of data
US20220392201A1 (en) Image feature matching method and related apparatus, device and storage medium
JP6902811B2 (en) Parallax estimation systems and methods, electronic devices and computer readable storage media
CN112465122B (en) Device and method for optimizing original dimension operator in neural network model
Song et al. A novel partial point cloud registration method based on graph attention network
US20220139073A1 (en) Automatic topology mapping processing method and system based on omnidirectional image information
KR20210107278A (en) A method for image processing with contextual style transfer
JPH11120180A (en) Data retrieval device and storage medium recording data retrieval program
JP7417504B2 (en) Similar image difference extraction device, similar image difference extraction method, program and recording medium
CN107016732A (en) Positioned using the 3D objects of descriptor
US20100185672A1 (en) Techniques for spatial representation of data and browsing based on similarity
CN107066926A (en) Positioned using the 3D objects of descriptor
Havlena et al. Optimal reduction of large image databases for location recognition
KR102405168B1 (en) Method and apparatus for generating of data set, computer-readable storage medium and computer program
KR102212328B1 (en) Apparatus and method for searching fabric pattern based on artificial intelligence
Vakalopoulou et al. Deep learning for image matching and Co‐registration
Rao et al. Fast 3D point cloud segmentation using deep neural network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240105

R150 Certificate of patent or registration of utility model

Ref document number: 7417504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150