JP7359380B2 - Detection parameter generation device, detection parameter generation method, detection parameter generation program, object detection device, object detection method, and object detection program - Google Patents

Detection parameter generation device, detection parameter generation method, detection parameter generation program, object detection device, object detection method, and object detection program Download PDF

Info

Publication number
JP7359380B2
JP7359380B2 JP2019143964A JP2019143964A JP7359380B2 JP 7359380 B2 JP7359380 B2 JP 7359380B2 JP 2019143964 A JP2019143964 A JP 2019143964A JP 2019143964 A JP2019143964 A JP 2019143964A JP 7359380 B2 JP7359380 B2 JP 7359380B2
Authority
JP
Japan
Prior art keywords
detection
detection parameter
image
index
dbn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019143964A
Other languages
Japanese (ja)
Other versions
JP2021026506A (en
Inventor
匠 市村
真 鎌田
直 多羅尾
亮 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chudenko Corp
Original Assignee
Chudenko Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chudenko Corp filed Critical Chudenko Corp
Priority to JP2019143964A priority Critical patent/JP7359380B2/en
Publication of JP2021026506A publication Critical patent/JP2021026506A/en
Application granted granted Critical
Publication of JP7359380B2 publication Critical patent/JP7359380B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、検出パラメタ生成装置、検出パラメタ生成方法、検出パラメタ生成プログラム、オブジェクト検出装置、オブジェクト検出方法、およびオブジェクト検出プログラムに関し、より詳しくは、構造適応型DBNを用いて画像からオブジェクトを検出するための検出パラメタを生成する検出パラメタ生成装置、検出方法および検出プログラム、ならびに、生成された検出パラメタを用いてオブジェクトを検出するオブジェクト検出装置、検出方法および検出プログラムに関する。 The present invention relates to a detection parameter generation device, a detection parameter generation method, a detection parameter generation program, an object detection device, an object detection method, and an object detection program, and more specifically, to a detection parameter generation device, a detection parameter generation method, a detection parameter generation program, and an object detection program. The present invention relates to a detection parameter generation device, a detection method, and a detection program that generate detection parameters for an object, and an object detection device, a detection method, and a detection program that detect an object using the generated detection parameters.

従来、構造適応型深層学習法が知られている(非特許文献1~3、特許文献1)。この手法によれば、制限付きボルツマンマシン(RBM)を多段に重ねてディープ・ビリーフ・ネットワーク(DBN)を構築する際に最適な隠れニューロン数および隠れ層数が自動的に求められる。これにより、学習用データに基づいて最適な構造のニューラルネットワークを構築することが可能である。この構造適応型深層学習法により構築された構造適応型DBNは、複数のベンチマークテストにおいて、既存の畳み込みニューラルネットワーク(CNN)よりも高い分類精度を示している(非特許文献4)。 Conventionally, structure adaptive deep learning methods have been known (Non-Patent Documents 1 to 3, Patent Document 1). According to this method, when constructing a deep belief network (DBN) by stacking restricted Boltzmann machines (RBM) in multiple stages, the optimal number of hidden neurons and hidden layers are automatically determined. Thereby, it is possible to construct a neural network with an optimal structure based on the learning data. A structure-adaptive DBN constructed using this structure-adaptive deep learning method has shown higher classification accuracy than existing convolutional neural networks (CNNs) in multiple benchmark tests (Non-Patent Document 4).

なお、分類精度の改善手法としてファインチューニング(Fine Tuning)法が知られている(例えば、非特許文献5)。この手法では、学習後のネットワークの各層の入出力パターンの頻度に応じて、誤って分類された事例が正しく分類されるようにネットワークの重みを修正する。 Note that a fine tuning method is known as a method for improving classification accuracy (for example, Non-Patent Document 5). In this method, the weights of the network are modified according to the frequency of input/output patterns of each layer of the network after learning so that incorrectly classified cases are classified correctly.

本発明者らは、胸部X線画像に係る公開データベース(ChestX-Ray8:CXR8)を用いて学習された構造適応型DBNを用いて、癌の有無を高い精度で検出可能なアルゴリズムを提案している(非特許文献6)。 The present inventors have proposed an algorithm that can detect the presence or absence of cancer with high accuracy using a structure-adaptive DBN trained using a public database of chest X-ray images (ChestX-Ray8: CXR8). (Non-patent Document 6).

このアルゴリズムでは、まず、検出対象のオブジェクトが含まれる画像を入力し、当該画像を複数の領域に沿って分割して複数の分割画像を得る。そして、分割画像を学習済みの構造適応型DBNに与えて、出力層から出力される値を取得する。各ニューロンから出力される値は、ソフトマックス関数により正規化されており、オブジェクトの検出確率を示す。 In this algorithm, first, an image containing an object to be detected is input, and the image is divided along a plurality of regions to obtain a plurality of divided images. Then, the divided images are given to the learned structure-adaptive DBN to obtain the values output from the output layer. The value output from each neuron is normalized by a softmax function and indicates the probability of object detection.

次に、あるオブジェクトに対応するニューロンから出力された値(確率)が当該オブジェクトに対して設定された閾値(第1の検出パラメタ)よりも大きいかどうかを判定する。そして、出力された値が第1の検出パラメタよりも大きい場合、分割画像に基づいて変形画像を作成し、変形画像を学習済みの構造適応型DBNに与えて、出力層から出力される値を取得する。出力された値(確率)が当該オブジェクトに対して設定された別の閾値(第2の検出パラメタ)よりも大きいかどうかを判定する。そして、出力された値が第2の検出パラメタより大きい場合に、当該オブジェクトを検出したと最終的に判定する。なお、第1および第2の検出パラメタは、0より大きく、1より小さい値であり、値が小さいほどオブジェクトは検出され易くなる。 Next, it is determined whether a value (probability) output from a neuron corresponding to a certain object is larger than a threshold (first detection parameter) set for the object. Then, if the output value is larger than the first detection parameter, a deformed image is created based on the divided image, the deformed image is given to the learned structure adaptive DBN, and the value output from the output layer is get. It is determined whether the output value (probability) is larger than another threshold (second detection parameter) set for the object. Then, if the output value is larger than the second detection parameter, it is finally determined that the object has been detected. Note that the first and second detection parameters have values greater than 0 and less than 1, and the smaller the value, the easier the object is to be detected.

特開2019-74946号公報JP2019-74946A

S.Kamada and T.Ichimura, An Adaptive Learning Method of Restricted Boltzmann Machine by Neuron Generation and Annihilation Algorithm, Proc. of 2016 IEEE International Conference on Systems, Man, and Cybernetics (IEEE SMC 2016), pp.1273-1278 (2016)S. Kamada and T. Ichimura, An Adaptive Learning Method of Restricted Boltzmann Machine by Neuron Generation and Annihilation Algorithm, Proc. of 2016 IEEE International Conference on Systems, Man, and Cybernetics (IEEE SMC 2016), pp.1273-1278 (2016 ) S.Kamada and T.Ichimura, A Structural Learning Method of Restricted Boltzmann Machine by Neuron Generation and Annihilation Algorithm, Neural Information Processing, Lecture Notes in Computer Science (LNCS, vol.9950), pp.372-380 (2016)S.Kamada and T.Ichimura, A Structural Learning Method of Restricted Boltzmann Machine by Neuron Generation and Annihilation Algorithm, Neural Information Processing, Lecture Notes in Computer Science (LNCS, vol.9950), pp.372-380 (2016) S.Kamada and T.Ichimura, An Adaptive Learning Method of Deep Belief Network by Layer Generation Algorithm, Proc. of 2016 IEEE Region 10 Conference (TENCON), pp.2971-2974 (2016)S.Kamada and T.Ichimura, An Adaptive Learning Method of Deep Belief Network by Layer Generation Algorithm, Proc. of 2016 IEEE Region 10 Conference (TENCON), pp.2971-2974 (2016) S.Kamada, T.Ichimura, Akira Hara, and Kenneth J. Mackin, Adaptive Structure Learning Method of Deep Belief Network using Neuron Generation-Annihilation and Layer Generation, Neural Computing and Applications, doi.org/10.1007/s00521-018-3622-y, pp.1-15 (2018)S. Kamada, T. Ichimura, Akira Hara, and Kenneth J. Mackin, Adaptive Structure Learning Method of Deep Belief Network using Neuron Generation-Annihilation and Layer Generation, Neural Computing and Applications, doi.org/10.1007/s00521-018-3622 -y, pp.1-15 (2018) S.Kamada and T.Ichimura, Fine Tuning of Adaptive Learning of Deep Belief Network for Misclassification and its Knowledge Acquisition, International Journal Computational Intelligence Studies, Vol.6, No.4, pp.333-348 (2017)S.Kamada and T.Ichimura, Fine Tuning of Adaptive Learning of Deep Belief Network for Misclassification and its Knowledge Acquisition, International Journal Computational Intelligence Studies, Vol.6, No.4, pp.333-348 (2017) 市村匠,鎌田真,“ChestX-ray8 を用いた構造適応型Deep Belief Network による胸部疾患位置検出システム”,計測自動制御学会システム・情報部門学術講演会2018 講演論文集(SSI2018) (2018)Takumi Ichimura, Makoto Kamata, “Chest disease location detection system using structure-adaptive deep belief network using ChestX-ray8”, Proceedings of the Society of Instrument and Control Engineers, Systems and Information Division Academic Conference 2018 (SSI2018) (2018)

前述のオブジェクト検出アルゴリズムを用いることにより、胸部X線画像については高い検出精度が得られることが確認されている。 It has been confirmed that high detection accuracy can be obtained for chest X-ray images by using the object detection algorithm described above.

しかしながら、本発明者らによるさらなる研究によれば、画像の種類によっては、高い検出精度を得ることが難しい場合があることがわかってきた。例えば建築設備図面に係る画像の場合、高い検出精度が得られない場合がある。 However, further research by the present inventors has revealed that it may be difficult to obtain high detection accuracy depending on the type of image. For example, in the case of images related to architectural equipment drawings, high detection accuracy may not be obtained.

建築設備図面には、照明、コンセント、トイレ等を示す様々な種類の記号が含まれる。また、記号ごとに頻出度や希少度といった特徴が異なる。ここで、頻出度とは、ある画像(図面)におけるオブジェクト(記号)の出現頻度に関する度合を示し、希少度とは、複数枚の画像におけるオブジェクトの希少価値に関する度合を示す。希少度は、オブジェクトが特定の図面にしか出現しない場合に高くなる。 Building equipment drawings include various types of symbols that indicate lighting, outlets, toilets, etc. Furthermore, each symbol has different characteristics such as frequency and rarity. Here, the frequency refers to the degree to which an object (symbol) appears in a certain image (drawing), and the rarity refers to the degree to which the object is rare in a plurality of images. Rarity is high when an object only appears in a specific drawing.

従来のオブジェクト検出アルゴリズムでは、第1および第2の検出パラメタは各オブジェクトに共通の値として与えられていた。このため、従来のアルゴリズムでは、図面に含まれる各種記号を高い精度で検出することは困難であった。試行錯誤的に検出パラメタを探索することで高い検出精度が得られることもあるが、非常に手間がかかり効率的でなかった。 In conventional object detection algorithms, the first and second detection parameters are given as common values to each object. Therefore, with conventional algorithms, it has been difficult to detect various symbols included in drawings with high accuracy. High detection accuracy can sometimes be obtained by searching for detection parameters through trial and error, but this is extremely time-consuming and inefficient.

本発明は、上記のような技術的認識に基づいてなされたものであり、その目的は、特徴の異なる複数種類のオブジェクトを高い精度で検出することを可能とする検出パラメタを容易に生成できる検出パラメタ生成装置、検出パラメタ生成方法および検出パラメタ生成プログラムを提供すること、ならびに、生成された検出パラメタを用いて特徴の異なる複数種類のオブジェクトを高い精度で検出できるオブジェクト検出装置、オブジェクト検出方法およびオブジェクト検出プログラムを提供することである。 The present invention has been made based on the above-mentioned technical recognition, and its purpose is to easily generate detection parameters that make it possible to detect multiple types of objects with different characteristics with high accuracy. To provide a parameter generation device, a detection parameter generation method, and a detection parameter generation program, and an object detection device, an object detection method, and an object that can detect multiple types of objects with different characteristics with high accuracy using the generated detection parameters. The purpose is to provide a detection program.

本発明に係る検出パラメタ生成装置は、
構造適応型DBNを用いて画像からオブジェクトを検出するための検出パラメタを生成する検出パラメタ生成装置であって、
複数の画像を有するデータセットのうちの一つの画像における、あるオブジェクトの頻出度を示す第1の指標を求める頻出度指標算出部と、
前記データセットにおける前記オブジェクトの希少度を示す第2の指標を求める希少度指標算出部と、
前記第1の指標と前記第2の指標との積に基づいて、検出用画像を分割して得られた分割画像に前記オブジェクトが存在するかどうかを判定するための第1の検出パラメタと、前記分割画像に基づいて作成された変形画像に前記オブジェクトが存在するかどうかを判定するための第2の検出パラメタとを更新する検出パラメタ更新部と、
を備えることを特徴とする。
The detection parameter generation device according to the present invention includes:
A detection parameter generation device that generates detection parameters for detecting an object from an image using a structure adaptive DBN, comprising:
a frequency index calculation unit that calculates a first index indicating the frequency of a certain object in one image of a dataset having a plurality of images;
a rarity index calculation unit that calculates a second index indicating the rarity of the object in the data set;
a first detection parameter for determining whether the object is present in a divided image obtained by dividing the detection image based on the product of the first index and the second index; a detection parameter updating unit that updates a second detection parameter for determining whether the object is present in the deformed image created based on the divided image;
It is characterized by having the following.

また、前記検出パラメタ生成装置において、
前記検出パラメタ更新部は、前記第1の指標と前記第2の指標との積が大きくなるにつれて前記第1の検出パラメタおよび前記第2の検出パラメタを小さくするようにしてもよい。
Further, in the detection parameter generation device,
The detection parameter updating unit may decrease the first detection parameter and the second detection parameter as the product of the first index and the second index increases.

また、前記検出パラメタ生成装置において、
前記画像は建築設備図面に係る画像であり、前記オブジェクトは、建築設備図面の記号であるようにしてもよい。
Further, in the detection parameter generation device,
The image may be an image related to a building equipment drawing, and the object may be a symbol of the building equipment drawing.

本発明に係るオブジェクト検出装置は、
検出用画像を入力する画像入力部と、
前記検出用画像を複数の分割画像に分割する画像分割部と、
前記分割画像を構造適応型DBNの入力層に与えて、前記構造適応型DBNの出力層に出力された、あるオブジェクトに対する第1の確率を取得する第1の確率取得部と、
前記第1の確率が前記検出パラメタ生成装置で生成された第1の検出パラメタよりも大きければ、前記分割画像に基づいて変形画像を作成する変形画像作成部と、
前記変形画像を前記構造適応型DBNの入力層に与えて、前記構造適応型DBNの出力層に出力された前記オブジェクトに対する第2の確率を取得する第2の確率取得部と、
前記第2の確率が前記検出パラメタ生成装置で生成された第2の検出パラメタよりも大きければ、前記オブジェクトを検出したと判定する判定部と、
を備えることを特徴とする。
The object detection device according to the present invention includes:
an image input section for inputting a detection image;
an image dividing unit that divides the detection image into a plurality of divided images;
a first probability acquisition unit that applies the divided image to an input layer of a structure adaptive DBN and obtains a first probability for a certain object output to an output layer of the structure adaptive DBN;
a deformed image creation unit that creates a deformed image based on the divided image if the first probability is greater than the first detection parameter generated by the detection parameter generation device;
a second probability acquisition unit that applies the deformed image to the input layer of the structure-adaptive DBN to obtain a second probability for the object output to the output layer of the structure-adaptive DBN;
a determination unit that determines that the object has been detected if the second probability is greater than the second detection parameter generated by the detection parameter generation device;
It is characterized by having the following.

本発明によれば、特徴の異なる複数種類のオブジェクトを高い精度で検出することを可能とする検出パラメタを容易に生成することができる。 According to the present invention, it is possible to easily generate detection parameters that enable highly accurate detection of multiple types of objects with different characteristics.

また、本発明によれば、前記検出パラメタを用いて、特徴の異なる複数種類のオブジェクトを高い精度で検出することができる。 Further, according to the present invention, multiple types of objects with different characteristics can be detected with high accuracy using the detection parameters.

実施形態に係るオブジェクト検出に係る全体処理フローの概略を示す図である。FIG. 2 is a diagram schematically showing an overall processing flow related to object detection according to the embodiment. 構造適応型DBNの構築に用いた訓練データおよびテストデータの概要を示す図である。FIG. 2 is a diagram showing an overview of training data and test data used to construct a structure-adaptive DBN. 構造適応型DBNの構築に用いたカテゴリ別の記号の例を示す図である。FIG. 3 is a diagram showing an example of symbols classified by category used in constructing a structure-adaptive DBN. 構築された構造適応型DBNの例を模式的に示す図である。FIG. 2 is a diagram schematically showing an example of a constructed structure-adaptive DBN. 構築された構造適応型DBNの分類精度を示す図である。FIG. 3 is a diagram showing the classification accuracy of the constructed structure-adaptive DBN. 実施形態に係る検出パラメタ生成装置の概略的構成を示す図である。1 is a diagram showing a schematic configuration of a detection parameter generation device according to an embodiment. 実施形態に係る図面データベースの一例を示す図である。It is a figure showing an example of a drawing database concerning an embodiment. 実施形態に係る検出パラメタ生成方法を示すフローチャートである。3 is a flowchart illustrating a detection parameter generation method according to an embodiment. 実施形態に係るオブジェクト検出装置の概略的構成を示す図である。1 is a diagram showing a schematic configuration of an object detection device according to an embodiment. 建築設備図面の画像の一例を示す図である。It is a figure which shows an example of the image of a building equipment drawing. 変形画像の作成方法について説明するための図である。FIG. 3 is a diagram for explaining a method of creating a deformed image. 実施形態に係るオブジェクト検出方法を示すフローチャートである。3 is a flowchart illustrating an object detection method according to an embodiment. 従来(手動調整)と実施形態(自動調整)による記号の検出精度を示す図である。It is a figure which shows the detection accuracy of the symbol by the conventional (manual adjustment) and embodiment (automatic adjustment). 記号を正しく検出できなかった場合の例を示す図である。FIG. 6 is a diagram illustrating an example of a case where a symbol cannot be detected correctly.

以下、本発明に係る実施形態について図面を参照しながら説明する。 Embodiments according to the present invention will be described below with reference to the drawings.

<全体処理フロー>
図1を参照して、本実施形態に係る、構造適応型DBNを用いたオブジェクト検出に係る全体処理フローについて説明する。
<Overall processing flow>
With reference to FIG. 1, an overall processing flow related to object detection using a structure-adaptive DBN according to this embodiment will be described.

なお、本実施形態では、オブジェクトを含む画像は、各種記号を含む建築設備図面に係る画像である。ただし、本発明はこれに限られるものでなく、建築設備図面以外の線図のほか、その他検出対象のオブジェクトを含む各種画像に適用することが可能である。 Note that in this embodiment, the image including the object is an image related to a building equipment drawing including various symbols. However, the present invention is not limited to this, and can be applied to line drawings other than architectural equipment drawings, as well as various other images containing objects to be detected.

ステップS1では、構造適応型DBNを構築する。本ステップは、本発明者らが開発した公知の方法(非特許文献1~3等)により、構造適応型DBNの構築が行われる。訓練データ(学習用データ)およびテストデータ(評価用データ)として、複数の分類対象に係る記号の画像が用いられる。ニューラルネットワークの入力層の各ニューロンには、記号画像の各ピクセルのデータが入力される。なお、分類精度をさらに向上させるためにファインチューニングを行ってもよい。 In step S1, a structure adaptive DBN is constructed. In this step, a structure-adaptive DBN is constructed by a known method developed by the present inventors (non-patent documents 1 to 3, etc.). Images of symbols related to a plurality of classification targets are used as training data (learning data) and test data (evaluation data). Data for each pixel of the symbol image is input to each neuron in the input layer of the neural network. Note that fine tuning may be performed to further improve classification accuracy.

図2は、ステップS1で用いられる訓練データの数、および構造適応型DBNを評価するためのテストデータの数をカテゴリ別に示している。なお、学習データを増やすため、データ増強(Data Augment)を行ってデータ数を増やした。具体的には、元の記号画像に対して、左右反転、上下反転、90度回転、190度回転、上下移動、拡大および縮小の操作を行うことでデータ数を約12倍に増やした。図2に示す数は、データ増強後のデータ数である。 FIG. 2 shows, by category, the number of training data used in step S1 and the number of test data for evaluating the structure-adaptive DBN. In addition, in order to increase the learning data, data augmentation was performed to increase the number of data. Specifically, the number of data was increased approximately 12 times by performing operations such as horizontal flip, vertical flip, 90 degree rotation, 190 degree rotation, vertical movement, enlargement, and reduction on the original symbol image. The numbers shown in FIG. 2 are the numbers of data after data augmentation.

図3は、カテゴリ別の記号の例を示している。記号M1は、カテゴリ「衛生器具」に属する記号画像の一例である。記号M2は、カテゴリ「電灯」に属する記号画像の一例である。記号M3は、カテゴリ「コンセント」に属する記号画像の一例である。記号M4は、カテゴリ「非常灯・誘導灯」に属する記号画像の一例である。記号M5は、カテゴリ「インターホン」に属する記号画像の一例である。 FIG. 3 shows examples of symbols for each category. The symbol M1 is an example of a symbol image belonging to the category "sanitary utensils." Symbol M2 is an example of a symbol image belonging to the category "electric light." Symbol M3 is an example of a symbol image belonging to the category "outlet". Symbol M4 is an example of a symbol image belonging to the category "emergency lights/guidance lights." Symbol M5 is an example of a symbol image belonging to the category "intercom."

図4は、構築された構造適応型DBNの例を模式的に示している。出力層は、カテゴリ数に対応してニューロンN1,N2,N3,N4,N5を有している。ニューロンN1~N5の出力値は、総和が1となるようにソフトマックス関数等により正規化される。ニューロンN1,N2,N3,N4,N5の出力値は、対応付けられたオブジェクトの確率を示す。例えば、ニューロンN1の出力値が0.8の場合、入力層に入力された記号画像がカテゴリ「衛生器具」である確率は80%である。 FIG. 4 schematically shows an example of the constructed structure-adaptive DBN. The output layer has neurons N1, N2, N3, N4, and N5 corresponding to the number of categories. The output values of the neurons N1 to N5 are normalized by a softmax function or the like so that the sum becomes 1. The output values of neurons N1, N2, N3, N4, and N5 indicate the probability of the associated object. For example, when the output value of neuron N1 is 0.8, the probability that the symbol image input to the input layer is in the category "sanitary utensils" is 80%.

訓練データを用いて構造適応型DBNの構築後、分類精度の評価を行う。図5は、構造適応型DBNの評価結果を示している。ここでは、訓練データ、テストデータ、およびファインチューニング後におけるテストデータに対する分類精度をそれぞれカテゴリ別に示している。なお、テストデータの分類精度における括弧の数値は、分類できなかったデータの数を示している。 After constructing a structure-adaptive DBN using training data, the classification accuracy is evaluated. FIG. 5 shows the evaluation results of the structure-adaptive DBN. Here, the classification accuracy for training data, test data, and test data after fine-tuning is shown for each category. Note that the numerical value in parentheses in the classification accuracy of test data indicates the number of data that could not be classified.

図5に示すように、訓練データに対する正答率は、すべてのカテゴリで100.0%となった。一方、テストデータについては、95.6%以上となった。また、ファインチューニング法により分類精度の改善を試みたところ、すべてのカテゴリに対して100.0%の分類精度が得られた。 As shown in FIG. 5, the correct answer rate for the training data was 100.0% in all categories. On the other hand, the test data was over 95.6%. Furthermore, when an attempt was made to improve the classification accuracy using a fine tuning method, a classification accuracy of 100.0% was obtained for all categories.

ステップS2では、建築設備図面の記号を検出するための検出パラメタ(第1の検出パラメタおよび第2の検出パラメタ)の生成を行う。ここで、第1の検出パラメタ(T1)は、オブジェクト検出用の画像(検出用画像)を分割して得られた分割画像にi番目のオブジェクト(オブジェクトi)が存在するかどうかを判定するための閾値である。第2の検出パラメタ(T2)は、分割画像に基づいて作成された変形画像にオブジェクトiが存在するかどうかを判定するための閾値である。検出パラメタの生成については、後ほど図6~図8を参照して詳しく説明する。 In step S2, detection parameters (a first detection parameter and a second detection parameter) for detecting symbols on building equipment drawings are generated. Here, the first detection parameter (T1 i ) determines whether the i-th object (object i) exists in the divided image obtained by dividing the image for object detection (detection image). This is the threshold for The second detection parameter (T2 i ) is a threshold value for determining whether object i exists in the deformed image created based on the divided images. Generation of detection parameters will be explained in detail later with reference to FIGS. 6 to 8.

ステップS3では、ステップS2で生成された検出パラメタを用いて、検出用画像からオブジェクトを検出する。本ステップS3では、ステップS2で生成された第1および第2の検出パラメタを、画像中にオブジェクトが存在するかどうかを判定する際の閾値として用いる。オブジェクト検出については、後ほど図9~図14を参照して詳しく説明する。 In step S3, an object is detected from the detection image using the detection parameters generated in step S2. In step S3, the first and second detection parameters generated in step S2 are used as thresholds for determining whether an object exists in the image. Object detection will be described in detail later with reference to FIGS. 9 to 14.

<検出パラメタ生成装置>
本実施形態に係る検出パラメタ生成装置1について、図6を参照して説明する。以下に説明するように、検出パラメタ生成装置1は、ステップS1で構築された構造適応型DBNを用いて画像からオブジェクトを検出するための検出パラメタを生成(調整)するように構成されている。
<Detection parameter generation device>
The detection parameter generation device 1 according to this embodiment will be described with reference to FIG. 6. As described below, the detection parameter generation device 1 is configured to generate (adjust) detection parameters for detecting objects from images using the structure-adaptive DBN constructed in step S1.

検出パラメタ生成装置1は、図6に示すように、制御部10と、通信部20と、操作入力部30と、表示部40と、記憶部50とを備えている。 As shown in FIG. 6, the detection parameter generation device 1 includes a control section 10, a communication section 20, an operation input section 30, a display section 40, and a storage section 50.

制御部10は、検出パラメタ生成装置1の動作を制御するものであり、ハードウェアとしてはCPU(中央処理装置)等のプロセッサにより構成される。本実施形態では、制御部10は、検出パラメタ生成装置1内のプロセッサが所定のプログラムを実行することにより実現される。なお、制御部10の少なくとも一部がASIC等のハードウェアにより構成されてもよい。制御部10の詳細については後ほど詳しく説明する。 The control unit 10 controls the operation of the detection parameter generation device 1, and is constituted by a processor such as a CPU (central processing unit) as hardware. In this embodiment, the control unit 10 is realized by a processor in the detection parameter generation device 1 executing a predetermined program. Note that at least a portion of the control unit 10 may be configured by hardware such as an ASIC. Details of the control unit 10 will be explained in detail later.

通信部20は、検出パラメタ生成装置1と外部の情報処理装置(図示せず)との間で情報を送受信する。なお、通信部20による通信は、有線・無線の別を問わず、また通信プロトコルも限定されない。 The communication unit 20 transmits and receives information between the detection parameter generation device 1 and an external information processing device (not shown). Note that the communication by the communication unit 20 may be wired or wireless, and the communication protocol is not limited.

操作入力部30は、ユーザが検出パラメタ生成装置1に情報を入力するためのインターフェースであり、例えば、キーボード、マウス、タッチパネル、ボタン等である。操作入力部30は、ユーザから検出パラメタの初期値や検出パラメタの生成指示などを受け付ける。 The operation input unit 30 is an interface for a user to input information to the detection parameter generation device 1, and is, for example, a keyboard, a mouse, a touch panel, a button, or the like. The operation input unit 30 receives initial values of detection parameters, detection parameter generation instructions, etc. from the user.

表示部40は、ユーザへ各種情報(生成された検出パラメタの値など)を出力するインターフェースである。この表示部40は、例えば、映像を表示するディスプレイ(液晶ディスプレイ、有機ELディスプレイ等)である。 The display unit 40 is an interface that outputs various information (such as generated detection parameter values) to the user. The display unit 40 is, for example, a display (liquid crystal display, organic EL display, etc.) that displays images.

記憶部50は、ハードディスクまたは半導体メモリなどから構成される記憶装置である。この記憶部50には、図面データベース51が記憶されている。なお、記憶部50には、制御部10による情報処理に必要なプログラムや各種データが記憶されてもよい。 The storage unit 50 is a storage device composed of a hard disk, a semiconductor memory, or the like. This storage unit 50 stores a drawing database 51. Note that the storage unit 50 may store programs and various data necessary for information processing by the control unit 10.

図面データベース51は、複数の建築設備図面に係る画像を有するデータセットから抽出された、各図面における記号ごとの出現数(描画数)を格納したデータベースである。図面データベース51は、人が図面画像を見て作成される。なお、部品ごとの頻出度や希少度の傾向が誤っていなければ、図面データベース51の部品数は必ずしも厳密な値でなくてもよい。 The drawing database 51 is a database that stores the number of appearances (number of drawings) of each symbol in each drawing, which is extracted from a data set having images related to a plurality of building equipment drawings. The drawing database 51 is created by a person viewing a drawing image. Note that the number of parts in the drawing database 51 does not necessarily have to be a precise value, as long as the frequency and rarity trends of each part are correct.

図7は、図面データベース51の一例を示している。図面データベース51には、J枚の建築設備図面の各々について、部品(建築設備図面の記号)ごとの数が格納されている。なお、Iは部品の種類の総数である。すなわち、図面データベース51には、図面j(1≦j≦J)に描画されている部品i(1≦i≦I)の数が格納されている。右端のカラムには、各図面について部品の総数が格納されている。なお、このカラムは必須ではなく、制御部10が演算により算出してもよい。
次に、制御部10について詳しく説明する。
FIG. 7 shows an example of the drawing database 51. The drawing database 51 stores the number of each part (symbol of the building equipment drawing) for each of the J building equipment drawings. Note that I is the total number of types of parts. That is, the drawing database 51 stores the number of parts i (1≦i≦I) drawn in drawing j (1≦j≦J). The rightmost column stores the total number of parts for each drawing. Note that this column is not essential, and may be calculated by the control unit 10.
Next, the control section 10 will be explained in detail.

制御部10は、図6に示すように、データ入力部11と、頻出度指標算出部12と、希少度指標算出部13と、検出パラメタ更新部14とを有する。なお、制御部10が有する各機能部は、通信接続された複数の情報処理装置に分散して設けられ、これら複数の情報処理装置が協働することによって制御部10の機能が実現されてもよい。 As shown in FIG. 6, the control unit 10 includes a data input unit 11, a frequency index calculation unit 12, a rarity index calculation unit 13, and a detection parameter update unit 14. Note that each functional unit included in the control unit 10 is provided in a distributed manner in a plurality of information processing devices that are communicatively connected, and the functions of the control unit 10 are realized by cooperation of these plurality of information processing devices. good.

データ入力部11は、第1の検出パラメタの初期値および第2の検出パラメタの初期値を取得する。第1の検出パラメタの初期値(T1i,1)と第2の検出パラメタの初期値(T2i,1)は、T1i,1≦T2i,1の関係であることが好ましい。なお、初期値としては、オブジェクトの種類に依存しない共通の値が取得されてもよいし、オブジェクト種類ごとの値が取得されてもよい。 The data input unit 11 acquires the initial value of the first detection parameter and the initial value of the second detection parameter. It is preferable that the initial value of the first detection parameter (T1 i,1 ) and the initial value of the second detection parameter (T2 i,1 ) have a relationship of T1 i,1 ≦T2 i,1 . Note that as the initial value, a common value that does not depend on the type of object may be acquired, or a value for each type of object may be acquired.

頻出度指標算出部12は、前記データセットのうちの一つの画像中における、あるオブジェクト(オブジェクトi)の頻出度を示す第1の指標を求める。本実施形態では、頻出度指標算出部12は、図面データベース51を参照し、式(1)により第1の指標xi,jを算出する。第1の指標xi,jは、画像jの全オブジェクトに対するオブジェクトiの割合を示す。

Figure 0007359380000001
The frequency index calculation unit 12 calculates a first index indicating the frequency of a certain object (object i) in one image of the data set. In this embodiment, the frequency index calculation unit 12 refers to the drawing database 51 and calculates the first index x i,j using equation (1). The first index x i,j indicates the proportion of object i to all objects in image j.
Figure 0007359380000001

ここで、xi,j:第1の指標、ni,j:画像jにおけるオブジェクトiの数、I:前記データセットにおけるオブジェクトの種類の総数である。 Here, x i,j is the first index, n i,j is the number of objects i in image j, and I is the total number of object types in the data set.

例えば、ある建築設備図面に係る画像jに100個の部品が含まれ、部品iの数が0個の場合、第1の指標xi,jは0となる。一方、画像jに100個の部品が含まれ、そのすべてが部品iの場合、第1の指標xi,jは1となる。このように第1の指標xi,jは、画像jにおけるオブジェクトiの頻出度に応じて、0以上1以下の値をとる。 For example, if an image j related to a certain building equipment drawing includes 100 parts and the number of parts i is 0, the first index x i,j is 0. On the other hand, if image j includes 100 parts, all of which are part i, the first index x i,j is 1. In this way, the first index x i,j takes a value of 0 or more and 1 or less depending on the frequency of object i in image j.

なお、頻出度指標算出部12は、式(1)の右辺の分母として、図7の図面データベース51の右欄のカラムに格納された値を使用する。右欄のカラムがない場合、頻出度指標算出部12が部品1、部品2、・・・、部品Iの総和を算出してもよい。 Note that the frequency index calculation unit 12 uses the value stored in the right column of the drawing database 51 in FIG. 7 as the denominator on the right side of equation (1). If there is no column in the right column, the frequency index calculation unit 12 may calculate the sum of parts 1, 2, . . . , part I.

希少度指標算出部13は、前記データセット(J枚の画像)におけるオブジェクトiの希少度を示す第2の指標を求める。第2の指標yiは、前記データセットにおいてオブジェクトiを含む画像の数が少ないほど大きい値を返す関数により求められる。本実施形態では、希少度指標算出部13は、図面データベース51を参照し、式(2)により第2の指標を算出する。

Figure 0007359380000002
The rarity index calculation unit 13 calculates a second index indicating the rarity of object i in the data set (J images). The second index y i is determined by a function that returns a larger value as the number of images containing object i in the data set is smaller. In this embodiment, the rarity index calculation unit 13 refers to the drawing database 51 and calculates the second index using equation (2).
Figure 0007359380000002

ここで、yi:第2の指標、J:前記データセットにおける画像の総数、Ai:オブジェクトiを含む画像の数である。 Here, y i is the second index, J is the total number of images in the data set, and A i is the number of images containing object i.

例えば、建築設備図面に係る画像の総数が10枚で、そのうちの1枚の画像にのみ部品iが含まれる場合、第2の指標yiは1となる。一方、図面の総数が10枚で、すべての図面に部品iが含まれる場合、第2の指標yiは0となる。このように第2の指標yiは、データセットに含まれる複数の画像におけるオブジェクトiの希少度に応じて、0以上log|J|以下の値をとる。 For example, if the total number of images related to architectural equipment drawings is 10, and only one of the images includes part i, the second index y i is 1. On the other hand, if the total number of drawings is 10 and all drawings include part i, the second index y i will be 0. In this way, the second index y i takes a value greater than or equal to 0 and less than or equal to log|J|, depending on the rarity of the object i in the plurality of images included in the data set.

検出パラメタ更新部14は、第1の指標と第2の指標との積に基づいて、第1の検出パラメタ(T1)と、第2の検出パラメタ(T2)とを更新する。 The detection parameter updating unit 14 updates the first detection parameter (T1 i ) and the second detection parameter (T2 i ) based on the product of the first index and the second index.

より詳しくは、検出パラメタ更新部14は、第1の指標と第2の指標との積が大きくなるにつれて、第1の検出パラメタおよび第2の検出パラメタを小さくする。本実施形態では、検出パラメタ更新部14は、式(3)により第1の検出パラメタを更新する。

Figure 0007359380000003
More specifically, the detection parameter updating unit 14 decreases the first detection parameter and the second detection parameter as the product of the first index and the second index increases. In this embodiment, the detection parameter update unit 14 updates the first detection parameter using equation (3).
Figure 0007359380000003

ここで、T1i,j+1:オブジェクトiの更新後の第1の検出パラメタ、T1i,j:オブジェクトiの更新前の第1の検出パラメタ、zi,jは第1の指標と第2の指標との積(=xi,j×yi)である。 Here, T1 i,j+1 : the first detection parameter of object i after update, T1 i,j : the first detection parameter of object i before update, z i,j are the first index and 2 with the index (=x i,j ×y i ).

同様に、検出パラメタ更新部14は、式(4)により第2の検出パラメタを更新する。

Figure 0007359380000004
Similarly, the detection parameter updating unit 14 updates the second detection parameter using equation (4).
Figure 0007359380000004

ここで、T2i,j+1:オブジェクトiの更新後の第2の検出パラメタ、T2i,j:オブジェクトiの更新前の第2の検出パラメタ、zi,jは第1の指標と第2の指標との積(=xi,j×yi)である。 Here, T2 i,j+1 : second detection parameter after update of object i, T2 i,j : second detection parameter before update of object i, z i,j are the first index and 2 with the index (=x i,j ×y i ).

式(3)および式(4)によれば、オブジェクトiが頻出かつ希少であるほど(すなわち、zi,jが大きいほど)、更新後の第1および第2の検出パラメタの値は小さくなるため、当該オブジェクトを検出し易くなる。一般的には検出パラメタを小さくすると誤検出のおそれがあるが、本実施形態では、第1の指標と第2の指標の積に基づいて検出パラメタを調整することで、検出精度の向上を実現している。実際の検出結果については、後ほど図13を参照して説明する。 According to equations (3) and (4), the more frequent and rare object i is (that is, the larger z i,j is), the smaller the updated values of the first and second detection parameters will be. Therefore, it becomes easier to detect the object. Generally, if the detection parameter is made small, there is a risk of false detection, but in this embodiment, detection accuracy is improved by adjusting the detection parameter based on the product of the first index and the second index. are doing. The actual detection results will be explained later with reference to FIG. 13.

なお、式(3)、式(4)は一例に過ぎない。例えば、式(5)に示すように、関数fを用いてzi,jを計算してもよい。関数fは、増加関数であり、例えば指数関数、対数関数、多項式関数である。

Figure 0007359380000005
Note that equations (3) and (4) are just examples. For example, as shown in equation (5), z i,j may be calculated using the function f. The function f is an increasing function, such as an exponential function, a logarithmic function, or a polynomial function.
Figure 0007359380000005

また、zi,jは、式(6)に示すように、関数fおよび関数gを用いて第1の指標xi,jおよび第2の指標yiをそれぞれ変換した値の積として求められてもよい。関数f,関数gは、増加関数であり、例えば指数関数、対数関数、多項式関数である。本願において「第1の指標と第2の指標との積(に基づいて)」との文言は、第1の指標に基づく値と第2の指標に基づく値との積も含む。

Figure 0007359380000006
In addition, z i,j is obtained as the product of the values obtained by converting the first index x i,j and the second index y i using the function f and the function g, respectively, as shown in equation (6). It's okay. The functions f and g are increasing functions, such as exponential functions, logarithmic functions, and polynomial functions. In this application, the expression "(based on) the product of the first index and the second index" includes the product of the value based on the first index and the value based on the second index.
Figure 0007359380000006

以上説明したように、本実施形態に係る検出パラメタ生成装置1では、頻出度を示す第1の指標と、希少度を示す第2の指標とを、オブジェクトごとに算出する。そして、第1の指標と第2の指標との積に基づいて、各オブジェクトの第1および第2の検出パラメタを生成する。これにより、オブジェクトの頻出度および希少度に応じて検出パラメタがオブジェクトごとに調整され、特徴の異なる複数種類のオブジェクトを高い精度で検出することを可能とする検出パラメタを試行錯誤することなく容易に生成することができる。 As described above, the detection parameter generation device 1 according to the present embodiment calculates a first index indicating frequency and a second index indicating rarity for each object. Then, first and second detection parameters for each object are generated based on the product of the first index and the second index. This allows the detection parameters to be adjusted for each object according to the frequency and rarity of the object, making it possible to detect multiple types of objects with different characteristics with high accuracy without the need for trial and error. can be generated.

さらに、本実施形態によれば、オブジェクトごとの検出パラメタが自動的に調整されるため、従来の手動による場合と比較して大幅な効率化を実現することができる。 Further, according to the present embodiment, since detection parameters for each object are automatically adjusted, it is possible to achieve a significant increase in efficiency compared to the conventional manual method.

なお、検出パラメタの更新にあたっては、手動で設定可能な調整パラメタを盛り込んでもよい。これにより、人の感覚に基づいて検出パラメタを調整することができる。例えば、第1の検出パラメタおよび第2の検出パラメタは、式(7)および式(8)よりそれぞれ更新される。これらの式において調整パラメタα,αは通常1であるが、それまでと傾向の異なるデータである等の理由で検出精度が思うように向上しない場合には、これらの手動調整パラメタを1から増減させることにより、検出精度の向上を図ることができる。

Figure 0007359380000007
Figure 0007359380000008
Note that when updating the detection parameters, adjustment parameters that can be manually set may be included. This allows the detection parameters to be adjusted based on human senses. For example, the first detection parameter and the second detection parameter are updated using equation (7) and equation (8), respectively. In these formulas, the adjustment parameters α 1 and α 2 are usually 1, but if the detection accuracy does not improve as expected due to the data having a different trend from before, these manual adjustment parameters can be set to 1. Detection accuracy can be improved by increasing or decreasing from .
Figure 0007359380000007
Figure 0007359380000008

また、データセットの更新に合わせて第1および第2の検出パラメタを更新してもよい。すなわち、J枚の建築設備図面に対する検出パラメタが生成された後、新たな図面が取得された場合、図面データベース51を更新し、第1および第2の検出パラメタを更新してもよい。 Furthermore, the first and second detection parameters may be updated in accordance with the update of the data set. That is, if a new drawing is acquired after detection parameters for J building equipment drawings have been generated, the drawing database 51 may be updated and the first and second detection parameters may be updated.

<検出パラメタの生成方法>
次に、図8を参照して、本実施形態に係る検出パラメタの生成方法について説明する。
<How to generate detection parameters>
Next, with reference to FIG. 8, a method for generating detection parameters according to this embodiment will be described.

ステップS11では、データ入力部11が、オブジェクトごとの第1の検出パラメタおよび第2の検出パラメタの初期値(T1i,1、T2i,1)を取得する。なお、本ステップで取得される初期値は、オブジェクトの種類に依存しない共通の値でもよい。また、初期値は、ユーザが操作入力部30を介して入力してもよいし、記憶部50に予め格納されていてもよいし、通信部20を介して外部の装置から取得されてもよい。 In step S11, the data input unit 11 obtains initial values (T1 i,1 , T2 i,1 ) of the first detection parameter and the second detection parameter for each object. Note that the initial value acquired in this step may be a common value that does not depend on the type of object. Further, the initial value may be input by the user via the operation input unit 30, may be stored in advance in the storage unit 50, or may be acquired from an external device via the communication unit 20. .

ステップS12では、制御部10が、2つの変数i,jを初期化する。本実施形態では、変数iおよび変数jを1にする。変数iはオブジェクトの番号を示し、変数jは画像の番号を示す。なお、本ステップS12はステップS11の前に行ってもよい。 In step S12, the control unit 10 initializes two variables i and j. In this embodiment, variable i and variable j are set to 1. The variable i indicates the object number, and the variable j indicates the image number. Note that this step S12 may be performed before step S11.

ステップS13では、制御部10が、変数jがデータセットの画像数J以下であるかどうかを判定する。変数jが画像数J以下であれば(S13:Yes)、ステップS14に進む。 In step S13, the control unit 10 determines whether the variable j is less than or equal to the number J of images in the data set. If the variable j is less than or equal to the number of images J (S13: Yes), the process advances to step S14.

一方、変数jが画像数Jより大きければ(S13:No)、検出パラメタ生成処理を終了する。この際、第1の検出パラメタが0未満である場合は、最終的に生成する第1の検出パラメタの値を所定の最小値(例えば0)とする。また、第1の検出パラメタが1より大きい場合は、最終的に生成する第1の検出パラメタの値は所定の最大値(例えば1)とする。第2の検出パラメタについても同様である。 On the other hand, if the variable j is larger than the number of images J (S13: No), the detection parameter generation process is ended. At this time, if the first detection parameter is less than 0, the finally generated value of the first detection parameter is set to a predetermined minimum value (for example, 0). Further, when the first detection parameter is larger than 1, the value of the first detection parameter finally generated is a predetermined maximum value (for example, 1). The same applies to the second detection parameter.

ステップS14では、制御部10が、変数iがオブジェクトの種類数I以下であるかどうかを判定する。変数iが種類数I以下であれば(S14:Yes)、ステップS15に進む。一方、変数iが種類数Iより大きければ(S14:No)、変数jを1つ増加させた後(ステップS19)、ステップS13に戻る。 In step S14, the control unit 10 determines whether the variable i is less than or equal to the number of object types I. If the variable i is less than or equal to the number of types I (S14: Yes), the process advances to step S15. On the other hand, if the variable i is larger than the number of types I (S14: No), the variable j is increased by one (step S19), and then the process returns to step S13.

ステップS15では、頻出度指標算出部12が、画像jにおけるオブジェクトiの頻出度を示す第1の指標xi,jを求める。本実施形態では、頻出度指標算出部12は、図7の図面データベースを参照し、前述の式(1)を用いて第1の指標xi,jを算出する。 In step S15, the frequency index calculation unit 12 calculates a first index x i,j indicating the frequency of object i in image j. In this embodiment, the frequency index calculation unit 12 refers to the drawing database of FIG. 7 and calculates the first index x i,j using the above-mentioned equation (1).

ステップS16では、希少度指標算出部13が、データセット(J枚の画像)におけるオブジェクトiの希少度を示す第2の指標yiを求める。本実施形態では、希少度指標算出部13は、図7に示す図面データベースを参照し、前述の式(2)を用いて第2の指標yiを算出する。なお、ステップS15とステップS16の実行順序は逆であってもよい。 In step S16, the rarity index calculation unit 13 calculates a second index y i indicating the rarity of the object i in the data set (J images). In this embodiment, the rarity index calculation unit 13 refers to the drawing database shown in FIG. 7 and calculates the second index y i using the above-mentioned formula (2). Note that the order of execution of step S15 and step S16 may be reversed.

ステップS17では、検出パラメタ更新部14が、第1の指標xi,jと第2の指標yiとの積に基づいて、第1の検出パラメタT1および第2の検出パラメタT2を更新する。本実施形態では、検出パラメタ更新部14は、前述の式(3)を用いて第1の検出パラメタT1を更新し、前述の式(4)を用いて第2の検出パラメタT2を更新する。 In step S17, the detection parameter updating unit 14 updates the first detection parameter T1 i and the second detection parameter T2 i based on the product of the first index x i,j and the second index y i . do. In this embodiment, the detection parameter update unit 14 updates the first detection parameter T1 i using the above-mentioned equation (3), and updates the second detection parameter T2 i using the above-mentioned equation (4). do.

ステップS17の後、制御部10が、変数iを1つ増加させた後(ステップS18)、ステップS14に戻る。 After step S17, the control unit 10 increases the variable i by one (step S18), and then returns to step S14.

上記の検出パラメタの生成方法によれば、オブジェクトの頻出度および希少度に応じて検出パラメタがオブジェクトごとに調整され、特徴の異なる複数種類のオブジェクトを高い精度で検出することを可能とする検出パラメタを容易に生成することができる。 According to the above detection parameter generation method, the detection parameters are adjusted for each object according to the frequency and rarity of the object, and the detection parameters make it possible to detect multiple types of objects with different characteristics with high accuracy. can be easily generated.

<オブジェクト検出装置>
次に、図9を参照して、検出パラメタ生成装置1により生成された第1および第2の検出パラメタを用いて、画像(検出用画像)に含まれるオブジェクトを検出するオブジェクト検出装置100について説明する。
<Object detection device>
Next, with reference to FIG. 9, an object detection device 100 that detects an object included in an image (detection image) using the first and second detection parameters generated by the detection parameter generation device 1 will be described. do.

本実施形態に係るオブジェクト検出装置100は、図9に示すように、制御部110と、通信部120と、操作入力部130と、表示部140と、記憶部150とを備えている。 The object detection device 100 according to this embodiment includes a control section 110, a communication section 120, an operation input section 130, a display section 140, and a storage section 150, as shown in FIG.

制御部110は、オブジェクト検出装置100の動作を制御するものであり、ハードウェアとしてはCPU(中央処理装置)等のプロセッサにより構成される。本実施形態では、制御部110は、オブジェクト検出装置100内のプロセッサが所定のプログラムを実行することにより実現される。なお、制御部110の少なくとも一部がASIC等のハードウェアにより構成されてもよい。制御部110の詳細については後ほど詳しく説明する。 The control unit 110 controls the operation of the object detection device 100, and is constituted by a processor such as a CPU (central processing unit) as hardware. In this embodiment, the control unit 110 is realized by a processor within the object detection device 100 executing a predetermined program. Note that at least a portion of the control unit 110 may be configured by hardware such as an ASIC. Details of the control unit 110 will be explained in detail later.

通信部120は、オブジェクト検出装置100と外部の情報処理装置(図示せず)との間で情報を送受信する。例えば、通信部120は検出パラメタ生成装置1から検出パラメタを受信する。なお、通信部120による通信は、有線・無線の別を問わず、また通信プロトコルも限定されない。 The communication unit 120 transmits and receives information between the object detection device 100 and an external information processing device (not shown). For example, the communication unit 120 receives detection parameters from the detection parameter generation device 1 . Note that the communication by the communication unit 120 may be wired or wireless, and the communication protocol is not limited.

操作入力部130は、ユーザがオブジェクト検出装置100に情報を入力するためのインターフェースであり、例えば、キーボード、マウス、タッチパネル、ボタン等である。操作入力部130は、ユーザから、検出用画像の指定やオブジェクト検出指示などを受け付ける。 The operation input unit 130 is an interface for a user to input information to the object detection device 100, and is, for example, a keyboard, a mouse, a touch panel, a button, or the like. The operation input unit 130 receives designations of detection images, object detection instructions, and the like from the user.

表示部140は、ユーザへ各種情報(例えばオブジェクトの検出結果など)を出力するインターフェースである。この表示部140は、例えば、映像を表示するディスプレイ(液晶ディスプレイ、有機ELディスプレイ等)である。 The display unit 140 is an interface that outputs various information (for example, object detection results, etc.) to the user. The display unit 140 is, for example, a display (liquid crystal display, organic EL display, etc.) that displays images.

記憶部150は、ハードディスクまたは半導体メモリなどから構成される記憶装置である。この記憶部150には、DBNデータ151および検出パラメタデータベース152が記憶されている。なお、記憶部150には、制御部110による情報処理に必要なプログラムやデータが記憶されてもよい。 The storage unit 150 is a storage device composed of a hard disk, a semiconductor memory, or the like. This storage unit 150 stores DBN data 151 and a detection parameter database 152. Note that the storage unit 150 may store programs and data necessary for information processing by the control unit 110.

DBNデータ151は、ステップS1で構築された構造適応型DBNに係るデータ(ニューラルネットワークの形状(層数、各相のニューロン数)、ニューロン間の重み、ニューロンのバイアス等のパラメタ値)である。 The DBN data 151 is data related to the structure-adaptive DBN constructed in step S1 (parameter values such as the shape of the neural network (number of layers, number of neurons in each phase), weights between neurons, bias of neurons, etc.).

検出パラメタデータベース152は、検出パラメタ生成装置1によって生成された、オブジェクトi(1≦i≦I)の第1の検出パラメタT1および第2の検出パラメタT2が格納されている。 The detection parameter database 152 stores a first detection parameter T1 i and a second detection parameter T2 i of an object i (1≦i≦I), which are generated by the detection parameter generation device 1.

次に、制御部110について詳しく説明する。 Next, the control unit 110 will be explained in detail.

制御部110は、図9に示すように、画像入力部111と、画像分割部112と、確率取得部(第1の確率取得部)113と、変形画像作成部114と、確率取得部(第2の確率取得部)115と、判定部116とを有する。なお、制御部110が有する各機能部は、通信接続された複数の情報処理装置に分散して設けられ、これら複数の情報処理装置が協働することによって制御部110の機能が実現されてもよい。 As shown in FIG. 9, the control unit 110 includes an image input unit 111, an image division unit 112, a probability acquisition unit (first probability acquisition unit) 113, a deformed image creation unit 114, and a probability acquisition unit (first probability acquisition unit). 2 (probability acquisition unit) 115, and a determination unit 116. Note that each functional unit included in the control unit 110 is provided in a distributed manner in a plurality of information processing devices that are communicatively connected, and the functions of the control unit 110 are realized by cooperation of these plurality of information processing devices. good.

画像入力部111は、検出用画像を入力する。図10は検出用画像の一例(マンションの建築設備図面)を示している。なお、検出用画像は、予め記憶部150に記憶されていてもよいし、通信部120を介して外部装置から取得されてもよいし、CD-ROMやSDカード等の情報記録媒体から取得されてもよい。 The image input unit 111 inputs a detection image. FIG. 10 shows an example of a detection image (a building equipment drawing of an apartment building). Note that the detection image may be stored in advance in the storage unit 150, may be obtained from an external device via the communication unit 120, or may be obtained from an information recording medium such as a CD-ROM or an SD card. You can.

画像分割部112は、検出用画像を複数の分割画像に分割する。例えば、画像分割部112は、入力された検出用画像を複数の矩形領域に沿って分割する。 The image dividing unit 112 divides the detection image into a plurality of divided images. For example, the image dividing unit 112 divides the input detection image along a plurality of rectangular regions.

なお、検出用画像の分割は矩形に限られず、例えばボロノイ領域を用いて矩形の場合よりもオブジェクト検出に適した分割画像を生成してもよい。この場合、画像分割部112は、離散ボロノイ図に基づいて複数のボロノイ領域を生成し、生成された複数のボロノイ領域を用いて検出用画像を複数の分割画像に分割する。 Note that the division of the detection image is not limited to rectangular shapes, and for example, a Voronoi region may be used to generate divided images that are more suitable for object detection than a rectangular shape. In this case, the image dividing unit 112 generates a plurality of Voronoi regions based on the discrete Voronoi diagram, and divides the detection image into a plurality of divided images using the plurality of generated Voronoi regions.

確率取得部113は、分割画像を構造適応型DBNの入力層に与えて、構造適応型DBNの出力層に出力された、あるオブジェクトに対する確率(第1の確率)を取得する。本実施形態では、確率取得部113は、画像分割部112により作成された複数の分割画像を順次、構造適応型DBNの入力層に与えて、各分割画像に対する出力層の値(すなわち、オブジェクトごとの確率)を取得する。 The probability acquisition unit 113 provides the divided images to the input layer of the structure-adaptive DBN, and obtains the probability (first probability) for a certain object output to the output layer of the structure-adaptive DBN. In this embodiment, the probability acquisition unit 113 sequentially supplies the plurality of divided images created by the image division unit 112 to the input layer of the structure adaptive DBN, and outputs the value of the output layer for each divided image (i.e., for each object). probability).

変形画像作成部114は、確率取得部113により取得された確率(オブジェクトiの確率)が第1の検出パラメタ(T1)よりも大きければ、分割画像に基づいて複数の変形画像を作成する。 If the probability acquired by the probability acquisition unit 113 (probability of object i) is larger than the first detection parameter (T1 i ), the deformed image creation unit 114 creates a plurality of deformed images based on the divided images.

ここで、図11を参照して変形画像の作成方法について説明する。なお、図11では変形画像の輪郭のみを示している。 Here, a method for creating a deformed image will be described with reference to FIG. Note that FIG. 11 shows only the outline of the deformed image.

まず、変形画像作成部114は、分割画像の中心点から所定のサイズを抽出する。図11の例では、分割画像の中心点から縦50ピクセル、横50ピクセルの画像Tを抽出する。そして、変形画像作成部114は、画像Tのサイズを変えて複数の画像を作成する。図11の例では、画像Tの縦横のサイズを100ピクセルまで10ピクセルずつ増加させて合計35個の画像を作成している。変形画像作成部114が作成する複数の変形画像は、画像Tと、画像Tのサイズを変更した画像(この例では36枚の画像)を含む。 First, the deformed image creation unit 114 extracts a predetermined size from the center point of the divided image. In the example of FIG. 11, an image T of 50 pixels vertically and 50 pixels horizontally is extracted from the center point of the divided image. Then, the modified image creation unit 114 creates a plurality of images by changing the size of the image T. In the example of FIG. 11, the vertical and horizontal sizes of the image T are increased by 10 pixels up to 100 pixels to create a total of 35 images. The plurality of deformed images created by the deformed image creation unit 114 include image T and images obtained by changing the size of image T (36 images in this example).

確率取得部115は、変形画像作成部114により作成された変形画像を、ステップS1で構築された構造適応型DBNの入力層に与えて、構造適応型DBNの出力層に出力された、あるオブジェクトに対する確率(第2の確率)を取得する。本実施形態では、確率取得部115は、変形画像作成部114により作成された複数の変形画像を順次、構造適応型DBNの入力層に与えて、各変形画像についての出力層の値(すなわち、オブジェクトごとの確率)を取得する。 The probability acquisition unit 115 supplies the deformed image created by the deformed image creation unit 114 to the input layer of the structurally adaptive DBN constructed in step S1, and obtains a certain object outputted to the output layer of the structurally adaptive DBN. Obtain the probability (second probability) for . In this embodiment, the probability acquisition unit 115 sequentially supplies the plurality of deformed images created by the deformed image creation unit 114 to the input layer of the structure adaptive DBN, and outputs the value of the output layer for each deformed image (i.e., Obtain the probability for each object.

判定部116は、確率取得部115により取得された、オブジェクトiに対する確率が、当該オブジェクトに対する第2の検出パラメタT2よりも大きければ、オブジェクトiを検出したと判定する。本実施形態では、変形画像作成部114により作成された複数の変形画像のうち少なくとも1つの変形画像について、オブジェクトiに対する確率が第2の検出パラメタT2より大きいならば、オブジェクトiを検出したと判定する。 The determination unit 116 determines that the object i has been detected if the probability for the object i acquired by the probability acquisition unit 115 is greater than the second detection parameter T2 i for the object. In this embodiment, if the probability of at least one deformed image among the plurality of deformed images created by the deformed image creation unit 114 for object i is greater than the second detection parameter T2 i , it is determined that object i has been detected. judge.

上記のように、本実施形態に係るオブジェクト検出装置100では、検出用画像を分割した分割画像について第1の検出パラメタで1段階目の判定を行い、その後、分割画像から作成した変形画像について第2の検出パラメタで2段階目の判定を行う。これにより、本実施形態によれば、検出用画像から、特徴の異なる複数種類のオブジェクトを高精度で検出することができる。 As described above, the object detection device 100 according to the present embodiment performs the first-stage determination using the first detection parameter on the divided images obtained by dividing the detection image, and then performs the first-stage determination on the deformed images created from the divided images. A second-stage determination is performed using the detection parameter No. 2. As a result, according to the present embodiment, it is possible to detect a plurality of types of objects with different characteristics from the detection image with high accuracy.

<オブジェクトの検出方法>
次に、図12を参照して、本実施形態に係るオブジェクトの検出方法について説明する。
<How to detect objects>
Next, an object detection method according to this embodiment will be described with reference to FIG. 12.

ステップS21では、画像入力部111が検出用画像を入力する。 In step S21, the image input unit 111 inputs a detection image.

ステップS22では、画像分割部112が、ステップS21で入力された検出用画像を複数の分割画像に分割する。本ステップにおいて、検出用画像はN個の分割画像に分割される。 In step S22, the image dividing unit 112 divides the detection image input in step S21 into a plurality of divided images. In this step, the detection image is divided into N divided images.

ステップS23では、制御部110が、2つの変数i,nを初期化する。変数iはオブジェクトの番号を示し、変数nは分割画像の番号を示す。本実施形態では、変数iおよび変数nを1にする。なお、本ステップS23はステップS21またはステップS22の前に行ってもよい。 In step S23, the control unit 110 initializes two variables i and n. The variable i indicates the object number, and the variable n indicates the divided image number. In this embodiment, variable i and variable n are set to 1. Note that this step S23 may be performed before step S21 or step S22.

ステップS24では、制御部110が、変数nが分割画像の総数N以下であるかどうかを判定する。変数nが総数N以下であれば(S24:Yes)、ステップS25に進む。一方、変数nが総数Nより大きければ(S24:No)、オブジェクト検出処理を終了する。 In step S24, the control unit 110 determines whether the variable n is less than or equal to the total number N of divided images. If the variable n is less than or equal to the total number N (S24: Yes), the process advances to step S25. On the other hand, if the variable n is larger than the total number N (S24: No), the object detection process ends.

ステップS25では、確率取得部113が、ステップS1で構築された構造適応型DBNの入力層にn番目の分割画像を与えて、出力層に出力された各オブジェクトの確率を取得する。 In step S25, the probability acquisition unit 113 provides the n-th divided image to the input layer of the structure-adaptive DBN constructed in step S1, and acquires the probability of each object output to the output layer.

ステップS26では、制御部110が、変数iがオブジェクトの種類数I以下であるかどうかを判定する。変数iが種類数I以下であれば(S26:Yes)、ステップS27に進む。一方、変数iが種類数Iより大きければ(S26:No)、変数nを1つ増加させて(ステップS33)、ステップS24に戻る。 In step S26, the control unit 110 determines whether the variable i is less than or equal to the number of object types I. If the variable i is less than or equal to the number of types I (S26: Yes), the process advances to step S27. On the other hand, if the variable i is larger than the number of types I (S26: No), the variable n is increased by one (step S33), and the process returns to step S24.

ステップS27では、制御部110が、オブジェクトiの確率が第1の検出パラメタT1よりも大きいかどうかを判定する。オブジェクトiの確率が第1の検出パラメタT1よりも大きい場合(S27:Yes)、ステップS28に進む。一方、オブジェクトiの確率が第1の検出パラメタT1以下の場合(S27:No)、変数iを1つ増加させた後(ステップS32)、ステップS26に戻る。 In step S27, the control unit 110 determines whether the probability of object i is greater than the first detection parameter T1 i . If the probability of object i is greater than the first detection parameter T1 i (S27: Yes), the process advances to step S28. On the other hand, if the probability of object i is less than or equal to the first detection parameter T1 i (S27: No), the variable i is increased by one (step S32), and then the process returns to step S26.

ステップS28では、変形画像作成部114が、n番目の分割画像に基づいて複数の変形画像を作成する。本ステップでは、図11を参照して説明したように分割画像から複数の変形画像が作成される。 In step S28, the deformed image creation unit 114 creates a plurality of deformed images based on the n-th divided image. In this step, a plurality of deformed images are created from the divided images as described with reference to FIG.

ステップS29では、確率取得部115が、ステップS28で作成された複数の変形画像をステップS1で構築された構造適応型DBNの入力層に順次与えて、各変形画像についての出力層の値(すなわち、オブジェクトごとの確率)を取得する。 In step S29, the probability acquisition unit 115 sequentially supplies the plurality of deformed images created in step S28 to the input layer of the structure-adaptive DBN constructed in step S1, and the value of the output layer for each deformed image (i.e. , probability for each object).

ステップS30では、判定部116が、ステップS28で作成された複数の変形画像ごとに、ステップS29において取得されたオブジェクトiに対する確率が第2の検出パラメタT2より大きいかどうかを判定する。そして、複数の変形画像のうち少なくとも1つの変形画像について、オブジェクトiに対する確率が第2の検出パラメタT2より大きいならば(S30:Yes)、オブジェクトiを検出したと判定する(ステップS31)。その後、変数iを1つ増加させた後(ステップS32)、ステップS26に戻る。 In step S30, the determination unit 116 determines whether the probability for the object i acquired in step S29 is greater than the second detection parameter T2 i for each of the plurality of deformed images created in step S28. Then, if the probability of at least one of the plurality of deformed images for object i is greater than the second detection parameter T2 i (S30: Yes), it is determined that object i has been detected (step S31). Thereafter, after incrementing the variable i by one (step S32), the process returns to step S26.

一方、ステップS28で作成された複数の変形画像のすべてについて、オブジェクトiに対する確率が第2の検出パラメタT2以下であるならば(S30:No)、判定部116が、オブジェクトiを検出しないと判定し、変数iを1つ増加させた後(ステップS32)、ステップS26に戻る。 On the other hand, if the probability for object i is less than or equal to the second detection parameter T2 i for all of the plurality of deformed images created in step S28 (S30: No), the determination unit 116 determines that object i is not detected. After making a determination and incrementing the variable i by one (step S32), the process returns to step S26.

上記のように本実施形態に係るオブジェクトの検出方法では、分割画像について第1の検出パラメタを用いて1段階目の判定を行い(ステップS27)、その後、分割画像から作成された変形画像について第2の検出パラメタを用いて2段階目の判定を行う(ステップS30)。検出パラメタ生成装置1により生成された第1および第2の検出パラメタを用いて2段階の判定処理を行う。これにより、本実施形態によれば、検出用画像から、特徴の異なる複数種類のオブジェクトを高精度で検出することができる。 As described above, in the object detection method according to the present embodiment, the first stage determination is performed using the first detection parameter for the divided image (step S27), and then the first stage determination is performed for the deformed image created from the divided image. A second-stage determination is performed using the second detection parameter (step S30). A two-stage determination process is performed using the first and second detection parameters generated by the detection parameter generation device 1. As a result, according to the present embodiment, it is possible to detect a plurality of types of objects with different characteristics from the detection image with high accuracy.

図13は、本実施形態に係るオブジェクト検出装置・方法によるオブジェクトの検出精度を、従来のオブジェクト検出アルゴリズム(手動調整)による検出精度と比較したものである。ここでいう検出精度は、データセット(J枚の建築設備図面)に含まれる部品総数のうち正しく検出された部品の割合である。なお、図13中のT1,T2の値は検出パラメタの初期値を示している。ここでは、自動調整の場合も初期値は各部品に共通の値とした。 FIG. 13 compares the object detection accuracy by the object detection apparatus and method according to this embodiment with the detection accuracy by a conventional object detection algorithm (manual adjustment). The detection accuracy here is the proportion of correctly detected parts out of the total number of parts included in the data set (J building equipment drawings). Note that the values of T1 and T2 in FIG. 13 indicate the initial values of the detection parameters. Here, even in the case of automatic adjustment, the initial value is a common value for each component.

図13に示すように、検出パラメタを手動で調整した場合では、最高で98.5%の検出精度が得られたものの、検出精度にばらつきが見られた。これは、各部品の特徴を考慮せずに一律の検出パラメタを使用していることに起因すると考えられる。一方、本実施形態による場合(自動調整)、手動調整のような試行錯誤を経なくとも、部品ごとに検出パラメタが最適値に自動調整されるため、初期値の異なるケース(自動調整1、自動調整2)のいずれにおいても最高の検出精度が得られた。 As shown in FIG. 13, when the detection parameters were manually adjusted, a maximum detection accuracy of 98.5% was obtained, but there were variations in the detection accuracy. This is considered to be due to the fact that uniform detection parameters are used without considering the characteristics of each component. On the other hand, in the case of this embodiment (automatic adjustment), the detection parameters are automatically adjusted to the optimal values for each component without going through trial and error like manual adjustment. The highest detection accuracy was obtained in all cases of adjustment 2).

ここで、記号を正しく検出できなかった場合について説明する。図14は、記号を検出できなかった場合の建築設備図面の一部を示している。図14には、コンセントを示す記号S31,S32,S33,S34が含まれている。記号S32と記号S34については、コンセント記号の上に他の器具等の画像が重なっているため、検出できなかった。一方、記号S31と記号S34については、コンセント記号の近傍に他の線が存在するものの正しく検出された。 Here, a case will be described in which a symbol cannot be detected correctly. FIG. 14 shows a part of the building equipment drawing when the symbol cannot be detected. FIG. 14 includes symbols S31, S32, S33, and S34 indicating electrical outlets. Symbols S32 and S34 could not be detected because images of other appliances were superimposed on the outlet symbols. On the other hand, symbols S31 and S34 were correctly detected although there were other lines near the outlet symbol.

このように本実施形態によれば、建築設備図面に含まれる特徴の異なる様々な種類の記号を高い精度で効率良く検出することができる。これにより、建築設備図面を正確に理解する作業を大幅に効率化することができる。その結果、建築物の多様化、働き方改革および人手不足問題に対して貢献することが可能となる。 As described above, according to the present embodiment, various types of symbols with different characteristics included in building equipment drawings can be detected efficiently with high accuracy. This makes it possible to greatly improve the efficiency of accurately understanding architectural equipment drawings. As a result, it will be possible to contribute to the diversification of buildings, work style reform, and labor shortage issues.

以上、本発明の実施形態について説明した。なお、上記の説明では検出パラメタ生成装置1とオブジェクト検出装置100を別個の装置として説明したが、一体の装置として構成してもよい。 The embodiments of the present invention have been described above. Although the detection parameter generation device 1 and the object detection device 100 are described as separate devices in the above description, they may be configured as an integrated device.

上記の記載に基づいて、当業者であれば、本発明の追加の効果や種々の変形を想到できるかもしれないが、本発明の態様は、上述した実施形態に限定されるものではない。特許請求の範囲に規定された内容およびその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。 Based on the above description, those skilled in the art may be able to envision additional effects and various modifications of the present invention, but aspects of the present invention are not limited to the embodiments described above. Various additions, changes, and partial deletions are possible without departing from the conceptual idea and gist of the present invention derived from the content defined in the claims and equivalents thereof.

1 検出パラメタ生成装置
10 制御部
11 データ入力部
12 頻出度指標算出部
13 希少度指標算出部
14 検出パラメタ更新部
20 通信部
30 操作入力部
40 表示部
50 記憶部
51 図面データベース
100 オブジェクト検出装置
110 制御部
111 画像入力部
112 画像分割部
113 確率取得部
114 変形画像作成部
115 確率取得部
116 判定部
120 通信部
130 操作入力部
140 表示部
150 記憶部
151 DBNデータ
152 検出パラメタデータベース
M1,M2,M3,M4,M5 記号
N1,N2,N3,N4,N5 (出力層の)ニューロン
1 Detection parameter generation device 10 Control unit 11 Data input unit 12 Frequency index calculation unit 13 Rarity index calculation unit 14 Detection parameter update unit 20 Communication unit 30 Operation input unit 40 Display unit 50 Storage unit 51 Drawing database 100 Object detection device 110 Control section 111 Image input section 112 Image division section 113 Probability acquisition section 114 Deformed image creation section 115 Probability acquisition section 116 Judgment section 120 Communication section 130 Operation input section 140 Display section 150 Storage section 151 DBN data 152 Detection parameter database M1, M2, M3, M4, M5 symbol N1, N2, N3, N4, N5 (output layer) neuron

Claims (12)

構造適応型DBNを用いて画像からオブジェクトを検出するための検出パラメタを生成する検出パラメタ生成装置であって、
複数の画像を有するデータセットのうちの一つの画像における、あるオブジェクトの頻出度を示す第1の指標を求める頻出度指標算出部と、
前記データセットにおける前記オブジェクトの希少度を示す第2の指標を求める希少度指標算出部と、
前記第1の指標と前記第2の指標との積に基づいて、検出用画像を分割して得られた分割画像に前記オブジェクトが存在するかどうかを判定するための第1の検出パラメタと、前記分割画像に基づいて作成された変形画像に前記オブジェクトが存在するかどうかを判定するための第2の検出パラメタとを更新する検出パラメタ更新部と、
を備えることを特徴とする検出パラメタ生成装置。
A detection parameter generation device that generates detection parameters for detecting an object from an image using a structure adaptive DBN, comprising:
a frequency index calculation unit that calculates a first index indicating the frequency of a certain object in one image of a dataset having a plurality of images;
a rarity index calculation unit that calculates a second index indicating the rarity of the object in the data set;
a first detection parameter for determining whether the object is present in a divided image obtained by dividing the detection image based on the product of the first index and the second index; a detection parameter updating unit that updates a second detection parameter for determining whether the object is present in the deformed image created based on the divided image;
A detection parameter generation device comprising:
前記検出パラメタ更新部は、前記第1の指標と前記第2の指標との積が大きくなるにつれて前記第1の検出パラメタおよび前記第2の検出パラメタを小さくすることを特徴とする請求項1に記載の検出パラメタ生成装置。 2. The detection parameter updating unit reduces the first detection parameter and the second detection parameter as the product of the first index and the second index increases. The detection parameter generation device described. 前記頻出度指標算出部は、前記第1の指標を式(1)により算出することを特徴とする請求項1または2に記載の検出パラメタ生成装置。
Figure 0007359380000009
ここで、xi,j:前記第1の指標、ni,j:画像jにおける前記オブジェクトの数、I:前記データセットにおけるオブジェクトの種類の総数である。
3. The detection parameter generation device according to claim 1, wherein the frequency index calculation unit calculates the first index using equation (1).
Figure 0007359380000009
Here, x i,j is the first index, n i,j is the number of objects in image j, and I is the total number of object types in the data set.
前記希少度指標算出部は、前記第2の指標を式(2)により算出することを特徴とする請求項1~3のいずれかに記載の検出パラメタ生成装置。
Figure 0007359380000010
ここで、yi:前記第2の指標、J:前記データセットにおける画像の総数、Ai:前記オブジェクトを含む画像の数である。
4. The detection parameter generation device according to claim 1, wherein the rarity index calculation unit calculates the second index using equation (2).
Figure 0007359380000010
Here, y i is the second index, J is the total number of images in the data set, and A i is the number of images including the object.
前記検出パラメタ更新部は、前記第1の検出パラメタを式(3)により更新することを特徴とする請求項1~4のいずれかに記載の検出パラメタ生成装置。
Figure 0007359380000011
ここで、T1i,j+1:前記オブジェクトの更新後の第1の検出パラメタ、T1i,j:前記オブジェクトの更新前の第1の検出パラメタ、α:調整パラメタ、zi,j:前記第1の指標と前記第2の指標との積である。
5. The detection parameter generation device according to claim 1, wherein the detection parameter updating unit updates the first detection parameter using equation (3).
Figure 0007359380000011
Here, T1 i,j+1 : the first detection parameter after the update of the object, T1 i,j : the first detection parameter before the update of the object, α 1 : adjustment parameter, z i,j : It is the product of the first index and the second index.
前記検出パラメタ更新部は、前記第2の検出パラメタを式(4)により更新することを特徴とする請求項1~5のいずれかに記載の検出パラメタ生成装置。
Figure 0007359380000012
ここで、T2i,j+1:前記オブジェクトの更新後の第2の検出パラメタ、T2i,j:前記オブジェクトの更新前の第2の検出パラメタ、α:調整パラメタ、zi,j:前記第1の指標と前記第2の指標との積である。
6. The detection parameter generation device according to claim 1, wherein the detection parameter updating unit updates the second detection parameter using equation (4).
Figure 0007359380000012
Here, T2 i,j+1 : second detection parameter after update of the object, T2 i,j : second detection parameter before update of the object, α 2 : adjustment parameter, z i,j : It is the product of the first index and the second index.
前記画像は建築設備図面に係る画像であり、前記オブジェクトは、建築設備図面の記号であることを特徴とする請求項1~6のいずれかに記載の検出パラメタ生成装置。 7. The detection parameter generation device according to claim 1, wherein the image is an image related to a building equipment drawing, and the object is a symbol of the building equipment drawing. 検出用画像を入力する画像入力部と、
前記検出用画像を複数の分割画像に分割する画像分割部と、
前記分割画像を構造適応型DBNの入力層に与えて、前記構造適応型DBNの出力層に出力された、あるオブジェクトに対する第1の確率を取得する第1の確率取得部と、
前記第1の確率が請求項1に記載の検出パラメタ生成装置で生成された第1の検出パラメタよりも大きければ、前記分割画像に基づいて変形画像を作成する変形画像作成部と、
前記変形画像を前記構造適応型DBNの入力層に与えて、前記構造適応型DBNの出力層に出力された前記オブジェクトに対する第2の確率を取得する第2の確率取得部と、
前記第2の確率が請求項1に記載の検出パラメタ生成装置で生成された第2の検出パラメタよりも大きければ、前記オブジェクトを検出したと判定する判定部と、
を備えることを特徴とするオブジェクト検出装置。
an image input section for inputting a detection image;
an image dividing unit that divides the detection image into a plurality of divided images;
a first probability acquisition unit that applies the divided image to an input layer of a structure adaptive DBN and obtains a first probability for a certain object output to an output layer of the structure adaptive DBN;
If the first probability is larger than the first detection parameter generated by the detection parameter generation device according to claim 1, a deformed image creation unit that creates a deformed image based on the divided image;
a second probability acquisition unit that applies the deformed image to the input layer of the structure-adaptive DBN to obtain a second probability for the object output to the output layer of the structure-adaptive DBN;
a determination unit that determines that the object has been detected if the second probability is greater than the second detection parameter generated by the detection parameter generation device according to claim 1;
An object detection device comprising:
構造適応型DBNを用いて画像からオブジェクトを検出するための検出パラメタを生成する検出パラメタ生成方法であって、
複数の画像を有するデータセットのうちの一つの画像における、あるオブジェクトの頻出度を示す第1の指標を求めるステップと、
前記データセットにおける前記オブジェクトの希少度を示す第2の指標を求めるステップと、
前記第1の指標と前記第2の指標との積に基づいて、検出用画像を分割して得られた分割画像に前記オブジェクトが存在するかどうかを判定するための第1の検出パラメタと、前記分割画像に基づいて作成された変形画像に前記オブジェクトが存在するかどうかを判定するための第2の検出パラメタとを更新するステップと、
を備えることを特徴とする検出パラメタ生成方法。
A detection parameter generation method for generating detection parameters for detecting an object from an image using a structure adaptive DBN, the method comprising:
determining a first indicator of the frequency of an object in one of the images in the dataset;
determining a second indicator of the rarity of the object in the dataset;
a first detection parameter for determining whether the object is present in a divided image obtained by dividing the detection image based on the product of the first index and the second index; updating a second detection parameter for determining whether the object is present in the deformed image created based on the divided image;
A detection parameter generation method comprising:
検出用画像を入力するステップと、
前記検出用画像を複数の分割画像に分割するステップと、
前記分割画像を構造適応型DBNの入力層に与えて、前記構造適応型DBNの出力層に出力された、あるオブジェクトに対する第1の確率を取得するステップと、
前記第1の確率が請求項9に記載の検出パラメタ生成方法で生成された第1の検出パラメタよりも大きければ、前記分割画像に基づいて変形画像を作成するステップと、
前記変形画像を前記構造適応型DBNの入力層に与えて、前記構造適応型DBNの出力層に出力された前記オブジェクトに対する第2の確率を取得するステップと、
前記第2の確率が請求項9に記載の検出パラメタ生成方法で生成された第2の検出パラメタよりも大きければ、前記オブジェクトを検出したと判定するステップと、
を備えることを特徴とするオブジェクト検出方法。
inputting a detection image;
dividing the detection image into a plurality of divided images;
providing the divided image to an input layer of a structure-adaptive DBN to obtain a first probability for a certain object output to an output layer of the structure-adaptive DBN;
If the first probability is greater than the first detection parameter generated by the detection parameter generation method according to claim 9, creating a deformed image based on the divided image;
providing the deformed image to an input layer of the structure-adaptive DBN to obtain a second probability for the object output to an output layer of the structure-adaptive DBN;
If the second probability is greater than the second detection parameter generated by the detection parameter generation method according to claim 9, determining that the object has been detected;
An object detection method comprising:
構造適応型DBNを用いて画像からオブジェクトを検出するための検出パラメタを生成する検出パラメタ生成プログラムであって、
複数の画像を有するデータセットのうちの一つの画像における、あるオブジェクトの頻出度を示す第1の指標を求めるステップと、
前記データセットにおける前記オブジェクトの希少度を示す第2の指標を求めるステップと、
前記第1の指標と前記第2の指標との積に基づいて、検出用画像を分割して得られた分割画像に前記オブジェクトが存在するかどうかを判定するための第1の検出パラメタと、前記分割画像に基づいて作成された変形画像に前記オブジェクトが存在するかどうかを判定するための第2の検出パラメタとを更新するステップと、
をコンピュータに実行させる検出パラメタ生成プログラム。
A detection parameter generation program that generates detection parameters for detecting an object from an image using a structure adaptive DBN, comprising:
determining a first indicator of the frequency of an object in one of the images in the dataset;
determining a second indicator of the rarity of the object in the dataset;
a first detection parameter for determining whether the object is present in a divided image obtained by dividing the detection image based on the product of the first index and the second index; updating a second detection parameter for determining whether the object is present in the deformed image created based on the divided image;
A detection parameter generation program that causes a computer to execute.
検出用画像を入力するステップと、
前記検出用画像を複数の分割画像に分割するステップと、
前記分割画像を構造適応型DBNの入力層に与えて、前記構造適応型DBNの出力層に出力された、あるオブジェクトに対する第1の確率を取得するステップと、
前記第1の確率が請求項11に記載の検出パラメタ生成プログラムで生成された第1の検出パラメタよりも大きければ、前記分割画像に基づいて変形画像を作成するステップと、
前記変形画像を前記構造適応型DBNの入力層に与えて、前記構造適応型DBNの出力層に出力された前記オブジェクトに対する第2の確率を取得するステップと、
前記第2の確率が請求項11に記載の検出パラメタ生成プログラムで生成された第2の検出パラメタよりも大きければ、前記オブジェクトを検出したと判定するステップと、
をコンピュータに実行させるオブジェクト検出プログラム。
inputting a detection image;
dividing the detection image into a plurality of divided images;
providing the divided image to an input layer of a structure-adaptive DBN to obtain a first probability for a certain object output to an output layer of the structure-adaptive DBN;
If the first probability is greater than the first detection parameter generated by the detection parameter generation program according to claim 11, creating a deformed image based on the divided image;
providing the deformed image to an input layer of the structure-adaptive DBN to obtain a second probability for the object output to an output layer of the structure-adaptive DBN;
If the second probability is greater than the second detection parameter generated by the detection parameter generation program according to claim 11, determining that the object has been detected;
An object detection program that causes a computer to run
JP2019143964A 2019-08-05 2019-08-05 Detection parameter generation device, detection parameter generation method, detection parameter generation program, object detection device, object detection method, and object detection program Active JP7359380B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019143964A JP7359380B2 (en) 2019-08-05 2019-08-05 Detection parameter generation device, detection parameter generation method, detection parameter generation program, object detection device, object detection method, and object detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019143964A JP7359380B2 (en) 2019-08-05 2019-08-05 Detection parameter generation device, detection parameter generation method, detection parameter generation program, object detection device, object detection method, and object detection program

Publications (2)

Publication Number Publication Date
JP2021026506A JP2021026506A (en) 2021-02-22
JP7359380B2 true JP7359380B2 (en) 2023-10-11

Family

ID=74663919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019143964A Active JP7359380B2 (en) 2019-08-05 2019-08-05 Detection parameter generation device, detection parameter generation method, detection parameter generation program, object detection device, object detection method, and object detection program

Country Status (1)

Country Link
JP (1) JP7359380B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019074946A (en) 2017-10-17 2019-05-16 公立大学法人県立広島大学 Heterogeneous data deep learning device, heterogeneous data deep learning method, and heterogeneous data deep learning program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019074946A (en) 2017-10-17 2019-05-16 公立大学法人県立広島大学 Heterogeneous data deep learning device, heterogeneous data deep learning method, and heterogeneous data deep learning program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
市村 匠,鎌田 真,ChestX-ray8を用いた構造適応型Deep Belief Networkにおける胸部疾患の分類と位置検出の試み,2018 IEEE SMC Hiroshima Chapter若手研究会講演論文集,日本,IEEE SMC Hiroshima Chapter,2018年07月28日,第77-83頁,http://harp.lib.hiroshima-u.ac.jp/pu-hiroshima/metadata/12596

Also Published As

Publication number Publication date
JP2021026506A (en) 2021-02-22

Similar Documents

Publication Publication Date Title
CN110580501B (en) Zero sample image classification method based on variational self-coding countermeasure network
US20180365557A1 (en) Information processing method and information processing apparatus
Tsinaslanidis et al. A prediction scheme using perceptually important points and dynamic time warping
US8315954B2 (en) Device, method, and program for high level feature extraction
US20200311576A1 (en) Time series data analysis method, time series data analysis apparatus, and non-transitory computer readable medium
JP2015095212A (en) Identifier, identification program, and identification method
JP2016004525A (en) Data analysis system and data analysis method
CN111814897A (en) Time series data classification method based on multi-level shape
JP6066086B2 (en) Data discrimination device, method and program
JP2010061415A (en) Learning device and method, recognition device and method, and program
JP2010009177A (en) Learning device, label prediction device, method, and program
JP7481902B2 (en) Management computer, management program, and management method
CN114072809A (en) Small and fast video processing network via neural architectural search
JP4987282B2 (en) Information processing apparatus, information processing method, and program
US8712936B2 (en) Information processing apparatus, information processing method, and program
JP2019067299A (en) Label estimating apparatus and label estimating program
JP5522044B2 (en) Clustering apparatus, pattern determination method, and program
JP7359380B2 (en) Detection parameter generation device, detection parameter generation method, detection parameter generation program, object detection device, object detection method, and object detection program
CN111679829B (en) Method and device for determining user interface design
CN105304073B (en) A kind of music multitone symbol estimation method and system tapping stringed musical instrument
WO2022215559A1 (en) Hybrid model creation method, hybrid model creation device, and program
JP6233432B2 (en) Method and apparatus for selecting mixed model
US11842268B2 (en) Evaluating input data using a deep learning algorithm
JP2022128256A (en) Abnormality degree calculating system and method thereof
WO2023073903A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230920

R150 Certificate of patent or registration of utility model

Ref document number: 7359380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150