JP6872502B2 - Image processing equipment, image processing methods, and programs - Google Patents
Image processing equipment, image processing methods, and programs Download PDFInfo
- Publication number
- JP6872502B2 JP6872502B2 JP2018015432A JP2018015432A JP6872502B2 JP 6872502 B2 JP6872502 B2 JP 6872502B2 JP 2018015432 A JP2018015432 A JP 2018015432A JP 2018015432 A JP2018015432 A JP 2018015432A JP 6872502 B2 JP6872502 B2 JP 6872502B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- segmentation
- emphasized
- machine learning
- crack
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims description 9
- 230000011218 segmentation Effects 0.000 claims description 149
- 238000010801 machine learning Methods 0.000 claims description 56
- 238000007689 inspection Methods 0.000 claims description 20
- 238000000034 method Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 16
- 238000003708 edge detection Methods 0.000 description 14
- 101100536251 Mus musculus Tmem120a gene Proteins 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000011176 pooling Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 101100408519 Mus musculus Plpp7 gene Proteins 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 239000004568 cement Substances 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置、画像処理方法、およびプログラムに関し、特に、機械学習を利用してセグメンテーションを行う画像処理装置、画像処理方法、およびプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly to an image processing apparatus, an image processing method, and a program that perform segmentation using machine learning.
従来より、画像処理の技術分野において、セグメンテーションが行われている。ここでセグメンテーションとは、セグメンテーション対象の被写体像の画素で構成された領域とその他の画素の領域とに区別する処理のことである。 Conventionally, segmentation has been performed in the technical field of image processing. Here, the segmentation is a process of distinguishing between the area composed of the pixels of the subject image to be segmented and the area of other pixels.
例えば特許文献1では、入力されたコンクリート画像において骨材を表した骨材領域とセメント成分を含んだ残余成分を表した残余成分領域とに分割されたコンクリート領域分割画像を生成するための技術が記載されている。特許文献1では、コンクリート画像から生成される濃淡モノクロ画像と輪郭モノクロ画像とに基づいて、コンクリート画像において骨材領域と残余成分領域とに領域が分割された画像を生成することが記載されている。特許文献1に記載された技術は、色濃度では骨材領域と残余成分領域とを精度良く区別できない場合に対して、濃淡モノクロ画像と輪郭モノクロ画像を合成した合成モノクロ画像により、精度良く骨材領域と残余成分領域とを分割することを試みている。ここで、濃淡モノクロ画像は、濃領域および淡領域から構成されており、輪郭モノクロ画像は輪郭領域および背景領域から構成されている。 For example, in Patent Document 1, a technique for generating a concrete region divided image divided into an aggregate region representing an aggregate and a residual component region containing a cement component in an input concrete image is provided. Are listed. Patent Document 1 describes that, based on a shade monochrome image and a contour monochrome image generated from a concrete image, an image in which a region is divided into an aggregate region and a residual component region in the concrete image is generated. .. In the technique described in Patent Document 1, when the aggregate region and the residual component region cannot be accurately distinguished by the color density, the aggregate is accurately produced by a composite monochrome image obtained by synthesizing a grayscale monochrome image and a contour monochrome image. We are trying to divide the region and the residual component region. Here, the shading monochrome image is composed of a dark region and a light region, and the contour monochrome image is composed of a contour region and a background region.
一方、近年では機械学習の技術を利用して、セグメンテーションを行うことが提案されている。例えば、非特許文献1では、学習によって画像から特徴量を算出し、画像の認識処理を行う畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を利用して、セグメンテーションをより正確に行うことを目的とした技術が提案されている。 On the other hand, in recent years, it has been proposed to perform segmentation using machine learning technology. For example, Non-Patent Document 1 aims to perform segmentation more accurately by using a convolutional neural network (CNN) that calculates features from images by learning and performs image recognition processing. Technology has been proposed.
ここで、機械学習を利用したセグメンテーションにおいても、領域間の境界を精度良く検出することは困難な場合がある。これは、セグメンテーションの処理対象の被写体像の種類や見え方が様々なため、機械学習をさせたセグメンテーション器は境界を精度良く検出することが難しい場合がある。 Here, even in segmentation using machine learning, it may be difficult to accurately detect boundaries between regions. This is because there are various types and appearances of the subject image to be processed by the segmentation, so that it may be difficult for the segmentation device subjected to machine learning to detect the boundary with high accuracy.
本発明はこのような事情に鑑みてなされたもので、その目的は、機械学習を利用したセグメンテーションにおいて、領域間の境界を精度良く検出することができる画像処理装置、画像処理方法、およびプログラムを提供することである。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image processing device, an image processing method, and a program capable of accurately detecting boundaries between regions in segmentation using machine learning. To provide.
上記目的を達成するために本発明の一の態様である画像処理装置は、セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得部と、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出器と、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域をセグメンテーションするセグメンテーション器と、を備える。 In order to achieve the above object, the image processing apparatus according to one aspect of the present invention has an image acquisition unit that acquires a processing target image having a segmentation target subject image, and features of the subject image learned by the first machine learning. Corresponds to the subject image by the image feature detector that generates the emphasized image emphasized by the aspect learned by the first machine learning and the aspect learned by the second machine learning based on the emphasized image and the image to be processed. It is provided with a segmentation device for segmenting the area to be processed.
本態様によれば、画像特徴検出器により、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像が生成される。そして、本態様では、セグメンテーション器により、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域がセグメンテーションされる。すなわち、第2の機械学習を利用して、強調画像および処理対象画像に基づいて、被写体像に対応する領域がセグメンテーションされる。これにより、本態様は、精度良く領域間の境界を検出することができる。 According to this aspect, the image feature detector generates an enhanced image in which the features of the subject image learned by the first machine learning are emphasized by the aspect learned by the first machine learning. Then, in this aspect, the region corresponding to the subject image is segmented by the segmentation device according to the aspect learned by the second machine learning based on the emphasized image and the image to be processed. That is, using the second machine learning, the region corresponding to the subject image is segmented based on the emphasized image and the image to be processed. Thereby, in this aspect, the boundary between regions can be detected with high accuracy.
好ましくは、セグメンテーション器は、強調画像と処理対象画像のR画像、G画像、およびB画像とに基づいて、セグメンテーション画像を生成する。 Preferably, the segmentation device generates a segmentation image based on the emphasized image and the R image, the G image, and the B image of the image to be processed.
本態様によれば、セグメンテーション器により、強調画像と処理対象画像のR画像、G画像、およびB画像とに基づいて、セグメンテーション画像が生成される。すなわち、本態様によれば、1チャンネルの強調画像と3チャンネルの処理対象画像とを合わせた4チャンネルの画像により、セグメンテーションが行われる。これにより、本態様は、精度良く領域間の境界の検出が行われたセグメンテーション画像を得ることができる。 According to this aspect, the segmentation device generates a segmentation image based on the emphasized image and the R image, the G image, and the B image of the image to be processed. That is, according to this aspect, segmentation is performed by a 4-channel image in which a 1-channel emphasized image and a 3-channel processed image are combined. Thereby, in this aspect, it is possible to obtain a segmentation image in which the boundary between regions is detected with high accuracy.
好ましくは、セグメンテーション器は、強調画像と処理対象画像のモノクロ画像とに基づいて、セグメンテーション画像を生成する。 Preferably, the segmentation device generates a segmentation image based on the emphasized image and the monochrome image of the image to be processed.
本態様によれば、セグメンテーション器により、強調画像と処理対象画像のモノクロ画像とに基づいて、セグメンテーション画像が生成される。これにより、本態様は、正確な領域間の境界の検出が行われたセグメンテーション画像を得ることができる。 According to this aspect, the segmentation device generates a segmentation image based on the emphasized image and the monochrome image of the image to be processed. Thereby, in this aspect, it is possible to obtain a segmentation image in which the boundary between the regions is accurately detected.
好ましくは、画像特徴検出器は、第1の機械学習により被写体像の輪郭を検出することを学習したエッジ検出器であり、強調画像として輪郭が検出されたエッジ画像を生成し、セグメンテーション器は、第2の機械学習により学習して、エッジ画像および処理対象画像に基づいて被写体像に対応する領域を抽出する。 Preferably, the image feature detector is an edge detector that has learned to detect the contour of the subject image by the first machine learning, generates an edge image in which the contour is detected as a emphasized image, and the segmentation device is a segmentation device. Learning is performed by the second machine learning, and a region corresponding to the subject image is extracted based on the edge image and the image to be processed.
本態様によれば、画像特徴検出器は第1の機械学習により被写体像の輪郭を検出することを学習したエッジ検出器であり、そのエッジ検出器により、強調画像として輪郭が検出されたエッジ画像が生成される。そして、本態様によれば、セグメンテーション器は第2の機械学習により学習が行われて、エッジ画像および処理対象画像に基づいて被写体像に対応する領域を抽出する。これにより、本態様は、領域間の境界を精度良く抽出するセグメンテーションを行うことができる。 According to this aspect, the image feature detector is an edge detector that has learned to detect the contour of a subject image by the first machine learning, and the edge image whose contour is detected as an emphasized image by the edge detector. Is generated. Then, according to this aspect, the segmentation device is learned by the second machine learning, and the region corresponding to the subject image is extracted based on the edge image and the image to be processed. Thereby, in this aspect, the segmentation that accurately extracts the boundary between the regions can be performed.
好ましくは、セグメンテーション器は、セグメンテーションした被写体像に対応する領域を強調したセグメンテーション画像を生成する。 Preferably, the segmentation device produces a segmentation image that emphasizes the area corresponding to the segmented subject image.
本態様によれば、セグメンテーション器により、セグメンテーションした被写体像に対応する領域が強調されたセグメンテーション画像が生成されるので、被写体像に対応する領域の境界が精度良く検出されたセグメンテーション画像を得ることができる。 According to this aspect, since the segmentation device generates a segmentation image in which the region corresponding to the segmented subject image is emphasized, it is possible to obtain a segmentation image in which the boundary of the region corresponding to the subject image is detected with high accuracy. it can.
好ましくは、画像取得部は、セグメンテーション対象の被写体像としてひび割れ像を有する処理対象画像を取得し、画像特徴検出器は、第1の機械学習によりひび割れ像を検出することを学習したひび割れ検出器であり、強調画像としてひび割れ像が検出されたひび割れ画像を生成し、セグメンテーション器は、第2の機械学習により学習して、ひび割れ画像および処理対象画像に基づいてひび割れ像に対応する領域を抽出する。 Preferably, the image acquisition unit acquires a processing target image having a crack image as the subject image to be segmented, and the image feature detector is a crack detector that has learned to detect the crack image by the first machine learning. Yes, a crack image in which a crack image is detected is generated as an emphasized image, and the segmentation device learns by a second machine learning and extracts a region corresponding to the crack image based on the crack image and the image to be processed.
本態様によれば、画像取得部により、セグメンテーション対象の被写体像としてひび割れ像を有する処理対象画像が取得され、画像特徴検出器は第1の機械学習でひび割れ像を検出することを学習したひび割れ検出器であり、強調画像としてひび割れ像が検出されたひび割れ画像が生成される。そして本態様は、セグメンテーション器により、第2の機械学習で学習して、ひび割れ画像および処理対象画像に基づいてひび割れ像に対応する領域が抽出される。これにより、本態様は、抽出されたひび割れ像に対応する領域の境界が精度良く検出されるセグメンテーションを行うことができる。 According to this aspect, the image acquisition unit acquires a processing target image having a crack image as a subject image to be segmented, and the image feature detector learns to detect the crack image by the first machine learning. It is a vessel, and a crack image in which a crack image is detected is generated as a emphasized image. Then, in this aspect, a region corresponding to the crack image is extracted based on the crack image and the image to be processed by learning by the second machine learning by the segmentation device. Thereby, in this aspect, it is possible to perform segmentation in which the boundary of the region corresponding to the extracted crack image is detected with high accuracy.
好ましくは、セグメンテーション器は、ひび割れ像を含む検査領域をセグメンテーションする。 Preferably, the segmentation device segmentes the inspection area containing the cracked image.
本態様によれば、セグメンテーション器により、ひび割れ像を含む検査領域がセグメンテーションされるので、ひび割れ像を含む検査領域の境界が精度良く検出される。 According to this aspect, since the inspection area including the crack image is segmented by the segmentation device, the boundary of the inspection area including the crack image can be detected with high accuracy.
好ましくは、セグメンテーション器は、ひび割れ像を含む太線の検査領域をセグメンテーションする。 Preferably, the segmentation device segmentes the thick line inspection area containing the cracked image.
本態様によれば、セグメンテーション器により、ひび割れ像を含む太線の検査領域がセグメンテーションされるので、ひび割れ像を含む太線の検査領域の境界を精度良く検出することができる。 According to this aspect, since the inspection area of the thick line including the crack image is segmented by the segmentation device, the boundary of the inspection area of the thick line including the crack image can be detected with high accuracy.
好ましくは、セグメンテーション器は、ひび割れ像を含む矩形の検査領域をセグメンテーションする。 Preferably, the segmentation device segments the rectangular inspection area containing the cracked image.
本態様によれば、セグメンテーション器により、ひび割れ像を含む矩形の検査領域をセグメンテーションするので、ひび割れ像を含む矩形の検査領域の境界を精度良く検出することができる。 According to this aspect, since the rectangular inspection area including the crack image is segmented by the segmentation device, the boundary of the rectangular inspection area including the crack image can be detected with high accuracy.
好ましくは、セグメンテーション器は、セグメンテーションしたひび割れ像に対応する領域を強調したセグメンテーション画像を生成する。 Preferably, the segmentation device produces a segmentation image that emphasizes the area corresponding to the segmented crack image.
本態様によれば、セグメンテーション器により、セグメンテーションしたひび割れ像に対応する領域を強調したセグメンテーション画像が生成されるので、領域の境界が精度良く検出されたセグメンテーション画像を得ることができる。 According to this aspect, since the segmentation device generates a segmentation image in which the region corresponding to the segmented crack image is emphasized, it is possible to obtain a segmentation image in which the boundary of the region is detected with high accuracy.
好ましくは、セグメンテーション器は、セグメンテーションした検査領域を強調したセグメンテーション画像を生成する。 Preferably, the segmentation device produces a segmentation image that emphasizes the segmented examination area.
本態様によれば、セグメンテーション器により、セグメンテーションした検査領域が強調されたセグメンテーション画像が生成される。これにより、本態様は、検査領域の境界が精度良く検出されたセグメンテーション画像が生成される。 According to this aspect, the segmentation device produces a segmentation image in which the segmented examination area is emphasized. As a result, in this aspect, a segmentation image in which the boundary of the inspection area is detected with high accuracy is generated.
本発明の一の態様である画像処理方法は、セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得ステップと、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出ステップと、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域をセグメンテーションするセグメンテーションステップと、を含む。 In the image processing method according to one aspect of the present invention, a first machine learning is performed on an image acquisition step of acquiring a processing target image having a subject image to be segmented, and a feature of the subject image learned by the first machine learning. An image feature detection step that generates an emphasized image emphasized by the aspect learned by the above, and a segmentation step that segmentes a region corresponding to the subject image by the aspect learned by the second machine learning based on the emphasized image and the image to be processed. And, including.
本発明の一の態様であるプログラムは、セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得ステップと、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出ステップと、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域をセグメンテーションするセグメンテーションステップと、を含む画像処理工程をコンピュータに実行させる。 The program according to one aspect of the present invention learns the features of the subject image learned by the first machine learning and the image acquisition step of acquiring the image to be processed having the subject image to be segmented by the first machine learning. An image feature detection step for generating an emphasized image emphasized by the above-mentioned aspect, and a segmentation step for segmenting a region corresponding to a subject image by an aspect learned by a second machine learning based on the emphasized image and the image to be processed. Have the computer perform the image processing process including.
本発明によれば、画像特徴検出器により、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像が生成され、セグメンテーション器により、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域がセグメンテーションされるので、精度良く領域間の境界を検出することができる。 According to the present invention, the image feature detector generates an enhanced image in which the features of the subject image learned by the first machine learning are emphasized by the mode learned by the first machine learning, and the segmentation device generates the enhanced image. Since the region corresponding to the subject image is segmented according to the mode learned by the second machine learning based on the processed image, the boundary between the regions can be detected with high accuracy.
以下、添付図面に従って本発明に係る画像処理装置、画像処理方法、およびプログラムの好ましい実施の形態について説明する。 Hereinafter, preferred embodiments of the image processing apparatus, image processing method, and program according to the present invention will be described with reference to the accompanying drawings.
図1は、本発明の画像処理装置を備えるコンピュータの外観を示す図である。 FIG. 1 is a diagram showing the appearance of a computer provided with the image processing apparatus of the present invention.
コンピュータ3は、本発明の一態様である画像処理装置11(図2)を備えている。コンピュータ3には、入力画像23が入力され、モニタ9で構成される表示部とキーボード5およびマウス7で構成される入力部が接続されている。なお、図示されたコンピュータ3の形態は一例であり、コンピュータ3と同様の機能を有する装置は本発明の画像処理装置11を備えることができる。例えば、タブレット端末に画像処理装置11を搭載することも可能である。
The computer 3 includes an image processing device 11 (FIG. 2), which is one aspect of the present invention. An
コンピュータ3は、入力画像23に対して行ったセグメンテーションの結果として、例えばセグメンテーション画像をモニタ9に表示する。また、ユーザからのセグメンテーションの指令をキーボード5およびマウス7で受け付ける。
The computer 3 displays, for example, a segmentation image on the
図2は、画像処理装置11の機能構成例を示すブロック図である。画像処理装置11は、主に画像取得部13、画像特徴検出器15、セグメンテーション器17、表示制御部19、記憶部21を備える。
FIG. 2 is a block diagram showing a functional configuration example of the
画像取得部13は、セグメンテーション対象の被写体像を有する入力画像23を処理対象画像として取得する。画像取得部13は、有線または無線によりコンピュータ3に備えられる不図示の画像入出力インターフェースを用いて、入力画像23を取得する。入力画像23は、1枚のカラー画像であっても良いし、2値化されたR画像、G画像、B画像であっても良いし、2値化された白黒画像であってもよい。
The
画像特徴検出器15は、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像を生成する。例えば、画像特徴検出器15は、第1の機械学習により被写体像の輪郭を検出することを学習したエッジ検出器である。この場合画像特徴検出器15は、強調画像として被写体像の輪郭が検出されたエッジ画像を生成する。画像特徴検出器15は、画像内に複数の被写体像がある場合に、主要な被写体像に対して、エッジ検出を行い、エッジ画像を生成する。また例えば、画像特徴検出器15は、第1の機械学習によりひび割れ像を検出することを学習したひび割れ検出器である。この場合画像特徴検出器15は、強調画像としてひび割れ像が検出されたひび割れ画像を生成する。なお、画像特徴検出器15の第1の機械学習は、公知の技術が適用される。
The
画像特徴検出器15は、入力画像23の被写体像の特徴を強調する部分であり、本例では、学習によって画像から特徴量を算出し、画像の特徴の強調処理を行う畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)、を含み、画像内の色情報、画素値の勾配等で特徴量を算出し強調する。ここで、画像の特徴の強調処理とは、例えばエッジ検出処理またはひび割れ検出処理のことである。
The
図3は、画像特徴検出器15に適用されるCNNの代表的な構成例を示す模式図である。
FIG. 3 is a schematic diagram showing a typical configuration example of a CNN applied to the
図3に示すように、CNNは、入力層15Aと、畳み込み層とプーリング層から構成された複数セット、及び全結合層を有する中間層15Bと、出力層15Cとを備え、各層は複数の「ノード」が「エッジ」で結ばれる構造となっている。
As shown in FIG. 3, the CNN includes an
入力層15Aには、認識処理の対象である画像が入力される。
An image to be recognized is input to the
中間層15Bは、畳み込み層とプーリング層とを1セットとする複数セットと、全結合層とを有し、入力層から入力した画像から特徴を抽出する。畳み込み層は、前の層で近くにあるノードにフィルタ処理し(フィルタを使用した畳み込み演算を行い)、「特徴マップ」を取得する。プーリング層は、畳み込み層から出力された特徴マップを縮小して新たな特徴マップとする。「畳み込み層」は、画像からのエッジ抽出等の特徴抽出の役割を担い、「プーリング層」は抽出された特徴が、平行移動などによる影響を受けないようにロバスト性を与える役割を担う。
The
尚、中間層15Bには、畳み込み層とプーリング層とを1セットとする場合に限らず、畳み込み層が連続する場合や正規化層も含まれる。また、各畳み込み層にて使用されるフィルタのパラメータは、予め多数の学習データ(本例では、画像とその画像中のセグメンテーション対象の被写体像の正解エッジ画像)により自動的に学習されている。
The
出力層15Cは、中間層15Bにより抽出された特徴に基づき被写体像の特徴を強調した画像を出力する。
The
セグメンテーション器17は、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域をセグメンテーションする。例えば、セグメンテーション器17は、強調画像と処理対象画像のR画像、G画像、およびB画像とに基づいて、セグメンテーション画像を生成する。また、例えば、セグメンテーション器17は、強調画像と処理対象画像のモノクロ画像とに基づいて、セグメンテーション画像を生成する。ここでモノクロ画像とは単色二値化された画像のことである。また、セグメンテーションとは、セグメンテーション対象の被写体像の画素で構成された領域とその他の画素で構成された領域とに区別する処理のことである。また、セグメンテーション器17は、セグメンテーションを行った情報に基づきセグメンテーション画像を生成する。例えばセグメンテーション器17は、セグメンテーションした被写体像に対応する領域を強調したセグメンテーション画像、セグメンテーションしたひび割れ像に対応する領域を強調したセグメンテーション画像、またはセグメンテーションした検査領域を強調したセグメンテーション画像を生成する。ここで、領域を強調するとは、例えばセグメンテーションした領域と他の領域とで異なる色で表現することである。
The
セグメンテーション器17は、画像特徴検出器15と同様に第2の機械学習が施される。なお、セグメンテーション器17では、FCN(Fully Convolution Network)が適用されてもよい。またセグメンテーション器17への第2の機械学習は、予め多数の学習データ(本例では、画像および正解エッジ画像と画像中のセグメンテーション画像の被写体像の正解セグメンテーション結果)により学習されている。
The
表示制御部19は、モニタ9による表示を制御する。例えば、表示制御部19は、セグメンテーション器17で生成されたセグメンテーション画像のモニタ9への表示を制御する。
The
記憶部21は、入力された処理対象画像、画像特徴検出器15で生成された強調画像、セグメンテーション器17で行われるセグメンテーションに関する情報、およびセグメンテーション器17で生成されるセグメンテーション画像を記憶する。また、記憶部21には、画像処理装置11の各種制御にかかる情報等が記憶される。
The
<第1の実施形態>
図4および図5は、第1の実施形態の画像処理装置11におけるセグメンテーションの例を示す図である。第1の実施形態では画像特徴検出器15はエッジ検出器として機能し、セグメンテーション器17は物体検出器として機能する。
<First Embodiment>
4 and 5 are diagrams showing an example of segmentation in the
図4では画像処理装置11における処理の流れが概念的に示されており、図5では入力画像(処理対象画像)、強調画像としてのエッジ画像27、およびセグメンテーション画像としての物体領域画像35が示されている。
FIG. 4 conceptually shows the flow of processing in the
図4に示すように、画像取得部13により、入力画像23(入力画像23のR画像23A、G画像23B、およびB画像23C)が取得される。ここで、入力画像23のR画像23Aは赤色の二値化された画像であり、G画像23Bは緑色の二値化された画像、およびB画像23Cは青色の二値化された画像を意味する。そして、R画像23A、G画像23B、およびB画像23Cの3チャンネルで構成された入力画像23がエッジ検出Net(ニューラルネットワーク)25で構築されたエッジ検出器に入力される。そして、エッジ検出Net25により、エッジ画像27が生成される。すなわち、この場合画像特徴検出器15は、第1の機械学習により被写体像の輪郭を検出することを学習したエッジ検出Net25(エッジ検出器)であり、強調画像として輪郭が検出されたエッジ画像27を生成される。
As shown in FIG. 4, the
図5には、エッジ検出Net25に入力される入力画像23(R画像23A、G画像23B、およびB画像23C)、およびエッジ検出Net25で生成されるエッジ画像27が示されている。入力画像23は、主要被写体像である人101と背景である家103および木105を有している。エッジ検出Net25は、被写体像の輪郭のエッジを検出する(主要被写体像の領域を強調する)ように第1の機械学習をしているので、エッジ画像27では人101の輪郭のエッジ107が検出されている。
FIG. 5 shows an input image 23 (
図4に戻って、セグメンテーションNet29には、エッジ検出Net25で生成されたエッジ画像27と、入力された入力画像23(R画像23A、G画像23B、およびB画像23C)とが入力される。なお、セグメンテーション器17は、セグメンテーションNet29で構成されている。セグメンテーションNet29は、第2の機械学習により学習して、エッジ画像27および入力画像23に基づいて被写体像に対応する領域を抽出する。ここで、被写体像に対応する領域を抽出するとは、画像を構成する画素毎に、抽出領域と背景領域で分類することをいう。セグメンテーションNet29は、輪郭の領域抽出の結果をセグメンテーションの結果31として出力する。セグメンテーションNet29は、エッジ画像27および3チャンネルの入力画像23(R画像23A、G画像23B、およびB画像23C)が入力されるので、領域の境界が精度良く検出することができる。
Returning to FIG. 4, the
セグメンテーションNet29は、セグメンテーションした被写体像に対応する領域を強調したセグメンテーション画像を生成する。図5には、セグメンテーションNet29から出力されたセグメンテーションの結果31の一態様である物体領域画像35(セグメンテーション画像)が示されている。物体領域画像35は、セグメンテーションNet29のセグメンテーション結果が反映された画像である。具体的には、物体領域画像35では、主要被写体像である人101がセグメンテーションされ、領域109で示されている。なお、セグメンテーションの結果31の他の態様としては、セグメンテーションに関しての情報があげられる。具体的には、セグメンテーションに関しての情報は、画素毎にどの領域に属するかの情報である。
The segmentation Net29 generates a segmentation image in which the region corresponding to the segmented subject image is emphasized. FIG. 5 shows an object region image 35 (segmentation image) which is one aspect of the
図6は、本発明の画像処理方法の工程を説明するフロー図である。 FIG. 6 is a flow chart illustrating a process of the image processing method of the present invention.
先ず、画像取得部13により、入力画像23のR画像23A、G画像23B、B画像23Cが取得される(ステップS10、ステップS11、およびステップS12:画像取得ステップ)。その後、エッジ検出Net25に、R画像23A、G画像23B、およびB画像23Cが入力され、エッジ検出が行われる(ステップS13)。その後、画像特徴検出器15により、エッジ画像27が出力される(ステップS14:画像特徴検出ステップ)。
First, the
その後、R画像23A、G画像23B、B画像23C、およびエッジ画像27がセグメンテーションNet29に入力され、セグメンテーションが行われる(ステップS15:セグメンテーションステップ)。そしてセグメンテーションNet29は、セグメンテーション画像を出力する(ステップS16)。
After that, the
上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。 In the above embodiment, the hardware structure of the processing unit that executes various processes is various processors as shown below. For various processors, the circuit configuration can be changed after manufacturing the CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute software (programs) and function as various processing units. Programmable Logic Device (PLD), a dedicated electric circuit, which is a processor having a circuit configuration specially designed to execute a specific process such as an ASIC (Application Specific Integrated Circuit). Is done.
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). You may. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client or a server. There is a form in which the processor functions as a plurality of processing units. Secondly, as typified by System On Chip (SoC), there is a form in which a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used. is there. As described above, the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。 Further, the hardware structure of these various processors is, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.
上述の各構成および機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。 Each of the above configurations and functions can be appropriately realized by any hardware, software, or a combination of both. For example, for a program that causes a computer to perform the above-mentioned processing steps, a computer-readable recording medium (non-temporary recording medium) that records such a program, or a computer on which such a program can be installed. However, it is possible to apply the present invention.
次に、エッジ画像および物体領域画像に関して詳しく説明をする。 Next, the edge image and the object area image will be described in detail.
図7は入力画像201を示す図であり、図8は図7に示された入力画像201から得られたエッジ画像221を示す図であり、図9は入力画像201から得られた物体領域画像231を示す図である。
FIG. 7 is a diagram showing an
図7に示された入力画像201は、セグメンテーション対象の主要被写体像である人203を有する。また、入力画像201は、人203の他に、帽子205、影207、山209、海211の像を有している。
The
図8に示されたエッジ画像221は、入力画像201がエッジ検出Net25に入力され、エッジ検出Net25により生成される。エッジ画像221は、入力画像201における人203の輪郭が検出され、人の輪郭223を有する。エッジ検出Net25は第1の機械学習が施され人の輪郭223を検出している。
The
エッジ画像221の箇所225では、人の輪郭223でない箇所も輪郭として検出されている。また、エッジ画像221の箇所229では、影207の輪郭が検出されている。また、エッジ画像221の箇所227では、帽子205の輪郭が検出されており、人の輪郭223において上手く検出されていない部分もある。
In the
図9に示された物体領域画像231は、入力画像201およびエッジ画像221がセグメンテーションNet29に入力され、セグメンテーションNet29により生成される。セグメンテーションNet29は、入力画像201およびエッジ画像221が入力されることにより、人の領域233の境界が精度良く検出することができる。
In the
例えば物体領域画像231の箇所225では、人の領域233の境界を正確に検出することができている。また、エッジ画像221では影207の輪郭が検出されてしまったが、物体領域画像231の箇所225では、人の領域233の境界を正確に検出することができている。また、エッジ画像221では帽子205の輪郭が検出されていたり、人の輪郭223が上手く検出されていなかったりしたが、物体領域画像231の箇所227および箇所229では、人の領域233の境界が精度良く検出されている。
For example, at
<第2の実施形態>
次に、第2の実施形態に関して説明する。本実施形態では、画像特徴検出器15はひび割れ検出器として機能し、セグメンテーション器17はひび割れ領域検出器として機能する。
<Second embodiment>
Next, the second embodiment will be described. In the present embodiment, the
図10および図11は、第2の実施形態の画像処理装置11におけるセグメンテーションの例を示す図である。図10では画像処理装置11における処理の流れが概念的に示されており、図11では入力画像(処理対象画像)37、強調画像としてのひび割れ画像41、およびセグメンテーション画像としてのひび割れ領域画像43が示されている。
10 and 11 are diagrams showing an example of segmentation in the
図10に示すように、画像取得部13により、入力画像37(入力画像37のR画像37A、G画像37B、およびB画像37C)が取得される。そして、R画像37A、G画像37B、およびB画像37Cの3チャンネルで構成された入力画像37がひび割れ検出Net(ニューラルネットワーク)39で構築されたひび割れ検出器に入力される。そして、ひび割れ検出Net39により、ひび割れ画像41が生成される。
As shown in FIG. 10, the
図11には、入力画像23およびひび割れ画像41が示されている。入力画像23は、セグメンテーション対象の被写体像としてひび割れ像111を有する。ひび割れ検出Net39は、第1の機械学習により学習し、ひび割れ像111を検出しひび割れ画像41を生成する。ひび割れ画像41では、ひび割れ検出Net39で検出されたひび割れ像113が示されている。
FIG. 11 shows the
図10に戻って、ひび割れ検出Net39で生成されたひび割れ画像41と、入力された入力画像37(R画像37A、G画像37B、およびB画像37C)がセグメンテーションNet43に入力される。そして、セグメンテーションNet43は、第2の機械学習により学習して、ひび割れ画像41画像および入力画像37に基づいてひび割れの領域を抽出する。ここで、ひび割れの領域とは、必ずしもひび割れ像113に一致する領域には限られない。例えば、セグメンテーションNet43は、ひび割れ像113を含む所定の範囲の領域をセグメンテーションしてもよい。またセグメンテーションNet43は、ひび割れ像113を含む太線の検査領域をセグメンテーションしてもよい。また、セグメンテーションNet43は、ひび割れ像113を含む矩形の検査領域をセグメンテーションしてもよい。また、セグメンテーションNet43は、セグメンテーションしたひび割れ像113の領域を強調したひび割れ領域画像43を生成してもよい。また、セグメンテーションNet43は、セグメンテーションした検査領域を強調したひび割れ領域画像43を生成してもよい。
Returning to FIG. 10, the
セグメンテーションNet43は、セグメンテーションの結果45としてひび割れ領域を強調したひび割れ領域画像43を生成する。図11には、ひび割れ領域画像43が示されている。ひび割れ領域画像43は、検出されたひび割れ像113に応じてセグメンテーションされて検査領域115で示されている。セグメンテーションNet43で出力されるひび割れ領域画像43では、ひび割れ画像41および3チャンネルの入力画像37(R画像37A、G画像37B、およびB画像37C)が入力されるので、検査領域115の境界が精度良く検出されている。
The
以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。 Although the examples of the present invention have been described above, it goes without saying that the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention.
3 :コンピュータ
5 :キーボード
7 :マウス
9 :モニタ
11 :画像処理装置
13 :画像取得部
15 :画像特徴検出器
17 :セグメンテーション器
19 :表示制御部
21 :記憶部
23 :入力画像
27 :エッジ画像
35 :物体領域画像
37 :入力画像
41 :ひび割れ画像
43 :ひび割れ領域画像
ステップS10−S16 :画像処理工程
3: Computer 5: Keyboard 7: Mouse 9: Monitor 11: Image processing device 13: Image acquisition unit 15: Image feature detector 17: Segmentation device 19: Display control unit 21: Storage unit 23: Input image 27: Edge image 35 : Object area image 37: Input image 41: Crack image 43: Crack area image Step S10-S16: Image processing step
Claims (13)
第1の機械学習により学習した前記被写体像の特徴を、前記第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出器と、
前記強調画像および前記処理対象画像に基づいて、第2の機械学習により学習した態様により、前記被写体像に対応する領域をセグメンテーションするセグメンテーション器と、
を備える画像処理装置。 An image acquisition unit that acquires an image to be processed that has a subject image to be segmented,
An image feature detector that generates an enhanced image in which the features of the subject image learned by the first machine learning are emphasized by the mode learned by the first machine learning.
A segmentation device that segments a region corresponding to the subject image according to the mode learned by the second machine learning based on the emphasized image and the image to be processed.
An image processing device comprising.
前記セグメンテーション器は、前記第2の機械学習により学習して、前記エッジ画像および前記処理対象画像に基づいて前記被写体像に対応する領域を抽出する請求項1から3のいずれか1項に記載の画像処理装置。 The image feature detector is an edge detector that has learned to detect the contour of the subject image by the first machine learning, and generates an edge image in which the contour is detected as the emphasized image.
The segmentation device according to any one of claims 1 to 3, wherein the segmentation device learns by the second machine learning and extracts a region corresponding to the subject image based on the edge image and the processing target image. Image processing device.
前記画像特徴検出器は、前記第1の機械学習により前記ひび割れ像を検出することを学習したひび割れ検出器であり、前記強調画像として前記ひび割れ像が検出されたひび割れ画像を生成し、
前記セグメンテーション器は、前記第2の機械学習により学習して、前記ひび割れ画像および前記処理対象画像に基づいて前記ひび割れ像に対応する領域を抽出する請求項1から3のいずれか1項に記載の画像処理装置。 The image acquisition unit acquires the image to be processed having a cracked image as the subject image to be segmented.
The image feature detector is a crack detector that has learned to detect the crack image by the first machine learning, and generates a crack image in which the crack image is detected as the emphasized image.
The segmentation device according to any one of claims 1 to 3, wherein the segmentation device learns by the second machine learning and extracts a region corresponding to the crack image based on the crack image and the processed image. Image processing device.
セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得ステップと、
第1の機械学習により学習した前記被写体像の特徴を、前記第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出ステップと、
前記強調画像および前記処理対象画像に基づいて、第2の機械学習により学習した態様により、前記被写体像に対応する領域をセグメンテーションするセグメンテーションステップと、
を行う画像処理方法。 By the processor executing the program
An image acquisition step of acquiring a processing target image having a subject image to be segmented, and
An image feature detection step of generating an emphasized image in which the features of the subject image learned by the first machine learning are emphasized by the mode learned by the first machine learning, and
A segmentation step for segmenting a region corresponding to the subject image according to the mode learned by the second machine learning based on the emphasized image and the processed image.
Image processing method to perform.
第1の機械学習により学習した前記被写体像の特徴を、前記第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出ステップと、
前記強調画像および前記処理対象画像に基づいて、第2の機械学習により学習した態様により、前記被写体像に対応する領域をセグメンテーションするセグメンテーションステップと、
を含む画像処理工程をコンピュータに実行させるプログラム。 An image acquisition step of acquiring a processing target image having a subject image to be segmented, and
An image feature detection step of generating an emphasized image in which the features of the subject image learned by the first machine learning are emphasized by the mode learned by the first machine learning, and
A segmentation step for segmenting a region corresponding to the subject image according to the mode learned by the second machine learning based on the emphasized image and the processed image.
A program that causes a computer to execute an image processing process including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018015432A JP6872502B2 (en) | 2018-01-31 | 2018-01-31 | Image processing equipment, image processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018015432A JP6872502B2 (en) | 2018-01-31 | 2018-01-31 | Image processing equipment, image processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019133433A JP2019133433A (en) | 2019-08-08 |
JP6872502B2 true JP6872502B2 (en) | 2021-05-19 |
Family
ID=67546221
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018015432A Active JP6872502B2 (en) | 2018-01-31 | 2018-01-31 | Image processing equipment, image processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6872502B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021033580A (en) * | 2019-08-22 | 2021-03-01 | 株式会社Ye Digital | Object detection method, object detection device, and object detection program |
JP7344620B1 (en) * | 2022-07-22 | 2023-09-14 | 株式会社 Sai | Building structure recognition system and building structure recognition method |
CN117152187B (en) * | 2023-10-30 | 2024-01-26 | 山东中科冶金矿山机械有限公司 | Crack contour extraction method in geological mapping |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5041229B2 (en) * | 2007-12-07 | 2012-10-03 | ソニー株式会社 | Learning device and method, recognition device and method, and program |
JP2013114611A (en) * | 2011-11-30 | 2013-06-10 | Canon Inc | Object detection device, object detection method and program |
US9972092B2 (en) * | 2016-03-31 | 2018-05-15 | Adobe Systems Incorporated | Utilizing deep learning for boundary-aware image segmentation |
-
2018
- 2018-01-31 JP JP2018015432A patent/JP6872502B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019133433A (en) | 2019-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109978890B (en) | Target extraction method and device based on image processing and terminal equipment | |
Yiyang | The design of glass crack detection system based on image preprocessing technology | |
CN105574513B (en) | Character detecting method and device | |
Chudasama et al. | Image segmentation using morphological operations | |
JP6872502B2 (en) | Image processing equipment, image processing methods, and programs | |
JP7449869B2 (en) | Automatic analysis of descriptive rock slice images using advanced machine learning techniques | |
WO2019167453A1 (en) | Image processing device, image processing method, and program | |
JP6135283B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
Hasan et al. | Skin lesion segmentation by using deep learning techniques | |
CN115841447A (en) | Detection method for surface defects of magnetic shoe | |
US20210272272A1 (en) | Inspection support apparatus, inspection support method, and inspection support program for concrete structure | |
JP2016032289A (en) | Image synthesis system, image synthesis method, image synthesis program | |
JP2018029250A5 (en) | ||
TWI743837B (en) | Training data increment method, electronic apparatus and computer-readable medium | |
CN108318773A (en) | A kind of transmission line breakage detection method and system | |
Cai et al. | Perception preserving decolorization | |
JP6819445B2 (en) | Information processing equipment, control methods, and programs | |
Deshmukh et al. | Fine object detection in automated solar panel layout generation | |
CN110660048B (en) | Leather surface defect detection method based on shape characteristics | |
CN116883303A (en) | Infrared and visible light image fusion method based on characteristic difference compensation and fusion | |
Sasi et al. | Shadow detection and removal from real images: state of art | |
Sulaiman et al. | Automatic grading system for oil palm fruit ripeness | |
CN103208013B (en) | Photo source identification method based on image noise analysis | |
CN105241886B (en) | A kind of earthen ruins crack detection method based on HVS and wave filter | |
RU2718429C1 (en) | Device for detecting local-stationary areas on an image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210419 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6872502 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |