JP6872502B2 - Image processing equipment, image processing methods, and programs - Google Patents

Image processing equipment, image processing methods, and programs Download PDF

Info

Publication number
JP6872502B2
JP6872502B2 JP2018015432A JP2018015432A JP6872502B2 JP 6872502 B2 JP6872502 B2 JP 6872502B2 JP 2018015432 A JP2018015432 A JP 2018015432A JP 2018015432 A JP2018015432 A JP 2018015432A JP 6872502 B2 JP6872502 B2 JP 6872502B2
Authority
JP
Japan
Prior art keywords
image
segmentation
emphasized
machine learning
crack
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018015432A
Other languages
Japanese (ja)
Other versions
JP2019133433A (en
Inventor
正志 藏之下
正志 藏之下
與那覇 誠
誠 與那覇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2018015432A priority Critical patent/JP6872502B2/en
Publication of JP2019133433A publication Critical patent/JP2019133433A/en
Application granted granted Critical
Publication of JP6872502B2 publication Critical patent/JP6872502B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理方法、およびプログラムに関し、特に、機械学習を利用してセグメンテーションを行う画像処理装置、画像処理方法、およびプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly to an image processing apparatus, an image processing method, and a program that perform segmentation using machine learning.

従来より、画像処理の技術分野において、セグメンテーションが行われている。ここでセグメンテーションとは、セグメンテーション対象の被写体像の画素で構成された領域とその他の画素の領域とに区別する処理のことである。 Conventionally, segmentation has been performed in the technical field of image processing. Here, the segmentation is a process of distinguishing between the area composed of the pixels of the subject image to be segmented and the area of other pixels.

例えば特許文献1では、入力されたコンクリート画像において骨材を表した骨材領域とセメント成分を含んだ残余成分を表した残余成分領域とに分割されたコンクリート領域分割画像を生成するための技術が記載されている。特許文献1では、コンクリート画像から生成される濃淡モノクロ画像と輪郭モノクロ画像とに基づいて、コンクリート画像において骨材領域と残余成分領域とに領域が分割された画像を生成することが記載されている。特許文献1に記載された技術は、色濃度では骨材領域と残余成分領域とを精度良く区別できない場合に対して、濃淡モノクロ画像と輪郭モノクロ画像を合成した合成モノクロ画像により、精度良く骨材領域と残余成分領域とを分割することを試みている。ここで、濃淡モノクロ画像は、濃領域および淡領域から構成されており、輪郭モノクロ画像は輪郭領域および背景領域から構成されている。 For example, in Patent Document 1, a technique for generating a concrete region divided image divided into an aggregate region representing an aggregate and a residual component region containing a cement component in an input concrete image is provided. Are listed. Patent Document 1 describes that, based on a shade monochrome image and a contour monochrome image generated from a concrete image, an image in which a region is divided into an aggregate region and a residual component region in the concrete image is generated. .. In the technique described in Patent Document 1, when the aggregate region and the residual component region cannot be accurately distinguished by the color density, the aggregate is accurately produced by a composite monochrome image obtained by synthesizing a grayscale monochrome image and a contour monochrome image. We are trying to divide the region and the residual component region. Here, the shading monochrome image is composed of a dark region and a light region, and the contour monochrome image is composed of a contour region and a background region.

一方、近年では機械学習の技術を利用して、セグメンテーションを行うことが提案されている。例えば、非特許文献1では、学習によって画像から特徴量を算出し、画像の認識処理を行う畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を利用して、セグメンテーションをより正確に行うことを目的とした技術が提案されている。 On the other hand, in recent years, it has been proposed to perform segmentation using machine learning technology. For example, Non-Patent Document 1 aims to perform segmentation more accurately by using a convolutional neural network (CNN) that calculates features from images by learning and performs image recognition processing. Technology has been proposed.

特開2010−230421号公報JP-A-2010-230421 アダム・パスズケ(Adam Paszke)、アドヒシェック・チャウラシア(Abhishek Chaurasia)、スナグピル・キム(Sangpil Kim)、ユージネオ・クルシエロ(Eugenio Culurciello)“ENet: A Deep Neural Network Architecture for Real-Time Semantic Segmentation”[online]、2016年6月7日提出、[平成30年1月18日検索]、インターネット<URL:https://arxiv.org/abs/1606.02147>Adam Paszke, Abhishek Chaurasia, Sangpil Kim, Eugenio Culurciello “ENet: A Deep Neural Network Architecture for Real-Time Semantic Segmentation” [online], Submitted on June 7, 2016, [Search on January 18, 2018], Internet <URL: https://arxiv.org/abs/1606.02147>

ここで、機械学習を利用したセグメンテーションにおいても、領域間の境界を精度良く検出することは困難な場合がある。これは、セグメンテーションの処理対象の被写体像の種類や見え方が様々なため、機械学習をさせたセグメンテーション器は境界を精度良く検出することが難しい場合がある。 Here, even in segmentation using machine learning, it may be difficult to accurately detect boundaries between regions. This is because there are various types and appearances of the subject image to be processed by the segmentation, so that it may be difficult for the segmentation device subjected to machine learning to detect the boundary with high accuracy.

本発明はこのような事情に鑑みてなされたもので、その目的は、機械学習を利用したセグメンテーションにおいて、領域間の境界を精度良く検出することができる画像処理装置、画像処理方法、およびプログラムを提供することである。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image processing device, an image processing method, and a program capable of accurately detecting boundaries between regions in segmentation using machine learning. To provide.

上記目的を達成するために本発明の一の態様である画像処理装置は、セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得部と、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出器と、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域をセグメンテーションするセグメンテーション器と、を備える。 In order to achieve the above object, the image processing apparatus according to one aspect of the present invention has an image acquisition unit that acquires a processing target image having a segmentation target subject image, and features of the subject image learned by the first machine learning. Corresponds to the subject image by the image feature detector that generates the emphasized image emphasized by the aspect learned by the first machine learning and the aspect learned by the second machine learning based on the emphasized image and the image to be processed. It is provided with a segmentation device for segmenting the area to be processed.

本態様によれば、画像特徴検出器により、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像が生成される。そして、本態様では、セグメンテーション器により、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域がセグメンテーションされる。すなわち、第2の機械学習を利用して、強調画像および処理対象画像に基づいて、被写体像に対応する領域がセグメンテーションされる。これにより、本態様は、精度良く領域間の境界を検出することができる。 According to this aspect, the image feature detector generates an enhanced image in which the features of the subject image learned by the first machine learning are emphasized by the aspect learned by the first machine learning. Then, in this aspect, the region corresponding to the subject image is segmented by the segmentation device according to the aspect learned by the second machine learning based on the emphasized image and the image to be processed. That is, using the second machine learning, the region corresponding to the subject image is segmented based on the emphasized image and the image to be processed. Thereby, in this aspect, the boundary between regions can be detected with high accuracy.

好ましくは、セグメンテーション器は、強調画像と処理対象画像のR画像、G画像、およびB画像とに基づいて、セグメンテーション画像を生成する。 Preferably, the segmentation device generates a segmentation image based on the emphasized image and the R image, the G image, and the B image of the image to be processed.

本態様によれば、セグメンテーション器により、強調画像と処理対象画像のR画像、G画像、およびB画像とに基づいて、セグメンテーション画像が生成される。すなわち、本態様によれば、1チャンネルの強調画像と3チャンネルの処理対象画像とを合わせた4チャンネルの画像により、セグメンテーションが行われる。これにより、本態様は、精度良く領域間の境界の検出が行われたセグメンテーション画像を得ることができる。 According to this aspect, the segmentation device generates a segmentation image based on the emphasized image and the R image, the G image, and the B image of the image to be processed. That is, according to this aspect, segmentation is performed by a 4-channel image in which a 1-channel emphasized image and a 3-channel processed image are combined. Thereby, in this aspect, it is possible to obtain a segmentation image in which the boundary between regions is detected with high accuracy.

好ましくは、セグメンテーション器は、強調画像と処理対象画像のモノクロ画像とに基づいて、セグメンテーション画像を生成する。 Preferably, the segmentation device generates a segmentation image based on the emphasized image and the monochrome image of the image to be processed.

本態様によれば、セグメンテーション器により、強調画像と処理対象画像のモノクロ画像とに基づいて、セグメンテーション画像が生成される。これにより、本態様は、正確な領域間の境界の検出が行われたセグメンテーション画像を得ることができる。 According to this aspect, the segmentation device generates a segmentation image based on the emphasized image and the monochrome image of the image to be processed. Thereby, in this aspect, it is possible to obtain a segmentation image in which the boundary between the regions is accurately detected.

好ましくは、画像特徴検出器は、第1の機械学習により被写体像の輪郭を検出することを学習したエッジ検出器であり、強調画像として輪郭が検出されたエッジ画像を生成し、セグメンテーション器は、第2の機械学習により学習して、エッジ画像および処理対象画像に基づいて被写体像に対応する領域を抽出する。 Preferably, the image feature detector is an edge detector that has learned to detect the contour of the subject image by the first machine learning, generates an edge image in which the contour is detected as a emphasized image, and the segmentation device is a segmentation device. Learning is performed by the second machine learning, and a region corresponding to the subject image is extracted based on the edge image and the image to be processed.

本態様によれば、画像特徴検出器は第1の機械学習により被写体像の輪郭を検出することを学習したエッジ検出器であり、そのエッジ検出器により、強調画像として輪郭が検出されたエッジ画像が生成される。そして、本態様によれば、セグメンテーション器は第2の機械学習により学習が行われて、エッジ画像および処理対象画像に基づいて被写体像に対応する領域を抽出する。これにより、本態様は、領域間の境界を精度良く抽出するセグメンテーションを行うことができる。 According to this aspect, the image feature detector is an edge detector that has learned to detect the contour of a subject image by the first machine learning, and the edge image whose contour is detected as an emphasized image by the edge detector. Is generated. Then, according to this aspect, the segmentation device is learned by the second machine learning, and the region corresponding to the subject image is extracted based on the edge image and the image to be processed. Thereby, in this aspect, the segmentation that accurately extracts the boundary between the regions can be performed.

好ましくは、セグメンテーション器は、セグメンテーションした被写体像に対応する領域を強調したセグメンテーション画像を生成する。 Preferably, the segmentation device produces a segmentation image that emphasizes the area corresponding to the segmented subject image.

本態様によれば、セグメンテーション器により、セグメンテーションした被写体像に対応する領域が強調されたセグメンテーション画像が生成されるので、被写体像に対応する領域の境界が精度良く検出されたセグメンテーション画像を得ることができる。 According to this aspect, since the segmentation device generates a segmentation image in which the region corresponding to the segmented subject image is emphasized, it is possible to obtain a segmentation image in which the boundary of the region corresponding to the subject image is detected with high accuracy. it can.

好ましくは、画像取得部は、セグメンテーション対象の被写体像としてひび割れ像を有する処理対象画像を取得し、画像特徴検出器は、第1の機械学習によりひび割れ像を検出することを学習したひび割れ検出器であり、強調画像としてひび割れ像が検出されたひび割れ画像を生成し、セグメンテーション器は、第2の機械学習により学習して、ひび割れ画像および処理対象画像に基づいてひび割れ像に対応する領域を抽出する。 Preferably, the image acquisition unit acquires a processing target image having a crack image as the subject image to be segmented, and the image feature detector is a crack detector that has learned to detect the crack image by the first machine learning. Yes, a crack image in which a crack image is detected is generated as an emphasized image, and the segmentation device learns by a second machine learning and extracts a region corresponding to the crack image based on the crack image and the image to be processed.

本態様によれば、画像取得部により、セグメンテーション対象の被写体像としてひび割れ像を有する処理対象画像が取得され、画像特徴検出器は第1の機械学習でひび割れ像を検出することを学習したひび割れ検出器であり、強調画像としてひび割れ像が検出されたひび割れ画像が生成される。そして本態様は、セグメンテーション器により、第2の機械学習で学習して、ひび割れ画像および処理対象画像に基づいてひび割れ像に対応する領域が抽出される。これにより、本態様は、抽出されたひび割れ像に対応する領域の境界が精度良く検出されるセグメンテーションを行うことができる。 According to this aspect, the image acquisition unit acquires a processing target image having a crack image as a subject image to be segmented, and the image feature detector learns to detect the crack image by the first machine learning. It is a vessel, and a crack image in which a crack image is detected is generated as a emphasized image. Then, in this aspect, a region corresponding to the crack image is extracted based on the crack image and the image to be processed by learning by the second machine learning by the segmentation device. Thereby, in this aspect, it is possible to perform segmentation in which the boundary of the region corresponding to the extracted crack image is detected with high accuracy.

好ましくは、セグメンテーション器は、ひび割れ像を含む検査領域をセグメンテーションする。 Preferably, the segmentation device segmentes the inspection area containing the cracked image.

本態様によれば、セグメンテーション器により、ひび割れ像を含む検査領域がセグメンテーションされるので、ひび割れ像を含む検査領域の境界が精度良く検出される。 According to this aspect, since the inspection area including the crack image is segmented by the segmentation device, the boundary of the inspection area including the crack image can be detected with high accuracy.

好ましくは、セグメンテーション器は、ひび割れ像を含む太線の検査領域をセグメンテーションする。 Preferably, the segmentation device segmentes the thick line inspection area containing the cracked image.

本態様によれば、セグメンテーション器により、ひび割れ像を含む太線の検査領域がセグメンテーションされるので、ひび割れ像を含む太線の検査領域の境界を精度良く検出することができる。 According to this aspect, since the inspection area of the thick line including the crack image is segmented by the segmentation device, the boundary of the inspection area of the thick line including the crack image can be detected with high accuracy.

好ましくは、セグメンテーション器は、ひび割れ像を含む矩形の検査領域をセグメンテーションする。 Preferably, the segmentation device segments the rectangular inspection area containing the cracked image.

本態様によれば、セグメンテーション器により、ひび割れ像を含む矩形の検査領域をセグメンテーションするので、ひび割れ像を含む矩形の検査領域の境界を精度良く検出することができる。 According to this aspect, since the rectangular inspection area including the crack image is segmented by the segmentation device, the boundary of the rectangular inspection area including the crack image can be detected with high accuracy.

好ましくは、セグメンテーション器は、セグメンテーションしたひび割れ像に対応する領域を強調したセグメンテーション画像を生成する。 Preferably, the segmentation device produces a segmentation image that emphasizes the area corresponding to the segmented crack image.

本態様によれば、セグメンテーション器により、セグメンテーションしたひび割れ像に対応する領域を強調したセグメンテーション画像が生成されるので、領域の境界が精度良く検出されたセグメンテーション画像を得ることができる。 According to this aspect, since the segmentation device generates a segmentation image in which the region corresponding to the segmented crack image is emphasized, it is possible to obtain a segmentation image in which the boundary of the region is detected with high accuracy.

好ましくは、セグメンテーション器は、セグメンテーションした検査領域を強調したセグメンテーション画像を生成する。 Preferably, the segmentation device produces a segmentation image that emphasizes the segmented examination area.

本態様によれば、セグメンテーション器により、セグメンテーションした検査領域が強調されたセグメンテーション画像が生成される。これにより、本態様は、検査領域の境界が精度良く検出されたセグメンテーション画像が生成される。 According to this aspect, the segmentation device produces a segmentation image in which the segmented examination area is emphasized. As a result, in this aspect, a segmentation image in which the boundary of the inspection area is detected with high accuracy is generated.

本発明の一の態様である画像処理方法は、セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得ステップと、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出ステップと、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域をセグメンテーションするセグメンテーションステップと、を含む。 In the image processing method according to one aspect of the present invention, a first machine learning is performed on an image acquisition step of acquiring a processing target image having a subject image to be segmented, and a feature of the subject image learned by the first machine learning. An image feature detection step that generates an emphasized image emphasized by the aspect learned by the above, and a segmentation step that segmentes a region corresponding to the subject image by the aspect learned by the second machine learning based on the emphasized image and the image to be processed. And, including.

本発明の一の態様であるプログラムは、セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得ステップと、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出ステップと、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域をセグメンテーションするセグメンテーションステップと、を含む画像処理工程をコンピュータに実行させる。 The program according to one aspect of the present invention learns the features of the subject image learned by the first machine learning and the image acquisition step of acquiring the image to be processed having the subject image to be segmented by the first machine learning. An image feature detection step for generating an emphasized image emphasized by the above-mentioned aspect, and a segmentation step for segmenting a region corresponding to a subject image by an aspect learned by a second machine learning based on the emphasized image and the image to be processed. Have the computer perform the image processing process including.

本発明によれば、画像特徴検出器により、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像が生成され、セグメンテーション器により、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域がセグメンテーションされるので、精度良く領域間の境界を検出することができる。 According to the present invention, the image feature detector generates an enhanced image in which the features of the subject image learned by the first machine learning are emphasized by the mode learned by the first machine learning, and the segmentation device generates the enhanced image. Since the region corresponding to the subject image is segmented according to the mode learned by the second machine learning based on the processed image, the boundary between the regions can be detected with high accuracy.

図1は、画像処理装置を備えるコンピュータの外観を示す図である。FIG. 1 is a diagram showing the appearance of a computer provided with an image processing device. 図2は、画像処理装置の機能構成例を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration example of the image processing device. 図3は、CNNの代表的な構成例を示す模式図である。FIG. 3 is a schematic view showing a typical configuration example of CNN. 図4は、セグメンテーションの例を示す図である。FIG. 4 is a diagram showing an example of segmentation. 図5は、セグメンテーションの例を示す図である。FIG. 5 is a diagram showing an example of segmentation. 図6は、画像処理方法の工程を説明するフロー図である。FIG. 6 is a flow chart for explaining the process of the image processing method. 図7は、入力画像を示す図である。FIG. 7 is a diagram showing an input image. 図8は、エッジ画像を示す図である。FIG. 8 is a diagram showing an edge image. 図9は、物体領域画像を示す図である。FIG. 9 is a diagram showing an object area image. 図10は、セグメンテーションの例を示す図である。FIG. 10 is a diagram showing an example of segmentation. 図11は、セグメンテーションの例を示す図である。FIG. 11 is a diagram showing an example of segmentation.

以下、添付図面に従って本発明に係る画像処理装置、画像処理方法、およびプログラムの好ましい実施の形態について説明する。 Hereinafter, preferred embodiments of the image processing apparatus, image processing method, and program according to the present invention will be described with reference to the accompanying drawings.

図1は、本発明の画像処理装置を備えるコンピュータの外観を示す図である。 FIG. 1 is a diagram showing the appearance of a computer provided with the image processing apparatus of the present invention.

コンピュータ3は、本発明の一態様である画像処理装置11(図2)を備えている。コンピュータ3には、入力画像23が入力され、モニタ9で構成される表示部とキーボード5およびマウス7で構成される入力部が接続されている。なお、図示されたコンピュータ3の形態は一例であり、コンピュータ3と同様の機能を有する装置は本発明の画像処理装置11を備えることができる。例えば、タブレット端末に画像処理装置11を搭載することも可能である。 The computer 3 includes an image processing device 11 (FIG. 2), which is one aspect of the present invention. An input image 23 is input to the computer 3, and a display unit composed of a monitor 9 and an input unit composed of a keyboard 5 and a mouse 7 are connected to the computer 3. The illustrated form of the computer 3 is an example, and the device having the same function as the computer 3 can include the image processing device 11 of the present invention. For example, the image processing device 11 can be mounted on the tablet terminal.

コンピュータ3は、入力画像23に対して行ったセグメンテーションの結果として、例えばセグメンテーション画像をモニタ9に表示する。また、ユーザからのセグメンテーションの指令をキーボード5およびマウス7で受け付ける。 The computer 3 displays, for example, a segmentation image on the monitor 9 as a result of the segmentation performed on the input image 23. In addition, the keyboard 5 and the mouse 7 receive the segmentation command from the user.

図2は、画像処理装置11の機能構成例を示すブロック図である。画像処理装置11は、主に画像取得部13、画像特徴検出器15、セグメンテーション器17、表示制御部19、記憶部21を備える。 FIG. 2 is a block diagram showing a functional configuration example of the image processing device 11. The image processing device 11 mainly includes an image acquisition unit 13, an image feature detector 15, a segmentation device 17, a display control unit 19, and a storage unit 21.

画像取得部13は、セグメンテーション対象の被写体像を有する入力画像23を処理対象画像として取得する。画像取得部13は、有線または無線によりコンピュータ3に備えられる不図示の画像入出力インターフェースを用いて、入力画像23を取得する。入力画像23は、1枚のカラー画像であっても良いし、2値化されたR画像、G画像、B画像であっても良いし、2値化された白黒画像であってもよい。 The image acquisition unit 13 acquires an input image 23 having a subject image to be segmented as a processing target image. The image acquisition unit 13 acquires the input image 23 by using an image input / output interface (not shown) provided in the computer 3 by wire or wirelessly. The input image 23 may be a single color image, a binarized R image, a G image, a B image, or a binarized black and white image.

画像特徴検出器15は、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像を生成する。例えば、画像特徴検出器15は、第1の機械学習により被写体像の輪郭を検出することを学習したエッジ検出器である。この場合画像特徴検出器15は、強調画像として被写体像の輪郭が検出されたエッジ画像を生成する。画像特徴検出器15は、画像内に複数の被写体像がある場合に、主要な被写体像に対して、エッジ検出を行い、エッジ画像を生成する。また例えば、画像特徴検出器15は、第1の機械学習によりひび割れ像を検出することを学習したひび割れ検出器である。この場合画像特徴検出器15は、強調画像としてひび割れ像が検出されたひび割れ画像を生成する。なお、画像特徴検出器15の第1の機械学習は、公知の技術が適用される。 The image feature detector 15 generates an enhanced image in which the features of the subject image learned by the first machine learning are emphasized by the mode learned by the first machine learning. For example, the image feature detector 15 is an edge detector that has learned to detect the contour of a subject image by first machine learning. In this case, the image feature detector 15 generates an edge image in which the outline of the subject image is detected as an enhanced image. When there are a plurality of subject images in the image, the image feature detector 15 performs edge detection on the main subject image and generates an edge image. Further, for example, the image feature detector 15 is a crack detector that has learned to detect a crack image by the first machine learning. In this case, the image feature detector 15 generates a crack image in which a crack image is detected as an enhanced image. A known technique is applied to the first machine learning of the image feature detector 15.

画像特徴検出器15は、入力画像23の被写体像の特徴を強調する部分であり、本例では、学習によって画像から特徴量を算出し、画像の特徴の強調処理を行う畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)、を含み、画像内の色情報、画素値の勾配等で特徴量を算出し強調する。ここで、画像の特徴の強調処理とは、例えばエッジ検出処理またはひび割れ検出処理のことである。 The image feature detector 15 is a portion that emphasizes the features of the subject image of the input image 23. In this example, the convolutional neural network (CNN:) that calculates the feature amount from the image by learning and performs the enhancement processing of the features of the image. Convolutional Neural Network), and the feature amount is calculated and emphasized by the color information in the image, the gradient of the pixel value, etc. Here, the image feature enhancement process is, for example, an edge detection process or a crack detection process.

図3は、画像特徴検出器15に適用されるCNNの代表的な構成例を示す模式図である。 FIG. 3 is a schematic diagram showing a typical configuration example of a CNN applied to the image feature detector 15.

図3に示すように、CNNは、入力層15Aと、畳み込み層とプーリング層から構成された複数セット、及び全結合層を有する中間層15Bと、出力層15Cとを備え、各層は複数の「ノード」が「エッジ」で結ばれる構造となっている。 As shown in FIG. 3, the CNN includes an input layer 15A, a plurality of sets composed of a convolution layer and a pooling layer, an intermediate layer 15B having a fully connected layer, and an output layer 15C, and each layer has a plurality of "". The structure is such that "nodes" are connected by "edges".

入力層15Aには、認識処理の対象である画像が入力される。 An image to be recognized is input to the input layer 15A.

中間層15Bは、畳み込み層とプーリング層とを1セットとする複数セットと、全結合層とを有し、入力層から入力した画像から特徴を抽出する。畳み込み層は、前の層で近くにあるノードにフィルタ処理し(フィルタを使用した畳み込み演算を行い)、「特徴マップ」を取得する。プーリング層は、畳み込み層から出力された特徴マップを縮小して新たな特徴マップとする。「畳み込み層」は、画像からのエッジ抽出等の特徴抽出の役割を担い、「プーリング層」は抽出された特徴が、平行移動などによる影響を受けないようにロバスト性を与える役割を担う。 The intermediate layer 15B has a plurality of sets including a convolution layer and a pooling layer as one set, and a fully connected layer, and features are extracted from an image input from the input layer. The convolution layer filters nearby nodes in the previous layer (performs a convolution operation using the filter) and acquires a "feature map". The pooling layer reduces the feature map output from the convolution layer to a new feature map. The "convolution layer" plays a role of feature extraction such as edge extraction from an image, and the "pooling layer" plays a role of imparting robustness so that the extracted features are not affected by translation or the like.

尚、中間層15Bには、畳み込み層とプーリング層とを1セットとする場合に限らず、畳み込み層が連続する場合や正規化層も含まれる。また、各畳み込み層にて使用されるフィルタのパラメータは、予め多数の学習データ(本例では、画像とその画像中のセグメンテーション対象の被写体像の正解エッジ画像)により自動的に学習されている。 The intermediate layer 15B is not limited to the case where the convolution layer and the pooling layer are set as one set, but also includes the case where the convolution layers are continuous and the normalization layer. Further, the parameters of the filter used in each convolution layer are automatically learned in advance from a large amount of learning data (in this example, the correct edge image of the image and the subject image to be segmented in the image).

出力層15Cは、中間層15Bにより抽出された特徴に基づき被写体像の特徴を強調した画像を出力する。 The output layer 15C outputs an image in which the characteristics of the subject image are emphasized based on the characteristics extracted by the intermediate layer 15B.

セグメンテーション器17は、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域をセグメンテーションする。例えば、セグメンテーション器17は、強調画像と処理対象画像のR画像、G画像、およびB画像とに基づいて、セグメンテーション画像を生成する。また、例えば、セグメンテーション器17は、強調画像と処理対象画像のモノクロ画像とに基づいて、セグメンテーション画像を生成する。ここでモノクロ画像とは単色二値化された画像のことである。また、セグメンテーションとは、セグメンテーション対象の被写体像の画素で構成された領域とその他の画素で構成された領域とに区別する処理のことである。また、セグメンテーション器17は、セグメンテーションを行った情報に基づきセグメンテーション画像を生成する。例えばセグメンテーション器17は、セグメンテーションした被写体像に対応する領域を強調したセグメンテーション画像、セグメンテーションしたひび割れ像に対応する領域を強調したセグメンテーション画像、またはセグメンテーションした検査領域を強調したセグメンテーション画像を生成する。ここで、領域を強調するとは、例えばセグメンテーションした領域と他の領域とで異なる色で表現することである。 The segmentation device 17 segmentes the region corresponding to the subject image based on the emphasized image and the image to be processed according to the mode learned by the second machine learning. For example, the segmentation device 17 generates a segmentation image based on the emphasized image and the R image, the G image, and the B image of the image to be processed. Further, for example, the segmentation device 17 generates a segmentation image based on the emphasized image and the monochrome image of the image to be processed. Here, the monochrome image is a monochromatic binarized image. Further, the segmentation is a process of distinguishing between an area composed of pixels of a subject image to be segmented and an area composed of other pixels. Further, the segmentation device 17 generates a segmentation image based on the information obtained by performing the segmentation. For example, the segmentation device 17 generates a segmentation image in which the region corresponding to the segmented subject image is emphasized, a segmentation image in which the region corresponding to the segmented crack image is emphasized, or a segmentation image in which the segmented inspection region is emphasized. Here, emphasizing an area means, for example, expressing a segmented area and another area with different colors.

セグメンテーション器17は、画像特徴検出器15と同様に第2の機械学習が施される。なお、セグメンテーション器17では、FCN(Fully Convolution Network)が適用されてもよい。またセグメンテーション器17への第2の機械学習は、予め多数の学習データ(本例では、画像および正解エッジ画像と画像中のセグメンテーション画像の被写体像の正解セグメンテーション結果)により学習されている。 The segmentation device 17 is subjected to the second machine learning in the same manner as the image feature detector 15. In the segmentation device 17, FCN (Fully Convolution Network) may be applied. Further, the second machine learning to the segmentation device 17 is learned in advance by a large number of learning data (in this example, the correct segmentation result of the image and the correct edge image and the subject image of the segmentation image in the image).

表示制御部19は、モニタ9による表示を制御する。例えば、表示制御部19は、セグメンテーション器17で生成されたセグメンテーション画像のモニタ9への表示を制御する。 The display control unit 19 controls the display on the monitor 9. For example, the display control unit 19 controls the display of the segmentation image generated by the segmentation device 17 on the monitor 9.

記憶部21は、入力された処理対象画像、画像特徴検出器15で生成された強調画像、セグメンテーション器17で行われるセグメンテーションに関する情報、およびセグメンテーション器17で生成されるセグメンテーション画像を記憶する。また、記憶部21には、画像処理装置11の各種制御にかかる情報等が記憶される。 The storage unit 21 stores the input image to be processed, the emphasized image generated by the image feature detector 15, the information about the segmentation performed by the segmentation device 17, and the segmentation image generated by the segmentation device 17. Further, the storage unit 21 stores information and the like related to various controls of the image processing device 11.

<第1の実施形態>
図4および図5は、第1の実施形態の画像処理装置11におけるセグメンテーションの例を示す図である。第1の実施形態では画像特徴検出器15はエッジ検出器として機能し、セグメンテーション器17は物体検出器として機能する。
<First Embodiment>
4 and 5 are diagrams showing an example of segmentation in the image processing apparatus 11 of the first embodiment. In the first embodiment, the image feature detector 15 functions as an edge detector, and the segmentation device 17 functions as an object detector.

図4では画像処理装置11における処理の流れが概念的に示されており、図5では入力画像(処理対象画像)、強調画像としてのエッジ画像27、およびセグメンテーション画像としての物体領域画像35が示されている。 FIG. 4 conceptually shows the flow of processing in the image processing apparatus 11, and FIG. 5 shows an input image (processed image), an edge image 27 as an emphasized image, and an object area image 35 as a segmentation image. Has been done.

図4に示すように、画像取得部13により、入力画像23(入力画像23のR画像23A、G画像23B、およびB画像23C)が取得される。ここで、入力画像23のR画像23Aは赤色の二値化された画像であり、G画像23Bは緑色の二値化された画像、およびB画像23Cは青色の二値化された画像を意味する。そして、R画像23A、G画像23B、およびB画像23Cの3チャンネルで構成された入力画像23がエッジ検出Net(ニューラルネットワーク)25で構築されたエッジ検出器に入力される。そして、エッジ検出Net25により、エッジ画像27が生成される。すなわち、この場合画像特徴検出器15は、第1の機械学習により被写体像の輪郭を検出することを学習したエッジ検出Net25(エッジ検出器)であり、強調画像として輪郭が検出されたエッジ画像27を生成される。 As shown in FIG. 4, the image acquisition unit 13 acquires the input image 23 (R image 23A, G image 23B, and B image 23C of the input image 23). Here, the R image 23A of the input image 23 is a red binarized image, the G image 23B is a green binarized image, and the B image 23C is a blue binarized image. To do. Then, the input image 23 composed of the three channels of the R image 23A, the G image 23B, and the B image 23C is input to the edge detector constructed by the edge detection Net (neural network) 25. Then, the edge detection Net 25 generates an edge image 27. That is, in this case, the image feature detector 15 is an edge detection Net 25 (edge detector) that has learned to detect the contour of the subject image by the first machine learning, and the edge image 27 in which the contour is detected as the emphasized image. Is generated.

図5には、エッジ検出Net25に入力される入力画像23(R画像23A、G画像23B、およびB画像23C)、およびエッジ検出Net25で生成されるエッジ画像27が示されている。入力画像23は、主要被写体像である人101と背景である家103および木105を有している。エッジ検出Net25は、被写体像の輪郭のエッジを検出する(主要被写体像の領域を強調する)ように第1の機械学習をしているので、エッジ画像27では人101の輪郭のエッジ107が検出されている。 FIG. 5 shows an input image 23 (R image 23A, G image 23B, and B image 23C) input to the edge detection Net 25, and an edge image 27 generated by the edge detection Net 25. The input image 23 has a person 101 as a main subject image, a house 103 as a background, and a tree 105. Since the edge detection Net 25 performs the first machine learning so as to detect the edge of the contour of the subject image (emphasize the region of the main subject image), the edge 107 of the contour of the person 101 is detected in the edge image 27. Has been done.

図4に戻って、セグメンテーションNet29には、エッジ検出Net25で生成されたエッジ画像27と、入力された入力画像23(R画像23A、G画像23B、およびB画像23C)とが入力される。なお、セグメンテーション器17は、セグメンテーションNet29で構成されている。セグメンテーションNet29は、第2の機械学習により学習して、エッジ画像27および入力画像23に基づいて被写体像に対応する領域を抽出する。ここで、被写体像に対応する領域を抽出するとは、画像を構成する画素毎に、抽出領域と背景領域で分類することをいう。セグメンテーションNet29は、輪郭の領域抽出の結果をセグメンテーションの結果31として出力する。セグメンテーションNet29は、エッジ画像27および3チャンネルの入力画像23(R画像23A、G画像23B、およびB画像23C)が入力されるので、領域の境界が精度良く検出することができる。 Returning to FIG. 4, the edge image 27 generated by the edge detection Net 25 and the input input images 23 (R image 23A, G image 23B, and B image 23C) are input to the segmentation Net 29. The segmentation device 17 is composed of a segmentation Net 29. The segmentation Net29 learns by the second machine learning and extracts the region corresponding to the subject image based on the edge image 27 and the input image 23. Here, extracting the area corresponding to the subject image means classifying each pixel constituting the image into an extraction area and a background area. The segmentation Net29 outputs the result of extracting the contour region as the result of the segmentation 31. Since the segmentation Net29 receives the edge image 27 and the input image 23 of the three channels (R image 23A, G image 23B, and B image 23C), the boundary of the region can be detected with high accuracy.

セグメンテーションNet29は、セグメンテーションした被写体像に対応する領域を強調したセグメンテーション画像を生成する。図5には、セグメンテーションNet29から出力されたセグメンテーションの結果31の一態様である物体領域画像35(セグメンテーション画像)が示されている。物体領域画像35は、セグメンテーションNet29のセグメンテーション結果が反映された画像である。具体的には、物体領域画像35では、主要被写体像である人101がセグメンテーションされ、領域109で示されている。なお、セグメンテーションの結果31の他の態様としては、セグメンテーションに関しての情報があげられる。具体的には、セグメンテーションに関しての情報は、画素毎にどの領域に属するかの情報である。 The segmentation Net29 generates a segmentation image in which the region corresponding to the segmented subject image is emphasized. FIG. 5 shows an object region image 35 (segmentation image) which is one aspect of the segmentation result 31 output from the segmentation Net 29. The object area image 35 is an image that reflects the segmentation result of the segmentation Net29. Specifically, in the object region image 35, the person 101, which is the main subject image, is segmented and shown in the region 109. As another aspect of the segmentation result 31, information on the segmentation can be mentioned. Specifically, the information regarding segmentation is information on which region each pixel belongs to.

図6は、本発明の画像処理方法の工程を説明するフロー図である。 FIG. 6 is a flow chart illustrating a process of the image processing method of the present invention.

先ず、画像取得部13により、入力画像23のR画像23A、G画像23B、B画像23Cが取得される(ステップS10、ステップS11、およびステップS12:画像取得ステップ)。その後、エッジ検出Net25に、R画像23A、G画像23B、およびB画像23Cが入力され、エッジ検出が行われる(ステップS13)。その後、画像特徴検出器15により、エッジ画像27が出力される(ステップS14:画像特徴検出ステップ)。 First, the image acquisition unit 13 acquires the R image 23A, the G image 23B, and the B image 23C of the input image 23 (step S10, step S11, and step S12: image acquisition step). After that, the R image 23A, the G image 23B, and the B image 23C are input to the edge detection Net 25, and edge detection is performed (step S13). After that, the image feature detector 15 outputs the edge image 27 (step S14: image feature detection step).

その後、R画像23A、G画像23B、B画像23C、およびエッジ画像27がセグメンテーションNet29に入力され、セグメンテーションが行われる(ステップS15:セグメンテーションステップ)。そしてセグメンテーションNet29は、セグメンテーション画像を出力する(ステップS16)。 After that, the R image 23A, the G image 23B, the B image 23C, and the edge image 27 are input to the segmentation Net29, and segmentation is performed (step S15: segmentation step). Then, the segmentation Net29 outputs a segmentation image (step S16).

上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。 In the above embodiment, the hardware structure of the processing unit that executes various processes is various processors as shown below. For various processors, the circuit configuration can be changed after manufacturing the CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute software (programs) and function as various processing units. Programmable Logic Device (PLD), a dedicated electric circuit, which is a processor having a circuit configuration specially designed to execute a specific process such as an ASIC (Application Specific Integrated Circuit). Is done.

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various processors, or may be composed of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). You may. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client or a server. There is a form in which the processor functions as a plurality of processing units. Secondly, as typified by System On Chip (SoC), there is a form in which a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used. is there. As described above, the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.

さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。 Further, the hardware structure of these various processors is, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.

上述の各構成および機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。 Each of the above configurations and functions can be appropriately realized by any hardware, software, or a combination of both. For example, for a program that causes a computer to perform the above-mentioned processing steps, a computer-readable recording medium (non-temporary recording medium) that records such a program, or a computer on which such a program can be installed. However, it is possible to apply the present invention.

次に、エッジ画像および物体領域画像に関して詳しく説明をする。 Next, the edge image and the object area image will be described in detail.

図7は入力画像201を示す図であり、図8は図7に示された入力画像201から得られたエッジ画像221を示す図であり、図9は入力画像201から得られた物体領域画像231を示す図である。 FIG. 7 is a diagram showing an input image 201, FIG. 8 is a diagram showing an edge image 221 obtained from the input image 201 shown in FIG. 7, and FIG. 9 is an object region image obtained from the input image 201. It is a figure which shows 231.

図7に示された入力画像201は、セグメンテーション対象の主要被写体像である人203を有する。また、入力画像201は、人203の他に、帽子205、影207、山209、海211の像を有している。 The input image 201 shown in FIG. 7 has a person 203, which is the main subject image to be segmented. Further, the input image 201 has images of a hat 205, a shadow 207, a mountain 209, and a sea 211 in addition to the person 203.

図8に示されたエッジ画像221は、入力画像201がエッジ検出Net25に入力され、エッジ検出Net25により生成される。エッジ画像221は、入力画像201における人203の輪郭が検出され、人の輪郭223を有する。エッジ検出Net25は第1の機械学習が施され人の輪郭223を検出している。 The edge image 221 shown in FIG. 8 is generated by the edge detection Net 25 when the input image 201 is input to the edge detection Net 25. The edge image 221 has a human contour 223 on which the contour of the person 203 in the input image 201 is detected. The edge detection Net 25 is subjected to the first machine learning to detect the human contour 223.

エッジ画像221の箇所225では、人の輪郭223でない箇所も輪郭として検出されている。また、エッジ画像221の箇所229では、影207の輪郭が検出されている。また、エッジ画像221の箇所227では、帽子205の輪郭が検出されており、人の輪郭223において上手く検出されていない部分もある。 In the portion 225 of the edge image 221, a portion other than the human contour 223 is also detected as a contour. Further, the contour of the shadow 207 is detected at the position 229 of the edge image 221. Further, the contour of the hat 205 is detected at the portion 227 of the edge image 221 and there is a portion that is not well detected in the contour 223 of the person.

図9に示された物体領域画像231は、入力画像201およびエッジ画像221がセグメンテーションNet29に入力され、セグメンテーションNet29により生成される。セグメンテーションNet29は、入力画像201およびエッジ画像221が入力されることにより、人の領域233の境界が精度良く検出することができる。 In the object area image 231 shown in FIG. 9, the input image 201 and the edge image 221 are input to the segmentation Net29 and generated by the segmentation Net29. The segmentation Net29 can accurately detect the boundary of the human region 233 by inputting the input image 201 and the edge image 221.

例えば物体領域画像231の箇所225では、人の領域233の境界を正確に検出することができている。また、エッジ画像221では影207の輪郭が検出されてしまったが、物体領域画像231の箇所225では、人の領域233の境界を正確に検出することができている。また、エッジ画像221では帽子205の輪郭が検出されていたり、人の輪郭223が上手く検出されていなかったりしたが、物体領域画像231の箇所227および箇所229では、人の領域233の境界が精度良く検出されている。 For example, at location 225 of the object region image 231, the boundary of the human region 233 can be accurately detected. Further, although the contour of the shadow 207 has been detected in the edge image 221, the boundary of the human region 233 can be accurately detected at the location 225 of the object area image 231. Further, in the edge image 221 the contour of the hat 205 was detected or the contour 223 of the person was not detected well, but in the portion 227 and the portion 229 of the object area image 231, the boundary of the human region 233 is accurate. Well detected.

<第2の実施形態>
次に、第2の実施形態に関して説明する。本実施形態では、画像特徴検出器15はひび割れ検出器として機能し、セグメンテーション器17はひび割れ領域検出器として機能する。
<Second embodiment>
Next, the second embodiment will be described. In the present embodiment, the image feature detector 15 functions as a crack detector, and the segmentation device 17 functions as a crack region detector.

図10および図11は、第2の実施形態の画像処理装置11におけるセグメンテーションの例を示す図である。図10では画像処理装置11における処理の流れが概念的に示されており、図11では入力画像(処理対象画像)37、強調画像としてのひび割れ画像41、およびセグメンテーション画像としてのひび割れ領域画像43が示されている。 10 and 11 are diagrams showing an example of segmentation in the image processing apparatus 11 of the second embodiment. FIG. 10 conceptually shows the processing flow in the image processing device 11, and in FIG. 11, the input image (processed image) 37, the cracked image 41 as the emphasized image, and the cracked region image 43 as the segmentation image are shown. It is shown.

図10に示すように、画像取得部13により、入力画像37(入力画像37のR画像37A、G画像37B、およびB画像37C)が取得される。そして、R画像37A、G画像37B、およびB画像37Cの3チャンネルで構成された入力画像37がひび割れ検出Net(ニューラルネットワーク)39で構築されたひび割れ検出器に入力される。そして、ひび割れ検出Net39により、ひび割れ画像41が生成される。 As shown in FIG. 10, the image acquisition unit 13 acquires the input image 37 (R image 37A, G image 37B, and B image 37C of the input image 37). Then, the input image 37 composed of the three channels of the R image 37A, the G image 37B, and the B image 37C is input to the crack detector constructed by the crack detection Net (neural network) 39. Then, the crack detection Net39 generates a crack image 41.

図11には、入力画像23およびひび割れ画像41が示されている。入力画像23は、セグメンテーション対象の被写体像としてひび割れ像111を有する。ひび割れ検出Net39は、第1の機械学習により学習し、ひび割れ像111を検出しひび割れ画像41を生成する。ひび割れ画像41では、ひび割れ検出Net39で検出されたひび割れ像113が示されている。 FIG. 11 shows the input image 23 and the cracked image 41. The input image 23 has a crack image 111 as a subject image to be segmented. The crack detection Net39 learns by the first machine learning, detects the crack image 111, and generates the crack image 41. In the crack image 41, the crack image 113 detected by the crack detection Net 39 is shown.

図10に戻って、ひび割れ検出Net39で生成されたひび割れ画像41と、入力された入力画像37(R画像37A、G画像37B、およびB画像37C)がセグメンテーションNet43に入力される。そして、セグメンテーションNet43は、第2の機械学習により学習して、ひび割れ画像41画像および入力画像37に基づいてひび割れの領域を抽出する。ここで、ひび割れの領域とは、必ずしもひび割れ像113に一致する領域には限られない。例えば、セグメンテーションNet43は、ひび割れ像113を含む所定の範囲の領域をセグメンテーションしてもよい。またセグメンテーションNet43は、ひび割れ像113を含む太線の検査領域をセグメンテーションしてもよい。また、セグメンテーションNet43は、ひび割れ像113を含む矩形の検査領域をセグメンテーションしてもよい。また、セグメンテーションNet43は、セグメンテーションしたひび割れ像113の領域を強調したひび割れ領域画像43を生成してもよい。また、セグメンテーションNet43は、セグメンテーションした検査領域を強調したひび割れ領域画像43を生成してもよい。 Returning to FIG. 10, the crack image 41 generated by the crack detection Net 39 and the input input images 37 (R image 37A, G image 37B, and B image 37C) are input to the segmentation Net 43. Then, the segmentation Net43 learns by the second machine learning and extracts the cracked region based on the cracked image 41 image and the input image 37. Here, the cracked region is not necessarily limited to the region corresponding to the cracked image 113. For example, the segmentation Net43 may segment a predetermined range of regions including the crack image 113. Further, the segmentation Net43 may segment the inspection region of the thick line including the crack image 113. Further, the segmentation Net43 may segment a rectangular inspection region including the crack image 113. Further, the segmentation Net 43 may generate a crack region image 43 in which the region of the segmented crack image 113 is emphasized. In addition, the segmentation Net 43 may generate a cracked region image 43 that emphasizes the segmented inspection region.

セグメンテーションNet43は、セグメンテーションの結果45としてひび割れ領域を強調したひび割れ領域画像43を生成する。図11には、ひび割れ領域画像43が示されている。ひび割れ領域画像43は、検出されたひび割れ像113に応じてセグメンテーションされて検査領域115で示されている。セグメンテーションNet43で出力されるひび割れ領域画像43では、ひび割れ画像41および3チャンネルの入力画像37(R画像37A、G画像37B、およびB画像37C)が入力されるので、検査領域115の境界が精度良く検出されている。 The segmentation Net 43 produces a cracked region image 43 that emphasizes the cracked region as a result of segmentation 45. FIG. 11 shows a cracked region image 43. The crack region image 43 is segmented according to the detected crack image 113 and is shown in the inspection region 115. In the cracked region image 43 output by the segmentation Net 43, the cracked image 41 and the input image 37 of the 3 channels (R image 37A, G image 37B, and B image 37C) are input, so that the boundary of the inspection region 115 is accurately defined. It has been detected.

以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。 Although the examples of the present invention have been described above, it goes without saying that the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention.

3 :コンピュータ
5 :キーボード
7 :マウス
9 :モニタ
11 :画像処理装置
13 :画像取得部
15 :画像特徴検出器
17 :セグメンテーション器
19 :表示制御部
21 :記憶部
23 :入力画像
27 :エッジ画像
35 :物体領域画像
37 :入力画像
41 :ひび割れ画像
43 :ひび割れ領域画像
ステップS10−S16 :画像処理工程
3: Computer 5: Keyboard 7: Mouse 9: Monitor 11: Image processing device 13: Image acquisition unit 15: Image feature detector 17: Segmentation device 19: Display control unit 21: Storage unit 23: Input image 27: Edge image 35 : Object area image 37: Input image 41: Crack image 43: Crack area image Step S10-S16: Image processing step

Claims (13)

セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得部と、
第1の機械学習により学習した前記被写体像の特徴を、前記第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出器と、
前記強調画像および前記処理対象画像に基づいて、第2の機械学習により学習した態様により、前記被写体像に対応する領域をセグメンテーションするセグメンテーション器と、
を備える画像処理装置。
An image acquisition unit that acquires an image to be processed that has a subject image to be segmented,
An image feature detector that generates an enhanced image in which the features of the subject image learned by the first machine learning are emphasized by the mode learned by the first machine learning.
A segmentation device that segments a region corresponding to the subject image according to the mode learned by the second machine learning based on the emphasized image and the image to be processed.
An image processing device comprising.
前記セグメンテーション器は、前記強調画像と前記処理対象画像のR画像、G画像、およびB画像とに基づいて、セグメンテーション画像を生成する請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the segmentation device generates a segmentation image based on the emphasized image and the R image, the G image, and the B image of the processing target image. 前記セグメンテーション器は、前記強調画像と前記処理対象画像のモノクロ画像とに基づいて、セグメンテーション画像を生成する請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the segmentation device generates a segmentation image based on the emphasized image and a monochrome image of the processing target image. 前記画像特徴検出器は、前記第1の機械学習により前記被写体像の輪郭を検出することを学習したエッジ検出器であり、前記強調画像として前記輪郭が検出されたエッジ画像を生成し、
前記セグメンテーション器は、前記第2の機械学習により学習して、前記エッジ画像および前記処理対象画像に基づいて前記被写体像に対応する領域を抽出する請求項1から3のいずれか1項に記載の画像処理装置。
The image feature detector is an edge detector that has learned to detect the contour of the subject image by the first machine learning, and generates an edge image in which the contour is detected as the emphasized image.
The segmentation device according to any one of claims 1 to 3, wherein the segmentation device learns by the second machine learning and extracts a region corresponding to the subject image based on the edge image and the processing target image. Image processing device.
前記セグメンテーション器は、セグメンテーションした前記被写体像に対応する領域を強調したセグメンテーション画像を生成する請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the segmentation device generates a segmentation image in which a region corresponding to the segmented subject image is emphasized. 前記画像取得部は、前記セグメンテーション対象の前記被写体像としてひび割れ像を有する前記処理対象画像を取得し、
前記画像特徴検出器は、前記第1の機械学習により前記ひび割れ像を検出することを学習したひび割れ検出器であり、前記強調画像として前記ひび割れ像が検出されたひび割れ画像を生成し、
前記セグメンテーション器は、前記第2の機械学習により学習して、前記ひび割れ画像および前記処理対象画像に基づいて前記ひび割れ像に対応する領域を抽出する請求項1から3のいずれか1項に記載の画像処理装置。
The image acquisition unit acquires the image to be processed having a cracked image as the subject image to be segmented.
The image feature detector is a crack detector that has learned to detect the crack image by the first machine learning, and generates a crack image in which the crack image is detected as the emphasized image.
The segmentation device according to any one of claims 1 to 3, wherein the segmentation device learns by the second machine learning and extracts a region corresponding to the crack image based on the crack image and the processed image. Image processing device.
前記セグメンテーション器は、前記ひび割れ像を含む検査領域をセグメンテーションする請求項6に記載の画像処理装置。 The image processing apparatus according to claim 6, wherein the segmentation device segments an inspection region including the crack image. 前記セグメンテーション器は、前記ひび割れ像を含む太線の前記検査領域をセグメンテーションする請求項7に記載の画像処理装置。 The image processing apparatus according to claim 7, wherein the segmentation device segments the inspection area of the thick line including the crack image. 前記セグメンテーション器は、前記ひび割れ像を含む矩形の前記検査領域をセグメンテーションする請求項8に記載の画像処理装置。 The image processing apparatus according to claim 8, wherein the segmentation device segments the rectangular inspection area including the crack image. 前記セグメンテーション器は、セグメンテーションした前記ひび割れ像に対応する領域を強調したセグメンテーション画像を生成する請求項6に記載の画像処理装置。 The image processing apparatus according to claim 6, wherein the segmentation device generates a segmentation image in which a region corresponding to the segmented crack image is emphasized. 前記セグメンテーション器は、セグメンテーションした前記検査領域を強調したセグメンテーション画像を生成する請求項7から9のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 7 to 9, wherein the segmentation device generates a segmentation image in which the segmented inspection area is emphasized. プロセッサがプログラムを実行することにより、
セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得ステップと、
第1の機械学習により学習した前記被写体像の特徴を、前記第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出ステップと、
前記強調画像および前記処理対象画像に基づいて、第2の機械学習により学習した態様により、前記被写体像に対応する領域をセグメンテーションするセグメンテーションステップと、
を行う画像処理方法。
By the processor executing the program
An image acquisition step of acquiring a processing target image having a subject image to be segmented, and
An image feature detection step of generating an emphasized image in which the features of the subject image learned by the first machine learning are emphasized by the mode learned by the first machine learning, and
A segmentation step for segmenting a region corresponding to the subject image according to the mode learned by the second machine learning based on the emphasized image and the processed image.
Image processing method to perform.
セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得ステップと、
第1の機械学習により学習した前記被写体像の特徴を、前記第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出ステップと、
前記強調画像および前記処理対象画像に基づいて、第2の機械学習により学習した態様により、前記被写体像に対応する領域をセグメンテーションするセグメンテーションステップと、
を含む画像処理工程をコンピュータに実行させるプログラム。
An image acquisition step of acquiring a processing target image having a subject image to be segmented, and
An image feature detection step of generating an emphasized image in which the features of the subject image learned by the first machine learning are emphasized by the mode learned by the first machine learning, and
A segmentation step for segmenting a region corresponding to the subject image according to the mode learned by the second machine learning based on the emphasized image and the processed image.
A program that causes a computer to execute an image processing process including.
JP2018015432A 2018-01-31 2018-01-31 Image processing equipment, image processing methods, and programs Active JP6872502B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018015432A JP6872502B2 (en) 2018-01-31 2018-01-31 Image processing equipment, image processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018015432A JP6872502B2 (en) 2018-01-31 2018-01-31 Image processing equipment, image processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2019133433A JP2019133433A (en) 2019-08-08
JP6872502B2 true JP6872502B2 (en) 2021-05-19

Family

ID=67546221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018015432A Active JP6872502B2 (en) 2018-01-31 2018-01-31 Image processing equipment, image processing methods, and programs

Country Status (1)

Country Link
JP (1) JP6872502B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021033580A (en) * 2019-08-22 2021-03-01 株式会社Ye Digital Object detection method, object detection device, and object detection program
JP7344620B1 (en) * 2022-07-22 2023-09-14 株式会社 Sai Building structure recognition system and building structure recognition method
CN117152187B (en) * 2023-10-30 2024-01-26 山东中科冶金矿山机械有限公司 Crack contour extraction method in geological mapping

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5041229B2 (en) * 2007-12-07 2012-10-03 ソニー株式会社 Learning device and method, recognition device and method, and program
JP2013114611A (en) * 2011-11-30 2013-06-10 Canon Inc Object detection device, object detection method and program
US9972092B2 (en) * 2016-03-31 2018-05-15 Adobe Systems Incorporated Utilizing deep learning for boundary-aware image segmentation

Also Published As

Publication number Publication date
JP2019133433A (en) 2019-08-08

Similar Documents

Publication Publication Date Title
CN109978890B (en) Target extraction method and device based on image processing and terminal equipment
Yiyang The design of glass crack detection system based on image preprocessing technology
CN105574513B (en) Character detecting method and device
Chudasama et al. Image segmentation using morphological operations
JP6872502B2 (en) Image processing equipment, image processing methods, and programs
JP7449869B2 (en) Automatic analysis of descriptive rock slice images using advanced machine learning techniques
WO2019167453A1 (en) Image processing device, image processing method, and program
JP6135283B2 (en) Image processing apparatus, image processing method, program, and recording medium
Hasan et al. Skin lesion segmentation by using deep learning techniques
CN115841447A (en) Detection method for surface defects of magnetic shoe
US20210272272A1 (en) Inspection support apparatus, inspection support method, and inspection support program for concrete structure
JP2016032289A (en) Image synthesis system, image synthesis method, image synthesis program
JP2018029250A5 (en)
TWI743837B (en) Training data increment method, electronic apparatus and computer-readable medium
CN108318773A (en) A kind of transmission line breakage detection method and system
Cai et al. Perception preserving decolorization
JP6819445B2 (en) Information processing equipment, control methods, and programs
Deshmukh et al. Fine object detection in automated solar panel layout generation
CN110660048B (en) Leather surface defect detection method based on shape characteristics
CN116883303A (en) Infrared and visible light image fusion method based on characteristic difference compensation and fusion
Sasi et al. Shadow detection and removal from real images: state of art
Sulaiman et al. Automatic grading system for oil palm fruit ripeness
CN103208013B (en) Photo source identification method based on image noise analysis
CN105241886B (en) A kind of earthen ruins crack detection method based on HVS and wave filter
RU2718429C1 (en) Device for detecting local-stationary areas on an image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R150 Certificate of patent or registration of utility model

Ref document number: 6872502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250