JP2019133433A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2019133433A
JP2019133433A JP2018015432A JP2018015432A JP2019133433A JP 2019133433 A JP2019133433 A JP 2019133433A JP 2018015432 A JP2018015432 A JP 2018015432A JP 2018015432 A JP2018015432 A JP 2018015432A JP 2019133433 A JP2019133433 A JP 2019133433A
Authority
JP
Japan
Prior art keywords
image
segmentation
machine learning
learned
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018015432A
Other languages
English (en)
Other versions
JP6872502B2 (ja
Inventor
正志 藏之下
Masashi Kuranoshita
正志 藏之下
與那覇 誠
Makoto Yonaha
誠 與那覇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2018015432A priority Critical patent/JP6872502B2/ja
Publication of JP2019133433A publication Critical patent/JP2019133433A/ja
Application granted granted Critical
Publication of JP6872502B2 publication Critical patent/JP6872502B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Abstract

【課題】機械学習を利用したセグメンテーションにおいて、領域間の境界を精度良く検出することができる画像処理装置、画像処理方法、およびプログラムを提供する。【解決手段】画像処理装置11は、セグメンテーション対象の被写体像を有する処理対象画像23を取得する画像取得部13と、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出器15と、強調画像および処理対象画像23に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域をセグメンテーションするセグメンテーション器17と、を備える。【選択図】図2

Description

本発明は、画像処理装置、画像処理方法、およびプログラムに関し、特に、機械学習を利用してセグメンテーションを行う画像処理装置、画像処理方法、およびプログラムに関する。
従来より、画像処理の技術分野において、セグメンテーションが行われている。ここでセグメンテーションとは、セグメンテーション対象の被写体像の画素で構成された領域とその他の画素の領域とに区別する処理のことである。
例えば特許文献1では、入力されたコンクリート画像において骨材を表した骨材領域とセメント成分を含んだ残余成分を表した残余成分領域とに分割されたコンクリート領域分割画像を生成するための技術が記載されている。特許文献1では、コンクリート画像から生成される濃淡モノクロ画像と輪郭モノクロ画像とに基づいて、コンクリート画像において骨材領域と残余成分領域とに領域が分割された画像を生成することが記載されている。特許文献1に記載された技術は、色濃度では骨材領域と残余成分領域とを精度良く区別できない場合に対して、濃淡モノクロ画像と輪郭モノクロ画像を合成した合成モノクロ画像により、精度良く骨材領域と残余成分領域とを分割することを試みている。ここで、濃淡モノクロ画像は、濃領域および淡領域から構成されており、輪郭モノクロ画像は輪郭領域および背景領域から構成されている。
一方、近年では機械学習の技術を利用して、セグメンテーションを行うことが提案されている。例えば、非特許文献1では、学習によって画像から特徴量を算出し、画像の認識処理を行う畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を利用して、セグメンテーションをより正確に行うことを目的とした技術が提案されている。
特開2010−230421号公報 アダム・パスズケ(Adam Paszke)、アドヒシェック・チャウラシア(Abhishek Chaurasia)、スナグピル・キム(Sangpil Kim)、ユージネオ・クルシエロ(Eugenio Culurciello)"ENet: A Deep Neural Network Architecture for Real-Time Semantic Segmentation"[online]、2016年6月7日提出、[平成30年1月18日検索]、インターネット<URL:https://arxiv.org/abs/1606.02147>
ここで、機械学習を利用したセグメンテーションにおいても、領域間の境界を精度良く検出することは困難な場合がある。これは、セグメンテーションの処理対象の被写体像の種類や見え方が様々なため、機械学習をさせたセグメンテーション器は境界を精度良く検出することが難しい場合がある。
本発明はこのような事情に鑑みてなされたもので、その目的は、機械学習を利用したセグメンテーションにおいて、領域間の境界を精度良く検出することができる画像処理装置、画像処理方法、およびプログラムを提供することである。
上記目的を達成するために本発明の一の態様である画像処理装置は、セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得部と、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出器と、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域をセグメンテーションするセグメンテーション器と、を備える。
本態様によれば、画像特徴検出器により、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像が生成される。そして、本態様では、セグメンテーション器により、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域がセグメンテーションされる。すなわち、第2の機械学習を利用して、強調画像および処理対象画像に基づいて、被写体像に対応する領域がセグメンテーションされる。これにより、本態様は、精度良く領域間の境界を検出することができる。
好ましくは、セグメンテーション器は、強調画像と処理対象画像のR画像、G画像、およびB画像とに基づいて、セグメンテーション画像を生成する。
本態様によれば、セグメンテーション器により、強調画像と処理対象画像のR画像、G画像、およびB画像とに基づいて、セグメンテーション画像が生成される。すなわち、本態様によれば、1チャンネルの強調画像と3チャンネルの処理対象画像とを合わせた4チャンネルの画像により、セグメンテーションが行われる。これにより、本態様は、精度良く領域間の境界の検出が行われたセグメンテーション画像を得ることができる。
好ましくは、セグメンテーション器は、強調画像と処理対象画像のモノクロ画像とに基づいて、セグメンテーション画像を生成する。
本態様によれば、セグメンテーション器により、強調画像と処理対象画像のモノクロ画像とに基づいて、セグメンテーション画像が生成される。これにより、本態様は、正確な領域間の境界の検出が行われたセグメンテーション画像を得ることができる。
好ましくは、画像特徴検出器は、第1の機械学習により被写体像の輪郭を検出することを学習したエッジ検出器であり、強調画像として輪郭が検出されたエッジ画像を生成し、セグメンテーション器は、第2の機械学習により学習して、エッジ画像および処理対象画像に基づいて被写体像に対応する領域を抽出する。
本態様によれば、画像特徴検出器は第1の機械学習により被写体像の輪郭を検出することを学習したエッジ検出器であり、そのエッジ検出器により、強調画像として輪郭が検出されたエッジ画像が生成される。そして、本態様によれば、セグメンテーション器は第2の機械学習により学習が行われて、エッジ画像および処理対象画像に基づいて被写体像に対応する領域を抽出する。これにより、本態様は、領域間の境界を精度良く抽出するセグメンテーションを行うことができる。
好ましくは、セグメンテーション器は、セグメンテーションした被写体像に対応する領域を強調したセグメンテーション画像を生成する。
本態様によれば、セグメンテーション器により、セグメンテーションした被写体像に対応する領域が強調されたセグメンテーション画像が生成されるので、被写体像に対応する領域の境界が精度良く検出されたセグメンテーション画像を得ることができる。
好ましくは、画像取得部は、セグメンテーション対象の被写体像としてひび割れ像を有する処理対象画像を取得し、画像特徴検出器は、第1の機械学習によりひび割れ像を検出することを学習したひび割れ検出器であり、強調画像としてひび割れ像が検出されたひび割れ画像を生成し、セグメンテーション器は、第2の機械学習により学習して、ひび割れ画像および処理対象画像に基づいてひび割れ像に対応する領域を抽出する。
本態様によれば、画像取得部により、セグメンテーション対象の被写体像としてひび割れ像を有する処理対象画像が取得され、画像特徴検出器は第1の機械学習でひび割れ像を検出することを学習したひび割れ検出器であり、強調画像としてひび割れ像が検出されたひび割れ画像が生成される。そして本態様は、セグメンテーション器により、第2の機械学習で学習して、ひび割れ画像および処理対象画像に基づいてひび割れ像に対応する領域が抽出される。これにより、本態様は、抽出されたひび割れ像に対応する領域の境界が精度良く検出されるセグメンテーションを行うことができる。
好ましくは、セグメンテーション器は、ひび割れ像を含む検査領域をセグメンテーションする。
本態様によれば、セグメンテーション器により、ひび割れ像を含む検査領域がセグメンテーションされるので、ひび割れ像を含む検査領域の境界が精度良く検出される。
好ましくは、セグメンテーション器は、ひび割れ像を含む太線の検査領域をセグメンテーションする。
本態様によれば、セグメンテーション器により、ひび割れ像を含む太線の検査領域がセグメンテーションされるので、ひび割れ像を含む太線の検査領域の境界を精度良く検出することができる。
好ましくは、セグメンテーション器は、ひび割れ像を含む矩形の検査領域をセグメンテーションする。
本態様によれば、セグメンテーション器により、ひび割れ像を含む矩形の検査領域をセグメンテーションするので、ひび割れ像を含む矩形の検査領域の境界を精度良く検出することができる。
好ましくは、セグメンテーション器は、セグメンテーションしたひび割れ像に対応する領域を強調したセグメンテーション画像を生成する。
本態様によれば、セグメンテーション器により、セグメンテーションしたひび割れ像に対応する領域を強調したセグメンテーション画像が生成されるので、領域の境界が精度良く検出されたセグメンテーション画像を得ることができる。
好ましくは、セグメンテーション器は、セグメンテーションした検査領域を強調したセグメンテーション画像を生成する。
本態様によれば、セグメンテーション器により、セグメンテーションした検査領域が強調されたセグメンテーション画像が生成される。これにより、本態様は、検査領域の境界が精度良く検出されたセグメンテーション画像が生成される。
本発明の一の態様である画像処理方法は、セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得ステップと、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出ステップと、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域をセグメンテーションするセグメンテーションステップと、を含む。
本発明の一の態様であるプログラムは、セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得ステップと、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出ステップと、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域をセグメンテーションするセグメンテーションステップと、を含む画像処理工程をコンピュータに実行させる。
本発明によれば、画像特徴検出器により、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像が生成され、セグメンテーション器により、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域がセグメンテーションされるので、精度良く領域間の境界を検出することができる。
図1は、画像処理装置を備えるコンピュータの外観を示す図である。 図2は、画像処理装置の機能構成例を示すブロック図である。 図3は、CNNの代表的な構成例を示す模式図である。 図4は、セグメンテーションの例を示す図である。 図5は、セグメンテーションの例を示す図である。 図6は、画像処理方法の工程を説明するフロー図である。 図7は、入力画像を示す図である。 図8は、エッジ画像を示す図である。 図9は、物体領域画像を示す図である。 図10は、セグメンテーションの例を示す図である。 図11は、セグメンテーションの例を示す図である。
以下、添付図面に従って本発明に係る画像処理装置、画像処理方法、およびプログラムの好ましい実施の形態について説明する。
図1は、本発明の画像処理装置を備えるコンピュータの外観を示す図である。
コンピュータ3は、本発明の一態様である画像処理装置11(図2)を備えている。コンピュータ3には、入力画像23が入力され、モニタ9で構成される表示部とキーボード5およびマウス7で構成される入力部が接続されている。なお、図示されたコンピュータ3の形態は一例であり、コンピュータ3と同様の機能を有する装置は本発明の画像処理装置11を備えることができる。例えば、タブレット端末に画像処理装置11を搭載することも可能である。
コンピュータ3は、入力画像23に対して行ったセグメンテーションの結果として、例えばセグメンテーション画像をモニタ9に表示する。また、ユーザからのセグメンテーションの指令をキーボード5およびマウス7で受け付ける。
図2は、画像処理装置11の機能構成例を示すブロック図である。画像処理装置11は、主に画像取得部13、画像特徴検出器15、セグメンテーション器17、表示制御部19、記憶部21を備える。
画像取得部13は、セグメンテーション対象の被写体像を有する入力画像23を処理対象画像として取得する。画像取得部13は、有線または無線によりコンピュータ3に備えられる不図示の画像入出力インターフェースを用いて、入力画像23を取得する。入力画像23は、1枚のカラー画像であっても良いし、2値化されたR画像、G画像、B画像であっても良いし、2値化された白黒画像であってもよい。
画像特徴検出器15は、第1の機械学習により学習した被写体像の特徴を、第1の機械学習により学習した態様により強調した強調画像を生成する。例えば、画像特徴検出器15は、第1の機械学習により被写体像の輪郭を検出することを学習したエッジ検出器である。この場合画像特徴検出器15は、強調画像として被写体像の輪郭が検出されたエッジ画像を生成する。画像特徴検出器15は、画像内に複数の被写体像がある場合に、主要な被写体像に対して、エッジ検出を行い、エッジ画像を生成する。また例えば、画像特徴検出器15は、第1の機械学習によりひび割れ像を検出することを学習したひび割れ検出器である。この場合画像特徴検出器15は、強調画像としてひび割れ像が検出されたひび割れ画像を生成する。なお、画像特徴検出器15の第1の機械学習は、公知の技術が適用される。
画像特徴検出器15は、入力画像23の被写体像の特徴を強調する部分であり、本例では、学習によって画像から特徴量を算出し、画像の特徴の強調処理を行う畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)、を含み、画像内の色情報、画素値の勾配等で特徴量を算出し強調する。ここで、画像の特徴の強調処理とは、例えばエッジ検出処理またはひび割れ検出処理のことである。
図3は、画像特徴検出器15に適用されるCNNの代表的な構成例を示す模式図である。
図3に示すように、CNNは、入力層15Aと、畳み込み層とプーリング層から構成された複数セット、及び全結合層を有する中間層15Bと、出力層15Cとを備え、各層は複数の「ノード」が「エッジ」で結ばれる構造となっている。
入力層15Aには、認識処理の対象である画像が入力される。
中間層15Bは、畳み込み層とプーリング層とを1セットとする複数セットと、全結合層とを有し、入力層から入力した画像から特徴を抽出する。畳み込み層は、前の層で近くにあるノードにフィルタ処理し(フィルタを使用した畳み込み演算を行い)、「特徴マップ」を取得する。プーリング層は、畳み込み層から出力された特徴マップを縮小して新たな特徴マップとする。「畳み込み層」は、画像からのエッジ抽出等の特徴抽出の役割を担い、「プーリング層」は抽出された特徴が、平行移動などによる影響を受けないようにロバスト性を与える役割を担う。
尚、中間層15Bには、畳み込み層とプーリング層とを1セットとする場合に限らず、畳み込み層が連続する場合や正規化層も含まれる。また、各畳み込み層にて使用されるフィルタのパラメータは、予め多数の学習データ(本例では、画像とその画像中のセグメンテーション対象の被写体像の正解エッジ画像)により自動的に学習されている。
出力層15Cは、中間層15Bにより抽出された特徴に基づき被写体像の特徴を強調した画像を出力する。
セグメンテーション器17は、強調画像および処理対象画像に基づいて、第2の機械学習により学習した態様により、被写体像に対応する領域をセグメンテーションする。例えば、セグメンテーション器17は、強調画像と処理対象画像のR画像、G画像、およびB画像とに基づいて、セグメンテーション画像を生成する。また、例えば、セグメンテーション器17は、強調画像と処理対象画像のモノクロ画像とに基づいて、セグメンテーション画像を生成する。ここでモノクロ画像とは単色二値化された画像のことである。また、セグメンテーションとは、セグメンテーション対象の被写体像の画素で構成された領域とその他の画素で構成された領域とに区別する処理のことである。また、セグメンテーション器17は、セグメンテーションを行った情報に基づきセグメンテーション画像を生成する。例えばセグメンテーション器17は、セグメンテーションした被写体像に対応する領域を強調したセグメンテーション画像、セグメンテーションしたひび割れ像に対応する領域を強調したセグメンテーション画像、またはセグメンテーションした検査領域を強調したセグメンテーション画像を生成する。ここで、領域を強調するとは、例えばセグメンテーションした領域と他の領域とで異なる色で表現することである。
セグメンテーション器17は、画像特徴検出器15と同様に第2の機械学習が施される。なお、セグメンテーション器17では、FCN(Fully Convolution Network)が適用されてもよい。またセグメンテーション器17への第2の機械学習は、予め多数の学習データ(本例では、画像および正解エッジ画像と画像中のセグメンテーション画像の被写体像の正解セグメンテーション結果)により学習されている。
表示制御部19は、モニタ9による表示を制御する。例えば、表示制御部19は、セグメンテーション器17で生成されたセグメンテーション画像のモニタ9への表示を制御する。
記憶部21は、入力された処理対象画像、画像特徴検出器15で生成された強調画像、セグメンテーション器17で行われるセグメンテーションに関する情報、およびセグメンテーション器17で生成されるセグメンテーション画像を記憶する。また、記憶部21には、画像処理装置11の各種制御にかかる情報等が記憶される。
<第1の実施形態>
図4および図5は、第1の実施形態の画像処理装置11におけるセグメンテーションの例を示す図である。第1の実施形態では画像特徴検出器15はエッジ検出器として機能し、セグメンテーション器17は物体検出器として機能する。
図4では画像処理装置11における処理の流れが概念的に示されており、図5では入力画像(処理対象画像)、強調画像としてのエッジ画像27、およびセグメンテーション画像としての物体領域画像35が示されている。
図4に示すように、画像取得部13により、入力画像23(入力画像23のR画像23A、G画像23B、およびB画像23C)が取得される。ここで、入力画像23のR画像23Aは赤色の二値化された画像であり、G画像23Bは緑色の二値化された画像、およびB画像23Cは青色の二値化された画像を意味する。そして、R画像23A、G画像23B、およびB画像23Cの3チャンネルで構成された入力画像23がエッジ検出Net(ニューラルネットワーク)25で構築されたエッジ検出器に入力される。そして、エッジ検出Net25により、エッジ画像27が生成される。すなわち、この場合画像特徴検出器15は、第1の機械学習により被写体像の輪郭を検出することを学習したエッジ検出Net25(エッジ検出器)であり、強調画像として輪郭が検出されたエッジ画像27を生成される。
図5には、エッジ検出Net25に入力される入力画像23(R画像23A、G画像23B、およびB画像23C)、およびエッジ検出Net25で生成されるエッジ画像27が示されている。入力画像23は、主要被写体像である人101と背景である家103および木105を有している。エッジ検出Net25は、被写体像の輪郭のエッジを検出する(主要被写体像の領域を強調する)ように第1の機械学習をしているので、エッジ画像27では人101の輪郭のエッジ107が検出されている。
図4に戻って、セグメンテーションNet29には、エッジ検出Net25で生成されたエッジ画像27と、入力された入力画像23(R画像23A、G画像23B、およびB画像23C)とが入力される。なお、セグメンテーション器17は、セグメンテーションNet29で構成されている。セグメンテーションNet29は、第2の機械学習により学習して、エッジ画像27および入力画像23に基づいて被写体像に対応する領域を抽出する。ここで、被写体像に対応する領域を抽出するとは、画像を構成する画素毎に、抽出領域と背景領域で分類することをいう。セグメンテーションNet29は、輪郭の領域抽出の結果をセグメンテーションの結果31として出力する。セグメンテーションNet29は、エッジ画像27および3チャンネルの入力画像23(R画像23A、G画像23B、およびB画像23C)が入力されるので、領域の境界が精度良く検出することができる。
セグメンテーションNet29は、セグメンテーションした被写体像に対応する領域を強調したセグメンテーション画像を生成する。図5には、セグメンテーションNet29から出力されたセグメンテーションの結果31の一態様である物体領域画像35(セグメンテーション画像)が示されている。物体領域画像35は、セグメンテーションNet29のセグメンテーション結果が反映された画像である。具体的には、物体領域画像35では、主要被写体像である人101がセグメンテーションされ、領域109で示されている。なお、セグメンテーションの結果31の他の態様としては、セグメンテーションに関しての情報があげられる。具体的には、セグメンテーションに関しての情報は、画素毎にどの領域に属するかの情報である。
図6は、本発明の画像処理方法の工程を説明するフロー図である。
先ず、画像取得部13により、入力画像23のR画像23A、G画像23B、B画像23Cが取得される(ステップS10、ステップS11、およびステップS12:画像取得ステップ)。その後、エッジ検出Net25に、R画像23A、G画像23B、およびB画像23Cが入力され、エッジ検出が行われる(ステップS13)。その後、画像特徴検出器15により、エッジ画像27が出力される(ステップS14:画像特徴検出ステップ)。
その後、R画像23A、G画像23B、B画像23C、およびエッジ画像27がセグメンテーションNet29に入力され、セグメンテーションが行われる(ステップS15:セグメンテーションステップ)。そしてセグメンテーションNet29は、セグメンテーション画像を出力する(ステップS16)。
上記実施形態において、各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
上述の各構成および機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。
次に、エッジ画像および物体領域画像に関して詳しく説明をする。
図7は入力画像201を示す図であり、図8は図7に示された入力画像201から得られたエッジ画像221を示す図であり、図9は入力画像201から得られた物体領域画像231を示す図である。
図7に示された入力画像201は、セグメンテーション対象の主要被写体像である人203を有する。また、入力画像201は、人203の他に、帽子205、影207、山209、海211の像を有している。
図8に示されたエッジ画像221は、入力画像201がエッジ検出Net25に入力され、エッジ検出Net25により生成される。エッジ画像221は、入力画像201における人203の輪郭が検出され、人の輪郭223を有する。エッジ検出Net25は第1の機械学習が施され人の輪郭223を検出している。
エッジ画像221の箇所225では、人の輪郭223でない箇所も輪郭として検出されている。また、エッジ画像221の箇所229では、影207の輪郭が検出されている。また、エッジ画像221の箇所227では、帽子205の輪郭が検出されており、人の輪郭223において上手く検出されていない部分もある。
図9に示された物体領域画像231は、入力画像201およびエッジ画像221がセグメンテーションNet29に入力され、セグメンテーションNet29により生成される。セグメンテーションNet29は、入力画像201およびエッジ画像221が入力されることにより、人の領域233の境界が精度良く検出することができる。
例えば物体領域画像231の箇所225では、人の領域233の境界を正確に検出することができている。また、エッジ画像221では影207の輪郭が検出されてしまったが、物体領域画像231の箇所225では、人の領域233の境界を正確に検出することができている。また、エッジ画像221では帽子205の輪郭が検出されていたり、人の輪郭223が上手く検出されていなかったりしたが、物体領域画像231の箇所227および箇所229では、人の領域233の境界が精度良く検出されている。
<第2の実施形態>
次に、第2の実施形態に関して説明する。本実施形態では、画像特徴検出器15はひび割れ検出器として機能し、セグメンテーション器17はひび割れ領域検出器として機能する。
図10および図11は、第2の実施形態の画像処理装置11におけるセグメンテーションの例を示す図である。図10では画像処理装置11における処理の流れが概念的に示されており、図11では入力画像(処理対象画像)37、強調画像としてのひび割れ画像41、およびセグメンテーション画像としてのひび割れ領域画像43が示されている。
図10に示すように、画像取得部13により、入力画像37(入力画像37のR画像37A、G画像37B、およびB画像37C)が取得される。そして、R画像37A、G画像37B、およびB画像37Cの3チャンネルで構成された入力画像37がひび割れ検出Net(ニューラルネットワーク)39で構築されたひび割れ検出器に入力される。そして、ひび割れ検出Net39により、ひび割れ画像41が生成される。
図11には、入力画像23およびひび割れ画像41が示されている。入力画像23は、セグメンテーション対象の被写体像としてひび割れ像111を有する。ひび割れ検出Net39は、第1の機械学習により学習し、ひび割れ像111を検出しひび割れ画像41を生成する。ひび割れ画像41では、ひび割れ検出Net39で検出されたひび割れ像113が示されている。
図10に戻って、ひび割れ検出Net39で生成されたひび割れ画像41と、入力された入力画像37(R画像37A、G画像37B、およびB画像37C)がセグメンテーションNet43に入力される。そして、セグメンテーションNet43は、第2の機械学習により学習して、ひび割れ画像41画像および入力画像37に基づいてひび割れの領域を抽出する。ここで、ひび割れの領域とは、必ずしもひび割れ像113に一致する領域には限られない。例えば、セグメンテーションNet43は、ひび割れ像113を含む所定の範囲の領域をセグメンテーションしてもよい。またセグメンテーションNet43は、ひび割れ像113を含む太線の検査領域をセグメンテーションしてもよい。また、セグメンテーションNet43は、ひび割れ像113を含む矩形の検査領域をセグメンテーションしてもよい。また、セグメンテーションNet43は、セグメンテーションしたひび割れ像113の領域を強調したひび割れ領域画像43を生成してもよい。また、セグメンテーションNet43は、セグメンテーションした検査領域を強調したひび割れ領域画像43を生成してもよい。
セグメンテーションNet43は、セグメンテーションの結果45としてひび割れ領域を強調したひび割れ領域画像43を生成する。図11には、ひび割れ領域画像43が示されている。ひび割れ領域画像43は、検出されたひび割れ像113に応じてセグメンテーションされて検査領域115で示されている。セグメンテーションNet43で出力されるひび割れ領域画像43では、ひび割れ画像41および3チャンネルの入力画像37(R画像37A、G画像37B、およびB画像37C)が入力されるので、検査領域115の境界が精度良く検出されている。
以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
3 :コンピュータ
5 :キーボード
7 :マウス
9 :モニタ
11 :画像処理装置
13 :画像取得部
15 :画像特徴検出器
17 :セグメンテーション器
19 :表示制御部
21 :記憶部
23 :入力画像
27 :エッジ画像
35 :物体領域画像
37 :入力画像
41 :ひび割れ画像
43 :ひび割れ領域画像
ステップS10−S16 :画像処理工程

Claims (13)

  1. セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得部と、
    第1の機械学習により学習した前記被写体像の特徴を、前記第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出器と、
    前記強調画像および前記処理対象画像に基づいて、第2の機械学習により学習した態様により、前記被写体像に対応する領域をセグメンテーションするセグメンテーション器と、
    を備える画像処理装置。
  2. 前記セグメンテーション器は、前記強調画像と前記処理対象画像のR画像、G画像、およびB画像とに基づいて、セグメンテーション画像を生成する請求項1に記載の画像処理装置。
  3. 前記セグメンテーション器は、前記強調画像と前記処理対象画像のモノクロ画像とに基づいて、セグメンテーション画像を生成する請求項1に記載の画像処理装置。
  4. 前記画像特徴検出器は、前記第1の機械学習により前記被写体像の輪郭を検出することを学習したエッジ検出器であり、前記強調画像として前記輪郭が検出されたエッジ画像を生成し、
    前記セグメンテーション器は、前記第2の機械学習により学習して、前記エッジ画像および前記処理対象画像に基づいて前記被写体像に対応する領域を抽出する請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記セグメンテーション器は、セグメンテーションした前記被写体像に対応する領域を強調したセグメンテーション画像を生成する請求項4に記載の画像処理装置。
  6. 前記画像取得部は、前記セグメンテーション対象の前記被写体像としてひび割れ像を有する前記処理対象画像を取得し、
    前記画像特徴検出器は、前記第1の機械学習により前記ひび割れ像を検出することを学習したひび割れ検出器であり、前記強調画像として前記ひび割れ像が検出されたひび割れ画像を生成し、
    前記セグメンテーション器は、前記第2の機械学習により学習して、前記ひび割れ画像および前記処理対象画像に基づいて前記ひび割れ像に対応する領域を抽出する請求項1から3のいずれか1項に記載の画像処理装置。
  7. 前記セグメンテーション器は、前記ひび割れ像を含む検査領域をセグメンテーションする請求項6に記載の画像処理装置。
  8. 前記セグメンテーション器は、前記ひび割れ像を含む太線の前記検査領域をセグメンテーションする請求項7に記載の画像処理装置。
  9. 前記セグメンテーション器は、前記ひび割れ像を含む矩形の前記検査領域をセグメンテーションする請求項8に記載の画像処理装置。
  10. 前記セグメンテーション器は、セグメンテーションした前記ひび割れ像に対応する領域を強調したセグメンテーション画像を生成する請求項6に記載の画像処理装置。
  11. 前記セグメンテーション器は、セグメンテーションした前記検査領域を強調したセグメンテーション画像を生成する請求項7から9のいずれか1項に記載の画像処理装置。
  12. セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得ステップと、
    第1の機械学習により学習した前記被写体像の特徴を、前記第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出ステップと、
    前記強調画像および前記処理対象画像に基づいて、第2の機械学習により学習した態様により、前記被写体像に対応する領域をセグメンテーションするセグメンテーションステップと、
    を含む画像処理方法。
  13. セグメンテーション対象の被写体像を有する処理対象画像を取得する画像取得ステップと、
    第1の機械学習により学習した前記被写体像の特徴を、前記第1の機械学習により学習した態様により強調した強調画像を生成する画像特徴検出ステップと、
    前記強調画像および前記処理対象画像に基づいて、第2の機械学習により学習した態様により、前記被写体像に対応する領域をセグメンテーションするセグメンテーションステップと、
    を含む画像処理工程をコンピュータに実行させるプログラム。
JP2018015432A 2018-01-31 2018-01-31 画像処理装置、画像処理方法、およびプログラム Active JP6872502B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018015432A JP6872502B2 (ja) 2018-01-31 2018-01-31 画像処理装置、画像処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018015432A JP6872502B2 (ja) 2018-01-31 2018-01-31 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2019133433A true JP2019133433A (ja) 2019-08-08
JP6872502B2 JP6872502B2 (ja) 2021-05-19

Family

ID=67546221

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018015432A Active JP6872502B2 (ja) 2018-01-31 2018-01-31 画像処理装置、画像処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP6872502B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021033580A (ja) * 2019-08-22 2021-03-01 株式会社Ye Digital 物体検知方法、物体検知装置および物体検知プログラム
JP7344620B1 (ja) 2022-07-22 2023-09-14 株式会社 Sai 建屋内構造物認識システム及び建屋内構造物認識方法
CN117152187A (zh) * 2023-10-30 2023-12-01 山东中科冶金矿山机械有限公司 一种地质测绘中裂缝轮廓提取方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140283A (ja) * 2007-12-07 2009-06-25 Sony Corp 学習装置および方法、認識装置および方法、並びにプログラム
JP2013114611A (ja) * 2011-11-30 2013-06-10 Canon Inc 被写体検出装置、被写体検出方法及びプログラム
US20170287137A1 (en) * 2016-03-31 2017-10-05 Adobe Systems Incorporated Utilizing deep learning for boundary-aware image segmentation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140283A (ja) * 2007-12-07 2009-06-25 Sony Corp 学習装置および方法、認識装置および方法、並びにプログラム
JP2013114611A (ja) * 2011-11-30 2013-06-10 Canon Inc 被写体検出装置、被写体検出方法及びプログラム
US20170287137A1 (en) * 2016-03-31 2017-10-05 Adobe Systems Incorporated Utilizing deep learning for boundary-aware image segmentation

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021033580A (ja) * 2019-08-22 2021-03-01 株式会社Ye Digital 物体検知方法、物体検知装置および物体検知プログラム
JP7344620B1 (ja) 2022-07-22 2023-09-14 株式会社 Sai 建屋内構造物認識システム及び建屋内構造物認識方法
WO2024018642A1 (ja) * 2022-07-22 2024-01-25 株式会社 Sai 建屋内構造物認識システム及び建屋内構造物認識方法
CN117152187A (zh) * 2023-10-30 2023-12-01 山东中科冶金矿山机械有限公司 一种地质测绘中裂缝轮廓提取方法
CN117152187B (zh) * 2023-10-30 2024-01-26 山东中科冶金矿山机械有限公司 一种地质测绘中裂缝轮廓提取方法

Also Published As

Publication number Publication date
JP6872502B2 (ja) 2021-05-19

Similar Documents

Publication Publication Date Title
CN110678901B (zh) 信息处理设备、信息处理方法和计算机可读存储介质
KR101932009B1 (ko) 다중 객체 검출을 위한 영상 처리 장치 및 방법
US10740912B2 (en) Detection of humans in images using depth information
WO2022041830A1 (zh) 行人重识别方法和装置
WO2019167453A1 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6497579B2 (ja) 画像合成システム、画像合成方法、画像合成プログラム
JP6135283B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
US20210272272A1 (en) Inspection support apparatus, inspection support method, and inspection support program for concrete structure
JP6872502B2 (ja) 画像処理装置、画像処理方法、およびプログラム
KR102199094B1 (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
Hasan et al. Skin lesion segmentation by using deep learning techniques
TWI743837B (zh) 訓練資料增量方法、電子裝置與電腦可讀取記錄媒體
CN110276831B (zh) 三维模型的建构方法和装置、设备、计算机可读存储介质
CN112101386B (zh) 文本检测方法、装置、计算机设备和存储介质
CN111696196A (zh) 一种三维人脸模型重建方法及装置
Jin et al. Adaptive propagation-based color-sampling for alpha matting
JP6819445B2 (ja) 情報処理装置、制御方法、及びプログラム
Deshmukh et al. Fine object detection in automated solar panel layout generation
CN110991412A (zh) 人脸识别的方法、装置、存储介质及电子设备
CN113221842A (zh) 模型训练方法、图像识别方法、装置、设备及介质
CN113284066A (zh) 遥感影像自动云检测方法和装置
JP6963038B2 (ja) 画像処理装置および画像処理方法
KR102150661B1 (ko) 객체를 검출하기 위한 전처리 장치 및 방법
CN103208013B (zh) 一种基于图像噪声分析的照片来源识别方法
An et al. HFT6D: Multimodal 6D object pose estimation based on hierarchical feature transformer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R150 Certificate of patent or registration of utility model

Ref document number: 6872502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250