JP2021174182A - 画素レベル対象物検出システムおよびそのプログラム - Google Patents

画素レベル対象物検出システムおよびそのプログラム Download PDF

Info

Publication number
JP2021174182A
JP2021174182A JP2020076486A JP2020076486A JP2021174182A JP 2021174182 A JP2021174182 A JP 2021174182A JP 2020076486 A JP2020076486 A JP 2020076486A JP 2020076486 A JP2020076486 A JP 2020076486A JP 2021174182 A JP2021174182 A JP 2021174182A
Authority
JP
Japan
Prior art keywords
unit
pixel
detection
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020076486A
Other languages
English (en)
Other versions
JP2021174182A5 (ja
Inventor
祐貴 井上
Suketaka Inoue
洋登 永吉
Hirotaka Nagayoshi
真人 仲村柄
Masato Nakamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2020076486A priority Critical patent/JP2021174182A/ja
Priority to SG10202103778XA priority patent/SG10202103778XA/en
Priority to US17/229,980 priority patent/US11995835B2/en
Priority to PH12021050171A priority patent/PH12021050171A1/en
Publication of JP2021174182A publication Critical patent/JP2021174182A/ja
Publication of JP2021174182A5 publication Critical patent/JP2021174182A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

【課題】画素レベルの対象物検出手法に関して、学習データ作成時に詳細情報の付与を行わなくても、推論精度の低下を抑えることができる技術を提供する。【解決手段】画素レベルで対象物の検出を行う画素レベル対象物検出システムであって、検出対象を写した画像である推論用画像を収集する撮影部1と、前記推論用画像から、検出対象を含む領域を検出する領域検出部8と、前記推論用画像から、局所的情報のみを用い検出対象を検出する詳細検出部2と、前記領域検出部の出力と、前記詳細検出部の出力とを統合して、画像内のいずれの画素が検出対象物と対応するかを確率マップとして示すセグメンテーションマップを出力する結果統合処理部3と、を有する。【選択図】図1

Description

本発明は、画素レベルで対象物の検出を行う画素レベル対象物検出技術に関するものである。
近年、コンピュータビジョンを用いた画像からの物体認識が様々なサービスに適用されている。その中でも、セマンティックセグメンテーションと呼ばれる、画像を構成する各画素に対してそれがどの物体に帰属するかを認識する問題設定は、出力情報量が多いため多数の場面で用いられる。しかし、画素レベルで認識を行うためには認識器に画素レベルで正解・不正解を教示させる必要があり、学習に必要なコストが高い傾向がある。従って、認識器の精度を高く維持しながら、学習データを低工数で作成させたいというニーズが増加している。
上記に係わる先行技術例として、特開2019−66265号公報(特許文献1)や特開2017−219314号公報(特許文献2)が挙げられる。どちらの特許文献においても、まずフィルタ処理などで対象画素をリストアップした後、対象画素間で空間的に隣接するものを対象領域として定義し、各対象領域ごとにそれが真の対象領域であるか判断する旨等が記載されている。
特開2019−66265号公報 特開2017−219314号公報
特許文献1、2では、対象候補領域ごとに真の対象領域であるかの判断を行うため、対象候補領域自体の洗練化・改善を行うことはできない。これは、対象画素と対象ではない画素が混在するような対象候補領域に対し候補領域自体を改善できないという意味である。そのため、前述特許文献のシステムでは、高精度なセマンティックセグメンテーションを行うために、対象候補領域を出力する認識器が高精度である必要があるということである。従って、前記特許文献のシステムでは学習データの数を減少することは可能であるとしても、学習データ自体の質を落とし学習データ作成のコストを低減させることは対象候補領域を出力する認識器の低精度化に繋がるため、システム全体の低精度化に直結し、課題となっている。
本発明の目的は、画素レベルの対象物検出手法に関して、学習データ作成時に詳細情報の付与を行わなくても、推論精度の低下を抑えることができる技術を提供することである。
上記課題を解決するための「画素レベル対象物検出システム」の一例を挙げるならば、
画素レベルで対象物の検出を行う画素レベル対象物検出システムであって、検出対象を写した画像である推論用画像を収集する撮影部と、前記推論用画像から、検出対象を含む領域を検出する領域検出部と、前記推論用画像から、局所的情報のみを用い検出対象を検出する詳細検出部と、前記領域検出部の出力と、前記詳細検出部の出力とを統合して、画像内のいずれの画素が検出対象物と対応するかを確率マップとして示すセグメンテーションマップを出力する結果統合処理部と、を有するものである。
本発明によれば、画素レベルの対象物検出技術に関して、学習データ作成時に詳細情報の付与を行わなくても、推論精度の低下を抑えることができる。
本発明の実施例1における画素レベル対象物検出システムの構成を示す図である。 詳細検出部の構成および他部との関係を示す図である。 画素完全指定型アノテーション方法の一例を示す図である。 領域指定型アノテーション方法の一例を示す図である。 学習データベースに蓄積されるデータ構成の一例を示す図である。 結果統合処理部の構成および他部との関係を示す図である。 局所検出マップの一例を示す図である。 領域検出マップの一例を示す図である。 セグメンテーションマップの一例を示す図である。 GUI部の構成および他部との関係を示す図である。 GUI画面の表示例を示す図である。 実施例2における画素レベル対象物検出システムの構成を示す図である。 実施例3のGUI部の構成および他部との関係を示す図である。 実施例3におけるGUI画面の表示例を示す図である。 実施例4のGUI部の構成および他部との関係を示す図である。 実施例4におけるGUI画面の表示例を示す図である。 実施例5における画素レベル対象物検出システムの構成を示す図である。 実施例5における学習データ作成部の構成および他部との関係を示す図である。
以下、図面を参照して本発明の実施形態を説明する。以下の記載および図面は、本発明を説明するための例示であって、説明の明確化のため、適宜、省略および簡略化がなされている。本発明は、他の種々の形態でも実施することが可能である。特に限定しない限り、各構成要素は単数でも複数でも構わない。
以下の説明では、「テーブル」、「リスト」等の表現にて各種情報を説明することがあるが、各種情報は、これら以外のデータ構造で表現されていてもよい。データ構造に依存しないことを示すために「XXテーブル」、「XXリスト」等を「XX情報」と呼ぶことがある。識別情報について説明する際に、「識別情報」、「識別子」、「名」、「ID」、「番号」等の表現を用いるが、これらについてはお互いに置換が可能である。
実施形態を説明するための各図において、同一の構成要素には同一の名称、符号を付して、その繰り返しの説明を省略することがある。
本発明の実施例1の画素レベル対象物検出システムを図面に基づいて詳細に説明する。図1は、画素レベル対象物検出システムの全体像を示すシステム構成図である。
画素レベル対象物検出システムは、対象物を写した2D(2次元)画像(推論用画像:元画像)を収集する撮影部1と、事前に収集した2D画像群(学習用画像)において、画素が対象物に対応しているかどうかの情報(正解データ)を作成する学習データ入力部6と、作成した学習データを付随情報と共に蓄積する学習データベース(DB:Data Base)7と、蓄積された学習データと付随情報をもとに、元画像において対象物に対応する画素領域(領域検出マップ)を検出する領域検出部8と、蓄積された学習データを使わずに元画像から局所的な検出情報(局所検出マップ)を出力する詳細検出部2と、詳細検出部2の出力である局所検出マップと、領域検出部8の出力である領域検出マップを統合し、画像内のどの画素が検出対象物と対応するかを確率マップ(セグメンテーションマップ)として出力する結果統合処理部3と、出力されたセグメンテーションマップを可視化するグラフィカル・ユーザ・インターフェース(GUI)部5と、からなる。
詳細検出部2の詳細は図2で、結果統合処理部3の詳細は図5で、GUI部5の詳細は図7で、学習DB7の詳細は図4を用いてそれぞれ後述する。
撮影部1は、検出対象物を撮影して2D(2次元)画像である推論用画像(元画像)を出力する、例えばカメラなどである。
図2に、詳細検出部2の構成および他部との関係を示す。詳細検出部2では、撮影部1から推論用画像を入力として受け取り、局所的情報である少数画素毎、例えば1画素毎に検出対象を検出し、出力部20から局所検出マップを出力する。検出処理を行う画素の数は、1画素に限らず、狭い領域の複数の画素毎でもよい。
詳細検出部2の局所検出マップの作成方法は2段階である。まず前段で1画素毎に、或いは少数の画素毎に既存のフィルタ処理である鮮明化フィルタ処理やヒストグラム平坦化などを行う(前処理機能200)。そして、後段でそれぞれの画素の明度を計算する(画素明度計算機能201)、または、予め設定した画素からの各画素の距離、例えば色の距離を計算する(参考画素距離計算機能202)。そして、出力部20より、得られた結果を局所検出マップとして出力する。
図1の学習データ入力部6は、事前に収集した2D画像群(学習用画像)を入力する学習用画像入力部60を備え、各学習用画像を構成する画素が対象物に対応しているかどうかの情報(正解データ)を入力する正解データ入力部61を備える。また、学習用画像と正解データのペアの集合を学習データとして出力する。
図3Aおよび3Bは、正解データ入力部61の出力例を示している。図3Aの画素完全指定型アノテーション例5001では、真に対象物体に対応する画素が過不足なくアノテーションされている。これに対し、図3Bの領域指定型アノテーション例5002では、対象物体に対応しない画素もアノテーションされている。ここで、アノテーションとは、一般に、元画像から教師データを作成することをいう。従来の構成では学習データに詳細情報を含める必要があったため、画素完全指定型アノテーション5001のように過不足なくアノテーションを行わなければならなかったが、本発明の構成においては学習データを使用しない詳細検出部2により詳細情報を策定するため、詳細情報を含めない領域指定型アノテーション5002のような正解データでも高精度に対象物を検出することが可能となる。したがって、本発明では完全指定型アノテーション5001、領域指定型アノテーション5002のどちらの手法でアノテーションされた正解データを入力として用いても良い。
図1の領域検出部8では、撮影部1からの推論用画像を入力し、推論用画像に含まれる各画素が対象物に対応する確率を出力し、推論確率と画素値が比例する画像(領域検出マップ)を作成する。そして、領域検出部8は、領域検出マップを出力とする。領域検出部8では、詳細検出部2で検出処理する画素数よりも多い、広い領域の画素を基に検出対象を含む領域の検出処理を行ってもよい。
領域検出マップを作成する際に判断材料として用いるデータは、学習DB7に蓄積された学習データである。学習DB7の詳細については図4を用いて後述する。学習DB7の参照方法は領域検出部8の形態に依存し、例えば領域検出部8が機械学習モデル等のモデルパラメータ(出力計算時に用いられる値群)を使用するものであれば事前に学習データを用いてパラメータ調整を行っても良い。また、例えば領域検出部8が最近傍法等モデルパラメータを保持せず、推論時に学習データを参照するものであれば推論時に適宜学習DB7を参照しても良い。
領域検出部8は、学習部81と推論部80から構成されており、学習部81は、学習DB7に蓄積された学習データを用いて機械学習等を行う。そして、推論部80は、学習結果を用いて、撮影部から入力した推論用画像から領域検出マップを推論する。
図4に、学習DB7に蓄積されるデータ構成の一例を示す。学習DB7に蓄積されるデータは、学習データ入力部6から提供される情報から構成されており、画像ID、検出対象物を示す対象物ID、学習用画像、画像サイズ、カメラ画角、対象物距離などのデータが含まれる。それらの情報に加え、学習データ入力部6が出力する、各画素が対象物に対応しているかを示した画像である正解データも蓄積する。さらに、実施例5の場合は、後述する学習データ作成部11が出力した詳細化済み正解データなどのデータも蓄積する。
図5に、結果統合処理部3の構成および他部との関係を示す。結果統合処理部3では、詳細検出部2から局所検出マップを、また領域検出部8から領域検出マップを入力として受け取る。そして、これらの入力を統合して、出力部30からセグメンテーションマップを出力する。
本発明における結果統合処理部3のセグメンテーションマップ作成方法とは、次の何れかの方法である。
1.後述するGUI部5の重み付き合成割合設定機能506等により設定された0以上1以下の重み数値に基づき局所検出マップと領域検出マップを重み付き合成する重み付き統合機能300。ここにおける重み付き合成とは、局所検出マップの画素値に重み数値を乗算し、領域検出マップの画素値に(1−重み数値)を乗算し、2つの結果を加算することである。
2.局所検出マップ、領域検出マップどちらかまたは両方に対し設定した閾値を用いて閾値処理を行い、結果をマスク処理を用い統合するマスク統合機能301。
図6A〜6Cは、局所検出マップ、領域検出マップ、セグメンテーションマップの一例を示す図である。図6Cのセグメンテーションマップ例5013は、図6Aの局所検出マップ例5011と図6Bの領域検出マップ例5012を構成する画素の内、どちらのマップ内でも検出物確率が高い画素を出力している。ただし、図中のマップは簡単のため二値化されているが、実際には確率値であり実数値である。また、図中のマップは二値化された入力に対しマスク処理を行う場合を図示しているが、前述した通り実際の結果統合処理部3の処理はマスク処理に限らない。
図6Aの局所検出マップでは、少数画素毎、例えば1画素毎に検出対象の検出処理を行っているため、ノイズなどにより検出対象物以外の画素も検出している。図6Bの領域検出マップでは、詳細検出部2で検出処理する画素数よりも多い、広い領域の画素を基に対象物の検出処理を行っているため、検出対象物を含む広い領域を検出するとともに、小領域のノイズなどは検出されない。図6Cのセグメンテーションマップでは、図6Aの局所検出マップと図6Bの領域検出マップを合わせることにより、検出対象物のみを検出することができる。
図7に、GUI部5の構成および他部との関係を示す。GUI部5では、撮影部1から出力される推論用画像に加え、結果統合処理部3から出力されるセグメンテーションマップを入力として受け取る。GUI部5はGUI(Graphical User Interface)の形式をとり、GUIを操作する者(ユーザ)が効率的に検出結果を閲覧できるために、次に述べる機能を備える。
(1)入力したセグメンテーションマップを編集するセグメンテーションマップ編集機能500。
(2)セグメンテーションマップにより定義される、各画素が対象物と対応している確率を多階調画像として表示するセグメンテーションマップ多階調表示機能501。
(3)ユーザがセグメンテーションマップ閾値設定機能507から指定する閾値により、セグメンテーションマップを閾値処理する閾値処理機能508。
(4)元画像のRGB情報、またはセグメンテーションマップで定義される確率情報をもとに、類似する画素を一括に選択することを可能とする類似領域選択機能502。
(5)ユーザの操作により表示画像の一部領域を拡大表示するズーム機能503。
(6)領域検出部8の処理フローを変更するための領域検出部種類選択機能504。
(7)詳細検出部2の処理フローを変更するための詳細検出部種類選択機能505。
(8)先に述べた合成重み数値を設定する重み付き合成割合設定機能506。
図8に、GUI部5で可視化したGUI画面の一例を示す。まず、GUI画面は、部品527で表されるような推論用画像(元画像)と、部品522で表されるような対象物確率と画素値を比例させることにより各画素の「対象物らしさ」を可視化するセグメンテーションマップ多階調表示画像、そして部品523で表されるような多階調画像を閾値処理した閾値処理画像を表示する。
画像化の方法はユーザ入力により切り替え可能である。対象構造物のIDや、元画像のIDなど画像のメタ情報や、前記機能群500−508の情報は部品524にて表示される。また、前記閾値処理機能508で言及したユーザ定義の対象物確立閾値は部品525により定義され、前記重み付き合成割合設定機能506で言及した合成重み数値は部品526により定義される。また、領域検出部種類選択機能504で選択した領域検出部8の処理フロー、詳細検出部種類選択機能505で選択した詳細検出部2の処理フローは部品520、部品521により定義される。
上述したGUI部の構成及び機能を用いることにより、ユーザはセグメンテーションマップの出力を閲覧し、適宜編集、各種パラメータを変更し、また検出部の処理フローを変更し、結果を解析・洗練化させる。
本実施例によれば、詳細検出部で、推論用画像から局所的情報のみを用いて検出対象を検出した局所検出マップを求め、領域検出部で、学習データに基づく推論により、推論用画像から検出対象を含む領域を検出した領域検出マップを求め、結果統合処理部で、詳細検出部で求めた局所検出マップと領域検出部で求めた領域検出マップとを統合し、画像内のいずれの画素が検出対象物と対応するかを確率マップとして示したセグメンテーションマップを出力するようにしたので、学習データ作成時に詳細情報の付与を行わなくても、対象物検出システムの推論精度の低下を抑えることができる。そして、従来のような画像内の全画素に対し正解を付与する画素完全指定型アノテーションではなく、画像内の対象物の大まかな領域を正解として付与する領域指定型アノテーションを用いても検出精度の低下を抑えることができるようになり、学習データ作成のコストを低減化させることができる。
以下、本発明の実施例2を図面に基づいて詳細に説明する。図9は、本発明の実施例2における画素レベル対象物検出システムの構成を示す図である。
本実施例は実施例1に基づき構成され、変更点として本実施例には、入力画像のサイズを縮小する画像縮小部9、また入力画像のサイズを拡大する画像拡大部10が追加される。撮影部1からの推論用画像は、画像縮小部9により画像サイズを縮小して領域検出部8に送られる。また、領域検出部8からの領域検出マップは、画像拡大部10により画像サイズを拡大して結果統合処理部3へ送られる。これらの構成部を追加することにより領域検出部8が処理しなければならない画素数が減少し、計算処理に必要な時間を削減することが可能となる。また、画像拡大部10が出力する領域検出マップは推論画像サイズの縮小・拡大の影響により画像サイズ変更をしない場合と比較し粗くなるが、詳細検出部2から詳細情報が補完されるため低精度化を抑えることができる。
本実施例によれば、入力画像のサイズを拡小する画像縮小部9を設けることにより、領域検出部8が処理しなければならない画素数が減少し、計算処理に必要な時間を削減することができる。
以下、本発明の実施例3を図面に基づいて詳細に説明する。実施例3では、推論用画像として建物や道路などの人工構造物を想定し、出力されるセグメンテーションマップはひび、さび、塗装はげなど画素単位の劣化確率を表す構造物劣化検出システムとする。
図10は、実施例3におけるGUI部5の構成および他部との関係を示す図である。GUI部5では、撮影部1から出力される推論用画像に加え、結果統合処理部3から出力されるセグメンテーションマップを入力として受け取る。GUI部5はGUIの形式をとり、GUIを操作する者(ユーザ)が効率的に検出結果を閲覧できるよう、次に述べる機能を備える。
実施例1の図7と同様に、前記GUIには、セグメンテーションマップにより定義される、各画素が対象物と対応している確率を多階調画像として表示するセグメンテーションマップ多階調表示機能501を備え、また、ユーザがセグメンテーションマップ閾値設定機能507から指定する閾値によりセグメンテーションマップを閾値処理する、閾値処理機能508も備える。また、元画像のRGB情報、またはセグメンテーションマップで定義される確率情報をもとに、類似する画素を一括に選択することを可能とする類似領域選択機能502も備える。また、ユーザの操作により表示画像の一部領域を拡大表示するズーム機能503も備える。また、領域検出部8の処理フローを変更するための領域検出部種類選択機能504に加え、詳細検出部2の処理フローを変更するための詳細検出部種類選択機能505も備える。また、入力したセグメンテーションマップを編集するセグメンテーションマップ編集機能500や、先に述べた重み付き合成割合設定機能506を備える。
更に、実施例3におけるGUI部5は、特に、検出結果の内、同劣化種類でありなおかつ隣接する画素を領域として定義(検出領域)した際に、領域の面積があらかじめ設定した閾値よりも小さい物を除去する小領域除去機能509を備える。この機能は、例えば建築物の強度に大きく影響しない微細なひびなどは表示しないようにするものである。また、検出領域の形状が直線である場合にそれを除去する直線検出除去機能510を備える。この機能は、直線状のひびは無いと考えられるため、表示しないようにするものである。
実施例3におけるGUI部5をGUIとして可視化した画面の詳細を、図11に示す。まず、GUIは、部品539で表されるような推論用画像と、部品532で表されるような構造物劣化確率と画素値を比例させることにより各画素の「劣化らしさ」を可視化するセグメンテーションマップ多階調表示画像と、そして部品533で表されるような多階調画像を閾値処理した閾値処理画像を表示する。画像化の方法はユーザ入力により切り替え可能である。対象構造物のIDや、元画像のIDなど画像のメタ情報や、前記機能群500−508の情報は部品534にて表示される。また、前記閾値処理機能508で言及したユーザ定義の劣化確率閾値は部品536により定義され、前記重み付き合成割合設定機能506で言及した合成重み数値は部品538により定義される。また、領域検出部8の処理フローは部品530により、詳細検出部の処理フローは部品531により定義される。
更に、前記小領域除去機能509で用いる領域サイズ閾値は部品537により定義され、前記直線除去機能510の直線除去処理を行うかどうかは部品535により定義される。
図11のGUI画面において、小領域除去機能509および直線除去機能510を用いることにより、閾値処理画像533では、セグメンテーションマップ多階調表示画像532の小領域および直線が除去されている。
本実施例によれば、構造物劣化検出システムに用いた場合に、ひび、さび、塗装はげなどの構造物の劣化を良好に検出することができる。
以下、本発明の実施例4を図面に基づいて詳細に説明する。実施例4では、推論用画像としてトマトやキュウリなどの農作物を想定し、出力されるセグメンテーションマップは対象農作物の画素単位の存在確率、また成長度合いを表す農作物検出システムとする。
図12は、実施例4におけるGUI部5の構成および他部との関係を示す図である。GUI部5では、撮影部1から出力される推論用画像に加え、結果統合処理部3から出力されるセグメンテーションマップを入力として受け取る。GUI部5はGUIの形式をとり、GUIを操作する者(ユーザ)が効率的に検出結果を閲覧できるよう、次に述べる機能を備える。
実施例1の図7と同様に、前記GUIには、セグメンテーションマップにより定義される、各画素が対象物と対応している確率を多階調画像として表示するセグメンテーションマップ多階調表示機能501を備え、また、ユーザがセグメンテーションマップ閾値設定機能507から指定する閾値によりセグメンテーションマップを閾値処理する、閾値処理機能508も備える。また、元画像のRGB情報、またはセグメンテーションマップで定義される確率情報をもとに、類似する画素を一括に選択することを可能とする類似領域選択機能502も備える。また、ユーザの操作により表示画像の一部領域を拡大表示するズーム機能503も備える。また、領域検出部8の処理フローを変更するための領域検出部種類選択機能504に加え、詳細検出部2の処理フローを変更するための詳細検出部種類選択機能505も備える。また、入力したセグメンテーションマップを編集するセグメンテーションマップ編集機能500や、先に述べた重み付き合成割合設定機能506を備える。
更に、実施例4におけるGUI部5は、特に、検出結果の内、成長度合いが未熟である農作物を検出結果から除去する成長度閾値処理機能511を備える。
実施例4におけるGUI部5をGUIとして可視化した画面の詳細を図13に示す。まず、GUI画面は、部品548で表されるような推論用画像(元画像)と、部品542で表されるような農産物確率と画素値を比例させることにより各画素の「農作物らしさ」を可視化するセグメンテーションマップ多階調表示画像、そして部品543で表されるような多階調画像を閾値処理した閾値処理画像を表示する。
画像化の方法はユーザ入力により切り替え可能である。対象農作物のIDや、元画像のIDなど画像のメタ情報や、前記機能群500−508の情報は部品544にて表示される。また、前記閾値処理機能508で言及したユーザ定義の対象物確率閾値は部品545により定義され、前記重み付き合成割合設定機能506で言及した合成重み数値は部品547により定義される。また、領域検出部8の処理フローは部品540により、詳細検出部の処理フローは部品541により定義される。
更に、前記成長度閾値処理機能511で用いる成長度閾値は部品546により定義される。
図13のGUI画面において、成長度閾値処理機能511を用いることにより、閾値処理画像543では、成長した農産物であるリンゴの画像が表示されている。閾値以下の未熟なリンゴは表示されることがない。
本実施例によれば、農産物検出システムに用いた場合に、成長した農産物を良好に検出することができる。
以下、本発明の実施例5を図面に基づいて詳細に説明する。図14は、本発明の実施例5における画素レベル対象物検出システムの構成を示す図である。本実施例は実施例1に基づき構成され、変更点として学習データ入力部6の出力を学習DB7に入力する前に処理を行う学習データ作成部11が追加されている。
図15に、実施例5における学習データ作成部11の構成および他部との関係を示す。
学習データ作成部11は、学習用画像入力部60からの入力に対し第2の詳細検出部200を適用した出力と、正解データ入力部61からの入力を、第2の結果統合処理部300を用い統合することにより、正解データに詳細情報を付与する。第2の詳細検出部200および第2の結果統合処理部300の動作は、実施例1の詳細検出部2および結果統合処理部3の動作と同様である。第2の結果統合処理部300の出力は詳細化済み正解データとして学習DB7へ出力される。
また、本実施例では学習データ作成部11が処理をしていない正解データ入力部61の出力も学習DB7へ出力する。
本実施例によれば、第2の詳細検出部200で、学習用画像から局所的情報のみを用いて検出対象を検出し、第2の結果統合処理部300で、第2の詳細検出部200で求めた局所検出結果と正解データ入力部61で入力された正解データとを統合して学習データを作成するようにしたので、正解データの入力で画像内の対象物の大まかな領域を正解として付与する領域指定型アノテーションを用いても検出精度の低下を抑えることができるようになり、学習データ作成コストを低減化させることが出来る。
本発明におけるプログラムの発明は、コンピュータに組み込まれ、コンピュータを画素レベル対象物検出システムとして動作させるプログラムである。本発明のプログラムをコンピュータに組み込むことにより、図1などのブロック図に示される画素レベル対象物検出システムが構成される。
プログラムは、プロセッサ(例えばCPU、GPU)によって実行されることで、定められた処理を、適宜に記憶資源(例えばメモリ)および/またはインターフェースデバイス(例えば通信ポート)等を用いながら行うため、処理の主体がプロセッサとされてもよい。同様に、プログラムを実行して行う処理の主体が、プロセッサを有するコンピュータ、コントローラ、装置、システム、計算機、ノードであってもよい。プログラムを実行して行う処理の主体は、演算部であれば良く、特定の処理を行う専用回路(例えばFPGAやASIC)を含んでいてもよい。
プログラムは、プログラムソースから計算機のような装置にインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバまたは計算機が読み取り可能な記憶メディアであってもよい。プログラムソースがプログラム配布サーバの場合、プログラム配布サーバはプロセッサと配布対象のプログラムを記憶する記憶資源を含み、プログラム配布サーバのプロセッサが配布対象のプログラムを他の計算機に配布してもよい。また、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。
以上、本発明を実施例に基づき具体的に説明したが、本発明は前述の実施例に限定されず、その要旨を逸脱しない範囲で種々変更可能である。
1…撮影部、2…詳細検出部、3…結果統合処理部、5…GUI部、6…学習データ入力部、7…学習DB、8…領域検出部、9…画像縮縮小部、10…画像拡大部、11…学習データ作成部、60…学習用画像入力部、61…正解データ入力部、80…推論部、81…学習部、200…詳細検出部、300…結果統合処理部。

Claims (14)

  1. 画素レベルで対象物の検出を行う画素レベル対象物検出システムであって、
    検出対象を写した画像である推論用画像を収集する撮影部と、
    前記推論用画像から、検出対象を含む領域を検出する領域検出部と、
    前記推論用画像から、局所的情報のみを用い検出対象を検出する詳細検出部と、
    前記領域検出部の出力と、前記詳細検出部の出力とを統合して、画像内のいずれの画素が検出対象物と対応するかを確率マップとして示すセグメンテーションマップを出力する結果統合処理部と、
    を有する画素レベル対象物検出システム。
  2. 請求項1に記載の画素レベル対象物検出システムであって、
    前記詳細検出部は、1画素或いは少数画素を用いて検出対象を検出し、
    前記領域検出部は、前記詳細検出部が用いる画素よりも多い画素を用いて検出対象を含む領域を検出する
    ことを特徴とする画素レベル対象物検出システム。
  3. 請求項1に記載の画素レベル対象物検出システムであって、さらに、
    事前に収集した画像群である学習用画像と、画素が対象物に対応しているかどうかの情報を含む正解データのペアの集合である学習データを出力する学習データ入力部と、
    前記学習データを保持する学習データベースと、を有し、
    前記領域検出部は、
    その学習部が、前記学習データベースの前記学習データを用いて、機械学習によって対象物に対応する画素を推論する推論部を生成し、前記推論部が、前記推論用画像から検出対象を含む領域を検出する処理を実行する、
    ことを特徴とする画素レベル対象物検出システム
  4. 請求項3に記載の画素レベル対象物検出システムであって、さらに、
    学習データを作成する学習データ作成部を有し、
    前記学習データ作成部は、
    前記学習用画像から、局所的情報のみを用い検出対象を検出する第2の詳細検出部と、
    前記第2の詳細検出部で求めた局所検出結果と正解データ入力部で入力された正解データとを統合する第2の結果統合処理部と、を有し、
    前記正解データを詳細化することを特徴とする画素レベル対象物検出システム。
  5. 請求項1に記載の画素レベル対象物検出システムであって、
    前記詳細検出部は、
    フィルタ処理などの前処理を行う前処理機能、
    推論画像に含まれる画素の明度を計算する画素明度計算機能、
    任意の画素値と推論用画像の各画素値との距離を計算する画素距離計算機能、
    の少なくとも何れかを備えることを特徴とする画素レベル対象物検出システム。
  6. 請求項1に記載の画素レベル対象物検出システムであって、さらに、
    前記撮影部が出力する推論用画像の解像度を縮小し前記領域検出部に入力する画像縮小部と、
    前記領域検出部から出力された領域検出マップを拡大する画像拡大部と、
    を有することを特徴とする画素レベル対象物検出システム。
  7. 請求項1に記載の画素レベル対象物検出システムであって、
    セグメンテーションマップ出力を画面に表示するGUI部を有し、
    前記GUI部は、
    前記画面においてセグメンテーションマップ出力を結果統合処理部から出力される対象物確率値をもとに色付けされた多階調画像として表示する処理と、
    前記画面において画面の一部を拡大する処理と、
    前記画面において同対象物と判断され、さらに隣接する画素群を一括で選択可能である類似領域選択処理と、
    前記画面においてセグメンテーション出力を対象物推定確率値をもとに閾値処理を行う処理と、
    前記セグメンテーションマップを編集する処理と、
    の少なくとも何れかを行うことを特徴とする画素レベル対象物検出システム。
  8. 請求項1に記載の画素レベル対象物検出システムであって、
    セグメンテーションマップ出力を画面に表示するGUI部を有し、
    前記GUI部は、
    前記閾値処理に必要な閾値を設定する第一部品、
    領域検出部の種類を設定する第二部品、
    詳細検出部の種類を設定する第三部品、
    結果統合処理部が局所検出マップと領域検出マップを統合する際に必要である閾値を設定する第四部品、
    の少なくとも何れかを表示することを特徴とする画素レベル対象物検出システム。
  9. 請求項1に記載の画素レベル対象物検出システムであって、
    前記結果統合処理部は、セグメンテーションマップとして構造物劣化度を出力し、
    前記セグメンテーションマップを画面に表示するGUI部を有し、
    前記GUI部は、
    閾値処理した検出結果の内、同対象物だと判断され、さらに隣接する画素群の領域サイズが小さい物を除去可能な機能と、
    閾値処理した検出領域の形状が直線である場合にそれを除去する直線除去機能と、
    を備えることを特徴とする画素レベル対象物検出システム。
  10. 請求項1に記載の画素レベル対象物検出システムであって、
    前記結果統合処理部は、セグメンテーションマップとして農作物の成長度確率を出力し、
    前記セグメンテーションマップを画面に表示するGUI部を有し、
    前記GUI部は、
    閾値処理した検出結果の内、成長度が遅い段階の農作物を除去する機能
    を備えることを特徴とする画素レベル対象物検出システム。
  11. コンピュータを、
    推論用画像から、検出対象を含む領域を検出する領域検出部と、
    前記推論用画像から、局所的情報のみを用い検出対象を検出する詳細検出部と、
    前記領域検出部の出力と、前記詳細検出部の出力とを統合して、画像内のいずれの画素が検出対象物と対応するかを確率マップとして示すセグメンテーションマップを出力する結果統合処理部と、
    を有する画素レベル対象物検出システムとして機能させるためのプログラム。
  12. 請求項11に記載のプログラムであって、
    前記領域検出部は、その学習部が、学習データベースの学習データを用いて、機械学習によって対象物に対応する画素を推論する推論部を生成し、前記推論部が、前記推論用画像から検出対象を含む領域を検出する処理を実行するものである、
    画素レベル対象物検出システムとして機能させるためのプログラム。
  13. 請求項12に記載のプログラムであって、さらに、
    学習用画像から、局所的情報のみを用い検出対象を検出する第2の詳細検出部と、前記第2の詳細検出部で求めた局所検出結果と正解データ入力部で入力された正解データとを統合する第2の結果統合処理部と、を有し、前記正解データを詳細化する学習データ作成部を含む
    画素レベル対象物検出システムとして機能させるためのプログラム。
  14. 請求項11に記載のプログラムであって、さらに、
    前記推論用画像の解像度を縮小し前記領域検出部に入力する画像縮小部と、
    前記領域検出部から出力された領域検出マップを拡大する画像拡大部と、
    を含む画素レベル対象物検出システムとして機能させるためのプログラム。
JP2020076486A 2020-04-23 2020-04-23 画素レベル対象物検出システムおよびそのプログラム Pending JP2021174182A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020076486A JP2021174182A (ja) 2020-04-23 2020-04-23 画素レベル対象物検出システムおよびそのプログラム
SG10202103778XA SG10202103778XA (en) 2020-04-23 2021-04-13 Pixel-level object detection system and program thereof
US17/229,980 US11995835B2 (en) 2020-04-23 2021-04-14 Pixel-level object detection system and program thereof
PH12021050171A PH12021050171A1 (en) 2020-04-23 2021-04-19 Pixel-level object detection system and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020076486A JP2021174182A (ja) 2020-04-23 2020-04-23 画素レベル対象物検出システムおよびそのプログラム

Publications (2)

Publication Number Publication Date
JP2021174182A true JP2021174182A (ja) 2021-11-01
JP2021174182A5 JP2021174182A5 (ja) 2023-03-02

Family

ID=78222551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020076486A Pending JP2021174182A (ja) 2020-04-23 2020-04-23 画素レベル対象物検出システムおよびそのプログラム

Country Status (4)

Country Link
US (1) US11995835B2 (ja)
JP (1) JP2021174182A (ja)
PH (1) PH12021050171A1 (ja)
SG (1) SG10202103778XA (ja)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140210944A1 (en) * 2013-01-30 2014-07-31 Samsung Electronics Co., Ltd. Method and apparatus for converting 2d video to 3d video
JP2016099668A (ja) 2014-11-18 2016-05-30 キヤノン株式会社 学習方法、学習装置、画像認識方法、画像認識装置及びプログラム
US9972092B2 (en) * 2016-03-31 2018-05-15 Adobe Systems Incorporated Utilizing deep learning for boundary-aware image segmentation
JP6333307B2 (ja) 2016-06-02 2018-05-30 日本電信電話株式会社 劣化部位検知装置、劣化部位検知方法およびプログラム
KR101805318B1 (ko) 2016-11-01 2017-12-06 포항공과대학교 산학협력단 텍스트 영역 식별 방법 및 장치
JP2019028887A (ja) 2017-08-02 2019-02-21 国立研究開発法人産業技術総合研究所 画像処理方法
JP6936685B2 (ja) 2017-09-29 2021-09-22 清水建設株式会社 ひび割れ検出装置、ひび割れ検出方法、および、コンピュータプログラム
US10957041B2 (en) * 2018-05-14 2021-03-23 Tempus Labs, Inc. Determining biomarkers from histopathology slide images
JP2020038574A (ja) 2018-09-05 2020-03-12 京セラ株式会社 画像学習プログラム、画像学習方法、画像認識プログラム、画像認識方法、及び画像認識装置
JP2019008830A (ja) 2018-09-19 2019-01-17 株式会社ニコン 被写体検出装置、撮像装置及びプログラム
US10803594B2 (en) * 2018-12-31 2020-10-13 Beijing Didi Infinity Technology And Development Co., Ltd. Method and system of annotation densification for semantic segmentation
CN110176027B (zh) 2019-05-27 2023-03-14 腾讯科技(深圳)有限公司 视频目标跟踪方法、装置、设备及存储介质
CN113239800B (zh) 2021-05-12 2023-07-25 上海善索智能科技有限公司 目标检测方法及目标检测装置

Also Published As

Publication number Publication date
US11995835B2 (en) 2024-05-28
SG10202103778XA (en) 2021-11-29
PH12021050171A1 (en) 2022-01-10
US20210334981A1 (en) 2021-10-28

Similar Documents

Publication Publication Date Title
EP3540637B1 (en) Neural network model training method, device and storage medium for image processing
CN110705583B (zh) 细胞检测模型训练方法、装置、计算机设备及存储介质
Zhou et al. Underwater camera: Improving visual perception via adaptive dark pixel prior and color correction
EP2706507B1 (en) Method and apparatus for generating morphing animation
CN104517110B (zh) 一种二维码图像的二值化方法及系统
CN108021923B (zh) 一种用于深度神经网络的图像特征提取方法
WO2010024265A1 (ja) 画像処理装置および方法、学習装置および方法、並びにプログラム
CN109711268B (zh) 一种人脸图像筛选方法及设备
CN111383232B (zh) 抠图方法、装置、终端设备及计算机可读存储介质
CN111144215B (zh) 图像处理方法、装置、电子设备及存储介质
Fu et al. Twice mixing: A rank learning based quality assessment approach for underwater image enhancement
CN111553923A (zh) 一种图像处理方法、电子设备及计算机可读存储介质
CN109034136A (zh) 图像处理方法、装置、摄像设备及存储介质
CN111222530A (zh) 一种细粒度图像分类方法、系统、装置和存储介质
CN116757988A (zh) 基于语义丰富和分割任务的红外与可见光图像融合方法
CN114359228A (zh) 物体表面缺陷检测方法、装置、计算机设备和存储介质
CN114021704A (zh) 一种ai神经网络模型的训练方法及相关装置
CN117058606A (zh) 一种x射线图像违禁品检测方法
US10194880B2 (en) Body motion display device and body motion display method
JP2021174182A (ja) 画素レベル対象物検出システムおよびそのプログラム
CN111241891B (zh) 一种人脸图像切图方法、装置及计算机可读存储介质
JP2020144686A (ja) モデル作成システム、モデル作成方法
CN116342519A (zh) 一种基于机器学习的图像处理方法
CN114372931A (zh) 一种目标对象虚化方法、装置、存储介质及电子设备
KR20170062661A (ko) 컬러영상에서 Mean-Shift 군집화와 단계별 병합 방법을 이용한 자동 원료 선별 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240313