JP6904614B2 - 対象物検出装置、予測モデル作成装置、対象物検出方法及びプログラム - Google Patents

対象物検出装置、予測モデル作成装置、対象物検出方法及びプログラム Download PDF

Info

Publication number
JP6904614B2
JP6904614B2 JP2019558264A JP2019558264A JP6904614B2 JP 6904614 B2 JP6904614 B2 JP 6904614B2 JP 2019558264 A JP2019558264 A JP 2019558264A JP 2019558264 A JP2019558264 A JP 2019558264A JP 6904614 B2 JP6904614 B2 JP 6904614B2
Authority
JP
Japan
Prior art keywords
image data
learning
still image
unit
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019558264A
Other languages
English (en)
Other versions
JPWO2019111976A1 (ja
Inventor
青木 教之
教之 青木
真則 高岡
真則 高岡
伊藤 哲也
哲也 伊藤
大輝 横田
大輝 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Communication Systems Ltd
Original Assignee
NEC Communication Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Communication Systems Ltd filed Critical NEC Communication Systems Ltd
Publication of JPWO2019111976A1 publication Critical patent/JPWO2019111976A1/ja
Application granted granted Critical
Publication of JP6904614B2 publication Critical patent/JP6904614B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

(関連出願についての記載)
本発明は、日本国特許出願:特願2017−235838号(2017年12月8日出願)の優先権主張に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
本発明は、対象物検出装置、予測モデル作成装置、対象物検出方法及びプログラムに関する。
車両やドローンと呼ばれる無人飛翔体(以下、これらを総称して「移動体」と呼ぶ。)にカメラを搭載し、その撮影画像から施設や設備等を点検することが行われている。特に、位置等が既知である施設や設備(以下、これらを総称して「対象物」と呼ぶ。)の点検においては、移動体を所定のルートで移動させ、その搭載カメラで動画を撮影することで対象物の状態を撮影することが可能となる。このような手法を採ることで、点検担当者は、現地に赴かなくても、動画を見ることで対象物の異常の有無等を確認することができる。
特許文献1に、画像から検出された被写体がデータベースに登録されていない被写体であることをより正確に判別できるという画像認識装置が開示されている。同文献によると、この画像認識装置は、被写体を撮影した画像またはこの画像から得られる当該被写体に関する画像特徴と撮影状態を、登録画像情報として当該被写体に関連付けて登録したデータベースを有する。そして、この画像認識装置は、処理対象の画像から特定の被写体画像を検出する。そして、この画像認識装置は、前記被写体画像と登録画像情報における被写体の撮影状態の一致度と画像特徴の類似度とを算出し、類似度と一致度とに基づいて、被写体画像の被写体が登録画像情報の被写体であるか否かを認識する。そして、この画像認識装置は、類似度が第1の閾値よりも低く、一致度が第2の閾値以上の場合、被写体画像の被写体は登録画像情報の被写体とは異なる被写体であると認識する。
特許文献2には、入力画像から所定領域毎の画像を抽出する画像抽出手段と、輝度補正手段と、対象物検出手段と、を備えた対象物検出装置が開示されている。具体的には、輝度補正手段は、前記画像抽出手段により抽出された所定領域の画像を構成する画素の輝度値が予め設定された閾値を超えているときに、前記閾値を超えないように前記画素の輝度値を補正する。そして、前記対象物検出手段は、前記輝度補正手段により輝度値が補正された画素を含む所定領域の画像と、対象物を検出するための学習モデルと、に基づいて、対象物を検出する、と記載されている。
その他、特許文献3には動画像を構成するフレーム画像中の対象物を追跡する画像処理装置が開示されている。また、特許文献4には、映像に代表画像を選択するためのインデックスを付与する技術が開示されている。
特開2011−165008号公報 特開2007−272421号公報 特開2017−085564号公報 特開2005−352718号公報
以下の分析は、本発明によって与えられたものである。上記点検担当者が動画を見て、対象物の異常の有無等を確認する方法では、点検担当者が、撮影した動画データを最初から最後まで見て、対象物を探す必要があり、時間がかかるという問題点がある。更に、点検担当者のスキルによっては点検するオブジェクトを見逃してしまう場合がある。
本発明は、上記動画を見て対象物の点検等を行う担当者の負担の軽減に貢献できる対象物検出装置、予測モデル作成装置、対象物検出方法及びプログラムを提供することを目的とする。
第1の視点によれば、動画データを入力する入力部を含む対象物検出装置が提供される。この対象物検出装置は、さらに、前記動画データから、静止画データを抽出する抽出部を含む。この対象物検出装置は、さらに、前記静止画データに、対象物が写っているか否かを判定する判定部を含む。そして、前記判定部は、事前に撮影された学習用動画データから抽出された学習用静止画データに写っている前記対象物が少なくとも複数の領域にまたがるように、前記学習用動画データから抽出された静止画データに、複数の領域を設定し、前記設定した領域それぞれに学習用教師ラベルを付与し、前記領域毎に付与した前記学習用教師ラベルを用いて作成した予測モデルを用いて、前記静止画データに対象物が写っているか否かを判定する。
第2の視点によれば、事前に撮影された学習用動画データを入力する入力部と、前記学習用動画データから、学習用静止画データを抽出する抽出部と、前記学習用動画データから抽出された静止画データに写っている前記対象物が少なくとも複数の領域にまたがるように、前記学習用静止画データに複数の領域を設定し、前記設定した領域それぞれに付与した学習用教師ラベルを用いて、予測モデルを作成する機械学習エンジンと、を備える予測モデル作成装置が提供される。
第3の視点によれば、動画データを入力する入力部を備えるコンピュータが、前記動画データから、静止画データを抽出するステップと、事前に撮影された学習用動画データから抽出された学習用静止画データに写っている前記対象物が少なくとも複数の領域にまたがるように、前記学習用静止画データに複数の領域を設定し、前記設定した領域それぞれに付与した学習用教師ラベルを用いて作成された予測モデルを用いて、前記静止画データに対象物が写っているか否か判定するステップと、を含む動画データからの対象物検出方法が提供される。本方法は、動画データを入力として対象物が写っているか否かを判定するコンピュータという、特定の機械に結びつけられている。
第4の視点によれば、動画データを入力する入力部を備えるコンピュータに、前記動画データから、静止画データを抽出する処理と、事前に撮影された学習用動画データから抽出された学習用静止画データに写っている前記対象物が少なくとも複数の領域にまたがるように、前記学習用静止画データに複数の領域を設定し、前記設定した領域それぞれに付与した学習用教師ラベルを用いて作成された予測モデルを用いて、前記静止画データに対象物が写っているか否か判定する処理と、を実行させるプログラムが提供される。なお、このプログラムは、コンピュータが読み取り可能な(非トランジトリーな)記憶媒体に記録することができる。即ち、本発明は、コンピュータプログラム製品として具現することも可能である。
本発明によれば、動画を見て対象物の点検等を行う担当者の負担を軽減することが可能となる。即ち、本発明は、背景技術に記載した対象物検出装置を、その点検作業者の負担を飛躍的に軽減できるものへと変換するものとなっている。
本発明の一実施形態の構成を示す図である。 本発明の第1の実施形態の予測モデル作成装置の構成を示す機能ブロック図である。 本発明の第1の実施形態のインデックス作成装置の構成を示す機能ブロック図である。 本発明の第1の実施形態の前処理として実行される処理フローを示す図である。 動画から切り出した画像中の対象物を説明するための図である。 本発明の第1の実施形態における予測モデルの作成方法を説明するための図である。 本発明の第1の実施形態における予測モデルの作成方法を説明するための別の図である。 本発明の第1の実施形態の後処理部により実行される処理フローを示す図である。 本発明の各実施形態の対象物検出装置又はインデックス作成装置として機能するコンピュータの構成を示す図である。
はじめに本発明の一実施形態の概要について図面を参照して説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。また、図中の各ブロックの入出力の接続点には、ポート乃至インタフェースがあるが図示省略する。
本発明は、その一実施形態において、図1に示すように、入力部11と、抽出部12と、判定部13と、を含む対象物検出装置10にて実現できる。より具体的には、前記入力部11は、動画データを入力する。前記抽出部12は、前記動画データから静止画データを抽出する。前記判定部13は、所定の予測モデル14に基づいて、前記静止画データに、対象物が写っているか否かを判定する。
前記所定の予測モデル14は、次のように作成される。まず、事前に撮影された学習用動画データから学習用静止画データを抽出する。そして、学習用静止画データに写っている前記対象物が少なくとも複数の領域にまたがるように、前記学習用静止画データに複数の領域を設定する(図6、図7のFL1−1〜FL1−6参照)。そして、前記設定した領域それぞれに学習用教師ラベルを付与する。さらに、所定の機械学習エンジンに、前記領域と学習用教師ラベルの組を多数入力し、予測モデルを作成する。
そして、前記判定部13は、この予測モデルを用いて、入力された動画データから抽出した静止画データに前記対象物が写っているか否かを判定する。
以上のように構成することで、動画を見て対象物の点検等を行う担当者の負担を軽減することが可能となる。その理由は、静止画データに写っている前記対象物が少なくとも複数の領域にまたがるように、前記静止画データに複数の領域を設定することで、静止画データに写っている対象物の検出能力を向上させた構成を採用したことにある。
[第1の実施形態]
続いて、本発明の第1の実施形態について図面を参照して詳細に説明する。以下、第1の実施形態では、車両に搭載したカメラで前方風景を撮影した動画データにより、走行経路上の点検対象物の点検を行う例を挙げて説明する。また、点検対象は、幹線道路に沿って設置された電柱であるものとして説明する。
図2は、本発明の第1の実施形態の予測モデル作成装置の構成を示す機能ブロック図である。図2を参照すると、動画データ1を画像データ(静止画データ)3に変換する前処理部2と、学習用分析データ4とこの学習用分析データ4に付与した学習用教師ラベル5とを用いて予測モデル62を作成する機械学習エンジン6とを含む構成が示されている。
前処理部2は、画像化部21と、精細化部22とを含む。画像化部21は、所定のサンプリング周期で動画データから、画像(フレーム;静止画データ、以下「画像」と呼ぶ。)を切り出す処理を行う。精細化部22は、必要に応じて、画像の精細化処理を行う。精細化処理としては、例えば、輪郭補正やドットノイズ消去等の画質向上技術を用いることができる。また、精細化部22と、画像化部21の順序を逆にして、あるフレームの前後のフレームの画素情報を参照して画質向上を行った後に、画像化部21が画像を切り出すこととしてもよい。前処理部2が作成した画像データは、学習用分析データ4の素材となる。
機械学習エンジン(機械学習部)6は、機械学習の学習フェーズを実施する予測モデル作成部61を含む。予測モデル作成部61は、学習用教師ラベル5が付与された学習用分析データ4を用いて、任意の画像データに点検対象物が写っているか否かを判定する予測モデル62を作成する。上記前処理部2及び機械学習エンジン6の処理の詳細は、後に詳しく説明する。
なお、上記前処理部2と、機械学習エンジン6は、コンピュータに、後記するこれら要素の機能を実現するコンピュータプログラムにより実現することが可能である。また、上記前処理部2と、機械学習エンジン6として、クラウドサービスとして提供されているものを用いても良い。
図3は、本発明の第1の実施形態のインデックス作成装置の構成を示す機能ブロック図である。図3を参照すると、動画データ1を画像データ3に変換する前処理部2と、機械学習エンジン6と、機械学習エンジン6の出力に基づいて動画データに対応するインデックスデータを出力する後処理部7とを含む。
前処理部2は、図2に示した予測モデル作成装置の前処理部2と同様のものを用いることができる。
機械学習エンジン6は、予測モデル62を用いて画像データに点検対象物が写っている否かを判定する(検知フェーズ(運用フェーズ))。本実施形態では、機械学習エンジン6は、画像データに点検対象物が写っている否かを、確信度(尤度)という値で出力する。
後処理部7は、判定処理部71と、誤判定除去部72と、インデックス作成部73とを含む。判定処理部71は、機械学習エンジン6による判定結果を、所定の判定閾値と比較して、画像データに点検対象物が写っているか否かの判定を行う。誤判定除去部72は、判定処理部71の判定した結果を検査して誤判定を除去する。インデックス作成部73は、誤判定除去後の判定結果と、画像データとの対応関係に基づいて、動画データに点検対象物が写っているタイミングや画像中の位置等を示すインデックスデータ8を作成する。これら後処理部7の処理の詳細は、後に説明する。
図3の前処理部2の画像化部21が、図1の抽出部12に相当する。また、図3の機械学習エンジン6と後処理部7の判定処理部71が、図1の判定部13に相当する。
続いて、本発明の第1の実施形態の動作について図面を参照して詳細に説明する。はじめに前処理部2による前処理について説明する。図4は、本発明の第1の実施形態の前処理部により実行される処理フローを示す図である。図4を参照すると、まず、前処理部2の画像化部21は、データが入力されると(ステップS31)と、指定されたサンプリング周期で、動画データから画像データを切り出す(ステップS32;画像化)。
画像化部21は、上記切り出した画像データを所定の記憶装置に保存する(ステップS33)。次に、精細化部22は、必要に応じて切り出した画像データに対し精細化処理を施す(ステップS34)。精細化部22は、精細化処理後の画像データを所定の記憶装置に保存する(ステップS35)。
以上により、前処理部2による前処理が完了する。次に、機械学習エンジン6による予測モデルの作成処理について説明する。
図5は、動画データ1から切り出した画像データの一例を示す。図5において、白い枠線FL1で囲まれた電柱が点検対象物である。特定物体認識の場合、このような電柱全体の写真を大量に用意して機械学習を行うことがあるが、本発明では、以下のように、電柱が複数の領域にまたがるように、分割し機械学習を行う。
本実施形態では、1つの画像に対し、点検対象物である電柱が少なくとも複数の領域にまたがるように複数の領域を設定し、それぞれに学習用教師ラベル5を付与する。学習用分析データ4に学習用教師ラベル5を付与する方法としては、画像内の一部領域をマーキングして、ラベル付け(正解値付け)を行うマーキングラベルと呼ばれる方式を用いることができる。
図6は、本発明の第1の実施形態における予測モデルの作成方法を説明するための図である。図6の例では、点検対象物である電柱について、白色の枠線FL1−1〜FL1−6で細分化してマーキングしている。図6の例では、それ以外の部分についても黒色の枠線で同じく細分化してマーキングしている。なお、図6の例では、マーキングラベルで指定する領域は、任意の大きさで自在に設定可能となっている。また、図6の例のように、各領域が重なっていても問題はない。
図7は、図6とは異なるタイミングで動画データから切り出した画像に、白色の枠線FL1−1〜FL1−6及び黒色の枠線を設定した例である。このように、学習用静止画データに写っている対象物に高さや幅がある場合、その長手方向に、N個の領域を設定し、前記N個の領域それぞれに、学習用教師ラベルを付与して予測モデルを作成する方法を採ることができる。図6、図7を対比すると明らかなとおり、枠線の数や配置は、画像データ毎に変えても良い。また、枠線の数や配置は、コンピュータが所定のルールにより決めてもよいが、コンピュータの経験豊富な点検作業者が設定することとしてもよい。もちろん、機械的に、桝目状の格子を設定し、これら一つ一つの区画に学習用教師ラベルを付与してもよい。
上記図6、図7に示したマーキングした領域のひとつひとつが学習用分析データ4となり、それぞれに学習用教師ラベル5を付与することになる。その際に、より望ましくは、機械学習エンジン6が、学習用分析データ4に対し、スライディングウィンドウ方式や反転、回転、輝度変換などの画像加工処理を用いて、学習用画像を増やすようにしてもよい。機械学習エンジン6は、これらのデータセットを用いて学習することで、隈なく検出したい点検対象物の特徴を学習することができる。また、本実施形態では、上記のように、複数の領域に分けて学習を行うため、点検対象物の一部が隠れていたり、類似した対象物に関しても検出することの出来る予測モデルが作成される。この点が、図5の枠線FL1で示す点検対象物の全景(全体)で学習する方式に対する大きな利点となる。
続いて、上記のように作成された予測モデル62を用いてインデックスデータを作成するインデックス作成装置の動作について説明する。インデックス作成装置は、動画が入力されると、図4に示した予測モデル作成装置の前処理と同様に、前処理を行う。次に、インデックス作成装置は、機械学習エンジン6に前処理後の画像データを入力し、画像データに点検対象物が写っている確信度(尤度)を得る。
次に、インデックス作成装置は、機械学習エンジン6の判定結果を後処理部7に入力しインデックス作成までの処理を行う。図8は、本発明の第1の実施形態の後処理部7により実行される処理フローを示す図である。インデックス作成装置の判定処理部71は、機械学習エンジン6の判定結果が入力されると(ステップS51)、閾値判定を実施する(ステップS52)。この閾値判定は、機械学習エンジン6の出力である画像データに点検対象物が写っている確信度(尤度)と所定の判定閾値を比較することで、画像データに点検対象物が写っているか否かの判定を行う。例えば、判定閾値85%である場合、機械学習エンジン6が出力する確信度(尤度)が85%以上の画像を、点検対象物「有」と判定することになる。なお、この判定閾値は、判定対象物、判定したい状況、インデックスデータの用途等に応じてチューニングが可能である。
次に、インデックス作成装置は、閾値判定した結果から、誤判断をしていると考えられるものを除去する誤判定除去処理を実施する(ステップS53)。例えば、点検対象物が電柱である場合、縦に長い形状であり、画像データ内に電柱ではないが電柱の形状に似ている縦に長い形状(例えば、街灯の支持柱や、建物の配管など)のオブジェクトが写りこむことがあり、電柱有として誤判定する場合がある。特に、本実施形態では、判定処理部71の検出能力を向上させているため、誤判定の確率が増大する。
そこで、本実施形態では、誤判定処理を挿入し、このような誤判定したと考えられるものを除去している。誤判定処理としては、例えば、次のように、動画データに点検対象物が出現するルールに基いて、誤判定を検出する方法を用いることができる。例えば、電柱は、ある一定の間隔で配置されており、その距離(間隔)は一定の範囲に収まっている。また、道路を走りながら動画撮影していることから、動画撮影時の時刻とその時に走行している速度も記録可能である。これらの時間、速度を用いることにより、ある電柱から、次の電柱が検出される適正な時間間隔を導き出すことができる。この時間間隔の中で、電柱が存在すると判定された場合、それは、誤判定と判定することができる。誤判定除去部72は、このように、誤判定された画像データを除去する処理を実施する。なお、誤判定処理は、上記の例に限られず、例えば、特定の電柱の領域画像の特徴(標識板の有無、電柱の背景)等を用いて誤判定を検出する方法も採用することができる。
次に、インデックス作成装置は、誤判断除去が完了した画像データを画像出力(保存)する(ステップS54)。なお、誤判断除去処理により誤判定として除去できなかった事例に関しては、別途、誤判定した結果を機械学習において再学習することにより予測モデルの検出精度を改善することができる。例えば、点検対象物の検出の有無を判定した際に、画像中の領域のどの部分を電柱として検出したのかがマーキングされて出力される。これを学習用分析データに追加し、正しい学習用教師ラベルを付与して、再学習することで予測モデルの改善を行うことができる。
次に、インデックス作成装置は、誤判定除去部72の出力情報を、インデックス作成部73に入力して、インデックスを作成する(ステップS55)。インデックス作成部73は、作成したインデックスをインデックスデータ8として出力し、所定の記憶装置に保存する(ステップS56)。具体的には、インデックス作成部73は、点検対象物である電柱が映っている画像と、その位置情報等に基づいて、動画データ中の電柱が映っている場面の時間情報と、その画像データを含むインデックスデータを作成する。前記画像データには、点検対象物の有無を判断した際に、画像中のどの部分を電柱として検出したのかを示すマーキングを含めてもよい。これにより、点検担当者は、動画中のどのシーンのどの部分に点検対象物が存在するのかを容易に確認することが可能となる。
以上説明したように、本実施形態によれば、以下に記載するような効果を奏する。第1の効果は、動画の中から参照したい部分だけを漏れなく高精度で点検対象物が写っている部分を把握することができる点である。これにより、録画した長時間の動画データを確認する作業が短縮することができる。
第2の効果は、比較的少ない学習データでも点検対象物を検出することができる点である。その理由は、機械学習の方法を工夫し、マーキングラベルを効果的に活用する構成を採用したことにある。また、スライディングウィンドウ方式や反転、回転、輝度変換などの画像加工処理を用いて、学習用画像を増やすことも好ましい。これらの工夫により、少ない学習データでも、点検対象物の見逃しを無くすことができる。併せて、一部が隠されたオブジェクトの検出(オクルージョン)も可能となる。また、領域の設定や判定閾値のチューニング次第で、未学習の類似の対象物も検出することができる(汎化能力)。
第3の効果は、予測モデルによる判定結果として、画像中のどの部分を点検対象物として検出したのかをマーキングして出力することができる点である。これにより、録画した長時間の動画データを確認する作業を容易化し、必要に応じ、再学習に役立てることが可能となる。
第4の効果は、検出したい対象物、動画データの品質、対象物検出の用途等に応じて、判定方法(基準・閾値・過誤)をチューニングすることができる点である。例えば、予測モデルによる判定結果の確信度(尤度)や、対象物の出現頻度(対象物が出現する画面の割合)など特徴に応じた判定方法のチューニングが可能である。これにより、動画データやその検出したい対象物に応じて、チューニングを行って、その検出精度を高めることが可能である。
以上、本発明の各実施形態を説明したが、本発明は、上記した実施形態に限定されるものではなく、本発明の基本的技術思想を逸脱しない範囲で、更なる変形・置換・調整を加えることができる。例えば、各図面に示したネットワーク構成、各要素の構成、メッセージの表現形態は、本発明の理解を助けるための一例であり、これらの図面に示した構成に限定されるものではない。また、以下の説明において、「A及び/又はB」は、A及びBの少なくともいずれかという意味で用いる。
例えば、上記した実施形態では、予測モデルの作成(図2)と、インデックスデータ作成(図3)のそれぞれにおいて、精細化処理を行うものとして説明したが、精細化処理を省略することも可能である。また、例えば、前処理において、画像化後に画質を低下させた画像データを用いて、予測モデルの作成(図2)と、インデックスデータ作成(図3)を行ってもよい。
また、上記した実施形態では、対象物検出装置10、予測モデル作成装置、インデックス作成装置に分けて説明したが、それぞれの装置を統合したり、さらに細分化することも可能である。例えば、予測モデル作成装置、インデックス作成装置は、前処理部2及び機械学習エンジン6が共通するので、同一の装置で実現してもよい。また、インデックス作成装置の前処理部2、機械学習エンジン6、後処理部7をそれぞれ異なるハードウェアで実現してもよい。例えば、前処理部2、機械学習エンジン6はクラウド基盤上のネットワーク機能を利用し、後処理部7を、スマートフォン等の携帯端末にアプリケーションプログラムで実現する構成も採用可能である。
また、上記した実施形態では、検出対象物が電柱である例を挙げて説明したが、電柱以外の例えば、線路に沿って建てられている電化柱などにも適用可能である。また、検出対象物は、1種類だけでなく、複数種類あってもよい。また、上記した実施形態では、車両から撮影した動画データを用いるものとして説明したが、ドローンや電車等の移動体に搭載されたカメラにて撮影された動画データを用いた各種施設や設備等の点検用途にも適用することができる。
また、これらの移動体に、位置情報取得部として、GPS(Global Positioning System)受信機等を搭載することも好ましい。このインデックス作成部73は、点検対象物の出現時間だけでなく、出現位置(撮影位置)を含んだインデックスデータを作成することができる。これにより、点検対象物の位置特定が容易化され、異常発見時に、作業員に的確な派遣指示を出すことができる。
また、上記した実施形態に示した手順は、予測モデル作成装置やインデックス作成装置として機能するコンピュータ(図9の9000)に、これらの装置としての機能を実現させるプログラムにより実現可能である。このようなコンピュータは、図9のCPU(Central Processing Unit)9010、通信インタフェース9020、メモリ9030、補助記憶装置9040を備える構成に例示される。すなわち、図9のCPU9010にて、前処理プログラム、機械学習プログラムや後処理プログラムを実行し、その補助記憶装置9040等に保持されたデータの更新処理を実施させればよい。なお、CPU9010に代えて、GPU(Graphics Processing Unit)と呼ばれる画像処理用のプロセッサを用いてもよいことはもちろんである。
即ち、上記した実施形態に示した予測モデル作成装置やインデックス作成装置の各部(処理手段、機能)は、これらの装置に搭載されたプロセッサに、そのハードウェアを用いて、上記した各処理を実行させるコンピュータプログラムにより実現することができる。
最後に、本発明の好ましい形態を要約する。
[第1の形態]
(上記第1の視点による対象物検出装置参照)
[第2の形態]
上記した対象物検出装置において、前記動画データ及び前記学習用動画データは、同一のパターンで移動するカメラで撮影された動画データであることが好ましい。即ち、対象物検出装置は、既知の物体を検出する特定物体検出を行う。
[第3の形態]
上記した対象物検出装置は、さらに、
前記同一のパターンで移動するカメラにて撮影された動画に、前記対象物が出現するルールに基づいて、前記判定部の判定が誤りであるか否かを確認する誤判定除去部を備えることが好ましい。
[第4の形態]
上記した対象物検出装置は、さらに、
前記判定部及び前記誤判定除去部の判定結果に基づいて、前記動画データに前記対象物が現れるタイミングを示したインデックス情報を作成するインデックス作成部を備えることが好ましい。
[第5の形態]
上記した対象物検出装置は、さらに、
前記動画データの撮影位置を特定する位置情報を取得する位置情報取得部を備え、
前記インデックス作成部は、前記対象物の撮影位置を含んだインデックス情報を作成することが好ましい。
[第6の形態]
上記した対象物検出装置は、さらに、
前記動画データから抽出した静止画データに、前記学習用動画データから抽出された学習用静止画データと同一の前処理を施す前処理部を備えることが好ましい。
[第7の形態]
上記した対象物検出装置において、
前記予測モデルは、
学習用静止画データに写っている前記対象物の長手方向に、N個の領域を設定し、前記N個領域それぞれに、学習用教師ラベルを付与して作成されていることが好ましい。
[第8の形態]
(上記第2の視点による予測モデル作成装置参照)
[第9の形態]
(上記第3の視点による対象物検出方法参照)
[第10の形態]
(上記第4の視点によるプログラム参照)
なお、上記第8〜第10の形態は、第1の形態と同様に、第2〜第7の形態に展開することが可能である。
なお、上記の特許文献の各開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし選択(部分的削除を含む)が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。
1 動画データ
2 前処理部
3 画像データ
4 学習用分析データ
5 学習用教師ラベル
6 機械学習エンジン
7 後処理部
8 インデックスデータ
10 対象物検出装置
11 入力部
12 抽出部
13 判定部
14、62 予測モデル
21 画像化部
22 精細化部
61 予測モデル作成部
71 判定処理部
72 誤判定除去部
73 インデックス作成部
9000 コンピュータ
9010 CPU
9020 通信インタフェース
9030 メモリ
9040 補助記憶装置

Claims (10)

  1. 動画データを入力する入力部と、
    前記動画データから、静止画データを抽出する抽出部と、
    前記静止画データに、対象物が写っているか否かを判定する判定部と、を含み、
    前記判定部は、
    事前に撮影された学習用動画データから抽出された学習用静止画データに写っている前記対象物が少なくとも複数の領域にまたがるように、前記学習用静止画データに、複数の領域を設定し、
    前記設定した領域それぞれに学習用教師ラベルを付与し、
    前記領域毎に付与した前記学習用教師ラベルを用いて作成した予測モデルを用いて、前記静止画データに対象物が写っているか否かを判定する、
    対象物検出装置。
  2. 前記動画データ及び前記学習用動画データは、同一のパターンで移動するカメラで撮影された動画データである請求項1の対象物検出装置。
  3. さらに、
    前記同一のパターンで移動するカメラにて撮影された動画に、前記対象物が出現するルールに基づいて、前記判定部の判定が誤りであるか否かを確認する誤判定除去部を備える請求項2の対象物検出装置。
  4. さらに、
    前記判定部及び前記誤判定除去部の判定結果に基づいて、前記動画データに前記対象物が現れるタイミングを示したインデックス情報を作成するインデックス作成部を備える請求項3の対象物検出装置。
  5. さらに、
    前記動画データの撮影位置を特定する位置情報を取得する位置情報取得部を備え、
    前記インデックス作成部は、前記対象物の撮影位置を含んだインデックス情報を作成する請求項4の対象物検出装置。
  6. 前記動画データから抽出した静止画データに、前記学習用動画データから抽出された学習用静止画データと同一の前処理を施す前処理部を備える請求項1から5いずれか一の対象物検出装置。
  7. 前記予測モデルは、
    学習用静止画データに写っている前記対象物の長手方向に、N個の領域を設定し、前記N個の領域それぞれに、学習用教師ラベルを付与して作成される請求項1から6いずれか一の対象物検出装置。
  8. 事前に撮影された学習用動画データを入力する入力部と、
    前記学習用動画データから、学習用静止画データを抽出する抽出部と、
    前記学習用動画データから抽出された静止画データに写っている対象物が少なくとも複数の領域にまたがるように、前記学習用静止画データに複数の領域を設定し、前記設定した領域それぞれに付与した学習用教師ラベルを用いて、予測モデルを作成する機械学習エンジンと、
    を備える予測モデル作成装置。
  9. 動画データを入力する入力部を備えるコンピュータが、
    前記動画データから、静止画データを抽出するステップと、
    事前に撮影された学習用動画データから抽出された学習用静止画データに写っている対象物が少なくとも複数の領域にまたがるように、前記学習用静止画データに複数の領域を設定し、前記設定した領域それぞれに付与した学習用教師ラベルを用いて作成された予測モデルを用いて、前記静止画データに対象物が写っているか否か判定するステップと、
    を含む動画データからの対象物検出方法。
  10. 動画データを入力する入力部を備えるコンピュータに、
    前記動画データから、静止画データを抽出する処理と、
    事前に撮影された学習用動画データから抽出された学習用静止画データに写っている対象物が少なくとも複数の領域にまたがるように、前記学習用静止画データに複数の領域を設定し、前記設定した領域それぞれに付与した学習用教師ラベルを用いて作成された予測モデルを用いて、前記静止画データに対象物が写っているか否か判定する処理と、
    を実行させるプログラム。
JP2019558264A 2017-12-08 2018-12-05 対象物検出装置、予測モデル作成装置、対象物検出方法及びプログラム Active JP6904614B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017235838 2017-12-08
JP2017235838 2017-12-08
PCT/JP2018/044800 WO2019111976A1 (ja) 2017-12-08 2018-12-05 対象物検出装置、予測モデル作成装置、対象物検出方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019111976A1 JPWO2019111976A1 (ja) 2020-11-26
JP6904614B2 true JP6904614B2 (ja) 2021-07-21

Family

ID=66750590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019558264A Active JP6904614B2 (ja) 2017-12-08 2018-12-05 対象物検出装置、予測モデル作成装置、対象物検出方法及びプログラム

Country Status (3)

Country Link
US (1) US11361547B2 (ja)
JP (1) JP6904614B2 (ja)
WO (1) WO2019111976A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3745298B1 (en) * 2019-05-28 2022-05-25 SCHOTT Schweiz AG Classification method and system for high-throughput transparent articles
JP7331509B2 (ja) * 2019-07-12 2023-08-23 Jfeエンジニアリング株式会社 ボルト検査装置、ボルト検査システム、ボルト検査方法及びプログラム
JP2022550548A (ja) * 2019-09-29 2022-12-02 ザックダン カンパニー 機械学習を利用した画像内客体認識方法及び装置
JP7419838B2 (ja) * 2020-01-28 2024-01-23 中国電力株式会社 電力設備の調査要否判定装置、及び調査要否判定方法
US11451480B2 (en) * 2020-03-31 2022-09-20 Micron Technology, Inc. Lightweight artificial intelligence layer to control the transfer of big data
CN111881720B (zh) * 2020-06-09 2024-01-16 山东大学 用于深度学习的数据自动增强扩充方法、识别方法及系统
JP7324791B2 (ja) * 2021-03-09 2023-08-10 本田技研工業株式会社 画像収集システム、及び画像収集方法
CN113542787A (zh) * 2021-07-15 2021-10-22 上海松鼠课堂人工智能科技有限公司 直播实验教学视频进行加工的方法与系统
CN115294505B (zh) * 2022-10-09 2023-06-20 平安银行股份有限公司 风险物体检测及其模型的训练方法、装置及电子设备
CN117171675B (zh) * 2023-11-02 2024-01-12 北京建工环境修复股份有限公司 基于多源数据的水环境微生物检测方法、系统及介质
CN117197443B (zh) * 2023-11-07 2024-02-02 广州市德赛西威智慧交通技术有限公司 一种基于无共视区域的目标接力检测方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11306325A (ja) 1998-04-24 1999-11-05 Toshiba Tec Corp 対象物検出装置及び対象物検出方法
JP4369308B2 (ja) 2004-06-10 2009-11-18 日本電信電話株式会社 代表画像選択装置,代表画像選択方法および代表画像選択プログラム
JP2007272421A (ja) 2006-03-30 2007-10-18 Toyota Central Res & Dev Lab Inc 対象物検出装置、方法及びプログラム
JP5567853B2 (ja) 2010-02-10 2014-08-06 キヤノン株式会社 画像認識装置および方法
JP2012088787A (ja) 2010-10-15 2012-05-10 Canon Inc 画像処理装置、画像処理方法
JP2014016710A (ja) * 2012-07-06 2014-01-30 Toyota Central R&D Labs Inc 対象物検出装置及びプログラム
SG11201506229RA (en) * 2013-02-27 2015-09-29 Hitachi Ltd Image analysis device, image analysis system, and image analysis method
JP6435740B2 (ja) * 2014-09-22 2018-12-12 日本電気株式会社 データ処理システム、データ処理方法およびデータ処理プログラム
CN107037962B (zh) 2015-10-23 2020-06-16 株式会社摩如富 图像处理装置、电子设备以及图像处理方法
US10346723B2 (en) * 2016-11-01 2019-07-09 Snap Inc. Neural network for object detection in images
US10019654B1 (en) * 2017-06-28 2018-07-10 Accenture Global Solutions Limited Image object recognition

Also Published As

Publication number Publication date
US11361547B2 (en) 2022-06-14
US20200394415A1 (en) 2020-12-17
WO2019111976A1 (ja) 2019-06-13
JPWO2019111976A1 (ja) 2020-11-26

Similar Documents

Publication Publication Date Title
JP6904614B2 (ja) 対象物検出装置、予測モデル作成装置、対象物検出方法及びプログラム
US11035958B2 (en) Systems and methods for correcting a high-definition map based on detection of obstructing objects
CN106919915B (zh) 基于adas系统的地图道路标记及道路质量采集装置及方法
JP6713368B2 (ja) 情報処理装置、表示装置、情報処理方法、及びプログラム
CN108648194B (zh) 基于cad模型三维目标识别分割和位姿测量方法及装置
CN109373921B (zh) 一种隧道监测方法及装置
JP6615065B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN111191611B (zh) 基于深度学习的交通标志标号识别方法
CN109426800B (zh) 一种车道线检测方法和装置
CN105373135A (zh) 一种基于机器视觉的飞机入坞引导和机型识别的方法及系统
CN111141311B (zh) 一种高精度地图定位模块的评估方法及系统
JP6615066B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20120072020A (ko) 자율주행 시스템의 주행정보 인식 방법 및 장치
KR20210081983A (ko) 카메라 기반의 자동화된 정밀도로지도 생성 시스템 및 방법
CN104200492B (zh) 基于轨迹约束的航拍视频目标自动检测跟踪方法
JP6647171B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN112487894B (zh) 基于人工智能的轨道交通保护区自动巡查方法及装置
CN111967396A (zh) 障碍物检测的处理方法、装置、设备及存储介质
CN110084171B (zh) 一种地铁车顶异物检测装置及检测方法
CN103699876A (zh) 一种基于线阵ccd图像识别车号的方法及装置
CN110909620A (zh) 车辆检测方法、装置、电子设备及存储介质
Zhao et al. Real-world trajectory extraction from aerial videos-a comprehensive and effective solution
CN115857040A (zh) 一种机车车顶异物动态视觉检测装置及方法
CN116363605A (zh) 一种高速公路应急车道占用检测方法
JP6998710B2 (ja) 点検作業支援装置、距離標情報管理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210617

R150 Certificate of patent or registration of utility model

Ref document number: 6904614

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150