JP2020197974A - 状況認識装置、状況認識方法、および状況認識プログラム - Google Patents

状況認識装置、状況認識方法、および状況認識プログラム Download PDF

Info

Publication number
JP2020197974A
JP2020197974A JP2019104470A JP2019104470A JP2020197974A JP 2020197974 A JP2020197974 A JP 2020197974A JP 2019104470 A JP2019104470 A JP 2019104470A JP 2019104470 A JP2019104470 A JP 2019104470A JP 2020197974 A JP2020197974 A JP 2020197974A
Authority
JP
Japan
Prior art keywords
situational awareness
unit
model
data
construction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019104470A
Other languages
English (en)
Inventor
真則 高岡
Masanori Takaoka
真則 高岡
善彦 斉藤
Yoshihiko Saito
善彦 斉藤
正泰 渡辺
Masayasu Watanabe
正泰 渡辺
青木 教之
Noriyuki Aoki
教之 青木
悟己 上野
Satoki Ueno
悟己 上野
研二 河野
Kenji Kono
研二 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Communication Systems Ltd
Original Assignee
NEC Communication Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Communication Systems Ltd filed Critical NEC Communication Systems Ltd
Priority to JP2019104470A priority Critical patent/JP2020197974A/ja
Publication of JP2020197974A publication Critical patent/JP2020197974A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】事前に準備するデータを少なく抑えながらも判定基準を調整し得る状況認識を行うことに寄与する状況認識装置を提供する。【解決手段】状況認識装置1は、認識すべき状況のデータを取得する計測部10と、計測部10が取得したデータから要素オブジェクトを検知し、検知された要素オブジェクトの組み合わせに基づいて状況認識を行う状況認識部11と、状況認識部11が判定した結果を出力する結果出力部12とを備える。【選択図】図1

Description

本発明は、状況認識装置、状況認識方法、および状況認識プログラムに関するものである。
車両周囲の状況を認識するための技術として、車載カメラ等の撮像装置(以下、単にカメラと呼ぶ)などの画像から、写っているオブジェクトを認識する手法が知られている。このような状況認識の技術は、例えば自動運転車への利用が期待されており、認識されたオブジェクトに対応して自動運転車を制御する技術の開発も盛んである。
特許文献1には、自動運転のために、車載センサなどから工事区域と非作業中の工事区域を区別する方法が示されている。特許文献2には、車載端末にて、車両から見える画像あるいは映像を撮像し、得られた画像あるいは映像に含まれる画像から標識などの道路上付属物を検出する技術が記載されている。特許文献3には、サーバに格納された道路情報を、最新の道路情報に更新し得る道路情報更新技術が記載されている。特許文献4には、以前に通過したことがある地点の通過時の道路状況と現在の道路状況との道路状況を比較する技術が記載されている。
特開2018−154338号公報 特開2018−97738号公報 特開2018−10535号公報 特開2006−292701号公報 特開2016−62253号公報
なお、上記先行技術文献の各開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明者らによってなされたものである。
ところで、工事現場の様態は無限である。したがって、すべてのバリエーションの工事現場の写真(画像)を事前に準備することはできない。つまり、道路状況を認識するためのデータが必ずしも十分ではない中で、正確な状況認識を行う必要がある。
一方、機械学習をベースにしたオブジェクト認識の技術では、教師データの量を減らすと、計算量が多くなってしまったり精度が落ちたりするというトレードオフの問題がある。また、オブジェクト認識の判定基準を調整しようとすると、教師データを再準備しなければならず、必要とする教師データの量がますます増大する。このことは機械学習に限らず、特徴量などを用いた認識技術でも同様の傾向を有しており、事前に準備するデータの量を減らすと精度などが犠牲となる傾向がある。
顔認識におけるこのトレードオフ問題に対しては、例えば特許文献5では、変動の少ない部分(領域)毎の類似度を使い、その類似度を選択的に統合して合致しているかという方法が採用されている。しかしながら、この方法は特定物体検知(インスタンス分類)の方法であって、一般物体検知(クラス分類)ではない。つまり、道路状況認識には、個々の三角コーンなどを区別するのではなく、三角コーンや工事フェンスなどの存在する物体の種類を区別するという一般物体検知が必要とされる。
本発明の目的は、上述した課題を鑑み、事前に準備するデータを少なく抑えながらも判定基準を調整し得る状況認識を行うことに寄与する状況認識装置、状況認識方法、および状況認識プログラムを提供することにある。
本発明の第1の視点では、認識すべき状況のデータを取得する計測部と、前記計測部が取得したデータから要素オブジェクトを検知し、前記検知された要素オブジェクトの組み合わせに基づいて状況認識を行う状況認識部と、前記状況認識部が判定した結果を出力する結果出力部と、を備えることを特徴とする状況認識装置が提供される。
本発明の第2の視点では、認識すべき状況のデータを取得し、前記取得したデータから要素オブジェクトを検知し、前記検知された要素オブジェクトの組み合わせに基づいて状況認識を行う、ことを特徴とする状況認識方法が提供される。
本発明の第3の視点では、認識すべき状況のデータを取得するステップと、前記取得したデータから要素オブジェクトを検知するステップと、前記検知された要素オブジェクトの組み合わせに基づいて状況認識を行うステップと、をコンピュータに実行させることを特徴とする状況認識プログラムが提供される。なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
本発明の各視点によれば、事前に準備するデータを少なく抑えながらも判定基準を調整し得る状況認識を行うことに寄与する状況認識装置、状況認識方法、および状況認識プログラムを提供することができる。
図1は、第1実施形態に係る状況認識装置を示す図である。 図2は、コンピュータが実行する状況認識プログラムの手順例を示す図である。 図3は、状況認識プログラムを実行するコンピュータのハードウェア構成例を示す図である。 図4は、第2実施形態に係る状況認識装置の状況認識部を示す図である。 図5は、状況認識装置の動作の手順を示す図である。 図6は、モデル作成装置の構成を示す図である。 図7は、モデル生成装置の動作の手順を示す図である。 図8は、計測部が取得する画像の例を示す図である。 図9は、第5実施形態に係る状況認識装置の構成を示す図である。 図10は、前判断部の動作の手順を示す図である。 図11は、状況認識装置の動作の手順を示す図である。
以下、図面を参照しながら、本発明の実施形態について説明する。ただし、以下に説明する実施形態により本発明が限定されるものではない。また、各図面において、同一または対応する要素には適宜同一の符号を付している。さらに、図面は模式的なものであり、各要素の寸法の関係、各要素の比率などは、現実のものとは異なる場合があることに留意する必要がある。図面の相互間においても、互いの寸法の関係や比率が異なる部分が含まれている場合がある。
(第1実施形態)
図1は、第1実施形態に係る状況認識装置を示す図である。図1に示すように、状況認識装置1は、計測部10と状況認識部11と結果出力部12とを備えている。
計測部10は、認識すべき状況のデータを取得する。計測部10は、例えばカメラであり、画像ないし映像を取得する。また、これに限らず、計測部10は、三次元センサや音波や赤外線や電磁波などの波長センサとすることもできる。
状況認識部11は、計測部10で取得したデータから状況認識を行う。具体的には、計測部10が取得したデータから要素オブジェクトを検知し、検知された要素オブジェクトの組み合わせに基づいて状況認識を行う。
ここで、要素オブジェクトの検知とは、いわゆる一般物体検知であり、ある要素オブジェクトが画像などのデータ中に存在するか否かを検知することをいう。つまり、要素オブジェクトとは、特定の要素オブジェクト(インスタンス)を個別に区別せず、要素オブジェクトのクラス(カテゴリ、種別)分類で区別する。例えば人の検知であれば、個人の特定ではなく、男性か女性か、大人か子供かなどのクラス(カテゴリ、種別)分類をする。工事状況の検知であれば、三角コーンであるか、工事フェンスであるか、工事看板であるかなど、工事物のクラス(カテゴリ、種別)分類をする。即ち、存在を検知した物体の種類による分類を行う。
要素オブジェクトの検知は、特徴量を用いたモデルによる検知や、機械学習技術を用いたクラス分類による検知などにより実現する。機械学習技術を用いる場合は事前に教師データを必要とし、特徴量を用いたモデルを構成するためにも事前に準備するデータを必要とする。本明細書では、どちらの方式であっても事前のデータに含まれるものとする。
上記のように検知された要素オブジェクトは、一般に複数であり、状況認識部11は、複数の要素オブジェクトの組み合わせに基づいて状況認識を行う。ここで、複数の要素オブジェクトの組み合わせとは、種類・個数・位置・大きさなどの変数によって重み付けを行ってもよい。すなわち、状況認識部11は、一つの要素オブジェクトの検知だけでは状況認識を行わない。検知された複数の要素オブジェクトの種類・個数・位置・大きさなどを総合考慮して状況認識を行う。例えば、道路状況の認識であれば、三角コーンだけ存在しても工事であると判定せず、三角コーンと工事フェンスと工事看板の複数が同時に存在すれば、それを工事であると判定する。また、三角コーンと工事フェンスよりも工事看板の方に重点を置き、工事看板があれば判定結果の確信度への寄与を重み付ける(例えば寄与率を倍にする等)ことが可能である。
結果出力部12は、状況認識部11が判定した結果を出力する。ここで、結果の出力とは、結果を表示し、利用者に提示することに限らず、別の装置への入力とすることができる。例えば、状況認識装置1を自動運転車における道路状況の認識に用いている場合、状況認識装置1の結果出力部12を自動運転車の制御装置の入力へ接続することもできる。
上記構成の状況認識装置1は、要素オブジェクトを検知し、当該検知された要素オブジェクトの組み合わせに基づいて状況認識を行うので、事前に準備すべきデータは、要素オブジェクト毎である。つまり、相対的には準備すべきデータの量が少なくて済む。一方、要素オブジェクトの組み合わせに基づいて状況認識を行うので、事前のデータの再準備をすることなく、例えば重み付けの変更などにより判定基準を調整することが可能である。
ただし、本実施形態の効果を享受するためには、状況認識装置1の内部構成は必須ではない。認識すべき状況のデータを取得し、取得したデータから要素オブジェクトを検知し、検知された要素オブジェクトの組み合わせに基づいて状況認識を行う方法を実現することができれば、状況認識装置1の内部構成は自由に変更することができる。
したがって、例えば、上記状況認識方法を、コンピュータが実行する状況認識プログラムとして実現することも可能である。図2は、コンピュータが実行する状況認識プログラムの手順例を示す図である。図2に示すように、本実施形態のコンピュータが実行する状況認識プログラムは、認識すべき状況のデータを取得するステップS1と、取得したデータから要素オブジェクトを検知するステップS2と、検知された要素オブジェクトの組み合わせに基づいて状況認識を行うステップS3とを含んでいる。このような状況認識プログラムをコンピュータ上で実行することにより、教師データを再準備することなく判定基準を調整できる状況認識を行うことが可能である。
図3は、状況認識プログラムを実行するコンピュータのハードウェア構成例を示す図である。上記状況認識プログラムを実行するコンピュータ13は、例えば、図3に示すハードウェア構成の装置として構成することができる。ただし、図3に示すハードウェア構成は、状況認識プログラムを実行するハードウェア構成の一例であり、このハードウェア構成を限定する趣旨ではない。また、本実施形態の状況認識プログラムを状況認識方法として実現するためのハードウェア構成も図3に示すハードウェア構成に限定するものではない。コンピュータ13は、図3に示さないハードウェアを含むことができる。
図3に示すように、コンピュータ13のハードウェア構成は、例えば内部バスにより相互に接続される、CPU(Central Processing Unit)14、主記憶装置15、および補助記憶装置16を備える。
CPU14は、コンピュータ13が実行する状況認識プログラムを実行する。主記憶装置15は、例えばRAM(Random Access Memory)であり、コンピュータ13が実行する状況認識プログラムなどをCPU14が処理するために一時記憶する。
補助記憶装置16は、例えば、HDD(Hard Disk Drive)であり、状況認識プログラムなどを中長期的に記憶しておくが可能である。状況認識プログラムは、非一時的なコンピュータ可読記録媒体(non-transitory computer-readable storage medium)に記録されたプログラム製品として提供することができる。補助記憶装置16は、非一時的なコンピュータ可読記録媒体に記録されたケーブル接続作業支援プログラムを中長期的に記憶することに利用することが可能である。
(第2実施形態)
図4は、第2実施形態に係る状況認識装置の状況認識部を示す図である。第2実施形態に係る状況認識装置は、第1実施形態に係る状況認識装置1における状況認識部11の内部構成についてのみ異なる。したがって、第2実施形態の説明では、第1実施形態に係る状況認識装置1と同一の構成については、同一の参照番号を引用することによって説明を省略する。
図4に示すように、第2実施形態に係る状況認識部11は、前処理部101と前処理設定値保持部111と検知部102とモデル保持部112と判定処理部103と判定設定値保持部113とを備えている。
前処理部101は、検知部102でのオブジェクト検知をより適切に行うための前処理を行う。前処理としては、画像であれば、明るさやコントラスト、色調などの補正や、ノイズ除去やかすみ除去などの画像処理を行う。後段のオブジェクト検知での精度向上や計算資源の削減などの目的のために、正準化、標準化、ノイズ削減、単純化、抽象化、データ拡張などを行う。また、画像であれば、オブジェクト検知の判定対象領域の特定などを行う。後段のオブジェクト検知での精度向上や計算資源の削減などの目的のために、画像全体ではなく一部の領域に絞ることを行う。動画・映像・音声の経時データの場合には、時間領域的な範囲の特定(限定)も行う。
前処理設定値保持部111は、前処理部101での前処理のための設定値(パラメータ)を保持する。前処理部101は、前処理設定値保持部111から処理のための設定値(パラメータ)を取得する。
検知部102は、前処理部101で処理されたデータに対して、要素オブジェクト検知を行う。画像であれば、この画像の中に、ある要素オブジェクトがあるかどうかを検知し、その数・場所・領域・確信度を算出する。要素オブジェクトの検知は、例えば人の検知であれば、個人の特定ではなく、人かどうかというクラス(カテゴリ、種別)分類を意味する。この例では、人というクラスではなく、男性か女性か、大人か子供か、工事作業者かそれ以外か、などといったクラスでもよい。なお、特定のオブジェクトのみで構成されるクラスを設定してもよい。要素オブジェクトの検知は、特徴量を用いたモデルによる検知や、機械学習技術を用いたクラス分類による検知などにより実現される。
モデル保持部112は、検知部102での要素オブジェクト検知のためのモデル(判定モデル、判定アルゴリズム、判定方式、およびそれらの設定値(パラメータ))などを保持する。検知部102は、モデル保持部112から処理のためのモデルを取得する。このモデルは、後述のモデル作成装置2で作られ、このモデル保持部112に格納される。
判定処理部103は、検知部102で判定された結果を基に、状況(シーン)の判定を行う。画像であれば、この画像の中にある要素オブジェクトの種類・個数・位置・大きさなどから、この画像の状況(シーン)を判定する。この判定は、要素オブジェクトの組み合わせで行う。例えば道路状況の判定であれば、三角コーンだけ存在しても工事であると判定せず、三角コーンと工事フェンスと工事看板の複数が同時に存在すれば、それを工事であると判定するなどである。
また、この判定は、要素オブジェクトの重み付けられた組み合わせで行ってもよい。例えば道路状況の判定であれば、三角コーンと工事フェンスよりも工事看板の方に重点を置き、工事看板があれば判定結果の確信度への寄与を重み付ける(例えば寄与率を倍にする等)ことを行っても良い。判定結果は、判定した状況、および確信度などで表す。また、複数の状況・確信度の集合でもよい。判定した状況とは、例えば道路状況の判定であれば、工事現場か否かなどを表すものである。確信度とは、前記の判定した状況の確かさを表すものである。複数の状況とは、例えば道路状況の判定であれば、道路工事現場、建築現場、交通事故現場、除草作業などの複数の状況を意味する。
判定設定値保持部113は、判定処理部103での状況(シーン)判定のための設定値(パラメータ)を保持する。判定処理部103は、判定設定値保持部113から処理のための設定値(パラメータ)を取得する。
図5は、状況認識装置の動作の手順を示す図である。なお、第2実施形態に係る状況認識装置の動作の手順は、第1実施形態と同様に、状況認識方法として実施することも可能であり、図3に示したようなハードウェア構成のコンピュータ上で実行させる状況認識プログラムとしても実施することが可能である。
図5に示すように、最初に、計測部10が画像などのデータを取得する(ステップS101)。一方、前処理部101が前処理設定値保持部111から、前処理設定値を取得する(ステップS102)。そして、前処理部101は、計測部10から画像データを受け取り、前ステップで取得した前処理設定値を基に前処理を行う(ステップS103)。
また、検知部102は、モデル保持部112から、要素オブジェクト検知のためのモデルを取得する(ステップS104)。例えば、工事看板用モデル、工事サイン用モデル、工事フェンス用モデル、警備員用モデル、三角コーン用モデル、重機用モデルを取得するなどである。検知部102は、前処理部101から前処理された画像データを受け取り、前ステップで取得したモデルを基に要素オブジェクト検知を行う(ステップS105)。
ここで、モデルが複数あれば、ステップS104およびステップS105をモデルの数だけ繰り返す(ステップS106)。
判定処理部103は、判定設定値保持部113から、工事現場の判定のための工事現場判定基準としての判定設定値を取得する(ステップS107)。判定処理部103は、検知部102で判定された要素オブジェクト検知結果を受け取り、前ステップで取得した判定設定値を基に、工事現場かどうかの判定を行う(ステップS108)。
例えば、判定設定値として、工事看板、工事サイン、三角コーンがそれぞれ1つ以上存在することが工事現場であることの判定基準であると設定されている場合、検知部102で判定された要素オブジェクト検知結果に工事看板、工事サイン、三角コーンがそれぞれ1つ以上存在すれば、工事現場であると判定する。判定結果は、判定した状況、および確信度などで表す。また、複数の状況・確信度の集合でもよい。
結果出力部12は、前ステップS107から判定結果を受け取り、表示装置にその結果を表示する(ステップS109)。
上記のような構成の状況認識装置1でも、要素オブジェクトを検知し、当該検知された要素オブジェクトの組み合わせに基づいて状況認識を行うので、事前に準備すべきデータは、要素オブジェクト毎である。つまり、相対的には準備すべきデータの量が少なくて済む。一方、要素オブジェクトの組み合わせに基づいて状況認識を行うので、事前のデータの再準備をすることなく、例えば重み付けの変更などにより判定基準を調整することが可能である。
(第3実施形態)
図6は、モデル作成装置の構成を示す図である。第3実施形態係る状況認識装置は、第1実施形態または第2実施形態に係る状況認識装置1にモデル作成装置2を追加したものである。ここで、状況認識装置1にモデル作成装置2を追加する方式は、状況認識装置1にモデル作成装置2を内蔵する方式でも、状況認識装置1の外部にモデル作成装置2を接続する方式であってもよい。また、以下の説明では、第1実施形態または第2実施形態と同一の構成については、同一の参照番号を引用することによって説明を省略する。
図6に示すように、モデル作成装置2は、データ管理部201とデータ保持部211と前処理部202と前処理設定値保持部212とモデル作成部203とモデル保持部213とモデル管理部204とを備えている。
データ管理部201は、モデルを生成するためのデータの管理を行う。機械学習によるモデル作成を行う場合は、教師データセットの管理を行う。例えば、要素オブジェクト毎にセットとしてデータ保持部211からそのデータセットを取得する。データは要素だけの意味を持つデータでもよいし、その要素の領域指定(バウンディングボックス等)の付加情報付きのデータでもよい。データ保持部211は、モデルを生成するために事前に準備されたデータ(データセット)を保持する。
前処理部202は、前処理部101と同等の機能を持つ。すなわち、画像であれば、明るさやコントラスト、色調などの補正や、ノイズ除去やかすみ除去などの画像処理を行う。後段のオブジェクト検知での精度向上や計算資源の削減などの目的のためには、正準化、標準化、ノイズ削減、単純化、抽象化、データ拡張などを行う。また、画像であれば、オブジェクト検知の判定対象領域の特定などを行う。後段のオブジェクト検知での精度向上や計算資源の削減などの目的のために、画像全体ではなく一部の領域に絞ることを行う。動画・映像・音声の経時データの場合には、時間領域的な範囲の特定(限定)も行う。
前処理設定値保持部212は、前処理設定値保持部111と同等の機能を持つ。すなわち、前処理部202での前処理のための設定値(パラメータ)を保持する。
モデル作成部203は、前処理部202で処理されたデータを用いて、各要素オブジェクトの検知のためのモデルの作成を行う。要素オブジェクト毎にモデルを作成し、作成したモデルをモデル保持部213に格納する。教師あり学習等の機械学習技術を用いる場合は、学習・訓練を行うことになる。モデルの検定・評価・検証も含めて行う。
モデル保持部213は、モデル作成部203で作成された要素オブジェクト検知のためのモデル(判定モデル、判定アルゴリズム、判定方式、およびそれらの設定値(パラメータ))などを保持する。なお、状況認識装置1にモデル作成装置2を内蔵する場合、モデル保持部213とモデル保持部112とを共通化することが可能である。
モデル管理部204は、モデルの管理と状況認識部11へのモデル提供を行う。ここで、状況認識部11へのモデル提供とは、状況認識部11のモデル保持部112へモデルのデータ提供を行うことである。
なお、モデルは要素オブジェクト毎にある。例えば、三角コーン用モデル、工事フェンス用モデル、工事看板モデルなどである。また、複数要素オブジェクトを検知するモデルであってもよい。モデル管理とは、これらの複数のモデルを基とになったデータセットと紐づけたり、バージョン(版数)や更新履歴、性能値などと一緒に結びつけたり、アクセスや検索しやすいようにまとめたりすることなどを言う。モデルは前処理に依存したものであることもあるので、モデル管理部204は前処理設定値保持部212が持つ前処理設定値(パラメータ)も合わせてモデル提供してもよい。
図7は、モデル作成装置の動作の手順を示す図である。なお、モデル作成装置2の動作の手順は、状況認識方法の一部として実施することも可能であり、図3に示したようなハードウェア構成のコンピュータ上で実行させる状況認識プログラムの一部としても実施することが可能である。
図7に示すように、まず、データ管理部201がデータ保持部211から、教師画像データセットを取得する(ステップS201)。例えば、教師あり学習等の機械学習によるモデル作成を行う場合、対象モデルの作成に使う画像データとして、正例としての要素オブジェクトが存在する画像と負例としての他の要素オブジェクトが存在する画像を取得する。事前に、要素オブジェクトが存在する画像を教師データとして収集しデータ保持部211に格納しておく。データ管理部201は、前ステップで取得した教師画像データセットにおいて、ラベルやアノテーションとともに管理する(ステップS202)。
前処理部202は、前処理設定値保持部212から、前処理設定値を取得する(ステップS203)。前処理部202は、データ管理部201から教師画像データセットを受け取り、前ステップで取得した前処理設定値を基に前処理を行う(ステップS204)。
モデル作成部203は、前処理部202から教師画像データセットを受け取り、ここでの対象要素オブジェクトを検知する対象モデルの作成を行う(ステップS205)。また、作成したモデルをモデル保持部213に格納する(ステップS206)。モデルとしての情報(判定モデル、判定アルゴリズム、判定方式)の他、モデル作成(学習)に利用した設定値(ハイパーパラメータ、パラメータ)、対象教師画像データセットの情報、モデル作成時の検定・評価・検証結果なども併せて格納する。モデル管理部204は、これらのモデル(その他付加情報を含む)の配置や提供のための管理を行う。
モデルが複数あれば、ステップS201からステップS206をモデルの数だけ繰り返す(ステップS207)。
最後に、モデル管理部204が作成したモデルを状況認識部11に配置し、道路工事現場検知システムの構築を行う(ステップS208)。
(第4実施形態)
ここで、第4実施形態について説明する。第4実施形態は、上記説明した実施形態を道路状況の認識に適用したものである。したがって、上記説明した実施形態と同一の構成については、同一の参照番号を引用することによって説明を省略する。
本実施形態においても状況認識装置1は、計測部10と状況認識部11と結果出力部12とを備えている。
状況認識装置1の計測部10は、車に搭載したカメラとする。具体的には、自動運転や運転支援システムで用いられるカメラや、ドライブレコーダーのカメラ、スマートフォンのカメラなどであり、それらはCMOS(Complementary metal-oxide-semiconductor)やCCD(charge-coupled device)イメージセンサなどのセンサから成り立つ。計測部10は、例えば図8に示すような画像を取得する。計測部10は、取得した画像のデータを状況認識部11に出力する。
状況認識部11は、車に搭載された情報処理装置であり、計測部10から受け取った画像データを処理し結果出力部12に情報処理結果を出力する。具体的には、車載コンピュータやスマートフォンなどである。また、計測部10で取得したデータを通信によりサーバやクラウドなどの車外の情報処理装置に転送して情報処理・演算してもよい。
結果出力部12は、車に搭載された表示装置であり、状況認識部11から結果を受け取る。具体的には、インストルメントパネルなどの計器やディスプレイ、スマートフォンの画面などであり、人に状況認識部11の判定結果を伝えることができる。また、状況認識部11の判定結果および様々な情報を、別の車内外の装置に出力しても良い。この情報を別の装置が利用したり、記憶装置に記録したりしてもよい。
本実施形態においても状況認識部11は、前処理部101と前処理設定値保持部111と検知部102とモデル保持部112と判定処理部103と判定設定値保持部113とを備えている。
前処理部101は、計測部10から画像データを受け取り、後段の検知部102での画像解析などによるオブジェクト検知をより行いやすくするための前処理を行う。具体的には、以下のような処理を行う。全て行ってもよいし行わなくてもよく、またこれらに限らない。晴天や曇天などの環境の明るさの違いや照明変化に追随するために、画像の明るさやコントラストを整えて正準化・標準化する。朝昼晩の時間帯による色調の違いや、自然光と人工照明による違いなどを吸収するための色調などの補正を行い正準化・標準化する。雨や雪、またはゴミや埃などのノイズ除去やかすみ除去などを行う。
また、後段の検知部102での精度向上や計算資源の削減などの目的のために、次のような前処理を行ってもよい。画像から検知部102でのオブジェクト検知に明らかに必要がない部分を削除したり、画像全体ではなく一部の領域に絞るためのバウンディングボックスなどの領域を示す情報を算出したりする。例えば、エッジ検出などの技術により道路の形状を認識し、消失点やパース等から判定対象領域を特定・限定する。また、工事現場に多い赤色や橙色、黄色、緑色、青色などの特定の色域の領域を検知しそれらの集積箇所を特定して、判定対象の領域を特定・限定する。
前処理設定値保持部111は、前記の前処理部101での前処理のための設定値(パラメータ)を保持する。具体的には、この設定値(パラメータ)を保持するデータベースである。前処理部101は、前処理設定値保持部111から処理のための設定値(パラメータ)を取得する。
検知部102は、前処理部101で処理された画像データに対して、複数の要素オブジェクト検知を行い、要素オブジェクト検知結果を生成し、判定処理部103に要素オブジェクト検知結果を出力する。
例えば、図8の画像の例では、「工事看板A」、「工事サインB」、「工事フェンスC」、「警備員D」、「三角コーンE」、「重機F」などの要素オブジェクトがあるかどうかを検知し、その数・場所・領域・確信度を算出し、これらをまとめた要素オブジェクト検知結果を生成する。
この要素オブジェクトの検知は、特徴量を用いたモデルによる検知や、機械学習技術を用いたクラス分類による検知などにより実現される。この要素オブジェクト検知のためのモデル(判定モデル、判定アルゴリズム、判定方式、およびそれらの設定値(パラメータ))は、モデル保持部112から取得する。
モデル保持部112は、検知部102での要素オブジェクト検知のためのモデル(判定モデル、判定アルゴリズム、判定方式、およびそれらの設定値(パラメータ))などを保持する。具体的には、これらのモデルおよびパラメータセットを保持するデータベースである。このモデルとは、例えば「工事看板A」、「工事サインB」、「工事フェンスC」、「警備員D」、「三角コーンE」、「重機F」などをそれぞれ検知するモデルおよびそのパラメータセットである。要素オブジェクトを検知するモデルは、画像処理におけるオブジェクト検知アルゴリズムや機械学習モデルなどである。
判定処理部103は、検知部102で判定された要素オブジェクト検知結果を基に、工事現場かどうかの判定を行う。この判定は、要素オブジェクト検知結果を用い、要素オブジェクトの組み合わせがどのようなものであるかから判定を行う。
例えば、図8の画像の例では、要素オブジェクト検知結果には、「工事看板A」、「工事サインB」、「工事フェンスC」、「警備員D」、「三角コーンE」、「重機F」の検知結果がある。一方、工事現場判定基準として、「工事看板」、「工事サイン」、「三角コーン」がそれぞれ1つ以上存在することとして判定する。これにより、道路工事現場の判定であれば、三角コーンだけ存在しても工事であると判定せず、工事看板と工事サインと三角コーンの複数が同時に存在すれば、それを工事であると判定することができる。
判定結果は、道路工事現場であるかどうかであってもよいし、道路工事現場である確信度であってもよい。この確信度は、要素オブジェクト検知結果から求められる。例えば、要素オブジェクト検知結果のそれぞれの確信度の平均であったり、判定基準にない「工事フェンス」、「警備員」、「重機」が存在すればより確信度を上げるといったりすることを行う。
工事現場判定基準は、要素オブジェクトの種類・個数・位置・大きさなどの満たすべき基準であり、判定設定値保持部113で判定設定値として保持している。判定設定値保持部113は、判定処理部103での工事現場の判定のための工事現場判定基準としての判定設定値(パラメータ)を保持する。具体的には、この判定設定値(パラメータ)を保持するデータベースである。本実施例では、前記のように、「工事看板」、「工事サイン」、「三角コーン」がそれぞれ1つ以上存在することが設定されている。
本実施形態においてもモデル作成装置2は、データ管理部201とデータ保持部211と前処理部202と前処理設定値保持部212とモデル作成部203とモデル保持部213とモデル管理部204とを備えている。
データ管理部201は、要素オブジェクト検知のためのモデル(判定モデル、判定アルゴリズム、判定方式、およびそれらの設定値(パラメータ))を生成するための画像データの管理を行う。
機械学習によるモデル作成を行う場合は、教師画像のデータセットの管理を行う。本実施例の場合は、「工事看板」、「工事サイン」、「工事フェンス」、「警備員」、「三角コーン」、「重機」の各要素の教師画像のデータセットの管理を行う。
この管理の主な機能は、上記の要素オブジェクト毎にセットとしてデータ保持部211からそのデータセットを取得し、後段の前処理部202に提供することである。このデータは要素だけの意味を持つデータでもよいし、その要素の領域指定(バウンディングボックス等)の付加情報付きのデータでもよい。
また、後述のモデル管理部204と連携して、データセットのバージョン(版数)管理や更新履歴管理、モデル検証での性能値や実運用からのフィードバック情報との紐付け管理、アクセスや検索しやすいようにインデックス生成や統合管理などを行う。
データ保持部211は、データ管理部201で管理するデータ(データセット)を保持する。具体的には、このデータ(データセット)を保持するデータベースである。本実施例の場合、このデータ(データセット)とは、「工事看板」、「工事サイン」、「工事フェンス」、「警備員」、「三角コーン」、「重機」の各要素の教師画像のデータ、およびラベルやアノテーション、領域等の付加情報の集合である。
前処理部202は、前処理部101と同等の機能を持つ。また、前処理設定値保持部212は、前処理設定値保持部111と同等の機能を持つ。
モデル作成部203は、前処理部202で処理された画像データを用いて、各要素オブジェクト検知のためのモデルの作成を行い、作成したモデルをモデル保持部213に格納する。具体的には、本実施例の場合、 「工事看板」、「工事サイン」、「工事フェンス」、「警備員」、「三角コーン」、「重機」の各要素のオブジェクト検知モデルを作成する。教師あり学習等の機械学習によるモデル作成を行う場合は、各要素の教師画像のデータセットから、学習・訓練を行い、モデル作成を行う。モデルの作成には、単なる学習・訓練だけでなく、モデルの検定・評価・検証も含めて行ってもよい。
モデル保持部213は、モデル作成部203で作成された要素オブジェクト検知のためのモデル(判定モデル、判定アルゴリズム、判定方式、およびそれらの設定値(パラメータ))などを保持する。具体的には、本実施例の場合、 「工事看板」、「工事サイン」、「工事フェンス」、「警備員」、「三角コーン」、「重機」の各要素のオブジェクト検知モデルを保持する。
モデル管理部204は、要素オブジェクト検知のためのモデルの管理と状況認識部11へのそのモデル提供を行う。
本実施形態におけるモデルは要素オブジェクト毎にある。具体的には、工事看板用モデル、工事サイン用モデル、工事フェンス用モデル、警備員用モデル、三角コーン用モデル、重機用モデルである。また、複数要素オブジェクトを検知するモデルであってもよい。例えば、工事看板と工事サインを多クラス(多カテゴリー)で分類するモデル(マルチクラスモデル)であってもよい。
このモデル管理部204の主な機能は、状況認識部11にこれらのモデル提供を行うことである。状況認識部11へのモデル提供とは、製造時に配置したり、サーバやクラウドなどから取得したりすることなどを意味する。
モデル管理とは、これらの複数のモデルを基とになったデータセットと紐づけたり、バージョン(版数)や更新履歴、性能値などと一緒に結びつけたり、アクセスや検索しやすいようにまとめたりすることなどを言う。これにより、状況認識部11へ柔軟にモデルおよび付加情報を提供することができる。また、モデルは前処理に依存したものであることもあるので、モデル管理部204は前処理設定値保持部212が持つ前処理設定値(パラメータ)も合わせてモデル提供してもよい。
なお、上記実施形態では道路工事現場を検知するものであったが、道路工事のうち掘削に関わる現場のみを検知するものとしてもよい。
(第5実施形態)
ここで、第5実施形態について説明する。第5実施形態は、状況認識の前に前判断を行うようにした実施形態である。したがって、上記説明した実施形態と同一の構成については、同一の参照番号を引用することによって説明を省略する。
図9は、第5実施形態に係る状況認識装置の構成を示す図である。図9に示すように、状況認識装置1は、1つもしくは複数の計測部10a,10bと前判断部17と状況認識部11と結果出力部12とを備えている。
1つもしくは複数の計測部10a,10bは、他の実施形態と同様に、それぞれをカメラや、ドライブレコーダーのカメラ、スマートフォンのカメラなどにすることができる。また、複数の計測部10a,10bは、同一のものに限らず、カメラと波長センサなど異なる種類のセンサを組み合わせることも可能である。
前判断部17は、1つもしくは複数の計測部10a,10bから受け取った画像データを処理し、状況認識部11による状況認識の前に状況認識を実行させるかの前判断を行い、状況認識を行うと判断した場合に状況認識部11に画像データを出力する。これは、無駄な状況認識を避け計算資源の削減を行うためである。
なお、状況認識部11および結果出力部12は、他の実施形態と同様に構成することができるのでここでは説明を省略する。また、本実施形態においても、状況認識装置1がモデル作成装置2を備えてもよい。
図10は、前判断部の動作の手順を示す図である。図10に示すように、まず、1つもしくは複数の計測部10a,10bが画像データを取得する(ステップS501)。
一方、前判断部17は、前判断条件を以下のように取得する(ステップS502)。なお、以下で説明する前判断条件は例示であり、また、これらは1つもしくは複数を組み合わせて用いることができる。
[マップ情報による前判断]
GPS(全地球測位システム)等で取得した位置情報と、事前に準備もしくはサーバ等に問い合わせ等して取得したマップ情報との組み合わせを1つの前判断条件とする。これは自分の位置にある工事が、例えば許可されているものかどうかを判断して、後段の状況認識が必要か不要かを判断するためである。マップ情報とは、どの位置の工事を判定する必要があるか不要であるかが記された情報である。例えば、許可された工事は判定不要である、必要な道路(対象となる道路)以外は判定不要であるなどである。
[工事情報による前判断]
画像データから工事看板の文字を読み取りその読み取った文字情報と、事前に準備もしくはサーバ等に問い合わせ等して取得した工事情報との組み合わせを1つの前判断条件とする。これは画像データで読み取った工事が、例えば許可されているものかどうかを判断して、後段の状況認識が必要か不要かを判断するためである。工事情報とは、工事目的・工事名、工事期間、工事種別、工事の発注者や施工者などの情報である。
前判断部17は、上記のような前判断条件から、後段の状況認識が必要か不要かを判断する(ステップS503)。
例えば、マップ情報による前判断の場合、位置情報の位置(場所、領域)が、マップ情報にある判定が必要な工事もしくは道路であれば、後段の状況認識が必要であると判定し、それ以外を不要と判定する。
例えば、工事情報による前判断の場合、文字情報の工事目的・工事名、工事期間、工事種別、工事の発注者や施工者などが、工事情報にある判定が不要な工事であれば、後段の状況認識が不要であると判定し、それ以外を必要と判定する。
そして、前判断部17は、状況認識が必要と判定された画像データのみを、状況認識部11に出力する(ステップS504)。
図11は、状況認識装置の動作の手順を示す図である。第5実施形態に係る状況認識装置の動作の手順は、他の実施形態と同様に、状況認識方法として実施することも可能であり、図3に示したようなハードウェア構成のコンピュータ上で実行させる状況認識プログラムとしても実施することが可能である。
図11に示すように、まず、車載カメラなどの1つもしくは複数の計測部10a,10bが画像データを取得する(ステップS601)。複数の車載カメラがある場合は、複数の画像データを取得する。この複数の車載カメラとは、例えば、前方を撮影するカメラと側方を撮影するカメラなどである。これは、複数のカメラ画像を使うことで判定精度を上げるためである。また、時間的な間隔を開けて撮影した時間差画像データでもよい。例えば、1秒前に撮影した画像と現在撮影した画像の2つの画像などである。これは、車が走行することで別の異なる視点から撮影した別の画像を用いることで、死角に隠れていた要素オブジェクトの認識をしやすくし、より判定精度を上げるためである。
次に、前処理部101が、前処理設定値保持部111から前処理設定値を取得する(ステップS602)。なお、複数の車載カメラがある場合は、異なる前処理設定でもよい。そして、前処理部101は、計測部10から1つもしくは複数の画像データを受け取り、前ステップで取得した前処理設定値を基に前処理を行う(ステップS603)。複数の車載カメラがある場合は、異なる前処理でもよい。
検知部102は、モデル保持部112から、要素オブジェクト検知のためのモデルを取得する(ステップS604)。例えば、工事看板用モデル、工事サイン用モデル、工事フェンス用モデル、警備員用モデル、三角コーン用モデル、重機用モデルを取得するなどである。検知部102は、前処理部101から前処理された1つまたは複数の画像データを受け取り、前ステップで取得したモデルを基に要素オブジェクト検知を行う(ステップS605)。モデルが複数あれば、ステップS604およびステップS605を繰り返す(ステップS606)。
次に、判定処理部103は、判定設定値保持部113から、工事現場の判定のための工事現場判定基準としての判定設定値を取得する(ステップS607)。例えば、判定設定値として、工事看板、工事サイン、三角コーン、警備員、重機がそれぞれ1つ以上存在することが工事現場であることの判定基準であるとの設定と、重機の重みが他と比べて2倍であるといった設定である。
判定処理部103は、検知部102で判定された1つもしくは複数の要素オブジェクト検知結果を受け取り、前ステップで取得した判定設定値を基に、工事現場かどうかの判定を行う(ステップS608)。ここでは、複数画像データを用いるために、以下のような判定を用いる。
[複数画像データによる判定]
複数画像データがある場合、それらの画像データに対する複数の要素オブジェクト検知結果があるが、これらの和(合計)を取ったり、重複オブジェクトを除外してまとめたりして、その結果に対し、判定設定値を基に、工事現場かどうかの最終的な判定を行ってもよい。
また、複数の要素オブジェクト検知結果に対し、判定設定値を基に、工事現場かどうかの判定を行って、その複数の結果に対し、多数決をとったり確信度の高い方を優先したりして、工事現場かどうかの最終的な判定を行ってもよい。
[重み付けによる判定]
重み付けによる判定を行う場合、例えば、判定設定値として、工事看板、工事サイン、三角コーン、警備員、重機がそれぞれ1つ以上存在することが工事現場であることの判定基準であるとの設定と、重機の重みが他と比べて優先であるとの設定の場合、検知部102で判定された要素オブジェクト検知結果に工事看板、工事サイン、三角コーン、警備員、重機がそれぞれ1つ以上存在すれば、工事現場であると判定するが、重機の重みにより判定結果もしくは確信度を調整してもよい。
重みにより判定結果を調整するとは、例えば、工事看板、工事サイン、三角コーン、警備員、重機がそれぞれ1つ以上存在することが工事現場であることの判定基準である場合、重機の重みが他と比べて優先であるとすると、重機以外のオブジェクトが存在しなくても、工事現場であると判断するなど、優先的な判定を行うなどを意味する。
重みにより判定結果の確信度を調整するとは、検知部102で判定された要素オブジェクト検知結果の中の優先すべき該当要素オブジェクトの確信度を指定された優先方法で調整することをいう。本実施例の場合、例えば、重機の重みが2倍であるとの設定であれば、上記の重機の確信度を2倍することになる。
判定結果は、判定した状況、および確信度などで表す。また、複数の状況・確信度の集合でもよい。
結果出力部12は、判定結果を受け取り、表示装置にその結果を表示する(ステップS609)。
以上、本発明を実施形態に基づいて説明してきたが、ここで上記説明した実施形態に共通する効果について説明する。
[データ準備の容易性]
本発明の実施形態では、事前に準備するデータは要素オブジェクト毎でよい。例えば、工事現場のバリエーションは無限であり、事前に工事現場のあらゆる画像データを準備するのは現実的にはできない。しかしながら、本発明の実施形態では、「工事看板」、「工事サイン」、「工事フェンス」、「警備員」、「三角コーン」、「重機」に限定することができる。
教師あり学習等の機械学習を用いて工事現場を検出(分類)する場合、工事現場のバリエーションは非常に多いため、その分教師データを多量に準備する必要がある。また、ルールや特徴量を用いた判定方式の場合、様々な工事現場のバリエーションに対応できる多量のルールやアルゴリズムの構築が必要となる。
一方、本発明の実施形態は、多種多様の教師データを事前に大量に準備したり大量のルールを準備したりすることなく、限定された種別の少数の教師データを準備するだけで、工事現場であるかどうかの判定ができる。
[解釈可能性]
本発明の実施形態における判定は、複数の各要素オブジェクトが存在するかどうかの真偽、各要素の個数、もしくは要素オブジェクト毎の確信度を基に判断して出すことができるため、本システムが判断した結果を解釈することができる(解釈可能性の存在)。
つまり、判定結果は、工事現場であるかどうかの真偽やその確信度だけでなく、どういう判断・推論結果だったのかをユーザもしくは開発者に提示することができる。これにより、モデルやデータの正当性や性能を判断することができ、モデルのチューニングやデータセットの調整などに利用することができる。
[チューニング可能性]
本発明の実施形態は、判定設定値により判定基準を決定しているため、判定基準を調整(チューニング)することができる。
本発明の実施形態は、例えば、判定設定値として、工事看板、工事サイン、三角コーンがそれぞれ1つ以上存在することが工事現場であることの判定基準であると設定されているが、三角コーンを3つ以上に変更したり、あるいは新たに「警備員」が1つ以上という条件を追加したりすることができる。これは、教師データを再準備したり、あるいは学習をやり直したりすることなく、調整(チューニング)ができることを意味する。
また、「工事看板」、「工事サイン」、「工事フェンス」、「警備員」、「三角コーン」、「重機」のモデルを前提にしていたが、新たに「工事用照明」といった別の要素モデルを追加することができ、判定基準に加えることができる。これは、すでに作成済みモデルを再度作成しなおすことなくできる。
[頑健性]
本発明の実施形態における判定結果は、複数の種類の複数の要素オブジェクトが存在するかどうか等で判断して出すため、多少の誤検知や検出漏れに対して判定結果は頑健である。すなわち、検出対象のオブジェクトが別のオブジェクトで隠されていたり(オクルージョン)、照明やノイズの影響があったりして、誤検知もしくは検出漏れがあっても、判定結果への影響は少ないという効果がある。
[モデルの軽量性]
本発明の実施形態における判定では、要素オブジェクトごとにモデルを作成し、その要素オブジェクトごとのモデルを用いる。このような要素オブジェクトを検知するモデルは、工事現場全体の検知を1つのモデルで行うモデルよりも軽量であるため、モデル保持部112の容量低減の効果が期待できる。また、同様に、検知部102での計算量の低減の効果も期待できる。
[データの軽量性]
本発明の実施形態における判定では、前処理部101では画像から検知部でのオブジェクト検知に明らかに必要がない部分を削除してもよい。すなわち、計測部10から取得した画像データの全ては不要であることを意味する。したがって、前処理部101から検知部102が受け取る前処理された画像データは軽量となる(データ量の削減)効果が期待できる。
なお、本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択(少なくとも部分的な非選択を含む)が可能である。すなわち、本発明は、請求の範囲を含む全開示、修正を含むことはもちろんである。特に、本書に記載した数値範囲について、当該範囲内に含まれる任意の数値ないし小範囲が別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。また、引用した上記の特許文献等の各開示は、本書に引用をもって織り込むものとする。
1 状況認識装置
2 モデル作成装置
10、10a、10b 計測部
11 状況認識部
12 結果出力部
13 コンピュータ(ハードウェア構成)
14 CPU
15 主記憶装置
16 補助記憶装置
17 前判断部
101 前処理部
102 検知部
103 判定処理部
111 前処理設定値保持部
112 モデル保持部
113 判定設定値保持部
201 データ管理部
202 前処理部
203 モデル作成部
204 モデル管理部
211 データ保持部
212 前処理設定値保持部
213 モデル保持部

Claims (10)

  1. 認識すべき状況のデータを取得する計測部と、
    前記計測部が取得したデータから要素オブジェクトを検知し、前記検知された要素オブジェクトの組み合わせに基づいて状況認識を行う状況認識部と、
    前記状況認識部が判定した結果を出力する結果出力部と、
    を備えることを特徴とする状況認識装置。
  2. 前記状況認識部は、
    前記要素オブジェクト毎のモデルを保持するモデル保持部と、
    前記モデル保持部が保持するモデルのそれぞれに基づいて前記データから要素オブジェクトを検知する検知部とを有する、
    ことを特徴とする請求項1に記載の状況認識装置。
  3. 前記モデルは、事前に準備された教師データを用いた機械学習によって作成されたものであることを特徴とする請求項2に記載の状況認識装置。
  4. 前記モデルは、事前に準備されたデータから作成された特徴量を用いたものであることを特徴とする請求項2に記載の状況認識装置。
  5. 事前に準備したデータから前記モデルを作成するモデル作成装置をさらに備える、ことを特徴とする請求項2から請求項4のいずれか1項に記載の状況認識装置。
  6. 前記状況認識部は、
    前記要素オブジェクトの組み合わせに基づいて状況認識を行う判断基準を変更可能に保持する判定設定保持部と、
    前記判定設定保持部に保持された判定基準に基づいて状況認識を行う判定処理部とを有する、
    ことを特徴とする請求項1から請求項5のいずれか1項に記載の状況認識装置。
  7. 前記要素オブジェクトの検知は、ある要素オブジェクトがデータ中に存在するか否かを検知するものであることを特徴とする請求項1から請求項6のいずれか1項に記載の状況認識装置。
  8. 前記計測部は、車載カメラであり、
    前記要素オブジェクトは、道路工事現場に配置される工事物である、
    ことを特徴とする請求項1から請求項7のいずれか1項に記載の状況認識装置。
  9. 認識すべき状況のデータを取得し、
    前記取得したデータから要素オブジェクトを検知し、
    前記検知された要素オブジェクトの組み合わせに基づいて状況認識を行う、
    ことを特徴とする状況認識方法。
  10. 認識すべき状況のデータを取得するステップと、
    前記取得したデータから要素オブジェクトを検知するステップと、
    前記検知された要素オブジェクトの組み合わせに基づいて状況認識を行うステップと、
    をコンピュータに実行させることを特徴とする状況認識プログラム。
JP2019104470A 2019-06-04 2019-06-04 状況認識装置、状況認識方法、および状況認識プログラム Pending JP2020197974A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019104470A JP2020197974A (ja) 2019-06-04 2019-06-04 状況認識装置、状況認識方法、および状況認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019104470A JP2020197974A (ja) 2019-06-04 2019-06-04 状況認識装置、状況認識方法、および状況認識プログラム

Publications (1)

Publication Number Publication Date
JP2020197974A true JP2020197974A (ja) 2020-12-10

Family

ID=73648087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019104470A Pending JP2020197974A (ja) 2019-06-04 2019-06-04 状況認識装置、状況認識方法、および状況認識プログラム

Country Status (1)

Country Link
JP (1) JP2020197974A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7482772B2 (ja) 2020-12-28 2024-05-14 大阪瓦斯株式会社 無届工事検知システム
KR102680331B1 (ko) * 2021-05-10 2024-07-03 한국전력공사 지중 케이블 감시 시스템 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180074506A1 (en) * 2017-11-21 2018-03-15 GM Global Technology Operations LLC Systems and methods for mapping roadway-interfering objects in autonomous vehicles

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180074506A1 (en) * 2017-11-21 2018-03-15 GM Global Technology Operations LLC Systems and methods for mapping roadway-interfering objects in autonomous vehicles

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7482772B2 (ja) 2020-12-28 2024-05-14 大阪瓦斯株式会社 無届工事検知システム
KR102680331B1 (ko) * 2021-05-10 2024-07-03 한국전력공사 지중 케이블 감시 시스템 및 방법

Similar Documents

Publication Publication Date Title
EP3520045B1 (en) Image-based vehicle loss assessment method, apparatus, and system, and electronic device
US10839211B2 (en) Systems, methods and computer program products for multi-resolution multi-spectral deep learning based change detection for satellite images
US9953245B2 (en) Multi-camera vehicle identification system
US10373024B2 (en) Image processing device, object detection device, image processing method
KR101607224B1 (ko) 동적 물체 분류 방법 및 장치
US10043084B2 (en) Hierarchical context-aware extremity detection
US20200247433A1 (en) Testing a Neural Network
JP6975369B2 (ja) 駐車違反の検出方法及び装置、電子機器、コンピュータ読み取り可能な媒体
EP2798578A2 (en) Clustering-based object classification
US20230289887A1 (en) Optical Fraud Detector for Automated Detection Of Fraud In Digital Imaginary-Based Automobile Claims, Automated Damage Recognition, and Method Thereof
JP6700373B2 (ja) ビデオ動画の人工知能のための学習対象イメージパッケージング装置及び方法
EP2124194B1 (en) Method of detecting objects
CN102855459A (zh) 用于特定前景物体的检测验证的方法和系统
CN112287983B (zh) 一种基于深度学习的遥感图像目标提取系统和方法
CN116563583B (zh) 一种图像匹配的方法、地图信息的更新方法以及相关装置
Haque et al. Rule-based land cover classification from very high-resolution satellite image with multiresolution segmentation
CN110909656A (zh) 一种雷达与摄像机融合的行人检测方法和系统
CN114842370A (zh) 用于训练计算机视觉模型的计算机实现的方法
JP2020197974A (ja) 状況認識装置、状況認識方法、および状況認識プログラム
JP5407897B2 (ja) 画像分類方法、装置、及びプログラム
CN106897683A (zh) 一种遥感图像的地物检测方法及系统
CN111435457A (zh) 对传感器获取的采集进行分类的方法
US20220262103A1 (en) Computer-implemented method for testing conformance between real and synthetic images for machine learning
JP2007004721A (ja) 対象物検出装置、及び対象物検出方法
JP5526805B2 (ja) 重み付け方法、装置、及びプログラム、並びに、特徴画像抽出方法、装置、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231006

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240109