JP7025080B1 - 識別装置、識別プログラム、および識別方法 - Google Patents

識別装置、識別プログラム、および識別方法 Download PDF

Info

Publication number
JP7025080B1
JP7025080B1 JP2021133202A JP2021133202A JP7025080B1 JP 7025080 B1 JP7025080 B1 JP 7025080B1 JP 2021133202 A JP2021133202 A JP 2021133202A JP 2021133202 A JP2021133202 A JP 2021133202A JP 7025080 B1 JP7025080 B1 JP 7025080B1
Authority
JP
Japan
Prior art keywords
road surface
vehicle
damage
image
operation mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021133202A
Other languages
English (en)
Other versions
JP2023027871A (ja
Inventor
邦彦 三好
紘弥 前田
Original Assignee
株式会社アーバンエックステクノロジーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アーバンエックステクノロジーズ filed Critical 株式会社アーバンエックステクノロジーズ
Priority to JP2021133202A priority Critical patent/JP7025080B1/ja
Priority to JP2022015814A priority patent/JP2023029190A/ja
Application granted granted Critical
Priority to PCT/JP2022/007571 priority patent/WO2023021736A1/ja
Publication of JP7025080B1 publication Critical patent/JP7025080B1/ja
Publication of JP2023027871A publication Critical patent/JP2023027871A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Traffic Control Systems (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Analysis (AREA)

Abstract

【課題】効率的に路面の損傷を検出することができる識別プログラムを提供する。【解決手段】本開示のプログラムは、プロセッサを備え、路面を撮影した画像から路面における損傷の有無の検出処理を行う識別装置に用いられるプログラムであって、プロセッサに、車両に搭載され、車両の周辺の路面を撮影するステップと、撮影部が撮影した画像から、路面の損傷の有無を評価するステップと、周辺の路面の状態の変化に応じて、検出処理の動作モードを変更するステップと、を実行させる。【選択図】図11

Description

本開示は、識別装置、識別プログラム、および識別方法に関する。
近年、カメラで道路の状態を撮影し、路面の損傷の有無を検出するシステムが知られている。
例えば特許文献1には、点検車両を路面上で走行させながら路面をカメラで撮像し、撮像画像から、点検装置の影、路面上のペイントされた表示案内、および路面の汚れ等の検出対象である損傷箇所ではない部分を除去するシステムが開示されている。
特開2005-43324号公報
従来技術のような検出システムでは、一定の時間間隔で道路の画像を撮影して画像処理する方法が行われることが一般的である。しかしながらこの方法によると、車両が停止している間にも、走行時と同じように路面の撮影、および撮影後の画像処理を繰り返してしまい、ほとんど内容の同じ画像が多く撮影されて評価されることにより、質の高い情報が得られにくいという問題があった。
本開示では、効率的に路面の損傷を検出することができる識別装置、識別方法、および識別プログラムを提供することを目的とする。
本開示のプログラムは、プロセッサを備え、路面を撮影した画像から路面における損傷の有無の検出処理を行う識別装置に用いられるプログラムであって、プロセッサに、車両に搭載され、車両の周辺の路面を撮影するステップと、撮影部が撮影した画像から、路面の損傷の有無を評価するステップと、周辺の路面の状態の変化に応じて、検出処理の動作モードを変更するステップと、を実行させる。
本開示の識別装置、識別プログラム、および識別方法によれば、効率的に路面の損傷を検出することができる。
本実施形態に係る識別装置の構成例を表すブロック図である。 図1に示される携帯端末の機能構成の例を示すブロック図である。 端末装置を車両に搭載した状態を説明する図である。 情報処理サーバに表示される第1画面の例を示す図である。 図1に示されるサーバの機能構成の例を示すブロック図である。 情報処理サーバに表示される第2画面の例を示す図である。 識別装置により識別される損傷の種類の第1例を示す図である。 識別装置により識別される損傷の種類の第2例を示す図である。 識別装置により実行される路面の損傷の検出処理のフローを説明する図である。 評価データの一例を示す図である。 識別装置により実行される路面の損傷の検出における動作モードの制御処理のフローを説明する図である。
以下、図面を参照しながら、実施の形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本開示の必須構成要件であるとは限らない。
(実施形態)
<1.実施形態の概要>
本開示の識別装置1の実施形態の概要について説明する。
本実施形態に係る識別装置1は、車両が走行する道路における路面の損傷を識別して、損傷の有無を検出する装置である。
また、識別装置1は、周辺の路面の状態に応じて、路面の損傷の検出処理の動作モードを変更するステップを実行する。
識別装置1が制御する路面の損傷の検出処理の動作モードには以下が挙げられる。
・撮影部による路面の撮影の頻度
・端末装置からサーバへの撮影画像の送信レート
・路面の撮影画像の評価処理の頻度
本実施形態では、周辺の路面を走行する周辺車両の走行状態の変化を、撮影画像を用いて検出する方法を例に挙げて、識別装置1の構成および処理について説明する。
<2.システム構成>
まず、図1を用いて本実施形態に係る識別装置1の構成について説明する。図1は、本実施形態に係る識別装置1の構成例を表すブロック図である。図1に示される識別装置1は、端末装置10と、情報処理サーバ20と、を備えている。
端末装置10と情報処理サーバ20とは、ネットワーク30を介して相互に通信可能に接続されている。ネットワーク30は、有線又は無線ネットワークにより構成される。
端末装置10及び情報処理サーバ20は、無線基地局31、又は無線LAN規格32を用いて、ネットワーク30と接続する。なお、端末装置10及び情報処理サーバ20は、有線通信により、ネットワーク30と接続されてもよい。
ここで、識別装置1を構成する各装置(例えば、端末装置10と情報処理サーバ20)の集合体を、1つの「情報処理装置」として把握することができる。すなわち、複数の装置の集合体として識別装置1を実現し、識別装置1を実現するための複数の機能の配分を、各装置のハードウェアの処理能力に基づき適宜決定することとしてもよい。
<2.端末装置10の構成>
端末装置10は、車両に搭載される端末である。端末装置10は、例えば、スマートフォン、タブレット端末、又はラップトップパソコン等の汎用の携帯端末である。端末装置10として、複数のスマートフォン、タブレット端末、及びラップトップパソコン等を使用してもよい。このような携帯端末は、運転中の車両の走行経路の確認を目的として車両に搭載される端末であってもよい。
また、端末装置10は、事故発生時の状況記録を目的として車両に搭載される汎用のドライブレコーダに、後述する端末装置10としての各機能を搭載した機器を用いてもよい。
すなわち、本発明において路面の状態を撮影する端末装置10は、路面の撮影のためにのみ用いられる専用の装置に限られず、他の目的で搭載される端末装置10が有する撮影機能を利用して、付帯的に路面を撮影する兼用の装置であってもよい。
端末装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信IF14と、入出力IF15とを含んで構成される。
プロセッサ11は、プログラムに記述された命令セットを実行するためのハードウェアであり、演算装置、レジスタ、周辺回路などにより構成される。
メモリ12は、プログラム、及び、プログラム等で処理されるデータ等を一時的に記憶するためのものであり、例えばDRAM(Dynamic Random Access Memory)等の揮発性のメモリである。
ストレージ13は、データを保存するための記憶装置であり、例えばフラッシュメモリ、HDD(Hard Disc Drive)、SSD(Solid State Drive)である。
通信IF14は、識別装置1が外部の装置と通信するため、信号を入出力するためのインタフェースである。
入出力IF15は、ユーザからの入力操作を受け付けるための入力装置(例えば、マウス等のポインティングデバイス、キーボード)、及び、ユーザに対し情報を提示するための出力装置(ディスプレイ、スピーカ等)とのインタフェースとして機能する。
情報処理サーバ20は、プロセッサ21と、メモリ22と、ストレージ23と、通信IF24と、入出力IF25とを含んで構成される。プロセッサ21と、メモリ22と、ストレージ23と、通信IF24と、入出力IF25とは、それぞれ、プロセッサ11と、メモリ12と、ストレージ13と、通信IF14と、入出力IF15と同様であるため、説明を省略する。
情報処理サーバ20は、コンピュータ、及びメインフレーム等により実現される。なお、情報処理サーバ20は、1台のコンピュータにより実現されてもよいし、複数台のコンピュータが組み合わされて実現されてもよい。
<3.端末装置10の構成>
図2は、端末装置10の機能的な構成を示すブロック図である。図2に示すように、端末装置10は、複数のアンテナ(アンテナ111、アンテナ112)と、各アンテナに対応する無線通信部(第1無線通信部121、第2無線通信部122)と、操作受付部130と、音声処理部140(マイク141及びスピーカ142を含む)と、撮影部150と、記憶部160と、制御部170と、GPSアンテナ180と、を備えている。なお、端末装置10は、操作受付部130として、キーボードを備えていてもよい。
端末装置10は、図2では特に図示していない機能及び構成(例えば、電力を保持するためのバッテリー、バッテリーから各回路への電力の供給を制御する電力供給回路など)も有している。図2に示すように、端末装置10に含まれる各ブロックは、バス等により電気的に接続される。
アンテナ111は、端末装置10が発する信号を電波として放射する。また、アンテナ111は、空間から電波を受信して受信信号を第1無線通信部121へ与える。
アンテナ112は、端末装置10が発する信号を電波として放射する。また、アンテナ112は、空間から電波を受信して受信信号を第2無線通信部122へ与える。
第1無線通信部121は、端末装置10が他の無線機器と通信するため、アンテナ111を介して信号を送受信するための変復調処理などを行う。第2無線通信部122は、端末装置10が他の無線機器と通信するため、アンテナ112を介して信号を送受信するための変復調処理などを行う。第1無線通信部121と第2無線通信部122とは、チューナー、RSSI(Received Signal Strength Indicator)算出回路、CRC(Cyclic Redundancy Check)算出回路、高周波回路などを含む通信モジュールである。第1無線通信部121と第2無線通信部122とは、端末装置10が送受信する無線信号の変復調や周波数変換を行い、受信信号を制御部170へ与える。
操作受付部130は、ユーザの入力操作を受け付けるための機構を有する。具体的には、操作受付部130は、ディスプレイ131を含む。なお、操作受付部130は静電容量方式のタッチパネルを用いることによって、タッチパネルに対するユーザの接触位置を検出する、タッチスクリーンとして構成されている。
ディスプレイ132は、制御部170の制御に応じて、画像、動画、テキストなどのデータを表示する。ディスプレイ132は、例えばLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイによって実現される。
音声処理部140は、音声信号の変復調を行う。音声処理部140は、マイク141から与えられる信号を変調して、変調後の信号を制御部170へ与える。また、音声処理部140は、音声信号をスピーカ142へ与える。音声処理部140は、例えば音声処理用のプロセッサによって実現される。
マイク141は、音声入力を受け付けて、当該音声入力に対応する音声信号を音声処理部140へ与える。スピーカ142は、音声処理部140から与えられる音声信号を音声に変換して当該音声を端末装置10の外部へ出力する。
撮影部150は、車両に搭載され、路面の画像を撮影する装置である。具体的には、撮影部150は、受光素子により光を受光して、撮影画像161として出力するカメラである。
撮影部150は、例えば、撮影部150から撮影対象までの距離を検出できる深度カメラである。撮影部150は、静止画のみならず、動画を撮影することができる。撮影部150により動画を撮影する場合には、動画を構成する1フレーム毎の画像が撮影画像161として扱われる。図3は端末装置10を車両に搭載した状態を説明する図である。
図3Aは、車両に搭載した端末装置10の外観を示す図である。図3Bは、車両に搭載した端末装置10に表示される撮影画像161の例を示す図である。
図3Aに示すように、端末装置10は、撮影部150が車両の前方を向く姿勢で車両に搭載される。撮影部150は、車両の前方の路面の状態を所定の時間ごとに断続的に撮影する。
図3Bに示すように、撮影画像161には、路面の損傷を囲むバウンディングボックスBを出力する。このように、損傷を囲むバウンディングボックスBを出力することで、路面の損傷の有無のみならず、損傷の位置が識別され、損傷の状態についてより詳細な情報が得られる。また、バウンディングボックスBによって損傷の位置が強調され、識別結果の確認が容易となる。
GPS(Global Positioning System)アンテナ180は、車両の位置を検出し、車両が走行した経路に関する情報を取得する。GPSアンテナ180は、取得した車両の位置、および走行経路に関する情報を制御部170の送受信部172に送信する。送受信部172は、受信した車両の位置、および走行経路に関する情報を、情報処理サーバ20に送信する。
図4は、本実施形態に係る情報処理サーバ20に表示される第1画面DP1の例を示す図である。第1画面DP1は、識別部173が損傷を検出した検出画像2021を受信した場合に表示されてよい。ここで、識別装置1は、GPSアンテナ180から取得した車両の走行経路に関する情報を、画像が撮影された位置に関する情報として、情報処理サーバ20に送信する。
本例では、地図DP11上に符号Rで示す走行経路が示されるとともに、符号Dで示すマーカーによって、路面の損傷が検出された検出画像2021(図5参照)が撮影された位置が示されている。これにより、どこでどのような損傷が生じているのかが明らかとなり、損傷が生じている場所に応じて適切な管理者へ通知することができる。
第1画面DP1は、画像が撮影された位置を示す地図DP11、画像が撮影された路面の情報DP12、画像を一意に特定するためのデータID DP13及び画像が撮影された日時を示すタイムスタンプDP14等を含む。
図示の例では、画像が撮影された路面の情報DP12は、交通量(Traffic Volume 、車線数( Number of Lane)、幅員( Road Width)、法定の最高速度( Max Speed)およびタイプ( Road Type)を含むが、これら以外の情報が含まれてもよいし、これらのうちいずれかが含まれなくてもよい。
このように、データID DP13、およびタイムスタンプDP14が表示されていることにより、撮影画像161のデータを一意に特定した上で、いつどのような損傷が生じているのかを明らかにすることができ、修復を行うタイミング等の判断材料を提供することができる。
図2に示す記憶部160は、例えばフラッシュメモリ等により構成され、端末装置10が使用するデータ及びプログラムを記憶する。ある局面において、記憶部160は、撮影画像161、第1学習済みモデル162、および第2学習済みモデル163を記憶している。撮影画像161は、撮影部150により撮影された画像である。
制御部170は、記憶部160に記憶されるプログラムを読み込んで、プログラムに含まれる命令を実行することにより、端末装置10の動作を制御する。制御部170は、例えば予め端末装置10にインストールされているアプリケーションである。制御部170は、プログラムに従って動作することにより、入力操作受付部171と、送受信部172と、識別部173と、表示処理部174と、周辺認識部175と、動作制御部176しての機能を発揮する。
入力操作受付部171は、入力装置に対するユーザの入力操作を受け付ける処理を行う。
送受信部172は、端末装置10が、情報処理サーバ20等の外部の装置と、通信プロトコルに従ってデータを送受信するための処理を行う。送受信部172は、撮影部150が撮影した撮影画像161のうち、識別部173が損傷を検出した画像である検出画像2021を、情報処理サーバ20に送信する処理を実行する。
識別部173は、端末装置10の撮影部150が路面を撮影した撮影画像161に対して、路面の損傷を識別することで、路面における損傷の有無を評価する。
本実施形態では、後述する動作制御部176により制御を除く標準状態において、撮影部150は、所定の時間間隔で画像を撮影し、識別部173は、所定の時間間隔以内に、路面の損傷を識別する。ここで、所定の時間間隔は、例えば1.2秒である。1.2秒間隔で画像を撮影する場合、車両を40km/h(約11.1m/s)で走行させれば、約13m毎に路面が撮影されることとなり、路面を途切れることなく撮影することができる。
このように、識別部173によって、撮影部150の撮影間隔以内に路面の損傷が認識されるため、所定の時間間隔を車両の速度に応じて適切に選択することで、路面を途切れることなく撮影して損傷を識別することができる。
識別部173は、第1学習済みモデル162を用いて、路面の損傷の有無を識別する。
第1学習済みモデル162は、例えば、予め記憶部160に記憶されている。第1学習済みモデル162は、撮影部150が撮影する撮影画像161に基づき、随時、生成および更新されることとしてもよい。
第1学習済みモデル162は、画像中に路面の損傷箇所があるかどうかの識別を行うモデルである。
第1学習済みモデル162は、学習用データに基づき、モデル学習プログラムに従って機械学習モデルに機械学習を行わせることにより得られる。例えば、本実施形態において、第1学習済みモデル162は、入力される画像情報に対し、損傷の箇所および損傷の種類を出力するように学習されている。
このとき、学習用データは、例えば、過去に路面の状態が撮影された路面の画像情報を入力データとし、入力された画像情報に対して損傷箇所に関する情報と、損傷の種類に関する情報と、を正解出力データとする。
具体的には、第1学習済みモデル162は、様々な種類の損傷を有する路面の画像の特徴量(基準特徴量)と、評価対象である撮影画像161の特徴量と、を比較して類似度を評価することで、いずれかの種類の損傷があるかどうかを判定する。類似度の評価に際しては、評価対象である撮影画像161の特徴量が、基準特徴量に対して、予め設定された閾値の範囲内である場合に、当該損傷があると判断される。なお、様々な種類の損傷について、基準特徴量がそれぞれ設定されている。損傷の種類については後述する。
本実施形態に係る第1学習済みモデル162は、例えば、複数の関数が合成されたパラメータ付き合成関数である。パラメータ付き合成関数は、複数の調整可能な関数、及びパラメータの組合せにより定義される。本実施形態に係る第1学習済みモデル162は、上記の要請を満たす如何なるパラメータ付き合成関数であってもよいが、多層のニューラルネットワークモデル(以下「多層化ネットワーク」という。)であるとする。多層化ネットワークを用いる第1学習済みモデル162は、入力層と、出力層と、入力層と出力層との間に設けられる少なくとも1層の中間層あるいは隠れ層とを有する。第1学習済みモデル162は、人工知能ソフトウェアの一部であるプログラムモジュールとしての使用が想定される。
本実施形態に係る多層化ネットワークとしては、例えば、深層学習(Deep Learning)の対象となる多層ニューラルネットワークである深層ニューラルネットワーク(Deep Neural Network:DNN)が用いられ得る。DNNとしては、例えば、画像を対象とする畳み込みニューラルネットワーク(Convolution Neural Network:CNN)を用いてもよい。
また識別部173は、第2学習済みモデル163を用いて、検出画像2021において検出された損傷が、道路領域内に位置するかどうかを判定する。
第2学習済みモデル163は、例えば、予め記憶部160に記憶されている。第2学習済みモデル163は、撮影部150が撮影する撮影画像161に基づき、随時、生成および更新されることとしてもよい。
第2学習済みモデル163は、画像中に検出された損傷箇所が、道路領域内にあるかどうかの識別を行うモデルである。
第2学習済みモデル163は、学習用データに基づき、モデル学習プログラムに従って機械学習モデルに機械学習を行わせることにより得られる。例えば、本実施形態において、第2学習済みモデル163は、入力される画像情報に対し、損傷の箇所が道路領域内にあるかどうかを出力するように学習されている。
このとき、学習用データは、例えば、過去に損傷のある路面の状態が撮影された路面の画像情報を入力データとし、入力された画像情報に対して損傷箇所が道路領域内に位置するかどうかに関する情報を正解出力データとする。
具体的には、第2学習済みモデル163は、道路領域内に損傷がある路面の画像の特徴量(基準特徴量)と、評価対象である検出画像2021の特徴量と、を比較して類似度を評価することで、いずれかの種類の損傷があるかどうかを判定する。類似度の評価に際しては、評価対象である検出画像2021の特徴量が、基準特徴量に対して、予め設定された閾値の範囲内である場合に、当該損傷が道路領域内にあると判断される。
本実施形態に係る第2学習済みモデル163は、例えば、複数の関数が合成されたパラメータ付き合成関数である。パラメータ付き合成関数は、複数の調整可能な関数、及びパラメータの組合せにより定義される。本実施形態に係る第2学習済みモデル163は、上記の要請を満たす如何なるパラメータ付き合成関数であってもよいが、多層化ネットワークであるとする。多層化ネットワークを用いる第2学習済みモデル163は、入力層と、出力層と、入力層と出力層との間に設けられる少なくとも1層の中間層あるいは隠れ層とを有する。第2学習済みモデル163は、人工知能ソフトウェアの一部であるプログラムモジュールとしての使用が想定される。
識別部173は、撮影した位置および走行経路に関する情報を撮影した撮影画像161に関連付ける。識別部173は、撮影画像161を撮影した時刻、車両の位置、および車両の進行方向に関する情報を撮影画像161に関連付ける。
表示処理部174は、ユーザに対し情報を提示する処理を行う。表示処理部174は、表示画像をディスプレイ132に表示させる処理、音声をスピーカ142に出力させる処理等を行う。
周辺認識部175は、車両の周辺の路面の状態を認識する。周辺認識部175は以下の情報を用いて、路面の状態を認識する。
・撮影部150が撮影した撮影画像161
・GPSアンテナ180により取得した位置情報
・車両の電子制御装置により伝達される各種の制御信号(CAN情報)
・車両に搭載された図示しないジャイロセンサが取得した加速度情報
・車両に搭載された図示しないLiDAR(light detection and ranging)等のレーザ光を用いたセンサが取得したセンシング結果
周辺の路面の状態には、周辺車両の走行状態が含まれる。
周辺車両の走行状態とは、例えば前方車両の発進又は停止、車両と周辺車両との車間距離、および周辺車両の車両に対する相対速度のうちの少なくともいずれかを含む。
本実施形態では、周辺認識部175は、撮影画像161を用いて車両の周辺の路面の状態を認識する。周辺認識部175は、撮影部150が撮影した時系列に並ぶ複数の撮影画像を比較し、撮影された検出対象物(周辺車両)の大きさ、および撮影画像における位置の時間変化(差分)を検出することで、周辺車両の走行状態を識別する。
周辺認識部175は、撮像画像の時系列データから、自車両の対地速度を算出する。また、周辺認識部175は、撮像画像の時系列データから、前方車両の相対速度を算出する。前方車両の相対速度を時間で微分することで、前方車両の自車両に対する加速度が算出される。そして、周辺認識部175は、自車両の対地速度、および前方車両の相対速度(加速度)から、前方車両の速度を算出する。
例えば、撮影画像161に撮像された前方車両の位置が、時系列に沿って遠ざかる場合には、前方車両は自車両に対して相対速度が大きくなる。このように、前方車両の自車両に対する相対速度を算出することで、前方車両の停車および発進を識別することができる。
また、周辺認識部175による識別の際では、前方車両を撮影画像161に撮影された検出対象物とせずに、撮影画像161に撮像された路面部分を検出対象物として、画像の変化を分析することで、間接的に周辺車両の走行状態を識別してもよい。この場合には、撮影画像161における検出対象物の面積を確保できることで、オートバイ等の小型車両の検出の精度補完をすることができる。
すなわち、周辺車両の走行状態を認識する際には、周辺車両の周囲の状況の変化を認識することで、周辺車両の走行状態の変化を認識することができる。
動作制御部176は、車両の周辺の端末装置10における路面の損傷の検出に関する動作を制御する。動作制御部176は、周辺認識部175が識別した周辺車両(前方車両)の走行状態の変化に応じて、路面の損傷の検出処理の動作モードを変更する。動作制御部176が制御する検出処理の動作モードを以下に列挙する。
・撮影部150による路面の撮影モード
・端末装置10からサーバへの撮影画像161の送信モード
・路面の撮影画像161の評価モード
これらの各制御について、以下に詳述する。
動作制御部176は、前方車両の走行状態の変化に応じて、撮影部150による路面の撮影モードを変更する。具体的には、動作制御部176は、周辺認識部175が認識した周辺車両との車間距離、および相対速度の変化に伴い、撮影部150による路面の撮影における撮影の停止、又は撮影レートの変更を行う。
また、動作制御部176は、前方車両の走行状態の変化に応じて、端末装置10から情報処理サーバ20に検出画像2021を送信する際の送信モードを変更する。具体的には、動作制御部176は、周辺認識部175が認識した周辺車両の停止に伴い、送受信部172による検出画像2021の情報処理サーバ20への送信を停止、又は送信する頻度を低下する。
また、動作制御部176は、前方車両の発進に伴い、送受信部172による検出画像2021の情報処理サーバ20への送信を開始、又は送信する頻度を向上する。
また、動作制御部176は、前方車両の走行状態の変化に応じて、路面の損傷の有無を識別するステップにおける識別モードを変更する。具体的には、動作制御部176は、周辺認識部175が認識した周辺車両の速度、周辺車両と自車両の相対速度および車間距離の少なくとも一方の変化に伴い、識別部173による路面の損傷の有無を評価する処理頻度を変更する。
<4.情報処理サーバ20の構成>
図5は、情報処理サーバ20の機能的な構成を示す図である。図5に示すように、情報処理サーバ20は、通信部201と、記憶部202と、制御部203としての機能を発揮する。
通信部201は、情報処理サーバ20が外部の装置と通信するための処理を行う。
記憶部202は、情報処理サーバ20が使用するデータ及びプログラムを記憶する。記憶部202は、検出画像2021と、第3学習済みモデル2022と、第4学習済みモデル2023と、評価データ2024と、を記憶する。
検出画像2021は、端末装置10から送信された画像情報である。すなわち、検出画像2021は、端末装置10の識別部173が、路面の損傷を検出した撮影画像161である。
第3学習済みモデル2022および評価データ2024については後述する。
制御部203は、情報処理サーバ20のプロセッサ21がプログラムに従って処理を行うことにより、送受信部2031、再識別部2032、位置判定部2033、および評価部2034としての機能を発揮する。
送受信部2031は、情報処理サーバ20が外部の装置に対し通信プロトコルに従って信号を送信する処理、および情報処理サーバ20が外部の装置から通信プロトコルに従って信号を受信する処理を制御する。
送受信部2031は、車両が走行する外部環境に関する情報を取得する。外部環境に関する情報には、天気に関する情報、時刻に関する状況、明るさに関する情報が含まれる。
再識別部2032は、端末装置10から送信された複数の検出画像2021に対して、第3学習済みモデル2022を用いた識別を行うことで、路面の損傷の有無の識別を再度行う。
第3学習済みモデル2022は、例えば、予め記憶部202に記憶されている。第3学習済みモデル2022は、撮影部150が撮影する撮影画像161に基づき、随時、生成および更新されることとしてもよい。
第3学習済みモデル2022は、画像中に路面の損傷箇所があるかどうかの識別を行うモデルであり、識別における判断基準以外は、第1学習済みモデル162と同様の構成を備えている。
情報処理サーバ20の再識別部2032が用いる第3学習済みモデル2022による識別の基準は、端末装置10の識別部173が用いる第1学習済みモデル162による識別の基準とは異なっている。例えば、第1学習済みモデル162による識別の方が、第3学習済みモデル2022により識別よりも緩い判断基準となっている。
具体的には、第3学習済みモデル2022において設定されている基準特徴量に対する閾値は、第1学習済みモデル162において設定されている基準特徴量に対する閾値よりも許容される数値幅が狭くなっている。すなわち、第3学習済みモデル2022では、第1学習済みモデル162よりも特徴量の類似度が高い場合において、当該撮影画像161に損傷があると判断される。
また、再識別部2032は、路面の損傷が、道路領域内に位置するかどうかの判定を再度行う。再識別部2032は、第4学習済みモデル2023を用いて、検出画像2021において検出された損傷が、道路領域内に位置するかどうかを判定する。
第4学習済みモデル2023は、例えば、予め記憶部202に記憶されている。第4学習済みモデル2023は、撮影部150が撮影する撮影画像161に基づき、随時、生成および更新されることとしてもよい。
第4学習済みモデル2023は、画像中に検出された損傷箇所が道路領域内にあるかどうかの識別を行うモデルであり、識別における判断基準以外は、第2学習済みモデル163と同様の構成を備えている。
情報処理サーバ20の再識別部2032が用いる第4学習済みモデル2023による識別の基準は、端末装置10の識別部173が用いる第2学習済みモデル163による識別の基準とは異なっている。例えば、第2学習済みモデル163による識別の方が、第4学習済みモデル2023により識別よりも緩い判断基準となっている。
具体的には、第4学習済みモデル2023において設定されている基準特徴量に対する閾値は、第2学習済みモデル163において設定されている基準特徴量に対する閾値よりも許容される数値幅が狭くなっている。すなわち、第4学習済みモデル2023では、第2学習済みモデル163よりも特徴量の類似度が高い場合において、検出された路面の損傷が、道路領域内にあると判定する。
位置判定部2033は、端末装置10の送受信部172から送信された複数の検出画像2021に撮影された路面の損傷が、同一箇所であるかどうかを判定する。具体的には、位置判定部2033は、検出画像2021、および検出画像2021が撮影された位置情報を用いて、複数の検出画像2021に撮影された前記路面の損傷が、同一箇所かどうかを判定する。
また、位置判定部2033は、車両の走行経路に関する情報を用いて、複数の検出画像2021に撮影された路面の損傷が、同一箇所かどうかを判定してもよい。
評価部2034は、位置判定部2033により同一箇所と判定された路面の損傷に関する情報を、時系列に沿って統合して、路面の損傷の有無を評価する。具体的には、評価部2034は、時系列に沿って路面の損傷に関する情報を統合することで、路面の損傷の存在確率を算出する。
ここで、路面の損傷に関する情報とは、検出画像2021が撮影された位置における損傷の有無に関する情報、および検出画像2021のうちの少なくとも一方を含む。
評価部2034は、外部環境に関する情報を用いて、存在確率への重み付けを行ってもよい。例えば、視界の悪い雨天時の検出結果よりも、視界が良い晴天時の検出結果に対して高い重みづけを行ってもよい。また、外が暗い夕方よりも、外が明るい昼間の検出結果に高い重みづけを行ってもよい。
評価部2034は、座標の損傷が撮影された座標位置毎に、任意の期間における路面の損傷の有無に関する情報を統合する。
図6は、本実施形態に係る情報処理サーバ20に表示される第2画面DP2の例を示す図である。
第2画面DP2は、情報処理サーバ20の再識別部2032が損傷を検出した検出画像2021および識別結果を受信した場合に表示されてよく、第1画面DP1と並べて表示されてもよい。情報処理サーバ20は、第2画面DP2を表示して、識別結果が正しいか管理者に確認させ、誤っている場合には管理者から識別結果の訂正を受け付けてよい。
第2画面DP2には、撮影部150により撮影された検出画像2021、チェック済みフェーズDP22、タイムスタンプDP23、対応状況DP24、損傷種類DP25が含まれている。第2画面DP2には、識別部173により識別された損傷を囲むバウンディングボックスBが表示されている。
チェック済みフェーズDP22には、損傷のチェック作業の進捗状況が表示されている。図示の例において、符号DP221に示す携帯端末のアイコンは、端末装置10での損傷の識別が完了していることを示す。符号DP222に示すディスプレイのアイコンは、情報処理サーバ20での損傷の識別が完了していることを示す。符号DP223に示す眼のアイコンは、その後に行われるクラウドソーシングによるチェック処理が完了していることを示す。
第2画面DP2におけるタイムスタンプDP23には、検出画像2021を撮影した際に付与された日時に関する情報が示されている。すなわち、検出画像2021を撮影した日時および時刻を示す情報である。
第2画面DP2における対応状況DP24は、当該損傷に対して行われる対応に関する情報が記載されている。対応に関する情報としては、例えば、経過観察、管理者への報告予定、管理者への報告済み、修繕予定、等が挙げられる。
第2画面DP2における損傷種類DP25には、損傷の種類が記載されている。ここで、損傷の種類について、図7よび図8を用いて説明する。
図7は、識別装置1により識別される損傷の種類の第1例を示す図である。図8は、識別装置1により識別される損傷の種類の第2例を示す図である。
図7Aに示すD00で識別される損傷の種類は、縦方向(進行方向)に沿って延びる線状のひび割れであり、車輪走行部に発生する損傷を指す。
図7Bに示すD01で識別される損傷の種類は、縦方向に沿って延びる線状のひび割れであり、施工ジョイント部に発生する損傷を指す。施工ジョイント部とは、アスファルト舗装のつなぎ目を意味する。
図7Cに示すD10で識別される損傷の種類は、横方向(道路の幅方向)に沿って延びる線状のひび割れであり、車輪走行部に発生する損傷を指す。
図7Dに示すD11で識別される損傷の種類は、横方向に沿って延びる線状のひび割れであり、施工ジョイント部に発生する損傷を指す。
図8Aに示すD20で識別される損傷の種類は、亀甲状のひび割れを指す。
図8Bに示すD40で識別される損傷の種類は、段差、ポットホール、および剥離を指す。
図8Cで示すD43で識別される損傷の種類は、横断歩道のかすれを指す。
図8Dで示すD44で識別される損傷の種類は、白線のかすれを指す。
なお、上記の損傷の種類はあくまで例示であり、その他の損傷の種類を含んでもよい。このように、路面の損傷の有無のみならず、損傷の種類が識別され、損傷の状態について詳細な情報を得ることができる。
<5.識別装置1の制処理>
<5-1.路面の損傷の検出における制御処理>
次に、識別装置1の基本的な処理として、路面の損傷の検出における制御処理について説明する。図9は、識別装置1により実行される処理のフローを説明する図である。この図で説明する処理は、識別装置1により行われる処理の大枠であり、実際には後述する検出処理の制御処理を並行した処理が行われる。
図9に示すように、まず、撮影部150が所定の時間間隔で画像を撮影する(ステップS110)。撮影部150は、撮影した撮影画像161を記憶部160に記憶させる。
ステップS110の後に、識別部173は、撮影画像161に撮影された路面における損傷の有無を識別する(ステップS111)。具体的には、識別部173は、第1学習済みモデル162に撮影画像161を入力することで、損傷の有無に関する出力を得る。
ステップS111において、損傷が確認されない場合(ステップS112のNo)には、識別装置1による当該撮影画像161に対する識別処理を終了し、次のフレームに対応する撮影画像161の識別を行う。
ステップS111において、損傷が確認された場合には(ステップS112のYes)、識別部173が、損傷が道路領域内かどうかを判定する(ステップS113)。具体的には、識別部173は、撮影画像161を第2学習済みモデル163に入力することで、損傷が道路領域内かどうかの出力を得る。
ステップS113において、損傷が道路領域内ではないと出力された場合には、(ステップS114のNo)には、具体的には、損傷が歩道や周囲の建物等に位置する場合には、識別装置1による当該撮影画像161に対する識別処理を終了し、次のフレームに対応する撮影画像161の識別を行う。
ステップS113において、損傷が道路領域内であると出力された場合には、識別部173は、撮影位置に関する情報を関連付ける(ステップS115)。
ステップS115の後に、端末装置10の送受信部172が、検出画像2021を情報処理サーバ20に送信する(ステップS116)。これにより、情報処理サーバ20の送受信部2031が、検出画像2021を受信し、記憶部202に記憶させる。
ステップS116の後に、情報処理サーバ20の再識別部2032が、検出画像2021に対して損傷の有無を再度識別する(ステップS117)。具体的には、再識別部2032は、第3学習済みモデル2022に撮影画像161を入力することで、損傷の有無に関する出力を得る。
ステップS117において、損傷が確認されない場合(ステップS118のNo)には、識別装置1による当該撮影画像161に対する識別処理を終了し、次のフレームに対応する撮影画像161の識別を行う。
ステップS117において、損傷が確認された場合(ステップS118のYes)には、再識別部2032が、損傷が道路領域内かどうかを判定する(ステップS119)。
具体的には、再識別部2032は、撮影画像161を第4学習済みモデル2023に入力することで、損傷が道路領域内かどうかの出力を得る。
ステップS119において、損傷が道路領域内ではないと出力された場合には、(ステップS120のNo)には、具体的には、損傷が歩道や周囲の建物等に位置する場合には、識別装置1による当該撮影画像161に対する識別処理を終了し、次のフレームに対応する撮影画像161の識別を行う。
ステップS119において、損傷が道路領域内であると出力された場合には、クラウドソーシングによる目視チェックを実行する(ステップS121)。具体的には、不特定多数のチェッカーに対して検出画像2021を送信し、チェックを受ける。この結果において、損傷であるという回答数が一定の数を超えた場合に、損傷があるものとして扱う。
ステップS121の後に、位置判定部2033は、検出画像2021の位置を判定する。すなわち、損傷が確認された検出画像2021について、同一箇所であるかどうかの判定を行う。具体的には、情報処理サーバ20の記憶部202には、撮影した日時の異なる多数の検出画像2021が記憶されている。位置判定部2033は、これらの多数の検出画像2021に対して、緯度、経度等の座標を用いて、同一箇所として識別する。
ステップS122の後に、評価部2034は、損傷の確率分布を算出する(ステップS123)。具体的には、路面の損傷が撮影された座標位置毎に、任意の期間における路面の損傷の有無に関する情報を統合する。この時の評価結果を図10で説明する。図10は、評価データ2024の一例を示す図である。
図10に示すように、評価部2034は、車両の走行経路における出発点(start)から目的地(Goal)までの座標位置毎に、時系列に沿って、路面の損傷に関する情報を統合する。具体的には、評価部2034は、時間を変数とする確率を算出する。図10に示す評価データ2024の例では、クラウドソーシングによる目視チェックにおいて損傷があると判断された検出画像2021の評価指標を1とし、クラウドソーシングによる目視チェックまでのいずれかの工程で損傷がないと判断された検出画像2021の評価指標を0として集計している。そして、存在確率は、全標本数に対して1と検出された確率を算出する。
評価部2034は、最終的な判断として、存在確率の閾値を設定する。例えば閾値を80%と設定した場合には、存在確率が80%以上の座標に対して、損傷があると判断する。この際、評価部2034は、撮影された地点における外部環境(天候、時刻、明るさ)により、重みづけを行ってもよい。例えば、悪天候時には傷の誤認が想定される。このため、12月1日の座標(x1、y1)が悪天候であった場合には、評価指標に×0.9とする。同様に、夕方や暗い環境で撮影された検出画像2021の評価指標に予め設定された重み係数を乗じてもよい。このような重み係数の値は、外部環境の条件の影響度に応じて任意に設定することができる。
<5-2.検出における動作モードの制御処理>
次に、路面の損傷の検出における動作モードの制御処理について説明する。図11は、識別装置1により実行される路面の損傷の検出における動作モードの制御処理のフローを説明する図である。
動作モードの制御処理は、前述した路面の損傷の検出処理と並行して行われる。このため、図11では、図10で説明した処理の一部を左側に記載し、動作モードの制御処理を右側に示している。
図11に示すように、端末装置10の周辺認識部175は、前方車両の走行状態を認識する(ステップS210)。具体的には、周辺認識部175は、既に取得された撮影画像161を用いて差分処理を行い、前方車両の加速度(相対速度)の変化、自車両との車間距離の変化を認識する。これにより、前方車両の発進又は停止も認識する。
ステップS210において、前方車両の走行状態に変化がない場合(ステップS211のNo)には、継続して前方車両の走行状態をチェックする。周辺認識部175による前方車両の走行状態のチェックは、識別装置1による全ての処理が継続する間、継続して行われる。
一方、ステップS210において、前方車両の走行状態に変化がある場合(ステップS211のYes)には、端末装置10の動作制御部176が、撮影部150の撮影レートを変更する(ステップS220)。具体的には、動作制御部176は、前述したステップS110の撮影部150による路面の撮影における撮影レートを変更する。例えば、撮影レートの変更は、以下の態様で行われる。
・前方車両の発進に伴い、撮影レートを上げる(撮影を開始する)
・前方車両の停止に伴い、撮影レートを下げる(撮影を停止する)
・前方車両との車間距離の拡大に伴い、撮影レートを上げる
・前方車両との車間距離の縮小に伴い、撮影レートを下げる
・前方車両の加速度(相対速度)の増加に伴い、撮影レートを上げる
・前方車両の加速度(相対速度)の減少に伴い、撮影レートを下げる
なお、撮影レートの変更では、撮影自体は継続して同じレートで撮影を行い、端末装置10の記憶部160に保存する際の頻度を調整するという態様であってもよい。
このため、例えば前方車両が停止した際、前方車両との車間距離が縮小した際、又は前方車両の加速度が減少した際には、撮影の頻度が下がり、撮影部150が取得する撮像画像の単位時間当たりの枚数が少なくなる。
一方、前方車両が発進した際、前方車両との車間距離が拡大した際、又は前方車両の加速度が増加した際には、撮影の頻度があがり、撮影部150が取得する撮像画像の単位時間当たりの枚数が多くなる。
また、ステップS210において、前方車両の走行状態に変化がある場合(ステップS211のYes)には、端末装置10の動作制御部176が、識別部173の識別速度を変更する(ステップS230)。具体的には、動作制御部176は、前述したステップS116の識別部173による撮像画像に対する路面の損傷の識別処理の頻度を変更する。例えば、識別処理の頻度の変更は、以下の態様で行われる。
・前方車両の発進に伴い、識別処理の頻度を上げる(識別処理を開始する)
・前方車両の停止に伴い、識別処理の頻度を下げる(識別処理を停止する)
・前方車両との車間距離の拡大に伴い、識別処理の頻度を上げる
・前方車両との車間距離の縮小に伴い、識別処理の頻度を下げる
・前方車両の加速度(相対速度)の増加に伴い、識別処理の頻度を上げる
・前方車両の加速度(相対速度)の減少に伴い、識別処理の頻度を下げる
このため、例えば前方車両が停止した際、前方車両との車間距離が縮小した際、又は前方車両の加速度が減少した際には、撮影画像161に対する路面の損傷の識別処理の頻度が下がり、単位時間当たりにおける、損傷の有無が識別される撮像画像の枚数が少なくなる。
一方、前方車両が発進した際、前方車両との車間距離が拡大した際、又は前方車両の加速度が増加した際には、撮影画像161に対する路面の損傷の識別処理の頻度が上がり、単位時間当たりにおける、損傷の有無が識別される撮像画像の枚数が多くなる。
また、ステップS210において、前方車両の走行状態に変化がある場合(ステップS211のYes)には、端末装置10の動作制御部176が、送受信部172の検出画像2021の送信レートを変更する(ステップS240)。具体的には、動作制御部176は、前述したステップS116の送受信部172による検出画像2021の情報処理サーバ20への送信レートを変更する。例えば、送信レートの変更は以下の態様により行われる。
・前方車両の発進に伴い、送信レートを上げる(送信処理を開始する)
・前方車両の停止に伴い、送信レートを下げる(送信処理を停止する)
・前方車両との車間距離の拡大に伴い、送信レートを上げる
・前方車両との車間距離の縮小に伴い、送信レートを下げる
・前方車両の加速度(相対速度)の増加に伴い、送信レートを上げる
・前方車両の加速度(相対速度)の減少に伴い、送信レートを下げる
送信レートの変更では、例えば1回のリクエストで複数枚の検出画像2021を情報処理サーバ20に送信するとした場合に、リクエストの頻度を増減させることで行われる。
このため、例えば前方車両が停止した際、前方車両との車間距離が縮小した際、又は前方車両の加速度が減少した際には、端末装置10から情報処理サーバ20に送信される検出画像2021の単位時間当たりの枚数が少なくなる。
一方、前方車両が発進した際、前方車両との車間距離が拡大した際、又は前方車両の加速度が増加した際には、端末装置10から情報処理サーバ20に送信される検出画像2021の単位時間当たりの枚数が少なくなる。
動作制御部176は、前方車両の走行状態の変化に応じて、継続して各機能部の動作モードの制御を行う。この処理は、前方車両の走行状態の変化がなくなるまで継続する。
<6.小括>
以上説明したように、本実施形態に係る識別装置1によれば、端末装置10の動作制御部176が、周辺認識部175が認識した周辺の路面の状態の変化に応じて、検出処理の動作モードを変更する。このため、例えば前方車両の発進時に多くの撮影画像161を取得し、多くの撮影画像161に対して損傷の識別を行い、多くの検出画像2021を端末装置10から情報処理サーバ20に送信することができる。一方、例えば前方車両の停車時に少しの撮影画像161を取得し、少しの撮影画像161に対して損傷の識別を行い、少しの検出画像2021を端末装置10から情報処理サーバ20に送信することができる。
このため、前方車両により隠れていた路面が露出した際に、多くの検出を行うとともに、前方車両により車両の前方が隠れている場合には、検出の頻度を抑えることができる。これにより、例えば一様に検出処理を行う構成と比較して、周辺車両の走行状態に応じて効率的に路面の損傷を検出することができ、質の高い情報により、効率的に路面の損傷を検出することができる。
また、路面の検出に用いて撮影画像161を用いて、周辺車両の走行状態の変化を認識する場合には、他のセンサを必要とせず、簡易な構成で、周辺車両の走行状態の変化の認識を行うことができる。
また、端末装置10の動作制御部176が、撮影部150が撮影した時系列に並ぶ複数の画像を比較することで、周辺車両の走行状態を識別するので、周辺車両の状態を正確に把握することができる。
また、端末装置10の周辺認識部175が、周辺車両の走行状態として、周辺車両の発進又は停止、車両と周辺車両との車間距離、および周辺車両の車両に対する相対速度のうちの少なくともいずれかの変化を認識するので、周辺車両の走行状態の様々な変化を適切に認識することができる。
また、端末装置10の動作制御部176が、車両の位置情報、車両に搭載されたジェイロセンサ、および車両のCAN情報のうちのいずれかを用いて、相対速度を検出するので、精度の高い検出を行うことができる。
また、端末装置10の動作制御部176が、認識した周辺車両との車間距離、および相対速度の変化に伴い、撮影部150による路面の撮影における撮影の停止、又は撮影レートの変更を行う。このため、前方の路面に前方車両が位置していない状態などの撮影が必要なタイミングで、効率的な撮影を行うことができる。
また、端末装置10の動作制御部176が、認識した周辺車両の速度、周辺車両と自車両の相対速度および車間距離の少なくとも一方の変化に伴い、路面の損傷の有無を評価する処理の頻度を変更する。このため、撮影部150による撮像画像の枚数が増加した場合に、識別処理の遅れが生じるのを防ぐことができる。
また、端末装置10の動作制御部176が、認識した周辺車両の停止に伴い、検出画像2021の情報処理サーバ20への送信を停止、又は送信する頻度を低下するとともに、周辺車両の発進に伴い、検出画像2021の情報処理サーバ20への送信を開始、又は送信する頻度を向上する。このため、識別部173が識別した検出画像2021が増加した場合に、検出画像2021を効率的に端末装置10から情報処理サーバ20に送信することができる。
また、端末装置10の撮影部150が撮影した撮影画像161に対して、端末装置10の識別部173が損傷の有無を識別する。そして、撮影画像161のうち、端末装置10において損傷が検出された検出画像2021のみを情報処理サーバ20に送信する。
このため、撮影された膨大な量の撮影画像161のうち、全ての撮影画像161を端末装置10から情報処理サーバ20に送信する必要がなく、一部の撮影画像161に相当する、損傷が検出された検出画像2021のみを、端末装置10から情報処理サーバ20に送信すれば足りる。これにより、撮影を行う端末装置10からのデータの通信量を大きく抑えることができる。
また、情報処理サーバ20の位置判定部2033が、撮影された損傷の位置が同一箇所であるかどうかを判定し、評価部2034が、路面の損傷に関する情報を、時系列に沿って統合して、路面の損傷の有無を評価する。
このため、一枚の撮影画像161による判定ではなく、多数の撮影画像161から総合的に損傷の有無を判断することができ、路面の損傷の有無の検出を精度よく行うことができる。
また、評価部2034が、時系列に沿って、路面の損傷が撮影された座標位置毎に、任意の期間における路面の損傷に関する情報を統合することで、路面の損傷の存在確率を算出する。これにより、損傷の識別における誤判定を吸収しながら、統計的に損傷の有無を判断することができる。
また、評価部2034が、外部環境に関する情報を用いて、存在確率への重み付けを行うので、撮影時の条件の違いを考慮して、精度の高い識別を行うことができる。
また、位置判定部2033が、検出画像2021、および検出画像2021が撮影された位置情報を用いて、複数の検出画像2021に撮影された路面の損傷が、同一箇所かどうかを判定する。これにより、大量の撮影画像161を用いて同一箇所の損傷がどのように推移するのかを確認することができる。
また、位置判定部2033が、車両の走行経路に関する情報を用いて、複数の検出画像2021に撮影された路面の損傷が、同一箇所かどうかを判定する。これにより、車両の進行方向を考慮して、撮影された時点に対する損傷の位置を正確に把握することができる。
また、識別部173が、検出画像2021において検出された損傷が、道路領域内に位置するかどうかを判定する。このため、歩道や周囲の設備の損傷をノイズとして除外することができる。
また、情報処理サーバ20が、検出画像2021に対して、学習済みモデルを用いた識別を行うことで、路面の損傷の有無の識別、および路面の損傷が、道路領域内に位置するかどうかの判定を再度行う再識別部2032をさらに備えている。このため、損傷の識別をより高精度に行うことができる。
また、再識別部2032は、識別部173と異なる識別基準に従って、路面の損傷の有無を再度識別する。このため、例えば再識別部2032による識別基準を識別部173による識別基準よりも高くすることで、端末装置10での一次的な識別では損傷がありそうな撮影画像161を拾い上げ、情報処理サーバ20での二次的な識別ではノイズを除外するというように、多様な識別を行うことができる。
<7.変形例>
上述の実施形態においては、端末装置10の周辺認識部175が、前方車両の走行状態の変化を認識する例を示したが、このような態様に限られない。例えば、撮影部150により自車両の後方の路面を撮影して、路面の損傷を検出する場合には、周辺認識部175は、自車両の後方を走行する車両の走行状態の変化を認識してもよい。
また、撮影部150により自車両の側方の路面を撮影して、路面の損傷を検出する場合には、周辺認識部175は、自車両の後方を走行する車両の走行状態の変化を認識してもよい。すなわち、周辺認識部175は、撮影部150が撮影する方向と同じ方向を走行する車両の走行状態の変化を認識すればよい。
また、周辺認識部175は、撮影部150が撮影した撮影画像161を用いることなく、周辺車両の走行状態を認識してもよい。この場合には、車両に搭載されたLiDAR(light detection and ranging)等のレーザ光を用いたセンサやその他の計測機器が取得したセンシング結果により、周辺車両の走行状態を認識することができる。
また、端末装置10の動作制御部176が、撮影部150、識別部173、および送受信部172それぞれの動作を制御する例を示したが、この例に限られない。動作制御部176は、撮影部150、識別部173、および送受信部172のうちのいずれかの動作を制御すれば足りる。
また、周辺認識部175は、自車両の速度が閾値以下の場合には、自車両が停止している状態であり、路面の撮影を頻繁に行う必要がないと判断し、周辺車両の認識を行う処理を停止してもよい。
また、評価部2034が時系列に沿って統合する路面の損傷に関する情報が、検出画像2021が撮影された位置における損傷の有無に関する情報である例を示したが、この限りではない。例えば、評価部2034は、検出画像2021を路面の損傷に関する情報として、時系列に沿って統合してもよい。この場合には、時系列に沿って成長する損傷の様子が描写された画像の集合(動画)を得ることができる。
また、上述の実施形態では、1台の車両に搭載される端末装置10により撮影された撮影画像161を評価する例を示したが、このような態様に限られない。例えば、多数の車両により撮影された撮影画像161の評価をおこなってもよい。
具体的には、事前に登録された多数のユーザが撮影した撮影画像161に対して、それぞれの端末装置10において損傷の有無の識別を行う。そして、複数の撮影画像161のうち、損傷が検出された検出画像2021が、それぞれの端末装置10から情報処理サーバ20に送信され、情報処理サーバ20において、前述したそれぞれの評価処理が行われてもよい。このような構成を採用すれば、端末装置10として、汎用の携帯端末やドライブレコーダのような兼用の装置を採用することにより、様々な走行経路における膨大な数の撮影地点において撮影された、大量の検出画像2021を容易に取得することができる。これにより、算出された路面の損傷の存在確率の精度を確保することができる。
以上、本開示のいくつかの実施形態を説明したが、これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものとする。
<付記>
実施形態で説明した事項を、以下に付記する。
(付記1)
プロセッサを備え、路面を撮影した画像から路面における損傷の有無の検出処理を行う識別装置に用いられるプログラムであって、プログラムは、
プロセッサに、
車両に搭載され、車両の周辺の路面を撮影するステップと、
撮影部が撮影した画像から、路面の損傷の有無を評価するステップと、
周辺の路面の状態の変化に応じて、検出処理の動作モードを変更するステップと、を実行させるプログラム。
(付記2)
動作モードを変更するステップでは、
車両の周辺を走行する周辺車両の走行状態の変化に応じて、検出処理の動作モードを変更する、付記1に記載のプログラム。
(付記3)
動作モードを変更するステップでは、
撮影部が撮影した時系列に並ぶ複数の画像を比較することで、周辺車両の走行状態を識別する、付記2に記載のプログラム。
(付記4)
周辺車両の走行状態とは、
周辺車両の発進又は停止、車両と周辺車両との車間距離、および周辺車両の車両に対する相対速度のうちの少なくともいずれかを含む、付記2又は3に記載のプログラム。
(付記5)
周辺車両の走行状態とは、周辺車両の車両に対する相対速度を指し、
動作モードを変更するステップでは、
車両の位置情報、車両に搭載されたジェイロセンサ、および車両のCAN情報のうちのいずれかを用いて、相対速度を検出する、付記2から4のいずれかに記載のプログラム。
(付記6)
検出処理の動作モードを変更するステップでは、
路面の画像を撮影するステップにおける撮影モードを変更する付記1から5のいずれかに記載のプログラム。
(付記7)
検出処理の動作モードを変更するステップでは
認識した周辺車両との車間距離、および相対速度の変化に伴い、路面の撮影における撮影の停止、又は撮影レートの変更を行う、付記6に記載のプログラム。
(付記8)
プロセッサに、
画像のうち、損傷を検出した検出画像を情報処理サーバに送信するステップを実行させ、
検出処理の動作モードを変更するステップでは、
送信するステップにおける送信モードを変更する付記1から7のいずれかに記載のプログラム。
(付記9)
検出処理の動作モードを変更するステップでは
認識した周辺車両の停止に伴い、検出画像の情報処理サーバへの送信を停止、又は送信する頻度を低下するとともに、周辺車両の発進に伴い、検出画像の情報処理サーバへの送信を開始、又は送信する頻度を向上する、付記8に記載のプログラム。
(付記10)
検出処理の動作モードを変更するステップでは、
路面の損傷の有無を評価するステップにおける識別モードを変更する付記1から9のいずれかに記載のプログラム。
(付記11)
検出処理の動作モードを変更するステップでは、
認識した周辺車両の速度、周辺車両と自車両の相対速度および車間距離の少なくとも一方の変化に伴い、路面の損傷の有無を評価する処理の頻度を変更する、付記10に記載のプログラム。
(付記12)
プロセッサを備え、路面を撮影した画像から路面における損傷の有無の検出処理を行う識別装置が行う方法であって、方法は、
プロセッサが、
車両に搭載され、車両の周辺の路面を撮影するステップと、
撮影部が撮影した画像から、路面の損傷の有無を評価するステップと、
周辺の路面の状態の変化に応じて、検出処理の動作モードを変更するステップと、を実行する方法。
(付記13)
プロセッサを備え、路面を撮影した画像から路面における損傷の有無の検出処理を行うシステムであって、システムは、
プロセッサが、
車両に搭載され、車両の周辺の路面を撮影する手段と、
撮影部が撮影した画像から、路面の損傷の有無を評価する手段と、
周辺の路面の状態の変化に応じて、検出処理の動作モードを変更する手段と、を備えるシステム。
1…識別装置
10…端末装置
150…撮影部
170…制御部
171…入力操作受付部
172…送受信部
173…識別部
174…表示処理部
175…周辺認識部
176…動作制御部
20…情報処理端末
203…制御部
2031…送受信部
2032…再識別部
2033…位置判定部
2034…評価部

Claims (17)

  1. プロセッサを備え、路面を撮影した画像から路面における損傷の有無の検出処理を行う識別装置に用いられるプログラムであって、前記プログラムは、
    前記プロセッサに、
    車両に搭載された撮影部により、前記車両の周辺の路面を撮影するステップと、
    前記撮影部が撮影した画像から、前記路面の損傷の有無を評価するステップと、
    前記周辺の路面の状態の変化に応じて、前記検出処理の動作モードを変更するステップと、を実行させ
    前記検出処理の動作モードを変更するステップでは、
    前記路面の画像を撮影するステップにおける撮影モードを変更するプログラム。
  2. 前記検出処理の動作モードを変更するステップでは
    認識した前記周辺車両との車間距離、および相対速度の変化に伴い、前記路面の撮影における撮影の停止、又は撮影レートの変更を行う、請求項に記載のプログラム。
  3. プロセッサを備え、路面を撮影した画像から路面における損傷の有無の検出処理を行う識別装置に用いられるプログラムであって、前記プログラムは、
    前記プロセッサに、
    車両に搭載された撮影部により、前記車両の周辺の路面を撮影するステップと、
    前記撮影部が撮影した画像から、前記路面の損傷の有無を評価するステップと、
    前記周辺の路面の状態の変化に応じて、前記検出処理の動作モードを変更するステップと、を実行させ、
    前記検出処理の動作モードを変更するステップでは、
    前記路面の損傷の有無を評価するステップにおける識別モードを変更するプログラム。
  4. 前記検出処理の動作モードを変更するステップでは、
    認識した前記周辺車両の速度、前記周辺車両と自車両の相対速度および車間距離の少なくとも一方の変化に伴い、前記路面の損傷の有無を評価する処理の頻度を変更する、請求項に記載のプログラム。
  5. 前記動作モードを変更するステップでは、
    前記車両の周辺を走行する周辺車両の走行状態の変化に応じて、前記検出処理の動作モードを変更する、請求項1から4のいずれか1項に記載のプログラム。
  6. 前記動作モードを変更するステップでは、
    前記撮影部が撮影した時系列に並ぶ複数の画像を比較することで、前記周辺車両の走行状態を識別する、請求項に記載のプログラム。
  7. 前記周辺車両の走行状態とは、
    前記周辺車両の発進又は停止、前記車両と前記周辺車両との車間距離、および前記周辺車両の前記車両に対する相対速度のうちの少なくともいずれかを含む、請求項5又は6に記載のプログラム。
  8. 前記周辺車両の走行状態とは、前記周辺車両の前記車両に対する相対速度を指し、
    前記動作モードを変更するステップでは、
    前記車両の位置情報、前記車両に搭載されたジャイロセンサ、および前記車両のCAN情報のうちのいずれかを用いて、前記相対速度を検出する、請求項5から7のいずれか1項に記載のプログラム。
  9. プロセッサを備え、路面を撮影した画像から路面における損傷の有無の検出処理を行う識別装置に用いられるプログラムであって、前記プログラムは、
    前記プロセッサに、
    車両に搭載された撮影部により、前記車両の周辺の路面を撮影するステップと、
    前記撮影部が撮影した画像から、前記路面の損傷の有無を評価するステップと、
    前記周辺の路面の状態の変化に応じて、前記検出処理の動作モードを変更するステップと、を実行させ、
    前記動作モードを変更するステップでは、
    前記車両の周辺を走行する周辺車両の前記車両に対する相対速度の変化に応じて、前記検出処理の動作モードを変更するプログラム。
  10. 前記プロセッサに、
    前記画像のうち、損傷を検出した検出画像を情報処理サーバに送信するステップを実行させ、
    前記検出処理の動作モードを変更するステップでは、
    前記送信するステップにおける送信モードを変更する請求項に記載のプログラム。
  11. 前記検出処理の動作モードを変更するステップでは
    認識した前記周辺車両の停止に伴い、前記検出画像の前記情報処理サーバへの送信を停止、又は送信する頻度を低下するとともに、周辺車両の発進に伴い、前記検出画像の前記情報処理サーバへの送信を開始、又は送信する頻度を向上する、請求項10に記載のプログラム。
  12. プロセッサを備え、路面を撮影した画像から路面における損傷の有無の検出処理を行う識別装置が行う方法であって、前記方法は、
    前記プロセッサが、
    車両に搭載された撮影部により、前記車両の周辺の路面を撮影するステップと、
    前記撮影部が撮影した画像から、前記路面の損傷の有無を評価するステップと、
    前記周辺の路面の状態の変化に応じて、前記検出処理の動作モードを変更するステップと、を実行し、
    前記検出処理の動作モードを変更するステップでは、
    前記路面の画像を撮影するステップにおける撮影モードを変更する方法。
  13. プロセッサを備え、路面を撮影した画像から路面における損傷の有無の検出処理を行うシステムであって、前記システムは、
    前記プロセッサが、
    車両に搭載された撮影部により、前記車両の周辺の路面を撮影する手段と、
    前記撮影部が撮影した画像から、前記路面の損傷の有無を評価する手段と、
    前記周辺の路面の状態の変化に応じて、前記検出処理の動作モードを変更する手段と、を備え
    前記検出処理の動作モードを変更する手段は、
    前記路面の画像を撮影するステップにおける撮影モードを変更するシステム。
  14. プロセッサを備え、路面を撮影した画像から路面における損傷の有無の検出処理を行う識別装置が行う方法であって、前記方法は、
    前記プロセッサが、
    車両に搭載された撮影部により、前記車両の周辺の路面を撮影するステップと、
    前記撮影部が撮影した画像から、前記路面の損傷の有無を評価するステップと、
    前記周辺の路面の状態の変化に応じて、前記検出処理の動作モードを変更するステップと、を実行し、
    前記検出処理の動作モードを変更するステップでは、
    前記路面の損傷の有無を評価するステップにおける識別モードを変更する方法
  15. プロセッサを備え、路面を撮影した画像から路面における損傷の有無の検出処理を行うシステムであって、前記システムは、
    前記プロセッサが、
    車両に搭載された撮影部により、前記車両の周辺の路面を撮影する手段と、
    前記撮影部が撮影した画像から、前記路面の損傷の有無を評価する手段と、
    前記周辺の路面の状態の変化に応じて、前記検出処理の動作モードを変更する手段と、を備え
    前記検出処理の動作モードを変更する手段は、
    前記路面の損傷の有無を評価するステップにおける識別モードを変更するシステム。
  16. プロセッサを備え、路面を撮影した画像から路面における損傷の有無の検出処理を行う識別装置が行う方法であって、前記方法は、
    前記プロセッサが、
    車両に搭載された撮影部により、前記車両の周辺の路面を撮影するステップと、
    前記撮影部が撮影した画像から、前記路面の損傷の有無を評価するステップと、
    前記周辺の路面の状態の変化に応じて、前記検出処理の動作モードを変更するステップと、を実行し、
    前記検出処理の動作モードを変更するステップでは、
    前記車両の周辺を走行する周辺車両の前記車両に対する相対速度の変化に応じて、前記検出処理の動作モードを変更する、方法。
  17. プロセッサを備え、路面を撮影した画像から路面における損傷の有無の検出処理を行うシステムであって、前記システムは、
    前記プロセッサが、
    車両に搭載された撮影部により、前記車両の周辺の路面を撮影する手段と、
    前記撮影部が撮影した画像から、前記路面の損傷の有無を評価する手段と、
    前記周辺の路面の状態の変化に応じて、前記検出処理の動作モードを変更する手段と、を備え
    前記検出処理の動作モードを変更する手段は、
    前記車両の周辺を走行する周辺車両の前記車両に対する相対速度の変化に応じて、前記検出処理の動作モードを変更する、システム。
JP2021133202A 2021-08-18 2021-08-18 識別装置、識別プログラム、および識別方法 Active JP7025080B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021133202A JP7025080B1 (ja) 2021-08-18 2021-08-18 識別装置、識別プログラム、および識別方法
JP2022015814A JP2023029190A (ja) 2021-08-18 2022-02-03 識別装置、識別プログラム、および識別方法
PCT/JP2022/007571 WO2023021736A1 (ja) 2021-08-18 2022-02-24 識別装置、識別プログラム、および識別方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021133202A JP7025080B1 (ja) 2021-08-18 2021-08-18 識別装置、識別プログラム、および識別方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022015814A Division JP2023029190A (ja) 2021-08-18 2022-02-03 識別装置、識別プログラム、および識別方法

Publications (2)

Publication Number Publication Date
JP7025080B1 true JP7025080B1 (ja) 2022-02-24
JP2023027871A JP2023027871A (ja) 2023-03-03

Family

ID=81124408

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021133202A Active JP7025080B1 (ja) 2021-08-18 2021-08-18 識別装置、識別プログラム、および識別方法
JP2022015814A Pending JP2023029190A (ja) 2021-08-18 2022-02-03 識別装置、識別プログラム、および識別方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022015814A Pending JP2023029190A (ja) 2021-08-18 2022-02-03 識別装置、識別プログラム、および識別方法

Country Status (2)

Country Link
JP (2) JP7025080B1 (ja)
WO (1) WO2023021736A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191276A (ja) 2002-12-13 2004-07-08 Koito Ind Ltd 路面状態判別装置
JP2019028922A (ja) 2017-08-03 2019-02-21 パナソニックIpマネジメント株式会社 情報蓄積システム、情報配信システム、運転支援システム及び情報蓄積方法
JP2020008996A (ja) 2018-07-04 2020-01-16 株式会社デンソーテン 道路情報収集支援サーバ、道路情報収集装置、道路情報収集システム、及び道路情報収集方法
JP2021026353A (ja) 2019-07-31 2021-02-22 株式会社リコー 路面性状調査システム、路面性状調査方法、及び路面性状調査プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191276A (ja) 2002-12-13 2004-07-08 Koito Ind Ltd 路面状態判別装置
JP2019028922A (ja) 2017-08-03 2019-02-21 パナソニックIpマネジメント株式会社 情報蓄積システム、情報配信システム、運転支援システム及び情報蓄積方法
JP2020008996A (ja) 2018-07-04 2020-01-16 株式会社デンソーテン 道路情報収集支援サーバ、道路情報収集装置、道路情報収集システム、及び道路情報収集方法
JP2021026353A (ja) 2019-07-31 2021-02-22 株式会社リコー 路面性状調査システム、路面性状調査方法、及び路面性状調査プログラム

Also Published As

Publication number Publication date
JP2023029190A (ja) 2023-03-03
WO2023021736A1 (ja) 2023-02-23
JP2023027871A (ja) 2023-03-03

Similar Documents

Publication Publication Date Title
US20200209874A1 (en) Combined virtual and real environment for autonomous vehicle planning and control testing
CN109935077A (zh) 用于为自动驾驶车辆构建车辆与云端实时交通地图的系统
US10467483B2 (en) Image acquiring system, terminal, image acquiring method, and image acquiring program
EP2598842B1 (en) Guidance device, guidance method, and guidance program
CN102208012B (zh) 风景匹配参考数据生成系统及位置测量系统
JP6468062B2 (ja) 物体認識システム
JP6323074B2 (ja) 表示物情報表示装置
US10679077B2 (en) Road marking recognition device
CN109840454B (zh) 目标物定位方法、装置、存储介质以及设备
KR20180110891A (ko) 입력 영상에 포함된 객체를 인식하는 디바이스 및 방법
CN111243332A (zh) 信息提供系统和方法、服务器、车载装置以及存储介质
US10891501B2 (en) Automatically associating road sign information with road segments using image data
US11837084B2 (en) Traffic flow estimation apparatus, traffic flow estimation method, traffic flow estimation program, and storage medium storing traffic flow estimation program
JP6955295B1 (ja) 識別装置、識別プログラム、および識別方法
WO2022147785A1 (zh) 车辆驾驶场景识别方法及装置
JP6419011B2 (ja) 地物画像認識システム、地物画像認識方法及びコンピュータプログラム
JP6916975B2 (ja) 標識位置特定システム及びプログラム
JP7025080B1 (ja) 識別装置、識別プログラム、および識別方法
KR20150078795A (ko) 고속화도로 내 본선과 램프 진출입로를 구분하여 교통정보를 수집하는 장치 및 방법
CN113887522A (zh) 基于车路协同的数据处理方法、系统、存储介质
JP2011214961A (ja) 基準パターン情報生成装置、方法、プログラムおよび一般車両位置特定装置
CN113076830A (zh) 环境通行区域检测方法、装置、车载终端及存储介质
CN111766601A (zh) 识别装置、车辆控制装置、识别方法及存储介质
JP5434745B2 (ja) 基準パターン情報生成装置、方法、プログラムおよび一般車両位置特定装置
JP5573606B2 (ja) 基準パターン情報生成装置、方法、プログラムおよび一般車両位置特定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210818

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220203

R150 Certificate of patent or registration of utility model

Ref document number: 7025080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150