JP2023136923A - 演算装置、演算方法及びプログラム - Google Patents

演算装置、演算方法及びプログラム Download PDF

Info

Publication number
JP2023136923A
JP2023136923A JP2022042861A JP2022042861A JP2023136923A JP 2023136923 A JP2023136923 A JP 2023136923A JP 2022042861 A JP2022042861 A JP 2022042861A JP 2022042861 A JP2022042861 A JP 2022042861A JP 2023136923 A JP2023136923 A JP 2023136923A
Authority
JP
Japan
Prior art keywords
interest
road
region
unevenness information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022042861A
Other languages
English (en)
Inventor
伸一 ▲高▼松
Shinichi Takamatsu
敦俊 長谷部
Atsutoshi Hasebe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KYB Corp
Original Assignee
KYB Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KYB Corp filed Critical KYB Corp
Priority to JP2022042861A priority Critical patent/JP2023136923A/ja
Priority to PCT/JP2023/010525 priority patent/WO2023176955A1/ja
Publication of JP2023136923A publication Critical patent/JP2023136923A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles

Abstract

Figure 2023136923000001
【課題】路面の状態を適切に推定する。
【解決手段】演算装置14は、道路を走行する車両に設けられるカメラによって撮像された、道路の撮像画像を取得する画像取得部30と、車両に設けられるセンサによって検出された、道路の凹凸状態を示す凹凸情報を取得する凹凸情報取得部32と、撮像画像に写っている道路上の注目領域の位置情報を算出する位置算出部34と、注目領域の位置情報に基づき、凹凸情報から、注目領域での凹凸情報を抽出する凹凸情報抽出部36と、撮像画像の注目領域での画像データと注目領域での凹凸情報を対応づける処理を実行する処理部38と、を含む。
【選択図】図3

Description

本発明は、演算装置、演算方法及びプログラムに関する。
例えば特許文献1に示すように、道路を走行している車両の加速度を検出し、その加速度データを学習モデルに入力することで、路面の状態を推定する技術が知られている。
特開2020-86960号公報
ここで、撮像画像や路面の凹凸情報などから路面状態を推定することも考えられる。しかしながら、撮像画像は、画角内に収まる路面を広く捉えて記録できる一方、情報が画像データに限られるため、路面状態を高精度に算出できない場合がある。一方、凹凸情報は、路面状態を高精度に算出できるが、計測範囲が狭くなる場合がある。そのため、車両を走行させて路面の状態を推定する際には、路面の状態を適切に推定することが求められている。
本発明は、上記に鑑みてなされたものであって、路面の状態を適切に推定可能な演算装置、演算方法及びプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本開示に係る演算装置は、道路を走行する車両に設けられるカメラによって撮像された、前記道路の撮像画像を取得する画像取得部と、前記車両に設けられるセンサによって検出された、前記道路の凹凸状態を示す凹凸情報を取得する凹凸情報取得部と、前記撮像画像に写っている前記道路上の注目領域の位置情報を算出する位置算出部と、前記注目領域の位置情報に基づき、前記凹凸情報から、前記注目領域での凹凸情報を抽出する凹凸情報抽出部と、前記撮像画像の注目領域での画像データと前記注目領域での凹凸情報を対応づける処理を実行する処理部と、を含む。
上述した課題を解決し、目的を達成するために、本開示に係る演算方法は、道路を走行する車両に設けられるカメラによって撮像された、前記道路の撮像画像を取得するステップと、前記車両に設けられるセンサによって検出された、前記道路の凹凸状態を示す凹凸情報を取得するステップと、前記撮像画像に写っている前記道路上の注目領域の位置情報を算出するステップと、前記注目領域の位置情報に基づき、前記凹凸情報から、前記注目領域での凹凸情報を抽出するステップと、前記撮像画像の注目領域での画像データと前記注目領域での凹凸情報を対応づける処理を実行するステップと、を含む。
上述した課題を解決し、目的を達成するために、本開示に係るプログラムは、道路を走行する車両に設けられるカメラによって撮像された、前記道路の撮像画像を取得するステップと、前記車両に設けられるセンサによって検出された、前記道路の凹凸状態を示す凹凸情報を取得するステップと、前記撮像画像に写っている前記道路上の注目領域の位置情報を算出するステップと、前記注目領域の位置情報に基づき、前記凹凸情報から、前記注目領域での凹凸情報を抽出するステップと、前記撮像画像の注目領域での画像データと前記注目領域での凹凸情報を対応づける処理を実行するステップと、をコンピュータに実行させる。
本発明によれば、路面の状態を適切に推定できる。
図1は、本実施形態に係る検出システムの模式的なブロック図である。 図2は、車両の模式図である。 図3は、演算装置の模式的なブロック図である。 図4は、撮像画像の一例を示す模式図である。 図5は、凹凸情報の一例を示す模式図である。 図6は、注目領域での凹凸情報の抽出を説明するための模式図である。 図7は、本実施形態に係る演算装置の処理フローを説明するフローチャートである。
以下に、本発明の好適な実施形態を図面に基づいて詳細に説明する。なお、以下に説明する実施形態により本発明が限定されるものではない。
(検出システム)
図1は、本実施形態に係る検出システムの模式的なブロック図である。図1に示すように、本実施形態に係る検出システム1は、車両10と、測定データ取得装置12と、演算装置14とを含む。検出システム1は、演算装置14によって、挙動情報に基づいて道路の路面状態を算出する。路面状態は、本実施形態では路面の凹凸度合いを示す指標である。より詳しくは、本実施形態においては、路面状態とは、IRI(International Roughness Index;国際ラフネス指数)である。ただし、路面状態は、IRIに限られず、路面の状態を示す任意の指標であってよい。例えば、路面状態は、IRI、路面の平たん性、ひび割れ、わだち掘れ、及びMCI(Meintenance Control Index)の少なくとも1つであってもよい。
検出システム1においては、車両10が、道路を走行しながら凹凸情報及び位置情報を検出しつつ、道路を撮像し、検出した凹凸情報、位置情報及び撮像画像を測定データ取得装置12に送信する。凹凸情報、位置情報及び撮像画像については後述する。測定データ取得装置12は、例えば道路を管理する主体に管理される装置(コンピュータ)である。測定データ取得装置12は、車両10から送信された凹凸情報、位置情報及び撮像画像を、演算装置14に送信する。このように、演算装置14は、測定データ取得装置12を介して凹凸情報、位置情報及び撮像画像を取得するが、それに限られない。例えば、検出システム1は、測定データ取得装置12が設けられておらず、演算装置14が、車両10から凹凸情報、位置情報及び撮像画像を取得してもよい。
(車両)
図2は、車両の模式図である。図2に示すように、車両10は、位置センサ10Aと、カメラ10Bと、センサ10Cと、測定装置10Dとを備える。位置センサ10Aは、車両10の位置情報を取得するセンサである。車両10の位置情報とは、車両10及び道路の位置を規定可能な座標系である所定座標系における、車両10の位置を示す情報である。ここでの所定座標系は、車両10や道路上の位置を規定可能な任意の座標系であってよく、例えば本実施形態では地球座標系であってよい。この場合、位置センサ10Aは、GNSS(Global Navivation Satelite System)用のモジュールである。なお、図2におけるZ方向は、鉛直方向の上方を指し、図2は鉛直方向上方から車両10を見た場合の模式図といえる。
カメラ10Bは、車両10の周囲を撮像するカメラである。より詳しくは、本実施形態においては、カメラ10Bは、車両10が移動している道路を撮像する。以下、カメラ10Bが撮像した、車両10が移動している道路の画像を、適宜、撮像画像と記載する。
センサ10Cは、凹凸情報を検出するセンサである。凹凸情報とは、車両10が移動している道路の凹凸状態を示すデータであるが、カメラ10Bによって撮像された画像とは異なる。さらに言えば、凹凸情報とは、これによって上述の路面状態(IRIなど)が算出できるデータであり、言い換えれば、路面状態の算出元となるデータといえる。
本実施形態では、凹凸情報は、車両10の挙動を示す挙動情報を指してよい。車両10の挙動は、道路の凹凸状態に応じて変化するため、挙動情報は、凹凸状態を示すデータといえる。挙動情報は、道路を走行中の車両10の挙動を示す情報であれば任意の情報であってよいが、例えば、センサ10Cは、車両10の加速度を挙動情報として検出することが好ましい。この場合、センサ10Cは、加速度を検出する加速度センサであり、より好ましくは3軸での加速度を検出する加速度センサである。また、センサ10Cが検出する挙動情報は、加速度であることに限られず、例えば、加速度、車両10の速度、車両10の角速度、車両10のステアリング角度、車両10のブレーキ量、車両10のワイパの動作、及び車両10のサスペンションの作動量の少なくとも1つであってよい。車両10の速度を検出するセンサ10Cは例えば速度センサであり、車両10の速度を検出するセンサ10Cは例えば3軸ジャイロセンサであり、車両10のステアリング角度を検出するセンサ10Cは例えばステアリングセンサであり、車両10のブレーキ量を検出するセンサ10Cは例えばブレーキセンサであり、車両10のワイパの動作を検出するセンサ10Cは例えばワイパセンサが挙げられ、車両10のサスペンションの作動量を検出するセンサ10Cは例えばサスペンションセンサが挙げられる。
凹凸情報は、挙動情報に限られず、例えば、センサ10Cから路面上の各位置までの距離を示す距離情報であってもよい。言い換えれば、凹凸情報は、挙動情報と距離情報との少なくとも一方であってよい。センサ10Cから路面上の各位置までの距離は、道路の凹凸状態に応じて変化するため、距離情報は、凹凸状態を示すデータといえる。この場合のセンサ10Cは、距離を測定する測距センサであり、例えば、LiDAR(Light Detection And Ranging)を用いてよい。この場合、センサ10Cは、車両10が移動している道路上の各位置にレーザ光を照射して、そのレーザ光からの反射光に基づいて、道路上の各位置までの距離を、距離情報として検出する。
なお、センサ10Cの数や設けられる位置は任意であってよい。
測定装置10Dは、位置センサ10A、カメラ10B、及びセンサ10Cを制御して、位置情報及び凹凸情報を検出させつつ画像を撮像させ、位置情報と凹凸情報と撮像画像とを記録する装置である。すなわち、測定装置10Dは、位置情報と凹凸情報と撮像画像とを記録するデータロガーとして機能する。測定装置10Dは、コンピュータであるとも言え、制御部10D1と、記憶部10D2と、通信部10D3とを含む。制御部10D1は、演算装置であり、例えばCPU(Central Processing Unit)などの演算回路を含む。記憶部10D2は、制御部10D1の演算内容やプログラム、車両10の位置情報及び挙動情報などの各種情報を記憶するメモリであり、例えば、RAM(Random Access Memory)と、ROM(Read Only Memory)のような主記憶装置と、フラッシュメモリやHDD(Hard Disk Drive)などの不揮発性の記憶装置のうち、少なくとも1つ含む。なお、記憶部10D2が保存する制御部10D1用のプログラムは、測定装置10Dが読み取り可能な記録媒体に記憶されていてもよい。通信部10D3は、外部の装置と通信を行う通信モジュールであり、例えばアンテナなどである。
制御部10D1は、記憶部10D2に記憶されたプログラムを読み出して、位置センサ10A、カメラ10B及びセンサ10Cの制御を実行する。制御部10D1は、車両10が道路を走行中に、所定時間ごとにカメラ10Bに道路を撮像させて、その撮像画像を取得する。同様に、制御部10D1は、車両10が道路を走行中に、所定時間ごとにセンサ10Cに凹凸情報を検出させて、その凹凸情報を取得する。制御部10D1は、位置センサ10Aに、車両10が道路を走行中に、所定時間ごとに車両10の位置情報を検出させて、その位置情報を取得する。すなわち、制御部10D1は、車両10が所定時間走行するたびに、カメラ10Bに撮像させセンサ10Cに凹凸情報を検出させ位置センサ10Aに位置情報を検出させる。ここでの所定時間とは、例えば1分など、一定の時間であることが好ましいが、所定時間は一定の時間であることに限られず、任意の長さであってよい。すなわち、所定時間は都度変化してもよい。
制御部10C1は、取得した撮像画像と位置情報とを関連付けて、記憶部10C2に記憶させる。同様に、制御部10C1は、取得した凹凸情報と位置情報とを関連付けて、記憶部10C2に記憶させる。すなわち、同じタイミングで検出された撮像画像と位置情報とが関連付けられ、同じタイミングで検出された凹凸情報と位置情報とが関連付けられる。記憶部10C2には、関連付けられたこれらの情報が、検出されたタイミング毎に記憶される。なお、関連付けられたこれらの情報は、同じタイミングで検出されたものであるが、厳密に同じタイミングであることに限られず、異なるタイミングで検出されたものであってよい。この場合、例えば、検出タイミングの差が所定値以下となる撮像画像と位置情報とが、同じタイミングで検出されたものとして扱われて、同様に、検出タイミングの差が所定値以下となる凹凸情報と位置情報とが、同じタイミングで検出されたものとして扱われて、関連付けられる。なお、上記では全てのセンサのサンプリング周期が同じ前提で説明したが、各センサのサンプリング周期が異なる場合には適宜調整を行う。
制御部10C1は、関連付けられた撮像画像及び位置情報と、関連付けられた凹凸情報及び位置情報とを、通信部10C3を介して、測定データ取得装置12に送信する。測定データ取得装置12は、車両10から受信したこれらの情報(撮像画像と凹凸情報と位置情報)を、演算装置14に送信する。なお、測定データ取得装置12を設けない場合は、制御部10C1は、撮像画像と凹凸情報と位置情報とを、演算装置14に直接送信してもよい。
(演算装置)
図3は、演算装置の模式的なブロック図である。図3に示すように、演算装置14は、例えばコンピュータであり、通信部20と、記憶部22と、制御部24とを含む。通信部20は、外部の装置と通信を行う通信モジュールであり、例えばアンテナなどである。記憶部22は、制御部24の演算内容やプログラムを記憶するメモリであり、例えば、RAMと、ROMのような主記憶装置と、フラッシュメモリやHDDなどの不揮発性の記憶装置のうち、少なくとも1つを含む。なお、記憶部22が保存する制御部24用のプログラムは、演算装置14が読み取り可能な記録媒体に記憶されていてもよい。
制御部24は、演算装置であり、例えばCPU(Central Processing Unit)などの演算回路を含む。制御部24は、画像取得部30と、凹凸情報取得部32と、位置算出部34と、凹凸情報抽出部36と、処理部38とを含む。制御部24は、記憶部22からプログラム(ソフトウェア)を読み出して実行することで、画像取得部30と凹凸情報取得部32と位置算出部34と凹凸情報抽出部36と処理部38とを実現して、それらの処理を実行する。なお、制御部24は、1つのCPUによってこれらの処理を実行してもよいし、複数のCPUを備えて、それらの複数のCPUで、処理を実行してもよい。また、画像取得部30と凹凸情報取得部32と位置算出部34と凹凸情報抽出部36と処理部38との少なくとも一部を、ハードウェアで実現してもよい。
(画像取得部)
図4は、撮像画像の一例を示す模式図である。画像取得部30は、カメラ10Bによって撮像された撮像画像を取得する。画像取得部30は、通信部20を介して、測定データ取得装置12から、撮像画像を取得する。画像取得部30は、所定時間毎に撮像されたそれぞれの撮像画像を、さらに言えば関連付けられた所定時間毎の撮像画像及び位置情報を、取得する。図4の例では、撮像画像Cにおいて、車両10の前方の道路Rが写っており、道路R上のマンホールAが写っている。ただし図4は撮像画像の一例である。
(凹凸情報取得部)
図5は、凹凸情報の一例を示す模式図である。凹凸情報取得部32は、センサ10Cによって検出された凹凸情報を取得する。凹凸情報取得部32は、通信部20を介して、測定データ取得装置12から凹凸情報を取得する。画像取得部30は、所定時間毎に検出されたそれぞれの凹凸情報を、さらに言えば関連付けられた所定時間毎の凹凸情報及び位置情報を取得する。図5は、凹凸情報が車両10の挙動情報(例えば加速度)である場合の一例を示している。図5に示すように、凹凸情報は所定時間毎に検出される。
(位置算出部)
位置算出部34は、画像取得部30によって取得された撮像画像に基づき、撮像画像に写っている道路上の注目領域の、位置情報を算出する。注目領域の位置情報とは、所定座標系(例えば地球座標系)における注目領域の位置である。注目領域は、撮像画像に写っている道路上の任意の領域であってよい。例えば、図4の例では、撮像画像Cにおける道路R上のマンホールAを、注目領域としてよい。ただし、注目領域は、マンホールに限られず、道路上の任意の対象物が存在している領域であってよく、例えば、道路上のひび割れている箇所や、窪んでいる箇所や、白線が設けられた箇所などであってもよい。
位置算出部34は、撮像画像に基づいた任意の方法で注目領域の位置情報を算出してもよいが、本実施形態では、次の方法で注目領域の位置情報を算出する。位置算出部34は、撮像画像内において注目領域が占めている箇所を、言い換えれば、撮像画像の座標系における注目領域の位置を、特定する。位置算出部34は、撮像画像の座標系における注目領域の位置に基づいて、所定座標系(例えば地球座標系)における注目領域の位置を、注目領域の位置情報として算出する。具体的には、位置算出部34は、その撮像画像が撮像されたタイミングにおける車両10の位置情報(その撮像画像に関連付けられた車両10の位置情報)と、その撮像画像の座標系における注目領域の位置とに基づいて、注目領域の位置情報を算出する。より詳しくは、位置算出部34は、撮像画像の座標系における注目領域の位置に基づいて、所定座標系における、車両10から注目領域までの距離及び方向を算出する。そして、位置算出部34は、撮像画像が撮像されたタイミングにおける車両10の位置(所定座標系における位置)から、車両10から注目領域までの方向に、算出した距離だけ離れた位置を、注目領域の位置情報として算出する。なお、車両10から注目領域までの距離の算出方法は任意でよく、例えば、カメラ10Bをセットした高さや向き(カメラ10Bの設置状態)に基づき校正してもよいし、複数のカメラ10Bを設けてそれらの撮像画像から三角測量してもよいし、1台のカメラ10Bのレンズ収差に基づいて歪み方から割り出してもよい。
なお、撮像画像における注目領域の位置は、任意の方法で設定されてよい。例えば、位置算出部34は、ユーザによって設定された撮像画像における注目領域を取得してもよい。また例えば、位置算出部34は、画像認識技術により、注目領域の位置を特定してよい。この場合例えば、位置算出部34は、撮像画像の全域のうちで、各画素の画像データの特徴量が所定条件を満たす領域(例えばマンホールであるとの特徴量を満たす領域)を、注目領域の位置として特定する。なお、ここでの画像データは、例えば階調値や輝度値を指す。
位置算出部34は、所定時間毎に撮像された撮像画像のそれぞれについて、同様の処理を実行することで、撮像画像毎に注目領域の位置を特定してよい。また、位置算出部34は、1つの撮像画像について、複数の注目領域を設定して、複数の注目領域について、位置情報を算出してもよい。なお、それぞれの注目領域は、同じ対象物であってもよいし、異なる対象物であってもよい。
(凹凸情報抽出部)
凹凸情報抽出部36は、注目領域の位置情報に基づき、凹凸情報取得部32が取得した凹凸情報のうちから、注目領域での凹凸情報を抽出する。すなわち、凹凸情報抽出部36は、所定時刻毎に検出されたそれぞれの凹凸情報のうちから、注目領域での凹凸情報を選択する。注目領域での凹凸情報とは、注目領域において検出された凹凸情報である。すなわち例えば、凹凸情報が車両10の挙動情報である場合には、注目領域での凹凸情報とは、車両10が注目領域上に位置するタイミング(車両10が注目領域上を通過するタイミング)で検出された、車両10の挙動情報である。また例えば、凹凸情報が道路までの距離情報である場合には、注目領域での凹凸情報とは、車両10から注目領域までの距離を示す距離情報である。
凹凸情報抽出部36は、注目領域の位置情報に基づいた任意の方法で注目領域での凹凸情報を抽出してもよいが、本実施形態では、次の方法で注目領域での凹凸情報を抽出してよい。例えば、凹凸情報抽出部36は、それぞれの凹凸情報のうちから、検出された位置が注目領域の位置と重なる凹凸情報を、注目領域での凹凸情報として抽出してよい。ただし厳密に位置が重なることに限られず、凹凸情報抽出部36は、検出された位置が注目領域の位置から所定距離範囲内になる凹凸情報を、注目領域での凹凸情報として抽出してよい。例えば凹凸情報が道路までの距離情報である場合には、凹凸情報抽出部36は、凹凸情報を検出した際の車両10の位置と、距離情報とから、凹凸情報の検出位置(所定座標系における凹凸情報の検出位置)を算出する。そして、凹凸情報抽出部36は、検出位置が注目領域の位置から所定距離内の凹凸情報を、注目領域での凹凸情報として抽出してよい。
図6は、注目領域での凹凸情報の抽出を説明するための模式図である。図6に示すように、例えば凹凸情報が車両10の挙動情報である場合には、注目領域が撮像されたタイミングt1が、注目領域の凹凸情報が検出されたタイミングt2(車両10が注目領域に到達したタイミング)よりも、早くなる場合がある。そのため、凹凸情報抽出部36は、注目領域での凹凸情報が検出されたタイミングを算出し、そのタイミングで検出された凹凸情報を、注目領域での凹凸情報としてもよい。具体的には、例えば凹凸情報が車両10の挙動情報である場合には、凹凸情報抽出部36は、撮像画像が撮像された際の車両10の位置情報と、注目領域の位置情報とから、車両10が注目領域に到達するまでの到達時間を算出する。例えば、凹凸情報抽出部36は、撮像画像が撮像された際の車両10の位置と、その際の車両10の進行方向及び速度とから、車両10が注目領域に到達するまでの到達時間を算出してよい。そして、凹凸情報抽出部36は、その撮像画像が撮像されたタイミング(図6の例ではタイミングt0)から到達時間だけ遅れたタイミング(図6の例ではタイミングt1)を、注目領域での凹凸情報が検出されたタイミングとして、そのタイミングにおける凹凸情報を、注目領域での凹凸情報とする。また、凹凸情報抽出部36は、凹凸情報が検出されたタイミングの車両10の位置情報に基づき、注目領域での凹凸情報としてもよい(注目領域での凹凸情報としてもよい)。
(処理部)
処理部38は、撮像画像の注目領域での画像データと、注目領域での凹凸情報とを対応付ける処理を実行する。処理部38は、撮像画像の注目領域での画像データと、注目領域での凹凸情報とを対応付けた情報を生成して、その対応付けた情報に基づき、路面状態が未知の道路の路面状態を算出する。
撮像画像は、画角内に収まる路面を広く捉えて記録できる一方、情報が画像データに限られるため、路面状態を高精度に算出できない場合がある。一方、凹凸情報は、路面状態を高精度に算出できるが、計測範囲が狭くなる場合がある。それに対して、本実施形態においては、撮像画像の注目領域での画像データと、注目領域での凹凸情報とを対応付けることで、同じ位置における画像データと凹凸情報とを対応付けることができる。これにより、例えば路面状態を、高精度、かつ広範囲に算出することが可能となり、路面状態を適切に算出できることになる。
処理部38は、注目領域での画像データと注目領域での凹凸情報とを対応付ける任意の処理を行ってよいが、本実施形態では、注目領域での画像データに基づくデータと、注目領域での凹凸情報に基づくデータとを教師データとして、学習モデルに機械学習させる。以下、処理部38の処理の例について説明する。
(処理の例)
処理部38は、撮像画像の注目領域での画像データと、注目領域での凹凸情報に基づくデータとを教師データとして、学習モデルNに機械学習させる。なお、ここでの注目領域での凹凸情報に基づくデータとは、注目領域での凹凸情報そのものであってもよいし、注目領域での凹凸情報から算出された、注目領域での路面状態(例えばIRI)であってもよい。以降では、注目領域での路面状態とする場合を例にする。なお、凹凸情報から路面状態を算出する方法は、任意であってよく、例えば、凹凸情報と路面状態との対応関係を機械学習させたモデルにより算出してよい。
処理部38は、注目領域での画像データを入力値とし、注目領域での路面状態(注目領域での凹凸情報に基づくデータ)を出力値としたデータセットを、教師データとして、学習モデルに入力する。処理部38は、画像データと路面状態とからなるデータセットを複数準備して、複数のデータセットのそれぞれを学習モデルに入力することが好ましい。これにより、学習モデルNは、道路の画像データとその道路での路面状態との対応関係を機械学習する。
なお、学習モデルNは、ディープラーニングによって学習された学習モデルであり、ディープラーニングによって学習された分類器を構成するニューラルネットワークを定義するモデル(ニューラルネットワークの構成情報)と、変数とで構成される。学習モデルNは、入力されたデータに基づき、そのデータのラベルを判定できるものである。本実施形態の例では、学習モデルNは、CNN(Conventional Neural Network:畳み込みニューラルネットワーク)モデルであるが、CNNモデルに限られず、任意の方式の学習モデルであってもよい。
処理部38は、学習済みの学習モデルNを用いて、路面状態が未知の道路の路面状態を算出する。具体的には、画像取得部30は、路面状態が未知の道路を移動中の車両により撮像された道路の撮像画像を取得する。処理部38は、その撮像画像の画像データを、学習済みの学習モデルNに入力する。学習モデルNにおいては、撮像画像の画像データが、入力データとして入力されて演算が実行される。その結果、学習モデルNからは、撮像画像に写っている道路の路面状態が、出力データとして出力される。すなわち、学習モデルNは、道路の撮像画像の画像データが入力されると路面状態が出力される学習済みのプログラムであるともいえる。処理部38は、出力データとして出力された路面状態を、その道路の路面状態として算出するといえる。
なお、以上の説明では、学習モデルNにより路面状態を算出する場合を例にしたが、学習モデルNに、画像データと凹凸状態との対応関係を機械学習させていた場合には、処理部38は、画像データを学習モデルNに入力することで、その道路の凹凸状態を算出することになる。この場合、処理部38は、凹凸情報から路面状態を算出すればよい。
このように、画像データと凹凸状態とを対応付けて学習モデルNに機械学習させることで、広範囲に撮像された画像を取得するだけで、路面状態を高精度に算出することが可能となる。
なお、路面状態が未知の道路を走行中に、画像の撮像と共に、凹凸状態も検出しておき、凹凸状態からも路面状態を算出してよい。この場合例えば、撮像画像から算出された路面状態と、凹凸状態から算出された路面状態とに基づき、高精度に路面状態を算出し直すことができる。
(処理の例)
上述の例では、画像データを入力値とするように学習モデルNに学習させていたが、それとは逆に、凹凸状態を入力値とするように学習モデルNに学習させてもよい。以下、この場合の例について説明する。
処理部38は、注目領域の画像データに基づいて、注目領域の路面パターンを設定する。路面パターンとは、路面の特性を示す情報であり、例えば、その路面がマンホールであるか、ひび割れた領域であるか、などを示す。言い換えれば、路面パターンとは、IRIなどの数値とは異なり、有限の複数の類型に分類される情報といえる。処理部38は、注目領域の路面パターンを任意に設定してよい。例えば、処理部38は、ユーザによって設定された注目領域における路面パターンを取得して、その路面パターンを注目領域の路面パターンとしてよい。また例えば、処理部38は、画像認識技術により、注目領域の路面パターンを設定してよい。この場合例えば、位置算出部は、注目領域の画像データの特徴量と、予め設定された路面パターンの特徴量(例えばマンホールの画像の特徴量)との一致度が、所定値以上である場合に、その注目領域に対してその路面パターンを設定する。
処理部38は、注目領域の画像データに基づいて設定された路面パターンを示すラベルと、注目領域での凹凸情報に基づくデータとを教師データとして、学習モデルNに学習させる。なお、ここでの注目領域での凹凸情報に基づくデータも、注目領域での凹凸情報そのものであってもよいし、注目領域での凹凸情報から算出された、注目領域での路面状態であってもよいが、以降では、注目領域での凹凸情報とする場合を例にする。
処理部38は、注目領域での凹凸情報を入力値とし、注目領域の路面パターンを出力値としたデータセットを、教師データとして、学習モデルに入力する。処理部38は、凹凸情報と路面パターンとからなるデータセットを複数準備して、複数のデータセットのそれぞれを学習モデルに入力することが好ましい。これにより、学習モデルNは、凹凸情報とその道路の路面パターンとの対応関係を機械学習する。
処理部38は、学習済みの学習モデルNを用いて、路面状態が未知の道路の路面パターンを推定する。具体的には、凹凸情報取得部32は、路面状態が未知の道路を移動中の車両により検出された凹凸情報を取得する。処理部38は、その凹凸情報を、学習済みの学習モデルNに入力する。学習モデルNにおいては、凹凸情報が、入力データとして入力されて演算が実行される。その結果、学習モデルNからは、凹凸情報が検出された道路の路面パターンが、出力データとして出力される。すなわち、学習モデルNは、凹凸情報が入力されると道路の路面パターンが出力される学習済みのプログラムであるともいえる。処理部38は、出力データとして出力された路面パターンを、その道路の路面パターンとして特定するといえる。
このように、画像データから特定された路面パターンと凹凸状態とを対応付けて学習モデルNに機械学習させることで、凹凸状態を検出するだけで、例えば画像でしか認識し難い路面パターンも特定することが可能となり、路面の状態を適切に推定できる。これにより、例えば凹凸状態から算出された路面状態が異常を示す場合でも、路面パターンがマンホールであると特定されれば、異常を示した理由がマンホール上を走行していたことが分かり、例えば不要な路面補修の必要をなくすことができる。
なお、路面状態が未知の道路を走行中に、凹凸状態の検出と共に、道路の画像も撮像させておき、撮像画像の画像データからも路面パターンを特定してよい。この場合例えば、画像データから特定された路面パターンと、凹凸状態から特定された路面パターンとに基づき、高精度に路面パターンを特定することができる。
また例えば、上述の2つの処理の例を組み合わせてもよい。すなわち例えば、画像データを学習モデルに入力して路面状態を算出し、かつ、凹凸状態を学習モデルに入力して路面パターンを特定してもよい。
(処理フロー)
次に、以上説明した演算装置の処理フローを説明する。図7は、本実施形態に係る演算装置の処理フローを説明するフローチャートである。図7に示すように、演算装置14は、画像取得部30により、車両10のカメラ10Bが撮像した撮像画像を取得し、車両10のセンサ10Cが検出した凹凸情報を取得する(ステップS10)。演算装置14は、位置算出部34により、撮像画像に基づき、注目領域の位置情報を算出し(ステップS12)、凹凸情報抽出部36により、注目領域の位置情報に基づき、注目領域での凹凸情報を抽出する(ステップS14)。そして、演算装置14は、注目領域での凹凸情報と注目領域での画像データとを対応付ける処理を実行する(ステップS16)。
(効果)
以上説明したように、本実施形態に係る演算装置14は、画像取得部30と、凹凸情報取得部32と、位置算出部34と、凹凸情報抽出部36と、処理部38とを含む。画像取得部30は、道路を走行する車両10に設けられるカメラ10Bによって撮像された、道路の撮像画像を取得する。凹凸情報取得部32は、車両10に設けられるセンサ10Cによって検出された、道路の凹凸状態を示す凹凸情報を取得する。位置算出部34は、撮像画像に基づき、撮像画像に写っている道路上の注目領域の位置情報を算出する。凹凸情報抽出部36は、注目領域の位置情報に基づき、凹凸情報から、注目領域での凹凸情報を抽出する。処理部38は、撮像画像の注目領域での画像データと注目領域での凹凸情報を対応づける処理を実行する。
ここで、撮像画像は、画角内に収まる路面を広く捉えて記録できる一方、情報が画像データに限られるため、路面状態を高精度に算出できない場合がある。一方、凹凸情報は、路面状態を高精度に算出できるが、計測範囲が狭くなる場合がある。それに対して、本実施形態に係る演算装置14は、撮像画像の注目領域での画像データと、注目領域での凹凸情報とを対応付けることで、同じ位置における画像データと凹凸情報とを対応付けることができる。これにより、例えば路面状態を、高精度、かつ広範囲に算出することが可能となり、路面の状態を適切に推定できる。
センサ10Cは、車両10の挙動を検出する挙動センサと、センサ10C(車両10)から道路までの距離を検出する測距センサとの、少なくとも1つを含んでよい。車両10の挙動や道路までの距離を凹凸情報として検出することで、画像データと対応付けることにより、路面状態を、高精度、かつ広範囲に算出することが可能となり、路面の状態を適切に推定できる。
処理部38は、注目領域での画像データに基づくデータと、注目領域での凹凸情報に基づくデータとを教師データとして、学習モデルNに学習させる。このように、画像データと凹凸情報とを機械学習用の教師データとすることで、路面状態や路面パターンを適切に算出できる。
処理部38は、注目領域での画像データと、注目領域での凹凸情報に基づくデータとを教師データとして、学習モデルNに学習させる。処理部38は、学習済みの学習モデルNに、道路の画像データを入力することで、道路の路面状態を算出する。このように画像データと凹凸状態とを対応付けて学習モデルNに機械学習させることで、広範囲に撮像された画像を取得するだけで、路面状態を高精度に算出することが可能となる。
処理部38は、注目領域での画像データに基づいて設定された注目領域の路面パターンを示すラベルと、注目領域での凹凸情報に基づくデータとを教師データとして、学習モデルNに学習させる。処理部38は、学習済みの学習モデルNに、道路の凹凸情報に基づくデータを入力することで、その凹凸情報が取得された道路上の位置における路面パターンを取得する。このように、画像データから特定された路面パターンと凹凸状態とを対応付けて学習モデルNに機械学習させることで、凹凸状態を検出するだけで、例えば画像でしか認識し難い路面パターンも特定することが可能となる。
以上、本発明の実施形態及び実施例を説明したが、これら実施形態等の内容により実施形態が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態等の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
1 検出システム
10 車両
10A 位置センサ
10B カメラ
10C センサ
14 演算装置
30 画像取得部
32 凹凸情報取得部
34 位置算出部
36 凹凸情報抽出部
38 処理部

Claims (7)

  1. 道路を走行する車両に設けられるカメラによって撮像された、前記道路の撮像画像を取得する画像取得部と、
    前記車両に設けられるセンサによって検出された、前記道路の凹凸状態を示す凹凸情報を取得する凹凸情報取得部と、
    前記撮像画像に写っている前記道路上の注目領域の位置情報を算出する位置算出部と、
    前記注目領域の位置情報に基づき、前記凹凸情報から、前記注目領域での凹凸情報を抽出する凹凸情報抽出部と、
    前記撮像画像の注目領域での画像データと前記注目領域での凹凸情報を対応づける処理を実行する処理部と、
    を含む、
    演算装置。
  2. 前記センサは、前記車両の挙動を検出する挙動センサと、前記センサから前記道路までの距離を検出する測距センサとの、少なくとも1つを含む、請求項1に記載の演算装置。
  3. 前記処理部は、前記注目領域での画像データに基づくデータと、前記注目領域での凹凸情報に基づくデータとを教師データとして、学習モデルに学習させる、請求項1又は請求項2に記載の演算装置。
  4. 前記処理部は、
    前記注目領域での画像データと、前記注目領域での凹凸情報に基づくデータとを教師データとして、前記学習モデルに学習させ、
    学習済みの前記学習モデルに、道路の画像データを入力することで、前記道路の路面状態を出力する、請求項3に記載の演算装置。
  5. 前記処理部は、
    前記注目領域での画像データに基づいて設定された前記注目領域の路面パターンを示すラベルと、前記注目領域での凹凸情報に基づくデータとを教師データとして、前記学習モデルに学習させ、
    学習済みの前記学習モデルに、道路の凹凸情報に基づくデータを入力することで、その凹凸情報が取得された道路上の位置における路面パターンを取得する、請求項3又は請求項4に記載の演算装置。
  6. 道路を走行する車両に設けられるカメラによって撮像された、前記道路の撮像画像を取得するステップと、
    前記車両に設けられるセンサによって検出された、前記道路の凹凸状態を示す凹凸情報を取得するステップと、
    前記撮像画像に写っている前記道路上の注目領域の位置情報を算出するステップと、
    前記注目領域の位置情報に基づき、前記凹凸情報から、前記注目領域での凹凸情報を抽出するステップと、
    前記撮像画像の注目領域での画像データと前記注目領域での凹凸情報を対応づける処理を実行するステップと、
    を含む、
    演算方法。
  7. 道路を走行する車両に設けられるカメラによって撮像された、前記道路の撮像画像を取得するステップと、
    前記車両に設けられるセンサによって検出された、前記道路の凹凸状態を示す凹凸情報を取得するステップと、
    前記撮像画像に写っている前記道路上の注目領域の位置情報を算出するステップと、
    前記注目領域の位置情報に基づき、前記凹凸情報から、前記注目領域での凹凸情報を抽出するステップと、
    前記撮像画像の注目領域での画像データと前記注目領域での凹凸情報を対応づける処理を実行するステップと、
    をコンピュータに実行させる、
    プログラム。
JP2022042861A 2022-03-17 2022-03-17 演算装置、演算方法及びプログラム Pending JP2023136923A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022042861A JP2023136923A (ja) 2022-03-17 2022-03-17 演算装置、演算方法及びプログラム
PCT/JP2023/010525 WO2023176955A1 (ja) 2022-03-17 2023-03-17 演算装置、演算方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022042861A JP2023136923A (ja) 2022-03-17 2022-03-17 演算装置、演算方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2023136923A true JP2023136923A (ja) 2023-09-29

Family

ID=88023339

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022042861A Pending JP2023136923A (ja) 2022-03-17 2022-03-17 演算装置、演算方法及びプログラム

Country Status (2)

Country Link
JP (1) JP2023136923A (ja)
WO (1) WO2023176955A1 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6119097B2 (ja) * 2011-12-28 2017-04-26 富士通株式会社 路面調査プログラム及び路面調査装置
JP6412725B2 (ja) * 2014-06-27 2018-10-24 Kyb株式会社 路面状態判断システム
JP2017053777A (ja) * 2015-09-10 2017-03-16 株式会社日立製作所 路面測定システム及び路面測定方法
JP6902774B2 (ja) * 2017-01-25 2021-07-14 株式会社ユピテル データ収集装置、道路状態評価支援装置、及びプログラム
JP6589926B2 (ja) * 2017-04-07 2019-10-16 トヨタ自動車株式会社 物体検出装置
JP7023825B2 (ja) * 2018-11-26 2022-02-22 株式会社東芝 電子装置、方法およびプログラム
JP7321035B2 (ja) * 2019-08-30 2023-08-04 日産自動車株式会社 物体位置検出方法及び物体位置検出装置
JP2022012710A (ja) * 2020-07-02 2022-01-17 一般社団法人ヤマトグループ総合研究所 道路損傷検出装置、道路損傷検出システム、及び道路損傷検出方法

Also Published As

Publication number Publication date
WO2023176955A1 (ja) 2023-09-21

Similar Documents

Publication Publication Date Title
Zhou et al. Automated evaluation of semantic segmentation robustness for autonomous driving
JP6670071B2 (ja) 車両用画像認識システム、及び対応法
CN107272021A (zh) 使用雷达和视觉定义的图像检测区域的对象检测
JP6708730B2 (ja) 移動体
CN102985957A (zh) 车辆周围监测装置
WO2014002692A1 (ja) ステレオカメラ
KR20180098945A (ko) 고정형 단일 카메라를 이용한 차량 속도 감지 방법 및 장치
CN112598743B (zh) 一种单目视觉图像的位姿估算方法及相关装置
JP2018055222A (ja) 走路検出方法及び走路検出装置
WO2023176955A1 (ja) 演算装置、演算方法及びプログラム
CN111989541B (zh) 立体摄像机装置
Lenac et al. Moving objects detection using a thermal Camera and IMU on a vehicle
KR100751096B1 (ko) 광흐름을 이용한 속도 측정 장치 및 그 방법
JP7043787B2 (ja) 対象物検知システム
JP7226553B2 (ja) 情報処理装置、データ生成方法、及びプログラム
JP5487648B2 (ja) 移動物体計測システム、移動物体計測装置、移動物体計測方法及びプログラム
JP2022148338A (ja) 車線境界検出装置、車線境界検出方法及び車線境界検出用コンピュータプログラム
WO2023189544A1 (ja) 位置推定装置、位置推定方法、及びプログラム
JP2020076714A (ja) 位置姿勢推定装置
JP6704307B2 (ja) 移動量算出装置および移動量算出方法
WO2023189971A1 (ja) 演算装置、演算方法及びプログラム
WO2023189972A1 (ja) 演算装置、演算方法及びプログラム
WO2022113909A1 (ja) 演算装置及びプログラム
US20220309776A1 (en) Method and system for determining ground level using an artificial neural network
JP2022076948A (ja) 演算装置及びプログラム