JP6946812B2 - 学習サーバ及び支援システム - Google Patents

学習サーバ及び支援システム Download PDF

Info

Publication number
JP6946812B2
JP6946812B2 JP2017141093A JP2017141093A JP6946812B2 JP 6946812 B2 JP6946812 B2 JP 6946812B2 JP 2017141093 A JP2017141093 A JP 2017141093A JP 2017141093 A JP2017141093 A JP 2017141093A JP 6946812 B2 JP6946812 B2 JP 6946812B2
Authority
JP
Japan
Prior art keywords
data
learning
vehicle
shooting
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017141093A
Other languages
English (en)
Other versions
JP2019021201A (ja
Inventor
佑樹 前
佑樹 前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017141093A priority Critical patent/JP6946812B2/ja
Publication of JP2019021201A publication Critical patent/JP2019021201A/ja
Application granted granted Critical
Publication of JP6946812B2 publication Critical patent/JP6946812B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車載カメラの撮影データをもとに画像認識処理を行うととともに学習によりその処理を適応化する機能を有する学習サーバ及び支援システムに関する。
近年、自動車にはADAS(先進運転支援システム)と呼ばれる技術の導入が急速に拡大している。ADASでは、車両にカメラが搭載され、画像認識技術による物体の検知・認識が行われ、車線維持支援、前方車両追従、緊急自動ブレーキ等の運転支援が行われる。
一方で、画像認識技術は、コンピュータの発達、特に近年のAI(人工知能)を中心とした学習機能の進化により、その精度は急速に向上している。ADAS分野でも、AIや学習機能といった技術により、出荷後の車両において画像認識精度を向上させることに対して大きな期待が向けられている。
そのような画像認識技術を車両に適用した技術として、学習サーバが、車両の画像認識処理に使用された画像データを取得し、学習によって得られたパラメータを車両に提供する技術がある(例えば、特許文献1参照)。具体的には、車載装置は、自装置に保存されているパラメータを用いて画像認識処理を行い、使用した画像データを学習データとし学習サーバに送信する。学習サーバは、各車載装置からの学習データに基づき画像認識処理についての学習処理を行ってパラメータを更新し、更新後のパラメータを各車載装置に提供する。
特開2015−135552号公報
ところで、特許文献1に開示の技術では、撮影画像を学習データとし、天候や時間帯等のような環境データとともに、学習サーバに送信する。しかし、ADASを対象とするような画像を扱う技術の場合には、周囲の物体の認識をより適切に行う必要があり、想定外の環境変化が発生したりした場合であっても、認識精度の低下を抑制する技術が求められている。
本発明はこのような状況に鑑みてなされたものであり、上記課題を解決できる技術を提供することを目的とする。
本発明の学習サーバは、車両(5)の画像認識処理において評価が付されるとともに撮影日時の情報及び前記車両の位置情報を含む付加情報が関連づけられている撮影データを取得するデータ取得部(83)と、前記撮影データを蓄積するとともに、前記画像認識処理に用いるパラメータの学習に用いるデータセットを蓄積するデータ保持部(91)と、前記車両から前記撮影データを取得したときに、学習タイミングであるか否かを判断するデータ判定部(84)と、前記学習タイミングである場合に、前記撮影データに関連づけられている前記付加情報を参照して、学習に用いるデータを前記データ保持部から選択し学習を行うサーバ側学習部(85)と、学習結果を前記車両に通知する更新部(86)とを備え、前記サーバ側学習部(85)は、前記データ保持部に、前記撮影データと類似する環境のデータが含まれているデータセットを検索し(S14)、前記データセットがあれば(S14のY)、前記類似する環境のデータと従来環境のデータとを用いて学習を行い(S18)、前記データセットがなければ(S14のN)、前記撮影データと前記従来環境のデータとを用いて学習を行う(S16)
本発明は、車載カメラ(40)を有する車両(5)と、学習サーバ(70)とを備え支援システムであって、前記車両は、画像認識処理を行う車載装置(10)を備え、前記車載装置は、前記車載カメラによる撮影データをもとに画像認識処理を行うとともに、前記画像認識処理に対する評価を行う画像判断部(23)と、前記評価が信頼度に関する基準値より低いか否かを判断し、低い場合に、前記撮影データを、前記画像認識処理に対する前記評価、撮影時刻及び撮影位置を含む付加情報を関連づけて、前記学習サーバへ送信する通知判断部(25)と、を備え、前記学習サーバは、前記車両から前記撮影データを、前記付加情報とともに取得するデータ取得部(83)と、前記撮影データを蓄積するとともに、前記画像認識処理に用いるパラメータの学習に用いるデータセットを蓄積するデータ保持部(91)と、前記車両から前記撮影データを取得したときに、学習タイミングであるか否かを判断するデータ判定部(84)と、前記学習タイミングである場合に、前記撮影データに関連づけられている前記付加情報を参照して、学習に用いるデータを前記データ保持部から選択し学習を行うサーバ側学習部(85)と、学習結果を前記車両に通知する更新部(86)とを備え、前記サーバ側学習部(85)は、前記データ保持部に、前記撮影データと類似する環境のデータが含まれているデータセットを検索し(S14)、前記データセットがあれば(S14のY)、前記類似する環境のデータと従来環境のデータとを用いて学習を行い(S18)、前記データセットがなければ(S14のN)、前記撮影データと前記従来環境のデータとを用いて学習を行い(S16)、前記画像判断部は、前記更新部から取得した前記学習結果を、前記画像認識処理に反映させる。
本発明によると、画像認識処理を行う車両において、画像認識処理の認識精度の低下を抑制する技術を実現できる。
実施形態に係る、運転支援システムの概略構成を示す図である。 実施形態に係る、運転支援システムの概略構成を示す図である。 実施形態に係る、車載装置の機能ブロック図である。 実施形態に係る、サブサーバの機能ブロック図である。 実施形態に係る、学習支援サーバにおける学習器の再学習処理を示したフローチャートである。 実施形態に係る、送信頻度判定処理の具体例1を示すフローチャートである。 実施形態に係る、送信頻度判定処理の具体例2を示すフローチャートである。 実施形態に係る、送信頻度判定処理の具体例3を示すフローチャートである。
図1及び図2を参照して、本実施形態の運転支援システム1の概略を説明する。図示のように、運転支援システム1は、複数の車両5と、それら車両5がネットワーク2を介して接続する学習支援サーバ70とを備える。それぞれの車両5は、例えば、ADAS機能を有し、その機能を実現する車載装置10を備える。
車載装置10は、ADAS機能における画像認識処理により撮影データ中の物体をラベリングする機能を有する。さらに、車載装置10は、ラベリング処理について能動学習(Active Learning)の機能を備え、能動学習において「苦手データ」と判断したものを、ネットワーク2を介して学習支援サーバ70に送信する。
苦手データとは、学習器にとって情報量の多いデータを指し、より具体的には、不確かさ度が高いデータや複数種類の学習器で出力に違いがあるデータを言い、以下では、便宜的に「信頼度が低いデータ」と称する。学習器とは、後述する学習器24やサーバ側学習部85に対応する。
信頼度の算出方法としては、例えば、エントロピー法があるが、これに限る趣旨ではなく、最小/最大確信度法(Least/Largest Confident)や周辺確率(Margin Sampling)を用いることができる。エントロピー法では、算出されたエントロピー値が大きい場合に、信頼度が低いデータと評価される。
送信される苦手データは、撮影データそのものであってもよいし、ラベリングされた領域が抽出された画像データであってもよい。後者の場合、ラベリングされた領域毎に信頼度が算出されるため、車両5と学習支援サーバ70との通信のデータ量及び必要とされる記憶領域を大幅に抑制できる。車両5と比べて処理能力が高く及び蓄積されているデータが非常に多い学習支援サーバ70で、苦手データを学習するために、効果的な学習により、パラメータの更新を迅速かつ的確に行うことができる。
なお、学習の機会は、新たな種類の車両5(例えば、車両メーカー等から市場へ販売される新型車両、フルモデルチェンジ車両、マイナーチェンジ車両)や新しい種類の車載装置10(例えば、車載装置メーカーが製造する新型製品、改変モデル製品)を新たに市場に投入した後に多く、一定期間後は逓減していくと考えられる。それに対応して、車両5と学習支援サーバ70との通信負荷や学習支援サーバ70の学習におる処理負荷も変化する。そこで、車両5から学習支援サーバ70へ送信することを判断する際に、その判断基準となる信頼度の閾値を高めに設定することで、通信量及び学習量(すなわち処理負荷)をコントロール(すなわち、通信量の低減や学習量の低減)することができる。
学習支援サーバ70は、複数の車両5から取得した苦手データを利用して、画像認識処理におけるパラメータを学習によって更新し、車両5に返信する。車両5は、学習支援サーバ70から取得した更新後のパラメータを車載装置10に適用することで、画像認識処理の精度を向上させることができる。
例えば、車両5では、日本、アメリカ、ヨーロッパ、中東、アフリカ等のように走行環境が異なる地域に応じて、車両5の画像認識処理におけるパラメータが調整されている。したがって、ある時空間における苦手な状況が、他の時空間で解決済みの場合がある。その場合、学習支援サーバ70を介して、時空間的に画像認識処理におけるパラメータを共有することで、ある地域等において想定されていないような環境条件においても、画像認識処理の認識精度を向上させることができる。
すなわち、学習支援サーバ70は、苦手データを送信した車両5に関する従来環境のデータと、他の環境のデータであって苦手データと同様のデータを含むと想定される環境のデータとを組み合わせて再学習しパラメータを更新する。更新後のパラメータを車両5に送信し適用させることで、車両5における画像認識処理の精度を向上させる。
より具体的には、天候が雪となることを想定していない中東の環境(天気、道路、歩行者等)に適合した画像認識処理機能があると仮定する。また、雪を想定した北欧の環境(天気、道路、歩行者等)に適合した画像認識処理機能があると仮定する
ここで、中東において天気に関する環境が大きく変化し、本来想定していない降雪となった場合を想定する。車両5は、能動学習機能を用いて認識時に苦手とするデータ(苦手データ)を学習支援サーバ70に通知する。
学習支援サーバ70では、従来環境のデータと、苦手データと類似する環境で撮影されたデータ(以下、便宜的に「類似環境データセット」と称する)とを組み合わせて再学習する。ここでは、例えば北欧のデータに、降雪を想定したデータが含まれていると想定できる。そこで、中東の環境を想定した従来環境のデータと、類似環境データセットと想定できる北欧のデータとを組み合わせ、再度学習する。
学習支援サーバ70は、学習の結果得られた新たなパラメータを、ネットワーク2を介して、苦手データを送信してきた車両5に対して送信する。これによって、苦手データを送信した車両5は、その時点の環境に適合した画像認識処理を行うことができる。すなわち、環境変化した地域において、ラグ(時間差)を最低限にしつつ、誤認識またはラベリング不能といった状態を低減することができる。なお、上記例では、空間的に異なる環境のパラメータの共有を想定しているが、当然に時間的に異なる環境、例えば、昼や夜と言った環境についても、同様である。
一方、ある時空間における苦手な状況が他の時空間でも苦手な場合も想定される。すなわち、苦手データが、従来環境のデータとは異なる環境において生じたデータである場合がある。その場合、学習支援サーバ70は、従来環境のデータと新環境データである苦手データとを組み合わせて再学習し、パラメータを更新する。すなわち、苦手データを訓練データである従来環境のデータに加えて学習を行う。
更新後のパラメータを車両5に送信し適用させることで、車両5における画像認識処理の精度を向上させる。これによって、新たな環境についても考慮した新しいパラメータを車両5の画像認識処理に適用させることができる。
図2に示すように、学習支援サーバ70は、複数のサブサーバ71、ここでは、3台のサブサーバ(A)71a〜サブサーバ(C)71cを備え、車両5が販売等され日常的に走行する地域である仕向地毎に用いられるサブサーバ71が予め定められている。
例えば、仕向地が日本の車両5に対してはサブサーバ(A)71aが、仕向地がヨーロッパの車両5に対してはサブサーバ(C)71cが、通信相手として設定されている。サブサーバ(A)71a〜サブサーバ(C)71cそれぞれは、協働可能に接続されている。なお、サブサーバ(A)71a〜サブサーバ(C)71cを区別しない場合は、単に「サブサーバ71」と称する。
車載装置10は、車載カメラ40が取得する撮像データをもとに画像認識処理を行い、撮像データに含まれる物体を識別し、その識別結果をもとに運転支援(例えば、ブレーキアシスト処理や前方車接近警報処理)を行う。
ところで、車載装置10が実現する様々な機能には、その機能に対して仕向地に応じたパラメータ値が設定されている。画像認識機能におけるパラメータを、学習器24が学習し調整する。すなわち、それぞれの車載装置10の学習器24は、車両5の運行蓄積によって、その学習機能により環境に適応化される。
一方、一台の車両5では、走行する環境等が限られ学習量に限りがある。そこで、学習支援サーバ70が、学習器24の画像認識処理の結果を吸い上げ、再度学習した結果を、ここではパラメータを車両5に返す。車両5は、学習支援サーバ70から返ってきたパラメータを画像認識処理に反映させる。
詳細は後述するが、車載装置10は、学習器24を有し、画像認識処理機能の適応化を行う。学習器24は、機械学習の機能の一つとして、ストリームベース型の能動学習機能を備える。ストリームベース型の能動学習機能では、認識対象となるデータに対して、ラベル付するか否かをその場で判断し、原則として判断後のデータは破棄される。本実施形態では、車両5の車載装置10は、画像認識処理機能において苦手データと判断したデータを学習支援サーバ70に通知する。
図3は、車載装置10の機能ブロック図であって、主にADAS機能における画像認識処理の学習機能に着目して示している。
車載装置10は、支援処理部20と、車載カメラ40と、車載通信部12と、センサ部18とを備える。
車載通信部12は、携帯電話回線、無線LAN規格やブルートゥース(登録商標)等の近距離無線通信規格の無線通信インタフェイスであって、ネットワーク2に接続され、学習支援サーバ70と通信する。
センサ部18は、例えば、GNSS(Global Navigation Satellite System/全球測位衛星システム)センサ13と、対物センサ14と、温度センサ15と、車両状態センサ16とを備える。
GNSSセンサ13は、GNSS信号を受信し車両5の位置を特定する。対物センサ14は、例えば、車両前方に向けて搭載されたミリ波レーダーやレーザスキャナーであって、数10mの範囲の物体を検出することができる。
温度センサ15は、車両5の周囲の温度を検知する。車両状態センサ16は、車両5の動作をもとに、車両5が置かれている状態を検知する。車両状態センサ16は、例えば、ワイパーの動作や雨滴センサーを制御するECU(Electronic Control Unit)から情報を取得し、外部の晴雨の状態等を判断する。
車載カメラ40は、例えば、車両前方を撮影する前方カメラ41、車両後方を撮影する後方カメラ42、車両左方向を撮影する左側方カメラ43、車両右方向を撮影する右側方カメラ44を備える。
支援処理部20は、MPU(Micro-Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等によって各機能を実現する。具体的な機能として、支援処理部20は、主制御部21と、画像取得部22と、画像判断部23と、学習器24と、通知判断部25と、車載記憶部26とを備える。
主制御部21は、各構成要素を統括的に制御する。画像取得部22は、車載カメラ40を制御し、車両10の周囲の画像、すなわち撮像データを取得する。取得した撮像データは、画像判断部23へ送られる。
画像判断部23は、ADAS機能を実行中において、車載カメラ40の撮像データや時刻情報、GNSSセンサ13、対物センサ14、温度センサ15、車両状態センサ16の各情報をもとに、撮像データに含まれる物体を判別しラベリング処理を行うともに、判別の信頼度を算出する。ラベリング処理及び信頼度の算出処理については、公知の技術を用いる。
信頼度として、上述のように、エントロピー法を適用して、エントロピーが大きい場合に信頼度を低いと判断する。判別する物体として、他の車両や、自転車、表示や信号等の設置物、車道、人物、動物等がある。すなわち、撮影データにおいて、ラベリング対象となる領域である。以下では便宜的に、撮像データに関連づけられラベリング処理に用いられる各種情報を「付加情報」と称して説明する。付加情報として、車両5の位置情報、時間情報、気象情報、温度情報等がある。
ラベリング処理及び信頼度の算出処理における画像認識アルゴリズムに関する技術として、ステレオビジョンに代表される構造推定や、歩行者認識に代表されるパターン認識がある。
パターン認識によりラベリング処理を行う技術として、HoG(Histograms of Oriented Gradients)特徴やSVM(Support Vector Machine)識別器、DPM(Deformable Parts Model)、深層学習(Deep Learning)等を単独または組み合わせた技術がある。画像認識アルゴリズム、すなわちラベリング処理においては、各種のパラメータが設定され、物体を判別している。このパラメータを調整することで、ラベリング処理の信頼度が向上する。
学習器24は、画像判断部23における画像認識処理後に、使用された撮像データについて能動学習する。本実施形態では、能動学習として、ストリームベース型能動学習が適用される。ストリームベース型能動学習では、認識対象となるデータに対して、ラベル付けするか否かをその場で判断し、判断後のデータは破棄される。
通知判断部25は、学習器24で学習された能動学習データを、学習支援サーバ70に送るか否かの判断をし、学習支援サーバ70に送るべき苦手データを抽出する。抽出された苦手データは、撮像データ及びそれに関連づけられている付加情報から構成されており、車載記憶部26に記録される。
車載記憶部26は、非遷移的実体的記録媒体(non-transitory tangible storage media)であって、例えば、RAM(Random Access Memory)等の主記憶部、ROM(Read Only Memory)、SSD(Solid State Disk)、HDD(Hard Disk Drive)等の補助記憶部、フラッシュメモリーカードや光学記録媒体等を含む。
車載記憶部26に記録されている苦手データは、車両5の識別情報と共に、順次、学習支援サーバ70に対してて送信される。ただし、車載通信部12によるネットワーク接続状態が不良の状態のときには、良好な状態になったときに、学習支援サーバ70に対して送信される。
識別情報とは、車両5を特定する情報であってもよいし車種情報であってもよいが、少なくとも学習支援サーバ70において、苦手データを送信した車両5の画像判断部23に適用されている画像認識機能(すなわち、画像認識処理プログラム)を特定することができる情報である。なお、学習支援サーバ70での学習結果を、苦手データを送信した車両5を特定して返信する場合には、個々の車両を特定する車両識別番号(Vehicle Identification Number)やネットワークアドレス等が必要となる。
図4に示すように、サブサーバ71は、主制御部81と、サーバ通信部82と、ALデータ取得部83と、データ判定部84と、サーバ側学習部85と、更新部86と、DB90とを備え、車両5から取得した苦手データをもとに、車両5の画像認識機能の最適化を行う。すなわち、画像認識機能のパラメータの更新処理を行う。
主制御部81は、サブサーバ71の各要素を統括的に制御する。サーバ通信部82は、ネットワーク2を介して、車載装置10や他のサブサーバ71と接続する。
ALデータ取得部83は、サブサーバ71から苦手データを取得し、後述するDB90のデータ保持部91に記録し蓄積するとともに、データ判定部84に渡す。
データ判定部84は、取得した苦手データやデータ保持部91に蓄積されている苦手データをもとに、複数の車両5からの送信頻度が所定の閾値を超えているか閾値以下であるかを判断する。すなわち、苦手データを用いて学習するために適切なデータ数が蓄積されているか否かを判断する。言い換えると、データ判定部84は、車両5から苦手データを取得すると、車両5に設定されているパラメータを再度学習すべきタイミングであるか否かを蓄積されているデータ数を考慮して判断する。
なお、他の車両5からの苦手データの送信が多い場合には、苦手データが発生する可能性が高く、パラメータの更新が求められていると判断できる。一方、他の車両5からの苦手データの送信が少ない場合には、例えば、ノイズや考慮に入れことが難しい環境条件の影響によって、苦手データが比較的少ない頻度で送信されてきたと判断できる。
サーバ側学習部85は、データ判定部84において、パラメータの学習タイミングであると判断された場合、苦手データ及びデータ保持部91に蓄積されているデータから、学習に必要なデータを抽出し学習を行う。
更新部86は、サーバ側学習部85の学習の結果が良好な場合、車両5に学習後のパラメータをネットワーク2を介して送信するとともに、DB90のパラメータ保持部92の該当パラメータを学習後のパラメータに更新する。
DB90は、データ保持部91と、パラメータ保持部92と、閾値保持部93とを備える。
データ保持部91は、車両5から取得した苦手データを蓄積するとともに、サーバ側学習部85の学習において用いるデータ(以下、「従来環境のデータセット」ともいう。)を予め保持している。予め保持されているデータには、苦手データと同様に、付加情報が関連づけられている。
パラメータ保持部92は、車両5に提供すべき最新のパラメータを保持している。閾値保持部93は、データ判定部84の判断処理の基準となる条件を保持している。
つづいて、図5のフローチャートを参照して、学習支援サーバ70における学習処理について説明する。
ALデータ取得部83が車両5側の能動学習に基づく苦手データを取得すると(S10)、データ判定部84は、送信頻度判定処理として、その苦手データをデータ保持部91に記録するとともに、データ保持部91に保持されている複数の車両5からの苦手データの送信頻度が所定の閾値以下であるか超えているを判断する(S12)。送信頻度判定処理の具体例1〜3については、図6〜8で後述する。
送信頻度が閾値以下の場合には(S12のY)、学習支援サーバ70で学習を行う条件を満たしていないと判断し、当該フローチャートによる処理を終了し、新たな苦手データの受信を待機する。
送信頻度が閾値を超える場合には(S12のN)、学習支援サーバ70で学習を行う条件を満たしている判断し、サーバ側学習部85は、車両5から取得した苦手データを含む既存データセット(すなわち、類似環境データセット)の検索を行い、検索ヒットするか否かを判断する(S14)。言い換えると、サーバ側学習部85は、自身が属するサブサーバ71のデータ保持部91及び他のサブサーバ71のデータ保持部91に、類似環境データセットが存在するか否かを判断する。
類似環境データセットが存在する場合(S14のY)、サーバ側学習部85は、その類似環境データセットと従来環境のデータセットとを組み合わせて、再学習する(S16)。
類似環境データセットが存在しない場合(S14のN)、サーバ側学習部85は、集めた苦手データと従来環境のデータセットとを組み合わせて、再学習する(S18)。再学習後(S16、S18)、更新部86は、学習後のパラメータを送信する(S20)。
つづいて、図6〜8のフローチャートを参照して、苦手データの送信頻度判定処理(S12)のより具体例1〜3を説明する。
まず、図6の具体例1を参照して、天気等の影響を考慮するケースについて説明する。ここでは、降雪が無い、あるいはほとんど稀にしか発生しない地域で降雪があり、道路に雪が積もり走行可能領域の認識が難しくなるケースを想定する。
データ判定部84は、苦手データを送信した車両5の送信時位置から所定範囲内、ここでは5km範囲内で、他の車両5から過去1時間内に学習支援サーバ70に苦手データが送信された頻度x1をカウントする(S121)。なお、送信時位置と撮影位置、また、また、送信日時と撮影日時は、それぞれ実質的に同じと見なせる。
つぎに、データ判定部84は、その送信時位置から所定範囲内、ここでは5km範囲内で、前日の同時刻から過去1時間内に学習支援サーバ70に送信された頻度y1をカウントする(S122)。
データ判定部84は、それら頻度x1、y1の差分の大きさ(|x1−y1|)が天気用閾値Th1以下であるか超えているかを判断する(S123)。天気用閾値Th1は、例えば、1000に設定される。
差分の大きさが天気用閾値Th1以下である場合(S123のY)、データ判定部84は、前日とほぼかわらないと判断し、学習器の再学習を行わず終了する。
差分の大きさが天気用閾値Th1を超える場合(S123のN)、処理は類似環境データセットの検索(図5のS14)に移行する。すなわち、データ判定部84は、前日と異なる状況にある、または学習ができていないと判断し、学習器による学習が好ましいと判断する。
このような処理を行うことで、車両5が市場に出たあとであっても、画像認識処理に設定されているパラメータを、無線通信等(OTA(Over-The-Air))によって、車両5の使用環境に適したものに迅速に調整することができる。
つづいて図7の具体例2を参照しては、道路上に落下物や工事構造物などのような異物の影響を考慮するケースについて説明する。例えば、高速道路上で落下物があったり工事に伴う看板・パイロン等の物体があると、普段の高速道路におけるコンテキストと異り画像認識処理が難しくなる。また、それら異物が取り除かれた場合には、それらを考慮していたときのパラメータを用いた画像認識処理では、認識精度が低下するおそれがある。そこで、そのような短期的な変化にも対応してパラメータを調整する。
まず、データ判定部84は、苦手データを送信した車両5の送信時位置から所定範囲内、ここでは0.5km範囲内で、他の車両5から過去1時間内に学習支援サーバ70に苦手データが送信された頻度x2をカウントする(S221)。
つぎに、データ判定部84は、その送信時位置から所定範囲内、ここでは0.5km範囲内で、他の車両5から過去1時間前〜2時間前の間に学習支援サーバ70に送信された頻度y2をカウントする(S222)。
データ判定部84は、それら頻度x2、y2の差分の大きさ(|x2−y2|)が異物用閾値Th2以下であり、かつ、それら頻度x2、y2がそれぞれ所定の閾値以上、例えば1000以上であるかを判断する(S223)。異物用閾値Th2は、例えば、100に設定される。ただし、頻度x2、y2のそれぞれに設定される閾値は、同じでもよいし異なってもよい。また、学習を行うことを優先する場合には、例えば、頻度x2、y2に閾値が設定されないくともよい。
差分の大きさが異物用閾値Th2以下であって二つの頻度x2、y2ともに1000以上である場合(S223のY)、データ判定部84は、前日とほぼかわらないと判断し、学習器の再学習を行わず終了する。
差分の大きさが異物用閾値Th2を超えるか、または二つの頻度x2、y2のいずれかが1000未満である場合(S223のN)、処理は類似環境データセットの検索(図5のS14)に移行する。すなわち、データ判定部84は、前日と異なる状況にある、または学習ができていないと判断し、学習器による学習が好ましいと判断する。
このような処理を行うことで、車両5が走行している環境において、比較的短期な変化があった場合でも、画像認識処理に設定されているパラメータを、車両5の使用環境に適したものに迅速に調整することができる。
つづいて図8の具体例3を参照して、特殊な道路等の環境を考慮するケースについて説明する。例えば、ある地域において、トンネルの高さが想定していた高さより低すぎて、トンネルとは認識せずに障害物と認識する傾向が高くなる場合がある。このように想定していない特徴の環境が存在する場合でも、パラメータを調整することで画像認識処理の精度を向上させる。
まず、データ判定部84は、苦手データを送信した車両5の送信時位置から所定範囲内、ここでは5km範囲内で、他の車両5から過去1時間内に学習支援サーバ70に苦手データが送信された頻度x3をカウントする(S321)。
つぎに、データ判定部84は、その送信時位置から所定範囲内、ここでは5km範囲内で、前日の同時刻から過去1時間の間に他の車両5から学習支援サーバ70に送信された頻度y3をカウントする(S322)。
データ判定部84は、それら頻度x3、y3の差分の大きさ(|x3−y3|)が特殊環境用閾値Th3以下であるか超えているか、かつ、それら頻度x3、y3がそれぞれ所定値以上、例えば10000以上であるかを判断する(S323)。特殊環境用閾値Th3は、例えば、100に設定される。また、学習を行うことを優先する場合には、例えば、頻度x3、y3に閾値が設定されないくともよい。
差分の大きさが特殊環境用閾値Th3以下であって二つの頻度x3、y3ともに10000以上である場合(S323のY)、データ判定部84は、前日とほぼかわらないと判断し、学習器の再学習を行わず終了する。
差分の大きさが特殊環境用閾値Th3を超えるか、または二つの頻度x2、y2のいずれかが10000未満である場合(S323のN)、処理は類似環境データセットの検索(図5のS14)に移行する。すなわち、データ判定部84は、前日と異なる状況にある、または学習ができていないと判断し、学習器による学習が好ましいと判断する。
このような処理を行うことで、車両5が走行している環境において、想定されていないような環境であるが、実際には想定すべき環境が、画像認識処理において適切に考慮されるようにパラメータを調整することができる。
なお、環境変化等によって画像認識処理における認識精度が低下する条件として、上記のように天気や道路上の異物、特殊な環境等を例示したがこれに限る趣旨ではない。例えば、歩行者や車両等についても適用することができる。すなわち、歩行者について、ファッションの流行の変化によって、道路と同化するような服装が流行ると、歩行者認識の精度が低下するおそれがある。車両においては、新たな形状の車両や、自動車やバス等におけるラッピング装飾に含まれるイラスト等の影響によって、車両と認識すべきものを別の物体と認識するおそれがある。これらのような状況が生じても、画像認識処理におけるパラメータに、最小のタイムラグで反映させることができる。
以上、本発明を実施形態をもとに説明した。この実施形態は例示であり、それらの各構成要素の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
1 運転支援システム、 2 ネットワーク、 5 車両、 10 車載装置、
12 車載通信部、 13 GNSSセンサ、 14 対物センサ、
15 温度センサ、 16 車両状態センサ、 18 センサ部、
20 支援処理部、 21 主制御部、 22 画像取得部、 23 画像判断部、
24 学習器、 25 通知判断部、 26 車載記憶部、 40 車載カメラ、
41 前方カメラ、 42 後方カメラ、 43 左側方カメラ、
44 右側方カメラ、 70 学習支援サーバ、 71 サブサーバ、
71a〜71c サブサーバ(A)〜(C)、 81 主制御部、
82 サーバ通信部、 83 ALデータ取得部、 84 データ判定部、
85 サーバ側学習部、 86 更新部、 90 DB、 91 データ保持部、
92 パラメータ保持部、 93 閾値保持部

Claims (7)

  1. 車両(5)の画像認識処理において評価が付されるとともに撮影日時の情報及び前記車両の位置情報を含む付加情報が関連づけられている撮影データを取得するデータ取得部(83)と、
    前記撮影データを蓄積するとともに、前記画像認識処理に用いるパラメータの学習に用いるデータセットを蓄積するデータ保持部(91)と、
    前記車両から前記撮影データを取得したときに、学習タイミングであるか否かを判断するデータ判定部(84)と、
    前記学習タイミングである場合に、前記撮影データに関連づけられている前記付加情報を参照して、学習に用いるデータを前記データ保持部から選択し学習を行うサーバ側学習部(85)と、
    学習結果を前記車両に通知する更新部(86)とを備え
    前記サーバ側学習部(85)は、前記データ保持部に、前記撮影データと類似する環境のデータが含まれているデータセットを検索し(S14)、
    前記データセットがあれば(S14のY)、前記類似する環境のデータと従来環境のデータとを用いて学習を行い(S18)、
    前記データセットがなければ(S14のN)、前記撮影データと前記従来環境のデータとを用いて学習を行う(S16)、
    学習サーバ。
  2. 前記撮影データは、前記車両の前記画像認識処理において、不確かさ度が高いと評価されたデータまたは複数種類の学習器で学習した場合に出力に違いが生じると評価されたデータである、請求項1に記載の学習サーバ。
  3. 仕向地毎に前記車両に関連づけられたサブサーバ(71a〜71c)を複数備え、
    前記サーバ側学習部(85)は、前記撮影データを送信した車両に関連づけられた前記サブサーバに前記類似する環境のデータが存在しない場合に、他のサブサーバに存在する前記類似する環境のデータを検索する、
    請求項1又は2に記載の学習サーバ。
  4. 前記データ判定部は、前記データ保持部を検索し、前記撮影データを送信した車両の位置から所定範囲で、前記撮影データの撮影時刻から所定時間内に送信された撮影データの頻度である第1頻度(x1)と、前記撮影時刻の前日に対応する時刻から所定時間内に送信された撮影データの頻度である第2頻度(y1)と、をカウントし(S121、S122)、
    前記第1頻度と前記第2頻度との差分の大きさ(|x1−y1|)が、所定の閾値(Th1)を超えている場合に(S123のN)、前記学習タイミングであると判断する、
    請求項1から3までのいずれかに記載の学習サーバ。
  5. 前記データ判定部は、前記データ保持部を検索し、前記撮影データを送信した車両の位置から所定範囲で、前記撮影データの撮影時刻から第1所定時間内に送信された撮影データの頻度である第1頻度(x2)と、前記所定範囲と同じ範囲で、前記第1所定時間より前の第2所定時間内に送信された撮影データの頻度である第2頻度(y2)と、をカウントし(S221、S222)、
    前記第1頻度と前記第2頻度との差分の大きさ(|x2−y2|)が、所定の閾値(Th2)を超えている場合に(S223のN)、前記学習タイミングであると判断する、
    請求項1から3までのいずれかに記載の学習サーバ。
  6. 前記データ判定部は、前記データ保持部を検索し、前記撮影データを送信した車両の位置から所定範囲で、前記撮影データの撮影時刻から所定時間内に送信された撮影データの頻度である第1頻度(x3)と、前記撮影時刻の前日に対応する時刻から所定時間の間に送信された撮影データの頻度である第2頻度(y3)と、をカウントし(S321、S322)、
    前記第1頻度と前記第2頻度との差分の大きさ(|x3−y3|)が、所定の閾値(Th3)を超えている場合に(S323のN)、前記学習タイミングであると判断する、
    請求項1から3までのいずれかに記載の学習サーバ。
  7. 車載カメラ(40)を有する車両(5)と、学習サーバ(70)とを備え支援システムであって、
    前記車両は、画像認識処理を行う車載装置(10)を備え、
    前記車載装置は、
    前記車載カメラによる撮影データをもとに画像認識処理を行うとともに、前記画像認識処理に対する評価を行う画像判断部(23)と、
    前記評価が信頼度に関する基準値より低いか否かを判断し、低い場合に、前記撮影データを、前記画像認識処理に対する前記評価、撮影時刻及び撮影位置を含む付加情報を関連づけて、前記学習サーバへ送信する通知判断部(25)と、
    を備え、
    前記学習サーバは、
    前記車両から前記撮影データを、前記付加情報とともに取得するデータ取得部(83)と、
    前記撮影データを蓄積するとともに、前記画像認識処理に用いるパラメータの学習に用いるデータセットを蓄積するデータ保持部(91)と、
    前記車両から前記撮影データを取得したときに、学習タイミングであるか否かを判断するデータ判定部(84)と、
    前記学習タイミングである場合に、前記撮影データに関連づけられている前記付加情報を参照して、学習に用いるデータを前記データ保持部から選択し学習を行うサーバ側学習部(85)と、
    学習結果を前記車両に通知する更新部(86)とを備え
    前記サーバ側学習部(85)は、前記データ保持部に、前記撮影データと類似する環境のデータが含まれているデータセットを検索し(S14)、
    前記データセットがあれば(S14のY)、前記類似する環境のデータと従来環境のデータとを用いて学習を行い(S18)、
    前記データセットがなければ(S14のN)、前記撮影データと前記従来環境のデータとを用いて学習を行い(S16)、
    記画像判断部は、前記更新部から取得した前記学習結果を、前記画像認識処理に反映させる、
    支援システム。
JP2017141093A 2017-07-20 2017-07-20 学習サーバ及び支援システム Active JP6946812B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017141093A JP6946812B2 (ja) 2017-07-20 2017-07-20 学習サーバ及び支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017141093A JP6946812B2 (ja) 2017-07-20 2017-07-20 学習サーバ及び支援システム

Publications (2)

Publication Number Publication Date
JP2019021201A JP2019021201A (ja) 2019-02-07
JP6946812B2 true JP6946812B2 (ja) 2021-10-06

Family

ID=65353040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017141093A Active JP6946812B2 (ja) 2017-07-20 2017-07-20 学習サーバ及び支援システム

Country Status (1)

Country Link
JP (1) JP6946812B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092187A (ja) * 2018-02-16 2018-06-14 日東電工株式会社 偏光フィルムおよびその製造方法、光学フィルムおよび画像表示装置
US20210350178A1 (en) * 2018-09-27 2021-11-11 Sony Corporation Information processing device, information processing method, and program
JP7156107B2 (ja) * 2019-03-12 2022-10-19 株式会社デンソー 車載装置、学習システムおよびデータ送信方法
CN110346767A (zh) * 2019-05-31 2019-10-18 上海思致汽车工程技术有限公司 一种针对汽车变道辅助功能的测试方法和装置
JP6705539B1 (ja) * 2019-08-22 2020-06-03 トヨタ自動車株式会社 失火検出装置、失火検出システムおよびデータ解析装置
JP6705540B1 (ja) 2019-08-22 2020-06-03 トヨタ自動車株式会社 車両用学習システム、車両用制御装置、および車両用学習装置
US20220343757A1 (en) 2019-10-09 2022-10-27 Sony Group Corporation Information processing apparatus, information processing system, and information processing method
JP7308775B2 (ja) * 2020-02-12 2023-07-14 株式会社日立ハイテク 機械学習方法および機械学習用情報処理装置
WO2021199099A1 (ja) * 2020-03-30 2021-10-07 日本電気株式会社 管制装置、管制システム及び管制方法
WO2022063774A1 (en) * 2020-09-23 2022-03-31 Continental Automotive Gmbh A continuously, adaptive detection computer-implemented method of environment features in autonomous and assisted driving of an ego-vehicle
US20230418586A1 (en) * 2020-11-27 2023-12-28 Sony Group Corporation Information processing device, information processing method, and information processing system
JP7040589B1 (ja) 2020-12-01 2022-03-23 トヨタ自動車株式会社 機械学習方法及び機械学習システム
JP7380614B2 (ja) * 2021-02-25 2023-11-15 株式会社デンソー 自動運転システム、自動運転方法、及び自動運転プログラム
WO2024029072A1 (ja) * 2022-08-05 2024-02-08 三菱電機株式会社 先進運転支援システム評価装置、車載装置および先進運転支援システムの評価試験方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252333A (ja) * 2005-03-11 2006-09-21 Nara Institute Of Science & Technology データ処理方法、データ処理装置およびそのプログラム
JP6044556B2 (ja) * 2014-01-16 2016-12-14 株式会社デンソー 学習システム、車載装置、及び、サーバ
JP2016191973A (ja) * 2015-03-30 2016-11-10 日本電気株式会社 情報転送装置、学習システム、情報転送方法及びプログラム

Also Published As

Publication number Publication date
JP2019021201A (ja) 2019-02-07

Similar Documents

Publication Publication Date Title
JP6946812B2 (ja) 学習サーバ及び支援システム
AU2021200258B2 (en) Multiple operating modes to expand dynamic range
JP7227358B2 (ja) トレーニングデータを取得するためのシステム及び方法
US11126195B2 (en) System and method for detecting occluded objects based on image processing
US9889859B2 (en) Dynamic sensor range in advanced driver assistance systems
US11373532B2 (en) Pothole detection system
KR102613792B1 (ko) 촬상 장치, 화상 처리 장치 및 화상 처리 방법
CN111127329B (zh) 用于重建云层处的车辆场景的方法和系统
JP2006209510A (ja) 画像認識装置及び画像認識方法
US20210003419A1 (en) System for Generating Confidence Values in Digital Road Maps
FR3092304A1 (fr) Gestion via une vitesse équivalente d’une conduite autonome avec au moins deux objets cibles
US10949681B2 (en) Method and device for ascertaining an optical flow based on an image sequence recorded by a camera of a vehicle
US11312393B2 (en) Artificially falsifying sensor data to initiate a safety action for an autonomous vehicle
KR20210146891A (ko) 정보 처리 장치 및 정보 처리 방법
US20220230287A1 (en) Information processing device, information processing system, information processing method, and non-transitory storage medium
WO2022115987A1 (zh) 一种自动驾驶数据采集和闭环管理的方法及系统
US11433920B2 (en) Map-based prediction and mitigation of performance limitations for autonomous vehicles
WO2020170835A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
EP3863282A1 (en) Image processing device, and image processing method and program
KR101355462B1 (ko) 전방의 도로와 차선에 대한 차량 제어 시스템
KR20200119790A (ko) 인식 장치와 인식 방법 그리고 프로그램
CN117372916A (zh) 对图像帧中的对象的注释
CN116030539A (zh) 活体目标检测方法、装置及电子设备、存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210428

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210830

R151 Written notification of patent or utility model registration

Ref document number: 6946812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151