JP2023043957A - 車載装置、画像認識システム、車載装置用の支援装置、画像認識方法、及び、モデルデータ送信方法 - Google Patents

車載装置、画像認識システム、車載装置用の支援装置、画像認識方法、及び、モデルデータ送信方法 Download PDF

Info

Publication number
JP2023043957A
JP2023043957A JP2021151729A JP2021151729A JP2023043957A JP 2023043957 A JP2023043957 A JP 2023043957A JP 2021151729 A JP2021151729 A JP 2021151729A JP 2021151729 A JP2021151729 A JP 2021151729A JP 2023043957 A JP2023043957 A JP 2023043957A
Authority
JP
Japan
Prior art keywords
vehicle
image recognition
model
model data
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021151729A
Other languages
English (en)
Inventor
葵 荻島
Aoi Ogishima
康貴 岡田
Yasutaka Okada
竜介 関
Ryusuke Seki
雄喜 片山
Yuki Katayama
怜 広見
Rei Hiromi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2021151729A priority Critical patent/JP2023043957A/ja
Priority to US17/690,502 priority patent/US20230086088A1/en
Publication of JP2023043957A publication Critical patent/JP2023043957A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/012Measuring and analyzing of parameters relative to traffic conditions based on the source of data from other sources than vehicle or roadside beacons, e.g. mobile networks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/091Traffic information broadcasting
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle

Abstract

【課題】様々な状況に適応して適正な画像認識を実現する。【解決手段】車載装置は、車両に設置されたカメラからの入力画像に対して画像認識を行う画像認識部を備える。画像認識部は、車両の位置情報と、位置情報とは異なる追加参照情報(例えば天候情報)と、に応じた画像認識モデルを用いて、画像認識を行う。【選択図】図5

Description

本発明は、車載装置、画像認識システム、車載装置用の支援装置、画像認識方法、及び、モデルデータ送信方法に関する。
車載カメラの撮影画像に対して画像認識(物体検出等)を行うことのできる車載装置が開発又は研究されている。
尚、機械学習による学習済みモデルを用いて車両の制御を支援する技術が提案されている。当該技術では、学習済みモデルを所定領域ごとに設定し、車両の位置に応じて学習済みモデルを切り替える(例えば下記特許文献1の要約、明細書段落[0049]~[0052]参照)。
特開2020-93760号公報
車両の位置情報に応じて画像認識モデルを設定する方法(即ち、車両の位置情報に応じた画像認識モデルを用いて画像認識を行う方法)が検討される。当該方法により、地域の特性に応じた画像認識を行うことが可能となり、認識精度の向上が期待される。しかしながら、画像認識は様々な要因の影響を受けるため、改善の余地がある。
本発明は、様々な状況に対応した適正な画像認識の実現に寄与する車載装置、画像認識システム、車載装置用の支援装置、画像認識方法、及び、モデルデータ送信方法を提供することを目的とする。
本発明に係る車載装置は、車両に設置される車載装置であって、前記車両に設置されたカメラからの入力画像に対して画像認識を行う画像認識部を備え、前記画像認識部は、前記車両の位置情報と、前記位置情報とは異なる追加参照情報と、に応じた画像認識モデルを用いて、前記画像認識を行う。
本発明に係る車載装置用の支援装置は、車両に設置されたカメラからの入力画像に対して画像認識を行う車載装置と通信可能に構成された支援装置であって、前記画像認識を行う画像認識モデルを前記車載装置にて設定するためのモデルデータを複数保持するデータ保持部と、前記車両の位置情報と、前記位置情報と異なる追加参照情報と、に基づいて、複数のモデルデータの何れかを選択し、選択したモデルデータを前記車載装置に送信する選択制御部と、を備える。
本発明によれば、様々な状況に対応した適正な画像認識の実現に寄与する車載装置、画像認識システム、車載装置用の支援装置、画像認識方法、及び、モデルデータ送信方法を提供することが可能となる。
本発明の実施形態に係るシステム(画像認識システム)の全体構成図である。 本発明の実施形態に係り、車両に車載装置が搭載されている様子を示す図である。 本発明の実施形態に係り、車載装置の内部構成及び車載装置の周辺装置を示す図である。 本発明の実施形態に係り、サーバ装置の内部構成を示す図である。 本発明の実施形態に係り、車両の位置する領域等に適応して画像認識モデルを設定する様子を示す図である。 本発明の実施形態に係り、サービス提供領域に複数の要素領域が設定される様子を示す図である。 本発明の実施形態に係り、データベースに複数のモデルデータが保持される様子を示す図である。 本発明の実施形態に係り、追加参照情報の構造図である。 本発明の実施形態に係り、図1のシステムの全体動作フローチャートである。 本発明の実施形態に係り、モデルデータ作成工程のフローチャートである。 本発明の実施形態に係り、実運用工程のフローチャートである。 本発明の実施形態に属する第1実施例に係り、隣接する2つの領域を示す図である。 本発明の実施形態に属する第1実施例に係り、地域特性に応じた領域設定例を示す図である。 本発明の実施形態に属する第2実施例に係り、車速情報の利用の具体例を説明するための図である。 本発明の実施形態に属する第3実施例に係り、画像認識部に2つの画像認識モデルが設けられる様子を示す図である。 本発明の実施形態に属する第3実施例に係るフローチャートである。 本発明の実施形態に属する第3実施例に係り、車両の走行ルート等を示す図である。 本発明の実施形態に属する第4実施例に係り、各要素領域に複数の車両が存在する様子を示す図である。
以下、本発明の実施形態の例を、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。尚、本明細書では、記述の簡略化上、情報、信号、物理量又は部材等を参照する記号又は符号を記すことによって、該記号又は符号に対応する情報、信号、物理量又は部材等の名称を省略又は略記することがある。
図1は本発明の実施形態に係るシステムSYSの全体構成図である。システムSYSは、車載装置10及びサーバ装置30を備えて構成される。システムSYSにおいて、図2に示す如く、車載装置10は車両CRに設置及び搭載される。車両CRは、任意の車両であるが、ここでは道路上を走行可能な自動車等であるとする。車載装置10及びサーバ装置30は、所定の通信網NETを通じ双方向通信が可能な態様で互いに無線接続される。通信網NETは移動体通信網及びインターネットを含む。
詳細は後述されるが、車載装置10はカメラ画像に対して画像認識を行うことができ、サーバ装置30は画像認識の実現に必要なデータを車載装置10に提供する。このため、サーバ装置30は車載装置10にとって支援装置として機能するとも言える。また、車載装置10及びサーバ装置30により画像認識システムが形成されると言うこともできる。本実施形態において車載装置10はドライブレコーダの機能を含む車載装置であるとする。車載装置10はドライブレコーダそのものであっても良い。スマートホン等の持ち運び容易な情報端末装置を車載装置10として用いても良い。
図3に車載装置10の内部構成と車載装置10の周辺装置を示す。車載装置10に対し複数の周辺装置が接続される。ここにおける複数の周辺装置も、車載装置10と同様に車両CRに設置される。複数の周辺装置は、カメラ部21、車載センサ部22、GPS処理部23及びインターフェース部24を含む。各周辺装置と車載装置10との間の情報のやり取りは、例えば車両CR内に形成されたCAN(Controller Area Network)を通じて行われる。但し、カメラ部21、GPS処理部23及びインターフェース部24の内、任意の1以上の部位は車載装置10の構成要素に含まれるものであっても良い。
カメラ部21は車両CRに設置された1以上のカメラから成る。カメラ部21を構成する各カメラは、自身の撮影領域(視野)内の風景を所定のフレームレートで順次撮影して、撮影結果を示す撮影画像の画像情報を順次車載装置10に送る。カメラ部21による撮影画像の画像情報を特に撮影画像情報と称する。また、カメラ部21による撮影画像はカメラ画像と称され得る。カメラ部21は、少なくとも、車両CRの外部であって且つ車両CRの前方の領域を撮影領域として有するフロントカメラ21Fを有する。以下では、撮影画像情報はフロントカメラ21Fの撮影画像の画像情報(画像データ)を表し、カメラ画像はフロントカメラ21Fの撮影により得られた撮影画像を指すと考える。以下の説明において、撮影とは、特に記述なき限り、カメラ部21(フロントカメラ21F)の撮影を指す。
車載センサ部22は、車両CRに設置された複数の車載センサから成り、各車載センサを用いて車両情報を検出及び取得する。車両情報は所定周期で順次取得され、取得された車両情報は順次車載装置10に送られる。車両情報は、車両CRの速度を表す車速情報、車両CRに設けられたアクセルペダルの踏み込み量を表すアクセル情報、車両CRに設けられたブレーキペダルの踏み込み量を表すブレーキ情報、及び、車両CRに設けられたステアリングホイールの操舵角を表す操舵角情報などを含む。上記複数の車載センサには加速度センサも含まれ、加速度センサから出力される加速度情報も上記車両情報に含まれる。加速度センサは、互いに直交する3軸又は2軸の夫々の方向において車両CRの加速度を検出し、その検出結果を示す加速度情報を出力する。
GPS処理部23は、GPS(Global Positioning System)を形成する複数のGPS衛星からの信号を受信することで車両CRの位置(現在地)を検出し、検出位置を示す位置情報を求める。位置情報では、車両CRの位置(現在地)が、地球上における経度及び緯度によって表現される。GPS処理部23は、位置情報を所定周期で順次生成し、生成した位置情報を順次車載装置10に送る。
インターフェース部24は、車載装置10と車両CRの乗員(主として運転手)との間のマンマシンインターフェースである。
車載装置10は、車載制御部11、記録媒体12、通信処理部13及び計時部14を備える。
車載制御部11は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等を含む演算処理部と、ROM(Read only memory)及びRAM(Random access memory)等を含むメモリと、をハードウェア資源として備える。車載制御部11において、メモリに格納されたプログラムを演算処理部にて実行することで、符号111~114にて参照される各機能ブロックが実現されて良い。これらの機能ブロックについては後述される。
記録媒体12は、磁気ディスク又は半導体メモリ等から成る、或いは、それらの組み合わせから成る。記録媒体12は不揮発性の記録媒体であり、車載制御部11の制御の下で、任意のデータを記録する。車載装置10に対して記録媒体装着部(不図示)を設けておき、記録媒体装着部に対して記録媒体12が着脱自在とされていても良い。尚、本明細書において、用語「データ」と用語「情報」は同義である。
通信処理部13は、通信網NETを通じて相手側装置と双方向通信を行う。車載装置10にとっての相手側装置は、少なくともサーバ装置30を含む。車載装置10及び相手側装置間の通信は通信処理部13を利用して行われるが、以下の説明では通信処理部13の記載を省略することがある。
計時部14は、現在の日付及び時刻を示す日時情報を生成する。GPS処理部23の受信信号を用いて日時情報が生成又は修正されても良い。
車載装置10にて取得又は生成される任意の情報(撮影画像情報、車両情報、位置情報、日時情報など)は、適宜、サーバ装置30に送信されて良い。
図4にサーバ装置30の概略構成ブロック図を示す。サーバ装置30は、サーバ制御部31、データべース32及び通信処理部33を備える。サーバ装置30は、単一のコンピュータ装置にて構成されていても良いし、複数のコンピュータ装置にて構成されていても良い。所謂クラウドコンピューティングを利用してサーバ装置30が構成されていても良い。データべース32はサーバ装置30に内蔵されていても良いし、サーバ装置30の外部に設けられてサーバ装置30に対し有線又は無線にて接続されていても良い。
サーバ制御部31は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等を含む演算処理部と、ROM(Read only memory)及びRAM(Random access memory)等を含むメモリと、をハードウェア資源として備える。サーバ制御部31において、メモリに格納されたプログラムを演算処理部にて実行することで、符号311~313にて参照される各機能ブロックが実現されて良い。これらの機能ブロックについては後述される。
データベース32は、磁気ディスク又は半導体メモリ等から成る、或いは、それらの組み合わせから成る不揮発性の記録媒体である。データべース32は、サーバ制御部31の制御の下で、任意のデータを記録する。
通信処理部33は、通信網NETを通じて相手側装置と双方向通信を行う。サーバ装置30にとっての相手側装置は、車載装置10を少なくとも含む。車載装置10及び相手側装置間の通信は通信処理部33を利用して行われるが、以下の説明では通信処理部33の記載を省略することがある。
図3を参照し、車載制御部11の機能ブロックについて説明する。車載制御部11は複数の機能ブロックとして、記録処理部111、画像認識部112、画像認識モデル113及びモデル設定部114を備える。
記録処理部111は、撮影画像情報を記録媒体12に記録させるための処理を実行する。例えば、記録処理部111は、ドライブレコーダの機能として以下に示す基本記録処理を実行できる。基本記録処理では、カメラ部21から順次得られる撮影画像情報が時系列に沿って記録媒体12に順次記録されてゆく。この際、関連情報も撮影画像情報に関連付けられた状態で記録媒体12に記録される。即ち、基本記録処理において、或る時刻で取得された撮影画像情報及び関連情報が互いに関連付けられた状態で記録媒体12に記録される。関連情報は、上述の車両情報、位置情報及び日時情報を含み、それら以外の情報を更に含んでいても良い。記録媒体12は一定時間分の撮影画像情報及び関連情報を記録できるだけの記録容量を有する。基本記録処理において、記録媒体12に空き領域が無くなると最も古い時刻に取得された撮影画像情報及び関連情報に対し新たな撮影画像情報及び関連情報が上書きされる。尚、イベントの発生時には、一定時間分の撮影画像情報及び関連情報が上書き禁止態様で記録媒体12に記録されて良い。イベントは、例えば、車両CRの加速度が一定値を超える状況である。
画像認識部112はカメラ部21からのカメラ画像を入力画像として受け、入力画像に対して所定の画像認識を行う。換言すれば、画像認識部112は、カメラ部21からカメラ画像を入力され、入力されたカメラ画像に対して画像認識を行う。画像認識部112は画像認識モデル113を有し、画像認識モデル113を用いて画像認識を行う。
画像認識モデル113はニューラルネットワーク(以下、NNと表記され得る)113aを含んで形成され、NN113aに対して画像認識用のパラメータが設定されることで画像認識モデル113が形成される。ニューラルネットワークに対するパラメータは重み及びバイアスを含む。画像認識モデル113は機械学習を経て形成される。機械学習自体はサーバ装置30で実行される。機械学習により導出されたパラメータが車載装置10に供給されることで車載装置10にて画像認識モデル113が形成される。尚、機械学習は、サーバ装置30及び車載装置10の何れとも異なる他の装置(不図示)にて実行されても良い。機械学習は深層学習に分類されるものであって良く、本実施形態における任意のニューラルネットワークはディープニューラルネットワークであって良い。
画像認識モデル113は、カメラ画像(入力画像)の撮影画像情報に基づきカメラ画像に対する画像認識を行う。ここにおける画像認識は、カメラ画像内における検出対象物の種類及び位置を検出するための処理であり、一般的に物体検出と称される処理であって良い。検出対象物は、車両、人物、信号機及び交通標識などを含む。画像認識は、セマンティックセグメンテーション又はインスタントセグメンテーションなどであっても良い。
画像認識の結果を利用して、車載制御部11は、カメラ画像の内、一部の画像のみを抜き出して記録媒体12に記録する又はサーバ装置30に送信するといったことが可能である。或いは、車載制御部11は、画像認識の結果に基づいてカメラ画像を加工し、加工後のカメラ画像を記録媒体12に記録する又はサーバ装置30に送信するといったことも可能である。上記加工は、例えば、カメラ画像に含まれる人物の顔の画像又は車両のナンバープレートの画像をマスクする処理である。また例えば、画像認識の結果は、車両CRの自動運転制御又は運転支援制御に利用されて良い。
画像認識モデル113を形成するために必要なデータをモデルデータと称する。モデルデータは、NN113aにて画像認識を行わせるために作成されたデータである。モデルデータは、NN113aに設定されるべきパラメータ(重み及びバイアス)を含み、必要であればパラメータ以外のデータも更に含んでいて良い。
モデル設定部114はモデルデータを用いて画像認識モデル113を設定する。画像認識モデル113の設定を画像認識モデル113の形成と読み替えても良い(その逆も同様)。モデルデータを用いて画像認識モデル113を設定するとは、モデルデータ中のパラメータをNN113aに設定することにより、有効な画像認識を行い得る画像認識モデル113を画像認識部112にて形成することを指す。
画像認識モデル113に適用されるパラメータ(即ちNN113aに設定されるパラメータ)が変更されたとき、画像認識モデル113の特性(換言すれば内容)も変更され、結果、画像認識モデル113を用いて実行される画像認識の特性も変更される。例えば、画像認識モデル113における最適なパラメータ(検出対象物を識別するためのパラメータとして最適なパラメータ)は、車両CRが或る第1領域内を走行しているときと、車両CRが或る第2領域内を走行しているときとで異なり得る。これを考慮し、本実施形態では、車両CRの位置情報に応じて画像認識モデル113に適用されるパラメータを変更する。
更に、時間帯、交通状態又は天候などの情報(追加参照情報)によっても最適なパラメータは変動する。これらを考慮し、モデル設定部114は、車両CRの位置情報と、追加参照情報と、に応じたモデルデータ(パラメータ)を画像認識モデル113に適用する。これにより、位置情報及び追加参照情報に応じて画像認識モデル113の特性が変更される。
この結果、様々な状況に適応した適正な画像認識(望ましくは最適な画像認識)を車載装置10にて行うことが可能となる。車載装置10において様々なシーンの入力画像(カメ画像)が取得される。どのシーンにおいても高い検知性能(識別性能)を維持するための方法として、全てのシーンに対応可能なモデルを作る方法と、シーンごとに使用するモデルを切り替える(モデルのパラメータを切り替えることを含む)方法がある。前者の方法では、モデル構造が大きくなることが想定され、また全てのシーンにて高い検知性能を維持するのは現実的に難しいことがある。このため後者の方法が検討されるが、この際、モデル切り替えの制御技術が必要となる。上述のモデル設定部114を用いることで様々なシーンに適応して適正な画像認識が可能となる。
単純な一例を図5(a)及び(b)に示す。第1領域は繁華街の領域であって且つ第2領域は住宅街の領域であるとする。図5(a)に示す如く車両CRが第1領域に位置しているときに第1領域の天候が晴れであるときには、繁華街及び晴れに適したモデルデータを画像認識モデル113に適用する。これにより、繁華街及び晴れに適した画像認識モデル113にて画像認識が行われる。図5(b)に示す如く、車両CRが第2領域に位置しているときに第2領域の天候が雨であるときには、住宅街及び雨に適したモデルデータを画像認識モデル113に適用する。これにより、住宅街及び雨に適した画像認識モデル113にて画像認識が行われる。
ここでは、位置情報及び追加参照情報に応じたモデルデータはサーバ装置30から車載装置10に供給されるものとする。図4を参照し、当該モデルデータの供給に関わるサーバ制御部31の機能ブロックについて説明する。サーバ制御部31は複数の機能ブロックとして、領域設定部311、モデルデータ取得部312及び選択制御部313を備える。
領域設定部311は、地図上の所定のサービス提供領域を複数に分割することにより所定のサービス提供領域に複数の領域を設定する。当該分割によって得られた個々の領域を、説明の便宜上、要素領域と称する。複数の要素領域を記号“AR[1]”~“AR[n]”にて表す。複数の要素領域AR[1]~AR[n]の合成領域がサービス提供領域に相当する。サービス提供領域はシステムSYSによるサービスが適用される地図上の領域(エリア)であって、例えば、日本国に属する陸地の全部又は一部を含む。nは2以上の整数であり、通常は2よりも十分に大きい。複数の要素領域AR[1]~AR[n]の内、任意の2つの要素領域は互いに重なり合う領域を有さない。
図6に、要素領域AR[1]~AR[n]の一部の例として要素領域AR[1]~AR[9]を示す。図6の例では、所定の大きさを有する領域が南北の方向に沿って3等分され且つ東西の方向に沿って3等分されることで要素領域AR[1]~AR[9]が形成される。即ち、図6の例では要素領域AR[1]~AR[9]が互いに同じ大きさ及び形状を有する。
一方、データベース32(図4参照)には、画像認識モデル113を車載装置10にて形成するためのモデルデータが複数保持される。図7に示す如く、データベース32に保持される複数のモデルデータをモデルデータMD[1]~MD[m]と称する。mは2以上の整数であり、通常は2よりも十分に大きい。データベース32はモデルデータMD[1]~MD[m]を保持するデータ保持部の例である。
モデルデータ取得部312は、モデルデータMD[1]~MD[m]を取得し、取得したモデルデータMD[1]~MD[m]をデータベース32に保持させる。モデルデータMD[1]~MD[m]の夫々は機械学習により作成される。モデルデータ取得部312は、自身が機械学習を行うことでモデルデータMD[1]~MD[m]を作成及び取得する。但し、サーバ装置30及び車載装置10の何れとも異なる他の装置(不図示)にて機械学習を行い、これによって他の装置にて生成されたモデルデータMD[1]~MD[m]が取得部312に供給されるようにしても良い。
選択制御部313は、車両CRの位置情報と、追加参照情報と、に基づいて、モデルデータMD[1]~MD[m]の何れかを選択する。選択制御部313にて選択されたモデルデータを対象モデルデータと称する。選択制御部313は対象モデルデータを車載装置10に送信することができる。この際、車載装置10にて対象モデルデータが受信されて対象モデルデータにより画像認識モデル113が設定(形成)される。より具体的には、対象モデルデータ内のパラメータがNN113aに設定されることにより、対象モデルデータ内のパラメータが適用された画像認識モデル113が設定(形成)される。
これにより、様々な状況に適応した適正な画像認識(望ましくは最適な画像認識)を車載装置10にて行うことが可能となる。
図8に追加参照情報の例を示す。追加参照情報に、時刻情報、交通状態情報、天候情報及び車速情報の内、任意の1以上の情報を含めておくことができる。
時刻情報は現在時刻を表す。サーバ制御部31は、タイマを用い自分自身で時刻情報を作成及び取得するようにしても良いし、他の任意の装置から時刻情報を取得するようにしても良い。
例えば、昼間に画像認識を行うことに適したパラメータと、夜間に画像認識を行うことに適したパラメータと、は互いに相違する。このため、追加参照情報に時刻情報を含め、時刻情報に応じて画像認識モデル113に適用するパラメータを変更することにより、時間帯に適した画像認識を車載装置10にて行うことが可能となる。
交通状態情報は各要素領域の交通状態(要素領域AR[1]~AR[n]の各交通状態)を表す。より具体的には、交通状態情報は、各要素領域の道路の渋滞情報(道路が渋滞しているか否か)を表す。サービス提供領域の各地点での渋滞情報を提供する渋滞情報管理サーバ(不図示)が通信網NETに接続される。サーバ制御部31は、渋滞情報管理サーバから提供される渋滞情報に基づき交通状態情報を取得できる。
例えば、渋滞の環境下で画像認識を行うことに適したパラメータと、非渋滞の環境下で画像認識を行うことに適したパラメータと、は互いに相違する。このため、追加参照情報に交通状態情報を含め、交通状態情報に応じて画像認識モデル113に適用するパラメータを変更することにより、交通状態に適した画像認識を車載装置10にて行うことが可能となる。
天候情報は各要素領域の天候(要素領域AR[1]~AR[n]の各天候)を表す。サービス提供領域の各地点での天候の情報を提供する天候情報提供サーバ(不図示)が通信網NETに接続される。サーバ制御部31は、天候情報提供サーバから提供される情報に基づき天候情報を取得できる。天候情報は、各要素領域の現在の天候を表す他、各要素領域の未来の天候の予報情報を含んでいても良い。
例えば、晴れの環境下で画像認識を行うことに適したパラメータと、雨の環境下で画像認識を行うことに適したパラメータと、は互いに相違する。このため、追加参照情報に天候情報を含め、天候情報に応じて画像認識モデル113に適用するパラメータを変更することにより、天候に適した画像認識を車載装置10にて行うことが可能となる。
尚、追加参照情報に車速情報を含めることの意義については後述される。以下、本実施形態では特に記述な限り、追加参照情報に、時刻情報、交通状態情報及び天候情報が含まれているものとする。
上述したように、モデルデータ取得部312にて機械学習を実施することでモデルデータMD[1]~MD[m]を作成できる。この場合、NN113aと同一の構造を有するNN(以下、サーバNNと称する)をサーバ制御部31に設けておき、サーバNNに対して、画像認識用の機械学習を実施する。機械学習済みのサーバNNは、画像認識を行うための学習済みモデルである。m種類の条件を設定し、各条件にて機械学習を実施することで、m種類のモデルデータ、即ちモデルデータMD[1]~MD[m]を得ることができる。
図9に示す如く、システムSYSでは、まずステップS1にてモデルデータ作成工程が実施され、その後にステップS2にて実運用工程が実施される。モデルデータ作成工程において、モデルデータMD[1]~MD[m]がサーバ装置30にて作成及び保存される。実運用工程において、モデルデータMD[1]~MD[m]の何れか1以上を利用した車載装置10での画像認識が行われる。画像認識部112、画像認識モデル113及びモデル設定部114について上述した各動作は、実運用工程での動作である。
図10はモデルデータ作成工程のフローチャートである。図10を参照してモデルデータ作成工程を説明する。モデルデータ作成工程では、まずステップS11にてモデルデータの番号を表す変数jに“1”が代入される。尚、ステップS11の時点では、モデルデータMD[1]~MD[m]の何れもがデータベース32に保存されていない。ステップS11に続くステップS12において、モデルデータ取得部312は、第j学習条件の下でサーバNNに対する機械学習を実施する。ステップS12の機械学習が完了するとステップS13に進む。
ステップS13において、モデルデータ取得部312は、第j学習条件の下での機械学習により得られる学習済みモデルのパラメータ(重み及びバイアス)をモデルデータMD[j]に含め、当該モデルデータMD[j]をデータベース32に保存する。続くステップS14において、“j=m”の成否が確認される。“j=m”が非成立の場合には(ステップS14のN)、ステップS15にて変数jに“1”が加算されてからステップS12に戻り、ステップS12以降の各処理が再度実行される。“j=m”が成立する場合には(ステップS14のY)、図10の処理を終える。ステップS14にて“j=m”が成立して図10の処理を終える時点では、モデルデータMD[1]~MD[m]が全てデータベース32に保存済みとなる。
図11は実運用工程のフローチャートである。図11を参照して実運用工程を説明する。実運用工程は以下のステップS21~S26の処理から成る。ステップS21では、サーバ制御部31にて所定のトリガ条件の成否が判断される。トリガ条件は所定の時間が経過するごとに成立する(即ち所定間隔で成立する)。或いは、予め定められた時刻においてトリガ条件が成立する。予め定められた時刻は一日において複数存在する。トリガ条件が非成立であれば(ステップS21のN)ステップS21の処理が繰り返される。トリガ条件が成立すれば(ステップS21のY)ステップS22に進む。
ステップS22において、選択制御部313(図4参照)は、最新の車両CRの位置情報と、最新の追加参照情報と、に基づいて、モデルデータMD[1]~MD[m]の何れかを対象モデルデータとして選択する。即ち、選択制御部313は、現在、車両CRが要素領域AR[1]~AR[n]の何れに位置しているかと追加参照情報とに基づいて、上記選択を行う。ステップS22の後、ステップS23に進む。
後述の説明から明らかとなるが、実運用工程の中でステップS22の選択処理は繰り返し実行される。ステップS23において、選択制御部313は、今回選択した対象モデルデータが前回選択した対象モデルデータと相違するかを判断する。今回選択した対象モデルデータが前回選択した対象モデルデータと相違する場合には(ステップS23のY)ステップS24に進む。前回選択した対象モデルデータが存在しない場合、即ち、今回選択した対象モデルデータが初回に選択した対象モデルデータである場合にも(ステップS23のY)、ステップS24に進む。一方、今回選択した対象モデルデータが前回選択した対象モデルデータと一致する場合には(ステップS23のN)ステップS21に戻る。
ステップS24において、選択制御部313により今回選択された対象モデルデータが車載装置10に送信される。送信された対象モデルデータは車載装置10にて受信される。ステップS24の後、ステップS25に進む。
ステップS25において、モデル設定部114(図3参照)は、サーバ装置30から受信した対象モデルデータを用いて画像認識モデル113を設定(形成)する。より具体的には、対象モデルデータ内のパラメータをNN113aに設定することにより、対象モデルデータ内のパラメータが適用された画像認識モデル113を設定(形成)する。ステップS25の後、ステップS26に進む。
ステップS26において、画像認識部112は、設定された画像認識モデル113を用いた画像認識を実行する。その後、ステップS21に戻り、ステップS21以降の各処理が繰り返される。ステップS26における画像認識は一度ステップS26に至った後は継続的に実行され、トリガ条件の成立を経てステップS24及びS25の処理が実行されるたびに画像認識モデル113が更新されることになる。
図10のモデルデータ作成工程について説明を加える。モデルデータ作成工程では、第1~第m学習条件の夫々にて機械学習が実施されることになるが、第1~第m学習条件の内、任意の2つの学習条件は互いに異なる。
第j学習条件による機械学習は、第j学習用画像データセットに基づく機械学習である。第j学習用画像データセットは、複数の学習用画像と各学習用画像に対するアノテーション情報を含む。第j学習用画像データセットにおける各学習用画像は、第j撮影環境下における画像取得用車両の設置カメラの撮影画像である。画像取得用車両は、車両CRを含んでいても良いし、他の車両(不図示)を含んでいても良い。或る学習用画像に対するアノテーション情報は、当該学習用画像内における検出対象物の種類及び位置を特定する。
複数の撮影環境の具体例を挙げる。説明の具体化及び便宜上、互いに重なり合わない2つの時間帯として第1時間帯及び第2時間帯を想定する。例えば、第1時間帯は当日午前10時から当日午後4時までの時間帯であり、第2時間帯は当日午後7時から翌日午前4時までの時間帯である。
第1撮影環境は、第1時間帯において要素領域AR[1]内の道路が非渋滞であり且つ要素領域AR[1]内の天候が晴れである。第1学習用画像データセットにおける各学習用画像は、第1撮影環境にて要素領域AR[1]内を走行する画像取得用車両の設置カメラにより撮影される。
故に、モデルデータMD[1]は、第1時間帯、非渋滞及び晴れの環境下にて車両CRが要素領域AR[1]内を走行するときにおいて、適正な画像認識を提供する。このため、実運用工程において、車両CRが要素領域AR[1]内に位置し、現在時刻が第1時間帯に属し、要素領域AR[1]が非渋滞であって且つ晴れであるとき、選択制御部313は、モデルデータMD[1]を対象モデルデータとして選択する。
第2撮影環境は、第2時間帯において要素領域AR[1]内の道路が非渋滞であり且つ要素領域AR[1]内の天候が晴れである。第2学習用画像データセットにおける各学習用画像は、第2撮影環境にて要素領域AR[1]内を走行する画像取得用車両の設置カメラにより撮影される。
故に、モデルデータMD[2]は、第2時間帯、非渋滞及び晴れの環境下にて車両CRが要素領域AR[1]内を走行するときにおいて、適正な画像認識を提供する。このため、実運用工程において、車両CRが要素領域AR[1]内に位置し、現在時刻が第2時間帯に属し、要素領域AR[1]が非渋滞であって且つ晴れであるとき、選択制御部313は、モデルデータMD[2]を対象モデルデータとして選択する。
第3撮影環境は、第1時間帯において要素領域AR[1]内の道路が渋滞しており且つ要素領域AR[1]内の天候が晴れである。第3学習用画像データセットにおける各学習用画像は、第3撮影環境にて要素領域AR[1]内を走行する画像取得用車両の設置カメラにより撮影される。
故に、モデルデータMD[3]は、第1時間帯、渋滞及び晴れの環境下にて車両CRが要素領域AR[1]内を走行するときにおいて、適正な画像認識を提供する。このため、実運用工程において、車両CRが要素領域AR[1]内に位置し、現在時刻が第1時間帯に属し、要素領域AR[1]が渋滞しており且つ晴れであるとき、選択制御部313は、モデルデータMD[3]を対象モデルデータとして選択する。
第4撮影環境は、第1時間帯において要素領域AR[1]内の道路が非渋滞であり且つ要素領域AR[1]内の天候が雨である。第4学習用画像データセットにおける各学習用画像は、第4撮影環境にて要素領域AR[1]内を走行する画像取得用車両の設置カメラにより撮影される。
故に、モデルデータMD[4]は、第1時間帯、非渋滞及び雨の環境下にて車両CRが要素領域AR[1]内を走行するときにおいて、適正な画像認識を提供する。このため、実運用工程において、車両CRが要素領域AR[1]内に位置し、現在時刻が第1時間帯に属し、要素領域AR[1]が非渋滞であって且つ雨であるとき、選択制御部313は、モデルデータMD[4]を対象モデルデータとして選択する。
要素領域AR[1]に関し、上述と同様にして、時刻情報、交通状態情報及び天候情報の内容の組み合わせごとにモデルデータを作成することができる。要素領域AR[1]以外の各要素領域についても同様である。
例えば、時刻情報の内容が3種類(第1~第3時間帯の3種類)あり、各要素領域について交通状態情報の内容が2種類(渋滞、非渋滞の2種類)あり、且つ、各要素領域について天候情報の内容が3種類(晴れ、曇り、雨の3種類)ある場合を考える。この場合、“3×2×3=18”より、1つの要素領域に対し計18種類のモデルデータを作成しておくことができる。そして、要素領域ごとに18種類のモデルデータを作成したならば、計(18×n)種類のモデルデータがモデルデータMD[1]~MD[m]としてデータベース32に保持されることになる。
但し、複数の要素領域に同一のモデルデータを適用することも可能である。即ち例えば、実運用工程において、車両CRが要素領域AR[1]内に位置し、現在時刻が第1時間帯に属し、要素領域AR[1]が非渋滞であって且つ晴れであるときにおいて、選択制御部313が、モデルデータMD[1]を対象モデルデータとして選択する場合を想定する。この想定の下、車両CRが要素領域AR[9]内に位置し、現在時刻が第1時間帯に属し、要素領域AR[1]が非渋滞であって且つ晴れであるときにも、選択制御部313は、モデルデータMD[1]を対象モデルデータとして選択することがあっても良い。画像認識の観点から要素領域AR[1]及びAR[9]が同様の領域であると判断されるときに、このような方法を利用できる。追加参照情報の内容の組み合わせとして第1時間帯、非渋滞及び晴れを例に挙げたが、他の組み合わせ(例えば、第2時間帯、非渋滞及び晴れ)についても同様であって良い。他の複数の要素領域の組み合わせに対しても同様である。
以下、複数の実施例の中で、システムSYSに関する幾つかの具体的な動作例、応用技術又は変形技術等を説明する。本実施形態にて上述した事項は、特に記述無き限り且つ矛盾無き限り、以下の各実施例に適用される。各実施例において、上述の事項と矛盾する事項がある場合には、各実施例での記載が優先されて良い。また矛盾無き限り、以下に示す複数の実施例の内、任意の実施例に記載した事項を、他の任意の実施例に適用することもできる(即ち複数の実施例の内の任意の2以上の実施例を組み合わせることも可能である)。
<<第1実施例>>
第1実施例を説明する。図6を参照し、要素領域の大きさ及び形状を全要素領域において同じとする方法を上述した。しかしながら、任意の2つの要素領域間で、要素領域の大きさ又は形状は相違していても良い。
領域設定部311は、サービス提供領域内の各地域の特性に応じて要素領域AR[1]~AR[n]を設定するようにしても良い。これについて説明を加える。図12を参照し、互いに隣接する2つの領域ARa及びARbを想定する。領域ARaにおける地域特性と領域ARbにおける地域特性とは互いに相違するものとする。この場合、領域設定部311は、領域ARaが属する要素領域と領域ARbが属する要素領域とを互いに相違させる。例えば、領域ARa、ARbを、夫々、要素領域AR[1]、AR[2]に設定して良い。
領域ARa及びARb間の地域特性の相違とは、画像認識の認識性能に影響を及ぼす程度に領域ARa及びARb間で撮影シーンが相違することに相当する。
地域の特性は、当該地域の種類によって決定付けられる。地域の種類として、住宅街、繁華街、工場地帯及び山岳地帯などが挙げられる。従って例えば、領域ARaが住宅街であって且つ領域ARbが繁華街であるとき、領域ARaが属する要素領域と領域ARbが属する要素領域とを互いに相違させると良い。この場合において、住宅街の大きさ及び形状に応じて領域ARaが属する要素領域の大きさ及び形状が設定されて良い。同様に、繁華街の大きさ及び形状に応じて領域ARbが属する要素領域の大きさ及び形状が設定されて良い。
実運用工程において、住宅街の領域ARa内に車両CRが位置しているときには、領域ARaが属する要素領域に対応して作成されたモデルデータが対象モデルデータとして選択され、車載装置10にて受信される。同様に、実運用工程において、繁華街の領域ARb内に車両CRが位置しているときには、領域ARbが属する要素領域に対応して作成されたモデルデータが対象モデルデータとして選択され、車載装置10にて受信される。
また例えば、図13を参照し、サービス提供領域内に高速道路610が配置されているとき、高速道路610の形状に合わせた要素領域AR[10]を設定することもできる。図13の例では、要素領域AR[8]、AR[5]、AR[2]及びAR[3]を横断する態様で要素領域AR[10]が設定されている。要素領域AR[10]は高速道路610のみを含むように設定されるが、多少は別の道路又は地形を含み得る。
実運用工程において、要素領域AR[10]内に車両CRが位置しているときには、要素領域AR[10]に対応して作成されたモデルデータ(高速道路用のモデルデータ)が対象モデルデータとして選択され、車載装置10にて受信される。
更に例えば、図13を参照し、サービス提供領域内にトンネル630が配置されているとき、トンネル630の形状に合わせた要素領域AR[11]を設定することもできる。図13の例では、要素領域AR[4]の外形の内側に要素領域AR[11]が設定されている。要素領域AR[11]はトンネル630のみを含むように設定されるが、多少は別の道路又は地形を含み得る。
実運用工程において、要素領域AR[11]内に車両CRが位置しているときには、要素領域AR[11]に対応して作成されたモデルデータ(トンネル用のモデルデータ)が対象モデルデータとして選択され、車載装置10にて受信される。
本実施例の如く、地域特性を考慮して要素領域の設定を行うことにより、地域特性に合わせた適正な画像認識(望ましくは最適な画像認識)を車載装置10にて行うことが可能となる。
<<第2実施例>>
第2実施例を説明する。第2実施例では、追加参照情報に車速情報が含まれていることを前提とし(図8参照)、車速情報の利用方法を説明する。車速情報は、上述したように車載センサ部22(図3参照)にて車両情報の一部として取得される。車速情報を含む車両情報は、周期的に車載装置10からサーバ装置30に送信される、又は、サーバ装置30からの要求に応答して車載装置10からサーバ装置30に送信される。
実運用工程(図11参照)におけるステップS22において、第2実施例に係る選択制御部313は、車両CRの位置情報と車速情報を含む追加参照情報とに基づいて、対象モデルデータの選択を行う。
図14を参照し、車速情報の利用の具体例を説明する。図14は、図13に対し地点670を示すマーカを付加した図である。地点670において高速道路610と一般道路650が立体的に交差する。地点670が一般道路650上の地点であるならば地点670は要素領域AR[5]に属し、地点670が高速道路610上の地点であるならば地点670は要素領域AR[10]に属する。但し、車両CRの位置情報が地点670に対応する経度及び緯度を表すとき、車両CRが高速道路610上を走行しているのか一般道路650上を走行しているのかを、判別し難い。
これを考慮し、車両CRの現在地が地点670に相当することが車両CRの位置情報にて表されているケースCS2_1において、選択制御部313は、車速情報に基づき車両CRの走行道路の種類を推定する。この際、車速情報にて示される車両CRの速度が所定の基準速度以上であるならば、車両CRの現在の走行道路は高速道路610であると推定する。車速情報にて示される車両CRの速度が基準速度未満であるならば、車両CRの現在の走行道路は一般道路650であると推定する。この場合、基準速度は、例えば、時速80キロメートルである。
ケースCS2_1において、車両CRの現在の走行道路が高速道路610であると推定された場合、選択制御部313により車両CRの現在地は要素領域AR[10]に属すると判断される。結果、要素領域AR[10]に対応するモデルデータ(従って高速道路610に適したモデルデータ)が対象モデルデータとして選択される。
ケースCS2_1において、車両CRの現在の走行道路が一般道路650であると推定された場合、選択制御部313により車両CRの現在地は要素領域AR[5]に属すると判断される。結果、要素領域AR[5]に対応するモデルデータ(従って一般道路650に適したモデルデータ)が対象モデルデータとして選択される。
本実施例の如く、車速情報を追加参照情報に含めてモデルデータの選択を行うことにより、車両CRの走行道路の種類等に適応した画像認識(望ましくは最適な画像認識)を車載装置10にて行うことが可能となる。
尚、図14の例では、高速道路610と一般道路650が立体的に交差しているが、高速道路610及び一般道路650が水平方向又は垂直方向に並んで配置される場合にも、本実施例で述べた方法を利用可能である。GPS処理部23から得られる車両CRの位置情報は誤差を含み得る。誤差の程度によっては、車両CRが高速道路610を走行しているときに車両CRが一般道路650を走行していると誤認される場合もあり得る(その逆もあり得る)。特に、スマートホン等の持ち運び容易な情報端末装置を車載装置10として用いた場合には、車載装置10が車室内で動くことが考えられ、位置情報に誤差が生じやすい。本実施例で述べた方法を用いれば、上記のような誤認を抑制することが可能である。
また、車速情報に基づいて車両CRの走行道路の種類を推定する方法を説明したが、車両CRの移動軌跡の履歴に基づいて車両CRの走行道路の種類を推定しても良い。即ち、ケースCS2_1において、車両CRの位置情報の履歴から過去における車両CRの移動軌跡を特定する。特定された車両CRの移動軌跡が高速道路610上の軌跡であるならば、現在、車両CRは高速道路610上を走行していると推定できる。逆に、特定された車両CRの移動軌跡が一般道路650上の軌跡であるならば、現在、車両CRは一般道路650上を走行していると推定できる。
<<第3実施例>>
第3実施例を説明する。画像認識部112に、各々にニューラルネットワークを備えた複数の画像認識モデル113を設けておいて良い。この際、画像認識部112は、複数の画像認識モデル113の何れか1つを対象モデルに設定し、対象モデルを用いて画像認識を実行する。ここでは、図15に示す如く、画像認識部112に、2つの画像認識モデル113である画像認識モデル113_1及び113_2が設けられる場合を想定する。画像認識モデル113_1、113_2に備えられたニューラルネットワークを、夫々、NN113a_1、113a_2と称する。
NN113a_1及び113a_2の夫々は上述のNN113aと同じものであり、従ってNN113a_1及び113a_2は互いに同じ構造を有する。但し、或る任意の時刻において、NN113a_1に設定されるパラメータとNN113a_2に設定されるパラメータとを相違させることができる。これにより、画像認識モデル113_1による画像認識の特性と画像認識モデル113_2による画像認識の特性とを相違させることができる。
図16を参照し、第3実施例の動作の例を説明する。図16の動作はステップS31~S36の処理を含む。今、車両CRが要素領域AR[2]内に位置しており、且つ、対象モデルとしての画像認識モデル113_1を用いて画像認識が実行されている状態を基準に考える(図17も参照)。ステップS31では、基準の状態にて画像認識が実行される。即ち、ステップS31では、車両CRが要素領域AR[2]内に位置しており、且つ、対象モデルとしての画像認識モデル113_1を用いて画像認識が実行される。車両CRが要素領域AR[2]内に位置しているとき、要素領域AR[2]に対応するモデルデータであって、且つ、現在時刻、要素領域AR[2]の交通状態情報及び要素領域AR[2]の天候情報に応じたモデルデータ内のパラメータがNN113a_1に設定される。
上記の基準の状態において、選択制御部313は、車両CRの走行予定ルート情報に基づき、車両CRが次に遷移する要素領域を特定する(ステップS32)。そして、選択制御部313は、特定した要素領域に適応したモデルデータを次期モデルデータとしてモデルデータMD[1]~MD[m]から抽出する(ステップS32)。抽出された次期モデルデータは選択制御部313により車載装置10に送信される(ステップS32)。
走行予定ルート情報は、車両CRの目的地までの走行予定ルートを表す情報である。車両CRに設置されたナビゲーション装置(不図示)により走行予定ルート情報が作成され、走行予定ルート情報が通信網NETを介してサーバ装置30に供給される。車載装置10とは別にナビゲーション装置が設けられていても良いし、車載装置10がナビゲーション装置を内包していても良い。
ここでは、図17に示す如く、車両CRが要素領域AR[2]から要素領域AR[1]に向けて移動することが走行予定ルート情報にて示されているものとする。車両CRが要素領域AR[2]から要素領域AR[1]に向けて移動する際、車両CRは要素領域AR[2]から要素領域AR[1]以外の要素領域を経由することなく要素領域AR[1]に直接至るものとする。そうすると、ステップS32において、次に遷移する要素領域として要素領域AR[1]が特定され、要素領域AR[1]に適応したモデルデータが次期モデルデータとして抽出される。
この際、追加参照情報に基づいて次期モデルデータが抽出される。つまり、時刻情報と、要素領域AR[1]の状態の情報と、に基づいて、次期モデルデータが抽出される。要素領域AR[1]の状態の情報は、交通状態情報に含まれる情報であって、要素領域AR[1]の交通状態を表す情報、及び、要素領域AR[1]の天候を表す情報を含む。
まとめると、車両CRが要素領域AR[2]内を走行している期間において、要素領域AR[1]に対応するモデルデータであって、且つ、追加参照情報に基づく要素領域AR[1]の状態(交通状態及び天候)に応じたモデルデータを、次期モデルデータとして抽出する。
具体的には例えば、現在時刻又は車両CRの要素領域AR[1]への到達予測時刻が第1時間帯に属し、要素領域AR[1]が非渋滞であって且つ晴れであるとき、選択制御部313は、モデルデータMD[1]を次期モデルデータとして抽出する。上述したように、モデルデータMD[1]は、第1時間帯、非渋滞及び晴れの環境下にて車両CRが要素領域AR[1]内を走行するときに、適正な画像認識を提供するからである。
また例えば、現在時刻又は車両CRの要素領域AR[1]への到達予測時刻が第2時間帯に属し、要素領域AR[1]が非渋滞であって且つ晴れであるとき、選択制御部313は、モデルデータMD[2]を次期モデルデータとして抽出する。上述したように、モデルデータMD[2]は、第2時間帯、非渋滞及び晴れの環境下にて車両CRが要素領域AR[1]内を走行するときに、適正な画像認識を提供するからである。
また例えば、現在時刻又は車両CRの要素領域AR[1]への到達予測時刻が第1時間帯に属し、要素領域AR[1]が渋滞していて且つ晴れであるとき、選択制御部313は、モデルデータMD[3]を次期モデルデータとして抽出する。上述したように、モデルデータMD[3]は、第1時間帯、渋滞及び晴れの環境下にて車両CRが要素領域AR[1]内を走行するときに、適正な画像認識を提供するからである。
また例えば、現在時刻又は車両CRの要素領域AR[1]への到達予測時刻が第1時間帯に属し、要素領域AR[1]が非渋滞及び雨であるとき、選択制御部313は、モデルデータMD[4]を次期モデルデータとして抽出する。上述したように、モデルデータMD[4]は、第1時間帯、渋滞及び雨の環境下にて車両CRが要素領域AR[1]内を走行するときに、適正な画像認識を提供するからである。
ステップS32にて抽出及び送信された次期モデルデータは車載装置10にて受信される。ステップS32に続くステップS33において、モデル設定部114は、受信した次期モデルデータを用いて画像認識モデル113_2を設定する。より具体的には、次期モデルデータ内のパラメータがNN113a_2に設定されることにより、次期モデルデータ内のパラメータが適用された画像認識モデル113_2が設定(形成)される。
その後、車両CRの位置が要素領域AR[2]から要素領域AR[1]に遷移したかが判断される(ステップS34)。この判断は車載制御部11にて行われて良いし、サーバ制御部31にて行われて良い。車両CRの位置が要素領域AR[1]に遷移したと判断されるまでは(ステップS34のN)、ステップS34の処理が繰り返される。車両CRの位置が要素領域AR[1]に遷移したと判断されると(ステップS34のY)、ステップS35に進む。
ステップS35において、モデル設定部114は、対象モデルを画像認識モデル113_1から画像認識モデル113_2に切り替える。この切り替え後のステップS36において、画像認識部112は、対象モデルとしての画像認識モデル113_2を用いて画像認識を実行する。ステップS36において、車両CRは要素領域AR[1]にて位置している。
このように、サーバ装置30は、車両CRが要素領域AR[2]内を走行している期間において、次に車載装置10にて必要となると予想されるモデルデータを次期モデルデータとして抽出し且つ車載装置10に送信しておく。車両CRが要素領域AR[2]内を走行している期間において、車載装置10は、要素領域AR[2]に適応した画像認識モデル113_1を用いて画像認識を行う。一方、車両CRが要素領域AR[2]内を走行している期間において、車載装置10は、受信した次期モデルデータを用いて画像認識モデル113_2を設定しておく。そして、車両CRが要素領域AR[1]に至ることで次期モデルデータを用いた画像認識が必要になると、対象モデルを画像認識モデル113_1から画像認識モデル113_2に切り替える。以後、車両CRが要素領域AR[1]内を走行している期間では、画像認識モデル113_2が対象モデルに維持されて良い。
以後も、車両CRの走行予定ルートに沿って、次期モデルデータの抽出及び画像認識モデルの切り替えが繰り返し実行される。
このような方法により、車両CRの走行過程において適正な画像認識を切れ目なく実行することができる。
<<第4実施例>>
第4実施例を説明する。上述の説明では、1台の車両CRにのみ注目したが、複数の車両CRが存在する場合、各車両CRについて上述の説明が適用される。
例えば、図18に示す如く、複数の車両CRから成る第1車両群が要素領域AR[1]に位置していて、且つ、他の複数の車両CRから成る第2車両群が要素領域AR[2]に位置している状態を想定する。各車両CRには車載装置10が搭載され、全車両CRの車載装置10とサーバ装置30とを含んでシステムSYSが形成される。
選択制御部313は、第1車両群における各車両CRの車載装置10に対して、共通に、第1対象モデルデータを送信すれば良い。第1車両群における各車両CRの車載装置10では、第1対象モデルデータを用いて画像認識が行われる。第1対象モデルデータは、要素領域AR[1]に対応するモデルデータであって、且つ、現在時刻、要素領域AR[1]の交通状態情報及び要素領域AR[1]の天候情報に応じて選択された対象モデルデータである。
選択制御部313は、第2車両群における各車両CRの車載装置10に対して、共通に、第2対象モデルデータを送信すれば良い。第2車両群における各車両CRの車載装置10では、第2対象モデルデータを用いて画像認識が行われる。第2対象モデルデータは、要素領域AR[2]に対応するモデルデータであって、且つ、現在時刻、要素領域AR[2]の交通状態情報及び要素領域AR[2]の天候情報に応じて選択された対象モデルデータである。
このように、サーバ装置30は要素領域ごとに一括して必要なモデルデータを選択すれば足る。このため、車両CRごとに必要なモデルデータを選択するような方法との比較において、サーバ装置30の負荷は小さい。
尚、本実施形態に係る方法とは異なるが、以下のような参考方法も検討される。参考方法では、入力画像の情報を車載装置からサーバ装置に送信し、サーバ装置において入力画像の情報(画素値)に基づきモデル切替の要否を判断する。但し、参考方法では、入力画像をサーバ装置に送信するため通信コストが大きくなる。本実施形態に係る各方法では、モデル切替の判断に入力画像を用いないので通信コストを抑えることができる。また、参考方法では、車両の台数分のモデル切り替え判断を、車両ごとに入力画像に基づきサーバ装置にて行う必要があり、計算コストが膨大となる。また、参考方法では入力画像の情報(画素値)に基づくシーン判別を介してモデル切替を制御することになるが、夜間走行とトンネル内走行との区別がつきにくいなど、精度上の問題もある。
<<第5実施例>>
第5実施例を説明する。
サーバ装置30の機能の全部又は一部を車載装置10に担わせることも可能である。極端には、領域選択部311、モデルデータ取得部312及び選択制御部313を車載制御部11に設け、データベース32を車載装置10に設けることも可能である。特に例えば、テレビ等の中継車にはサーバ装置の機能を担う車載装置が搭載されることが多い。このため、テレビ等の中継車が車両CRである場合には、サーバ装置30の機能の全部又は一部を車載装置10に担わせることが妥当となり得る。
本発明の実施形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。以上の実施形態は、あくまでも、本発明の実施形態の例であって、本発明ないし各構成要件の用語の意義は、以上の実施形態に記載されたものに制限されるものではない。上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。
<<付記>>
上述の実施形態にて具体的構成例が示された本発明について付記を設ける。
本発明の一側面に係る車載装置(10)は、車両に設置される車載装置であって、前記車両に設置されたカメラからの入力画像に対して画像認識を行う画像認識部(112)を備え、前記画像認識部は、前記車両の位置情報と、前記位置情報とは異なる追加参照情報と、に応じた画像認識モデル(113)を用いて、前記画像認識を行う構成である。
位置情報だけでなく追加参照情報にも応じた画像認識モデルを用いて画像認識を行うことにより、様々な状況に適応した適正な画像認識を車載装置にて行うことが可能となる。
本発明の一側面に係る支援装置(30)は、車両に設置されたカメラからの入力画像に対して画像認識を行う車載装置(10)と通信可能に構成された支援装置であって、前記画像認識を行う画像認識モデル(113)を前記車載装置にて設定するためのモデルデータを複数保持するデータ保持部(32;図7参照)と、前記車両の位置情報と、前記位置情報と異なる追加参照情報と、に基づいて、複数のモデルデータ(MD[1]~MD[m])の何れかを選択し、選択したモデルデータを前記車載装置に送信する選択制御部(313)と、を備える構成である。
位置情報だけでなく追加参照情報にも応じたモデルデータを車載装置に送信することにより、車載装置では、位置情報及び追加参照情報に応じた画像認識モデルを用いて画像認識を行うことができる。結果、様々な状況に適応した適正な画像認識を車載装置にて行うことが可能となる。
SYS システム(画像認識システム)
10 車載装置
11 車載制御部
111 記録処理部
112 画像処理部
113、113_1 113_2 画像認識モデル
113a 113a_1 113a_2 NN(ニューラルネットワーク)
12 記録媒体
13 通信処理部
14 計時部
21 カメラ部
22 車載センサ部
23 GPS処理部
24 インターフェース部
30 サーバ装置
31 サーバ制御部
311 領域設定部
312 モデルデータ取得部
313 選択制御部
32 データベース
33 通信処理部
AR[i] 要素領域
MD[i] モデルデータ

Claims (15)

  1. 車両に設置される車載装置であって、
    前記車両に設置されたカメラからの入力画像に対して画像認識を行う画像認識部を備え、
    前記画像認識部は、前記車両の位置情報と、前記位置情報とは異なる追加参照情報と、に応じた画像認識モデルを用いて、前記画像認識を行う
    、車載装置。
  2. 前記画像認識モデルを設定するモデル設定部を備え、
    前記モデル設定部は、前記位置情報及び前記追加参照情報に応じたパラメータを用いて前記画像認識モデルを設定する
    、請求項1に記載の車載装置。
  3. 前記画像認識部は、第1画像認識モデル及び第2画像認識モデルを含む複数の画像認識モデルを有し、前記複数の画像認識モデルの1つである対象モデルを用いて前記画像認識を実行し、
    前記モデル設定部は、前記画像認識を前記第1画像認識モデルにより行っている期間にて前記追加参照情報に応じたパラメータを用いて前記第2画像認識モデルに設定し、その後、前記車両の位置変化に応じて前記対象モデルを前記第1画像認識モデルから前記第2画像認識モデルに切り替える
    、請求項2に記載の車載装置。
  4. 前記車両は複数の領域の何れかに位置し、
    前記追加参照情報は、現在時刻を表す時刻情報、各領域の交通状態を表す交通状態情報、及び、各領域の天候を表す天候情報の内、少なくとも1つを含む
    、請求項1~3の何れかに記載の車載装置。
  5. 前記追加参照情報は、前記車両の走行速度を表す車速情報を含む
    、請求項1~4の何れかに記載の車載装置。
  6. 請求項2に記載の車載装置と、
    前記車載装置と通信可能に構成された支援装置と、を備え、
    前記支援装置は、
    前記画像認識モデルに対するパラメータを含むモデルデータを複数保持するデータ保持部と、
    前記位置情報及び前記追加参照情報に基づいて複数のモデルデータの何れかを選択し、選択したモデルデータを前記車載装置に送信する選択制御部と、を備え、
    前記モデル設定部は、前記受信したモデルデータ内のパラメータを用いて前記画像認識モデルに設定する
    、画像認識システム。
  7. 車両に設置されたカメラからの入力画像に対して画像認識を行う車載装置と通信可能に構成された支援装置であって、
    前記画像認識を行う画像認識モデルを前記車載装置にて設定するためのモデルデータを複数保持するデータ保持部と、
    前記車両の位置情報と、前記位置情報と異なる追加参照情報と、に基づいて、複数のモデルデータの何れかを選択し、選択したモデルデータを前記車載装置に送信する選択制御部と、を備える
    、車載装置用の支援装置。
  8. 前記車両は複数の領域の何れかに位置し、
    前記選択制御部は、前記車両が前記複数の領域の何れに位置しているかと、前記追加参照情報と、に基づいて、前記選択を行う
    、請求項8に記載の車載装置用の支援装置。
  9. 所定領域を分割することで前記複数の領域を設定する領域設定部を更に備え、
    前記領域設定部は、前記所定領域内の各地域の特性に応じて前記複数の領域を設定する
    、請求項9に記載の車載装置用の支援装置。
  10. 前記複数の領域は第1領域及び第2領域を含み、
    前記選択制御部は、前記車両が前記第2領域から前記第1領域に向けて走行する際、前記車両が前記第2領域内を走行している期間において、前記第1領域に対応するモデルデータであって且つ前記第1領域の状態に応じたモデルデータを前記車載装置に送信する
    、請求項8又は9に記載の車載装置用の支援装置。
  11. 前記追加参照情報は、現在時刻を表す時刻情報、各領域の交通状態を表す交通状態情報、及び、各領域の天候を表す天候情報の内、少なくとも1つを含む
    、請求項8~10の何れかに記載の車載装置用の支援装置。
  12. 前記車両は複数の領域の何れかに位置し、
    前記追加参照情報は、現在時刻を表す時刻情報、各領域の交通状態を表す交通状態情報、及び、各領域の天候を表す天候情報の内、少なくとも1つを含む
    、請求項7に記載の車載装置用の支援装置。
  13. 前記追加参照情報は、前記車両の走行速度を表す車速情報を含む
    、請求項7~12の何れかに記載の車載装置用の支援装置。
  14. 車両に設置されたカメラからの入力画像に対して画像認識を行う画像認識ステップを備え、
    前記画像認識ステップでは、前記車両の位置情報と、前記位置情報とは異なる追加参照情報と、に応じた画像認識モデルを用いて、前記画像認識を行う
    、画像認識方法。
  15. 車両に設置されたカメラからの入力画像に対して画像認識を行う車載装置にモデルデータを送信するモデルデータ送信方法であって、
    前記モデルデータは、前記画像認識を行う画像認識モデルを前記車載装置にて設定するためのデータであり、
    前記車載装置に送信可能なモデルデータは複数あり、
    前記車両の位置情報と、前記位置情報と異なる追加参照情報と、に基づいて、複数のモデルデータの何れかを選択し、選択したモデルデータを前記車載装置に送信する
    、モデルデータ送信方法。
JP2021151729A 2021-09-17 2021-09-17 車載装置、画像認識システム、車載装置用の支援装置、画像認識方法、及び、モデルデータ送信方法 Pending JP2023043957A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021151729A JP2023043957A (ja) 2021-09-17 2021-09-17 車載装置、画像認識システム、車載装置用の支援装置、画像認識方法、及び、モデルデータ送信方法
US17/690,502 US20230086088A1 (en) 2021-09-17 2022-03-09 Vehicle onboard apparatus, image recognition system, support apparatus for vehicle onboard apparatus, image recognition method, and model data transmission method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021151729A JP2023043957A (ja) 2021-09-17 2021-09-17 車載装置、画像認識システム、車載装置用の支援装置、画像認識方法、及び、モデルデータ送信方法

Publications (1)

Publication Number Publication Date
JP2023043957A true JP2023043957A (ja) 2023-03-30

Family

ID=85572959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021151729A Pending JP2023043957A (ja) 2021-09-17 2021-09-17 車載装置、画像認識システム、車載装置用の支援装置、画像認識方法、及び、モデルデータ送信方法

Country Status (2)

Country Link
US (1) US20230086088A1 (ja)
JP (1) JP2023043957A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11532313B2 (en) * 2020-08-27 2022-12-20 Google Llc Selectively storing, with multiple user accounts and/or to a shared assistant device: speech recognition biasing, NLU biasing, and/or other data

Also Published As

Publication number Publication date
US20230086088A1 (en) 2023-03-23

Similar Documents

Publication Publication Date Title
US10349011B2 (en) System and method for improved obstacle awareness in using a V2X communications system
US10229590B2 (en) System and method for improved obstable awareness in using a V2X communications system
US9805605B2 (en) Using autonomous vehicles in a taxi service
US10023231B2 (en) Parking autonomous vehicles
US10613547B2 (en) System and method for improved obstacle awareness in using a V2X communications system
US10422649B2 (en) Autonomous driving sensing system and method
EP2980533B1 (en) Departure/destination location extraction apparatus and departure/destination location extraction method
CN110271556A (zh) 自主车辆的基于云的场景规划的驾驶系统和控制逻辑
CN111301390A (zh) 基于传感器数据更新自动驾驶车辆的地图数据
CN109814543A (zh) 道路廊道
US11550623B2 (en) Distributed system task management using a simulated clock
CN114829224A (zh) 用于感知、预测或规划的地理定位模型
CN109307514A (zh) 经数字电信网测量和报告道路用户分类、位置及运动参数的系统和方法
US11915115B2 (en) Lane selection using machine learning
CN110435667A (zh) 用于控制自主车辆的系统和方法
CN109552212A (zh) 用于自主车辆中的雷达定位的系统和方法
US11694543B2 (en) System and method for data offloading and uploading to exchange data between nodes of a vehicle traffic infrastructure system
CN102243811A (zh) 车辆导航系统及推荐路径检索方法
CN112102647A (zh) 通过车辆微云进行的协作停车位寻找
JP2022041923A (ja) 接続されたデータ分析プラットフォームを用いた車両経路指定
JP2023043957A (ja) 車載装置、画像認識システム、車載装置用の支援装置、画像認識方法、及び、モデルデータ送信方法
US20110032359A1 (en) Server device, mobile terminal, road junction guidance system, and road junction guidance method
CN109501794A (zh) 用于从自主车辆确定车道健康的方法和系统
CN113422797B (zh) 一种用于车联网的更新地图的方法及系统
US20230080281A1 (en) Precautionary observation zone for vehicle routing