JP2023106029A - 車載カメラ装置、車載カメラシステム、および、画像保存方法 - Google Patents

車載カメラ装置、車載カメラシステム、および、画像保存方法 Download PDF

Info

Publication number
JP2023106029A
JP2023106029A JP2022007132A JP2022007132A JP2023106029A JP 2023106029 A JP2023106029 A JP 2023106029A JP 2022007132 A JP2022007132 A JP 2022007132A JP 2022007132 A JP2022007132 A JP 2022007132A JP 2023106029 A JP2023106029 A JP 2023106029A
Authority
JP
Japan
Prior art keywords
vehicle
image
erroneous
vehicle camera
camera device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022007132A
Other languages
English (en)
Inventor
正幸 小林
Masayuki Kobayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2022007132A priority Critical patent/JP2023106029A/ja
Priority to PCT/JP2022/045873 priority patent/WO2023139978A1/ja
Publication of JP2023106029A publication Critical patent/JP2023106029A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】実走行環境下で撮像された画像のなかから、外部環境の誤認識の発生前後の画像を自動的に抽出して保存する車載カメラ装置を提供する。【解決手段】物体を識別する車載カメラ装置であって、自車両の自動制御のフィードバックを受ける制御フィードバック部と、運転者の運転操作情報に基づき誤った自動制御を判定する誤制御判定部と、画像を保存する画像保存部を備え、誤った自動制御と判定された際に画像を保存する車載カメラ装置。【選択図】図3

Description

本発明は、走行中に撮像した画像から、機械学習用の学習データを生成するする車載カメラ装置、車載カメラシステム、および、画像保存方法に関する。
近年、自動運転(AD、Autonomous Driving)システムや、先進運転支援システム(ADAS、Advanced Driver-Assistance Systems)を搭載した車両が普及しつつある。これらのシステムの実現には、車両の外部環境(他車両、歩行者、自転車、静止障害物、および、それらの位置、速度、移動方向など)を正確に認識する必要がある。そのため、車両の搭載されたカメラの出力データを、画像認識処理を行い、車両の外部環境を認識している。前記画像認識処理には機械学習を用いたものもある。
機械学習は、多様な状況下のデータを学習に用いる。機械学習に用いるデータ(以下「学習データ」と呼ぶ)の多様性を高めれば、それらを機械学習したAIネットワークの認識精度を改善することができる。そして、学習データの多様性を高めるための技術として、運転手の手動運転操作に基づき、車載センサの出力データから学習データを取得する、特許文献1の学習データ生成装置が知られている。
特許文献1の要約書には、課題として「手動運転時の運転操作を基づいて、精度の高い自動運転時の運転操作を実現させるための学習データを生成する。」と記載されており、その解決手段として「学習データ生成装置は、各種データを記憶する記憶部と、画像を表示可能な表示部と、車両の走行環境に関する情報を取得する走行環境取得部と、車両の操作に関する入力を取得する操作取得部と、走行環境に関する情報と、操作に関する入力と、を対応付けた学習データを生成する制御部と、を備え、制御部は、走行環境取得部により取得された走行環境に関する情報を表示部に表示させ、その際に操作取得部により取得された操作に関する入力と、表示させた走行環境に関する情報とを対応付けた学習データを生成する。」と記載されている。
特開2020-160513号公報
特許文献1の学習データ生成装置は、要約書の課題欄に「精度の高い自動運転時の運転操作を実現させるための学習データを生成する。」とあるように、精度の高い自動運転の実現を最終目的とするものである。
しかしながら、特許文献1の学習データ生成装置は、同文献の段落0022に「シミュレータシステム(学習データ生成装置)1は、車両が仮想的に構築された走行環境を走行し、走行中の運転手の運転操作を取得するシステムである。」とあるように、仮想的に構築された所与の走行環境下での運転手の手動運転操作を学習データとする装置でしかなく、実走行環境下で発生する様々な状況での取得データを学習データとするものではないため、シミュレータの設計者や運用者が想定しきれない状況を学習することができず、未学習の状況下では自動運転の精度を十分に担保できない可能性があった。
一方、実走行環境下で生成されるセンサ出力を学習データとすることで学習データ量を増やし、AIネットワークに様々な走行環境を機械学習させる学習方法も考えられる。この場合、膨大な学習データを容易に生成できるが、膨大な学習データの保存に膨大な記憶容量が必要となることや、学習データの正解ラベルを与えるアノテーション作業も膨大となること、更に膨大な学習データの大部分がAIネットワークの改善に寄与しない正常認識時の学習データであり、機械学習の大部分が無効な学習となることを考慮すれば、この学習方法も現実的な方法ではなかった。
ここで、実走行環境下で生成した膨大な学習データから、AIネットワークの改善に寄与しない学習データを除外し、改善に寄与する学習データのみを抽出することができれば、AIネットワークの機械学習時の無効な学習を抑制できるが、そのような学習データの抽出方法については、従来具体的な提案がされていなかった。
そこで、本発明は、実走行環境下で撮像された様々な画像の中から、問題のあるAIネットワークの改善に寄与する、外部環境の誤認識の発生前後の画像を自動的に抽出して保存する車載カメラ装置、車載カメラシステム、および、画像保存方法を提供することを目的とする。
上記課題を解決するため、本発明の車載カメラ装置は、自車両の自動制御のフィードバックを受ける制御フィードバック部と、運転者の運転操作情報に基づき誤った自動制御を判定する誤制御判定部と、画像を保存する画像保存部を備え、誤った自動制御と判定された際に画像を保存するものとした。
本発明により、実走行環境下で撮像された様々な画像の中から、問題のあるAIネットワークの改善に寄与する、外部環境の誤認識の発生前後の画像を自動的に抽出して保存することができる。上記した以外の課題、構成および効果は、以下の発明を実施するための形態の説明により明らかにされる。
自車両に搭載した車載カメラ装置の視野画角を説明する俯瞰図。 各視野領域の相関関係を示す図。 一実施例に係る車載カメラシステムの機能ブロック図。 誤識別発生時の自車両の挙動を説明する俯瞰図。 誤識別の前後の画像の保存処理を説明するフローチャート。 誤追跡発生時の車両の挙動を説明する俯瞰図。 図6Aの凡例。 誤追跡の前後の画像の保存処理を説明するフローチャート。 誤識別発生時の自車両の挙動を説明する俯瞰図。 誤識別の前後の画像の保存処理を説明するフローチャート。
以下、図1から図7を参照して、本発明の車載カメラ装置100、および、同装置を備えた車載カメラシステムの実施例を説明する。
本実施例に係る車載カメラ装置100は、運転者の意に反するAD制御やADAS制御の原因となった画像を、運転者の手動運転操作の内容を踏まえて特定して保存するとともに、保存した画像を用いて外部環境認識用のAIネットワークに追加学習させる装置である。また、本実施例に係る車載カメラシステムは、車載カメラ装置100と、該装置の出力に基づいて自車両を制御する車両制御システム200と、を備えたシステムである。以下、各々の詳細を順次説明する。
図1は、自車両に搭載した車載カメラ装置100の視野画角を説明する平面図である。ここに示すように、車載カメラ装置100は、自車両のフロントガラス内面などに前方を向けて取り付けられており、左撮像部1Lと右撮像部1Rを内蔵している。左撮像部1Lは、車載カメラ装置100の左側に配された、左画像Pを撮像するための撮像部であり、その光軸Aは自車両の前方を向き、光軸Aに対して右側により広い右視野Vを有する。また、右撮像部1Rは、車載カメラ装置100の右側に配された、右画像Pを撮像するための撮像部であり、その光軸Aは自車両の前方を向き、光軸Aに対して左側により広い左視野Vを有する。
なお、図示するように、右視野Vと左視野Vは自車両の前方で重複している。以下では、この重複する視野領域を「ステレオ視野領域R」と呼び、右視野Vからステレオ視野領域Rを除いた視野領域を「右単眼視野領域R」と呼び、左視野Vからステレオ視野領域Rを除いた視野領域を「左単眼視野領域R」と呼ぶ。
図2は、上記した各視野領域の相関関係を示す図である。上段は左撮像部1Lが撮像した左画像P、中段は右撮像部1Rが撮像した右画像P、下段は左画像Pと右画像Pを合成した合成画像Pである。合成画像Pは、図示するように、右単眼視野領域Rと、ステレオ視野領域Rと、左単眼視野領域Rに分けられる。
図3は、本実施例に係る車載カメラシステムの機能ブロック図である。ここに示すように、本実施例の車載カメラシステムは、車載カメラ装置100と、車両制御システム200を備えたシステムであり、後述する各センサの出力データを受信するものである。
車載カメラ装置100は、上記した左撮像部1Lと右撮像部1Rに加え、ステレオマッチング部2と、単眼検知部3と、単眼測距部4と、テンプレート作成部5と、画像記憶部6と、類似箇所探索部7と、画角特定部8と、ステレオ検知部9と、速度算出部10と、車両情報入力部11と、ステレオ測距部12と、種別識別部13と、運転者操作入力部14と、識別履歴記憶部15と、追跡履歴記憶部16と、位置履歴記憶部17と、速度履歴記憶部18と、誤識別特定部19と、誤追跡特定部20と、誤制御判定部21と、誤認識画像保存部22と、制御フィードバック部23と、追加学習部24と、を備える。また、車載カメラ装置100は、自車両に搭載される車両速度センサ31と、車両舵角センサ32と、ヨーレートセンサ33と、ステアリングセンサ34と、アクセルペダルセンサ35と、ブレーキペダルセンサ36に接続されており、各センサの出力データを受信する。
なお、車載カメラ装置100の構成のうち、左撮像部1Lと右撮像部1Rを除く構成は、具体的には、演算装置、記憶装置、通信装置などのハードウェアを備えたコンピュータである。そして、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)、CPLD(Complex Programmable Logic Device)等の演算装置が、プログラム記録媒体または車外の配布サーバから取得した所定のプログラムを実行することで、ステレオマッチング部2などの各処理部を実現し、また、半導体メモリ等の記憶装置が、識別履歴記憶部15などの各記憶部を実現するが、以下では、このようなコンピュータ分野の周知技術を適宜省略することとする。
車両制御システム200は、車載カメラ装置100、および、上記各センサと接続されており、車載カメラ装置100の認識結果に応じて、自車両の警報やブレーキやステアリングを、衝突回避や軽減、先行車追従、自車線走行維持などの目的で自動的に制御するシステムである。
<車載カメラ装置100の詳細>
以下、本実施例の車載カメラ装置100の各部詳細を説明する。
左撮像部1Lおよび右撮像部1Rは、光を電気信号に変換する撮像センサ(CMOS(Complementary Metal Oxide Semiconductor)等)を備えた単眼カメラである。各撮像センサで電気信号に変換された情報は、さらに各撮像部内で、撮像画像を表す画像データに変換される。左撮像部1Lおよび右撮像部1Rで撮像した画像は、左画像Pおよび右画像Pとして、所定周期(例えば17ms毎)に、ステレオマッチング部2、単眼検知部3、単眼測距部4、テンプレート作成部5、画像記憶部6、類似箇所探索部7、および、画角特定部8に送信される。
ステレオマッチング部2は、左撮像部1Lおよび右撮像部1Rから画像データを含むデータを受信し、これを処理することにより視差を演算する。視差とは、複数の撮像部の位置の違いから生じる、同一物体の写る画像座標の差である。視差は、近距離のものは大きく、遠距離のものは小さくなり、視差から距離を算出することが可能である。また、ステレオマッチング部2では、左画像Pおよび右画像Pの画像データの歪みを補正する。例えば、中心射影や透視投影モデルと言われる、同一の高さで同一の奥行距離の物体が、画像座標の水平に並ぶように画像データの歪を補正する。なお、水平方向に並ぶように補正するのは、左撮像部1Lと右撮像部1Rが左右方向に並んで配されているためである。補正された左画像Pおよび右画像Pを用いて、これらの一方を基準となる基準画像データとし、他方を比較対象とする比較画像データとして視差を求める。
視差を求める際は、まず前述の基準画像データと、比較画像データの消失点の垂直座標を合わせる。そして、基準画像データの各座標に対して、比較画像データの同一垂直座標のどの水平座標が同一物体を映しているのかを、例えば、SSD(Sum of Squared Difference)や、SAD(Sum of Absolute Difference)などの手法で検査する。ただし、SSDやSADに限定されず、そのほかの手法でもよい、例えばコーナー特徴点抽出を行い、同一特徴点かを検査する、FAST(Features from Accelerated Segment Test)やBRIEF(Binary Robust Independent Elementary Features)などの手法を組み合わせて同一物体のマッチングを行ってもよい。
単眼検知部3は、左画像Pまたは右画像Pに映る特定の立体物を検知する。ここで、特定の立体物とは、適正なAD制御やADAS制御を実現するために検知が必要な物体であり、具体的には、自車両周囲の歩行者、他車両、自転車などである。単眼検知部3での検知は車載カメラから一定の範囲内の立体物を検知対象とする。単眼検知部3による検知結果には、検知物体の写る左画像Pまたは右画像Pの画像座標の情報を含む。例えば、検知物体を囲む長方形の枠(以下、「単眼検知枠」と呼ぶ)の左上と左下の垂直水平の画像座標として、検知結果を保持する。
ステレオ検知部9は、ステレオマッチング部2で作成した視差画から、同一距離で一定のサイズの範囲の箇所を立体物として検知する。ステレオ検知部9による検知結果には、検知物体の視差画座標情報を含む。例えば、検知物体を囲む長方形の枠(以下、「ステレオ検知枠」と呼ぶ)の左上と左下の垂直水平の画像座標として、検知結果を保持する。
種別識別部13は、単眼検知部3やステレオ検知部9で検知した物体の種別を、テンプレート画像やパターンや機械学習の辞書などの識別ネットワークを用いて識別する。種別識別部13で識別した物体の種別が、四輪車、二輪車、歩行者である場合は、それらの移動方向となる物体の前面の向きが、何れの向きなのかも特定し、自車両の前方を横断することが想定される移動体(背景に対して動いている立体物)であるかも識別する。これらの移動体の前面の向きは、車載カメラ装置100に対しての物体の前面の向きである。本実施例では、直交に近い移動方向に限定して動作する。直交に近い移動方向かは、画角と車載カメラ装置100に対する物体の前面の向きにより判断する。例えば、車載カメラ装置100の右側に写る物体の場合、物体の進行する向きの面と側面とが写る。45°の角度の場合は、前面と側面が45°の向きで見える場合に直交に近い移動方向の物体と分かる。種別識別部13は、直交に近い移動方向の物体か否かの判断結果を、速度算出部10に伝達する。
単眼測距部4は、単眼検知部3で検知された特定の物体の位置を特定し、左撮像部1Lまたは右撮像部1Rからの距離と方向を求める。例えば、特定された距離と方向は、自車両前方の奥行距離と横方向の横距離の平面上の位置を特定できる座標系で表す。ただし、カメラからの距離であるユーグリッド距離と方向で表す極座標系で表した情報を保持してもよく、奥行と横の2軸との相互変換は三角関数を用いればよい。また、単眼測距部4は、左画像P、右画像P、および合成画像Pを路面に射影した俯瞰画像を用いて、俯瞰画像の垂直座標と水平座標と、実際の路面に対する俯瞰画像の垂直と水平方向の縮尺から位置を特定する。ただし、位置の特定に俯瞰画像を用いることは必須の構成ではない。カメラの位置と姿勢の外部パラメータと、焦点距離・撮像素子の画素ピッチと光学系の歪の情報を用いて、幾何計算を行うことで特定してもよい。
ステレオ測距部12は、ステレオ検知部9により検知された物体の位置を特定して距離と方向を特定する。例えば、特定された距離と方向は、自車両前方の奥行距離と横方向の横距離の平面上の位置を特定できる座標系で表す。ただし、カメラからの距離であるユーグリッド距離と方向で表す極座標系で表した情報を保持してもよく、奥行と横の2軸との相互変換は三角関数を用いればよい。また、ステレオ測距部12は、物体の視差から奥行方向の距離を算出する。ステレオ測距部12は、算出した物体の視差にばらつきがある場合は、平均や最頻値を用いる。視差のばらつきが大きい際は、特定の外れ値をとる手法を用いてもよい。横距離は、ステレオ検知部9の検知枠の水平画角と奥行距離から、三角関数を用いて求める。
テンプレート作成部5は、撮像画像の1つを選択し、この撮像画像(以下、「検知画像」と呼ぶ)から特定の領域を切り抜いてテンプレート画像とする。具体的にはテンプレート作成部5は、単眼検知部3で検知された物体の単眼検知枠の内部および周辺の画素情報から、類似箇所を探すためのテンプレート画像を作成する。このテンプレート画像は、あらかじめ定められた画像サイズに拡大縮小される。テンプレート画像を拡大縮小する際は、縦横の比率を維持するか、大きく変えないこととする。拡大縮小処理の後に、画素の輝度値自体か、縮小画像内を複数の小領域(以下、「カーネル」とも呼ぶ)に分割し、カーネル内の輝度値の関係を、その画像の特徴として記憶する。画像の特徴は様々な形で抽出され、カーネル内の左右や上下の平均輝度差や、周辺と中央の平均輝度差、輝度の平均や分散など、様々な特徴量が存在するが、本実施の形態ではいずれを用いてもよい。
カメラ画像では物標の周囲には背景が映り込み、画像を切り出しすると背景が混ざる。しかし、背景は時刻により、物標やカメラが動くことで、同じ物標であっても変化する。本発明では同一物体を異なる時刻で探し出したいので、前記特徴量の内、追跡したい物標種別の形状やテクスチャを、カメラ画像を用い機械学習を行い、どこの特徴量をどのような重みで保持して類似箇所を探索すべきか、追跡ネットワークとして記憶しておく。
画像記憶部6は、左画像Pおよび右画像Pを一定時間、または異なる時刻の左画像Pおよび右画像Pが一定枚数蓄積されるまで保持する。この保持にはDRAM(Dynamic Random Access Memory)などの一時記憶装置が用いられる。保持する記憶装置内の番地と範囲は、あらかじめ複数定めておき、撮像画像毎に転送先の番地を順に変えていき、一巡後は古い画像が記憶された領域を上書きしていくとよい。予め番地が定められているため、保持された画像を読み出す際に番地を通知する必要がない。
類似箇所探索部7は、テンプレート作成部5で作成されたテンプレート画像に類似する箇所を、画像記憶部6に格納される画像の中から探し出す。以下では、類似箇所探索部7がテンプレート画像との類似箇所を探索する画像を「探索対象画像」と呼ぶ。探索対象画像は、単眼検知部3で検知された時刻の画像とは異なる画像である。どの時刻の画像を選択するかは、検知された時刻の画像の前後の時刻に撮像された画像を選ぶことを基本とする。類似箇所は検知された時刻の単眼検知枠座標の近くに存在する可能性が高く、またテンプレート画像に対して、検知物体の向きの変化や、露光変化などによる輝度変化も少ないことが期待されるので、高精度な探索が可能である。
前記探索された結果と単眼検知部3の検知結果と、ステレオ検知部9の検知結果と、単眼測距部4の測距結果と、ステレオ測距部12の測距結果から、同じ物標が時刻毎にどの位置に居たのか、物標の追跡を行う。この時刻の異なる画像の中で同一の物標を、ある時刻の画像からテンプレート画像を作り、該ある時刻とは異なる時刻の画像の中で類似箇所を探し出し、追跡する処理を、追跡ネットワークによる画像トラッキング処理と呼ぶ。
ただし、撮像間隔が短い場合は、2つ以上前の時刻の画像を探索対象画像に選択してもよい。また、車速に応じて選択する画像を変えてもよい。例えば、車速が閾値以上の場合は、検知された画像の撮像時刻に対して、近い時刻の古い画像を選び、車速が前述の閾値よりも遅い場合は、前述の近い時刻の古い画像よりも更に古い画像を選んでもよい。車両速度が速い場合は、検知された時刻に対して近い時刻の画像であれば、テンプレート画像に対して大きく見え方が変わらず、探索の精度が確保しやすい。また、車速が遅い場合は、検知された時刻に対して、類似箇所を探す画像での検知物体の位置変化が大きくなり、算出速度の精度を向上できる。
画角特定部8は、類似箇所探索部7が特定した類似箇所に写る特定の物体の、カメラの水平画角を特定する。ただし位置とともに高さも特定する場合は、垂直画像も特定する。また、カメラがロール回転する可能性がある場合も、水平と垂直の両方の画角を特定することで、速度を高精度に算出できる。水平画角は、奥行距離と横距離の比率から三角関数で求めればよい。
速度算出部10は、単眼測距部4またはステレオ測距部12から測距結果を受け取り、画角特定部8から類似箇所の画角を受け取り、車両情報入力部11から車両挙動情報を受け取り、検知された特定の物体の速度を算出する。ただし速度算出部10は、車両情報入力部11から車両速度を受け取る代わりに、算出した相対的な奥行距離の微分値を車両速度として用いてもよい。これは、奥行距離は精度が良く測距でき、横距離は精度が悪く測距される場合に有用である。また奥行速度を車両速度の代わりに用いると、直交しない横断車両との衝突予測も精度よくできる。
車両情報入力部11は、自車両の速度を測定する車両速度センサ31からの自車両速度情報と、操舵輪の舵角を測定する車両舵角センサ32からの自車両舵角情報と、自車両の旋回速度を測定するヨーレートセンサ33からの自車両旋回速度が入力される。なお、車両情報入力部11は、通信ポート(例えばIEEE802.3)に対応する通信モジュールにより実現されてもよいし、電圧や電流を読み込み可能なADコンバータにより実現されてもよい。
運転者操作入力部14は、ステアリングを回した角度情報を取得するステアリングセンサ34と、アクセスペダルの踏込量情報を取得するアクセルペダルセンサ35と、ブレーキペダルの踏込量情報を取得するブレーキペダルセンサ36に接続されており、運転者がステアリング、アクセルペダル、ブレーキペダルをそれぞれ、どの程度操作したか、および、いつ操作したかの情報を受信する。
識別履歴記憶部15は、種別識別部13で識別した立体物(以下、「物標」と呼ぶ)を、物標の識別子と、物標の時刻とともに記憶する。なお、物標の識別子とは、物標毎に付与されるユニークな符号であり、例えば、1台の車両と3人の歩行者を物標として識別した場合であれば、車両A、歩行者A、歩行者B、歩行者C、のような識別子が各物標に付与される。
追跡履歴記憶部16は、テンプレート作成部5と類似箇所探索部7で、テンプレート画像の作成の成功否、各時刻で類似箇所を探索した際のテンプレート画像、類似箇所の探索結果の成功否、類似箇所として検出された画像を、物標の識別子と時刻とともに記憶する。
位置履歴記憶部17は、前記探索された結果と単眼検知部3の検知結果と、ステレオ検知部9の検知結果と、単眼測距部4の測距結果と、ステレオ測距部12の測距結果から、同じ物標が時刻毎にどの位置に居たのか、物標の識別子と時刻とともに記憶する。
速度履歴記憶部18は、速度算出部10で算出された速度を、物標の識別子と時刻とともに記憶する。
制御フィードバック部23は、車両制御システム200に接続され、車両制御システム200が制御した車両制御内容と時刻と対象物標識別子、制御判断理由、制御の取りやめ内容、制御取りやめ理由などの制御フィードバック情報を入力する。
誤制御判定部21は、制御フィードバック部23から自車両の制御フィードバック情報を受信し、運転者操作入力部14から運転者操作情報を受信する。また、車両制御システム200が車載カメラ装置100の出力の物標情報をもとに車両制御を行い、警報や自動ブレーキを開始した後に、運転者操作により該制御を取りやめたかを判断する。そして、そのような運転操作があった場合に、誤制御判定部21は、車両制御システム200による誤制御があったと判定する。なお、誤制御判定部21の詳細は後述する。
誤識別特定部19は、誤制御判定部21によって誤制御と判断された後に、誤制御の対象だった物標の識別結果の内、誤識別の事例を特定する。なお、誤識別特定部19の詳細は後述する。
誤追跡特定部20は、誤制御判定部21によって誤制御と判断された後に、誤制御の対象だった物標の追跡結果の内、誤追跡の事例を特定する。なお、誤追跡特定部20の詳細は後述する。
誤認識画像保存部22は、誤識別特定部19や誤追跡特定部20で特定された誤識別や誤追跡の前後の画像を抽出して記憶する。
追加学習部24は、誤認識画像保存部22に記憶された、誤識別や誤追跡の前後の画像を用いて、外部環境を認識するためのAIネットワークを追加学習する。
以下、上記した構成の車載カメラ装置100による、学習データの生成処理と、生成した学習データを用いた追加学習処理を、具体的な状況を例示しながら説明する。
<誤認識の一態様である、誤識別の発生状況の一例>
図4は、車載カメラ装置100の種別識別部13で、識別ネットワーク等を利用して外部環境を認識した結果、誤識別が発生した状況の一例を示す俯瞰図である。なお、ここでは、外部環境のサンプリング周期を200msとしているが、サンプリング周期はこの例に限定されるものではない。
図4(a)は、後述する時刻Tより200ms前の時刻T-1における、自車両の外部環境を例示する俯瞰図である。この時点では、自車両は直線道路を等速走行しており、自車両に取り付けた車載カメラ装置100は、自車両の前方に立体物を検知していない。
図4(b)は、自動制御(自動減速)を開始した時刻Tにおける、自車両の外部環境を例示する俯瞰図である。この時点で、車載カメラ装置100は、やや問題ある識別ネットワーク等を利用して撮像画像を処理した結果、実在しない歩行者を誤検知している。そのため、車載カメラ装置100の検知結果を受信した車両制御システム200は、実在しない歩行者との接触を防ぐため、自車両の制動系を制御し、自車両を急減速させる。なお、実在しない歩行者を誤検知する状況は、例えば、排気ガス塊を歩行者と誤識別するような状況である。
図4(c)は、時刻Tから200msを経過した時刻Tにおける、自車両の外部環境を例示する俯瞰図である。この時点で、運転者は、自車両を制動する理由がないのに自動減速が開始されたことから、車載カメラ装置100で何らかの異常(誤識別)が発生したことに気付く。
図4(d)は、時刻Tから400msを経過した時刻Tにおける、自車両の外部環境を例示する俯瞰図である。この時点で、前方の安全(前方車両の不在や、周囲歩行者の不在など)を確認した運転者は、減速された速度を減速前の速度に復帰させるべくアクセルペダルを踏み込み、自車両を加速させる。
図4(e)は、時刻Tから600msを経過した時刻Tにおける、自車両の外部環境を例示する俯瞰図である。この時点で、自車両は、時刻Tの時点で誤識別した歩行者の領域に侵入しているが、そこには実際には歩行者が存在しないため、自車両はその領域を無事に通過することができる。
以上から明らかなように、車載カメラ装置100の識別結果に基づいて車両制御システム200が自動制御を開始した直後に、運転者がその自動制御に反する手動運転操作を実施し、かつ、識別した立体物との接触が発生しなかった場合は、車載カメラ装置100で誤識別が発生したと判定することができる。本発明の装置は、誤識別と判断された、時刻Tの時点で誤識別した歩行者物標の画像を記憶・追加学習する。
<誤識別の画像の保存方法と、保存画像を利用した追加学習方法>
図5は、図4で説明した機序を応用したフローチャートであり、車載カメラ装置100で誤識別が発生した時刻の画像を保存し、更に、保存した画像に基づいて識別ネットワーク等を追加学習する方法を示すものである。以下、各ステップを順次説明する。
まず、ステップS1では、誤制御判定部21は、制御フィードバック部23が入手した車両制御システム200からのデータに基づいて、衝突防止の自動制御が動作したか否かを判定する。衝突防止の自動制御とは、例えば、衝突回避や軽減の自動ブレーキや、衝突警報を鳴らす制御や、障害物を回避するステアリング制御等である。そして、車載カメラ装置100の出力に基づく自動制御が動作した場合は、ステップS2に進み、動作していない場合は、一定時間後にステップS1を再度実行する。
次に、ステップS2では、誤制御判定部21は、運転者操作入力部14が入手したステアリングセンサ34やアクセルペダル35などからのデータに基づいて、自動制御に反する手動の運転操作がなされたか否かを判定する。図4で例示したように、検知した立体物との接触防止の自動制御が発動された後に、運転手が自動制御に反する手動操作を実施した場合、運転手は安全を確認したうえで、その手動操作を行っていると考えられるため、車両制御システム200による衝突回避の自動制御は誤りであったと判定することができる。そこで、本ステップでは、自動制御に反する手動操作が実施された場合はステップS3に進み、自動制御に反する手動操作が実施されなかった場合はステップS1に戻る。
本ステップで、走行制御システム200の判断が誤りであったと判定される状況を、具体例を挙げて説明する。
<<誤制御の第一例>>
車両制御システム200が物標との衝突を判断し、前記衝突点手前で停車を目標とする自動ブレーキを開始した状況を想定する。この場合、自動ブレーキが開始された後で且つ停車する前に、運転手がやや強い(具体的には、所定の閾値Th1と閾値Th2(Th1<Th2)の間の)踏込量でアクセルペダルを踏むと、自動ブレーキの解除を意図した操作として操作を受付け、自動ブレーキ制御を解除する。その結果、図4(e)の例のように、加速しながら前記衝突点前を通過することになる。このように、車両制御システム200が衝突点前で止まるように自動ブレーキを開始した後に、運転手のアクセルペダル操作で衝突点を通過した場合は、自動制御に反する運転操作が実施されたと判断してステップS3に進む。
なお、この例では、アクセスペダルの踏込量が上記の所定範囲内にある場合のみ、その操作を停車制御解除の操作として受け付けたが、これは次の理由による。すなわち、運転者が閾値Th2を超えてアクセルペダルを強く踏み込んだ場合は、アクセスペダルをブレーキペダルと誤解して強く踏み込んでいる可能性があり、これを停車制御解除の操作として受け付けるのは不適切と考えられるからである。また、運転者が閾値Th1に達しない弱さでアクセルペダルを踏み続けていた場合は、衝突可能性に気付いていない可能性があり、これを停車制御解除の操作として受け付けるのは不適切と考えられるからである。そのため、閾値Th1と閾値Th2の間の踏込量の場合のみに、自動ブレーキの解除を行い、誤制御として扱うこととしている。
<<誤制御の第二例>>
車両制御システム200が物標との衝突を判断し、前記衝突点手前で停車を目標とする自動ブレーキを開始した状況を想定する。この場合、自動ブレーキにより停車した後、あらかじめ定められた時間以内に、運転手がアクセルペダルを踏み再発進を行い、前記衝突点前を通過する。前記時間は例えば0.5秒間等、障害物が衝突点に存在した場合に障害物が退避する時間よりも十分短い時間である。前記障害物が退避する時間は、該障害物の横断速度から考え、衝突点が自車両の左右中央であれば、車幅分だけ該横断速度で移動する時間である。
物標が歩行者等の非車両の場合は、自車両との衝突の可能性のある状況で驚き立ち止まる可能性があるので、前記移動する時間に数秒の立ち止まる時間を加味してもよい。前記のように、車両制御システム200が衝突点前に停車した後に、運転手のアクセルペダル操作前記短時間で再発進し衝突点を通過した場合は、自動制御に反する運転操作が実施されたと判断してステップS3に進む。
<<誤制御の第三例>>
車両制御システム200が物標との衝突を判断したが、物標との距離が近く、速やかに自動ブレーキを開始しても、衝突点手前で停車できない場合、車両制御システム200は衝突軽減をするために自動ブレーキを行う。前記自動ブレーキを開始後に、運転手がアクセルペダルを閾値Th1と閾値Th2の間の踏込量でアクセルペダルを踏むと、車両制御システム200は運転手が自動ブレーキの解除を意図したとして自動ブレーキ制御を解除する。前記衝突点手前で停車できない状況下で、運転手がアクセルペダル操作をして、自動ブレーキを解除した場合は、自動制御に反する運転操作が実施されたと判断し、ステップS3に進む。
<<誤制御の第四例>>
車両制御システム200が物標との衝突を判断して、物標を回避するために、該物標の右か左に自車両を廻り込ませる自動ステアリング操作をして、衝突回避動作を制御する場合もある。この場合、運転手が前記自動ステアリング操作に対して、妨げるようなステアリング操作をした場合も、自動制御に反する運転操作が実施されたと判断し、ステップS3に進む。前記のステアリング操作は、例えば、車両制御システム200が前記自動ステアリング操作で、ステアリングを45°右回しを目標として制御したのに対して、運転手が左回し方向の力をかけて、45°よりも十分小さい、例えば22°程度までしか回らない状態にした場合などである。
ステップS3では、誤制御判定部21は、車両速度センサ31、車両舵角センサ32、ヨーレートセンサ33の出力等に基づいて、自動制御以後の走行軌跡(自車両の位置の軌跡)を算出し、運転操作とともに記憶する。具体的には、運転手の運転操作の結果として、アクセルペダル操作、ブレーキペダル操作、ステアリング操作、車両速度、車両舵角、車両ヨーレートの情報を各種センサから取得し、続くステップS4の判断に必要な走行軌跡を算出して推測する。
ステップS4では、誤識別特定部19は、自動制御開始時点の識別結果が正しかったと仮定した場合に、識別した物標との衝突を回避できる走行軌跡を手動運転操作で走行したかを判断することで、誤識別の発生を特定する。具体的には、識別履歴記憶部15と位置履歴記憶部17で記憶している識別履歴と位置履歴に対して、ステップS3で推測した自車両の軌跡を照らし合わせ、前記識別履歴が歩行者や自転車や車両等の衝突回避を、車両制御システム200で設定された識別結果の履歴上の位置全てに対して、衝突回避不可な走行であったか否かを判断し、衝突回避不可だと判断された前記履歴上の位置と時刻と物標の識別子を記憶する。そして、1ヶ所でも衝突回避不可の走行軌跡と判断される履歴位置があった場合は、運転者はその位置を安全に通過できると判定したうえでその走行軌跡を選択した(すなわち、車両制御システム200に本来不要な自動制御を発動させた誤識別があった)と判定し、ステップS5に進む。一方、そうでなかった場合は、車両制御システム200による自動制御は必要であった(すなわち、車両制御システム200に自動制御を発動させた識別は適切であった)と判定し、ステップS1に戻る。
ステップS5では、誤識別特定部19は、誤識別の画像を、画像記憶部6から一時記憶された画像を読み取って誤認識画像保存部22に保存する。具体的には、前記記憶した履歴上の位置と時刻と物標の識別子に該当する識別画像をメモリに保存し記憶する。これにより、誤認識画像保存部22に保存する画像を、例えば、多くとも誤識別発生の数枚程度(数百KB程度のデータ量)に抑制できるため、走行中に撮像した全ての画像を学習データとして保存する場合に比べ、誤認識画像保存部22の記憶容量を大幅に削減することができる。
ステップS6では、追加学習部24は、ステップS5で誤認識画像保存部22に保存された、誤識別の画像を学習データとして、識別ネットワーク等の追加機械学習を実施する。これにより、追加機械学習の頻度を抑制して演算負荷を軽減しつつ、追加機械学習により識別ネットワーク等の品質向上を図ることができる。本ステップでの追加学習の際には、誤認識画像保存部22に保存された識別画像をそのまま学習データとして用いて追加学習させても良いし、保存された識別画像を加工した学習データ(例えば、識別画像を拡大または縮小した学習データ、あるいは、識別画像を回転させた学習データ)を学習データとして用いて追加学習させても良い。これにより、誤識別した際の座標と完全一致した画像以外の状況も学習することができ、検知枠のブレが生じてもロバストに誤識別を抑制することができる。
なお、ステップS5で識別画像を保存する際には、誤識別の態様を特定するラベルを、識別画像とともに保存することが望ましい。本実施例の車両制御システム200は、検知した物標の種別(他車両、歩行者、自転車など)に応じて、車両制御を実行するか否かの判断を変えるように設計されているため、物標種別の判断を間違ったことが誤制御要因の候補として考えられる。そこで、識別画像に付されるラベルには、誤識別した識別ネットワークを特定する識別子と、その識別ネットワークが誤識別した物標の種別を記録しておく。
誤識別した識別ネットワークに識別が誤りであったことを学習させるためには、学習データ(画像)とともに、物標をどのように誤識別したかの種別クラス情報も必要である。そのため、ステップS5でラベルに種別クラス情報を保存しておくことで、ステップS6では、誤識別発生時の画像を用いて、ラベルが特定する問題のある識別ネットワーク等に対してピンポイントで追加の機械学習を実施させることができ、問題のある識別ネットワーク等の改善を図ることができる。また、問題のない識別ネットワーク等を追加学習の対象から除外できるため、正常な識別ネットワーク等の誤学習の発生や、正常な識別ネットワーク等にも不要な追加学習させることによる演算負荷の増大などの弊害を回避することができる。
<誤認識の一態様である、誤追跡の発生状況の一例>
図6Aは、車載カメラ装置100の類似箇所探索部7で、何らかの問題があるテンプレート画像や追跡ネットワーク等を利用して外部環境を認識した結果、誤追跡が発生した状況の一例を示す俯瞰図であり、図6Bは、図6Aの凡例である。なお、図示する俯瞰図は、例えば、撮像した左画像Pと右画像Pに対し、所定のアフィンテーブルを用いてアフィン変換した射影画像の経時変化と、自車両位置の経時変化を考慮して作成したものであるが、このような手法による自車両周囲の俯瞰図作成方法は周知技術であるため、その詳細については説明を省略する。
図6A(a)~(c)はそれぞれ、後述する時刻Tより600ms、400ms、200ms前の時刻T-3、T-2、T-1における、自車両の外部環境を例示する俯瞰図である。これらの時点では、自車両は直線道路を等速走行しており、車載カメラ装置100は、右歩道を歩く歩行者の移動を、追跡ネットワーク等を利用して追跡している。時刻T-3~T-1の期間は、車両制御システム200は、自車両が歩行者と接触しないと判断しているため、これらの時点では、歩行者との接触を回避するための自動制御を実施していない。
図6A(d)は、自動制御(自動減速)を開始した時刻Tにおける、自車両の外部環境を例示する俯瞰図である。この時点で、車載カメラ装置100は、やや問題あるテンプレート画像や追跡ネットワーク等を利用して撮像画像を処理した結果、実際には歩道上にいる歩行者が、車道に飛び出して来たと誤追跡している。そのため、車載カメラ装置100の追跡結果を受信した車両制御システム200は、実在しない路上の歩行者との接触を防ぐため、自車両の制動系を制御し、自車両を急減速させる。なお、実在しない路上の歩行者を誤検知する状況は、例えば、歩行者の進路方向に存在する昇り旗や草木が突風等で揺らぎ、その揺らぎが路上に飛び出した歩行者と誤認されたような状況である。
ここで、図6Bを用いて、車載カメラ装置100が検知した物標(歩行者)の位置の推移と、検知した物標(歩行者)との接触回避制御の開始判定方法を説明する。同図において、OB-3、OB-2、OB-1、OBはそれぞれ、時刻T-3、T-2、T-1、Tに検知した物標(歩行者)の位置を示す。なお、位置OBは誤検知されたものである。また、v-1、v、vはそれぞれ、時刻T-3~T-2、時刻T-2~T-1、時刻T-1~Tの期間の物標(歩行者)の移動ベクトルであり、車載カメラ装置100で算出された物標(歩行者)の速度ベクトルを各期間の移動量に換算したものである。E、Eは自車進行範囲の左右端であり、自車両の舵角やヨーレートや速度に基づき、自車両が進行すると予測される範囲の左右端を示す。
本実施例の車両制御システム200は、移動する物標が自車進行範囲を含む所定の接触判定範囲に侵入した場合に、その物標との接触の可能性があると判断し、物標との接触を回避するための制動や操舵などの自動制御を発動する。従って、図6Bでは、接触判定範囲内の物標の位置OBを検知した時刻Tの時点で、車両制御システム200は、例えば、自車両を急減速させる自動制御を発動する。なお、上記の自車進行範囲の長さは、自車両が所定期間内(例えば、5秒以内)に走行すると予測される範囲に限定され、仮に物標が存在しても直ちに接触回避制御を実施する必要がないような遠方は、その時点では自車進行範囲に含める必要が無い。また、上記の接触判定範囲の幅は、GNSS(Global Navigation Satellite System)等から知得した走行中道路の種別情報に応じて変化させても良く、例えば、側方からの物標(歩行者や他車両など)の接近の可能性が低い高速道路等では狭く、側方からの物標の接近の可能性が高い一般道路では広くしても良い。
図6A(e)は、時刻Tから200msを経過した時刻Tにおける、自車両の外部環境を例示する俯瞰図である。この時点で、運転者は、自車両を制動する理由がないのに自動減速が開始されたことから、車載カメラ装置100で何らかの異常(誤追跡)が発生したことに気付く。そのため、前方の安全(前方車両の不在や、周囲歩行者の不在など)を確認できれば、運転者は、減速された速度を減速前の速度に復帰させるべくアクセルペダルを踏み、自車両を加速させる。その結果、自車両は、誤検知した歩行者の領域に接近するが、その領域には実際には歩行者が存在しないため(実際の歩行者は右歩道上にいるため)、自車両はその領域を無事に通過することができる。
以上から明らかなように、車載カメラ装置100の追跡結果に基づいて車両制御システム200が自動制御を開始した直後に、運転者がその自動制御に反する手動運転操作を実施し、かつ、追跡した立体物への接触が発生しなかった場合は、車載カメラ装置100で誤追跡が発生したと判定することができる。
<誤識別の発生前後の画像の保存方法と、保存画像を利用した追加学習方法>
図7は、図6Aで説明した機序を応用したフローチャートであり、車載カメラ装置100で誤追跡が発生した時刻の前後の画像を保存し、更に、保存した画像に基づいてテンプレート画像や追跡ネットワーク等を追加学習する方法を示すものである。以下、各ステップを順次説明する。なお、図5と図7の処理は並列して実施することができ、また、以下においては、図5のフローチャートとの共通点については、必要に応じて重複説明を省略する。
まず、ステップS1では、誤制御判定部21は、制御フィードバック部23が入手した車両制御システム200からのデータに基づいて、衝突防止の自動制御が動作したか否かを判定する。
次に、ステップS2では、誤制御判定部21は、運転者操作入力部14が入手したステアリングセンサ34やアクセルペダル35などからのデータに基づいて、自動制御に反する手動の運転操作がなされたか否かを判定する。図6Aで説明したように、追跡中の物標との接触防止の自動制御が発動された後に、運転手が自動制御に反する手動操作を実施した場合、運転手は安全を確認したうえで、その操作を行っていると考えられるため、車両制御システム200による接触防止の自動制御は誤りであったと判定することができる。
ステップS3では、誤制御判定部21は、車両速度センサ31、車両舵角センサ32、ヨーレートセンサ33の出力等に基づいて、自動制御以後の走行軌跡(自車両の位置の軌跡)を算出し、運転操作とともに記憶する。
ステップS4aでは、誤追跡特定部20は、自動制御開始時点の追跡結果が正しかったと仮定した場合に、追跡した物標との接触を回避できる走行軌跡を手動運転操作で走行したかを判断することで、誤追跡の発生を特定する。
ステップS5aでは、誤追跡特定部20は、誤追跡の発生前後の画像(例えば、自動制御開始時刻の前後1秒間の画像)を、画像記憶部6から読み取って誤認識画像保存部22に保存する。
ステップS6aでは、追加学習部24は、ステップS5aで誤認識画像保存部22に保存された、誤追跡の発生前後の画像を学習データとして、テンプレート画像や追跡ネットワーク等の追加機械学習を実施する。これにより、追加機械学習の頻度を抑制して演算負荷を軽減しつつ、追加機械学習によりテンプレート画像や追跡ネットワーク等の品質向上を図ることができる。
図7のステップS5aにおいても、図5のステップS5に倣い、誤追跡の態様を特定するラベルを、識別画像とともに保存することが望ましい。これにより、図5で説明したと同様の作用により、改善の必要なテンプレート画像や追跡ネットワーク等に対してのみ、ステップS6aでの追加学習を実行できるので、図5と同様の種々効果を得ることができる。
なお、ステップS4aで誤追跡発生と特定された箇所の近くには、テンプレートと同一の物体や、前記誤追跡箇所の前の画像に映る同一の物体が存在している可能性があるので、誤追跡箇所の前と後の画像は、追跡して検知枠をつけた領域を広げて画像を記憶することで、前記同一の物体の写る箇所も含めた画像を記憶でき、追加学習の際に正しく追跡すべき箇所を適切に追加学習することができる。
図8は時刻Tで識別され自車の制御が発動された物標について、歩行者が移動することも加味した、誤識別発生時の自車両の挙動と誤制御・誤識別と判定する方法を説明する俯瞰図である。図8(c)の歩行者予測範囲は、図8(b)で歩行者を識別してからの経過時間に、歩行者の移動速度を掛け合わせ、歩行者の存在しうる予測範囲を示すものである。前記歩行者の移動速度は、歩行者らしい速度を予め設定した速度で、平均的な歩行速度を想定すればよく、例えば時速5kmと設定すると良い。図8の凡例の歩行者存在半径は、歩行者予測範囲の半径を示すもので、歩行者を識別してからの経過時間Tと前記歩行者の移動速度Vを掛け合わせた長さLである。
図8の例では、時刻Tで識別された物標は時刻Tで、歩行者存在予測範囲を自車が覆っているので、時刻Tで識別された物標は誤識別であったと判断される。本発明では自動制御がなされた際の衝突判定された各時刻の検知・識別物標に対して、前記歩行者予測範囲と自車範囲の重複度により誤識別した時刻の物標を特定する。
図9は歩行者が移動することも加味した、誤識別の前後の画像の保存処理を説明するフローチャートである。なお、図5との共通点は重複説明を省略している。図9のステップS7は、ステップS3の次に実施される処理であり、自動制御以後の歩行者の予測範囲を推定する処理である。前記歩行者存在半径を、歩行者識別してからの経過時間Tと前記歩行者の移動速度Vから求めて、前記歩行者存在範囲を特定する。
その後のステップS4bは、識別物標を避ける手動操作か判断する処理で、ステップS3で検証した走行軌跡と、ステップS7で推定した歩行者予測範囲から、識別物標を避ける手動操作がなされたか判定する。自車の走行軌跡で車両が歩行者予測範囲を覆った場合、その歩行者の識別物標を避ける手動操作はなされなかったと判断する。
このように、歩行者の移動を加味することで、誤識別の判定を歩行者移動により誤るリスクを低減し、誤識別箇所の追加学習の効果を高めることができる。
<本実施例の効果>
以上で説明した本実施例によれば、実走行環境下で撮像された様々な画像のなかから、問題のあるAIネットワークの改善に寄与する、外部環境の誤認識の発生前後の画像を自動的に抽出して保存することができる。これにより、本実施例の車載カメラ装置は、外部と連携することなく、自動的に抽出して保存した画像を学習データとすることで、問題のあるAIネットワークに追加学習を実行させ、そのAIネットワークの品質を改善することができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、半導体メモリカード等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
上述した各実施の形態および変形例において、機能ブロックの構成は一例に過ぎない。別々の機能ブロックとして示したいくつかの機能構成を一体に構成してもよいし、1つの機能ブロック図で表した構成を2以上の機能に分割してもよい。また各機能ブロックが有する機能の一部を他の機能ブロックが備える構成としてもよい。
上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
100…車載カメラ装置
1L…左撮像部
1R…右撮像部
2…ステレオマッチング部
3…単眼検知部
4…単眼測距部
5…テンプレート作成部
6…画像記憶部
7…類似箇所探索部
8…画角特定部
9…ステレオ検知部
10…速度算出部
11…車両情報入力部
12…ステレオ測距部
13…種別識別部
14…運転者操作入力部
15…識別履歴記憶部
16…追跡履歴記憶部
17…位置履歴記憶部
18…速度履歴記憶部
19…誤識別特定部
20…誤追跡特定部
21…誤制御特定部
22…誤認識画像保存部
23…制御フィードバック部
24…追加学習部
200…車両制御システム

Claims (11)

  1. 物体を識別する車載カメラ装置であって、
    自車両の自動制御のフィードバックを受ける制御フィードバック部と、
    運転者の運転操作情報に基づき誤った自動制御を判定する誤制御判定部と、
    画像を保存する画像保存部を備え、
    誤った自動制御と判定された際に画像を保存することを特徴とする車載カメラ装置。
  2. 請求項1に記載の車載カメラ装置において、
    さらに、前記誤った自動制御が物体の種別の識別を誤った誤識別に起因することを特定する誤識別特定部を備え、
    誤った自動制御後に自車両が走行する領域に位置する物体の画像を保存することを特徴とする車載カメラ装置。
  3. 請求項2に記載の車載カメラ装置において、
    前記画像に誤識別を示すラベルを付けて保存することを特徴とする車載カメラ装置。
  4. 請求項2に記載の車載カメラ装置において、
    識別ネットワークが識別した種別を誤識別画像とともに記憶する車載カメラ装置。
  5. 請求項2に記載の車載カメラ装置において、
    歩行者予測範囲が自車進行軌跡の車両に覆われた識別物標を誤識別画像として記憶する車載カメラ装置。
  6. 請求項1に記載の車載カメラ装置において、
    さらに、前記誤った自動制御が物体の追跡を誤った誤追跡に起因することを特定する誤追跡特定部を備え、
    誤った自動制御後に自車両が走行する領域に位置する物体の画像を保存することを特徴とする車載カメラ装置。
  7. 請求項6に記載の車載カメラ装置において、
    前記画像に誤追跡を示すラベルを付けて保存することを特徴とする車載カメラ装置。
  8. 請求項6に記載の車載カメラ装置において、
    さらに、物体を追跡する際に利用するテンプレート画像を作成するテンプレート作成部を備え、
    誤追跡と判定した物体軌跡の画像と、該物体軌跡の追跡に用いたテンプレート画像の双方を保存することを特徴とする車載カメラ装置。
  9. 請求項1に記載の車載カメラ装置において、
    自車両の外部環境を認識するネットワークを複数有しており、
    前記画像保存部に保存した画像には、何れのネットワークの機械学習で用いる画像であるかを示すラベルが付されていることを特徴とする車載カメラ装置。
  10. 請求項1に記載の車載カメラ装置と、
    前記自車両のブレーキを制御する車両制御システムと、
    を有する車載カメラシステムであって、
    前記車両制御システムは、前記車載カメラシステムの出力に基づいてブレーキを制御することを特徴とする車載カメラシステム。
  11. 物体を識別するネットワークの学習に利用する画像を保存する画像保存方法であって、
    自車両の自動制御のフィードバックを受ける制御フィードバック処理と、
    運転者の運転操作情報に基づき誤った自動制御を判定する誤制御判定処理と、
    誤った自動制御と判定された際に画像を保存する画像保存処理を備えることを特徴とする画像保存方法。
JP2022007132A 2022-01-20 2022-01-20 車載カメラ装置、車載カメラシステム、および、画像保存方法 Pending JP2023106029A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022007132A JP2023106029A (ja) 2022-01-20 2022-01-20 車載カメラ装置、車載カメラシステム、および、画像保存方法
PCT/JP2022/045873 WO2023139978A1 (ja) 2022-01-20 2022-12-13 車載カメラ装置、車載カメラシステム、および、画像保存方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022007132A JP2023106029A (ja) 2022-01-20 2022-01-20 車載カメラ装置、車載カメラシステム、および、画像保存方法

Publications (1)

Publication Number Publication Date
JP2023106029A true JP2023106029A (ja) 2023-08-01

Family

ID=87348154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022007132A Pending JP2023106029A (ja) 2022-01-20 2022-01-20 車載カメラ装置、車載カメラシステム、および、画像保存方法

Country Status (2)

Country Link
JP (1) JP2023106029A (ja)
WO (1) WO2023139978A1 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6417962B2 (ja) * 2015-01-23 2018-11-07 沖電気工業株式会社 情報処理装置、情報処理方法及び記憶媒体
JP6269566B2 (ja) * 2015-05-08 2018-01-31 トヨタ自動車株式会社 誤認識判定装置
JP6380422B2 (ja) * 2016-02-05 2018-08-29 トヨタ自動車株式会社 自動運転システム
JP2019096137A (ja) * 2017-11-24 2019-06-20 トヨタ自動車株式会社 信号機認識装置
JP6986685B2 (ja) * 2018-03-12 2021-12-22 パナソニックIpマネジメント株式会社 情報処理装置

Also Published As

Publication number Publication date
WO2023139978A1 (ja) 2023-07-27

Similar Documents

Publication Publication Date Title
US10274598B2 (en) Navigation based on radar-cued visual imaging
US10627228B2 (en) Object detection device
US11620837B2 (en) Systems and methods for augmenting upright object detection
JP5938569B2 (ja) 方位情報を考慮する高度運転者支援システム、及びその動作方法
Barth et al. Estimating the driving state of oncoming vehicles from a moving platform using stereo vision
US20150298621A1 (en) Object detection apparatus and driving assistance apparatus
CN105128836A (zh) 自主紧急制动系统及其中识别行人的方法
JP4755227B2 (ja) 物体を認識するための方法
JP2008123462A (ja) 物体検知装置
CN112154455A (zh) 数据处理方法、设备和可移动平台
US10996317B2 (en) Object detection apparatus and object detection method
JP7340097B2 (ja) 衝突認識手段を用いた動力車両の周辺領域内にある離れたターゲット車両を追跡するための方法
WO2019065970A1 (ja) 車両用外界認識装置
KR20230031344A (ko) 자동차를 둘러싼 영역 내 장애물을 검출하기 위한 시스템 및 방법
JP2011191894A (ja) 運転支援装置及びプログラム
CN109195849B (zh) 摄像装置
JP2010072947A (ja) 障害物検出装置
JP2006004188A (ja) 障害物認識方法及び障害物認識装置
JPWO2017216856A1 (ja) 車間距離推定方法及び車間距離推定装置
WO2023139978A1 (ja) 車載カメラ装置、車載カメラシステム、および、画像保存方法
CN116242375A (zh) 一种基于多传感器的高精度电子地图生成方法和系统
US20220234581A1 (en) Vehicle control method, vehicle control device, and vehicle control system including same
JP2003121543A (ja) 車両用走行車線判断装置
CN113591673A (zh) 用于识别交通标志的方法和设备
JP2019172032A (ja) 自動制動装置