JP2016001463A - 処理装置、処理システム、処理プログラム及び処理方法 - Google Patents

処理装置、処理システム、処理プログラム及び処理方法 Download PDF

Info

Publication number
JP2016001463A
JP2016001463A JP2015081172A JP2015081172A JP2016001463A JP 2016001463 A JP2016001463 A JP 2016001463A JP 2015081172 A JP2015081172 A JP 2015081172A JP 2015081172 A JP2015081172 A JP 2015081172A JP 2016001463 A JP2016001463 A JP 2016001463A
Authority
JP
Japan
Prior art keywords
recognition
unit
moving
distance image
situation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015081172A
Other languages
English (en)
Other versions
JP6648411B2 (ja
Inventor
横田 聡一郎
Soichiro Yokota
聡一郎 横田
ルゥ ヤオジエ
Yaojie Ruu
ルゥ ヤオジエ
ジェ ルェン
Jie Ren
ジェ ルェン
高橋 禎郎
Sadao Takahashi
禎郎 高橋
智子 石垣
Tomoko Ishigaki
智子 石垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2015081172A priority Critical patent/JP6648411B2/ja
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US15/311,946 priority patent/US10402664B2/en
Priority to AU2015262344A priority patent/AU2015262344B2/en
Priority to CA2949200A priority patent/CA2949200C/en
Priority to PCT/JP2015/064840 priority patent/WO2015178497A1/en
Priority to EP15796960.1A priority patent/EP3146518A4/en
Priority to CN201580025868.XA priority patent/CN106463060B/zh
Publication of JP2016001463A publication Critical patent/JP2016001463A/ja
Application granted granted Critical
Publication of JP6648411B2 publication Critical patent/JP6648411B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】移動体の認識精度の向上を図る。
【解決手段】認識対象となっている移動体が、現在どのようなシーン状況下にあるか、既検出された移動体があるか、それらが現在のシーン状況下でどのような状態にあるか、等を背景モデル(静止物モデル)、道路状況モデル、および移動体の認識履歴を利用して認識する。そして、認識した状況に合った認識手法で移動体の認識を行う。これにより、一部が隠蔽された移動体、および微妙な輝度変化によりフレーム毎に検出および非検出となる移動体でも、継続して認識して動きに追従することができる。また、道路のカーブなどを走行することで、認識対象となっている移動体の形状または姿勢が変わった場合でも、動きに追従して安定的に移動体を検出できる。従って、移動体の認識精度の向上を図ることができる。
【選択図】図13

Description

本発明は、処理装置、処理システム、処理プログラム及び処理方法に関する。
近年において、自車両の前方の走行車両、又は歩行者等の移動物体の速度と移動状態の変化とを認識し、前方車両の急ブレーキ、自車両と前方車両との間への別の車両の割り込み、歩行者の飛び出し等の危険な状態を早期発見し、ドライバーに警告、危険を予防する移動物体認識装置が開発されている。
例えば、前方の移動物体を認識するのに、2次元画像の画像フレーム間におけるオブジェクトのサイズの変化とカメラの焦点距離とにより、前方のオブジェクトに対する距離の変化を求める方法がある。しかし、この方法によるオブジェクトの距離の測定精度、例えば、移動物体の移動変化の検出精度は低いという問題がある。
そこで、特許文献1(特開2000−266539号公報)において、ステレオカメラ装置により得られたステレオ画像から視差を計算して視差画像(距離画像ともいう)を得る車間距離計測装置が提案されている。なお、視差画像とは視差を明るさに変換することにより得られる画像をいう。
この特許文献1に開示されている車間距離計測装置は、視差画像から前方の車両を検知し、検知した車両のエッジの移動ベクトルの大きさ及び方向により、車間距離と距離の変化とを計測している。
しかし、特許文献1に開示されている車間距離計測装置は、ステレオカメラ装置で得られた視差画像から直接的に移動物体を認識しているため、移動体の認識精度が低いという問題があった。
本発明は、上述の課題に鑑みてなされたものであり、移動体の認識精度の向上を図ることが可能な処理装置、処理システム、処理プログラム及び処理方法の提供を目的とする。
本発明は、上述した課題を解決するための手段として、各画素の距離情報を含む距離画像を取得する距離画像取得部と、距離画像から移動体を検出する移動体検出部と、距離画像取得部で取得される距離画像から移動体の背景となる静止物をモデル化した背景モデルを生成する背景認識部とを有する。
本発明によれば、移動体の認識精度の向上を図ることができるという効果を奏する。
図1は、一般的な立体物認識処理の流れを示す図である。 図2は、実施の形態の立体物認識装置の要部のハードウェア構成図である。 図3は、シーングラフを説明するための模式図である。 図4は、車シーングラフを説明するための模式図である。 図5は、実施の形態の立体物認識装置で記述されるシーン状況モデルのシーングラフを示す図である。 図6は、実施の形態の立体物認識装置で記述される立体物モデルのシーングラフを示す図である。 図7は、実施の形態の立体物認識装置の機能ブロック図である。 図8は、実施の形態の立体物認識装置の状況予測結果に応じて認識対象の認識手法等の変更動作を説明するためのフローチャートである。 図9は、実施の形態の立体物認識装置の状況予測結果に応じて認識対象の認識手法等を変更する動作の全体的な流れを説明するためのフローチャートである。 図10は、認識対象を追跡している画面の一例を示す図である。 図11は、道路状況モデルの一例を示す図である。 図12は、道路状況モデルの左右の道路端の勾配近似曲線パラメータを説明するための図である。 図13は、背景モデルの一例を示す図である。 図14は、第2の実施の形態の立体認識装置の機能ブロック図である。 図15は、第2の実施の形態の立体認識装置の移動体の検出動作の一例を説明するための図である。 図16は、第2の実施の形態の立体認識装置の移動体の検出動作の他の例を説明するための図である。 図17は、第3の実施の形態の立体認識装置の機能ブロック図である。 図18は、第3の実施の形態の立体認識装置の画像処理動作、及び移動体の認識動作を説明するための図である。 図19は、第3の実施の形態の立体認識装置の危険度の算出動作を説明するための図である。 図20は、第3の実施の形態の立体認識装置の危険度の他の算出動作を説明するための図である。 図21は、第4の実施の形態の立体認識装置のハードウェア構成図である。 図22は、第4の実施の形態の立体認識装置に設けられているヘッドアップディスプレイの構成を示す図である。 図23は、第4の実施の形態の立体認識装置におけるヘッドアップディスプレイを用いた道路情報の表示動作の流れを示すフローチャートである。 図24は、第4の実施の形態の立体認識装置におけるヘッドアップディスプレイを用いた道路情報の第1の表示例を説明するための図である。 図25は、第4の実施の形態の立体認識装置におけるヘッドアップディスプレイを用いた道路情報の第2の表示例を説明するための図である。 図26は、第4の実施の形態の立体認識装置におけるヘッドアップディスプレイを用いた道路情報の第3の表示例を説明するための図である。 図27は、第4の実施の形態の立体認識装置におけるヘッドアップディスプレイを用いた道路情報の第3の他の表示例を説明するための図である。 図28は、第4の実施の形態の立体認識装置におけるヘッドアップディスプレイを用いた道路情報の第4の表示例を説明するための図である。 図29は、第4の実施の形態の立体認識装置におけるヘッドアップディスプレイを用いた道路情報の第5の表示例を説明するための図である。 図30は、第5の実施の形態の立体認識装置のハードウェア構成図である。 図31は、第5の実施の形態の立体認識装置におけるナビゲーション部のリルート動作の流れを説明するためのフローチャートである。
以下、本発明に係る処理装置、処理システム、処理プログラム、及び、処理方法を適用した立体物認識装置の実施の形態を、添付図面を参照しながら詳細に説明する。なお、以下の説明において、「制御対象」とは、例えば自車両等のように、実施の形態の立体物認識装置による認識結果を利用して制御される対象物を示すこととする。また、「認識対象」とは、例えば先行車両等のように、実施の形態の立体物認識装置で認識される対象物で、制御対象の制御の起因となる物体を示すこととする。
(第1の実施の形態)
まず、図1に、一般的な立体物認識処理の流れを示す。この図1に示すように、一般的な立体物認識処理においては、ステップS1において、カメラ装置等で撮像された画像を取得し、ステップS2において、取得した画像から特徴点を抽出する。また、ステップS3で、特徴点から物体の認識を行い、ステップS4で、認識した物体の重心を、それまで認識した各物体の重心の認識履歴と照合しながら各物体の追跡を行う。各物体の認識結果で制御する制御対象が、例えば自動ブレーキシステムの場合、自動ブレーキシステムは、ステップS5において、認識結果に応じて、自動的にブレーキをかける等の制御を行う。
このような立体物認識処理において、フレーム毎に認識対象の認識又は非認識が生ずると、例えば車両の場合、一度、非認識となった後に、次に認識したときには、自車両と先行車両との間に予想以上の開きが生じており、反対に、先行車両がブレーキをかけることで、先行車両が自車両の手前まで迫っている等の不都合を生ずる(ハンチング)。このため、このような不都合を生じないように、認識対象を安定して認識し続けることが重要となる。
しかし、物体のエッジ情報で認識対象の認識を行う場合、同じ認識対象を撮像している場合でも、センサの感度特性又は照明条件等の変化により、認識対象のエッジ情報の認識又は非認識が生ずる。例えば、走行中において、太陽の位置又は逆光等の変化が発生した場合、認識対象が他の物体の陰に隠れた場合、又は、自車両が建物等の陰に入った場合等は、認識対象の非認識が生ずる。また、例えば薄暗い状況下のため、認識対象のエッジ情報の値が、認識アルゴリズムの閾値付近の値である場合、センサ感度のばらつき等で、認識対象の非認識が生ずる。これらに対応するためには、1フレームの認識ロジックの閾値を調整する等、認識アルゴリズムのパラメータ調整が必要となる。
ここで、一般的な立体物認識処理においては、「物体を認識すること」を目的とした物体認識アルゴリズムが適用されている。この「物体を認識すること」を目的とした物体認識アルゴリズムの場合、上述のように様々な外光変化や認識対象の見え方の変化等に対する、ロバストで、認識率が最大となるパフォーマンスを得ることを目的として開発されている。すなわち、物体の見え方及び画像内の位置等に関わらず、1フレーム内に存在する物体をいかに多く正確に認識できるか、ということを目的として開発されている。このため、このアルゴリズムは、1フレーム内に存在する物体に対して、認識の優先順位は無く、全ての物体を均等に認識できるように、パラメータの調整等が施されている。
しかし、認識対象となる物体は、時間的な変化の中で、見え方が変わってしまうことが多く発生する。これは自車両等の制御対象も自律的に動いており、また、先行車両等の認識対象も自律的に動いているためである。例えば、先行車両が路面のカーブに沿って走行している場合、又は、先行車両が隣接する車線に車線変更した場合等である。このような状況下では、先行車両の見え方が変化するため、先行車両の非認識が多く発生する。そして、このような状況においても先行車両を認識可能なように認識アルゴリズムのパラメータを調整すると、例えば直線道路上の先行車両の認識を行っている場合でも非認識が発生する等のように、通常の状況においても非認識又は誤認識が発生する不都合を生ずるようになる。
このように、様々な状況下において、全ての認識対象を認識しようとすると(=認識対象の認識を目的としてパラメータの調整等を行った認識アルゴリズムは)、非認識と誤認識のトレードオフが発生し、膨大な開発工数及び開発時間をかけて非認識と誤認識のバランス設計を強いられることとなる。また、このようなバランス設計でパラメータの調整等を行ったにもかかわらず、通常の状況においても、非認識又は誤認識が発生する不都合を生ずる。
一方、例えば自動車の自動ブレーキシステム等の制御は、物体の一度の認識結果で行われるわけではなく、時間の経過と共に連続して認識した認識結果に基づいて、連続的に制御が行われる。このため、制御対象の制御を行う場合、制御の起因となる認識対象を、確実に認識して追尾することが重要となる。これは、自動車だけではなく、ロボット、農機、及び重機等においても同様である。すなわち、制御対象を制御することを目的とする場合は、全ての物体を均等に認識できればよいと言うわけではなく、制御の起因となる認識対象を、確実に認識して追尾することが重要となる。
また、制御対象の制御を目的とした物体認識を行う場合、
(1)認識対象には優先度を設けて認識を行うこと、
(2)一度認識した認識対象を非認識とすること無く、連続して認識(追尾:捕捉)可能
とすること、
(3)認識状態が不安定なものは制御対象とはしないこと、
(4)非認識及び誤認識の原因を特定可能とすること、
が好ましい。
(1)の優先度としては、目前の認識対象は優先度が高い認識対象となる。また、端の認識対象は、優先度が低い認識対象となる。(2)については、一度認識した対象を非認識としてしまうと、十分適切な制御を行うことができない。(3)の制御対象は、前述のハンチング等の不具合が生じる。(4)の原因の特定は、物体認識制御のプログラムの修正等を行う際に必要となる。例えば、自動車のブレーキを制御する走行安全システムにおいて、誤ブレーキ動作が発生した場合、原因を特定可能とすることは、プログラムの修正等を図るためにも重要なことである。このため、学習等の処理状態が不透明なアルゴリズムは、物体認識制御には採用し難い。また、上述したバランス設計においては、非認識が多少多くなっても誤認識を防止する方向に、物体認識制御の認識アルゴリズムが調整されることが多い。換言すると、誤認識による誤動作を防止して安全性を高めるように、物体認識制御の認識アルゴリズムが調整されることが多い。
このようなことから、第1の実施の形態の立体物認識装置は、まず、制御対象(例えば自車両)の走行速度等の「内的状況」、既認識された認識対象(先行車両、壁、道路等)の有無等の「外的状況」から、現在の状況を認識する。現状を認識できれば、例えば先行車両の陰から自車両の前に人が出てくること等が予測(次の事象を予測)できる。このため、以後の制御に予測結果を反映させることができる。例えば、安定的に認識されている認識対象は優先度が高いと判断し、多少の輝度変化等が発生しても認識できるように閾値を下げたシンプルなアルゴリズムを適用する。また、道路のカーブ等で認識対象(先行車両)の形状が変化し又は認識し難くなった場合でも、これらが予測した変化である場合は、積極的に認識を行う。すなわち、第1の実施の形態の立体物認識装置は、複数のアルゴリズム又はアルゴリズムのウェイトを、状況判断や予測に基づいて可変又は選択して用いる。これにより、物体の認識精度を飛躍的に向上させることができる。
閾値を変化させる以外には、例えば、通常の認識技術においては、路面上にある物体かどうか、対称性があるか否か、等の複数のアルゴリズムによるチェックを行ったりするが、安定的に認識されている対象に対しては、このアルゴリズムのいくつかを行わないことも考え得る。要は、撮像領域において認識される外的状況に基づいた未来の外的状況に応じて、異なる認識方法が用いられることが特徴である。
また、実施の形態の立体物認識装置は、所定の撮像フレームにおいて、前フレームで認識した既存物体の追跡を行ったあとに、既存物体を削除したうえで新規物体の認識を行う。安定的に認識されている既存物体を高精度に追跡し続け、新規物体の認識精度も高めることができる。
図2に、第1の実施の形態の立体物認識装置のハードウェア構成図を示す。この図2に示すように、第1の実施の形態の立体物認識装置は、ステレオカメラ部1と、情報処理部2とを有する。
ステレオカメラ部1は、左目用となる第1のカメラ部1aと、右目用となる第2のカメラ部1bとの、2台のカメラ部が平行に組みつけられて構成されている。各カメラ部1a,1bは、それぞれレンズ5、画像センサ6、センサコントローラ7を備えている。画像センサ6は、例えばCCDイメージセンサ又はCMOSイメージセンサとなっている。CCDは、「Charge Coupled Device」の略記である。また、CMOSは、「Complementary Metal-Oxide Semiconductor」の略記である。センサコントローラ7は、画像センサ6の露光制御、画像読み出し制御、外部回路との通信、及び画像データの送信制御等を行う。
情報処理部2は、データバスライン10、シリアルバスライン11、CPU15、FPGA16、ROM17、RAM18、シリアルIF19、及びデータIF20を有している。CPUは、「Central Processing Unit」の略記である。FPGAは、「Field-Programmable Gate Array」の略記である。ROMは、「Read Only Memory」の略記である。RAMは、「Random Access Memory」の略記である。IFは、「interface」の略記である。
上述のステレオカメラ部1は、データバスライン10及びシリアルバスライン11を介して情報処理部2と接続されている。CPU15は、情報処理部2の全体の動作、画像処理、及び画像認識処理を実行制御する。各カメラ部1a,1bの画像センサ6で撮像された撮像画像の輝度画像データは、データバスライン10を介して情報処理部2のRAM18に書き込まれる。CPU15又はFPGA16からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、及び各種設定データ等は、シリアルバスライン11を介して送受信される。
FPGA16は、RAM18に保存された画像データに対してリアルタイム性が要求される処理である、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って視差画像を生成し、RAM18に再度書き込む。視差画像は距離画像の一例である。CPU15は、ステレオカメラ部1の各センサコントローラ7の制御、及び情報処理部2の全体的な制御を行う。また、ROM17には、後述する状況認識、予測、立体物認識等を実行するための立体物認識プログラムが記憶されている。立体物認識プログラムは、処理プログラムの一例である。CPU15は、データIF20を介して、例えば自車両のCAN情報(車速、加速度、舵角、ヨーレート等)をパラメータとして取得する。そして、CPU15は、ROM17に記憶されている立体物認識プログラムに従って、RAM18に記憶されている視差画像を用いて、状況認識等の各種処理を実行制御することで、例えば先行車両等の認識対象の認識を行う。CANは、「Controller Area Network」の略記である。
認識対象の認識データは、シリアルIF19を介して、例えば自動ブレーキシステム、又は、自動速度制御システム等の外部機器へ供給される。自動ブレーキシステムは、認識対象の認識データを用いて自車両のブレーキ制御を行う。また、自動速度制御システムは、認識対象の認識データを用いて自車両の速度制御を行う。
次に、第1の実施の形態の立体物認識装置は、人及び車等の立体物、及び、現在の状況をシーングラフで記述するようになっている。図3に、シーングラフの基本構造を、図4に、車のシーングラフの一例を示す。この図3及び図4からわかるように、シーングラフは、木構造で表現される。また、シーングラフは、例えばBIFS又はVRML等の言語を用いて記述される。BIFSは、「Binary Format for Scene description」の略記である。また、VRMLは、「Virtual Reality Modeling Language」の略記である。シーングラフでは、ノードと呼ばれる構成単位を階層的に組み合わせることで一つのグループを構成し、それらをまとめてシーン(状況)を構成する。ノードとは、光源、形状、材質、色、座標等をフィールドとして有する状況の構成単位であり、さらに下層のノードを持つことで階層化された記述となっている。
図5に、現在の状況を記述したシーングラフである「シーン状況モデル」の一例を示す。この図5のシーン状況モデルは、自車両の前方監視に有用な状況構成を記述した例である。この図5に示す例は、「背景物」、「道路」、及び「自車」の各ノードが記述されている。また、「背景物」のノードの下層には、「側壁」、「正面壁」、及び「屹立物」のノードが記述されている。各ノードは、例えば3次元位置、重心、相対速度、サイズ、信頼度等のエンティティを有する。また、ノードによっては、例えば道路の路面高さ、路端位置(走行可能領域)、又はカーブ曲率等の、ノード特有の情報を有する場合もある。
図6に、立体物を記述したシーングラフである「立体物モデル」の一例を示す。制御対象のブレーキ制御又はステアリング制御等による衝突回避を目的とするアプリケーションにおいては、最大の認識対象ターゲットは、人や車を含む立体物のグループに含まれる認識対象となる。第1の実施の形態の立体物認識装置は、上述のシーン状況モデルとは別に、立体物モデルを記述するようになっている。この図6に示す例は、「車」、「人」及び「その他の物体」の各ノードが記述されている。立体物モデルのノードは、例えば3次元位置、重心、相対速度、サイズ、信頼度等の、上述の背景物のエンティティと共通の構造を有し、また、詳細な立体物種別、及び移動方向等のエンティティも有するように記述される。立体物種別としては、例えば立体物が車である場合は、大型車、又は普通車等の種別が記述される。また、例えば立体物が人である場合は、大人、又は子供等の種別が記述される。
なお、上述の「シーン状況モデル」及び「立体物モデル」は、予め定義され、ROM17に記憶されている。また、シーン状況モデルで記述されるシーンは、具体的には、高速道路やスクールゾーン等の状況であり、立体物モデルで記述される各立体物は、具体的には、標識や信号等の静止物及び車や人等の動体物である。
自動ブレーキシステム、又は、自動速度制御システム等の制御対象においては、図6を用いて説明した立体物の認識結果が、図5を用いて説明したシーン状況モデルのCAN情報に含まれる位置及び速度から計算して危険と判断された際に、制御が実行される。また、背景物との衝突の危険が計算された場合も制御が実行される。第1の実施の形態の立体物認識装置は、次フレームにおける認識対象の優先度を、自車両の位置と道路情報を参酌し、認識された立体物(含背景物)に対する衝突の可能性を計算して決定する。
図5及び図6に示したシーン状況モデル及び立体物モデルは、ステレオカメラ部1で撮像される撮像画像のフレーム毎に認識されると共に、履歴情報として記録及びアップデートされ、全体が次の動作の予測に利用される。
図7に、第1の実施の形態の立体物認識装置のCPU15が立体物認識プログラムに従って動作することで実現される各機能の機能ブロック図を示す。図7に示すように、CPU15は、3次元情報化部32、車両情報(CAN情報)取得部33、シーン状況認識部34、及びシーン状況更新部35として機能する。また、CPU15は、状況予測部36、及び追跡認識部37、既検出除去部38、新規物体検出部39、及び立体物更新部40として機能する。なお、FPGA16は、図7に示す視差画像生成部31として機能し、上述のように視差画像(距離画像)を生成する。また、これら各部31〜40は、全てをソフトウェアで実現してもよいし、全て又は一部をハードウェアで実現してもよい。
このような立体物認識装置において、ステレオカメラ部1の各カメラ部1a,1bで撮像された、例えば前方の先行車両及び風景等の各撮像画像がRAM18に記憶されると、視差画像生成部31が、各撮像画像の視差を明るさに変換した、いわゆる視差画像を生成し、RAM18に記憶する。3次元情報化部32は、RAM18に記憶された視差画像から、3次元空間の情報を備えた3次元画像を生成し、RAM18に記憶する。
なお、この例においては、距離画像は、各カメラ部1a,1bの各撮像画像から生成された視差画像とした。この他、一例ではあるが、各立体物にレーダー波を照射し、立体物に反射されたレーダー波を受波するまでの時間から算出した、物体との間の距離を示す距離情報を、視差画像の代わりに用いてもよい。また、本明細書においては、視差画像を含め距離情報と画像情報が関連付けられたものを距離画像と定義する。
シーン状況認識部34は、車両情報取得部33で取得された現在の車両の状態(制御対象となる機器の動作状況を示す内的状況)を示すCAN情報から自車両の速度及び移動方向等を認識する。また、シーン状況認識部34は、3次元画像に含まれる背景物、道路、先行車両、人等の外的状況を認識する。シーン状況更新部35は、シーン状況認識部34の認識結果から、図5を用いて説明した現在の状況を示すシーン状況モデルを生成し、RAM18に記憶する。このような現在の状況の認識は、画像のフレーム毎に行われる。シーン状況更新部35は、現在の状況の認識が行われる毎に、RAM18のシーン状況モデルを更新する。
次に、状況予測部36は、現在の車両の状態を示すCAN情報、RAM18上で更新された現在の状況を示すシーン状況モデル、及び現在、認識している立体物以外の人、車両等の新たな立体物の現在の状況を示す立体物モデル(図6参照)を用いて、自車両、人、先行車両、側壁、道路等の状況を予測して予測情報を生成する。
追跡認識部37は、RAM18に記憶されている現在の視差画像内の立体物を認識すると共に、優先度が高い順に、いくつかの立体物を認識対象として認識する。追跡認識部37は、例えば自車両の目前の認識対象は優先度が高い認識対象となる。また、フレーム端の認識対象は、優先度が低い認識対象となる。
また、追跡認識部37は、RAM18に記憶されている現在の状況を示すシーン状況モデル、立体物モデル、及び状況予測部36からの予測結果を用いて、認識対象の認識方法で用いている閾値を変化させ、又は、異なる認識方法を適用する。例えば、安定的に認識されている認識対象は優先度が高いと判断し、多少の輝度変化等が発生しても認識できるように閾値を下げたシンプルなアルゴリズムを適用する。また、道路のカーブ等で認識対象(先行車両)の形状が変化し又は認識し難くなった場合でも、これらが予測した変化である場合は、積極的に認識を行う。
追跡認識部37は、複数のアルゴリズム又はアルゴリズムのウェイトを、状況判断や予測に基づいて可変又は選択して認識対象の認識を行う。これにより、微妙な輝度変化によりフレーム毎に認識又は非認識となっていた認識対象を、安定して認識し続ける(追跡する)ことができる。また、先行車両が道路のカーブを走行することで、形状が変化して見づらくなった場合でも、先行車両を安定して認識し続けることができる。
次に、既検出除去部38は、RAM18に記憶されている現在の視差画像内の物体のうち、追跡認識部37で追跡している認識対象を除去し、更新視差画像としてRAM18に記憶する。
新規物体検出部39は、追跡認識部37で追跡している認識対象を除去した更新視差画像内の車両又は人等の立体物を認識することで、追跡認識部37で現在、追跡している認識対象とは異なる新たな立体物を認識する。立体物更新部40は、RAM18に記憶されている図6に示した立体物モデルに、新規物体検出部39で認識された新たな立体物を反映させることで、RAM18に記憶されている立体物モデルを更新する。状況予測部36は、このように新たな立体物が反映されて更新された立体物モデルを用いて、状況の予測を行う。
また、立体物更新部40は、追跡認識部37からの認識対象の認識結果を、例えば自動ブレーキシステム、又は、自動速度制御システム等の制御対象となる外部機器へ供給する。これにより、認識対象の認識結果に応じて、自動的に車両のブレーキがかけられ、又は、車両の走行速度が自動的に調整される。
次に、状況予測部36における予測処理の詳細を説明する。状況予測部36は、「認識対象物位置」、「認識対象物形状変化率」、及び「認識対象物被遮蔽率」を算出する。追跡認識部37は、これらの演算結果を認識対象の状況予測結果として用いる。
まず、認識対象物位置は、カルマンフィルタ又はベイズフィルタ等を用いて算出することができる。また、ある時刻tにおける自車両の位置xf(t)、自車両の速度vf(t)、先行車両の位置xp(t)、及び、先行車両の速度vp(t)は、以下の数式で算出される。
xf(t)=xf(t-1)+vft+((aft2)/2)
vf(t)=vf(t-1)+aft
xp(t)=xp(t-1)+vpt+((apt2)/2)
vp(t)=vp(t-1)+apt
認識対象物の自車両からの相対的実座標位置は、「xp(t)−xf(t)」で表すことができる。「xp(t)−xf(t)」の数式で算出された自車両からの相対的実座標位置の3次元点を「(Xp,Yp,Zp)」とマップすると、時刻tにおける認識対象物の撮像内位置は、例えば以下の数式で算出される。
xpredict=f(Xp/Zp)
ypredict=f(Yp/Zp)
ここで、「xpredict,ypredict」を、撮像画像における認識対象物の重心位置と仮定すると、この対象物認識における予測処理領域の面積Pareaは、重心位置を中心に認識対象物のサイズ「xwidth,yheight」を用いて、物体全体を包含しつつ、例えば以下の数式で示すように設定される。
Parea=(xwidth+ω1/R+ω2E)×(yheight+ω1/R+ω2E)
この数式において、「R」は、t−1までの認識結果の信頼度を示し(安定的に認識されていた場合、高い信頼度)、「E」は認識誤差、「ω1,ω2」は、これらを反映させる重みを示す。この第1の実施の形態においては、一例としたx方向及びy方向共に同じ重みを適用している。x方向及びy方向、それぞれ異なる重みを適用してもよい。信頼度が低い場合又は認識誤差が高い場合は、より大きな範囲で認識を行う。なお、信頼度としては、対象が連続して認識されたフレーム数等を用いれば良い。
次に、認識対象物形状変化率「Δobj」は、例えば「XP,YP,ZP」をもとに、図6を用いて説明した立体物の移動方向(XP,YP,ZP)、及び図5を用いて説明した道路情報から、この位置にある道路曲率(C(XP,YP,ZP))、傾斜率(S(XP,YP,ZP))を計算し、以下の数式に示すように、これらを乗算して算出される。なお、道路曲率や傾斜率の算出には、参考文献1(特開2004−102421号公報)又は参考文献2(特開2014−006882号公報)に記載の方法、その他公知の方法が適宜に用いられる。
Δobj=C((XP+Xv),(YP+Yv),(ZP+Zv))×S((XP+Xv),(YP+Yv),(ZP+Zv))
実装する際には、「C」及び「S」に対して重み付けをしてもよく、また、正規化処理を施すことが望ましい。
同様に、認識対象物被遮蔽率「Hobj」は、例えば「XP,YP,ZP」、「XV,YV,ZV」をもとに、図5を用いて説明した背景情報から、この位置付近にある背景物及び他の立体物との位置関係を計算し、認識対象物の動きの軌跡から、背景物が認識対象物の前方に位置することとなるか否かを予測することで計算される。この予測は、下記の関数で表すことができる。
obj=Func(ΣDbo,ΣDoo,ΣRinfo)
ここで、「Dbo」は、「(XP,YP,ZP)、(XV,YV,ZV)」をもとに、背景物との位置関係の差分を算出した、背景物との距離を示す変数である。「Dbo」の値は、位置関係が重複していた場合、高い値となる。「Doo」は、「(XP,YP,ZP)、(XV,YV,ZV)」をもとに、他の立体物との位置関係の差分を算出した変数である。「Doo」の値は、位置関係が重複していた場合、高い値となる。「Rinfo」は、図5を用いて説明した道路情報(上述の「C」及び「S」をまとめたもの)である。なお、Hobjは、方向の情報を含むベクトル量である。どの方向から、どの程度遮蔽されるかを算出するため、遮蔽後の物体の形状が特定できる。また、状況予測部36は、これらに加えて、予測結果に基づき、認識対象物が他の認識対象物で遮蔽される割合を計算する。
これにより、認識対象物が他の認識対象物で遮蔽された際に認識可能となる認識対象物の形状がわかるため、認識対象物の認識率の向上を図ることができる。また、認識対象物が非認識となることなく、認識対象物を連続的に認識して追従可能とすることができる(認識対象物を見失うことなく追従可能とすることができる)。
このように状況予測部36は、例えばカルマンフィルタ等の、従来の追跡手法で用いられている認識対象物の位置予測と共に、状況を認識することで、認識対象物形状変化率及び認識対象物被遮蔽率を算出可能となる。このため、例えば認識対象物形状変化率又は認識対象物被遮蔽率が低い場合は、認識対象の認識方法を、シンプルで積極的に認識対象を認識する認識方法に変更できる。また、認識対象物形状変化率又は認識対象物被遮蔽率が高い場合には、算出された認識対象物形状変化率又は認識対象物被遮蔽率に合致した認識方法を選択して用いることができる。
次に、図8のフローチャートに、追跡認識部37が、状況予測部36からの予測結果に応じて、認識対象の認識方法の変更又は閾値の変更等を行う動作の流れを示す。追跡認識部37は、状況予測部36により、上述の認識対象物位置、認識対象物形状変化率、及び認識対象物被遮蔽率が算出されたタイミングで、図8のフローチャートにステップS11から処理を開始する。なお、認識対象物位置、認識対象物形状変化率、及び認識対象物被遮蔽率は、フレーム毎に算出される。このため、追跡認識部37は、図8のフローチャートに示す動作をフレーム毎に繰り返し実行する。
ステップS11では、追跡認識部37が、状況予測部36により算出された認識対象物形状変化率が、所定の閾値よりも高いか否かを判別する。認識対象物形状変化率が閾値よりも高いということは、現在、認識している認識対象の形状が、大きく変化していることを示す。このため、追跡認識部37は、認識対象物形状変化率が閾値よりも高い場合(ステップS11:Yes)、ステップS12に処理を進める。そして、例えば認識対象が先行車両の場合、追跡認識部37は、道路のカーブ用又は坂道の道路用の認識方法を選択し、又は、現在、実行している認識方法の閾値を、道路のカーブ用又は坂道の道路用の閾値に変更制御する。これにより、先行車両等の認識対象が、道路のカーブを走行し、又は、坂道を走行することで認識している形状が変化した場合でも、確実に捕捉して認識し続けることができる。
次に、ステップS11で認識対象物形状変化率が所定の閾値よりも低いものと判別した場合(ステップS11:No)、追跡認識部37は、処理をステップS13に進め、認識対象物被遮蔽率が、所定の閾値よりも高いか否かを判別する。例えば、現在の認識対象となっている先行車両の認識対象物被遮蔽率が閾値よりも高いということは、先行車両と自車両との間に、壁又は他の車両等の他の立体物が存在することを意味している。このため、認識対象物被遮蔽率が所定の閾値よりも高い場合(ステップS13:Yes)、ステップS14に処理を進め、認識対象の遮蔽面積に対応する認識方法を選択し、又は、現在、実行している認識方法の閾値を、認識対象の遮蔽面積に対応する閾値に変更制御する。これにより、先行車両が物陰に隠れ、又は、他の車両の陰に隠れた場合でも、確実に捕捉して認識し続けることができる。
次に、ステップS13で、認識対象物被遮蔽率が所定の閾値よりも低い場合(ステップS13:No)、追跡認識部37は、処理をステップS15に進め、立体物が安定的に検出できているか否かを判別する。具体的には、追跡認識部37は、例えば画像形状(輝度画像)、又は(及び)視差形状(視差画像)が、時間的に略々変化なく検出できているか否かを判別することにより、立体物が安定的に検出できているか否かを判別する。そして、追跡認識部37は、立体物が安定的に検出できているものと判別した場合(ステップS15:Yes)、ステップS16に処理を進め、立体物が安定的に検出できていないものと判別した場合(ステップS15:No)、ステップS17に処理を進める。
立体物が安定的に検出できているものと判別することで、処理をステップS16に進めると、追跡認識部37は、現在、認識対象の認識方法で用いている閾値を所定分低い値の閾値に変更する。これにより、認識対象の予測位置等を用いて、認識対象を、より正確に認識して追跡可能とすることができる。
また、立体物が安定的に検出できていないものと判別することで、処理をステップS17に進めると、追跡認識部37は、現在、認識対象の認識方法で用いている閾値を、標準値(初期値)に変更する。これにより、認識対象の予測位置等を用いて、標準となる閾値で認識対象の認識を行い、認識対象の安定した追跡を図る。
なお、図8のフローチャートの説明において、認識対象物形状変化率に応じた処理と、認識対象物被遮蔽率に応じた処理とは、それぞれ別個独立に実施されることとして説明した。しかし、これら各処理を複合してもよいし、これら各処理を含めた統合的判断処理を先に行ってもよい。
次に、以上説明した図8の処理フローの全体像を、図9を用いて再度説明する。すなわち、第1の実施の形態の立体物認識装置のCPU15は、立体物認識プログラムに従って動作することで、図9のステップS41に示すように、まず、外的状況を認識する。一例として、CPU15は、上述のステップS11で説明した認識対象物形状変化率、ステップS13で説明した認識対象物被遮蔽率、ステップS15で説明した立体物の検出状況等に応じて、外的状況を認識する。
次に、ステップS42において、CPU15は、認識した外的状況に基づいて、状況の予測を行う。具体的には、ステップS11及びステップS12で説明したように、認識対象物形状変化率が閾値よりも高いということは、先行車両等の認識対象が、道路のカーブを走行中であること、又は、坂道の走行中であることを予測できる。また、認識対象物被遮蔽率が閾値よりも高いということは、先行車両等の認識対象と自車両との間に、壁又は他の車両等の他の立体物の存在を予測できる。
次に、ステップS43では、予測した状況から認識方法を決定する。例えば、ステップS11及びステップS12で説明したように、認識対象物形状変化率が閾値よりも高い場合、CPU15は、道路のカーブ用又は坂道用の認識方法を選択する。又は、CPU15は、現在、実行している認識方法の閾値を、道路のカーブ用又は坂道用の閾値に変更する。そして、CPU15は、ステップS44において、選択した認識方法又は変更した閾値を用いて、既存物体である先行車両等の認識対象の追跡を行う。これにより、先行車両等の認識対象が、道路のカーブを走行し、又は、坂道を走行することで認識している形状が変化した場合でも、確実に捕捉して認識し続けることができる。
同様に、ステップS13及びステップS14を用いて説明したように、例えば先行車両の認識対象物被遮蔽率が閾値よりも高い場合、CPU15は、認識対象の遮蔽面積に対応する認識方法を選択する。又は、CPU15は、現在、実行している認識方法の閾値を、認識対象の遮蔽面積に対応する閾値に変更する。そして、CPU15は、ステップS44において、選択した認識方法又は変更した閾値を用いて、既存物体である先行車両等の認識対象の追跡を行う。これにより、先行車両が物陰に隠れ、又は、他の車両の陰に隠れた場合でも、確実に捕捉して認識し続けることができる。このように、第1の実施の形態の立体物認識装置においては、撮像領域において認識される外的状況に基づいた未来の外的状況に応じて、異なる認識方法又は異なる閾値が用いられる。
次に、CPU15は、所定の撮像フレームにおいて、前フレームで認識した既存物体の追跡(ステップS44)を行った後、ステップS45において、既存物体を削除したうえで、ステップS46において、新規物体の認識を行う。具体的には、図7を用いて説明したように、既検出除去部38が、RAM18に記憶されている現在の視差画像内の物体のうち、追跡認識部37で追跡している認識対象を除去し(ステップS45)、更新視差画像としてRAM18に記憶する。
新規物体検出部39は、追跡認識部37で追跡している認識対象を除去した更新視差画像内の車両又は人等の立体物を認識することで、追跡認識部37で現在、追跡している認識対象とは異なる新たな立体物を認識する(ステップS46)。立体物更新部40は、RAM18に記憶されている図6に示した立体物モデルに、新規物体検出部39で認識された新たな立体物を反映させることで、RAM18に記憶されている立体物モデルを更新する。状況予測部36は、このように新たな立体物が反映されて更新された立体物モデルを用いて、状況の予測を行う。これにより、安定的に認識されている既存物体を高精度に追跡し続け、新規物体の認識精度も高めることができる。
図10は、認識対象を追跡している画面の一例を示す図である。図10の(a)の符号を付した図は、ステレオカメラ部1で撮像されたステレオ画像を示している。また、図10の(b)の符号を付した図は、視差画像生成部31で生成された視差画像を示している。図10の(a)の符号を付した通常の撮像画像を参照しながら、図10の(b)の符号を付した視差画像を見ていただきたいのであるが、シーン状況認識部34は、道路の縁石50,51を認識することで、縁石50,51の間は、自車両が走行中の道路であることを認識する。また、縁石50,51に沿って壁部52,53が形成されていることを認識する。また、道路上において、自車両の前方を走行する先行車両54〜56を認識する。図10(a)の符号を付した図からわかるように、先行車両54は、乗り合いバスである。また、乗り合いバスと自車両との間を走行中の先行車両55は、オートバイである。また、この例において乗り合いバスとなっている先行車両54の前方の先行車両56は、軽自動車である。
このような状況において、従来、先行車両56の軽自動車のように、遠方の車両は、認識及び非認識が繰り返され、安定した認識及び追跡は困難であった。しかし、第1の実施の形態の立体物認識装置の場合、上述の予測結果を用いて安定して認識し続けることができる(追跡することができる)。また、この例の場合、オートバイである先行車両55に遮蔽された乗り合いバス(先行車両54)も、上述の認識対象物被遮蔽率等を計算した予測結果を用いることで、オートバイの動き及び乗り合いバスの動きを把握しながら安定して認識し続けることができる(追跡することができる)。
以上の説明から明らかなように、第1の実施の形態の立体物認識装置は、まず、自車両等の制御対象物が、現在どのような状況下にあるか、既検出された立体物があるか、それらが現在の状況下でどのような状態にあるか、等を状況認識する。すなわち、現在の状況を認識すると共に、未来的な状況を予測し、予測結果に応じた認識手法を選択的に用いて認識対象の認識を行い、又は、予測結果に応じて認識手法で用いている閾値等を変更して認識対象の認識を行う。これにより、微妙な輝度変化によってフレーム毎に認識/非認識を繰り返す立体物でも、安定して認識し続けることができる。また、先行車両が道路のカーブを走行することで、先行車両の形状が変化し、又は、壁等の陰になり見づらくなった場合でも、安定して認識し続けることができる。
(第2の実施の形態)
次に、第2の実施の形態となる立体認識装置の説明をする。第2の実施の形態の立体認識装置は、まず、制御対象物が、現在どのようなシーン状況下にあるか、既に検出された物体の有無、既に検出された物体が現在のシーン状況下でどのような状態にあるか、等を「移動体の背景となる静止物をモデル化した背景モデル(背景情報(静止物)モデル)」、「道路(移動面)モデル」及びそれぞれの「移動体の認識履歴」を利用して把握する。そして、把握した状況に応じて検出手法を変更しながら移動体(認識対象)の検出を行う。
すなわち、第2の実施の形態の立体認識装置は、立体物の検出時におけるシーン状況の認識に、モデル化した環境を用い、撮像されている物体間の3次元位置関係を把握する。そして、3次元位置関係の時間的変化の履歴から、現時点の物体認識を行う。なお、以下、「状況モデル」という文言は、例えば「認識対象となっている移動体の安定認識度」、「認識対象となっている移動体と背景モデルとの位置関係」、「認識対象となっている移動体と道路モデルとの位置関係」等の情報で表現される撮像環境の全体情報をさすこととする。
図11に、道路状況モデル(移動面状況モデル)の一例を示す。ここでの道路は、車両や人のような移動体がその上を移動する多少の凹凸を含む移動面を表わす。道路状況モデルにおいては、「道路幅」、「車線数」、「対向車線位置」、「自車線位置」、「カーブ情報」、及び「路面勾配」等のような認識情報が設定される。「道路幅」は、自車両60が走行している道路の道幅Wである。「車線数」は、自車両60が走行している道路の車線の数である。「対向車線位置」は、自車両60の走行方向に対して反対方向に走行する対向車の車線位置である。「自車線位置」は、自車両60が現在、走行中の位置Pである。「カーブ情報」は、カーブ入り口までの距離D、及びカーブの曲率Rである。
カーブ情報については、先行車両等の認識対象の姿勢変化を目的とした場合、自車両との関係から、姿勢変化の起きる可能性が検出できればよいため、それほどの精度は必要としない。また、図11の例では、カーブ情報の他に、道路の勾配情報も実装される。「路面勾配」は、図12に示すように自車両60の進行方向の道路を、自車両60からの距離に応じて分割されたセグメントSG毎に算出された近似曲線パラメータである。この近似曲線パラメータは、図11に示す左右の道路端LS,RS毎に算出される。例えば認識対象となっている先行車両の一部が隠蔽されていた場合に、このような先行車両の一部が隠蔽される状況は、下り坂等の影響であるか否かの状況認識を行う際に、勾配情報が利用される。
また、自車両の進行方向の車線が複数ある場合に、認識している先行車両が隣接車線に車線変更する可能性がある。この場合、先行車両の姿勢変化が発生する可能性、及び隣接車線を走行している他の車両の前に車線変更して走行位置を変えることで、認識対象となっている先行車両の一部が他の車両で隠蔽される可能性がある。「自車線位置」及び「車線数」等の車線情報は、このような状況認識に利用される。
このような各情報の制限値は、走行環境における道路法規等から設定される。また、視差によって得られる3次元情報によって、実撮像環境における道路モデルの実体が検出され適用される。
次に、図13に背景モデルの一例を示す。この例の背景モデルとしては、まず、自車両が移動可能な領域と自車両が移動困難な領域との境界を示す静止物境界領域が記載される。具体的には、図13の(a)の符号を付した図に示すように、自車両60の位置を上空から俯瞰した状態で、自車両60を中心に放射状に探索する。そして、自車両60の位置から見て、最近傍に位置する道路高さから換算して所定の高さ閾値以上の静止物の位置を静止物境界領域としている。静止物とは、自車両60に設けられたステレオカメラ部1で撮像を行った時点で静止している物体を意味する。このため、静止物は、撮像時に静止している、例えば壁、電柱、ガードレール、駐車車両等となる。静止物か否かを判断するために、例えばCANによる車両情報や背景モデルの履歴情報等が利用され得る。
すなわち、図13の(a)の符号を付した図は、自車両60を中心として、自車両60の移動方向を俯瞰した図である。図13の(a)の図中における矢印は、移動体が動いている方向を示している。この例では、2台数の先行車両61a,61b、1台の対向車両62、人間63a,63b.63cが移動体となっており、それぞれ矢印の方向に移動している。これらは移動体であるため、背景モデルには反映されない。これらは視差画像から検出される3次元位置から求められる。
これに対して、自車両60の進行方向側の道路における駐車車両64a〜64c、ガードレール65、車止め用のポール66、及び歩道の奥の壁67は、静止物となる。同様に、自車両60の進行方向に対して反対方向側の道路における車止め用のポール68a,68b、及びガードレール69は、静止物となる。
このような静止物境界領域を、XZ平面上にマッピングした図が、図13の(b)の符号を付した図である。図13の(b)の符号を付した図からわかるように、静止物境界領域をXZ平面上にマッピングした場合、各静止物の位置に、各静止物の高さに対応する線分が現れる。
第2の実施の形態の立体認識装置は、及び静止物体境界領域及び各静止物境界端位置の高さ情報で示される背景モデルと、上述の道路状況モデルとを用いて状況認識を行い、認識履歴のある移動体の認識結果を更新する。図14に、このような処理に対応する機能ブロック図を示す。図14の各機能は、第2の実施の形態の立体認識装置のCPU15が、立体物認識プログラムに従って動作することで実現される。なお、図14に示す各機能において、第1の実施の形態で説明した機能と同じ機能には、第1の実施の形態で説明した機能と同じ符号を付し、その詳細な説明は省略する。
図14に示すように、第2の実施の形態の立体認識装置は、視差画像生成部31、3次元情報化部32、車両情報取得部33、背景認識部71、道路認識部72、位置予測部73、及び動き予測部74を有している。また、立体認識装置は、追跡検出部75、状況認識部76、動体認識処理部77、及び認識結果更新部78を有している。視差画像生成部31は、距離画像取得部の一例となっている。また、図21又は図30を用いて後述するECU95が、制御部の一例となっている。また、道路認識部72は、移動面認識部の一例となっている。なお、視差画像生成部31〜車両情報取得部33、及び、背景認識部71〜認識結果更新部78は、ソフトウェア的に実現されることとして説明を進めるが、全て又は一部をハードウェアで実現してもよい。
このような立体認識装置において、認識結果更新部78は、動き予測部74及び追跡検出部75により検出された移動体の追従結果に従って、RAM18に記憶されている移動体の認識結果を更新する。移動体検出部の一例である動き予測部74は、RAM18に記憶されている移動体の認識結果の履歴と、図11及び図12を用いて説明したように道路認識部72で検出された道路状況モデルと、図13を用いて説明したように背景認識部71で検出された背景モデルとを照合し、移動体がどのように見えるかを予測する。追跡検出部75は、動き予測部74の予測結果に応じて、移動体の追従に用いる認識手法を変更する。なお、RAM18は、移動体、移動面状況モデル及び背景モデルの3次元位置関係の履歴を記憶する記憶部の一例である。
具体的には、例えば直進路における先行車両等のように、検出している移動体の移動状況が、背景モデル及び道路状況モデルで示される現在の状況に影響されない場合、基本的に移動体の見え方は変化せず、移動体の移動による距離のみが変化する。この場合、動き予測部74からの予測結果も安定したものとなる。一例として、追跡検出部75は、RAM18の認識結果の履歴を用いて、フレーム間の移動体の視差形状特徴等のマッチング処理を行うことで、各移動体の動きを検出して追従している。追跡検出部75は、移動体に対する、安定的に検出されている履歴があり、かつ、背景モデル及び道路状況モデルからも、移動体の隠蔽又は姿勢変化が予測できない場合、上述の認識結果の履歴のマッチング処理で用いる閾値を低く設定する。これにより、安定的に検出されている移動体を、より安定して検出可能とすることができる。また、ステレオカメラブロック1のCMOSセンサのSN比の影響等で視差情報に微妙な誤差が生じていても、この誤差を吸収し安定した移動体の検出を可能とすることができる。
一方、例えば移動体がカーブしている道路を走行することで姿勢変化が生じ、追跡検出部75において、上述のマッチング処理による移動体の追従が困難となった場合、状況認識部76が、背景モデル、道路状況モデル、移動体の認識履歴を用いて、再度、移動体の現在の状況を認識し直す。そして、追跡検出部75は、再認識された移動体の現在の状況に応じて、移動体の認識処理の手法を、姿勢変化に対応する移動体の認識処理の手法に変更する。すなわち、この場合、動体認識処理部77は、再認識された移動体の現在の状況から、姿勢変化が生じている移動体をターゲットとして認識する。認識結果更新部78は、RAM18上の認識結果を更新する。また、位置予測部73及び動き予測部74は、RAM18の認識履歴を用いて、ターゲットとされた移動体の認識を継続する。これにより、追跡検出部75は、姿勢変化が生じている移動体の動きに追従して認識を継続することができる。
また、認識対象の移動体と隣接物体との位置関係から、認識対象の移動体が隣接物体で隠蔽される可能性があることが、状況認識部76で認識された場合、追跡検出部75は、移動体の認識処理の手法を、移動体の隠蔽に対応する認識処理の手法に変更する。すなわち、この場合、追跡検出部75は、RAM18の認識履歴を用いて、ターゲットとされた移動体の一部が隠蔽された場合でも、ターゲットとされている移動体の認識を継続する。これにより、追跡検出部75は、隠蔽が生ずる移動体の動きに追従して、ターゲットとなる移動体の認識を継続することができる。
例えば、図15の(a)及び(b)の各符号を付した図は、自車両60の前方を、オートバイ80、第1の先行車両81、及び第2の先行車両82が走行している状況を示している。すなわち、図15の(a)及び(b)の各符号を付した図は、オートバイ80が車線変更により第1の先行車両81と重なり、また、第1の先行車両81により隠蔽されていた第2の先行車両82が、車線変更により、第1の先行車両81の陰から現れた状況を示している。このような状況において、従来は、第1の先行車両81により隠蔽されている第2の先行車両82、及び第1の先行車両81に重なるオートバイ80は、従来、検出困難であった。
しかし、第2の実施の形態の立体認識装置の場合、移動体と前記背景モデルの相対的な位置関係に基づいて、移動体を検出する方法を変えている。すなわち、第2の実施の形態の立体認識装置の場合、認識対象となっている移動体が、現在どのようなシーン状況下にあるか、既検出された移動体があるか、それらが現在のシーン状況下でどのような状態にあるか、等を背景モデル(静止物モデル)、道路状況モデル、及び移動体の認識履歴を利用して把握する。そして、把握した状況に合った認識手法に変更して移動体の認識を行っている。このため、一部が隠蔽された移動体、及び微妙な輝度変化によりフレーム毎に検出及び非検出となる移動体でも、継続して認識して動きに追従することができる。また、道路のカーブ等を走行することで、認識対象となっている移動体の形状又は姿勢が変わった場合でも、安定的に移動体を検出し、動きに追従することができる。
また、図16の(a)〜(c)の符号を付した図は、人間63cの動きを示している。図16の(a)及び(b)の符号を付した図に示すように、人間63cが移動することで駐車車両64cの前方に隠れた場合であっても、追跡検出部75及び状況認識部76が、上述の背景モデル及び道路状況モデル等を用いて、一部隠蔽用の処理を行う。これにより、人間63cの動きを継続的に予測し認識することが可能になる。このため、図16の(c)の符号を付した図に示すように、人間63cが駐車車両64cの前方から自車両60の前方に移動した場合でも(人間63cが飛び出した場合でも)、ブレーキを自動制御して、自車両60を停止させることができる。
従来は、人間63cが駐車車両64cの影に隠れた時点で、認識が一度途切れてしまい、新たに人間63cの全身を認識できた時点で、あらためて追従を開始していた。このため、従来は、処理が間に合わない、又は、急ブレーキになる、等の不都合が生じていた。しかし、第2の実施の形態の立体認識装置の場合は、制御部の一例である図21に示すECU95が、移動体の移動に、正確に追従して検出し、この検出結果に応じて、被制御部の一例である自動ブレーキシステム、自動速度制御システム、操舵制御部、又は、ヘッドマウントディスプレイ(HUD)96等を制御する。これにより、スムースかつ安全に自車両60を制御することができる。
(第3の実施の形態)
次に、第3の実施の形態となる立体認識装置の説明をする。第3の実施の形態の立体認識装置は、自車両の現在の状況から危険度を判定し、判定結果に応じて速度制御又はハンドル制御等の自車両の制御を行うものである。図17に、第3の実施の形態の立体認識装置において、CPU15が立体物認識プログラムに従って動作することで実現される各機能の機能ブロック図を示す。図17に示すように、第3の実施の形態の立体認識装置は、3次元情報化部86、3次元構造認識部87、画像認識部88、シーン認識部89、シチュエーション予測部90、シチュエーション認識部91、新規物体検出部92、及び危険度判定部93を有している。
3次元情報化部86は、ステレオカメラ部1により撮像された、例えば図18の(a)の符号を付した図に示す各視差画像85から算出した距離情報に対応する画像である、図18の(b)の符号を付した図に示す3次元復元画像を生成する。3次元復元画像にはX,Y,Z(縦,横,高さ)の各座標の情報が含まれているため、図18の(c)の符号を付した図に示すように、自車両の前方を俯瞰した図も得ることができる。3次元構造認識部87は、3次元復元画像から、図13を用いて説明した壁67、自車両が移動可能な領域と自車両が移動困難な領域との境界を示す静止物境界領域等の、自車両前方の3次元構造を認識する。
画像認識部88は、ステレオカメラ部1の撮像画像から生成された視差画像85と、予めモデル化されている路面標識、信号標識及び交通標識の画像とを比較する。そして、視差画像85中に含まれている路面標識、信号標識及び交通標識等の物標を抽出する。
シーン認識部89は、3次元構造認識部87で検出された3次元構造から、走行可能領域及び歩行者等の自車両前方の現在の状況(シーン)と共に、路面標識、信号標識及び交通標識等を認識する。図18の(d)の符号を付した図は、シーン認識部89により、自車両前方の道路が走行可能領域として認識されると共に、横断歩道86の路面標識が認識されたことを示している。シーン認識部89で認識された走行可能領域を示す情報、及び路面標識、信号標識及び交通標識等を示す情報は、シチュエーション認識部91に供給される。
シチュエーション認識部91は、シチュエーション予測部90で取得された自車両のCAN情報(車速、加速度、舵角、ヨーレート等)を参照したうえで、路面標識、信号標識、交通標識、歩行者等を含む、自車両前方の現在の状況の認識結果を危険度判定部93に通知する。また、新規物体検出部92は、シチュエーション認識部91から自車両前方の現在の状況の認識結果を取得し、例えば自転車又は対向車等の新規な移動体を検出した場合に、危険度判定部93に通知する。危険度判定部93は、自車両前方の現在の状況の認識結果から危険度を算出する。
危険度は、例えば移動体と自車両との衝突可能性を表すものである。一例として、自車両の走行方向上に向かう動体ベクトルに対しては、高い危険度を算出する考え方が挙げられる。また、路肩又は歩道の直線に沿って平行に移動する移動体は、歩道に沿って移動している歩行者を意味するため、低い危険度を算出する。反対に、路肩又は歩道の直線を横切るかたちで移動する移動体は、歩道から車道に進入する歩行者を意味するため、高い危険度を算出する。危険度を算出するためのパラメータとして、例えば、「状況認識により求めた移動体の行動ベクトルの方向」、「状況認識により求めた移動体の行動ベクトルの大きさ」、「状況認識により求めた移動体の行動ベクトルの大きさで示される移動体の移動速度」、「状況認識により求めた移動体の行動ベクトルと自車両の進行方向の成す角度」、「自車両の速度及び加速度」、及び「移動体から自車両までの距離」等を用いることができる。これらのパラメータのいずれか、又は、これらのパラメータを組み合わせることで危険度を算出する。
図19は、危険度判定部93における第1の危険度算出手法を説明するための図である。図19において、「X=0平面」は、自車両60が走行している道路の平面である。また、移動体90及び移動体91の矢印は、それぞれ移動体90及び移動体91の移動方向(行動ベクトルの方向)を示している。移動体90及び移動体91の移動方向を示す矢印上の丸印及び四角の印は、移動方向に対する危険度を示している。すなわち、移動方向が自車両60に近づく方向の場合は危険度が高いことを示す四角の印となっている。また、移動方向が自車両60から離れる方向の場合は危険度が低いことを示す丸印となっている。
危険度判定部93は、移動体90(又は、移動体91)の行動ベクトルV1の絶対値が第1の閾値Th1よりも小さな値であり(|V1|<Th1)、移動体90の位置のX成分の絶対値が第2の閾値Th2よりも小さな値である場合(|X|<Th2)、移動体90の危険度は、自車両60と移動体90との間の距離に応じて算出する。
また、危険度判定部93は、移動体90(又は、移動体91)の行動ベクトルV1が、自車両60が走行しているX=0平面に近づいている場合、移動体90(又は、移動体91)の行動ベクトルV1と自車両60の移動方向のベクトルとが成す角度をθとして、「危険度=(|V1|から成る式)×θから成る式)/(自車両と移動体との間の距離から成る式)」の演算式を用いて危険度を算出する。
また、危険度判定部93は、移動体90(又は、移動体91)の行動ベクトルV1が、自車両60が走行しているX=0の平面から遠ざかっている場合、「危険度=1」とする。なお、「1」の危険度は、危険度の最小値を示している。
このように危険度判定部93で算出される危険度としては、「移動体90(又は、移動体91)と自車両60との間の距離が小さく」、かつ、「移動体90(又は、移動体91)の行動ベクトルの方向がX=0平面に向いており」、かつ、「移動体90(又は、移動体91)の行動ベクトルの絶対値(|V|)の値が大きな値であり」、かつ、「移動体90(又は、移動体91)の行動ベクトルと自車両60の移動方向のベクトルの成す角(θ)が大きいほど、高い危険度が算出される。
次に、図20は、危険度判定部93における第2の危険度算出手法を説明するための図である。この図20に示す第2の危険度算出手法は、予め作成しておいた危険度別空間領域上における移動体90(又は、移動体91)の位置で、危険度を決定するものである。図20に示す例の場合、遠い位置から自車両60に近づくに連れ、危険度1(危険度最小)、危険度2・・・危険度N−1、危険度N(危険度最大)とのように、危険度別に空間領域が分割されている。
また、自車両60の移動方向に対する、移動体90(又は、移動体91)の行動ベクトルの向き及び大きさに応じて、各危険度1〜危険度Nに重み付けがされている。図20において、危険度1〜危険度Nの各領域が、自車両60の進行方向に対して所定の角度を成す直線(直線以外の線でもよい)で分割されていることは、各危険度1〜危険度Nに重み付けがされていることを示している。
危険度判定部93は、図20に示す危険度算出手法を用いた場合、自車両60と移動体90(又は、移動体91)との間の距離、及び、自車両60の移動方向に対する、移動体90(又は、移動体91)の行動ベクトルの向き及び大きさに応じて危険度を算出する。
例えば、図18の(e)及び(f)の符号を付した図の例において、矢印の方向は、歩行者区分の通行領域を通行する歩行者の移動方向を示している。また、図18の(f)の符号を付した図は、図18の(e)の符号を付した図よりも時間的に後の図となっている。この図18の(e)及び(f)の符号を付した図に示す例の場合、横断歩道86上には歩行者は存在しない。また、同図中右側に複数の矢印で示されている複数の歩行者は、横断歩道86から遠ざかる方向に歩行している。また、同図中左側に単数の矢印で示されている歩行者は、自車両に対して並行方向に歩行しているが、自車両との間には十分な距離が確保されている。この場合、危険度判定部93は、低い危険度を示す危険度判定情報を出力する。
これに対して、例えば歩行者が横断歩道86上を歩行している場合、歩行者が横断歩道86に近づいている場合、自車両と歩行者との間に十分な距離が確保されていない場合、自車両がスクールゾーンを走行中の場合等には、危険度判定部93は、高い危険度を示す危険度判定情報を出力する。
危険度判定部93からの危険度判定情報は、図2に示すシリアルIF19を介して、例えば自動ブレーキシステム又は自動速度制御システム等の外部機器へ供給される。自動ブレーキシステムは、上述の認識対象の認識データ及び危険度判定情報等を用いて自車両のブレーキ制御を行う。また、自動速度制御システムは、認識対象の認識データを用いて自車両の速度制御を行う。自動ブレーキシステム又は自動速度制御システムは、危険度に応じて、段階的に自車両にブレーキをかけて走行速度を調整する。例えば、高い危険度を示す危険度判定情報が供給された場合、自動ブレーキシステム又は自動速度制御システムは、自車両の走行速度が安全な走行速度となるまで、自動的にブレーキをかけて減速する。
ここで、危険度判定部93は、画像認識部88により視差画像85から認識された路面標識、信号標識又は交通標識等の、危険度に関する画像に応じて、危険度の判断基準を変更する。一例ではあるが、路上に表示されている「スクールゾーン」の文字又は標識が画像認識部88により認識された場合、危険度判定部93は、危険度をレベル分けする閾値を、低い値に変更して危険度のレベル分けを行う。
これにより、危険度の判断基準を低くすることができ、「スクールゾーン」の文字又は標識が表示されている路上又は近辺を移動する移動体に対して、高い危険度の判定を得易くすることができる。そして、子供の飛び出し等の状況が頻繁に起こり得るスクールゾーンにおいて、高い危険度の判定により、自動ブレーキシステム又は自動速度制御システムを作動させ、自車両の走行速度を安全な走行速度まで減速できる。また、運転者に対して高度な注意を喚起することができ、安全性を十分に担保可能とする危険度予測を可能とすることができる。
また、「スクールゾーン」以外であっても、例えばT字路又は交差点等の路上に書かれている「停止」、「危い」、「交差点注意」等の文字、停止線及び横断歩道等の記号が画像認識部88で認識された際に、危険度判定部93は、危険度をレベル分けする閾値を、低い値に変更して危険度のレベル分けを行う。これにより、T字路又は交差点等の路上又は近辺を移動する移動体に対して、高い危険度の判定を得易くすることができる。このため、高い危険度の判定により、被制御部の一例である自動ブレーキシステム又は自動速度制御システムを作動させ、自車両の走行速度を安全な走行速度まで減速できる。また、例えば人、車両、自転車又はオートバイ等が、運転者の視界の外から自車両の前方に移動する危険性に対する注意を、運転者に喚起できる。また、状況変化が頻繁に起こり得る交差点等に対して、安全性を十分に担保可能な危険度予測を可能とすることができる。
なお、上述の例は、危険度の判断基準を低くする例であったが、例えば見渡しの良い道路で、歩行者、障害物、標識等が画像認識部88で認識されない場合、危険度判定部93は、危険度をレベル分けする閾値を、高い値に変更して危険度のレベル分けを行う。これにより、危険度の判断基準を高くすることができ、自車両の周囲の移動体に対して、低い危険度の判定を得易くして、運転者の略々自由な運転を可能とすることができる。また、危険度は、走行速度の制御以外に用いてもよい。例えば、危険度判定情報を、被制御部の一例である操舵制御部に供給し、危険度の高い移動体に対して安全性を確保するハンドル制御を行ってもよい。
以上の説明から明らかなように、第3の実施の形態の立体認識装置は、自車両の現在の状況から危険度を判定し、判定結果に応じて速度制御又はハンドル制御等の自車両の制御を行う。また、視差画像85から認識された物標等の危険度に関する画像から危険度の判断基準を変更して、自車両の制御を行う。これにより、安全性を十分に担保可能な危険度予測を可能とすることができる他、上述の各実施の形態と同様の効果を得ることができる。
(第4の実施の形態)
次に、第4の実施の形態となる立体認識装置の説明をする。第4の実施の形態の立体認識装置は、ヘッドアップディスプレイ(HUD)を介して、運転者の視界に、道路状況及び危険度(危険度判定情報)から判断した運転情報を表示するものである。図21に、第4の実施の形態の立体認識装置のハードウェア構成を示す。図21に示すように、第4の実施の形態の立体認識装置は、車両のECU95、及びヘッドアップディスプレイ(HUD)96を有している。また、立体認識装置は、ステレオカメラ部1を備えた情報処理部2、及び運転者を撮像するドライバモニタカメラ部97を有している。
情報処理部2は、ステレオカメラ部1で撮像された視差画像に基づいて、上述のように車両前方の状況(移動体と、背景及び道路等の静止物との位置関係)を認識し、その認識結果及び危険度判定情報をECU95に供給する。ECU95はHUD96を制御することで、情報処理部2で算出された道路状況及び危険度判定情報で示される危険度等を、運転者の視界に重畳して表示する。ドライバモニタカメラ部97は、運転者の両眼近傍を画角に捉える形態で配置されており、運転者の視線方向を検出する。図21では、ドライバモニタカメラ部97は、運転者の頭上に配置されているが、視線方向の検出できれば、どこに配置してもよい。
HUD96は、例えばダッシュボード内に埋め込まれた光学システムであり、内部で生成した中間像をミラー及びレンズ等で拡大した虚像とし、運転者の視点から所定の距離感を持って画像を表示するモジュールである。HUD96の実現形態はパネル投射型又はレーザ走査型の形態があるが、どちらを用いてもよい。レーザ走査型のHUDは、虚像の広角化が可能であり、また、外光に対してロバストな高輝度画像を表示できる。このため、一例ではあるが、実施の形態の立体認識装置においては、HUD96として、レーザ走査型のHUDが設けられている。
図22は、レーザ走査型のHUD96のハードウェア構成を示す図である。図22に示すように、HUD96は、光源走査部100によりR(赤),G(緑),B(青)の3色のレーザが合成される。3色の混合レーザは、光偏向器101の反射面に向かって導かれる。光偏向器101は、直交する2軸に対して揺動する単一の微小なミラーか、1軸に揺動/回動するミラー二つから成るミラー系であってもよい。光偏向器101は半導体プロセス等で作製されたMEMS(Micro Electro Mechanical Systems)である。光偏向器101により偏向された光束は、凹面ミラー102により折り返され、被走査面103に2次元像を描画する。
被走査面103はレーザを所望の発散角で発散させる。被走査面103としては、マイクロレンズアレイ構造が好適である。被走査面103から射出された光束は、凹面ミラー104及び半透過ミラー105により拡大表示される。なお、レンズ及びプリズム等の透過型光学素子を設けてもよい。
次に、図23のフローチャートに、HUD96による運転情報の表示動作の流れを示す。ステップS21では、情報処理部2が、第1の実施の形態及び第2の実施の形態で説明したように、先行車両の移動状態、及び、道路状況等の情報認識を行う。また、ステップS22では、情報処理部2が、第3の実施の形態で説明したように、移動体の危険度に基づく危険座標(領域)を判断する。さらに、ステップS23では、情報処理部2が、ステップS21で認識した現在の状況、及びステップS22で判断した危険領域から、自車両の通行可能領域を判断する。そして、ステップS24では、HUD96が、情報処理部2が道路状況及び危険度等から判断した運転情報を、運転者の視界に表示する。
具体的には、危険度が低いことを示す危険度レベル情報を含む危険度判定情報が供給された場合、ECU95は、例えば「現在、危険度は低いですが、周囲の状況に十分注意をして運転してください」等のメッセージを、HUD96を介して表示する。これに対して、例えば歩行者が横断歩道86に近づいている場合、ECU95は、例えば「歩行者が横断歩道に近づいています。歩行者の横断に注意してください」等のメッセージを、HUD96を介して表示する。これにより、運転者に対して、危険を知らせて注意を喚起することができ、安全運転に貢献できる。
ここで、危険度判定部93は、画像認識部88により視差画像85から認識された路面標識、信号標識又は交通標識等の、危険度に関する画像に応じて、危険度の判断基準を変更する。一例ではあるが、路上に表示されている「スクールゾーン」の文字又は標識が画像認識部88により認識された場合、危険度判定部93は、危険度をレベル分けする閾値を、低い値に変更して危険度のレベル分けを行う。
これにより、危険度の判断基準を低くすることができ、「スクールゾーン」の文字又は標識が表示されている路上又は近辺を移動する移動体に対して、高い危険度の判定を得易くすることができる。そして、子供の飛び出し等の状況が頻繁に起こり得るスクールゾーンにおいても、高い危険度の判定により、運転者に対して高度な注意を喚起することができ、安全性を十分に担保可能とする危険度予測を可能とすることができる。
また、「スクールゾーン」以外であっても、例えばT字路又は交差点等の路上に書かれている「停止」、「危い」、「交差点注意」等の文字、停止線及び横断歩道等の記号が画像認識部88で認識された際に、危険度判定部93は、危険度をレベル分けする閾値を、低い値に変更して危険度のレベル分けを行う。これにより、T字路又は交差点等の路上又は近辺を移動する移動体に対して、高い危険度の判定を得易くすることができる。このため、例えば人、車両、自転車又はオートバイ等が、運転者の視界の外から自車両の前方に移動する危険性に対する注意を、運転者に喚起できる。また、状況変化が頻繁に起こり得る交差点等に対して、安全性を十分に担保可能な危険度予測を可能とすることができる。
なお、上述の例は、危険度の判断基準を低くする例であったが、例えば見渡しの良い道路で、歩行者、障害物、標識等が画像認識部88で認識されない場合、危険度判定部93は、危険度をレベル分けする閾値を、高い値に変更して危険度のレベル分けを行う。これにより、危険度の判断基準を高くすることができ、自車両の周囲の移動体に対して、低い危険度の判定を得易くして、運転者の略々自由な運転を可能とすることができる。
また、この例では、HUD96を介して表示を行うこととして説明を進めるが、スピーカ部を介した音声出力、発光ダイオード(発光部)の発光制御、又は、バイブレータの振動制御等により、危険度判定情報に対応する報知を行ってもよい。すなわち、ディスプレイ、スピーカ部、発光部又はバイブレータ等の報知部を介して、危険度判定情報に対応する報知を行ってもよい。
以下、情報処理部2がHUD96を介して行う具体的な表示例を説明する。まず、図24は、自車両の前方に停止している停止車両110を追い越そうとした際に、対向車111が認識された場合の表示例である。この場合、情報処理部2は、対向車111の減速の度合いから、対向車111が停止するか、又は、走行を継続するか、を予測する。対向車111が停止するものと予測した場合には、情報処理部2は、HUD96を介して予測停止線を表示する。また、情報処理部2は、対向車111の相対速度を計算し、停止位置を予測し、HUD96を介して路面に塗りつぶし部112を表示する。
この場合、情報処理部2は、図象の方向性表現と奥行き感の誘起のために、自車両に向かって濃度が変化するグラデーション表現で塗りつぶし部112を表示してもよい。また、情報処理部2は、対向車111から自車両に向かって掃印するように塗りつぶし部112をアニメーション表示してもよい。
また、情報処理部2は、塗りつぶし部112の代わりに、線状の予測停止線を表示してもよい。この場合、予測停止線を可視化することができる。また、虚像である塗りつぶし部112により、運転者の視界を過剰に占有する不都合を防止でき、煩わしさを低減できる。
また、情報処理部2は、対向車111が停止する予測の場合には、停止車両110の追い越しを促す矢印を表示してもよい。塗りつぶし部112又は予測停止線が表示されることで、運転者が次の行動の判断に迷うことも懸念される。しかし、追い越しを促す矢印を表示することで、運転者に対して、安全に追い越し可能であることを知らせることができ、積極的な行動を促すことができる。さらに、追い越しを促す矢印を表示することで、塗りつぶし部112又は予測停止線との区別が明確となり、運転者の混乱を防止できる。
次に、例えば自車両から十分に離れた位置を等速移動する自転車が認識された場合、情報処理部2はHUD96を介して、歩行者又は自転車の進行方向に沿って輝度が増すグラデーション表示を行う。歩行者又は自転車の進行方向に対して反対方向に沿って輝度が増すグラデーション表示を行うと、「歩行者又は自転車が自車両に向かっている」と、運転者が誤解して、不要な警戒心を誘発するおそれがある。このため、歩行者又は自転車の進行方向に沿って輝度が増すグラデーション表示を行うことで、歩行者又は自転車の存在及び進行方向を運転者に知らせることができる。
次に、図25に、前方を走行する自転車に自車両が接近した際に、自転車が急にふらついて車道方向へ移動を開始した場合の表示例である。この場合、情報処理部2は、自車両の進行方向に対して横方向への自車両及び自転車の急な相対速度の変化を検出する。また、情報処理部2は、自車両と自転車との間の距離が近いことから、高い危険度を算出する。この場合、情報処理部2は、図25に示すようにHUD96を介して自転車の動きを予測した行動ベクトル群を、回避領域を示す警戒情報として表示する。一例ではあるが、この行動ベクトル群は、自転車から自車両が走行している道路側へ広がる波紋(法線群115)の画像となっている。この法線群115は、固定的な画像として表示してもよいし、自転車から道路側へ広がるようにアニメーション表示してもよい。
自転車の行動ベクトルを方向性のある矢印で表現すると、対象を中心として放射する行動ベクトルの束となって表示することとなるため、回避領域が直感的に把握しにくくなるおそれがある。しかし、自転車の行動ベクトルを法線群115で表示することで、回避領域を運転者に対して明確に知らせることができ、運転者が自車両と自転車との間合いを把握可能とすることができる。
なお、情報処理部2は、自転車の移動軌跡よりも高い輝度で法線群115を表示する。自転車の移動軌跡に対して輝度差を設けて法線群115を表示することで、法線群115が自転車につきまとう印象を運転者に与える不都合を防止できる。また、危険な状態包帯であることを運転者に知らせることができる。
また、情報処理部2は、例えば危険度が低い場合は青の法線群115を表示し、危険度が中程度の場合は黄色の法線群115を表示し、危険度が高い場合は赤色の法線群115を表示する。すなわち、情報処理部2は、危険度に応じた色で法線群115を表示する。これにより、法線群115の表示色で、運転者に対して危険度を知らせることができる。
次に、情報処理部2は、隣接する車線を走行していた先行車両があると、上述のように、この先行車両を認識し追従を開始する。このため、自車両と先行車両とが並走することで、ステレオカメラ部1で先行車両の一部しか撮像できない状態となった場合でも、情報処理部2は、先行車両の動きに追従できる。このような状態において、一旦、自車両の後方に位置することとなった先行車両(以下、追い越し車両という)が自車両を追い越そうとした場合、情報処理部2は、自車両と追い越し車両との相対速度から、追い越し車両が自車両を追い越すことが予測される行動ベクトルを検出する。そして、情報処理部2は、後方から追い越しを行う追い越し車両の予測される移動経路(仮想路線)を、HUD96を介して表示する。
図26、図27の(a)及び(b)の符号を付した図は、自車両を追い越すことが予測される追い越し車両の仮想路線の表示例を示している。情報処理部2は、自車両を追い越すことが予測される行動ベクトルを検出すると、図26に示すように自車両の走行ラインに隣接する隣接ライン上に、追い越しを行う可能性がある追い越し車両が存在することを示す帯状の仮想路線120を表示する。一例ではあるが、情報処理部2は、例えば高い輝度で、かつ、赤色の帯状の仮想路線120を表示する。なお、仮想路線120を通常の輝度で表示してもよいし、赤色以外の色で表示してもよい。このような仮想路線120を表示することで、自車両の運転者に対して、追い越し車両の存在を知らせることができる。また、情報処理部2は、移動経路120を表示すると共に、ECU95に対して、自車両の加速を禁止する情報を供給する。これにより、自車両の安全性を確保できる。
次に、追い越し車両が自車両に対してさらに近づいた場合、情報処理部2は、図27の(a)の符号を付した図に示すように、隣接する走行ラインから自車両の走行ラインにかけて帯状の仮想路線120を表示する。これにより、自車両の運転者に対して、隣接する走行ラインから、自車両の前方に追い越し車両が車線変更する可能性があることを知らせることができる。また、運転者は、自車両の前方に追い越し車両が車線変更する可能性を認識できるため、自車両の加速を直感的に抑えることができる。なお、このような仮想路線120と共に、例えば「後方車接近注意」等の追い越し車両の接近を知らせる文字又はアイコン等の警告の表示を行ってもよい。
次に、追い越し車両が自車両を追い越し、車線変更を開始すると、情報処理部2は、図27の(b)の符号を付した図に示すように、予測される追い越し車両の移動経路に沿って、帯状の仮想路線120を表示する。これにより、自車両の運転者は、追い越し車両の車線変更を妨害しないように、自車両を減速する等の安全運転を行うことができる。
なお、情報処理部2は、仮想路線120の表示後に、運転者が自車両の走行速度の減速を検出し、自車両の走行速度が所定の走行速度以下となった際に、表示している仮想路線120を非表示とする。
次に、走行ラインを認識困難な道路が存在する。例えば、図28に示す例は、前方にカーブしている複数車線の道路であり、左側の道路124は駐車場に入るための道路となっており、道路124に隣接する中央の道路が、先に続く道路126となっている道路である。このような道路において、情報処理部2は、第3の実施の形態で説明したように、道路上に書かれている文字を認識することで、左側の道路124は駐車場に入るための道路であることを認識する。そして、この場合、情報処理部2は、先に続く道路126に沿って帯状の誘導ライン125を、HUD96を介して表示する。これにより、ライン設定が複雑な道路においても、運転者に対して先に続く正しいラインを明示できる。
次に、店舗等が、店舗の近くを走行している車両に対して宣伝情報等を無線通信で送信している場合がある。このような無線通信情報を受信した場合、ECU95は、HUD96を介して表示する。図29の例は、○○商店の近くを走行中に、○○商店がセール中であることを示す宣伝情報を受信した場合の表示例である。この場合、情報処理部2は、受信した「○○商店セール中」等の情報を、HUD96を介して表示する。これにより、運転者は、○○商店の近くを走行しただけで、○○商店がセール中であることを知ることができ、○○商店に立ち寄って所望の商品を購入する等の適切な行動をとることができる。
このように第4の実施の形態の立体認識装置は、道路環境及び自車両の現在の状況等を適切に認識し、HUD96によって運転者の視界に直感的に認識可能な運転情報を表示できる。このため、運転者の安全運手をサポートすることができる。
(第5の実施の形態)
次に、第5の実施の形態となる立体認識装置の説明をする。この第5の実施の形態の立体認識装置は、ナビゲーション装置の検索ルートを、道路状況に応じて再検索させると共に、HUD96上に道路状況等の応じた運転情報を表示するものである。
図30に、第5の実施の形態の立体認識装置のハードウェア構成を示す。図30に示すように、第5の実施の形態の立体認識装置は、第4の実施の形態で説明した車両のECU95、及びHUD96を有している。また、第5の実施の形態の立体認識装置は、ステレオカメラ部1を備えた情報処理部2、運転者を撮像するドライバモニタカメラ部97、及び目的地までのルート表示を行うナビゲーション部130を有している。ナビゲーション部130は、運転者により入力された目的地までのルートを、HUD96を介して表示するようになっている。
図31のフローチャートに、第5の実施の形態の立体認識装置の動作の流れを示す。運転者によりナビゲーション部130に対して目的地が入力され、ナビゲーション部130により目的地までのルートが検索され、HUD96に検索されたルートが表示されると、図31のフローチャートの処理が開始される。
図31のフローチャートの処理が開始されると、情報処理部2は、第3の実施の形態で説明したように、ステップS31で状況認識を行い、ステップS32で自車両が走行している道路等の危険度を判断する。そして、情報処理部2は、ステップS33において、ステップS31及びステップS32で検出された道路状況及び危険度を用いて、これから走行しようとしている道路が安全に通行可能であるか否かを判別する。なお、ここでいう「これから走行しようとしている道路」は、ステレオカメラ部1の撮像画像から生成された視差画像から判断可能な範囲内の道路を意味している。ステップS33において、情報処理部2により、これから走行しようとしている道路が安全に通行可能であると判別された場合には(ステップS33:Yes)、ステップS34に処理が進み、情報処理部2は、ナビゲーション部130によりルートが表示されている画面上に、HUD96を介して安全に通行可能であることを示す通行可能表示を行う。
これに対して、ステップS33において、情報処理部2により、これから走行しようとしている道路を安全に通行することは困難であると判別された場合(ステップS33:No)、ステップS35に処理が進む。ステップS35では、情報処理部2が、ナビゲーション部130によりルートが表示されている画面上に、HUD96を介して通行困難であることを示す通行不可表示を行う。これと共に、情報処理部2は、ステップS35において、ナビゲーション部130に対してルートの再検索要求を行う。ナビゲーション部130は、ルートの再検索要求を受信すると、ステップS36において、ルートの再検索を行い、ステップS37において、再検索したルートを、HUD96を介して表示する。
このように第5の実施の形態の立体認識装置は、道路状況に応じて、ナビゲーション部130で検索されたルートを再検索してHUD96を介して表示する。これにより、ナビゲーション部130で検索されたルートが、走行に適さない場合は、即座にリルートして、走行に適したルートを運転者に提示できる。このため、運転者の安全運転に寄与できる。
なお、上述した実施形態では危険度を用いてルート再検索の判断を行っているが、これに限らず、他の情報を用いても良い。例えば、図13において説明したような背景モデル(静止物境界領域)の情報と、自車両の幅の情報を用いることができる。自車両の進行方向にある静止物間の距離が自車両の幅よりも狭い場合にルートの再検索を行う。このとき、自車両の幅よりも少し広い幅を設定し、この幅が静止物間の距離よりも狭い場合にルートの再検索を行うのが良い。なお、幅だけでなく、高さ方向にも同様の処理が利用され得る。また、ステレオカメラ等の撮像装置を用いずとも、例えばレーダー等によって周囲の環境を検出するのに十分な情報を取得できる場合には、画像の情報を用いる必要はない。
上述の各実施の形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な各実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。各実施の形態及び各実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
例えば図14及び図17等を用いて説明した上述の各実施の形態の各機能は、立体物認識プログラムによりソフトウェア的に実現されることとしたが、一部又は全部を、例えばIC(Integrated Circuit:集積回路)等のハードウェアで実現してもよい。
また、立体物認識プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、CD−R、DVD、ブルーレイディスク(登録商標)、半導体メモリ等のコンピュータ装置で読み取り可能な記録媒体に記録して提供してもよい。また、インターネット等のネットワーク経由でインストールするかたちで提供してもよい。また、機器内のROM等に予め組み込んで提供してもよい。DVDは、「Digital Versatile Disk」の略記である。
また、上述の各実施の形態の説明では、視差画像は、ステレオカメラ部1で撮像された画像から生成することとした。しかし、視差を形成するように一つのカメラ部の撮像位置を移動して撮像した複数の画像から、視差画像を生成してもよい。
1 ステレオカメラ部
2 情報処理部
5 レンズ
6 画像センサ
7 センサコントローラ
10 データバスライン
11 シリアルバスライン
15 CPU
16 FPGA
17 ROM
18 RAM
19 シリアルIF
20 データIF
31 視差画像生成部
32 3次元情報化部
33 車両情報(CAN情報)取得部
34 シーン状況認識部
35 シーン状況更新部
36 状況予測部
37 追跡認識部
38 既検出除去部
39 新規物体検出部
40 立体物更新部
60 自車両
71 背景認識部
72 道路認識部
73 位置予測部
74 動き予測部
75 追跡検出部
76 状況認識部
77 動体認識処理部
78 認識結果更新部
85 視差画像
86 3次元情報化部
87 3次元構造認識部
88 画像認識部
89 シーン認識部
90 シチュエーション予測部
91 シチュエーション認識部
92 新規物体検出部
93 危険度判定部
95 ECU
96 ヘッドアップディスプレイ(HUD)
97 ドライバモニタカメラ部
130 ナビゲーション部
特開2000−266539号公報

Claims (10)

  1. 各画素の距離情報を含む距離画像を取得する距離画像取得部と、
    前記距離画像から移動体を検出する移動体検出部と、
    前記距離画像取得部で取得される距離画像から前記移動体の背景となる静止物をモデル化した背景モデルを生成する背景認識部と、
    を有し、
    前記移動体検出部は、前記移動体と前記背景モデルの相対的な位置関係に基づいて、前記移動体を検出する方法を変えること
    を特徴とする処理装置。
  2. 前記距離画像から前記移動体が移動するための移動面をモデル化した移動面状況モデルを生成する移動面認識部と、
    前記移動体と前記背景モデルとの位置関係、及び、前記移動体と前記移動面状況モデルとの位置関係のうち、少なくとも一つを用いて周囲の状況認識を行う状況認識部と、を有し、
    前記移動体検出部は、前記状況認識の結果に基づいて、前記移動体を検出すること
    を特徴とする請求項1に記載の処理装置。
  3. 各画素の距離情報を含む距離画像を取得する距離画像取得部と、
    取得される前記各距離画像から移動体を検出する移動体検出部と、
    前記距離画像取得部で取得される距離画像から前記移動体の背景となる静止物をモデル化した背景モデルを生成する背景認識部と、
    前記距離画像取得部で取得される距離画像から前記移動体が移動するための移動面をモデル化した移動面状況モデルを生成する移動面認識部と、
    前記移動体と前記背景モデルとの位置関係、及び、前記移動体と前記移動面状況モデルとの位置関係のうち、少なくとも一つを用いて周囲の状況認識を行う状況認識部と
    を有する処理装置。
  4. 前記移動体検出部は、前記状況認識部により認識された周囲の状況から、姿勢変化が生じた前記移動体を検出すること
    を特徴とする請求項1から請求項3のうち、いずれか一項に記載の処理装置。
  5. 前記移動体検出部は、前記状況認識部により認識された周囲の状況から、一部が隠蔽された状態の前記移動体を検出すること
    を特徴とする請求項1から請求項4のうち、いずれか一項に記載の処理装置。
  6. 前記移動体、前記移動面状況モデル及び前記背景モデルの3次元位置関係の履歴を記憶する記憶部を、さらに備えたこと
    を特徴とする請求項1から請求項5のうち、いずれか一項に記載の処理装置。
  7. 前記移動体検出部は、前記記憶部に記憶された、前記移動体、前記移動面状況モデル及び前記背景モデルの3次元位置関係の履歴から、姿勢変化が生じた前記移動体、又は、一部が隠蔽された前記移動体の検出を行うこと
    を特長とする請求項6に記載の処理装置。
  8. 各画素の距離情報を含む距離画像を取得する距離画像取得部と、
    前記距離画像取得部で取得される距離画像から、背景となる静止物をモデル化した背景モデルを生成する背景認識部と、
    前記距離画像から検出する移動体と前記背景モデルの相対的な位置関係に基づいて、検出する方法を変更して前記移動体の検出を行う移動体検出部と、
    前記移動体の検出結果に応じて、被制御部を制御する制御部と
    を有する処理システム。
  9. コンピュータを、
    各画素の距離情報を含む距離画像を取得する距離画像取得部と、
    前記距離画像取得部で取得される距離画像から、背景となる静止物をモデル化した背景モデルを生成する背景認識部と、
    前記距離画像から検出する移動体と前記背景モデルの相対的な位置関係に基づいて、検出する方法を変更して前記移動体の検出を行う移動体検出部として機能させること
    を特徴とする処理プログラム。
  10. 距離画像取得部が、各画素の距離情報を含む距離画像を取得する距離画像取得ステップと、
    背景認識部が、前記距離画像取得部で取得される距離画像から、背景となる静止物をモデル化した背景モデルを生成する背景認識ステップと、
    移動体検出部が、前記距離画像から検出する移動体と前記背景モデルの相対的な位置関係に基づいて、検出する方法を変更して前記移動体の検出を行う移動体検出ステップと
    を有する処理方法。
JP2015081172A 2014-05-19 2015-04-10 処理装置、処理システム、処理プログラム及び処理方法 Active JP6648411B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2015081172A JP6648411B2 (ja) 2014-05-19 2015-04-10 処理装置、処理システム、処理プログラム及び処理方法
AU2015262344A AU2015262344B2 (en) 2014-05-19 2015-05-19 Processing apparatus, processing system, processing program, and processing method
CA2949200A CA2949200C (en) 2014-05-19 2015-05-19 Processing apparatus, processing system, processing program, and processing method
PCT/JP2015/064840 WO2015178497A1 (en) 2014-05-19 2015-05-19 Processing apparatus, processing system, processing program, and processing method
US15/311,946 US10402664B2 (en) 2014-05-19 2015-05-19 Processing apparatus, processing system, processing program, and processing method
EP15796960.1A EP3146518A4 (en) 2014-05-19 2015-05-19 Processing apparatus, processing system, processing program, and processing method
CN201580025868.XA CN106463060B (zh) 2014-05-19 2015-05-19 处理装置、处理系统和处理方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014103831 2014-05-19
JP2014103831 2014-05-19
JP2015081172A JP6648411B2 (ja) 2014-05-19 2015-04-10 処理装置、処理システム、処理プログラム及び処理方法

Publications (2)

Publication Number Publication Date
JP2016001463A true JP2016001463A (ja) 2016-01-07
JP6648411B2 JP6648411B2 (ja) 2020-02-14

Family

ID=54554153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015081172A Active JP6648411B2 (ja) 2014-05-19 2015-04-10 処理装置、処理システム、処理プログラム及び処理方法

Country Status (7)

Country Link
US (1) US10402664B2 (ja)
EP (1) EP3146518A4 (ja)
JP (1) JP6648411B2 (ja)
CN (1) CN106463060B (ja)
AU (1) AU2015262344B2 (ja)
CA (1) CA2949200C (ja)
WO (1) WO2015178497A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9637118B2 (en) 2014-05-19 2017-05-02 Ricoh Company, Ltd. Processing apparatus, processing system, and processing method
WO2018003056A1 (ja) * 2016-06-30 2018-01-04 日産自動車株式会社 物体追跡方法及び物体追跡装置
JP2018092596A (ja) * 2016-11-30 2018-06-14 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラム
JP2019211831A (ja) * 2018-05-31 2019-12-12 トヨタ自動車株式会社 物体認識装置
US10520309B2 (en) 2015-07-02 2019-12-31 Ricoh Company, Ltd. Object recognition device, object recognition method, equipment control system, and distance image generation device
JP7407738B2 (ja) 2019-01-02 2024-01-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置、情報処理方法及びプログラム

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106573588B (zh) * 2014-08-21 2019-01-25 三菱电机株式会社 驾驶辅助装置、驾驶辅助方法和程序
JP6459443B2 (ja) * 2014-11-28 2019-01-30 株式会社リコー 検知装置、検知システム、検知方法及びプログラム
JP6289681B2 (ja) * 2015-01-22 2018-03-07 三菱電機株式会社 撮像装置及び方法、並びにプログラム及び記録媒体
US10113877B1 (en) * 2015-09-11 2018-10-30 Philip Raymond Schaefer System and method for providing directional information
DE112015007054B4 (de) 2015-11-20 2019-11-28 Mitsubishi Electric Corp. Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm
SE541846C2 (en) * 2016-02-10 2019-12-27 Scania Cv Ab Method and control unit for rear view
JP6752024B2 (ja) * 2016-02-12 2020-09-09 日立オートモティブシステムズ株式会社 画像処理装置
US10338589B2 (en) * 2016-03-25 2019-07-02 Panasonic Intellectual Property Corporation Of America Controller, driving control method, and non-transitory computer-readable recording medium storing a program
JP6654999B2 (ja) * 2016-12-12 2020-02-26 株式会社Soken 物標検出装置
JP6794243B2 (ja) * 2016-12-19 2020-12-02 日立オートモティブシステムズ株式会社 物体検出装置
JP7180074B2 (ja) 2017-01-31 2022-11-30 株式会社リコー 撮像装置
JP6969121B2 (ja) 2017-03-17 2021-11-24 株式会社リコー 撮像システム、画像処理装置および画像処理プログラム
JP6782433B2 (ja) * 2017-03-22 2020-11-11 パナソニックIpマネジメント株式会社 画像認識装置
KR102310378B1 (ko) * 2017-04-18 2021-10-12 현대자동차주식회사 차량 주행제어 장치 및 방법
CN108475072A (zh) * 2017-04-28 2018-08-31 深圳市大疆创新科技有限公司 一种跟踪控制方法、装置及飞行器
JP2019008519A (ja) * 2017-06-23 2019-01-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 移動体検出方法、移動体学習方法、移動体検出装置、移動体学習装置、移動体検出システム、および、プログラム
WO2019026714A1 (ja) * 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、および情報処理方法、プログラム、並びに移動体
KR102448287B1 (ko) * 2017-08-08 2022-09-28 삼성전자주식회사 전자 장치 및 그 동작 방법
JP6548312B2 (ja) * 2017-09-19 2019-07-24 株式会社Subaru 画像処理装置
JP7050449B2 (ja) * 2017-10-04 2022-04-08 パナソニック株式会社 路側装置、通信システムおよび危険検知方法
CN108460348B (zh) * 2018-02-12 2022-04-22 杭州电子科技大学 基于三维模型的道路目标检测方法
DE112018007253T5 (de) * 2018-03-09 2020-12-17 Honda Motor Co., Ltd. Fahrzeugsteuervorrichtung, Fahrzeugsteuerverfahren und Programm
CN108615386B (zh) * 2018-03-14 2021-08-31 斑马网络技术有限公司 用于车辆的交通标识ar成像方法及其系统
CN108597213B (zh) * 2018-03-14 2021-08-31 斑马网络技术有限公司 用于车辆的交通标识立体显示方法及其系统
EP3780578A4 (en) * 2018-03-29 2021-04-21 Sony Corporation EXPOSURE CONTROL DEVICE, EXPOSURE CONTROL METHOD, PROGRAM, IMAGING DEVICE, AND MOBILE BODY
CN110378185A (zh) * 2018-04-12 2019-10-25 北京图森未来科技有限公司 一种应用于自动驾驶车辆的图像处理方法、装置
CN108846519B (zh) * 2018-06-14 2021-09-03 大唐高鸿信息通信(义乌)有限公司 基于车载短距离通信网络的安全驾驶k最近邻预测方法
CN108922245B (zh) * 2018-07-06 2021-03-09 北京中交华安科技有限公司 一种公路视距不良路段预警方法及系统
CN109191496B (zh) * 2018-08-02 2020-10-02 阿依瓦(北京)技术有限公司 一种基于形状匹配的运动预测方法
US11436839B2 (en) * 2018-11-02 2022-09-06 Toyota Research Institute, Inc. Systems and methods of detecting moving obstacles
US10909692B2 (en) * 2018-12-14 2021-02-02 Andrew Bennett System and method of detecting and acting upon moving objects
EP3988893A4 (en) * 2019-06-21 2023-01-11 Sony Interactive Entertainment Inc. POSITION DETECTION SYSTEM, IMAGE PROCESSING DEVICE, POSITION DETECTION METHOD, AND POSITION DETECTION PROGRAM
CN111062911B (zh) * 2019-11-15 2023-08-18 北京中科慧眼科技有限公司 基于路面信息的成像环境评价方法、装置、系统和存储介质
CN111249728B (zh) * 2020-01-22 2021-08-31 荣耀终端有限公司 一种图像处理方法、装置及存储介质
JP7431623B2 (ja) * 2020-03-11 2024-02-15 株式会社Subaru 車外環境認識装置
CN112365741B (zh) * 2020-10-23 2021-09-28 淮阴工学院 一种基于多车道车距检测的安全预警方法及系统
CN112802303A (zh) * 2021-02-09 2021-05-14 成都视海芯图微电子有限公司 一种基于3d视觉的实时风险预测方法及系统
US11590845B2 (en) * 2021-04-29 2023-02-28 Toyota Research Institute, Inc. Systems and methods for controlling a head-up display in a vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052171A (ja) * 1999-08-06 2001-02-23 Nissan Motor Co Ltd 周囲環境認識装置
JP2011128844A (ja) * 2009-12-17 2011-06-30 Fuji Heavy Ind Ltd 路面形状認識装置
JP2013152546A (ja) * 2012-01-24 2013-08-08 Sharp Corp 運転支援装置、運転支援方法及びそのプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5371725A (en) 1976-12-09 1978-06-26 Toyota Motor Corp Exhaust gas re-circulating device for internal combustion engine
JPH0869596A (ja) * 1994-08-29 1996-03-12 Fujitsu Ltd 交通監視装置
JP3596339B2 (ja) 1999-03-15 2004-12-02 日産自動車株式会社 車間距離計測装置
JP2004354236A (ja) 2003-05-29 2004-12-16 Olympus Corp ステレオカメラ支持装置およびステレオカメラ支持方法ならびにステレオカメラシステム
WO2004106856A1 (ja) 2003-05-29 2004-12-09 Olympus Corporation ステレオカメラ支持装置、ステレオカメラ支持方法及びキャリブレーション検出装置及びキャリブレーション補正装置並びにステレオカメラシステム
WO2006121088A1 (ja) * 2005-05-10 2006-11-16 Olympus Corporation 画像処理装置、画像処理方法および画像処理プログラム
JP5127182B2 (ja) 2006-08-14 2013-01-23 富士重工業株式会社 物体検出装置
TWI334393B (en) 2008-10-07 2010-12-11 Ind Tech Res Inst Image-based vehicle maneuvering assistant method and system
JP5371725B2 (ja) 2009-12-16 2013-12-18 富士重工業株式会社 物体検出装置
JP5664152B2 (ja) 2009-12-25 2015-02-04 株式会社リコー 撮像装置、車載用撮像システム及び物体識別装置
JP5468426B2 (ja) 2010-03-12 2014-04-09 日立オートモティブシステムズ株式会社 ステレオカメラ装置
WO2012017650A1 (ja) * 2010-08-03 2012-02-09 パナソニック株式会社 物体検出装置、物体検出方法及びプログラム
CN102685516A (zh) 2011-03-07 2012-09-19 李慧盈 立体视觉主动安全辅助驾驶方法
CN103123722B (zh) 2011-11-18 2016-04-27 株式会社理光 道路对象检测方法和系统
JP6398347B2 (ja) 2013-08-15 2018-10-03 株式会社リコー 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム
US20150109444A1 (en) * 2013-10-22 2015-04-23 GM Global Technology Operations LLC Vision-based object sensing and highlighting in vehicle image display systems
JP6547292B2 (ja) 2014-02-05 2019-07-24 株式会社リコー 画像処理装置、機器制御システム、および画像処理プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052171A (ja) * 1999-08-06 2001-02-23 Nissan Motor Co Ltd 周囲環境認識装置
JP2011128844A (ja) * 2009-12-17 2011-06-30 Fuji Heavy Ind Ltd 路面形状認識装置
JP2013152546A (ja) * 2012-01-24 2013-08-08 Sharp Corp 運転支援装置、運転支援方法及びそのプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9637118B2 (en) 2014-05-19 2017-05-02 Ricoh Company, Ltd. Processing apparatus, processing system, and processing method
US10387733B2 (en) 2014-05-19 2019-08-20 Ricoh Company, Ltd. Processing apparatus, processing system, and processing method
US10520309B2 (en) 2015-07-02 2019-12-31 Ricoh Company, Ltd. Object recognition device, object recognition method, equipment control system, and distance image generation device
WO2018003056A1 (ja) * 2016-06-30 2018-01-04 日産自動車株式会社 物体追跡方法及び物体追跡装置
JPWO2018003056A1 (ja) * 2016-06-30 2019-04-04 日産自動車株式会社 物体追跡方法及び物体追跡装置
RU2699583C1 (ru) * 2016-06-30 2019-09-06 Ниссан Мотор Ко., Лтд. Способ отслеживания объектов и устройство отслеживания объектов
US10482612B2 (en) 2016-06-30 2019-11-19 Nissan Motor Co., Ltd. Object tracking method and object tracking apparatus
JP2018092596A (ja) * 2016-11-30 2018-06-14 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、およびプログラム
JP2019211831A (ja) * 2018-05-31 2019-12-12 トヨタ自動車株式会社 物体認識装置
JP7407738B2 (ja) 2019-01-02 2024-01-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP6648411B2 (ja) 2020-02-14
CN106463060A (zh) 2017-02-22
AU2015262344B2 (en) 2018-02-08
CA2949200C (en) 2019-01-08
US10402664B2 (en) 2019-09-03
EP3146518A1 (en) 2017-03-29
CA2949200A1 (en) 2015-11-26
CN106463060B (zh) 2020-01-10
US20170098132A1 (en) 2017-04-06
AU2015262344A1 (en) 2016-12-15
WO2015178497A1 (en) 2015-11-26
EP3146518A4 (en) 2017-03-29

Similar Documents

Publication Publication Date Title
JP6648411B2 (ja) 処理装置、処理システム、処理プログラム及び処理方法
US10387733B2 (en) Processing apparatus, processing system, and processing method
JP2016001170A (ja) 処理装置、処理プログラム、及び、処理方法
JP7159533B2 (ja) ホスト車両用のナビゲーションシステム
KR102351592B1 (ko) 기본 미리 보기 영역 및 시선 기반 운전자 주의 산만 검출
US20220073068A1 (en) Rider assistance system and method
US20180276986A1 (en) Vehicle-to-human communication in an autonomous vehicle operation
JP5938569B2 (ja) 方位情報を考慮する高度運転者支援システム、及びその動作方法
US20200398743A1 (en) Method and apparatus for learning how to notify pedestrians
JP7188394B2 (ja) 画像処理装置及び画像処理方法
JP2015165381A (ja) 画像処理装置、機器制御システム、および画像処理プログラム
JPWO2019181284A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
WO2016067545A1 (ja) 注視誘導装置
JP2020126629A (ja) バイクライダー用スマートヘルメットを利用してバイクのブラインドスポットをモニタリングする方法及びこれを利用したブラインドスポットモニタリング装置
JP2021047644A (ja) 電子制御装置
JP7291015B2 (ja) 周囲物体認識方法及び周囲物体認識装置
JP7400914B1 (ja) 自動運転装置
KR20230034523A (ko) 터널 진출입시 충돌방지장치 및 방법
JP2024047442A (ja) 自動運転装置
EP4355626A1 (en) Devices and methods for predicting collisions, predicting intersection violations, and/or determining region of interest for object detection in camera images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191230

R151 Written notification of patent or utility model registration

Ref document number: 6648411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151