JP2015165381A - 画像処理装置、機器制御システム、および画像処理プログラム - Google Patents

画像処理装置、機器制御システム、および画像処理プログラム Download PDF

Info

Publication number
JP2015165381A
JP2015165381A JP2014256507A JP2014256507A JP2015165381A JP 2015165381 A JP2015165381 A JP 2015165381A JP 2014256507 A JP2014256507 A JP 2014256507A JP 2014256507 A JP2014256507 A JP 2014256507A JP 2015165381 A JP2015165381 A JP 2015165381A
Authority
JP
Japan
Prior art keywords
recognition
unit
situation
target
distance image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014256507A
Other languages
English (en)
Other versions
JP6547292B2 (ja
Inventor
横田 聡一郎
Soichiro Yokota
聡一郎 横田
ルゥ ヤオジエ
Yaojie Ruu
ルゥ ヤオジエ
智子 石垣
Tomoko Ishigaki
智子 石垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014256507A priority Critical patent/JP6547292B2/ja
Priority to PCT/JP2015/053884 priority patent/WO2015119301A1/en
Priority to EP15746645.9A priority patent/EP3103107A4/en
Priority to US15/115,832 priority patent/US10489664B2/en
Publication of JP2015165381A publication Critical patent/JP2015165381A/ja
Application granted granted Critical
Publication of JP6547292B2 publication Critical patent/JP6547292B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

【課題】物体の認識精度の向上を図る。
【解決手段】状況認識部は、距離画像取得部で取得された距離画像に相当する撮像領域の状況を示す外的状況を認識する。対象認識部は、状況認識部の認識結果に基づいた認識手法により、前記距離画像から認識対象の認識を行う。対象認識部は、一例として距離画像から認識対象を認識するための、一つまたは複数の認識手法のうち、状況予測部の予測結果に対応する認識手法を選択し、認識対象の認識に用いている認識手法の閾値を、状況予測部の予測結果に対応する閾値に変更し、選択した認識手法および変更した閾値を用いて認識対象の認識を行う。
【選択図】図7

Description

本発明は、画像処理装置、機器制御システム、および画像処理プログラムに関する。
近年において、自車両の前方の走行車両、または歩行者等の移動物体の速度と移動状態の変化とを認識し、前方車両の急ブレーキ、自車両と前方車両との間への別の車両の割り込み、歩行者の飛び出し等の危険な状態を早期発見し、ドライバーに警告、危険を予防する移動物体認識装置が開発されている。
例えば、前方の移動物体を認識するのに、2次元画像の画像フレーム間におけるオブジェクトのサイズの変化とカメラの焦点距離とにより、前方のオブジェクトに対する距離の変化を求める方法がある。しかし、この方法によるオブジェクトの距離の測定精度、例えば、移動物体の移動変化の検出精度は低いという問題がある。
そこで、特許文献1(特開2000−266539号公報)において、ステレオカメラ装置により得られたステレオ画像から視差を計算して視差画像(距離画像ともいう)を得る車間距離計測装置が提案されている。なお、視差画像とは視差を明るさに変換することにより得られる画像をいう。
この特許文献1に開示されている車間距離計測装置は、視差画像から前方の車両を検知し、検知した車両のエッジの移動ベクトルの大きさおよび方向により、車間距離と距離の変化とを計測している。
しかし、特許文献1に開示されている車間距離計測装置は、ステレオカメラ装置で得られた視差画像から直接的に移動物体を認識しているため、移動物体の認識精度が低いという問題があった。
本発明は、上述の課題に鑑みてなされたものであり、物体の認識精度の向上を図ることが可能な画像処理装置、機器制御システム、および画像処理プログラムの提供を目的とする。
本発明は、上述した課題を解決するための手段として、距離画像を取得する距離画像取得部と、取得された距離画像に相当する撮像領域の状況を示す外的状況を認識する状況認識部と、状況認識部の認識結果に基づいた認識手法により、距離画像から認識対象の認識を行う対象認識部とを有する。
本発明によれば、物体の認識精度の向上を図ることができるという効果を奏する。
図1は、一般的な立体物認識処理の流れを示す図である。 図2は、実施の形態の立体物認識装置の要部のハードウェア構成図である。 図3は、シーングラフを説明するための模式図である。 図4は、車シーングラフを説明するための模式図である。 図5は、実施の形態の立体物認識装置で記述されるシーン状況モデルのシーングラフを示す図である。 図6は、実施の形態の立体物認識装置で記述される立体物モデルのシーングラフを示す図である。 図7は、実施の形態の立体物認識装置の機能ブロック図である。 図8は、実施の形態の立体物認識装置の状況予測結果に応じて認識対象の認識手法等の変更動作を説明するためのフローチャートである。 図9は、実施の形態の立体物認識装置の認識処理の全体的な流れを説明するためのフローチャートである。 図10は、認識対象を追跡している画面の一例を示す図である。
以下、本発明に係る画像処理装置、機器制御システム、および画像処理プログラムを適用した立体物認識装置の実施の形態を、添付図面を参照しながら詳細に説明する。なお、以下の説明において、「制御対象」とは、例えば自車両等のように、実施の形態の立体物認識装置による認識結果を利用して制御される対象物を示すこととする。また、「認識対象」とは、例えば先行車両等のように、実施の形態の立体物認識装置で認識される対象物で、制御対象の制御の起因となる物体を示すこととする。
まず、図1に、一般的な立体物認識処理の流れを示す。この図1に示すように、一般的な立体物認識処理においては、ステップS1において、カメラ装置等で撮像された画像を取得し、ステップS2において、取得した画像から特徴点を抽出する。また、ステップS3で、特徴点から物体の認識を行い、ステップS4で、認識した物体の重心を、それまで認識した各物体の重心の認識履歴と照合しながら各物体の追跡を行う。各物体の認識結果で制御する制御対象が、例えば自動ブレーキシステムの場合、自動ブレーキシステムは、ステップS5において、認識結果に応じて、自動的にブレーキをかける等の制御を行う。
このような立体物認識処理において、フレーム毎に認識対象の認識または非認識が生ずると、例えば車両の場合、一度、非認識となった後に、次に認識したときには、自車両と先行車両との間に予想以上の開きが生じており、反対に、先行車両がブレーキをかけることで、先行車両が自車両の手前まで迫っている等の不都合を生ずる(ハンチング)。このため、このような不都合を生じないように、認識対象を安定して認識し続けることが重要となる。
しかし、物体のエッジ情報で認識対象の認識を行う場合、同じ認識対象を撮像している場合でも、センサの感度特性または照明条件等の変化により、認識対象のエッジ情報の認識または非認識が生ずる。例えば、走行中において、太陽の位置または逆光等の変化が発生した場合、認識対象が他の物体の陰に隠れた場合、または、自車両が建物等の陰に入った場合等は、認識対象の非認識が生ずる。また、例えば薄暗い状況下のため、認識対象のエッジ情報の値が、認識アルゴリズムの閾値付近の値である場合、センサ感度のばらつき等で、認識対象の非認識が生ずる。これらに対応するためには、1フレームの認識ロジックの閾値を調整する等、認識アルゴリズムのパラメータ調整が必要となる。
ここで、一般的な立体物認識処理においては、「物体を認識すること」を目的とした物体認識アルゴリズムが適用されている。この「物体を認識すること」を目的とした物体認識アルゴリズムの場合、上述のように様々な外光変化や認識対象の見え方の変化等に対する、ロバストで、認識率が最大となるパフォーマンスを得ることを目的として開発されている。すなわち、物体の見え方および画像内の位置等に関わらず、1フレーム内に存在する物体をいかに多く正確に認識できるか、ということを目的として開発されている。このため、このアルゴリズムは、1フレーム内に存在する物体に対して、認識の優先順位は無く、全ての物体を均等に認識できるように、パラメータの調整等が施されている。
しかし、認識対象となる物体は、時間的な変化の中で、見え方が変わってしまうことが多く発生する。これは自車両等の制御対象も自律的に動いており、また、先行車両等の認識対象も自律的に動いているためである。例えば、先行車両が路面のカーブに沿って走行している場合、または、先行車両が隣接する車線に車線変更した場合等である。このような状況下では、先行車両の見え方が変化するため、先行車両の非認識が多く発生する。そして、このような状況においても先行車両を認識可能なように認識アルゴリズムのパラメータを調整すると、例えば直線道路上の先行車両の認識を行っている場合でも非認識が発生する等のように、通常の状況においても非認識または誤認識が発生する不都合を生ずるようになる。
このように、様々な状況下において、全ての認識対象を認識しようとすると(=認識対象の認識を目的としてパラメータの調整等を行った認識アルゴリズムは)、非認識と誤認識のトレードオフが発生し、膨大な開発工数および開発時間をかけて非認識と誤認識のバランス設計を強いられることとなる。また、このようなバランス設計でパラメータの調整等を行ったにもかかわらず、通常の状況においても、非認識または誤認識が発生する不都合を生ずる。
一方、例えば自動車の自動ブレーキシステム等の制御は、物体の一度の認識結果で行われるわけではなく、時間の経過と共に連続して認識した認識結果に基づいて、連続的に制御が行われる。このため、制御対象の制御を行う場合、制御の起因となる認識対象を、確実に認識して追尾することが重要となる。これは、自動車だけではなく、ロボット、農機、および重機等においても同様である。すなわち、制御対象を制御することを目的とする場合は、全ての物体を均等に認識できればよいと言うわけではなく、制御の起因となる認識対象を、確実に認識して追尾することが重要となる。
また、制御対象の制御を目的とした物体認識を行う場合、
(1)認識対象には優先度を設けて認識を行うこと、
(2)一度認識した認識対象を非認識とすること無く、連続して認識(追尾:捕捉)可能とすること、
(3)認識状態が不安定なものは制御対象とはしないこと、
(4)非認識および誤認識の原因を特定可能とすること、
が好ましい。
(1)の優先度としては、目前の認識対象は優先度が高い認識対象となる。また、端の認識対象は、優先度が低い認識対象となる。(2)については、一度認識した対象を非認識としてしまうと、十分適切な制御を行うことができない。(3)の制御対象は、前述のハンチング等の不具合が生じる。(4)の原因の特定は、物体認識制御のプログラムの修正等を行う際に必要となる。例えば、自動車のブレーキを制御する走行安全システムにおいて、誤ブレーキ動作が発生した場合、原因を特定可能とすることは、プログラムの修正等を図るためにも重要なことである。このため、学習等の処理状態が不透明なアルゴリズムは、物体認識制御には採用し難い。また、上述したバランス設計においては、非認識が多少多くなっても誤認識を防止する方向に、物体認識制御の認識アルゴリズムが調整されることが多い。換言すると、誤認識による誤動作を防止して安全性を高めるように、物体認識制御の認識アルゴリズムが調整されることが多い。
このようなことから、実施の形態の立体物認識装置は、まず、制御対象(例えば自車両)の走行速度等の「内的状況」、既認識された認識対象(先行車両、壁、道路等)の有無等の「外的状況」から、現在の状況を認識する。現状を認識できれば、例えば先行車両の陰から自車両の前に人が出てくること等が予測(次の事象を予測)できる。このため、以後の制御に予測結果を反映させることができる。例えば、安定的に認識されている認識対象は優先度が高いと判断し、多少の輝度変化等が発生しても認識できるように閾値を下げたシンプルなアルゴリズムを適用する。また、道路のカーブ等で認識対象(先行車両)の形状が変化しまたは認識し難くなった場合でも、これらが予測した変化である場合は、積極的に認識を行う。すなわち、実施の形態の立体物認識装置は、複数のアルゴリズムまたはアルゴリズムのウェイトを、状況判断や予測に基づいて可変または選択して用いる。これにより、物体の認識精度を飛躍的に向上させることができる。
また、閾値を変化させる以外に、以下のアルゴリズムを実行してもよい。すなわち、通常の認識技術においては、例えば路面上に存在する物体であるか否か、対称性があるか否か等の複数のアルゴリズムによるチェックが行われる。しかし、安定的に認識されている対象に対しては、これらのアルゴリズムのうち、一部のアルゴリズムの実行を省略してもよい。すなわち、実施の形態の立体物認識装置は、撮像領域から認識される外的状況及び未来の外的状況に応じて、異なる認識手法を用いている。また、実施の形態の立体物認識装置は、所定の撮像フレームにおいて、前フレームで認識した既存物体の追跡を行った後に、既存物体を削除したうえで新規物体の認識を行う。これにより、安定的に認識されている既存物体を高精度に追跡し続け、新規物体の認識精度も高めることができる。
図2に、実施の形態の立体物認識装置のハードウェア構成図を示す。この図2に示すように、実施の形態の立体物認識装置は、ステレオカメラ部1と、情報処理部2とを有する。
ステレオカメラ部1は、左目用となる第1のカメラ部1aと、右目用となる第2のカメラ部1bとの、2台のカメラ部が平行に組みつけられて構成されている。各カメラ部1a,1bは、それぞれレンズ5、画像センサ6、センサコントローラ7を備えている。画像センサ6は、例えばCCDイメージセンサまたはCMOSイメージセンサとなっている。CCDは、「Charge Coupled Device」の略記である。また、CMOSは、「Complementary Metal-Oxide Semiconductor」の略記である。センサコントローラ7は、画像センサ6の露光制御、画像読み出し制御、外部回路との通信、および画像データの送信制御等を行う。
情報処理部2は、データバスライン10、シリアルバスライン11、CPU15、FPGA16、ROM17、RAM18、シリアルIF19、およびデータIF20を有している。CPUは、「Central Processing Unit」の略記である。FPGAは、「Field-Programmable Gate Array」の略記である。ROMは、「Read Only Memory」の略記である。RAMは、「Random Access Memory」の略記である。IFは、「interface」の略記である。
上述のステレオカメラ部1は、データバスライン10およびシリアルバスライン11を介して情報処理部2と接続されている。CPU15は、情報処理部2全体の動作、画像処理、および画像認識処理を実行制御する。各カメラ部1a,1bの画像センサ6で撮像された撮像画像の輝度画像データは、データバスライン10を介して情報処理部2のRAM12に書き込まれる。CPU15またはFPGA16からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、および各種設定データ等は、シリアルバスライン11を介して送受信される。
FPGA16は、RAM18に保存された画像データに対してリアルタイム性が要求される処理である、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って視差画像を生成し、RAM18に再度書き込む。CPU15は、ステレオカメラ部1の各センサコントローラ7の制御、および情報処理部2の全体的な制御を行う。また、ROM17には、後述する状況認識、予測、立体物認識等を実行するための立体物認識プログラムが記憶されている。立体物認識プログラムは、画像処理プログラムの一例である。CPU15は、データIF20を介して、例えば自車両のCAN情報(車速、加速度、舵角、ヨーレート等)をパラメータとして取得する。そして、CPU15は、ROM17に記憶されている立体物認識プログラムに従って、RAM18に記憶されている輝度画像および視差画像を用いて、状況認識等の各種処理を実行制御することで、例えば先行車両等の認識対象の認識を行う。CANは、「Controller Area Network」の略記である。
認識対象の認識データは、シリアルIF19を介して、例えば自動ブレーキシステム、または、自動速度制御システム等の外部機器へ供給される。自動ブレーキシステムは、認識対象の認識データを用いて自車両のブレーキ制御を行う。また、自動速度制御システムは、認識対象の認識データを用いて自車両の速度制御を行う。
次に、実施の形態の立体物認識装置は、人および車等の立体物、および、現在の状況をシーングラフで記述するようになっている。図3に、シーングラフの基本構造を、図4に、車のシーングラフの一例を示す。この図3および図4からわかるように、シーングラフは、木構造で表現される。また、シーングラフは、例えばBIFSまたはVRML等の言語を用いて記述される。BIFSは、「Binary Format for Scene description」の略記である。また、VRMLは、「Virtual Reality Modeling Language」の略記である。シーングラフでは、ノードと呼ばれる構成単位を階層的に組み合わせることで一つのグループを構成し、それらをまとめてシーン(状況)を構成する。ノードとは、光源、形状、材質、色、座標等をフィールドとして有する状況の構成単位であり、さらに下層のノードを持つことで階層化された記述となっている。
図5に、現在の状況を記述したシーングラフである「シーン状況モデル」の一例を示す。この図5のシーン状況モデルは、自車両の前方監視に有用な状況構成を記述した例である。この図5に示す例は、「背景物」、「道路」、および「自車」の各ノードが記述されている。また、「背景物」のノードの下層には、「側壁」、「正面壁」、および「屹立物」のノードが記述されている。各ノードは、例えば3次元位置、重心、相対速度、サイズ、信頼度等のエンティティを有する。また、ノードによっては、例えば道路の路面高さ、路端位置(走行可能領域)、またはカーブ曲率等の、ノード特有の情報を有する場合もある。
図6に、立体物を記述したシーングラフである「立体物モデル」の一例を示す。制御対象のブレーキ制御またはステアリング制御等による衝突回避を目的とするアプリケーションにおいては、最大の認識対象ターゲットは、人や車を含む立体物のグループに含まれる認識対象となる。実施の形態の立体物認識装置は、上述のシーン状況モデルとは別に、立体物モデルを記述するようになっている。この図6に示す例は、「車」、「人」および「その他の物体」の各ノードが記述されている。立体物モデルのノードは、例えば3次元位置、重心、相対速度、サイズ、信頼度等の、上述の背景物のエンティティと共通の構造を有し、また、詳細な立体物種別、および移動方向等のエンティティも有するように記述される。立体物種別としては、例えば立体物が車である場合は、大型車、または普通車等の種別が記述される。また、例えば立体物が人である場合は、大人、または子供等の種別が記述される。なお、上述の「シーン状況モデル」および「立体物モデル」は、予め定義され、ROM17に記憶されている。シーン状況モデルで記述されるシーンは、具体的には、高速道路やスクールゾーン等の状況である。また、立体物モデルで記述される各立体物は、具体的には、標識や信号等の静止物および車や人等の動体物である。
自動ブレーキシステム、または、自動速度制御システム等の制御対象においては、図6を用いて説明した立体物の認識結果が、図5を用いて説明したシーン状況モデルのCAN情報に含まれる位置および速度から計算して危険と判断された際に、制御が実行される。また、背景物との衝突の危険が計算された場合も制御が実行される。実施の形態の立体物認識装置は、次フレームにおける認識対象の優先度を、自車両の位置と道路情報を参酌し、認識された立体物(含背景物)に対する衝突の可能性を計算して決定する。すなわち、優先度は、自車両との衝突可能性が高い立体物に対して高く設定され、自車両との衝突可能性が低い立体物に対しては低く設定される。
図5および図6に示したシーン状況モデルおよび立体物モデルは、ステレオカメラ部1で撮像される撮像画像のフレーム毎に認識されると共に、履歴情報として記録およびアップデートされ、全体が次の動作の予測に利用される。
図7に、実施の形態の立体物認識装置のCPU15が立体物認識プログラムに従って動作することで実現される各機能の機能ブロック図を示す。図7に示すように、CPU15は、3次元情報化部32、車両情報(CAN情報)取得部33、シーン状況認識部34、およびシーン状況更新部35として機能する。また、CPU15は、状況予測部36、および追跡認識部37、既検出除去部38、新規物体検出部39、および立体物更新部40として機能する。なお、FPGA16は、図7に示す視差画像生成部31として機能し、上述のように視差画像(距離画像)を生成する。また、これら各部31〜40は、全てをソフトウェアで実現してもよいし、全てまたは一部をハードウェアで実現してもよい。
視差画像生成部31は、距離画像取得部の一例である。シーン状況認識部34は、状況認識部の一例である。追跡認識部37及び新規物体検出部39は、対象認識部の一例である。車両情報取得部33は、内的状況取得部の一例である。既検出除去部38は、除去部の一例である。
このような立体物認識装置において、ステレオカメラ部1の各カメラ部1a,1bで撮像された、例えば前方の先行車両および風景等の各撮像画像がRAM18に記憶されると、視差画像生成部31が、各撮像画像の視差を明るさに変換した、いわゆる視差画像(距離画像)を生成し、RAM18に記憶する。3次元情報化部32は、RAM18に記憶された視差画像から、3次元空間の情報を備えた3次元画像を生成し、RAM18に記憶する。なお、この例においては、距離画像は、各カメラ部1a,1bの各撮像画像から生成された視差画像とした。この他、一例ではあるが、各立体物にレーダー波を照射し、立体物に反射されたレーダー波を受波するまでの時間から算出した、物体との間の距離を示す距離情報を、視差画像の代わりに用いてもよい。なお、本明細書においては、視差画像を含め、距離情報及び画像情報が関連付けられたものを距離画像と定義する。
シーン状況認識部34は、車両情報取得部33で取得された現在の車両の状態(制御対象となる機器の動作状況を示す内的状況)を示すCAN情報から自車両の速度および移動方向等を認識する。また、シーン状況認識部34は、3次元画像に含まれる背景物、道路、先行車両、人等の外的状況を認識する。シーン状況更新部35は、シーン状況認識部34の認識結果から、図5を用いて説明した現在の状況を示すシーン状況モデルを生成し、RAM18に記憶する。このような現在の状況の認識は、画像のフレーム毎に行われる。シーン状況更新部35は、現在の状況の認識が行われる毎に、RAM18のシーン状況モデルを更新する。
次に、状況予測部36は、現在の車両の状態を示すCAN情報、RAM18上で更新された現在の状況を示すシーン状況モデル、および現在、認識している立体物以外の人、車両等の新たな立体物の現在の状況を示す立体物モデル(図6参照)を用いて、自車両、人、先行車両、側壁、道路等の状況を予測して予測情報を生成する。
追跡認識部37は、RAM18に記憶されている現在の視差画像内の立体物を認識すると共に、優先度が高い順に、いくつかの立体物を認識対象として認識する。追跡認識部37は、例えば自車両の目前の認識対象は優先度が高い認識対象となる。また、フレーム端の認識対象は、優先度が低い認識対象となる。
また、追跡認識部37は、RAM18に記憶されている現在の状況を示すシーン状況モデル、立体物モデル、および状況予測部36からの予測結果を用いて、認識対象の認識手法で用いている閾値を変化させ、または、異なる認識手法を適用する。例えば、安定的に認識されている認識対象は優先度が高いと判断し、多少の輝度変化等が発生しても認識できるように閾値を下げたシンプルなアルゴリズムを適用する。また、道路のカーブ等で認識対象(先行車両)の形状が変化しまたは認識し難くなった場合でも、これらが予測した変化である場合は、積極的に認識を行う。
追跡認識部37は、複数のアルゴリズムまたはアルゴリズムのウェイトを、状況判断や予測に基づいて可変または選択して認識対象の認識を行う。これにより、微妙な輝度変化によりフレーム毎に認識または非認識となっていた認識対象を、安定して認識し続ける(追跡)することができる。また、先行車両が道路のカーブを走行することで、形状が変化して見づらくなった場合でも、安定して認識し続けることができる。
次に、既検出除去部38は、RAM18に記憶されている現在の視差画像内の物体のうち、追跡認識部37で追跡している認識対象を除去し、更新視差画像としてRAM18に記憶する。
新規物体検出部39は、追跡認識部37で追跡している認識対象を除去した更新視差画像内の車両または人等の立体物を認識することで、追跡認識部37で現在、追跡している認識対象とは異なる新たな立体物を認識する。立体物更新部40は、RAM18に記憶されている図6に示した立体物モデルに、新規物体検出部39で認識された新たな立体物を反映させることで、RAM18に記憶されている立体物モデルを更新する。状況予測部36は、このように新たな立体物が反映されて更新された立体物モデルを用いて、状況の予測を行う。
また、立体物更新部40は、追跡認識部37からの認識対象の認識結果を、例えば自動ブレーキシステム、または、自動速度制御システム等の制御対象となる外部機器へ供給する。これにより、認識対象の認識結果に応じて、自動的に車両のブレーキがかけられ、または、車両の走行速度が自動的に調整される。
次に、状況予測部36における予測処理の詳細を説明する。状況予測部36は、「認識対象物位置」、「認識対象物形状変化率」、および「認識対象物被遮蔽率」を算出する。追跡認識部37は、これらの演算結果を認識対象の状況予測結果として用いる。
まず、認識対象物位置は、カルマンフィルタまたはベイズフィルタ等を用いて算出することができる。また、ある時刻tにおける自車両の位置、速度xf(t)、vf(t)、および先行車両等の位置、速度xp(t)、vp(t)は、以下の数式で算出される。
vf(t)=vf(t-1)+aft xf(t)=xf(t-1)+vft+((aft2)/2)
vp(t)=vp(t-1)+apt xp(t)=xp(t-1)+vpt+((apt2)/2)
認識対象物の自車両からの相対的実座標位置は、「xp(t)−xf(t)」で表すことができる。「xp(t)−xf(t)」の数式で算出された自車両からの相対的実座標位置の3次元点を「(Xp,Yp,Zp)」とマップすると、時刻tにおける認識対象物の撮像内位置は、例えば以下の数式で算出される。
xpredict=f(Xp/Zp)
ypredict=f(Yp/Zp)
ここで、「xpredict,ypredict」を、撮像画像における認識対象物の重心位置と仮定すると、この対象物認識における予測処理領域の面積Pareaは、重心位置を中心に認識対象物のサイズ「xwidth,yheight」を用いて、物体全体を包含しつつ、例えば以下の数式で示すように設定される。
Parea=(xwidth+ω1/R+ω2E)×(yheight+ω1/R+ω2E)
この数式において、「R」は、t−1までの認識結果の信頼度を示し(安定的に認識されていた場合、高い信頼度)、「E」は認識誤差、「ω1,ω2」は、これらを反映させる重みを示す。この実施の形態においては、一例としたx方向およびy方向共に同じ重みを適用している。x方向およびy方向、それぞれ異なる重みを適用してもよい。信頼度が低い場合または認識誤差が高い場合は、より大きな範囲で認識を行う。なお、信頼度としては、対象が連続して認識されたフレーム数等を用いれば良い。
次に、認識対象物形状変化率「Δobj」は、例えば「XP,YP,ZP」をもとに、図6を用いて説明した立体物の移動方向(XP,YP,ZP)、および図5を用いて説明した道路情報から、この位置にある道路曲率(C(XP,YP,ZP))、傾斜率(S(XP,YP,ZP))を計算し、以下の数式に示すように、これらを乗算して算出される。なお、道路曲率及び傾斜率の算出には、特許文献2(特開2004−102421号公報)又は特許文献3(特開2014−006882号公報)に記載の手法及びその他公知の手法が適宜用いられる。
Δobj=C((XP+Xv),(YP+Yv),(ZP+Zv))×S((XP+Xv),(YP+Yv),(ZP+Zv))
実装する際には、「C」および「S」に対して重み付けをしてもよく、また、正規化処理を施すことが望ましい。
同様に、認識対象物被遮蔽率「Hobj」は、例えば「XP,YP,ZP」、「XV,YV,ZV」をもとに、図5を用いて説明した背景情報から、この位置付近にある背景物および他の立体物との位置関係を計算し、認識対象物の動きの軌跡から、背景物が認識対象物の前方に位置することとなるか否かを予測することで計算される。この予測は、下記の関数で表すことができる。
obj=Func(ΣDbo,ΣDoo,ΣRinfo)
ここで、「Dbo」は、「(XP,YP,ZP)、(XV,YV,ZV)」をもとに、背景物との位置関係の差分を算出した、背景物との距離を示す変数である。「Dbo」の値は、位置関係が重複していた場合、高い値となる。「Doo」は、「(XP,YP,ZP)、(XV,YV,ZV)」をもとに、他の立体物との位置関係の差分を算出した変数である。「Doo」の値は、位置関係が重複していた場合、高い値となる。「Rinfo」は、図5を用いて説明した道路情報(上述の「C」および「S」をまとめたもの)である。なお、Hobjは、方向の情報を含むベクトル量である。どの方向から、どの程度遮蔽されるかを算出することで、遮蔽後の物体の形状を特定できる。また、状況予測部36は、これらに加えて、予測結果に基づき、認識対象物が他の認識対象物で遮蔽される割合を計算する。
これにより、認識対象物が他の認識対象物で遮蔽された際に認識可能となる認識対象物の形状がわかるため、認識対象物の認識率の向上を図ることができる。また、認識対象物が非認識となることなく、認識対象物を連続的に認識して追従可能とすることができる(認識対象物を見失うことなく追従可能とすることができる)。
このように状況予測部36は、例えばカルマンフィルタ等の、従来の追跡手法で用いられている認識対象物の位置予測と共に、状況を認識することで、認識対象物形状変化率および認識対象物被遮蔽率を算出可能となる。このため、例えば認識対象物形状変化率または認識対象物被遮蔽率が低い場合は、認識対象の認識手法を、シンプルで積極的に認識対象を認識する認識手法に変更できる。また、認識対象物形状変化率または認識対象物被遮蔽率が高い場合には、算出された認識対象物形状変化率または認識対象物被遮蔽率に合致した認識手法を選択して用いることができる。
次に、図8のフローチャートに、追跡認識部37が、状況予測部36からの予測結果に応じて、認識対象の認識手法の変更または閾値の変更等を行う動作の流れを示す。追跡認識部37は、状況予測部36により、上述の認識対象物位置、認識対象物形状変化率、および認識対象物被遮蔽率が算出されたタイミングで、図8のフローチャートにステップS11から処理を開始する。なお、認識対象物位置、認識対象物形状変化率、および認識対象物被遮蔽率は、フレーム毎に算出される。このため、追跡認識部37は、図8のフローチャートに示す動作をフレーム毎に繰り返し実行する。
ステップS11では、追跡認識部37が、状況予測部36により算出された認識対象物形状変化率が、所定の閾値よりも高いか否かを判別する。認識対象物形状変化率が閾値よりも高いということは、現在、認識している認識対象の形状が、大きく変化していることを示す。このため、追跡認識部37は、認識対象物形状変化率が閾値よりも高い場合(ステップS11:Yes)、ステップS12に処理を進める。そして、例えば認識対象が先行車両の場合、追跡認識部37は、道路のカーブ用または坂道の道路用の認識手法を選択し、または、現在、実行している認識手法の閾値を、道路のカーブ用または坂道の道路用の閾値に変更制御する。これにより、先行車両等の認識対象が、道路のカーブを走行し、または、坂道を走行することで認識している形状が変化した場合でも、確実に捕捉して認識し続けることができる。
次に、ステップS11で認識対象物形状変化率が所定の閾値よりも低いものと判別した場合(ステップS11:No)、追跡認識部37は、処理をステップS13に進め、認識対象物被遮蔽率が、所定の閾値よりも高いか否かを判別する。例えば、現在の認識対象となっている先行車両の認識対象物被遮蔽率が閾値よりも高いということは、先行車両と自車両との間に、壁または他の車両等の他の立体物が存在することを意味している。このため、認識対象物被遮蔽率が所定の閾値よりも高い場合(ステップS13:Yes)、ステップS14に処理を進め、認識対象の遮蔽面積に対応する認識手法を選択し、または、現在、実行している認識手法の閾値を、認識対象の遮蔽面積に対応する閾値に変更制御する。これにより、先行車両が物陰に隠れ、または、他の車両の陰に隠れた場合でも、確実に捕捉して認識し続けることができる。
次に、ステップS13で、認識対象物被遮蔽率が所定の閾値よりも低い場合(ステップS13:No)、追跡認識部37は、処理をステップS15に進め、立体物が安定的に検出できているか否かを判別する。具体的には、追跡認識部37は、例えば画像形状(輝度画像)、または(および)視差形状(視差画像)が、時間的に略々変化なく検出できているか否かを判別することにより、立体物が安定的に検出できているか否かを判別する。そして、追跡認識部37は、立体物が安定的に検出できているものと判別した場合(ステップS15:Yes)、ステップS16に処理を進め、立体物が安定的に検出できていないものと判別した場合(ステップS15:No)、ステップS17に処理を進める。
立体物が安定的に検出できているものと判別することで、処理をステップS16に進めると、追跡認識部37は、現在、認識対象の認識手法で用いている閾値を所定分低い値の閾値に変更する。これにより、認識対象の予測位置等を用いて、認識対象を、より正確に認識して追跡可能とすることができる。
また、立体物が安定的に検出できていないものと判別することで、処理をステップS17に進めると、追跡認識部37は、現在、認識対象の認識手法で用いている閾値を、標準値(初期値)に変更する。これにより、認識対象の予測位置等を用いて、標準となる閾値で認識対象の認識を行い、認識対象の安定した追跡を図る。
なお、図8のフローチャートの説明において、認識対象物形状変化率に応じた処理と、認識対象物被遮蔽率に応じた処理とは、それぞれ別個独立に実施されることとして説明した。しかし、これら各処理を複合してもよいし、これら各処理を含めた統合的判断処理を先に行ってもよい。
以上説明した実施の形態の認識処理の全体的な流れを図9のフローチャートを用いて、再度説明する。すなわち、実施の形態の立体物認識装置は、まず、図9のフローチャートのステップS21に示すように、シーン状況認識部34が、視差画像生成部31で取得された距離画像に相当する撮像領域の状況を示す外的状況を認識する。
次に、ステップS22に示すように、状況予測部36が、シーン状況認識部34の認識結果から、未来(次フレーム)の外的状況を予測する。次に、ステップS23に示すように、追跡認識部37が、距離画像から認識対象を認識するための、一つまたは複数の認識手法のうち、状況予測部36の予測結果に対応する認識手法を選択して決定する。
次に、ステップS24に示すように、追跡認識部37が、決定された認識手法を用いて既存物体の追跡を行う。また、追跡認識部37は、RAM18に記憶されている現在の状況を示すシーン状況モデル、立体物モデル及び状況予測部36からの予測結果に応じて、決定された認識手法で用いている閾値を変化させ又は異なる認識手法を用いて、既存物体の追跡を行う。
次に、ステップS25に示すように、既検出除去部38が、RAM18に記憶されている現在の視差画像内の物体のうち、追跡認識部37で追跡している認識対象を除去し、更新視差画像としてRAM18に記憶する。そして、ステップS26に示すように、新規物体検出部39が、追跡認識部37で追跡している認識対象を除去した更新視差画像内の車両または人等の立体物を認識することで、追跡認識部37で現在、追跡している認識対象とは異なる新たな立体物を認識する。
立体物更新部40は、上述のようにRAM18に記憶されている図6に示した立体物モデルに、新規物体検出部39で認識された新たな立体物を反映させることで、RAM18に記憶されている立体物モデルを更新する。状況予測部36は、このように新たな立体物が反映されて更新された立体物モデルを用いて、状況の予測を行う。
図10は、認識対象を追跡している画面の一例を示す図である。図10の(a)の符号を付した図は、ステレオカメラ部1で撮像されたステレオ画像を示している。また、図10の(b)の符号を付した図は、視差画像生成部31で生成された視差画像を示している。図10の(a)の符号を付した通常の撮像画像を参照しながら、図10の(b)の符号を付した視差画像を見ていただきたいのであるが、シーン状況認識部34は、道路の縁石50,51を認識することで、縁石50,51の間は、自車両が走行中の道路であることを認識する。また、縁石50,51に沿って壁部52,53が形成されていることを認識する。また、道路上において、自車両の前方を走行する先行車両54〜56を認識する。図10(a)の符号を付した図からわかるように、先行車両54は、乗り合いバスである。また、乗り合いバスと自車両との間を走行中の先行車両55は、オートバイである。また、この例において乗り合いバスとなっている先行車両54の前方の先行車両56は、軽自動車である。
このような状況において、従来、先行車両56の軽自動車のように、遠方の車両は、認識および非認識が繰り返され、安定した認識および追跡は困難であった。しかし、実施の形態の立体物認識装置の場合、上述の予測結果を用いて安定して認識し続けることができる(追跡することができる)。また、この例の場合、オートバイである先行車両55に遮蔽された乗り合いバス(先行車両54)も、上述の認識対象物被遮蔽率等を計算した予測結果を用いることで、オートバイの動きおよび乗り合いバスの動きを把握しながら安定して認識し続けることができる(追跡することができる)。
以上の説明から明らかなように、実施の形態の立体物認識装置は、まず、自車両等の制御対象物が、現在どのような状況下にあるか、既検出された立体物があるか、それらが現在の状況下でどのような状態にあるか、などを状況認識する。すなわち、現在の状況を認識すると共に、未来的な状況を予測し、予測結果に応じた認識手法を選択的に用いて認識対象の認識を行い、または、予測結果に応じて認識手法で用いている閾値等を変更して認識対象の認識を行う。これにより、微妙な輝度変化によってフレーム毎に認識/非認識を繰り返す立体物でも、安定して認識し続けることができる。また、先行車両がカーブした道路を走行することで、先行車両の形状が変化し、または、壁等の陰になり見づらくなった場合でも、安定して認識し続けることができる。
上述の実施の形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。実施の形態および各実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 ステレオカメラ部
2 情報処理部
5 レンズ
6 画像センサ
7 センサコントローラ
10 データバスライン
11 シリアルバスライン
15 CPU
16 FPGA
17 ROM
18 RAM
19 シリアルIF
20 データIF
31 視差画像生成部
32 3次元情報化部
33 車両情報(CAN情報)取得部
34 シーン状況認識部
35 シーン状況更新部
36 状況予測部
37 追跡認識部
38 既検出除去部
39 新規物体検出部
40 立体物更新部
特開2000−266539号公報 特開2004−102421号公報 特開2014−006882号公報

Claims (9)

  1. 距離画像を取得する距離画像取得部と、
    取得された前記距離画像に相当する撮像領域の状況を示す外的状況を認識する状況認識部と、
    前記状況認識部の認識結果に基づいた認識手法により、前記距離画像から認識対象の認識を行う対象認識部と
    を有する画像処理装置。
  2. 前記状況認識部の認識結果から、次フレームの前記外的状況を予測する状況予測部を、さらに有し、
    前記対象認識部は、前記状況予測部の予測結果に応じた認識手法により、前記認識対象の認識を行うこと
    を特徴とする請求項1に記載の画像処理装置。
  3. 前記対象認識部は、距離画像から認識対象を認識するための、一つまたは複数の認識手法のうち、前記状況予測部の予測結果に対応する認識手法を選択し、認識対象の認識に用いている認識手法の閾値を、状況予測部の予測結果に対応する閾値に変更し、選択した認識手法および変更した閾値を用いて認識対象の認識を行うこと
    を特徴とする請求項2に記載の画像処理装置。
  4. 前記対象認識部により、前フレームにおいて認識された前記認識対象を追跡する追跡部と、
    前記追跡部により追跡された認識対象を、前記距離画像から除去する除去部と、をさらに有し、
    前記対象認識部は、前記除去部により前記認識対象が除去された後の前記距離画像から前記認識対象の認識を行うこと
    を特徴とする請求項1から請求項3のうち、いずれか一項に記載の画像処理装置。
  5. 制御対象となる機器の動作状況を示す内的状況を取得する内的状況取得部を、さらに有し、
    前記状況予測部は、前記状況認識部の認識結果、および前記内的状況から、前記次フレームの状況を予測すること
    を特徴とする請求項2から請求項4のうち、いずれか一項に記載の画像処理装置。
  6. 前記対象認識部は、優先度の高い順に前記認識対象の認識を行うこと
    を特徴とする請求項1から請求項5のうち、いずれか一項に記載の画像処理装置。
  7. 前記状況予測部は、認識対象の位置、認識対象の形状の変化率、および認識対象の被遮蔽率をそれぞれ算出して、前記予測結果として出力すること
    を特徴とする請求項2から請求項6のうち、いずれか一項に記載の画像処理装置。
  8. 距離画像を取得する距離画像取得部と、
    取得された前記距離画像に相当する撮像領域の状況を示す外的状況を認識する状況認識部と、
    前記状況認識部の認識結果に基づいた認識手法により、前記距離画像から認識対象の認識を行う対象認識部と
    を有する機器制御システム。
  9. コンピュータを、
    距離画像を取得する距離画像取得部と、
    取得された前記距離画像に相当する撮像領域の状況を示す外的状況を認識する状況認識部と、
    前記状況認識部の認識結果に基づいた認識手法により、前記距離画像から認識対象の認識を行う対象認識部として機能させること
    を特徴とする画像処理プログラム。
JP2014256507A 2014-02-05 2014-12-18 画像処理装置、機器制御システム、および画像処理プログラム Expired - Fee Related JP6547292B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014256507A JP6547292B2 (ja) 2014-02-05 2014-12-18 画像処理装置、機器制御システム、および画像処理プログラム
PCT/JP2015/053884 WO2015119301A1 (en) 2014-02-05 2015-02-05 Image processing device, device control system, and computer-readable storage medium
EP15746645.9A EP3103107A4 (en) 2014-02-05 2015-02-05 Image processing device, device control system, and computer-readable storage medium
US15/115,832 US10489664B2 (en) 2014-02-05 2015-02-05 Image processing device, device control system, and computer-readable storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014020769 2014-02-05
JP2014020769 2014-02-05
JP2014256507A JP6547292B2 (ja) 2014-02-05 2014-12-18 画像処理装置、機器制御システム、および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2015165381A true JP2015165381A (ja) 2015-09-17
JP6547292B2 JP6547292B2 (ja) 2019-07-24

Family

ID=53778096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014256507A Expired - Fee Related JP6547292B2 (ja) 2014-02-05 2014-12-18 画像処理装置、機器制御システム、および画像処理プログラム

Country Status (4)

Country Link
US (1) US10489664B2 (ja)
EP (1) EP3103107A4 (ja)
JP (1) JP6547292B2 (ja)
WO (1) WO2015119301A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10402664B2 (en) 2014-05-19 2019-09-03 Ricoh Company, Limited Processing apparatus, processing system, processing program, and processing method
WO2021250819A1 (ja) * 2020-06-10 2021-12-16 日本電信電話株式会社 環境遷移予測装置、環境遷移予測方法、及び環境遷移予測プログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112014006876T5 (de) * 2014-08-21 2017-05-18 Mitsubishi Electric Corporation Fahrassistenzvorrichtung, Fahrassistenzverfahren und Programm
CN108140309B (zh) 2015-11-20 2020-12-08 三菱电机株式会社 驾驶辅助装置、驾驶辅助系统以及驾驶辅助方法
US10618673B2 (en) * 2016-04-15 2020-04-14 Massachusetts Institute Of Technology Systems and methods for dynamic planning and operation of autonomous systems using image observation and information theory
US10351128B2 (en) * 2016-12-08 2019-07-16 Hyundai Motor Company Vehicle and method for controlling thereof for collision avoidance
JP7180074B2 (ja) 2017-01-31 2022-11-30 株式会社リコー 撮像装置
JP2018136803A (ja) * 2017-02-23 2018-08-30 株式会社日立製作所 画像認識システム
JP6969121B2 (ja) 2017-03-17 2021-11-24 株式会社リコー 撮像システム、画像処理装置および画像処理プログラム
US10210617B2 (en) * 2017-05-26 2019-02-19 Dura Operating, Llc Method and system for generating a perception scene graph having a focus region for a motor vehicle
BR112021004210A2 (pt) * 2018-09-13 2021-05-25 Sony Semiconductor Solutions Corporation aparelho e método de processamento de informações, aparelho de formação de imagem, dispositivo móvel, e, programa de computador
US20230045772A9 (en) * 2018-12-07 2023-02-09 Sony Semiconductor Solutions Corporation Information processing apparatus, information processing method, and program
WO2021085152A1 (ja) * 2019-10-29 2021-05-06 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び、情報処理システム
US11663834B2 (en) * 2019-11-12 2023-05-30 Nissan Motor Co., Ltd. Traffic signal recognition method and traffic signal recognition device
WO2021094799A1 (ja) * 2019-11-12 2021-05-20 日産自動車株式会社 信号機認識方法及び信号機認識装置
US11816902B2 (en) * 2020-08-26 2023-11-14 Subaru Corporation Vehicle external environment recognition apparatus
US20230073587A1 (en) * 2021-09-09 2023-03-09 The Boeing Company Automated volumetric image capture of an object to support general visual inspection

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5097327A (en) * 1989-05-30 1992-03-17 Sony Corporation Apparatus for detecting a moving object in a motion picture sequence
JP2002074368A (ja) * 2000-08-25 2002-03-15 Matsushita Electric Ind Co Ltd 移動物体認識追跡装置
JP2005250989A (ja) * 2004-03-05 2005-09-15 Sony Corp 移動物体追跡方法及び画像処理装置
JP2006322795A (ja) * 2005-05-18 2006-11-30 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2008045974A (ja) * 2006-08-14 2008-02-28 Fuji Heavy Ind Ltd 物体検出装置
JP2011191905A (ja) * 2010-03-12 2011-09-29 Hitachi Automotive Systems Ltd ステレオカメラ装置
WO2012066589A1 (ja) * 2010-11-15 2012-05-24 三菱電機株式会社 車載用画像処理装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3596339B2 (ja) 1999-03-15 2004-12-02 日産自動車株式会社 車間距離計測装置
JP3759917B2 (ja) 2002-09-05 2006-03-29 三菱電機株式会社 道路曲率演算法
US7376250B2 (en) 2004-01-05 2008-05-20 Honda Motor Co., Ltd. Apparatus, method and program for moving object detection
JP5405741B2 (ja) * 2004-07-26 2014-02-05 オートモーティブ システムズ ラボラトリー インコーポレーテッド 道路使用弱者保護システム
EP1901225A1 (en) 2005-05-10 2008-03-19 Olympus Corporation Image processing device, image processing method, and image processing program
US8108119B2 (en) * 2006-04-21 2012-01-31 Sri International Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
JP2008151659A (ja) * 2006-12-18 2008-07-03 Fuji Heavy Ind Ltd 物体検出装置
ATE497146T1 (de) * 2007-11-07 2011-02-15 Tele Atlas Bv Verfahren und anordnung zur abbildung von entfernungssensordaten auf bildsensordaten
EP2302564A1 (en) * 2009-09-23 2011-03-30 Iee International Electronics & Engineering S.A. Real-time dynamic reference image generation for range imaging system
JP5371725B2 (ja) 2009-12-16 2013-12-18 富士重工業株式会社 物体検出装置
JP5664152B2 (ja) 2009-12-25 2015-02-04 株式会社リコー 撮像装置、車載用撮像システム及び物体識別装置
WO2012004938A1 (ja) 2010-07-09 2012-01-12 本田技研工業株式会社 車両の周辺監視装置
DE112012002885B4 (de) 2011-07-08 2022-01-27 Bendix Commercial Vehicle Systems Llc Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung
JP2013196387A (ja) * 2012-03-19 2013-09-30 Pioneer Electronic Corp 画像処理装置、及び画像処理方法
WO2013170260A1 (en) * 2012-05-11 2013-11-14 Proiam, Llc Hand held dimension capture apparatus, system, and method
JP2014006882A (ja) 2012-05-31 2014-01-16 Ricoh Co Ltd 路面傾斜認識装置、路面傾斜認識方法及び路面傾斜認識用プログラム
US9111444B2 (en) * 2012-10-31 2015-08-18 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets
JP6073774B2 (ja) 2012-11-15 2017-02-01 東芝テック株式会社 商品認識装置及び商品認識プログラム
GB201301281D0 (en) * 2013-01-24 2013-03-06 Isis Innovation A Method of detecting structural parts of a scene
US20150097827A1 (en) * 2013-10-09 2015-04-09 Adobe Systems Incorporated Target Region Fill Utilizing Transformations

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5097327A (en) * 1989-05-30 1992-03-17 Sony Corporation Apparatus for detecting a moving object in a motion picture sequence
JP2002074368A (ja) * 2000-08-25 2002-03-15 Matsushita Electric Ind Co Ltd 移動物体認識追跡装置
JP2005250989A (ja) * 2004-03-05 2005-09-15 Sony Corp 移動物体追跡方法及び画像処理装置
JP2006322795A (ja) * 2005-05-18 2006-11-30 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2008045974A (ja) * 2006-08-14 2008-02-28 Fuji Heavy Ind Ltd 物体検出装置
JP2011191905A (ja) * 2010-03-12 2011-09-29 Hitachi Automotive Systems Ltd ステレオカメラ装置
WO2012066589A1 (ja) * 2010-11-15 2012-05-24 三菱電機株式会社 車載用画像処理装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10402664B2 (en) 2014-05-19 2019-09-03 Ricoh Company, Limited Processing apparatus, processing system, processing program, and processing method
WO2021250819A1 (ja) * 2020-06-10 2021-12-16 日本電信電話株式会社 環境遷移予測装置、環境遷移予測方法、及び環境遷移予測プログラム
JP7468644B2 (ja) 2020-06-10 2024-04-16 日本電信電話株式会社 環境遷移予測装置、環境遷移予測方法、及び環境遷移予測プログラム

Also Published As

Publication number Publication date
US10489664B2 (en) 2019-11-26
EP3103107A1 (en) 2016-12-14
WO2015119301A1 (en) 2015-08-13
JP6547292B2 (ja) 2019-07-24
EP3103107A4 (en) 2017-02-22
US20170177955A1 (en) 2017-06-22

Similar Documents

Publication Publication Date Title
JP6547292B2 (ja) 画像処理装置、機器制御システム、および画像処理プログラム
CN112292711B (zh) 关联lidar数据和图像数据
JP6648411B2 (ja) 処理装置、処理システム、処理プログラム及び処理方法
US9975550B2 (en) Movement trajectory predicting device and movement trajectory predicting method
US10387733B2 (en) Processing apparatus, processing system, and processing method
JP2016001170A (ja) 処理装置、処理プログラム、及び、処理方法
US9704047B2 (en) Moving object recognition apparatus
JP6787157B2 (ja) 車両制御装置
JP6315308B2 (ja) 制御用対象物識別装置、移動体機器制御システム及び制御用対象物認識用プログラム
US11400942B2 (en) Vehicle lane trajectory probability prediction utilizing kalman filtering with neural network derived noise
US8160300B2 (en) Pedestrian detecting apparatus
JP2018147399A (ja) 物標検出装置
JP2018060422A (ja) 物体検出装置
CN113361312A (zh) 检测对象的电子装置和方法
JPWO2018025632A1 (ja) 撮像装置
JP5345999B2 (ja) レーンマーク認識装置
JP7454685B2 (ja) 車両走行路内のデブリの検出
US20240092359A1 (en) Vehicle camera-based prediction of change in pedestrian motion
WO2024075161A1 (ja) 画像処理装置及び画像処理方法
JP2015026179A (ja) 衝突可能性判定システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190610

R151 Written notification of patent or utility model registration

Ref document number: 6547292

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees