JP6337811B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP6337811B2
JP6337811B2 JP2015053277A JP2015053277A JP6337811B2 JP 6337811 B2 JP6337811 B2 JP 6337811B2 JP 2015053277 A JP2015053277 A JP 2015053277A JP 2015053277 A JP2015053277 A JP 2015053277A JP 6337811 B2 JP6337811 B2 JP 6337811B2
Authority
JP
Japan
Prior art keywords
change amount
line segment
feature point
threshold value
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015053277A
Other languages
English (en)
Other versions
JP2016173723A (ja
Inventor
瑠衣子 宮野
瑠衣子 宮野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015053277A priority Critical patent/JP6337811B2/ja
Priority to US15/062,677 priority patent/US9744968B2/en
Priority to EP16160289.1A priority patent/EP3070642A1/en
Priority to CN201610151179.XA priority patent/CN105984470B/zh
Publication of JP2016173723A publication Critical patent/JP2016173723A/ja
Application granted granted Critical
Publication of JP6337811B2 publication Critical patent/JP6337811B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/306Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using a re-scaling of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明の一側面及び他の側面は、画像処理装置及び画像処理方法に関する。
カメラによる撮像画像に基づいて物体を認識する技術が提案されている。例えば、特許文献1には、物体をそれぞれ異なる視点から撮影した2つの撮像画像それぞれから物体の輪郭線等の直線を抽出する装置が開示されている。特許文献1の装置は、2つの撮像画像それぞれから抽出された直線同士の交点(角点)等の特徴点を抽出する。特許文献1の装置は、2つの撮像画像それぞれから抽出された特徴点同士を対応付けることにより物体を認識する。
特開2014−102805号公報
ところで、上記特許文献1のような装置においては、認識の対象となる物体の輪郭線による特徴点と、認識の対象とはならない遠景の輪郭線による特徴点とが一緒に抽出される。物体がカメラに対して相対的に移動している場合には、物体の輪郭線は撮像画像内で移動するのに対して、遠景の輪郭線は撮像画像内で移動しない。この場合、例えば、物体の輪郭線と遠景の輪郭線との交点が物体の輪郭線による特徴点とされると、当該特徴点が物体の輪郭線上で移動してしまうために、実際には物体上の同一位置ではない位置を同一位置として誤認識する場合や、物体の位置や移動量を正確に認識できない場合がある。そのため、物体を認識する精度が低下する場合があり、改善が望まれている。
そこで本発明は、カメラによる撮像画像に基づいた物体の認識において、物体を認識する精度を向上させることができる画像処理装置及び画像処理方法を提供することを目的とする。
本発明の一側面は、カメラによる撮像画像に基づいて物体を認識する画像処理装置であって、第1時点の第1撮像画像について複数の第1線分を抽出するとともに、第1時点より後の第2時点の第2撮像画像について複数の第2線分を抽出する線分抽出部と、第1線分それぞれの第1特徴点を抽出するとともに、第2線分それぞれの第2特徴点を抽出する特徴点抽出部と、第1線分それぞれの第1撮像画像内での位置に対して、第1線分それぞれに対応する第2線分それぞれの第2撮像画像内での位置の変化量を算出する変化量算出部と、変化量が変化量閾値以上である第1線分及び第2線分の第1特徴点及び第2特徴点と、変化量が変化量閾値未満である第1線分及び第2線分の第1特徴点及び第2特徴点とを分けて抽出し、変化量が変化量閾値以上である第1線分の第1特徴点の第2撮像画像内での対応点を、変化量が変化量閾値以上である第1線分に対応する第2線分の第2特徴点に決定することにより物体を認識する物体認識部とを備えた画像処理装置である。
この構成によれば、物体認識部により、変化量が変化量閾値以上である第1線分及び第2線分の第1特徴点及び第2特徴点と、変化量が変化量閾値未満である第1線分及び第2線分の第1特徴点及び第2特徴点とを分けて抽出し、変化量が変化量閾値以上である第1線分の第1特徴点の第2撮像画像内での対応点を、変化量が変化量閾値以上である第1線分に対応する第2線分の第2特徴点に決定することにより物体が認識される。これにより、認識の対象となる物体のみによる第1特徴点及び第2特徴点と、認識の対象とはならない遠景による第1特徴点及び第2特徴点とが区別され、認識の対象となる物体のみによる第1特徴点と第2特徴点とが対応付けられるため、物体を認識する精度を向上させることができる。
この場合、物体認識部は、変化量が変化量閾値未満である第1線分の第1特徴点として、変化量が変化量閾値未満である第1線分の端点と変化量が変化量閾値以上である第1線分との交点である第1特徴点を抽出することにより物体を認識してもよい。
この構成によれば、物体認識部により、変化量が変化量閾値未満である第1線分の第1特徴点として、変化量が変化量閾値未満である第1線分の端点と変化量が変化量閾値以上である第1線分との交点である第1特徴点が抽出されることにより物体が認識される。これにより、認識の対象となる物体のみによる第1特徴点と、認識の対象となる物体の輪郭線と認識の対象とならない遠景の輪郭線との交点とが区別されるため、誤認識を低減することができる。
また、この場合、物体認識部は、変化量が変化量閾値未満である第1線分の端点と変化量が変化量閾値以上である第1線分との交点である第1特徴点と、変化量が変化量閾値以上である第1線分の第1特徴点との第1撮像画像内での位置関係に基づいて、変化量が変化量閾値未満である第1線分の端点と変化量が変化量閾値以上である第1線分との交点である第1特徴点の第2撮像画像内での対応点を決定してもよい。
この構成によれば、物体認識部により、変化量が変化量閾値未満である第1線分の端点と変化量が変化量閾値以上である第1線分との交点である第1特徴点と、変化量が変化量閾値以上である第1線分の第1特徴点との第1撮像画像内での位置関係に基づいて、変化量が変化量閾値未満である第1線分の端点と変化量が変化量閾値以上である第1線分との交点である第1特徴点の第2撮像画像内での対応点が決定される。これにより、認識の対象となる物体のみによる第1特徴点及び第2特徴点に基づいて、第1撮像画像内での認識の対象となる物体の輪郭線と認識の対象とならない遠景の輪郭線との交点の第2撮像画像内での対応点が決定されるため、物体を認識する精度をさらに向上させることができる。
また、本発明の他の側面は、カメラによる撮像画像に基づいて物体を認識する画像処理装置を用いた画像処理方法であって、画像処理装置の線分抽出部により、第1時点の第1撮像画像について複数の第1線分を抽出するとともに、第1時点より後の第2時点の第2撮像画像について複数の第2線分を抽出する線分抽出工程と、画像処理装置の特徴点抽出部により、第1線分それぞれの第1特徴点を抽出するとともに、第2線分それぞれの第2特徴点を抽出する特徴点抽出工程と、画像処理装置の変化量算出部により、第1線分それぞれの第1撮像画像内での位置に対して、第1線分それぞれに対応する第2線分それぞれの第2撮像画像内での位置の変化量を算出する変化量算出工程と、画像処理装置の物体認識部により、変化量が変化量閾値以上である第1線分及び第2線分の第1特徴点及び第2特徴点と、変化量が変化量閾値未満である第1線分及び第2線分の第1特徴点及び第2特徴点とを分けて抽出し、変化量が変化量閾値以上である第1線分の第1特徴点の第2撮像画像内での対応点を、変化量が変化量閾値以上である第1線分に対応する第2線分の第2特徴点に決定することにより物体を認識する物体認識工程とを備えた画像処理方法である。
この場合、物体認識工程では、変化量が変化量閾値未満である第1線分の第1特徴点として、変化量が変化量閾値未満である第1線分の端点と変化量が変化量閾値以上である第1線分との交点である第1特徴点を抽出することにより物体を認識してもよい。
また、この場合、物体認識工程では、変化量が変化量閾値未満である第1線分の端点と変化量が変化量閾値以上である第1線分との交点である第1特徴点と、変化量が変化量閾値以上である第1線分の第1特徴点との第1撮像画像内での位置関係に基づいて、変化量が変化量閾値未満である第1線分の端点と変化量が変化量閾値以上である第1線分との交点である第1特徴点の第2撮像画像内での対応点を決定してもよい。
本発明の一側面及び他の側面によれば、カメラによる撮像画像に基づいた物体の認識において、物体を認識する精度を向上させることができる。
実施形態の画像処理装置を示すブロック図である。 図1の画像処理装置の動作を示すフローチャートである。 (a)は第1時点の第1撮像画像を示す図であり、(b)は第1時点より後の第2時点の第2撮像画像を示す図である。 (a)は第1撮像画像について複数の第1線分を抽出した状態を示す図であり、(b)は第2撮像画像について第1線分それぞれに対応する複数の第2線分を抽出した状態を示す図である。 (a)は第1線分それぞれの第1特徴点を抽出した状態を示す図であり、(b)は第2線分それぞれの第2特徴点を抽出した状態を示す図である。 (a)は変化量が変化量閾値以上である第1線分の第1特徴点を抽出した状態を示す図であり、(b)は変化量が変化量閾値以上である第2線分の第2特徴点を抽出した状態を示す図である。 第2撮像画像において変化量が変化量閾値未満である第2線分を抽出した状態を示す図である。 (a)は変化量が変化量閾値未満である第1線分の第1特徴点を抽出した状態を示す図であり、(b)は変化量が変化量閾値未満である第2線分の第2特徴点を抽出した状態を示す図である。 (a)は第1線分において変化量が変化量閾値以上である第1特徴点に対する変化量が変化量閾値未満である第1特徴点の位置関係を算出する状態を示す図であり、(b)は(a)の位置関係に基づいて第2撮像画像での変化量が変化量閾値未満である第1特徴点に対応する位置を算出した状態を示す図である。
以下、図面を参照して、本発明の実施形態に係る画像処理装置及び画像処理方法について説明する。
図1に示すように、第1実施形態に係る画像処理装置1は、カメラ11、車速センサ12、ジャイロセンサ13、ECU20、ディスプレイ31、スピーカ32及びアクチュエータ33を備えている。画像処理装置1は、自動車等の車両に搭載され、車両の走行中に、カメラ11による撮像画像に基づいて物体を認識する装置である。
カメラ11は、例えば、車両のフロントガラスの裏面に設けられた一つの撮像部を有する単眼カメラである。カメラ11は、車両前方の撮像画像に関する情報をECU20へ送信する。カメラ11は、モノクロカメラ及びカラーカメラのいずれでもよい。また、カメラ11は、ステレオカメラでもよい。
車速センサ12は、車両の速度を検出するためのセンサである。車速センサ12としては、例えば、車両の車輪又は車輪と一体に回転する車軸等に対して設けられ、車輪の回転速度を信号として検出する車輪速センサが用いられる。車速センサ12は、車輪の回転速度に応じた信号をECU20に送信する。
ジャイロセンサ13は、方位角センサ又はヨーレートセンサを含む。方位角センサは、車両の進行方向を検出するためのセンサである。方位角センサは、車両の進行方向に応じた信号をECU20に送信する。ヨーレートセンサは、車両の重心の鉛直軸周りのヨーレート(回転角速度)を検出することにより、車両の向きを検出するためのセンサである。ヨーレートセンサは、検出した車両のヨーレートに応じた信号をECU20へ出力する。
ECU20は、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]等を有する電子制御ユニットである。ECU20では、ROMに記憶されているプログラムをRAMにロードし、CPUで実行することで、ECU20のハードウェアが線分抽出部21、特徴点抽出部22、変化量算出部23、物体認識部24及び車両制御部25として機能する。ECU20は、複数のECUから構成されていてもよい。
線分抽出部21は、第1時点の第1撮像画像について複数の第1線分を抽出するとともに、第1時点より後の第2時点の第2撮像画像について複数の第2線分それぞれを抽出する。第1時点と第2時点との間隔は、例えば、50〜100msecとすることができる。線分抽出部21は、例えば、ハフ変換により、第1撮像画像について第1線分を抽出し、第2撮像画像について第2線分を抽出する。また、線分抽出部21は、他の手法により第1線分及び第2線分を抽出してもよい。
特徴点抽出部22は、第1線分それぞれの第1特徴点を抽出し、第1線分それぞれに当該第1特徴点を関連付けて登録するとともに、第2線分それぞれの第2特徴点を抽出し、第2線分それぞれに当該第2特徴点を関連付けて登録する。第1線分の第1特徴点とは、例えば、第1特徴点から予め設定された距離以内の位置に存在する予め設定された輝度以上の点を意味する。また、第1線分の第1特徴点とは、例えば、第1線分の端点を意味する。第1線分の端点には、一つの第1線分の端点であって、他の第1線分との交点(角点)をとなる端点を含む。第1線分の端点には、第1撮影画像の外周との交点となる端点を含む。特徴点抽出部22は、例えばHarris、FAST(Features from Accelerated SegmentTest)、SURF(Speeded Up Robust Features)又はSIFT(Scale-Invariant Feature Transform)の手法により、第1線分それぞれの第1特徴点を抽出する。複数の第1線分それぞれに重複して一つの第1特徴点が抽出され、複数の第1線分それぞれに重複して一つの第1特徴点が関連付けられて登録されてもよい。第2線分の第2特徴点も、上述した第1線分の第1特徴点と同様にして抽出される。また、特徴点抽出部22は、他の手法により第1特徴点及び第2特徴点を抽出してもよい。
変化量算出部23は、第1線分それぞれの第1撮像画像内での位置に対して、第1線分それぞれに対応する第2線分それぞれの第2撮像画像内での位置の変化量を算出する。第1線分と第2線分とが対応しているか否かは、例えば、第1線分に含まれる第1特徴点の画素と第2線分に含まれる第2特徴点の画素とを比較することにより、判定することができる。変化量算出部23は、例えば、第1線分それぞれの第1撮像画像内での端点の座標と、第2線分それぞれの第2撮像画像内での端点の座標との差から変化量を算出する。変化量算出部23は、例えば、第1線分それぞれの第1撮像画像内での傾きと、第2線分それぞれの第2撮像画像内での傾きとの差から変化量を算出してもよい。また、変化量算出部23は、例えば、第1線分それぞれの第1撮像画像内での中点の座標と、第2線分それぞれの第2撮像画像内での中点の座標との差から変化量を算出してもよい。
物体認識部24は、後述するように、変化量が変化量閾値以上である第1線分及び第2線分の第1特徴点及び第2特徴点と、変化量が変化量閾値未満である第1線分及び第2線分の第1特徴点及び第2特徴点とを分けて抽出し、変化量が変化量閾値以上である第1線分の第1特徴点の第2撮像画像内での対応点を、変化量が変化量閾値以上である第1線分に対応する第2線分の第2特徴点に決定することにより物体を認識する。変化量閾値は、第1線分及び第2線分が認識の対象である物体の輪郭線等によるものか否かを判定するための変化量の閾値である。変化量閾値は、例えば、車速センサ12で検出された車速や、ジャイロセンサ13で検出されたヨーレートが大きいほど、大きな値に設定されてもよい。
車両制御部25は、物体認識部24で認識された物体をディスプレイ31に表示する車両制御を行う。また、車両制御部25は、認識された物体との距離が予め設定された閾値未満になったときに、ディスプレイ31又はスピーカ32から車両のドライバーに必要な警報を報知する車両制御を行う。また、車両制御部25は、認識された物体との距離が予め設定された閾値未満になったときに、アクチュエータ33により、車両の加速、制動及び操舵のいずれかの動作を制御する車両制御を行う。
ディスプレイ31は、例えば、コンビネーションメータのMID(MultiInformation Display)、インストルメントパネルのセンターディスプレイ、HUD(Head-upDisplay)等のうち少なくとも一つを含んでいる。ディスプレイ31は、複数の種類のディスプレイから構成されていてもよい。ディスプレイ31は、ECU20の車両制御部25からの制御信号に応じて表示を行う。
スピーカ32は、車両のインストルメントパネル裏に設けられたスピーカ、車両の運転席のドア内側に設けられたスピーカ、ECU20の内蔵スピーカ等のうち少なくとも一つを含んでいる。スピーカ32は、ECU20の車両制御部25からの制御信号に応じて音声の出力及び警報の報知を行う。
アクチュエータ33は、車両の加速、制動及び操舵のいずれかの動作を制御する装置である。アクチュエータ33は、スロットルアクチュエータ、ブレーキアクチュエータ及びステアリングアクチュエータを少なくとも含む。スロットルアクチュエータは、ECU20からの制御信号に応じてエンジンに対する空気の供給量(スロットル開度)を制御し、車両の駆動力を制御する。なお、車両がハイブリッド車又は電気自動車である場合には、スロットルアクチュエータを含まず、動力源としてのモータにECU20からの制御信号が入力されて当該駆動力が制御される。
ブレーキアクチュエータは、ECU20からの制御信号に応じてブレーキシステムを制御し、車両の車輪へ付与する制動力を制御する。ブレーキシステムとしては、例えば、液圧ブレーキシステムを用いることができる。ステアリングアクチュエータは、電動パワーステアリングシステムのうちステアリングトルクを制御するアシストモータの駆動を、ECU20からの制御信号に応じて制御する。これにより、ステアリングアクチュエータは、車両のステアリングトルクを制御する。
以下、本実施形態の画像処理装置1の動作について説明する。図2に示すように、画像取得工程として、車両の走行中に、カメラ11による車両前方の撮像画像がECU20の線分抽出部21により取得される(S1)。線分抽出部21は、例えば、図3(a)に示すような第1時点の第1撮像画像F1と、図3(b)に示すような第2時点の第2撮像画像F2とを取得する。第1時点の第1撮像画像F1に写った建物、樹木及び路面の白線等は、第1時点よりも後の第2時点の第2撮像画像F2では、車両のより手前側に写っている。一方、第1撮像画像F1に写った遠景の山等は、第2撮像画像F2でも位置が変化していない。
図2に示すように、線分抽出工程として、線分抽出部21により、第1時点の第1撮像画像F1について複数の第1線分が抽出されるとともに、第2時点の第2撮像画像F2について複数の第2線分が抽出される(S2)。図4(a)に示すように、第1時点t1の第1撮像画像F1について、樹木の輪郭線である第1線分L1(t1)が抽出される。また、遠景の山の輪郭線である第1線分L2(t1)が抽出される。同様にして、図4(b)に示すように、第2時点t2の第2撮像画像F2について、樹木の輪郭線である第2線分L1(t2)等が抽出される。また、遠景の山の輪郭線である第2線分L2(t2)が抽出される。
図2に示すように、特徴点抽出工程として、ECU20の特徴点抽出部22により、第1線分L1(t1),L2(t1)等それぞれの第1特徴点が抽出され、第1線分L1(t1),L2(t1)等それぞれと関連付けられて登録されるとともに、第2線分L1(t2),L2(t2)等それぞれの第2特徴点が抽出され、第2線分L1(t2),L2(t2)等それぞれと関連付けられて登録される(S3)。図5(a)に示すように、第1線分L1(t1)の端点である第1特徴点P1a(t1),P1b(t1)が抽出される。また、第1線分L2(t1)の端点と第1線分L1(t1)との交点である第1特徴点P2(t1)が抽出される。同様にして、図5(b)に示すように、第2線分L1(t2)の端点である第2特徴点P1a(t2),P1b(t2)が抽出される。また、第2線分L2(t2)の端点と第2線分L1(t2)との交点である第2特徴点P2(t2)が抽出される。なお、上述したように、複数の第1線分L1(t1),L2(t1)それぞれに重複して一つの第1特徴点P2(t1)が抽出され、複数の第1線分L1(t1),L2(t1)それぞれに重複して関連付けられて登録されてもよく、複数の第2線分L1(t2),L2(t2)それぞれに重複して一つの第2特徴点P2(t2)が抽出され、複数の第2線分L1(t2),L2(t2)それぞれに重複して関連付けられて登録されてもよい。
図2に示すように、変化量算出工程として、ECU20の変化量算出部23により、第1線分L1(t1),L2(t1)等それぞれの第1撮像画像F1内での位置に対して、第1線分L1(t1),L2(t1)等それぞれに対応する第2線分L1(t2),L2(t2)等それぞれの第2撮像画像F2内での位置の変化量が算出される(S4)。図5(a)(b)に示すように、樹木の輪郭線である第1線分L1(t1)に対する第2線分L1(t2)の変化量は大きい。一方、遠景の山の輪郭線である第1線分L2(t1)に対する第2線分L2(t2)の変化量は0である。
図2に示すように、物体認識工程として、ECU20の物体認識部24により、変化量が変化量閾値以上である第1線分L1(t1)及び第2線分L1(t2)の第1特徴点P1a(t1),P1b(t1)及び第2特徴点P1a(t2),P1b(t2)等と、変化量が変化量閾値未満である第1線分L2(t1)及び第2線分L2(t2)の第1特徴点P2(t1)及び第2特徴点P2(t2)等とを分けて抽出し、変化量が変化量閾値以上である第1線分L1(t1)の第1特徴点P1a(t1),P1b(t1)の第2撮像画像F2内での対応点を、変化量が変化量閾値以上である第1線分L1(t1)に対応する第2線分L1(t2)の第2特徴点P1a(t2),P1b(t2)に決定することにより物体が認識される(S5)。
図6(a)に示すように、変化量が変化量閾値以上である第1線分L1(t1)等の第1特徴点P1a(t1),P1b(t1)等が物体のみによる特徴点として抽出される。同様に、図6(b)に示すように、変化量が変化量閾値以上である第2線分L1(t2)等の第2特徴点P1a(t2),P1b(t2)等が物体のみによる特徴点として抽出される。物体認識部24は、物体上の同一位置である第1特徴点P1a(t1)と第2特徴点P1a(t2)とを対応付け、物体上の同一位置である第1特徴点P1b(t1)と第2特徴点P1b(t2)とを対応付ける。物体認識部24は、第1特徴点P1a(t1),P1b(t1)の画素の輝度と第2特徴点P1a(t2),P1b(t2)の画素の輝度とを比較することにより、互いの対応付けを行うことができる。物体認識部24は、上記対応付けを例えばKLT trackerの手法やエピポーラ線上の探索等の手法で行うことができる。
図7に示すように、変化量が変化量閾値未満である第2線分L2(t2)等が遠景の山等の輪郭線として抽出される。図7に示すように、物体認識部24は、変化量が変化量閾値未満である第2線分L2(t2)等において、変化量が変化量閾値以上である第2線分L1(t2)等により遮断された部位が存在すると考えられる部位を補間することにより、遠景のみを示す撮像画像を形成してもよい。上記補間は、変化量が変化量閾値未満である第2線分L2(t2)等それぞれの第2撮像画像F2内での傾き、端点の座標及び画素の輝度等を比較することにより行うことができる。
図8(a)に示すように、変化量が変化量閾値未満である第1線分L2(t1)等の第1特徴点P2(t1)等が遠景による特徴点として抽出される。同様に、図8(b)に示すように、変化量が変化量閾値未満である第2線分L2(t2)等の第2特徴点P2(t2)等が遠景による特徴点として抽出される。
なお、第1特徴点P2(t1)が、変化量が変化量閾値以上である第1線分L1(t1)に関連付けられて登録されている場合であっても、第1特徴点P2(t1)が、変化量が変化量未満である第1線分L2(t1)にも重複して関連付けられて登録されている場合は、第1特徴点P2(t1)は、変化量が変化量閾値未満である第1線分L2(t1)の特徴点として取り扱われる。同様に、第2特徴点P2(t2)が、変化量が変化量閾値以上である第2線分L1(t2)に関連付けられて登録されている場合であっても、第2特徴点P2(t2)が、変化量が変化量未満である第2線分L2(t2)にも重複して関連付けられて登録されている場合は、第2特徴点P2(t2)は、変化量が変化量閾値未満である第2線分L2(t2)の特徴点として取り扱われる。
しかし、変化量が変化量閾値以上である第1線分と変化量未満である第1線分とに重複して関連付けられて登録されている第1特徴点であって、変化量が変化量閾値以上である第1線分が鉛直方向に伸びる線分であり、当該第1特徴点が、変化量が変化量閾値以上である第1線分の下端点である場合は、当該第1特徴点は路面との接地点である可能性が高く、特徴点が物体の輪郭線上で移動する問題が生じないため、例外的に、変化量が変化量閾値以上である第1線分の特徴点として取り扱ってもよい。変化量が変化量閾値以上である第2線分と変化量未満である第2線分とに重複して関連付けられて登録されている第2特徴点についても同様である。
本実施形態では、図9(a)に示すように、物体認識部24により、変化量が変化量閾値未満である第1線分L2(t1)の端点と変化量が変化量閾値以上である第1線分L1(t1)との交点である第1特徴点P2(t1)が抽出される。また、図9(b)に示すように、物体認識部24により、変化量が変化量閾値未満である第2線分L2(t2)の端点と変化量が変化量閾値以上である第2線分L1(t2)との交点である第2特徴点P2(t2)が抽出される。
図9(a)に示すように、物体認識部24により、変化量が変化量閾値未満である第1線分L2(t1)の端点と変化量が変化量閾値以上である第1線分L1(t1)との交点である第1特徴点P2(t1)と、変化量が変化量閾値以上である第1線分L1(t1)の第1特徴点P1a(t1),P1b(t1)との第1撮像画像F1内での位置関係が算出される。具体的には、例えば、同一の第1線分L1(t1)上の第1特徴点P1a(t1),P1b(t1),P2(t1)について、第1特徴点P1b(t1)と第1特徴点P2(t1)と間の距離に対する第1特徴点P2(t1)と第1特徴点P1a(t1)との間の距離の比が算出される。
図9(b)に示すように、上記の第1特徴点P1a(t1),P1b(t1),P2(t1)の位置関係に基づいて、物体認識部24により、変化量が変化量閾値未満である第1線分L2(t1)の端点と変化量が変化量閾値以上である第1線分L1(t1)との交点である第1特徴点P2(t1)の第2撮像画像F2内での対応する位置の点である対応点Pが決定される。具体的には、例えば、同一の第2線分L1(t2)上において、第1特徴点P1b(t1)と第1特徴点P2(t1)と間の距離に対する第1特徴点P2(t1)と第1特徴点P1a(t1)との間の距離の比と、第2特徴点P1b(t2)と対応点Pと間の距離に対する対応点Pと第2特徴点P1a(t2)との間の距離の比とが等しくなるような対応点Pが決定される。物体認識部24により、第1特徴点P2(t1)に対応する第2特徴点として、第2特徴点P2(t2)ではなく対応点Pが対応付けられる。
上記のようにして対応付けられた第1特徴点P1a(t1),P1b(t1)及び第2特徴点P1a(t2),P1b(t2)と、第1特徴点P2(t1)及び対応点Pとに基づいて、物体認識部24により物体が認識される。
図2に示すように、自車運動推定工程として、車両制御部25により、物体認識部24により認識された物体のみによる第1特徴点P1a(t1),P1b(t1),P2(t1)、第2特徴点P1a(t2),P1b(t2)及び対応点Pに関する情報と、車速センサ12により検出された車速とに基づいて、車両の速度、加速度、方向等の運動状態が推定される(S6)。車両の運動状態の推定は、例えば、第1特徴点P1a(t1)等に関する情報に基づいて8点アルゴリズムでF行列を推定し、特異値分解で回転及び並進成分を算出し、車速センサ12により検出された車速によりスケールを合せる手法により行うことができる。これにより、車速センサ12やジャイロセンサ13の検出結果のみに基づいて車両の運動状態を検出する場合よりも、高い精度で車両の運動状態を推定することができる。
三次元位置推定工程として、物体認識部24により、物体認識工程による認識結果と自車運動推定工程による車両の運動状態とに基づいて、例えば、三角測量等の原理により、物体の三次元空間での位置が算出される(S7)。物体の三次元空間での位置に応じて、ECU20の車両制御部25は、ディスプレイ31、スピーカ32又はアクチュエータ33により、必要な車両制御を行う。
本実施形態によれば、画像処理装置1の物体認識部24により、変化量が変化量閾値以上である第1線分L1(t1)及び第2線分L1(t2)の第1特徴点P1a(t1),P1b(t1)及び第2特徴点P1a(t2),P1b(t2)と、変化量が変化量閾値未満である第1線分L2(t1)及び第2線分L2(t2)の第1特徴点P2(t1)及び第2特徴点P2(t2)とを分けて抽出し、変化量が変化量閾値以上である第1線分L1(t1)の第1特徴点P1a(t1),P1b(t1)の第2撮像画像F2内での対応点を、変化量が変化量閾値以上である第1線分L1(t1)に対応する第2線分L1(t2)の第2特徴点P1a(t2),P1b(t2)に決定することにより物体が認識される。これにより、認識の対象となる物体のみによる第1特徴点P1a(t1),P1b(t1)及び第2特徴点P1a(t2),P1b(t2)と、認識の対象とはならない遠景による第1特徴点P2(t1)及び第2特徴点P2(t2)とが区別され、認識の対象となる物体のみによる第1特徴点P1a(t1),P1b(t1)と第2特徴点P1a(t2),P1b(t2)とが対応付けられるため、物体を認識する精度を向上させることができる。
また、本実施形態によれば、物体認識部24により、変化量が変化量閾値未満である第1線分L2(t1)の第1特徴点P2(t1)として、変化量が変化量閾値未満である第1線分L2(t1)の端点と変化量が変化量閾値以上である第1線分L1(t1)との交点である第1特徴点P2(t1)が抽出されることにより物体が認識される。これにより、認識の対象となる物体のみによる第1特徴点P1a(t1),P1b(t1)と、認識の対象となる物体の輪郭線と認識の対象とならない遠景の輪郭線との交点とが区別されるため、誤認識を低減することができる。
また、本実施形態によれば、物体認識部24により、変化量が変化量閾値未満である第1線分L2(t1)の端点と変化量が変化量閾値以上である第1線分L1(t1)との交点である第1特徴点P2(t1)と、変化量が変化量閾値以上である第1線分L1(t1)の第1特徴点P1a(t1),P1b(t1)との第1撮像画像F1内での位置関係に基づいて、変化量が変化量閾値未満である第1線分L2(t1)の端点と変化量が変化量閾値以上である第1線分L1(t1)との交点である第1特徴点P2(t1)の第2撮像画像F2内での対応点Pが決定される。これにより、認識の対象となる物体のみによる第1特徴点P1a(t1),P1b(t1)及び第2特徴点P1a(t2),P1b(t2)に基づいて、第1撮像画像F1内での認識の対象となる物体の輪郭線と認識の対象とならない遠景の輪郭線との交点の第2撮像画像F2内での対応点Pが決定されるため、物体を認識する精度をさらに向上させることができる。
すなわち、単に特徴点同士の輝度等に基づいて特徴点同士を対応付けた場合は、図9(a)(b)に示すように、第1撮像画像F1における変化量が変化量閾値未満である第1線分L2(t1)の端点と変化量が変化量閾値以上である第1線分L1(t1)との交点である第1特徴点P2(t1)と、第2撮像画像F2における変化量が変化量閾値未満である第1線分L2(t1)の端点と変化量が変化量閾値以上である第1線分L1(t1)との交点である第1特徴点P2(t1)とが対応付けられる恐れがある。
この場合、物体の輪郭線である第1線分L1(t1)及び第2線分L1(t2)は第1撮像画像F1及び第2撮像画像F2で移動するのに対して、遠景の輪郭線である第1線分L2(t1)及び第2線分L2(t2)は第1撮像画像F1及び第2撮像画像F2で移動しないために、第1特徴点P2(t1)及び第2特徴点P2が物体の輪郭線上で移動する。このため、実際には物体上の同一位置ではない位置を同一位置として誤認識する場合や、物体の位置や移動量を正確に認識できない場合がある。一方、本実施形態では、第1撮像画像F1における第1特徴点P2(t1)に対して、第2撮像画像F2における実際の物体上の同一位置の点である対応点Pが対応付けられるため、物体を認識する精度を向上させることができる。
尚、本発明の実施形態の画像処理装置及び画像処理方法は、上記した実施の形態に限定されるものではなく、本発明の実施形態の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
例えば、物体認識部24により、変化量が変化量閾値未満である第1線分及び第2線分の第1特徴点及び第2特徴点として、変化量が変化量閾値未満である第1線分同士の交点である第1特徴点、及び変化量が変化量閾値未満である第2線分同士の交点である第2特徴点が抽出されることにより物体が認識されてもよい。この場合、遠景による特徴点を抽出し、第1撮像画像F1及び第2撮像画像F2から遠景を除去することにより、物体を認識してもよい。
また、物体認識部24により、変化量が変化量閾値未満である第1線分L2(t1)の第1特徴点P2(t1)として、変化量が変化量閾値未満である第1線分L2(t1)の端点と変化量が変化量閾値以上である第1線分L1(t1)との交点である第1特徴点P2(t1)が抽出されることにより物体が認識される場合においても、第1特徴点P2(t1)の対応点Pを算出せずに、第1特徴点P2(t1)及び第2特徴点P2(t2)を対応付けの対象から除くことにより物体を認識し、演算負荷を軽減してもよい。
また、本実施形態の画像処理装置1は必ずしも車両に搭載されている必要は無く、画像処理装置は固定されており、移動する物体を認識するために適用されてもよい。
1…画像処理装置、11…カメラ、12…車速センサ、13…ジャイロセンサ、20…ECU、21…線分抽出部、22…特徴点抽出部、23…変化量算出部、24…物体認識部、25…車両制御部、31…ディスプレイ、32…スピーカ、33…アクチュエータ、F1…第1撮像画像、F2…第2撮像画像、L1(t1),L2(t1)…第1線分、L1(t2),L2(t2)…第2線分、P1a(t1),P1b(t1),P2(t1)…第1特徴点、P1a(t2),P1b(t2),P2(t2)…第2特徴点、P…対応点。

Claims (4)

  1. カメラによる撮像画像に基づいて物体を認識する画像処理装置であって、
    第1時点の第1撮像画像について複数の第1線分を抽出するとともに、前記第1時点より後の第2時点の第2撮像画像について複数の第2線分を抽出する線分抽出部と、
    前記第1線分それぞれの第1特徴点を抽出するとともに、前記第2線分それぞれの第2特徴点を抽出する特徴点抽出部と、
    前記第1線分それぞれの前記第1撮像画像内での位置に対して、前記第1線分それぞれに対応する前記第2線分それぞれの前記第2撮像画像内での位置の変化量を算出する変化量算出部と、
    前記変化量が変化量閾値以上である前記第1線分及び前記第2線分の前記第1特徴点及び前記第2特徴点と、前記変化量が前記変化量閾値未満である前記第1線分及び前記第2線分の前記第1特徴点及び前記第2特徴点とを分けて抽出し、前記変化量が前記変化量閾値以上である前記第1線分の前記第1特徴点の前記第2撮像画像内での対応点を、前記変化量が前記変化量閾値以上である前記第1線分に対応する前記第2線分の前記第2特徴点に決定することにより前記物体を認識する物体認識部と、を備え
    前記物体認識部は、
    前記変化量が前記変化量閾値未満である前記第1線分の前記第1特徴点として、
    前記変化量が前記変化量閾値未満である前記第1線分の端点と前記変化量が前記変化量閾値以上である前記第1線分との交点である前記第1特徴点を抽出することにより前記物体を認識する、画像処理装置。
  2. 前記物体認識部は、
    前記変化量が前記変化量閾値未満である前記第1線分の端点と前記変化量が前記変化量閾値以上である前記第1線分との交点である前記第1特徴点と、前記変化量が前記変化量閾値以上である前記第1線分の前記第1特徴点との前記第1撮像画像内での位置関係に基づいて、
    前記変化量が前記変化量閾値未満である前記第1線分の端点と前記変化量が前記変化量閾値以上である前記第1線分との交点である前記第1特徴点の前記第2撮像画像内での前記対応点を決定する、請求項に記載の画像処理装置。
  3. カメラによる撮像画像に基づいて物体を認識する画像処理装置を用いた画像処理方法であって、
    画像処理装置の線分抽出部により、第1時点の第1撮像画像について複数の第1線分を抽出するとともに、前記第1時点より後の第2時点の第2撮像画像について複数の第2線分を抽出する線分抽出工程と、
    画像処理装置の特徴点抽出部により、前記第1線分それぞれの第1特徴点を抽出するとともに、前記第2線分それぞれの第2特徴点を抽出する特徴点抽出工程と、
    画像処理装置の変化量算出部により、前記第1線分それぞれの前記第1撮像画像内での位置に対して、前記第1線分それぞれに対応する前記第2線分それぞれの前記第2撮像画像内での位置の変化量を算出する変化量算出工程と、
    画像処理装置の物体認識部により、前記変化量が変化量閾値以上である前記第1線分及び前記第2線分の前記第1特徴点及び前記第2特徴点と、前記変化量が前記変化量閾値未満である前記第1線分及び前記第2線分の前記第1特徴点及び前記第2特徴点とを分けて抽出し、前記変化量が前記変化量閾値以上である前記第1線分の前記第1特徴点の前記第2撮像画像内での対応点を、前記変化量が前記変化量閾値以上である前記第1線分に対応する前記第2線分の前記第2特徴点に決定することにより前記物体を認識する物体認識工程と、を備え
    前記物体認識工程では、
    前記変化量が前記変化量閾値未満である前記第1線分の前記第1特徴点として、
    前記変化量が前記変化量閾値未満である前記第1線分の端点と前記変化量が前記変化量閾値以上である前記第1線分との交点である前記第1特徴点を抽出することにより前記物体を認識する、画像処理方法。
  4. 前記物体認識工程では、
    前記変化量が前記変化量閾値未満である前記第1線分の端点と前記変化量が前記変化量閾値以上である前記第1線分との交点である前記第1特徴点と、前記変化量が前記変化量閾値以上である前記第1線分の前記第1特徴点との前記第1撮像画像内での位置関係に基づいて、
    前記変化量が前記変化量閾値未満である前記第1線分の端点と前記変化量が前記変化量閾値以上である前記第1線分との交点である前記第1特徴点の前記第2撮像画像内での前記対応点を決定する、請求項に記載の画像処理方法。
JP2015053277A 2015-03-17 2015-03-17 画像処理装置及び画像処理方法 Active JP6337811B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015053277A JP6337811B2 (ja) 2015-03-17 2015-03-17 画像処理装置及び画像処理方法
US15/062,677 US9744968B2 (en) 2015-03-17 2016-03-07 Image processing apparatus and image processing method
EP16160289.1A EP3070642A1 (en) 2015-03-17 2016-03-15 Image processing apparatus and image processing method
CN201610151179.XA CN105984470B (zh) 2015-03-17 2016-03-16 图像处理装置和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015053277A JP6337811B2 (ja) 2015-03-17 2015-03-17 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2016173723A JP2016173723A (ja) 2016-09-29
JP6337811B2 true JP6337811B2 (ja) 2018-06-06

Family

ID=55586168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015053277A Active JP6337811B2 (ja) 2015-03-17 2015-03-17 画像処理装置及び画像処理方法

Country Status (4)

Country Link
US (1) US9744968B2 (ja)
EP (1) EP3070642A1 (ja)
JP (1) JP6337811B2 (ja)
CN (1) CN105984470B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014152254A2 (en) 2013-03-15 2014-09-25 Carnegie Robotics Llc Methods, systems, and apparatus for multi-sensory stereo vision for robotics
US10077007B2 (en) * 2016-03-14 2018-09-18 Uber Technologies, Inc. Sidepod stereo camera system for an autonomous vehicle
CN107697104B (zh) * 2017-08-02 2019-08-20 同济大学 基于图像的铁路车辆运行方向识别与轴速测量装置及方法
CN109697441B (zh) * 2017-10-23 2021-02-12 杭州海康威视数字技术股份有限公司 一种目标检测方法、装置及计算机设备
US10967862B2 (en) 2017-11-07 2021-04-06 Uatc, Llc Road anomaly detection for autonomous vehicle
FR3073655B1 (fr) * 2017-11-16 2019-10-18 Thales Procede de determination d'un vecteur vitesse visuel d'un engin mobile, produit programme d'ordinateur et systeme de determination associes
JP7204612B2 (ja) * 2019-08-06 2023-01-16 株式会社東芝 位置姿勢推定装置、位置姿勢推定方法及びプログラム
CN117197422B (zh) * 2023-11-07 2024-03-26 深圳优艾智合机器人科技有限公司 识别码的定位方法、电子设备及存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5645976A (en) * 1979-09-20 1981-04-25 Seiko Epson Corp Liquid crystal composition
JP2994170B2 (ja) * 1993-04-30 1999-12-27 三菱電機株式会社 車両周辺監視装置
JPH09212643A (ja) * 1996-02-05 1997-08-15 Meidensha Corp 三次元物体認識方法及びその装置
JP4341705B2 (ja) * 2007-07-17 2009-10-07 トヨタ自動車株式会社 車載画像処理装置
US8090204B2 (en) * 2008-03-24 2012-01-03 Verint Systems, Ltd. Method and system for line segment extraction
US8406532B2 (en) * 2009-06-17 2013-03-26 Chevron U.S.A., Inc. Image matching using line signature
JP5538868B2 (ja) * 2009-12-22 2014-07-02 キヤノン株式会社 画像処理装置、その画像処理方法及びプログラム
US8989483B2 (en) * 2011-06-10 2015-03-24 Sri International Method and apparatus for inferring the geographic location of captured scene depictions
JP6031819B2 (ja) * 2012-05-17 2016-11-24 富士通株式会社 画像処理装置、画像処理方法
US9633436B2 (en) * 2012-07-26 2017-04-25 Infosys Limited Systems and methods for multi-dimensional object detection
EP2704096A1 (de) * 2012-08-29 2014-03-05 Delphi Technologies, Inc. Verfahren zum kalibrieren einer Bilderfassungseinrichtung
JP2014102805A (ja) 2012-11-22 2014-06-05 Canon Inc 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US20160272206A1 (en) 2016-09-22
JP2016173723A (ja) 2016-09-29
US9744968B2 (en) 2017-08-29
CN105984470A (zh) 2016-10-05
CN105984470B (zh) 2019-05-03
EP3070642A1 (en) 2016-09-21

Similar Documents

Publication Publication Date Title
JP6337811B2 (ja) 画像処理装置及び画像処理方法
JP6785620B2 (ja) ステレオカメラセンサを用いた車両用の予測的サスペンション制御
CN108137096B (zh) 用于停放车辆的系统
US9235767B2 (en) Detection region modification for driving assistance apparatus and driving assistance method
JP3719095B2 (ja) 挙動検出装置および勾配検出方法
US10179608B2 (en) Parking assist device
JP6365385B2 (ja) 立体物検出装置及び立体物検出方法
WO2014083830A1 (ja) 車両用加速抑制装置及び車両用加速抑制方法
KR20060021922A (ko) 두 개의 카메라를 이용한 장애물 감지 기술 및 장치
WO2019021591A1 (ja) 画像処理装置と画像処理方法とプログラムおよび画像処理システム
JP7263734B2 (ja) 視認対象判定装置
KR100766596B1 (ko) 차량의 차선유지 조향제어방법
JP6044084B2 (ja) 移動物体位置姿勢推定装置及び方法
JP5695000B2 (ja) 車両周辺監視装置
JP2015067030A (ja) 運転支援装置
JP2012517055A (ja) ビデオに基く車両の運転者援助システムの作動方法及び装置
JP6826010B2 (ja) カメラ運動推定装置、カメラ運動推定方法及びプログラム
CN112349091A (zh) 特定区域检测装置
JP5832850B2 (ja) 車線監視システム及び車線監視方法
JP2021056717A (ja) 物体検知装置
JP4768499B2 (ja) 車載周辺他車検出装置
JP7065585B2 (ja) 車両の走行制御装置
KR20200140979A (ko) 차량 제어 방법, 차량 제어 장치, 이를 포함하는 차량 제어 시스템
JP7436331B2 (ja) 画像処理装置
US20220366587A1 (en) Method and Device for Camera-Based Determination of a Distance of a Moving Object in the Surroundings of a Motor Vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180423

R151 Written notification of patent or utility model registration

Ref document number: 6337811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151