JP7072641B2 - 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法 - Google Patents

路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法 Download PDF

Info

Publication number
JP7072641B2
JP7072641B2 JP2020514799A JP2020514799A JP7072641B2 JP 7072641 B2 JP7072641 B2 JP 7072641B2 JP 2020514799 A JP2020514799 A JP 2020514799A JP 2020514799 A JP2020514799 A JP 2020514799A JP 7072641 B2 JP7072641 B2 JP 7072641B2
Authority
JP
Japan
Prior art keywords
histogram
road surface
image
obstacle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020514799A
Other languages
English (en)
Other versions
JPWO2019202628A1 (ja
Inventor
宏樹 藤好
考平 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019202628A1 publication Critical patent/JPWO2019202628A1/ja
Application granted granted Critical
Publication of JP7072641B2 publication Critical patent/JP7072641B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2400/00Indexing codes relating to detected, measured or calculated conditions or factors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本願は、路面検出装置、この路面検出装置を利用した画像表示装置、この路面検出装置を利用した障害物検知装置、路面検出方法、この路面検出方法を利用した画像表示方法、およびこの路面検出方法を利用した障害物検知方法に関するものである。
近年、撮像装置を用いて車両周囲の障害物を検知し、車両の衝突防止、自動駐車、または車間距離制御などを行う自動車の予防安全システムが提案されている。このようなシステムに係る路面検出装置では、路面の模様、又は路面に映る影などが障害物として誤検出される問題がある。
この問題を解決するために、従来の路面検出装置として特許文献1に開示されたものがある。
特開2017-33506号公報
特許文献1に開示された路面検出装置では、ヒストグラム生成領域から作成された輝度値ヒストグラムによって、路面の輝度値が推定される。しかし、ヒストグラム生成領域が、車両、構造物の影又は障害物によって覆われる場合、日の当たる路面の輝度情報を取得できないため、正しく路面を検出できない。また、ヒストグラム生成領域に影が映らない場合、影が映った路面を検出することができず、路面に映った障害物の影を障害物として誤検知してしまう。したがって、特許文献1に開示された路面検出装置では、影の影響により路面検出の精度が下がることが課題である。
本願は上記の課題を解決するためになされたものであり、車両周辺の路面検出の精度を従来のものと比べて更に向上させることを目的とする。
本願に開示される路面検出装置は、
車両に設けられ、前記車両の周囲の路面画像を取得し、路面画像の一部である部分路面画像を複数出力する撮像部と、
車両周辺に存在する障害物までの距離を検出する障害物距離検出部と、
部分路面画像と障害物までの距離とに基づいて、障害物を含まない領域をヒストグラム生成領域として複数抽出するヒストグラム生成領域抽出部と、
複数のヒストグラム生成領域を合成し、ヒストグラム生成合成領域として出力するヒストグラム生成領域合成部と、
ヒストグラム生成合成領域にもとづいて、ヒストグラムを演算するヒストグラム演算部と、
ヒストグラムを第1のヒストグラムと第2のヒストグラムとに分離して出力するヒストグラム分離部と、
第1のヒストグラムと部分路面画像より第1の領域を抽出する第1の領域抽出部と、
第2のヒストグラムと部分路面画像より第2の領域を抽出する第2の領域抽出部を備え、
ヒストグラム分離部はヒストグラムより第1のピーク値を含む要素を前記第1のヒストグラム、第2のピーク値を含む要素を前記第2のヒストグラムとして分離することを特徴とする。
本願に開示される路面検出装置によれば、路面検出装置が車両周辺の路面の影を検出するため、従来の路面検出装置に比べて、路面の検出精度を更に向上させることができる。
実施の形態1に係る路面検出装置の概略構成図である。 実施の形態1に係る演算装置のハードウエア構成図である。 実施の形態1に係る路面検出装置の機能ブロック図である。 実施の形態1に係る路面検出装置の動作を示すフローチャートである。 実施の形態1に係る路面検出装置の前方カメラ3と部分路面画像の範囲、部分変換画像を撮影する架空のカメラ3’の関係を示した図である。 実施の形態1に係る路面検出装置のカメラ3から取得した部分路面画像を示した図である。 実施の形態1に係る路面検出装置のカメラ3から取得した部分路面画像を変換して得られる部分変換画像を示した図である。 実施の形態1に係る路面検出装置の座標系を示した図である。 実施の形態1に係る路面検出装置における車両1とヒストグラム生成領域の位置関係を示した図である。 実施の形態1に係る路面検出装置の部分変換画像と障害物距離の関係を示した図である。 実施の形態1に係る路面検出装置の部分変換画像上において2つ以上の障害物距離に基づく二円交点が得られた場合の合成変換画像上での円弧の交点17と車両1と障害物との距離Cの関係を示した図である。 実施の形態1に係る路面検出装置の部分変換画像上において1つの障害物距離が得られた場合の合成変換画像上での円弧16と車両1と障害物との距離Cの関係を示した図である。 実施の形態1に係る路面検出装置の車両1後方の部分変換画像におけるヒストグラム生成領域の座標を示した図である。 実施の形態1に係る路面検出装置のヒストグラム生成合成領域に基づくヒストグラムとヒストグラムの分離方法を示した図である。 実施の形態1に係る路面検出装置の第2のヒストグラムが抽出できないヒストグラムを示した図である。 実施の形態1に係る路面検出装置の合成変換画像を示した図である。 実施の形態1に係る路面検出装置の合成変換画像のうち、第1の領域を輝度値255に、それ以外の領域を輝度値0にした画像を示した図である。 実施の形態1に係る路面検出装置の合成変換画像のうち、第2の領域を輝度値255に、それ以外の領域を輝度値0にした画像を示した図である。 実施の形態2に係る画像表示装置の機能ブロック図である。 実施の形態2に係る画像表示装置の動作を示すフローチャートである。 実施の形態3に係る障害物検知装置の機能ブロック図である。 実施の形態3に係る障害物検知装置の動作を示すフローチャートである。 実施の形態3に係る障害物検知装置における部分変換画像の一例を示した図である。 実施の形態3に係る障害物検知装置における部分変換画像のうち、第1の領域と第2領域を輝度値255に、第1の領域と第2の領域に含まれない障害物領域を輝度値0とした画像を示した図である。 実施の形態3に係る障害物検知装置における部分変換画像のうち、第1の領域と第2領域を輝度値0に、路面領域に含まれない障害物領域を輝度値255とした画像を示した図である。 実施の形態3に係る障害物検知装置における部分変換画像のうち、第1の領域と高さを持たない障害物領域を輝度値0に、それ以外の障害物領域を輝度値255とした画像を示した図である。 実施の形態3に係る障害物検知装置における合成変換画像と、過去の合成変換画像の差分がある閾値以上の領域を輝度値255に、閾値未満の領域を輝度値0とした画像を示した図である。 実施の形態3に係る障害物検知装置における部分変換画像において、破線にて障害物検知ゾーン20を示した図である。 実施の形態3に係る障害物検知装置における部分変換画像のうち、障害物検知ゾーン20を輝度値255に、障害物検知ゾーン20に含まれない領域を輝度値0とした画像を示した図である。
以下、本願による路面検出装置の構成、動作を、好適な実施の形態にしたがって図面を用いて説明する。なお、図面の説明においては、同一部分または相当部分には同一符号を付し、重複する説明を省略する。
実施の形態1.
実施の形態1の路面検出装置は、従来課題であった、路面検出の精度を上げるために、車両1周辺の画像から画像処理によって、日の当たる路面である日向路面と、影が映り込んだ路面である影路面を検出するものである。実施の形態1の路面検出装置の構成の概略について、図1Aを用いて説明する。
図1Aにおいて車両1は、ソナーセンサ2、カメラ3、および路面検出装置11を有している。ソナーセンサ2は車両前方、側方及び後方に複数設置され、ソナーセンサ配線6を介してソナーコントローラ7に接続されている。なお、図1Aでは前後4つずつ、側方に2つずつソナーセンサ2を配しているが、必要な計測領域が満たされるのであれば、車両1のサイズによっては、前後のソナーセンサ2は2~3個であっても良い。
カメラ3は車両1の前後及び左右に複数設置され、カメラ配線5を介して周辺監視カメラコントローラ8に接続されている。また取付け位置について、図1Aでは左右のカメラについては、現在一般的なドアミラー下部、前後のカメラについてはそれぞれバンパー中央に設置するよう図示しているが、必ずしも図1Aのように設置する必要はなく、本願の目的を満たすことが可能であれば設置位置は限定しない。
路面検出装置11には、ソナーコントローラ7、周辺監視カメラコントローラ8以外に、その他のセンサ9、演算装置10が含まれており、それぞれ、通信線4(例えばCAN:Control Area Network等)、を用いて接続されている。
演算装置10は、図1Bに示すように、プロセッサ1000と記憶装置2000から構成され、図示していないが、記憶装置はランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備してもよい。プロセッサ1000は、記憶装置2000から入力されたプログラムを実行し、図2で説明する機能ブロックに関する構成および図3で説明するフローチャートの動作の一部又は全部を遂行する。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ1000にプログラムが入力される。また、プロセッサ1000は、入出力される信号、演算の中間値、および演算結果等のデータを記憶装置2000の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。また、プロセッサ1000及び記憶装置2000に加え、ロジック回路、アナログ回路を併用してもよい。また、演算装置10は、後述する実施の形態2、及び実施の形態3で説明する機能ブロック及びフローチャートの動作の一部又は全部を遂行する。
図2は、実施の形態1に係る路面検出装置11の機能構成を機能ブロック図にて示したものである。
路面検出装置11は、撮像部200、障害物距離検出部201、車両信号検出部202、画像変換部203、ヒストグラム生成領域抽出部204、ヒストグラム生成領域合成部205、ヒストグラム演算部206、ヒストグラム分離部207、変換画像合成部208、第1の領域抽出部209、第2の領域抽出部210、により構成される。
撮像部200は、図1Aで示す複数のカメラ3と周辺監視カメラコントローラ8、及びそれらをつなぐカメラ配線5によって構成される。
障害物距離検出部201は、車両1周辺に存在する障害物を検知し、障害物距離検出部201と障害物との距離である障害物距離を検出する。障害物距離を検出する装置として例えば、ソナーセンサ、赤外線デプスセンサ、ミリ波レーダ、またはLiDAR技術などがあり、障害物距離検出部201は、図1Aで示すように、複数のソナーセンサ2と、ソナーコントローラ7、及びそれらをつなぐソナーセンサ配線6によって構成される。
車両信号検出部202は、図1Aのその他のセンサ9に該当し、車両状態を検出する。車両信号検出部202が検出する車両信号としては、車速、ハンドル角、シフト情報、ブレーキ情報、又はヨーレート等がある。
図2に示す機能ブロック図の内、画像変換部203、ヒストグラム生成領域抽出部204、ヒストグラム生成領域合成部205、ヒストグラム演算部206、ヒストグラム分離部207、変換画像合成部208、第1の領域抽出部209、第2の領域抽出部210は、図1に示す演算装置10が有している。演算装置10が有する機能ブロックの動作について、図3に示すフローチャートを用いて説明する。
図3中、ステップS101にて、図2に示された画像変換部203は、撮像部200が撮像した部分路面画像に対して画像処理を行うことにより、部分変換画像に変換する。本実施の形態1では、図1Aに示すように車両1の四方を撮像する4台のカメラ3によって撮像された部分路面画像に対して、射影変換処理を行うことにより部分変換画像に変換する。
ここで、射影変換処理について図4~図6を用いて説明する。図4は車両1と、車両1前方に取り付けられたカメラ3と、カメラ3の位置から撮像される部分路面画像の範囲を示している。さらに、図4は、部分路面画像を射影変換して得られた部分変換画像の範囲と部分変換画像を撮像する架空のカメラ3’の関係を示している。
図4に示すように車両1前方のカメラ3を路面が映るように取り付けると、図5のような部分路面画像を撮像することができる。
図5は車両1のカメラ3が撮像する部分路面画像で、路面上に障害物であるパイロン12が設置されており、路面にパイロン12によってできたパイロンの影13と白線14が映し出されている。このような部分路面画像のうち車両1近傍の路面を含む領域である領域Aを射影変換することで、領域Aを上方から見下ろす架空のカメラ3’が撮像したような部分変換画像に変換する。射影変換した部分変換画像の例を図6に示す。射影変換は図5に示す部分路面画像内の高さのある障害物(例えば、パイロン12)についても、高さのない路面上の模様(例えば、アスファルト路面上の白線14)のように扱うため、高さをもつパイロン12は、図6に示すように車両1から奥行き方向に伸びた形で変換される。
また、射影変換によって得られる部分変換画像から、部分変換画像上のパイロン12の位置を算出することができる。本実施の形態1における部分変換画像は領域Aを射影変換したものであるため部分変換画像と領域Aは対応関係にある。そのため、カメラ3の位置とカメラ3’の位置、カメラ3の画角、焦点距離、および座標変換画像のサイズを用いて幾何学的に部分変換画像上のパイロン12の座標を求めることができる。
なお、座標とは図7に示すような、車両1の後方車軸中央を原点0とした座標系である。この座標系は、原点0から車両1前方に向かう軸をX軸、原点0から車両1の左方に向かう軸をY軸で表す。
図3中、ステップS102にて、図2で示した障害物距離検出部201は、障害物距離を検出する。撮像範囲内の障害物を検知し、ソナーセンサ2からソナーセンサ2に最も接近している障害物までの距離である障害物距離を検出する。撮像範囲内に複数の障害物が存在する場合、複数の障害物距離が検出されるためすべて記録する。
図3中、ステップS102にて検出された障害物距離に基づいて、図2で示したヒストグラム生成領域抽出部204により、部分変換画像からヒストグラム生成領域を抽出する。
ヒストグラム生成領域と車両1との位置関係を図8に示す。図8は車両1と車両1周辺の路面を上方から見た俯瞰画像であり、車両1周辺の路面には車両の影15が映っている。ヒストグラム生成領域抽出部204は、カメラ3の撮像する部分路面画像を変換した部分変換画像のうち、車両1の近傍を囲む4つの長方形の領域Bをヒストグラム生成領域として抽出する。領域Bに障害物が含まれると、障害物を路面として誤検出する可能性があるため、部分変換画像上にてソナーセンサ2が検出する障害物距離に基づいて障害物を含まない路面領域を算出し、ヒストグラム生成領域として抽出する。
図3中、ステップS103~S107にて、各部分路面画像において、障害物距離に基づいて車両1と障害物との距離を算出し、ステップS108にて、算出した車両1と障害物との距離から路面領域を算出することによりヒストグラム生成領域として抽出する。以下で処理の例を詳細に説明する。
まず、図3中、ステップS103にて、図2に示されたヒストグラム生成領域抽出部204は、部分変換画像上にて障害物距離検出部201が障害物を検出するかどうかを判定する。
障害物を検出する場合は障害物距離に基づいて車両1と障害物との距離を算出するため、図3中、ステップS104へ移行する。
障害物を検出しない場合は、ソナーセンサ2(図1A参照)の最大検出距離を車両1と障害物との距離とし、図3中、ステップS108へ移行する。この場合、ソナーセンサ2の精度を考慮して、ソナーセンサ2の最大検出距離の0.8倍を車両1と障害物との距離としても良い。
図3中、ステップS104にて、図2に示したヒストグラム生成領域抽出部204は、部分変換画像上に障害物距離検出部201を中心に、障害物距離を半径とした円弧の座標を算出する。部分変換画像と障害物距離の関係を図9に示す。図9中、部分変換画像上に、ソナーセンサ2を中心に、ソナーセンサ2が検出した障害物距離を半径とした円弧16を示している。この場合は障害物としてパイロン12が検出されており、パイロン12は円弧16上のどこかに存在する。なお、ソナーセンサ2は高さを持つ障害物のみを検出するためパイロンの影13は障害物として検出しない。
さらに、図2中、ヒストグラム生成領域抽出部204は、図3のステップS105にて、ステップS104にて算出された円弧16の座標から、各部分変換画像上に円弧の交点17が存在するか否かを判定する。図10に部分変換画像上における2つの円弧16と円弧の交点17の関係を示す。2つのソナーセンサ2がパイロン12を検出しているため、2つの円弧16によって出来た円弧の交点17がパイロン12の座標を示している。図10のように、部分変換画像上に円弧の交点17が存在する場合は、2つの障害物距離の交点、つまり障害物の座標を取得することができる。しかし、円弧の交点17が存在しない場合は、障害物の正確な座標がわからない。そのため、円弧の交点17が存在する場合と存在しない場合で、車両1と障害物との距離Cの算出方法を変える。すなわち、部分変換画像上に円弧の交点17が存在する場合は図3中、ステップS106の処理に、円弧の交点17が存在しない場合は、ステップS107の処理に移行する。
部分変換画像上に円弧の交点17が存在する場合、図3中、ステップS106で、円弧の交点17の座標から、車両1と障害物との距離を算出する。円弧の交点17と車両1と障害物との距離Cの算出方法について図10を用いて説明する。
まず、円弧の交点17から車両1の面に対して引かれる垂線の長さを算出する。ソナーセンサ2の精度により障害物距離には誤差が含まれるため、誤差を考慮して、垂線の長さを0.8倍または0.6倍した値を車両1と障害物との距離Cとして出力する。
部分変換画像上に複数の障害物が存在するために円弧の交点17が複数存在する場合は、全ての円弧の交点17から車両1の面に対して垂線を引き、最も短い垂線の長さを0.8倍または0.6倍にした値を車両1と障害物との距離Cとして出力する。なお、ソナーセンサ2を用いて説明したが、より指向性の高いセンサを用いるのであれば、算出された垂線の長さに、より1に近い倍率をかけた値を車両1と障害物との距離Cとすることができる。
部分変換画像上に円弧の交点17が存在しない場合、図3中、ステップS107では、ステップS105において出力された円弧16の座標から車両1と障害物との距離を算出する。
図11中、ソナーセンサ2は、ソナーセンサ2の正面から約Z度の範囲に対して音波を放つため、障害物を検知した場合、障害物はソナーセンサ2の中心から±Z度の範囲に存在する。車両1と障害物との距離が最も短くなるのはソナーセンサ2の中心からZ度の方向に障害物が存在するときであるため、この距離を車両1と障害物との距離Cとして出力する。すなわち、円弧16の半径である障害物距離をPとしたとき、以下の式(1)を用いて距離Cを算出する。
C = PcosZ ・・・(1)
図11の例では、Z=45度として車両1と障害物との距離Cを算出する。
次に、図3中、ステップS108で、上述したステップS106または、ステップS107で算出された、車両1と障害物との距離Cを用いてヒストグラム生成領域を抽出する。
ヒストグラム生成領域の抽出方法の例を図12によって説明する。図12では、車両1の後方に設置されたカメラ3が撮像する部分路面画像を変換した部分変換画像(以後、車両1後方の部分変換画像と記載)においてヒストグラム生成領域を点H1からH4に囲まれた領域に設定している。点H1からH4の座標は、図7で説明した座標系において、H1(-β,α+γ)、H2(-β,-α-γ)、H3(-β-δ, -α-γ)、H4(-β-δ, α+γ)で、αは車両1の横幅の半分の長さ、βは後方車軸から後方バンパーまでの長さを表している。図3中、ステップS103からステップS107において出力された車両1と障害物との距離Cによって、γ、γとδを可変とすることで路面領域のみをヒストグラム生成領域として抽出することが可能となる。例えば、車両1後方の部分変換画像からヒストグラム生成領域を算出する際には、車両1後方の部分変換画像から算出された車両1と障害物との距離Cをδ、右方の部分変換画像から算出された車両1と障害物との距離Cをγ、左方の部分変換画像から算出された車両1と障害物との距離Cをγとする。同様の方法でその他の部分変換画像におけるヒストグラム生成領域を算出すると、前述した図8のように車両1を囲む路面領域をヒストグラム生成領域として抽出することができる。また、各部分変換画像から算出された車両1と障害物との距離Cのうち、最も短い車両1と障害物との距離Cを、δとγ1、γとしてヒストグラム生成領域を抽出しても良い。
なお、図3中、ステップS105において、各部分変換画像上に円弧の交点17が存在するか否かを判定した結果に基づいて車両1と障害物との距離Cの算出方法を変えた。しかし、必ずしもそのようにする必要はない。例えば、円弧の交点17の有無に関係なく、各部分変換画像上において最も短い障害物距離を0.8倍した値を車両1と障害物との距離Cとしてもよく、障害物距離が検出されない場合は、ソナーセンサ2の最大検出距離を0.8倍した値を車両1と障害物との距離Cとして算出してもよい。本願の目的を満たすことが可能であればヒストグラム生成領域の算出方法は限定しない。
図3中、ステップS109にて、図2で示したヒストグラム生成領域合成部205は、ヒストグラム生成領域抽出部204が抽出した複数のヒストグラム生成領域を合成し、ヒストグラム生成合成領域として出力する。
ヒストグラム生成領域合成部205は、車両信号検出部202が出力する車両信号に基づいて各ヒストグラム生成領域が路面である確率を推定し、路面である確率が高いヒストグラム生成領域を拡大し、路面である可能性が低いヒストグラム生成領域を縮小する。このような拡大及び縮小処理を行った後、画像データをRGB画素値の配列に格納し、ヒストグラム生成合成領域として出力する。各ヒストグラム生成領域を路面である確率に応じて拡大及び縮小することで、合成したヒストグラム生成合成領域が障害物を含む可能性を低減する。この拡大及び縮小処理を行うために算出される倍率を本実施の形態1では合成比率と称す。
合成比率を算出するために、本実施の形態1では車両信号として、シフト情報を利用する。シフト情報から車両1の現在の進行方向が分かるため、進行方向のヒストグラム生成領域の合成比率を1より低い値を算出し、進行方向と反対のこれまで走行していた路面であると考えられるヒストグラム生成領域の合成比率を1より大きい値を算出する。このように、車両信号から各ヒストグラムの路面である確率を推定し、合成比率を変更する。本実施の形態1では、車両信号としてシフト情報を利用する例を示したが、ヨーレート、又は車速などその他の車速信号を利用してヒストグラム生成領域を算出してもよい。
なお、本実施の形態1では、図3中、ステップS109にて車両信号を用いてヒストグラム生成領域の合成比率を、図2で示したヒストグラム生成領域合成部205により変更したが、この処理は、図3中、ステップS108にて、図2で示したヒストグラム生成領域抽出部204が行うことも可能である。すなわち、ヒストグラム生成領域を算出する際に、車両信号に基づいて車両1と障害物との距離Cの長さを補正することでヒストグラム生成領域が障害物を含む可能性を低減することができる。例えば、車両信号から過去の走行領域と現在の進行方向を推定し、部分変換画像に過去の走行領域が含まれる場合は、過去の走行領域が含まれない場合よりも車両1と障害物との距離Cを長く算出する。又は、進行方向に基づいて、進行方向の部分変換画像から算出される車両1と障害物との距離Cを、進行方向と反対の部分変換画像における車両1と障害物との距離Cよりも短く算出する。又は、進行方向と反対の部分変換画像における車両1と障害物との距離Cを進行方向の部分変換画像から算出される車両1と障害物との距離Cよりも長く算出する、などの処理をするとよい。
図3中、ステップS110にて、図2で示したヒストグラム演算部206は、ヒストグラム生成合成領域におけるRGB画素値の画素数の出現頻度を表すヒストグラムを演算する。図13にヒストグラムの例を示す。ヒストグラムの横軸は画素値で、縦軸が画素数である。本実施の形態1では、画素値は256階調で表され、最小値が0、最大値が255でRGB画素値のR、G、B、それぞれに対してヒストグラムを作成する。なお、カラー画像を用いて路面検出を行うが、モノクロ画像に対して路面検出を行うことも可能で、その場合は作成するヒストグラムは1つで良い。
本実施の形態1で作成されるヒストグラムの特徴を説明する。ヒストグラム生成領域は車両1周辺の路面で構成されており、路面には日の当たる路面である日向路面と車両1、又は構造物の影が映り込んだ路面である影路面が含まれる。影路面は光が当たっていないため、画像上では日向路面に比べて輝度値が下がる。このため、ヒストグラム生成領域に車両の影が存在する場合は、図13に示す様にヒストグラムには日向路面に基づく第1のピークと影路面に基づく第2のピークが立ち、第2のピークは第1のピークに比べて画素値が低くなる。また、ヒストグラム生成領域に白線及びマンホールが車両1周辺に存在する場合にはそれぞれに基づいたピークが立つ。
図3中、ステップS111にて、図2で示したヒストグラム分離部207は、ステップS110で作成したヒストグラムを第1のヒストグラムと第2のヒストグラムに分離する。本実施の形態1では、第1のヒストグラムは、日の当たる路面である日向路面に基づくヒストグラムで、第2のヒストグラムは影が映り込んだ路面である影路面に基づくヒストグラムとする。図2で示したヒストグラム分離部207は画素数の高い上位2つのピークを探索し、2つのピークのうち画素値の低いピーク18b周辺のヒストグラムを第2のヒストグラムとして抽出し、2つのピークのうち画素値の高いピーク18aを含むヒストグラムを第1のヒストグラムとして抽出する。
ヒストグラムのピーク18a、及びピーク18bを探索する方法として、ローパスフィルタ、又は微分を用いる方法などがあるが、本手法の特徴ではないため説明を割愛する。
また、図14に示すように、ヒストグラムにおける2番目に高いピーク値18cが、ある一定値G以下の場合、車両1周辺に影が無いと判断して、第2のヒストグラムの抽出は行わず、ヒストグラム全体を第1のヒストグラムとして抽出する。
ただし、ヒストグラム生成領域にマンホールなどが存在する場合、ヒストグラムにおける高さの高いピークが影に基づいたものではなく、マンホールに基づいて形成されることがある。このような場合は、例えば過去の第2のヒストグラムと、現在のヒストグラムにおける第2のヒストグラム候補との比較を行うヒストグラム判定部を設けるとよい。このヒストグラム判定部は、第2のヒストグラム候補が影路面に基づくヒストグラムかを判定し、マンホールなどの路面構造物に基づいたヒストグラムを第2のヒストグラムとして誤って抽出することを防ぐ。例えば、過去の第2のヒストグラムと現在の第2ヒストグラム候補の形状、具体的にはヒストグラムの画素値域、ピーク値、又はヒストグラムの分散値などを比較し、ヒストグラムの類似度を算出することによって、第2のヒストグラム候補が影路面に基づいたものか判定する。判定した結果、第2のヒストグラム候補が影路面に基づいたヒストグラムでないと判断される場合は、この第2のヒストグラム候補を破棄し、過去に記録した第2のヒストグラムを第2のヒストグラムとして代わりに抽出する。これにより、一時的にヒストグラム生成領域にマンホール及び白線などが広範囲に映った場合でも、影路面を識別することができる。
図3中、ステップS112にて、図2に示す変換画像合成部208は、部分変換画像から路面検出処理に用いる合成変換画像を作成する。本実施の形態1では、図1Aに示した4つのカメラ3が撮像した部分路面画像に基づく部分変換画像を合成し、図15のような合成変換画像を作成する。説明の都合上、図15中、車両1の左方、右方、後方の部分路面画像を一部取り除き、合成変換画像の中心に実際は映らない車両1を重畳しており、障害物であるパイロン12と、パイロン12の影13と、車両の影15が含まれる。
図3中、ステップS113にて、図2に示す第1の領域抽出部209は、図13に示す第1のヒストグラムを用いて合成変換画像から第1の領域を抽出する。同様に、図3中、ステップS114にて、図2に示す第2の領域抽出部210は、図13に示す第2のヒストグラムを用いて合成変換画像から第2の領域を抽出する。ヒストグラムに基づいて路面領域を抽出する方法として、例えばヒストグラムの逆投影法、又はヒストグラムの領域に含まれる画素値を持つ全ての画素を抽出する方法などが考えられる。
本実施の形態1では、ヒストグラムの逆投影法を用いて領域を抽出する例を示す。ヒストグラムの逆投影法はヒストグラムの各画素値の出現割合に基づいて、対象の画素がヒストグラムに含まれるかどうかを判定する手法である。ヒストグラムの逆投影法の処理方法について詳細に説明する。まず、各画素のRGB画素値を取得する。次に、RGBの各ヒストグラムを参照して、取得した画素値の画素数を取得し、各画素数を合計した値である画素数合計値を算出する。画素数合計値があらかじめ定めた値以上である場合は輝度値255、あらかじめ定めた値未満である場合は輝度値0の値を出力する。この処理を合成変換画像の画素すべてに対して行うことで、合成変換画像の二値化画像を出力する。二値化画像のうち、輝度値255の領域がヒストグラムに基づく領域を示す。
図2で示した第1の領域抽出部209と第2の領域抽出部210がヒストグラムの逆投影法を用いて出力する画像の例を図15、図16、図17を用いて説明する。前述の合成変換画像である図15の画像を入力として路面検出装置に入力した結果、第1の領域抽出部209が出力する第1の領域を表す画像が図16で、第2の領域抽出部210が出力する第2の領域を表す画像が図17である。図16は、白い部分が輝度値255の第1の領域である日向路面で、ハッチングの部分が輝度値0の日向路面以外の領域である。図16のハッチング部分は、パイロン12と、パイロンの影13と、車両の影15である。本来輝度値0は黒であるが、図枠及び番号図示のためにハッチングを施している。以後の図も同様に輝度値0をハッチング部分とする。図17は、白い部分が輝度値255の第2の領域であるパイロンの影13と、車両の影15で、ハッチングの部分が輝度値0の日向路面と、パイロン12である。なお、図3中、ステップS111にて、ステップS110にて演算されたヒストグラムのうち、図14で示したように、2番目に高いピーク値18cが、ある一定値G以下で、第2のヒストグラムが抽出されなかった場合は、図3中、ステップS114の処理をスキップする。
このように、路面検出装置は、図2中、撮像部200から画像が入力されるたびに上述した、図3のステップS101からステップS114の処理を繰り返し実行する。
なお、本実施の形態1に係る路面検出装置は合成変換画像に対して路面検出を行ったが、図3中、ステップS112にて、図2に示した変換画像合成部208は部分変換画像を合成する際に合成処理を行わず、部分変換画像を出力することで部分路面画像に対して路面検出することも可能である。
以上のとおり、実施の形態1は、以下に示す効果を奏する。
<実施の形態1の作用及び効果>
このようにして、本実施の形態1の路面検出装置は、カメラ3により車両1周辺の路面画像を取得し、更に部分変換画像に変換し、ソナーセンサ2により車両周辺の障害物との障害物距離を計測し、障害物距離に基づいて部分変換画像内の障害物のない領域をヒストグラム生成領域として抽出し、車両信号に基づいてヒストグラム生成領域をヒストグラム生成合成領域に合成し、ヒストグラム生成合成領域のヒストグラムを第1のピーク値を含む要素を日向路面に基づく第1のヒストグラムと、第2のピーク値を含む要素を影路面に基づく第2のヒストグラムに分離し、部分変換画像を合成して合成変換画像を作成し、第1のヒストグラムを用いて合成変換画像より日向路面である第1の領域を抽出し、第2のヒストグラムを用いて合成変換画像より影路面である第2の領域を抽出することで、影の影響を受けることなく路面を検出することが可能になるため、従来に比べ精度の高い路面検出装置及び路面検出方法を提供することができる。
また、ヒストグラムの分離するステップS111において、2番目に高いピーク値が、ある一定値以下の場合、第2のヒストグラムの抽出は行わず、ヒストグラム全体を第1のヒストグラムとして抽出する。これによって、太陽の高度が高い場合、又は太陽が雲に隠れて照度が弱い場合などに車両1周辺に影が存在しないと判断することができるため、第2のヒストグラムの抽出処理をスキップすることで演算の負荷を軽減することができる。なお、本処理が無い場合でも本手法は問題なく動作する。
更に、ヒストグラム生成領域抽出部204において障害物距離検出部201の出力する障害物距離を用いてヒストグラム生成領域を可変にすることで、障害物を路面として誤検出することを防ぐ。
なお、障害物距離検出部201が破損した場合でも、本手法は問題なく動作する。
例えば、ソナーセンサ2が破損した場合、障害物距離が検出できないため、ステップS102からステップS108の処理が正常に動作しない。そのため、このステップの処理をスキップし、ある一定の距離を、車両1と障害物との距離Cとして出力することでヒストグラム生成領域を抽出する。障害物距離検出部201が破損している場合、障害物距離が検出されないか、誤った障害物距離が検出されるため、ソナーセンサ2の検出範囲に障害物が含まれることが考えられる。そこで、車両1と障害物との距離Cを例えば0.5m又は1mなどの短い距離に設定することでヒストグラム生成領域に障害物が含まれることを防ぐことが可能である。
また、ヒストグラム生成領域合成部205において、車両信号を用いてヒストグラムの生成領域の合成確率を変更することによって、路面である確率の高いヒストグラム生成領域を抽出することができる。これにより、例えば、障害物距離検出部201が破損して障害物距離を検出できない場合、又は障害物距離検出部201を持たない車両においても路面検出が可能になる。
なお、本実施の形態1では、車両1周辺の画像である部分路面画像を俯瞰画像である部分変換画像に変換した例を説明した。しかし、部分変換画像に変換せず、部分路面画像からヒストグラム生成領域を抽出し、路面を検出することも可能である。ステップS101の処理がスキップされるため、処理による演算の負荷が軽減される。このため、演算装置10の性能に応じて路面検出装置の構成を変えるとよく、演算装置10の性能が低い場合は上記の方法により演算負荷の少ない路面検出を行うことができる。演算装置10の性能が高い場合には、部分路面画像に対して射影変換を行った部分変換画像に対して路面検出を行うことで精度の高い路面検出を行うことができる。
実施の形態2.
実施の形態2は、路面検出装置とこの路面検出装置の出力した第2の領域に対して、第1のヒストグラムから取得できる第1の領域の色情報を用いて色置換を行い、画像表示部にて表示する画像表示装置に関するものである。
図18は、本実施の形態2に係る路面検出装置と画像表示装置の機能構成を機能ブロック図にて示したもので、実施の形態1の機能ブロック図に、表示画像生成部211、表示画像第2領域抽出部212、色置換部213と画像表示部214を加えた構成である。
本実施の形態2の画像表示装置の動作において、実施の形態1と異なる部分について、図19に示すフローチャートを用いて説明する。
図19中、ステップS101からステップS114は、実施の形態1の図3で示した処理方法と同じである。ステップS215にて、図18に示された表示画像生成部211は、撮像部200が取得した部分路面画像から画像表示装置にて表示する表示画像を作成する。例えば、表示画像生成部211にて、画像変換部203と変換画像合成部208と同様の処理を行い、車両1周辺の路面を上方から見下ろした俯瞰画像である合成変換画像を表示画像として出力する。なお、表示画像生成部211にて作成される表示画像は部分路面画像から作成可能な画像であれば種類を選ばない。例えば、複数ある部分路面画像の内、1つのみ、又は複数画像を1つの画像に合成した合成画像を表示画像としても良い。他にも、部分路面画像から車両1周辺の3次元モデル、又は3Dビューを作成しても良い。また、ユーザが表示画像を選択する表示画像選択部を設け、ユーザの意図した画像を表示画像として出力させることも可能である。
次に、図19中、ステップS216にて、図18に示された表示画像第2領域抽出部212は、ステップS215にて作成された表示画像から、ステップS111にて算出された第2のヒストグラムを用いて表示画像中の第2の領域である表示画像第2領域を抽出する。ヒストグラムに基づいて第2の領域を抽出する方法として、例えばヒストグラムの逆投影法、又はヒストグラムの値域に含まれる画素値を持つ全ての画素を抽出する方法などが考えられる。本実施の形態2では、ステップS113、ステップS114と同様にヒストグラムの逆投影法を用いて抽出処理を行う。
その後、図19中、ステップS217にて、図18に示された色置換部213は、ステップS216にて抽出された表示画像第2領域を、ステップS111にて算出された第1のヒストグラムの色情報を用いて、表示画像第2領域の画素値を置換し、色置換表示画像として出力する。本実施の形態2では第1のヒストグラムから最も高いピークの画素値を算出して色置換に用いる色とする。算出した色を用いて表示画像第2領域を色置換した画像を色置換表示画像として出力する。なお、本手法の目的を満たすことができれば第1のヒストグラムの色を算出する方法の種類は問わない。
最後に図19中、ステップS218にて、図18で示された画像表示部214は、ステップS217にて色置換された色置換表示画像を表示する。画像表示部214は画像を表示可能な装置で、形状・大きさは問わない。本実施の形態2では車内に設置されたカーナビのディスプレイ(図示せず)を画像表示部とする。また、車内に設置された表示装置に表示するだけでなく、例えばワイファイ(Wi-Fi)などの通信手段を備える事で、携帯電話、スマートフォン、ダブレット、又は車両外のディスプレイにも表示可能である。
<実施の形態2の作用及び効果>
このようにして、本実施の形態2の画像表示装置は、実施の形態1における路面検出装置によって出力される第1のヒストグラムと第2のヒストグラムを利用して、表示画像生成部によって生成された表示画像から第2の領域を抽出し、抽出した表示画像第2領域の画素を第1のヒストグラムによって算出される第1の領域の画素値に色置換し、色置換した色置換表示画像を画像表示部にて出力する。これにより、車両1周辺の路面を上方から見下ろした俯瞰画像である表示画像から影を除去することができ、影を含む表示画像に比べ、ユーザが車両1周辺の障害物をより簡単に認識することが可能になる。なお、本実施の形態2では、車両1周辺の俯瞰画像から影を除去して表示する例を示したが、本手法は車両1のカメラ3から取得した画像を変換してできる画像全てに適応できる。そのため、カメラ3から取得した画像から車両1周辺の3Dビューなどを作成する際にも、3Dビューから影を取り除くことができ、ユーザが見易い3Dビューを提供できる。
実施の形態3.
実施の形態3は、路面検出装置と路面検出装置の出力した第1の領域と第2の領域に基づいて、障害物を検知する障害物検知装置に関するものである。
図20は、本実施の形態3に係る路面検出装置と路面検出装置の出力により障害物を検知する障害物検知装置の機能構成を機能ブロック図にて示したもので、実施の形態1の機能ブロック構成に、影方向判定部215と、領域反転部216と、画像記録部217と、差分画像障害物領域抽出部218と、第2の障害物距離検出部と、障害物検知ゾーン演算部219と、障害物位置検出部220を加えた構成である。
第2の障害物距離検出部は、障害物距離検出部201と同様に、車両1周辺に存在する障害物を検知し、第2の障害物距離検出部と障害物との距離である障害物距離を検出する。なお、第2の障害物距離検出部は、障害物距離検出部201が兼ねてもよく、本実施の形態3では第2の障害物距離検出部は、図1Aで示した複数のソナーセンサ2とソナーコントローラ7及びそれらをつなぐソナーセンサ配線6によって構成される。
本実施の形態3に係る障害物検知装置の動作において、実施の形態1と異なる部分について、図21に示すフローチャートを用いて説明する。
図21中、ステップS319にて、影方向判定部215は、ステップS111で抽出された第2のヒストグラムと、ステップS108にて抽出された4つのヒストグラム生成領域を用いて影方向を判定する。影方向判定部215はヒストグラム生成領域から影の領域を抽出してできる、車両1周辺にできる影の形状から影の方向を判定する。例えば車両1の立体形状に基づく影の形状を光源方向ごとにあらかじめ記録する。本処理では、詳細な影方向を算出する必要はないため、例えば、車両1を中心に10度ずつ光源方向を変えた36通りの影の形状を記録する。作成した各光源方向に基づく影の形状とヒストグラム生成領域に現れる影の形状との比較を行い形状の類似度を算出する。なお、類似度の算出方法については本手法の特徴ではないため説明を割愛する。
算出した類似度が、ある定めた閾値以上かつ最大となる光源方向を現在の光源方向として、現在の光源方向を180度反転させた方向を影方向とする。このとき、影方向判定良否フラグを良として現在の光源方向、影方向とともに出力する。また、光源方向に基づく影の形状の各類似度がすべてある定めた閾値未満となる場合、影の方向が推定できないものとして影方向判定良否フラグを否として影方向判定良否フラグのみ出力する。
図21中、ステップS320~ステップS326における処理の流れは、図22のような部分変換画像に対して障害物検知を行った例により説明する。図22には、日の当たる日向路面とパイロン12、日向路面に比べ輝度値の低いパイロンの影13、マンホール19が含まれる。
図21中、ステップS320にて、図20で示す領域反転部216は、ステップS113で抽出した第1の領域と、ステップS114で抽出した第2の領域を反転することで、路面領域に含まれない障害物領域を抽出する。まず、実施の形態1の路面検出装置により第1の領域と第2の領域を抽出する。次に、第1の領域と第2の領域において輝度値が255の画素を輝度値255、残りの画素を輝度値0とする。これにより、図23のような画像である路面領域を算出する。(図23の白い部分が輝度値255の日向路面と影路面、ハッチングの部分が輝度値0の障害物とマンホール19となる。)。この路面領域のうち、輝度値255の画素を輝度値0、輝度値0の画素を輝度値255に反転することで、図24のような画像である障害物領域を出力する。(図24のハッチングの部分が輝度値0の路面領域を、白い部分が輝度値255の路面領域に含まれない障害物領域を表す。)
図21中、ステップS321では、ステップS319にて出力された影方向判定良否フラグの良否を判定する。影方向判定良否フラグが良の場合は、影があると判断して、ステップS322にて、影を利用した障害物の高さ判定処理を行う。しかし、影方向判定良否フラグが否の場合は、影方向を判定できないため、ステップS322をスキップして、ステップS323に移行する。
ステップS322にて、図20で示す障害物位置検出部220は、ステップS114にて抽出された第2の領域とステップS319にて算出された影方向を用いてステップS320にて抽出された障害物領域の高さ判定を行う。例えば、障害物領域のうち、障害物領域の影方向に第2の領域が接していない障害物領域を高さがない障害物領域と判定する。その後、障害物領域を表す図24の画像のうち、高さが無いと判定された障害物領域の輝度値を0に変更した図25のような高さ判定画像を出力する。(図25のハッチングの部分が輝度値0の路面領域と、高さの無い障害物領域であるマンホール19を、白い部分が輝度値255の障害物領域を表す。)
図21中、ステップS323にて、図20で示された画像記録部217は、ステップS112で出力された合成変換画像を数フレーム分記録し、あらかじめ定めたフレーム数分前の合成変換画像を過去の合成変換画像として出力する。例えば、図20で示す画像記録部217は有限のメモリを有しており、毎秒30フレームで撮影され変換処理と合成処理が施される合成変換画像を記録し、5フレーム分前の合成変換画像を過去の合成変換画像として出力する。画像記録部217はメモリの容量が上限に達した場合、最も古い合成変換画像を削除して新しい合成変換画像を記録する。なお、本実施の形態3では、5フレーム分前の合成変換画像を出力しているが、このフレーム数は固定でなくてもよく、車速に応じて変えるようにしてもよい。例えば車速が低いときはフレーム数を長く、車速が速いときはフレーム数を短くすると良い。
ステップS324にて、図20で示された差分画像障害物領域抽出部218は、ステップS112にて作成された合成変換画像と、ステップS323にて記録された過去の合成変換画像より合成変換画像の差分を演算し、合成変換画像の差分がある定めた閾値以上の領域を合成変換画像内の差分障害物領域として出力する。本実施の形態3では、差分がある閾値以上の領域の輝度値を255、閾値未満の領域を輝度値0とする図26のような画像を出力する。
ステップS325にて、障害物検知ゾーン演算部219は、第2の障害物距離検出部より得られる障害物距離に基づいて障害物検知ゾーンを算出し、その座標を出力する。本実施の形態3における障害物検知ゾーンの算出方法について図27を用いて説明する。本実施の形態1にて、ソナーセンサ2により検知される障害物は、前記ソナーセンサ2の位置から障害物距離だけ離れた円弧16のどこかに存在することを説明した。そこで、障害物検知ゾーン20は円弧16を利用し、あらかじめ決めた障害物検知幅を設定し、円弧16から障害物検知幅分、円弧16の半径を加減算したエリアを障害物検知ゾーン20としている。障害物検知幅はソナーセンサ2の障害物検出の誤差等を考慮した値で、一例として約30cmとする。この障害物検知ゾーン20は図28のように表され、障害物検知ゾーン20の領域はすべて輝度値255、それ以外は輝度値0として出力する。(図28の白い部分が障害物検知ゾーンで輝度値255、ハッチングの部分がそれ以外の領域で輝度値0となる。)
図21中、ステップS326にて、図20で示された障害物位置検出部220は、図25の障害物領域、図26の差分障害物領域、図28の障害物検知ゾーン20のうち、2つ以上が重なる領域を合成変換画像内の障害物領域として検出し、合成変換画像内の障害物領域の座標を障害物位置として演算し、障害物位置とステップS322での高さ判定の結果を障害物位置情報として出力する。
<実施の形態3の作用及び効果>
このようにして、本実施の形態3の障害物検知装置は、カメラ3により取得した車両1周辺の路面画像を変換した部分変換画像を合成変換画像に合成し、実施の形態1の路面検出装置によって出力された第1の領域と第2の領域に基づいて合成変換画像から障害物領域を抽出し、更にソナーセンサ2により車両1と車両1周辺の障害物との障害物距離を計測し、前記障害物距離より求める障害物検知ゾーン20を出力し、前記合成変換画像の差分より求める合成変換画像内の差分障害物領域を出力し、障害物領域と障害物検知ゾーン20と合成変換画像内の差分障害物領域のうち、2つ以上が重なる領域を合成変換画像内の障害物領域として障害物位置を求めることで、従来に比べ精度の高い障害物検知装置及び障害物検知方法を提供することができる。
本実施の形態3における障害物検知装置は、第2の障害物距離検出部が破損した場合にも、実施の形態1の路面検出装置によって出力された第1の領域と第2の領域に基づいて合成変換画像から抽出された障害物領域と、前記合成変換画像の差分より求める合成変換画像内の差分障害物領域が重なる領域を合成変換画像内の障害物領域として障害物位置を求めることで問題なく障害物検知ができる。
また、車両1が停車している場合、合成変換画像の差分より求める合成変換画像内の差分障害物領域は、車両1周辺の動体のみを検知し、静止物を検知することができない。そのため、障害物検知装置は車両1の車速が0又はある定めた閾値以下の場合は実施の形態1の路面検出装置に基づいて抽出された障害物領域を合成変換画像内の障害物領域として抽出し、障害物位置を求めることで障害物を検知できる。
また、影方向判定部によって、検出された障害物領域が路面の模様か高さを持つ障害物かを判定できるため、路面の模様を障害物として誤検知することを防ぐことができる。
本願は、様々な例示的な実施の形態及び実施例が記載されているが、1つ、または複数の実施の形態に記載された様々な特徴、態様、及び機能は特定の実施の形態の適用に限られるのではなく、単独で、または様々な組み合わせで実施の形態に適用可能である。
従って、例示されていない無数の変形例が、本願明細書に開示される技術の範囲内において想定される。例えば、少なくとも1つの構成要素を変形する場合、追加する場合または省略する場合、さらには、少なくとも1つの構成要素を抽出し、他の実施の形態の構成要素と組み合わせる場合が含まれるものとする。
1:車両、2:ソナーセンサ、3:カメラ、4:通信線、5:カメラ配線、6:ソナーセンサ配線、7:ソナーコントローラ、8:周辺監視カメラコントローラ、9:その他のセンサ、10:演算装置、11:路面検出装置、12:パイロン、13:パイロンの影、14:白線、15:車両の影、16:円弧、17:円弧の交点、19:マンホール、20:障害物検知ゾーン、200:撮像部、201:障害物距離検出部、202:車両信号検出部、203:画像変換部、204:ヒストグラム生成領域抽出部、205:ヒストグラム生成領域合成部、206:ヒストグラム演算部、207:ヒストグラム分離部、208:変換画像合成部、209:第1の領域抽出部、210:第2の領域抽出部、211:表示画像生成部、212:表示画像第2領域抽出部、213:色置換部、214:画像表示部、215:影方向判定部、216:領域反転部、217:画像記録部、218:差分画像障害物領域抽出部、219:障害物検知ゾーン演算部、220:障害物位置検出部

Claims (17)

  1. 車両に設けられ、前記車両の周囲の路面画像を取得し、路面画像の一部である部分路面画像を複数出力する撮像部と、
    前記車両周辺に存在する障害物までの距離を検出する障害物距離検出部と、
    前記部分路面画像と前記障害物までの距離とに基づいて、障害物を含まない領域をヒストグラム生成領域として複数抽出するヒストグラム生成領域抽出部と、
    複数の前記ヒストグラム生成領域を合成し、ヒストグラム生成合成領域として出力するヒストグラム生成領域合成部と、
    前記ヒストグラム生成合成領域にもとづいて、ヒストグラムを演算するヒストグラム演算部と、
    前記ヒストグラムを第1のヒストグラムと第2のヒストグラムとに分離して出力するヒストグラム分離部と、
    前記第1のヒストグラムと前記部分路面画像より第1の領域を抽出する第1の領域抽出部と、
    前記第2のヒストグラムと前記部分路面画像より第2の領域を抽出する第2の領域抽出部を備え、
    前記ヒストグラム分離部は前記ヒストグラムより第1のピーク値を含む要素を前記第1のヒストグラム、第2のピーク値を含む要素を前記第2のヒストグラムとして分離することを特徴とする路面検出装置。
  2. 車両に設けられ、前記車両の周囲の路面画像を取得し、路面画像の一部である部分路面画像を複数出力する撮像部と、
    前記部分路面画像を射影変換した部分変換画像とする画像変換部と、
    前記車両周辺に存在する障害物までの距離を検出する障害物距離検出部と、
    前記部分変換画像と前記障害物までの距離とに基づいて、障害物を含まない領域をヒストグラム生成領域として複数抽出するヒストグラム生成領域抽出部と、
    複数の前記ヒストグラム生成領域を合成し、ヒストグラム生成合成領域として出力するヒストグラム生成領域合成部と、
    前記ヒストグラム生成合成領域にもとづいて、ヒストグラムを演算するヒストグラム演算部と、
    前記ヒストグラムを、第1のヒストグラムと第2のヒストグラムとに分離して出力するヒストグラム分離部と、
    前記部分変換画像を合成する変換画像合成部と、
    前記第1のヒストグラムと前記変換画像合成部からの合成変換画像とに基づいて第1の領域を抽出する第1の領域抽出部と、
    前記第2のヒストグラムと前記合成変換画像とに基づいて第2の領域を抽出する第2の領域抽出部とを備え、
    前記ヒストグラム分離部は前記ヒストグラムより第1のピーク値を含む要素を前記第1のヒストグラム、第2のピーク値を含む要素を前記第2のヒストグラムとして分離することを特徴とする路面検出装置。
  3. 前記ヒストグラム分離部は、前記ヒストグラムの前記第2のピーク値が、予め決められた閾値未満の場合は、前記第2のヒストグラムを出力せず、前記第1のヒストグラムのみ出力することを特徴とする請求項1または2に記載の路面検出装置。
  4. 前記ヒストグラム生成領域抽出部は、前記障害物までの距離に応じて前記ヒストグラム生成領域を可変とすることを特徴とする請求項またはに記載の路面検出装置。
  5. 車両信号を検出する車両信号検出部を備え、
    前記ヒストグラム生成領域合成部は、前記車両信号に応じて、複数のヒストグラム生成領域の合成比率を変更することを特徴とする請求項1から4のいずれか一項に記載の路面検出装置。
  6. 前記第1のヒストグラムは、日向路面を示し、前記第2のヒストグラムは、影路面を示すことを特徴とする請求項1から5のいずれか1項に記載の路面検出装置。
  7. 車両に設けられ、前記車両の周囲の路面画像を取得し、路面画像の一部である部分路面画像を複数出力する撮像部と、
    前記車両周辺に存在する障害物までの距離を検出する障害物距離検出部と、
    前記部分路面画像と前記障害物までの距離とに基づいて、障害物を含まない領域をヒストグラム生成領域として複数抽出するヒストグラム生成領域抽出部と、
    複数の前記ヒストグラム生成領域を合成し、ヒストグラム生成合成領域として出力するヒストグラム生成領域合成部と
    前記ヒストグラム生成合成領域にもとづいて、ヒストグラムを演算するヒストグラム演算部と、
    前記ヒストグラムを第1のピーク値を有する第1のヒストグラムと第2のピーク値を有する第2のヒストグラムとに分離して出力するヒストグラム分離部と
    前記第1のヒストグラムと前記部分路面画像より第1の領域を抽出する第1の領域抽出部と、
    前記第2のヒストグラムと前記部分路面画像より第2の領域を抽出する第2の領域抽出部とを備えた路面検出装置に、
    前記撮像部で取得した画像に基づいて生成した表示画像から前記第2の領域に相当する表示画像第2領域を抽出する表示画像第2領域抽出部と、
    抽出した前記表示画像第2領域の画素値を前記第1のヒストグラムの色情報を用いて置換する色置換部と、
    前記色置換部で置換された画像を表示する画像表示部を、さらに備えたことを特徴とする路面検出装置を利用した画像表示装置。
  8. 車両に設けられ、前記車両の周囲の路面画像を取得し、路面画像の一部である部分路面画像を複数出力する撮像部と、
    前記部分路面画像を射影変換した部分変換画像とする画像変換部と、
    前記車両周辺に存在する障害物までの距離を検出する障害物距離検出部と、
    前記部分変換画像と前記障害物までの距離とに基づいて、障害物を含まない領域をヒストグラム生成領域として複数抽出するヒストグラム生成領域抽出部と、
    複数の前記ヒストグラム生成領域を合成し、ヒストグラム生成合成領域として出力するヒストグラム生成領域合成部と、
    前記ヒストグラム生成合成領域にもとづいて、ヒストグラムを演算するヒストグラム演算部と、
    前記ヒストグラムを、第1のピーク値を有する第1のヒストグラムと第2のピーク値を有する第2のヒストグラムとに分離して出力するヒストグラム分離部と、
    前記部分変換画像を合成する変換画像合成部と、
    前記第1のヒストグラムと前記変換画像合成部からの合成変換画像とに基づいて第1の領域を抽出する第1の領域抽出部と、
    前記第2のヒストグラムと前記合成変換画像とに基づいて第2の領域を抽出する第2の領域抽出部とを備えた路面検出装置に、
    前記撮像部で取得した画像に基づいて生成した表示画像から前記第2の領域に相当する表示画像第2領域を抽出する表示画像第2領域抽出部と、
    抽出した前記表示画像第2領域の画素値を前記第1のヒストグラムの色情報を用いて置換する色置換部と、
    前記色置換部で置換された画像を表示する画像表示部を、さらに備えたことを特徴とする路面検出装置を利用した画像表示装置。
  9. 請求項1に記載の路面検出装置の部分路面画像において、第1の領域と第2の領域の輝度を反転することで障害物領域として抽出する領域反転部と、前記障害物領域に基づいて車両に対する障害物位置を演算し、障害物位置情報として出力する障害物位置検出部を備えることを特徴とする路面検出装置を利用した障害物検知装置。
  10. 請求項2に記載の路面検出装置の合成変換画像において、第1の領域と第2の領域の輝度を反転することで障害物領域として抽出する領域反転部と、前記障害物領域に基づいて車両に対する障害物位置を演算し、障害物位置情報として出力する障害物位置検出部を備えることを特徴とする路面検出装置を利用した障害物検知装置。
  11. 前記合成変換画像を記録する画像記録部、前記画像記録部に記録された合成変換画像と、以前に記録されている過去の合成変換画像の差分を算出し、この差分のうち、あらかじめ定めた閾値以上の領域を前記合成変換画像内の差分障害物領域として抽出する差分画像障害物領域抽出部を備え、前記障害物位置検出部は、前記差分障害物領域と前記障害物領域との重なる領域に基づいて、障害物位置を演算することを特徴とする請求項10に記載の路面検出装置を利用した障害物検知装置。
  12. 前記障害物距離検出部で検出された障害物までの距離を径とする円弧を、径方向及び周方向に一定の幅を有するように広げた領域を障害物検知ゾーンとして算出する障害物検知ゾーン演算部を備え、前記障害物位置検出部は、前記障害物検知ゾーンと前記障害物領域との重なる領域に基づいて障害物の位置を演算することを特徴とする請求項9または10に記載の路面検出装置を利用した障害物検知装置。
  13. 前記障害物距離検出部で検出された障害物までの距離を径とする円弧を、径方向及び周方向に一定の幅を有するように広げた領域を障害物検知ゾーンとして算出する障害物検知ゾーン演算部を備え、前記障害物位置検出部は、前記差分障害物領域と前記障害物領域に加え、前記障害物検知ゾーンを含む、いずれか2つ以上が重なる領域に基づいて、障害物位置を演算することを特徴とする請求項11に記載の路面検出装置を利用した障害物検知装置。
  14. 車両の周囲の光源方向と前記光源方向に反する影方向、および影方向判定の良否を出力する影方向判定部を備え、影方向判定が良の場合に、前記障害物領域の前記影方向に前記第2の領域が接していない障害物領域は、高さの無い障害物であると判定することを特徴とする請求項から13のいずれか一項に記載の路面検出装置を利用した障害物検知装置。
  15. 車両の周囲の路面画像を取得し、その一部である部分路面画像を複数出力する第1のステップと、
    前記部分路面画像と検出した障害物までの距離とに基づいて前記障害物を含まない路面領域をヒストグラム生成領域として複数抽出し、抽出された複数のヒストグラム生成領域を合成し、ヒストグラム生成合成領域として出力する第2のステップと、
    前記ヒストグラム生成合成領域に基づいて、ヒストグラムを演算する第3のステップと、
    前記ヒストグラムを、第1のヒストグラムと第2のヒストグラムとに分離して出力する第4のステップと、
    前記第1のヒストグラムと前記部分路面画像より第1の領域を抽出する第5のステップと、
    前記第2のヒストグラムと前記部分路面画像より第2の領域を抽出する第6のステップとを備え、
    前記第4のステップは前記ヒストグラムより第1のピーク値を含む要素を第1のヒストグラム、第2のピーク値を含む要素を第2のヒストグラムとして出力することを特徴とする路面検出方法。
  16. 前記第2の領域を、前記第1のヒストグラムに基づいて色置換して表示画像を出力することを特徴とする請求項15に記載の路面検出方法を利用した画像表示方法。
  17. 請求項15に記載の路面検出方法を利用して前記障害物の位置を演算するステップを備えたことを特徴とする路面検出方法を利用した障害物検知方法。
JP2020514799A 2018-04-16 2018-04-16 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法 Active JP7072641B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/015663 WO2019202628A1 (ja) 2018-04-16 2018-04-16 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法

Publications (2)

Publication Number Publication Date
JPWO2019202628A1 JPWO2019202628A1 (ja) 2021-02-12
JP7072641B2 true JP7072641B2 (ja) 2022-05-20

Family

ID=68239484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020514799A Active JP7072641B2 (ja) 2018-04-16 2018-04-16 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法

Country Status (4)

Country Link
US (1) US11518390B2 (ja)
JP (1) JP7072641B2 (ja)
DE (1) DE112018007485T5 (ja)
WO (1) WO2019202628A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111937002A (zh) * 2018-04-16 2020-11-13 三菱电机株式会社 障碍物检测装置、利用了障碍物检测装置的自动制动装置、障碍物检测方法以及利用了障碍物检测方法的自动制动方法
US11518390B2 (en) * 2018-04-16 2022-12-06 Mitsubishi Electric Corporation Road surface detection apparatus, image display apparatus using road surface detection apparatus, obstacle detection apparatus using road surface detection apparatus, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
DE102019135192A1 (de) * 2019-12-19 2021-06-24 Connaught Electronics Ltd. Verfahren zum Bestimmen eines Zustands einer Heckklappe eines Pritschenfahrzeugs durch Auswertung einer Region von Interesse, Computerprogrammprodukt, elektronische Recheneinrichtung sowie Kamerasystem
WO2021186853A1 (ja) * 2020-03-19 2021-09-23 日本電気株式会社 画像生成装置、画像生成方法、およびプログラム
CN112801024B (zh) * 2021-02-09 2023-08-29 广州小鹏自动驾驶科技有限公司 一种检测信息处理方法和装置
JP7113935B1 (ja) * 2021-04-05 2022-08-05 三菱電機株式会社 路面検出装置および路面検出方法
CN113486836B (zh) * 2021-07-19 2023-06-06 安徽江淮汽车集团股份有限公司 针对低通度障碍物的自动驾驶操控方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015179482A (ja) 2014-03-20 2015-10-08 クラリオン株式会社 車載用画像処理装置およびそれを用いた車両システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3341605B2 (ja) * 1996-12-05 2002-11-05 日産自動車株式会社 車両用画像処理装置
US8599257B2 (en) * 2006-08-18 2013-12-03 Nec Corporation Vehicle detection device, vehicle detection method, and vehicle detection program
JP2011033594A (ja) * 2009-08-06 2011-02-17 Panasonic Corp 車両用距離算出装置
KR20130086066A (ko) * 2010-11-16 2013-07-30 코니카 미놀타 가부시키가이샤 화상 입력 장치 및 화상 처리 장치
WO2013090830A1 (en) * 2011-12-16 2013-06-20 University Of Southern California Autonomous pavement condition assessment
US10768130B2 (en) * 2013-01-30 2020-09-08 Giatec Scientific Inc. Method and systems relating to construction material assessment
JP2017033506A (ja) 2015-08-06 2017-02-09 Kyb株式会社 路面検出装置及び路面検出方法
US10480939B2 (en) * 2016-01-15 2019-11-19 Fugro Roadware Inc. High speed stereoscopic pavement surface scanning system and method
JP6868805B2 (ja) * 2016-06-07 2021-05-12 パナソニックIpマネジメント株式会社 画像生成装置、画像生成方法、およびプログラム
JP7271119B2 (ja) * 2017-10-20 2023-05-11 ソニーセミコンダクタソリューションズ株式会社 デプス画像取得装置、制御方法、およびデプス画像取得システム
US11518390B2 (en) * 2018-04-16 2022-12-06 Mitsubishi Electric Corporation Road surface detection apparatus, image display apparatus using road surface detection apparatus, obstacle detection apparatus using road surface detection apparatus, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
WO2020082089A1 (en) * 2018-10-19 2020-04-23 Neutron Holdings, Inc. Detecting types of travel corridors on which personal mobility vehicles travel
CA3066752A1 (en) * 2019-01-25 2020-07-25 Fugro Roadware Inc. High speed stereoscopic pavement surface scanning system and method
US11054538B1 (en) * 2020-01-27 2021-07-06 S-L Ip, Llc Modification and assessment
US11367292B2 (en) * 2020-02-24 2022-06-21 Ford Global Technologies, Llc Road marking detection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015179482A (ja) 2014-03-20 2015-10-08 クラリオン株式会社 車載用画像処理装置およびそれを用いた車両システム

Also Published As

Publication number Publication date
US20200391751A1 (en) 2020-12-17
US11518390B2 (en) 2022-12-06
WO2019202628A1 (ja) 2019-10-24
DE112018007485T5 (de) 2021-01-07
CN111971682A (zh) 2020-11-20
JPWO2019202628A1 (ja) 2021-02-12

Similar Documents

Publication Publication Date Title
JP7072641B2 (ja) 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法
US20230110116A1 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
JP4872769B2 (ja) 路面判別装置および路面判別方法
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
US20050232466A1 (en) Method of recognizing and/or tracking objects
CN109993060B (zh) 深度摄像头的车辆全向障碍物检测方法
WO2017138245A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP7206583B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
US10832431B2 (en) Image processing apparatus, object recognition apparatus, equipment control system, image processing method, and computer-readable recording medium
JP2002359838A (ja) 運転支援装置
US10977816B2 (en) Image processing apparatus, image processing program, and driving assistance system
US9813694B2 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value deriving method
US20240144507A1 (en) Electronic device and control method
WO2022160232A1 (zh) 一种检测方法、装置和车辆
KR20190134303A (ko) 영상 인식 장치 및 그 방법
JP6835004B2 (ja) 画像生成装置
JP4788399B2 (ja) 歩行者検出方法、装置、およびプログラム
JP2006072757A (ja) 物体検出装置
CN111971682B (zh) 路面检测装置、图像显示装置、障碍物检测装置、路面检测方法、图像显示方法以及障碍物检测方法
JP3532896B2 (ja) スミア検出方法及びこのスミア検出方法を用いた画像処理装置
JP2022014673A (ja) 画像処理装置
JP2021113767A (ja) 障害物検知装置、及び障害物検知システム
JP2017151048A (ja) 測距プログラム、測距方法、及び測距装置
JP7113935B1 (ja) 路面検出装置および路面検出方法
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220510

R151 Written notification of patent or utility model registration

Ref document number: 7072641

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151