JP2022155098A - 測距装置及び測距方法 - Google Patents

測距装置及び測距方法 Download PDF

Info

Publication number
JP2022155098A
JP2022155098A JP2021058437A JP2021058437A JP2022155098A JP 2022155098 A JP2022155098 A JP 2022155098A JP 2021058437 A JP2021058437 A JP 2021058437A JP 2021058437 A JP2021058437 A JP 2021058437A JP 2022155098 A JP2022155098 A JP 2022155098A
Authority
JP
Japan
Prior art keywords
image
target
distance
processing unit
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021058437A
Other languages
English (en)
Other versions
JP7236487B2 (ja
Inventor
裕司 安井
Yuji Yasui
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021058437A priority Critical patent/JP7236487B2/ja
Priority to US17/705,293 priority patent/US20220319037A1/en
Priority to CN202210312110.6A priority patent/CN115143940A/zh
Publication of JP2022155098A publication Critical patent/JP2022155098A/ja
Application granted granted Critical
Publication of JP7236487B2 publication Critical patent/JP7236487B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2022155098000001
【課題】簡素で高精度の測距装置を提供する。
【解決手段】測距装置は、撮像手段により時系列の画像を取得する画像取得部と、画像処理を行う処理部とを有する。処理部は、時系列の画像のうち、対象画像よりも前に取得した基準画像を、相異なる複数通りの拡大率で拡大した複数の拡大画像を生成し、複数の拡大画像の各々と対象画像との差分を求める。また、対象画像から被写体である物標に対応するオブジェクトを検出する。また、検出したオブジェクトのうちの着目オブジェクトの領域内の差分が最小となる拡大画像の拡大率に基づいて、着目したオブジェクトに対応する物標までの距離を特定する。
【選択図】図2

Description

本発明は情報処理装置に関し、特に車両等の移動体から対象物までの距離を画像に基づいて測定する測距装置及び測距方法に関する。
車両の自動運転や運転支援のために、歩行者や他車両などの物標までの距離を推定する技術がある。自動運転や運転支援のため、車両は、推定した距離に応じて運転者の注意を喚起したり、あるいは運転者による操作なしに自動的に制動をかけたりする。距離を推定する技術のひとつに、カメラで撮影した画像から被写体までの距離を推定するという技術がある。たとえば特許文献1には、入力映像に含まれた人の画像の足元の位置に基づいて、車両との距離に応じた距離別映像を抽出し、距離別映像を用いた合成映像を合成する技術が記載されている。また特許文献2には、時系列に撮影された複数の画像のオプティカルフローと移動体の速度とから画像中の物体までの距離を推定する技術が提案されている。
国際公開第2012/164804号公報 国際公開第2014/199929号公報
しかしながら、特許文献1では足元の位置のずれが距離の精度を低下させるし、特許文献2では動きベクトル抽出という負荷の高い処理が必要とされる。
本発明は上記従来例に鑑みて成されたもので、画像に基づいて、軽負荷かつ高精度で距離を測定するための技術を提供することを目的とする。
上記目的を達成するために本発明は以下の構成を有する。
すなわち、本発明の一側面によれば、撮像手段により時系列の画像を取得する画像取得部と、
画像処理を行う処理部とを有し、
前記処理部は、
前記時系列の画像のうち、対象画像よりも前に取得した基準画像を、相異なる複数通りの拡大率で拡大した複数の拡大画像を生成し、前記複数の拡大画像の各々と前記対象画像との差分を求め、
前記対象画像から被写体である物標に対応するオブジェクトを検出し、
検出したオブジェクトのうちの着目オブジェクトの領域内の前記差分が最小となる前記拡大画像の拡大率に基づいて、前記着目したオブジェクトに対応する物標までの距離を特定する
ことを特徴とする測距装置が提供される。
本発明によれば、画像に基づいて、軽負荷かつ高精度で距離を測定することができる。
車両システムの構成を示した説明図である。 距離を測定するための構成を示すブロック図である。 距離情報を取得するための構成を示すブロック図である。 検出物体情報を取得するための構成を示すブロック図である。 距離を測定するための構成を示すブロック図である。 視角と距離の関係を示す模式図である。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
[第一実施形態]
●車両用制御装置の構成
図1は、本発明の一実施形態に係る車両用制御装置のブロック図であり、車両1を制御する。図1において、車両1はその概略が平面図と側面図とで示されている。車両1は一例としてセダンタイプの四輪の乗用車である。なお本実施形態では、車両用制御装置により提供する運転支援は、緊急ブレーキや適応的追従走行、車線維持支援といった限定的な機能としているが、目的地を設定すれば自動運転まで行うような高度の機能としてもよい。
図1の制御装置は、制御ユニット2を含む。制御ユニット2は車内ネットワークにより通信可能に接続された複数のECU20~29を含む。各ECUは、CPUに代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインタフェース等を含む。記憶デバイスにはプロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納される。各ECUはプロセッサ、記憶デバイスおよびインタフェース等を複数備えていてもよい。
以下、各ECU20~29が担当する機能等について説明する。なお、ECUの数や、担当する機能については適宜設計可能であり、本実施形態よりも細分化したり、あるいは、統合することが可能である。
ECU20は、車両1の自動運転に関わる制御を実行する。自動運転においては、車両1の操舵と、加減速の少なくともいずれか一方を自動制御する。
ECU21は、電動パワーステアリング装置3を制御する。電動パワーステアリング装置3は、ステアリングホイール31に対する運転者の運転操作(操舵操作)に応じて前輪を操舵する機構を含む。また、電動パワーステアリング装置3は操舵操作をアシストしたり、あるいは、前輪を自動操舵するための駆動力を発揮するモータや、操舵角を検知するセンサ等を含む。車両1の運転状態が自動運転の場合、ECU21は、ECU20からの指示に対応して電動パワーステアリング装置3を自動制御し、車両1の進行方向を制御する。
ECU22は、車両の周囲状況を検知する検知ユニット41の制御および検知結果の情報処理を行う。検知ユニット41は、車両1の前方を撮影するカメラであり(以下、カメラ41と表記する場合がある。)、本実施形態の場合、車両1のルーフ前部に固定して1つ設けられている。ECU22は、カメラ41が撮影した画像の解析により、物標の輪郭抽出や、道路上の車線の区画線(白線等)を抽出可能である。また、画像中の物標までの距離を推定することができる。
ECU24は、GPSセンサ24b、通信装置24cの制御および検知結果あるいは通信結果の情報処理を行う。GPSセンサ24bは、車両1の現在位置を検知する。通信装置24cは、地図情報や交通情報を提供するサーバと無線通信を行い、これらの情報を取得する。ECU24は、記憶デバイスに構築された地図情報のデータベース24aにアクセス可能であり、ECU24は現在地から目的地へのルート探索等を行う。
ECU26は、パワープラント6を制御する。パワープラント6は車両1の駆動輪を回転させる駆動力を出力する機構であり、例えば、エンジンと変速機とを含む。ECU26は、例えば、アクセルペダル7Aに設けた操作検知センサ7aにより検知した運転者の運転操作(アクセル操作あるいは加速操作)に対応してエンジンの出力を制御したり、車輪速センサ7cが検知した車速等の情報に基づいて変速機の変速段を切り替える。
ECU28は、入出力装置9の制御を行う。入出力装置9は運転者に対する情報の出力と、運転者からの情報の入力の受け付けを行う。音声出力装置91は運転者に対して音声により情報を報知する。表示装置92は運転者に対して画像の表示により情報を報知する。表示装置92は例えば運転席表面に配置され、インストルメントパネル等を構成する。なお、ここでは、音声と表示を例示したが振動や光により情報を報知してもよい。入力装置93は運転者が操作可能な位置に配置され、車両1に対する指示を行うスイッチ群あるいはタッチパネル等であるが、音声入力装置も含まれてもよい。
ECU29は、ブレーキ装置10やパーキングブレーキ(不図示)を制御する。ブレーキ装置10は例えばディスクブレーキ装置であり、車両1の各車輪に設けられ、車輪の回転に抵抗を加えることで車両1を減速あるいは停止させる。ECU29は、例えば、ブレーキペダル7Bに設けた操作検知センサ7bにより検知した運転者の運転操作(ブレーキ操作)に対応してブレーキ装置10の作動を制御する。たとえば、画像から検知した物標までの距離が所定値を下回った場合や、あるいは推定された衝突までの時間が所定値を下回った場合には、ECU29は、ECU20からの指示に対応してブレーキ装置10を自動制御し、車両1の減速および/または停止を制御する。ブレーキ装置10やパーキングブレーキは車両1の停止状態を維持するために作動することもできる。また、パワープラント6の変速機がパーキングロック機構を備える場合、これを車両1の停止状態を維持するために作動することもできる。
●画像に基づく距離推定機能
図2(A)は、ECU22により実現される距離推定機能(すなわち測距装置)のブロック図である。この構成はECU22に含まれるハードウェア回路で実現されてもよいし、そこに含まれたCPUによりメモリに記録したプログラムを実行することで実現されてもよい。またそれらの組み合わせにより実現してもよい。これは他のECUについても同様である。いずれの構成であっても、ECU22あるいはその他のECUは、情報処理装置あるいは画像処理装置あるいは信号処理装置として機能する。また測距装置としても機能してよい。
カメラ41は単眼カメラなどの撮像装置であり、たとえば所定のフレームレートで映像、すなわち時系列の画像を撮影する。撮影した映像は、所定の時間間隔おきのフレームで構成され、それぞれのフレームをここでは画像と呼ぶ。撮影された画像は、所定の時間間隔で物体検出部201、距離情報生成部210に送られる。所定の時間間隔とはフレームレートの逆数であってもよいし、その整数倍であってもよい。
物体検出部201は、画像に含まれた、被写体である人や物などの物標に対応するオブジェクトを検出する。検出されたオブジェクトに関する情報は、二値検出物体情報として距離推定部202に入力される。二値検出物体情報は、検出された物標ごとに生成され、これらは画像OB(m)(m=1~物標の数)とも呼ばれる。距離情報生成部210は、画像に含まれたオブジェクトに対応する物標ごとの距離を示す二値距離情報を生成する。生成された二値距離情報は距離推定部202に入力される。本例では二値距離情報は所定数(N個)生成され、これらは画像CS(n)(n=1~N)とも呼ばれる。なおオブジェクトが検出されない場合には、距離の特定を行う必要はない。
距離推定部202は、入力された二値検出物体情報と二値距離情報とに基づいて検出された物体ごとの距離を推定あるいは特定する。詳しくは図5で説明するが、推定方法は、二値検出物体情報と二値距離情報との相関を示す値を生成し、画像中の物体に対して最も相関性の高い距離を特定することで、検出物体ごとの距離を推定するというものということができる。
●距離測定の概略
ここで本実施形態の距離測定の基礎となる画像の拡大率と距離との関連について説明する。画像kは画像k-1よりも後に走行中の車両に固定されたカメラ41から撮影された画像であり、視線方向に移動していない被写体は、画像k-1に対して画像kでは拡大される。すなわち視角が大きくなる。しかも、拡大率は被写体までの距離によって異なる。たとえば車両が画像k-1を撮影し、一定の距離を走行して画像kを撮影したとする。この場合、画像kに含まれた被写体である物標の、画像k-1に対する拡大率は、被写体までの距離に応じて小さくなる。たとえば、画像k-1と画像kとの撮影間隔(距離)をD、画像kの撮影時の物標Pまでの距離をL、画像k-1の物標Pに対する画像kの物標Pの拡大率をEとする。このとき拡大率Eは、E=1+D/Lであり、物標Pまでの距離Lが大きいほど小さい。これを利用すれば、拡大率Eと間隔Dとを特定することで、距離LをL=D/(E-1)として求めることができる。
図6にその例の模式図を示す。被写体Pの実際の高さをH、画像k-1撮影時の物標Pまでの距離をL+D、画像k撮影時の物標Pまでの距離をLとする。すなわち画像k-1を撮影し、距離Dだけ前進して、物標Pから距離Lの位置で画像kを撮影する。また、画像k-1撮影時の物体Pの視角をφ1、画像k撮影時の物標Pの視角をφ2とする。
撮影した画像に表れる物標Pに対応するオブジェクトの高さは、物標Pの視角をφとするとtanφに比例する。すなわち画像に表れたオブジェクトの高さ(画素数)をhとし、tanφを画素数に換算するための係数をkとすると、h=k・tanφと表せる。これを図6の物標Pに適用すると、画像k-1、画像kそれぞれにおける物標Pの高さh1、h2は、
h1=k・tanφ1=k・(H/L+D)
h2=k・tanφ2=k・(H/L)
と表される。したがってL+D,Lはそれぞれ、
L+D=H/tanφ1、L=H/tanφ2
となり、
L/(L+D)=tanφ1/tanφ2
である。ここでtanφ2/tanφ1は、画像k-1における物標Pの高さに対する画像kにおける物標Pの高さの比、すなわち拡大率Eを示している。すなわち、
L/(L+D)=1/E
である。移動速度をv、撮影間隔をtとすると、D=vtとなので、
L=D/(E-1)=vt/(E-1) (1)
となる。
速度vは車両1の速度であり、車輪速センサ7cなどから取得できる。また時間間隔tもたとえばフレームレートに基づいて決めておくことができる。そこで画像中のオブジェクト(物標)とその拡大率Eを特定することで、そのオブジェクト(物標)に対応する物標までの距離を特定できる。本実施形態の測距装置は、所定時間間隔で撮影した画像間ので拡大率Eを特定し、その拡大率に基づいて、拡大率に対応付けられた距離Lを当該物標までの距離として推定する。
●距離情報生成部
距離情報生成部210は、上記概略で説明したオブジェクトごとの拡大率Eを示す二値化距離情報を生成する。図2(B)は距離情報生成部210の詳細を示すブロック図である。カメラ41で撮影された画像(これを画像kまたは対象画像と呼ぶ)はグレースケール化処理部211に入力されてグレースケール画像に加工される。カメラ41がモノクロームカメラであれば特に加工は不要である。グレースケール化された画像kは画像バッファ212と差分算出二値化部214に入力される。
画像バッファ212は、次の画像が入力されるまで画像kを保存する。したがって画像バッファ212から出力される画像は画像kの直前の画像すなわち画像k-1となる。なお直前の画像とは必ずしも時系列で撮影されるフレームすべてを対象としたものではなく、所定数のフレームをスキップして「直前」としてもよい。画像k-1は拡大リサンプリング部213に入力される。
拡大リサンプリング部213は、画像k-1を拡大し、リサンプリングする。拡大率は相異なるN通りの拡大率であり、したがってN個の拡大済画像k-1(n)が生成される。拡大済画像k-1(n)は差分算出二値化部214に入力される。
差分算出二値化部214は、入力された拡大済画像k-1(n)のそれぞれと、画像kとの間の差分を求める。差分は、対応する画素間の値の差を画素とする差分画像として出力される。さらに差分算出二値化部214は、各差分画像を二値化して二値化距離情報である画像CS(n)を出力する。
図3に、距離情報生成部210の拡大リサンプリング部213と差分算出二値化部214による二値距離情報(画像CS(n)(n=1~N))を生成する処理の模式図を示す。拡大リサンプリング部213は元の画像k-1を拡大する。ここでは拡大率は1以上のN通りとしているが、拡大率1(等倍)の拡大は行わなくともよい。図3において、拡大された画像k-1(n)のそれぞれからは、画像kと同じサイズの領域が切り出されて画像311~画像314として出力される。切り出される範囲は本例では画像の中央としているが、これには限らない。また、1つの画像k-1(n)から切り出し位置を変えた複数の画像k-1(n)(p)(ここでP=1~切り出した数)を出力してもよい。
N個の拡大済画像k-1(n)はそれぞれ差分器330に入力され、画像k(画像301)の対応する画素ごとの差分が求められる。求められた差分を画素とする画像を差分画像と呼ぶ。なお差分は差の大きさの尺度として参照されるので、求められる差分は絶対値であるのが望ましい。そのため、画素値には通常符号ビットがないところを、たとえば画素値に正の符号ビットを付加して差分を計算し、その結果符号ビットが反転した場合には2(10b)の補数を求めて絶対値化してよい。
差分画像は二値化器340に入力されて二値化画像に変換される。それが二値化距離情報(すなわち画像CS(n)、n=1~N)351~354である。二値化距離情報では、画像kと画像k-1(n)との対応画素間の差が閾値以下であるような画素の値は1、そうでない画素の値は0となっている。すなわち、値1の画素(たとえば黒で示す)の部分は画像kと画像k-1(n)とで一致の程度が高く、値0の画素(たとえば白で示す)の部分は画像kと画像k-1(n)とで一致の程度が低い。これが、画像k-1に対する倍率ごとに示されることになる。このように差分画像の二値化処理においては、単に閾値と比較して二値化するのではなく、閾値と比較して二値化した値をさらに反転している。
距離情報生成部210で生成される二値化距離情報は、画像kに含まれたオブジェクトそれぞれの距離に関する情報を含んでいる。たとえば拡大率E1で拡大された画像k-1(n)に着目すると、画像k-1(n)から生成された画像CS(n)には、画像k-1(n)と画像kとで一致するオブジェクトの領域が画素値1で示されている。すなわちそのオブジェクトは、画像kでは、画像k-1に対して拡大率E1で拡大されていると考えられる。倍率が多少変わっても部分的に一致はするかもしれないが、複数通りの拡大率の拡大画像のうちでは、最も一致する画素数が多い画像k-1が最も一致度が高いと考えることができる。このことから、二値化距離情報すなわち画像CS(n)(n=1~N)は、画像kに含まれたオブジェクトの、画像k-1に対する拡大率を示す画像群であるといえる。
●物体検出処理
図4に物体検出部201による物体検出処理の一例を示す。物体検出部201では、画像k(画像401)から、人や物などを含む物標を検出する。検出は、たとえば機械学習を用いることができる。画像中の人や物など、距離を求めようとする物標を学習させておき、学習済みの学習データを用いて画像から物標を検出する。もちろんこのほかにも、画像のエッジなどを検出し、その特徴から物標を特定してもよい。
物標が検出されると、検出された物標に対応するオブジェクトの領域が特定される。このオブジェクトの領域は、オブジェクトごとに異なる画像に示される。例えば画像410では領域411が、画像420では領域421が特定されている。物体検出部201はさらに、たとえばオブジェクトの領域を1、そのほかを0で表した二値画像を生成する。これが二値検出物体情報(画像OB(n))である。図4の例では、画像430にはオブジェクト領域431が含まれ、画像440にはオブジェクト領域441が含まれている。このように二値検出物体情報には、画像に写された物標の領域が示されている。
●距離推定処理
図5に距離推定部202の構成を示す。距離推定部202には、画像kから生成された二値検出物体情報(画像OB(m))と、画像k-1から生成された二値距離情報(画像CS(n))とが入力される。ここで二値検出物体情報に含まれた検出された物体はm(0≦m≦M)で示され、二値距離情報に含まれた拡大率の数はn(1≦n≦N)であるとする。なお、図示していないが、これらの情報は比較のために互いに同期がとられる。
距離推定部202はn個の内積器511を有している。内積器511のそれぞれに、複数の画像CS(n)に含まれる各画像が入力される。また内積器511のもう一方の入力には、選択器501により選択された画像OB(m)のうちの一つの画像が入力される。すなわち、選択器501は、検出された物体のうちの一つを選択するものといえる。画像OB(m)で特定された物標を物標mと呼ぶことにする。そして内積器511は、選択された画像OB(m)と、画像CS(n)それぞれとの内積を計算する。画像CS(n)について計算された内積が距離判定パラメータDP(n)である。すなわちn番目の内積器511は、
PD(n) = ΣΣ(OBn(p, q)・CSm (p, q))
という計算を行う。なお上式では、この前にOB(n)、CS(m)と表されていた画像をそれぞれOBn、CSm と表している。また、p、qは画像内の画素を示すインデックスであり、ここでは画素単位の一座標を示し、1≦p≦P、1≦q≦Qとする。2つのΣは、p、qそれぞれについて1から最大値までの和を示す。これにより、物体が検知された領域内における、画像kと拡大した画像k-1との一致の程度が、距離判定パラメータPD(n)により示される。
相異なる倍率で拡大されている画像CS(n)のそれぞれについて算出された距離判定パラメータPD(n)が最大値判定部522に入力され、入力されたうちの最大値のインデックスnが出力される。このインデックスは、N個の内積器511のうち、最大値を出力した内積器を示している。内積器が決まれば元の画像k-1の拡大率も決まるから、このインデックスは、物標mについての、画像k-1に対する画像kでの拡大率を示すインデックスである。これを距離インデックス(Imax(m))と呼ぶ。
距離インデックス(Imax(m))は検出物体距離推定部523に入力されて、物標mの距離が特定される。距離の特定は、本実施形態では、予め用意したテーブル等のデータセットを参照することにより行う。たとえば画像の撮影間隔時間を固定値とし、車両の速度と距離インデックスとをパラメータとして、それらの値と距離とを対応付けた所定のデータセット、たとえば二次元テーブルを用意しておく。そして、検出物体距離推定部523は、取得した車速と決定された距離インデックスとに対応する距離を、当該物標に関して特定された距離として出力する。距離インデックスなどのパラメータと距離との対応付けは例えば実験的に決定してもよいし、或いは式(1)に従って決定してもよい。
もちろん他の方法を採用してもよく、例えば車輪速センサ7cから車速vを取得し、所定の撮影間隔を用い、また距離インデックス(Imax(m))に対応する拡大率Eを特定する(拡大率とインデックスとは予め紐づけておいてよい)。そして式(1)のように、L=vt/(E-1)として距離を算出してよい。
以上は一つの画像OB(m)に対する処理である。一つの画像OB(m)すなわち一つの物標に対する距離の特定が済んだなら、選択部501は未処理の次の画像OB(m+1)を選択して出力する。そして画像OB(m+1)に対して上記処理を実行する。これにより物標m+1までの距離を特定することができる。これは生成された画像OB(m)を対象として実行され、画像kに含まれた全オブジェクトに関して、対応する物標までの距離が特定される。
以上の構成及び処理により本実施形態の測距装置は画像、特に単眼カメラで撮影した画像から、画像に写された物標までの距離を特定することができる。この構成では、単純な処理を組み合わせて距離を特定できる。
なお、画像CS(n)は、画像kと画像k-1との差分が閾値よりも小さい画素を1で示す二値画像であるので、最大値判定部522は、オブジェクト領域内における画像kと画像k-1との差分が最も小さい画像k-1のインデックスを出力するともいえる。
[他の実施形態]
画像k-1を拡大して切り出す際に、切り出す領域の位置を変えて、1つの拡大率で拡大した画像k-1から複数の拡大画像を生成してもよい旨を第一実施形態で述べた。これをさらに詳しく説明すると、1つの拡大画像k-1から生成された複数の拡大画像のうち、画像kとの相関が最も高い一つをその拡大率の拡大画像の代表とし、そのほかは廃棄してもよい。画像kとの相関は、たとえば二値化器340による二値化後の画素値の総和で示される。この例では二値化後の画素値の総和が最大の画像を代表としてよい。二値化後には、画像kと一致している部分は画素値1で示されるためである。これにより差分算出二値化部214からの出力は、第一実施形態と同様に、拡大率がN通りであれば、N個の画像CS(n)となる。したがって距離推定部202による処理は、第一実施形態と同様でよい。
これにより、二値距離情報に含まれる物標ごとの距離を示す情報の精度をより向上させることができる。
●実施形態のまとめ
上記実施形態は以下の情報処理装置を少なくとも開示する。
1.上記実施形態の測距装置は、
撮像手段により時系列の画像を取得する画像取得部と、
画像処理を行う処理部とを有し、
前記処理部は、
前記時系列の画像のうち、対象画像よりも前に取得した基準画像を、相異なる複数通りの拡大率で拡大した複数の拡大画像を生成し、前記複数の拡大画像の各々と前記対象画像との差分を求め、
前記対象画像から被写体である物標を検出し、
前記差分が最小となる前記拡大画像の拡大率に基づいて、検出した前記物標までの距離を特定する。
この構成により、画像に含まれた物標までの距離を測定できる。
2.上記実施形態の測距装置では、
前記処理部は、検出した前記物標それぞれに対応付けて前記対象画像を二値化し、二値化した前記対象画像それぞれと二値化した前記複数の拡大画像それぞれとの差分を求める。
この構成により、画像に含まれた物標ごとに対象画像を二値化することで、画像に含まれた複数の物標の処理を容易化することができる。
3.上記実施形態の測距装置では、
前記処理部は、検出した前記物標ごとに前記差分が最小となる前記拡大画像の拡大率に基づいて、前記物標ごとの距離を特定する。
この構成により、画像に含まれた物標ごとに、当該物標までの距離を特定できる。
4.上記実施形態の測距装置では、
前記処理手段は、前記対応する画素の間の差を二値化して反転した値の前記着目オブジェクトの領域内の総和が最大となる前記拡大画像を、前記差分が最小となる拡大画像とする。
この構成により、演算が簡素化されて処理負荷が軽減される。
5.上記実施形態の測距装置では、
前記処理手段は、拡大率に対応付けて距離が登録された所定のデータセットを用いて、前記物標までの距離を特定する。
この構成により、距離の特定を所定のデータセットを参照して行うことができ、処理負荷が軽減される。
6.上記実施形態の測距装置では、
前記処理手段は、前記拡大率に加えて、さらに前記撮像手段の移動する速度に対応付けて距離が登録された所定のデータセットを用いて、前記物標までの距離を特定する。
この構成により、距離をインデックスとすることで、特定した速度の精度をより向上させることができる。
7.上記実施形態の測距装置では、
前記処理手段は、前記拡大率に加えて、さらに前記撮像手段の移動する速度と、前記基準画像と前記対象画像との撮影の時間間隔とに基づいて、前記物標までの距離を特定する。
この構成により、より精度の高い距離の特定が可能となる。
発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。
20-29 ECU、41 カメラ

Claims (8)

  1. 撮像手段により時系列の画像を取得する画像取得部と、
    画像処理を行う処理部とを有し、
    前記処理部は、
    前記時系列の画像のうち、対象画像よりも前に取得した基準画像を、相異なる複数通りの拡大率で拡大した複数の拡大画像を生成し、前記複数の拡大画像の各々と前記対象画像との差分を求め、
    前記対象画像から被写体である物標を検出し、
    前記差分が最小となる前記拡大画像の拡大率に基づいて、検出した前記物標までの距離を特定する
    ことを特徴とする測距装置。
  2. 請求項1に記載の測距装置であって、
    前記処理部は、検出した前記物標それぞれに対応付けて前記対象画像を二値化し、二値化した前記対象画像それぞれと二値化した前記複数の拡大画像それぞれとの差分を求める
    ことを特徴とする測距装置。
  3. 請求項1または2に記載の測距装置であって、
    前記処理部は、検出した前記物標ごとに前記差分が最小となる前記拡大画像の拡大率に基づいて、前記物標ごとの距離を特定する
    ことを特徴とする測距装置。
  4. 請求項2に記載の測距装置であって、
    前記処理部は、前記対応する画素の間の差を二値化して反転した値の前記着目オブジェクトの領域内の総和が最大となる前記拡大画像を、前記差分が最小となる拡大画像とする
    ことを特徴とする測距装置。
  5. 請求項1乃至4のいずれか一項に記載の測距装置であって、
    前記処理部は、拡大率に対応付けて距離が登録された所定のデータセットを用いて、前記物標までの距離を特定する
    ことを特徴とする情報処理装置。
  6. 請求項5に記載の測距装置であって、
    前記処理部は、前記拡大率に加えて、さらに前記撮像手段の移動する速度に対応付けて距離が登録された所定のデータセットを用いて、前記物標までの距離を特定する
    ことを特徴とする測距装置。
  7. 請求項1乃至4のいずれか一項に記載の測距装置であって、
    前記処理部は、前記拡大率に加えて、さらに前記撮像手段の移動する速度と、前記基準画像と前記対象画像との撮影の時間間隔とに基づいて、前記物標までの距離を特定する
    ことを特徴とする測距装置。
  8. 撮像手段により時系列の画像を取得する画像取得部と、
    画像処理を行う処理部とを有する測距装置による測距方法であって、
    前記処理部が、
    前記時系列の画像のうち、対象画像よりも前に取得した基準画像を、相異なる複数通りの拡大率で拡大した複数の拡大画像を生成し、前記複数の拡大画像の各々と前記対象画像との差分を求め、
    前記対象画像から被写体である物標を検出し、
    前記差分が最小となる前記拡大画像の拡大率に基づいて、検出した前記物標までの距離を特定する
    ことを特徴とする測距方法。
JP2021058437A 2021-03-30 2021-03-30 測距装置及び測距方法 Active JP7236487B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021058437A JP7236487B2 (ja) 2021-03-30 2021-03-30 測距装置及び測距方法
US17/705,293 US20220319037A1 (en) 2021-03-30 2022-03-26 Distance measuring apparatus and distance measuring method
CN202210312110.6A CN115143940A (zh) 2021-03-30 2022-03-28 测距装置和测距方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021058437A JP7236487B2 (ja) 2021-03-30 2021-03-30 測距装置及び測距方法

Publications (2)

Publication Number Publication Date
JP2022155098A true JP2022155098A (ja) 2022-10-13
JP7236487B2 JP7236487B2 (ja) 2023-03-09

Family

ID=83406592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021058437A Active JP7236487B2 (ja) 2021-03-30 2021-03-30 測距装置及び測距方法

Country Status (3)

Country Link
US (1) US20220319037A1 (ja)
JP (1) JP7236487B2 (ja)
CN (1) CN115143940A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011064639A (ja) * 2009-09-18 2011-03-31 Panasonic Corp 距離計測装置及び距離計測方法
JP2015182604A (ja) * 2014-03-24 2015-10-22 東芝アルパイン・オートモティブテクノロジー株式会社 画像処理装置および画像処理プログラム
JP2016148512A (ja) * 2013-06-11 2016-08-18 ヤマハ発動機株式会社 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107687841A (zh) * 2017-09-27 2018-02-13 中科创达软件股份有限公司 一种测距方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011064639A (ja) * 2009-09-18 2011-03-31 Panasonic Corp 距離計測装置及び距離計測方法
JP2016148512A (ja) * 2013-06-11 2016-08-18 ヤマハ発動機株式会社 単眼モーションステレオ距離推定方法および単眼モーションステレオ距離推定装置
JP2015182604A (ja) * 2014-03-24 2015-10-22 東芝アルパイン・オートモティブテクノロジー株式会社 画像処理装置および画像処理プログラム

Also Published As

Publication number Publication date
JP7236487B2 (ja) 2023-03-09
CN115143940A (zh) 2022-10-04
US20220319037A1 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
CN113348422B (zh) 用于生成预测占据栅格地图的方法和系统
US11023788B2 (en) Systems and methods for estimating future paths
WO2020104423A1 (en) Method and apparatus for data fusion of lidar data and image data
JP2019028861A (ja) 信号処理装置、および信号処理方法、プログラム、並びに移動体
WO2019230339A1 (ja) 物体識別装置、移動体用システム、物体識別方法、物体識別モデルの学習方法及び物体識別モデルの学習装置
KR20200136905A (ko) 신호 처리 장치 및 신호 처리 방법, 프로그램, 그리고 이동체
EP3349143B1 (en) Nformation processing device, information processing method, and computer-readable medium
US11288777B2 (en) Image processing device, image processing method, and program
CN109300143B (zh) 运动向量场的确定方法、装置、设备、存储介质和车辆
US20090297036A1 (en) Object detection on a pixel plane in a digital image sequence
US11308357B2 (en) Training data generation apparatus
JP6597792B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
WO2019009110A1 (ja) 車両用外界認識装置
JP2008298533A (ja) 障害物計測方法、障害物計測装置及び障害物計測システム
CN107830869B (zh) 用于车辆的信息输出方法和装置
JP2018048949A (ja) 物体識別装置
JP2006318062A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
JPWO2017099199A1 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JPH09218937A (ja) 区画線検出装置
JP6826010B2 (ja) カメラ運動推定装置、カメラ運動推定方法及びプログラム
JP7236487B2 (ja) 測距装置及び測距方法
EP3795952A1 (en) Estimation device, estimation method, and computer program product
WO2022125236A1 (en) Systems and methods for object detection using stereovision information
US20240098231A1 (en) Image processing device, image processing method, and computer-readable medium
JP2017049666A (ja) 飛び出し物体検知装置および飛び出し物体検知方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R150 Certificate of patent or registration of utility model

Ref document number: 7236487

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150