JP7253001B2 - 情報処理装置及び方法 - Google Patents

情報処理装置及び方法 Download PDF

Info

Publication number
JP7253001B2
JP7253001B2 JP2021058436A JP2021058436A JP7253001B2 JP 7253001 B2 JP7253001 B2 JP 7253001B2 JP 2021058436 A JP2021058436 A JP 2021058436A JP 2021058436 A JP2021058436 A JP 2021058436A JP 7253001 B2 JP7253001 B2 JP 7253001B2
Authority
JP
Japan
Prior art keywords
image
images
correction amount
information processing
shift
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021058436A
Other languages
English (en)
Other versions
JP2022155097A (ja
Inventor
裕司 安井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021058436A priority Critical patent/JP7253001B2/ja
Priority to US17/703,282 priority patent/US20220318972A1/en
Priority to CN202210311988.8A priority patent/CN115150546A/zh
Publication of JP2022155097A publication Critical patent/JP2022155097A/ja
Application granted granted Critical
Publication of JP7253001B2 publication Critical patent/JP7253001B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は情報処理装置及び方法に関し、特に画像撮影時のピッチによるずれを補正する補正量を特定する情報処理装置及び方法に関する。
車両の自動運転や運転支援のために、歩行者や他車両などの物標までの距離を推定する技術がある。自動運転や運転支援のため、車両は、推定した距離に応じて運転者の注意を喚起したり、あるいは運転者による操作なしに自動的に制動をかけたりする。距離を推定する技術のひとつに、カメラで撮影した画像に含まれた物標に対応するオブジェクトを認識し、その物標までの距離を推定するという技術がある。この技術では、車両のピッチ軸周りの揺動(これを単にピッチと呼ぶことがある)に起因して推定した距離の精度が低下することがあり、この精度低下を防止するための技術が提案されている。特許文献1には、ピッチ角の軸ずれが生じた場合、赤外線画像上での各カメラの全画角領域内の対象物検知処理領域に対し、ピッチ角に応じた位置補正量で補正することが記載されている。また特許文献2には、ピッチ量を推定する技術として、車両に設けた撮像部により時間差で撮像した画像内の所定領域の垂直方向の移動量を算出して積算し、積算値に基づいて、車両のピッチ角を推定する技術が記載されている。
特開2006-153778号公報 特開2017-20942号公報
しかしながら特許文献1には、カメラのピッチ角を特定するための具体的な技術の開示はない。また特許文献2には、2つの画像中の相関性が高い領域を特定し、その移動量からピッチ角を推定する技術が開示されているが、これによれば2つの画像の間で相関性の高い領域を特定しなければならず、処理負荷が高いと考えられる。
本発明は上記従来例に鑑みて成されたもので、負荷の軽い処理により精度の高い補正量を推定することを目的とする。
上記目的を達成するために本発明は以下の構成を有する。
すなわち、本発明の一側面によれば、撮像手段により時系列の画像を取得する画像取得部と、
画像処理を行う処理部とを有し、
前記処理部は、
前記時系列の画像のうち、対象画像よりも前に取得した基準画像を、前記基準画像が撮影されてから前記対象画像が撮影されるまでの時間差と前記撮像手段の移動の速度とに基づいて、前記基準画像に含まれた前記対象画像の撮影範囲の画角が前記対象画像の画角と一致するよう拡大し、拡大した前記基準画像を相異なる複数通りのシフト量で上下方向にシフトした複数のシフト画像を生成し、前記複数のシフト画像の各々と前記対象画像との差分を基に前記撮像手段のピッチによる補正量を特定する
ことを特徴とする情報処理装置が提供される。
本発明によれば、負荷の軽い処理により精度の高い補正量を推定することができる。
車両システムの構成を示した説明図である。 距離推定のための構成を示すブロック図である。 ピッチ量推定のための構成を示すブロック図である。 ピッチ量推定のための情報処理の一例を示す図である。 ピッチ量推定のための情報処理の一例を示す図である。 旋回判定のための構成を示すブロック図である。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
[第一実施形態]
●車両用制御装置の構成
図1は、本発明の一実施形態に係る車両用制御装置のブロック図であり、車両1を制御する。図1において、車両1はその概略が平面図と側面図とで示されている。車両1は一例としてセダンタイプの四輪の乗用車である。なお本実施形態では、車両用制御装置により提供する運転支援は、緊急ブレーキや適応的追従走行、車線維持支援といった限定的な機能としているが、目的地を設定すれば自動運転まで行うような高度の機能としてもよい。
図1の制御装置は、制御ユニット2を含む。制御ユニット2は車内ネットワークにより通信可能に接続された複数のECU20~29を含む。各ECUは、CPUに代表されるプロセッサ、半導体メモリ等の記憶デバイス、外部デバイスとのインタフェース等を含む。記憶デバイスにはプロセッサが実行するプログラムやプロセッサが処理に使用するデータ等が格納される。各ECUはプロセッサ、記憶デバイスおよびインタフェース等を複数備えていてもよい。
以下、各ECU20~29が担当する機能等について説明する。なお、ECUの数や、担当する機能については適宜設計可能であり、本実施形態よりも細分化したり、あるいは、統合することが可能である。
ECU20は、車両1の自動運転に関わる制御を実行する。自動運転においては、車両1の操舵と、加減速の少なくともいずれか一方を自動制御する。
ECU21は、電動パワーステアリング装置3を制御する。電動パワーステアリング装置3は、ステアリングホイール31に対する運転者の運転操作(操舵操作)に応じて前輪を操舵する機構を含む。また、電動パワーステアリング装置3は操舵操作をアシストしたり、あるいは、前輪を自動操舵するための駆動力を発揮するモータや、操舵角を検知するセンサ等を含む。車両1の運転状態が自動運転の場合、ECU21は、ECU20からの指示に対応して電動パワーステアリング装置3を自動制御し、車両1の進行方向を制御する。
ECU22は、車両の周囲状況を検知する検知ユニット41の制御および検知結果の情報処理を行う。検知ユニット41は、車両1の前方を撮影するカメラであり(以下、カメラ41と表記する場合がある。)、本実施形態の場合、車両1のルーフ前部に固定して1つ設けられている。ECU22は、カメラ41が撮影した画像の解析により、物標の輪郭抽出や、道路上の車線の区画線(白線等)を抽出可能である。また、画像中の物標までの距離を推定することができる。
ECU24は、GPSセンサ24b、通信装置24cの制御および検知結果あるいは通信結果の情報処理を行う。GPSセンサ24bは、車両1の現在位置を検知する。通信装置24cは、地図情報や交通情報を提供するサーバと無線通信を行い、これらの情報を取得する。ECU24は、記憶デバイスに構築された地図情報のデータベース24aにアクセス可能であり、ECU24は現在地から目的地へのルート探索等を行う。
ECU26は、パワープラント6を制御する。パワープラント6は車両1の駆動輪を回転させる駆動力を出力する機構であり、例えば、エンジンと変速機とを含む。ECU26は、例えば、アクセルペダル7Aに設けた操作検知センサ7aにより検知した運転者の運転操作(アクセル操作あるいは加速操作)に対応してエンジンの出力を制御したり、車輪速センサ7cが検知した車速等の情報に基づいて変速機の変速段を切り替える。
ECU28は、入出力装置9の制御を行う。入出力装置9は運転者に対する情報の出力と、運転者からの情報の入力の受け付けを行う。音声出力装置91は運転者に対して音声により情報を報知する。表示装置92は運転者に対して画像の表示により情報を報知する。表示装置92は例えば運転席表面に配置され、インストルメントパネル等を構成する。なお、ここでは、音声と表示を例示したが振動や光により情報を報知してもよい。入力装置93は運転者が操作可能な位置に配置され、車両1に対する指示を行うスイッチ群あるいはタッチパネル等であるが、音声入力装置も含まれてもよい。
ECU29は、ブレーキ装置10やパーキングブレーキ(不図示)を制御する。ブレーキ装置10は例えばディスクブレーキ装置であり、車両1の各車輪に設けられ、車輪の回転に抵抗を加えることで車両1を減速あるいは停止させる。ECU29は、例えば、ブレーキペダル7Bに設けた操作検知センサ7bにより検知した運転者の運転操作(ブレーキ操作)に対応してブレーキ装置10の作動を制御する。たとえば、画像から検知した物標までの距離が所定値を下回った場合や、あるいは推定された衝突までの時間が所定値を下回った場合には、ECU29は、ECU20からの指示に対応してブレーキ装置10を自動制御し、車両1の減速および/または停止を制御する。ブレーキ装置10やパーキングブレーキは車両1の停止状態を維持するために作動することもできる。また、パワープラント6の変速機がパーキングロック機構を備える場合、これを車両1の停止状態を維持するために作動することもできる。
●画像に基づく距離推定機能
図2(A)は、ECU20により実現される距離推定機能のブロック図である。この構成はECU20に含まれるハードウェア回路で実現されてもよいし、そこに含まれたCPUによりメモリに記録したプログラムを実行することで実現されてもよい。またそれらの組み合わせにより実現してもよい。これは他のECUについても同様である。いずれの構成であっても、ECU20あるいはその他のECUは、情報処理装置あるいは画像処理装置あるいは信号処理装置として機能する。
カメラ41は単眼カメラなどの撮像装置であり、たとえば所定のフレームレートで映像を撮影する。撮影した映像は、所定の時間間隔おきのフレームで構成され、それぞれのフレームをここでは画像と呼ぶ。撮影された画像は、所定の時間間隔で物体検出部201、補正量推定部203、旋回判定部205に送られる。所定の時間間隔とはフレームレートの逆数であってもよいし、その整数倍であってもよい。
物体検出部201は、画像に含まれた、被写体である人や物などの物標に対応するオブジェクトを検出する。検出されたオブジェクトに関する情報は、検出物体情報として距離推定部202に送信される。補正量推定部203は、最新の画像とその直前の画像とに基づいてピッチに起因するずれ(これをピッチずれとも呼ぶ)の補正量を推定する。そして本実施形態では、推定した補正量は画像の補正量d'であり、補正量選択部204に入力される。旋回判定部205は、最新の画像とその直前の画像とに基づいて旋回中であることを判定し、その結果を旋回フラグとして補正量選択部204に入力する。
補正量選択部204は、旋回フラグが旋回中でないことを示している場合には、ずれ補正量d'を出力し、旋回中であることを示している場合には、ずれ補正量として0を出力する。距離推定部202は、画像中に含まれた、検出された物標までの距離を、画像とずれ補正量とに基づいて推定する。
距離推定部202による距離の推定はたとえば以下のようにして行ってよい。車両1に固定または調整可能に固定されたカメラ41の地上高をH0とし、カメラ41から撮影方向(光軸方向)に向かって距離L0を基準距離とする。そしてカメラ41による撮影画像中の高さ0(即ち地上)かつ基準距離L0に相当する画像中の高さ方向の位置を基準位置とする。高さ方向の位置とは、たとえば撮影された矩形の画像の上辺または下辺からの距離(画素数などを単位とする)で定めてよい。逆に、画像中の基準位置を定め、その基準位置に対応する、高さ0(すなわち地上)の位置までの距離を基準距離としてもよい。具体例としては、画像の下辺を基準位置としてもよいし、下辺から所定画素数ずらした位置を基準位置としてもよい。また基準距離L0にある物標を撮影した画像において、画像中の物標の1画素当たりの高さをkとする。1画素当たりとは画素ピッチであってよい。このとき、画像中の基準位置から高さh(画素数)にあるオブジェクトに対応する物標のカメラ41からの距離Lは、L=L0・(H0/(H0-h・k))と表せる。カメラ41から車両1の前端までの長さをLfとすると、車両前端から、画像中で高さkに写された物標までの距離Dは、D=L0・(H0/(H0-h・k))-Lfと推定できる。なお上式ではカメラ41の光軸は水平であると仮定しているが、たとえばカメラ41に俯角をつけたとしても微小であり、近似的には上式で求めてよい。もちろんこれは一例に過ぎず、他の方法、たとえばカメラの俯角を考慮したより高精度な方法を採用することもできるし、他の方法を用いることもできる。いずれの方法であっても、画像中の物標の高さ方向の位置に基づいて距離が推定される。
ここで、上で説明した例では、ピッチ角変動の補正を行っていない。補正を行う場合には、ずれ補正量d'を、画像中の物標の高さに加える(あるいは差し引く)。すなわち上式でいえば補正済の距離L'は、L'=L0・(H0/(H0-(h+d')・k))となり、補正済の距離D'は、D'=L0・(H0/(H0-(h+d')・k))-Lfとなる。
図2(B)は、撮影された画像から距離を推定する例を示す図である。画像210で、基準位置は画像の下辺すなわち高さ0の位置である。物体検出部201によりたとえば機械学習された物標が画像から検出される。図2(B)では歩行者211および自転車212が検出され、検出された物標の領域が特定される。これが検出物体情報に相当する。距離推定部202では、そこからそれぞれの物標までの距離を推定する。上述した方法によれば、高さHsにある自転車212までの距離Lsは、ずれ補正量をdとして、Ls=L0・(H0/(H0-(Hs+d')・k))-Lfである。同様に、高さHpにある歩行者211までの距離Lpは、Lp=L0・(H0/(H0-(Hp+d')・k))-Lfで与えられる。
●ピッチに起因するずれの補正量の推定
図3に補正量推定部203の詳細を示す。カメラ41から入力された画像はグレースケール化処理部301に入力されて、グレースケール画像に変換される。ここで入力された処理対象の画像を画像kとする。添え字kは画像の順序を示し、画像kの直前の画像は画像k-1である。直前の画像とは、カメラ41が撮影した画像kの直前のフレームとは限らず、所定数のフレームを間においたフレームであってもよい。グレースケール化された画像kは画像切り出し処理部302と画像バッファ311とに送信される。
画像バッファ311は、画像kの直前の画像k-1を保持するためのバッファである。画像k-1は画像バッファ311から出力されて自車移動量補正部312に入力される。自車移動量補正部312は、車輪速センサ7cが検知した車速や、位置情報から算出された車速などをもう一つの入力として、車速と画像kと画像k-1との時間差に基づいて画像k-1を補正する。
図4に自車移動量補正部312による補正の一例を示す。画像400は補正前の画像k-1である。画像420は処理対象としている画像kである。画像400は画像420よりも撮影時間間隔だけ早い時刻に撮影されており、画像420と比べて引いた画像となっている。後段の処理で画像k-1と画像kとの差分をとるために、自車移動量補正部312は、画像k-1の画角を画像kに合わせて補正する。図4の例では、速度vと時間間隔tiとから領域401が画像kの撮影範囲であると特定できるので、領域401を切り出して元のサイズへと拡大すると画像410が得られる。これにより疑似的に画像k-1の画角を画像kと一致させることができる。
自車移動量補正部312により補正された画像k-1は、上下シフト処理部313により、N通りのシフト処理が施される。N通りのシフト処理とは、たとえばsを定数として、n番目の画像k-1(n)についてシフト量px(n)を(n-1)・sfと定める(ここでn=1、...、N)。そしてそのシフト量px(n)に従って画像k-1(n)を上または下にシフトすることでよい(本例では説明のために上向きとする)。sfはシフトの単位となる画素である。具体的には、たとえばsf=1とし、N=30などとしてよい。この場合、0、1、...、28、29という30通りのシフト量が定まる。この結果、画像k-1から、シフト量に従ってシフトされたN個の画像k-1(1)、k-1(2)、...、k-1(N)が生成される。
N個の画像k-1は画像切り出し処理部314に入力される。画像切り出し処理部314では、N個の画像k-1(n)について、シフト方向の側の画像の辺(本例では上辺)から最大シフト量(本例では(N-1)・sf)に対応する行数の画素列をトリムする。シフト処理により、シフト方向の側の辺からn・sf行の画素列は失われ、その反対側の辺には本来ない画素列(たとえば白画素列)が充填されている。切り出し処理により、充填された白画素列を含む(N-1)・sf行の画素列を、シフト方向の反対側の辺からトリムする。最大のシフト量である(N-1)・sf画素分のシフトを施した画像k-1(N)では、元の画像k-1から、シフト方向の側の辺から(N-1)・sf行分の画素列が失われている。これが元の画像k-1から失われる画素列の数の最大値であるので、他の画像k-1(n)についても、画像k-1(N)と同じ要領でトリムを施す。すなわちシフト量を(n-1)・sfとしたシフト処理後、(N-1)・sf行の画素列を、シフト方向の反対側の辺からトリムする。これにより画像k-1(n)のサイズを統一することができる。
画像切り出し処理部302では、画像kに対して、画像切り出し処理部314で切り出した画像k-1(n)と同じサイズにトリムを施す。画像kと画像k-1と間のずれが上下どちらの方向であるかは不明なので、いずれであっても検知できるよう、中間のシフト量でシフトした画像k-1((N-1)/2)と同様のシフトおよびトリムを施す。なお(N-1)/2の小数部は丸められ、例えば切り上げられてよい。画像k-1((N-1)/2)は、元の画像k-1に対して、その上辺から((N-1)/2)・sf行の画素列をシフト処理により失わせ、その下辺から(N-(N-1)/2)・sf行の画素列を切り出し処理により切り取った画像である。そこで、画像切り出し処理部302でも、元の画像kの上辺から((N-1)/2)・sf行の画素列を、下辺から(N-(N-1)/2)・sf行の画素列をトリムする。これにより対象画像である画像kのサイズを、基準画像である比較対象の画像k-1と合わせることができる。また、もしピッチ量が0であれば、画像kが画像k-1((N-1)/2)と一致(あるいはほぼ一致)するように画像kを切り出すことができる。
画像差分処理部303には、画像切り出し処理部302から画像kが、画像切り出し処理部314からN個の画像k-1(n)それぞれが入力される。画像差分処理部303は、画像kと画像k-1(n)それぞれとの差分を求める。画像差分処理部303では入力される画像kと画像k-1(n)とについて、必要に応じて同期がとられる。画像k-1が補正量推定部203に入力された時刻を基準とすると、画像差分処理部303までに、画像k-1(n)については、自車移動量補正部312と上下シフト処理部313と画像切り出し処理部314とによる処理時間を要する。一方画像kについては、画像k-1(n)と画像kとの時間差(例えばフレーム間隔)と、画像切り出し処理部302による処理時間とを要する。画像差分処理部303では、いずれか短い方を保持して同期をとってよい。
差分は対応する画素の値の差分であり、一致する画素についての差分は0で、近似するほど値は小さい。そのような差分値で構成された画像を差分画像とも呼ぶ。差分画像はN個の画像k-1(n)それぞれについて求められるので、N個の差分画像が生成される(n=1、...、N)。画像二値化処理部304では、N個の差分画像を二値化する。二値化はたとえば所定の閾値と各画素値とを比較し、閾値以上であれは1、閾値未満であれば0とすることなどで行ってよい。閾値としては、たとえば画像k、画像k-1(n)の階調数の中間値を用いてよい。二値化により、画像kの画素と画像k-1(n)の対応画素との差が大きければ、その画素値は1となり小さければ画素値は0となる。
最後に、ずれ補正量推定処理部305により、ずれ補正量を推定(あるいは特定)する。そのためにまず、N個の二値化済み差分画像それぞれについて、画素値の総計S(n)を求める。画素値の総計S(n)は、値が1の画素数、すなわち画像kと画像k-1(n)との間で差が大きい画素の数の総和を示す。この画素の総和S(n)がより小さい画像k-1(n)が、画像kにより類似した画像である。そこで第1の方法では、画素の総和S(n)が最も小さい画像k-1(n)に対応するシフト量px(n)=(n-1)・sfを、そのままずれ補正量dとする。第2の方法では、画素の総和Sをシフト量pxの関数とみて、S(n)の分布を近似する、pxを変数とした二次関数を決定する。そしてその二次関数の最小値を与えるpxをずれ補正量dとする。後者の方法では、実際に試みていないシフト量からずれ補正量を推定できるため、より大きいステップでシフト量を定めることができる。第2の方法については、この後の図5の説明においてより詳しく説明する。
●ずれ補正量推定の詳細
図5に画像切り出し処理部314、302からずれ補正量推定処理部305までの処理の模式図を示す。ここでは画像k-1からは5通りのシフト量でシフトされた画像k-1(1)~画像k-1(5)が示されている(すなわちN=5)。画像k-1である画像521からは、シフトされ、切り出された画像k-1(n)である画像511~515が示されている。例えば画像511のシフト量は0であり。下辺から最大シフト量に相当する行数の画素列がトリムされている。また画像515のシフト量は最大であり、やはり下辺から最大シフト量に相当する行数の画素列がトリムされている。ここで画像515の上側の領域はシフト処理により切り捨てられた領域であり、画像515の下側には、不図示ではあるが、最大シフト量に相当する行数の白色の画素列がシフト処理により充填されている。画像515ではその充填された領域が切り捨てられている。他の画像512~画像514についても同様である。
また画像kに相当する画像520からは、上述したように、画像k-1に対する中間のシフト量の画像k-1((N-1)/2)と同じ要領でトリムされた画像501が切り出される。画像501は画像差分処理部303に含まれたすべての差分器530の一方の入力に入れられ、画像511~515はそれぞれ、差分器530各々の他方の入力に入れられる。そこでは対応する画素値の差分が求められる。なお差分は差の大きさの尺度として参照されるので、求められる差分は絶対値であってよい。そのため、画素値には通常符号ビットがないところを、たとえば画素値に正の符号ビットを付加して差分を計算し、その結果符号ビットが反転した場合には2(10b)の補数を求めて絶対値化してもよい。
対応する画素間の差分で構成された差分画像が差分器530から、画像二値化処理部304に含まれる二進化器540に入力される。二進化器540では、各差分画像が所定の閾値で二値化される。閾値は、たとえば階調数の2分の1であってよいし、さらに小さく4分の1や8分の1程度であってもよい。もちろんさらに小さい値であってもよい。
二値化された差分画像はずれ補正量推定部305の画素総和部550に入力され、それぞれの差分画像の画素値の総和が求められる。この総和は、画像k(対象画像とも呼ぶ)と画像k-1(n)との間で、対応する画素値に閾値以上の差がある画素数を示す。すなわち、理想的には、完全に一致していれば差分画像の画素値はすべて0であり、総和は0となる。そのときの画像k-1(n)のシフト量がピッチに起因するずれ量と判定できる。本実施形態では差分画像の画素値の総和が最小となる画像k-1のシフト量をずれ量として決定する。
そのために画素総和部550の出力する総和値は、対応する画像k-1(n)のシフト量px(n)(=(n-1)・sf)とともに推定部560に入力される。以下では推定部560が、それらの値から近似する二次関数S_hat(n)を決定し、そこからずれ量を推定する方法(上述した第2の方法)について説明する。
●近似二次関数の決定
S_hat(n)は下式で与えられる。
S_hat(n) = a(n-1)Px2(n) + b(n-1)Px(n) + c(n-1) (1)
= ΦT(n-1)ζ(n)
ここで、nは画像k-1(n)のnに相当し、画像ナンバー(n=1~N)と呼んでいる。
ここで式(1)で表したS_hatのモデルパラメータa,b,cを下式により算出する。下式は制御サイクル内でシフト画像数であるN回実施される。まず、
ΦT(n) = [a(n) b(n) c(n)] (2)
ζT(n) = [Px2(n) Px(n) 1] (3)
という2つの行列を定める。すなわち式(1)は、式(2)の行列ΦT(n)と、式(3)で転置して表された行列ζ(n)の積として与えられる。Φ(n)が求めるべき係数行列であり、行列ζ(n)はシフト量px(n)により決まる定数の行列である。また誤差e(n)を式(4)で定める。
e(n) = S(n) - S_hat(n) (4)
= S(n) - ΦT(n-1)ζ(n)
ここでS(n)は、画像k-1(n)に対応する差分画素値の総和である。すなわち誤差e(n)は、観測された値と近似式で与えた値との誤差を示す。
ここで係数行列Φ(n)を下式で定める。
Φ(n) = Δ Φ(n-1) + KP(n) e(n) (5)
KP(n) = P ζ(n) / (1 + ζT (n) P ζ(n)) (6)
式(5)において、Φ(n-1)は画像ナンバー(n-1)に対する係数行列である。Δはそれに乗ずる重みである。e(n)は式4で示された誤差である。KP(n)は式(6)で定める通りのもので、式(6)では、Pは適応ゲイン(P>0)である。
以上の手順をn=1からn=Nまで繰り返し、ΦT(N) = [a(N) b(N) c(N)]を決める。これが求める二次関数の係数行列であるので、S_hat(N) = a(N)Px2+ b(N)Px + c(N)の最小値(=極小値)を与えるpxの値d(N)は、
d(N) = -b(N) / (2 a(N)) (7)
となる。
ここでΦ(n)の初期値はゼロとしてよい。あるいは前回制御サイクルの算出値としてもよい。すなわち、前回ずれ量を推定した際に得られたΦ(N)を次回のずれ量推定時の初期値として用いてもよい。前回制御サイクルの算出値を初期値として用いると、制御サイクル間での高周波数変動を除去でき、ピッチ補正値から不適切な高周波変動を除去できる。
また、たとえば最小二乗法により二次関数S_hat2の係数を決定してもよい。この場合には、二次の項から定数項までの係数をa、b、cとして、実際に求められた差分画像の画素値の総和と、二次関数S_hat2から導かれる画素値の総和との二乗偏差和が最小となるよう係数を決定する。これによりたとえば、
2Σ {S(n)-(a・px(n)2 + b・px(n) + c)}(-px(n) 2) = 0
2Σ {S(n)-(a・px(n)2 + b・px(n) + c)}(-px(n)) = 0
2Σ {S(n)-(a・px(n)2 + b・px(n) + c)}(-1) = 0
を満たすa,b,cを二次関数S_hat2の係数として決めることができる。ここでΣはn=1~Nまでの総和を示す。係数が決まれば、最小値を与えるシフト量dをd=-b/(2a)と決めることができる。以上のようにして補正量推定部203では、画像k-1と画像kとに基づいてずれ補正量dを推定できる。
ここで上述した要領で決定したずれ補正量は画像k-1を基準画像としたものである。実際には画像k-1も画像k-2に対してピッチによる上下方向のずれを生じている可能性がある。これはより以前の画像についても同様であり、ずれは累積している可能性がある。そのためずれ補正量dは、原理的には過去の値を累積して決定されるべきである。しかしながら、ずれを累積していると、誤差も累積していき、かえって推定の精度が低下する恐れがある。そこでずれ補正量推定処理部305では、累積する過去の推定値に、0<λ<1であるような係数(これを忘却係数と呼ぶ)λを乗じた上で累積する。たとえば求めようとする最新のずれ補正量の推定値をd'、画像kと画像k-1との差のみから求めたずれ補正量の推定値をd、画像k-1を対象画像として求めた直前のずれ補正量の推定値をd'k-1とする。忘却係数をλとして
d'=d+λd'k-1
を補正量推定部203の出力とする。忘却係数を設定することで、誤差の累積を防ぐことができ、それによる推定精度の低下を防止できる。
●旋回判定処理
次に旋回判定部205による旋回の判定について説明する。図6(A)に旋回判定部205の概略を示す。画像kが入力されると、それがグレースケール化処理部601によりグレースケール化されて、旋回判定処理部602と画像バッファ603とに引き渡される。旋回判定処理部602には、画像kと画像k-1とが同期して入力され旋回判定処理が行われる。旋回判定処理は2つの画像の対応する画素間の差分を求めて差分画像を生成し、その画素値の総和と域とを比較する。比較の結果、総和が閾値よりも大きければ(あるいは閾値以上であれば)、旋回中の可能性があると判定する。そして2つの画像kと画像k+1に対して連続して旋回の可能性があると判定されると旋回フラグをセットする。旋回中と判定されなかった場合には旋回フラグをリセットする。
この例では、画像k-1の拡大補正も、差分画像の二値化も行っていないことから、旋回していない場合にも差分画像の総和はある程度大きな値になることから閾値も大きな値を選択しておいてよい。またあるいは、ずれ補正量の推定と同様に、画像k-1を図4のように拡大補正してもよい。また差分画像を二値化して二値化済みの画素値の総和を求めてもよい。
すでに説明したように、補正量選択部204は、旋回フラグがセットされていればずれ補正量として0を、セットされていなければ補正量推定部203から入力された補正量d'を距離推定部202に入力する。距離推定部202では、カメラ41から画像中の高さhにある物標までの距離L'=L0・(H0/(H0-(h+d')・k))として推定する。
以上の構成により、車両のピッチによる画像の上下方向へのずれを補正した上で物標までの距離を推定することができる。ピッチによるずれを補正したことで、より推定精度を向上させることができる。また過去の推定結果を、忘却係数を用いて限定的に累積することで、さらに精度を向上させることができる。また、基準画像k-1と対象画像kとの画角の差を、撮影間隔と速度とに元ついて補正することで、より推定精度を向上させることができる。さらに、旋回中と判定された場合には、ずれ補正量を0とすることで、旋回に伴う誤った推定を防止できる。
[第二実施形態]
第二実施形態では、補正量推定部203によりずれ補正量d'を、距離の推定に用いる代わりに、画像kのシフトのために用いる。この場合には、距離推定部202は、ずれ補正量d'を用いて距離L'を算出する代わりに、画像kをずれ補正量d'だけ上下方向にシフトする。たとえばずれ補正量d'の符号が正であれば上方向へ、負であれば下方向へとシフトする。距離L'は、L'=L0・(H0/(H0-h'・k))として求められる。ここでh'は補正後の画像kにおける物標の基準位置からの高さを示す。以上のようにしても、第一実施形態と同様の効果を奏する。
[第三実施形態]
第三実施形態では、補正量推定部203が、ずれ補正量d'に代えて、ピッチ補正量θを出力する。距離推定部202は、ピッチ補正量θを用いてピッチングによる推定距離のずれを補正する。
図6(B)に、ピッチ補正量を推定するための模式図を示す。第一実施形態の要領で画像kと画像k-1のみからずれ補正量dを決定したなら、それに基づいてピッチ補正量θを決定する。図6(B)に示すように、ピッチ補正量をθ、画像k-1に対する画像kの上下方向のずれ量(ずれ補正量)をd、画角をαとする。その他の量も図示したように与えられている。このときθは、
tan((α/2)+θ)=((h/2)+d)/l
となる。ここでさらに、
tan(α/2)=(h/2)/l
であり、
l=(h/2)/tan(α/2)
である。したがって
tan((α/2)+θ)=((h/2)+d)/((h/2)/tan(α/2))
となる。hは例えば画素数であってよい。この式でθ以外は定数であるから、加法定理などを用いてθを決定できる。
このようにして決定したθについても、第一実施形態と同様に忘却係数λを乗じたうえで累積し、ピッチ補正量θ'=θ+λθ'k-1を求めてよい。さらに、ピッチ補正量θ'は、補正量選択部204を経て距離推定部202に入力され、距離の推定処理において参照される。そこでは、上述した手順の逆を実行してずれ補正量d'が求められ、第一実施形態或いは第二実施形態と同様の要領で推定距離の算出に用いられてよい。これによって第一実施形態と同様の効果を奏する。
また推定したピッチ補正量は、距離推定だけでなく他の機能のために利用することができる。たとえば、ピッチ補正量と逆位相で前照灯の照射方向を回転させたり、あるいは、レーダを有している場合には、その照射方向をピッチ補正量と逆位相でずらしたりできる。これにより適切な照明や、適切なレーダの探索範囲の設定を行える。
●実施形態のまとめ
上記実施形態は以下の情報処理装置を少なくとも開示する。
1.上記実施形態の情報処理装置は、
撮像手段により時系列の画像を取得する画像取得部と、
画像処理を行う処理部とを有し、
前記処理部は、
前記時系列の画像のうち、対象画像よりも前に取得した基準画像を、相異なる複数通りのシフト量で上下方向にシフトした複数のシフト画像を生成し、前記複数のシフト画像の各々と前記対象画像との差分を基に前記撮像手段のピッチによる補正量を推定する。
この構成により、従来技術と比べてより軽い負荷で精度の高い補正量を推定することができる。
2.上記実施形態の情報処理装置では、
前記処理部は、前記基準画像が撮影されてから前記基準画像が撮影されるまでの時間差と前記撮像手段の移動の速度とに基づいて前記基準画像を拡大し、拡大した前記基準画像を用いて前記補正量を推定する。
この構成により、撮像手段の移動による推定結果への影響を排除できる。
3.上記実施形態の情報処理装置では、
前記処理部は、前記複数のシフト画像の各々と前記対象画像との差分として、画像間で相違する対応画素の画素数を求め、前記複数のシフト画像それぞれのシフト量と前記画素数との相関に基づいて、前記シフト量を変数として前記画素数を与える二次関数を決定し、前記二次関数の最小値を与えるシフト量に基づいて前記補正量を推定する。
この構成により、二次関数で補間することができ、より精度の高い補正量を推定を推定できる。
4.上記実施形態の情報処理装置では、
前記処理部はさらに、時系列の複数の対象画像に基づいて求めた補正量を積算して前記補正量を特定し、積算する際に、過去の対象画像について特定した補正量については忘却係数を乗ずる。
この構成により、誤差の累積を抑制してより精度の高い補正量を推定を推定できる。
5.上記実施形態の情報処理装置では、
前記処理部は、前記対象画像と前記基準画像との差分に基づいて前記撮像手段の横方向への移動を判定し、横方向への移動が判定された場合には、前記補正量を0とする。
この構成により、横方向への移動をピッチによるずれとして誤認することを防止することができる。
6.上記実施形態の情報処理装置では、
前記処理部は、前記対象画像におけるオブジェクトまでの高さと前記補正量とに基づいて、前記対象画像に含まれたオブジェクトに対応する物標までの距離を特定する。
この構成により、ピッチによるずれを補正した距離の推定を実現できる。
7.上記実施形態の情報処理装置では、
前記撮像手段は車両に固定されている。
これにより、ピッチングする車両から物標までの距離を高精度で推定できる。
8.上記実施形態の情報処理方法は、
画像取得部と画像処理を行う処理部とを有する情報処理方法であって、
前記画像取得部は、撮像手段により時系列の画像を取得し、
前記処理部は、
前記時系列の画像のうち、対象画像よりも前に取得した基準画像を、相異なる複数通りのシフト量で上下方向にシフトした複数のシフト画像を生成し、前記複数のシフト画像の各々と前記対象画像との差分を基に前記撮像手段のピッチによる補正量を特定する。
この構成により、従来技術と比べてより軽い負荷で精度の高い補正量を推定することができる情報処理方法を提供できる。
発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。
20-29 ECU、41 カメラ

Claims (7)

  1. 撮像手段により時系列の画像を取得する画像取得部と、
    画像処理を行う処理部とを有し、
    前記処理部は、
    前記時系列の画像のうち、対象画像よりも前に取得した基準画像を、前記基準画像が撮影されてから前記対象画像が撮影されるまでの時間差と前記撮像手段の移動の速度とに基づいて、前記基準画像に含まれた前記対象画像の撮影範囲の画角が前記対象画像の画角と一致するよう拡大し、拡大した前記基準画像を相異なる複数通りのシフト量で上下方向にシフトした複数のシフト画像を生成し、前記複数のシフト画像の各々と前記対象画像との差分を基に前記撮像手段のピッチによる補正量を特定する
    ことを特徴とする情報処理装置。
  2. 請求項に記載の情報処理装置であって、
    前記処理部は、前記複数のシフト画像の各々と前記対象画像との差分として、画像間で相違する対応画素の画素数を求め、前記複数のシフト画像それぞれのシフト量と前記画素数との相関に基づいて、前記シフト量を変数として前記画素数を与える二次関数を決定し、前記二次関数の最小値を与えるシフト量に基づいて前記補正量を特定する
    ことを特徴とする情報処理装置。
  3. 請求項1または2に記載の情報処理装置であって、
    前記処理部はさらに、時系列の複数の対象画像に基づいて求めた補正量を積算して前記補正量を特定し、積算する際に、過去の対象画像について特定した補正量については忘却係数を乗ずる
    ことを特徴とする情報処理装置。
  4. 請求項1乃至のいずれか一項に記載の情報処理装置であって、
    前記処理部は、前記対象画像と前記基準画像との差分に基づいて前記撮像手段の横方向への移動を判定し、横方向への移動が判定された場合には、前記補正量を0とする
    ことを特徴とする情報処理装置。
  5. 請求項1乃至のいずれか一項に記載の情報処理装置であって、
    前記処理部は、前記対象画像におけるオブジェクトまでの高さと前記補正量とに基づいて、前記対象画像に含まれたオブジェクトに対応する物標までの距離を特定する
    ことを特徴とする情報処理装置。
  6. 請求項1乃至のいずれか一項に記載の情報処理装置であって、
    前記撮像手段は車両に固定されている
    ことを特徴とする情報処理装置。
  7. 画像取得部と画像処理を行う処理部とを有する情報処理方法であって、
    前記画像取得部は、撮像手段により時系列の画像を取得し、
    前記処理部は、
    前記時系列の画像のうち、対象画像よりも前に取得した基準画像を、前記基準画像が撮影されてから前記対象画像が撮影されるまでの時間差と前記撮像手段の移動の速度とに基づいて、前記基準画像に含まれた前記対象画像の撮影範囲の画角が前記対象画像の画角と一致するよう拡大し、拡大した前記基準画像を相異なる複数通りのシフト量で上下方向にシフトした複数のシフト画像を生成し、前記複数のシフト画像の各々と前記対象画像との差分を基に前記撮像手段のピッチによる補正量を特定する
    ことを特徴とする情報処理方法。
JP2021058436A 2021-03-30 2021-03-30 情報処理装置及び方法 Active JP7253001B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021058436A JP7253001B2 (ja) 2021-03-30 2021-03-30 情報処理装置及び方法
US17/703,282 US20220318972A1 (en) 2021-03-30 2022-03-24 Information processing apparatus and information processing method
CN202210311988.8A CN115150546A (zh) 2021-03-30 2022-03-28 信息处理装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021058436A JP7253001B2 (ja) 2021-03-30 2021-03-30 情報処理装置及び方法

Publications (2)

Publication Number Publication Date
JP2022155097A JP2022155097A (ja) 2022-10-13
JP7253001B2 true JP7253001B2 (ja) 2023-04-05

Family

ID=83407016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021058436A Active JP7253001B2 (ja) 2021-03-30 2021-03-30 情報処理装置及び方法

Country Status (3)

Country Link
US (1) US20220318972A1 (ja)
JP (1) JP7253001B2 (ja)
CN (1) CN115150546A (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007240422A (ja) 2006-03-10 2007-09-20 Fujitsu Ten Ltd 俯角算出装置、俯角算出方法、俯角算出プログラムおよび画像処理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007097431A1 (ja) * 2006-02-23 2007-08-30 Matsushita Electric Industrial Co., Ltd. 画像補正装置、方法、プログラム、集積回路、システム
JP2009065283A (ja) * 2007-09-04 2009-03-26 For-A Co Ltd 画像ぶれ補正装置
US10200649B2 (en) * 2014-02-07 2019-02-05 Morpho, Inc. Image processing device, image processing method and recording medium for reducing noise in image
WO2017122552A1 (ja) * 2016-01-15 2017-07-20 ソニー株式会社 画像処理装置および方法、プログラム、並びに画像処理システム
WO2018088212A1 (ja) * 2016-11-08 2018-05-17 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
WO2019019172A1 (en) * 2017-07-28 2019-01-31 Qualcomm Incorporated ADAPTIVE IMAGE PROCESSING IN A ROBOTIC VEHICLE
CN113016052A (zh) * 2018-11-01 2021-06-22 东京毅力科创株式会社 图像处理方法以及图像处理装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007240422A (ja) 2006-03-10 2007-09-20 Fujitsu Ten Ltd 俯角算出装置、俯角算出方法、俯角算出プログラムおよび画像処理装置

Also Published As

Publication number Publication date
US20220318972A1 (en) 2022-10-06
CN115150546A (zh) 2022-10-04
JP2022155097A (ja) 2022-10-13

Similar Documents

Publication Publication Date Title
JP7108856B2 (ja) 運転制御システムおよび運転制御方法
US10147003B2 (en) Lane detection device and method thereof, curve starting point detection device and method thereof, and steering assistance device and method thereof
JP6950170B2 (ja) 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム
CN109313813B (zh) 用于机动车辆的视觉系统和方法
US10853666B2 (en) Target object estimating apparatus
US20200090347A1 (en) Apparatus for estimating movement information
US11299148B2 (en) Travel control apparatus and vehicle
JP6564127B2 (ja) 自動車用視覚システム及び視覚システムを制御する方法
CN111480057A (zh) 图像处理装置、图像处理方法和程序
CN108292441B (zh) 用于机动车辆的视觉系统和控制视觉系统的方法
JP7253001B2 (ja) 情報処理装置及び方法
JP2019212015A (ja) 車両データの時刻同期装置及び方法
CN111417959B (zh) 信息处理装置、信息处理方法及程序记录介质
JP2021193340A (ja) 自己位置推定装置
JP2020024562A (ja) 物体認識装置、車両制御装置、物体認識方法、およびプログラム
JP6808753B2 (ja) 画像補正装置および画像補正方法
US11727590B2 (en) Vision system and method for a motor vehicle
JP2012118682A (ja) 運転支援制御装置
CN115143940B (zh) 测距装置和测距方法
EP3789908A1 (en) Mono vision system and method for a motor vehicle
EP3340173B1 (en) Vision system and method for a motor vehicle
JP2017049666A (ja) 飛び出し物体検知装置および飛び出し物体検知方法
JP2023149233A (ja) 画像処理装置および画像処理方法
EP3312797A1 (en) Vision system and method for a motor vehicle
CN116534029A (zh) 车辆控制装置、存储介质以及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230324

R150 Certificate of patent or registration of utility model

Ref document number: 7253001

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150