JP2024038527A - 信号処理装置、信号処理方法及び信号処理システム - Google Patents

信号処理装置、信号処理方法及び信号処理システム Download PDF

Info

Publication number
JP2024038527A
JP2024038527A JP2021002942A JP2021002942A JP2024038527A JP 2024038527 A JP2024038527 A JP 2024038527A JP 2021002942 A JP2021002942 A JP 2021002942A JP 2021002942 A JP2021002942 A JP 2021002942A JP 2024038527 A JP2024038527 A JP 2024038527A
Authority
JP
Japan
Prior art keywords
image
optical flow
signal processing
error
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021002942A
Other languages
English (en)
Inventor
清 東原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Priority to JP2021002942A priority Critical patent/JP2024038527A/ja
Priority to PCT/JP2021/047163 priority patent/WO2022153795A1/ja
Priority to US18/260,250 priority patent/US20240054656A1/en
Priority to DE112021006799.0T priority patent/DE112021006799T5/de
Publication of JP2024038527A publication Critical patent/JP2024038527A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】撮像装置の設置誤差を簡単な処理で検出する信号処理装置、信号処理方法及び信号処理システムを提供する。【解決手段】信号処理システム100は、車両に設置された撮像部1と、撮像部1により撮像された画像に基づき、オプティカルフローを検出するオプティカルフロー検出部4、オプティカルフローの情報に基づいて、撮像部1の姿勢の誤差量を算出する設置誤差算出部5及び姿勢の誤差量と、撮像部により撮像された画像に基づき、表示用画像を生成する画像処理部2を有する信号処理装置101と、表示用画像を表示する画像表示部9と、を備える。【選択図】図1

Description

本開示は、信号処理装置、信号処理方法及び信号処理システムに関する。
車両の前後や側面にカメラを設置して、カメラで撮像した画像を運転席のモニタに表示するカメラシステムがある。カメラシステムにより運転席から視認できない周囲の状況を運転手に提示し、運転を補助できる。
車両へカメラを設置する時に、カメラの設置に誤差(カメラの設置誤差)が生じる場合がある。例えばカメラの設置角(カメラの姿勢)に誤差が生じる場合がある。誤差が生じると、カメラの撮像領域と、本来の正しい撮像領域との間にずれが生じることになる。
カメラシステムによっては、運転者が見るモニタに、カメラの撮像画像に重畳して、目安線や進路予想線等、補助的なラインを表示する場合がある。カメラの設置誤差に起因して撮像領域のずれがあると、目安線や進路予想線が実際の位置とはずれた位置に表示される問題がある。
また、近年、車載カメラは、運転者による監視用のみならず、車両システムによる運転補助機能や自動運転機能にも用いられる。例えば、車両システムがカメラの撮像画像から障害物や歩行者等の対象物を検出し、対象物との距離を測定し、推定の結果を車両側の駆動ユニットに送る。駆動ユニットでは推定結果をもとに、運転者に対する警告通知や、自動ブレーキを動作させるといった制御を行う。
距離の測定は、カメラの設置角度のずれの影響を受けるため、カメラが所定の設計通り、誤差なく設置されていない場合、正確な距離を測定できなくなるという問題がある。
カメラの設置誤差を検出する方法として、校正用チャートを撮像した画像(例えば市松模様の画像)を基準画像として用いる方法が知られている。この方法では、車両に設置したカメラによって校正用チャートを撮像し、撮像した画像と、カメラによって撮像された画像(理想画像)とのずれを算出する。ずれを小さくするようにカメラの設置位置や角度を調整する。
より詳細には、カメラの設置は、3次元の位置(X,Y,Z)と、カメラ光軸方向(ヨー角、ピッチ角、ロール角)の6つのパラメータで決まる。6つのパラメータで決まる位置及び角度で撮像した場合に得られる校正チャート(基準画像)と、実際のカメラで撮像された画像とを比較し、両者の差分を演算すること等により6つの成分のずれ量を求める。
しかしながら、車載カメラのような広角レンズカメラの場合、カメラのずれ量に対しての映像のずれ量が小さくなり、高精度の検出が難しくなる。また、算出方法も複雑になる。
校正チャートを用いずに、カメラの設置誤差を検出する方法もある。例えば、走行中に撮像した画像から求めた消失点に基づき、カメラの設置誤差を検出する方法がある。しかしながら、画像によっては消失点が存在しない場合もある。この場合、カメラの設置誤差を検出できない。
特許第5173551号公報 特許第6354425号公報
本開示は、撮像装置の設置誤差を簡単な処理で検出する信号処理装置、信号処理方法及び信号処理システムを提供する。
本開示の信号処理装置は、車両に設置された撮像装置により撮像された画像に基づき、オプティカルフローを検出するオプティカルフロー検出部と、前記オプティカルフローの情報に基づいて、前記撮像装置の姿勢の誤差量を算出する設置誤差算出部とを備える。
本開示の信号処理方法は、車両に設置された撮像装置により撮像された画像に基づき、オプティカルフローを検出し、前記オプティカルフローの情報に基づいて、前記撮像装置の姿勢の誤差量を算出する。
本開示の信号処理システムは、車両に設置された撮像部と、前記撮像部により撮像された画像に基づき、オプティカルフローを検出するオプティカルフロー検出部と、前記オプティカルフローの情報に基づいて、前記撮像部の姿勢の誤差量を算出する設置誤差算出部と、前記姿勢の誤差量と、前記撮像部により撮像された画像に基づき、表示用画像を生成する画像生成部と、前記表示用画像を表示する画像表示部とを備える。
本開示に係る信号処理システムの一例のブロック図。 図1の信号処理システム を搭載した車両を側面から示した図。 uvw座標系を概念的に表す図。 カメラのロール軸方向に対応する仮想光軸A1の例を示す図。 カメラのピッチ軸方向に対応する仮想光軸A2と、ピッチ軸の負方向に対応する仮想光軸A3の例を示す図。 カメラと、被写体との位置関係を平面的に示す図。 図6と同じ状態を車両の側方の斜め上方から見た図。 図6及び図7の状態でカメラにより撮像された画像の例を示す図。 図8の画像を検出用変換マップで変換したマップ変換画像の例を示す図。 オプティカルフローを検出する処理を説明するための図。 オプティカルフローを検出する処理を説明するための図。 複数のオプティカルフローを検出する例を示す図。 消失点が存在する画像の例と、消失点が存在しない画像の例を示す図。 カメラに設置誤差が無い場合のオプティカルフローの例を示す図。 カメラにヨー角及びピッチ角の設置誤差がある場合のオプティカルフローの例を示す図。 マップ変換画像C1と垂直中心線との位置関係の複数の例を示す図。 マップ変換画像C2と水平線との位置関係の複数の例を示す図。 マップ変換画像C3と水平線との位置関係の複数の例を示す図。 画像処理部が認識処理用に生成する処理画像の一例を示す図。 第1実施形態に係る信号処理システムの動作の一例のフローチャート。 第2実施形態に係る信号処理システムのブロック図。 第2実施形態に係る信号処理システムの動作の一例のフローチャート。
以下、図面を参照して、本開示の実施形態について説明する。本開示において示される1以上の実施形態において、各実施形態が含む要素を互いに組み合わせることができ、かつ、当該組み合わせられた結果物も本開示が示す実施形態の一部をなす。
(第1実施形態)
図1は、本開示の第1実施形態に係る信号処理システム100の一例を示すブロック図である。図1の信号処理システム100は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車等の車両に搭載されることができる。但し、本開示に係る技術は、AGV(Automated Guided Vehicle)、パーソナルモビリティ、飛行機、ドローン、船舶、移動ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されることもできる。
図1の信号処理システム100は、カメラ1と、画像表示部9と、信号処理装置101とを備えている。カメラ1及び画像表示部9の少なくとも一方が信号処理装置101に含まれていてもよい。信号処理装置101は、画像処理部2と、検出用変換マップ記憶部3と、オプティカルフロー検出部4と、設置誤差算出部5と、表示用変換マップ記憶部6と、マップ補正部7と、距離算出部8とを備えている。図1の信号処理システム100の各構成は通信ネットワークにより接続されている。この通信ネットワークは、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)などの任意の規格に準拠した車載通信ネットワークであってよい。図1の構成要素2~8は、典型的にはECU(Electronic Control Unit)で構成される。
図2は、図1の信号処理システム100を搭載した車両を側面から示した例を示す。図1のカメラ1は、車両Eの後部に設置された車載カメラである。図1の画像表示部9は車両内の運転手から視認可能な位置に設けられている。但し、本開示に係る技術は有人自動車のみならず、無人自動車の場合にも適用可能である。この場合、画像表示部9が設けられない構成も可能である。以下、カメラ1の設置誤差について説明する。
カメラ1の光源から、車両の進行方向またはその逆方向に平行であり、車両の走行面35に平行な線を水平線34とする。水平線は仮想的な線であり、実際には存在しない線である。カメラ1は、水平線34に対して俯角θで下方向を向くよう設置されている。俯角θは水平線34と、カメラ1のカメラ光軸32とがなす角度である。カメラ1が水平線34に対して下方向を向くことで、車両Eのボディの一部が画面に表示されるため、車両の後退時に、車両Eと対象物との距離感が運転手にわかりやすくなる。但し、カメラ1が水平線34に平行な方向を向いてもよいし、水平線34に対して上方向を向いてもよい。カメラ1で撮像された画像は信号処理システム100で搭乗者(運転手等のユーザ)に提示用の表示用画像に変換された後、画像表示部9に送られ、画像表示部9に表示される。
カメラ1が設計値通りに設置されている場合、カメラ1の設置誤差(位置及び角度のずれ量)はゼロである。カメラ1が設計値通りに設置されていない場合、カメラ1の設置位置又は角度の少なくとも一方にずれ量(ずれ量のことを誤差量と呼ぶ)が生じる。カメラ1の設置位置の誤差は、水平方向、前後方向、鉛直方向(x軸、y軸、z軸)により規定される実座標系における位置の誤差として表れる。設置角度の誤差は、uvw座標系における、ピッチ角(θu)、ヨー角(θv)、及びロール角(θw)の少なくとも1つの誤差として表れる。本実施形態では主としてピッチ角又はヨー角の誤差がある場合を記載する。
図3を参照して、uvw座標系について説明する。図3は、uvw座標系を概念的に表す図である。カメラ1の光源を中心として3次元のuvw座標系が定義される。実座標系を規定する水平方向、前後方向、鉛直方向(x軸、y軸、z軸)を、実座標系内においてカメラ1の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって得られる3つの方向を、カメラ1におけるuvw座標系のピッチ軸(u軸)、ヨー軸(v軸)、およびロール軸(w軸)とする。本実施形態では、カメラ1が設計値通りに設置された場合に、カメラ1の光源から見て、車両の進行方向に平行でかつ走行面に平行な方向が、uvw座標系のロール軸方向に対応する。ピッチ角(θu)は、ピッチ軸周りのカメラ1の傾き角度を表す。ヨー角(θv)は、ヨー軸周りのカメラ1の傾き角度を表す。ロール角(θw)は、ロール軸周りのカメラ1の傾き角度を表す。設置されたカメラ1の俯角θが40度場合、ピッチ角は40度となる。ピッチ角の設計値が40度で、実際のピッチ角が43度のとき、ピッチ角のずれ量が3度である。ヨー角等についても同様にしてずれ量が定義される。
カメラ1が設計値通り、例えばカメラ1は俯角40度で、ヨー角及びロール角が0度で、車両Eの後部中心に走行面からの高さ1mの位置に設置されているとする。この場合、車両の進行方向に平行でかつ走行面に平行な方向が、カメラ1のロール軸方向に一致する。当該ロール軸方向に直交しかつ走行面に平行な2つの方向の一方がピッチ軸方向、他方がピッチ軸の負方向に対応する。カメラ1の設置角度(例えばピッチ角)が設計値と3度ずれた場合、カメラ1におけるピッチ軸が、設計値通りにカメラ1が設置された場合のピッチ軸(車両の進行方向に平行でかつ走行面に平行な方向)に対して、3度ずれることになる。
以上、カメラ1の設置誤差について説明した。以下、図1の信号処理システム100について詳細に説明する。
図1のカメラ1は、車両Eの後方を含む周囲の環境を撮像する撮像装置又は撮像部である。カメラ1は、撮像により画素(ピクセル)ごとに輝度情報を含む画像データを取得する。カメラ1は、例えば、RGBカメラ、モノクロカメラ、赤外線などであるが、これらに限定されない。カメラ1は、単眼カメラでも、複眼カメラでもよい。本例では、カメラ1は広角レンズを用いた単眼のRGBカメラを想定する。カメラ1は撮像した画像を画像処理部2に提供する。具体的には、カメラ1は一定のサンプリングレートで撮像を行い、時系列の複数のフレームの画像を画像処理部2に順次提供する。
画像処理部2は、カメラ1に接続されており、カメラ1から一定時間毎に提供される複数のフレームの画像(時系列の画像)を受け取り、受け取った画像を処理する。画像処理部2は、受け取った画像を3つの方向の3つの視点(仮想光軸)の画像に変換する。具体的には以下の通りである。
画像処理部2は、受け取った画像を、第1視点の画像に変換する。第1視点は、ロール軸方向の視点であり、ピッチ角0度、ヨー角0度の方向の視点である。つまり、ロール軸方向に延びる仮想光軸(仮想光軸A1とする)を定義した場合に、カメラ光軸32(図2参照)の方向の画像を、仮想光軸A1の方向の画像に変換する。
図4は、カメラ1の光源からロール軸方向(ピッチ角0度、ヨー角0度の方向)に延びる仮想光軸A1の例を示す。仮想光軸A1は、仮にカメラ1にピッチ角(俯角)の設置誤差がなかった場合、車両の進行方向に平行で、かつ走行面に平行な方向に対応する軸である。すなわちこの場合、仮想光軸A1は図2の水平線34に平行である。しかしながら、仮にピッチ角(俯角)の誤差がある場合は、仮想光軸A1は水平線34に対して誤差に応じた角度だけ傾くことになる。
また、画像処理部2は、カメラ1から受けた画像を、第2視点の画像に変換する。第2視点は、ピッチ角0度、ヨー角90度(ヨー角90度はピッチ軸の正方向に対応する)の方向の視点である。つまり、ピッチ軸方向に延びる仮想光軸(仮想光軸A2とする)を定義した場合に、カメラ光軸32の方向の画像を、仮想光軸A2の方向の画像に変換する。
図5は、カメラ1の光源からピッチ軸方向(ピッチ角0度、ヨー角90度の方向)に延びる仮想光軸A2の例を示す。図5には車両を後方から見た状態が示されている。仮想光軸A2は、仮にカメラ1にヨー角の設置誤差がなかった場合、車両の進行方向に垂直で、かつ走行面に平行な方向の軸である。すなわちこの場合、仮想光軸A2は図2の水平線34に垂直で、かつ走行面に平行である。しかしながら、仮にヨー角に誤差がある場合は、仮想光軸A2は車両の進行方向に垂直な方向に対して、誤差に応じた角度だけ傾く。
また、画像処理部2は、カメラ1から受けた画像を、第3視点の画像に変換する。第3視点は、ピッチ角0度、ヨー角-90度(-90度はピッチ軸の負方向に対応する)の方向の視点である。つまり、ピッチ軸負方向に延びる仮想光軸(仮想光軸A3とする)を定義した場合に、カメラ光軸32の方向の画像を、仮想光軸A3の方向の画像に変換する。
上述の図5には、カメラ1の光源からピッチ軸負方向(ピッチ角0度、ヨー角-90度の方向)に延びる仮想光軸A3の例が示される。仮想光軸A3は、仮にカメラ1にヨー角の設置誤差がなかった場合、車両の進行方向に垂直で、かつ走行面に平行な方向の軸である。すなわちこの場合、仮想光軸A3は図2の水平線34に垂直で、かつ走行面に平行である。しかしながら、仮にヨー角に誤差がある場合は、仮想光軸A3は車両の進行方向に垂直な方向に対して、誤差に応じた角度だけ傾く。
なお、上述した第2視点及び第3視点の定義を逆にしてもよい。すなわち第2視点を仮想光軸A3に対応する視点、第3視点を仮想光軸A2に対応する視点としてもよい。
画像処理部2は、カメラ1の撮像画像を上述の3つの視点(3つの仮想光軸A1,A2,A3)の画像に変換するために、検出用変換マップ記憶部3に記憶された検出用変換マップM1,M2,M3を用いる。
検出用変換マップ記憶部3は、検出用変換マップM1~M3を記憶している。検出用変換マップM1は、カメラ1の画像を第1視点(仮想光軸A1)の画像に変換(画像幾何学変換)するための変換情報である。検出用変換マップM2は、カメラ1の画像を第2視点(仮想光軸A2)の画像に変換するための変換情報である。検出用変換マップM3は、カメラ1の画像を第3視点(仮想光軸A3)の画像に変換するための変換情報である。検出用変換マップ記憶部3は、メモリ装置、ハードディスク、又は光ディスク等の記録媒体である。メモリ装置は不揮発性メモリでも、揮発性メモリでもよい。
検出用変換マップM1は、カメラ1の画像のどの画素(ピクセル)を、仮想光軸A1の方向の画像のどの画素にマッピングするかを定めている。画素間のマッピングは1対1でもよいし、カメラ1の画像における複数の画素を、仮想光軸A1の方向の画像の1つの画素にマッピングしてもよい。この場合、例えば複数の画素の値の演算値(例えば複数の画素にフィルタを乗じて得られる値)を、1つの画素にマッピングする。検出用変換マップM1はルックアップテーブル等の変換前の画素値と変換後の画素値とを対応づけた対応情報でもよい。または、検出用変換マップM1は、カメラ1の画像における1つ以上の画素の値を入力とし、仮想光軸A1の方向の画像における1つの画素の値を出力する関数(変換関数)でもよい。検出用変換マップM1は、例えば、カメラ1のパラメータ(外部パラメータ及び内部パラメータ)に基づく画像幾何変換(例えばアフィン変換)を利用して生成できる。検出用変換マップM2及び検出用変換マップM3についても、検出用変換マップM1と同様にして生成できる。
画像処理部2は、検出用変換マップ記憶部3から検出用変換マップM1を読み出し、検出用変換マップM1に基づいて、カメラ1の撮像画像を第1視点の画像(仮想光軸A1の方向の画像)に変換する。同様に、画像処理部2は、検出用変換マップ記憶部3から検出用変換マップM2を読み出し、検出用変換マップM2に基づいて、カメラ1の撮像画像を第2視点の画像(仮想光軸A2の方向の画像)に変換する。さらに、画像処理部2は、検出用変換マップ記憶部3から検出用変換マップM3を読み出し、検出用変換マップM3に基づいて、カメラ1の撮像画像を、第3視点の画像(仮想光軸A3の方向の画像)に変換する。
以下、検出用変換マップM1で変換した画像(仮想光軸A1の方向の画像)のことをマップ変換画像C1、検出用変換マップM2で変換した画像(仮想光軸A2の方向の画像)のことをマップ変換画像C2、検出用変換マップM3で変換した画像(仮想光軸A3の方向の画像)のことをマップ変換画像C3と記載する。
以下、図6~図9を用いて、画像処理部2の動作を具体的に説明する。
図6は、カメラ1と、被写体となる8本の円柱P1~P8との位置関係を平面的に示す図である。
図7は、図6と同じ状態を車両Eの側方の斜め上方から見た図である。
車両Eが前進する場合を想定し、車両Eの進行方向の逆方向をy軸正方向とする。走行面に平行で、y軸に直交し、車両Eから見て右90度側の方向をx軸負方向とする。走行面に平行で、y軸に直交し、車両Eから見て左90度側の方向をx軸正方向とする。カメラ1の光源位置をxy座標系の原点としたとき、(-3,0)、(-3,1)、(-3,2)、(-1,3)、(0,3)、(1,3)、(3,0)、(3,1)、(3,2)の位置(単位は[m])に、円柱P1~P8が配置されている。円柱P1~P8は、例えば、直径20[cm]、高さ2[m]である。
図8は、図6及び図7の状態でカメラ1により撮像された画像の例を示す。この画像は、圧縮符号化等の処理をされていない高画質な生画像データ(raw image data)の画像である。カメラ1設置の設計値として、カメラ1の高さは例えば、車両Eの後方部中心に走行面から1[m]の高さで、姿勢はロール角(俯角)が40度、ヨー角は0度である。図8の例の画像は、カメラ1が設計値通りに設置されている場合に得られたものである。カメラ1に広角レンズを用いているため、全体として歪みのある画像となっている。図8の画像において、4隅の領域B1~B4は、カメラ1の撮像範囲外の領域であり、特定の色になっている。
図9は、図8の画像を検出用変換マップM1~M3で変換して得られたマップ変換画像C1~C3の例を示す。マップ変換画像C1は、図8の画像を第1視点(仮想光軸A1)の方向に変換した画像である。マップ変換画像C2は、図8の画像を第2視点(仮想光軸A2)の方向に変換した画像である。マップ変換画像C3は、図8の画像を第3視点(仮想光軸A3)の方向に変換した画像である。それぞれ変換時に図8の画像の歪みは除去されている。この歪みの除去は、検出用変換マップM1~M3に反映させられている。
図1のオプティカルフロー検出部4は、画像処理部2に接続されており、画像処理部2からマップ変換画像C1~C3を受け取り、マップ変換画像C1~C3のそれぞれについてオプティカルフローを検出する。具体的には、オプティカルフロー検出部4は、時系列的の複数のマップ変換画像C1を用いて、マップ変換画像C1からオプティカルフローを検出する。同様に、オプティカルフロー検出部4は、時系列の複数のマップ変換画像C2を用いて、マップ変換画像C2からオプティカルフローを検出する。オプティカルフロー検出部4は、時系列の複数のマップ変換画像C3を用いて、マップ変換画像C3からオプティカルフローを検出する。
オプティカルフローとは、時系列的に前後する画像の対応する各点の移動量を示すベクトルである。
図10及び図11はオプティカルフローを検出する処理を説明するための図である。図9には現在フレームの画像51と画像51内の点Kとが示される。点Kは画像51内の任意のオブジェクト又はオブジェクトの一部を表す。図11には、現在フレームより時間T1前に取得された過去フレームの画像52と、現在フレームより時間T1前の位置の点Kとが示される。図10及び図11において、画像の上方向にV軸をとり、画像の右方向にU軸をとる。また、画像の中心をU軸およびV軸の原点とする。オプティカルフローを検出する処理は、画像51内の点が画像52中のどこから移動したかを探索することで行われる。
画像52から画像51にかけて点Kが、図10に示すように移動したとする。画像52での点Kの位置が(u-Δu,v-Δv)であり、画像51では点Kの位置が(u,v)である。この画像51における点Kの位置と画像52における点Kの位置の差である(Δu,Δv)が、画像51の点Kにおけるオプティカルフローとなる。すなわち、画像51の点(u,v)はオプティカルフローの終点であり、画像52の位置(u-Δu,v-Δv)に対応する画像51上の位置(u-Δu,v-Δv)はオプティカルフローの始点ともいえる。図10及び図11では2つの画像を用いて説明したが3つ以上の画像を用いることで、3つ以上の点の隣接する点間のベクトルの集合をオプティカルフローとして検出してもよい。
オプティカルフロー検出部4は、マップ変換画像CX(Xは1~3の整数)について、画像CX内の1つ又は複数の点のオプティカルフローを検出する。オプティカルフローの検出対象となる点は、オブジェクトとして(追跡対象として)認識可能であれば何でもよい。
図12は、画像53において複数のオプティカルフローを検出した例を示す。画像内に内側に向かう複数のオプティカルフロー(図の例では6個のオプティカルフロー)が示される。複数のオプティカルフローは、画像53の水平方向(U軸方向)における中心を通り、V軸に平行な線上に収束する。複数のオプティカルフローが収束する点は消失点POに相当する。消失点POは、各オプティカルフローを終点側に延長した直線が交差する点ともいえる。
設置誤差算出部5は、オプティカルフロー検出部4に接続されており、マップ変換画像C1~C3のそれぞれについて、オプティカルフロー検出部4によって検出されたオプティカルフローの情報を取得する。設置誤差算出部5は、取得した情報を用いて、カメラ1の姿勢の誤差量を算出する。具体的には、設置誤差算出部5は、ピッチ角のずれ量(ピッチ角の誤差量)、及びヨー角のずれ量(ヨー角の誤差量)を算出する。以下、設置誤差算出部5の動作について詳細に説明する。
[ヨー角のずれ量の算出]
設置誤差算出部5は、マップ変換画像C1から検出されたオプティカルフローの情報に基づき、カメラ1の設置の設計値に対するヨー角のずれ量(ヨー角の誤差量)を算出する。カメラ1が設計値通りに設置されている状態で、車両が前進(直進)した場合、マップ変換画像C1には、マップ変換画像C1の水平方向の中心を通る垂直線(以下、垂直中心線)上の点に収束するオプティカルフローが生じる。より詳細には、マップ変換画像C1内の点は垂直中心線上の消失点に収束する。なお、消失点はマップ変換画像C1に含まれるとは限られず、マップ変換画像C1に消失点が含まれない場合(マップ変換画像C1の外側にある場合)もあり得る。
図13(A)は消失点が存在する画像の例、図13(B)は消失点が存在しない画像の例を示す。例えば、カメラの垂直画角が狭い場合、あるいはカメラの俯角が大きい場合などに消失点が存在しないことが起こり得る。なお、図13(A)及び図13(B)の画像は、カメラ1の撮像画像を変換する前の広角画像データ(高精細生画像データ)による画像である。
設置誤差算出部5は、マップ変換画像C1においてオプティカルフローが収束する水平方向の位置(オプティカルフローが収束する垂直線)を算出する。設置誤差算出部5は、算出した水平方向の位置と、水平方向の中心位置との距離(すなわち垂直線と垂直中心線との距離)を算出する。距離は、例えば算出した垂直線のU軸の座標と、垂直中心線のU軸座標との差分により算出される。算出した差分はヨー角のずれ量に対応する。このようにマップ変換画像C1におけるオプティカルフローの収束線(垂直線)は、ヨー角のずれ量分、画像の垂直中心線からシフトする。算出した距離が0のときは、ヨー角の誤差が無い場合に相当する。設置誤差算出部5は、距離に応じたヨー角のずれ量を算出する。例えば、画像上の水平方向のずれ量(画素数)をΔH、画像全体の水平方向出力サイズをH、出力水平画角をAとした場合、ヨー角のずれ量Δyawは、以下の関係式(1)から計算できる。
tan(Δyaw)/tan(A/2)=ΔH/H (1)
ここでは関係式を用いてヨー角のずれ量を算出したが、水平方向出力サイズ及び出力水平画角Aが予め決められている場合は、距離とヨー角のずれ量とを対応づけたルックアップテーブル等の情報を用いて、ヨー角のずれ量を算出してもよい。
オプティカルフローが収束する垂直線を算出する方法として、マップ変換画像C1内でU軸に直交する(V軸に平行な)オプティカルフローを検出し、検出したオプティカルフローのU軸座標を垂直線の水平方向の位置としてもよい。あるいは、検出された1つ以上のオプティカルフローから垂直線の水平方向の位置を推定してもよい。例えば1つ以上のオプティカルフローを入力とし、収束する垂直線のU軸座標を出力とする学習済みのニューラルネットワークを用いてもよい。他の方法を用いて、オプティカルフローが収束する垂直線を算出してもよい。
[ピッチ角のずれ量の算出]
設置誤差算出部5は、マップ変換画像C2から検出されたオプティカルフローの情報に基づき、カメラ1設置の設計値に対するピッチ角のずれ量(ピッチ角の誤差量)を算出する。カメラ1が設計値通りに設置されている状態で、車両が前進した場合、マップ変換画像C2には、マップ変換画像C2にU軸に平行(V軸に垂直)なオプティカルフローが生じる。
設置誤差算出部5は、マップ変換画像C2から算出されたオプティカルフローのU軸に対する傾きを算出する。算出した傾きが0である場合、ピッチ角のずれ量は0(誤差が無い場合)に相当する。設置誤差算出部5は、傾きに応じたピッチ角のずれ量を算出する。すなわち、マップ変換画像C2のオプティカルフローは、ピッチ角のずれ量分傾くため、その傾きを検出することで、ピッチ角のずれ量を求めることができる。なお、出力画像の縦横のスケール(アスペクト)が異なる場合は、アスペクト比を考慮して換算すればよい。ピッチ角のずれ量を算出するために、設置誤差算出部5は、傾きとピッチ角のずれ量とを対応づけたルックアップテーブル等の対応情報を用いてもよい。または、傾きを入力としてピッチ角のずれ量を出力とする関数を用いてもよい。傾きの算出に用いるオプティカルフローは1つでも複数でもよい。複数の場合、複数のオプティカルフローの傾きの統計値(最大値、最小値、平均値等)を用いて、ずれ量を算出してもよい。またはオプティかフローごとにずれ量を算出し、算出したずれ量の統計値(最大値、最小値、又は平均値等)を採用してもよい。複数のオプティカルフローを用いることで、傾き算出の精度を向上させることができる。
設置誤差算出部5は、マップ変換画像C3についてもマップ変換画像C2と同様にして、ピッチ角のずれ量(ピッチ角の誤差量)を算出する。すなわち、マップ変換画像C3から算出されたオプティカルフローのU軸に対する傾きを算出する。設置誤差算出部5は、傾きに応じたピッチ角のずれ量を算出する。
設置誤差算出部5は、マップ変換画像C2及びマップ変換画像C3に対して算出したピッチ角のずれ量に基づき、ピッチ角のずれ量を最終的に決定する。例えばピッチ角のずれ量の大きい方又は小さい方を採用する。また両方のピッチ角の平均又は加重平均を採用してもよい。マップ変換画像C2及びマップ変換画像C3の両方を用いてピッチ角のずれ量を算出したが、いずれか一方のみからピッチ角のずれ量を算出してもよい。これにより演算量を低減できる。一方、両方を用いてピッチ角のずれ量を算出することで、算出の精度を向上させることができる。
以下、図14~図18を用いて、ヨー角のずれ量及びピッチ角のずれ量の算出方法の具体例を説明する。
図14(A)~図14(C)は、カメラ1に設置誤差が無い場合に、前進する車両Eのカメラ1の撮像画像から得られたマップ変換画像C1~C3と、それぞれから検出されたオプティカルフローの例を示す。マップ変換画像C1ではオプティカルフローが垂直中心線CL上に収束している。マップ変換画像C2,C3ではオプティカルフローが画像水平方向(U軸)に平行になっている。このように図14に示した例では、ピッチ角のずれ量及びヨー角のずれ量はいずれも0である。
図15(A)~図15(C)は、カメラ1にヨー角3度及びピッチ角3度の設置誤差がある場合に、前進する車両Eのカメラ1の撮像画像から得られたマップ変換画像C1~C3と、それぞれから検出されたオプティカルフローの例を示す。マップ変換画像C1において垂直中心線CLからずれた位置の垂直線ELにオプティカルフローが収束している。この場合、垂直線ELのU座標(水平位置)と、垂直中心線CLのU座標(水平位置)との差ΔHに応じたヨー角のずれ量が設置誤差算出部5によって算出される。マップ変換画像C2において水平線HL1からθ1だけ傾いたオプティカルフローが検出されている。この場合、傾きθ1に応じたピッチ角のずれ量が、設置誤差算出部5によって算出される。マップ変換画像C3において水平線HL2からθ2だけ傾いたオプティカルフローが検出されている。この場合、傾きθ2に応じたピッチ角のずれ量が、設置誤差算出部5によって算出される。
図16は、(A)設置誤差が無い場合、(B)ピッチ角3度の設置誤差がありヨー角に誤差はない場合、(C)ヨー角に3度の誤差がありピッチ角に誤差は無い場合、(D)ピッチ角3度及びヨー角3度の誤差がある場合のそれぞれにおいて、マップ変換画像C1と垂直中心線CLとの位置関係を示す。図16(A)の設置誤差が無い場合、及び図16(B)のピッチ角にずれがある場合、垂直中心線CLと、オプティカルフロー(図示せず)の収束する垂直線(収束線)は一致する。図16(C)のヨー角に誤差がある場合、及び図16(D)のヨー角とピッチ角の双方に誤差がある場合、オプティカルフローの収束先は垂直中心線CLからずれる。このようにマップ変換画像C1ではピッチ角の影響を受けずに、ヨー角のずれを独立して検出可能である。
図17は、(A)設置誤差が無い場合、(B)ヨー角3度の設置誤差がありピッチ角に誤差はない場合、(C)ピッチ角に3度の誤差がありヨー角に誤差は無い場合、(D)ヨー角3度及びピッチ角3度の誤差がある場合のそれぞれにおいて、マップ変換画像C2と水平線HL1との位置関係を示す。図17(A)の設置誤差が無い場合、及び図17(B)のヨー角にずれがある場合、水平線HL1と、オプティカルフロー(図示せず)は平行である。一方、図17(C)のピッチ角に誤差がある場合、図17(D)のヨー角とピッチ角の双方に誤差がある場合、オプティカルフローは水平線HL1に対して誤差に応じた角度だけ傾く。このようにマップ変換画像C2ではヨー角の影響を受けずに、ピッチ角のずれを独立して検出可能である。
図18は、(A)設置誤差が無い場合、(B)ヨー角3度の設置誤差がありピッチ角に誤差はない場合、(C)ピッチ角に3度の誤差がありヨー角に誤差は無い場合、(D)ヨー角3度及びピッチ角3度の誤差がある場合のそれぞれにおいて、マップ変換画像C3と水平線HL2との位置関係を示す。図18(A)の設置誤差が無い場合、及び図18(B)のヨー角にピッチ角にずれがある場合、水平線HL2と、オプティカルフロー(図示せず)は平行である。一方、図18(C)のピッチ角に誤差がある場合、図18(D)のヨー角とピッチ角の双方に誤差がある場合、オプティカルフローは水平線HL2に対して誤差に応じた角度だけ傾く。このようにマップ変換画像C3ではヨー角の影響を受けずに、ピッチ角のずれを独立して検出可能である。
設置誤差算出部5は、算出した姿勢の誤差量、すなわち、ヨー角のずれ量及びピッチ角のずれ量に関する情報を含む設置誤差情報を、マップ補正部7及び距離算出部8に提供する。
表示用変換マップ記憶部6は、カメラ1の撮像画像を画像表示部9の表示用画像に変換するための変換情報である表示用変換マップを記憶している。表示用変換マップは、車両後退時(駐停車時等)に画像を表示する場合、又は車両前進時に後方の画像を表示する場合など、用途に応じて複数記憶されていてもよい。表示用変換マップ記憶部6は、メモリ装置、ハードディスク、又は光ディスク等の記録媒体である。メモリ装置は不揮発性メモリでも、揮発性メモリでもよい。
表示用変換マップは、カメラ1の撮像画像のどの画素(ピクセル)を、表示用画像のどの画素にマッピングするかを定めている。表示用変換マップは、例えば、カメラ1のパラメータ(外部パラメータ及び内部パラメータ)に基づく画像幾何変換を利用して生成できる。表示用変換マップは、カメラ1が設計値通りに設置された場合(カメラ1のピッチ角及びヨー角等にずれがない場合)を想定して作成されている。表示用変換マップによる画素間のマッピングは1対1でもよいし、カメラ1の撮像画像の複数の画素を、表示用画像の1画素にマッピングしてもよい。表示用変換マップはルックアップテーブルでもよいし、カメラ1の画像における1つ以上の画素の値を入力とし、表示用画像における1つの画素の値を出力する関数でもよい。
マップ補正部7は、表示用変換マップ記憶部6と設置誤差算出部5とに接続されている。マップ補正部7は、表示用変換マップ記憶部6に記憶されている表示用変換マップを読み出し、設置誤差算出部5から設置誤差情報(ピッチ角のずれ量、ヨー角のずれ量の情報)を取得する。マップ補正部7は、設置誤差情報に基づき、表示用変換マップを補正し、補正した表示用変換マップを表示用変換マップ記憶部6に書き込む。例えばカメラ1の撮像画像と表示用画像との間で1対1のマッピングを行う場合、ずれ量に応じた分の画素数だけマッピング先を変えることにより表示用変換マップを補正する。表示用変換マップがピッチ角及びヨー角をパラメータとして含む関数である場合、関数のパラメータを設置誤差情報で更新することにより、表示用変換マップを補正する。これにより、例えばカメラ1の俯角(ピッチ角)の設計値が40度であり、実際のカメラ1の俯角が45度であった場合でも、俯角が40度で設置された場合と同等の画像を表示できる。
画像処理部2は、表示用変換マップ記憶部6から補正された表示用変換マップを読み出し、読み出した表示用変換マップに基づいて、カメラ1の撮像画像を表示用の画像に変換する。画像処理部2は、変換された画像を画像表示部9に提供する。画像表示部は、画像処理部2に接続されており、画像処理部2から提供された画像を画面に表示する。表示された画像は、車両の搭乗者(運転手等のユーザ)に視認される。例えば車両の後退時に、後方下部を含む周囲の環境の画像を表示する。車両の搭乗者は、カメラ1の設置に誤差があった場合でも、設置誤差に起因する画像のずれが補正された画像を視認できる。
距離算出部8は、設置誤差算出部5に接続されており、設置誤差算出部5によって算出された設置誤差情報(ピッチ角のずれ量、ヨー角のずれ量の情報)を取得する。また、距離算出部8は、画像処理部2に接続されており、画像処理部2から認識処理用の画像を取得する。画像処理部2は、カメラ1で撮像された画像に基づき、認識処理用の画像を生成する。画像処理部2は、例えば、カメラ1で撮像された画像を、所望の視点の画像に変換し、変換した画像に、画像中の物体を認識しやすくするための画像処理を行うことで、処理画像を生成する。画像処理の例として、自動露出制御、自動ホワイトバランス調整、ハイダイナミックレンジ合成などがある。所望の視点は、前述した第1視点~第3視点の少なくとも1つと同じでもよいし、これらとは別の視点でもよい。また、カメラ1の撮像画像を視点変換せずに、認識処理用に用いてもよい。また画像処理部2は画像表示部9に表示用の画像を認識処理用の処理画像として流用してもよい。
距離算出部8は、処理画像に対して、認識処理を行うことで画像中の物体を認識する。認識対象とする物体は、3次元のもの、2次元のものいずれでもよい。例えば、車両、歩行者、障害物、信号機、交通標識、道路の車線(レーン)、歩道の縁石などがある。
距離算出部8は、処理画像中の物体に関する物体情報として、物体までの距離を算出する。その他、距離算出部8は、物体情報として、物体の形状、物体の位置、物体の方向、物体の移動方向及び移動速度等の少なくとも1つを算出してもよい。距離算出部8、時間的に連続する複数の処理画像を用いて物体情報を算出してもよい。
距離算出部8による物体までの距離の算出方法の一例として、対象物である他車両との車間距離を算出する方法について説明する。
図19は、画像処理部2が認識処理用に生成する処理画像Gの一例を示している。処理画像Gには、他車両MFと、走行レーンを規定する2本の車線L1,L2と、が示されている。
まず、処理画像G中で2本の車線L1,L2が交わる消失点Vを求める。なお、消失点Vは、車線L1,L2によらずに、他の物体から求めてもよい。例えば、歩道の縁石や、複数の処理画像における交通標識などの固定物の移動軌跡などを用いて消失点Vを求めることもできる。
次に、処理画像の下縁部G1から消失点Vまでの距離D0(画像における上下方向の寸法)と、処理画像の下縁部G1から他車両MFまでの距離D1(画像における上下方向の寸法)と、を求める。他車両MFとの車間距離は、例えば、距離D0、D1間の比率を用いて求めることができる。距離D0、D1間の比率に加えて、車線L1、L2間の実距離、処理画像Gにおける車線L1、L2の角度を用いてもよい。車間距離を算出する際、距離算出部8は、設置誤差情報(ピッチ角のずれ量、ヨー角のずれ量の情報)に基づき対象物の位置を補正し、補正後の位置の対象物に対して、距離を算出する。あるいは、距離算出部8は、設置誤差情報を用いずに算出した対象物までの距離を、設置誤差情報に基づき補正してもよい。車線L1、L2間の実距離は、高精度地図情報を用いて算出してもよいし、予め車線L1、L2間の実距離の情報が与えられていてもよい。高精度地図情報は外部のサーバから無線又は有線の通信で取得してもよいし、距離算出部8からアクセス可能な記憶部に高精度地図情報が記憶されていてもよい。
距離算出部8は、算出した距離を、後段の処理部(後述する図21参照)に出力する。算出した距離は、車両Eの自動運転制御又は運転補助等に用いることができる。運転補助機能とは、典型的には、衝突回避、衝撃緩和、追従走行(車間距離の維持)、車速維持走行、衝突警告、レーン逸脱警告などを含むADAS(Advanced Driver Assistance System)の機能である。
撮像画像中の対象物の画素位置に基づいて対象物との距離を算出する場合に、カメラの設置角度が設計値からずれた画像を用いると、対象物の検出位置がずれてしまい、算出される距離の精度が悪くなることがある。本実施形態では、設置誤差情報に基づき物体までの距離を算出することで、算出する距離の精度を高くできる。
図20は、信号処理システム100の動作の一例のフローチャートである。図20のフローチャートのステップの順序は一例であり、ステップの順序が入れ替わってもよい。例えばステップS4,S5の順序を入れ替えてもよい。ステップS6,S7の順序を入れ替えてもよい。
ステップS1において、車両Eの走行中、カメラ1が一定のサンプリングレートで画像を撮像し、撮像した画像を画像処理部2に提供する。
ステップS2において、画像処理部2は、検出用変換マップ記憶部3に記憶されている検出用変換マップM1~M3を用いて、カメラ1の撮像画像を3つの視点の画像(仮想光軸A1~A3の方向の画像)に変換することにより、マップ変換画像C1~C3を得る。
ステップS3において、オプティカルフロー検出部4は、時系列のマップ変換画像C1からオプティカルフローを検出し、時系列のマップ変換画像C2からオプティカルフローを検出し、時系列のマップ変換画像C3からオプティカルフローを検出する。
ステップS4、S5において、設置誤差算出部5は、マップ変換画像C1~C3から検出されたオプティカルフローを用いて姿勢の誤差量を算出する。具体的には、まずステップS4において、設置誤差算出部5は、マップ変換画像C1から検出したオプティカルフローを用いて、ヨー角のずれ量を算出する。例えば画像C1において垂直方向のオプティカルフローを検出し、検出したオプティカルフローの水平座標(U軸座標)と、画像C1の垂直中心線の座標との差分を算出する。設置誤差算出部5は、差分に応じたヨー角のずれ量を算出する。
続くステップS5において、設置誤差算出部5は、マップ変換画像C2から検出したオプティカルフローを用いて、ピッチ角のずれ量を算出する。例えば画像C2において検出されたオプティカルフローの水平方向に対する傾き(角度)を算出し、傾きに応じたピッチ角のずれ量を算出する。設置誤差算出部5は、マップ変換画像C3についてもマップ変換画像C2と同様にして、ピッチ角のずれ量を算出する。設置誤差算出部5は、算出した2つのずれ量に基づき、最終的なピッチ角のずれ量を決定する。例えば2つのずれ量の平均値、最小値又は最大値等の値を決定する。なお、画像C2、C3のいずれか一方のみからオプティカルフローを検出し、ピッチ角のずれ量を算出してもよい。これにより設置誤差算出部5の演算量を低減し、処理時間を短くできる。
ステップS6において、マップ補正部7は、姿勢の誤差量(ピッチ角のずれ量、ヨー角のずれ量の情報)に基づき、表示用変換マップ記憶部6に記憶されている表示用変換マップを補正する。画像処理部2は、補正された表示用変換マップに基づいて、カメラ1の撮像画像を表示用の画像に変換する。画像表示部9は、画像処理部2により変換された画像を受け取り、画像を表示する。これにより、車両の搭乗者は、カメラ1の設置に誤差があった場合でも、設置誤差に起因する画像のずれが補正された画像を視認できる。
ステップS7において、画像処理部2は、カメラ1で撮像された画像に基づき、認識処理用の処理画像を生成する。距離算出部8は、画像処理部2から認識処理用の処理画像を取得し、認識処理を行うことで画像中の物体を認識する。距離算出部8は、設置誤差算出部5により算出された姿勢の誤差量の情報(設置誤差情報)を取得し、設置誤差情報に基づき、処理画像中の物体までの距離を算出する。例えば、距離算出部8は、設置誤差情報を用いずに処理画像中の物体までの距離を算出した後、算出した距離を設置誤差情報に基づき補正する。あるいは、距離算出部8は、処理画像を設置誤差情報に基づき補正した後、補正後の処理画像に基づき認識処理を行い、物体までの距離を算出する。
以上、本実施形態によれば、画像のオプティカルフローを用いてカメラの姿勢の誤差量(ずれ量)を検出するため、校正チャートを用いずに、カメラの姿勢の誤差量を検出できる。
また本実施形態によれば、カメラの撮像画像を、ロール軸方向の視点の画像と、ピッチ軸方向の視点の画像、ピッチ軸負方向の視点の画像に変換し、それぞれの画像からオプティカルフローを検出する。これにより、ヨー角のずれ量、ピッチ角のずれ量を独立して検出できる。また高精度の検出が可能であり、また検出が容易になる。
また、本実施形態によれば、カメラの設置誤差を検出するために消失点を算出する必要がないため、画像上に消失点が存在しない場合(例えばカメラの垂直画角が狭い、あるいはカメラの俯角が大きい場合)でも、カメラの姿勢の誤差量を検出できる。
<変形例1>
上述した実施形態では後方にカメラを設置した車両を前方に進行させる場合の動作例を記載したが、車両を後方に進行させる場合にも同様の処理が可能である。なお、この場合、第1視点の画像(仮想光軸A1の方向の画像)では、オプティカルフローは消失点から放射状に発生する。
<変形例2>
カメラ1が車両の後方部に設置されていたが、カメラが車両の前方部に設置されてもよい。車両の前方を含む周囲の環境をカメラで撮像する場合も、本実施形態と同様の構成及び処理を実現可能である。
<変形例3>
図1では、カメラ1と他の機能ブロックは異なるものとして説明した。しかし、信号処理システム100における任意のブロックがカメラ1内に含まれるようにしてもよい。例えば、画像処理部2で行う処理の少なくとも一部をカメラ1の回路基板に実装された画像処理部によって行ってもよい。図1の信号処理システム100全体を一つの装置として構成してもよい。また、信号処理装置101を含む筐体(第1筐体)と、カメラ1を含む筐体(第2筐体)とが異なる筐体であってもよい。また、信号処理装置101とカメラ1とが同じ筐体に含まれ、そして、一つの装置に含まれていてもよい。
<変形例4>
上述の実施形態では、広角レンズのカメラを用い、カメラの撮像画像を複数の視点の画像に変換した。変形例4として、例えば、狭角レンズのカメラを車両の後方に設置し、カメラの姿勢の設計値として、カメラ光軸及びロール軸が、車両の進行方向に平行かつ走行面に平行としてもよい。この場合、カメラの撮像画像を視点変換せずに用いて、オプティカルフローの検出及びヨー角のずれ量の算出を行ってもよい。同様に、例えば、狭角レンズのカメラを車両の両側面の一方又は双方に設置し、カメラの姿勢の設計値としてロール軸及びカメラ光軸が車両の進行方向に垂直かつ走行面に平行としてもよい。この場合、カメラの撮像画像を視点変換せずに用いて、オプティカルフローの検出及びピッチ角のずれ量の算出を行ってもよい。
(第2実施形態)
図21は、第2実施形態に係る信号処理システム100Aのブロック図である。図1の信号処理システムに対して、情報生成部10と、駆動制御部11と、駆動制御システム20が追加されている。情報生成部10と駆動制御部11とは信号処理装置101Aに含まれている。信号処理システム100Aは、カメラ1を用いて車両Eの駆動を制御する。信号処理システム100Aは、カメラ1によって撮像した画像を用いて、駆動制御システム20の駆動力発生機構M11、制動機構M12、ステアリング機構M13などを制御する。
信号処理システム100Aによって実現可能な機能としては、例えば、上述の運転補助機能や自動運転機能などが挙げられる。ここでは運転補助機能を実現可能な信号処理システム100Aについて説明する。距離算出部8が対象物までの距離を算出するまでの動作は第1実施形態と同様であるため説明を省略する。
情報生成部10は、距離算出部8によって算出された対象物までの距離等の情報に基づき、駆動制御システム20の動作に必要な駆動制御情報を生成する。より詳細に、情報生成部10は、距離算出部8によって算出された距離等の情報に基づいて、駆動制御システム20に実行させるべき駆動を決定し、この駆動の指示を含む駆動制御情報を生成する。情報生成部10は、生成した駆動制御情報を駆動制御部11に提供する。なお、情報生成部10は、駆動制御情報以外の情報を生成してもよい。
駆動制御システム20に実行させる駆動としては、例えば、速度の変更(加速、減速)、進行方向の変更などが挙げられる。具体例として、情報生成部10は、車両Eと他車両MFとの車間距離が小さい場合、例えば閾値以下の場合には、駆動制御システム20に車両Eの減速を行わせることを決定する。この場合、情報生成部10は減速の指示を含む駆動制御情報を生成し、生成した駆動制御情報を駆動制御部11に提供する。
駆動制御部11は、情報生成部10から受けた駆動制御情報に基づき、駆動制御信号を生成し、駆動制御信号を出力する。例えば、駆動制御部11は、駆動力発生機構M11によって車両Eを加速させ、制動機構M12によって車両Eを減速させ、あるいは、ステアリング機構M13によって車両Eの進行方向を変更させることができる。
図22は、信号処理システム100Aの動作の一例のフローチャートである。ステップS1~S7は、図20のフローチャートと同じであるため、ステップS8以降を説明する。
ステップS8において、情報生成部10は、距離算出部8によって算出された対象物までの距離等の情報に基づき、駆動制御システム20の動作に必要な駆動制御情報を生成する。
ステップS9において、駆動制御部11は、情報生成部10から受けた駆動制御情報に基づき、駆動制御信号を生成し、駆動制御信号を駆動制御システム20に出力する。
ステップS10において、駆動制御システム20が車両の駆動を制御する。例えば、駆動力発生機構M11が車両Eを加速させる。または、制動機構M12によって車両Eを減速させる。または、ステアリング機構M13によって車両Eの進行方向を変更させる。
<変形例1>
上述した実施形態では後方にカメラを設置した車両を前方に進行させる場合の動作例を記載したが、車両を後方に進行させる場合にも同様の処理が可能である。なお、この場合、第1視点の画像(仮想光軸A1の方向の画像)では、オプティカルフローは消失点から放射状に発生する。
<変形例2>
カメラ1が車両の後方部に設置されていたが、カメラが車両の前方部に設置されてもよい。車両の前方を含む周囲の環境をカメラで撮像する場合も、本実施形態と同様の構成及び処理を実現可能である。
<変形例3>
図1では、カメラ1と他の機能ブロックは異なるものとして説明した。しかし、信号処理システム100Aにおける任意のブロックがカメラ1内に含まれるようにしてもよい。例えば、画像処理部2で行う処理の少なくとも一部をカメラ1の回路基板に実装された画像処理部によって行ってもよい。図21の信号処理システム100A全体を一つの装置として構成してもよい。また、信号処理装置101Aを含む筐体(第1筐体)と、カメラ1を含む筐体(第2筐体)とが異なる筐体であってもよい。また、信号処理装置101Aとカメラ1とが同じ筐体に含まれ、そして、一つの装置に含まれていてもよい。
<変形例4>
上述の実施形態では、広角レンズのカメラを用い、カメラの撮像画像を複数の視点の画像に変換した。変形例4として、例えば、狭角レンズのカメラを車両の後方に設置し、カメラの姿勢の設計値として、カメラ光軸及びロール軸が、車両の進行方向に平行かつ走行面に平行としてもよい。この場合、カメラの撮像画像を視点変換せずに用いて、オプティカルフローの検出及びヨー角のずれ量の算出を行ってもよい。同様に、例えば、狭角レンズのカメラを車両の両側面の一方又は双方に設置し、カメラの姿勢の設計値としてロール軸及びカメラ光軸が車両の進行方向に垂直かつ走行面に平行としてもよい。この場合、カメラの撮像画像を視点変換せずに用いて、オプティカルフローの検出及びピッチ角のずれ量の算出を行ってもよい。
なお、上述の実施形態は本開示を具現化するための一例を示したものであり、その他の様々な形態で本開示を実施することが可能である。例えば、本開示の要旨を逸脱しない範囲で、種々の変形、置換、省略又はこれらの組み合わせが可能である。そのような変形、置換、省略等を行った形態も、本開示の範囲に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
また、本明細書に記載された本開示の効果は例示に過ぎず、その他の効果があってもよい。
なお、本開示は以下のような構成を取ることもできる。
[項目1]
車両に設置された撮像装置により撮像された画像に基づき、オプティカルフローを検出するオプティカルフロー検出部と、
前記オプティカルフローの情報に基づいて、前記撮像装置の姿勢の誤差量を算出する設置誤差算出部と
を備えた信号処理装置。
[項目2]
前記設置誤差算出部は、前記画像の水平方向において前記オプティカルフローが収束する位置に基づいて、前記姿勢の誤差量を算出する
項目1に記載の信号処理装置。
[項目3]
前記オプティカルフロー検出部は、前記画像において垂直方向のオプティカルフローを検出し、
前記設置誤差算出部は、前記垂直方向のオプティカルフローの水平方向の位置に基づいて、前記姿勢の誤差量を算出する
項目2に記載の信号処理装置。
[項目4]
前記画像を、前記撮像装置の光源から第1視点の画像に変換する画像処理部を備え、
前記オプティカルフロー検出部は、前記第1視点の画像に基づいて、前記オプティカルフローを検出する
項目2又は3に記載の信号処理装置。
[項目5]
前記撮像装置の光源は前記撮像装置のヨー軸回りに回転した方向を向き、
前記第1視点は、前記撮像装置のロール軸の方向を向く
項目4に記載の信号処理装置。
[項目6]
前記ロール軸は、前記撮像装置が前記姿勢に誤差が無い状態で設置されている場合、前記車両の進行方向に平行であり、かつ前記車両の走行面に平行である、
項目5に記載の信号処理装置。
[項目7]
前記姿勢の誤差量は、前記撮像装置のヨー角の誤差量を含む
項目1~6のいずれか一項に記載の信号処理装置。
[項目8]
前記設置誤差算出部は、前記画像における前記オプティカルフローの傾きに基づいて、前記姿勢の誤差量を算出する
項目1~7のいずれか一項に記載の信号処理装置。
[項目9]
前記画像を、前記撮像装置の光源から第2視点の画像に変換する画像処理部を備え、
前記オプティカルフロー検出部は、前記第2視点の画像に基づいて、前記オプティカルフローを検出する
項目1~8のいずれか一項に記載の信号処理装置。
[項目10]
前記撮像装置の光源は前記撮像装置のピッチ軸回りに回転した方向を向き、
前記第2視点は、前記撮像装置のピッチ軸方向を向く
請求項9に記載の信号処理装置。
[項目11]
前記姿勢の誤差量は、前記撮像装置のピッチ角の誤差量を含む
項目1~10のいずれか一項に記載の信号処理装置。
[項目12]
前記ピッチ軸は、前記撮像装置が前記姿勢に誤差が無い状態で設置されている場合、前記車両の進行方向に垂直な方向に平行であり、かつ前記車両の走行面に平行である、
項目11に記載の信号処理装置。
[項目13]
前記画像処理部は、前記画像を、前記撮像装置の光源から前記第2視点と反対方向の第3視点の画像に変換し、
前記オプティカルフロー検出部は、前記第3視点の画像に基づいて、前記オプティカルフローを検出し、
前記設置誤差算出部は、前記第2視点の画像の前記オプティカルフローの情報と、前記第3視点の画像の前記オプティカルフローの情報とに基づいて、前記姿勢の誤差量を算出する
請求項9~12のいずれか一項に記載の信号処理装置。
[項目14]
前記姿勢の誤差量に基づき前記画像を補正して、画像表示部に表示させる表示用画像を生成する画像処理部
を備えた項目1~13のいずれか一項に記載の信号処理装置。
[項目15]
前記画像を前記表示用画像に変換する変換情報を前記姿勢の誤差量に基づき補正するマップ補正部を備え、
前記画像処理部は、前記画像を、補正された前記変換情報により変換することで、前記表示用画像を生成する
項目14に記載の信号処理装置。
[項目16]
前記画像に基づき処理画像を生成する画像処理部を備え、
前記処理画像と前記姿勢の誤差量とに基づき、前記処理画像に含まれる対象物までの距離を算出する距離算出部
を備えた項目1~15のいずれか一項に記載の信号処理装置。
[項目17]
前記撮像装置を備えた
項目1~16のいずれか一項に記載の信号処理装置。
[項目18]
前記画像処理部及び前記設置誤差算出部を含む第1筐体と、
前記撮像装置を含む第2筐体と、を備え、
前記第1筐体は前記第2筐体とは異なる筐体である
項目17に記載の信号処理装置。
[項目19]
車両に設置された撮像装置により撮像された画像に基づき、オプティカルフローを検出し、
前記オプティカルフローの情報に基づいて、前記撮像装置の姿勢の誤差量を算出する
信号処理方法。
[項目20]
車両に設置された撮像部と、
車両に設置された撮像装置により撮像された画像に基づき、オプティカルフローを検出するオプティカルフロー検出部と、
前記オプティカルフローの情報に基づいて、前記撮像部の姿勢の誤差量を算出する設置誤差算出部と、
前記姿勢の誤差量と、前記撮像部により撮像された画像に基づき、表示用画像を生成する画像生成部と、
前記表示用画像を表示する画像表示部と
を備えた信号処理システム。
E 車両
1 カメラ
2 画像処理部
3 検出用変換マップ記憶部
4 オプティカルフロー検出部
5 設置誤差算出部
6 表示用変換マップ記憶部
7 マップ補正部
8 距離算出部
9 画像表示部
10 情報生成部
11 駆動制御部
20 駆動制御システム
32 カメラ光軸
34 水平線
51 画像
52 画像
53 画像
100 信号処理システム
100A 信号処理システム
101 信号処理装置
101A 信号処理装置

Claims (20)

  1. 車両に設置された撮像装置により撮像された画像に基づき、オプティカルフローを検出するオプティカルフロー検出部と、
    前記オプティカルフローの情報に基づいて、前記撮像装置の姿勢の誤差量を算出する設置誤差算出部と
    を備えた信号処理装置。
  2. 前記設置誤差算出部は、前記画像の水平方向において前記オプティカルフローが収束する位置に基づいて、前記姿勢の誤差量を算出する
    請求項1に記載の信号処理装置。
  3. 前記オプティカルフロー検出部は、前記画像において垂直方向のオプティカルフローを検出し、
    前記設置誤差算出部は、前記垂直方向のオプティカルフローの水平方向の位置に基づいて、前記姿勢の誤差量を算出する
    請求項2に記載の信号処理装置。
  4. 前記画像を、前記撮像装置の光源から第1視点の画像に変換する画像処理部を備え、
    前記オプティカルフロー検出部は、前記第1視点の画像に基づいて、前記オプティカルフローを検出する
    請求項2に記載の信号処理装置。
  5. 前記撮像装置の光源は前記撮像装置のヨー軸回りに回転した方向を向き、
    前記第1視点は、前記撮像装置のロール軸の方向を向く
    請求項4に記載の信号処理装置。
  6. 前記ロール軸は、前記撮像装置が前記姿勢に誤差が無い状態で設置されている場合、前記車両の進行方向に平行であり、かつ前記車両の走行面に平行である、
    請求項5に記載の信号処理装置。
  7. 前記姿勢の誤差量は、前記撮像装置のヨー角の誤差量を含む
    請求項5に記載の信号処理装置。
  8. 前記設置誤差算出部は、前記画像における前記オプティカルフローの傾きに基づいて、前記姿勢の誤差量を算出する
    請求項1に記載の信号処理装置。
  9. 前記画像を、前記撮像装置の光源から第2視点の画像に変換する画像処理部を備え、
    前記オプティカルフロー検出部は、前記第2視点の画像に基づいて、前記オプティカルフローを検出する
    請求項8に記載の信号処理装置。
  10. 前記撮像装置の光源は前記撮像装置のピッチ軸回りに回転した方向を向き、
    前記第2視点は、前記撮像装置のピッチ軸方向を向く
    請求項9に記載の信号処理装置。
  11. 前記ピッチ軸は、前記撮像装置が前記姿勢に誤差が無い状態で設置されている場合、前記車両の進行方向に垂直な方向に平行であり、かつ前記車両の走行面に平行である、
    請求項10に記載の信号処理装置。
  12. 前記姿勢の誤差量は、前記撮像装置のピッチ角の誤差量を含む
    請求項10に記載の信号処理装置。
  13. 前記画像処理部は、前記画像を、前記撮像装置の光源から前記第2視点と反対方向の第3視点の画像に変換し、
    前記オプティカルフロー検出部は、前記第3視点の画像に基づいて、前記オプティカルフローを検出し、
    前記設置誤差算出部は、前記第2視点の画像の前記オプティカルフローの情報と、前記第3視点の画像の前記オプティカルフローの情報とに基づいて、前記姿勢の誤差量を算出する
    請求項9に記載の信号処理装置。
  14. 前記姿勢の誤差量に基づき前記画像を補正して、画像表示部に表示させる表示用画像を生成する画像処理部
    を備えた請求項1に記載の信号処理装置。
  15. 前記画像を前記表示用画像に変換する変換情報を前記姿勢の誤差量に基づき補正するマップ補正部を備え、
    前記画像処理部は、前記画像を、補正された前記変換情報により変換することで、前記表示用画像を生成する
    請求項14に記載の信号処理装置。
  16. 前記画像に基づき処理画像を生成する画像処理部を備え、
    前記処理画像と前記姿勢の誤差量とに基づき、前記処理画像に含まれる対象物までの距離を算出する距離算出部
    を備えた請求項1に記載の信号処理装置。
  17. 前記撮像装置を備えた
    請求項1に記載の信号処理装置。
  18. 前記オプティカルフロー検出部及び前記設置誤差算出部を含む第1筐体と、
    前記撮像装置を含む第2筐体と、を備え、
    前記第1筐体は前記第2筐体とは異なる筐体である
    請求項17に記載の信号処理装置。
  19. 車両に設置された撮像装置により撮像された画像に基づき、オプティカルフローを検出し、
    前記オプティカルフローの情報に基づいて、前記撮像装置の姿勢の誤差量を算出する
    信号処理方法。
  20. 車両に設置された撮像部と、
    前記撮像部により撮像された画像に基づき、オプティカルフローを検出するオプティカルフロー検出部と、
    前記オプティカルフローの情報に基づいて、前記撮像部の姿勢の誤差量を算出する設置誤差算出部と、
    前記姿勢の誤差量と、前記撮像部により撮像された画像に基づき、表示用画像を生成する画像生成部と、
    前記表示用画像を表示する画像表示部と
    を備えた信号処理システム。
JP2021002942A 2021-01-12 2021-01-12 信号処理装置、信号処理方法及び信号処理システム Pending JP2024038527A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021002942A JP2024038527A (ja) 2021-01-12 2021-01-12 信号処理装置、信号処理方法及び信号処理システム
PCT/JP2021/047163 WO2022153795A1 (ja) 2021-01-12 2021-12-21 信号処理装置、信号処理方法及び信号処理システム
US18/260,250 US20240054656A1 (en) 2021-01-12 2021-12-21 Signal processing device, signal processing method, and signal processing system
DE112021006799.0T DE112021006799T5 (de) 2021-01-12 2021-12-21 Signalverarbeitungsvorrichtung, signalverarbeitungsverfahren und signalverarbeitungssystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021002942A JP2024038527A (ja) 2021-01-12 2021-01-12 信号処理装置、信号処理方法及び信号処理システム

Publications (1)

Publication Number Publication Date
JP2024038527A true JP2024038527A (ja) 2024-03-21

Family

ID=82447247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021002942A Pending JP2024038527A (ja) 2021-01-12 2021-01-12 信号処理装置、信号処理方法及び信号処理システム

Country Status (4)

Country Link
US (1) US20240054656A1 (ja)
JP (1) JP2024038527A (ja)
DE (1) DE112021006799T5 (ja)
WO (1) WO2022153795A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115597498B (zh) * 2022-12-13 2023-03-31 成都铂贝科技有限公司 一种无人机定位及速度估计方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5526315Y2 (ja) 1974-12-05 1980-06-24
JPS6354425U (ja) 1986-09-26 1988-04-12
JP5665458B2 (ja) * 2010-09-27 2015-02-04 京セラ株式会社 運転支援装置及び運転支援表示の表示方法
JP6668975B2 (ja) * 2016-07-01 2020-03-18 株式会社ニコン 電子機器および自動車

Also Published As

Publication number Publication date
US20240054656A1 (en) 2024-02-15
DE112021006799T5 (de) 2023-11-02
WO2022153795A1 (ja) 2022-07-21

Similar Documents

Publication Publication Date Title
CN109360245B (zh) 无人驾驶车辆多相机系统的外参数标定方法
US9884623B2 (en) Method for image-based vehicle localization
KR102275310B1 (ko) 자동차 주변의 장애물 검출 방법
CN111986506B (zh) 基于多视觉系统的机械式停车位泊车方法
US8036424B2 (en) Field recognition apparatus, method for field recognition and program for the same
Gandhi et al. Vehicle surround capture: Survey of techniques and a novel omni-video-based approach for dynamic panoramic surround maps
US8564657B2 (en) Object motion detection system based on combining 3D warping techniques and a proper object motion detection
US11210533B1 (en) Method of predicting trajectory of vehicle
JP4425495B2 (ja) 車外監視装置
WO2021046716A1 (zh) 目标对象的检测方法、系统、设备及存储介质
WO2010032523A1 (ja) 道路境界検出判断装置
US11287879B2 (en) Display control device, display control method, and program for display based on travel conditions
CN109074653B (zh) 用于检测机动车辆的道路旁边的物体的方法、计算设备、驾驶员辅助系统以及机动车辆
CN108367710B (zh) 俯瞰影像生成装置、俯瞰影像生成系统、以及存储介质
US11887336B2 (en) Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle
CN109895697B (zh) 一种行车辅助提示系统及方法
WO2022153795A1 (ja) 信号処理装置、信号処理方法及び信号処理システム
JP6768554B2 (ja) キャリブレーション装置
CN113838060A (zh) 用于自主车辆的感知系统
Shan et al. Probabilistic egocentric motion correction of lidar point cloud and projection to camera images for moving platforms
WO2022153896A1 (ja) 撮像装置、画像処理方法及び画像処理プログラム
CN116524016A (zh) 图像处理装置及方法、移动体控制装置、以及存储介质
CN113646769A (zh) 用于图像归一化的系统和方法
CN115959112A (zh) 车辆控制装置、车辆控制方法及存储介质
JP6561688B2 (ja) 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム